How to Govern AI — Even If It’s Hard to Predict | Helen Toner | TED

61,561 views ・ 2024-05-01

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Selma El Mahyaoui Nagekeken door: Tahlia Flora
00:03
When I talk to people about artificial intelligence,
0
3583
3963
Als ik met mensen praat over kunstmatige intelligentie
00:07
something I hear a lot from non-experts is “I don’t understand AI.”
1
7546
5255
hoor ik vaak van leken: “Ik begrijp AI niet.”
00:13
But when I talk to experts, a funny thing happens.
2
13260
2794
Maar als ik met experts praat, gebeurt er iets grappigs.
00:16
They say, “I don’t understand AI, and neither does anyone else.”
3
16096
4546
Ze zeggen: “Ik begrijp AI niet, en andere mensen ook niet.”
00:21
This is a pretty strange state of affairs.
4
21393
3503
Dit is een vrij vreemde stand van zaken.
00:24
Normally, the people building a new technology
5
24896
3295
Normaal gesproken begrijpen de mensen die een nieuwe technologie ontwikkelen
00:28
understand how it works inside and out.
6
28233
2669
hoe alles tot in de puntjes werkt.
00:31
But for AI, a technology that's radically reshaping the world around us,
7
31695
4546
Maar voor AI, een technologie
die de wereld om ons heen radicaal verandert,
00:36
that's not so.
8
36283
1167
is dat niet zo.
00:37
Experts do know plenty about how to build and run AI systems, of course.
9
37492
4588
Experts weten natuurlijk veel
over het bouwen en beheren van AI-systemen.
00:42
But when it comes to how they work on the inside,
10
42455
2503
Maar als het gaat om hoe ze van binnen werken,
00:45
there are serious limits to how much we know.
11
45000
2877
zijn er ernstige grenzen aan hoeveel we weten.
00:48
And this matters because without deeply understanding AI,
12
48420
3879
En dat is belangrijk, want zonder diepgaand inzicht in AI,
00:52
it's really difficult for us to know what it will be able to do next,
13
52340
4255
is het erg moeilijk voor ons om te weten wat het vervolgens kan doen,
00:56
or even what it can do now.
14
56636
2336
of zelfs wat het nu kan doen.
00:59
And the fact that we have such a hard time understanding
15
59556
3378
Het feit dat het voor ons zo moeilijk is om te begrijpen
01:02
what's going on with the technology and predicting where it will go next,
16
62976
3837
wat er met de technologie aan de hand is
en te voorspellen waar de technologie naartoe zal gaan,
01:06
is one of the biggest hurdles we face in figuring out how to govern AI.
17
66855
4629
is een van de grootste hindernissen bij het aansturen van AI.
01:12
But AI is already all around us,
18
72861
2294
Maar AI is al overal om ons heen,
01:15
so we can't just sit around and wait for things to become clearer.
19
75155
4254
dus we kunnen niet blijven wachten tot alles duidelijker wordt.
01:19
We have to forge some kind of path forward anyway.
20
79826
3170
We moeten hoe dan ook een weg vooruit vinden.
01:24
I've been working on these AI policy and governance issues
21
84080
3629
Ik werk al ongeveer acht jaar aan deze beleids- en bestuurskwesties.
01:27
for about eight years,
22
87751
1167
01:28
First in San Francisco, now in Washington, DC.
23
88918
3170
Eerst in San Francisco, nu in Washington, D.C.
01:32
Along the way, I've gotten an inside look
24
92922
2753
Gaandeweg heb ik een kijkje genomen
01:35
at how governments are working to manage this technology.
25
95717
3754
in hoe overheden werken om deze technologie te beheren.
01:39
And inside the industry, I've seen a thing or two as well.
26
99471
4421
En binnen de branche heb ik ook het een en ander gezien.
(Gelach)
01:45
So I'm going to share a couple of ideas
27
105852
3170
Dus ik ga een paar ideeën delen
01:49
for what our path to governing AI could look like.
28
109022
3629
over hoe onze weg naar het besturen van AI eruit zou kunnen zien.
Maar laten we eerst eens bespreken
01:53
But first, let's talk about what actually makes AI so hard to understand
29
113026
4421
wat het zo moeilijk maakt om AI te begrijpen
01:57
and predict.
30
117489
1251
en te voorspellen.
01:59
One huge challenge in building artificial "intelligence"
31
119616
3837
Een grote uitdaging bij het bouwen van kunstmatige ‘intelligentie’
02:03
is that no one can agree on what it actually means
32
123495
3086
is dat niemand het eens kan worden over wat het eigenlijk betekent
02:06
to be intelligent.
33
126623
1752
om intelligent te zijn.
Dit is vreemd wanneer je een nieuwe technologie bouwt.
02:09
This is a strange place to be in when building a new tech.
34
129000
3170
02:12
When the Wright brothers started experimenting with planes,
35
132212
3295
Toen de Wright broers begonnen te experimenteren met vliegtuigen,
02:15
they didn't know how to build one,
36
135507
1668
wisten ze niet hoe ze er een moesten bouwen,
02:17
but everyone knew what it meant to fly.
37
137175
3128
maar iedereen wist wat vliegen betekende.
02:21
With AI on the other hand,
38
141596
1794
Bij AI daarentegen,
02:23
different experts have completely different intuitions
39
143431
3295
hebben verschillende experten totaal verschillende opvattingen
02:26
about what lies at the heart of intelligence.
40
146726
2920
over wat de kern van intelligentie is.
02:29
Is it problem solving?
41
149646
2210
Is het een probleemoplossing?
02:31
Is it learning and adaptation,
42
151898
2711
Is het leren en aanpassen?
02:34
are emotions,
43
154651
1418
Zijn emoties,
02:36
or having a physical body somehow involved?
44
156111
3128
of een fysiek lichaam er enigszins bij betrokken?
02:39
We genuinely don't know.
45
159698
1459
We weten het echt niet.
02:41
But different answers lead to radically different expectations
46
161157
4338
Maar verschillende antwoorden leiden tot totaal verschillende verwachtingen
02:45
about where the technology is going and how fast it'll get there.
47
165537
4254
over waar de technologie naartoe gaat en hoe snel die daar zal komen.
02:50
An example of how we're confused is how we used to talk
48
170834
2586
Een voorbeeld van hoe verward we zijn, is hoe we het vroeger hadden
02:53
about narrow versus general AI.
49
173461
2294
over nauwe versus algemene AI.
02:55
For a long time, we talked in terms of two buckets.
50
175797
3795
We hebben lang gesproken in termen van twee emmers.
02:59
A lot of people thought we should just be dividing between narrow AI,
51
179634
4129
Veel mensen dachten dat we onderscheid moesten maken tussen nauwe AI,
03:03
trained for one specific task,
52
183763
1919
getraind voor één specifieke taak,
03:05
like recommending the next YouTube video,
53
185724
2669
zoals het aanbevelen van de volgende YouTube-video,
03:08
versus artificial general intelligence, or AGI,
54
188435
3795
versus kunstmatige algemene intelligentie, of AGI,
03:12
that could do everything a human could do.
55
192272
2586
die alles kan wat een mens ook kan.
03:15
We thought of this distinction, narrow versus general,
56
195859
2919
We beschouwden dit onderscheid, specifiek versus algemeen,
03:18
as a core divide between what we could build in practice
57
198778
3963
als een kernkloof tussen wat we in de praktijk konden bouwen
03:22
and what would actually be intelligent.
58
202782
2252
en wat eigenlijk intelligent zou zijn.
03:25
But then a year or two ago, along came ChatGPT.
59
205952
4963
Maar een jaar of twee geleden kwam ChatGPT.
03:31
If you think about it,
60
211541
1543
Als je erover nadenkt,
03:33
you know, is it narrow AI, trained for one specific task?
61
213126
3712
is het beperkte AI, getraind voor één specifieke taak?
03:36
Or is it AGI and can do everything a human can do?
62
216838
3170
Of is het AGI en kan het alles doen wat een mens ook kan?
Het antwoord is duidelijk geen van beide.
03:41
Clearly the answer is neither.
63
221092
1502
03:42
It's certainly general purpose.
64
222635
1919
Het is zeker een algemeen doel.
03:44
It can code, write poetry,
65
224554
2920
Het kan coderen, poëzie schrijven,
03:47
analyze business problems, help you fix your car.
66
227515
3045
zakelijke problemen analyseren, helpen bij het repareren van je auto.
03:51
But it's a far cry from being able to do everything
67
231352
2795
Maar het kan in geen enkel opzicht
het net zo goed doen als jij en ik.
03:54
as well as you or I could do it.
68
234189
2419
03:56
So it turns out this idea of generality
69
236608
2043
Het blijkt dus dat dit idee van algemeenheid
03:58
doesn't actually seem to be the right dividing line
70
238651
2711
niet de juiste scheidslijn lijkt te zijn
04:01
between intelligent and not.
71
241404
2127
tussen wel of geen intelligentie.
En dit soort dingen
04:04
And this kind of thing
72
244073
1335
04:05
is a huge challenge for the whole field of AI right now.
73
245450
2794
zijn momenteel een enorme uitdaging voor de hele sector van AI.
04:08
We don't have any agreement on what we're trying to build
74
248286
2836
We hebben geen overeenstemming over wat we proberen te bouwen
04:11
or on what the road map looks like from here.
75
251164
2419
of over hoe de routekaart eruitziet.
04:13
We don't even clearly understand the AI systems that we have today.
76
253625
3962
We begrijpen de AI-systemen die er tegenwoordig zijn niet eens goed.
Waarom is dat zo?
04:18
Why is that?
77
258004
1251
Onderzoekers beschrijven diepe neurale netwerken,
04:19
Researchers sometimes describe deep neural networks,
78
259297
3003
04:22
the main kind of AI being built today,
79
262300
2085
de belangrijkste vorm van AI die nu gebouwd wordt,
04:24
as a black box.
80
264427
1460
soms als een zwarte doos.
04:26
But what they mean by that is not that it's inherently mysterious
81
266304
3670
Maar daarmee bedoelen ze niet dat het inherent mysterieus is
04:29
and we have no way of looking inside the box.
82
269974
2711
en dat we op geen enkele manier in de doos kunnen kijken.
04:33
The problem is that when we do look inside,
83
273228
2669
Het probleem is dat als we erin kijken,
04:35
what we find are millions,
84
275939
2335
we miljoenen, miljarden of zelfs biljoenen getallen vinden
04:38
billions or even trillions of numbers
85
278316
2878
04:41
that get added and multiplied together in a particular way.
86
281194
3462
die op een bepaalde manier bij elkaar worden opgeteld en vermenigvuldigd.
Wat het experts moeilijk maakt om te weten wat er gaande is,
04:45
What makes it hard for experts to know what's going on
87
285031
2544
04:47
is basically just, there are too many numbers,
88
287617
3086
is dat er eigenlijk te veel cijfers zijn,
04:50
and we don't yet have good ways of teasing apart what they're all doing.
89
290745
3962
en we hebben nog geen manier om te weten wat ze allemaal doen.
04:54
There's a little bit more to it than that, but not a lot.
90
294707
3003
Er is meer aan de hand, maar niet veel.
04:58
So how do we govern this technology
91
298545
3003
Hoe besturen we dan deze technologie
05:01
that we struggle to understand and predict?
92
301589
2628
die we moeilijk kunnen begrijpen en voorspellen?
05:04
I'm going to share two ideas.
93
304717
1502
Ik ga twee ideeën met jullie delen.
05:06
One for all of us and one for policymakers.
94
306261
3253
Een voor ons allemaal en een voor beleidsmakers.
05:10
First, don't be intimidated.
95
310932
2711
Ten eerste, laat je niet intimideren.
05:14
Either by the technology itself
96
314102
2461
Ofwel door de technologie zelf,
05:16
or by the people and companies building it.
97
316563
3086
of door de mensen en bedrijven die de technologie bouwen.
05:20
On the technology,
98
320400
1168
Wat de technologie betreft,
05:21
AI can be confusing, but it's not magical.
99
321568
2502
kan AI verwarrend zijn, maar het is niet magisch.
05:24
There are some parts of AI systems we do already understand well,
100
324070
3504
Sommige onderdelen van AI-systemen begrijpen we al goed,
05:27
and even the parts we don't understand won't be opaque forever.
101
327574
4045
en de onderdelen die we niet begrijpen, zullen niet altijd onduidelijk zijn.
05:31
An area of research known as “AI interpretability”
102
331619
3295
Een onderzoeksgebied dat bekend staat als ‘AI-interpreteerbaarheid’
05:34
has made quite a lot of progress in the last few years
103
334956
3128
heeft de afgelopen jaren behoorlijk wat vooruitgang geboekt
05:38
in making sense of what all those billions of numbers are doing.
104
338084
3504
bij het inzichtelijk maken van wat al die miljarden cijfers doen.
05:42
One team of researchers, for example,
105
342463
2169
Een team van onderzoekers, bijvoorbeeld,
05:44
found a way to identify different parts of a neural network
106
344674
3420
vond een manier om verschillende delen van een neuraal netwerk te identificeren
05:48
that they could dial up or dial down
107
348136
2335
die ze naar een hoger of lager niveau konden zetten
05:50
to make the AI's answers happier or angrier,
108
350513
3754
om de AI-antwoorden vrolijker, bozer, eerlijker en machiavellistischer te maken,
05:54
more honest,
109
354309
1418
05:55
more Machiavellian, and so on.
110
355768
2545
en zo verder.
05:58
If we can push forward this kind of research further,
111
358771
2503
Als we dit soort onderzoek verder kunnen voortzetten,
06:01
then five or 10 years from now,
112
361316
2210
dan hebben we binnen vijf of tien jaar,
06:03
we might have a much clearer understanding of what's going on
113
363526
3003
misschien een veel beter begrip
van wat er in de zogenaamde zwarte doos gebeurt.
06:06
inside the so-called black box.
114
366571
2669
06:10
And when it comes to those building the technology,
115
370325
2669
Als het gaat om degenen die de technologie ontwikkelen,
06:13
technologists sometimes act as though
116
373036
1918
gedragen technologen zich alsof degenen die de kleinste details niet beheersen,
06:14
if you're not elbows deep in the technical details,
117
374996
3420
06:18
then you're not entitled to an opinion on what we should do with it.
118
378458
3420
geen mening mogen hebben over wat we ermee moeten doen.
06:22
Expertise has its place, of course,
119
382337
2294
Expertise is natuurlijk op zijn plaats,
06:24
but history shows us how important it is
120
384672
2169
maar de geschiedenis leert ons hoe belangrijk het is
06:26
that the people affected by a new technology
121
386883
3003
dat de mensen die door een nieuwe technologie beïnvloed worden,
06:29
get to play a role in shaping how we use it.
122
389886
2753
een rol kunnen spelen in de manier waarop we die gebruiken.
06:32
Like the factory workers in the 20th century who fought for factory safety,
123
392639
4629
Zoals de fabrieksarbeiders in de 20e eeuw
die vochten voor fabrieksveiligheid,
06:37
or the disability advocates
124
397310
2127
of de voorstanders van gehandicapten
06:39
who made sure the world wide web was accessible.
125
399437
3003
die ervoor zorgden dat het wereldwijde web toegankelijk was.
06:42
You don't have to be a scientist or engineer to have a voice.
126
402982
3963
Je hoeft geen wetenschapper of ingenieur te zijn
om een stem te hebben.
06:48
(Applause)
127
408821
4547
(Applaus)
06:53
Second, we need to focus on adaptability, not certainty.
128
413868
5464
Ten tweede moeten we ons concentreren op aanpassingsvermogen,
niet op zekerheid.
06:59
A lot of conversations about how to make policy for AI
129
419749
3128
Veel gesprekken over hoe je beleid voor AI kunt maken,
07:02
get bogged down in fights between, on the one side,
130
422919
2711
verzanden in ruzies tussen, aan de ene kant,
07:05
people saying, "We have to regulate AI really hard right now
131
425672
3003
mensen die zeggen: “We moeten AI op dit moment heel hard reguleren
07:08
because it's so risky."
132
428716
1585
omdat het zo riskant is.”
07:10
And on the other side, people saying,
133
430301
1794
Aan de andere kant zeggen mensen:
“Maar regelgeving zal innovatie uitschakelen,
07:12
“But regulation will kill innovation, and those risks are made up anyway.”
134
432136
4129
en die risico’s worden hoe dan ook verzonnen.”
07:16
But the way I see it,
135
436307
1168
Maar volgens mij,
07:17
it’s not just a choice between slamming on the brakes
136
437475
2961
is het niet alleen een keuze tussen remmen
07:20
or hitting the gas.
137
440478
1502
of gas geven.
07:22
If you're driving down a road with unexpected twists and turns,
138
442313
3962
Als je over een weg rijdt met onverwachte wendingen,
07:26
then two things that will help you a lot
139
446275
2503
dan zijn er twee dingen die je heel erg helpen:
07:28
are having a clear view out the windshield
140
448778
2794
goed zicht door de voorruit
07:31
and an excellent steering system.
141
451614
2419
en een uitstekend stuursysteem.
07:34
In AI, this means having a clear picture of where the technology is
142
454033
5005
Bij AI betekent dit, een duidelijk beeld hebben
van waar de technologie zich bevindt
07:39
and where it's going,
143
459080
1627
en waar die naartoe gaat,
07:40
and having plans in place for what to do in different scenarios.
144
460707
3628
en dat je plannen hebt voor wat je in verschillende scenario’s moet doen.
07:44
Concretely, this means things like investing in our ability to measure
145
464752
4338
Concreet, betekent dit zaken als investeren in ons vermogen om te meten
07:49
what AI systems can do.
146
469132
1877
wat AI-systemen kunnen doen.
07:51
This sounds nerdy, but it really matters.
147
471342
3212
Dit klinkt nerdy, maar het is echt belangrijk.
07:54
Right now, if we want to figure out
148
474595
2044
Als we nu willen weten
07:56
whether an AI can do something concerning,
149
476681
2002
of een AI iets zorgwekkends kan doen,
07:58
like hack critical infrastructure
150
478725
2377
zoals kritieke infrastructuur hacken
08:01
or persuade someone to change their political beliefs,
151
481102
4671
of iemand overtuigen om zijn politieke mening te veranderen,
08:05
our methods of measuring that are rudimentary.
152
485773
2544
dan zijn onze meetmethoden rudimentair.
08:08
We need better.
153
488317
1210
We hebben betere methoden nodig.
08:10
We should also be requiring AI companies,
154
490319
2545
We zouden AI-bedrijven,
08:12
especially the companies building the most advanced AI systems,
155
492905
3420
zeker bedrijven die de meest geavanceerde AI-systemen bouwen,
08:16
to share information about what they're building,
156
496367
3170
ook moeten verplichten om informatie te delen over wat ze bouwen,
08:19
what their systems can do
157
499537
1710
wat hun systemen allemaal kunnen
08:21
and how they're managing risks.
158
501289
2127
en hoe ze risico's beheersen.
08:23
And they should have to let in external AI auditors to scrutinize their work
159
503458
5589
En ze zouden externe AI-auditors moeten inschakelen
om hun werk onder de loep te nemen,
08:29
so that the companies aren't just grading their own homework.
160
509088
3128
zodat de bedrijven niet alleen hun eigen huiswerk beoordelen.
08:33
(Applause)
161
513801
4213
(Applaus)
08:38
A final example of what this can look like
162
518014
2461
Een laatste voorbeeld van hoe dit eruit kan zien,
08:40
is setting up incident reporting mechanisms,
163
520475
3503
is het opzetten van mechanismen voor het melden van incidenten,
zodat als er iets misgaat in de echte wereld,
08:44
so that when things do go wrong in the real world,
164
524020
2753
08:46
we have a way to collect data on what happened
165
526814
2962
we een manier hebben om gegevens te verzamelen
over wat er gebeurde en hoe we dit de volgende keer oplossen.
08:49
and how we can fix it next time.
166
529817
2002
08:51
Just like the data we collect on plane crashes and cyber attacks.
167
531819
4421
Net zoals de gegevens die we verzamelen
over vliegtuigongelukken en cyberaanvallen.
08:57
None of these ideas are mine,
168
537158
1668
Geen van deze ideeën is van mij,
08:58
and some of them are already starting to be implemented in places like Brussels,
169
538868
4504
en sommige ervan worden al geïmplementeerd
in plaatsen zoals Brussel, Londen en zelfs Washington.
09:03
London, even Washington.
170
543372
2128
09:06
But the reason I'm highlighting these ideas,
171
546042
2627
Maar de reden waarom ik deze ideeën,
09:08
measurement, disclosure, incident reporting,
172
548669
4046
metingen, openbaarmaking en incidentrapportage benadruk,
09:12
is that they help us navigate progress in AI
173
552757
2794
is dat ze ons helpen vooruitgang te boeken in AI
09:15
by giving us a clearer view out the windshield.
174
555593
3086
door ons een duidelijker zicht door de voorruit te geven.
09:18
If AI is progressing fast in dangerous directions,
175
558721
3712
Als AI snel vooruitgang boekt in gevaarlijke richtingen,
09:22
these policies will help us see that.
176
562475
2377
zal dit beleid ons helpen dat te zien.
09:25
And if everything is going smoothly, they'll show us that too,
177
565436
3545
En als alles goed gaat, laten ze ons dat ook zien,
09:28
and we can respond accordingly.
178
568981
2211
en kunnen we dienovereenkomstig reageren.
09:33
What I want to leave you with
179
573569
1502
Wat ik je wil meegeven
09:35
is that it's both true that there's a ton of uncertainty
180
575071
4629
is dat er zowel veel onzekerheid
09:39
and disagreement in the field of AI.
181
579742
2961
als onenigheid is op het gebied van AI.
09:42
And that companies are already building and deploying AI
182
582745
4046
En dat bedrijven sowieso al overal AI bouwen en inzetten
09:46
all over the place anyway in ways that affect all of us.
183
586833
4462
op manieren die ons allemaal aangaan.
Als het aan hun lot wordt overgelaten,
09:52
Left to their own devices,
184
592004
1544
09:53
it looks like AI companies might go in a similar direction
185
593548
3169
lijkt het erop dat AI-bedrijven dezelfde kant opgaan
09:56
to social media companies,
186
596717
1961
als sociale mediabedrijven,
09:58
spending most of their resources on building web apps
187
598678
2627
en hun middelen grotendeels besteden
aan het bouwen van webapps en voor de aandacht van gebruikers.
10:01
and for users' attention.
188
601305
1836
10:04
And by default, it looks like the enormous power of more advanced AI systems
189
604016
4463
En standaard, lijkt het erop
dat de enorme kracht van meer geavanceerde AI-systemen
10:08
might stay concentrated in the hands of a small number of companies,
190
608479
4046
geconcentreerd blijven in de handen van een klein aantal bedrijven,
10:12
or even a small number of individuals.
191
612567
1918
of zelfs van een klein aantal individuen.
10:15
But AI's potential goes so far beyond that.
192
615278
3253
Maar het potentieel van AI gaat veel verder.
10:18
AI already lets us leap over language barriers
193
618531
2711
Met AI kunnen we nu al over taalbarrières heen springen
10:21
and predict protein structures.
194
621284
2252
en eiwitstructuren voorspellen.
10:23
More advanced systems could unlock clean, limitless fusion energy
195
623536
4504
Meer geavanceerde systemen kunnen schone, onbegrensde fusie-energie ontsluiten
of de manier waarop we voedsel verbouwen revolutioneren
10:28
or revolutionize how we grow food
196
628082
2503
10:30
or 1,000 other things.
197
630626
1835
of 1.000 andere dingen.
10:32
And we each have a voice in what happens.
198
632962
2586
En we hebben allemaal een mening in wat er gebeurt.
10:35
We're not just data sources,
199
635548
2002
We zijn niet alleen gegevensbronnen,
10:37
we are users,
200
637592
2043
we zijn gebruikers,
10:39
we're workers,
201
639635
1502
we zijn werknemers,
10:41
we're citizens.
202
641137
1209
we zijn burgers.
10:43
So as tempting as it might be,
203
643514
2961
Hoe verleidelijk het ook mag zijn,
10:46
we can't wait for clarity or expert consensus
204
646475
4672
we kunnen niet wachten op duidelijkheid of consensus van experts
10:51
to figure out what we want to happen with AI.
205
651147
3378
om erachter te komen wat we willen dat er gebeurt met AI.
10:54
AI is already happening to us.
206
654525
2586
AI is ons al aan het overkomen.
10:57
What we can do is put policies in place
207
657737
3211
We kunnen wel beleid invoeren
11:00
to give us as clear a picture as we can get
208
660948
2670
om zo duidelijk mogelijk een beeld te geven
11:03
of how the technology is changing,
209
663618
2460
van hoe de technologie verandert,
11:06
and then we can get in the arena and push for futures we actually want.
210
666078
5089
en dan kunnen we de arena betreden
en ons inzetten voor een toekomst die we echt willen.
11:11
Thank you.
211
671751
1126
Bedankt.
11:12
(Applause)
212
672919
3378
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7