What are the most important moral problems of our time? | Will MacAskill

372,422 views ・ 2018-10-03

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Rik Delaet Nagekeken door: Peter van de Ven
00:12
This is a graph
0
12857
1479
Dit is een grafiek
00:14
that represents the economic history of human civilization.
1
14360
3659
van de economische geschiedenis van de menselijke beschaving.
00:18
[World GDP per capita over the last 200,000 years]
2
18043
2400
[Wereld-bbp per hoofd in de laatste 200.000 jaar]
00:23
There's not much going on, is there.
3
23757
2003
Er gebeurt niet veel, hè?
00:26
For the vast majority of human history,
4
26751
2347
Voor het grootste deel van de menselijke geschiedenis
00:29
pretty much everyone lived on the equivalent of one dollar per day,
5
29835
4048
leefde vrijwel iedereen op één dollar per dag
00:33
and not much changed.
6
33907
1286
en veranderde er niet veel.
00:36
But then, something extraordinary happened:
7
36757
2777
Maar dan gebeurde er iets bijzonders:
00:40
the Scientific and Industrial Revolutions.
8
40677
2811
de wetenschappelijke en industriële revoluties.
00:43
And the basically flat graph you just saw
9
43512
2785
En de in principe vlakke grafiek van daarnet
00:46
transforms into this.
10
46321
2675
transformeert in dit.
00:50
What this graph means is that, in terms of power to change the world,
11
50612
4635
Deze grafiek toont dat we in termen van ons vermogen de wereld te veranderen,
00:55
we live in an unprecedented time in human history,
12
55271
3438
in een onvergelijkelijke tijd in de menselijke geschiedenis leven
00:58
and I believe our ethical understanding hasn't yet caught up with this fact.
13
58733
3944
en ik geloof dat ons ethisch denken dit feit nog niet heeft verwerkt.
01:03
The Scientific and Industrial Revolutions
14
63716
1984
De wetenschappelijke en industriële revoluties
01:05
transformed both our understanding of the world
15
65724
2909
transformeerden zowel ons begrip van de wereld
01:08
and our ability to alter it.
16
68657
1669
als ons vermogen om hem te veranderen.
01:11
What we need is an ethical revolution
17
71505
3667
Wat we nodig hebben, is een ethische revolutie,
01:15
so that we can work out
18
75196
1548
zodat we kunnen weten
01:16
how do we use this tremendous bounty of resources
19
76768
3152
hoe deze enorme overvloed van middelen te gebruiken
01:19
to improve the world.
20
79944
1395
om de wereld te verbeteren.
01:22
For the last 10 years,
21
82249
1591
In de laatste 10 jaar ontwikkelden mijn collega's en ik
01:23
my colleagues and I have developed a philosophy and research program
22
83864
3833
een filosofie en onderzoeksprogramma
01:27
that we call effective altruism.
23
87721
1835
die we effectief altruïsme noemen.
01:30
It tries to respond to these radical changes in our world,
24
90366
3595
Het probeert te reageren op deze radicale veranderingen in onze wereld,
01:33
uses evidence and careful reasoning to try to answer this question:
25
93985
4476
gebruikt bewijsmateriaal en zorgvuldig denken
om deze vraag te proberen te beantwoorden:
01:40
How can we do the most good?
26
100173
2278
hoe kunnen we het meest goed doen?
01:44
Now, there are many issues you've got to address
27
104265
3221
Nu zijn er veel zaken waar je aan moet denken,
01:47
if you want to tackle this problem:
28
107510
2263
wil je dit probleem aanpakken:
01:49
whether to do good through your charity
29
109797
2031
moet je goed doen door liefdadigheid,
01:51
or your career or your political engagement,
30
111852
2152
door carrière of politieke betrokkenheid,
01:54
what programs to focus on, who to work with.
31
114028
2395
op welke programma's richt je je, met wie werk je samen?
01:57
But what I want to talk about
32
117624
1476
Maar ik wil praten over het volgens mij meest fundamentele probleem.
01:59
is what I think is the most fundamental problem.
33
119124
2872
02:02
Of all the many problems that the world faces,
34
122020
2693
Welke van de vele problemen in de wereld
02:05
which should we be focused on trying to solve first?
35
125962
2659
moeten we het eerst oplossen?
02:10
Now, I'm going to give you a framework for thinking about this question,
36
130668
3468
Nu ga ik jullie een denkraam geven om over deze vraag na te denken
02:14
and the framework is very simple.
37
134160
1936
en dat denkraam is zeer eenvoudig.
02:16
A problem's higher priority,
38
136842
1699
De prioriteit van een probleem is hoger
02:19
the bigger, the more easily solvable and the more neglected it is.
39
139416
4063
naarmate het groter, eenvoudiger op te lossen en meer verwaarloosd is.
02:24
Bigger is better,
40
144694
1642
Groter is beter,
02:26
because we've got more to gain if we do solve the problem.
41
146360
2841
omdat we meer winnen als we het probleem oplossen.
02:30
More easily solvable is better
42
150221
1569
Eenvoudiger op te lossen is beter,
02:31
because I can solve the problem with less time or money.
43
151814
2824
want dan ik kan het oplossen met minder tijd of geld.
02:35
And most subtly,
44
155737
2063
En het meeste subtiel:
02:38
more neglected is better, because of diminishing returns.
45
158681
2849
meer verwaarloosd is beter door de afnemende meeropbrengst.
02:42
The more resources that have already been invested into solving a problem,
46
162285
3714
Hoe meer middelen we al hebben geïnvesteerd in het oplossen,
02:46
the harder it will be to make additional progress.
47
166023
2905
hoe moeilijker het zal zijn om nieuwe vooruitgang te boeken.
02:50
Now, the key thing that I want to leave with you is this framework,
48
170560
4059
Nu is dit denkraam het belangrijkste dat ik jullie wil bijbrengen,
02:54
so that you can think for yourself
49
174643
1984
zodat jullie zelf kunnen uitvissen
02:56
what are the highest global priorities.
50
176651
2321
welke de hoogste mondiale prioriteiten zijn.
02:59
But I and others in the effective altruism community
51
179954
2692
Maar ik en anderen in de gemeenschap voor effectief altruïsme
03:02
have converged on three moral issues that we believe are unusually important,
52
182670
5879
kwamen uit bij drie morele kwesties
waarvan we geloven dat ze buitengewoon belangrijk zijn
03:08
score unusually well in this framework.
53
188573
2182
en hoge cijfers halen in dit denkraam.
03:11
First is global health.
54
191151
2813
Het eerste is wereldgezondheid.
03:13
This is supersolvable.
55
193988
2411
Dat is super oplosbaar.
03:16
We have an amazing track record in global health.
56
196423
3397
We hebben een geweldig palmares wat wereldgezondheid aangaat.
03:19
Rates of death from measles, malaria, diarrheal disease
57
199844
5420
De cijfers voor sterfte door mazelen, malaria en diarree
03:25
are down by over 70 percent.
58
205288
2246
zijn met meer dan 70 procent gedaald.
03:29
And in 1980, we eradicated smallpox.
59
209534
2789
In 1980 roeiden we de pokken uit.
03:33
I estimate we thereby saved over 60 million lives.
60
213815
3667
Ik schat dat we daardoor meer dan 60 miljoen levens hebben gered.
03:37
That's more lives saved than if we'd achieved world peace
61
217506
3064
Dat zijn meer gespaarde levens
dan wanneer we wereldvrede hadden bereikt in dezelfde periode.
03:40
in that same time period.
62
220594
1697
03:43
On our current best estimates,
63
223893
2325
Volgens onze huidige beste schattingen kunnen we een leven redden
03:46
we can save a life by distributing long-lasting insecticide-treated bed nets
64
226242
4128
door het verstrekken van lang meegaande, insecticidehoudende muskietennetten
03:50
for just a few thousand dollars.
65
230394
1903
voor slechts een paar duizend dollar.
03:52
This is an amazing opportunity.
66
232911
1667
Dit is een geweldige kans.
03:55
The second big priority is factory farming.
67
235594
2515
De tweede grote prioriteit is de bio-industrie.
03:58
This is superneglected.
68
238681
1563
Die is super verwaarloosd.
04:00
There are 50 billion land animals used every year for food,
69
240768
4143
Elk jaar gebruiken we 50 miljard landdieren als voedsel
04:05
and the vast majority of them are factory farmed,
70
245625
2548
en de overgrote meerderheid komt van de bio-industrie,
04:08
living in conditions of horrific suffering.
71
248197
2380
waar ze in verschrikkelijke omstandigheden leven.
04:10
They're probably among the worst-off creatures on this planet,
72
250601
3151
Ze zijn mogelijk de wezens die er het slechtst aan toe zijn op deze planeet.
04:13
and in many cases, we could significantly improve their lives
73
253776
2858
Vaak zouden we hun leven aanzienlijk kunnen verbeteren
04:16
for just pennies per animal.
74
256658
1602
voor een paar centen per dier.
04:19
Yet this is hugely neglected.
75
259123
2082
Toch wordt dit enorm verwaarloosd.
04:21
There are 3,000 times more animals in factory farms
76
261229
3810
Er zijn 3.000 keer meer dieren in de bio-industrie
04:25
than there are stray pets,
77
265063
1561
dan er zwerfdieren zijn,
04:28
but yet, factory farming gets one fiftieth of the philanthropic funding.
78
268600
4373
maar toch krijgt de bio-industrie
slechts één vijftigste van de filantropische financiering.
04:34
That means additional resources in this area
79
274211
2128
Dat betekent dat extra middelen op dit gebied
04:36
could have a truly transformative impact.
80
276363
2150
een werkelijk transformerende impact zouden hebben.
04:39
Now the third area is the one that I want to focus on the most,
81
279458
2985
Het derde gebied is dat waar ik me het meest wil op concentreren
04:42
and that's the category of existential risks:
82
282467
2984
en dat is de categorie van de existentiële risico's:
04:45
events like a nuclear war or a global pandemic
83
285475
3873
gebeurtenissen als een nucleaire oorlog of een wereldwijde pandemie
04:50
that could permanently derail civilization
84
290824
2611
die de beschaving permanent kunnen laten ontsporen
04:54
or even lead to the extinction of the human race.
85
294156
2436
of zelfs kunnen leiden tot het uitsterven van de mensheid.
04:57
Let me explain why I think this is such a big priority
86
297882
2540
Laat me uitleggen waarom ik denk
dat dit volgens dit denkraam zo'n grote prioriteit heeft.
05:00
in terms of this framework.
87
300446
1337
05:02
First, size.
88
302992
1412
Ten eerste: de grootte.
05:05
How bad would it be if there were a truly existential catastrophe?
89
305341
3889
Hoe erg zou het zijn als er een echt existentiële ramp zou plaatsvinden?
05:10
Well, it would involve the deaths of all seven billion people on this planet
90
310920
6342
Het zou de dood van de zeven miljard mensen op deze planeet betekenen
05:17
and that means you and everyone you know and love.
91
317286
3119
en dat betekent jij en iedereen die je kent en waar je van houdt.
05:21
That's just a tragedy of unimaginable size.
92
321214
2579
Dat is gewoon een tragedie van onvoorstelbare omvang.
05:25
But then, what's more,
93
325684
1976
Maar dat niet alleen,
05:27
it would also mean the curtailment of humanity's future potential,
94
327684
3605
het zou ook het einde van het toekomstige potentieel van de mensheid inhouden
05:31
and I believe that humanity's potential is vast.
95
331313
2952
en ik denk dat het potentieel van de mensheid enorm is.
05:35
The human race has been around for about 200,000 years,
96
335551
3451
Het menselijk ras bestaat al ongeveer 200.000 jaar
05:39
and if she lives as long as a typical mammalian species,
97
339026
2883
en als het zo lang meegaat als een typische zoogdiersoort,
05:41
she would last for about two million years.
98
341933
2298
heeft het nog ongeveer twee miljoen jaar te gaan.
05:46
If the human race were a single individual,
99
346884
2691
Als je het menselijk ras zou herleiden tot één enkel individu,
05:49
she would be just 10 years old today.
100
349599
2419
zou het nu slechts 10 jaar oud zijn.
05:53
And what's more, the human race isn't a typical mammalian species.
101
353526
4166
Sterker nog, het menselijk ras is geen typische zoogdiersoort.
05:58
There's no reason why, if we're careful,
102
358950
1906
Er is geen reden waarom we, als we voorzichtig zijn,
06:00
we should die off after only two million years.
103
360880
2205
zouden uitsterven na slechts twee miljoen jaar.
06:03
The earth will remain habitable for 500 million years to come.
104
363839
4040
De aarde zal nog 500 miljoen jaren bewoonbaar blijven.
06:08
And if someday, we took to the stars,
105
368696
1944
En als we ooit naar de sterren zouden reizen,
06:11
the civilization could continue for billions more.
106
371640
2516
kan de beschaving nog miljarden jaren voortduren.
06:16
So I think the future is going to be really big,
107
376193
2388
Dus denk ik dat de toekomst echt enorm gaat zijn,
06:19
but is it going to be good?
108
379669
1802
maar gaat ze ook goed zijn?
06:21
Is the human race even really worth preserving?
109
381495
2817
Is de mensheid het zelfs waard om te blijven bestaan?
06:26
Well, we hear all the time about how things have been getting worse,
110
386540
3929
Nu horen we de hele tijd over hoe alles erop achteruitgaat,
06:31
but I think that when we take the long run,
111
391459
2693
maar ik denk dat op de lange termijn
alles altijd maar radicaal beter is geworden.
06:34
things have been getting radically better.
112
394176
2031
06:37
Here, for example, is life expectancy over time.
113
397453
2294
Hier bijvoorbeeld zie je de levensverwachting in de tijd;
06:40
Here's the proportion of people not living in extreme poverty.
114
400892
3023
hier het aantal mensen dat niet meer in extreme armoede leeft;
06:45
Here's the number of countries over time that have decriminalized homosexuality.
115
405106
4095
hier het aantal landen
waar homoseksualiteit niet strafbaar meer is;
06:50
Here's the number of countries over time that have become democratic.
116
410848
3269
hier het aantal landen in de tijd die democratisch werden.
06:55
Then, when we look to the future, there could be so much more to gain again.
117
415015
4619
In de toekomst kunnen we dus nog een heleboel dingen verbeteren.
06:59
We'll be so much richer,
118
419658
1228
We zullen veel rijker zijn
07:00
we can solve so many problems that are intractable today.
119
420910
3595
en zoveel vandaag nog hardnekkige problemen kunnen oplossen.
07:05
So if this is kind of a graph of how humanity has progressed
120
425389
4445
Als dit een grafiek is van hoe de mensheid is gevorderd
07:09
in terms of total human flourishing over time,
121
429858
2890
in termen van totaal menselijk geluk in de loop van de tijd,
07:12
well, this is what we would expect future progress to look like.
122
432772
3355
dan is dit de toekomstige vooruitgang die we kunnen verwachten.
07:16
It's vast.
123
436881
1150
Het is enorm.
07:18
Here, for example,
124
438953
1198
Hier bijvoorbeeld
07:20
is where we would expect no one to live in extreme poverty.
125
440175
3746
is waar we kunnen verwachten dat niemand nog in extreme armoede zal leven.
07:25
Here is where we would expect everyone to be better off
126
445930
3202
Hier waar we zouden verwachten dat iedereen beter af zal zijn
07:29
than the richest person alive today.
127
449156
1853
dan de rijkste persoon vandaag.
Misschien ontdekken we hier
07:32
Perhaps here is where we would discover the fundamental natural laws
128
452081
3192
de fundamentele natuurwetten die onze wereld regeren.
07:35
that govern our world.
129
455297
1268
07:37
Perhaps here is where we discover an entirely new form of art,
130
457516
3705
Misschien ontdekken we hier een geheel nieuwe vorm van kunst,
07:41
a form of music we currently lack the ears to hear.
131
461245
3040
een vorm van muziek waarvoor we momenteel de oren niet hebben om ze te horen.
07:45
And this is just the next few thousand years.
132
465072
2222
En dit zijn slechts de komende paar duizend jaar.
07:47
Once we think past that,
133
467827
2205
Als we nog verder vooruit denken,
07:50
well, we can't even imagine the heights that human accomplishment might reach.
134
470056
4167
kunnen we ons niet eens meer voorstellen tot wat mensen in staat zullen zijn.
07:54
So the future could be very big and it could be very good,
135
474247
3040
Dus zou de toekomst geweldig en heel goed kunnen zijn,
07:57
but are there ways we could lose this value?
136
477311
2086
maar zijn er manieren waarop dit ons allemaal zou kunnen ontglippen?
08:00
And sadly, I think there are.
137
480366
1826
Ik denk helaas van wel.
08:02
The last two centuries brought tremendous technological progress,
138
482216
4053
De laatste twee eeuwen brachten een enorme technologische vooruitgang,
08:06
but they also brought the global risks of nuclear war
139
486293
2622
maar ook de mondiale risico's van een nucleaire oorlog
08:08
and the possibility of extreme climate change.
140
488939
2157
en de kans op extreme klimaatverandering.
08:11
When we look to the coming centuries,
141
491725
1767
Als we kijken naar de komende eeuwen,
08:13
we should expect to see the same pattern again.
142
493516
2647
kunnen we hetzelfde patroon verwachten.
08:16
And we can see some radically powerful technologies on the horizon.
143
496187
3356
Er kunnen opnieuw radicaal krachtige technologieën aan de horizon opduiken.
08:20
Synthetic biology might give us the power to create viruses
144
500132
2849
Synthetische biologie zou virussen kunnen creëren
08:23
of unprecedented contagiousness and lethality.
145
503005
3047
van ongekende besmettelijkheid en dodelijkheid.
08:27
Geoengineering might give us the power to dramatically alter the earth's climate.
146
507131
4643
Met geo-engineering zouden we het klimaat drastisch kunnen veranderen.
08:31
Artificial intelligence might give us the power to create intelligent agents
147
511798
4199
Met kunstmatige intelligentie zouden we intelligente entiteiten kunnen creëren
08:36
with abilities greater than our own.
148
516021
2142
met capaciteiten groter dan die van onszelf.
08:40
Now, I'm not saying that any of these risks are particularly likely,
149
520222
3888
Nu zeg ik niet dat een van deze risico’s erg waarschijnlijk is,
maar als er zoveel op het spel staat,
08:44
but when there's so much at stake,
150
524134
1644
08:45
even small probabilities matter a great deal.
151
525802
2967
worden zelfs kleine kansen erg belangrijk.
08:49
Imagine if you're getting on a plane and you're kind of nervous,
152
529568
3001
Stel dat je het vliegtuig neemt en je nogal zenuwachtig bent.
08:52
and the pilot reassures you by saying,
153
532593
3444
De piloot probeert je gerust te stellen door te zeggen:
08:56
"There's only a one-in-a-thousand chance of crashing. Don't worry."
154
536061
4634
"Er is maar een kans van één op duizend dat we crashen. Maak je geen zorgen."
09:02
Would you feel reassured?
155
542157
1554
Zou jij je dan gerustgesteld voelen?
09:04
For these reasons, I think that preserving the future of humanity
156
544509
4088
Daarom denk ik dat het behoud van de toekomst van de mensheid
09:08
is among the most important problems that we currently face.
157
548621
2984
een van de belangrijkste problemen is
waarmee we momenteel worden geconfronteerd.
09:12
But let's keep using this framework.
158
552546
2150
Maar laten we dit denkraam blijven gebruiken.
09:14
Is this problem neglected?
159
554720
1310
Is dit een verwaarloosd probleem?
09:18
And I think the answer is yes,
160
558085
2282
Ik denk dat het antwoord ja is
09:20
and that's because problems that affect future generations
161
560391
3325
en dat komt omdat problemen die de toekomstige generaties beïnvloeden
09:23
are often hugely neglected.
162
563740
1651
vaak enorm verwaarloosd zijn.
09:26
Why?
163
566930
1406
Waarom?
09:28
Because future people don't participate in markets today.
164
568360
3478
Omdat de toekomstige mensen niet deelnemen aan de markten van vandaag.
09:31
They don't have a vote.
165
571862
1522
Ze hebben er geen stem.
09:33
It's not like there's a lobby representing the interests
166
573931
2673
Er is geen lobby die de belangen behartigt
09:36
of those born in 2300 AD.
167
576628
2023
van wie in 2300 geboren zal worden.
09:40
They don't get to influence the decisions we make today.
168
580313
3242
Ze kunnen de beslissingen die we vandaag maken niet beïnvloeden.
09:43
They're voiceless.
169
583995
1191
Ze zijn stemloos.
09:46
And that means we still spend a paltry amount on these issues:
170
586490
3445
En daarom besteden we nog steeds slechts een schamel bedrag
09:49
nuclear nonproliferation,
171
589959
1799
aan zaken als nucleaire non-proliferatie,
09:51
geoengineering, biorisk,
172
591782
2330
geo-engineering, biorisico,
09:55
artificial intelligence safety.
173
595414
1642
veiligheid van kunstmatige intelligentie.
09:57
All of these receive only a few tens of millions of dollars
174
597923
2874
Deze krijgen slechts een paar tientallen miljoenen dollars
10:00
of philanthropic funding every year.
175
600821
1927
van filantropische financiering per jaar.
10:04
That's tiny compared to the 390 billion dollars
176
604044
3929
Dat is weinig in vergelijking met de 390 miljard dollar
10:08
that's spent on US philanthropy in total.
177
608790
2261
uitgegeven aan de Amerikaanse filantropie in totaal.
10:13
The final aspect of our framework then:
178
613885
2484
Het laatste aspect van ons denkraam dan:
10:17
Is this solvable?
179
617083
1190
is dit oplosbaar?
10:19
I believe it is.
180
619289
1289
Ik denk van wel.
10:21
You can contribute with your money,
181
621014
3047
Je kan bijdragen met je geld,
10:24
your career or your political engagement.
182
624085
2644
je werk of je politieke engagement.
10:28
With your money, you can support organizations
183
628225
2175
Met geld kan je organisaties ondersteunen
10:30
that focus on these risks,
184
630424
1302
die zich bezighouden met deze risico's,
10:31
like the Nuclear Threat Initiative,
185
631750
2555
zoals de Nuclear Threat Initiative,
10:34
which campaigns to take nuclear weapons off hair-trigger alert,
186
634329
3660
die campagne voert om nucleaire wapens niet meer in de aanslag te houden,
10:38
or the Blue Ribbon Panel, which develops policy to minimize the damage
187
638013
3571
of Blue Ribbon Panel, dat het beleid ontwikkelt om de schade te beperken
10:41
from natural and man-made pandemics,
188
641608
2095
van natuurlijke en door de mens veroorzaakte pandemieën,
10:45
or the Center for Human-Compatible AI, which does technical research
189
645158
3260
of het Centrum voor Menscompatibele KI, dat technisch onderzoek doet
10:48
to ensure that AI systems are safe and reliable.
190
648442
2747
om ervoor te zorgen dat KI-systemen veilig en betrouwbaar zijn.
10:52
With your political engagement,
191
652652
1516
Met je politieke betrokkenheid
10:54
you can vote for candidates that care about these risks,
192
654192
3096
kun je stemmen voor kandidaten die inzitten met deze risico's
10:57
and you can support greater international cooperation.
193
657312
2586
en kun je ijveren voor grotere internationale samenwerking.
11:01
And then with your career, there is so much that you can do.
194
661767
3542
En met je werk is er zo veel dat je kunt doen.
11:05
Of course, we need scientists and policymakers and organization leaders,
195
665333
3672
Natuurlijk hebben we wetenschappers, beleidsmakers en leiders nodig,
11:09
but just as importantly,
196
669865
1152
maar we hebben net zo hard accountants, managers en assistenten nodig
11:11
we also need accountants and managers and assistants
197
671041
4117
11:16
to work in these organizations that are tackling these problems.
198
676691
3754
om te werken in de organisaties die deze problemen aanpakken.
11:20
Now, the research program of effective altruism
199
680469
3492
Het onderzoeksprogramma van effectief altruïsme
11:25
is still in its infancy,
200
685191
1444
staat nog in de kinderschoenen
11:27
and there's still a huge amount that we don't know.
201
687262
2524
en er is nog steeds een enorme leemte in onze kennis.
11:31
But even with what we've learned so far,
202
691173
2343
Maar zelfs met wat we tot nu toe hebben geleerd,
11:34
we can see that by thinking carefully
203
694748
2183
kunnen we zien dat door zorgvuldig denken
11:37
and by focusing on those problems that are big, solvable and neglected,
204
697494
4873
en door te focussen op grote, oplosbare en verwaarloosde problemen,
11:43
we can make a truly tremendous difference to the world
205
703152
2708
we echt een enorm verschil kunnen maken voor de wereld
11:45
for thousands of years to come.
206
705884
1631
voor de komende duizenden jaren.
11:47
Thank you.
207
707963
1151
Dank je.
11:49
(Applause)
208
709138
4560
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7