Rana el Kaliouby: This app knows how you feel — from the look on your face

137,190 views ・ 2015-06-15

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Bonnie Dekker Nagekeken door: Robert de Ridder
00:12
Our emotions influence every aspect of our lives,
0
12556
4017
Onze emoties beïnvloeden alle aspecten van ons leven,
00:16
from our health and how we learn, to how we do business and make decisions,
1
16573
3576
van onze gezondheid en hoe we leren,
tot hoe we zakendoen en beslissingen nemen,
00:20
big ones and small.
2
20149
1773
grote en kleine.
00:22
Our emotions also influence how we connect with one another.
3
22672
3490
Onze emoties hebben ook invloed op hoe we met elkaar omgaan.
00:27
We've evolved to live in a world like this,
4
27132
3976
We zijn geëvolueerd om te leven in een wereld die er zo uitziet,
00:31
but instead, we're living more and more of our lives like this --
5
31108
4319
maar in plaats daarvan leven we ons leven steeds vaker zo
00:35
this is the text message from my daughter last night --
6
35427
3134
-- dit is het berichtje dat mijn dochter gisteravond stuurde --
00:38
in a world that's devoid of emotion.
7
38561
2740
in een wereld zonder emotie.
00:41
So I'm on a mission to change that.
8
41301
1951
Mijn missie is om dat te veranderen.
00:43
I want to bring emotions back into our digital experiences.
9
43252
4091
Ik wil emoties terugbrengen in onze digitale ervaringen.
00:48
I started on this path 15 years ago.
10
48223
3077
15 jaar geleden ben ik hiermee begonnen.
Ik was computerwetenschapper in Egypte,
00:51
I was a computer scientist in Egypt,
11
51300
2066
00:53
and I had just gotten accepted to a Ph.D. program at Cambridge University.
12
53366
4505
en ik was net toegelaten tot een PhD-programma in Cambridge.
00:57
So I did something quite unusual
13
57871
2113
Ik deed iets behoorlijk ongewoons
00:59
for a young newlywed Muslim Egyptian wife:
14
59984
4225
voor een jonge, pasgetrouwde Egyptische moslima.
(Gelach)
01:05
With the support of my husband, who had to stay in Egypt,
15
65599
2999
Met de steun van mijn man, die in Egypte moest blijven,
01:08
I packed my bags and I moved to England.
16
68598
3018
pakte ik mijn koffers en verhuisde ik naar Engeland.
01:11
At Cambridge, thousands of miles away from home,
17
71616
3228
Daar in Cambridge, duizenden kilometers van huis,
01:14
I realized I was spending more hours with my laptop
18
74844
3413
besefte ik dat ik meer uren met mijn laptop doorbracht
01:18
than I did with any other human.
19
78257
2229
dan met andere mensen.
01:20
Yet despite this intimacy, my laptop had absolutely no idea how I was feeling.
20
80486
4853
Ondanks deze vertrouwdheid
had mijn laptop geen flauw idee hoe ik me voelde.
01:25
It had no idea if I was happy,
21
85339
3211
Hij wist totaal niet of ik blij was,
01:28
having a bad day, or stressed, confused,
22
88550
2988
een slechte dag had, gestrest of verward was,
01:31
and so that got frustrating.
23
91538
2922
en dat werd frustrerend.
01:35
Even worse, as I communicated online with my family back home,
24
95600
5231
Erger nog, bij het online communiceren met mijn familie thuis
had ik het gevoel dat al mijn emoties verdwenen in de cyberspace.
01:41
I felt that all my emotions disappeared in cyberspace.
25
101421
3282
01:44
I was homesick, I was lonely, and on some days I was actually crying,
26
104703
5155
Ik had heimwee, ik was eenzaam, op sommige dagen zat ik echt te huilen,
01:49
but all I had to communicate these emotions was this.
27
109858
4928
maar het enige wat ik had om deze emoties over te brengen
was dit.
01:54
(Laughter)
28
114786
2020
(Gelach)
01:56
Today's technology has lots of I.Q., but no E.Q.;
29
116806
4974
De technologie van vandaag heeft veel IQ, maar geen EQ:
02:01
lots of cognitive intelligence, but no emotional intelligence.
30
121780
3176
veel cognitieve intelligentie, maar geen emotionele intelligentie.
02:04
So that got me thinking,
31
124956
2197
Dat zette me aan het denken.
02:07
what if our technology could sense our emotions?
32
127153
3624
Wat als onze technologie onze emoties kon waarnemen?
02:10
What if our devices could sense how we felt and reacted accordingly,
33
130777
4076
Wat als onze apparaten konden aanvoelen hoe we ons voelden en daarop reageerden,
02:14
just the way an emotionally intelligent friend would?
34
134853
3013
zoals emotioneel intelligente vrienden dat ook zouden doen?
02:18
Those questions led me and my team
35
138666
3564
Die vragen zetten mij en mijn team ertoe aan technologieën te maken
02:22
to create technologies that can read and respond to our emotions,
36
142230
4377
die onze emoties kunnen lezen en erop reageren
02:26
and our starting point was the human face.
37
146607
3090
en ons uitgangspunt was het menselijk gezicht.
02:30
So our human face happens to be one of the most powerful channels
38
150577
3173
Het menselijk gezicht is een van de sterkste kanalen
02:33
that we all use to communicate social and emotional states,
39
153750
4016
waarmee we onze sociale en emotionele toestand overbrengen.
02:37
everything from enjoyment, surprise,
40
157766
3010
Alles van vreugde
tot verrassing,
02:40
empathy and curiosity.
41
160776
4203
empathie
en nieuwsgierigheid.
02:44
In emotion science, we call each facial muscle movement an action unit.
42
164979
4928
In de emotiewetenschap noemen we elke beweging van de gelaatsspieren
een actie-eenheid.
02:49
So for example, action unit 12,
43
169907
2925
Actie-eenheid 12 bijvoorbeeld,
02:52
it's not a Hollywood blockbuster,
44
172832
2038
dat is geen blockbuster uit Hollywood,
02:54
it is actually a lip corner pull, which is the main component of a smile.
45
174870
3442
maar het optrekken van de mondhoeken, het hoofdonderdeel van een glimlach.
02:58
Try it everybody. Let's get some smiles going on.
46
178312
2988
Laten we dat allemaal even proberen.
Een ander voorbeeld is actie-eenheid 4,
03:01
Another example is action unit 4. It's the brow furrow.
47
181300
2654
de wenkbrauwfrons:
03:03
It's when you draw your eyebrows together
48
183954
2238
als je je wenkbrauwen tegen elkaar duwt
03:06
and you create all these textures and wrinkles.
49
186192
2267
en allemaal rimpels maakt.
We vinden ze niet leuk,
03:08
We don't like them, but it's a strong indicator of a negative emotion.
50
188459
4295
maar ze zijn een goed signaal voor een negatieve emotie.
03:12
So we have about 45 of these action units,
51
192754
2206
We hebben ongeveer 45 van die actie-eenheden
03:14
and they combine to express hundreds of emotions.
52
194960
3390
en samen drukken ze honderden emoties uit.
03:18
Teaching a computer to read these facial emotions is hard,
53
198350
3901
Het is moeilijk om een computer te leren om deze gelaatsuitdrukkingen te lezen,
03:22
because these action units, they can be fast, they're subtle,
54
202251
2972
want deze actie-eenheden kunnen snel zijn, ze zijn subtiel,
03:25
and they combine in many different ways.
55
205223
2554
en ze komen voor in allerlei combinaties.
03:27
So take, for example, the smile and the smirk.
56
207777
3738
Neem bijvoorbeeld een glimlach en een minachtende blik.
03:31
They look somewhat similar, but they mean very different things.
57
211515
3753
Ze lijken een beetje op elkaar, maar ze betekenen iets heel anders.
03:35
(Laughter)
58
215268
1718
(Gelach)
03:36
So the smile is positive,
59
216986
3004
De een is positief,
03:39
a smirk is often negative.
60
219990
1270
de ander vaak negatief.
03:41
Sometimes a smirk can make you become famous.
61
221260
3876
Soms kun je er beroemd door worden.
03:45
But seriously, it's important for a computer to be able
62
225136
2824
Maar het is belangrijk dat een computer het verschil kan zien
03:47
to tell the difference between the two expressions.
63
227960
2855
tussen de twee gelaatsexpressies.
03:50
So how do we do that?
64
230815
1812
Hoe doen we dat?
03:52
We give our algorithms
65
232627
1787
We geven onze algoritmen
03:54
tens of thousands of examples of people we know to be smiling,
66
234414
4110
tienduizenden voorbeelden van mensen waarvan we weten dat ze glimlachen,
03:58
from different ethnicities, ages, genders,
67
238524
3065
van verschillende etniciteiten, leeftijden, geslachten,
04:01
and we do the same for smirks.
68
241589
2811
en dan doen we hetzelfde voor de andere uitdrukking.
04:04
And then, using deep learning,
69
244400
1554
Door middel van deep learning zoekt het algoritme
04:05
the algorithm looks for all these textures and wrinkles
70
245954
2856
naar alle structuren en rimpels
04:08
and shape changes on our face,
71
248810
2580
en vormveranderingen in ons gezicht.
04:11
and basically learns that all smiles have common characteristics,
72
251390
3202
Zo leert het dat alle glimlachen gemeenschappelijke eigenschappen hebben
04:14
all smirks have subtly different characteristics.
73
254592
3181
die subtiel verschillen van minachtende uitdrukkingen.
04:17
And the next time it sees a new face,
74
257773
2368
De volgende keer dat het een nieuw gezicht ziet
04:20
it essentially learns that
75
260141
2299
leert het dat dit gezicht ook de eigenschappen van een glimlach heeft
04:22
this face has the same characteristics of a smile,
76
262440
3033
04:25
and it says, "Aha, I recognize this. This is a smile expression."
77
265473
4278
en zegt het: "Aha, dit herken ik. Deze uitdrukking is een glimlach."
04:30
So the best way to demonstrate how this technology works
78
270381
2800
De beste manier om te laten zien hoe deze technologie werkt
04:33
is to try a live demo,
79
273181
2136
is een live-demonstratie,
04:35
so I need a volunteer, preferably somebody with a face.
80
275317
3913
dus ik heb een vrijwilliger nodig, liefst iemand met een gezicht.
04:39
(Laughter)
81
279230
2334
(Gelach)
04:41
Cloe's going to be our volunteer today.
82
281564
2771
Cloe is vandaag onze vrijwilliger.
04:45
So over the past five years, we've moved from being a research project at MIT
83
285325
4458
In de afgelopen vijf jaar
zijn we van een onderzoeksproject bij MIT overgegaan in een bedrijf,
04:49
to a company,
84
289783
1156
04:50
where my team has worked really hard to make this technology work,
85
290939
3192
waar mijn team keihard heeft gewerkt om deze technologie te laten werken,
04:54
as we like to say, in the wild.
86
294131
2409
zoals wij dat zeggen, in het wild.
04:56
And we've also shrunk it so that the core emotion engine
87
296540
2670
We hebben hem ook kleiner gemaakt
zodat de emotiemachine werkt op elk mobiel apparaat met een camera,
04:59
works on any mobile device with a camera, like this iPad.
88
299210
3320
zoals deze iPad.
05:02
So let's give this a try.
89
302530
2786
Laten we het eens proberen.
05:06
As you can see, the algorithm has essentially found Cloe's face,
90
306756
3924
Zoals je ziet heeft het algoritme Cloe's gezicht gevonden,
05:10
so it's this white bounding box,
91
310680
1692
dat is die witte rechthoek,
05:12
and it's tracking the main feature points on her face,
92
312372
2571
en het volgt de belangrijkste punten van haar gezicht,
05:14
so her eyebrows, her eyes, her mouth and her nose.
93
314943
2856
dus de wenkbrauwen, ogen, mond en neus.
05:17
The question is, can it recognize her expression?
94
317799
2987
De vraag is: kan het haar uitdrukking herkennen?
05:20
So we're going to test the machine.
95
320786
1671
We gaan de machine testen.
05:22
So first of all, give me your poker face. Yep, awesome. (Laughter)
96
322457
4186
Laat eerst eens je pokerface zien. Ja, goed zo. (Gelach)
05:26
And then as she smiles, this is a genuine smile, it's great.
97
326643
2813
En terwijl ze glimlacht, dit is een oprechte glimlach,
05:29
So you can see the green bar go up as she smiles.
98
329456
2300
zie je de groene balken omhooggaan.
05:31
Now that was a big smile.
99
331756
1222
Dat was een brede glimlach.
05:32
Can you try a subtle smile to see if the computer can recognize?
100
332978
3043
Kun je proberen of de computer ook een subtiele glimlach herkent?
De subtiele glimlach herkent hij ook.
05:36
It does recognize subtle smiles as well.
101
336021
2331
Daar hebben we hard aan gewerkt.
05:38
We've worked really hard to make that happen.
102
338352
2125
En dan je wenkbrauwen omhoog, een teken van verrassing.
05:40
And then eyebrow raised, indicator of surprise.
103
340477
2962
05:43
Brow furrow, which is an indicator of confusion.
104
343439
4249
Wenkbrauwen fronsen, een teken van verwarring.
05:47
Frown. Yes, perfect.
105
347688
4007
Boos kijken. Ja, perfect.
05:51
So these are all the different action units. There's many more of them.
106
351695
3493
Dit zijn verschillende actie-eenheden.
Er zijn er nog veel meer.
Dit is maar een beperkte demo.
05:55
This is just a slimmed-down demo.
107
355188
2032
05:57
But we call each reading an emotion data point,
108
357220
3148
We noemen elke meting een emotiegegevenspunt,
06:00
and then they can fire together to portray different emotions.
109
360368
2969
en in combinatie kunnen ze verschillende emoties weergeven.
06:03
So on the right side of the demo -- look like you're happy.
110
363337
4653
Aan de rechterkant van de demo -- trek eens een vrolijk gezicht.
06:07
So that's joy. Joy fires up.
111
367990
1454
Dat is vreugde. Vreugde gaat aan.
06:09
And then give me a disgust face.
112
369444
1927
Laat nu eens afkeer zien.
06:11
Try to remember what it was like when Zayn left One Direction.
113
371371
4272
Denk aan hoe je je voelde toen Zayn wegging bij One Direction.
06:15
(Laughter)
114
375643
1510
(Gelach)
Ja, maak rimpels bij je neus. Goed zo.
06:17
Yeah, wrinkle your nose. Awesome.
115
377153
4342
06:21
And the valence is actually quite negative, so you must have been a big fan.
116
381495
3731
De valentie is behoorlijk negatief, dus je was vast een groot fan.
06:25
So valence is how positive or negative an experience is,
117
385226
2700
Valentie is hoe positief of negatief een ervaring is,
06:27
and engagement is how expressive she is as well.
118
387926
2786
en betrokkenheid is hoe expressief ze is.
06:30
So imagine if Cloe had access to this real-time emotion stream,
119
390712
3414
Stel je voor dat Cloe toegang had tot deze rechtstreekse emotiestream
06:34
and she could share it with anybody she wanted to.
120
394126
2809
en ze die kon delen met we ze maar wilde.
06:36
Thank you.
121
396935
2923
Dankjewel.
06:39
(Applause)
122
399858
4621
(Applaus)
06:45
So, so far, we have amassed 12 billion of these emotion data points.
123
405749
5270
Tot nu toe hebben we 12 miljard van deze emotiegegevens vergaard.
06:51
It's the largest emotion database in the world.
124
411019
2611
Het is de grootste emotiedatabase ter wereld.
06:53
We've collected it from 2.9 million face videos,
125
413630
2963
We hebben hem verzameld uit 2,9 miljoen filmpjes van gezichten,
06:56
people who have agreed to share their emotions with us,
126
416593
2600
mensen die hun emoties met ons hebben willen delen,
06:59
and from 75 countries around the world.
127
419193
3205
uit 75 landen over de hele wereld.
07:02
It's growing every day.
128
422398
1715
Hij groeit elke dag.
07:04
It blows my mind away
129
424603
2067
Ik sta ervan versteld
07:06
that we can now quantify something as personal as our emotions,
130
426670
3195
dat we iets persoonlijks als emoties nu kunnen kwantificeren
07:09
and we can do it at this scale.
131
429865
2235
en dat we het op deze schaal kunnen doen.
07:12
So what have we learned to date?
132
432100
2177
Wat hebben we tot nu toe geleerd?
07:15
Gender.
133
435057
2331
Geslacht:
07:17
Our data confirms something that you might suspect.
134
437388
3646
onze data bevestigen iets dat je misschien al vermoedde.
07:21
Women are more expressive than men.
135
441034
1857
Vrouwen zijn expressiever dan mannen.
07:22
Not only do they smile more, their smiles last longer,
136
442891
2683
Ze glimlachen niet alleen meer, maar ook langduriger,
07:25
and we can now really quantify what it is that men and women
137
445574
2904
en we kunnen nu echt vaststellen wat het precies is
07:28
respond to differently.
138
448478
2136
waarop mannen en vrouwen anders reageren.
07:30
Let's do culture: So in the United States,
139
450614
2290
Nu cultuur:
in de Verenigde Staten
07:32
women are 40 percent more expressive than men,
140
452904
3204
zijn vrouwen 40 procent expressiever dan mannen,
07:36
but curiously, we don't see any difference in the U.K. between men and women.
141
456108
3645
maar vreemd genoeg zien we in het VK geen verschil tussen mannen en vrouwen.
07:39
(Laughter)
142
459753
2506
(Gelach)
07:43
Age: People who are 50 years and older
143
463296
4027
Leeftijd:
mensen van 50 jaar en ouder
07:47
are 25 percent more emotive than younger people.
144
467323
3436
tonen 25 procent meer emotie dan jongere mensen.
07:51
Women in their 20s smile a lot more than men the same age,
145
471899
3852
Vrouwen in de twintig glimlachen veel meer dan mannen van dezelfde leeftijd,
07:55
perhaps a necessity for dating.
146
475751
3839
misschien moet dat wel tijdens dates.
07:59
But perhaps what surprised us the most about this data
147
479590
2617
Maar wat ons misschien het meest heeft verrast
08:02
is that we happen to be expressive all the time,
148
482207
3203
is dat we altijd expressief zijn,
08:05
even when we are sitting in front of our devices alone,
149
485410
2833
zelfs als we alleen achter een apparaat zitten,
08:08
and it's not just when we're watching cat videos on Facebook.
150
488243
3274
en niet alleen als we kattenfilmpjes kijken op Facebook.
08:12
We are expressive when we're emailing, texting, shopping online,
151
492217
3010
We zijn expressief als we emailen, sms'en, online winkelen
08:15
or even doing our taxes.
152
495227
2300
en zelfs als we onze belastingaangifte doen.
08:17
Where is this data used today?
153
497527
2392
Waar worden deze data momenteel gebruikt?
08:19
In understanding how we engage with media,
154
499919
2763
Bij het begrijpen van hoe we met media omgaan,
08:22
so understanding virality and voting behavior;
155
502682
2484
het begrijpen van viraliteit en stemgedrag,
08:25
and also empowering or emotion-enabling technology,
156
505166
2740
en ook voor technologie die emoties toegankelijker maakt.
08:27
and I want to share some examples that are especially close to my heart.
157
507906
4621
Ik wil een paar voorbeelden delen die me bijzonder nauw aan het hart liggen.
08:33
Emotion-enabled wearable glasses can help individuals
158
513197
3068
Brillen met emotietechnologie
kunnen mensen met een visuele handicap helpen
08:36
who are visually impaired read the faces of others,
159
516265
3228
om de gezichten van anderen te lezen,
08:39
and it can help individuals on the autism spectrum interpret emotion,
160
519493
4187
en mensen binnen het autismespectrum helpen om emoties te interpreteren,
08:43
something that they really struggle with.
161
523680
2778
iets waar ze echt moeite mee hebben.
08:47
In education, imagine if your learning apps
162
527918
2859
In het onderwijs:
stel je voor dat je studeer-apps
08:50
sense that you're confused and slow down,
163
530777
2810
aanvoelen wat je niet begrijpt en het tempo verlagen,
08:53
or that you're bored, so it's sped up,
164
533587
1857
of dat je je verveelt, en dus sneller gaan,
08:55
just like a great teacher would in a classroom.
165
535444
2969
net als een goede leraar op school.
08:59
What if your wristwatch tracked your mood,
166
539043
2601
Wat als je horloge je stemming bijhield
09:01
or your car sensed that you're tired,
167
541644
2693
of je auto kon merken dat je moe was,
09:04
or perhaps your fridge knows that you're stressed,
168
544337
2548
of je koelkast het wist als je gestrest was,
09:06
so it auto-locks to prevent you from binge eating. (Laughter)
169
546885
6066
en automatisch op slot ging zodat je niet te veel kon eten. (Gelach)
Dat zou ik wel willen, ja.
09:12
I would like that, yeah.
170
552951
2717
09:15
What if, when I was in Cambridge,
171
555668
1927
Wat als ik in Cambridge
09:17
I had access to my real-time emotion stream,
172
557595
2313
toegang had gehad tot mijn emotiestream
09:19
and I could share that with my family back home in a very natural way,
173
559908
3529
en die had kunnen delen met mijn familie thuis
op een heel natuurlijke manier,
09:23
just like I would've if we were all in the same room together?
174
563437
3971
alsof we samen in één kamer zaten?
09:27
I think five years down the line,
175
567408
3142
Ik denk dat over vijf jaar
09:30
all our devices are going to have an emotion chip,
176
570550
2337
al onze apparaten een emotie-chip zullen hebben
09:32
and we won't remember what it was like when we couldn't just frown at our device
177
572887
4064
en we niet meer weten hoe het was om naar je apparaat te fronsen
09:36
and our device would say, "Hmm, you didn't like that, did you?"
178
576951
4249
zonder dat het terugzei: "Hmm, dat vond je blijkbaar niet leuk."
09:41
Our biggest challenge is that there are so many applications of this technology,
179
581200
3761
De grootste uitdaging van deze technologie is dat er zoveel toepassingen zijn,
09:44
my team and I realize that we can't build them all ourselves,
180
584961
2903
dat mijn team en ik ze niet allemaal zelf kunnen bouwen.
09:47
so we've made this technology available so that other developers
181
587864
3496
Daarom hebben we de technologie beschikbaar gemaakt
zodat andere ontwikkelaars er creatief mee aan de slag kunnen.
09:51
can get building and get creative.
182
591360
2114
09:53
We recognize that there are potential risks
183
593474
4086
We zien in dat er potentiële risico's zijn
09:57
and potential for abuse,
184
597560
2067
en de mogelijkheid dat er misbruik van wordt gemaakt,
09:59
but personally, having spent many years doing this,
185
599627
2949
maar nu ik hier vele jaren mee bezig ben geweest
10:02
I believe that the benefits to humanity
186
602576
2972
geloof ik persoonlijk dat de voordelen voor de mensheid
10:05
from having emotionally intelligent technology
187
605548
2275
van emotioneel intelligente technologie
10:07
far outweigh the potential for misuse.
188
607823
3576
veel zwaarder wegen dan het mogelijke misbruik.
10:11
And I invite you all to be part of the conversation.
189
611399
2531
Ik nodig jullie allemaal uit deel te nemen aan het gesprek.
10:13
The more people who know about this technology,
190
613930
2554
Hoe meer mensen van deze technologie afweten,
10:16
the more we can all have a voice in how it's being used.
191
616484
3177
hoe meer we allemaal inspraak hebben in hoe het wordt gebruikt.
10:21
So as more and more of our lives become digital,
192
621081
4574
Nu ons leven steeds digitaler wordt,
10:25
we are fighting a losing battle trying to curb our usage of devices
193
625655
3498
voeren we een hopeloze strijd
als we ons gebruik van apparaten proberen te beperken
10:29
in order to reclaim our emotions.
194
629153
2229
om zo onze emoties terug te winnen.
10:32
So what I'm trying to do instead is to bring emotions into our technology
195
632622
3914
In plaats daarvan probeer ik emoties in onze technologie op te nemen
10:36
and make our technologies more responsive.
196
636536
2229
en onze technologieën beter te laten reageren.
10:38
So I want those devices that have separated us
197
638765
2670
Ik wil dat de apparaten die ons hebben gescheiden
10:41
to bring us back together.
198
641435
2462
ons weer bij elkaar brengen.
10:43
And by humanizing technology, we have this golden opportunity
199
643897
4588
Door technologie te vermenselijken hebben we een gouden kans
10:48
to reimagine how we connect with machines,
200
648485
3297
om opnieuw te bedenken hoe we met onze machines omgaan
10:51
and therefore, how we, as human beings,
201
651782
4481
en daarmee ook hoe wij, als mensen,
10:56
connect with one another.
202
656263
1904
omgaan met elkaar.
10:58
Thank you.
203
658167
2160
Dankjewel.
(Applaus)
11:00
(Applause)
204
660327
3313
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7