Laura Schulz: The surprisingly logical minds of babies

225,846 views ・ 2015-06-02

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Saskia O'Neill Nagekeken door: Els De Keyser
00:12
Mark Twain summed up what I take to be
0
12835
2155
Mark Twain vatte een van de meest
00:14
one of the fundamental problems of cognitive science
1
14990
3120
fundamentele problemen van de cognitieve wetenschap samen
00:18
with a single witticism.
2
18110
1710
in deze quote.
00:20
He said, "There's something fascinating about science.
3
20410
3082
Hij zei: "Er is iets fascinerends aan de wetenschap.
00:23
One gets such wholesale returns of conjecture
4
23492
3228
Zo'n enorme opbrengst uit speculatie
00:26
out of such a trifling investment in fact."
5
26720
3204
met zo'n geringe investering in feiten."
00:29
(Laughter)
6
29924
1585
(Gelach)
00:32
Twain meant it as a joke, of course, but he's right:
7
32199
2604
Twain maakte een grapje, maar hij heeft wel gelijk.
00:34
There's something fascinating about science.
8
34803
2876
Er is iets fascinerends aan wetenschap.
00:37
From a few bones, we infer the existence of dinosuars.
9
37679
4261
Uit een paar botten kunnen we het bestaan van dinosaurussen afleiden,
00:42
From spectral lines, the composition of nebulae.
10
42910
3871
uit spectraallijnen het ontstaan van interstellaire gas- en stofwolken,
00:47
From fruit flies,
11
47471
2938
uit fruitvliegjes
00:50
the mechanisms of heredity,
12
50409
2943
de kenmerken van erfelijkheid
00:53
and from reconstructed images of blood flowing through the brain,
13
53352
4249
en uit gereconstrueerde beelden van bloed dat door het brein stroomt,
00:57
or in my case, from the behavior of very young children,
14
57601
4708
of, in mijn geval, uit het gedrag van heel jonge kinderen
01:02
we try to say something about the fundamental mechanisms
15
62309
2829
proberen we iets af te leiden over de fundamentele werking
01:05
of human cognition.
16
65138
1618
van de menselijke cognitie.
01:07
In particular, in my lab in the Department of Brain and Cognitive Sciences at MIT,
17
67716
4759
In mijn lab, bij TU Massachusetts' afdeling cognitieve neurowetenschappen,
01:12
I have spent the past decade trying to understand the mystery
18
72475
3654
heb ik de afgelopen tien jaar gewerkt met het vraagstuk
01:16
of how children learn so much from so little so quickly.
19
76129
3977
hoe kinderen zo snel en zo veel kunnen leren van zo weinig.
01:20
Because, it turns out that the fascinating thing about science
20
80666
2978
Want wat zo fascinerend is aan de wetenschap,
01:23
is also a fascinating thing about children,
21
83644
3529
is ook fascinerend aan kinderen.
01:27
which, to put a gentler spin on Mark Twain,
22
87173
2581
Namelijk, om het iets milder te zeggen dan Mark Twain,
01:29
is precisely their ability to draw rich, abstract inferences
23
89754
4650
hun vermogen om snel en nauwkeurig rijke en abstracte conclusies te trekken
01:34
rapidly and accurately from sparse, noisy data.
24
94404
4661
uit schaarse en vage data.
01:40
I'm going to give you just two examples today.
25
100355
2398
Ik zal jullie twee voorbeelden geven.
01:42
One is about a problem of generalization,
26
102753
2287
Het eerste heeft te maken met generalisatie,
01:45
and the other is about a problem of causal reasoning.
27
105040
2850
en het tweede met causale verbanden.
01:47
And although I'm going to talk about work in my lab,
28
107890
2525
Ook al zal ik het vooral over mijn eigen werk hebben,
01:50
this work is inspired by and indebted to a field.
29
110415
3460
dit werk is geïnspireerd door, en te danken aan, een vakgebied.
01:53
I'm grateful to mentors, colleagues, and collaborators around the world.
30
113875
4283
Ik ben alle mentors, collega's en mensen met wie ik heb samengewerkt dankbaar.
01:59
Let me start with the problem of generalization.
31
119308
2974
Laten we beginnen met het probleem van generalisatie.
02:02
Generalizing from small samples of data is the bread and butter of science.
32
122652
4133
Een kleine hoeveelheid data generaliseren is dagelijkse kost in de wetenschap.
02:06
We poll a tiny fraction of the electorate
33
126785
2554
We peilen een kleine fractie van de kiesgerechtigden
02:09
and we predict the outcome of national elections.
34
129339
2321
en voorspellen de uitkomst van landelijke verkiezingen.
02:12
We see how a handful of patients responds to treatment in a clinical trial,
35
132240
3925
We kijken hoe een handvol patiënten reageert op een klinische behandeling
02:16
and we bring drugs to a national market.
36
136165
3065
en we brengen een medicijn op de markt.
02:19
But this only works if our sample is randomly drawn from the population.
37
139230
4365
Maar dit werkt alleen als de proefpersonen willekeurig worden gekozen.
02:23
If our sample is cherry-picked in some way --
38
143595
2735
Als ze op een of andere manier zijn geselecteerd --
02:26
say, we poll only urban voters,
39
146330
2072
stel dat we alleen mensen in steden peilen,
02:28
or say, in our clinical trials for treatments for heart disease,
40
148402
4388
of dat er in onze klinische testen van medicijnen voor hartziektes
02:32
we include only men --
41
152790
1881
alleen mannen meedoen,
02:34
the results may not generalize to the broader population.
42
154671
3158
dan kunnen de resultaten niet veralgemeend worden.
02:38
So scientists care whether evidence is randomly sampled or not,
43
158479
3581
Dus wetenschappers willen weten of het om een willekeurige steekproef gaat,
02:42
but what does that have to do with babies?
44
162060
2015
maar wat heeft dat te maken met baby's?
02:44
Well, babies have to generalize from small samples of data all the time.
45
164585
4621
Baby's moeten constant kleine hoeveelheden data generaliseren.
02:49
They see a few rubber ducks and learn that they float,
46
169206
3158
Ze zien een paar badeendjes en leren dat die drijven,
02:52
or a few balls and learn that they bounce.
47
172364
3575
of een paar ballen en leren dat die stuiteren.
02:55
And they develop expectations about ducks and balls
48
175939
2951
Zo krijgen ze verwachtingen over eenden en ballen
02:58
that they're going to extend to rubber ducks and balls
49
178890
2716
die ze zullen overdragen op badeenden en ballen
03:01
for the rest of their lives.
50
181606
1879
voor de rest van hun leven.
03:03
And the kinds of generalizations babies have to make about ducks and balls
51
183485
3739
En dit soort generalisaties die baby's moeten maken over eenden en ballen
03:07
they have to make about almost everything:
52
187224
2089
moeten ze over bijna alles maken:
03:09
shoes and ships and sealing wax and cabbages and kings.
53
189313
3917
schoenen en schepen en zegellak en kool en koningen.
03:14
So do babies care whether the tiny bit of evidence they see
54
194200
2961
Kan het baby's iets schelen of het luttele bewijs dat ze zien
03:17
is plausibly representative of a larger population?
55
197161
3692
representatief is voor een grotere populatie?
03:21
Let's find out.
56
201763
1900
Laten we eens kijken.
03:23
I'm going to show you two movies,
57
203663
1723
Ik laat jullie twee filmpjes zien
03:25
one from each of two conditions of an experiment,
58
205386
2462
van twee verschillende condities van een experiment.
03:27
and because you're going to see just two movies,
59
207848
2438
Omdat jullie maar twee filmpjes zien,
03:30
you're going to see just two babies,
60
210286
2136
zien jullie ook maar twee baby's.
03:32
and any two babies differ from each other in innumerable ways.
61
212422
3947
Twee verschillende baby's vertonen uiteraard ontelbare verschillen.
03:36
But these babies, of course, here stand in for groups of babies,
62
216369
3051
Maar dit zijn natuurlijk voorbeelden uit twee groepen baby's,
03:39
and the differences you're going to see
63
219420
1895
en de verschillen die je ziet
03:41
represent average group differences in babies' behavior across conditions.
64
221315
5195
zijn representatief voor de verschillen per groep voor beide condities.
03:47
In each movie, you're going to see a baby doing maybe
65
227160
2583
In elk filmpje zie je een baby die waarschijnlijk
03:49
just exactly what you might expect a baby to do,
66
229743
3460
precies doet wat je van een baby verwacht.
03:53
and we can hardly make babies more magical than they already are.
67
233203
4017
We kunnen baby's nou een keer niet nog wonderlijker maken dan ze al zijn.
03:58
But to my mind the magical thing,
68
238090
2010
Maar het meest wonderlijke volgens mij,
04:00
and what I want you to pay attention to,
69
240100
2089
en daar moet je hier op letten,
04:02
is the contrast between these two conditions,
70
242189
3111
is het verschil tussen de twee condities,
04:05
because the only thing that differs between these two movies
71
245300
3529
want het enige verschil tussen de beide filmpjes
04:08
is the statistical evidence the babies are going to observe.
72
248829
3466
is het statistische bewijs dat de baby's in acht nemen.
04:13
We're going to show babies a box of blue and yellow balls,
73
253425
3183
We laten de baby's een doos met blauwe en gele ballen zien,
04:16
and my then-graduate student, now colleague at Stanford, Hyowon Gweon,
74
256608
4620
en mijn toenmalige student, nu collega in Stanford, Hyowon Gweon,
04:21
is going to pull three blue balls in a row out of this box,
75
261228
3077
pakt drie blauwe ballen achter elkaar uit die doos,
04:24
and when she pulls those balls out, she's going to squeeze them,
76
264305
3123
en telkens als ze een bal pakt, knijpt ze erin
04:27
and the balls are going to squeak.
77
267428
2113
en piept de bal.
04:29
And if you're a baby, that's like a TED Talk.
78
269541
2763
En voor een baby is dat zoiets als een TED-talk.
04:32
It doesn't get better than that.
79
272304
1904
Beter wordt het niet.
04:34
(Laughter)
80
274208
2561
(Gelach)
04:38
But the important point is it's really easy to pull three blue balls in a row
81
278968
3659
Waar het om gaat, is dat het eenvoudig is om drie blauwe ballen achter elkaar
04:42
out of a box of mostly blue balls.
82
282627
2305
te pakken uit een doos met vooral blauwe ballen.
04:44
You could do that with your eyes closed.
83
284932
2060
Dat kun je met ogen dicht doen.
04:46
It's plausibly a random sample from this population.
84
286992
2996
Het zou goed een willekeurige steekproef kunnen zijn.
04:49
And if you can reach into a box at random and pull out things that squeak,
85
289988
3732
En als je willekeurig dingen uit een doos haalt en ze piepen,
04:53
then maybe everything in the box squeaks.
86
293720
2839
dan piept misschien wel alles wat in de doos zit.
04:56
So maybe babies should expect those yellow balls to squeak as well.
87
296559
3650
Dus misschien zouden baby's verwachten dat de gele ballen ook piepen.
05:00
Now, those yellow balls have funny sticks on the end,
88
300209
2519
Aan de gele ballen zitten echter grappige stokjes,
05:02
so babies could do other things with them if they wanted to.
89
302728
2857
dus zouden baby's er ook andere dingen mee kunnen doen.
05:05
They could pound them or whack them.
90
305585
1831
Ze kunnen ermee rammelen of slaan.
05:07
But let's see what the baby does.
91
307416
2586
Laten we kijken wat de baby doet.
05:12
(Video) Hyowon Gweon: See this? (Ball squeaks)
92
312548
3343
(Video) Hyowon Gweon: Kijk eens? (Bal piept)
05:16
Did you see that? (Ball squeaks)
93
316531
3045
Zag je dat? (Bal piept)
05:20
Cool.
94
320036
3066
Wat mooi!
05:24
See this one?
95
324706
1950
Kijk eens naar deze?
05:26
(Ball squeaks)
96
326656
1881
(Bal piept)
05:28
Wow.
97
328537
2653
Wow.
05:33
Laura Schulz: Told you. (Laughs)
98
333854
2113
Laura Schulz: Ik zei het toch. (Gelach)
05:35
(Video) HG: See this one? (Ball squeaks)
99
335967
4031
(Video) HG: Kijk eens naar deze? (Bal piept)
05:39
Hey Clara, this one's for you. You can go ahead and play.
100
339998
4619
Kijk, Clara, deze is voor jou. Speel er maar mee.
05:51
(Laughter)
101
351854
4365
(Gelach)
05:56
LS: I don't even have to talk, right?
102
356219
2995
LS: Ik hoef niets meer te zeggen, toch?
05:59
All right, it's nice that babies will generalize properties
103
359214
2899
Oké, het is leuk dat baby's eigenschappen generaliseren
06:02
of blue balls to yellow balls,
104
362113
1528
van blauwe naar gele ballen,
06:03
and it's impressive that babies can learn from imitating us,
105
363641
3096
en het is indrukwekkend dat baby's kunnen leren door te imiteren,
06:06
but we've known those things about babies for a very long time.
106
366737
3669
maar die dingen wisten we al heel lang.
06:10
The really interesting question
107
370406
1811
De echt interessante vraag is
06:12
is what happens when we show babies exactly the same thing,
108
372217
2852
wat er gebeurt als we baby's meermaals exact hetzelfde laten zien.
06:15
and we can ensure it's exactly the same because we have a secret compartment
109
375069
3611
En we weten dat het exact hetzelfde is, want we hebben een geheim vakje
06:18
and we actually pull the balls from there,
110
378680
2110
waar we de ballen uit halen.
06:20
but this time, all we change is the apparent population
111
380790
3478
Het enige dat we veranderen, is de zichtbare populatie
06:24
from which that evidence was drawn.
112
384268
2902
waar het bewijs vandaan komt.
06:27
This time, we're going to show babies three blue balls
113
387170
3553
Deze keer laten we de baby's drie blauwe ballen zien
06:30
pulled out of a box of mostly yellow balls,
114
390723
3384
uit een doos met vooral gele ballen,
06:34
and guess what?
115
394107
1322
en wat denk je?
06:35
You [probably won't] randomly draw three blue balls in a row
116
395429
2840
Je kunt niet willekeurig drie blauwe ballen achter elkaar
06:38
out of a box of mostly yellow balls.
117
398269
2484
uit een doos met vooral gele ballen pakken.
06:40
That is not plausibly randomly sampled evidence.
118
400753
3747
Het is niet aannemelijk dat je ze dan willekeurig gekozen hebt.
06:44
That evidence suggests that maybe Hyowon was deliberately sampling the blue balls.
119
404500
5123
Dat resultaat suggereert dat Hyowon misschien expres de blauwe ballen pakte.
06:49
Maybe there's something special about the blue balls.
120
409623
2583
Misschien is er iets speciaals aan de blauwe ballen.
06:52
Maybe only the blue balls squeak.
121
412846
2976
Misschien piepen alleen de blauwe ballen.
06:55
Let's see what the baby does.
122
415822
1895
Laten we kijken wat de baby doet.
06:57
(Video) HG: See this? (Ball squeaks)
123
417717
2904
(Video) HG: Kijk eens? (Bal piept)
07:02
See this toy? (Ball squeaks)
124
422851
2645
Kijk eens naar deze? (Bal piept)
07:05
Oh, that was cool. See? (Ball squeaks)
125
425496
5480
Oh, dat was leuk. Kijk? (Bal piept)
07:10
Now this one's for you to play. You can go ahead and play.
126
430976
4394
Hier, deze is voor jou om mee te spelen. Toe maar, speel er maar mee.
07:18
(Fussing) (Laughter)
127
438074
6347
(Gerommel) (Gelach)
07:26
LS: So you just saw two 15-month-old babies
128
446901
2748
LS: Jullie hebben net twee baby's van 15 maanden gezien
07:29
do entirely different things
129
449649
1942
die totaal verschillend reageerden,
07:31
based only on the probability of the sample they observed.
130
451591
3599
enkel gebaseerd op de waarschijnlijkheid van de proef die ze zagen.
07:35
Let me show you the experimental results.
131
455190
2321
Hier zijn de resultaten van het experiment:
07:37
On the vertical axis, you'll see the percentage of babies
132
457511
2764
Op de verticale as zie je het percentage baby's
07:40
who squeezed the ball in each condition,
133
460275
2530
dat in de bal kneep, per conditie.
07:42
and as you'll see, babies are much more likely to generalize the evidence
134
462805
3715
En je ziet: baby's generaliseren het bewijs eerder
07:46
when it's plausibly representative of the population
135
466520
3135
als het representatief lijkt te zijn voor de populatie
07:49
than when the evidence is clearly cherry-picked.
136
469655
3738
dan wanneer het bewijs duidelijk gekozen is.
07:53
And this leads to a fun prediction:
137
473393
2415
En dit leidt tot een leuke voorspelling:
07:55
Suppose you pulled just one blue ball out of the mostly yellow box.
138
475808
4868
stel dat je maar één blauwe bal pakt uit de doos met vooral gele.
08:00
You [probably won't] pull three blue balls in a row at random out of a yellow box,
139
480896
3869
Drie blauwe ballen achter elkaar uit een gele doos pakken is onwaarschijnlijk,
08:04
but you could randomly sample just one blue ball.
140
484765
2455
maar je kunt wel toevallig één blauwe bal pakken.
08:07
That's not an improbable sample.
141
487220
1970
Dat is geen onwaarschijnlijke steekproef.
08:09
And if you could reach into a box at random
142
489190
2224
En als je willekeurig iets uit een doos pakt
08:11
and pull out something that squeaks, maybe everything in the box squeaks.
143
491414
3987
en dat piept, misschien dat alles in die doos dan wel piept.
08:15
So even though babies are going to see much less evidence for squeaking,
144
495875
4445
Dus ook al zien de baby's veel minder bewijs voor het piepen,
08:20
and have many fewer actions to imitate
145
500320
2242
en veel minder voorbeelden om na te doen
08:22
in this one ball condition than in the condition you just saw,
146
502562
3343
in deze conditie met één bal dan in de conditie die je net zag,
08:25
we predicted that babies themselves would squeeze more,
147
505905
3892
wij voorspelden dat meer baby's in de ballen zouden knijpen,
08:29
and that's exactly what we found.
148
509797
2894
en dat is precies wat er gebeurde.
08:32
So 15-month-old babies, in this respect, like scientists,
149
512691
4411
Dus baby's van 15 maanden vinden, net als wetenschappers,
08:37
care whether evidence is randomly sampled or not,
150
517102
3088
het van belang of bewijs uit een willekeurige steekproef komt.
08:40
and they use this to develop expectations about the world:
151
520190
3507
En dat passen ze toe als ze verwachtingen over de wereld scheppen:
08:43
what squeaks and what doesn't,
152
523697
2182
wat piept en wat niet,
08:45
what to explore and what to ignore.
153
525879
3145
wat te ontdekken en wat te negeren.
08:50
Let me show you another example now,
154
530384
2066
Ik zal nu een ander voorbeeld laten zien,
08:52
this time about a problem of causal reasoning.
155
532450
2730
over het probleem van causaal redeneren.
08:55
And it starts with a problem of confounded evidence
156
535180
2439
En het begint met het verwarrende bewijs
08:57
that all of us have,
157
537619
1672
waar we allemaal over beschikken,
08:59
which is that we are part of the world.
158
539291
2020
namelijk dat we deel uitmaken van de wereld.
09:01
And this might not seem like a problem to you, but like most problems,
159
541311
3436
Misschien lijkt jullie dat geen probleem, maar zoals meestal,
09:04
it's only a problem when things go wrong.
160
544747
2337
is het alleen een probleem als er iets mis gaat.
09:07
Take this baby, for instance.
161
547464
1811
Neem bijvoorbeeld deze baby.
09:09
Things are going wrong for him.
162
549275
1705
Hij heeft een probleem:
09:10
He would like to make this toy go, and he can't.
163
550980
2271
hij wil dat dit speeltje werkt en dat lukt niet.
09:13
I'll show you a few-second clip.
164
553251
2529
Ik laat een paar seconden van het filmpje zien.
09:21
And there's two possibilities, broadly:
165
561340
1920
Er zijn twee mogelijkheden:
09:23
Maybe he's doing something wrong,
166
563260
2634
misschien doet hij iets fout,
09:25
or maybe there's something wrong with the toy.
167
565894
4216
of misschien is het speeltje kapot.
09:30
So in this next experiment,
168
570110
2111
Dus in het volgende experiment
09:32
we're going to give babies just a tiny bit of statistical data
169
572221
3297
geven we de baby's een heel klein beetje statistisch bewijs
09:35
supporting one hypothesis over the other,
170
575518
2582
dat een van de hypotheses ondersteunt
09:38
and we're going to see if babies can use that to make different decisions
171
578100
3455
en we kijken of baby's dat kunnen gebruiken in hun beslissingen
09:41
about what to do.
172
581555
1834
over wat ze moeten doen.
09:43
Here's the setup.
173
583389
2022
Dit is wat we deden:
09:46
Hyowon is going to try to make the toy go and succeed.
174
586071
3030
Hyowon probeert het speeltje en het werkt.
09:49
I am then going to try twice and fail both times,
175
589101
3320
Daarna probeer ik het twee keer en beide keren lukt het niet,
09:52
and then Hyowon is going to try again and succeed,
176
592421
3112
Hyowon probeert het nog een keer en het werkt.
09:55
and this roughly sums up my relationship to my graduate students
177
595533
3172
En dit is ongeveer hoe het meestal gaat tussen mij en mijn studenten
09:58
in technology across the board.
178
598705
2835
met de meeste technologische dingen.
10:02
But the important point here is it provides a little bit of evidence
179
602030
3292
Maar waar het hier om gaat is dat het enigszins bewijst
10:05
that the problem isn't with the toy, it's with the person.
180
605322
3668
dat het niet aan het speeltje ligt, maar aan de persoon.
10:08
Some people can make this toy go,
181
608990
2350
Sommige mensen krijgen dit speeltje aan de praat,
10:11
and some can't.
182
611340
959
en andere niet.
10:12
Now, when the baby gets the toy, he's going to have a choice.
183
612799
3413
Wanneer de baby het speeltje krijgt, heeft hij een keuze.
10:16
His mom is right there,
184
616212
2188
Zijn moeder zit naast hem,
10:18
so he can go ahead and hand off the toy and change the person,
185
618400
3315
dus hij kan het meteen aan haar geven en de persoon veranderen.
10:21
but there's also going to be another toy at the end of that cloth,
186
621715
3158
Maar er ligt ook nog speeltje op het kleed,
10:24
and he can pull the cloth towards him and change the toy.
187
624873
3552
dus hij kan het kleed naar zich toe trekken en het speeltje veranderen.
10:28
So let's see what the baby does.
188
628425
2090
Kijk maar wat de baby doet.
10:30
(Video) HG: Two, three. Go! (Music)
189
630515
4183
(Video) HG: Twee, drie, go! (Muziek)
10:34
LS: One, two, three, go!
190
634698
3131
LS: Een, twee, drie, go!
10:37
Arthur, I'm going to try again. One, two, three, go!
191
637829
7382
Arthur, ik probeer het nog een keer. Een, twee drie, go!
10:45
YG: Arthur, let me try again, okay?
192
645677
2600
HG: Arthur, ik probeer het nog eens, oké?
10:48
One, two, three, go! (Music)
193
648277
4550
Een, twee, drie, go! (Muziek)
10:53
Look at that. Remember these toys?
194
653583
1883
Kijk eens! Ken je deze speeltjes nog?
10:55
See these toys? Yeah, I'm going to put this one over here,
195
655466
3264
Zie je ze? Ik leg deze hier neer
10:58
and I'm going to give this one to you.
196
658730
2062
en deze geef ik aan jou.
11:00
You can go ahead and play.
197
660792
2335
Speel er maar mee.
11:23
LS: Okay, Laura, but of course, babies love their mommies.
198
683213
4737
LS: Ja, Laura, maar natuurlijk houden baby's van hun moeder.
11:27
Of course babies give toys to their mommies
199
687950
2182
Baby's geven hun moeder het speeltje
11:30
when they can't make them work.
200
690132
2030
als het niet werkt.
11:32
So again, the really important question is what happens when we change
201
692162
3593
Dus het gaat er ook hier weer om wat er gebeurt
11:35
the statistical data ever so slightly.
202
695755
3154
als we de statistische data een beetje veranderen.
11:38
This time, babies are going to see the toy work and fail in exactly the same order,
203
698909
4087
Deze keer zien de baby's het speeltje wel en niet werken in dezelfde volgorde,
11:42
but we're changing the distribution of evidence.
204
702996
2415
maar we veranderen de distributie van het bewijs.
11:45
This time, Hyowon is going to succeed once and fail once, and so am I.
205
705411
4411
Deze keer lukt het Hyowon één keer wel en één keer niet, en mij ook.
11:49
And this suggests it doesn't matter who tries this toy, the toy is broken.
206
709822
5637
En dit suggereert dat het niet uitmaakt wie het probeert, het speeltje is kapot.
11:55
It doesn't work all the time.
207
715459
1886
Het doet het niet altijd.
11:57
Again, the baby's going to have a choice.
208
717345
1965
Ook nu heeft de baby weer een keuze.
11:59
Her mom is right next to her, so she can change the person,
209
719310
3396
Haar moeder zit naast haar, dus ze kan de persoon veranderen
12:02
and there's going to be another toy at the end of the cloth.
210
722706
3204
en er is nog een speeltje op het kleed.
12:05
Let's watch what she does.
211
725910
1378
Kijk maar wat ze doet.
12:07
(Video) HG: Two, three, go! (Music)
212
727288
4348
(Video) HG: Twee, drie, go! (Muziek)
12:11
Let me try one more time. One, two, three, go!
213
731636
4984
Nog een keer. Een, twee, drie, go!
12:17
Hmm.
214
737460
1697
Hmm.
12:19
LS: Let me try, Clara.
215
739950
2692
LS: Laat mij eens proberen, Clara.
12:22
One, two, three, go!
216
742642
3945
Een, twee, drie, go!
12:27
Hmm, let me try again.
217
747265
1935
Hmm, nog een keer.
12:29
One, two, three, go! (Music)
218
749200
5670
Een, twee, drie, go! (Muziek)
12:35
HG: I'm going to put this one over here,
219
755009
2233
HG: Ik leg deze hier neer,
12:37
and I'm going to give this one to you.
220
757242
2001
en deze geef ik aan jou.
12:39
You can go ahead and play.
221
759243
3597
Speel er maar mee.
12:58
(Applause)
222
778376
4897
(Applaus)
13:04
LS: Let me show you the experimental results.
223
784993
2392
LS: Dit zijn de resultaten:
13:07
On the vertical axis, you'll see the distribution
224
787385
2475
op de verticale as zie je de distributie
13:09
of children's choices in each condition,
225
789860
2577
van de keuzes voor de beide condities,
13:12
and you'll see that the distribution of the choices children make
226
792437
4551
en je ziet dat de verdeling van de keuzes die kinderen maken
13:16
depends on the evidence they observe.
227
796988
2787
afhangt van het bewijs dat ze zien.
13:19
So in the second year of life,
228
799775
1857
Dus in het tweede jaar van hun leven,
13:21
babies can use a tiny bit of statistical data
229
801632
2577
kunnen baby's wat statistische data gebruiken
13:24
to decide between two fundamentally different strategies
230
804209
3367
om te kiezen tussen twee fundamenteel verschillende manieren
13:27
for acting in the world:
231
807576
1881
om je te gedragen:
13:29
asking for help and exploring.
232
809457
2743
hulp vragen en op verkenning gaan.
13:33
I've just shown you two laboratory experiments
233
813700
3434
Ik heb jullie net twee experimenten laten zien
13:37
out of literally hundreds in the field that make similar points,
234
817134
3691
van de honderden in dit gebied die vergelijkbare dingen aantonen.
13:40
because the really critical point
235
820825
2392
Het echt cruciale punt
13:43
is that children's ability to make rich inferences from sparse data
236
823217
5108
is dat het vermogen van kinderen om rijke conclusies te trekken uit weinig data
13:48
underlies all the species-specific cultural learning that we do.
237
828325
5341
de grondslag is van hoe mensen leren.
13:53
Children learn about new tools from just a few examples.
238
833666
4597
Kinderen hebben maar een paar voorbeelden nodig om een nieuw apparaat te begrijpen.
13:58
They learn new causal relationships from just a few examples.
239
838263
4717
Ze leren over nieuwe causale verbanden van maar een paar voorbeelden.
14:03
They even learn new words, in this case in American Sign Language.
240
843928
4871
Ze leren zelfs nieuwe woorden, in dit geval in Amerikaanse gebarentaal.
14:08
I want to close with just two points.
241
848799
2311
Ik wil afsluiten met twee punten.
14:12
If you've been following my world, the field of brain and cognitive sciences,
242
852050
3688
Als je mijn vakgebied, de neurocognitieve wetenschappen, hebt gevolgd
14:15
for the past few years,
243
855738
1927
in de afgelopen paar jaar,
14:17
three big ideas will have come to your attention.
244
857665
2415
dan zullen drie grote ideeën je zijn opgevallen.
14:20
The first is that this is the era of the brain.
245
860080
3436
Het eerste is dat dit het tijdperk is van de hersenen.
14:23
And indeed, there have been staggering discoveries in neuroscience:
246
863516
3669
En inderdaad, er zijn indrukwekkende ontdekkingen gedaan in neurowetenschap:
14:27
localizing functionally specialized regions of cortex,
247
867185
3436
het localiseren van functioneel specifieke gebieden van de cortex,
14:30
turning mouse brains transparent,
248
870621
2601
het doorzichtig maken van de hersenen van muizen,
14:33
activating neurons with light.
249
873222
3776
neuronen activeren met licht.
14:36
A second big idea
250
876998
1996
Een tweede groot idee
14:38
is that this is the era of big data and machine learning,
251
878994
4104
is dat dit het tijdperk is van veel data en machinaal leren,
14:43
and machine learning promises to revolutionize our understanding
252
883098
3141
en machinaal leren lijkt te zorgen voor een revolutie in ons begrip
14:46
of everything from social networks to epidemiology.
253
886239
4667
van alles, van sociale netwerken tot epidemiologie.
14:50
And maybe, as it tackles problems of scene understanding
254
890906
2693
Naarmate vragen opgelost raken rond het begrip van de omgeving
14:53
and natural language processing,
255
893599
1993
en natuurlijke taalverwerking
14:55
to tell us something about human cognition.
256
895592
3324
kan het ons misschien iets leren overmenselijke cognitie.
14:59
And the final big idea you'll have heard
257
899756
1937
En het laatste grote idee
15:01
is that maybe it's a good idea we're going to know so much about brains
258
901693
3387
is dat het misschien wel goed is dat we zoveel over de hersenen leren
15:05
and have so much access to big data,
259
905080
1917
en toegang hebben tot zoveel data,
15:06
because left to our own devices,
260
906997
2507
want als we aan onszelf zijn overgelaten,
15:09
humans are fallible, we take shortcuts,
261
909504
3831
dan zijn mensen feilbaar: we nemen een kortere weg,
15:13
we err, we make mistakes,
262
913335
3437
we vergissen ons, we maken fouten,
15:16
we're biased, and in innumerable ways,
263
916772
3684
we zijn partijdig, en op ontelbaar veel manieren
15:20
we get the world wrong.
264
920456
2969
begrijpen we de wereld verkeerd.
15:24
I think these are all important stories,
265
924843
2949
Ik denk dat dit allemaal belangrijke ideeën zijn,
15:27
and they have a lot to tell us about what it means to be human,
266
927792
3785
die ons veel vertellen over de mensheid,
15:31
but I want you to note that today I told you a very different story.
267
931577
3529
maar ik heb jullie vandaag een heel ander verhaal verteld.
15:35
It's a story about minds and not brains,
268
935966
3807
Een verhaal over het verstand in plaats van over hersens,
15:39
and in particular, it's a story about the kinds of computations
269
939773
3006
en vooral over het soort berekeningen die
15:42
that uniquely human minds can perform,
270
942779
2590
het menselijk verstand kan maken,
15:45
which involve rich, structured knowledge and the ability to learn
271
945369
3944
op basis van rijke, gestructureerde kennis
en het vermogen om van een kleine hoeveelheid data te leren,
15:49
from small amounts of data, the evidence of just a few examples.
272
949313
5268
van het bewijs van enkele voorbeelden.
15:56
And fundamentally, it's a story about how starting as very small children
273
956301
4299
In de kern is het een verhaal over hoe we van jongs af aan
16:00
and continuing out all the way to the greatest accomplishments
274
960600
4180
tot aan de meest indrukwekkende prestaties
16:04
of our culture,
275
964780
3843
van onze cultuur,
16:08
we get the world right.
276
968623
1997
de wereld wél begrijpen.
16:12
Folks, human minds do not only learn from small amounts of data.
277
972433
5267
Het menselijk verstand leert natuurlijk niet alleen van kleine hoeveelheden data.
16:18
Human minds think of altogether new ideas.
278
978285
2101
Ons verstand kan nieuwe ideeën bedenken.
16:20
Human minds generate research and discovery,
279
980746
3041
Ons verstand onderzoekt en ontdekt,
16:23
and human minds generate art and literature and poetry and theater,
280
983787
5273
en het creëert kunst, literatuur, poëzie en theater.
16:29
and human minds take care of other humans:
281
989070
3760
En met het menselijk verstand kunnen we voor andere mensen zorgen:
16:32
our old, our young, our sick.
282
992830
3427
de ouderen, jongeren, zieken.
16:36
We even heal them.
283
996517
2367
We kunnen ze zelfs genezen.
16:39
In the years to come, we're going to see technological innovations
284
999564
3103
In de komende jaren zullen we technologische innovaties zien,
16:42
beyond anything I can even envision,
285
1002667
3797
die mijn eigen verbeelding te boven gaan,
16:46
but we are very unlikely
286
1006464
2150
maar het is zeer onwaarschijnlijk
16:48
to see anything even approximating the computational power of a human child
287
1008614
5709
dat we in onze tijd iets zullen zien wat ook maar enigszins lijkt
16:54
in my lifetime or in yours.
288
1014323
4298
op het calculerende vermogen van een kind.
16:58
If we invest in these most powerful learners and their development,
289
1018621
5047
Door te investeren in deze doortastende lerenden en hun ontwikkeling,
17:03
in babies and children
290
1023668
2917
in baby's en kinderen
17:06
and mothers and fathers
291
1026585
1826
en moeders en vaders
17:08
and caregivers and teachers
292
1028411
2699
en verzorgers en leraren
17:11
the ways we invest in our other most powerful and elegant forms
293
1031110
4170
op dezelfde manier als we investeren in onze andere fantastische, mooie vormen
17:15
of technology, engineering and design,
294
1035280
3218
van techniek en design,
17:18
we will not just be dreaming of a better future,
295
1038498
2939
dromen we niet alleen van een betere toekomst,
17:21
we will be planning for one.
296
1041437
2127
maar maken we er plannen voor.
17:23
Thank you very much.
297
1043564
2345
Dank je wel.
17:25
(Applause)
298
1045909
3421
(Applaus)
17:29
Chris Anderson: Laura, thank you. I do actually have a question for you.
299
1049810
4426
Chris Anderson: Laura, dank je wel. Ik heb nog een vraag voor je.
17:34
First of all, the research is insane.
300
1054236
2359
Ten eerste, dit is onderzoek is krankzinnig.
17:36
I mean, who would design an experiment like that? (Laughter)
301
1056595
3725
Ik bedoel, wie doet er nou zo'n experiment? (Gelach)
17:41
I've seen that a couple of times,
302
1061150
1790
Ik heb dit een paar keer gezien,
17:42
and I still don't honestly believe that that can truly be happening,
303
1062940
3222
en ik geloof nog steeds niet dat het echt is,
17:46
but other people have done similar experiments; it checks out.
304
1066162
3158
maar anderen hebben soortgelijke experimenten gedaan; het klopt.
17:49
The babies really are that genius.
305
1069320
1633
De baby's zijn echt zulke genieën.
17:50
LS: You know, they look really impressive in our experiments,
306
1070953
3007
LS: Ze zien er heel indrukwekkend uit in onze experimenten,
17:53
but think about what they look like in real life, right?
307
1073960
2652
maar let maar eens op hoe ze er in het echt uitzien.
17:56
It starts out as a baby.
308
1076612
1150
Eerst is het een baby.
17:57
Eighteen months later, it's talking to you,
309
1077762
2007
Achttien maanden later praat het met je,
17:59
and babies' first words aren't just things like balls and ducks,
310
1079769
3041
de eerste woordjes beperken zich niet tot dingen als bal of eend,
18:02
they're things like "all gone," which refer to disappearance,
311
1082810
2881
ze zeggen ook dingen als "op" wat verwijst naar verdwijning,
18:05
or "uh-oh," which refer to unintentional actions.
312
1085691
2283
of "oh-oh", als iets per ongeluk gebeurt.
18:07
It has to be that powerful.
313
1087974
1562
Hij moet zoveel kunnen.
18:09
It has to be much more powerful than anything I showed you.
314
1089536
2775
Hij moet veel meer kunnen dan wat ik heb laten zien.
18:12
They're figuring out the entire world.
315
1092311
1974
Ze zijn de hele wereld aan het ontdekken.
18:14
A four-year-old can talk to you about almost anything.
316
1094285
3144
Een vierjarige kan over bijna alles met je praten.
18:17
(Applause)
317
1097429
1601
(Applaus)
18:19
CA: And if I understand you right, the other key point you're making is,
318
1099030
3414
CA: En als ik het goed begrijp, is jouw andere punt
18:22
we've been through these years where there's all this talk
319
1102444
2754
dat er de afgelopen jaren zo vaak is gezegd dat ons verstand
18:25
of how quirky and buggy our minds are,
320
1105198
1932
maar eigenzinnig en gebrekkig is,
18:27
that behavioral economics and the whole theories behind that
321
1107130
2867
de gedragseconomie en al die theorieën daarachter,
18:29
that we're not rational agents.
322
1109997
1603
dat we niet rationeel zijn.
18:31
You're really saying that the bigger story is how extraordinary,
323
1111600
4216
Jij legt juist de nadruk op hoe buitengewoon,
18:35
and there really is genius there that is underappreciated.
324
1115816
4944
dat er echte genialiteit is die wordt ondergewaardeerd.
18:40
LS: One of my favorite quotes in psychology
325
1120760
2070
LS: Deze quote uit de psychologie
18:42
comes from the social psychologist Solomon Asch,
326
1122830
2290
is van sociaal psycholoog Solomon Asch;
18:45
and he said the fundamental task of psychology is to remove
327
1125120
2807
hij zei dat de fundamentele taak van de psychologie is om
18:47
the veil of self-evidence from things.
328
1127927
2626
de sluier van vanzelfsprekendheid weg te nemen.
18:50
There are orders of magnitude more decisions you make every day
329
1130553
4551
We maken elke dag ontelbaar veel meer beslissingen waaruit blijkt
18:55
that get the world right.
330
1135104
1347
dat we de wereld begrijpen.
18:56
You know about objects and their properties.
331
1136451
2132
Je kent objecten en hun eigenschappen.
18:58
You know them when they're occluded. You know them in the dark.
332
1138583
3029
Je kent ze als ze verstopt zijn. Je kent ze in het donker.
19:01
You can walk through rooms.
333
1141612
1308
Je kunt door ruimtes lopen.
19:02
You can figure out what other people are thinking. You can talk to them.
334
1142920
3532
Je kunt erachter komen wat andere mensen denken. Je kunt met ze praten.
19:06
You can navigate space. You know about numbers.
335
1146452
2230
Je kunt navigeren. Je kent cijfers.
19:08
You know causal relationships. You know about moral reasoning.
336
1148682
3022
Je kent causale verbanden. Je kan moreel redeneren.
19:11
You do this effortlessly, so we don't see it,
337
1151704
2356
Je doet het vanzelf, dus we zien het niet,
19:14
but that is how we get the world right, and it's a remarkable
338
1154060
2912
maar zo begrijpen we de wereld, en dat is een wonderbaarlijke
19:16
and very difficult-to-understand accomplishment.
339
1156972
2318
en moeilijk te begrijpen prestatie.
19:19
CA: I suspect there are people in the audience who have
340
1159290
2628
CA: Ik vermoed dat er mensen in het publiek zijn die
19:21
this view of accelerating technological power
341
1161918
2238
een beeld hebben van technologische ontwikkeling,
19:24
who might dispute your statement that never in our lifetimes
342
1164156
2958
die het er niet mee eens zijn dat er nooit in ons leven
19:27
will a computer do what a three-year-old child can do,
343
1167114
2618
een computer zal doen wat een driejarig kind kan doen,
19:29
but what's clear is that in any scenario,
344
1169732
3248
maar wat hier in ieder geval uit blijkt
19:32
our machines have so much to learn from our toddlers.
345
1172980
3770
is dat onze apparaten nog heel veel kunnen leren van onze peuters.
19:38
LS: I think so. You'll have some machine learning folks up here.
346
1178230
3216
LS: Ja dat denk ik wel. Machinaal leren zit hier vast ook.
19:41
I mean, you should never bet against babies or chimpanzees
347
1181446
4203
Je moet natuurlijk nooit tegen baby's of chimpansees
19:45
or technology as a matter of practice,
348
1185649
3645
of techniek zijn, enkel uit principe,
19:49
but it's not just a difference in quantity,
349
1189294
4528
maar het gaat niet alleen om een verschil in kwantiteit,
19:53
it's a difference in kind.
350
1193822
1764
het is een verschil in aard.
19:55
We have incredibly powerful computers,
351
1195586
2160
We hebben ontzettend slimme computers,
19:57
and they do do amazingly sophisticated things,
352
1197746
2391
en ze doen ongelooflijk geavanceerde dingen,
20:00
often with very big amounts of data.
353
1200137
3204
vaak met gigantisch veel data.
20:03
Human minds do, I think, something quite different,
354
1203341
2607
Mensen doen iets heel anders
20:05
and I think it's the structured, hierarchical nature of human knowledge
355
1205948
3895
en ik denk dat het de gestructureerde, hiërarchische aard van onze kennis is,
20:09
that remains a real challenge.
356
1209843
2032
wat een echte uitdaging blijft.
20:11
CA: Laura Schulz, wonderful food for thought. Thank you so much.
357
1211875
3061
CA: Laura Schulz, mooi om over na te denken. Dank je wel.
20:14
LS: Thank you. (Applause)
358
1214936
2922
LS: Bedankt. (Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7