Laura Schulz: The surprisingly logical minds of babies

233,878 views ・ 2015-06-02

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Péter Pallós Lektor: Orsolya Kiss
00:12
Mark Twain summed up what I take to be
0
12835
2155
Mark Twain szellemesen mutatott rá
00:14
one of the fundamental problems of cognitive science
1
14990
3120
találó mondásában, hogy mi a legnagyobb gond
00:18
with a single witticism.
2
18110
1710
a megismeréstudománnyal:
00:20
He said, "There's something fascinating about science.
3
20410
3082
"Döbbenetes, hogy a tudományban
00:23
One gets such wholesale returns of conjecture
4
23492
3228
mennyi feltevést kaphatunk
00:26
out of such a trifling investment in fact."
5
26720
3204
oly kevés tényért cserébe."
00:29
(Laughter)
6
29924
1585
(Nevetés)
00:32
Twain meant it as a joke, of course, but he's right:
7
32199
2604
Twain ezt persze viccnek szánta, de igaza van.
00:34
There's something fascinating about science.
8
34803
2876
Van valami döbbenetes a tudományban.
00:37
From a few bones, we infer the existence of dinosuars.
9
37679
4261
Egy pár csontból a dinoszauruszok létezésére következtethetünk.
00:42
From spectral lines, the composition of nebulae.
10
42910
3871
Spektrumanalízissel egész csillagködök összetételét tudjuk megmondani.
00:47
From fruit flies,
11
47471
2938
Muslicák vizsgálatával
00:50
the mechanisms of heredity,
12
50409
2943
az öröklés mechanizmusát kutatjuk,
00:53
and from reconstructed images of blood flowing through the brain,
13
53352
4249
és az agy véráramának képeiből,
00:57
or in my case, from the behavior of very young children,
14
57601
4708
vagy a nagyon fiatal gyermekek viselkedéséből
01:02
we try to say something about the fundamental mechanisms
15
62309
2829
az emberi észlelés
alapvető mechanizmusait tárhatjuk fel.
01:05
of human cognition.
16
65138
1618
01:07
In particular, in my lab in the Department of Brain and Cognitive Sciences at MIT,
17
67716
4759
Az MIT megismeréstudományi és agykutató laborjában dolgozom,
01:12
I have spent the past decade trying to understand the mystery
18
72475
3654
s az elmúlt évtizedet e rejtély feltárásával töltöttem:
01:16
of how children learn so much from so little so quickly.
19
76129
3977
hogyan tanulnak a gyerekek olyan sokat és gyorsan, oly kevés információból.
01:20
Because, it turns out that the fascinating thing about science
20
80666
2978
Mert kiderült, hogy ami döbbenetes a tudományban,
01:23
is also a fascinating thing about children,
21
83644
3529
az döbbenetes a gyerekekben is,
01:27
which, to put a gentler spin on Mark Twain,
22
87173
2581
és Mark Twain gondolatát alkalmazva.
01:29
is precisely their ability to draw rich, abstract inferences
23
89754
4650
gyorsan, pontosan képesek bőséges és absztrakt következtetéseket levonni
01:34
rapidly and accurately from sparse, noisy data.
24
94404
4661
hiányos vagy zavaros adatokból.
01:40
I'm going to give you just two examples today.
25
100355
2398
Két ilyen példáról szeretnék ma beszélni.
01:42
One is about a problem of generalization,
26
102753
2287
Az egyik az általánosítás kérdése,
01:45
and the other is about a problem of causal reasoning.
27
105040
2850
a másik pedig az ok-okozati kapcsolattal függ össze.
01:47
And although I'm going to talk about work in my lab,
28
107890
2525
Bár saját munkámat ismertetem,
01:50
this work is inspired by and indebted to a field.
29
110415
3460
sokaknak tartozom az ösztönzésért.
01:53
I'm grateful to mentors, colleagues, and collaborators around the world.
30
113875
4283
Hálás vagyok mentoraimnak, kollégáimnak és közreműködőimnek a világ minden táján.
01:59
Let me start with the problem of generalization.
31
119308
2974
Kezdjük az általánosítás kérdésével.
02:02
Generalizing from small samples of data is the bread and butter of science.
32
122652
4133
A tudományban gyakran kis mintákból vonunk le általános következtetést.
02:06
We poll a tiny fraction of the electorate
33
126785
2554
Egy pár embert megkérdezünk, kire szavaz,
02:09
and we predict the outcome of national elections.
34
129339
2321
s előrejelezzük az országos választási eredményt.
02:12
We see how a handful of patients responds to treatment in a clinical trial,
35
132240
3925
Ha a páciensek egy része jól reagál egy gyógyszerkísérlet során,
02:16
and we bring drugs to a national market.
36
136165
3065
piacra dobhatunk egy új terméket.
02:19
But this only works if our sample is randomly drawn from the population.
37
139230
4365
De ez csak véletlen mintavételkor működik.
02:23
If our sample is cherry-picked in some way --
38
143595
2735
Ha választásunkat befolyásolja valamilyen tényező,
02:26
say, we poll only urban voters,
39
146330
2072
például csak városi szavazókat,
02:28
or say, in our clinical trials for treatments for heart disease,
40
148402
4388
vagy csak férfiakat vonunk be egy új szívgyógyszernél
02:32
we include only men --
41
152790
1881
a kísérleti alkalmazásba,
02:34
the results may not generalize to the broader population.
42
154671
3158
az eredmények nem lesznek érvényesek a nagyobb népességre.
02:38
So scientists care whether evidence is randomly sampled or not,
43
158479
3581
A tudósok tehát figyelnek rá, hogy a mintavétel véletlenszerű legyen,
02:42
but what does that have to do with babies?
44
162060
2015
de mi köze ennek a csecsemőkhöz?
02:44
Well, babies have to generalize from small samples of data all the time.
45
164585
4621
Nos, a csecsemőknek egyfolytában kis mintákból kell általánosítaniuk.
02:49
They see a few rubber ducks and learn that they float,
46
169206
3158
Látnak egy pár gumikacsát, és megtanulják, hogy azok lebegnek,
02:52
or a few balls and learn that they bounce.
47
172364
3575
labdával játszanak, és rájönnek, hogy az pattog.
02:55
And they develop expectations about ducks and balls
48
175939
2951
Később már számítanak a lebegésre és a pattogásra,
02:58
that they're going to extend to rubber ducks and balls
49
178890
2716
sőt, más gumikacsákról és labdákról is előre tudják,
03:01
for the rest of their lives.
50
181606
1879
hogyan fognak viselkedni.
03:03
And the kinds of generalizations babies have to make about ducks and balls
51
183485
3739
Képesnek kell lenniük nemcsak labdákról és kacsákról,
03:07
they have to make about almost everything:
52
187224
2089
hanem majd mindenről ilyen általánosításra.
03:09
shoes and ships and sealing wax and cabbages and kings.
53
189313
3917
Cipőkről, hajókról, pecsétviaszról, káposztákról, királyokról.
03:14
So do babies care whether the tiny bit of evidence they see
54
194200
2961
A babákat vajon érdekli-e, hogy a látott pici bizonyíték
03:17
is plausibly representative of a larger population?
55
197161
3692
meggyőzően képviseli a nagyobb népességet?
03:21
Let's find out.
56
201763
1900
Vizsgáljuk meg!
03:23
I'm going to show you two movies,
57
203663
1723
Most két filmet látnak egy kísérletről,
03:25
one from each of two conditions of an experiment,
58
205386
2462
amelyet kétféle feltétel között végeztek,
03:27
and because you're going to see just two movies,
59
207848
2438
s mivel csak ezt a két filmet néznek meg,
03:30
you're going to see just two babies,
60
210286
2136
csak két babát fognak látni.
03:32
and any two babies differ from each other in innumerable ways.
61
212422
3947
Két tetszőleges baba számtalan dologban különbözik egymástól.
03:36
But these babies, of course, here stand in for groups of babies,
62
216369
3051
Ezek a babák persze babák csoportját jelképezik,
a különbségek a csoportok közti átlagos különbséget képviselik,
03:39
and the differences you're going to see
63
219420
1895
03:41
represent average group differences in babies' behavior across conditions.
64
221315
5195
amely a kétféle feltételre adott viselkedésben fejeződik ki.
03:47
In each movie, you're going to see a baby doing maybe
65
227160
2583
Mindkét filmben a babák azt csinálják,
03:49
just exactly what you might expect a baby to do,
66
229743
3460
amit egy babától elvárnánk,
03:53
and we can hardly make babies more magical than they already are.
67
233203
4017
és ugyan nem ruházhatjuk fel őket varázserővel,
de szerintem a varázslatos
03:58
But to my mind the magical thing,
68
238090
2010
04:00
and what I want you to pay attention to,
69
240100
2089
— erre fel is hívom a figyelmüket —,
04:02
is the contrast between these two conditions,
70
242189
3111
a két feltétel közti különbség.
04:05
because the only thing that differs between these two movies
71
245300
3529
A filmek közti egyetlen különbség
04:08
is the statistical evidence the babies are going to observe.
72
248829
3466
a statisztikai erejű bizonyíték, melyet a babák megfigyelnek.
04:13
We're going to show babies a box of blue and yellow balls,
73
253425
3183
Egy doboznyi kék és sárga labdát mutatunk a babáknak,
04:16
and my then-graduate student, now colleague at Stanford, Hyowon Gweon,
74
256608
4620
aztán Hyowon Gweon, régi tanítványom, aki most már stanfordi munkatársam,
04:21
is going to pull three blue balls in a row out of this box,
75
261228
3077
zsinórban három kék labdát húz a dobozból,
04:24
and when she pulls those balls out, she's going to squeeze them,
76
264305
3123
közben összenyomja őket,
04:27
and the balls are going to squeak.
77
267428
2113
a labda pedig sípolni fog.
04:29
And if you're a baby, that's like a TED Talk.
78
269541
2763
Egy baba számára ez egy kész TED-előadás,
04:32
It doesn't get better than that.
79
272304
1904
ami nem is lehetne tudományosabb.
04:34
(Laughter)
80
274208
2561
(Nevetés)
04:38
But the important point is it's really easy to pull three blue balls in a row
81
278968
3659
De ebből az a lényeg, hogy zsinórban könnyű három kék labdát húzni
04:42
out of a box of mostly blue balls.
82
282627
2305
egy zömmel kék labdát tartalmazó dobozból.
04:44
You could do that with your eyes closed.
83
284932
2060
Csukott szemmel is menne.
04:46
It's plausibly a random sample from this population.
84
286992
2996
Ez meggyőzően véletlen mintavétel.
04:49
And if you can reach into a box at random and pull out things that squeak,
85
289988
3732
Ha véletlenszerűen húzunk ki sípoló labdákat a dobozból,
04:53
then maybe everything in the box squeaks.
86
293720
2839
akkor a dobozban talán csak sípoló labdák vannak.
04:56
So maybe babies should expect those yellow balls to squeak as well.
87
296559
3650
A babáknak tehát arra kéne számítaniuk, hogy a sárga labdák is sípolnak.
05:00
Now, those yellow balls have funny sticks on the end,
88
300209
2519
A sárga labdáknak nyelük van,
05:02
so babies could do other things with them if they wanted to.
89
302728
2857
tehát a babák, ha akarják, másra is használhatják őket.
05:05
They could pound them or whack them.
90
305585
1831
Ütögethetik, odaverhetik őket.
05:07
But let's see what the baby does.
91
307416
2586
De nézzük, mi történt a kísérletben.
05:12
(Video) Hyowon Gweon: See this? (Ball squeaks)
92
312548
3343
(Film) Hyowon Gweon: Látod ezt? (Sípol a labda)
05:16
Did you see that? (Ball squeaks)
93
316531
3045
Láttad ezt? (Sípol a labda)
05:20
Cool.
94
320036
3066
Remek!
05:24
See this one?
95
324706
1950
Látod ezt itt?
05:26
(Ball squeaks)
96
326656
1881
(Sípol a labda)
05:28
Wow.
97
328537
2653
Tyűha!
05:33
Laura Schulz: Told you. (Laughs)
98
333854
2113
Laura Schulz: Én megmondtam! (Nevet)
05:35
(Video) HG: See this one? (Ball squeaks)
99
335967
4031
(Film) HG: Látod ezt? (Sípol a labda)
05:39
Hey Clara, this one's for you. You can go ahead and play.
100
339998
4619
Hé, Clara, ez a tied. Játszhatsz vele!
05:51
(Laughter)
101
351854
4365
(Nevetés)
05:56
LS: I don't even have to talk, right?
102
356219
2995
LS: Ezt nem is kell kommentálni, igaz?
05:59
All right, it's nice that babies will generalize properties
103
359214
2899
Rendben, hogy a babák egy kalap alá veszik
a kék és sárga labdák tulajdonságait,
06:02
of blue balls to yellow balls,
104
362113
1528
06:03
and it's impressive that babies can learn from imitating us,
105
363641
3096
és lenyűgöző, ahogy utánzás révén tanulnak tőlünk,
06:06
but we've known those things about babies for a very long time.
106
366737
3669
de ezt már réges-rég tudtuk a babákról. .
06:10
The really interesting question
107
370406
1811
Az érdekes kérdés most jön:
06:12
is what happens when we show babies exactly the same thing,
108
372217
2852
Mi történik, ha a babáknak ugyanazt a tárgyat mutatjuk,
06:15
and we can ensure it's exactly the same because we have a secret compartment
109
375069
3611
biztosan ugyanazt, mert van egy titkos rekeszünk,
06:18
and we actually pull the balls from there,
110
378680
2110
és a labdákat onnan húzzuk elő,
06:20
but this time, all we change is the apparent population
111
380790
3478
de ezúttal megváltoztatjuk a populációt,
06:24
from which that evidence was drawn.
112
384268
2902
amelyből kihúzzuk a labdákat.
06:27
This time, we're going to show babies three blue balls
113
387170
3553
Ezúttal három kék labdát mutatunk a babáknak,
06:30
pulled out of a box of mostly yellow balls,
114
390723
3384
amelyeket zömmel sárga labdákat rejtő dobozból húztuk,
06:34
and guess what?
115
394107
1322
És mi történik?
06:35
You [probably won't] randomly draw three blue balls in a row
116
395429
2840
Valószínűség alapján nehéz zsinórban három kéket húzni
06:38
out of a box of mostly yellow balls.
117
398269
2484
zömmel sárgákat tartalmazó dobozból.
06:40
That is not plausibly randomly sampled evidence.
118
400753
3747
Itt tehát kétséges a véletlen mintavétel.
06:44
That evidence suggests that maybe Hyowon was deliberately sampling the blue balls.
119
404500
5123
A tények azt sejtetik, hogy Hyowon talán szándékosan húz csak kéket,
06:49
Maybe there's something special about the blue balls.
120
409623
2583
a kékek talán valami miatt különlegesek lehetnek.
06:52
Maybe only the blue balls squeak.
121
412846
2976
Talán csak a kék labdák sípolnak.
06:55
Let's see what the baby does.
122
415822
1895
Nézzük, mi történik!
06:57
(Video) HG: See this? (Ball squeaks)
123
417717
2904
(Film) HG: Látod ezt? (Sípol a labda)
07:02
See this toy? (Ball squeaks)
124
422851
2645
Látod ezt a játékot? (Sípol a labda)
07:05
Oh, that was cool. See? (Ball squeaks)
125
425496
5480
Ó, ez klassz volt! Látod? (Sípol a labda)
07:10
Now this one's for you to play. You can go ahead and play.
126
430976
4394
Tessék, ez a tied, játszhatsz vele!
07:18
(Fussing) (Laughter)
127
438074
6347
(Bébihang) (Nevetés)
07:26
LS: So you just saw two 15-month-old babies
128
446901
2748
LS: Önök most láttak két 15 hónapos babát,
07:29
do entirely different things
129
449649
1942
akik teljesen eltérően reagáltak,
07:31
based only on the probability of the sample they observed.
130
451591
3599
az eltérést csak a megfigyelt minta okozta.
07:35
Let me show you the experimental results.
131
455190
2321
Lássuk a kísérlet eredményeit!
07:37
On the vertical axis, you'll see the percentage of babies
132
457511
2764
A függőleges tengely mutatja
07:40
who squeezed the ball in each condition,
133
460275
2530
a labdát mindig megnyomó babákat, százalékban,
07:42
and as you'll see, babies are much more likely to generalize the evidence
134
462805
3715
és látható, hogy ha a minta meggyőzően reprezentatív,
07:46
when it's plausibly representative of the population
135
466520
3135
akkor a babák nagyobb arányban általánosítanak,
07:49
than when the evidence is clearly cherry-picked.
136
469655
3738
mint akkor, ha egyértelműen nem az.
07:53
And this leads to a fun prediction:
137
473393
2415
Ez egy érdekes következtetésre vezet.
07:55
Suppose you pulled just one blue ball out of the mostly yellow box.
138
475808
4868
Ha egy kéket húzunk egy zömmel sárgákat rejtő dobozból,
08:00
You [probably won't] pull three blue balls in a row at random out of a yellow box,
139
480896
3869
így valószínűtlen, hogy egymás után három kéket húzunk ki,
08:04
but you could randomly sample just one blue ball.
140
484765
2455
de egy kék még lehet véletlenszerű.
08:07
That's not an improbable sample.
141
487220
1970
Ez még hihető.
08:09
And if you could reach into a box at random
142
489190
2224
Ha véletlenszerűen nyúlunk a dobozba,
08:11
and pull out something that squeaks, maybe everything in the box squeaks.
143
491414
3987
majd kihúzunk egy sípoló tárgyat, lehet, hogy minden tárgy sípol benne.
08:15
So even though babies are going to see much less evidence for squeaking,
144
495875
4445
Bár a babák sokkal kevesebb bizonyítékot látnak a sípolásra,
08:20
and have many fewer actions to imitate
145
500320
2242
és sokkal kevesebb az esélyük utánozni a viselkedést
08:22
in this one ball condition than in the condition you just saw,
146
502562
3343
ebben az egylabdás kísérletben az előzőhöz képest,
08:25
we predicted that babies themselves would squeeze more,
147
505905
3892
mi azt feltételeztük, hogy a babák többször fogják összenyomni a labdát,
08:29
and that's exactly what we found.
148
509797
2894
és pontosan ez lett az eredmény.
08:32
So 15-month-old babies, in this respect, like scientists,
149
512691
4411
Tehát a 15 hónapos babák e tekintetben olyanok, mint a tudósok,
08:37
care whether evidence is randomly sampled or not,
150
517102
3088
figyelik, hogy a bizonyíték véletlen mintán alapul-e vagy sem,
08:40
and they use this to develop expectations about the world:
151
520190
3507
és babák eszerint alakítják világképüket:
08:43
what squeaks and what doesn't,
152
523697
2182
mi sípol és mi nem,
08:45
what to explore and what to ignore.
153
525879
3145
mire figyeljenek, és mire ne,
08:50
Let me show you another example now,
154
530384
2066
Nézzünk egy másik példát.
08:52
this time about a problem of causal reasoning.
155
532450
2730
Ez az ok-okozati összefüggésről szól.
08:55
And it starts with a problem of confounded evidence
156
535180
2439
Zavaros bizonyítékokkal mindnyájan találkozunk,
08:57
that all of us have,
157
537619
1672
az életben
08:59
which is that we are part of the world.
158
539291
2020
sok ilyen helyzet adódhat.
09:01
And this might not seem like a problem to you, but like most problems,
159
541311
3436
Ez nem okoz fejfájást,
de csak addig, amíg a dolgok rosszra nem fordulnak.
09:04
it's only a problem when things go wrong.
160
544747
2337
09:07
Take this baby, for instance.
161
547464
1811
Ez a baba például
09:09
Things are going wrong for him.
162
549275
1705
nehézségekkel küzd.
09:10
He would like to make this toy go, and he can't.
163
550980
2271
Működtetné a játékát, de nem megy.
09:13
I'll show you a few-second clip.
164
553251
2529
Nézzünk belőle pár másodpercet!
Nagyjából két ok lehetséges:
09:21
And there's two possibilities, broadly:
165
561340
1920
09:23
Maybe he's doing something wrong,
166
563260
2634
vagy valamit a baba rosszul csinál,
09:25
or maybe there's something wrong with the toy.
167
565894
4216
vagy a játékkal van valami zűr.
09:30
So in this next experiment,
168
570110
2111
A következő kísérletben a babáknak
09:32
we're going to give babies just a tiny bit of statistical data
169
572221
3297
kis mennyiségű statisztikai adatot adtunk
09:35
supporting one hypothesis over the other,
170
575518
2582
egyik vagy másik hipotézis támogatására,
09:38
and we're going to see if babies can use that to make different decisions
171
578100
3455
és meglátjuk, képesek-e dönteni
a teendőről ezen adatok alapján.
09:41
about what to do.
172
581555
1834
09:43
Here's the setup.
173
583389
2022
Íme az alaphelyzet
09:46
Hyowon is going to try to make the toy go and succeed.
174
586071
3030
Hyowon sikeresen indítja a játékot.
09:49
I am then going to try twice and fail both times,
175
589101
3320
Aztán én kétszer sikertelenül próbálkozom,
09:52
and then Hyowon is going to try again and succeed,
176
592421
3112
majd Hyowon még egyszer, sikerrel.
09:55
and this roughly sums up my relationship to my graduate students
177
595533
3172
A tanítványaimmal is nagyjából
09:58
in technology across the board.
178
598705
2835
így szokott ez menni.
10:02
But the important point here is it provides a little bit of evidence
179
602030
3292
De a lényeg: az események azt mutatják,
10:05
that the problem isn't with the toy, it's with the person.
180
605322
3668
hogy nem a játék a hibás, hanem a személy.
10:08
Some people can make this toy go,
181
608990
2350
Néhányan el tudják indítani a játékot,
10:11
and some can't.
182
611340
959
néhányan nem.
10:12
Now, when the baby gets the toy, he's going to have a choice.
183
612799
3413
Amikor a baba megkapja a játékot, választhat.
10:16
His mom is right there,
184
616212
2188
A mamája jelen van,
10:18
so he can go ahead and hand off the toy and change the person,
185
618400
3315
a baba akár át is adhatja neki, megváltoztatva a személyt,
10:21
but there's also going to be another toy at the end of that cloth,
186
621715
3158
de egy ugyanilyen játék van a kendő végén,
10:24
and he can pull the cloth towards him and change the toy.
187
624873
3552
a kendőt magához húzva kicserélheti a játékot.
10:28
So let's see what the baby does.
188
628425
2090
Nézzük, mit csinál itt a baba.
10:30
(Video) HG: Two, three. Go! (Music)
189
630515
4183
(Film) HG: ... kettő, három, tessék! (Zene)
10:34
LS: One, two, three, go!
190
634698
3131
LS: Egy, kettő, három, tessék!
10:37
Arthur, I'm going to try again. One, two, three, go!
191
637829
7382
Arthur, megpróbálom még egyszer. Egy, kettő, három, tessék!
10:45
YG: Arthur, let me try again, okay?
192
645677
2600
YG: Arthur, még egyszer megpróbálom, jó?
10:48
One, two, three, go! (Music)
193
648277
4550
Egy, kettő, három, tessék! (Zene)
10:53
Look at that. Remember these toys?
194
653583
1883
Nézd! Emlékszel ezekre a játékokra?
10:55
See these toys? Yeah, I'm going to put this one over here,
195
655466
3264
Látod ezeket a játékokat? Most ezt ideteszem,
10:58
and I'm going to give this one to you.
196
658730
2062
ezt pedig neked adom.
11:00
You can go ahead and play.
197
660792
2335
Játszhatsz vele.
11:23
LS: Okay, Laura, but of course, babies love their mommies.
198
683213
4737
LS: Mondhatják: "Jó, Laura, de a babák imádják az anyjukat,
11:27
Of course babies give toys to their mommies
199
687950
2182
természetesen oda fogják adni a játékot neki,
11:30
when they can't make them work.
200
690132
2030
ha az anya képes beindítani."
11:32
So again, the really important question is what happens when we change
201
692162
3593
Ismét az a lényeges kérdés, hogy mi lesz, ha változtatunk
11:35
the statistical data ever so slightly.
202
695755
3154
egy cseppet a statisztikai adatokon.
11:38
This time, babies are going to see the toy work and fail in exactly the same order,
203
698909
4087
Ezúttal a babák látják, hogy a játék ugyanúgy beindul és nem indul be,
11:42
but we're changing the distribution of evidence.
204
702996
2415
de megváltoztatjuk a próbálkozások sorrendjét.
11:45
This time, Hyowon is going to succeed once and fail once, and so am I.
205
705411
4411
Ezúttal Hyowonnak és nekem is egyszer sikerül, egyszer nem,
11:49
And this suggests it doesn't matter who tries this toy, the toy is broken.
206
709822
5637
Ez arra utal, hogy mindegy, ki próbálkozik, a játék hibás,
11:55
It doesn't work all the time.
207
715459
1886
nem mindig indul be.
Ismét lesz a babának választása:
11:57
Again, the baby's going to have a choice.
208
717345
1965
11:59
Her mom is right next to her, so she can change the person,
209
719310
3396
odaadja másnak, pl. jelen lévő anyjának,
12:02
and there's going to be another toy at the end of the cloth.
210
722706
3204
vagy kicseréli a játékot a kendő végén lévőre.
12:05
Let's watch what she does.
211
725910
1378
Nézzük, most mihez kezd.
12:07
(Video) HG: Two, three, go! (Music)
212
727288
4348
(Film) HG: Kettő, három, tessék! (Zene)
12:11
Let me try one more time. One, two, three, go!
213
731636
4984
Megpróbálom még egyszer. Egy, kettő, három, tessék!
12:17
Hmm.
214
737460
1697
Hmm.
12:19
LS: Let me try, Clara.
215
739950
2692
LS: Hadd próbáljam meg én, Clara.
12:22
One, two, three, go!
216
742642
3945
Egy, kettő, három, tessék!
12:27
Hmm, let me try again.
217
747265
1935
Hmm, hadd próbáljam meg még egyszer.
12:29
One, two, three, go! (Music)
218
749200
5670
Egy, kettő, három, tessék! (Zene)
12:35
HG: I'm going to put this one over here,
219
755009
2233
HG: Ezt most ide teszem,
12:37
and I'm going to give this one to you.
220
757242
2001
ezt pedig odaadom neked.
12:39
You can go ahead and play.
221
759243
3597
Játszhatsz vele.
12:58
(Applause)
222
778376
4897
(Taps)
13:04
LS: Let me show you the experimental results.
223
784993
2392
LS: Íme a kísérleti eredmények.
13:07
On the vertical axis, you'll see the distribution
224
787385
2475
A függőleges tengelyen mérjük a döntések eloszlását
13:09
of children's choices in each condition,
225
789860
2577
az adott kísérleti körülmények között.
13:12
and you'll see that the distribution of the choices children make
226
792437
4551
Láthatják, hogy a döntések eloszlása
13:16
depends on the evidence they observe.
227
796988
2787
attól függ, amit tapasztaltak.
13:19
So in the second year of life,
228
799775
1857
Tehát a babák már kétévesen
13:21
babies can use a tiny bit of statistical data
229
801632
2577
kevés statisztikai adat felhasználásával
13:24
to decide between two fundamentally different strategies
230
804209
3367
két alapvetően különböző stratégia közül
13:27
for acting in the world:
231
807576
1881
képesek viselkedést választani:
13:29
asking for help and exploring.
232
809457
2743
segítséget kérjenek-e avagy próbálkozzanak-e tovább.
13:33
I've just shown you two laboratory experiments
233
813700
3434
Most csak két kísérletet mutattam be
13:37
out of literally hundreds in the field that make similar points,
234
817134
3691
a hasonló célú több száz közül,
13:40
because the really critical point
235
820825
2392
A legfontosabb eredmény:
13:43
is that children's ability to make rich inferences from sparse data
236
823217
5108
a gyerek képessége, hogy kevés adatból gazdag következtetést vonjon le,
13:48
underlies all the species-specific cultural learning that we do.
237
828325
5341
a ránk jellemző fajtaspecifikus kulturális tanuláson alapszik.
13:53
Children learn about new tools from just a few examples.
238
833666
4597
A gyermek néhány példából megtanulja új eszközök használatát.
13:58
They learn new causal relationships from just a few examples.
239
838263
4717
Új ok-okozati összefüggéseket ismer fel csupán néhány példa alapján.
14:03
They even learn new words, in this case in American Sign Language.
240
843928
4871
Új szavakat is tanul így, itt pl. az amerikai jelbeszédből.
14:08
I want to close with just two points.
241
848799
2311
Végezetül két megjegyzést szeretnék tenni.
14:12
If you've been following my world, the field of brain and cognitive sciences,
242
852050
3688
Ha követték az agykutatást és a megismeréstudományt
14:15
for the past few years,
243
855738
1927
az elmúlt pár évben,
14:17
three big ideas will have come to your attention.
244
857665
2415
akkor három gondolatra figyelhettek fel.
14:20
The first is that this is the era of the brain.
245
860080
3436
Az első gondolat: az agy tanulmányozásának korát éljük.
14:23
And indeed, there have been staggering discoveries in neuroscience:
246
863516
3669
Elképesztő felfedezések születtek az idegrendszer kutatása terén:
14:27
localizing functionally specialized regions of cortex,
247
867185
3436
már tudjuk, hogy az agykéreg mely részei látják el az egyes funkciókat,
14:30
turning mouse brains transparent,
248
870621
2601
átlátszóvá tették az egér agyát,
14:33
activating neurons with light.
249
873222
3776
neuronokat hoztak működésbe fénnyel.
14:36
A second big idea
250
876998
1996
A másik fontos gondolat,
14:38
is that this is the era of big data and machine learning,
251
878994
4104
hogy a big data és a gépi tanulás korát éljük,
14:43
and machine learning promises to revolutionize our understanding
252
883098
3141
A gépi tanulás pedig forradalmasíthatja, hogyan kezeljük ezentúl
14:46
of everything from social networks to epidemiology.
253
886239
4667
kezdve a közösségi hálóktól a járványügyig mindent.
14:50
And maybe, as it tackles problems of scene understanding
254
890906
2693
Mivel ez érinti látványok értelmezését is
14:53
and natural language processing,
255
893599
1993
és a természetes nyelveket,
14:55
to tell us something about human cognition.
256
895592
3324
talán még az emberi felfogásról is kiderülhetnek újdonságok.
14:59
And the final big idea you'll have heard
257
899756
1937
A harmadik jelentős gondolat:
15:01
is that maybe it's a good idea we're going to know so much about brains
258
901693
3387
talán jó ennyi mindent tudni az agyunkról,
és hozzáférni a big data-hoz,
15:05
and have so much access to big data,
259
905080
1917
15:06
because left to our own devices,
260
906997
2507
mert ha magunkra vagyunk utalva,
15:09
humans are fallible, we take shortcuts,
261
909504
3831
az ember esendő, elnagyoljuk,
15:13
we err, we make mistakes,
262
913335
3437
elvétjük, elhibázzuk a dolgokat,
15:16
we're biased, and in innumerable ways,
263
916772
3684
s számtalan módon vagyunk elfogultak,
15:20
we get the world wrong.
264
920456
2969
így téves lesz a világképünk.
15:24
I think these are all important stories,
265
924843
2949
Szerintem ezek mind értékes tapasztalatok,
15:27
and they have a lot to tell us about what it means to be human,
266
927792
3785
és sok mindent elárulnak arról, mit jelent embernek lenni,
15:31
but I want you to note that today I told you a very different story.
267
931577
3529
de ma teljesen másféle tapasztalatokról volt szó.
15:35
It's a story about minds and not brains,
268
935966
3807
Ez a tapasztalat a tudatra, nem pedig az agyra vonatkozik,
15:39
and in particular, it's a story about the kinds of computations
269
939773
3006
konkrétan azokról a számításokról,
15:42
that uniquely human minds can perform,
270
942779
2590
amelyeket csakis emberi elme végezhet,
15:45
which involve rich, structured knowledge and the ability to learn
271
945369
3944
amely gazdag, strukturált tudásra és arra tesz bennünket képessé,
15:49
from small amounts of data, the evidence of just a few examples.
272
949313
5268
hogy kis mennyiségű adatból, pár példából is tudjunk újat tanulni.
Alapvetően arról szólt az előadásom,
15:56
And fundamentally, it's a story about how starting as very small children
273
956301
4299
16:00
and continuing out all the way to the greatest accomplishments
274
960600
4180
hogy kisgyermekkorunktól kezdve
16:04
of our culture,
275
964780
3843
egészen kultúránk legnagyobb eredményeiig
16:08
we get the world right.
276
968623
1997
helyes képet kapunk a világról.
16:12
Folks, human minds do not only learn from small amounts of data.
277
972433
5267
Nézzék, az emberi elme nem csak kis mennyiségű adatból tanul.
16:18
Human minds think of altogether new ideas.
278
978285
2101
Az elme kigondolhat elvileg újat is.
16:20
Human minds generate research and discovery,
279
980746
3041
Az emberi elme kutat és felfedez,
16:23
and human minds generate art and literature and poetry and theater,
280
983787
5273
A emberi elme művészetet, irodalmat, költészetet, színházat alkot.
16:29
and human minds take care of other humans:
281
989070
3760
Az emberi elme törődik a többi emberrel:
16:32
our old, our young, our sick.
282
992830
3427
időseinkkel, fiataljainkkal, betegeinkkel.
16:36
We even heal them.
283
996517
2367
Az emberi elme még gyógyítja is őket.
16:39
In the years to come, we're going to see technological innovations
284
999564
3103
A következő években technológiai újításokat látunk majd,
16:42
beyond anything I can even envision,
285
1002667
3797
olyanokat, amelyeket most még el sem tudok képzelni.
16:46
but we are very unlikely
286
1006464
2150
De kétséges, hogy olyat lássunk
16:48
to see anything even approximating the computational power of a human child
287
1008614
5709
az én életemben vagy az önökében, ami akár csak megközelítené
egy gyermeki agy számítási teljesítményét.
16:54
in my lifetime or in yours.
288
1014323
4298
16:58
If we invest in these most powerful learners and their development,
289
1018621
5047
Ha legtehetségesebb tanulóink fejlődésébe fektetünk be,
17:03
in babies and children
290
1023668
2917
azaz a babákba és a gyermekekbe,
17:06
and mothers and fathers
291
1026585
1826
anyákba és apákba,
17:08
and caregivers and teachers
292
1028411
2699
gyerekgondozókba és tanárokba,
17:11
the ways we invest in our other most powerful and elegant forms
293
1031110
4170
pont úgy, ahogy a technika más, elegánsabb területeibe fektetünk be,
17:15
of technology, engineering and design,
294
1035280
3218
pl. a mérnöki tervezésbe,
17:18
we will not just be dreaming of a better future,
295
1038498
2939
akkor nemcsak ábrándozunk a jobb jövőről,
17:21
we will be planning for one.
296
1041437
2127
hanem azt meg is tervezzük.
17:23
Thank you very much.
297
1043564
2345
Köszönöm a figyelmet.
17:25
(Applause)
298
1045909
3421
(Taps)
17:29
Chris Anderson: Laura, thank you. I do actually have a question for you.
299
1049810
4426
Chris Anderson: Laura, köszönjük. Van is egy kérdésem hozzád.
17:34
First of all, the research is insane.
300
1054236
2359
Először is, a kutatásod őrületes.
17:36
I mean, who would design an experiment like that? (Laughter)
301
1056595
3725
Mármint, hogy lehet ilyen kísérletet tervezni? (Nevetés)
17:41
I've seen that a couple of times,
302
1061150
1790
Láttam már párszor ilyet,
17:42
and I still don't honestly believe that that can truly be happening,
303
1062940
3222
és őszintén, nem hittem el, hogy ilyen lehetséges.
17:46
but other people have done similar experiments; it checks out.
304
1066162
3158
De mások megismételték a kísérleteket, és tényleg így van.
17:49
The babies really are that genius.
305
1069320
1633
A babák valóban ekkora zsenik.
17:50
LS: You know, they look really impressive in our experiments,
306
1070953
3007
LS: Tényleg lenyűgöző, amit a kísérletekben művelnek,
17:53
but think about what they look like in real life, right?
307
1073960
2652
de gondoljunk bele, milyenek az életben.
Babaként kezdi,
17:56
It starts out as a baby.
308
1076612
1150
17:57
Eighteen months later, it's talking to you,
309
1077762
2007
Tizennyolc hónapra rá már beszél hozzánk,
17:59
and babies' first words aren't just things like balls and ducks,
310
1079769
3041
az első szavai nem a "labda" vagy "kacsa",
18:02
they're things like "all gone," which refer to disappearance,
311
1082810
2881
hanem pl. "elment", ami a látótérből eltűnésre vonatkozik,
18:05
or "uh-oh," which refer to unintentional actions.
312
1085691
2283
vagy "ajjaj", ami nem szándékos tettekre utal.
18:07
It has to be that powerful.
313
1087974
1562
Zseniálisnak kell lennie,
18:09
It has to be much more powerful than anything I showed you.
314
1089536
2775
az eddigeknél még zseniálisabbnak,
hisz az egész világot meg kell ismernie.
18:12
They're figuring out the entire world.
315
1092311
1974
Egy négyéves már majdnem bármiről beszélget.
18:14
A four-year-old can talk to you about almost anything.
316
1094285
3144
18:17
(Applause)
317
1097429
1601
(Taps)
18:19
CA: And if I understand you right, the other key point you're making is,
318
1099030
3414
CA: Ha jól értem, akkor a másik jelentős gondolat, amire rámutatsz,
18:22
we've been through these years where there's all this talk
319
1102444
2754
hogy az utóbbi években csak azt hallottuk,
18:25
of how quirky and buggy our minds are,
320
1105198
1932
mennyire furcsa és bolondos az elménk,
18:27
that behavioral economics and the whole theories behind that
321
1107130
2867
a viselkedési közgazdaságtan és sok elmélet azt állítja:
18:29
that we're not rational agents.
322
1109997
1603
nem vagyunk észlények.
18:31
You're really saying that the bigger story is how extraordinary,
323
1111600
4216
Azt mondod, hogy lényegesebb, mennyire rendkívüli az elme,
18:35
and there really is genius there that is underappreciated.
324
1115816
4944
és nem értékeljük eléggé, hogy milyen zseniális lehet.
18:40
LS: One of my favorite quotes in psychology
325
1120760
2070
LS: Egyik kedvenc pszichológiai idézetem
18:42
comes from the social psychologist Solomon Asch,
326
1122830
2290
Solomon Asch szociálpszichológustól:
18:45
and he said the fundamental task of psychology is to remove
327
1125120
2807
szerinte "A pszichológia alapvető feladata,
18:47
the veil of self-evidence from things.
328
1127927
2626
hogy lebontsa a dolgok magától értetődő voltát."
18:50
There are orders of magnitude more decisions you make every day
329
1130553
4551
Nagyságrendileg több helyes döntést hozunk minden nap,
18:55
that get the world right.
330
1135104
1347
így helyes a világképünk.
18:56
You know about objects and their properties.
331
1136451
2132
Ismerjük a tárgyakat és tulajdonságaikat.
18:58
You know them when they're occluded. You know them in the dark.
332
1138583
3029
Felismerjük őket még a sötétben is.
Átmegyünk a szobán.
19:01
You can walk through rooms.
333
1141612
1308
19:02
You can figure out what other people are thinking. You can talk to them.
334
1142920
3532
Felfedhetjük, mit gondolnak mások. Beszélhetünk hozzájuk.
Tudunk térben tájékozódni, ismerjük a számokat.
19:06
You can navigate space. You know about numbers.
335
1146452
2230
Értjük az ok-okozati összefüggéseket. Erkölcsi érveket vallunk.
19:08
You know causal relationships. You know about moral reasoning.
336
1148682
3022
Magától értetődik mindez, tehát észrevétlen.
19:11
You do this effortlessly, so we don't see it,
337
1151704
2356
De ezért értjük helyesen a világot,
19:14
but that is how we get the world right, and it's a remarkable
338
1154060
2912
és ez egy jelentős, de nehezen érthető eredmény.
19:16
and very difficult-to-understand accomplishment.
339
1156972
2318
CA: Gondolom a közönségből páran,
19:19
CA: I suspect there are people in the audience who have
340
1159290
2628
akik a műszaki fejlődésben bíznak,
19:21
this view of accelerating technological power
341
1161918
2238
talán vitatják a kijelentésedet, hogy az életünkben még
19:24
who might dispute your statement that never in our lifetimes
342
1164156
2958
nem lesz egy háromévessel felérő számítógép.
19:27
will a computer do what a three-year-old child can do,
343
1167114
2618
De akárhogyan is lesz,
19:29
but what's clear is that in any scenario,
344
1169732
3248
19:32
our machines have so much to learn from our toddlers.
345
1172980
3770
a gépek sokat tanulhatnának a babáktól.
19:38
LS: I think so. You'll have some machine learning folks up here.
346
1178230
3216
LS: Pontosan. Lesznek itt a gépi tanulásról előadók is.
19:41
I mean, you should never bet against babies or chimpanzees
347
1181446
4203
Soha ne fogadjunk babák, csimpánzok
19:45
or technology as a matter of practice,
348
1185649
3645
vagy a technika ellen. Tapasztalatból beszélek.
19:49
but it's not just a difference in quantity,
349
1189294
4528
Ez nemcsak mennyiségi,
19:53
it's a difference in kind.
350
1193822
1764
hanem ugyanúgy minőségi különbség is.
19:55
We have incredibly powerful computers,
351
1195586
2160
Hihetetlenül erős számítógépeink vannak,
19:57
and they do do amazingly sophisticated things,
352
1197746
2391
melyek elképesztően bonyolult dolgokra képesek,
20:00
often with very big amounts of data.
353
1200137
3204
hatalmas mennyiségű adatot elemeznek.
20:03
Human minds do, I think, something quite different,
354
1203341
2607
Az emberi elme valamit másképpen csinál,
20:05
and I think it's the structured, hierarchical nature of human knowledge
355
1205948
3895
a különbség, úgy vélem, a strukturált, hierarchikus tudásban rejlik,
20:09
that remains a real challenge.
356
1209843
2032
ezt feltárni pedig embert próbáló feladat.
20:11
CA: Laura Schulz, wonderful food for thought. Thank you so much.
357
1211875
3061
CA: Laura Schulz, csodás útravalót adtál nekünk. Köszönjük.
20:14
LS: Thank you. (Applause)
358
1214936
2922
LS: Köszönöm! (Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7