Laura Schulz: The surprisingly logical minds of babies

233,878 views ・ 2015-06-02

TED


Pro přehrání videa dvakrát klikněte na anglické titulky níže.

Překladatel: Honza Prokes Korektor: Ivan Prokůpek
00:12
Mark Twain summed up what I take to be
0
12835
2155
Podstatu toho, co zkoumá kognitivní věda,
00:14
one of the fundamental problems of cognitive science
1
14990
3120
shrnul Mark Twain jediným chytrým aforismem:
00:18
with a single witticism.
2
18110
1710
00:20
He said, "There's something fascinating about science.
3
20410
3082
„Na vědě je cosi podmanivého.
00:23
One gets such wholesale returns of conjecture
4
23492
3228
Z nepatrné investice v podobě faktů
00:26
out of such a trifling investment in fact."
5
26720
3204
získáváme tučné výnosy v podobě domněnek.“
00:29
(Laughter)
6
29924
1585
(Smích.)
00:32
Twain meant it as a joke, of course, but he's right:
7
32199
2604
Twain to řekl v žertu, ale je to vlastně pravda.
00:34
There's something fascinating about science.
8
34803
2876
Věda je čímsi podmanivá.
00:37
From a few bones, we infer the existence of dinosuars.
9
37679
4261
Stačí pár kostí a víme, že existovali dinosauři.
00:42
From spectral lines, the composition of nebulae.
10
42910
3871
Ze spektrálních čar vyvozujeme složení hvězdných mlhovin.
00:47
From fruit flies,
11
47471
2938
Na muškách octomilkách
00:50
the mechanisms of heredity,
12
50409
2943
sledujeme mechanismy dědičnosti.
00:53
and from reconstructed images of blood flowing through the brain,
13
53352
4249
A na základě snímků, jak mozkem protéká krev,
00:57
or in my case, from the behavior of very young children,
14
57601
4708
anebo na základě chování dětí, jemuž se věnuji třeba já,
01:02
we try to say something about the fundamental mechanisms
15
62309
2829
studujeme bytostné mechanismy,
01:05
of human cognition.
16
65138
1618
jak lidé poznávají svět.
01:07
In particular, in my lab in the Department of Brain and Cognitive Sciences at MIT,
17
67716
4759
Já sama na Oddělení kognitivních věd a neurověd na MIT
01:12
I have spent the past decade trying to understand the mystery
18
72475
3654
už deset let řeším záhadu,
jak se děti z minima podnětů naučí tak rychle tolik věcí.
01:16
of how children learn so much from so little so quickly.
19
76129
3977
01:20
Because, it turns out that the fascinating thing about science
20
80666
2978
To, co je podmanivého na vědě,
01:23
is also a fascinating thing about children,
21
83644
3529
je totiž podmanivé i na dětech.
01:27
which, to put a gentler spin on Mark Twain,
22
87173
2581
Abych parafrázovala Twaina,
01:29
is precisely their ability to draw rich, abstract inferences
23
89754
4650
z investice v podobě útržkovitých, šumem zatížených dat
01:34
rapidly and accurately from sparse, noisy data.
24
94404
4661
děti bleskově získávají bohaté výnosy přesných abstraktních poznatků.
01:40
I'm going to give you just two examples today.
25
100355
2398
Ukážu vám to na dvou příkladech.
01:42
One is about a problem of generalization,
26
102753
2287
První se týká schopnosti zobecňovat a druhý kauzálního uvažování.
01:45
and the other is about a problem of causal reasoning.
27
105040
2850
01:47
And although I'm going to talk about work in my lab,
28
107890
2525
Budu mluvit hlavně o vlastních výzkumech,
01:50
this work is inspired by and indebted to a field.
29
110415
3460
ale za mnohé vděčím dalším lidem z oboru.
01:53
I'm grateful to mentors, colleagues, and collaborators around the world.
30
113875
4283
Jsem zavázána svým školitelům, kolegům a spolupracovníkům z celého světa.
01:59
Let me start with the problem of generalization.
31
119308
2974
Začněme problematikou zobecňování.
02:02
Generalizing from small samples of data is the bread and butter of science.
32
122652
4133
Zobecňování je alfou a omegou vědy.
02:06
We poll a tiny fraction of the electorate
33
126785
2554
Na základě průzkumu malého vzorku voličů odhadujeme výsledky voleb.
02:09
and we predict the outcome of national elections.
34
129339
2321
02:12
We see how a handful of patients responds to treatment in a clinical trial,
35
132240
3925
Sledujeme, jak hrstka pacientů reaguje na určitý lék,
02:16
and we bring drugs to a national market.
36
136165
3065
a pak ho zavádíme do lékáren.
02:19
But this only works if our sample is randomly drawn from the population.
37
139230
4365
Aby to fungovalo, musíme vzorek lidí vybrat náhodně.
02:23
If our sample is cherry-picked in some way --
38
143595
2735
Pokud bude výběr zkreslený,
02:26
say, we poll only urban voters,
39
146330
2072
pokud oslovíme jen voliče z města
02:28
or say, in our clinical trials for treatments for heart disease,
40
148402
4388
nebo budeme lék na srdce testovat dejme tomu jen na mužích,
02:32
we include only men --
41
152790
1881
02:34
the results may not generalize to the broader population.
42
154671
3158
nebudou závěry zobecnitelné na širší populaci.
02:38
So scientists care whether evidence is randomly sampled or not,
43
158479
3581
Vědci tudíž musejí dbát na nahodilost vzorku.
02:42
but what does that have to do with babies?
44
162060
2015
Ale jak to souvisí s malými dětmi?
02:44
Well, babies have to generalize from small samples of data all the time.
45
164585
4621
Děti neustále něco zobecňují a mají jen malé vzorky dat.
02:49
They see a few rubber ducks and learn that they float,
46
169206
3158
Vidí pár gumových kachniček, a hned pochopí, že všechny plavou.
02:52
or a few balls and learn that they bounce.
47
172364
3575
A z pár míčků pochopí, že všechny skáčou.
02:55
And they develop expectations about ducks and balls
48
175939
2951
A všechny předpoklady o míčcích a kachničkách
02:58
that they're going to extend to rubber ducks and balls
49
178890
2716
jim už zůstanou na celý jejich život.
03:01
for the rest of their lives.
50
181606
1879
03:03
And the kinds of generalizations babies have to make about ducks and balls
51
183485
3739
A úplně stejně jako u míčků a kachniček
03:07
they have to make about almost everything:
52
187224
2089
zobecňují i další poznatky:
03:09
shoes and ships and sealing wax and cabbages and kings.
53
189313
3917
o botách, o lodích, o vosku, o zelí či o králích.
03:14
So do babies care whether the tiny bit of evidence they see
54
194200
2961
Dokáží však děti poznat, jestli nějaká věc
03:17
is plausibly representative of a larger population?
55
197161
3692
věrohodně zastupuje širší množinu prvků?
03:21
Let's find out.
56
201763
1900
Pojďme to zjistit.
03:23
I'm going to show you two movies,
57
203663
1723
Pustím vám dvě nahrávky zachycující dvě verze téhož experimentu.
03:25
one from each of two conditions of an experiment,
58
205386
2462
03:27
and because you're going to see just two movies,
59
207848
2438
Na každé z nich uvidíte jiné malé dítě.
03:30
you're going to see just two babies,
60
210286
2136
03:32
and any two babies differ from each other in innumerable ways.
61
212422
3947
Malé děti se mohou podstatně lišit.
03:36
But these babies, of course, here stand in for groups of babies,
62
216369
3051
Ale tyhle děti představují běžné zástupce
03:39
and the differences you're going to see
63
219420
1895
své věkové skupiny
03:41
represent average group differences in babies' behavior across conditions.
64
221315
5195
a na dané podněty reagují typicky pro svůj věk.
03:47
In each movie, you're going to see a baby doing maybe
65
227160
2583
Možná vám bude připadat, že ty děti dělají vlastně jen to,
03:49
just exactly what you might expect a baby to do,
66
229743
3460
co by u malých dětí člověk čekal.
03:53
and we can hardly make babies more magical than they already are.
67
233203
4017
A protože jsou to malé děti, jsou přitom nesmírně kouzelné.
Skutečné kouzlo však podle mě spočívá v jedné konkrétní věci:
03:58
But to my mind the magical thing,
68
238090
2010
04:00
and what I want you to pay attention to,
69
240100
2089
04:02
is the contrast between these two conditions,
70
242189
3111
v tom, jak výrazně odlišná bude reakce dětí
04:05
because the only thing that differs between these two movies
71
245300
3529
v obou verzích experimentu, ačkoli se liší jen tím,
04:08
is the statistical evidence the babies are going to observe.
72
248829
3466
jak velký statistický vzorek mají děti k dispozici.
04:13
We're going to show babies a box of blue and yellow balls,
73
253425
3183
Nejprve dětem ukážeme bedýnku modrých a žlutých míčků.
04:16
and my then-graduate student, now colleague at Stanford, Hyowon Gweon,
74
256608
4620
Moje tehdejší studentka,
dnes už kolegyně ze Stanfordu, Hyowon Gweon,
04:21
is going to pull three blue balls in a row out of this box,
75
261228
3077
z té bedýnky vytáhne tři modré míčky.
04:24
and when she pulls those balls out, she's going to squeeze them,
76
264305
3123
A každý vytažený míček hned zmáčkne
04:27
and the balls are going to squeak.
77
267428
2113
a on vždycky pískne.
04:29
And if you're a baby, that's like a TED Talk.
78
269541
2763
Pro malé děti je to hotový TED talk.
04:32
It doesn't get better than that.
79
272304
1904
Jsou v sedmém nebi.
04:34
(Laughter)
80
274208
2561
(Smích.)
04:38
But the important point is it's really easy to pull three blue balls in a row
81
278968
3659
Jde ovšem o to, že když jsou míčky v bedýnce převážně modré,
04:42
out of a box of mostly blue balls.
82
282627
2305
není divné vytáhnout tři z nich v řadě.
04:44
You could do that with your eyes closed.
83
284932
2060
To se vám může povést i naslepo. Je to věrohodně nahodilý vzorek.
04:46
It's plausibly a random sample from this population.
84
286992
2996
04:49
And if you can reach into a box at random and pull out things that squeak,
85
289988
3732
A když všechny ty nahodile vybrané věci pískají,
04:53
then maybe everything in the box squeaks.
86
293720
2839
možná píská všechno, co je v té bedýnce.
04:56
So maybe babies should expect those yellow balls to squeak as well.
87
296559
3650
Malé děti by si tedy měly myslet, že pískají i žluté míčky.
05:00
Now, those yellow balls have funny sticks on the end,
88
300209
2519
Žluté míčky na sobě mají připevněné legrační hůlky,
05:02
so babies could do other things with them if they wanted to.
89
302728
2857
takže s nimi děti mohou i bouchat či plácat.
05:05
They could pound them or whack them.
90
305585
1831
05:07
But let's see what the baby does.
91
307416
2586
Tak schválně, co s nimi nakonec udělají.
05:12
(Video) Hyowon Gweon: See this? (Ball squeaks)
92
312548
3343
Hyowon Gweaon: Podívej. (Míček pískne.)
05:16
Did you see that? (Ball squeaks)
93
316531
3045
To je, co? (Míček pískne.)
05:20
Cool.
94
320036
3066
Týjo.
05:24
See this one?
95
324706
1950
Hele tenhle míček.
05:26
(Ball squeaks)
96
326656
1881
(Míček pískne.)
05:28
Wow.
97
328537
2653
Páni!
05:33
Laura Schulz: Told you. (Laughs)
98
333854
2113
Laura Schulz: Já vám to říkala.
05:35
(Video) HG: See this one? (Ball squeaks)
99
335967
4031
HG: Koukni na tenhle míček. (Míček pískne.)
05:39
Hey Clara, this one's for you. You can go ahead and play.
100
339998
4619
Hele, Klárko!
S tímhle míčkem si můžeš hrát.
05:51
(Laughter)
101
351854
4365
(Smích.)
05:56
LS: I don't even have to talk, right?
102
356219
2995
LS: Ani nemusím nic říkat, viďte?
05:59
All right, it's nice that babies will generalize properties
103
359214
2899
Jenže ono je sice hezké, že děti zobecňují vlastnosti
06:02
of blue balls to yellow balls,
104
362113
1528
všech míčků,
06:03
and it's impressive that babies can learn from imitating us,
105
363641
3096
a je úchvatné, jak nás při učení napodobují,
06:06
but we've known those things about babies for a very long time.
106
366737
3669
ale to přeci o malých dětech víme už dávno.
06:10
The really interesting question
107
370406
1811
Mnohem zajímavější je,
06:12
is what happens when we show babies exactly the same thing,
108
372217
2852
co se stane, když dětem ukážeme úplně tutéž věc
06:15
and we can ensure it's exactly the same because we have a secret compartment
109
375069
3611
- a my víme, že je úplně tatáž, protože ty míčky
06:18
and we actually pull the balls from there,
110
378680
2110
taháme z tajné přihrádky -
06:20
but this time, all we change is the apparent population
111
380790
3478
ale změníme přitom statistický vzorek,
06:24
from which that evidence was drawn.
112
384268
2902
který je východiskem zobecnění.
06:27
This time, we're going to show babies three blue balls
113
387170
3553
V bedýnce teď bude většina míčků žlutá.
06:30
pulled out of a box of mostly yellow balls,
114
390723
3384
Ale my z ní opět vytáhneme tři modré.
06:34
and guess what?
115
394107
1322
A vytáhnout tři modré míčky, když převládají žluté,
06:35
You [probably won't] randomly draw three blue balls in a row
116
395429
2840
06:38
out of a box of mostly yellow balls.
117
398269
2484
to už se běžně nepovede.
06:40
That is not plausibly randomly sampled evidence.
118
400753
3747
To už není věrohodně nahodilý vzorek.
06:44
That evidence suggests that maybe Hyowon was deliberately sampling the blue balls.
119
404500
5123
To už vypadá, jako že Hyowon vybírala modré míčky schválně.
06:49
Maybe there's something special about the blue balls.
120
409623
2583
Třeba proto, že jsou modré míčky zvláštní
06:52
Maybe only the blue balls squeak.
121
412846
2976
a na rozdíl od žlutých pískají.
06:55
Let's see what the baby does.
122
415822
1895
Pusťme si reakci dětí.
06:57
(Video) HG: See this? (Ball squeaks)
123
417717
2904
HG: Koukej. (Míček pískne.)
07:02
See this toy? (Ball squeaks)
124
422851
2645
Copak to tady mám? (Míček pískne.)
07:05
Oh, that was cool. See? (Ball squeaks)
125
425496
5480
To je panečku věc. Hele. (Míček pískne.)
07:10
Now this one's for you to play. You can go ahead and play.
126
430976
4394
Tady s tím míčkem si můžeš hrát.
07:18
(Fussing) (Laughter)
127
438074
6347
(Smích.)
07:26
LS: So you just saw two 15-month-old babies
128
446901
2748
LS: Právě jste viděli, že si 15měsíční děti
07:29
do entirely different things
129
449649
1942
počínají úplně jinak
07:31
based only on the probability of the sample they observed.
130
451591
3599
v závislosti na věrohodnosti vzorku dat.
07:35
Let me show you the experimental results.
131
455190
2321
Tohle jsou výsledky našeho experimentu.
07:37
On the vertical axis, you'll see the percentage of babies
132
457511
2764
Na svislé ose je procentuální podíl dětí,
07:40
who squeezed the ball in each condition,
133
460275
2530
které v 1. a 2. pokusu mačkaly míček.
07:42
and as you'll see, babies are much more likely to generalize the evidence
134
462805
3715
Vidíte, že děti zobecňovaly jev mnohem častěji,
07:46
when it's plausibly representative of the population
135
466520
3135
když byl vzorek věrohodně nahodilý,
07:49
than when the evidence is clearly cherry-picked.
136
469655
3738
než když byl zjevně zkreslený.
07:53
And this leads to a fun prediction:
137
473393
2415
Z toho plyne zábavná predikce.
07:55
Suppose you pulled just one blue ball out of the mostly yellow box.
138
475808
4868
Dejme tomu, že z bedýnky, kde převládají žluté míčky, vytáhnete jeden modrý.
08:00
You [probably won't] pull three blue balls in a row at random out of a yellow box,
139
480896
3869
Asi by se vám to nepovedlo 3x za sebou,
08:04
but you could randomly sample just one blue ball.
140
484765
2455
ale jeden modrý míček náhodně vytáhnout můžete.
08:07
That's not an improbable sample.
141
487220
1970
To je věrohodný vzorek.
08:09
And if you could reach into a box at random
142
489190
2224
A pokud ten nahodilý vzorek píská,
08:11
and pull out something that squeaks, maybe everything in the box squeaks.
143
491414
3987
třeba píská všechno, co je v té bedýnce.
08:15
So even though babies are going to see much less evidence for squeaking,
144
495875
4445
Takže i když děti vlastně uvidí méně pískajících míčků
08:20
and have many fewer actions to imitate
145
500320
2242
a budou mít méně podnětů k nápodobě
08:22
in this one ball condition than in the condition you just saw,
146
502562
3343
než v té verzi experimentu, kterou jsme viděli,
08:25
we predicted that babies themselves would squeeze more,
147
505905
3892
čekali jsme, že budou míček mačkat častěji.
08:29
and that's exactly what we found.
148
509797
2894
A to se také potvrdilo.
08:32
So 15-month-old babies, in this respect, like scientists,
149
512691
4411
15měsíční děti si tudíž počínají jako vědci.
08:37
care whether evidence is randomly sampled or not,
150
517102
3088
Podle toho, zda je, či není daný vzorek nahodilý,
08:40
and they use this to develop expectations about the world:
151
520190
3507
si vytvářejí další předpoklady:
08:43
what squeaks and what doesn't,
152
523697
2182
o tom, co píská a co ne;
08:45
what to explore and what to ignore.
153
525879
3145
o tom, co prozkoumat a co nechat být.
08:50
Let me show you another example now,
154
530384
2066
Náš druhý experiment se týká kauzálního uvažování.
08:52
this time about a problem of causal reasoning.
155
532450
2730
08:55
And it starts with a problem of confounded evidence
156
535180
2439
Opírá se o jistou zapeklitost, kterou všichni známe,
08:57
that all of us have,
157
537619
1672
08:59
which is that we are part of the world.
158
539291
2020
totiž že svět funguje po svém.
09:01
And this might not seem like a problem to you, but like most problems,
159
541311
3436
Vlastně na tom nic zapeklitého není,
ale jen dokud vše funguje, jak má.
09:04
it's only a problem when things go wrong.
160
544747
2337
09:07
Take this baby, for instance.
161
547464
1811
A tomuhle chlapečkovi
09:09
Things are going wrong for him.
162
549275
1705
něco nefunguje.
09:10
He would like to make this toy go, and he can't.
163
550980
2271
Chce zapnout hračku, a ono to nejde. Pustím vám video.
09:13
I'll show you a few-second clip.
164
553251
2529
Jsou dvě možnosti:
09:21
And there's two possibilities, broadly:
165
561340
1920
09:23
Maybe he's doing something wrong,
166
563260
2634
buď tu hračku ten chlapeček zapíná špatně,
09:25
or maybe there's something wrong with the toy.
167
565894
4216
nebo je ta hračka rozbitá.
09:30
So in this next experiment,
168
570110
2111
A my teď dětem poskytneme ždibec statistických dat, která svědčí
09:32
we're going to give babies just a tiny bit of statistical data
169
572221
3297
09:35
supporting one hypothesis over the other,
170
575518
2582
buď pro první, nebo druhou možnost.
09:38
and we're going to see if babies can use that to make different decisions
171
578100
3455
A budeme sledovat, jak to ovlivní následnou reakci dětí.
09:41
about what to do.
172
581555
1834
09:43
Here's the setup.
173
583389
2022
A uděláme to následovně.
09:46
Hyowon is going to try to make the toy go and succeed.
174
586071
3030
Hyowon zkusí hračku pustit a povede se jí to.
09:49
I am then going to try twice and fail both times,
175
589101
3320
Potom to zkusím 2x já, ale neúspěšně.
09:52
and then Hyowon is going to try again and succeed,
176
592421
3112
Potom zase Hyowom, které se to povede.
09:55
and this roughly sums up my relationship to my graduate students
177
595533
3172
Krásně to ukazuje, jak jsem oproti svým studentům
09:58
in technology across the board.
178
598705
2835
na štíru s technikou.
10:02
But the important point here is it provides a little bit of evidence
179
602030
3292
Cílem ovšem je, abychom dítěti nepatrně naznačili,
10:05
that the problem isn't with the toy, it's with the person.
180
605322
3668
že problém není v hračce, ale v lidech.
10:08
Some people can make this toy go,
181
608990
2350
Někdo hračku zapnout umí, a někdo ne.
10:11
and some can't.
182
611340
959
10:12
Now, when the baby gets the toy, he's going to have a choice.
183
612799
3413
Takže když dítě hračku nezapne, má na výběr.
10:16
His mom is right there,
184
616212
2188
Má tam maminku,
takže může k zapnutí hračky vyzvat jiného člověka.
10:18
so he can go ahead and hand off the toy and change the person,
185
618400
3315
10:21
but there's also going to be another toy at the end of that cloth,
186
621715
3158
Ale taky si může přitáhnout ubrus,
10:24
and he can pull the cloth towards him and change the toy.
187
624873
3552
na němž leží druhá hračka, a první hračku vyměnit.
10:28
So let's see what the baby does.
188
628425
2090
Tak schválně, co udělá.
10:30
(Video) HG: Two, three. Go! (Music)
189
630515
4183
HG: Dva, tři. Teď! (Hudba.)
10:34
LS: One, two, three, go!
190
634698
3131
LS: Raz, dva, tři, teď!
10:37
Arthur, I'm going to try again. One, two, three, go!
191
637829
7382
Zkusím to ještě jednou, Arturku.
Raz, dva, tři, teď!
10:45
YG: Arthur, let me try again, okay?
192
645677
2600
YG: Arturku, můžu to zkusit ještě já?
10:48
One, two, three, go! (Music)
193
648277
4550
Raz, dva, tři, teď! (Hudba.)
10:53
Look at that. Remember these toys?
194
653583
1883
No koukni. Vidíš ty hračky? Poznáváš je? Jo?
10:55
See these toys? Yeah, I'm going to put this one over here,
195
655466
3264
Teď položím jednu sem
10:58
and I'm going to give this one to you.
196
658730
2062
a s touhle si můžeš hrát.
11:00
You can go ahead and play.
197
660792
2335
11:23
LS: Okay, Laura, but of course, babies love their mommies.
198
683213
4737
LS: "No jasně," říkáte si, "děti mají rády maminku.
11:27
Of course babies give toys to their mommies
199
687950
2182
Je jasné, že když hračku nezapnou, tak ji dají mamince."
11:30
when they can't make them work.
200
690132
2030
11:32
So again, the really important question is what happens when we change
201
692162
3593
Důležité ovšem je, co se stane,
11:35
the statistical data ever so slightly.
202
695755
3154
když statistická data malinko upravíme.
11:38
This time, babies are going to see the toy work and fail in exactly the same order,
203
698909
4087
Dítě opět uvidí, jak hračka střídavě funguje a nefunguje.
11:42
but we're changing the distribution of evidence.
204
702996
2415
Ale vzorek dat teď rozložíme jinak.
11:45
This time, Hyowon is going to succeed once and fail once, and so am I.
205
705411
4411
Hyowon i já hračku jednou zapneme, a jednou se nám to nepovede.
11:49
And this suggests it doesn't matter who tries this toy, the toy is broken.
206
709822
5637
To už naznačuje, že nezáleží na tom, kdo hračku zapíná. Hračka je rozbitá.
11:55
It doesn't work all the time.
207
715459
1886
Funguje jenom někdy.
11:57
Again, the baby's going to have a choice.
208
717345
1965
A dítě má opět na výběr.
Může dát hračku mamince, aby ji zapnula místo něj,
11:59
Her mom is right next to her, so she can change the person,
209
719310
3396
12:02
and there's going to be another toy at the end of the cloth.
210
722706
3204
nebo si může přitáhnout druhou hračku.
12:05
Let's watch what she does.
211
725910
1378
Tak schválně, co udělá.
12:07
(Video) HG: Two, three, go! (Music)
212
727288
4348
HG: Dva, tři, teď. (Hudba.)
12:11
Let me try one more time. One, two, three, go!
213
731636
4984
Tak ještě jednou, jo? Raz, dva, tři, teď!
12:17
Hmm.
214
737460
1697
Hm.
12:19
LS: Let me try, Clara.
215
739950
2692
LS: Teď já, Klárko.
12:22
One, two, three, go!
216
742642
3945
Raz, dva, tři, teď!
Hm.
12:27
Hmm, let me try again.
217
747265
1935
Tak ještě jednou.
12:29
One, two, three, go! (Music)
218
749200
5670
Raz, dva, tři, teď! (Hudba.)
12:35
HG: I'm going to put this one over here,
219
755009
2233
HG: Teď dám tuhle hračku sem
12:37
and I'm going to give this one to you.
220
757242
2001
a s touhle si můžeš hrát.
12:39
You can go ahead and play.
221
759243
3597
12:58
(Applause)
222
778376
4897
(Smích. Potlesk.)
13:04
LS: Let me show you the experimental results.
223
784993
2392
LS: Tady jsou výsledky experimentu.
13:07
On the vertical axis, you'll see the distribution
224
787385
2475
Na svislé ose vidíte, jak se děti v 1. či 2. případě rozhodovaly.
13:09
of children's choices in each condition,
225
789860
2577
13:12
and you'll see that the distribution of the choices children make
226
792437
4551
A vidíte, že na jejich jednání mělo vliv to,
13:16
depends on the evidence they observe.
227
796988
2787
z jaké evidence vycházely.
13:19
So in the second year of life,
228
799775
1857
Děti, kterým nejsou ani dva roky, volí na základě hrstky statistických dat
13:21
babies can use a tiny bit of statistical data
229
801632
2577
13:24
to decide between two fundamentally different strategies
230
804209
3367
mezi diametrálně odlišnými strategiemi jednání:
13:27
for acting in the world:
231
807576
1881
13:29
asking for help and exploring.
232
809457
2743
poprosit o pomoc či samostatně prozkoumat.
13:33
I've just shown you two laboratory experiments
233
813700
3434
K podobným závěrům došly v našem oboru doslova stovky
13:37
out of literally hundreds in the field that make similar points,
234
817134
3691
dalších studií.
13:40
because the really critical point
235
820825
2392
Souvisí s tím totiž jedna zásadní věc.
13:43
is that children's ability to make rich inferences from sparse data
236
823217
5108
Bez dětské schopnosti dedukovat množství závěrů z útržků dat
13:48
underlies all the species-specific cultural learning that we do.
237
828325
5341
bychom si nemohli předávat znalosti, jak je pro náš druh typické.
13:53
Children learn about new tools from just a few examples.
238
833666
4597
Dětem stačí pár příkladů a pochopí, jak užívat novou pomůcku.
13:58
They learn new causal relationships from just a few examples.
239
838263
4717
Z pár příkladů pochopí novou kauzální souvislost.
14:03
They even learn new words, in this case in American Sign Language.
240
843928
4871
Umí si osvojovat i nová slova, v tomto případě ve znakové řeči.
14:08
I want to close with just two points.
241
848799
2311
Na závěr pár poznámek.
14:12
If you've been following my world, the field of brain and cognitive sciences,
242
852050
3688
Vědy o mozku a kognitivní vědy v posledních letech vyzdvihují
14:15
for the past few years,
243
855738
1927
14:17
three big ideas will have come to your attention.
244
857665
2415
trojici velkých příběhů.
14:20
The first is that this is the era of the brain.
245
860080
3436
První je příběh o tom, že žijeme v éře mozku.
14:23
And indeed, there have been staggering discoveries in neuroscience:
246
863516
3669
V neurovědách došlo k převratným objevům:
14:27
localizing functionally specialized regions of cortex,
247
867185
3436
lokalizace funkčně specifických oblastí mozkové kůry,
14:30
turning mouse brains transparent,
248
870621
2601
zprůhlednění mozku myši,
14:33
activating neurons with light.
249
873222
3776
aktivace neuronů světlem.
14:36
A second big idea
250
876998
1996
Druhým velkým příběhem je,
14:38
is that this is the era of big data and machine learning,
251
878994
4104
že žijeme v éře velkých dat a učících se strojů.
14:43
and machine learning promises to revolutionize our understanding
252
883098
3141
Strojové učení může revolučně změnit náš pohled
14:46
of everything from social networks to epidemiology.
253
886239
4667
na vše od sociálních sítí po epidemiologii.
14:50
And maybe, as it tackles problems of scene understanding
254
890906
2693
A protože se zabývá i interpretací vizuálních dat
14:53
and natural language processing,
255
893599
1993
či fungováním jazyka,
14:55
to tell us something about human cognition.
256
895592
3324
možná nám odhalí i něco o tom, jak poznáváme svět.
14:59
And the final big idea you'll have heard
257
899756
1937
A poslední velký příběh je,
15:01
is that maybe it's a good idea we're going to know so much about brains
258
901693
3387
že je přínosné mozek zkoumat a mít přístup k množství dat.
15:05
and have so much access to big data,
259
905080
1917
15:06
because left to our own devices,
260
906997
2507
Bez vnější korekce totiž lidé snadno podléhají klamům,
15:09
humans are fallible, we take shortcuts,
261
909504
3831
uvažují zkratkovitě,
15:13
we err, we make mistakes,
262
913335
3437
mýlí se,
chybují,
15:16
we're biased, and in innumerable ways,
263
916772
3684
jsou předpojatí
a jejich poznatky o světě jsou v mnoha ohledech scestné.
15:20
we get the world wrong.
264
920456
2969
15:24
I think these are all important stories,
265
924843
2949
Všechny ty příběhy slýcháme a jsou důležité.
15:27
and they have a lot to tell us about what it means to be human,
266
927792
3785
Prozrazují nám spoustu o naší přirozenosti.
15:31
but I want you to note that today I told you a very different story.
267
931577
3529
Ale dnes jsem tu chtěla vyzdvihnout úplně jiný příběh.
15:35
It's a story about minds and not brains,
268
935966
3807
Nemluvila jsem o mozku, ale o lidské mysli.
15:39
and in particular, it's a story about the kinds of computations
269
939773
3006
O tom, jak je lidská mysl jedinečná
15:42
that uniquely human minds can perform,
270
942779
2590
a jak výkonně zpracovává informace.
15:45
which involve rich, structured knowledge and the ability to learn
271
945369
3944
Z nepatrného množství dat,
z pár příkladů,
15:49
from small amounts of data, the evidence of just a few examples.
272
949313
5268
dokážeme vyvodit a osvojit si
celá kvanta ucelených poznatků.
Vyprávěla jsem vám příběh,
15:56
And fundamentally, it's a story about how starting as very small children
273
956301
4299
který vede od nejmenších dětí poznávajících svět
16:00
and continuing out all the way to the greatest accomplishments
274
960600
4180
až k těm největším úspěchům celé naší kultury.
16:04
of our culture,
275
964780
3843
16:08
we get the world right.
276
968623
1997
Naše poznatky o světě tudíž nejsou scestné.
16:12
Folks, human minds do not only learn from small amounts of data.
277
972433
5267
A vězte, že získáváním poznatků z hrstky dat
schopnosti lidské mysli nekončí.
16:18
Human minds think of altogether new ideas.
278
978285
2101
Lidská mysl přichází s novými myšlenkami.
16:20
Human minds generate research and discovery,
279
980746
3041
Lidská mysl stojí za vědeckým výzkumem a za objevy.
16:23
and human minds generate art and literature and poetry and theater,
280
983787
5273
Lidská mysl stojí za uměním, literaturou, poezií a dramatem.
16:29
and human minds take care of other humans:
281
989070
3760
A lidská mysl se stará o ostatní lidi:
16:32
our old, our young, our sick.
282
992830
3427
o nejstarší, o nejmenší, o nemocné,
16:36
We even heal them.
283
996517
2367
které dokonce uzdravujeme.
16:39
In the years to come, we're going to see technological innovations
284
999564
3103
V následujících letech zažijeme technický pokrok,
16:42
beyond anything I can even envision,
285
1002667
3797
který si ani neumím představit.
16:46
but we are very unlikely
286
1006464
2150
Ale počítačů,
16:48
to see anything even approximating the computational power of a human child
287
1008614
5709
které by se svým výkonem
alespoň přiblížily našim dětem,
16:54
in my lifetime or in yours.
288
1014323
4298
se já ani vy
patrně nedožijeme.
16:58
If we invest in these most powerful learners and their development,
289
1018621
5047
Pokud investujeme do rozvoje těch nejlepších studentů,
17:03
in babies and children
290
1023668
2917
tedy do našich malých i velkých dětí,
17:06
and mothers and fathers
291
1026585
1826
ale i do jejich matek a otců,
17:08
and caregivers and teachers
292
1028411
2699
vychovatelů a učitelů,
17:11
the ways we invest in our other most powerful and elegant forms
293
1031110
4170
pokud na ně vynaložíme tolik peněz
17:15
of technology, engineering and design,
294
1035280
3218
jako na vývoj a design té nejvýkonnější techniky,
17:18
we will not just be dreaming of a better future,
295
1038498
2939
už nebudeme o lepších zítřcích jen snít,
17:21
we will be planning for one.
296
1041437
2127
ale budeme k nim mířit.
17:23
Thank you very much.
297
1043564
2345
Děkuji vám.
17:25
(Applause)
298
1045909
3421
(Potlesk.)
17:29
Chris Anderson: Laura, thank you. I do actually have a question for you.
299
1049810
4426
Chris Anderson: Lauro, děkuji. Než se začnu ptát, musím říct,
17:34
First of all, the research is insane.
300
1054236
2359
že mi jde z toho hlava kolem.
17:36
I mean, who would design an experiment like that? (Laughter)
301
1056595
3725
Jak někoho něco takového vůbec napadne?
(Smích.)
17:41
I've seen that a couple of times,
302
1061150
1790
Viděl jsem to už poněkolikáté a pořád mi to přijde k nevíře.
17:42
and I still don't honestly believe that that can truly be happening,
303
1062940
3222
17:46
but other people have done similar experiments; it checks out.
304
1066162
3158
Je to tedy kompletně ověřené a malé děti jsou prostě geniální?
17:49
The babies really are that genius.
305
1069320
1633
17:50
LS: You know, they look really impressive in our experiments,
306
1070953
3007
LS: Musíte vzít v potaz,
že v běžném životě to mají ještě těžší než v těch experimentech.
17:53
but think about what they look like in real life, right?
307
1073960
2652
17:56
It starts out as a baby.
308
1076612
1150
Když je dítěti rok a půl, tak umí sotva pár slov.
17:57
Eighteen months later, it's talking to you,
309
1077762
2007
17:59
and babies' first words aren't just things like balls and ducks,
310
1079769
3041
A nejsou to slova jako "míček" nebo "kachnička".
18:02
they're things like "all gone," which refer to disappearance,
311
1082810
2881
Ale slova jako "není", když něco zmizí,
18:05
or "uh-oh," which refer to unintentional actions.
312
1085691
2283
nebo "bác", když něco spadne.
18:07
It has to be that powerful.
313
1087974
1562
Takže jejich schopnost učit se prostě musí být ohromná.
18:09
It has to be much more powerful than anything I showed you.
314
1089536
2775
Se čtyřletým dítětem už si můžete povídat skoro o čemkoliv.
18:12
They're figuring out the entire world.
315
1092311
1974
18:14
A four-year-old can talk to you about almost anything.
316
1094285
3144
18:17
(Applause)
317
1097429
1601
(Potlesk.)
18:19
CA: And if I understand you right, the other key point you're making is,
318
1099030
3414
CA: Jak jste ve své přednášce poukázala,
18:22
we've been through these years where there's all this talk
319
1102444
2754
poslední dobou se hodně mluví o tom,
18:25
of how quirky and buggy our minds are,
320
1105198
1932
jak je naše mysl promořená chybami.
18:27
that behavioral economics and the whole theories behind that
321
1107130
2867
Podle behaviorální ekonomie jednáme často iracionálně.
18:29
that we're not rational agents.
322
1109997
1603
18:31
You're really saying that the bigger story is how extraordinary,
323
1111600
4216
Vy ale naopak zdůrazňujete, že naše mysl je mimořádná
18:35
and there really is genius there that is underappreciated.
324
1115816
4944
a že vlastně nedoceňujeme, jak je ve skutečnosti geniální.
18:40
LS: One of my favorite quotes in psychology
325
1120760
2070
LS: Mám moc ráda jeden citát od psychologa Solomana Asche:
18:42
comes from the social psychologist Solomon Asch,
326
1122830
2290
18:45
and he said the fundamental task of psychology is to remove
327
1125120
2807
"Bytostným úkolem psychologie je strhávat z věcí roušku samozřejmosti."
18:47
the veil of self-evidence from things.
328
1127927
2626
18:50
There are orders of magnitude more decisions you make every day
329
1130553
4551
Abychom ve světě mohli fungovat,
zpracováváme denně neskutečné množství dat.
18:55
that get the world right.
330
1135104
1347
18:56
You know about objects and their properties.
331
1136451
2132
Známe různé objekty a jejich vlastnosti.
18:58
You know them when they're occluded. You know them in the dark.
332
1138583
3029
Poznáme je třeba i po tmě. Můžeme se procházet po bytě.
19:01
You can walk through rooms.
333
1141612
1308
19:02
You can figure out what other people are thinking. You can talk to them.
334
1142920
3532
Umíme uhodnout, co si jiní lidé myslí. Mluvíme s nimi.
Pohybujeme se prostorem. Máme koncept čísel.
19:06
You can navigate space. You know about numbers.
335
1146452
2230
Víme, jak co funguje. Máme morálku.
19:08
You know causal relationships. You know about moral reasoning.
336
1148682
3022
Všechno to nevědomě zpracováváme, abychom mohli ve světě fungovat.
19:11
You do this effortlessly, so we don't see it,
337
1151704
2356
19:14
but that is how we get the world right, and it's a remarkable
338
1154060
2912
Je to neuvěřitelný, skoro nepředstavitelný výkon.
19:16
and very difficult-to-understand accomplishment.
339
1156972
2318
CA: Řekl bych, že by s vámi někteří diváci asi nesouhlasili,
19:19
CA: I suspect there are people in the audience who have
340
1159290
2628
19:21
this view of accelerating technological power
341
1161918
2238
že se nedožijeme počítačů, které by uměly totéž co tříleté děti.
19:24
who might dispute your statement that never in our lifetimes
342
1164156
2958
19:27
will a computer do what a three-year-old child can do,
343
1167114
2618
Ale asi je bez debat,
19:29
but what's clear is that in any scenario,
344
1169732
3248
že se stroje v každém případě
19:32
our machines have so much to learn from our toddlers.
345
1172980
3770
mají od batolat ještě hodně co učit.
19:38
LS: I think so. You'll have some machine learning folks up here.
346
1178230
3216
LS: Asi je fakt, že tu jsou i fandové strojového učení.
19:41
I mean, you should never bet against babies or chimpanzees
347
1181446
4203
A já věřím, že není na místě být proti dětem
ani šimpanzům ani technice.
19:45
or technology as a matter of practice,
348
1185649
3645
Aspoň ne jen tak ze zásady.
19:49
but it's not just a difference in quantity,
349
1189294
4528
Ale tady jde o zásadní rozdíl, který není jen kvantitativní.
19:53
it's a difference in kind.
350
1193822
1764
19:55
We have incredibly powerful computers,
351
1195586
2160
Máme neuvěřitelně výkonné počítače
19:57
and they do do amazingly sophisticated things,
352
1197746
2391
schopné ohromně důmyslných výpočtů,
20:00
often with very big amounts of data.
353
1200137
3204
často s obrovským množstvím dat.
20:03
Human minds do, I think, something quite different,
354
1203341
2607
Ale lidská mysl funguje jinak.
20:05
and I think it's the structured, hierarchical nature of human knowledge
355
1205948
3895
Lidé své znalosti třídí a hierachicky uspořádávají,
20:09
that remains a real challenge.
356
1209843
2032
což je pro počítač stále výzva.
20:11
CA: Laura Schulz, wonderful food for thought. Thank you so much.
357
1211875
3061
CA: To byla vydatná porce myšlenek od Laury Schulz. Děkujeme.
20:14
LS: Thank you. (Applause)
358
1214936
2922
LS: Děkuji. (Potlesk.)
O tomto webu

Tato stránka vám představí videa na YouTube, která jsou užitečná pro výuku angličtiny. Uvidíte lekce angličtiny vedené špičkovými učiteli z celého světa. Dvojklikem na anglické titulky zobrazené na každé stránce s videem si video přehrajete přímo odtud. Titulky se posouvají synchronizovaně s přehráváním videa. Pokud máte nějaké připomínky nebo požadavky, kontaktujte nás prosím pomocí tohoto kontaktního formuláře.

https://forms.gle/WvT1wiN1qDtmnspy7