Laura Schulz: The surprisingly logical minds of babies

225,846 views ・ 2015-06-02

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: Radost Tsvetkova Reviewer: Gergana Angelova
00:12
Mark Twain summed up what I take to be
0
12835
2155
Марк Твен е обобщил това, което намирам за
00:14
one of the fundamental problems of cognitive science
1
14990
3120
един от основните проблеми в познавателната наука,
00:18
with a single witticism.
2
18110
1710
в едно единствено изказване.
00:20
He said, "There's something fascinating about science.
3
20410
3082
Казал е: "Има нещо пленително в науката.
00:23
One gets such wholesale returns of conjecture
4
23492
3228
Такива огромни резултати произлизат от догадки,
00:26
out of such a trifling investment in fact."
5
26720
3204
основани на незначителна инвестиция в действителните факти."
00:29
(Laughter)
6
29924
1585
(Смях)
00:32
Twain meant it as a joke, of course, but he's right:
7
32199
2604
Твен го е казал на шега, разбира се, но е бил прав:
00:34
There's something fascinating about science.
8
34803
2876
Има нещо пленително в науката.
00:37
From a few bones, we infer the existence of dinosuars.
9
37679
4261
От няколко костни останки заключаваме за съществуването на динозаврите.
00:42
From spectral lines, the composition of nebulae.
10
42910
3871
От няколко спектрални линии - състава на мъглявинитe в космоса.
00:47
From fruit flies,
11
47471
2938
От плодовите мушици -
00:50
the mechanisms of heredity,
12
50409
2943
механизмитe на наследствеността,
00:53
and from reconstructed images of blood flowing through the brain,
13
53352
4249
а от реконструирани изображения на кръвта, преминаваща през мозъка,
00:57
or in my case, from the behavior of very young children,
14
57601
4708
или в моя случай - от поведението на много малки деца -
01:02
we try to say something about the fundamental mechanisms
15
62309
2829
се опитваме да кажем нещо за основните механизми
01:05
of human cognition.
16
65138
1618
на човешките познавателни процеси.
01:07
In particular, in my lab in the Department of Brain and Cognitive Sciences at MIT,
17
67716
4759
В лаборатория ми в катедрата по неврология в Масачузетския технологичен институт,
01:12
I have spent the past decade trying to understand the mystery
18
72475
3654
прекарах последното десетилетие в опити да разбуля мистерията
как децата научават толкова много от съвсем малки и тaка бързо.
01:16
of how children learn so much from so little so quickly.
19
76129
3977
01:20
Because, it turns out that the fascinating thing about science
20
80666
2978
Защото се оказва, че това, което е пленително в науката,
01:23
is also a fascinating thing about children,
21
83644
3529
е пленителното и в децата,
01:27
which, to put a gentler spin on Mark Twain,
22
87173
2581
а това е - да го кажем по-меко от Марк Твен -
01:29
is precisely their ability to draw rich, abstract inferences
23
89754
4650
именно тяхнатa способност да правят богати, абстрактни умозаключения
01:34
rapidly and accurately from sparse, noisy data.
24
94404
4661
бързо и точно от оскъдни и неясни данни.
01:40
I'm going to give you just two examples today.
25
100355
2398
Днес ще ви дам само два примера.
01:42
One is about a problem of generalization,
26
102753
2287
Единият е свързан с обобщаване,
01:45
and the other is about a problem of causal reasoning.
27
105040
2850
а другият - с логическото мислене.
01:47
And although I'm going to talk about work in my lab,
28
107890
2525
И въпреки че ще говоря за работата в лабораторията си ,
01:50
this work is inspired by and indebted to a field.
29
110415
3460
тези резултати са вдъхновени от и се дължат на всички в областта ми.
01:53
I'm grateful to mentors, colleagues, and collaborators around the world.
30
113875
4283
Благодарна съм на менторите, колегите и сътрудниците си по целия свят.
01:59
Let me start with the problem of generalization.
31
119308
2974
Нека да започна с проблема с обобщаването.
02:02
Generalizing from small samples of data is the bread and butter of science.
32
122652
4133
Обобщаването от малки частици данни е хляба и солта на науката.
02:06
We poll a tiny fraction of the electorate
33
126785
2554
Анкетираме малка част от електората
02:09
and we predict the outcome of national elections.
34
129339
2321
и предвиждаме резултата от националните избори.
02:12
We see how a handful of patients responds to treatment in a clinical trial,
35
132240
3925
Наблюдаваме как шепа пациенти реагират на лечение в клинична среда
02:16
and we bring drugs to a national market.
36
136165
3065
и пускаме лекарства на пазара.
02:19
But this only works if our sample is randomly drawn from the population.
37
139230
4365
Но това работи само, ако участниците са случайни представители на населението.
02:23
If our sample is cherry-picked in some way --
38
143595
2735
Ако са подбрани по определен показател -
02:26
say, we poll only urban voters,
39
146330
2072
ако например анкетираме само избиратели в градовете,
02:28
or say, in our clinical trials for treatments for heart disease,
40
148402
4388
или в клиничните тестове за лечение на сърдечни заболявания
02:32
we include only men --
41
152790
1881
включим само мъже -
02:34
the results may not generalize to the broader population.
42
154671
3158
резултатите може да не обобщават широкото население.
02:38
So scientists care whether evidence is randomly sampled or not,
43
158479
3581
Затова учените се интересуват дали фактите са подбрани на случаен принцип,
02:42
but what does that have to do with babies?
44
162060
2015
но какво общо има това с бебетата?
02:44
Well, babies have to generalize from small samples of data all the time.
45
164585
4621
Ами, на бебетата постоянно им се налага да правят обобщения от малки частици данни.
02:49
They see a few rubber ducks and learn that they float,
46
169206
3158
Виждат няколко гумени патета и научават, че те плават,
02:52
or a few balls and learn that they bounce.
47
172364
3575
или виждат няколко топки и научават, че подскачат.
02:55
And they develop expectations about ducks and balls
48
175939
2951
И си съставят очаквания за патетата и топките,
02:58
that they're going to extend to rubber ducks and balls
49
178890
2716
които ще се отнасят до всички гумени патета и топки,
03:01
for the rest of their lives.
50
181606
1879
които ще видят през живота си.
03:03
And the kinds of generalizations babies have to make about ducks and balls
51
183485
3739
Видовете обобщения, които бебетата правят за патетата и топките,
03:07
they have to make about almost everything:
52
187224
2089
тe трябва да правят за почти всичко останало:
03:09
shoes and ships and sealing wax and cabbages and kings.
53
189313
3917
обувки и кораби, и червен восък, и зелки, и крале.
03:14
So do babies care whether the tiny bit of evidence they see
54
194200
2961
И така, дали бебетата ги интересува дали малкото, което виждат,
03:17
is plausibly representative of a larger population?
55
197161
3692
достоверно представя голямото население от хора?
03:21
Let's find out.
56
201763
1900
Нека да разберем.
03:23
I'm going to show you two movies,
57
203663
1723
Ще ви покажа две видеа,
03:25
one from each of two conditions of an experiment,
58
205386
2462
по едно от всяко от двете положения в експеримента,
03:27
and because you're going to see just two movies,
59
207848
2438
и понеже ще видите само две видеа,
03:30
you're going to see just two babies,
60
210286
2136
ще видите само две бебета,
03:32
and any two babies differ from each other in innumerable ways.
61
212422
3947
а всеки две бебета се различават помежду си по безброй начини.
03:36
But these babies, of course, here stand in for groups of babies,
62
216369
3051
Но тези бебета, разбира се, представят определени групи бебета
03:39
and the differences you're going to see
63
219420
1895
и разликите, които ще видите, представят
03:41
represent average group differences in babies' behavior across conditions.
64
221315
5195
средни групови разлики в поведението на бебетата при определени условия.
03:47
In each movie, you're going to see a baby doing maybe
65
227160
2583
Във всяко от видеата ще видите бебе, което прави
03:49
just exactly what you might expect a baby to do,
66
229743
3460
точно това, което вероятно очаквате едно бебе да прави.
03:53
and we can hardly make babies more magical than they already are.
67
233203
4017
Трудно бихме представили бебетата по-вълшебни, отколкото изглеждат.
03:58
But to my mind the magical thing,
68
238090
2010
Но за мен вълшебството,
04:00
and what I want you to pay attention to,
69
240100
2089
това, на което искам да обърнете внимание,
04:02
is the contrast between these two conditions,
70
242189
3111
е контрастът между тези две положения,
04:05
because the only thing that differs between these two movies
71
245300
3529
защото единственото, което се различава при двете видеа,
04:08
is the statistical evidence the babies are going to observe.
72
248829
3466
са статистическите данни, които са показани на бебетата.
04:13
We're going to show babies a box of blue and yellow balls,
73
253425
3183
Ще покажем на бебетата кутия със сини и жълти топки
04:16
and my then-graduate student, now colleague at Stanford, Hyowon Gweon,
74
256608
4620
и моята, тогава дипломант, сега колежка в Станфорд, Йоан Гуан,
04:21
is going to pull three blue balls in a row out of this box,
75
261228
3077
ще извади от кутията три сини топки подред
04:24
and when she pulls those balls out, she's going to squeeze them,
76
264305
3123
и при ваденето ще ги стиска
04:27
and the balls are going to squeak.
77
267428
2113
и топките ще писукат.
04:29
And if you're a baby, that's like a TED Talk.
78
269541
2763
И ако си бебе, това е като TED дискусия.
04:32
It doesn't get better than that.
79
272304
1904
По-добре от това няма накъде.
04:34
(Laughter)
80
274208
2561
(Смях)
04:38
But the important point is it's really easy to pull three blue balls in a row
81
278968
3659
Но важното е, че е наистина лесно да се извадят три сини топки подред
04:42
out of a box of mostly blue balls.
82
282627
2305
от кутия, пълна предимно със сини топки.
04:44
You could do that with your eyes closed.
83
284932
2060
Можеш да го направиш и със затворени очи.
04:46
It's plausibly a random sample from this population.
84
286992
2996
Това е достоверна случайна извадка от общото цяло.
04:49
And if you can reach into a box at random and pull out things that squeak,
85
289988
3732
А ако вадиш случайни предмети от кутия и всички от извадените писукат,
04:53
then maybe everything in the box squeaks.
86
293720
2839
то може би всички предмети в кутията ще писукат.
04:56
So maybe babies should expect those yellow balls to squeak as well.
87
296559
3650
И затова вероятно бебетата ще очакват и жълтите топки да писукат.
05:00
Now, those yellow balls have funny sticks on the end,
88
300209
2519
Тези жълти топки обаче имат забавни дръжки в края,
05:02
so babies could do other things with them if they wanted to.
89
302728
2857
така че бебетата да правят и други неща с тях, ако искат.
05:05
They could pound them or whack them.
90
305585
1831
Могат да ги мяткат и удрят.
05:07
But let's see what the baby does.
91
307416
2586
Но нека да видим какво прави бебето.
05:12
(Video) Hyowon Gweon: See this? (Ball squeaks)
92
312548
3343
(Видео) Йоан Гуан: "Виждаш ли това?" (Топката писука)
05:16
Did you see that? (Ball squeaks)
93
316531
3045
"Видя ли това?" (Топката писука)
05:20
Cool.
94
320036
3066
"Много хубаво."
05:24
See this one?
95
324706
1950
"Виждаш ли тази?"
05:26
(Ball squeaks)
96
326656
1881
(Топката писука)
05:28
Wow.
97
328537
2653
"Уау."
05:33
Laura Schulz: Told you. (Laughs)
98
333854
2113
Лаура Шулц: "Казах ви." (Смях)
05:35
(Video) HG: See this one? (Ball squeaks)
99
335967
4031
(Видео) ЙГ: "Виждаш ли тази?" (Топката писука)
05:39
Hey Clara, this one's for you. You can go ahead and play.
100
339998
4619
"Хей, Клара, тази е за теб. Можеш да си играеш с нея."
05:51
(Laughter)
101
351854
4365
(Смях)
05:56
LS: I don't even have to talk, right?
102
356219
2995
Дори не е нужно да обяснявам, нали?
05:59
All right, it's nice that babies will generalize properties
103
359214
2899
Добре, хубаво е, че бебетата обобщават свойствата
06:02
of blue balls to yellow balls,
104
362113
1528
на сините топки спрямо жълтите,
06:03
and it's impressive that babies can learn from imitating us,
105
363641
3096
както е и впечатляващо, че бебетата се учат, като ни имитират,
06:06
but we've known those things about babies for a very long time.
106
366737
3669
но това го знаем за бебетата от край време насам.
06:10
The really interesting question
107
370406
1811
Истински интересният въпрос
06:12
is what happens when we show babies exactly the same thing,
108
372217
2852
е какво ще стане, ако покажем на бебе същото нещо -
06:15
and we can ensure it's exactly the same because we have a secret compartment
109
375069
3611
а можем да сме сигурни, че е същото, защото имаме тайно отделение,
06:18
and we actually pull the balls from there,
110
378680
2110
от което всъщност вадим топките -
06:20
but this time, all we change is the apparent population
111
380790
3478
но този път променим единствено видимата популация,
06:24
from which that evidence was drawn.
112
384268
2902
от която вадим данни.
06:27
This time, we're going to show babies three blue balls
113
387170
3553
Този път ще покажем на бебетата три сини топки,
06:30
pulled out of a box of mostly yellow balls,
114
390723
3384
извадени от кутия, пълна предимно с жълти топки,
06:34
and guess what?
115
394107
1322
и познайте какво?
06:35
You [probably won't] randomly draw three blue balls in a row
116
395429
2840
Не е вероятно случайно да извадите три сини топки подред
06:38
out of a box of mostly yellow balls.
117
398269
2484
от кутия, пълна предимно с жълти топки.
06:40
That is not plausibly randomly sampled evidence.
118
400753
3747
Това не е правдоподобна, случайно подбрана извадка.
06:44
That evidence suggests that maybe Hyowon was deliberately sampling the blue balls.
119
404500
5123
Извадката предполага, че може би Йоан нарочно е извадила сините топки.
06:49
Maybe there's something special about the blue balls.
120
409623
2583
Може би има нещо специално в сините топки.
06:52
Maybe only the blue balls squeak.
121
412846
2976
Може би само сините топки писукат.
06:55
Let's see what the baby does.
122
415822
1895
Нека да видим какво прави бебето.
06:57
(Video) HG: See this? (Ball squeaks)
123
417717
2904
(Видео) ЙГ: "Виждаш ли това?" (Топката писука)
07:02
See this toy? (Ball squeaks)
124
422851
2645
"Виждаш ли тази играчка?" (Топката писука)
07:05
Oh, that was cool. See? (Ball squeaks)
125
425496
5480
"О, това беше страхотно. Виждаш ли?" (Топката писука)
07:10
Now this one's for you to play. You can go ahead and play.
126
430976
4394
"А ето тази е за теб да си играеш. Давай, можеш да си поиграеш с нея."
07:18
(Fussing) (Laughter)
127
438074
6347
(Суетене) (Смях)
07:26
LS: So you just saw two 15-month-old babies
128
446901
2748
И така, току що видяхте две петнадесетмесечни бебета,
07:29
do entirely different things
129
449649
1942
които направиха две различни неща,
07:31
based only on the probability of the sample they observed.
130
451591
3599
базирани само на изчислените вероятности относно предмета, който наблюдават.
07:35
Let me show you the experimental results.
131
455190
2321
Нека да ви покажа резултатите от експеримента.
07:37
On the vertical axis, you'll see the percentage of babies
132
457511
2764
По вертикала ще видите процента бебета,
07:40
who squeezed the ball in each condition,
133
460275
2530
които стиснаха топката при всички обстоятелства,
07:42
and as you'll see, babies are much more likely to generalize the evidence
134
462805
3715
и както ще видите, много по-вероятно e бебетата да правят обобщения,
07:46
when it's plausibly representative of the population
135
466520
3135
когато данните достоверно представят общото цяло,
07:49
than when the evidence is clearly cherry-picked.
136
469655
3738
отколкото когато данните очевидно са подбрани на някакъв принцип.
07:53
And this leads to a fun prediction:
137
473393
2415
И това ни навежда на забавно предположение:
07:55
Suppose you pulled just one blue ball out of the mostly yellow box.
138
475808
4868
да предположим, че извадите само една синя от кутия, пълна предимно с жълти топки.
08:00
You [probably won't] pull three blue balls in a row at random out of a yellow box,
139
480896
3869
Не е вероятно случайно да извадите три сини топки подред от жълтата кутия,
08:04
but you could randomly sample just one blue ball.
140
484765
2455
но бихте могли произволно да извадите една синя топка.
08:07
That's not an improbable sample.
141
487220
1970
Това не е невероятен пример.
08:09
And if you could reach into a box at random
142
489190
2224
И щом бъркате в кутия на случаен принцип
08:11
and pull out something that squeaks, maybe everything in the box squeaks.
143
491414
3987
и вадите нещо, което писука, може би всичко в кутията писука.
08:15
So even though babies are going to see much less evidence for squeaking,
144
495875
4445
И така, въпреки че бебетата ще видят много по-малко доказателства за писукане
08:20
and have many fewer actions to imitate
145
500320
2242
и ще имат много по-малко действия за имитиране
08:22
in this one ball condition than in the condition you just saw,
146
502562
3343
в ситуацията само с едната топка, отколкото в предишната,
08:25
we predicted that babies themselves would squeeze more,
147
505905
3892
предположихме, че бебетата ще стискат топките повече,
08:29
and that's exactly what we found.
148
509797
2894
и точно така стана.
08:32
So 15-month-old babies, in this respect, like scientists,
149
512691
4411
Така че, 15-месечните бебета в това отношение, също като учените,
08:37
care whether evidence is randomly sampled or not,
150
517102
3088
ги интересува дали примерът е случайно подбран или не
08:40
and they use this to develop expectations about the world:
151
520190
3507
и използват това умение, за да си създават очаквания за света:
08:43
what squeaks and what doesn't,
152
523697
2182
кое писука и кое не,
08:45
what to explore and what to ignore.
153
525879
3145
какво да изследват и какво да игнорират.
08:50
Let me show you another example now,
154
530384
2066
Нека ви дам друг пример,
08:52
this time about a problem of causal reasoning.
155
532450
2730
този път е свързан с логическото мислене.
08:55
And it starts with a problem of confounded evidence
156
535180
2439
И започва с проблем в непълнота на данните,
08:57
that all of us have,
157
537619
1672
който всички ние имаме,
08:59
which is that we are part of the world.
158
539291
2020
бидейки част от този свят.
09:01
And this might not seem like a problem to you, but like most problems,
159
541311
3436
И това може да не ви изглежда като проблем, но както повечето проблеми,
09:04
it's only a problem when things go wrong.
160
544747
2337
се превръща в такъв, само когато нещо се обърка.
09:07
Take this baby, for instance.
161
547464
1811
Погледнете например това бебе.
09:09
Things are going wrong for him.
162
549275
1705
Нещата се объркват за него.
09:10
He would like to make this toy go, and he can't.
163
550980
2271
Иска му се да пусне тази играчка, но не може.
09:13
I'll show you a few-second clip.
164
553251
2529
Ще ви покажа няколкосекунден клип.
09:21
And there's two possibilities, broadly:
165
561340
1920
Общо взето има две вероятности:
09:23
Maybe he's doing something wrong,
166
563260
2634
може би той не прави нещо както трябва
09:25
or maybe there's something wrong with the toy.
167
565894
4216
или може би нещо не е наред с играчката.
09:30
So in this next experiment,
168
570110
2111
Така в следващия експеримент
09:32
we're going to give babies just a tiny bit of statistical data
169
572221
3297
ще дадем на бебетата само малка част статистически данни,
09:35
supporting one hypothesis over the other,
170
575518
2582
които подкрепят една хипотеза за сметка на другата,
09:38
and we're going to see if babies can use that to make different decisions
171
578100
3455
и ще видим дали според това бебетата ще вземат различни решения
09:41
about what to do.
172
581555
1834
за това какво да правят.
09:43
Here's the setup.
173
583389
2022
Ето положението.
09:46
Hyowon is going to try to make the toy go and succeed.
174
586071
3030
Йоан ще опита да пусне играчката и ще успее.
09:49
I am then going to try twice and fail both times,
175
589101
3320
После аз ще опитам два пъти и и двата пъти ще се проваля,
09:52
and then Hyowon is going to try again and succeed,
176
592421
3112
а после Йоан ще опита пак и пак ще успее,
09:55
and this roughly sums up my relationship to my graduate students
177
595533
3172
и това в общи линии описва изцяло отношенията ми с моите дипломанти,
09:58
in technology across the board.
178
598705
2835
що се отнася до технологиитe.
10:02
But the important point here is it provides a little bit of evidence
179
602030
3292
Но важното в тази ситуация е, че дава малко доказателства,
10:05
that the problem isn't with the toy, it's with the person.
180
605322
3668
че проблемът не е в играчката, а е у човека.
10:08
Some people can make this toy go,
181
608990
2350
Някои хора могат да задвижат играчката,
10:11
and some can't.
182
611340
959
а други не могат.
10:12
Now, when the baby gets the toy, he's going to have a choice.
183
612799
3413
Сега, когато бебето вземе играчката, ще има избор.
10:16
His mom is right there,
184
616212
2188
Майка му е там,
10:18
so he can go ahead and hand off the toy and change the person,
185
618400
3315
така че може да подаде играчката на нея и така да смени човека,
10:21
but there's also going to be another toy at the end of that cloth,
186
621715
3158
но също така има и друга играчка нa края на покривката,
10:24
and he can pull the cloth towards him and change the toy.
187
624873
3552
така че може да придърпа покривката към себе си и да смени играчката.
10:28
So let's see what the baby does.
188
628425
2090
Hека видим какво ще нaправи бебето.
10:30
(Video) HG: Two, three. Go! (Music)
189
630515
4183
(Видео) ЙГ: "Две, три. Давай!" (Музика)
10:34
LS: One, two, three, go!
190
634698
3131
ЛШ: "Едно, две, три, давай!"
10:37
Arthur, I'm going to try again. One, two, three, go!
191
637829
7382
"Артър, ще опитам пак. Едно, две, три, давай!"
10:45
YG: Arthur, let me try again, okay?
192
645677
2600
ЙГ: "Артър, нека пак да аз опитам!"
10:48
One, two, three, go! (Music)
193
648277
4550
"Едно, две, три, давай!" (Музика)
10:53
Look at that. Remember these toys?
194
653583
1883
"Виж това. Помниш ли тези играчки?"
10:55
See these toys? Yeah, I'm going to put this one over here,
195
655466
3264
"Виждаш ли тези играчки? Да, ще сложа тази там,
10:58
and I'm going to give this one to you.
196
658730
2062
а тази ще ти я дам на теб."
11:00
You can go ahead and play.
197
660792
2335
"Можеш да си поиграеш с нея."
11:23
LS: Okay, Laura, but of course, babies love their mommies.
198
683213
4737
Лаура, но разбираемо - бебетата обичат майките си.
11:27
Of course babies give toys to their mommies
199
687950
2182
Разбира се, че бебетата дават играчка на мама,
11:30
when they can't make them work.
200
690132
2030
когато не успяват да я накарат да работи.
11:32
So again, the really important question is what happens when we change
201
692162
3593
Така че, отново, истински важният въпрос е какво ще стане, ако променим
11:35
the statistical data ever so slightly.
202
695755
3154
статистическите данни дори и съвсем леко.
11:38
This time, babies are going to see the toy work and fail in exactly the same order,
203
698909
4087
Този път бебетата ще видят играчката да проработва или не точно в същия ред,
11:42
but we're changing the distribution of evidence.
204
702996
2415
но ще променим леко разпределението на данните.
11:45
This time, Hyowon is going to succeed once and fail once, and so am I.
205
705411
4411
Този път Йоан ще успее и ще се провали по веднъж и после аз ще направя същото.
11:49
And this suggests it doesn't matter who tries this toy, the toy is broken.
206
709822
5637
А това предполага, че няма значение кой опитва, играчката е счупена.
11:55
It doesn't work all the time.
207
715459
1886
Не винаги работи.
11:57
Again, the baby's going to have a choice.
208
717345
1965
Отново, бебето ще има избор.
11:59
Her mom is right next to her, so she can change the person,
209
719310
3396
Майка ѝ е точно до нея, така че може да даде играчката на друг човек.
12:02
and there's going to be another toy at the end of the cloth.
210
722706
3204
Ще има и друга играчка на края на покривката.
12:05
Let's watch what she does.
211
725910
1378
Да видим какво ще направи.
12:07
(Video) HG: Two, three, go! (Music)
212
727288
4348
(Видео) ЙГ: "Две, три, давай!" (Музика)
12:11
Let me try one more time. One, two, three, go!
213
731636
4984
"Нека да опитам още веднъж. Едно, две, три, давай!"
12:17
Hmm.
214
737460
1697
"Хмм."
12:19
LS: Let me try, Clara.
215
739950
2692
ЛШ: "Нека аз да опитам, Клара."
12:22
One, two, three, go!
216
742642
3945
"Едно, две, три, давай!"
12:27
Hmm, let me try again.
217
747265
1935
"Хмм, нека опитам пак."
12:29
One, two, three, go! (Music)
218
749200
5670
"Едно, две, три, давай!" (Музика)
12:35
HG: I'm going to put this one over here,
219
755009
2233
ЙГ: "Ще сложа тази играчка тук,
12:37
and I'm going to give this one to you.
220
757242
2001
а тази ще я дам на теб."
12:39
You can go ahead and play.
221
759243
3597
"Може да си поиграеш."
12:58
(Applause)
222
778376
4897
(Ръкопляскане)
13:04
LS: Let me show you the experimental results.
223
784993
2392
Нека да ви покажа резултатите от експеримента.
13:07
On the vertical axis, you'll see the distribution
224
787385
2475
По вертикала виждате разпределението
13:09
of children's choices in each condition,
225
789860
2577
в избора на децата в различните ситуации.
13:12
and you'll see that the distribution of the choices children make
226
792437
4551
Ще видите, че изборът, който правят,
13:16
depends on the evidence they observe.
227
796988
2787
зависи от данните, които получават.
13:19
So in the second year of life,
228
799775
1857
Така че още през втората си година
13:21
babies can use a tiny bit of statistical data
229
801632
2577
бебетата могат да използват малкo статистически данни,
13:24
to decide between two fundamentally different strategies
230
804209
3367
за да избират между две основни стратегии
13:27
for acting in the world:
231
807576
1881
за действие в живота:
13:29
asking for help and exploring.
232
809457
2743
да помолиш за помощ или сам да проучиш нещо.
13:33
I've just shown you two laboratory experiments
233
813700
3434
Това, което ви показах току-що, са само два експеримента
13:37
out of literally hundreds in the field that make similar points,
234
817134
3691
от общо стотици такива в областта, които потвърждават същите резултати,
13:40
because the really critical point
235
820825
2392
защото важният извод e,
13:43
is that children's ability to make rich inferences from sparse data
236
823217
5108
че способността на децата да си вадят широки изводи от малко налични данни
13:48
underlies all the species-specific cultural learning that we do.
237
828325
5341
е в основата на типичния за човешния вид метод за опознаване на света.
13:53
Children learn about new tools from just a few examples.
238
833666
4597
Децата научават нови техники само от няколко примера.
13:58
They learn new causal relationships from just a few examples.
239
838263
4717
Научават нови причинно-следствени връзки само от няколко примера.
14:03
They even learn new words, in this case in American Sign Language.
240
843928
4871
Дори научават нови думи, в този случай от американския жестомимичен език.
14:08
I want to close with just two points.
241
848799
2311
Искам да завърша с две неща.
14:12
If you've been following my world, the field of brain and cognitive sciences,
242
852050
3688
Ако сте следили моята област, неврология и познавателни науки,
14:15
for the past few years,
243
855738
1927
през последните няколко години,
14:17
three big ideas will have come to your attention.
244
857665
2415
три основни идеи са ви направили впечатление.
14:20
The first is that this is the era of the brain.
245
860080
3436
Първата е, че това е ерата на човешкия мозък.
14:23
And indeed, there have been staggering discoveries in neuroscience:
246
863516
3669
И наистина, имаше удивителни открития в областта на неврологията:
14:27
localizing functionally specialized regions of cortex,
247
867185
3436
локализиране на функционално разделени части на мозъчната кора,
14:30
turning mouse brains transparent,
248
870621
2601
правене на мозъци на мишки да изглеждат прозрачни,
14:33
activating neurons with light.
249
873222
3776
активиране на неврони, използвайки светлина.
14:36
A second big idea
250
876998
1996
Втората значима идея
14:38
is that this is the era of big data and machine learning,
251
878994
4104
е, че това е ерата на масивите от данни и компютърен анализ,
14:43
and machine learning promises to revolutionize our understanding
252
883098
3141
а компютърният анализ обещава коренно да промени разбиранията ни
14:46
of everything from social networks to epidemiology.
253
886239
4667
за всичко: от социалните мрежи до епидемиологията.
14:50
And maybe, as it tackles problems of scene understanding
254
890906
2693
И може би, като се справят с проблеми като анализа на изображения
14:53
and natural language processing,
255
893599
1993
и обработка на естествения език,
14:55
to tell us something about human cognition.
256
895592
3324
ще ни кажат нещо и за човешкия познавателен процес.
14:59
And the final big idea you'll have heard
257
899756
1937
И последната голяма идея, която сте чули,
15:01
is that maybe it's a good idea we're going to know so much about brains
258
901693
3387
е че може би е добре, че ще знаем толкова много за човешкия мозък
15:05
and have so much access to big data,
259
905080
1917
и че ще имаме достъп до масивите от данни,
15:06
because left to our own devices,
260
906997
2507
защото, работейки само със собствени средства,
15:09
humans are fallible, we take shortcuts,
261
909504
3831
хората са склонни да бъркат, често вземаме прекия път,
15:13
we err, we make mistakes,
262
913335
3437
заблуждаваме се, допускаме грешки,
15:16
we're biased, and in innumerable ways,
263
916772
3684
повлияни сме от предразсъдъци и по безброй много начини
15:20
we get the world wrong.
264
920456
2969
възприемаме света погрешно.
15:24
I think these are all important stories,
265
924843
2949
Мисля, че това са все важни истории
15:27
and they have a lot to tell us about what it means to be human,
266
927792
3785
и те могат много да ни обяснят за това какво означава да бъдеш човек,
15:31
but I want you to note that today I told you a very different story.
267
931577
3529
но искам да забележите, че днес ви разказах една съвсем различна история.
15:35
It's a story about minds and not brains,
268
935966
3807
Това е история за умове, а не за мозъци,
15:39
and in particular, it's a story about the kinds of computations
269
939773
3006
и по-конкретно, това е история за видовете изчисления,
15:42
that uniquely human minds can perform,
270
942779
2590
които единствено човешкия разум може да извършва,
15:45
which involve rich, structured knowledge and the ability to learn
271
945369
3944
и които съдържат богати, структурирани познания и умения да учим
15:49
from small amounts of data, the evidence of just a few examples.
272
949313
5268
от малки количества информация, доказано дори само с няколко примера.
15:56
And fundamentally, it's a story about how starting as very small children
273
956301
4299
И в основата си, това е история за това как, започвайки от малки деца,
16:00
and continuing out all the way to the greatest accomplishments
274
960600
4180
и продължавайки така чак до моментите на най-големите постижения
16:04
of our culture,
275
964780
3843
в нашата култура,
16:08
we get the world right.
276
968623
1997
разбираме света правилно.
16:12
Folks, human minds do not only learn from small amounts of data.
277
972433
5267
Хора, човешкият разум не само учи от малки количества информация.
16:18
Human minds think of altogether new ideas.
278
978285
2101
Човешкият разум ражда изцяло нови идеи.
16:20
Human minds generate research and discovery,
279
980746
3041
Човешкият ум е генератор на проучвания и открития,
16:23
and human minds generate art and literature and poetry and theater,
280
983787
5273
както и създава изкуство и литература, и поезия, и театър,
16:29
and human minds take care of other humans:
281
989070
3760
и човешките умове се грижат за други хора:
16:32
our old, our young, our sick.
282
992830
3427
възрастните, подрастващите, болните.
16:36
We even heal them.
283
996517
2367
Дори ги лекуваме.
16:39
In the years to come, we're going to see technological innovations
284
999564
3103
През следващите години ще видим технологични иновации
16:42
beyond anything I can even envision,
285
1002667
3797
които надхвърлят всичко, което въобще мога да си представя,
16:46
but we are very unlikely
286
1006464
2150
но е малко вероятно
16:48
to see anything even approximating the computational power of a human child
287
1008614
5709
да видим нещо, дори само близко до изчислителните умения на човешко дете,
16:54
in my lifetime or in yours.
288
1014323
4298
през моя или вашия живот.
16:58
If we invest in these most powerful learners and their development,
289
1018621
5047
Ако инвестираме в тези най-могъщи откриватели и в тяхното развитие,
17:03
in babies and children
290
1023668
2917
в бебетата и децата,
17:06
and mothers and fathers
291
1026585
1826
в майките и бащите,
17:08
and caregivers and teachers
292
1028411
2699
и в бавачките и учителите,
17:11
the ways we invest in our other most powerful and elegant forms
293
1031110
4170
така както инвестираме в другите наши най-мощни и елегантни форми
17:15
of technology, engineering and design,
294
1035280
3218
на технология, инженерство и дизайн,
17:18
we will not just be dreaming of a better future,
295
1038498
2939
няма да мечтаем за по-добро бъдеще,
17:21
we will be planning for one.
296
1041437
2127
а ще го планираме.
17:23
Thank you very much.
297
1043564
2345
Благодаря ви много.
17:25
(Applause)
298
1045909
3421
(Ръкопляскане)
17:29
Chris Anderson: Laura, thank you. I do actually have a question for you.
299
1049810
4426
Крис Андерсън: Лаура, благодаря ти. Имам въпрос към теб.
17:34
First of all, the research is insane.
300
1054236
2359
Преди всичко, изследването е лудост.
17:36
I mean, who would design an experiment like that? (Laughter)
301
1056595
3725
Имам предвид, кой би измислил подобен експеримент? (Смях)
17:41
I've seen that a couple of times,
302
1061150
1790
Виждал съм това няколко пъти
17:42
and I still don't honestly believe that that can truly be happening,
303
1062940
3222
и дори самият аз все още не вярвам, че наистина се случва,
17:46
but other people have done similar experiments; it checks out.
304
1066162
3158
но други са правили подобни проучвания и резултатите съвпадат.
17:49
The babies really are that genius.
305
1069320
1633
Бебетата наистина са толкова гениални.
17:50
LS: You know, they look really impressive in our experiments,
306
1070953
3007
ЛШ: Знаеш ли, изглеждат впечатляващо в нашите експерименти,
17:53
but think about what they look like in real life, right?
307
1073960
2652
но помисли как изглеждат в реалния живот, нали?
17:56
It starts out as a baby.
308
1076612
1150
Бебето се ражда.
17:57
Eighteen months later, it's talking to you,
309
1077762
2007
След осемнадесет месеца ти говори,
17:59
and babies' first words aren't just things like balls and ducks,
310
1079769
3041
и бебешките първи думи са не само неща като топки и патета,
18:02
they're things like "all gone," which refer to disappearance,
311
1082810
2881
те са неща като "свърши", което посочва изчезване,
18:05
or "uh-oh," which refer to unintentional actions.
312
1085691
2283
или "о-оу", което показва непреднамерени действия.
18:07
It has to be that powerful.
313
1087974
1562
Трябва да са толкова способни.
18:09
It has to be much more powerful than anything I showed you.
314
1089536
2775
Много по-способни от всичко, което аз ви показах.
18:12
They're figuring out the entire world.
315
1092311
1974
Те проумяват целия нов за тях свят.
18:14
A four-year-old can talk to you about almost anything.
316
1094285
3144
Четиригодишно дете може да говори с теб за почти всичко.
18:17
(Applause)
317
1097429
1601
(Ръкопляскане)
18:19
CA: And if I understand you right, the other key point you're making is,
318
1099030
3414
КА: И ако правилно съм разбрал, другата ти важна теза е,
18:22
we've been through these years where there's all this talk
319
1102444
2754
че през изминалите години сме се наслушали на това
18:25
of how quirky and buggy our minds are,
320
1105198
1932
колко несъвършени са умовете ни,
18:27
that behavioral economics and the whole theories behind that
321
1107130
2867
поведенческата икономика и всички теории зад нея,
18:29
that we're not rational agents.
322
1109997
1603
че не сме рационални същества.
18:31
You're really saying that the bigger story is how extraordinary,
323
1111600
4216
Ти всъщност казваш, че мащабната теза е колко забележителни
18:35
and there really is genius there that is underappreciated.
324
1115816
4944
и гениални сме всъщност, и това е недооценено.
18:40
LS: One of my favorite quotes in psychology
325
1120760
2070
ЛШ: Един от любимите ми цитати в психологията
18:42
comes from the social psychologist Solomon Asch,
326
1122830
2290
е от социалния психолог Соломон Аш.
18:45
and he said the fundamental task of psychology is to remove
327
1125120
2807
Той казва, че главната задача на психологията е да премахва
18:47
the veil of self-evidence from things.
328
1127927
2626
воала на очевидното от нещата.
18:50
There are orders of magnitude more decisions you make every day
329
1130553
4551
Има десетки решения, които вземаме всеки ден,
показващи, че разбираме света.
18:55
that get the world right.
330
1135104
1347
18:56
You know about objects and their properties.
331
1136451
2132
Познаваме предметите и характеристиките им.
18:58
You know them when they're occluded. You know them in the dark.
332
1138583
3029
Познаваме ги и затворени. Разпознаваме ги и в тъмното.
19:01
You can walk through rooms.
333
1141612
1308
Можем да вървим през стаи.
19:02
You can figure out what other people are thinking. You can talk to them.
334
1142920
3532
Отгатваме мислите на другите. Можем да говорим с тях.
Можем да управляваме пространството. Познаваме числата.
19:06
You can navigate space. You know about numbers.
335
1146452
2230
Определяме причина и следствие. Отсъждаме кое е морално, и кое - не.
19:08
You know causal relationships. You know about moral reasoning.
336
1148682
3022
19:11
You do this effortlessly, so we don't see it,
337
1151704
2356
Правим това без усилие, защото не се замисляме за процеса,
но ето че разбираме света правилно и това е забележително
19:14
but that is how we get the world right, and it's a remarkable
338
1154060
2912
19:16
and very difficult-to-understand accomplishment.
339
1156972
2318
и много трудно за осмисляне постижение.
КА: Подозирам, че има хора в публиката, които поддържат
19:19
CA: I suspect there are people in the audience who have
340
1159290
2628
19:21
this view of accelerating technological power
341
1161918
2238
идеята за ускореното развитие на технологиите,
които могат да оспорят твърдението ти, че в рамките на нашия живот
19:24
who might dispute your statement that never in our lifetimes
342
1164156
2958
компютър все още няма да може това, което може едно тригодишно дете,
19:27
will a computer do what a three-year-old child can do,
343
1167114
2618
19:29
but what's clear is that in any scenario,
344
1169732
3248
но това, което е ясно при койтo и да е сценарий,
19:32
our machines have so much to learn from our toddlers.
345
1172980
3770
е че сегашните ни машини имат много да учат от децата ни.
ЛШ: Да, вероятно имате няколко души, които се занимават с машинен интелект.
19:38
LS: I think so. You'll have some machine learning folks up here.
346
1178230
3216
19:41
I mean, you should never bet against babies or chimpanzees
347
1181446
4203
Имам предвид, не трябва да залагаш срещу бебета или шимпанзета,
19:45
or technology as a matter of practice,
348
1185649
3645
или срещу технологията по принцип,
19:49
but it's not just a difference in quantity,
349
1189294
4528
но не става въпрос само за количествени разлики,
19:53
it's a difference in kind.
350
1193822
1764
а за разлики по естество.
19:55
We have incredibly powerful computers,
351
1195586
2160
Имаме невероятно мощни компютри
19:57
and they do do amazingly sophisticated things,
352
1197746
2391
и те изпълняват поразителни процедури
20:00
often with very big amounts of data.
353
1200137
3204
често с огромни количества информация.
20:03
Human minds do, I think, something quite different,
354
1203341
2607
Човешките умове правят нещо съществено различно.
20:05
and I think it's the structured, hierarchical nature of human knowledge
355
1205948
3895
И мисля, че структурираната, йерархична структура на човешкото познание
20:09
that remains a real challenge.
356
1209843
2032
си остава истинското предизвикателство.
20:11
CA: Laura Schulz, wonderful food for thought. Thank you so much.
357
1211875
3061
КА: Лаура Шулц, страхотна храна за размисъл. Благодаря ти много.
20:14
LS: Thank you. (Applause)
358
1214936
2922
ЛШ: Благодаря. (Ръкопляскане)
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7