Laura Schulz: The surprisingly logical minds of babies

225,846 views ・ 2015-06-02

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Zeeva Livshitz מבקר: Ido Dekkers
00:12
Mark Twain summed up what I take to be
0
12835
2155
מארק טוויין סיכם את מה שאני מחשיבה
00:14
one of the fundamental problems of cognitive science
1
14990
3120
כאחת הבעיות הבסיסיות של מדע הקוגניציה
00:18
with a single witticism.
2
18110
1710
במשפט שנון אחד.
00:20
He said, "There's something fascinating about science.
3
20410
3082
הוא אמר, "יש משהו מרתק במדע.
00:23
One gets such wholesale returns of conjecture
4
23492
3228
אדם מקבל החזרה כה גדולה של השערות
00:26
out of such a trifling investment in fact."
5
26720
3204
תמורת השקעה כל כך זעומה בעובדה."
00:29
(Laughter)
6
29924
1585
(צחוק)
00:32
Twain meant it as a joke, of course, but he's right:
7
32199
2604
טוויין התכוון לכך כאל בדיחה, כמובן, אבל הוא צודק:
00:34
There's something fascinating about science.
8
34803
2876
יש משהו מרתק במדע.
00:37
From a few bones, we infer the existence of dinosuars.
9
37679
4261
מכמה עצמות, אנחנו מסיקים על קיומם של דינוזאורים.
00:42
From spectral lines, the composition of nebulae.
10
42910
3871
מקווי ספקטרום את הרכב של ערפיליות,
00:47
From fruit flies,
11
47471
2938
מזבובי הפירות,
00:50
the mechanisms of heredity,
12
50409
2943
מנגנוני התורשה,
00:53
and from reconstructed images of blood flowing through the brain,
13
53352
4249
ומתמונות משוחזרות של דם שזורם דרך המוח,
00:57
or in my case, from the behavior of very young children,
14
57601
4708
או במקרה שלי, מאופן ההתנהגות של ילדים קטנים,
01:02
we try to say something about the fundamental mechanisms
15
62309
2829
אנו מנסים לומר משהו על המנגנונים הבסיסיים
01:05
of human cognition.
16
65138
1618
של הקוגניציה האנושית.
01:07
In particular, in my lab in the Department of Brain and Cognitive Sciences at MIT,
17
67716
4759
במיוחד במעבדה שלי במחלקת מדעי המוח והקוגניציה
01:12
I have spent the past decade trying to understand the mystery
18
72475
3654
ביליתי את העשור האחרון בניסיון להבין את המיסתורין
01:16
of how children learn so much from so little so quickly.
19
76129
3977
של איך ילדים לומדים כל כך הרבה מכל כך מעט, כל כך מהר.
01:20
Because, it turns out that the fascinating thing about science
20
80666
2978
משום שמתברר שמה שמרתק במדע
01:23
is also a fascinating thing about children,
21
83644
3529
הוא גם משהו מרתק אודות ילדים
01:27
which, to put a gentler spin on Mark Twain,
22
87173
2581
אשר, אם עושים ספין עדין יותר על מרק טוויין,
01:29
is precisely their ability to draw rich, abstract inferences
23
89754
4650
זו בדיוק היכולת שלהם להסיק, מסקנות מופשטות עשירות
01:34
rapidly and accurately from sparse, noisy data.
24
94404
4661
מהר ובמדויק מנתונים זעומים ורועשים.
01:40
I'm going to give you just two examples today.
25
100355
2398
אני הולכת לתת לכם רק שתי דוגמאות היום.
01:42
One is about a problem of generalization,
26
102753
2287
האחת היא בעניין בעיה של הכללה,
01:45
and the other is about a problem of causal reasoning.
27
105040
2850
והשנייה היא בנושא ההיגיון הסיבתי
01:47
And although I'm going to talk about work in my lab,
28
107890
2525
ולמרות שאני הולכת לדבר על עבודה במעבדה שלי,
01:50
this work is inspired by and indebted to a field.
29
110415
3460
העבודה היא בהשראתה ובזכותה של עבודת שטח.
01:53
I'm grateful to mentors, colleagues, and collaborators around the world.
30
113875
4283
אני אסירת תודה לחונכים, לעמיתים, ולמשתפי פעולה ברחבי העולם.
01:59
Let me start with the problem of generalization.
31
119308
2974
הרשו לי להתחיל עם הבעיה של הכללה.
02:02
Generalizing from small samples of data is the bread and butter of science.
32
122652
4133
הכללה מדוגמאות קטנות של נתונים היא הלחם והחמאה של המדע.
02:06
We poll a tiny fraction of the electorate
33
126785
2554
אנו סוקרים חלק זעיר של הבוחרים
02:09
and we predict the outcome of national elections.
34
129339
2321
ואנו צופים תוצאות של בחירות ארציות
02:12
We see how a handful of patients responds to treatment in a clinical trial,
35
132240
3925
אנו רואים כיצד קומץ של חולים מגיב לטיפול בניסוי קליני,
02:16
and we bring drugs to a national market.
36
136165
3065
ואנחנו מכניסים תרופות לשוק לאומי.
02:19
But this only works if our sample is randomly drawn from the population.
37
139230
4365
אבל זה עובד רק אם המדגם שלנו נלקח באופן אקראי מהאוכלוסייה.
02:23
If our sample is cherry-picked in some way --
38
143595
2735
אם המדגם שלנו נבחר בקפידה בדרך כלשהי -
02:26
say, we poll only urban voters,
39
146330
2072
למשל, אנו מסקרים רק בוחרים עירוניים,
02:28
or say, in our clinical trials for treatments for heart disease,
40
148402
4388
או למשל, בניסויים הקליניים שלנו לטיפולים במחלות לב,
02:32
we include only men --
41
152790
1881
אנו מכלילים רק גברים --
02:34
the results may not generalize to the broader population.
42
154671
3158
התוצאות אולי לא יכלילו את האוכלוסיה הרחבה יותר.
02:38
So scientists care whether evidence is randomly sampled or not,
43
158479
3581
אז למדענים אכפת אם ראיות נדגמו באופן אקראי או לא.
02:42
but what does that have to do with babies?
44
162060
2015
אבל מה לזה ולתינוקות?
02:44
Well, babies have to generalize from small samples of data all the time.
45
164585
4621
ובכן, תינוקות צריכים להכליל מדגימות קטנות של נתונים כל הזמן.
02:49
They see a few rubber ducks and learn that they float,
46
169206
3158
הם רואים כמה ברווזי גומי ולומדים שהם צפים,
02:52
or a few balls and learn that they bounce.
47
172364
3575
או כמה כדורים והם לומדים שהם קופצים.
02:55
And they develop expectations about ducks and balls
48
175939
2951
והם מפתחים ציפיות לגבי ברווזים וכדורים
02:58
that they're going to extend to rubber ducks and balls
49
178890
2716
שהם הולכים להרחיב לגבי ברווזי גומי וכדורים
03:01
for the rest of their lives.
50
181606
1879
למשך שאר חייהם,
03:03
And the kinds of generalizations babies have to make about ducks and balls
51
183485
3739
ואת סוגי ההכללות שתינוקות צריכים לעשות לגבי ברווזים וכדורים
03:07
they have to make about almost everything:
52
187224
2089
הם צריכים לעשות לגבי הכל כמעט:
03:09
shoes and ships and sealing wax and cabbages and kings.
53
189313
3917
נעליים וספינות ושעוות-חותם וראשי כרוב ומלכים.
03:14
So do babies care whether the tiny bit of evidence they see
54
194200
2961
אז האם לתינוקות אכפת אם טיפת ראייה שהם רואים
03:17
is plausibly representative of a larger population?
55
197161
3692
היא מייצג סביר של אוכלוסיה גדולה יותר?
03:21
Let's find out.
56
201763
1900
בואו ונגלה.
03:23
I'm going to show you two movies,
57
203663
1723
אני הולכת להראות לכם שני סרטים
03:25
one from each of two conditions of an experiment,
58
205386
2462
כל אחד מהם משני מצבים של ניסוי
03:27
and because you're going to see just two movies,
59
207848
2438
ומשום שאתם הולכים לראות רק שני סרטים,
03:30
you're going to see just two babies,
60
210286
2136
אתם הולכים לראות רק שני תינוקות,
03:32
and any two babies differ from each other in innumerable ways.
61
212422
3947
וכל שני תינוקות שונים זה מזה בדרכים רבות מספור.
03:36
But these babies, of course, here stand in for groups of babies,
62
216369
3051
אבל תינוקות אלה, כמובן, מייצגים קבוצות של תינוקות,
03:39
and the differences you're going to see
63
219420
1895
וההבדלים שאתם עומדים לראות
03:41
represent average group differences in babies' behavior across conditions.
64
221315
5195
מייצגים הבדלי קבוצה ממוצעים בהתנהגותם של תינוקות לאורך מצבים שונים.
03:47
In each movie, you're going to see a baby doing maybe
65
227160
2583
בכל סרט אתם הולכים לראות תינוק עושה אולי
03:49
just exactly what you might expect a baby to do,
66
229743
3460
בדיוק רק מה שאתם עשויים לצפות מתינוק שיעשה,
03:53
and we can hardly make babies more magical than they already are.
67
233203
4017
ואנחנו בקושי יכולים לגרום לתינוקות להיות יותר קסומים ממה שהם כבר.
03:58
But to my mind the magical thing,
68
238090
2010
אבל לדעתי הדבר הקסום,
04:00
and what I want you to pay attention to,
69
240100
2089
ומה שאני רוצה שתשימו לב אליו,
04:02
is the contrast between these two conditions,
70
242189
3111
הוא הניגוד בין שני מצבים אלה,
04:05
because the only thing that differs between these two movies
71
245300
3529
כי הדבר היחיד ששונה בין שני סרטים אלה
04:08
is the statistical evidence the babies are going to observe.
72
248829
3466
הוא הראיות הסטטיסטיות שהתינוקות עומדים להבחין בהם.
04:13
We're going to show babies a box of blue and yellow balls,
73
253425
3183
אנחנו הולכים להראות לתינוקות תיבה של כדורים כחולים וצהובים
04:16
and my then-graduate student, now colleague at Stanford, Hyowon Gweon,
74
256608
4620
והסטודנטית המתמחה שלי אז, שכיום היא עמיתה חדשה בסטנפורד , היווון גוואון,
04:21
is going to pull three blue balls in a row out of this box,
75
261228
3077
הולכת לשלוף 3 כדורים כחולים בזה אחר זה מתוך תיבה זו,
04:24
and when she pulls those balls out, she's going to squeeze them,
76
264305
3123
וכאשר היא שולפת כדורים אלה החוצה, היא הולכת למעוך אותם,
04:27
and the balls are going to squeak.
77
267428
2113
והכדורים יצפצפו.
04:29
And if you're a baby, that's like a TED Talk.
78
269541
2763
ואם אתם תינוקות, זה כמו הרצאה ב-TED.
04:32
It doesn't get better than that.
79
272304
1904
זה לא נעשה יותר טוב מזה.
04:34
(Laughter)
80
274208
2561
(צחוק)
04:38
But the important point is it's really easy to pull three blue balls in a row
81
278968
3659
אבל מה שחשוב זה שממש קל לשלוף שלושה כדורים כחולים ברצף
04:42
out of a box of mostly blue balls.
82
282627
2305
מתוך תיבת כדורים בעיקר כחולים.
04:44
You could do that with your eyes closed.
83
284932
2060
תוכלו לעשות זאת בעיניים עצומות.
04:46
It's plausibly a random sample from this population.
84
286992
2996
זה מדגם אקראי סביר מקבוצה זו.
04:49
And if you can reach into a box at random and pull out things that squeak,
85
289988
3732
ואם אתם יכולים להושיט יד לתיבה באקראי ולשלוף ממנה דברים מצפצפים,
04:53
then maybe everything in the box squeaks.
86
293720
2839
אז אולי כל דבר בתיבה חורק.
04:56
So maybe babies should expect those yellow balls to squeak as well.
87
296559
3650
אז אולי תינוקות צריכים לצפות גם מהכדורים הצהובים שיצפצפו.
05:00
Now, those yellow balls have funny sticks on the end,
88
300209
2519
עכשיו, לכדורים צהובים אלו יש מקלות מצחיקים בקצה,
05:02
so babies could do other things with them if they wanted to.
89
302728
2857
כך שתינוקות יכולים לעשות דברים אחרים איתם אם הם היו רוצים.
05:05
They could pound them or whack them.
90
305585
1831
05:07
But let's see what the baby does.
91
307416
2586
אבל בואו נראה מה התינוקת עושה.
05:12
(Video) Hyowon Gweon: See this? (Ball squeaks)
92
312548
3343
(וידאו) היוון גוואון: רואה את זה? (כדור מצפצף)
05:16
Did you see that? (Ball squeaks)
93
316531
3045
ראית את זה?
05:20
Cool.
94
320036
3066
מגניב.
05:24
See this one?
95
324706
1950
רואה את זה?
05:26
(Ball squeaks)
96
326656
1881
(כדור מצפצף)
05:28
Wow.
97
328537
2653
וואו.
05:33
Laura Schulz: Told you. (Laughs)
98
333854
2113
לורה שולץ: אמרתי לכם? (צוחקת)
05:35
(Video) HG: See this one? (Ball squeaks)
99
335967
4031
(וידאו) ה.ג. רואה את זה? (כדור מצפצף)
05:39
Hey Clara, this one's for you. You can go ahead and play.
100
339998
4619
היי קלרה, זה בשבילך. את יכולה להמשיך ולשחק.
05:51
(Laughter)
101
351854
4365
(צחוק)
05:56
LS: I don't even have to talk, right?
102
356219
2995
ל.ש.: אני אפילו לא צריכה לדבר, נכון?
05:59
All right, it's nice that babies will generalize properties
103
359214
2899
בסדר, זה נחמד שתינוקות יעשו הכללה של תכונות
06:02
of blue balls to yellow balls,
104
362113
1528
מכדורים כחולים לכדורים צהובים,
06:03
and it's impressive that babies can learn from imitating us,
105
363641
3096
וזה מרשים שתינוקות יכולים ללמוד מלחקות אותנו,
06:06
but we've known those things about babies for a very long time.
106
366737
3669
אבל ידענו דברים אלה על תינוקות מזה זמן רב.
06:10
The really interesting question
107
370406
1811
השאלה המעניינת באמת
06:12
is what happens when we show babies exactly the same thing,
108
372217
2852
היא מה קורה כאשר אנו מראים לתינוקות בדיוק את אותו הדבר,
06:15
and we can ensure it's exactly the same because we have a secret compartment
109
375069
3611
ואנחנו יכולים להבטיח שזה בדיוק אותו הדבר כי יש לנו תא סודי
06:18
and we actually pull the balls from there,
110
378680
2110
ואנחנו למעשה שולפים את הכדורים משם,
06:20
but this time, all we change is the apparent population
111
380790
3478
אך הפעם, כל מה שאנו משנים זה את הקבוצה
06:24
from which that evidence was drawn.
112
384268
2902
שממנה ראייה זו נמשכה
06:27
This time, we're going to show babies three blue balls
113
387170
3553
הפעם, אנחנו הולכים להראות לתינוקות שלושה כדורים כחולים
06:30
pulled out of a box of mostly yellow balls,
114
390723
3384
שהוצאו מקופסה בעיקר של כדורים צהובים
06:34
and guess what?
115
394107
1322
ונחשו מה?
06:35
You [probably won't] randomly draw three blue balls in a row
116
395429
2840
אתם (כנראה שלא) תשלפו 3 כדורים בזה אחר זה
06:38
out of a box of mostly yellow balls.
117
398269
2484
מתיבה של בעיקר כדורים צהובים
06:40
That is not plausibly randomly sampled evidence.
118
400753
3747
זו לא ראיית דגימה סבירה באופן אקראי.
06:44
That evidence suggests that maybe Hyowon was deliberately sampling the blue balls.
119
404500
5123
ראייה זו מצביעה על כך שאולי היוון דיגמה במתכוון את הכדורים הכחולים
06:49
Maybe there's something special about the blue balls.
120
409623
2583
אולי יש משהו מיוחד בכדורים הכחולים.
06:52
Maybe only the blue balls squeak.
121
412846
2976
אולי רק הכדורים הכחולים מצפצפים.
06:55
Let's see what the baby does.
122
415822
1895
בואו נראה מה התינוקת עושה.
06:57
(Video) HG: See this? (Ball squeaks)
123
417717
2904
(וידאו) ה.ג.: רואה את זה? (כדור מצפצף)
07:02
See this toy? (Ball squeaks)
124
422851
2645
רואה את הצעצוע הזה? (כדור מצפצף)
07:05
Oh, that was cool. See? (Ball squeaks)
125
425496
5480
הו, זה היה מגניב. רואה? (כדור מצפצף)
07:10
Now this one's for you to play. You can go ahead and play.
126
430976
4394
עכשיו זה בשבילך לשחק. את יכולה לשחק.
07:18
(Fussing) (Laughter)
127
438074
6347
(התרגשות) (צחוק)
07:26
LS: So you just saw two 15-month-old babies
128
446901
2748
ל.ש: אז אתם ראיתם שני תינוקות בני 15 חודשים
07:29
do entirely different things
129
449649
1942
עושים דברים שונים לחלוטין
07:31
based only on the probability of the sample they observed.
130
451591
3599
שמבוססים רק על ההסתברות של הדוגמה שהם ראו.
07:35
Let me show you the experimental results.
131
455190
2321
הרשו לי להראות לכם את תוצאות הניסוי.
07:37
On the vertical axis, you'll see the percentage of babies
132
457511
2764
על הציר האנכי, תראו את אחוז התינוקות
07:40
who squeezed the ball in each condition,
133
460275
2530
שמעכו את הכדור בכל מצב.
07:42
and as you'll see, babies are much more likely to generalize the evidence
134
462805
3715
וכפי שתראו, סביר הרבה יותר שתינוקות יעשו הכללה
07:46
when it's plausibly representative of the population
135
466520
3135
כשזה ייצוג מתקבל על הדעת של האוכלוסייה
07:49
than when the evidence is clearly cherry-picked.
136
469655
3738
מאשר כשהראייה נבחרת בקפידה
07:53
And this leads to a fun prediction:
137
473393
2415
וזה מוליך לחיזוי מהנה:
07:55
Suppose you pulled just one blue ball out of the mostly yellow box.
138
475808
4868
נניח ששלפתם רק כדור כחול אחד מהתיבה שבה רוב של כדורים צהובים
08:00
You [probably won't] pull three blue balls in a row at random out of a yellow box,
139
480896
3869
אתם (כנראה לא) תוציאו 3 כדורים כחולים בזה אחר זה , באקראי מתוך תיבה צהובה.
08:04
but you could randomly sample just one blue ball.
140
484765
2455
אבל יכולתם באקראי לדגום רק כדור כחול אחד.
08:07
That's not an improbable sample.
141
487220
1970
זה לא מדגם בלתי סביר.
08:09
And if you could reach into a box at random
142
489190
2224
ולו יכולתם להגיע לתיבה באקראי
08:11
and pull out something that squeaks, maybe everything in the box squeaks.
143
491414
3987
ולהוציא משהו שחורק,מצפצף, אולי הכל בתיבה מצפצף.
08:15
So even though babies are going to see much less evidence for squeaking,
144
495875
4445
אז למרות שתינוקות הולכים לראות הרבה פחות ראיות לצפצופים,
08:20
and have many fewer actions to imitate
145
500320
2242
ויש להם הרבה פחות פעולות לחקות
08:22
in this one ball condition than in the condition you just saw,
146
502562
3343
במצב זה של כדור אחד מאשר במצב שראיתם זה עתה.
08:25
we predicted that babies themselves would squeeze more,
147
505905
3892
חזינו שהתינוקות עצמם ילחצו יותר.
08:29
and that's exactly what we found.
148
509797
2894
וזה בדיוק מה שמצאנו.
08:32
So 15-month-old babies, in this respect, like scientists,
149
512691
4411
ובכן, לתינוקות בני 15 חודשים, בהקשר זה, כמו מדענים,
08:37
care whether evidence is randomly sampled or not,
150
517102
3088
אכפת אם ראיות נדגמו באקראי או לא,
08:40
and they use this to develop expectations about the world:
151
520190
3507
והם משתמשים בזה כדי לפתח ציפיות לגבי העולם:
08:43
what squeaks and what doesn't,
152
523697
2182
מה חורק ומה לא,
08:45
what to explore and what to ignore.
153
525879
3145
מה לחקור וממה להתעלם.
08:50
Let me show you another example now,
154
530384
2066
הרשו לי להראות לכם דוגמה נוספת עכשיו,
08:52
this time about a problem of causal reasoning.
155
532450
2730
הפעם על חשיבה סיבתית
08:55
And it starts with a problem of confounded evidence
156
535180
2439
וזה מתחיל עם בעיה של ראייה מבולבלת.
08:57
that all of us have,
157
537619
1672
שיש לכל אחד מאיתנו.
08:59
which is that we are part of the world.
158
539291
2020
שהיא שאנחנו הננו חלק מהעולם
09:01
And this might not seem like a problem to you, but like most problems,
159
541311
3436
וזה עשוי לא להיראות לכם כמו בעייה, אבל כמו רב הבעיות,
09:04
it's only a problem when things go wrong.
160
544747
2337
זו רק בעיה כאשר דברים משתבשים.
09:07
Take this baby, for instance.
161
547464
1811
קחו את התינוק הזה לדוגמה.
09:09
Things are going wrong for him.
162
549275
1705
דברים משתבשים עבורו.
09:10
He would like to make this toy go, and he can't.
163
550980
2271
הוא היה רוצה לגרום לצעצוע זה לפעול, ואינו יכול.
09:13
I'll show you a few-second clip.
164
553251
2529
אראה לכם סרטון של כמה שניות.
09:21
And there's two possibilities, broadly:
165
561340
1920
ויש שתי אפשרויות, בגדול:
09:23
Maybe he's doing something wrong,
166
563260
2634
אולי הוא עושה משהו לא בסדר.
09:25
or maybe there's something wrong with the toy.
167
565894
4216
או שאולי יש משהו לא בסדר בצעצוע.
09:30
So in this next experiment,
168
570110
2111
אז בניסוי הבא,
09:32
we're going to give babies just a tiny bit of statistical data
169
572221
3297
אנחנו הולכים לתת לתינוקות רק טיפ-טיפה של נתונים סטטיסטיים
09:35
supporting one hypothesis over the other,
170
575518
2582
שתומכים בהשערה אחת לעומת השנייה,
09:38
and we're going to see if babies can use that to make different decisions
171
578100
3455
ואנחנו הולכים לראות אם תינוקות יכולים להשתמש בזה כדי לקבל החלטות שונות
09:41
about what to do.
172
581555
1834
מה לעשות.
09:43
Here's the setup.
173
583389
2022
הנה המערך.
09:46
Hyowon is going to try to make the toy go and succeed.
174
586071
3030
היווון תנסה לגרום לצעצוע לפעול ותצליח.
09:49
I am then going to try twice and fail both times,
175
589101
3320
ואז אני אנסה פעמיים ואכשל בשתי הפעמים.
09:52
and then Hyowon is going to try again and succeed,
176
592421
3112
ואז היווון תנסה שוב ותצליח.
09:55
and this roughly sums up my relationship to my graduate students
177
595533
3172
וזה בערך מסכם את מערכת היחסים שלי עם הסטודנטים שלי לתואר שני
09:58
in technology across the board.
178
598705
2835
בטכנולוגיה באופן כללי
10:02
But the important point here is it provides a little bit of evidence
179
602030
3292
אבל הנקודה החשובה כאן היא שזה מספק מעט ראיות
10:05
that the problem isn't with the toy, it's with the person.
180
605322
3668
שהבעיה אינה עם הצעצוע. אלא עם האדם.
10:08
Some people can make this toy go,
181
608990
2350
יש אנשים שמסוגלים לגרום לצעצוע לפעול.
10:11
and some can't.
182
611340
959
ויש כאלה שלא.
10:12
Now, when the baby gets the toy, he's going to have a choice.
183
612799
3413
עכשיו, כשהתינוק מקבל צעצוע, הולכת להיות לו בחירה.
10:16
His mom is right there,
184
616212
2188
האמא שלו היא ממש שם,
10:18
so he can go ahead and hand off the toy and change the person,
185
618400
3315
אז אני יכולה לתת את הצעצוע ולהחליף את האדם.
10:21
but there's also going to be another toy at the end of that cloth,
186
621715
3158
אבל הולך להיות צעצוע אחר בקצה הבד הזה,
10:24
and he can pull the cloth towards him and change the toy.
187
624873
3552
והוא יכול למשוך את הבד אליו ולהחליף את הצעצוע.
10:28
So let's see what the baby does.
188
628425
2090
אז בואו נראה מה התינוק עושה.
10:30
(Video) HG: Two, three. Go! (Music)
189
630515
4183
(וידאו) ה.ג.: שתיים, שלוש. צא! (מוסיקה)
10:34
LS: One, two, three, go!
190
634698
3131
ל.ש: אחת שתיים שלוש, צא!
10:37
Arthur, I'm going to try again. One, two, three, go!
191
637829
7382
ארתור, אני הולך לנסות שוב. אחת, שתיים שלוש, צא!
10:45
YG: Arthur, let me try again, okay?
192
645677
2600
ה.ג: ארתור, תן לי לנסות, טוב?
10:48
One, two, three, go! (Music)
193
648277
4550
אחת, שתיים, שלוש, צא!
10:53
Look at that. Remember these toys?
194
653583
1883
תראו את זה. זוכר את הצעצועים האלה?
10:55
See these toys? Yeah, I'm going to put this one over here,
195
655466
3264
רואה את הצעצועים האלה? אני הולכת להניח את זה כאן.
10:58
and I'm going to give this one to you.
196
658730
2062
ואני הולכת לתת את זה לך.
11:00
You can go ahead and play.
197
660792
2335
אתה יכול להמשיך ולשחק.
11:23
LS: Okay, Laura, but of course, babies love their mommies.
198
683213
4737
ל.ש: טוב, לורה, אבל כמובן, תינוקות אוהבים את האמהות שלהם.
11:27
Of course babies give toys to their mommies
199
687950
2182
כמובן שתינוקות נותנים צעצועים לאמהות שלהם
11:30
when they can't make them work.
200
690132
2030
כשאינם מצליחים להפעיל אותם.
11:32
So again, the really important question is what happens when we change
201
692162
3593
אז שוב, השאלה החשובה באמת היא מה קורה כאשר אנו משנים
11:35
the statistical data ever so slightly.
202
695755
3154
מעט את הנתונים הסטטיסטיים .
11:38
This time, babies are going to see the toy work and fail in exactly the same order,
203
698909
4087
הפעם, תינוקות הולכים לראות את הצעצוע פועל ולא פועל בדיוק באותו הסדר,
11:42
but we're changing the distribution of evidence.
204
702996
2415
אבל אנחנו משנים את חלוקת הראיות.
11:45
This time, Hyowon is going to succeed once and fail once, and so am I.
205
705411
4411
הפעם, היווון הולכת להצליח פעם אחת ולהיכשל פעם אחת, וגם אני!
11:49
And this suggests it doesn't matter who tries this toy, the toy is broken.
206
709822
5637
וזה מציע שלא משנה מי מנסה את הצעצוע הזה. הצעצוע שבור.
11:55
It doesn't work all the time.
207
715459
1886
הוא לא פועל כל הזמן.
11:57
Again, the baby's going to have a choice.
208
717345
1965
שוב, לתינוק הולכת להיות ברירה.
11:59
Her mom is right next to her, so she can change the person,
209
719310
3396
אמא שלה נמצאת ממש לידה, כך שהיא יכולה לשנות את האדם
12:02
and there's going to be another toy at the end of the cloth.
210
722706
3204
והולך להיות צעצוע אחר בקצהו של הבד.
12:05
Let's watch what she does.
211
725910
1378
בואו נראה מה היא עושה.
12:07
(Video) HG: Two, three, go! (Music)
212
727288
4348
(וידאו) ה.ג.: שתיים, שלוש, צא! (מוסיקה)
12:11
Let me try one more time. One, two, three, go!
213
731636
4984
תנו לי לנסות עוד פעם אחת. אחת, שתיים, שלוש, צא!
12:17
Hmm.
214
737460
1697
המממ.
12:19
LS: Let me try, Clara.
215
739950
2692
ל.ש: תני לי לנסות, קלרה.
12:22
One, two, three, go!
216
742642
3945
אחת, שתיים, שלוש, צא!
12:27
Hmm, let me try again.
217
747265
1935
הממ, תנו לי לנסות שוב.
12:29
One, two, three, go! (Music)
218
749200
5670
אחת, שתיים, שלוש, צא! (מוסיקה)
12:35
HG: I'm going to put this one over here,
219
755009
2233
ה.ג.: אני אשים את זה כאן,
12:37
and I'm going to give this one to you.
220
757242
2001
ואני אתן את זה לך.
12:39
You can go ahead and play.
221
759243
3597
את יכולה להמשיך ולשחק.
12:58
(Applause)
222
778376
4897
(מחיאות כפיים)
13:04
LS: Let me show you the experimental results.
223
784993
2392
ל.ש.: תנו לי להראות לכם את תוצאות הניסוי.
13:07
On the vertical axis, you'll see the distribution
224
787385
2475
על הציר האנכי תראו את החלוקה
13:09
of children's choices in each condition,
225
789860
2577
של בחירות הילדים בכל מצב,
13:12
and you'll see that the distribution of the choices children make
226
792437
4551
ותראו שחלוקת הבחירות שילדים עושים
13:16
depends on the evidence they observe.
227
796988
2787
תלוייה בראיות שנצפו.
13:19
So in the second year of life,
228
799775
1857
אז בשנה השנייה של החיים,
13:21
babies can use a tiny bit of statistical data
229
801632
2577
תינוקות יכולים להשתמש בטיפ-טיפה של נתונים סטטיסטיים
13:24
to decide between two fundamentally different strategies
230
804209
3367
כדי להחליט בין שתי אסטרטגיות שונות במהותן
13:27
for acting in the world:
231
807576
1881
כדי לפעול בעולם:
13:29
asking for help and exploring.
232
809457
2743
לבקש עזרה ולחקור.
13:33
I've just shown you two laboratory experiments
233
813700
3434
הראיתי לכם זה עתה שני ניסויי מעבדה
13:37
out of literally hundreds in the field that make similar points,
234
817134
3691
מתוך מאות, בשטח שמראים נקודות דומות,
13:40
because the really critical point
235
820825
2392
בגלל שהנקודה הקריטית ממש
13:43
is that children's ability to make rich inferences from sparse data
236
823217
5108
היא שיכולתם של הילדים להסיק מסקנות רבות מנתונים דלים
13:48
underlies all the species-specific cultural learning that we do.
237
828325
5341
נמצאת בבסיס כל תרבות הלמידה ייחודית-למינים שאנו עושים.
13:53
Children learn about new tools from just a few examples.
238
833666
4597
ילדים לומדים על כלים חדשים מתוך כמה דוגמאות בלבד.
13:58
They learn new causal relationships from just a few examples.
239
838263
4717
הם לומדים קשרי גומלין סיבתיים חדשים מכמה דוגמאות בלבד.
14:03
They even learn new words, in this case in American Sign Language.
240
843928
4871
הם אפילו לומדים מילים חדשות, במקרה זה בשפת סימנים אמריקאית.
14:08
I want to close with just two points.
241
848799
2311
אני רוצה לסיים עם שתי נקודות בלבד
14:12
If you've been following my world, the field of brain and cognitive sciences,
242
852050
3688
אם עקבתם אחרי העולם שלי, תחום מדעי המוח והקוגניציה
14:15
for the past few years,
243
855738
1927
בשנים האחרונות,
14:17
three big ideas will have come to your attention.
244
857665
2415
הייתם שמים לב לשלושה רעיונות גדולים.
14:20
The first is that this is the era of the brain.
245
860080
3436
הראשון הוא שזה עידן המוח.
14:23
And indeed, there have been staggering discoveries in neuroscience:
246
863516
3669
ואכן, היו תגליות מדהימות בחקר מדעי המוח:
14:27
localizing functionally specialized regions of cortex,
247
867185
3436
לוקליזציה של תפקודים מיוחדים באזורים של קליפת המוח,
14:30
turning mouse brains transparent,
248
870621
2601
הפיכת מוחות של עכברים לשקופים.
14:33
activating neurons with light.
249
873222
3776
הפעלת נוירונים עם אור.
14:36
A second big idea
250
876998
1996
רעיון גדול שני
14:38
is that this is the era of big data and machine learning,
251
878994
4104
הוא שזה העידן של נתונים גדולים ולמידת מכונה,
14:43
and machine learning promises to revolutionize our understanding
252
883098
3141
ולמידת מכונה מבטיחה לחולל מהפיכה בהבנה שלנו
14:46
of everything from social networks to epidemiology.
253
886239
4667
של כל דבר, החל מרשתות חברתיות לאפידמיולוגיה.
14:50
And maybe, as it tackles problems of scene understanding
254
890906
2693
ואולי, בעת התמודדות עם בעיות של הבנת סצנה
14:53
and natural language processing,
255
893599
1993
ועיבוד טבעי של שפה,
14:55
to tell us something about human cognition.
256
895592
3324
לספר לנו משהו על קוגניציה אנושית.
14:59
And the final big idea you'll have heard
257
899756
1937
והרעיון הגדול האחרון שהייתם שומעים עליו
15:01
is that maybe it's a good idea we're going to know so much about brains
258
901693
3387
הוא שאולי זה רעיון טוב שאנחנו הולכים לדעת כל כך הרבה על מוחות
15:05
and have so much access to big data,
259
905080
1917
ויש גישה רבה כל כך לנתונים רבים,
15:06
because left to our own devices,
260
906997
2507
כי אם ניעזב לנפשנו
15:09
humans are fallible, we take shortcuts,
261
909504
3831
בני אדם נוטים לטעות, אנחנו עושים קיצורי דרך,
15:13
we err, we make mistakes,
262
913335
3437
אנחנו שוגים, אנחנו עושים טעויות,
15:16
we're biased, and in innumerable ways,
263
916772
3684
אנחנו מוטים, ובמובנים רבים מספור,
15:20
we get the world wrong.
264
920456
2969
אנו תופשים לא נכון את העולם.
15:24
I think these are all important stories,
265
924843
2949
אני חושבת שאלה כולם סיפורים חשובים,
15:27
and they have a lot to tell us about what it means to be human,
266
927792
3785
ויש להם הרבה מה לספר לנו על מה זה להיות אנושי,
15:31
but I want you to note that today I told you a very different story.
267
931577
3529
אבל אני רוצה שתשימו לב שהיום סיפרתי לכם סיפור שונה מאוד.
15:35
It's a story about minds and not brains,
268
935966
3807
זה סיפור על המודעות ולא על המוח,
15:39
and in particular, it's a story about the kinds of computations
269
939773
3006
ובמיוחד זה סיפור על סוגי חישובים
15:42
that uniquely human minds can perform,
270
942779
2590
שבאופן ייחודי התודעה האנושית יכולה לבצע,
15:45
which involve rich, structured knowledge and the ability to learn
271
945369
3944
שמעורבים בו ידע מובנה עשיר, והיכולת ללמוד
15:49
from small amounts of data, the evidence of just a few examples.
272
949313
5268
מכמויות קטנות של נתונים, ראייה של רק מעט דוגמאות.
15:56
And fundamentally, it's a story about how starting as very small children
273
956301
4299
וביסודו, זה סיפור על איך מתחילים כילדים קטנים מאוד
16:00
and continuing out all the way to the greatest accomplishments
274
960600
4180
וממשיכים כל הדרך להישגים הגדולים ביותר
16:04
of our culture,
275
964780
3843
של התרבות שלנו.
16:08
we get the world right.
276
968623
1997
אנו תופשים נכון את העולם .
16:12
Folks, human minds do not only learn from small amounts of data.
277
972433
5267
התודעה האנושית לא רק לומדת מכמויות קטנות של נתונים,
16:18
Human minds think of altogether new ideas.
278
978285
2101
התודעה האנושית חושבת על רעיונות לגמרי חדשים.
16:20
Human minds generate research and discovery,
279
980746
3041
התודעה האנושית יוצרת מחקר ומחוללת גילוי.
16:23
and human minds generate art and literature and poetry and theater,
280
983787
5273
והתודעה האנושית יוצרת אמנות וספרות ושירה ותיאטרון,
16:29
and human minds take care of other humans:
281
989070
3760
והתודעה האנושית דואגת לבני אדם אחרים:
16:32
our old, our young, our sick.
282
992830
3427
הזקנים שלנו, הצעירים שלנו, החולים שלנו.
16:36
We even heal them.
283
996517
2367
אנו אפילו מרפאים אותם.
16:39
In the years to come, we're going to see technological innovations
284
999564
3103
בשנים הבאות, אנחנו עומדים לראות חידושים טכנולוגיים
16:42
beyond anything I can even envision,
285
1002667
3797
מעבר לכל מה שאני יכולה לדמיין,
16:46
but we are very unlikely
286
1006464
2150
אבל מאוד לא סביר שאנחנו
16:48
to see anything even approximating the computational power of a human child
287
1008614
5709
נראה משהו שמתקרב אפילו לכוח החישובי של הילד האנושי
16:54
in my lifetime or in yours.
288
1014323
4298
בחיים שלי או בשלכם.
16:58
If we invest in these most powerful learners and their development,
289
1018621
5047
אם נשקיע הרבה בלומדים אלה ובפיתוחם
17:03
in babies and children
290
1023668
2917
בתינוקות ובילדים
17:06
and mothers and fathers
291
1026585
1826
ואימהות ואבות
17:08
and caregivers and teachers
292
1028411
2699
ובמטפלים ומורים
17:11
the ways we invest in our other most powerful and elegant forms
293
1031110
4170
בדרך שאנו משקיעים בצורות האחרות האלגנטיות ורבות העצמה שלנו
17:15
of technology, engineering and design,
294
1035280
3218
של טכנולוגיה, הנדסה ועיצוב,
17:18
we will not just be dreaming of a better future,
295
1038498
2939
לא רק נחלום על עתיד טוב יותר,
17:21
we will be planning for one.
296
1041437
2127
נתכנן כזה.
17:23
Thank you very much.
297
1043564
2345
תודה רבה.
17:25
(Applause)
298
1045909
3421
(מחיאות כפיים)
17:29
Chris Anderson: Laura, thank you. I do actually have a question for you.
299
1049810
4426
כריס אנדרסון: לורה, תודה. למעשה יש לי שאלה אליך.
17:34
First of all, the research is insane.
300
1054236
2359
ראשית המחקר הוא מטורף.
17:36
I mean, who would design an experiment like that? (Laughter)
301
1056595
3725
אני מתכוון, מי היה מעצב ניסוי כזה? (צחוק)
17:41
I've seen that a couple of times,
302
1061150
1790
ראיתי את זה כמה פעמים
17:42
and I still don't honestly believe that that can truly be happening,
303
1062940
3222
ועדיין איני מאמין בכנות שיכול להיות שזה באמת קורה.
17:46
but other people have done similar experiments; it checks out.
304
1066162
3158
אבל אנשים אחרים עשו ניסויים דומים; זה עובד.
17:49
The babies really are that genius.
305
1069320
1633
התינוקות באמת כאלה גאונים.
17:50
LS: You know, they look really impressive in our experiments,
306
1070953
3007
ל.ש: אתה יודע, הם נראים ממש מרשימים בניסויים שלנו,
17:53
but think about what they look like in real life, right?
307
1073960
2652
אבל חישבו על איך שהם נראים בחיי היומיום. נכון?
17:56
It starts out as a baby.
308
1076612
1150
זה מתחיל כתינוק.
17:57
Eighteen months later, it's talking to you,
309
1077762
2007
18 חודש מאוחר יותר זה מדבר אליך.
17:59
and babies' first words aren't just things like balls and ducks,
310
1079769
3041
והמילים הראשונות של התינוקות הן לא רק דברים כמו כדורים וברווזים,
18:02
they're things like "all gone," which refer to disappearance,
311
1082810
2881
אלה דברים כמו "הכל הלך", שמתייחסים להיעלמות.
18:05
or "uh-oh," which refer to unintentional actions.
312
1085691
2283
או "או-או" שמתייחס לפעולות שאינן מכוונות.
18:07
It has to be that powerful.
313
1087974
1562
זה חייב להיות עד כדי כך חזק.
18:09
It has to be much more powerful than anything I showed you.
314
1089536
2775
זה חייב להיות הרבה יותר חזק מכל דבר שהראיתי לכם.
18:12
They're figuring out the entire world.
315
1092311
1974
הם מבינים את העולם כולו.
18:14
A four-year-old can talk to you about almost anything.
316
1094285
3144
בן 4 יכול לדבר איתכם כמעט על כל דבר.
18:17
(Applause)
317
1097429
1601
(מחיאות כפיים)
18:19
CA: And if I understand you right, the other key point you're making is,
318
1099030
3414
כ.א.: ואם אני מבין אותך נכון הנקודה המרכזית האחרת שאת מצביעה עליה היא,
18:22
we've been through these years where there's all this talk
319
1102444
2754
כבר עברנו דרך השנים האלה שיש בהן את כל הדיבורים האלה
18:25
of how quirky and buggy our minds are,
320
1105198
1932
עד כמה מוזרה ומטורפה התודעה שלנו.
18:27
that behavioral economics and the whole theories behind that
321
1107130
2867
שכלכלה ארגונית ותיאוריות שלמות עומדים מאחורי זה
18:29
that we're not rational agents.
322
1109997
1603
שאנחנו לא יצורים רציונליים.
18:31
You're really saying that the bigger story is how extraordinary,
323
1111600
4216
את באמת אומרת שהסיפור הגדול יותר הוא עד כמה יוצא מהכלל,
18:35
and there really is genius there that is underappreciated.
324
1115816
4944
ויש גאון שם שאינו מוערך דיו.
18:40
LS: One of my favorite quotes in psychology
325
1120760
2070
ל.ש.: אחד מהציטוטים בפסיכולוגיה האהובים עלי
18:42
comes from the social psychologist Solomon Asch,
326
1122830
2290
הוא של הפסיכולוג החברתי סולומון אש,
18:45
and he said the fundamental task of psychology is to remove
327
1125120
2807
והוא אמר שהתפקיד הקריטי של פסיכולוגיה הוא להסיר
18:47
the veil of self-evidence from things.
328
1127927
2626
את מעטה הראיה-העצמית מעל הדברים.
18:50
There are orders of magnitude more decisions you make every day
329
1130553
4551
ישנם סדרי גודל יותר החלטות שמקבלים מדי יום
18:55
that get the world right.
330
1135104
1347
שמבינים את העולם נכון.
18:56
You know about objects and their properties.
331
1136451
2132
אתם יודעים על אובייקטים והמאפיינים שלהם.
18:58
You know them when they're occluded. You know them in the dark.
332
1138583
3029
אתם מכירים אותם כאשר הם חסומים. אתם מכירים אותם בחושך.
19:01
You can walk through rooms.
333
1141612
1308
אתם יכולים לעבור דרך חדרים.
19:02
You can figure out what other people are thinking. You can talk to them.
334
1142920
3532
אתם יכולים להבין מה אחרים חושבים. אתם יכולים לדבר איתם.
19:06
You can navigate space. You know about numbers.
335
1146452
2230
אתם יכולים לנווט בחלל. אתם יודעים על מספרים
19:08
You know causal relationships. You know about moral reasoning.
336
1148682
3022
אתם יודעים על קשרים סיבתיים, אתם יודעים על חשיבה מוסרית.
19:11
You do this effortlessly, so we don't see it,
337
1151704
2356
אתם עושים זאת בקלות, ולכן אנו לא רואים את זה.
19:14
but that is how we get the world right, and it's a remarkable
338
1154060
2912
אבל ככה אנחנו מבינים את העולם נכון, וזה מרשים
19:16
and very difficult-to-understand accomplishment.
339
1156972
2318
והישג קשה מאוד להבנה.
19:19
CA: I suspect there are people in the audience who have
340
1159290
2628
כ.א.: אני חושד שיש אנשים בקהל שיש להם
19:21
this view of accelerating technological power
341
1161918
2238
השקפה זו של האצת כוח טכנולוגי
19:24
who might dispute your statement that never in our lifetimes
342
1164156
2958
שאולי יחלוק על ההצהרה שלך שאף פעם בחיינו
19:27
will a computer do what a three-year-old child can do,
343
1167114
2618
מחשב לא יעשה את מה שילד בן 3 יכול לעשות,
19:29
but what's clear is that in any scenario,
344
1169732
3248
אבל מה שברור הוא, שבכל תרחיש,
19:32
our machines have so much to learn from our toddlers.
345
1172980
3770
למכונות שלנו יש כל כך הרבה ללמוד מהפעוטות שלנו.
19:38
LS: I think so. You'll have some machine learning folks up here.
346
1178230
3216
ל.ש.: אני חושבת כך,יהיו לכם כמה אנשי למידת מכונה כאן.
19:41
I mean, you should never bet against babies or chimpanzees
347
1181446
4203
כלומר, אתם אף פעם לא צריכים להמר נגד תינוקות או שימפנזים
19:45
or technology as a matter of practice,
348
1185649
3645
או טכנולוגיה למעשה,
19:49
but it's not just a difference in quantity,
349
1189294
4528
אבל זה לא רק הבדל בכמות,
19:53
it's a difference in kind.
350
1193822
1764
זה הבדל בסוג.
19:55
We have incredibly powerful computers,
351
1195586
2160
יש לנו מחשבים רבי עוצמה,
19:57
and they do do amazingly sophisticated things,
352
1197746
2391
והם עושים דברים מתוחכמים להפליא,
20:00
often with very big amounts of data.
353
1200137
3204
לעתים קרובות עם כמויות גדולות מאוד של נתונים.
20:03
Human minds do, I think, something quite different,
354
1203341
2607
התודעה האנושית, אני חושבת, עושה משהו שונה בתכלית,
20:05
and I think it's the structured, hierarchical nature of human knowledge
355
1205948
3895
ואני חושבת שזה המבנה ההיררכי המובנה של הידע אנושי
20:09
that remains a real challenge.
356
1209843
2032
שנשאר אתגר אמיתי.
20:11
CA: Laura Schulz, wonderful food for thought. Thank you so much.
357
1211875
3061
כ.א.: לורה שולץ, חומר נפלא למחשבה תודה רבה לך.
20:14
LS: Thank you. (Applause)
358
1214936
2922
ל.ש.: תודה רבה (מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7