Laura Schulz: The surprisingly logical minds of babies

233,233 views ・ 2015-06-02

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: DAHOU Mohamed المدقّق: muhammad Samir
00:12
Mark Twain summed up what I take to be
0
12835
2155
لخص مارك توين ما أعتبره أنا
00:14
one of the fundamental problems of cognitive science
1
14990
3120
إحدى المشاكل الأساسية بالعلوم الإدراكية
00:18
with a single witticism.
2
18110
1710
بروح دعابية فريدة.
00:20
He said, "There's something fascinating about science.
3
20410
3082
فقال: "هناك أمر مدهش في العلوم.
00:23
One gets such wholesale returns of conjecture
4
23492
3228
حيث نحصل على جملة من الأفكار
00:26
out of such a trifling investment in fact."
5
26720
3204
مقابل استثمار بسيط من الافتراض."
00:29
(Laughter)
6
29924
1585
(ضحك)
00:32
Twain meant it as a joke, of course, but he's right:
7
32199
2604
بالطبع كان توين يمزح ولكنه كان محقاً.
00:34
There's something fascinating about science.
8
34803
2876
هناك أمر مدهش حول العلوم.
00:37
From a few bones, we infer the existence of dinosuars.
9
37679
4261
حيث أثبتنا من بضعة عظام وجود الديناصورات.
00:42
From spectral lines, the composition of nebulae.
10
42910
3871
ومن الخطوط الطيفية مكونات السديم.
00:47
From fruit flies,
11
47471
2938
ومن ذباب الفاكهة
00:50
the mechanisms of heredity,
12
50409
2943
آليات الوراثة،
00:53
and from reconstructed images of blood flowing through the brain,
13
53352
4249
ومن إعادة بناء صور لتدفق الدم عبر الدماغ،
00:57
or in my case, from the behavior of very young children,
14
57601
4708
أو في حالتي، من سلوك الأطفال الصغار،
01:02
we try to say something about the fundamental mechanisms
15
62309
2829
نحاول التوصل إلى شيء ما حول الآليات الأساسية
01:05
of human cognition.
16
65138
1618
بالإدراك البشري.
01:07
In particular, in my lab in the Department of Brain and Cognitive Sciences at MIT,
17
67716
4759
وخاصة، في مختبري بقسم الدماغ والعلوم الإدراكية في معهد ماساتشوستس للتقنيات،
01:12
I have spent the past decade trying to understand the mystery
18
72475
3654
حيث قضيت العِقْد الماضي أحاول فهم لغز
01:16
of how children learn so much from so little so quickly.
19
76129
3977
كيفية تعلم الأطفال الكثيرمن القليل وبسرعة.
01:20
Because, it turns out that the fascinating thing about science
20
80666
2978
لأنه تبين أن المدهش في العلوم
01:23
is also a fascinating thing about children,
21
83644
3529
هو أيضا أمر مدهش في الأطفال،
01:27
which, to put a gentler spin on Mark Twain,
22
87173
2581
ولَمْسَة مارك توين بالضبط،
01:29
is precisely their ability to draw rich, abstract inferences
23
89754
4650
هي قدرتهم لاستخلاص نتائج غنية ومجردة
01:34
rapidly and accurately from sparse, noisy data.
24
94404
4661
بسرعة ودقة من معطيات متفرقة ومشتتة.
01:40
I'm going to give you just two examples today.
25
100355
2398
سأقدم لكم اليوم مثالين فقط.
01:42
One is about a problem of generalization,
26
102753
2287
واحد حول مشكلة التعميم
01:45
and the other is about a problem of causal reasoning.
27
105040
2850
والآخر حول مشكلة الاستدلال السببي.
01:47
And although I'm going to talk about work in my lab,
28
107890
2525
رغم أني سأتكلم حول العمل في مختبري،
01:50
this work is inspired by and indebted to a field.
29
110415
3460
إلا أن هذا العمل مستلهم من مجال أدين له بالكثير.
01:53
I'm grateful to mentors, colleagues, and collaborators around the world.
30
113875
4283
وأنا ممتنة لكافة المرشدين والزملاء والمتعاونين حول العالم.
01:59
Let me start with the problem of generalization.
31
119308
2974
دعوني أبدأ بمشكلة التعميم.
02:02
Generalizing from small samples of data is the bread and butter of science.
32
122652
4133
التعميم انطلاقًا من معطيات بسيطة هو أساس العلوم.
02:06
We poll a tiny fraction of the electorate
33
126785
2554
فنحن نستطلع آراء نسبة ضئيلة من الناخبين
02:09
and we predict the outcome of national elections.
34
129339
2321
ونتوقع نتائج انتخابات وطنية.
02:12
We see how a handful of patients responds to treatment in a clinical trial,
35
132240
3925
ونرى كيفية استجابة حفنة من المرضى للعلاج في التجارب السريرية،
02:16
and we bring drugs to a national market.
36
136165
3065
فنزود السوق الوطنية بالأدوية.
02:19
But this only works if our sample is randomly drawn from the population.
37
139230
4365
لكن الأمر ينجح فقط إذا أخذنا عينة عشوائية من السكان.
02:23
If our sample is cherry-picked in some way --
38
143595
2735
فإذا نحن أخذنا العينة بطريقة منتقاه
02:26
say, we poll only urban voters,
39
146330
2072
كأن نستطلع فقط الناخبين بالمجال الحضري،
02:28
or say, in our clinical trials for treatments for heart disease,
40
148402
4388
أو فلنقل، في تجاربنا السريرية الخاصة بعلاجات أمراض القلب،
02:32
we include only men --
41
152790
1881
نختار فقط الرجال
02:34
the results may not generalize to the broader population.
42
154671
3158
فإن النتائج لن تعمم إلى السكان على نطاق واسع.
02:38
So scientists care whether evidence is randomly sampled or not,
43
158479
3581
لذلك يهتم العلماء ما إذا كانت العينة مأخوذة بشكل عشوائي أم لا،
02:42
but what does that have to do with babies?
44
162060
2015
ولكن ما علاقة ذلك بالرضع؟
02:44
Well, babies have to generalize from small samples of data all the time.
45
164585
4621
لأن الرضع عليهم دائماً أن يعمموا انطلاقاُ من بيانات مأخوذة من عينات صغيرة.
02:49
They see a few rubber ducks and learn that they float,
46
169206
3158
لأنهم يرون بعض البط المطاطي فيتعلمون أنها تطفو،
02:52
or a few balls and learn that they bounce.
47
172364
3575
أو بضع كرات فيتعلمون أنها ترتد.
02:55
And they develop expectations about ducks and balls
48
175939
2951
فيطورون توقعات حول البط والكرات
02:58
that they're going to extend to rubber ducks and balls
49
178890
2716
فيتعرفون على خصائص البط المطاطية والكرات
03:01
for the rest of their lives.
50
181606
1879
لبقية حياتهم.
03:03
And the kinds of generalizations babies have to make about ducks and balls
51
183485
3739
وأنواع التعميم التي على الرضع القيام بها فيما يتعلق بالبط والكرات
03:07
they have to make about almost everything:
52
187224
2089
يطبقونها تقريبًا في كل شيء:
03:09
shoes and ships and sealing wax and cabbages and kings.
53
189313
3917
الأحذية والسفن وشمع الختم والملفوف والملوك.
03:14
So do babies care whether the tiny bit of evidence they see
54
194200
2961
فهل يهتم الرضع بمعرفة ما إذا كانت العينة الصغيرة التي يرونها
03:17
is plausibly representative of a larger population?
55
197161
3692
تمثل في الظاهر أكبر عدد من السكان؟
03:21
Let's find out.
56
201763
1900
دعونا نكتشف ذلك.
03:23
I'm going to show you two movies,
57
203663
1723
سأعرض عليكم فيديوهان،
03:25
one from each of two conditions of an experiment,
58
205386
2462
كل واحد منهما عن حالة من حالتي التجربة،
03:27
and because you're going to see just two movies,
59
207848
2438
ولكونكم ستشاهدون فيديوهان فقط،
03:30
you're going to see just two babies,
60
210286
2136
فستشاهدون فقط رضيعان.
03:32
and any two babies differ from each other in innumerable ways.
61
212422
3947
ويختلف كلا الرضيعان عن بعضهما بطرق لا تعد ولا تحصى
03:36
But these babies, of course, here stand in for groups of babies,
62
216369
3051
وبالطبع يمثل هذان الرضيعان هنا مجموعة من الرضع،
03:39
and the differences you're going to see
63
219420
1895
والاختلافات التي ستشاهدونها
03:41
represent average group differences in babies' behavior across conditions.
64
221315
5195
تمثل معدل مجموعة الاختلافات بسلوك الرضع في كل الظروف
03:47
In each movie, you're going to see a baby doing maybe
65
227160
2583
ستشاهدون في كل فيديو رضيعاً يقوم ربما
03:49
just exactly what you might expect a baby to do,
66
229743
3460
بما تتوقعونه بالضبط من رضيع أن يفعله،
03:53
and we can hardly make babies more magical than they already are.
67
233203
4017
ومن الصعب أن نجعل الرضع أكثر سحراً مما هم عليه بالفعل.
03:58
But to my mind the magical thing,
68
238090
2010
لكن باعتقادي الشيء الساحر،
04:00
and what I want you to pay attention to,
69
240100
2089
وما أريدكم أن تنتبهوا إليه،
04:02
is the contrast between these two conditions,
70
242189
3111
هو التناقض بين هذين الظرفين،
04:05
because the only thing that differs between these two movies
71
245300
3529
لأن الأمر الوحيد المختلف بين هذين الفيديوهين
04:08
is the statistical evidence the babies are going to observe.
72
248829
3466
هو الدليل الإحصائي الذي سيلاحظه الرضيعان.
04:13
We're going to show babies a box of blue and yellow balls,
73
253425
3183
وسنقدم لهما صندوق كرات زرقاء وصفراء،
04:16
and my then-graduate student, now colleague at Stanford, Hyowon Gweon,
74
256608
4620
وستسحب(هيوون غويون)، طالبتي المتخرجة حديثا والزميلة الحالية بجامعة ستانفورد،
04:21
is going to pull three blue balls in a row out of this box,
75
261228
3077
3 كرات زررقاء على التوالي من هذا الصندوق،
04:24
and when she pulls those balls out, she's going to squeeze them,
76
264305
3123
وعند سحبها خارجًا ستضغط عليها
04:27
and the balls are going to squeak.
77
267428
2113
فتصدر أصواتًا.
04:29
And if you're a baby, that's like a TED Talk.
78
269541
2763
وإذا كنتم رُضعًا، فإن الأمر كمحادثة تيد.
04:32
It doesn't get better than that.
79
272304
1904
لن يكون الأمر أفضل مما هو عليه.
04:34
(Laughter)
80
274208
2561
(ضحك)
04:38
But the important point is it's really easy to pull three blue balls in a row
81
278968
3659
ولكن النقطة الأهم هي أنه من السهل سحب 3 كرات زرقاء على التوالي
04:42
out of a box of mostly blue balls.
82
282627
2305
من صندوق معظم كراته زرقاء.
04:44
You could do that with your eyes closed.
83
284932
2060
بإمكانكم فعل ذلك وأنتم مغمضي العينين.
04:46
It's plausibly a random sample from this population.
84
286992
2996
وهي في الظاهر عينة عشوائية من السكان.
04:49
And if you can reach into a box at random and pull out things that squeak,
85
289988
3732
وإذا كانت معظم الأشياء التي تسحبونها من الصندوق بشكل عشوائي تصدر أصواتاً،
04:53
then maybe everything in the box squeaks.
86
293720
2839
فلربما أن يكون كل ما بالصندوق يصدر أصواتاً.
04:56
So maybe babies should expect those yellow balls to squeak as well.
87
296559
3650
ولربما سيفترض الرضع أن الكرات الصفراء أيضا تصدر أصواتاً.
05:00
Now, those yellow balls have funny sticks on the end,
88
300209
2519
إلا أن الكرات الصفراء بها عصي مضحكة عند الطرف،
05:02
so babies could do other things with them if they wanted to.
89
302728
2857
لذا يمكن للأطفال أن يفعلوا بها أشياء أخرى إن أرادوا ذلك.
05:05
They could pound them or whack them.
90
305585
1831
ويمكنهم رميها أو الضرب بها.
05:07
But let's see what the baby does.
91
307416
2586
ولكن دعونا نشاهد ماذا يفعل الرضيع.
05:12
(Video) Hyowon Gweon: See this? (Ball squeaks)
92
312548
3343
(الفيديو) هيوون غويون: أرأيت هذه؟ (كرة تصدر صوتاً)
05:16
Did you see that? (Ball squeaks)
93
316531
3045
هل رايت ذلك؟ (كرة تصدر صوتاً)
05:20
Cool.
94
320036
3066
رائع!
05:24
See this one?
95
324706
1950
أنظر إلى هذه؟
05:26
(Ball squeaks)
96
326656
1881
(كرة تصدر صوتاً)
05:28
Wow.
97
328537
2653
واو
05:33
Laura Schulz: Told you. (Laughs)
98
333854
2113
لورا شولتز: لقد أخبرتكم. (ضحك)
05:35
(Video) HG: See this one? (Ball squeaks)
99
335967
4031
(الفيديو) هيوون: أرأيت هذه؟ (كرة تصدر صوتاً)
05:39
Hey Clara, this one's for you. You can go ahead and play.
100
339998
4619
(كلارا) هذه واحدة من أجلك. بإمكانك أخذها واللعب بها.
05:51
(Laughter)
101
351854
4365
(ضحك)
05:56
LS: I don't even have to talk, right?
102
356219
2995
لورا: حتى أنه لا داعي لأتكلم، صحيح؟
05:59
All right, it's nice that babies will generalize properties
103
359214
2899
حسناً، من الجيد أن الرضع يعممون خصائص
06:02
of blue balls to yellow balls,
104
362113
1528
الكرات الزرقاء على الصفراء،
06:03
and it's impressive that babies can learn from imitating us,
105
363641
3096
ومن المدهش أنهم يتعلمون من خلال تقليدنا،
06:06
but we've known those things about babies for a very long time.
106
366737
3669
ولكن نحن نعرف كل هذه الأشياء عن الرضع منذ وقت طويل،
06:10
The really interesting question
107
370406
1811
السؤال المهم حقاً هو
06:12
is what happens when we show babies exactly the same thing,
108
372217
2852
ما الذي يحدث عندما نري الرضع نفس الشيء،
06:15
and we can ensure it's exactly the same because we have a secret compartment
109
375069
3611
ويمكننا التأكيد على أنه نفس الشيء لأنه لدينا حجرة سرية
06:18
and we actually pull the balls from there,
110
378680
2110
والحقيقة أننا نأخذ الكرات من هناك،
06:20
but this time, all we change is the apparent population
111
380790
3478
لكن هذه المرة، كل ما تغير هو عموم السكان
06:24
from which that evidence was drawn.
112
384268
2902
الذي أخذت منه العينة.
06:27
This time, we're going to show babies three blue balls
113
387170
3553
وهذه المرة، سنري الرضع 3 كرات زرقاء
06:30
pulled out of a box of mostly yellow balls,
114
390723
3384
مأخوذة من صندوق أغلب كراته صفراء اللون،
06:34
and guess what?
115
394107
1322
واحزروا ماذا؟
06:35
You [probably won't] randomly draw three blue balls in a row
116
395429
2840
من المرجح أن لا تسحبوا بشكل عشوائي 3 كرات زرقاء على التوالي
06:38
out of a box of mostly yellow balls.
117
398269
2484
من الصندوق أغلب كراته صفراء.
06:40
That is not plausibly randomly sampled evidence.
118
400753
3747
إنها ليست عينة عشوائية في الظاهر.
06:44
That evidence suggests that maybe Hyowon was deliberately sampling the blue balls.
119
404500
5123
وتفترض هذه العينة أنه فد تكون (هيوون) اختارت عن عمد عينة من الكرات الزرقاء.
06:49
Maybe there's something special about the blue balls.
120
409623
2583
وربما أن هناك شيء ما مميز في الكرات الزرقاء.
06:52
Maybe only the blue balls squeak.
121
412846
2976
وربما أن الصوت يصدر فقط من الكرات الزرقاء.
06:55
Let's see what the baby does.
122
415822
1895
دعونا نرى ماذا يفعل الرضيع.
06:57
(Video) HG: See this? (Ball squeaks)
123
417717
2904
(الفيديو) هيوون: أرأيت هذه؟ (كرة تصدر صوتاً)
07:02
See this toy? (Ball squeaks)
124
422851
2645
أرأيت هذه اللعبة؟ (كرة تصدر صوتاً)
07:05
Oh, that was cool. See? (Ball squeaks)
125
425496
5480
كان هذا ممتعاً، أرأيت؟ (كرة تصدر صوتاً)
07:10
Now this one's for you to play. You can go ahead and play.
126
430976
4394
والآن هذه واحدة من أجلك للعب بها. بإمكانك أخذها واللعب بها.
07:18
(Fussing) (Laughter)
127
438074
6347
(همهمة الرضيع) (ضحك)
07:26
LS: So you just saw two 15-month-old babies
128
446901
2748
لورا: كان هذان رضيعان عمرههما 15 شهراً
07:29
do entirely different things
129
449649
1942
يقومان بأشياء مختلفة تماماً
07:31
based only on the probability of the sample they observed.
130
451591
3599
إعتمادًا على احتمالية العينة التي لاحظاها.
07:35
Let me show you the experimental results.
131
455190
2321
دعوني أُريكم النتائج التجريبية.
07:37
On the vertical axis, you'll see the percentage of babies
132
457511
2764
على المحور الرأسي، تشاهدون النسبة المئوية من الرضع
07:40
who squeezed the ball in each condition,
133
460275
2530
الذين يضغطون على الكرة في جميع الحالات،
07:42
and as you'll see, babies are much more likely to generalize the evidence
134
462805
3715
وكما ستشاهدون، في الغالب يميل الرضع إلى تعميم العينة
07:46
when it's plausibly representative of the population
135
466520
3135
عندما تمثل في الظاهر السكان
07:49
than when the evidence is clearly cherry-picked.
136
469655
3738
بدلا من تلك التي اُختيرت بعناية.
07:53
And this leads to a fun prediction:
137
473393
2415
وهذا يقود إلى تكهن ممتع:
07:55
Suppose you pulled just one blue ball out of the mostly yellow box.
138
475808
4868
لنفترض أنكم سحبتم كرة زرقاء واحدة من صندوق معظم كراته صفراء.
08:00
You [probably won't] pull three blue balls in a row at random out of a yellow box,
139
480896
3869
فلن تسحبوا على الأرجح 3 كرات زرقاء بشكل عشوائي من الصندوق الأصفر،
08:04
but you could randomly sample just one blue ball.
140
484765
2455
ولكن يمكنكم أن تسحبوا بعشوائية كرة زرقاء واحدة فقط.
08:07
That's not an improbable sample.
141
487220
1970
هذه ليست عينة مستبعدة.
08:09
And if you could reach into a box at random
142
489190
2224
وإذا أمكنكم أن تسحبوا من صندوق عشوائي
08:11
and pull out something that squeaks, maybe everything in the box squeaks.
143
491414
3987
شيء ما يصدر صوتاً، فلربما أن كل ما فيه يصدر صوتاً أيضاً.
08:15
So even though babies are going to see much less evidence for squeaking,
144
495875
4445
لذا حتى وإن كان الرضع سيلاحظون عينات أقل تصدر الأصوات،
08:20
and have many fewer actions to imitate
145
500320
2242
وسيكون لديهم أفعال أقل بكثير لمحاكاتها
08:22
in this one ball condition than in the condition you just saw,
146
502562
3343
في هذه الحالة مع كرة واحدة فقط بدلا من الحالة التي شاهدتموها للتو،
08:25
we predicted that babies themselves would squeeze more,
147
505905
3892
توقعنا أن الرضع أنفسهم سيصدرون أصواتاً أكثر،
08:29
and that's exactly what we found.
148
509797
2894
وهذا ما حدث بالضبط.
08:32
So 15-month-old babies, in this respect, like scientists,
149
512691
4411
الرضع في عمر 15 شهراً، في هذا الصدد، هم كالعلماء،
08:37
care whether evidence is randomly sampled or not,
150
517102
3088
يهمهم معرفة ما إذا كانت العينة عشوائية أم لا،
08:40
and they use this to develop expectations about the world:
151
520190
3507
ويستخدمون ذلك لتطوير توقعاتهم عن العالم:
08:43
what squeaks and what doesn't,
152
523697
2182
ما يصدر صوتاً وما لا يصدره،
08:45
what to explore and what to ignore.
153
525879
3145
ما يمكن استكشافه وما ينبغي تجاهله.
08:50
Let me show you another example now,
154
530384
2066
دعوني أريكم مثلاً أخر،
08:52
this time about a problem of causal reasoning.
155
532450
2730
وهذه المرة حول مسألة الاستدلال السببي.
08:55
And it starts with a problem of confounded evidence
156
535180
2439
وتبدأ بمسألة العينة الدخيلة
08:57
that all of us have,
157
537619
1672
التي نتعرض لها جميعاً،
08:59
which is that we are part of the world.
158
539291
2020
لكوننا جزء من العالم.
09:01
And this might not seem like a problem to you, but like most problems,
159
541311
3436
وقد لا يبدو لكم ذلك كمشكلة بالنسبة لكم، ولكن كأغلب المشاكل،
09:04
it's only a problem when things go wrong.
160
544747
2337
لا تصبح مشكلة إلا عندما تسوء الأمور.
09:07
Take this baby, for instance.
161
547464
1811
خذوا هذا الرضيع مثلاً.
09:09
Things are going wrong for him.
162
549275
1705
تسير الأمور على نحو سيء معه.
09:10
He would like to make this toy go, and he can't.
163
550980
2271
إنه يود أن يشغل اللعبة ولكنه لا يستطيع.
09:13
I'll show you a few-second clip.
164
553251
2529
سأريكم مقطع من بضع ثواني.
09:21
And there's two possibilities, broadly:
165
561340
1920
وعلى العموم، هناك احتمالان:
09:23
Maybe he's doing something wrong,
166
563260
2634
ربما أنه يقوم بشيء خاطئ،
09:25
or maybe there's something wrong with the toy.
167
565894
4216
أو ربما هناك خطب ما في اللعبة.
09:30
So in this next experiment,
168
570110
2111
وفي التجربة القادمة،
09:32
we're going to give babies just a tiny bit of statistical data
169
572221
3297
سنقدم للأطفال القليل فقط من المعطيات الإحصائية
09:35
supporting one hypothesis over the other,
170
575518
2582
لدعم فرضية على أخرى،
09:38
and we're going to see if babies can use that to make different decisions
171
578100
3455
وسنرى إذا كان بإمكان الرضع استخدام تلك المعطيات لاتخاذ قرارات مختلفة
09:41
about what to do.
172
581555
1834
حول الذي ينبغي فعله.
09:43
Here's the setup.
173
583389
2022
هذه هي المسألة.
09:46
Hyowon is going to try to make the toy go and succeed.
174
586071
3030
ستحاول (هيوون) جعل اللعبة تعمل وستنجح في ذلك.
09:49
I am then going to try twice and fail both times,
175
589101
3320
وسأحاول أنا مرتين وأفشل في ذلك،
09:52
and then Hyowon is going to try again and succeed,
176
592421
3112
وستحاول (هيوون) مرة أخرى وتنجح في ذلك،
09:55
and this roughly sums up my relationship to my graduate students
177
595533
3172
وهذا يلخص نوعاً ما علاقتي بطلابي المتخرجين
09:58
in technology across the board.
178
598705
2835
في مجال التكنولوجيا مع الجميع.
10:02
But the important point here is it provides a little bit of evidence
179
602030
3292
لكن النقطة المهمة هنا هي تزويدها للأطفال بالقليل من الأدلة
10:05
that the problem isn't with the toy, it's with the person.
180
605322
3668
بأنه ليس هناك خطب في اللعبة بل في الشخص.
10:08
Some people can make this toy go,
181
608990
2350
بعض الناس يمكنهم تشغيل هذه اللعبة،
10:11
and some can't.
182
611340
959
والبعض لا.
10:12
Now, when the baby gets the toy, he's going to have a choice.
183
612799
3413
الآن، عندما يحصل الرضيع على اللعبة سيكون لديه الخيار.
10:16
His mom is right there,
184
616212
2188
والدته حاضرة هناك،
10:18
so he can go ahead and hand off the toy and change the person,
185
618400
3315
لذا يمكنه أخذ اللعبة وتقديمها لتغيير الشخص،
10:21
but there's also going to be another toy at the end of that cloth,
186
621715
3158
ولكن ستكون هناك لعبة أخرى أيضاً في نهاية ذلك القماش،
10:24
and he can pull the cloth towards him and change the toy.
187
624873
3552
ويمكنه سحب القماش نحوه وتغيير اللعبة.
10:28
So let's see what the baby does.
188
628425
2090
لذا دعونا نرى ماذا يفعل الرضيع.
10:30
(Video) HG: Two, three. Go! (Music)
189
630515
4183
(فيديو) هيوون: اثنان، ثلاثة، انطلق! (موسيقى)
10:34
LS: One, two, three, go!
190
634698
3131
لورا: واحد، اثنان، ثلاثة، انطلق!
10:37
Arthur, I'm going to try again. One, two, three, go!
191
637829
7382
آرثر، سأحاول مرة أخرى. واحد، اثنان، ثلاثة، انطلق!
10:45
YG: Arthur, let me try again, okay?
192
645677
2600
آرثر، دعني أحاول مرة أخرى، حسنا؟
10:48
One, two, three, go! (Music)
193
648277
4550
واحد، اثنان، ثلاثة، انطلق! (موسيقى)
10:53
Look at that. Remember these toys?
194
653583
1883
انظر إلى هذا. هل تذكر هذه الألعاب؟
10:55
See these toys? Yeah, I'm going to put this one over here,
195
655466
3264
هل ترى هذه الألعاب؟ سأضع واحدة هناك،
10:58
and I'm going to give this one to you.
196
658730
2062
وسأعطيك هذه.
11:00
You can go ahead and play.
197
660792
2335
يمكنك البدء في اللعب.
11:23
LS: Okay, Laura, but of course, babies love their mommies.
198
683213
4737
لورا: حسنا، يا لورا، بطبيعة الحال الرضع يحبون أمهاتهم.
11:27
Of course babies give toys to their mommies
199
687950
2182
ومن الطبيعي أن يقدم الرضع اللعب لهن
11:30
when they can't make them work.
200
690132
2030
عندما لا يستطيعون تشغيلها.
11:32
So again, the really important question is what happens when we change
201
692162
3593
ومرة اخرى، السؤال المهم بالفعل هو ما الذي يحدث عندما نغير
11:35
the statistical data ever so slightly.
202
695755
3154
المعطيات الإحصائية قليلاً.
11:38
This time, babies are going to see the toy work and fail in exactly the same order,
203
698909
4087
في هذا المرة، سيشهد الرضع على تشغيل اللعبة وتوقفها على التوالي،
11:42
but we're changing the distribution of evidence.
204
702996
2415
ولكن سنغير توزيع الأدلة.
11:45
This time, Hyowon is going to succeed once and fail once, and so am I.
205
705411
4411
في هذه المرة، ستنجح (هيوون) بتشغيلها مرة وتفشل مرة وكذلك أنا.
11:49
And this suggests it doesn't matter who tries this toy, the toy is broken.
206
709822
5637
والغرض من ذلك أنه لا يهم من يجرب تشغيل اللعبة، لكونها معطلة أصلاً.
11:55
It doesn't work all the time.
207
715459
1886
فهي لا تعمل بتاتاً.
11:57
Again, the baby's going to have a choice.
208
717345
1965
مجددًا، سيكون أمام الرضيعة الخيار.
11:59
Her mom is right next to her, so she can change the person,
209
719310
3396
ووالدتها بجانبها، لذا بإمكانها تغيير الشخص،
12:02
and there's going to be another toy at the end of the cloth.
210
722706
3204
وتوجد لعبة أخرى عند نهاية القماش.
12:05
Let's watch what she does.
211
725910
1378
دعونا نشاهد ماذا تفعل.
12:07
(Video) HG: Two, three, go! (Music)
212
727288
4348
(فيديو) هيوون: اثنان، ثلاثة، انطلق! (موسيقى)
12:11
Let me try one more time. One, two, three, go!
213
731636
4984
دعيني أحاول مرة أخرى. واحد، اثنان، ثلاثة، انطلق!
12:17
Hmm.
214
737460
1697
هممم.
12:19
LS: Let me try, Clara.
215
739950
2692
لورا: دعيني أحاول، كلارا.
12:22
One, two, three, go!
216
742642
3945
واحد، اثنان، ثلاثة، انطلق!
12:27
Hmm, let me try again.
217
747265
1935
همممم، دعيني أحاول مجددًا.
12:29
One, two, three, go! (Music)
218
749200
5670
واحد، اثنان، ثلاثة، انطلق! (موسيقى)
12:35
HG: I'm going to put this one over here,
219
755009
2233
هيوون: سأضع هذه هناك،
12:37
and I'm going to give this one to you.
220
757242
2001
وأعطيك هذه.
12:39
You can go ahead and play.
221
759243
3597
بإمكانك البدء باللعب.
12:58
(Applause)
222
778376
4897
(تصفيق)
13:04
LS: Let me show you the experimental results.
223
784993
2392
لورا: اسمحوا لي بعرض النتائج التجريبية.
13:07
On the vertical axis, you'll see the distribution
224
787385
2475
على المحور الرأسي، ستشاهدون توزيع
13:09
of children's choices in each condition,
225
789860
2577
خيارات الأطفال وفق كل حالة،
13:12
and you'll see that the distribution of the choices children make
226
792437
4551
وستلاحظون بأن توزيع الخيارات التي قام بها الأطفال
13:16
depends on the evidence they observe.
227
796988
2787
تتوقف على الأدلة التي لاحظوها.
13:19
So in the second year of life,
228
799775
1857
لذا في السنة الثانية،
13:21
babies can use a tiny bit of statistical data
229
801632
2577
يمكن للأطفال استخدام القليل من المعطيات الإحصائية
13:24
to decide between two fundamentally different strategies
230
804209
3367
ليختاورا بين استراتيجيتين مختلفتين جوهرياً
13:27
for acting in the world:
231
807576
1881
للتصرف في العالم حولهم:
13:29
asking for help and exploring.
232
809457
2743
كطلب المساعدة والاستكشاف.
13:33
I've just shown you two laboratory experiments
233
813700
3434
لقد عرضت عليكم للتو تجربتين مخبريتين
13:37
out of literally hundreds in the field that make similar points,
234
817134
3691
من بين المئات التي تتوصل إلى نتائج مماثلة في هذا مجال،
13:40
because the really critical point
235
820825
2392
لأن النقطة المهمة بالفعل
13:43
is that children's ability to make rich inferences from sparse data
236
823217
5108
هي أن قدرة الأطفال على الاستنتاج انطلاقاً من معطيات قليلة
13:48
underlies all the species-specific cultural learning that we do.
237
828325
5341
هي وراء كافة أنواع التعلم الثقافي الذي نقوم به.
13:53
Children learn about new tools from just a few examples.
238
833666
4597
الأطفال يتعلمون عن أدوات جديدة من أمثلة قليلة فقط.
13:58
They learn new causal relationships from just a few examples.
239
838263
4717
يتعلمون عن علاقات سببية جديدة من أمثلة قليلة فقط.
14:03
They even learn new words, in this case in American Sign Language.
240
843928
4871
ويتعلمون حتى كلمات جديدة، في هذه الحالة لغة الإشارة الأمريكية.
14:08
I want to close with just two points.
241
848799
2311
أريد أن أختم بنقطتين فقط.
14:12
If you've been following my world, the field of brain and cognitive sciences,
242
852050
3688
إذا كنتم متابعين لعالَمي، مجال علوم الدماغ والإدراك،
14:15
for the past few years,
243
855738
1927
خلال السنوات القليلة الماضية،
14:17
three big ideas will have come to your attention.
244
857665
2415
فإن ثلاث أفكار كبيرة ستلفت انتباهكم.
14:20
The first is that this is the era of the brain.
245
860080
3436
الأولى، أن هذا هو مجال الدماغ.
14:23
And indeed, there have been staggering discoveries in neuroscience:
246
863516
3669
والواقع، كانت هناك اكتشافات مذهلة في علم الأعصاب:
14:27
localizing functionally specialized regions of cortex,
247
867185
3436
كتحديد موقع مناطق متخصصة وظيفياً بالقشرة،
14:30
turning mouse brains transparent,
248
870621
2601
وجعل دماغ فأر يصبح شفافاً،
14:33
activating neurons with light.
249
873222
3776
وتفعيل الخلايا العصبية بواسطة الضوء.
14:36
A second big idea
250
876998
1996
الفكرة الثانية الكبيرة
14:38
is that this is the era of big data and machine learning,
251
878994
4104
هو أنه عهد البيانات الضخمة والتعلم الآلي،
14:43
and machine learning promises to revolutionize our understanding
252
883098
3141
ويعد التعلم الآلي بإحداث ثورة في مفهومنا
14:46
of everything from social networks to epidemiology.
253
886239
4667
حول كل شيء انطلاقاً من شبكات التواصل الاجتماعي.
14:50
And maybe, as it tackles problems of scene understanding
254
890906
2693
وربما، لكونه يتناول مشاكل فهم المشهد
14:53
and natural language processing,
255
893599
1993
ومعالجة اللغة الطبيعية،
14:55
to tell us something about human cognition.
256
895592
3324
لتخبرنا بشيء حول الإدراك البشري.
14:59
And the final big idea you'll have heard
257
899756
1937
والفكرة الختامية الكبيرة التي ستسمعونها
15:01
is that maybe it's a good idea we're going to know so much about brains
258
901693
3387
أنه ربما ستكون فكرة جيدة التعرف أكثر على الدماغ
15:05
and have so much access to big data,
259
905080
1917
والوصول بهذا الشكل إلى المعطيات الضخمة،
15:06
because left to our own devices,
260
906997
2507
لأنه إذا تُرِكْنَا لأجهزتنا،
15:09
humans are fallible, we take shortcuts,
261
909504
3831
فإن البشر مُعرضون لخطأ، ونحن نختصر،
15:13
we err, we make mistakes,
262
913335
3437
ونضل، ونخطئ،
15:16
we're biased, and in innumerable ways,
263
916772
3684
ومتحيزين، بطرق لا تعد ولا تحصى،
15:20
we get the world wrong.
264
920456
2969
ونفهم العالم بشكل خاطئ.
15:24
I think these are all important stories,
265
924843
2949
وأعتقد بأن جميعها قصص مهمة،
15:27
and they have a lot to tell us about what it means to be human,
266
927792
3785
ولديهم الكثير ليخبرونا به حول معنى أن نكون بشر،
15:31
but I want you to note that today I told you a very different story.
267
931577
3529
لكن أريدكم أن تلاحظوا بأني أخبرتكم اليوم بقصة مختلفة جداً.
15:35
It's a story about minds and not brains,
268
935966
3807
قصة حول العقل وليس الدماغ،
15:39
and in particular, it's a story about the kinds of computations
269
939773
3006
ولاسيما، قصة حول أنواع العمليات الحسابية
15:42
that uniquely human minds can perform,
270
942779
2590
التي بإمكان العقل البشري وحده تنفيذها،
15:45
which involve rich, structured knowledge and the ability to learn
271
945369
3944
والتي تتطلب معارف غنية وبنيوية وقدرة على التعلم
15:49
from small amounts of data, the evidence of just a few examples.
272
949313
5268
انطلاقاً من معطيات قليلة، وأدلة عن بضعة أمثلة.
15:56
And fundamentally, it's a story about how starting as very small children
273
956301
4299
وهي في الأساس قصة حول كيفية البدء كطفل صغير جداً
16:00
and continuing out all the way to the greatest accomplishments
274
960600
4180
والاستمرار في السير على الطريق للوصول إلى أعظم إنجازات
16:04
of our culture,
275
964780
3843
ثقافتنا،
16:08
we get the world right.
276
968623
1997
وهي الفهم الصحيح للعالم.
16:12
Folks, human minds do not only learn from small amounts of data.
277
972433
5267
فالعقل البشري لا يتعلم فقط من كميات صغيرة من المعطيات.
16:18
Human minds think of altogether new ideas.
278
978285
2101
بل إنه يخلق أيضاً أفكار جديدة.
16:20
Human minds generate research and discovery,
279
980746
3041
فالعقل البشري يولد البحوث والاكتشافات،
16:23
and human minds generate art and literature and poetry and theater,
280
983787
5273
وكذلك الفن والأدب والشعر والمسرح،
16:29
and human minds take care of other humans:
281
989070
3760
كما أنه يعتني بغيره من البشر:
16:32
our old, our young, our sick.
282
992830
3427
بكبيرنا، وصغيرنا، ومريضنا.
16:36
We even heal them.
283
996517
2367
بل إننا نُطَبِّبُهُم،
16:39
In the years to come, we're going to see technological innovations
284
999564
3103
وخلال السنوات القادمة، سنشهد ابتكارات تقنية
16:42
beyond anything I can even envision,
285
1002667
3797
تتخطى كل ما أستطيع تصوره،
16:46
but we are very unlikely
286
1006464
2150
لكن من غير المحتمل
16:48
to see anything even approximating the computational power of a human child
287
1008614
5709
أن تقترب من القوة الحسابية للطفل البشري
16:54
in my lifetime or in yours.
288
1014323
4298
سواء في حياتي أو في حياتكم.
16:58
If we invest in these most powerful learners and their development,
289
1018621
5047
إذا استثمرنا في هؤلاء المتعلمين النجباء وتنمية قدراتهم،
17:03
in babies and children
290
1023668
2917
في الرضع والأطفال
17:06
and mothers and fathers
291
1026585
1826
والأمهات والأباء
17:08
and caregivers and teachers
292
1028411
2699
ومقدمي الرعاية والمعلمين
17:11
the ways we invest in our other most powerful and elegant forms
293
1031110
4170
فبناءً على الطرق التي نستثمر بها في أقوى وأجمل الأشكال
17:15
of technology, engineering and design,
294
1035280
3218
التقنية والهندسية والتصميمية التي لدينا،
17:18
we will not just be dreaming of a better future,
295
1038498
2939
فلن نكون فقط نحلم بمستقبل أفضل،
17:21
we will be planning for one.
296
1041437
2127
بل سنكون بدأنا بالتخطيط له.
17:23
Thank you very much.
297
1043564
2345
شكراً جزيلاً لكم .
17:25
(Applause)
298
1045909
3421
(تصفيق)
17:29
Chris Anderson: Laura, thank you. I do actually have a question for you.
299
1049810
4426
كريس اندرسون: لورا، شكرا لك. الحقيقة لدي سؤال من أجلك.
17:34
First of all, the research is insane.
300
1054236
2359
في البداية، هذا بحث غير معقول.
17:36
I mean, who would design an experiment like that? (Laughter)
301
1056595
3725
أعني، من صمم تجربة من هذا القبيل؟ (ضحك)
17:41
I've seen that a couple of times,
302
1061150
1790
رأيت هذا بضع مرات،
17:42
and I still don't honestly believe that that can truly be happening,
303
1062940
3222
بصراحة، مازالت لا أصدق أن هذا يحدث حقا،
17:46
but other people have done similar experiments; it checks out.
304
1066162
3158
ولكن هناك أشخاص آخرين قاموا بتجارب مماثلة. والنتيجة متشابهة.
17:49
The babies really are that genius.
305
1069320
1633
بالفعل، إن الرضع عباقرة.
17:50
LS: You know, they look really impressive in our experiments,
306
1070953
3007
لورا: أتعلم، إنهم حقاً يثيرون الإعجاب في تجاربنا،
17:53
but think about what they look like in real life, right?
307
1073960
2652
ولك أن تتخيل ما يفعلونه في الحياة الواقعية، صحيح؟
17:56
It starts out as a baby.
308
1076612
1150
يبدأ كرضيع.
17:57
Eighteen months later, it's talking to you,
309
1077762
2007
وبعد 18 شهرا، يتحدث معك،
17:59
and babies' first words aren't just things like balls and ducks,
310
1079769
3041
والكلمات الأولى للرضع ليست فقط كرات وبط،
18:02
they're things like "all gone," which refer to disappearance,
311
1082810
2881
بل أشياء مثل "لقد ذهبت" كإشارة على الاختفاء،
18:05
or "uh-oh," which refer to unintentional actions.
312
1085691
2283
أو "أو-أو" للإشارة إلى أحداث غير مقصودة،
18:07
It has to be that powerful.
313
1087974
1562
عليها أن تكون قوية.
18:09
It has to be much more powerful than anything I showed you.
314
1089536
2775
بل أكثر قوة من أي شيء أريتكم إياه.
18:12
They're figuring out the entire world.
315
1092311
1974
إنهم يفهمون العالم بأكمله.
18:14
A four-year-old can talk to you about almost anything.
316
1094285
3144
بل يمكن لطفل في الرابعة من عمره أن يحدثك تقريباً عن كل شيء.
18:17
(Applause)
317
1097429
1601
(تصفيق)
18:19
CA: And if I understand you right, the other key point you're making is,
318
1099030
3414
كريس: إن كان فهمي صحيحاً. أنت تهتمين بنقطة مهمة و هي
18:22
we've been through these years where there's all this talk
319
1102444
2754
بأننا تحدثنا كثيراً خلال السنوات الأخيرة
18:25
of how quirky and buggy our minds are,
320
1105198
1932
حول مدى حماقة و شذوذعقولنا،
18:27
that behavioral economics and the whole theories behind that
321
1107130
2867
وأن الاقتصاد السلوكي وجميع نظرياتها التي
18:29
that we're not rational agents.
322
1109997
1603
تؤكد بأننا لسنا عوامل عقلانية.
18:31
You're really saying that the bigger story is how extraordinary,
323
1111600
4216
فإنك تؤكدين على روعة هذه القصة العظيمة،
18:35
and there really is genius there that is underappreciated.
324
1115816
4944
أن هناك بالفعل نبوغ لم يقدر حق تقديره.
18:40
LS: One of my favorite quotes in psychology
325
1120760
2070
لورا: من المقولات المفضلة لدي بعلم النفس
18:42
comes from the social psychologist Solomon Asch,
326
1122830
2290
هي لعالم النفس الاجتماعي (سلومون اش)،
18:45
and he said the fundamental task of psychology is to remove
327
1125120
2807
ويقول: الدورالأساسي لعلم النفس هو رفع
18:47
the veil of self-evidence from things.
328
1127927
2626
حجاب الأدلة القائمة بحد ذاتها عن الأمور.
18:50
There are orders of magnitude more decisions you make every day
329
1130553
4551
هناك أوامر عظيمة والمزيد من القرارات التي تقومون بها يومياً
18:55
that get the world right.
330
1135104
1347
لفهم العالم بشكل صحيح
18:56
You know about objects and their properties.
331
1136451
2132
فتعرف الأشياء وخصائصها.
18:58
You know them when they're occluded. You know them in the dark.
332
1138583
3029
تعرفها عندما تكون مخبأة أو في الظلام.
19:01
You can walk through rooms.
333
1141612
1308
وتتمكن من عبور الغرف.
19:02
You can figure out what other people are thinking. You can talk to them.
334
1142920
3532
ومعرفة ما يفكر فيه الآخرون. والحديث معهم.
19:06
You can navigate space. You know about numbers.
335
1146452
2230
يمكنك السفر في الفضاء ومعرفة الأرقام.
19:08
You know causal relationships. You know about moral reasoning.
336
1148682
3022
ومعرفة العلاقات السببية والاستدلال الأخلاقي.
19:11
You do this effortlessly, so we don't see it,
337
1151704
2356
ولأنك تقوم بذلك بدون عناء، فإننا لا نلاحظ ذلك،
19:14
but that is how we get the world right, and it's a remarkable
338
1154060
2912
لكن هكذا نفهم العالم بشكل صحيح، وهذا مدهش
19:16
and very difficult-to-understand accomplishment.
339
1156972
2318
وصعب جدًا لفهمه.
19:19
CA: I suspect there are people in the audience who have
340
1159290
2628
كريس: أفترض أن هناك أشخاص من الحضور
19:21
this view of accelerating technological power
341
1161918
2238
يعتقدون بتسريع القوة التقنية
19:24
who might dispute your statement that never in our lifetimes
342
1164156
2958
وقد يعترضون على تصريحك بأن الحاسوب لن يتمكن في حياتنا
19:27
will a computer do what a three-year-old child can do,
343
1167114
2618
من فعل ما يقوم به طفل في الثالثه من عمره،
19:29
but what's clear is that in any scenario,
344
1169732
3248
لكن من الواضح أنه بغض النظر عن أي سيناريو متوقع،
19:32
our machines have so much to learn from our toddlers.
345
1172980
3770
فإن على آلاتنا تعلم الكثير من أطفالنا.
19:38
LS: I think so. You'll have some machine learning folks up here.
346
1178230
3216
لورا: صحيح. ستستقبلون هنا بعض القائلين بتعليم الآلة بالطبع.
19:41
I mean, you should never bet against babies or chimpanzees
347
1181446
4203
أعني، لا ينبغي عليكم أبداً الرهان ضد الرضع أو الشمبانزي
19:45
or technology as a matter of practice,
348
1185649
3645
أو التقنية كمجال تطبيقي،
19:49
but it's not just a difference in quantity,
349
1189294
4528
لكن الأمر ليس فقط مجرد فارق في الكمية،
19:53
it's a difference in kind.
350
1193822
1764
بل هو فارق في النوع.
19:55
We have incredibly powerful computers,
351
1195586
2160
لدينا حواسيب قوية بشكل لا يصدق،
19:57
and they do do amazingly sophisticated things,
352
1197746
2391
وتقوم بأمور معقدة بشكل مدهش،
20:00
often with very big amounts of data.
353
1200137
3204
غالباً مع معطيات بحجم ضخم.
20:03
Human minds do, I think, something quite different,
354
1203341
2607
أما العقل البشري، فأعتقد، أنه يقوم بأمر مختلف تماماً،
20:05
and I think it's the structured, hierarchical nature of human knowledge
355
1205948
3895
وأعتقد أن ذلك بفضل المعرفة البشرية ذات الطبيعة التراتبية
20:09
that remains a real challenge.
356
1209843
2032
التي تشكل حتى الآن تحدياً حقيقياً لنا.
20:11
CA: Laura Schulz, wonderful food for thought. Thank you so much.
357
1211875
3061
كريس: لورا شولز، كان ذلك غذاء رائع للفكر. شكراً جزيلاً لك.
20:14
LS: Thank you. (Applause)
358
1214936
2922
لورا: شكراً (تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7