Laura Schulz: The surprisingly logical minds of babies

225,846 views ・ 2015-06-02

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Masood Zeinoghli Reviewer: Ali Fatemi
00:12
Mark Twain summed up what I take to be
0
12835
2155
مارک تواین یکی از پایه‌ای ترین مشکلات
00:14
one of the fundamental problems of cognitive science
1
14990
3120
موجود در علوم شناختی را در یک جمله
00:18
with a single witticism.
2
18110
1710
خلاصه کرده‌است.
00:20
He said, "There's something fascinating about science.
3
20410
3082
او می‌گوید: "چیزی شگفت انگیز در مورد علم وجود دارد.
00:23
One gets such wholesale returns of conjecture
4
23492
3228
فرد حدس‌های بسیار عمده‌ای می‌زند،
00:26
out of such a trifling investment in fact."
5
26720
3204
تنها با سرمایه‌گذاری ناچیزی در حقایق."
00:29
(Laughter)
6
29924
1585
(خنده‌ی حضار)
00:32
Twain meant it as a joke, of course, but he's right:
7
32199
2604
تواین این را به عنوان یک شوخی مطرح کرد، اما او درست می‌گفت:
00:34
There's something fascinating about science.
8
34803
2876
علم ویژگی شگفت انگیزی دارد.
00:37
From a few bones, we infer the existence of dinosuars.
9
37679
4261
با دیدن چند تکه استخوان، ما وجود دایناسور‌ها را استنباط کردیم.
00:42
From spectral lines, the composition of nebulae.
10
42910
3871
با دیدن خط طیف نوری، ترکیب یک سحابی را مشخص می‌سازیم.
00:47
From fruit flies,
11
47471
2938
از کرم‌های میوه،
00:50
the mechanisms of heredity,
12
50409
2943
به مکانیزم وراثت پی می‌بریم،
00:53
and from reconstructed images of blood flowing through the brain,
13
53352
4249
و از تصاویر بازسازی شده‌ی حرکت خون در داخل مغز
00:57
or in my case, from the behavior of very young children,
14
57601
4708
یا در مورد من، با استفاده از رفتار کودکان بسیار کوچک
01:02
we try to say something about the fundamental mechanisms
15
62309
2829
تلاش می‌کنیم نظراتی در مورد پایه‌های اساسی مکانیزم
01:05
of human cognition.
16
65138
1618
شناخت انسان ارائه کنیم.
01:07
In particular, in my lab in the Department of Brain and Cognitive Sciences at MIT,
17
67716
4759
به طور خاص، در آزمایشگاه من در بخش مغز و علوم شناختی در دانشگاه MIT
01:12
I have spent the past decade trying to understand the mystery
18
72475
3654
دهه‌ی گذشته را صرفِ تلاش برای فهم این راز که
01:16
of how children learn so much from so little so quickly.
19
76129
3977
کودکان چگونه اینقدر زیاد و با این سرعت از چیزهای کم یاد می‌گیرند.
01:20
Because, it turns out that the fascinating thing about science
20
80666
2978
زیرا اینطور که مشخص است، موضوع شگفت انگیز در مورد علم
01:23
is also a fascinating thing about children,
21
83644
3529
موضوع شگفت انگیز در مورد کودکان نیز هست.
01:27
which, to put a gentler spin on Mark Twain,
22
87173
2581
که در واقع، با بیان ملایم‌تر جمله مارک تواین،
01:29
is precisely their ability to draw rich, abstract inferences
23
89754
4650
دقیقا توانایی آن‌ها برای دریافتی عمیق و انتزاعی
01:34
rapidly and accurately from sparse, noisy data.
24
94404
4661
با سرعت و دقت بالا از داده‌های پراکنده و پر نویز می‌باشد.
01:40
I'm going to give you just two examples today.
25
100355
2398
من امروز تنها دو نمونه به شما ارائه خواهم داد.
01:42
One is about a problem of generalization,
26
102753
2287
یکی در مورد مشکل تعمیم،
01:45
and the other is about a problem of causal reasoning.
27
105040
2850
و دیگری در مورد یک مشکل در رابطه با علت و معلول است.
01:47
And although I'm going to talk about work in my lab,
28
107890
2525
و اگرچه من در مورد کار در آزمایشگاه خودم سخن می‌گویم،
01:50
this work is inspired by and indebted to a field.
29
110415
3460
این کار الهام گرفته و مدیون یک رشته است.
01:53
I'm grateful to mentors, colleagues, and collaborators around the world.
30
113875
4283
من از مربیان، همکاران و مشارکت کنندگان در سراسر دنیا متشکرم.
01:59
Let me start with the problem of generalization.
31
119308
2974
اجازه دهید با مشکل تعمیم شروع کنم.
02:02
Generalizing from small samples of data is the bread and butter of science.
32
122652
4133
تعمیم با استفاده از نمونه‌های کوچکی از داده‌ها یکی از مسائل اصلی در علم است.
02:06
We poll a tiny fraction of the electorate
33
126785
2554
ما از بخش کوچکی از رای‌دهندگان نظرسنجی می‌کنیم
02:09
and we predict the outcome of national elections.
34
129339
2321
و نتیجه‌ی انتخابات ملی را پیش‌بینی می‌کنیم.
02:12
We see how a handful of patients responds to treatment in a clinical trial,
35
132240
3925
ما می‌بینیم که چگونه دسته کوچکی از بیماران به درمانی در یک آزمایش واکنش نشان می‌دهند
02:16
and we bring drugs to a national market.
36
136165
3065
و سپس دارو را در بازار ملی عرضه می‌کنیم.
02:19
But this only works if our sample is randomly drawn from the population.
37
139230
4365
اما این موضوع زمانی صحیح است که نمونه‌ها به‌صورت تصادفی از جمعیت انتخاب شده‌ باشد.
02:23
If our sample is cherry-picked in some way --
38
143595
2735
اگر نمونه ما دستچین شده باشد --
02:26
say, we poll only urban voters,
39
146330
2072
مثلاً، تنها از شهرنشینان نظرسنجی کنیم،
02:28
or say, in our clinical trials for treatments for heart disease,
40
148402
4388
یا در آزمایش‌های کلینیکی برای درمان بیماری‌های قلبی،
02:32
we include only men --
41
152790
1881
تنها مردان را در نظر بگیریم --
02:34
the results may not generalize to the broader population.
42
154671
3158
ممکن است نتایج قابل تعمیم به جمعیت وسیع‌تر نباشند.
02:38
So scientists care whether evidence is randomly sampled or not,
43
158479
3581
به‌همین دلیل دانشمندان به تصادفی انتخاب شدن نمونه‌ها دقت می‌کنند.
02:42
but what does that have to do with babies?
44
162060
2015
ولی این موضوع چه ربطی به کودکان دارد؟
02:44
Well, babies have to generalize from small samples of data all the time.
45
164585
4621
خب، کودکان همواره باید نمونه‌های کمی از داده‌ها را تعمیم دهند.
02:49
They see a few rubber ducks and learn that they float,
46
169206
3158
چند اردک پلاستیکی می‌بینند و یاد می‌گیرند که آنها شناور می‌مانند.
02:52
or a few balls and learn that they bounce.
47
172364
3575
یا چند توپ می‌بینند و یاد‌ می‌گیرند که آن‌ها بالا و پایین می‌پرند.
02:55
And they develop expectations about ducks and balls
48
175939
2951
و آن‌ها در مورد اردک‌ها و توپ‌ها انتظاراتی پیدا می‌کنند
02:58
that they're going to extend to rubber ducks and balls
49
178890
2716
که به سایر اردک‌های پلاستیکی و توپ‌ها
03:01
for the rest of their lives.
50
181606
1879
در مابقی عمرشان گسترش پیدا می‌کند.
03:03
And the kinds of generalizations babies have to make about ducks and balls
51
183485
3739
و کودکان این نوع تعمیم در مورد اردک‌‌ها و توپ‌ها را
03:07
they have to make about almost everything:
52
187224
2089
باید تقریبا در مورد همه چیز انجام دهند:
03:09
shoes and ships and sealing wax and cabbages and kings.
53
189313
3917
کفش، کشتی، موم و کلم و پادشاه‌‌ها.
03:14
So do babies care whether the tiny bit of evidence they see
54
194200
2961
بنابراین آیا برای کودکان مهم است که این مقدار کمی از شواهد که می‌بینند
03:17
is plausibly representative of a larger population?
55
197161
3692
می‌تواند بیا‌ن‌کننده جمعیت بزرگتری باشد؟
03:21
Let's find out.
56
201763
1900
بیاید بررسی کنیم.
03:23
I'm going to show you two movies,
57
203663
1723
من به شما دو فیلم نشان خواهم داد.
03:25
one from each of two conditions of an experiment,
58
205386
2462
هریک بیان‌کننده یکی از دو حالت آزمایش می‌باشد
03:27
and because you're going to see just two movies,
59
207848
2438
و چون شما تنها دو قطعه فیلم می‌بینید،
03:30
you're going to see just two babies,
60
210286
2136
تنها دو کودک نیز خواهید دید،
03:32
and any two babies differ from each other in innumerable ways.
61
212422
3947
و هر دو کودکی تفاوت‌های بسیار زیادی با یکدیگر دارند.
03:36
But these babies, of course, here stand in for groups of babies,
62
216369
3051
ولی در این بخش، این دو کودک هریک نماینده یک گروه کودکان هستند،
03:39
and the differences you're going to see
63
219420
1895
و تفاوت‌هایی که شما خواهید دید
03:41
represent average group differences in babies' behavior across conditions.
64
221315
5195
میانگین تفاوت‌های رفتاری بین گروه‌های کودکان را، در این شرایط نشان می‌دهد.
03:47
In each movie, you're going to see a baby doing maybe
65
227160
2583
در هر فیلم، شما می‌بینید که یک کودک احتمالاً
03:49
just exactly what you might expect a baby to do,
66
229743
3460
دقیقاً همان‌کاری را می‌کند که از یک کودک انتظار داریم
03:53
and we can hardly make babies more magical than they already are.
67
233203
4017
و ما نمی‌توانیم یک کودک را بیش از مقداری که اکنون جادویی است، جادویی کنیم.
03:58
But to my mind the magical thing,
68
238090
2010
ولی در ذهن من چیز جادویی،
04:00
and what I want you to pay attention to,
69
240100
2089
و چیزی که من می‌خواهم شما به آن دقت کنید،
04:02
is the contrast between these two conditions,
70
242189
3111
تضاد بین این دو حالت است،
04:05
because the only thing that differs between these two movies
71
245300
3529
زیرا تنها چیزی که بین این دو فیلم تفاوت دارد
04:08
is the statistical evidence the babies are going to observe.
72
248829
3466
شواهد آماری‌ ایست که دو کودک مشاهده خواهند کرد.
04:13
We're going to show babies a box of blue and yellow balls,
73
253425
3183
ما به کودکان یک جعبه شامل توپ‌های آبی و زرد نشان خواهیم داد،
04:16
and my then-graduate student, now colleague at Stanford, Hyowon Gweon,
74
256608
4620
و همکار من 'هیوان گوان' که در آن زمان از استنفورد فارغ‌التحصیل شده بود،
04:21
is going to pull three blue balls in a row out of this box,
75
261228
3077
از این جعبه سه توپ آبی پشت سرهم بیرون خواهد آورد،
04:24
and when she pulls those balls out, she's going to squeeze them,
76
264305
3123
و وقتی که آن توپ‌ها را بیرون بیاورد، آن‌ها را فشار خواهد داد و
04:27
and the balls are going to squeak.
77
267428
2113
و توپ‌ها صدا می‌دهند.
04:29
And if you're a baby, that's like a TED Talk.
78
269541
2763
و اگر یک بچه باشید، مثل یک صحبت در تد است
04:32
It doesn't get better than that.
79
272304
1904
از اون بهتر نمی‌شود.
04:34
(Laughter)
80
274208
2561
(خنده‌ی حضار)
04:38
But the important point is it's really easy to pull three blue balls in a row
81
278968
3659
اما نکته‌ی مهم این است که بسیار آسان است که ۳ توپ آبی پشت سر هم از
04:42
out of a box of mostly blue balls.
82
282627
2305
یک جعبه که اکثر توپ‌هایش آبی است در آورد.
04:44
You could do that with your eyes closed.
83
284932
2060
میشه با چشمان بسته این کار را کرد.
04:46
It's plausibly a random sample from this population.
84
286992
2996
این یک نمونه‌ی تصادفی محتمل از این جامعه‌ی آماری است.
04:49
And if you can reach into a box at random and pull out things that squeak,
85
289988
3732
و اگر بتوان از داخل جعبه به صورت اتفاقی چیزهایی درآورد که صدا می‌دهند،
04:53
then maybe everything in the box squeaks.
86
293720
2839
پس شاید تمام چیزهایی که درون جعبه هستند صدا می‌دهند.
04:56
So maybe babies should expect those yellow balls to squeak as well.
87
296559
3650
پس شاید کودکان باید انتظار داشته باشند که توپ‌های زرد هم صدا بدهند.
05:00
Now, those yellow balls have funny sticks on the end,
88
300209
2519
آن توپ‌های زرد، دسته های با مزه‌ای دارند که
05:02
so babies could do other things with them if they wanted to.
89
302728
2857
کودکان اگر بخواهند می‌توانند کارهای دیگری با آن‌ها انجام دهند
05:05
They could pound them or whack them.
90
305585
1831
می‌توانند آن‌ها را تکان بدهند یا با آن‌ها ضربه بزنند.
05:07
But let's see what the baby does.
91
307416
2586
اما بیاید ببینیم که کودک چکار می‌کند.
05:12
(Video) Hyowon Gweon: See this? (Ball squeaks)
92
312548
3343
(ویدیو) هیوان گوان: اینو می‌بینی؟ (توپ صدا می‌دهد)
05:16
Did you see that? (Ball squeaks)
93
316531
3045
اونو دیدی؟ (توپ صدا می‌دهد)
05:20
Cool.
94
320036
3066
باحاله.
05:24
See this one?
95
324706
1950
اینو می‌بینی؟
05:26
(Ball squeaks)
96
326656
1881
(توپ صدا می‌دهد)
05:28
Wow.
97
328537
2653
اووه
05:33
Laura Schulz: Told you. (Laughs)
98
333854
2113
لارا شولز: بهتون گفتم (خنده)
05:35
(Video) HG: See this one? (Ball squeaks)
99
335967
4031
(ویدیو) هیوان: اینو میبینی؟ (توپ صدا می‌دهد)
05:39
Hey Clara, this one's for you. You can go ahead and play.
100
339998
4619
کلارا، این مالِ توعه. می‌تونی باهاش بازی کنی.
05:51
(Laughter)
101
351854
4365
(خنده‌ی حضار)
05:56
LS: I don't even have to talk, right?
102
356219
2995
لارا: نیازی نیست صحبت کنم، درسته؟
05:59
All right, it's nice that babies will generalize properties
103
359214
2899
خیلی خوب، خوبه که بچه‌ها خصوصیات مربوط به
06:02
of blue balls to yellow balls,
104
362113
1528
توپ‌های آبی را به توپ‌های زرد تعمیم می‌دهند
06:03
and it's impressive that babies can learn from imitating us,
105
363641
3096
و چشمگیر است که بچه‌ها با تقلید از ما یاد می‌گیرند
06:06
but we've known those things about babies for a very long time.
106
366737
3669
اما ما این چیزها را در مورد بچه‌ها از زمان‌های گذشته می‌دانیم.
06:10
The really interesting question
107
370406
1811
سوال بسیار جالب این است که
06:12
is what happens when we show babies exactly the same thing,
108
372217
2852
وقتی دقیقا چیز مشابه را به بچه‌ها نشان می‌دهیم
06:15
and we can ensure it's exactly the same because we have a secret compartment
109
375069
3611
و ما می‌توانیم مطمئن باشیم که دقیقا مشابه است چون یك محفظه‌ی مخفی داریم
06:18
and we actually pull the balls from there,
110
378680
2110
و ما در واقع توپ‌ها را از آن خارج می‌کنیم،
06:20
but this time, all we change is the apparent population
111
380790
3478
اما این بار، تنها چیزی که تغییر می‌دهیم ظاهر جمعیت آماری است که
06:24
from which that evidence was drawn.
112
384268
2902
شواهد از آن خارج می‌شود.
06:27
This time, we're going to show babies three blue balls
113
387170
3553
این بار، به کودکان سه توپ آبی نشان می‌دهیم که
06:30
pulled out of a box of mostly yellow balls,
114
390723
3384
از جعبه‌ای که اکثر توپ‌هایش زرد است خارج می‌شوند.
06:34
and guess what?
115
394107
1322
و حدس بزنید که چه اتفاقی می‌افتد؟
06:35
You [probably won't] randomly draw three blue balls in a row
116
395429
2840
نمیتوان به صورت اتفاقی پشت سرهم ۳ توپ آبی
06:38
out of a box of mostly yellow balls.
117
398269
2484
از جعبه‌ای که اکثر توپ‌هایش زرد است خارج کرد
06:40
That is not plausibly randomly sampled evidence.
118
400753
3747
آن شواهدی محتمل از نمونه‌ی انتخابی نیست.
06:44
That evidence suggests that maybe Hyowon was deliberately sampling the blue balls.
119
404500
5123
آن شواهد حاکی از آن است که شاید هیوان عمدا توپ‌های آبی را انتخاب می‌کرده است.
06:49
Maybe there's something special about the blue balls.
120
409623
2583
شاید چیز خاصی در مورد توپ‌های آبی وجود دارد.
06:52
Maybe only the blue balls squeak.
121
412846
2976
شاید فقط توپ‌های آبی صدا می‌دهند.
06:55
Let's see what the baby does.
122
415822
1895
بیاید ببینیم کودک چکار می‌کند.
06:57
(Video) HG: See this? (Ball squeaks)
123
417717
2904
(ویدیو) هیوان: اینو می‌بینی؟ (توپ صدا می‌دهد)
07:02
See this toy? (Ball squeaks)
124
422851
2645
این اسباب بازی رو می‌بینی؟ (توپ صدا می‌دهد)
07:05
Oh, that was cool. See? (Ball squeaks)
125
425496
5480
اوه، چقدر باحال بود. می‌بینی؟ (توپ صدا می‌دهد)
07:10
Now this one's for you to play. You can go ahead and play.
126
430976
4394
این برای توعه که بازی کنی. میتونی بازی کنی.
07:18
(Fussing) (Laughter)
127
438074
6347
(نق زدن) (خنده‌ی حضار)
07:26
LS: So you just saw two 15-month-old babies
128
446901
2748
لورا: شما دو کودک ۱۵ ماهه را دیدید که
07:29
do entirely different things
129
449649
1942
کارهای کاملا متفاوتی انجام دادند
07:31
based only on the probability of the sample they observed.
130
451591
3599
تنها براساس احتمال نمونه‌ای که مشاهده کردند.
07:35
Let me show you the experimental results.
131
455190
2321
اجازه بدید نتایج آزمایشگاهی را به شما نشان دهم
07:37
On the vertical axis, you'll see the percentage of babies
132
457511
2764
بر روی محور عمودی درصد کودکانی را که
07:40
who squeezed the ball in each condition,
133
460275
2530
در هر حالت توپ را فشار دادند مشاهده می‌کنید
07:42
and as you'll see, babies are much more likely to generalize the evidence
134
462805
3715
و همین‌طور که مشاهده می‌کنید، کودکان بسیار بیشتر احتمال دارد که شواهد را تعمیم دهند
07:46
when it's plausibly representative of the population
135
466520
3135
وقتی که نمونه‌ی محتملی از جمعیت آماری را می‌بینند
07:49
than when the evidence is clearly cherry-picked.
136
469655
3738
در مقابل زمانی که شواهد به وضوح دستچین شده‌اند
07:53
And this leads to a fun prediction:
137
473393
2415
و این به یک پیش‌بینی جالب منجر می‌شود:
07:55
Suppose you pulled just one blue ball out of the mostly yellow box.
138
475808
4868
فرض کنید فقط یک توپ آبی از جعبه‌ای که اکثر توپ‌هایش زرد است خارج کنیم.
08:00
You [probably won't] pull three blue balls in a row at random out of a yellow box,
139
480896
3869
نمی‌شود پشت سرهم ۳ توپ آبی از جعبه‌ی پر از توپ‌های زرد خارج کرد،
08:04
but you could randomly sample just one blue ball.
140
484765
2455
اما ممکن است که فقط یک توپ آبی به صورت اتفاقی خارج کرد.
08:07
That's not an improbable sample.
141
487220
1970
آن یک نمونه‌ی غیر محتمل نیست.
08:09
And if you could reach into a box at random
142
489190
2224
و اگر بشود به صورت اتفاقی از داخل جعبه شئ ای
08:11
and pull out something that squeaks, maybe everything in the box squeaks.
143
491414
3987
خارج کرد که صدا می‌دهد، شاید همه‌ی اشیای درون جعبه صدا می‌دهند.
08:15
So even though babies are going to see much less evidence for squeaking,
144
495875
4445
پس با وجود اینکه کودکان شواهد کمتری از صدا دادن خواهند دید،
08:20
and have many fewer actions to imitate
145
500320
2242
و فعالیت‌های کمتری برای تقلید دارند
08:22
in this one ball condition than in the condition you just saw,
146
502562
3343
در این حالت با یک توپ در مقایسه با حالتی که دیدید،
08:25
we predicted that babies themselves would squeeze more,
147
505905
3892
ما پیشبینی کردیم که بچه‌ها بیشتر توپ را فشار می‌دهند،
08:29
and that's exactly what we found.
148
509797
2894
و این دقیقا چیزی است که پیدا کردیم.
08:32
So 15-month-old babies, in this respect, like scientists,
149
512691
4411
پس کودکان ۱۵ ماهه در این موضوع، مانند دانشمندان،
08:37
care whether evidence is randomly sampled or not,
150
517102
3088
اهمیت می‌دهند که آیا نمونه اتفاقی است یا نه،
08:40
and they use this to develop expectations about the world:
151
520190
3507
و آن‌ها از این استفاده می‌کنند تا انتظاراتی از دنیا شکل دهند:
08:43
what squeaks and what doesn't,
152
523697
2182
چه چیزی صدا می‌دهد و چه چیزی صدا نمی‌دهد،
08:45
what to explore and what to ignore.
153
525879
3145
چه چیز را کاوش کنند و از چه چیز چشم‌پوشی کنند.
08:50
Let me show you another example now,
154
530384
2066
اجازه بدید یک مثال دیگه به شما نشان دهم،
08:52
this time about a problem of causal reasoning.
155
532450
2730
این بار درباره‌ی یک مشکل در علت و معلول.
08:55
And it starts with a problem of confounded evidence
156
535180
2439
و این با یک مشکل از نوع شواهد سر در گم آغاز می‌شود که
08:57
that all of us have,
157
537619
1672
همه‌ی ما داریم و عبارت از این است که
08:59
which is that we are part of the world.
158
539291
2020
ما همه بخشی از دنیا هستیم.
09:01
And this might not seem like a problem to you, but like most problems,
159
541311
3436
و این ممکن است از نظر شما یک مشکل نباشد، اما مانند بیشتر مشکل‌ها،
09:04
it's only a problem when things go wrong.
160
544747
2337
این فقط وقتی مشکل است که کارها خراب می‌شود.
09:07
Take this baby, for instance.
161
547464
1811
به عنوان مثال، این کودک را در نظر بگیرید.
09:09
Things are going wrong for him.
162
549275
1705
اوضاع برایش خوب پیش نمی رود.
09:10
He would like to make this toy go, and he can't.
163
550980
2271
می‌خواهد صدای این اسباب بازی را در بیاورد اما نمی‌تواند.
09:13
I'll show you a few-second clip.
164
553251
2529
یک کلیپ چند ثانیه‌ای به شما نشان می‌دهم.
09:21
And there's two possibilities, broadly:
165
561340
1920
و به طور گسترده، ۲ حالت وجود دارد:
09:23
Maybe he's doing something wrong,
166
563260
2634
شاید او کار اشتباهی انجام می‌دهد،
09:25
or maybe there's something wrong with the toy.
167
565894
4216
یا شاید اسباب بازی مشکل دارد.
09:30
So in this next experiment,
168
570110
2111
پس در آزمایش بعدی
09:32
we're going to give babies just a tiny bit of statistical data
169
572221
3297
ما به کودکان فقط مقدار بسیار کمی اطلاعات آماری خواهیم داد
09:35
supporting one hypothesis over the other,
170
575518
2582
در حمایت از یک فرضیه در مقابل دیگری،
09:38
and we're going to see if babies can use that to make different decisions
171
578100
3455
و می‌خواهیم ببینیم که آیا کودکان می‌توانند از آن استفاده کنند تا تصمیمات مختلف
09:41
about what to do.
172
581555
1834
درباره‌ی کاری که می‌خواهند انجام دهند بگیرند.
09:43
Here's the setup.
173
583389
2022
این هم نحوه‌ی انجام آزمایش
09:46
Hyowon is going to try to make the toy go and succeed.
174
586071
3030
هیوان تلاش می‌کند صدای اسباب بازی را در بیاورد و موفق می‌شود.
09:49
I am then going to try twice and fail both times,
175
589101
3320
سپس من دوبار تلاش می‌کنم و هر دوبار شکست می‌خورم،
09:52
and then Hyowon is going to try again and succeed,
176
592421
3112
و سپس هیوان دوباره تلاش می‌کند و موفق می‌شود.
09:55
and this roughly sums up my relationship to my graduate students
177
595533
3172
و این تقریبا رابطه‌ی من با دانشجویان
09:58
in technology across the board.
178
598705
2835
رشته‌های تکنولوژی در مقابل هیئت مدیره را خلاصه می‌کند.
10:02
But the important point here is it provides a little bit of evidence
179
602030
3292
اما نکته‌ی مهم اینجا این است که این شواهد کمی از این ارائه می‌کند که
10:05
that the problem isn't with the toy, it's with the person.
180
605322
3668
مشکل از اسباب بازی نیست، از شخصی است که با آن بازی می‌کند.
10:08
Some people can make this toy go,
181
608990
2350
بعضی افراد می‌توانند صدایِ اسباب بازی را در بیاورند
10:11
and some can't.
182
611340
959
و بعضی نمی‌توانند.
10:12
Now, when the baby gets the toy, he's going to have a choice.
183
612799
3413
حالا، وقتی که کودک اسباب بازی را می‌گیرد، او باید یک انتخاب کند.
10:16
His mom is right there,
184
616212
2188
مادرش هم همان‌جا است
10:18
so he can go ahead and hand off the toy and change the person,
185
618400
3315
پس او می‌تواند اسباب بازی را به او بدهد و شخص را عوض کند،
10:21
but there's also going to be another toy at the end of that cloth,
186
621715
3158
اما یک اسباب بازی دیگر هم در انتهای پارچه است
10:24
and he can pull the cloth towards him and change the toy.
187
624873
3552
و او می‌تواند پارچه را به سمت خود بکشد و اسباب بازی را عوض کند.
10:28
So let's see what the baby does.
188
628425
2090
خب بیاید ببینیم کودک چکار می‌کند.
10:30
(Video) HG: Two, three. Go! (Music)
189
630515
4183
(ویدیو) هیوان: دو - سه. حالا! (صدای موسیقی)
10:34
LS: One, two, three, go!
190
634698
3131
لورا: یک - دو - سه، حالا!
10:37
Arthur, I'm going to try again. One, two, three, go!
191
637829
7382
آرتور من یک بار دیگر تلاش می‌کنم. یک - دو - سه، حالا!
10:45
YG: Arthur, let me try again, okay?
192
645677
2600
هیوان: آرتور، بزار من دوباره امتحان کنم، باشه؟
10:48
One, two, three, go! (Music)
193
648277
4550
یک - دو - سه، حالا! (صدای موسیقی)
10:53
Look at that. Remember these toys?
194
653583
1883
اونو ببین. این اسباب بازی‌ها رو یادت هست؟
10:55
See these toys? Yeah, I'm going to put this one over here,
195
655466
3264
این اسباب بازی‌ها رو می‌بینی؟ آره، من اینو اینجا میزارم،
10:58
and I'm going to give this one to you.
196
658730
2062
و این یکی را به تو می‌دهم.
11:00
You can go ahead and play.
197
660792
2335
می‌تونی باهاش بازی کنی.
11:23
LS: Okay, Laura, but of course, babies love their mommies.
198
683213
4737
باشه لورا، اما مشخصه که کودکان عاشق مادرشان هستند.
11:27
Of course babies give toys to their mommies
199
687950
2182
البته که کودکان اسباب بازی‌هایشان را به مادرشان می‌دهند
11:30
when they can't make them work.
200
690132
2030
وقتی نمی‌توانند آن‌ها را به کار بیاندازند.
11:32
So again, the really important question is what happens when we change
201
692162
3593
پس دوباره، سوال بسیار مهم این است که وقتی که داده‌های آماری را
11:35
the statistical data ever so slightly.
202
695755
3154
اندکی تغییر دهیم چه اتفاقی می‌افتد.
11:38
This time, babies are going to see the toy work and fail in exactly the same order,
203
698909
4087
این بار کودکان با همان ترتیب قبلی خواهند دید که اسباب بازی کار می‌کند یا خیر
11:42
but we're changing the distribution of evidence.
204
702996
2415
اما ما ترتیب شهود را عوض می‌کنیم.
11:45
This time, Hyowon is going to succeed once and fail once, and so am I.
205
705411
4411
این بار هیوان یک بار موفق می‌شود و یک بار شکست می‌خورد و من هم همچنین.
11:49
And this suggests it doesn't matter who tries this toy, the toy is broken.
206
709822
5637
و این حاکی از این است که فرقی نمی‌کند که چه کسی از اسباب بازی استفاده می‌کند،
11:55
It doesn't work all the time.
207
715459
1886
اسباب بازی خراب است. گاهی اوقات کار نمی‌کند.
11:57
Again, the baby's going to have a choice.
208
717345
1965
دوباره، کودک یک انتخاب خواهد داشت.
11:59
Her mom is right next to her, so she can change the person,
209
719310
3396
مادرش کنار اوست، پس او می‌تواند شخص را عوض کند،
12:02
and there's going to be another toy at the end of the cloth.
210
722706
3204
و اسباب بازی دیگری در انتهای پارچه خواهد بود
12:05
Let's watch what she does.
211
725910
1378
بیاید نگاه کنیم که چکار می‌کند.
12:07
(Video) HG: Two, three, go! (Music)
212
727288
4348
(ویدیو) هیوان: دو - سه، حالا! (صدای موسیقی)
12:11
Let me try one more time. One, two, three, go!
213
731636
4984
بزار یک بار دیگه امتحان کنم. یک - دو - سه، حالا!
12:17
Hmm.
214
737460
1697
هممم.
12:19
LS: Let me try, Clara.
215
739950
2692
لورا: بزار من امتحان کنم کلارا
12:22
One, two, three, go!
216
742642
3945
یک - دو - سه، حالا!
12:27
Hmm, let me try again.
217
747265
1935
همم، بزار دوباره امتحان کنم.
12:29
One, two, three, go! (Music)
218
749200
5670
یک - دو - سه، حالا! (صدای موسیقی)
12:35
HG: I'm going to put this one over here,
219
755009
2233
هیوان: من اینو اینجا می‌گذارم،
12:37
and I'm going to give this one to you.
220
757242
2001
و این یکیو به تو می‌دهم.
12:39
You can go ahead and play.
221
759243
3597
می‌تونی باهاش بازی کنی.
12:58
(Applause)
222
778376
4897
(تشویق حضار)
13:04
LS: Let me show you the experimental results.
223
784993
2392
لورا: اجازه بدید نتایج آزمایش را به شما نشان دهم
13:07
On the vertical axis, you'll see the distribution
224
787385
2475
بر روی محور عمودی, توزیع انتخاب کودکان
13:09
of children's choices in each condition,
225
789860
2577
در هر حالت را مشاهده می‌کنید،
13:12
and you'll see that the distribution of the choices children make
226
792437
4551
و می‌بینید که توزیع انتخاباتی که کودکان می‌کنند
13:16
depends on the evidence they observe.
227
796988
2787
به شواهدی که مشاهده می‌کنند بستگی دارد.
13:19
So in the second year of life,
228
799775
1857
پس در سال دوم زندگی،
13:21
babies can use a tiny bit of statistical data
229
801632
2577
کودکان می‌توانند از مقدار بسیار کمی داده‌های آماری استفاده کنند تا
13:24
to decide between two fundamentally different strategies
230
804209
3367
از بین دو استراتژی که از اساس با یکدیگر متفاوتند انتخاب کنند
13:27
for acting in the world:
231
807576
1881
برای ایفای نقش در دنیا:
13:29
asking for help and exploring.
232
809457
2743
درخواست کمک و کاوش
13:33
I've just shown you two laboratory experiments
233
813700
3434
من الان دو آزمایشِ آزمایشگاهی
13:37
out of literally hundreds in the field that make similar points,
234
817134
3691
از میان صدها آزمایش که نکته‌های مشابهی را می‌رسانند، نشان دادم
13:40
because the really critical point
235
820825
2392
چون نکته‌ی بسیار مهم
13:43
is that children's ability to make rich inferences from sparse data
236
823217
5108
این است که توانایی کودکان در استنتاج عمیق از داده‌های پراکنده و کم
13:48
underlies all the species-specific cultural learning that we do.
237
828325
5341
زمینه ساز تمام تحقیقاتی است که در یادگیریِ فرهنگی تمامی گونه‌های خاص انجام می‌دهیم.
13:53
Children learn about new tools from just a few examples.
238
833666
4597
کودکان تنها با چند مثال در مورد وسایل جدید یاد می‌گیرند.
13:58
They learn new causal relationships from just a few examples.
239
838263
4717
رابطه‌های علت و معلولی جدید را فقط با چند مثال یاد می‌گیرند.
14:03
They even learn new words, in this case in American Sign Language.
240
843928
4871
آن‌ها حتی کلمه‌های جدید یاد می‌گیرند، در این مورد، زبان اشاره‌ی آمریکایی.
14:08
I want to close with just two points.
241
848799
2311
می‌خواهم با فقط دو نکته صحبتم را پایان دهم
14:12
If you've been following my world, the field of brain and cognitive sciences,
242
852050
3688
اگر دنیای من، رشته‌ی مغز و علوم شناختی، را دنبال می‌کرده اید،
14:15
for the past few years,
243
855738
1927
در چند سال گذشته،
14:17
three big ideas will have come to your attention.
244
857665
2415
سه ایده‌ی بزرگ توجه شما را جلب کرده است.
14:20
The first is that this is the era of the brain.
245
860080
3436
اول؛ اکنون دوره‌ی مغز است.
14:23
And indeed, there have been staggering discoveries in neuroscience:
246
863516
3669
و قطعا اکتشافات متناوبی در علوم اعصاب اتفاق افتاده است:
14:27
localizing functionally specialized regions of cortex,
247
867185
3436
مشخص کردن جایگاه کارکردِ تخصصیِ بخش‌هایی از قشر مغزی،
14:30
turning mouse brains transparent,
248
870621
2601
واضح ساختن مغزِ موش‌ها
14:33
activating neurons with light.
249
873222
3776
فعال کردنِ نورون‌ها با نور
14:36
A second big idea
250
876998
1996
ایده‌ی بزرگِ دوم این است که
14:38
is that this is the era of big data and machine learning,
251
878994
4104
اکنون دوره‌ی اطلاعات بزرگ (big data) و یادگیری ماشین‌ها است،
14:43
and machine learning promises to revolutionize our understanding
252
883098
3141
و یادگیری ماشین‌ها وعده‌ی انقلابی کردن فهم ما از همه چیز،
14:46
of everything from social networks to epidemiology.
253
886239
4667
از شبکه‌های اجتماعی تا اپیدمیلوژی (علم بیماری‌های واگیردار) را می‌دهد.
14:50
And maybe, as it tackles problems of scene understanding
254
890906
2693
و شاید، اینگونه با مشکلاتِ درک صحنه و پردازش زبان طبیعی
14:53
and natural language processing,
255
893599
1993
گلاویز می‌شود
14:55
to tell us something about human cognition.
256
895592
3324
تا به ما چیزی در مورد شناخت انسان بگوید.
14:59
And the final big idea you'll have heard
257
899756
1937
و آخرین ایده‌ی بزرگ که حتما شنیده‌اید این است که
15:01
is that maybe it's a good idea we're going to know so much about brains
258
901693
3387
شاید ایده‌ی خوبی است که ما آنقدر زیاد در مورد مغز خواهیم دانست
15:05
and have so much access to big data,
259
905080
1917
و دسترسی بسیار زیادی به داده‌های بزرگ داشته باشیم
15:06
because left to our own devices,
260
906997
2507
زیرا اگر فقط به دستگاه‌های خودمان باشد،
15:09
humans are fallible, we take shortcuts,
261
909504
3831
انسان‌ها جایزالخطا هستند، ما میانبر می‌زنیم،
15:13
we err, we make mistakes,
262
913335
3437
ما گمراه می‌شویم، ما اشتباه می‌کنیم،
15:16
we're biased, and in innumerable ways,
263
916772
3684
ما انحرافات ذهنی داریم، و به حالت‌های بیشماری
15:20
we get the world wrong.
264
920456
2969
دنیا را اشتباه می‌فهمیم.
15:24
I think these are all important stories,
265
924843
2949
فکر می‌کنم این‌ها همه داستان‌های مهمی هستند،
15:27
and they have a lot to tell us about what it means to be human,
266
927792
3785
و موارد زیادی در مورد معنی انسان بودن به ما می‌گویند،
15:31
but I want you to note that today I told you a very different story.
267
931577
3529
اما می‌خواهم توجه کنید که امروز یک داستان بسیار متفاوت به شما گفتم.
15:35
It's a story about minds and not brains,
268
935966
3807
این یک داستان در مورد ذهن است و نه مغز.
15:39
and in particular, it's a story about the kinds of computations
269
939773
3006
و به طور مشخص، این یک داستان در مورد انواع محاسباتی است که
15:42
that uniquely human minds can perform,
270
942779
2590
ذهن منحصر به فرد انسان می‌تواند انجام دهد،
15:45
which involve rich, structured knowledge and the ability to learn
271
945369
3944
که شامل دانش عمیق، طبقه‌بندی شده و توانایی یاد گرفتن از
15:49
from small amounts of data, the evidence of just a few examples.
272
949313
5268
حجم کمی از داده‌ها، شواهدی فقط از چند مثال. می شود
15:56
And fundamentally, it's a story about how starting as very small children
273
956301
4299
و اساسا، داستانی درباره‌ی این است که چگونه با شروع از کودکانی بسیار کوچک
16:00
and continuing out all the way to the greatest accomplishments
274
960600
4180
و ادامه دادن تمام مسیر تا بزرگ‌ترین دستاوردهایِ
16:04
of our culture,
275
964780
3843
تمدنِ ما،
16:08
we get the world right.
276
968623
1997
ما دنیا را درست درک می‌کنیم.
16:12
Folks, human minds do not only learn from small amounts of data.
277
972433
5267
دوستان، ذهنِ انسان‌ها تنها از مقدار کم داده‌ها یاد نمی‌گیرد.
16:18
Human minds think of altogether new ideas.
278
978285
2101
ذهنِ انسان به ایده‌های کاملا جدید فکر می‌کند.
16:20
Human minds generate research and discovery,
279
980746
3041
ذهنِ انسان کاوش و کشف می‌کند،
16:23
and human minds generate art and literature and poetry and theater,
280
983787
5273
و ذهنِ انسان هنر و ادبیات و شعر و تئاتر تولید می‌کند،
16:29
and human minds take care of other humans:
281
989070
3760
و ذهنِ انسان از دیگر انسان‌ها مراقبت می‌کند:
16:32
our old, our young, our sick.
282
992830
3427
افرادِ مسن، کودکان و بیمارانِ ما.
16:36
We even heal them.
283
996517
2367
ما حتی آن‌ها را درمان می‌کنیم.
16:39
In the years to come, we're going to see technological innovations
284
999564
3103
در سال‌های آتی، ما نوآوری‌هایی در فناوری خواهیم دید که
16:42
beyond anything I can even envision,
285
1002667
3797
فراتر از هرچیزی است که حتی بتوانم تجسم کنم،
16:46
but we are very unlikely
286
1006464
2150
اما بسیار کم احتمال دارد که
16:48
to see anything even approximating the computational power of a human child
287
1008614
5709
چیزی ببینیم که نزدیک به قدرتِ محاسباتیِ کودکِ انسان باشد.
16:54
in my lifetime or in yours.
288
1014323
4298
در طول عمر من یا شما.
16:58
If we invest in these most powerful learners and their development,
289
1018621
5047
اگر ما در روی یادگیری و پیشرفتِ این یادگیرندگانِ قدرتمند سرمایه‌گذاری کنیم،
17:03
in babies and children
290
1023668
2917
در نوزادان و کودکان
17:06
and mothers and fathers
291
1026585
1826
و مادران و پدران
17:08
and caregivers and teachers
292
1028411
2699
سرپرستان و معلمان
17:11
the ways we invest in our other most powerful and elegant forms
293
1031110
4170
به نوعی که در قدرتمندترین و ظریف‌ترین گونه‌های تکنولوژی،
17:15
of technology, engineering and design,
294
1035280
3218
مهندسی و طراحی سرمایه‌گذاری می‌کنیم،
17:18
we will not just be dreaming of a better future,
295
1038498
2939
ما فقط برای یک آینده‌یِ بهتر رویا پردازی نمی‌کنیم،
17:21
we will be planning for one.
296
1041437
2127
برای آن برنامه‌ریزی می‌کنیم.
17:23
Thank you very much.
297
1043564
2345
بسیار متشکرم.
17:25
(Applause)
298
1045909
3421
(تشویق حضار)
17:29
Chris Anderson: Laura, thank you. I do actually have a question for you.
299
1049810
4426
کریس اندرسون: لورا، متشکرم. من یک سوال از تو دارم.
17:34
First of all, the research is insane.
300
1054236
2359
اول از همه، تحقیقات تو دیوانه کننده است.
17:36
I mean, who would design an experiment like that? (Laughter)
301
1056595
3725
منظورم اینه که، کی چنین آزمایشی رو طراحی می‌کنه؟(خنده)
17:41
I've seen that a couple of times,
302
1061150
1790
چند بار آن را نگاه کرده‌ام،
17:42
and I still don't honestly believe that that can truly be happening,
303
1062940
3222
و صادقانه بگم، هنوز باورم نمیشه که آن اتفاق‌ها ممکن است،
17:46
but other people have done similar experiments; it checks out.
304
1066162
3158
اما افراد دیگری هم آزمایش‌های مشابهی انجام داده‌اند، مشخص است:
17:49
The babies really are that genius.
305
1069320
1633
کودکان واقعا نابغه‌اند.
17:50
LS: You know, they look really impressive in our experiments,
306
1070953
3007
لارا: میدونی، در آزمایش‌های ما بسیار چشمگیر به نظر می‌آیند،
17:53
but think about what they look like in real life, right?
307
1073960
2652
اما در مورد این فکر کن که در زندگیِ واقعی چگونه به نظر می‌آیند، درسته؟
17:56
It starts out as a baby.
308
1076612
1150
به عنوان یک نوزاد شروع می‌کند.
17:57
Eighteen months later, it's talking to you,
309
1077762
2007
۱۸ ماه بعد، با ما صحبت می‌کند،
17:59
and babies' first words aren't just things like balls and ducks,
310
1079769
3041
و اولین کلمه‌های کودکان فقط چیزهایی مثل توپ و اردک نیست،
18:02
they're things like "all gone," which refer to disappearance,
311
1082810
2881
چیزهایی مثل «رفت» است که به ناپدید شدن باز می‌گردد،
18:05
or "uh-oh," which refer to unintentional actions.
312
1085691
2283
یا «اوه-اوه» که به فعالیت‌هایِ غیرعمدی باز می‌گردد.
18:07
It has to be that powerful.
313
1087974
1562
باید آنقدر قدرتمند باشد.
18:09
It has to be much more powerful than anything I showed you.
314
1089536
2775
باید از هر چیزی که نشانتان دادم قدرتمندتر باشد.
18:12
They're figuring out the entire world.
315
1092311
1974
آن‌ها در حال فهم تمام دنیا هستند.
18:14
A four-year-old can talk to you about almost anything.
316
1094285
3144
یک کودکِ ۴ ساله تقریبا در مورد همه چیز می‌تواند با ما صحبت کند.
18:17
(Applause)
317
1097429
1601
(تشویق حضار)
18:19
CA: And if I understand you right, the other key point you're making is,
318
1099030
3414
کریس: و اگر درست متوجه شده باشم، نکته‌ی کلیدی دیگری که بیان می‌کنی این است که
18:22
we've been through these years where there's all this talk
319
1102444
2754
ما این سال‌ها را گذراندیم که صحبت‌های زیادی در مورد اینکه
18:25
of how quirky and buggy our minds are,
320
1105198
1932
ذهن‌های ما چقدر دمدمی و پر مشکل است، وجود داشته است
18:27
that behavioral economics and the whole theories behind that
321
1107130
2867
اقتصاد رفتاری و تمام تئوری‌های پشت آن
18:29
that we're not rational agents.
322
1109997
1603
که ما عواملِ منطقی نیستیم.
18:31
You're really saying that the bigger story is how extraordinary,
323
1111600
4216
تو در واقع می‌گویی که داستانِ بزرگتر، این است که چه مقدار
18:35
and there really is genius there that is underappreciated.
324
1115816
4944
نبوغِ خارق‌العاده وجود دارد که مورد توجه و قدردانی قرار نگرفته است.
18:40
LS: One of my favorite quotes in psychology
325
1120760
2070
لارا: یکی از نقل قول‌های مورد علاقه‌ی من در روانشناسی
18:42
comes from the social psychologist Solomon Asch,
326
1122830
2290
از «سالامون اش» ِ روانشناسِ اجتماعی است
18:45
and he said the fundamental task of psychology is to remove
327
1125120
2807
و او گفته که وظیفه‌ی اساسی روانشناسی این است که
18:47
the veil of self-evidence from things.
328
1127927
2626
پرده از بدیهیتِ همه چیز بردارد.
18:50
There are orders of magnitude more decisions you make every day
329
1130553
4551
مرتبه‌ی بسیار بزرگی از تصمیمات را روزانه اتخاذ می‌کنیم که
18:55
that get the world right.
330
1135104
1347
دنیا را درست درک می‌کنند.
18:56
You know about objects and their properties.
331
1136451
2132
در مورد اشیا و خصوصیات آن‌ها می‌دانیم.
18:58
You know them when they're occluded. You know them in the dark.
332
1138583
3029
آن‌ها را وقتی بسته‌بندی شده‌اند یا در تاریکی اند می‌شناسیم.
19:01
You can walk through rooms.
333
1141612
1308
می‌توانیم از اتاق‌ها بگذریم.
19:02
You can figure out what other people are thinking. You can talk to them.
334
1142920
3532
می‌توانیم بفهمیم که بقیه در مورد چه فکر می‌کنند. می‌توانیم با آن‌ها صحبت کنیم.
19:06
You can navigate space. You know about numbers.
335
1146452
2230
می‌توانیم در فضا حرکت کنیم. در مورد عددها می‌دانیم.
19:08
You know causal relationships. You know about moral reasoning.
336
1148682
3022
در مورد علت و معلول می‌دانیم. در مورد استدلال اخلاقی می‌دانیم.
19:11
You do this effortlessly, so we don't see it,
337
1151704
2356
این کار را بدون زحمت انجام می‌دهیم، پس نمی‌بینمش،
19:14
but that is how we get the world right, and it's a remarkable
338
1154060
2912
اما اینگونه است که دنیا را درست درک می‌کنیم، و این قابل توجه است
19:16
and very difficult-to-understand accomplishment.
339
1156972
2318
و دستاوردی است که خیلی سخت قابل فهم است.
19:19
CA: I suspect there are people in the audience who have
340
1159290
2628
کریس: فکر می‌کنم افرادی در میان مخاطبان هستند که
19:21
this view of accelerating technological power
341
1161918
2238
دیدگاهی در مورد شتاب دادن به قدرت فناوری دارند که
19:24
who might dispute your statement that never in our lifetimes
342
1164156
2958
ممکن است با جمله‌ی تو که در طول عمر ما امکان ندارد که
19:27
will a computer do what a three-year-old child can do,
343
1167114
2618
یک کامپیوتر کاری را انجام دهد که یک کودک ۳ ساله می‌تواند انجام دهد انکار کند
19:29
but what's clear is that in any scenario,
344
1169732
3248
اما این مشخص است که در هر سناریویی،
19:32
our machines have so much to learn from our toddlers.
345
1172980
3770
ماشین‌های ما چیزهای زیادی برای یاد گرفتن از کودکان نوپای ما دارند.
19:38
LS: I think so. You'll have some machine learning folks up here.
346
1178230
3216
لارا:همین‌طور فکر می‌کنم، دوستانی که داریم که در فراگیری ماشین کار می‌کنند.
19:41
I mean, you should never bet against babies or chimpanzees
347
1181446
4203
منظورم اینه که، تجربه نشان داده که هیچوقت نباید بر ضد کودکان یا
19:45
or technology as a matter of practice,
348
1185649
3645
شامپانزه‌ها یا تکنولوژی شرط ببندیم،
19:49
but it's not just a difference in quantity,
349
1189294
4528
اما این فقط یک تفاوت در مقدار نیست،
19:53
it's a difference in kind.
350
1193822
1764
این تفاوتی در نوع است.
19:55
We have incredibly powerful computers,
351
1195586
2160
ما کامپیوترهای قدرتمندِ غیرقابل باوری داریم و
19:57
and they do do amazingly sophisticated things,
352
1197746
2391
آن‌ها کارهای پیچیده‌ی شگفت‌آوری انجام می‌دهند،
20:00
often with very big amounts of data.
353
1200137
3204
معمولا با حجم بزرگی از داده‌ها.
20:03
Human minds do, I think, something quite different,
354
1203341
2607
ذهنِ انسان‌، فکر می‌کنم که کار کاملا متفاوتی انجام می‌دهد
20:05
and I think it's the structured, hierarchical nature of human knowledge
355
1205948
3895
و فکر می‌کنم این طبیعت سلسله مراتبی و ساخت‌یافته‌ی انسان است که
20:09
that remains a real challenge.
356
1209843
2032
چالش واقعی باقی می‌ماند.
20:11
CA: Laura Schulz, wonderful food for thought. Thank you so much.
357
1211875
3061
کریس: لارا شولز، غذای حیرت انگیزی برای اندیشه بود. بسیار متشکرم.
20:14
LS: Thank you. (Applause)
358
1214936
2922
لارا: متشکرم (تشویق حضار)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7