Jeff Hawkins: How brain science will change computing

جف هاوکینز درخصوص اینکه علوم مغز چگونه رایانش را دگرگون خواهد ساخت.

207,857 views

2007-05-23 ・ TED


New videos

Jeff Hawkins: How brain science will change computing

جف هاوکینز درخصوص اینکه علوم مغز چگونه رایانش را دگرگون خواهد ساخت.

207,857 views ・ 2007-05-23

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Babak Mohit Reviewer: Maral Salehi
00:25
I do two things:
0
25476
1151
من دو کار انجام می‌دهم. رایانه‌های همراه طراحی می‌کنم و مغز را مطالعه می‌کنم.
00:26
I design mobile computers and I study brains.
1
26651
2118
00:28
Today's talk is about brains and -- (Audience member cheers)
2
28793
2930
و صحبت امروز درباره مغز است و،
00:31
Yay! I have a brain fan out there.
3
31747
1817
چه خوب، یک جائی آنجاها یک طرفدار مغز دارم.
00:33
(Laughter)
4
33588
3147
(خنده حضار)
من می‌خواهم، البته اگر تصویر اولم را این بالا داشته باشم،
00:36
If I could have my first slide,
5
36759
1555
و شما عنوان صحبت من و دو پيوند من را ببينید.
00:38
you'll see the title of my talk and my two affiliations.
6
38338
2849
00:41
So what I'm going to talk about is why we don't have a good brain theory,
7
41211
3468
خوب، چیزی که من می‌خواهم درباره آن صحبت کنم، این است که چرا ما یک نظریه خوب راجع به مغز نداریم،
00:44
why it is important that we should develop one
8
44703
2277
چرا مهم است که ما یک نظریه خوب ايجاد كنيم، و در این مورد چه می‌توانیم بکنیم.
00:47
and what we can do about it.
9
47004
1483
00:48
I'll try to do all that in 20 minutes.
10
48511
1824
و من سعی می‌کنم كه همه اینها را در بیست دقیقه انجام بدهم. من دو پيوند دارم.
00:50
I have two affiliations.
11
50359
1151
00:51
Most of you know me from my Palm and Handspring days,
12
51534
2532
بسیاری از شما مرا از روزهای پالم (Palm) و هنداسپرینگ (Hand Spring) می‌شناسید،
00:54
but I also run a nonprofit scientific research institute
13
54090
2683
اما علاوه بر آن، من یک مرکز تحقیق علمی غیرانتفاعی را هم اداره می‌کنم
00:56
called the Redwood Neuroscience Institute in Menlo Park.
14
56797
2632
که موئسسه علوم‌اعصاب ردوود (Redwood Neuroscience Institute) در ملنو پارک (Melno Park) است،
00:59
We study theoretical neuroscience and how the neocortex works.
15
59453
3388
و ما آنجا نظریه علوم‌اعصاب را مطالعه می‌کنیم،
و نحوه عمل نئوکورتکس (neocortex) را مطالعه می‌کنیم.
01:02
I'm going to talk all about that.
16
62865
1598
من می‌خواهم درباره اينها صحبت ‌کنم.
01:04
I have one slide on my other life, the computer life,
17
64487
2745
یک تصویر درباره زندگی دیگرم، زندگی رایانه‌ایم دارم، و آن اين تصویر است.
01:07
and that's this slide here.
18
67256
1301
01:08
These are some of the products I've worked on over the last 20 years,
19
68581
3268
اینها برخی از محصولاتی هستند که من در طی ۲۰ سال گذشته روی آنها کار کرده‌ام،
01:11
starting from the very original laptop
20
71873
1842
شروعش برمی‌گردد به رایانه‌های همراه خيلی اوليه و برخی از نخستين رايانه‌های صفحه‌تخت (tablet computers)
01:13
to some of the first tablet computers
21
73739
1787
01:15
and so on, ending up most recently with the Treo,
22
75550
2298
و مانند آنها، و پایانش همین اواخر به ترئو (Treo) می‌رسد،
01:17
and we're continuing to do this.
23
77872
1532
و ما داریم اینکار را ادامه می‌دهیم.
01:19
I've done this because I believe mobile computing
24
79428
2301
و من این کار را کرده‌ام چون واقعا اعتقاد دارم که رایانش همراه (mobile computing)
01:21
is the future of personal computing,
25
81753
1724
آیندۀ رایانه شخصی است، و من سعی می‌کنم که دنیا را
01:23
and I'm trying to make the world a little bit better
26
83501
2454
با کار کردن روی این چیزها، کمی بهتر كنم.
01:25
by working on these things.
27
85979
1296
01:27
But this was, I admit, all an accident.
28
87299
1874
اما، باید اعتراف کنم، که اين در کل یک اتفاق بود.
01:29
I really didn't want to do any of these products.
29
89197
2308
من واقعا نمی‌خواستم هیچ كدام از اینها را بسازم.
01:31
Very early in my career
30
91529
1382
و در همان آغاز کارم تصمیم گرفته بودم
01:32
I decided I was not going to be in the computer industry.
31
92935
2690
که در صنایع رایانه كار نكنم.
01:35
Before that, I just have to tell you
32
95649
1721
و قبل از اینکه به آن موضوع بپردازیم، بایست این را هم درباره
01:37
about this picture of Graffiti I picked off the web the other day.
33
97394
3108
این عکس طرح‌نوشت (graffiti) کوچکی که آنجاست بگويم كه چند روز پیش از روی اينترنت گرفتم.
01:40
I was looking for a picture for Graffiti that'll text input language.
34
100526
3253
بدنبال عکس یک طرح‌نوشت می‌گشتم، کمی زبان نوشتاری،
01:43
I found a website dedicated to teachers who want to make script-writing things
35
103803
3689
و وب‌سایتی را یافتم که تقدیم به معلمانی شده بود که می‌خواهند اینها را بسازند،
می‌دانید، همان چیزهای نوشتاری که در بالای تخته سیاه‌شان قرار دارد،
01:47
across the top of their blackboard,
36
107516
1674
01:49
and they had added Graffiti to it, and I'm sorry about that.
37
109214
2833
و آنها به آن نوشته طرح‌نوشت هم اضافه کردند، و من از این بابت متاسفم.
01:52
(Laughter)
38
112071
2247
(خنده حضار)
01:54
So what happened was,
39
114342
1300
خوب، ماجرا از اين قرار بود که، در زمان جوانی، هنگامی که دانشکده مهندسی
01:55
when I was young and got out of engineering school at Cornell in '79,
40
115666
4899
دانشگاه کورنل (Cornell) را در سال ۱۹۷۹ تمام کردم، تصمیم گرفتم -- رفتم که برای اینتل (Intel) کار کنم و
02:00
I went to work for Intel and was in the computer industry,
41
120589
3187
02:03
and three months into that, I fell in love with something else.
42
123800
3402
من در صنعت رایانه بودم -- و سه ماه گذشته بود،
اما عاشق چیز دیگری شدم، و به خودم گفتم: "من در اینجا شغل غلطی را انتخاب کردم،"
02:07
I said, "I made the wrong career choice here,"
43
127226
3044
02:10
and I fell in love with brains.
44
130294
2239
و عاشق مغز‌ شدم.
02:12
This is not a real brain.
45
132557
1533
این یک مغز واقعی نیست. عکس یکی از آنهاست، رسم خطوط آن.
02:14
This is a picture of one, a line drawing.
46
134114
2719
02:16
And I don't remember exactly how it happened,
47
136857
2119
و دقیقا هم یادم نمی‌آید که چگونه این اتفاق افتاد،
02:19
but I have one recollection, which was pretty strong in my mind.
48
139000
3515
اما یک چیز را دقیق به خاطر دارم، که خیلی هم در ذهنم قدرتمند بود.
02:22
In September of 1979,
49
142539
1610
در سپتامبر ۱۹۷۹، مجله ساینتیفیک آمریکن (Scientific American)
02:24
Scientific American came out with a single-topic issue about the brain.
50
144173
3364
با یک ویژه‌نامه اختصاصی درباره مغز منتشر شد. و خیلی خوب بود.
02:27
It was one of their best issues ever.
51
147561
1938
یکی از بهترین شماره‌هایش بود که تا بحال چاپ شده است. و آنها در آن مقاله راجع به نورون (سلول عصبی)
02:29
They talked about the neuron, development, disease, vision
52
149523
2947
و تکامل و بیماری‌ها و بینایی و همه آن چیزهائی که
02:32
and all the things you might want to know about brains.
53
152494
2596
ممکن است شما بخواهید در مورد مغز بدانید صحبت کردند. واقعا جذاب بود.
02:35
It was really quite impressive.
54
155114
1502
02:36
One might've had the impression we knew a lot about brains.
55
156640
2772
ممکن بود گمان می‌بردید که ما واقعا چیزهای زیادی درباره مغز می‌دانستیم.
02:39
But the last article in that issue was written by Francis Crick of DNA fame.
56
159436
4195
اما آخرین مقاله آن شماره توسط فرانسیس کریک (Francis Crick)، که با دی-ان-ای (DNA) معروف شد، نوشته شده بود.
02:43
Today is, I think, the 50th anniversary of the discovery of DNA.
57
163655
3024
امروز، گمان می‌کنم، پنجاهمین سالگرد کشف DNA است.
02:46
And he wrote a story basically saying, this is all well and good,
58
166703
3075
و او مقاله‌ای نوشت که اساسا می‌گفت،
خوب، همه اینها خوب و عالی است، اما می‌دانید[؟]،
02:49
but you know, we don't know diddly squat about brains,
59
169802
2743
ما پشیزی هم راجع به مغز نمی‌دانیم
02:52
and no one has a clue how they work,
60
172569
1739
و هیچ‌کسی هم سرنخی در این مورد که اینها چگونه کار می‌کنند ندارد،
02:54
so don't believe what anyone tells you.
61
174332
1866
پس گفته‌های هیچ‌کس را باور نکنيد.
02:56
This is a quote from that article, he says:
62
176222
2165
اين يك نقل قول مستقیم از آن مقاله است، او می‌گوید: "آن چه که فقدانش واضحا مشخص است،"
02:58
"What is conspicuously lacking" -- he's a very proper British gentleman --
63
178411
4293
او مرد بریتانیایی بسیار باوقاری بود پس، "آنچه که فقدانش واضحا مشخص است
03:02
"What is conspicuously lacking is a broad framework of ideas
64
182728
2830
چهارچوب گسترده‌ای از ایده‌ها است كه در آن بتوان این رويكرد‌های گوناگون را تفسیر کرد."
03:05
in which to interpret these different approaches."
65
185582
2352
03:07
I thought the word "framework" was great.
66
187958
1968
من فکر کردم که کلمه "چهارچوب" عالی است.
03:09
He didn't say we didn't have a theory.
67
189950
1817
او نمی‌گويد که ما حتی نظریه‌ای نداریم. او می‌گوید،
03:11
He says we don't even know how to begin to think about it.
68
191791
2725
ما حتی نمی‌دانیم که چطور شروع به فكر كردن درباره آن بكنيم --
ما حتی چهارچوبی نداریم.
03:14
We don't even have a framework.
69
194540
1492
ما در دوره پيش از نظریه هستیم اگر می‌خواهید توماس کوهن (Thomas Kuhn) را نقل کنید.
03:16
We are in the pre-paradigm days, if you want to use Thomas Kuhn.
70
196056
3050
و من عاشق آن شدم، و گفتم ببین،
03:19
So I fell in love with this.
71
199130
1339
03:20
I said, look: We have all this knowledge about brains -- how hard can it be?
72
200493
3575
ما همه این دانش راجع به مغز را داریم. چقدر این [موضوع] می‌تواند سخت باشد؟
03:24
It's something we can work on in my lifetime; I could make a difference.
73
204092
3438
و این چیزی است که می‌توانم در طول زندگیم بر رویش کار کنم. من احساس کردم که می‌توانم تأثیری بگذارم.
03:27
So I tried to get out of the computer business, into the brain business.
74
207554
3619
و تلاش کردم که از کسب و کار رایانه خارج بشوم، بروم به کسب و کار مغز.
03:31
First, I went to MIT, the AI lab was there.
75
211197
2004
در آغاز، به دانشگاه ام-آی‌-تی (MIT) رفتم، آزمایشگاه هوش مصنوعی آنجا بود،
03:33
I said, I want to build intelligent machines too,
76
213225
2395
و گفتم، خوب، من هم می‌خواهم ماشین‌های هوشمند بسازم،
03:35
but I want to study how brains work first.
77
215644
2517
اما راهی که می‌خواهم این کار را بکنم، این است که اول کارکرد مغز را مطالعه کنم.
03:38
And they said, "Oh, you don't need to do that.
78
218185
2306
و آنها گفتند، اوه، لازم نیست اين کار را بکنی.
03:40
You're just going to program computers, that's all.
79
220515
2390
ما فقط رایانه‌ها را برنامه‌ریزی می‌کنیم؛ این تنها کاری است که باید بکنبم.
03:42
I said, you really ought to study brains.
80
222929
1963
و من گفتم، نه، در واقع شما بايد مغز‌ها را مطالعه کنید. آنها گفتند، اوه، می‌دانی،
03:44
They said, "No, you're wrong."
81
224916
1432
03:46
I said, "No, you're wrong," and I didn't get in.
82
226372
2246
تو اشتباه می‌کنی. و من گفتم، نه، شما اشتباه می‌کنید، و من را نپذیرفتند.
03:48
(Laughter)
83
228642
1078
(خنده حضار)
03:49
I was a little disappointed -- pretty young --
84
229744
2155
ولی كمی دلگیر شدم -- خيلی جوان بودم -- اما دوباره
03:51
but I went back again a few years later,
85
231923
1936
چند سال بعد برگشتم و اینبار در کالیفرنیا، به دانشگاه برکلی (Berkeley) رفتم.
03:53
this time in California, and I went to Berkeley.
86
233883
2359
و با خودم گفتم اين‌بار از سمت زیست‌شناسی وارد می‌شوم.
03:56
And I said, I'll go in from the biological side.
87
236266
2430
03:58
So I got in the PhD program in biophysics.
88
238720
3089
و پذیرش گرفتم -- پذیرش دکترای PhD در رشته زیست-فیزیک، همه چیزم خوب بود،
04:01
I was like, I'm studying brains now. Well, I want to study theory.
89
241833
3410
حالا من مغزها را مطالعه می‌کردم، و گفتم که می‌خواهم نظريه بخوانم.
04:05
They said, "You can't study theory about brains.
90
245267
2269
آنها جواب دادند، اوه نه، تو نمی‌توانی نظریه در مورد مغز را مطالعه کنی.
04:07
You can't get funded for that.
91
247560
1995
این کاری نیست که به تو مربوط بشود. برای این موضوع پولی به تو نمی‌دهند.
04:09
And as a graduate student, you can't do that."
92
249579
2155
و به عنوان دانشجوی دكتری، نمی‌توانی آن كار را بكنی. خوب، گفتم، اوه خدای من.
04:11
So I said, oh my gosh.
93
251758
1218
04:13
I was depressed; I said, but I can make a difference in this field.
94
253000
3155
خيلی افسرده شدم. با خودم گفتم اما من می‌توانم دراین زمینه تاثیرگذار باشم.
پس کاری که کردم این بود که به صنعت رایانه برگشتم.
04:16
I went back in the computer industry
95
256179
2008
04:18
and said, I'll have to work here for a while.
96
258211
2105
و کفتم، خوب، باید مدتی کار کنم، مشغول باشم.
04:20
That's when I designed all those computer products.
97
260340
2393
و آن موقع بود که همه آن محصولات رایانه‌ای را طراحی کردم.
04:22
(Laughter)
98
262757
1301
(خنده حضار)
04:24
I said, I want to do this for four years, make some money,
99
264082
2894
و گفتم این کار را برای چهار سال انجام می‌دهم، یک کم پول در می‌آورم،
04:27
I was having a family, and I would mature a bit,
100
267000
3976
مثل این که صاحب خانواده شدم، کمی هم بالغ‌تر می‌شوم،
04:31
and maybe the business of neuroscience would mature a bit.
101
271000
2816
و شاید هم حرفه علوم‌اعصاب کمی بالغ‌تر بشود.
04:33
Well, it took longer than four years. It's been about 16 years.
102
273840
3001
خوب، این کار بیشتر از چهار سال طول کشید. تقریبا ۱۶ سال گذشته است.
04:36
But I'm doing it now, and I'm going to tell you about it.
103
276865
2716
ولی الان دارم این کار را انجام می‌دهم، و برای شما درباره آن می‌گویم.
04:39
So why should we have a good brain theory?
104
279605
2286
خوب چرا باید یک نظریه خوبی راجع به مغز داشته باشیم؟
04:41
Well, there's lots of reasons people do science.
105
281915
3102
خوب، دلایل زیادی وجود دارد که آدم‌ها به علم می‌پردازند.
04:45
The most basic one is, people like to know things.
106
285041
2917
یکی از دلايل-- يعنی پایه‌ای‌ترینش -- اين است که آدم‌ها دوست دارند از چيزها سر در بياورند.
04:47
We're curious, and we go out and get knowledge.
107
287982
2195
ما کنجکاو هستیم، و می‌رویم بيرون و اطلاعات كسب می‌كنيم، می‌دانید؟
04:50
Why do we study ants? It's interesting.
108
290201
1866
چرا ما مورچه‌ها را مطالعه می‌کنیم؟ خوب، چون جالب است.
04:52
Maybe we'll learn something useful, but it's interesting and fascinating.
109
292091
3466
شاید چیز واقعا مفیدی از آن ياد بگيريم، اما علت اينكه دنبالش می‌رويم این است كه موضوع جالب و جذابی است.
04:55
But sometimes a science has other attributes
110
295581
2057
اما گاهی اوقات، یک دانش ویژگی‌های دیگری هم دارد
04:57
which makes it really interesting.
111
297662
1829
که آن را خيلی، خيلی جالب می‌کند.
04:59
Sometimes a science will tell something about ourselves;
112
299515
2627
گاهی اوقات یک علم درباره خودمان چیزی می‌گوید،
05:02
it'll tell us who we are.
113
302166
1224
به ما می‌گوید که چه کسی هستیم.
05:03
Evolution did this and Copernicus did this,
114
303414
2752
به ندرت، می‌دانید، تکامل این کار را کرده و کوپرنیکوس (Copernicus) این کار را کرده،
05:06
where we have a new understanding of who we are.
115
306190
2334
که در آن ما درک جدیدی از آنچه هستیم داريم.
05:08
And after all, we are our brains. My brain is talking to your brain.
116
308548
3428
و از همه اینها که بگذریم، ما همان مغزمان هستیم. مغز من با مغز شما سخن می‌گوید.
05:12
Our bodies are hanging along for the ride,
117
312000
2030
بدن ما ملزومات اضافه است، اما مغز من است که با مغز شما سخن می‌گوید.
05:14
but my brain is talking to your brain.
118
314054
1825
05:15
And if we want to understand who we are and how we feel and perceive,
119
315903
3248
و اگر بخواهیم که دریابیم که چه کسی هستیم و چگونه حس و درک می‌کنیم،
در واقع درمی‌یابیم که مغز چیست.
05:19
we need to understand brains.
120
319175
1391
05:20
Another thing is sometimes science leads to big societal benefits, technologies,
121
320590
3784
چیز دیگر این است که گاهی اوقات علم
موجب منافع اجتماعی عظيم و فن‌آوری‌ها،
05:24
or businesses or whatever.
122
324398
1291
یا حرفه‌هائی، یا هر چیز دیگری که از آنها بر بیاید می‌شود. و این نیز، [یکی از آن موارد است]،
05:25
This is one, too, because when we understand how brains work,
123
325713
2878
چون هنگامی که درک کنیم که کارکرد مغز چگونه است، ما قادر خواهیم بود
05:28
we'll be able to build intelligent machines.
124
328615
2064
ماشین‌های هوشمند بسازیم، و من فکر می‌کنم که در واقع کلا چیز خوبی خواهد بود،
05:30
That's a good thing on the whole,
125
330703
1698
05:32
with tremendous benefits to society,
126
332425
1858
و این منافع بسیار عظیمی برای جامعه خواهد داشت،
05:34
just like a fundamental technology.
127
334307
1669
مانند یک فن‌آوری‌ بنیادین.
05:36
So why don't we have a good theory of brains?
128
336000
2850
بنابراین چرا ما نظریه خوبی راجع به مغز نداریم؟
05:38
People have been working on it for 100 years.
129
338874
2168
در حالی كه انسان‌ها ۱۰۰ سال است که روی این موضوع کار کرده‌اند؟
05:41
Let's first take a look at what normal science looks like.
130
341066
2719
خوب، در ابتدا بیائید نگاهی بیندازیم به اینکه دانش بهنجار چگونه است.
05:43
This is normal science.
131
343809
1187
دانش بهنجار اینگونه است.
05:45
Normal science is a nice balance between theory and experimentalists.
132
345020
4074
دانش بهنجار، تعادل خوبی است میان نظریه و آزمایشگران.
05:49
The theorist guy says, "I think this is what's going on,"
133
349118
2691
و لذا نظریه‌پرداز می‌گوید، خوب، من فکر می‌کنم این چیزی است که دارد اتفاق می‌افتد،
05:51
the experimentalist says, "You're wrong."
134
351833
1961
و از آن سوی آزمایشگر می‌گوید، نه، شما اشتباه می‌کنید.
05:53
It goes back and forth, this works in physics, this in geology.
135
353818
3004
و این تبادل ادامه پیدا می‌کند، می‌دانید؟
در فیزیک این به کار می‌آید. در زمین‌شناسی به کار می‌آید، پس اگر این دانش بهنجار است،
05:56
But if this is normal science, what does neuroscience look like?
136
356846
3009
علوم‌اعصاب چگونه است؟ علوم‌اعصاب این‌گونه است.
05:59
This is what neuroscience looks like.
137
359879
1795
ما این کوه داده‌ها را داریم، شامل کالبد‌شناسی (آناتومی)، تن‌کرد‌شناسی (فیزیولوژی) و رفتار.
06:01
We have this mountain of data,
138
361698
1442
06:03
which is anatomy, physiology and behavior.
139
363164
2070
06:05
You can't imagine how much detail we know about brains.
140
365258
3194
نمی‌توانید تصور کنید که تا چه اندازه جزئیات راجع به مغز می‌دانیم.
06:08
There were 28,000 people who went to the neuroscience conference this year,
141
368476
3592
۲۸ هزار نفر در هم‌آیش امسال علوم‌اعصاب شرکت کردند.
06:12
and every one of them is doing research in brains.
142
372092
2363
و تک‌تک آنها روی مغز‌ها تحقيق می‌کنند.
06:14
A lot of data, but no theory.
143
374479
1694
مقدار زیادی داده. ولی هیچ‌گونه نظریه‌ای نیست. آن جعبه کوچک، فسقلی، در آن بالا هست.
06:16
There's a little wimpy box on top there.
144
376197
2000
06:18
And theory has not played a role in any sort of grand way
145
378221
3382
و نظریه هیچ‌گونه نقش عمده‌ای در علوم‌اعصاب بازی نکرده است.
06:21
in the neurosciences.
146
381627
1429
06:23
And it's a real shame.
147
383080
1240
و این واقعا موجب شرمندگی است. حالا چرا این‌گونه پیش رفته است؟
06:24
Now, why has this come about?
148
384344
1391
06:25
If you ask neuroscientists why is this the state of affairs,
149
385759
2988
اگر از دانشمندان علوم‌اعصاب بپرسید، چرا وضعیت اینگونه است؟
06:28
first, they'll admit it.
150
388771
1246
اول آنها به اين اعتراف می‌کنند. ولی اگر از آنها بپرسید، می‌گویند،
06:30
But if you ask them, they say,
151
390041
1485
06:31
there's various reasons we don't have a good brain theory.
152
391550
2732
خوب، علل متنوعی وجود دارد که نظریه مغزی خوبی نداریم.
06:34
Some say we still don't have enough data,
153
394306
1969
بعضی‌ها می‌گویند، خوب، هنوز به اندازه کافی داده نداریم،
06:36
we need more information, there's all these things we don't know.
154
396299
3059
اطلاعات بیشتر لازم داریم، این همه چیز وجود دارد که هنوز نمی‌دانیم.
06:39
Well, I just told you there's data coming out of your ears.
155
399382
2841
خوب، من الان به شما گفتم که آن قدر داده وجود دارد که دارد از گوش‌هایمان بیرون می‌ریزد.
06:42
We have so much information, we don't even know how to organize it.
156
402247
3164
ما آن‌قدر اطلاعات داریم كه نمی‌دانیم چگونه شروع کنیم به منظم کردنشان.
06:45
What good is more going to do?
157
405435
1438
[اطلاعات] بیشتر چه کمکی می‌تواند بکند؟
06:46
Maybe we'll be lucky and discover some magic thing, but I don't think so.
158
406897
3448
شاید خوش اقبال باشیم و یک چیز جادوئی کشف کنیم،‌ ولی من گمان نمی‌کنم.
06:50
This is a symptom of the fact that we just don't have a theory.
159
410369
2973
این در واقع فقط نشانه این واقعیت است که ما نظریه نداریم.
06:53
We don't need more data, we need a good theory.
160
413366
2610
ما به داده‌های بیشتر نیاز نداریم -- ما به يك نظریه خوب نیازمندیم.
06:56
Another one is sometimes people say,
161
416000
1798
بعضی‌های دیگر می‌گویند، خوب، مغز خیلی پیچیده است،
06:57
"Brains are so complex, it'll take another 50 years."
162
417822
3154
این موضوع ۵۰ سال دیگر طول می‌کشد.
07:01
I even think Chris said something like this yesterday, something like,
163
421000
3354
حتی فکر می‌کنم که کریس (Chris) هم دیروز يک چنين حرفی زد.
کریس، مطمئن نیستم که دقیقا چه گفتی، اما چیزی شبیه این بود،
07:04
it's one of the most complicated things in the universe.
164
424378
2627
که خوب، این یکی از پیچیده‌ترین موضوعات جهان است. این درست نیست.
07:07
That's not true -- you're more complicated than your brain.
165
427029
2790
شما از مغزتان پیچیده‌تر هستید. شما صاحب مغز هستید.
07:09
You've got a brain.
166
429843
1151
و نيز، هرچند مغز بسیار پیچیده به نظر می‌رسد،
07:11
And although the brain looks very complicated,
167
431018
2150
اما هرچيزی تا وقتی که آن را نفهمیم پیچیده به نظر می‌آید.
07:13
things look complicated until you understand them.
168
433192
2336
07:15
That's always been the case.
169
435552
1335
و همیشه هم همینطور بوده. بنابراين، تنها چيزی كه می‌توانیم بگوئیم، اين است كه خوب،
07:16
So we can say, my neocortex, the part of the brain I'm interested in,
170
436911
3243
نئوکورتکس من، که بخش مورد علاقه من در مغز است، ۳۰ میلیارد سلول دارد.
07:20
has 30 billion cells.
171
440178
1152
07:21
But, you know what? It's very, very regular.
172
441354
2432
اما میدانید چیست؟ این خيلی، خيلی عادی است.
07:23
In fact, it looks like it's the same thing repeated over and over again.
173
443810
3394
در واقع، مثل این است که همان چیز بارها و بارها و بار‌ها تکرار شده.
07:27
It's not as complex as it looks. That's not the issue.
174
447228
2536
به اندازه‌ای که به نظر می‌رسه پیچیده نیست. مساله این نیست.
07:29
Some people say, brains can't understand brains.
175
449788
2287
بعضی‌ها می‌گویند، مغز نمی‌تواند مغز را بفهمد.
07:32
Very Zen-like. Woo.
176
452099
1988
این دیگر خیلی ذن مانند و عرفانی است. هوه. می‌دانید--
07:34
(Laughter)
177
454111
2188
(خنده حضار)
07:36
You know, it sounds good, but why? I mean, what's the point?
178
456323
2859
می‌تواند جالب باشد. اما چرا؟ منظورم این است، نکته‌تان چیست؟
07:39
It's just a bunch of cells. You understand your liver.
179
459206
2569
فقط یک مشت سلول است. شما کبد خود را درک می‌کنید.
07:41
It's got a lot of cells in it too, right?
180
461799
1977
آن هم تعداد زیادی سلول دارد، درسته؟
07:43
So, you know, I don't think there's anything to that.
181
463800
2494
بنابراین، می‌دانید، من فکر نمیکنم چیزی در این باشد.
07:46
And finally, some people say,
182
466318
2112
و سرانجام، بعضی‌ها می‌گویند، خوب، می‌دانید،
07:48
"I don't feel like a bunch of cells -- I'm conscious.
183
468454
2983
من احساس نمی‌کنم که تنها یک مشت سلول باشم، می‌دانید. من آگاه هستم.
07:51
I've got this experience, I'm in the world.
184
471461
2069
من این تجربه را دارم، می‌دانید، من در این جهان هستم.
07:53
I can't be just a bunch of cells."
185
473554
1910
من نمی‌توانم تنها یک مشت سلول باشم. ولی، میدانید،
07:55
Well, people used to believe there was a life force to be living,
186
475488
3223
مردم این باور را داشتند که يك نیروی حیاتی برای زنده ماندن لازم است.
07:58
and we now know that's really not true at all.
187
478735
2409
و حالا ما می‌دانیم که این فکر واقعا به هیچ عنوان درست نيست.
08:01
And there's really no evidence,
188
481168
1898
و هیچ شاهدی هم وجود ندارد که این را تائيد كند -- خوب، البته غیر از [گفته‌های] افرادی
08:03
other than that people just disbelieve that cells can do what they do.
189
483090
3374
که باور نمی‌كنند که سلول‌ها می‌توانند کار‌هائی را بکنند كه می‌کنند.
08:06
So some people have fallen into the pit of metaphysical dualism,
190
486488
3041
و خوب، اگر بعضی از آدم‌ها داخل این چالش دوگانگی متافیزیکی افتاده‌اند،
08:09
some really smart people, too, but we can reject all that.
191
489553
2730
حتی بعضی از آدم‌های خیلی باهوش، با اين حال ما می‌توانیم همه آن را رد کنیم.
08:12
(Laughter)
192
492307
2895
(خنده حضار)
خیر، من به شما می‌گویم که چیز دیگری وجود دارد،
08:15
No, there's something else,
193
495226
1741
08:16
something really fundamental, and it is:
194
496991
1985
که واقعا بنیادی است، و آن این است که:
08:19
another reason why we don't have a good brain theory
195
499000
2451
دلیل دیگری هم برای اینکه چرا یک نظریه خوب مغزی نداریم هست،
08:21
is because we have an intuitive, strongly held but incorrect assumption
196
501475
5535
و آن دليل اين است که ما یک فرض حسی، سرسختی داریم،
که غلط است و مانع از آن شده است كه پاسخ را ببينيم.
08:27
that has prevented us from seeing the answer.
197
507034
2112
08:29
There's something we believe that just, it's obvious, but it's wrong.
198
509170
3788
چیزی وجود دارد که ما به آن اعتقاد داریم که فقط بديهی است، ولی غلط است.
08:32
Now, there's a history of this in science and before I tell you what it is,
199
512982
3566
حالا، یک تاریخچه‌ای از این [مسائل] در علم وجود دارد و قبل از این که به شما بگویم که آن چیست،
08:36
I'll tell you about the history of it in science.
200
516572
2299
کمی به شما در مورد تاريخچه این [مسئله] در علم می‌گویم.
08:38
Look at other scientific revolutions --
201
518895
1910
شما نگاهی به بعضی از انقلاب‌های علمی دیگر بیندازید،
08:40
the solar system, that's Copernicus,
202
520829
1879
در این مورد، من درباره منظومه شمسی صحبت می‌کنم، از کوپرنیکوس،
08:42
Darwin's evolution, and tectonic plates, that's Wegener.
203
522732
2819
از تکامل داروینی، و صفحات زمین‌شناسی، که از وگنر(Wegener) است.
همه آنها با علوم مغز مشترکات زیادی دارند.
08:46
They all have a lot in common with brain science.
204
526059
2295
08:48
First, they had a lot of unexplained data. A lot of it.
205
528378
2666
اولا، همه آنها داده‌های تعریف نشده زیادی داشتند. خیلی زیاد.
08:51
But it got more manageable once they had a theory.
206
531068
2794
اما همه آنها از وقتی كه نظريه‌دار شدند قابل اداره کردن شد.
08:53
The best minds were stumped -- really smart people.
207
533886
2807
بهترین ذهن‌ها گیج شده بودند -- آدم‌های خیلی، خیلی باهوش.
08:56
We're not smarter now than they were then;
208
536717
2004
و ما الان از آنها که در آن زمان بودند باهوش‌تر نیستیم.
08:58
it just turns out it's really hard to think of things,
209
538745
2527
قثط این گونه است که اندیشیدن به مسائل واقعا دشوار است،
09:01
but once you've thought of them, it's easy to understand.
210
541296
2676
اما وقتی به آنها اندیشیدید، درک آن آسان می‌شود.
09:03
My daughters understood these three theories,
211
543996
2106
دختران من این سه نظریه را
در چهارچوب ساده آن در دورانی که در کودکستان بودند می‌فهمیدند.
09:06
in their basic framework, in kindergarten.
212
546126
2518
09:08
It's not that hard -- here's the apple, here's the orange,
213
548668
3266
و حالا آن‌ قدر هم سخت نیست، می‌دانید، این یک سیب است، این یک پرتقال است،
09:11
the Earth goes around, that kind of stuff.
214
551958
2018
می‌دانید، زمین می‌چرخد، این جور چیزها.
09:14
Another thing is the answer was there all along,
215
554000
2586
در نهایت، پاسخ چیز دیگری است که تمام مدت آنجا بوده،
09:16
but we kind of ignored it because of this obvious thing.
216
556610
2779
ولی ما به آن بی‌اعتنا بودیم به خاطر همين چیز بديهی، و نکته اصلی همين است.
09:19
It was an intuitive, strongly held belief that was wrong.
217
559413
2850
یک باور حسی، منسجمی بوده که نادرست بوده.
09:22
In the case of the solar system,
218
562287
1690
در مورد منظومه شمسی، این نظر که زمین در حال چرخیدن می‌باشد
09:24
the idea that the Earth is spinning,
219
564001
1760
09:25
the surface is going a thousand miles an hour,
220
565785
2191
و اینکه سطح زمین با سرعتی در حدود هزار مایل در ساعت در حرکت می‌باشد،
09:28
and it's going through the solar system at a million miles an hour --
221
568000
3249
و اینکه زمین با سرعتی حدود یک میلیون مایل در ساعت در منظومه شمسی حرکت می‌کند.
09:31
this is lunacy; we all know the Earth isn't moving.
222
571273
2476
این دیوانگی است. همه ما می‌دانیم که زمین حرکت نمی‌کند.
09:33
Do you feel like you're moving a thousand miles an hour?
223
573773
2877
آیا شما سرعت چند هزار مایل در ساعت را حس می‌کنید؟
معلوم است که نه. می‌دانید، و اگر کسی می‌گفت،
09:36
If you said Earth was spinning around in space and was huge --
224
576674
2919
خوب، زمین در فضا به‌ دور خود می‌چرخد و [زمین] بسیار عظیم است،
09:39
they would lock you up, that's what they did back then.
225
579617
2591
او را می‌انداختند زندان، و این کار را آن قدیم‌ها می‌کردند.
(خنده حضار)
09:42
So it was intuitive and obvious. Now, what about evolution?
226
582232
3275
خوب حسی و بديهی بود. حالا تکامل چطور؟
09:45
Evolution, same thing.
227
585531
1154
تکامل هم همین‌طور است. ما به بچه‌هایمان یاد می‌دادیم، که، خوب، انجیل می‌گوید،
09:46
We taught our kids the Bible says God created all these species,
228
586709
3080
می‌دانید، خدا همه گونه‌ها را آفریده، گربه‌ها گربه‌اند، سگ‌ها سگ هستند،
09:49
cats are cats; dogs are dogs; people are people; plants are plants;
229
589813
3143
انسان‌ها انسانند، گیاهان گیاه‌اند، آنها عوض نمی‌شوند.
09:52
they don't change.
230
592980
1241
نوح آنها را به آن ترتیب سوار کشتی‌ کرد، و، و، و. و می‌دانید،
09:54
Noah put them on the ark in that order, blah, blah.
231
594245
2649
09:56
The fact is, if you believe in evolution, we all have a common ancestor.
232
596918
3395
اگر به تکامل اعتقاد دارید، حقیقت این است که، ما جد مشترکی داریم،
10:00
We all have a common ancestor with the plant in the lobby!
233
600337
3282
و همه ما با گیاهی که در راهرو هم هست جد مشترکی داریم.
10:03
This is what evolution tells us. And it's true. It's kind of unbelievable.
234
603643
3686
این چیزی است که تکامل به ما می‌گوید. و درست است. یک جوری هم غیرقابل باور است.
10:07
And the same thing about tectonic plates.
235
607353
2557
و همین چیز در مورد صفحات زمين، می‌دانید؟
10:09
All the mountains and the continents
236
609934
1722
تمام کوه‌ها و قاره‌ها یک جوری
10:11
are kind of floating around on top of the Earth.
237
611680
2344
روی زمین شناورند، می‌دانید؟ مثل این است که منطقی نیست.
10:14
It doesn't make any sense.
238
614048
1246
10:15
So what is the intuitive, but incorrect assumption,
239
615318
4601
حالا آن پیش‌فرض منطقی،‌ ولی نادرستی که،
10:19
that's kept us from understanding brains?
240
619943
1967
جلوی درک ما از مغز را گرفته است چیست؟
10:21
I'll tell you. It'll seem obvious that it's correct. That's the point.
241
621934
3293
حالا به شما می‌گویم، و به نظر بدیهی خواهد آمد که آن درست است،
و نکته همین جا است، درست؟ بعدش باید بحثی را پیش بکشم
10:25
Then I'll make an argument why you're incorrect on the other assumption.
242
625251
3434
که چرا آن یکی ‌فرضيه نادرست است.
10:28
The intuitive but obvious thing is:
243
628709
1682
نکنه منطقی ولی واضح این است که هوش به نحوی
10:30
somehow, intelligence is defined by behavior;
244
630415
2314
به وسیله رفتار تعریف می‌شود،
10:32
we're intelligent because of how we do things
245
632753
2350
که ما به خاطر نحوه انجام کارهایمان،
10:35
and how we behave intelligently.
246
635127
1572
و نحوه رفتار هوشمندانه‌مان باهوش هستیم، و من به شما می‌گویم که این نادرست است.
10:36
And I'm going to tell you that's wrong.
247
636723
1879
10:38
Intelligence is defined by prediction.
248
638626
2131
آن چیزی که هست این است که هوش است با پیش‌بینی تعریف می‌شود.
10:40
I'm going to work you through this in a few slides,
249
640781
2415
و من با شما روی این موضوع در این چند تصویر کار می‌کنم،
10:43
and give you an example of what this means.
250
643220
2094
و نمونه‌هائی به شما می‌دهم که این به چه معناست. در اینجا یک سامانه (سیستم) داریم.
10:45
Here's a system.
251
645338
1301
10:46
Engineers and scientists like to look at systems like this.
252
646663
2908
مهندس‌ها دوست دارند که به سامانه‌ها این‌گونه نگاه کنند. دانشمندان دوست دارند که به سامانه‌ها این‌گونه نگاه کنند.
10:49
They say, we have a thing in a box. We have its inputs and outputs.
253
649595
3163
آنها می‌گویند، خوب، ما یک چیز درون جعبه داریم، و درون‌رو و برون‌داد آن را هم داریم.
10:52
The AI people said, the thing in the box is a programmable computer,
254
652782
3240
آدم‌های [رشته] هوش‌مصنوعی می‌گفتند، خوب، آن چیز درون جعبه یک رایانه قابل برنامه‌ریزی است.
10:56
because it's equivalent to a brain.
255
656046
1679
چون معادل یک مغز است، و ما به آن مقداری درون‌داد می‌دهیم
10:57
We'll feed it some inputs and get it to do something, have some behavior.
256
657749
3506
و آن را وادار می‌کنیم کاری انجام بدهد، رفتاری داشته باشد.
و آلن تورینگ (Alan Turing) آزمایش تورینگ را تعریف کرد، که در اساس می‌گوید:
11:01
Alan Turing defined the Turing test, which essentially says,
257
661279
2822
ما چیزی را هوشمند می‌دانیم كه مثل یک انسان رفتار کند.
11:04
we'll know if something's intelligent if it behaves identical to a human --
258
664125
3553
یک معيارِ رفتاریِ از اینکه هوش چیست،
11:07
a behavioral metric of what intelligence is
259
667702
2106
11:09
that has stuck in our minds for a long time.
260
669832
2144
و مدت زیادی است كه این در ذهن ما گیر کرده است.
11:12
Reality, though -- I call it real intelligence.
261
672000
2392
در حقیقت اما، چیزیه که من به آن هوش واقعی می‌گویم.
11:14
Real intelligence is built on something else.
262
674416
2175
هوش واقعی بر مبنای چیز دیگری ساخته شده است.
11:16
We experience the world through a sequence of patterns,
263
676615
3214
ما دنیا را از طریق یک سلسله الگو‌هائی تجربه می‌کنیم، و آنها را ذخیره می‌کنیم،
11:19
and we store them, and we recall them.
264
679853
2149
و آنها را بازیابی می‌کنیم. و وقتی آنها را بازیابی می‌کنیم، آنها را
11:22
When we recall them, we match them up against reality,
265
682026
2545
با واقعیت تطبیق می‌دهیم، و دائما در حال پیش‌بینی هستیم.
11:24
and we're making predictions all the time.
266
684595
2251
11:26
It's an internal metric; there's an internal metric about us,
267
686870
2958
این یک معيار دائمی است. یک معيار دائمی در مورد ما که به نحوی می‌گوید،
11:29
saying, do we understand the world, am I making predictions, and so on.
268
689852
3342
آیا ما دنیا را می‌فهمیم؟ آیا من پیش‌بینی‌ می‌کنم؟ و غیره.
11:33
You're all being intelligent now, but you're not doing anything.
269
693218
3002
شما همگی الان هوشمند هستید،‌ ولی در حال انجام كاری نيستيد.
شاید دارید خودتان را می‌خارید، یا دماغ‌تان را تمیز می‌کنید،
11:36
Maybe you're scratching yourself, but you're not doing anything.
270
696244
3002
من نمی‌دانم، ولی کاری الان انجام نمی‌دهید،
11:39
But you're being intelligent; you're understanding what I'm saying.
271
699270
3156
ولی شما هوشمند هستيد، شما می‌فهمید من چه می‌گویم.
11:42
Because you're intelligent and you speak English,
272
702450
2295
چون‌ که شما هوشمند هستید و انگلیسی صحبت می‌کنید،
11:44
you know the word at the end of this
273
704769
1751
شما می‌دانید چه کلمه‌ای در پایان این -- (سکوت)
«جمله» است.
11:46
sentence.
274
706544
1159
11:47
The word came to you; you make these predictions all the time.
275
707727
3152
این کلمه به ذهن شما آمد، و شما دائما این پیش‌بینی‌ها را انجام می‌دهید.
11:50
What I'm saying is,
276
710903
1699
و پس آنچه که من می‌گویم این است که،
11:52
the internal prediction is the output in the neocortex,
277
712626
2631
این پیش‌بینی دائمی محصول و برون‌‌داد نئوکورتکس است.
و به نحوی، پیش‌بینی منجر به رفتار هوشمندانه می‌شود.
11:55
and somehow, prediction leads to intelligent behavior.
278
715281
2541
11:57
Here's how that happens:
279
717846
1151
و این‌گونه اتفاق می‌افتد. بیائید با یک مغز غیرهوشمند شروع کنیم.
11:59
Let's start with a non-intelligent brain.
280
719021
1955
خوب من در باره یک مغز غیرهوشمند بحث می‌کنم، ما یک مغز قدیمی را پیدا کردیم،
12:01
I'll argue a non-intelligent brain, we'll call it an old brain.
281
721000
3009
12:04
And we'll say it's a non-mammal, like a reptile,
282
724033
2871
و ما می‌گوئیم که شبیه مغز یک غیر پستاندار است، مثلا یک خزنده،
12:06
say, an alligator; we have an alligator.
283
726928
1985
پس من می‌گویم، یک تمساح، ما یک تمساح داریم.
12:08
And the alligator has some very sophisticated senses.
284
728937
3371
و این تمساح يكسری حس‌های بسیار پیچیده‌ای دارد.
12:12
It's got good eyes and ears and touch senses and so on,
285
732332
3206
چشمان خوب، گوش‌ها، حس لامسه دارد، و غیره
12:15
a mouth and a nose.
286
735562
1469
يك دهان و يك دماغ. رفتار بسیار پیچیده‌ای دارد.
12:17
It has very complex behavior.
287
737055
1991
12:19
It can run and hide. It has fears and emotions. It can eat you.
288
739070
3906
می‌تواند فرار کند و پنهان شود. ترس و عاطفه دارد. می‌تواند شما را بخورد، می‌دانید.
12:23
It can attack. It can do all kinds of stuff.
289
743000
3590
می‌تواند حمله کند. کلی کار می‌تواند بکند.
12:27
But we don't consider the alligator very intelligent,
290
747193
2856
اما ما تمساح را خيلی هوشمند نمی‌دانیم، نه به گونه انسانی.
12:30
not in a human sort of way.
291
750073
1676
12:31
But it has all this complex behavior already.
292
751773
2356
اما تمساح همه این رفتارهای پیچیده را دارد.
12:34
Now in evolution, what happened?
293
754510
1801
حال، در تکامل، چه اتفاقی افتاده است؟
12:36
First thing that happened in evolution with mammals
294
756335
2385
اولین چیزی که در تکامل پستانداران اتفاق افتاد اين بود كه،
12:38
is we started to develop a thing called the neocortex.
295
758744
2531
ما شروع كردیم به توسعه چیزی به نام نئوکورتکس.
12:41
I'm going to represent the neocortex by this box on top of the old brain.
296
761299
3793
و من اینجا این لایه نئوکورتکس را نمایش می‌دهم،
به وسیله این جعبه که در بالای مغز قدیمی چسپیده است.
12:45
Neocortex means "new layer." It's a new layer on top of your brain.
297
765116
3353
نئوکورتکس به معنی لایه نوین است. آن لایه‌ نوینی است که در بالای مغز شما قرار گرفته است.
12:48
It's the wrinkly thing on the top of your head
298
768493
2343
اگر آن را نمی‌شناسید، آن چیز چروکیده‌ای است که بر روی سر شما قرار گرفته،
12:50
that got wrinkly because it got shoved in there and doesn't fit.
299
770860
3084
چروکیده شده چون داخل آنجا چپانده شده و جا نمی‌شود.
12:53
(Laughter)
300
773968
1008
(خنده حضار)
12:55
Literally, it's about the size of a table napkin
301
775000
2242
نه، واقعا، این چیزی است که هست. تقریبا به اندازه یک دستمال رومیزی است.
12:57
and doesn't fit, so it's wrinkly.
302
777266
1574
و جا نمی‌شود. برای همین همه‌اش چروکیده شده. حالا نگاه کنید چگونه من این را اینجا کشیده‌ام.
12:58
Now, look at how I've drawn this.
303
778864
1745
13:00
The old brain is still there.
304
780633
1386
مغز قدیمی هنوز همان‌جا است. هنوز شما آن مغز تمساحی‌تان را دارید.
13:02
You still have that alligator brain. You do. It's your emotional brain.
305
782043
3655
داریدش. مغز عاطفی شما است.
13:05
It's all those gut reactions you have.
306
785722
2730
تمام آن چیز‌ها است، تمام آن واکنش‌های اولیه‌ای که دارید.
13:08
On top of it, we have this memory system called the neocortex.
307
788476
3270
و بر فراز آن، ما این سامانه حافظه‌ به نام نئوکورتکس را هم در اختیار داریم.
13:11
And the memory system is sitting over the sensory part of the brain.
308
791770
4294
و سامانه حافظه بر فراز قسمت حسی مغز نشسته است.
13:16
So as the sensory input comes in and feeds from the old brain,
309
796088
3055
و لذا همانطور كه درون‌رو‌های حسی وارد می‌شوند و از مغز قدیمی تغذيه می‌شوند،
13:19
it also goes up into the neocortex.
310
799167
2154
و همچنين می‌روند بالا به نئوکورتکس. و نئوکورتکس فقط در حال به خاطر سپردن است.
13:21
And the neocortex is just memorizing.
311
801345
1913
13:23
It's sitting there saying, I'm going to memorize all the things going on:
312
803282
3561
آنجا نشسته و می‌گوید، آها، من همه چیزهائی که اتفاق می‌افتند را به خاطر می‌سپارم.
13:26
where I've been, people I've seen, things I've heard, and so on.
313
806867
3019
جاهائی که بودم، مردمی که دیدم، چیزهائی که شنیدم، و غیره.
13:29
And in the future, when it sees something similar to that again,
314
809910
3362
و در آینده، وقتی چیزی مشابه آن را دوباره ببیند،
13:33
in a similar environment, or the exact same environment,
315
813296
2635
در محیط مشابه، یا در محیط دقیقا یکسان،
13:35
it'll start playing it back: "Oh, I've been here before,"
316
815955
3555
آن را بازپخش می‌کند. شروع به بازپخش آن می‌کند.
آها، من قبلا هم اینجا بوده‌ام. و وقتی بار قبل اینجا بودی،
13:39
and when you were here before, this happened next.
317
819534
2364
بعدش این اتفاق افتاد. این به شما اجازه می‌دهد درباره آینده پیش‌بینی کنید.
13:41
It allows you to predict the future.
318
821922
1726
13:43
It literally feeds back the signals into your brain;
319
823672
3396
به شما اجازه می‌دهد که، واقعا علائم را به مغز باز‌خوران می‌كند؛
13:47
they'll let you see what's going to happen next,
320
827092
2265
و اینها به شما اجازه می‌دهند که بدانيد بعدش چه اتفاقی می‌افتد.
13:49
will let you hear the word "sentence" before I said it.
321
829381
2595
اجازه می‌دهد که کلمه «جمله» را قبل از آنکه من آن را بگویم بشنوید.
13:52
And it's this feeding back into the old brain
322
832000
3185
و این بازخوران‌ به مغز قدیم
13:55
that will allow you to make more intelligent decisions.
323
835209
2577
به شما امکان می‌دهد تا تصمیمات بسیار هوشمندانه‌تری بگیرید.
13:57
This is the most important slide of my talk, so I'll dwell on it a little.
324
837810
3489
این مهم‌ترین تصویر صحبت من است، پس کمی روی آن تاکید می‌کنم.
14:01
And all the time you say, "Oh, I can predict things,"
325
841323
3575
و لذا، شما همواره می‌گوئید که، آها، من می‌توانم چیز‌ها را پیش‌بینی کنم.
14:04
so if you're a rat and you go through a maze, and you learn the maze,
326
844922
3360
و اگر شما موش باشید و از یک معمای پر پیچ و خم رد بشوید، و بعد آن معما را ياد می‌گيريد،
14:08
next time you're in one, you have the same behavior.
327
848306
2439
بار بعدی که در یک معما باشید، رفتار مشابهی خواهید داشت،
14:10
But suddenly, you're smarter; you say, "I recognize this maze,
328
850769
2991
ولی ناگهان،‌ شما با‌هوش‌تر هستید
چون شما می‌گوئید، آها، این معما را می‌شناسم، می‌دانم از کدام طرف بروم،
14:13
I know which way to go; I've been here before; I can envision the future."
329
853784
3542
قبلا هم اینجا بوده‌ام، من می‌توانم آینده را ببینم. و این چیزی است که [مغز] انجام می‌دهد.
14:17
That's what it's doing.
330
857350
1168
14:18
This is true for all mammals --
331
858542
2840
در انسان‌ها -- در ضمن، این موضوع در مورد همه پستانداران صادق است؛
14:21
in humans, it got a lot worse.
332
861406
2031
برای بقیه پستانداران هم درست است -- و در انسان‌ها، بسیار شدیدتر است.
14:23
Humans actually developed the front of the neocortex,
333
863461
2587
در انسان‌ها، در واقع بخش پیشینی نئوکورتکس گسترش يافته است
14:26
called the anterior part of the neocortex.
334
866072
2221
که آن را بخش قدامی نئوکورتکس می‌نامند. و طبیعت نیز کلک کوچکی زد.
14:28
And nature did a little trick.
335
868317
1438
14:29
It copied the posterior, the back part, which is sensory,
336
869779
2687
بخش خلفی را، بخش عقب، که بخش حسی است را، یکسان‌سازی کرد
14:32
and put it in the front.
337
872490
1151
و آن را در بخش جلویی قرار داد.
14:33
Humans uniquely have the same mechanism on the front,
338
873665
2480
و انسان‌ها منحصرا همان کارکرد را در بخش جلویی مغزشان هم دارند،
14:36
but we use it for motor control.
339
876169
1554
اما ما از آن برای تنظیم حرکت استفاده می‌کنیم.
14:37
So we're now able to do very sophisticated motor planning, things like that.
340
877747
3581
پس ما حالا قادر هستیم تا طرح حرکات بسیار پیچیده را ایجاد کنیم، و چیز‌هائی از این قبیل.
14:41
I don't have time to explain, but to understand how a brain works,
341
881352
3126
فعلا زمان آن را ندارم تا به همه این بپردازم، اما اگر می‌خواهید بفهميد که مغز چگونه کار می‌کند،
14:44
you have to understand how the first part of the mammalian neocortex works,
342
884502
3537
ابتدا باید دریابید که نخستین بخش نئوکورتکس پستاندارن چگونه کار می‌کند،
و چگونه ما الگوها را ذخیره می‌کنیم و پیش‌بینی می‌کنیم.
14:48
how it is we store patterns and make predictions.
343
888063
2293
پس بگذارید چند نمونه از پیش‌بینی‌ها را به شما ارائه بدهم.
14:50
Let me give you a few examples of predictions.
344
890380
2188
14:52
I already said the word "sentence."
345
892592
1676
قبلا کلمه «جمله» را گفتم. در موسیقی،
14:54
In music, if you've heard a song before,
346
894292
3206
اگر قبلا آهنگی را شنیده باشید، اگر شنیده باشید که جیل (Jill) قبلا آن آوازها را خوانده باشد،
14:57
when you hear it, the next note pops into your head already --
347
897522
2909
وقتی او آن آوازها می‌خواند، نت بعدی بلافاصله به ذهنتان می‌آید --
15:00
you anticipate it.
348
900455
1151
شما همان‌طور که می‌شنوید پیش‌بینی می‌کنید. اگر یک آلبوم موسيقی بود،
15:01
With an album, at the end of a song, the next song pops into your head.
349
901630
3354
در پایان آلبوم اول، آهنگ بعدی به ذهنتان می‌آید.
15:05
It happens all the time, you make predictions.
350
905008
2305
و این چیزها همیشه اتفاق می‌افتد. شما این حدس‌ها را می‌زنید.
15:07
I have this thing called the "altered door" thought experiment.
351
907337
3039
من این چیز را دارم که اسم آن آزمایش تفکر تغییر درب است.
15:10
It says, you have a door at home;
352
910400
2829
و آزمایش آزمایش تفکر تغییر درب می‌گوید، شما یک درب در خانه دارید،
15:13
when you're here, I'm changing it --
353
913253
1755
وقتی که اینجا هستید، تغییرش می‌دهم، یک آدمی را داریم،
15:15
I've got a guy back at your house right now, moving the door around,
354
915032
3196
که الان در خانه شماست، و مشغول جا‌به‌جا کردن درب است،
15:18
moving your doorknob over two inches.
355
918252
1769
و آنها دسته درب را بر‌ می‌دارند و دو اینچ آن را جا‌به‌جا می‌کنند.
15:20
When you go home tonight, you'll put your hand out, reach for the doorknob,
356
920045
3584
و وقتی که شما امشب به خانه می‌روید، شما دستتان را در می‌آورید،
و به سوی دسته درب دراز می‌کنید و متوجه می‌شوید
15:23
notice it's in the wrong spot
357
923653
1514
که جای آن غلط است، و می‌گوئید، وای، اتفاقی افتاده است.
15:25
and go, "Whoa, something happened."
358
925191
1687
15:26
It may take a second, but something happened.
359
926902
2101
ممکن است ثانیه‌ای طول بکشد تا متوجه بشويد که چه اتفاقی افتاده، اما اتفاقی افتاده است.
15:29
I can change your doorknob in other ways --
360
929027
2003
حال من می‌توانم حلقه درب را به طریق دیگری تغییر بدهم.
15:31
make it larger, smaller, change its brass to silver, make it a lever,
361
931054
3241
می‌توانستم بزرگتر یا کوچکترش کنم. می‌توانم جنسش را از مفرق به نقره تغییر بدهم،
می‌توانستم آن را به یک دسته تغییر بدهم. می‌‌توانم درب خانه‌تان را تغییر بدهم، رنگش کنم،
15:34
I can change the door; put colors on, put windows in.
362
934319
2576
روی آن پنجره بگذارم. می‌توانم هزاران تغییر روی درب ایجاد کنم،
15:36
I can change a thousand things about your door
363
936919
2151
و در همان دو ثانیه‌ای که طول می‌کشد تا درب را باز کنید،
15:39
and in the two seconds you take to open it,
364
939094
2008
شما پی خواهید برد که اینجا چیزی تغییر کرده است.
15:41
you'll notice something has changed.
365
941126
1722
15:42
Now, the engineering approach, the AI approach to this,
366
942872
2584
حال، رویکرد مهندسی به این، رویکرد هوش مصنوعی به این،
15:45
is to build a door database with all the door attributes.
367
945480
2675
ساخت پایگاه ‌داده درب است. تمام ویژگی‌های درب را داراست.
15:48
And as you go up to the door, we check them off one at time:
368
948179
2819
و هنگامی که به درب می‌رسید، می‌دانید، تمام ویژگی‌ها را تک‌تک بررسی می‌کند.
15:51
door, door, color ...
369
951022
1346
درب، درب، درب، می‌دانید، رنگ، می‌دانید که چه می‌گویم.
15:52
We don't do that. Your brain doesn't do that.
370
952392
2100
ما آن کار را نمی‌کنیم. مغز شما آن کار را نمی‌کند.
15:54
Your brain is making constant predictions all the time
371
954516
2540
آنچه مغز شما انجام می‌دهد این است که همواره به طور دائم مشغول پیش‌بینی کردن
15:57
about what will happen in your environment.
372
957080
2034
در مورد این است که در محیط اطراف شما چه اتفاقاتی خواهد افتاد.
15:59
As I put my hand on this table, I expect to feel it stop.
373
959138
2746
در حالی که دستم را روی این میز می‌گذارم، انتظار دارم حس کنم که آن متوقف شده.
16:01
When I walk, every step, if I missed it by an eighth of an inch,
374
961908
3019
هنگام راه رفتن، در هر گام، اگر یک هشتم اینچ اشتباه شود،
16:04
I'll know something has changed.
375
964951
1533
می‌فهمم چیزی تغییر کرده.
16:06
You're constantly making predictions about your environment.
376
966508
2820
شما همواره در حال پیش‌بینی کردن محیط هستید.
16:09
I'll talk about vision, briefly.
377
969352
1593
به طور مختصر راجع به بینائی صحبت می‌کنم. این تصویر یک زن است.
16:10
This is a picture of a woman.
378
970969
1383
16:12
When we look at people, our eyes saccade over two to three times a second.
379
972376
3490
هنگامی که به انسان‌ها نگاه می‌کنید، چشمان‌تان خیره می‌شوند
برای دو یا سه بار در ثانیه.
16:15
We're not aware of it, but our eyes are always moving.
380
975890
2529
شما به این آگاه نیستید، اما چشمانتان همواره در حال حرکت هستند.
و پس وقتی به چهره کسی نگاه می‌کنید،
16:18
When we look at a face, we typically go from eye to eye to nose to mouth.
381
978443
3435
شما بطور معمول از چشم به چشم به چشم به دماغ به دهان می‌روید.
16:21
When your eye moves from eye to eye,
382
981902
1869
حالا، هنگامی که چشمتان از چشم به چشم حرکت می‌کند،
16:23
if there was something else there like a nose,
383
983795
2158
اگر چیز دیگری آنجا باشد مثلا، یک دماغ،
16:25
you'd see a nose where an eye is supposed to be and go, "Oh, shit!"
384
985977
3546
و شما در جائی که قرار است چشم باشد دماغ را ببینید،
و شما می‌گوئید، ای وای، می‌دانید--
16:29
(Laughter)
385
989547
1396
16:30
"There's something wrong about this person."
386
990967
2109
(خنده حضار)
این آدم یک چیزش اشتباه است.
16:33
That's because you're making a prediction.
387
993100
2005
و این به آن دلیل است که شما دارید یک پیش‌بینی می‌کنید.
16:35
It's not like you just look over and say, "What am I seeing? A nose? OK."
388
995129
3439
مثلا این جور نیست که شما نگاه کنید و بگوئید، من الان چه دارم می‌بینم؟
یک بینی، که درست است. نه، شما انتظاری از آنچه که خواهید دید دارید.
16:38
No, you have an expectation of what you're going to see.
389
998592
2634
(خنده حضار)
16:41
Every single moment.
390
1001250
1151
در هر لحظه. و در پایان، به این بی‌اندیشیم که چطور ما هوشمندی را می‌سنجيم.
16:42
And finally, let's think about how we test intelligence.
391
1002425
2629
16:45
We test it by prediction: What is the next word in this ...?
392
1005078
3081
ما با پیش‌بینی آن را می‌سنجیم. لغت بعدی در این‌جا چیست، می‌دانید؟
16:48
This is to this as this is to this. What is the next number in this sentence?
393
1008183
3627
این به این مانند آن به آن. عدد بعدی این جمله چیست؟
16:51
Here's three visions of an object. What's the fourth one?
394
1011834
2690
این سه نما از یک شی است.
نمای چهارم آن چیست؟ این است نحوه سنجش ما. همه‌اش راجع به پیش‌بینی است.
16:54
That's how we test it. It's all about prediction.
395
1014548
2504
16:57
So what is the recipe for brain theory?
396
1017573
2194
پس راه‌کار برای نظریه مغز چیست؟
17:00
First of all, we have to have the right framework.
397
1020219
2366
اول از همه، ما باید چهارچوب درستی داشته باشیم.
17:02
And the framework is a memory framework,
398
1022609
1913
و این چهارچوب یک چهارچوب حافظه است،
17:04
not a computational or behavior framework,
399
1024546
2024
نه یک چهارچوب محاسباتی یا رفتاری. این یک چهار چوب حافظه است.
17:06
it's a memory framework.
400
1026594
1163
17:07
How do you store and recall these sequences of patterns?
401
1027781
2623
چطور شما این مراحل یا الگوها را ذخیره و یا فراخوانی می‌کنید؟ اینها الگوهای فضائی-زمانی هستند.
17:10
It's spatiotemporal patterns.
402
1030428
1442
17:11
Then, if in that framework, you take a bunch of theoreticians --
403
1031894
3009
سپس، اگر در آن چهارچوب، یک تعدادی نظریه‌پرداز را بگیرید.
17:14
biologists generally are not good theoreticians.
404
1034927
2246
حالا زیست‌شناسان کلا نظریه‌پردازان خوبی نیستند.
این همیشه درست نیست، ولی کلا، تاریخچه خوبی از نطریه در زیست‌شناسی موجود نیست.
17:17
Not always, but generally, there's not a good history of theory in biology.
405
1037197
3529
17:20
I've found the best people to work with are physicists,
406
1040750
2574
پس من به این نتیجه رسیده‌ام که بهترین آدم‌های برای این کار فیزیک‌دان‌ها هستند،
17:23
engineers and mathematicians,
407
1043348
1383
مهندس‌ها و ریاضی‌دان‌ها، که گرایش به تفکر الگوریتمی دارند.
17:24
who tend to think algorithmically.
408
1044755
1696
17:26
Then they have to learn the anatomy and the physiology.
409
1046475
3264
آنها باید کالبد‌شناسی یاد بگیرند، و آنها باید تن‌کرد‌شناسی یاد بگیرند.
17:29
You have to make these theories very realistic in anatomical terms.
410
1049763
4496
این نظریه‌ها باید خیلی واقع‌گرایانه از دیدگاه کالبدشناسی تولید شوند.
هر کسی که بلند شود و به شما نظریه خودش را در مورد نحوه کارکرد مغز بگوید
17:34
Anyone who tells you their theory about how the brain works
411
1054283
2765
17:37
and doesn't tell you exactly how it's working
412
1057072
2097
و به شما نگوید که آن دقیقا چگونه در مغز کار می‌کند
17:39
and how the wiring works --
413
1059193
1303
و چگونه مدار آن در مغز کار می‌کند، آن یک نظریه نیست.
17:40
it's not a theory.
414
1060520
1267
17:41
And that's what we do at the Redwood Neuroscience Institute.
415
1061811
2833
و این کاری است که ما در موئسسه علوم‌اعصاب ردوود به آن مشغول هستیم.
17:44
I'd love to tell you we're making fantastic progress in this thing,
416
1064668
3308
من دوست داشتم که وقت بیشتری می‌داشتم که به شما بگویم که ما پیش‌رفت خارق‌العاده‌ای در این زمینه داشته‌ایم،
17:48
and I expect to be back on this stage sometime in the not too distant future,
417
1068000
3662
و من انتظار دارم که مجددا به روی این صحنه بيایم،
شاید این در وقت دیگری در آینده نه چندان دور باشد که به شما در مورد آن بگویم.
17:51
to tell you about it.
418
1071686
1164
17:52
I'm really excited; this is not going to take 50 years.
419
1072874
2594
من خیلی، خیلی هیجان زده‌‌ام. این اصلا قرار نیست ۵۰ سال طول بکشد.
17:55
What will brain theory look like?
420
1075492
1578
پس نطریه مغزی چه شکلی خواهد داشت؟
17:57
First of all, it's going to be about memory.
421
1077094
2055
اولا، یک نظریه در مورد حافظه خواهد بود.
17:59
Not like computer memory -- not at all like computer memory.
422
1079173
2822
نه مانند حافظه رایانه. اصلا مانند حافظه رایانه نیست.
18:02
It's very different.
423
1082019
1151
خیلی، خیلی متفاوت است. و حافطه‌ای است از این
18:03
It's a memory of very high-dimensional patterns,
424
1083194
2257
الگو‌های چند بُعدی، مانند چیز‌هائی که از چشم‌تان می‌آید.
18:05
like the things that come from your eyes.
425
1085475
1962
18:07
It's also memory of sequences:
426
1087461
1437
همچنین این یک حافظه متوالی است.
18:08
you cannot learn or recall anything outside of a sequence.
427
1088922
2730
شما هیچ چیزی را خارج از توالی نمی‌توانید یاد بگیرید.
18:11
A song must be heard in sequence over time,
428
1091676
2837
یک آهنگ باید در یک توالی در طول زمان شنیده شود،
18:14
and you must play it back in sequence over time.
429
1094537
2351
و شما باید آن را در یک توالی در طول زمان باز‌پخش کنید.
18:16
And these sequences are auto-associatively recalled,
430
1096912
2449
و این توالی‌ها به صوت مرتبط و خودکار باز‌یابی می‌شوند، بنابراین اگر من چیزی را ببینم،
18:19
so if I see something, I hear something, it reminds me of it,
431
1099385
2873
چیزی را بشنوم، من را به یاد همان چیز می‌اندازد، و بعد به صورت خودکار بازپخش می‌شود.
18:22
and it plays back automatically.
432
1102282
1533
18:23
It's an automatic playback.
433
1103839
1294
این یک بازپخش خودکار است. و پیش‌بینی درون‌‌روهای آینده، برون‌داد مطلوب است.
18:25
And prediction of future inputs is the desired output.
434
1105157
2548
18:27
And as I said, the theory must be biologically accurate,
435
1107729
2620
و همان‌طور که گفتم، نظریه باید از لحاظ زیست‌شناختی درست باشد،
18:30
it must be testable and you must be able to build it.
436
1110373
2484
و باید قابل آزمایش باشد، و شما باید توانائی ساخت آن را داشته باشید.
18:32
If you don't build it, you don't understand it.
437
1112881
2211
اگر آن را نسازید، آن را درک نمی‌کنید. خوب، یک تصویر دیگر داريم.
18:35
One more slide.
438
1115116
1532
18:36
What is this going to result in?
439
1116672
2309
این به چه نتیجه‌ای میرسد؟ آیا ما واقعا ماشین‌های هوشمند خواهیم ساخت؟
18:39
Are we going to really build intelligent machines?
440
1119005
2348
قطعا. و این با چیزی که مردم به آن فکر می‌کنند متفاوت خواهد بود.
18:41
Absolutely. And it's going to be different than people think.
441
1121377
3798
در نظر من، بدون شک این اتفاق خواهد افتاد.
18:45
No doubt that it's going to happen, in my mind.
442
1125508
2392
18:47
First of all, we're going to build this stuff out of silicon.
443
1127924
3116
اولا، این ساخته خواهد شد، ما این چیز‌ها را از سیلیکون خواهیم ساخت.
18:51
The same techniques we use to build silicon computer memories,
444
1131064
2912
همون فنونی که ما برای ساختن حافظه‌های سیلیکونی رایانه به کار می‌بریم،
18:54
we can use here.
445
1134000
1151
در این‌جا می‌توانیم از آنها استفاده کنیم.
18:55
But they're very different types of memories.
446
1135175
2109
ولی این نوع متفاوتی از حافظه است.
18:57
And we'll attach these memories to sensors,
447
1137308
2023
و ما این حافظه‌ها را به گیرنده‌های حسی وصل می‌کنیم،
18:59
and the sensors will experience real-live, real-world data,
448
1139355
2777
و این گیرنده‌های حسی داده زنده-حقیقی، و دنیای-حقیقی را تجربه خواهند کرد،
19:02
and learn about their environment.
449
1142156
1752
و این چیز‌ها را در مورد محیط‌شان یاد خواهند گرفت.
19:03
Now, it's very unlikely the first things you'll see are like robots.
450
1143932
3445
حالا احتمالش خیلی کم خواهد بود که چیز‌های اولیه‌ای که می‌بینید مانند آدم مصنوعی (روبوت) باشند.
19:07
Not that robots aren't useful; people can build robots.
451
1147401
2575
نه اينكه آدم مصنوعی‌ها مفید نیستند و انسان‌ها می‌توانند آدم مصنوعی‌ بسازند.
19:10
But the robotics part is the hardest part. That's old brain. That's really hard.
452
1150000
3767
ولی قسمت علم آدم مصنوعی (روبوتیکس) سخت‌ترین قسمت این است. این مغز قدیمی است. آن واقعا سخت است.
19:13
The new brain is easier than the old brain.
453
1153791
2007
در واقع مغز جدید تا حدی راحت‌تر از مغز قدیم است.
19:15
So first we'll do things that don't require a lot of robotics.
454
1155822
3082
پس اولین کاری که ما خواهیم کرد چیز‌هائی خواهد بود که نیاز زیادی به علم آدم مصنوعی نخواهد داشت.
19:18
So you're not going to see C-3PO.
455
1158928
2179
پس شما [آدم مصنوعی] سی-۳-پی-او را نخواهید دید.
19:21
You're going to see things more like intelligent cars
456
1161131
2485
شما بیشتر چیز‌هائی مانند، می‌دانید، خودرو هوشمند را خواهید دید
19:23
that really understand what traffic is, what driving is
457
1163640
2808
که واقعا مفهوم ترافیک را درک می‌کنند و این‌که رانندگی چیست
19:26
and have learned that cars with the blinkers on for half a minute
458
1166472
3278
و آموخته‌اند که بعضی از خودروها که چراغ‌ راهنمای‌شان برای نیم دقیقه روشن مانده
19:29
probably aren't going to turn.
459
1169774
1574
احتمالا نخواهند پیچید، و چیزهائی از این قبیل.
19:31
(Laughter)
460
1171372
1291
(خنده حضار)
19:32
We can also do intelligent security systems.
461
1172687
2064
ما همچنین می‌توانیم سامانه‌های امنیتی هوشمند بسازیم.
19:34
Anytime we're basically using our brain but not doing a lot of mechanics --
462
1174775
3573
هر جائی که اساسا ما از مغزمان استفاده می‌کنیم، ولی خیلی کار حرکتی نمی‌کنیم.
19:38
those are the things that will happen first.
463
1178372
2059
اینها چیز‌هائی است که اول اتفاق خواهد افتاد.
19:40
But ultimately, the world's the limit.
464
1180455
1820
ولی در نهایت، در اینجا دنیا محدوده ما است.
19:42
I don't know how this will turn out.
465
1182299
1732
من نمی‌دانم این به چه نحوی در خواهد آمد.
19:44
I know a lot of people who invented the microprocessor.
466
1184055
2591
من یک تعداد زیادی از افرادی را که ریزپردازش‌گر (microprocessor) را ساختند را می‌شناسم.
19:46
And if you talk to them,
467
1186670
2164
و اگر با آنها گفت‌وگو کنید، آنها می‌دانستند کاری که دارند می‌کنند خیلی موثر است،
19:48
they knew what they were doing was really significant,
468
1188858
2575
19:51
but they didn't really know what was going to happen.
469
1191457
2500
ولی واقعا نمی‌دانستند که چه اتفاقی خواهد افتاد.
19:53
They couldn't anticipate cell phones and the Internet
470
1193981
2768
آنها نمی‌توانستند پیش‌بینی تلفن همراه و اینترنت و تمام این‌گونه چیز‌ها را بکنند.
19:56
and all this kind of stuff.
471
1196773
1735
19:58
They just knew like, "We're going to build calculators
472
1198532
2621
آنها فقط مثلا می‌دانستند که، آهای، ما ماشین‌حساب
20:01
and traffic-light controllers.
473
1201177
1440
و تنظیم‌گر چراغ راهنمائی می‌سازیم. ولی این عظيم خواهد بود.
20:02
But it's going to be big!"
474
1202641
1299
20:03
In the same way, brain science and these memories
475
1203964
2341
به همون نحو، این مانند علوم مغزی است و این حافظه‌ها
20:06
are going to be a very fundamental technology,
476
1206329
2225
یک فن‌آوری بنیادین خواهند بود، و منجر به
20:08
and it will lead to unbelievable changes in the next 100 years.
477
1208578
3442
تغییرات خیلی غیر‌قابل باوری در ۱۰۰ سال آینده خواهند شد.
20:12
And I'm most excited about how we're going to use them in science.
478
1212044
3405
و من بیشترین هیجان را از بابت این دارم که از آنها چگونه در علم استفاده خواهیم کرد.
20:15
So I think that's all my time -- I'm over,
479
1215473
2837
خوب، فکر می‌کنم زمان من تمام شده است، من آن را تمام كردم، و صحبتم را
20:18
and I'm going to end my talk right there.
480
1218334
2277
در همین‌جا به پایان می‌رسانم.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7