Ray Kurzweil: Get ready for hybrid thinking

ری کورزویل: برای تفکر پیوندی آماده باشید

529,292 views

2014-06-02 ・ TED


New videos

Ray Kurzweil: Get ready for hybrid thinking

ری کورزویل: برای تفکر پیوندی آماده باشید

529,292 views ・ 2014-06-02

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Ahmad Mohammadzadeh Reviewer: Leila Ataei
00:12
Let me tell you a story.
0
12988
2316
اجازه بدید داستانی رو براتون تعریف کنم
00:15
It goes back 200 million years.
1
15304
1799
که به ۲۰۰ میلیون سال پیش برمی گرده.
00:17
It's a story of the neocortex,
2
17103
1984
داستانی درباره ی نئوکورتس؛
00:19
which means "new rind."
3
19087
1974
که به معنای "قشر جدید" است.
00:21
So in these early mammals,
4
21061
2431
بنابراین در پستانداران ابتدایی؛
00:23
because only mammals have a neocortex,
5
23492
2055
چون فقط پستانداران نئوکورتکس دارند؛
00:25
rodent-like creatures.
6
25547
1664
موجوداتی مثل جوندگان،
00:27
It was the size of a postage stamp and just as thin,
7
27211
3579
نئوکورتکس به اندازه ی یک تمبر و باریکی آن بود،
00:30
and was a thin covering around
8
30790
1439
و نقش یک پوشش نازک را اطراف مغز آنها
00:32
their walnut-sized brain,
9
32229
2264
که به اندازه ی یک گردو بود ایفا می کرد.
00:34
but it was capable of a new type of thinking.
10
34493
3701
با این حال قادر به نوع جدیدی از تفکر بود.
00:38
Rather than the fixed behaviors
11
38194
1567
به جای رفتارهای ثابتی که
00:39
that non-mammalian animals have,
12
39761
1992
حیوانات غیر پستاندار داشتند،
00:41
it could invent new behaviors.
13
41753
2692
می توانست رفتارهای جدیدی به وجود آورد.
00:44
So a mouse is escaping a predator,
14
44445
2553
بنابراین وقتی موشی در حال فرار از یک شکارچی بوده،
00:46
its path is blocked,
15
46998
1540
و می بینید مسیرش بسته است،
00:48
it'll try to invent a new solution.
16
48538
2129
سعی می کند راه حل جدیدی ابداع کند.
00:50
That may work, it may not,
17
50667
1266
که ممکن است فایده داشته باشد و یا خیر.
00:51
but if it does, it will remember that
18
51933
1910
اما اگر فایده داشته باشد، موش آن را به خاطر می سپارد
00:53
and have a new behavior,
19
53843
1292
و از آن به بعد یک رفتار جدید دارد
00:55
and that can actually spread virally
20
55135
1457
که می تواند مانند یک ویروس
00:56
through the rest of the community.
21
56592
2195
در جامعه ی موش ها پخش شود.
00:58
Another mouse watching this could say,
22
58787
1609
موش دیگری که شاهد این جریان است می گوید:
01:00
"Hey, that was pretty clever, going around that rock,"
23
60396
2704
" هی، این خیلی هوشمندانه ست که اون سنگ رو دور بزنیم."
01:03
and it could adopt a new behavior as well.
24
63100
3725
و او هم همان رفتار جدید را در پیش می گیرد.
01:06
Non-mammalian animals
25
66825
1717
حیوانات غیر پستاندار
01:08
couldn't do any of those things.
26
68542
1713
نمی توانند هیچ کدام از این کارها را انجام دهند.
01:10
They had fixed behaviors.
27
70255
1215
آنها رفتارهای ثابتی دارند.
01:11
Now they could learn a new behavior
28
71470
1331
آن موجودات می توانستند رفتارهای جدیدی بیاموزند،
01:12
but not in the course of one lifetime.
29
72801
2576
اما نه در یک دوره ی حیات،
01:15
In the course of maybe a thousand lifetimes,
30
75377
1767
بلکه شاید در طول هزاران دوره زندگی
01:17
it could evolve a new fixed behavior.
31
77144
3330
که شامل یک رفتار ثابت جدید می شد.
01:20
That was perfectly okay 200 million years ago.
32
80474
3377
دویست میلیون سال پیش این کاملاً خوب بود.
01:23
The environment changed very slowly.
33
83851
1981
محیط زیست بسیار آرام تغییر می کرد
01:25
It could take 10,000 years for there to be
34
85832
1554
ممکن بود ده هزار سال طول بکشد تا
01:27
a significant environmental change,
35
87386
2092
یک تغییر محیط زیستی قابل توجه انجام شود
01:29
and during that period of time
36
89478
1382
و در این دوره ی زمانی،
01:30
it would evolve a new behavior.
37
90860
2929
ممکن بود رفتار جدیدی نیز تکامل پیدا کند.
01:33
Now that went along fine,
38
93789
1521
تا اینجا همه چیز خوب پیش می رفت،
01:35
but then something happened.
39
95310
1704
اما ناگهان اتفاقی رخ داد.
01:37
Sixty-five million years ago,
40
97014
2246
شصت و پنج میلیون سال پیش
01:39
there was a sudden, violent change to the environment.
41
99260
2615
تغییری ناگهانی و خشونت آمیز در محیط زیست اتفاق افتاد.
01:41
We call it the Cretaceous extinction event.
42
101875
3505
ما آن را رویداد انقراض کرتاسه می نامیم.
01:45
That's when the dinosaurs went extinct,
43
105380
2293
به همین دلیل بود که دایناسورها منقرض شدند.
01:47
that's when 75 percent of the
44
107673
3449
آن موقع بود که ۷۵ درصد از
01:51
animal and plant species went extinct,
45
111122
2746
حیوانات و گونه های گیاهی منقرض شدند.
01:53
and that's when mammals
46
113868
1745
و در آن زمان پستانداران
01:55
overtook their ecological niche,
47
115613
2152
از شرایط اقلیمی پیشی گرفتند
01:57
and to anthropomorphize, biological evolution said,
48
117765
3654
و به تکامل بیولوژیکی و تغییرشکل دهنده گفتند:
02:01
"Hmm, this neocortex is pretty good stuff,"
49
121419
2025
" هممم، این نئوکورتکس خیلی چیز خوبیه."
02:03
and it began to grow it.
50
123444
1793
و شروع به رشد دادن آن کردند.
02:05
And mammals got bigger,
51
125237
1342
پستانداران بزرگتر شدند،
02:06
their brains got bigger at an even faster pace,
52
126579
2915
مغزشان به سرعت بزرگتر شد،
02:09
and the neocortex got bigger even faster than that
53
129494
3807
و نئوکورتکس از آن هم سریعتر رشد کرد
02:13
and developed these distinctive ridges and folds
54
133301
2929
و این چین خوردگی های مشخص را توسعه داد تا
02:16
basically to increase its surface area.
55
136230
2881
سطح خود را افزایش دهد.
02:19
If you took the human neocortex
56
139111
1819
اگر نئوکورتکس یک انسان را بگیرید
02:20
and stretched it out,
57
140930
1301
و آن را باز کنید،
02:22
it's about the size of a table napkin,
58
142231
1713
به اندازه ی یک دستمال سفره خواهد بود،
02:23
and it's still a thin structure.
59
143944
1306
و هنوز هم ساختار نازکی دارد،
02:25
It's about the thickness of a table napkin.
60
145250
1980
که به نازکی همان دستمال سفره است.
02:27
But it has so many convolutions and ridges
61
147230
2497
با این وجود دارای شیارها و پیچ خوردگی های فراوانی ست
02:29
it's now 80 percent of our brain,
62
149727
3075
که در حال حاضر ۸۰ درصد مغز ما را شامل می شود
02:32
and that's where we do our thinking,
63
152802
2461
و آنجا قسمتی است که ما تفکر می کنیم
02:35
and it's the great sublimator.
64
155263
1761
و ضمناً یک تبدیل کننده ی بزرگ است.
02:37
We still have that old brain
65
157024
1114
ما هنوز آن مغز قدیمی را داریم
02:38
that provides our basic drives and motivations,
66
158138
2764
که مُحرِّک ها و انگیزه های ما را فراهم می کند.
02:40
but I may have a drive for conquest,
67
160902
2716
ممکن است من محرکی برای پیروزی داشته باشم
02:43
and that'll be sublimated by the neocortex
68
163618
2715
در این صورت نئوکورتکس آن را تبدیل می کند و به شکلِ
02:46
into writing a poem or inventing an app
69
166333
2909
نوشتن یک شعر، یا ساخت یک برنامه،
02:49
or giving a TED Talk,
70
169242
1509
و یا سخنرانی TED در می آورد.
02:50
and it's really the neocortex that's where
71
170751
3622
و این واقعاً همان کاری است که
02:54
the action is.
72
174373
1968
نئوکورتکس انجام می دهد.
02:56
Fifty years ago, I wrote a paper
73
176341
1717
پنجاه سال پیش من مقاله ای نوشتم درباره ی اینکه
02:58
describing how I thought the brain worked,
74
178058
1918
مغز چطور عمل می کند،
02:59
and I described it as a series of modules.
75
179976
3199
و آن را به صورت مجموعه ای از ماژول ها توصیف کردم.
03:03
Each module could do things with a pattern.
76
183175
2128
هر ماژول می تواند کارهایی را با الگویی مشخص انجام دهد.
03:05
It could learn a pattern. It could remember a pattern.
77
185303
2746
می تواند الگویی را بیاموزد. می تواند الگویی را به خاطر بسپارد.
03:08
It could implement a pattern.
78
188049
1407
می تواند الگویی را اجرا کند.
03:09
And these modules were organized in hierarchies,
79
189456
2679
و این ماژول ها در سلسله مراتب هایی سازماندهی شدند،
03:12
and we created that hierarchy with our own thinking.
80
192135
2954
و ما این سلسله مراتب را با تفکر خودمان به وجود آوردیم.
03:15
And there was actually very little to go on
81
195089
3333
در واقع پنجاه سال پیش چیزهای بسیار کوچکی وجود داشت
03:18
50 years ago.
82
198422
1562
که ادامه دهیم.
03:19
It led me to meet President Johnson.
83
199984
2115
این کار باعث شد پرزیدنت جانسون را ملاقات کنم.
03:22
I've been thinking about this for 50 years,
84
202099
2173
من در این باره پنجاه سال فکر کردم،
03:24
and a year and a half ago I came out with the book
85
204272
2828
و یک سال و نیم پیش کتابی منتشر کردم با نامِ
03:27
"How To Create A Mind,"
86
207100
1265
" چگونه یک ذهن ایجاد کنیم "
03:28
which has the same thesis,
87
208365
1613
که مبحثی مشابه دارد.
03:29
but now there's a plethora of evidence.
88
209978
2812
در حال حاضر شواهد زیادی موجود است.
03:32
The amount of data we're getting about the brain
89
212790
1814
میزان اطلاعاتی که ما از علوم اعصاب درباره ی مغز به دست می آوریم
03:34
from neuroscience is doubling every year.
90
214604
2203
هرسال دوبرابر می شود.
03:36
Spatial resolution of brainscanning of all types
91
216807
2654
وضوح فضایی ِ اسکن مغز از همه ی انواع
03:39
is doubling every year.
92
219461
2285
هرسال دوبرابر می شود.
03:41
We can now see inside a living brain
93
221746
1717
اکنون ما می توانیم درون یک مغز زنده را ببینیم،
03:43
and see individual interneural connections
94
223463
2870
و اتصالات اعصاب منفرد را شاهد باشیم.
03:46
connecting in real time, firing in real time.
95
226333
2703
اتصال در زمان واقعی، شلیک در زمان واقعی است.
03:49
We can see your brain create your thoughts.
96
229036
2419
ما می توانیم مغز شما را در حالی که افکارتان را پدید می آورد ببینیم
03:51
We can see your thoughts create your brain,
97
231455
1575
می توانیم ببینیم که افکار شما مغز شما را پدید می آورد
03:53
which is really key to how it works.
98
233030
1999
که واقعاً کلیدی برای فهمیدن نحوه ی کار آن است.
03:55
So let me describe briefly how it works.
99
235029
2219
اجازه بدید به طور خلاصه نحوه ی کار اون رو توضیح بدم.
03:57
I've actually counted these modules.
100
237248
2275
من این ماژول ها رو شمرده ام.
03:59
We have about 300 million of them,
101
239523
2046
ما حدود ۳۰۰ میلیون ماژول داریم و
04:01
and we create them in these hierarchies.
102
241569
2229
آنها را در سلسله مراتب هایی میسازیم.
04:03
I'll give you a simple example.
103
243798
2082
مثال ساده ای براتون می زنم.
04:05
I've got a bunch of modules
104
245880
2805
من تعداد زیادی ماژول دارم
04:08
that can recognize the crossbar to a capital A,
105
248685
3403
که می تونند خط افقی بین A بزرگ رو تشخیص بدهند.
04:12
and that's all they care about.
106
252088
1914
و این تنها چیزی هست که بهش اهمیت می دهند.
04:14
A beautiful song can play,
107
254002
1578
یک آهنگ زیبا که می تونیم بنوازیم،
04:15
a pretty girl could walk by,
108
255580
1434
یک دختر زیبا که با اون قدم می زنیم،
04:17
they don't care, but they see a crossbar to a capital A,
109
257014
2846
اونها اهمیتی نمی دهند. بلکه فقط یک خط افقی بین A رو می بینند،
04:19
they get very excited and they say "crossbar,"
110
259860
3021
هیجان زده می شوند و می گویند: " خط افقی"
04:22
and they put out a high probability
111
262881
2112
و سپس با اطمینان زیاد پیامی را از طریق
04:24
on their output axon.
112
264993
1634
خروجی آکسون ارسال می کنند
04:26
That goes to the next level,
113
266627
1333
که به مرحله ی بعد می رود.
04:27
and these layers are organized in conceptual levels.
114
267960
2750
این لایه ها در سطوح مفهومی سازماندهی شده اند و
04:30
Each is more abstract than the next one,
115
270710
1856
هر لایه از دیگری انتزاعی تر است.
04:32
so the next one might say "capital A."
116
272566
2418
بنابراین لایه ی بعدی می گوید:« A بزرگ »
04:34
That goes up to a higher level that might say "Apple."
117
274984
2891
سپس به لایه ی بالاتری می رود که می گوید:« Apple»
04:37
Information flows down also.
118
277875
2167
اطلاعات به همین ترتیب پایین می روند.
04:40
If the apple recognizer has seen A-P-P-L,
119
280042
2936
اگر شناسنده کلمه ی Apple حروف A-P-P-L را ببیند،
04:42
it'll think to itself, "Hmm, I think an E is probably likely,"
120
282978
3219
با خود می گوید:« همم،فکر می کنم به احتمال زیاد جای یک E خالیه."
04:46
and it'll send a signal down to all the E recognizers
121
286197
2564
و سپس سیگنالی به تمام شناسنده های E می فرستد
04:48
saying, "Be on the lookout for an E,
122
288761
1619
با این مضمون که:« به دنبال یک E باشید،
04:50
I think one might be coming."
123
290380
1556
فکر می کنم به زودی بیاد"
04:51
The E recognizers will lower their threshold
124
291936
2843
شناسنده های E متمرکز خواهند شد
04:54
and they see some sloppy thing, could be an E.
125
294779
1945
و یک چیز نامفهومی که می تواند E باشد را می بینند.
04:56
Ordinarily you wouldn't think so,
126
296724
1490
در حالت عادی شما به این شکل فکر نمی کنید،
04:58
but we're expecting an E, it's good enough,
127
298214
2009
اما ما انتظار یک E را داریم، که به اندازه ی کافی خوب است،
05:00
and yeah, I've seen an E, and then apple says,
128
300223
1817
و بله، من یک E را دیدم، آن موقع شناسنده apple می گوید:
05:02
"Yeah, I've seen an Apple."
129
302040
1728
«آره، من Apple رو دیدم.»
05:03
Go up another five levels,
130
303768
1746
پنج سطح بالاتر می رویم،
05:05
and you're now at a pretty high level
131
305514
1353
و حال شما در مرتبه ی بالای
05:06
of this hierarchy,
132
306867
1569
این سلسله مراتب هستید،
05:08
and stretch down into the different senses,
133
308436
2353
که به چندین حس تقسیم می شود
05:10
and you may have a module that sees a certain fabric,
134
310789
2655
و ممکن است ماژولی داشته باشید که یک پارچه ی خاص را ببیند،
05:13
hears a certain voice quality, smells a certain perfume,
135
313444
2844
صدای خاصی را بشنود و عصر خاصی را حس کند
05:16
and will say, "My wife has entered the room."
136
316288
2513
و سپس بگوید:« همسرم وارد اتاق شد.»
05:18
Go up another 10 levels, and now you're at
137
318801
1895
ده مرتبه بالاتر بروید، و آنگاه
05:20
a very high level.
138
320696
1160
در بالاترین مرتبه هستید.
05:21
You're probably in the frontal cortex,
139
321856
1937
احتمالاً به قشر قدامی (پیشانی) رسیدید
05:23
and you'll have modules that say, "That was ironic.
140
323793
3767
و ماژول هایی در آنجا دارید که می گویند:« این خنده داره،
05:27
That's funny. She's pretty."
141
327560
2370
این جالبه. او زن زیباییه.»
05:29
You might think that those are more sophisticated,
142
329930
2105
ممکن است فکر کنید که اینها خیلی پیچیده هستند،
05:32
but actually what's more complicated
143
332035
1506
اما آنچه واقعا پیچیده است،
05:33
is the hierarchy beneath them.
144
333541
2669
سلسله مراتب زیر آنهاست.
05:36
There was a 16-year-old girl, she had brain surgery,
145
336210
2620
دختر 16 ساله ای هست که یک بار جراحی مغز داشته،
05:38
and she was conscious because the surgeons
146
338830
2051
و او هنگام جراحی هوشیار بود زیرا جراحان
05:40
wanted to talk to her.
147
340881
1537
می خواستند با او حرف بزنند.
05:42
You can do that because there's no pain receptors
148
342418
1822
شما می توانید این کار را انجام دهید چون هیچ گیرنده ی دردی
05:44
in the brain.
149
344240
1038
در مغز وجود ندارد.
05:45
And whenever they stimulated particular,
150
345278
1800
و هنگامی که آنها نقاط بسیار کوچکی از نئوکورتکس او را
05:47
very small points on her neocortex,
151
347078
2463
تحریک می کردند،
05:49
shown here in red, she would laugh.
152
349541
2665
که در اینجا با رنگ قرمز نشان داده شده، آن دختر می خندید.
05:52
So at first they thought they were triggering
153
352206
1440
به همین دلیل آنها ابتدا فکر کردند که
05:53
some kind of laugh reflex,
154
353646
1720
نوعی از واکنش خنده را تحریک کردند
05:55
but no, they quickly realized they had found
155
355366
2519
اما اینطور نبود. آنها به سرعت فهمیدند که
05:57
the points in her neocortex that detect humor,
156
357885
3044
نقطه ای را در مغز او پیدا کردند که طنز را تشخیص می دهد
06:00
and she just found everything hilarious
157
360929
1969
و وقتی جراحان این نقطه را تحریک می کردند،
06:02
whenever they stimulated these points.
158
362898
2437
آن دختر همه چیز را خنده دار می دید.
06:05
"You guys are so funny just standing around,"
159
365335
1925
" شما آقایون که اونجا ایستادید خیلی خنده دار هستید"
06:07
was the typical comment,
160
367260
1738
این نظر معمولی او بود،
06:08
and they weren't funny,
161
368998
2302
اما آنها خنده دار نبودند،
06:11
not while doing surgery.
162
371300
3247
نه هنگام جراحی.
06:14
So how are we doing today?
163
374547
4830
پس امروزه ما چطور عمل می کنیم؟
06:19
Well, computers are actually beginning to master
164
379377
3054
خب، کامپیوترها در حال یادگیری زبان انسان
06:22
human language with techniques
165
382431
2001
به کمک تکنیک هایی هستند
06:24
that are similar to the neocortex.
166
384432
2867
که مشابه نئوکورتکس می باشند.
06:27
I actually described the algorithm,
167
387299
1514
من الگوریتم آن را توضیح دادم،
06:28
which is similar to something called
168
388813
2054
که مشابه چیزی است که
06:30
a hierarchical hidden Markov model,
169
390867
2233
مدل سلسله مراتبی پنهان مارکوف نامیده می شود،
06:33
something I've worked on since the '90s.
170
393100
3241
چیزی که من از ۱۹۹۰ روی آن کار می کنم.
06:36
"Jeopardy" is a very broad natural language game,
171
396341
3238
"جئوپاردی" یک بازی بسیار گسترده ی زبان طبیعی است
06:39
and Watson got a higher score
172
399579
1892
و واتسون( کامپیوتر شرکت کننده در بازی ) بیشترین امتیاز را
06:41
than the best two players combined.
173
401471
2000
در مقابل دو نفر از بهترین بازیکنان به دست آورد.
06:43
It got this query correct:
174
403471
2499
کامپیوتر توانست این سوال را دریافت کند:
06:45
"A long, tiresome speech
175
405970
2085
" یک سخنرانی طولانی و خسته‌کننده
06:48
delivered by a frothy pie topping,"
176
408055
2152
توسط یک کیک کرِم‌دار هوس‌انگیز "
06:50
and it quickly responded, "What is a meringue harangue?"
177
410207
2796
و به سرعت پاسخ داد:« خامه ناطق دیگر چیست؟»
06:53
And Jennings and the other guy didn't get that.
178
413003
2635
و جِنینگ و شرکت کننده ی دیگر نتوانستند به جواب برسند.
06:55
It's a pretty sophisticated example of
179
415638
1926
این یک مثال کاملا پیچیده از این است که
06:57
computers actually understanding human language,
180
417564
1914
کامپیوترها زبان انسان را درک می کنند
06:59
and it actually got its knowledge by reading
181
419478
1652
و دانش آن را با خواندن ویکی پدیا
07:01
Wikipedia and several other encyclopedias.
182
421130
3785
و دانشنامه های دیگر به دست می آوردند.
07:04
Five to 10 years from now,
183
424915
2133
پنج یا ده سال بعد،
07:07
search engines will actually be based on
184
427048
2184
موتورهای جستجو دیگر فقط به دنبال لینک ها
07:09
not just looking for combinations of words and links
185
429232
2794
و ترکیب های یک کلمه نمی گردند،
07:12
but actually understanding,
186
432026
1914
بلکه واقعاً درک می کنند.
07:13
reading for understanding the billions of pages
187
433940
2411
مطالعه برای درک میلیاردها صفحه
07:16
on the web and in books.
188
436351
2733
در وب و در کتاب ها.
07:19
So you'll be walking along, and Google will pop up
189
439084
2616
بنابراین هنگامی که قدم می زنید، گوگل پنجره ای باز خواهد کرد
07:21
and say, "You know, Mary, you expressed concern
190
441700
3081
و می گوید:«می دونی، مری، یک ماه پیش
07:24
to me a month ago that your glutathione supplement
191
444781
3019
به من ابراز نگرانی کرده بودی که مکمل گلوتاتیون تو
07:27
wasn't getting past the blood-brain barrier.
192
447800
2231
به بافت های داخلی مغز نمیرسه.
07:30
Well, new research just came out 13 seconds ago
193
450031
2593
خب، تحقیقات جدیدی که همین سیزده ثانیه ی پیش منتشر شد
07:32
that shows a whole new approach to that
194
452624
1711
راه حلی برای رفع این مشکل
07:34
and a new way to take glutathione.
195
454335
1993
و روش جدیدی برای دریافت گلوتاتیون ارائه کرده.
07:36
Let me summarize it for you."
196
456328
2562
بذار خلاصه اش رو بگم.»
07:38
Twenty years from now, we'll have nanobots,
197
458890
3684
۲۰ سال بعد، ما نانوروبات ها را خواهیم داشت،
07:42
because another exponential trend
198
462574
1627
چون یکی دیگر از روندهای رو به رشد،
07:44
is the shrinking of technology.
199
464201
1615
کوچکتر شدن تکنولوژی است.
07:45
They'll go into our brain
200
465816
2370
نانوروبات ها از طریق عروق
07:48
through the capillaries
201
468186
1703
وارد مغز ما می شوند
07:49
and basically connect our neocortex
202
469889
2477
و نئوکورتکس ما را
07:52
to a synthetic neocortex in the cloud
203
472366
3185
به یک نئوکورتکس مصنوعی در ابر متصل می کنند
07:55
providing an extension of our neocortex.
204
475551
3591
که باعث گسترش نئوکورتکس ما می شود.
07:59
Now today, I mean,
205
479142
1578
می خواهم بگویم که امروزه
08:00
you have a computer in your phone,
206
480720
1530
شما کامپیوتری در تلفن خود دارید،
08:02
but if you need 10,000 computers for a few seconds
207
482250
2754
اما اگر به ده هزار کامپیوتر تنها در چند ثانیه نیاز داشته باشید،
08:05
to do a complex search,
208
485004
1495
تا یک جستجوی پیچیده را انجام دهید
08:06
you can access that for a second or two in the cloud.
209
486499
3396
می توانید در عرض یک یا دو ثانیه در ابر به آن دسترسی پیدا کنید.
08:09
In the 2030s, if you need some extra neocortex,
210
489895
3095
در سال ۲۰۳۰ اگر به نئوکورتس اضافی احتیاج داشته باشید
08:12
you'll be able to connect to that in the cloud
211
492990
2273
می توانید مستقیماً از طریق مغز خود
08:15
directly from your brain.
212
495263
1648
به آن که در ابر قرار دارد متصل شوید.
08:16
So I'm walking along and I say,
213
496911
1543
بنابراین من در حال قدم زدن هستم و می گویم:
08:18
"Oh, there's Chris Anderson.
214
498454
1363
»" اوه، کریس اندرسون اینجاست.
08:19
He's coming my way.
215
499817
1525
داره میاد سر راه من.
08:21
I'd better think of something clever to say.
216
501342
2335
بهتره حرفی بزنم که هوشمندانه باشه.
08:23
I've got three seconds.
217
503677
1524
سه ثانیه وقت دارم.
08:25
My 300 million modules in my neocortex
218
505201
3097
۳۰۰ میلیون ماژول در نئوکورتکس من
08:28
isn't going to cut it.
219
508298
1240
نمی توانند این کار رو انجام بدند.
08:29
I need a billion more."
220
509538
1246
به یک میلیارد دیگراحتیاج دارم.»
08:30
I'll be able to access that in the cloud.
221
510784
3323
و می توانم در ابر به آن دسترسی پیدا کنم.
08:34
And our thinking, then, will be a hybrid
222
514107
2812
آن زمان تفکر ما، پیوندی از
08:36
of biological and non-biological thinking,
223
516919
3522
تفکر زیستی و غیرزیستی خواهد بود.
08:40
but the non-biological portion
224
520441
1898
اما بخش غیر زیستی،
08:42
is subject to my law of accelerating returns.
225
522339
2682
موضوع قانون تغییرات شتابدار من است.
08:45
It will grow exponentially.
226
525021
2239
تغییرات به صورت نمایی رشد خواهند کرد.
08:47
And remember what happens
227
527260
2016
و به یاد بیاورید آخرین باری که
08:49
the last time we expanded our neocortex?
228
529276
2645
نئوکورتکس خود را گسترش دادیم چه اتفاقی افتاد.
08:51
That was two million years ago
229
531921
1426
دو میلیون سال پیش بود،
08:53
when we became humanoids
230
533347
1236
وقتی انسان نماهایی شدیم،
08:54
and developed these large foreheads.
231
534583
1594
و این پیشانی بزرگ را گسترش دادیم.
08:56
Other primates have a slanted brow.
232
536177
2583
پستانداران دیگر یک ابروی مایل دارند.
08:58
They don't have the frontal cortex.
233
538760
1745
آنها فاقد قشر قدامی هستند.
09:00
But the frontal cortex is not really qualitatively different.
234
540505
3685
اما قشر قدامی واقعاً یک تفاوت کیفی به حساب نمی آید.
09:04
It's a quantitative expansion of neocortex,
235
544190
2743
بلکه گسترش کمّی نئوکورتکس است
09:06
but that additional quantity of thinking
236
546933
2703
اما این میزان اضافی تفکر
09:09
was the enabling factor for us to take
237
549636
1779
عاملی بود که ما را قادر ساخت
09:11
a qualitative leap and invent language
238
551415
3346
جهشی برداریم و زبان ها،
09:14
and art and science and technology
239
554761
1967
هنر،علم، تکنولوژی
09:16
and TED conferences.
240
556728
1454
و کنفرانس TED را اختراع کنیم.
09:18
No other species has done that.
241
558182
2131
هیچ گونه ی دیگری این کار را انجام نداده است.
09:20
And so, over the next few decades,
242
560313
2075
و در طول چند دهه ی دیگر،
09:22
we're going to do it again.
243
562388
1760
قصد داریم دوباره این کار را انجام دهیم.
09:24
We're going to again expand our neocortex,
244
564148
2274
قصد داریم بار دیگر نئوکورتکس خود را گسترش دهیم،
09:26
only this time we won't be limited
245
566422
1756
اما این بار دیگر توسط چارچوبی از معماری ثابت
09:28
by a fixed architecture of enclosure.
246
568178
4280
محدود نخواهیم شد.
09:32
It'll be expanded without limit.
247
572458
3304
نئوکورتکس بدون محدودیت گسترش می یابد،
09:35
That additional quantity will again
248
575762
2243
آن مقدار اضافی دوباره عاملی خواهد بود
09:38
be the enabling factor for another qualitative leap
249
578005
3005
که به ما اجازه ی جهشی دیگر در
09:41
in culture and technology.
250
581010
1635
فرهنگ و فناوری را خواهد داد.
09:42
Thank you very much.
251
582645
2054
خیلی ممنونم.
09:44
(Applause)
252
584699
3086
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7