Don't fear superintelligent AI | Grady Booch

270,465 views ・ 2017-03-13

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Leila Ataei Reviewer: soheila Jafari
00:12
When I was a kid, I was the quintessential nerd.
0
12580
3840
وقتی بچه بودم،‌ اصل درسخوان بودم.
00:17
I think some of you were, too.
1
17140
2176
فکر کنم بعضی از شما همینطوری بودید.
00:19
(Laughter)
2
19340
1216
(خنده)
00:20
And you, sir, who laughed the loudest, you probably still are.
3
20580
3216
و شما آقا که از همه بلندتر خندیدی، احتمالا هنوز هم هستی.
00:23
(Laughter)
4
23820
2256
(خنده)
00:26
I grew up in a small town in the dusty plains of north Texas,
5
26100
3496
در شهری کوچک در دشتهای غبارآلود شما تگزاس بزرگ شدم،
00:29
the son of a sheriff who was the son of a pastor.
6
29620
3336
پسر یک کلانتر که خودش پسر یک کشیش بود.
00:32
Getting into trouble was not an option.
7
32980
1920
پس جایی برای خرابکاری نمیماند.
00:35
And so I started reading calculus books for fun.
8
35860
3256
و من محض تفریح کتابهای حساب میخواندم.
00:39
(Laughter)
9
39140
1536
(خنده)
00:40
You did, too.
10
40700
1696
شما هم اینطور بودید.
00:42
That led me to building a laser and a computer and model rockets,
11
42420
3736
که باعث شد یک لیزر و کامپیوتر و مدل موشکی بسازم،
00:46
and that led me to making rocket fuel in my bedroom.
12
46180
3000
و این که باعث شد در اتاق خوابم سوخت موشک بسازم.
00:49
Now, in scientific terms,
13
49780
3656
الان در عبارات علمی
00:53
we call this a very bad idea.
14
53460
3256
این را یک ایده بد میخوانیم.
00:56
(Laughter)
15
56740
1216
(خنده)
00:57
Around that same time,
16
57980
2176
و هم زمان
01:00
Stanley Kubrick's "2001: A Space Odyssey" came to the theaters,
17
60180
3216
فیلم « ۲۰۰۱: یک ادیسه فضایی» استنلی کوبریک به روی پرده آمد،
01:03
and my life was forever changed.
18
63420
2200
و زندگی من برای همیشه تغییر کرد.
01:06
I loved everything about that movie,
19
66100
2056
از همه چیز فیلم خوشم میامد
01:08
especially the HAL 9000.
20
68180
2536
بخصوص اچ‌ای‌ال ۹۰۰۰.
01:10
Now, HAL was a sentient computer
21
70740
2056
این اچ‌ای‌ال یک کامپیوتر احساسی بود
01:12
designed to guide the Discovery spacecraft
22
72820
2456
که جهت راهنمایی سفینه فضایی دیسکاوری در رفتن از زمین
01:15
from the Earth to Jupiter.
23
75300
2536
به مشتری طراحی شده بود.
01:17
HAL was also a flawed character,
24
77860
2056
ای‌اچ‌ال همینطور یک شخصیت معیوب بود.
01:19
for in the end he chose to value the mission over human life.
25
79940
4280
چون در آخر ماموریت را بجای جان بشر انتخاب کرد.
01:24
Now, HAL was a fictional character,
26
84660
2096
ای‌اچ ال یک شخصیت تخیلی بود
01:26
but nonetheless he speaks to our fears,
27
86780
2656
اما با این وجود درباره ترسهای ما حرف می‌زد،
01:29
our fears of being subjugated
28
89460
2096
ترسمان از مقهور شدن از سوی یک
01:31
by some unfeeling, artificial intelligence
29
91580
3016
هوش مصنوعی بی‌احساس
01:34
who is indifferent to our humanity.
30
94620
1960
که به بشریت بی‌اعتناست.
01:37
I believe that such fears are unfounded.
31
97700
2576
به باور من این ترسها بی‌اساس است.
01:40
Indeed, we stand at a remarkable time
32
100300
2696
ما در واقع در برهه قابل توجهی از تاریخ بشر
01:43
in human history,
33
103020
1536
بسر می‌بریم،
01:44
where, driven by refusal to accept the limits of our bodies and our minds,
34
104580
4976
جاییکه با نگیزش انکار در پذیرش محدودیتهای ذهنی و جسمی خود
01:49
we are building machines
35
109580
1696
ماشینهایی را می سزیم
01:51
of exquisite, beautiful complexity and grace
36
111300
3616
که با پیچیدگی زیبا، منحصربفرد و زیبندگی
01:54
that will extend the human experience
37
114940
2056
تجربه بشری را تا ورای تصورات ما
01:57
in ways beyond our imagining.
38
117020
1680
گسترش خواهند داد.
01:59
After a career that led me from the Air Force Academy
39
119540
2576
بعد از مسیر حرفه‌ای که من را از آکادمی نیروی هوایی
02:02
to Space Command to now,
40
122140
1936
به فرماندهی فضایی و الان
02:04
I became a systems engineer,
41
124100
1696
به این مهندس سیستمی که شدم کشاند،
02:05
and recently I was drawn into an engineering problem
42
125820
2736
و تازگی درگیر مشکل مهندسی شده‌ام
02:08
associated with NASA's mission to Mars.
43
128580
2576
که مرتبط با ماموریت ناسا به مریخ است.
02:11
Now, in space flights to the Moon,
44
131180
2496
الان در سفرهای فضایی به ماه
02:13
we can rely upon mission control in Houston
45
133700
3136
می‌توانیم به کنترل ماموریت در هوستون تکیه کنیم
02:16
to watch over all aspects of a flight.
46
136860
1976
تا کلیه جوانب یک پرواز را نظارت کند.
02:18
However, Mars is 200 times further away,
47
138860
3536
هرچند، مریخ ۲۰۰ بار دورتر است،
02:22
and as a result it takes on average 13 minutes
48
142420
3216
و در نتیجه بطور متوسط ۱۳ دقیقه طول می‌کشد
02:25
for a signal to travel from the Earth to Mars.
49
145660
3136
تا یک سیگنال از زمین به ماه برسد.
02:28
If there's trouble, there's not enough time.
50
148820
3400
اگر مشکلی باشد زمان کافی نداریم.
02:32
And so a reasonable engineering solution
51
152660
2496
و برای یک راه‌حل مهندسی منطقی
02:35
calls for us to put mission control
52
155180
2576
از ما این را طلب می‌کند که کنترل گر ماموریت
02:37
inside the walls of the Orion spacecraft.
53
157780
3016
داخل دیوارهای فضای پیمای اوریون باشد.
02:40
Another fascinating idea in the mission profile
54
160820
2896
یک ایده جذاب دیگر در روند ماموریت
02:43
places humanoid robots on the surface of Mars
55
163740
2896
استفاده از روباتهای انسانی در سطح مریخ است
02:46
before the humans themselves arrive,
56
166660
1856
پیش از رسیدن انسانه،
02:48
first to build facilities
57
168540
1656
اول این که امکاناتی را برپا کنند
02:50
and later to serve as collaborative members of the science team.
58
170220
3360
و بعد بعنوان اعضای همکار تیم علمی خدمت کنند.
02:55
Now, as I looked at this from an engineering perspective,
59
175220
2736
الان که از دید مهندسی به این نگاه می‌کنم
02:57
it became very clear to me that what I needed to architect
60
177980
3176
برایم کاملا روش می‌شود که آنچه بعنوان معمار لازم داشتم
03:01
was a smart, collaborative,
61
181180
2176
یک هوش مصنوعی زیرک،
03:03
socially intelligent artificial intelligence.
62
183380
2376
همکاری کننده و دارای هوش اجتماعی بود.
03:05
In other words, I needed to build something very much like a HAL
63
185780
4296
بعبارتی چیزی به اچ‌ای‌ال بسازم
03:10
but without the homicidal tendencies.
64
190100
2416
اما بدون گرایشات انتحاری.
03:12
(Laughter)
65
192540
1360
(خنده)
03:14
Let's pause for a moment.
66
194740
1816
برای لحظه‌ای بیایید مکث کنیم.
03:16
Is it really possible to build an artificial intelligence like that?
67
196580
3896
آیا امکان سک هوش مصنوعی مثل آن وجود دارد؟
03:20
Actually, it is.
68
200500
1456
راستش هست.
03:21
In many ways,
69
201980
1256
از بسیاری جهات
03:23
this is a hard engineering problem
70
203260
1976
این یک مشکل سخت مهندسی با اجزای
03:25
with elements of AI,
71
205260
1456
ماشین ابر هوشمند است،
03:26
not some wet hair ball of an AI problem that needs to be engineered.
72
206740
4696
نه یک جور گوی مودار خیس از یک مساله ابرهوشمند که نیاز به مهندسی دارد.
03:31
To paraphrase Alan Turing,
73
211460
2656
بگذارید از آلن تورینگ جور دیگر نقل قول کنم،
03:34
I'm not interested in building a sentient machine.
74
214140
2376
من علاقه‌ای به ساخت یک ماشین احساسی ندارم.
03:36
I'm not building a HAL.
75
216540
1576
من اچ‌ای‌ال نمیسازم.
03:38
All I'm after is a simple brain,
76
218140
2416
تمام انچه دنبالشم یک مغز ساده است،
03:40
something that offers the illusion of intelligence.
77
220580
3120
چیزی که شبحی از هوش را ارائه کند.
03:44
The art and the science of computing have come a long way
78
224820
3136
هنر و علم محاسبات کامپیوتری از زمان ای اچ‌ال بر روی پرده
03:47
since HAL was onscreen,
79
227980
1496
روزهای زیادی را پشت سر گذاشته
03:49
and I'd imagine if his inventor Dr. Chandra were here today,
80
229500
3216
ومن تصور می کنم اگر مخترع آن دکتر چاندرا امروز اینجا بود،
03:52
he'd have a whole lot of questions for us.
81
232740
2336
کلی پرسش برای ما داشت.
03:55
Is it really possible for us
82
235100
2096
آیا واقعا برای ما امکان دارد
03:57
to take a system of millions upon millions of devices,
83
237220
4016
یک سیستم چند میلیونی را بنابر میلیونها دستگاه در اختیار بگیریم
04:01
to read in their data streams,
84
241260
1456
تا جریان داده‌های آنها را بخواند،
04:02
to predict their failures and act in advance?
85
242740
2256
تا ایراداتشان را پیش‌بینی کند و پیشاپیش عمل کند.
04:05
Yes.
86
245020
1216
بله.
04:06
Can we build systems that converse with humans in natural language?
87
246260
3176
آیا می‌توان سیستمهایی ساخت که با انسانها به زبان عادی صحبت کنند؟
04:09
Yes.
88
249460
1216
بله.
04:10
Can we build systems that recognize objects, identify emotions,
89
250700
2976
آیا می‌توان سیستمهایی ساخت که اشیا و احساست را بشناسند،
04:13
emote themselves, play games and even read lips?
90
253700
3376
در احساسات خود اغراق کنند، بازی کنند و حتی لب خوانی انجام دهند؟
04:17
Yes.
91
257100
1216
بله.
04:18
Can we build a system that sets goals,
92
258340
2136
آیا می‌توان سیستمهای ساخت که هدف تعیین کنند،
04:20
that carries out plans against those goals and learns along the way?
93
260500
3616
که طرحهایی را علیه آن اهداف انجام دهند و در طول مسیر به یاد گرفتن بپردازند؟
04:24
Yes.
94
264140
1216
بله.
04:25
Can we build systems that have a theory of mind?
95
265380
3336
آیا می‌توان سیستمهای ساخت که دارای نظریه ذهنی باشند؟
04:28
This we are learning to do.
96
268740
1496
کاری که الان داریم میاموزیم.
04:30
Can we build systems that have an ethical and moral foundation?
97
270260
3480
آیا می‌توان سیستمهای ساخت که پایه اخلاقی و وجدانی دارند؟
04:34
This we must learn how to do.
98
274300
2040
چیزی که باید انجامش را بیاموزیم.
04:37
So let's accept for a moment
99
277180
1376
خب بگذارید برای لحظه‌ای بپذیریم
04:38
that it's possible to build such an artificial intelligence
100
278580
2896
که امکان ساخت چنین هوش مصنوعی
04:41
for this kind of mission and others.
101
281500
2136
برای چنین ماموریتهایی وجود دارد.
04:43
The next question you must ask yourself is,
102
283660
2536
این سوال بعدی که باید از خودتان بپرسید،
04:46
should we fear it?
103
286220
1456
آیا باید از آن ترسید؟
04:47
Now, every new technology
104
287700
1976
خب با آمدن هر فناوری جدیدی
04:49
brings with it some measure of trepidation.
105
289700
2896
دلهره و واهمه‌ای هم همراهش میاید.
04:52
When we first saw cars,
106
292620
1696
وقتی برای بار اول ماشینها را دیدیم،
04:54
people lamented that we would see the destruction of the family.
107
294340
4016
مردم تاسف می‌خورند که ما شاهد از دست رفتن خانواده خواهیم بود.
04:58
When we first saw telephones come in,
108
298380
2696
وقتی برای اول تلفن آمد،
05:01
people were worried it would destroy all civil conversation.
109
301100
2896
مردم نگران بودند که نکند اثری از مکالمه مدنی نماند.
05:04
At a point in time we saw the written word become pervasive,
110
304020
3936
در مرحله‌ای از زمان که ما شاهد بودیم کلام نوشتاری فراگیر شد،
05:07
people thought we would lose our ability to memorize.
111
307980
2496
مردم فکر می کردند توانایی خود برای بخاطر سپردن را از دست می دهیم.
05:10
These things are all true to a degree,
112
310500
2056
این چیزها تا حدی درست هستند،
05:12
but it's also the case that these technologies
113
312580
2416
اما همچنین این مورد هم هست که این فناوریها
05:15
brought to us things that extended the human experience
114
315020
3376
برای چیزهایی را آورده‌اند که که تجربیات بشری را عمیقا
05:18
in some profound ways.
115
318420
1880
گسترش داده است.
05:21
So let's take this a little further.
116
321660
2280
پس بیاید کمی این را جلوتر ببریم.
05:24
I do not fear the creation of an AI like this,
117
324940
4736
من از آفرینش یک ابرهوش مصنوعی مثل این واهمه ندارم،
05:29
because it will eventually embody some of our values.
118
329700
3816
چون سرانجام برخی از ارزشهای ما را دربر خواهد گرفت.
05:33
Consider this: building a cognitive system is fundamentally different
119
333540
3496
این را تصور کنید: ساخت یک سیستم ادراکی که اساسا متفاوت است
05:37
than building a traditional software-intensive system of the past.
120
337060
3296
از ساخت یک نظام فشرده- نرم‌افزاری سنتی از گذشته.
05:40
We don't program them. We teach them.
121
340380
2456
آنها را برنامه ریزی نمی‌کنیم. به آنه موزش می دهیم.
05:42
In order to teach a system how to recognize flowers,
122
342860
2656
برای آموزش به یک سیستم که چطور گلها را تشخیص دهد،
05:45
I show it thousands of flowers of the kinds I like.
123
345540
3016
هزارن گل از انواعی که دوست دارم را نشان می دهم.
05:48
In order to teach a system how to play a game --
124
348580
2256
برای این که سیستم نحوه انجام بازیی را بیاموزد.
05:50
Well, I would. You would, too.
125
350860
1960
خب این را می کنم. شما هم همینطور.
05:54
I like flowers. Come on.
126
354420
2040
گلها را دوست دارم. یالا.
05:57
To teach a system how to play a game like Go,
127
357260
2856
برای آموزش به سیستمی که بتواند بازی مثل Go را انجام دهد،
06:00
I'd have it play thousands of games of Go,
128
360140
2056
هزاران بار گذاشتم که بازیهای Go را انجام دهد
06:02
but in the process I also teach it
129
362220
1656
اما در این روند آن را آموزش هم می‌دهم.
06:03
how to discern a good game from a bad game.
130
363900
2416
چطور یک بازی خوب را از بد تشخیص دهد.
06:06
If I want to create an artificially intelligent legal assistant,
131
366340
3696
اکر بخواهم یک دستیار حقوقی باهوش مصنوعی خلق کنم،
06:10
I will teach it some corpus of law
132
370060
1776
کمی از مجموعه قانون را خواهم آموخت
06:11
but at the same time I am fusing with it
133
371860
2856
البته هم زمان با آن مفاهیم
06:14
the sense of mercy and justice that is part of that law.
134
374740
2880
عدالت و بخشش را که بخشی از قانون هستند را خواهم آموخت.
06:18
In scientific terms, this is what we call ground truth,
135
378380
2976
در عبارات علمی، این را حقیقت مبنا مینامیم
06:21
and here's the important point:
136
381380
2016
و نکته مهم این است:
06:23
in producing these machines,
137
383420
1456
در تولید چنین ماشینهایی
06:24
we are therefore teaching them a sense of our values.
138
384900
3416
درواقع به آنها مفهوم ارزشهایمان را میاموزیم.
06:28
To that end, I trust an artificial intelligence
139
388340
3136
به همین ترتیب، به هوش مصنوعی همان اندازه‌ای باور دارم
06:31
the same, if not more, as a human who is well-trained.
140
391500
3640
که به یک انسانی که بخوبی آموزش دیده.
06:35
But, you may ask,
141
395900
1216
اما ممکن است سوال کنید،
06:37
what about rogue agents,
142
397140
2616
ماموران زیرک چطور،
06:39
some well-funded nongovernment organization?
143
399780
3336
یک سازمانه غیردولتی پولدار؟
06:43
I do not fear an artificial intelligence in the hand of a lone wolf.
144
403140
3816
من ازاین که هوش مصنوعی در اختیار یک گرگ تنها باشد نمی‌ترسم.
06:46
Clearly, we cannot protect ourselves against all random acts of violence,
145
406980
4536
معلوم است که ما نمی‌توانیم از خودمان در مقابل تمامی اعمال خشونت‌امیز تصادفی حمایت کنیم
06:51
but the reality is such a system
146
411540
2136
اما حقیقت این است که چنین سیستمی
06:53
requires substantial training and subtle training
147
413700
3096
نیازمند آموزش مفصل و موشکفانه‌ای دارد
06:56
far beyond the resources of an individual.
148
416820
2296
که فرای منابع فردی است.
06:59
And furthermore,
149
419140
1216
و علاوه براین
07:00
it's far more than just injecting an internet virus to the world,
150
420380
3256
بسیار فراتر از ویروس اینترنتی وارد کردن به جهان است
07:03
where you push a button, all of a sudden it's in a million places
151
423660
3096
جاییکه با یک کلیک، به یکباره ویروس در میلیونها جا پراکنده شده
07:06
and laptops start blowing up all over the place.
152
426780
2456
و لپ تاپ ها در همه جا شروع به ترکیدن می کنند.
07:09
Now, these kinds of substances are much larger,
153
429260
2816
خب مفاهیمی این چنینی بسیار بزرگترند
07:12
and we'll certainly see them coming.
154
432100
1715
و ما بی شک شاهد این اتفاقات خواهیم بود.
07:14
Do I fear that such an artificial intelligence
155
434340
3056
آیا از یک چنین هوش مصنوعی می‌ترسم
07:17
might threaten all of humanity?
156
437420
1960
که ممکن است تهدیدی برای بشریت باشد؟
07:20
If you look at movies such as "The Matrix," "Metropolis,"
157
440100
4376
اگر به فیلمهایی مثل ماتریکس، متروپلیس، ترمیناتور یا
07:24
"The Terminator," shows such as "Westworld,"
158
444500
3176
سریالی مثل وست ورلد نگاه کنید،
07:27
they all speak of this kind of fear.
159
447700
2136
تمامی از از چنین ترسی حرف می‌زنند.
07:29
Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom,
160
449860
4296
درواقع، در کتاب «ابرهوش صنوعی» نوشته نیکو بوستروم فیلسوف،
07:34
he picks up on this theme
161
454180
1536
او با این موضوع پیش می‌رود
07:35
and observes that a superintelligence might not only be dangerous,
162
455740
4016
و مشاهده‌اش این است که یک ابرهوش مصنوعی نه تنها شاید خطرناک بشد
07:39
it could represent an existential threat to all of humanity.
163
459780
3856
بلکه نماینده تهدیدی نابودگر برای کل بشریت باشد.
07:43
Dr. Bostrom's basic argument
164
463660
2216
استدلال اولیه دکتر بوستروم
07:45
is that such systems will eventually
165
465900
2736
این است که چنین سیستم‌هایی عاقبت
07:48
have such an insatiable thirst for information
166
468660
3256
چنان عطش سیری‌ناپذیری برای اطلاعات خواهند داشت
07:51
that they will perhaps learn how to learn
167
471940
2896
که شاید نحوه یادگرفتن را یاد بگشیرند
07:54
and eventually discover that they may have goals
168
474860
2616
و سرانجام کشف کنند که اهدافی دارند
07:57
that are contrary to human needs.
169
477500
2296
که مغایر با نیازهای بشر است.
07:59
Dr. Bostrom has a number of followers.
170
479820
1856
دکتر بوستروم کلی دنبال کننده دارد.
08:01
He is supported by people such as Elon Musk and Stephen Hawking.
171
481700
4320
او از سوی کسانی مثل الون موسک و استفن هاوکینگ حمایت می‌شود.
08:06
With all due respect
172
486700
2400
با تمامی احترامی که برای این
08:09
to these brilliant minds,
173
489980
2016
ذهنهای بی‌نظیر قائل هستم،
08:12
I believe that they are fundamentally wrong.
174
492020
2256
اعتقاد دارم که آنها از پایه اشتباه می کنند.
08:14
Now, there are a lot of pieces of Dr. Bostrom's argument to unpack,
175
494300
3176
اکنون قسمتهای زیادیاز استدلال دکتر بوستروم است که باید از چمدان خارج شود
08:17
and I don't have time to unpack them all,
176
497500
2136
و من زمان کافی را برای همه آنها ندارم،
08:19
but very briefly, consider this:
177
499660
2696
فقط خلاصه این را بگویم:
08:22
super knowing is very different than super doing.
178
502380
3736
مدعی العلوم با همه کاره بودن خیلی فرق دارد.
08:26
HAL was a threat to the Discovery crew
179
506140
1896
ای‌اچ ال تهدیدی برای خدمه دیسکاوری بود
08:28
only insofar as HAL commanded all aspects of the Discovery.
180
508060
4416
تنها جاییکه ای‌اچ ال همه جوانب را در دیسکاوری فرماندهی می‌کرد.
08:32
So it would have to be with a superintelligence.
181
512500
2496
بریا این کار باید ابرهوشمند بود.
08:35
It would have to have dominion over all of our world.
182
515020
2496
باید بر همه دنیای ما سلطه داشته باشد.
08:37
This is the stuff of Skynet from the movie "The Terminator"
183
517540
2816
اینها از ویژگیهای اسکای‌نت در فیلم ترمیناتور(نابودگر) است
08:40
in which we had a superintelligence
184
520380
1856
که درآن یک ابرهوش مصنوعی داشتیم
08:42
that commanded human will,
185
522260
1376
که بر اراده بشر حک می‌راند،
08:43
that directed every device that was in every corner of the world.
186
523660
3856
همه چیز و همه جا را در زمین هدایت می‌کرد.
08:47
Practically speaking,
187
527540
1456
اما در عالم واقعیت
08:49
it ain't gonna happen.
188
529020
2096
این اتفاق نخواهد افتاد.
08:51
We are not building AIs that control the weather,
189
531140
3056
ما ماشینهای ابرهوشمندی را نمی‌سازیم که هوا را کنترل کنند،
08:54
that direct the tides,
190
534220
1336
که جزر و مد را جهت‌ دهند،
08:55
that command us capricious, chaotic humans.
191
535580
3376
که به ما انسانهای دمدمی‌مزاج و بی‌نظم فرمان دهند.
08:58
And furthermore, if such an artificial intelligence existed,
192
538980
3896
و علاوه بر آن، اگر چنین هوش مصنوعی وجود داشته باشد،
09:02
it would have to compete with human economies,
193
542900
2936
باید با اقتصادهای بشری رقابت کند،
09:05
and thereby compete for resources with us.
194
545860
2520
و به این وسیله برای منابع با ما رقابت کند.
09:09
And in the end --
195
549020
1216
و در آخر--
09:10
don't tell Siri this --
196
550260
1240
به «سیری» این را نگویید--
09:12
we can always unplug them.
197
552260
1376
همیشه می توانیم از برق آنها را بکشیم.
09:13
(Laughter)
198
553660
2120
(خنده)
09:17
We are on an incredible journey
199
557180
2456
ما در یک سفر باورنکردنی از
09:19
of coevolution with our machines.
200
559660
2496
هم‌فرگشتی با ماشینهای خود بسر می‌بریم.
09:22
The humans we are today
201
562180
2496
این آدمهایی که امروز هستیم
09:24
are not the humans we will be then.
202
564700
2536
آن آدمهایی که بعدا خواهیم شد نیستم.
09:27
To worry now about the rise of a superintelligence
203
567260
3136
الان نگران بودن درباره خیزش یک ابرهوشمند
09:30
is in many ways a dangerous distraction
204
570420
3056
از بسیاری جهات انحرافی خطرناک است
09:33
because the rise of computing itself
205
573500
2336
چون خیزش محاسبات کامپیوتری خودش
09:35
brings to us a number of human and societal issues
206
575860
3016
کلی مسائل اجتماعی و انسانی را برایمان به ارمغان می‌اورد
09:38
to which we must now attend.
207
578900
1640
که باید به آنها رسیدگی کنیم.
09:41
How shall I best organize society
208
581180
2816
چطور به بهترین نحو جامعه‌ای را برنامه ریزی کنم
09:44
when the need for human labor diminishes?
209
584020
2336
وقتی نیاز به نیروی کار بشری نمی‌ماند؟
09:46
How can I bring understanding and education throughout the globe
210
586380
3816
چطور می‌توانم تفاهم و تعلیم را به جهان بیاورم
09:50
and still respect our differences?
211
590220
1776
و هنوز احترام به تفاوتها هم باشد.
09:52
How might I extend and enhance human life through cognitive healthcare?
212
592020
4256
چطور
09:56
How might I use computing
213
596300
2856
چطور شاید از محاسبات کامپیوتری در کمک به
09:59
to help take us to the stars?
214
599180
1760
رسیدن به ستاره‌ها استفاده کنم؟
10:01
And that's the exciting thing.
215
601580
2040
و همین هیجان‌انگیزه است.
10:04
The opportunities to use computing
216
604220
2336
فرصتهایی برای استقاده از محاسبات کامپیوتری
10:06
to advance the human experience
217
606580
1536
برای پیشرفت تجربه بشر
10:08
are within our reach,
218
608140
1416
اینجا و الان
10:09
here and now,
219
609580
1856
در دسترس ما است.
10:11
and we are just beginning.
220
611460
1680
و تازه اول راه هستیم.
10:14
Thank you very much.
221
614100
1216
خیلی متشکرم.
10:15
(Applause)
222
615340
4286
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7