How to get empowered, not overpowered, by AI | Max Tegmark

127,885 views ・ 2018-07-05

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Nima Pourreza Reviewer: sadegh zabihi
00:12
After 13.8 billion years of cosmic history,
0
12760
4416
پس از ۱۳٫۸ میلیارد سال از تاریخ کیهانی،
00:17
our universe has woken up
1
17200
2096
جهان ما از خواب بیدار شده
00:19
and become aware of itself.
2
19320
1520
و درباره خود آگاه شده است.
00:21
From a small blue planet,
3
21480
1936
از یک سیاره آبی کوچک،
00:23
tiny, conscious parts of our universe have begun gazing out into the cosmos
4
23440
4136
بخش‌های هوشیار کوچکی از جهان ما نگاه کردن به کیهان
00:27
with telescopes,
5
27600
1376
و کشف برخی حقایق حیرت‌انگیز را
00:29
discovering something humbling.
6
29000
1480
با تلسکوپ‌ها آغاز کرده‌اند.
00:31
We've discovered that our universe is vastly grander
7
31320
2896
ما فهمیده‌ایم که جهان ما از آن چیزی که گذشتگانمان
00:34
than our ancestors imagined
8
34240
1336
تصور می‌کردند وسیع‌تر است
00:35
and that life seems to be an almost imperceptibly small perturbation
9
35600
4256
و حیات تقریباً شاخه بسیار مبهم و کوچکی
00:39
on an otherwise dead universe.
10
39880
1720
از جهان‌های مرده دیگر بنظر می‌آید.
00:42
But we've also discovered something inspiring,
11
42320
3016
ما همچنین حقایق الهام‌بخشی کشف کرده‌ایم:
00:45
which is that the technology we're developing has the potential
12
45360
2976
تکنولوژی که ما در حال توسعه آن هستیم
00:48
to help life flourish like never before,
13
48360
2856
چنان قابلیتی در شکوفا کردن حیات دارد
00:51
not just for centuries but for billions of years,
14
51240
3096
که نه‌تنها در قرن‌ها که در میلیاردها سال
00:54
and not just on earth but throughout much of this amazing cosmos.
15
54360
4120
و نه‌تنها در زمین که در کل جهان هستی بی‌نظیر است.
00:59
I think of the earliest life as "Life 1.0"
16
59680
3336
معتقدم حیات اولیه نسخه "حیات ۱.۰" می‌گرفت
چرا که ساده‌ترین نوع حیات بود،
01:03
because it was really dumb,
17
63040
1376
01:04
like bacteria, unable to learn anything during its lifetime.
18
64440
4296
همچون باکتری که ناتوانی در یاد گرفتن هر چیزی در طول زندگی‌اش داشت.
01:08
I think of us humans as "Life 2.0" because we can learn,
19
68760
3376
معتقدم ما نسخه "حیات ۲.۰" را می‌گیریم چرا که می‌توانیم یاد بگیریم
01:12
which we in nerdy, geek speak,
20
72160
1496
که در زبان عامیانه عشقِ کامپیوترها
01:13
might think of as installing new software into our brains,
21
73680
3216
همچون توانایی نصب کردن نرم‌افزار به مغزمان است،
01:16
like languages and job skills.
22
76920
2120
مثل زبان‌های جدید و توانایی‌های کاری.
01:19
"Life 3.0," which can design not only its software but also its hardware
23
79680
4296
نسخه "۳.۰" حیات، که علاوه بر نرم‌افزار، می‌تواند سخت‌افزار خودش را هم طراحی کند
البته هنوز به وجود نیامده است.
01:24
of course doesn't exist yet.
24
84000
1656
01:25
But perhaps our technology has already made us "Life 2.1,"
25
85680
3776
اما شاید بتوان گفت تکنولوژی فعلی ما نسخه "حیات ۲.۱" است
01:29
with our artificial knees, pacemakers and cochlear implants.
26
89480
4336
با توانایی ما در ساخت مفصل مصنوعی، دستگاه تنظیم ضربان قلب و کاشت حلزونی.
01:33
So let's take a closer look at our relationship with technology, OK?
27
93840
3880
خب، پس بگذارید نگاهی از نزدیک به رابطه‌مان با تکنولوژی بیندازیم:
01:38
As an example,
28
98800
1216
این مثالی از
01:40
the Apollo 11 moon mission was both successful and inspiring,
29
100040
5296
ماموریت آپولو ۱۱ برای فرود در ماه است که موفقیت‌آمیز و الهام‌بخش بود،
01:45
showing that when we humans use technology wisely,
30
105360
3016
نشان می‌دهد زمانی که انسان‌ها از تکنولوژی عاقلانه استفاده می‌کنند
01:48
we can accomplish things that our ancestors could only dream of.
31
108400
3936
می‌توانیم به موفقیت‌هایی برسیم که گذشتگان‌مان در خواب هم نمی‌دیدند.
01:52
But there's an even more inspiring journey
32
112360
2976
اما هنوز اکتشافات هرچه بیشتر الهام‌بخشی وجود دارند
01:55
propelled by something more powerful than rocket engines,
33
115360
2680
که توسط چیزی قوی‌تر از موتور موشک به جلو رانده می‌شوند،
01:59
where the passengers aren't just three astronauts
34
119200
2336
که مسافران آن‌ها محدود به سه فضانورد نمی‌شود
02:01
but all of humanity.
35
121560
1776
بلکه کل بشریت را شامل می‌شود.
02:03
Let's talk about our collective journey into the future
36
123360
2936
بگذارید در مورد سفر همگانی‌مان به آینده
02:06
with artificial intelligence.
37
126320
2000
توسط هوش‌مصنوعی صحبت کنیم.
02:08
My friend Jaan Tallinn likes to point out that just as with rocketry,
38
128960
4536
یکی از دوستانم یان تالین اشاره می‌کند که درست مانند فناوری موشکی،
02:13
it's not enough to make our technology powerful.
39
133520
3160
کافی نیست که فقط فناوری‌مان را قوی کنیم.
02:17
We also have to figure out, if we're going to be really ambitious,
40
137560
3175
بلکه اگر بخواهیم واقعا جاه‌طلب باشیم، باید مشخص کنیم
02:20
how to steer it
41
140759
1416
که چطور می‌خواهیم آن را هدایت کنیم
02:22
and where we want to go with it.
42
142199
1681
و کجا می‌خواهیم با آن برویم.
02:24
So let's talk about all three for artificial intelligence:
43
144880
2840
پس بیاید در مورد سه مبحث مربوط به هوش‌مصنوعی صحبت کنیم:
02:28
the power, the steering and the destination.
44
148440
3056
قدرت، هدایت، و مقصد.
02:31
Let's start with the power.
45
151520
1286
با بحث قدرت شروع می‌کنیم.
02:33
I define intelligence very inclusively --
46
153600
3096
من هوشمندی را با تمام جزئیات تعریف می‌کنم --
02:36
simply as our ability to accomplish complex goals,
47
156720
4336
یعنی بطور ساده توانایی ما در رسیدن به اهداف پیچیده،
02:41
because I want to include both biological and artificial intelligence.
48
161080
3816
چون با این تعریف می‌خواهم هر دو شاخه هوش یعنی مصنوعی و زیستی را شامل کنم.
02:44
And I want to avoid the silly carbon-chauvinism idea
49
164920
4016
با این‌ کار از ایده احمقانه و از روی تعصبِ کربن‌محور اجتناب می‌کنم
02:48
that you can only be smart if you're made of meat.
50
168960
2360
که فقط در صورتی می‌توانید باهوش باشید که از گوشت ساخته شده باشید.
02:52
It's really amazing how the power of AI has grown recently.
51
172880
4176
رشد اخیر قدرت هوش‌مصنوعی واقعاً شگفت‌انگیز است.
02:57
Just think about it.
52
177080
1256
در موردش فکر کنید.
02:58
Not long ago, robots couldn't walk.
53
178360
3200
تا همین چند وقت پیش ربات‌ها نمی‌توانستند راه بروند.
03:03
Now, they can do backflips.
54
183040
1720
اما حالا پشتک می‌زنند.
03:06
Not long ago,
55
186080
1816
همین چند وقت پیش،
03:07
we didn't have self-driving cars.
56
187920
1760
ما خودروهای خودران نداشتیم.
03:10
Now, we have self-flying rockets.
57
190920
2480
اکنون موشک‌های، خود پرواز داریم.
03:15
Not long ago,
58
195960
1416
همین چند وقت پیش،
03:17
AI couldn't do face recognition.
59
197400
2616
هوش‌مصنوعی توانایی تشخیص چهره را نداشت.
03:20
Now, AI can generate fake faces
60
200040
2976
اکنون، هوش‌مصنوعی می‌تواند چهره‌های تقلبی بسازد
03:23
and simulate your face saying stuff that you never said.
61
203040
4160
و حرکات چهره شما را در حالی که چیزی می‌گویید که هرگز نگفته‌اید شبیه‌سازی کند.
03:28
Not long ago,
62
208400
1576
همین چند وقت پیش،
هوش‌مصنوعی نمی‌توانست در بازی Go ما را شکست دهد.
03:30
AI couldn't beat us at the game of Go.
63
210000
1880
03:32
Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games
64
212400
5096
اما بعداً، هوش‌مصنوعی ذهن عمیق آلفا زیرو گوگل
۳,۰۰۰ سال تاریخچه بازی Go و خرد آن را کنار زد
03:37
and Go wisdom,
65
217520
1256
03:38
ignored it all and became the world's best player by just playing against itself.
66
218800
4976
و به بهترین بازیکن Go فقط با تمرین با خودش تبدیل شد.
03:43
And the most impressive feat here wasn't that it crushed human gamers,
67
223800
3696
و چشم‌گیرترین دستاورد در این اتفاق شکست دادن بازیکنان انسانی نبود،
03:47
but that it crushed human AI researchers
68
227520
2576
بلکه شکست دادن خود محققان هوش‌مصنوعی توسط هوش‌مصنوعی بود
03:50
who had spent decades handcrafting game-playing software.
69
230120
3680
که سال‌ها مشغول سخت‌ترکردن بازی‌های نرم افزاری بودند.
03:54
And AlphaZero crushed human AI researchers not just in Go but even at chess,
70
234200
4656
آلفا زیرو نه‌تنها در Go که در شطرنج هم محققان هوش‌مصنوعی را شکست داد،
03:58
which we have been working on since 1950.
71
238880
2480
دستاوردی که از سال ۱۹۵۰، بر رویش در حال کار ‌بودیم.
04:02
So all this amazing recent progress in AI really begs the question:
72
242000
4240
پس تمامی این پیشرفت‌های اخیر هوش‌مصنوعی شدیدا سوالی را بر می‌انگیزد:
04:07
How far will it go?
73
247280
1560
تا کجا ادامه خواهد داشت؟
04:09
I like to think about this question
74
249800
1696
من دوست دارم به این سوال
04:11
in terms of this abstract landscape of tasks,
75
251520
2976
به صورت منظره‌ای انتزاعی از وظایف فکر کنم
04:14
where the elevation represents how hard it is for AI to do each task
76
254520
3456
که ارتفاع هر کار نشان دهنده سختی آن کار برای هوش‌مصنوعی
04:18
at human level,
77
258000
1216
در سطح انسانی است،
04:19
and the sea level represents what AI can do today.
78
259240
2760
و سطح آب دریا نشان دهنده توانایی امروز هوش‌مصنوعی است.
هرچه هوش‌مصنوعی پیشرفت کند، ارتفاع دریا افزایش پیدا می‌کند
04:23
The sea level is rising as AI improves,
79
263120
2056
04:25
so there's a kind of global warming going on here in the task landscape.
80
265200
3440
پس به نوعی با پدیده گرمایش جهانی در این منظره از وظایف مواجهیم.
04:30
And the obvious takeaway is to avoid careers at the waterfront --
81
270040
3335
و آشکارترین پند این است که از انجام کارهای در نزدیکی آب خودداری کنید --
04:33
(Laughter)
82
273399
1257
(خنده حضار)
04:34
which will soon be automated and disrupted.
83
274680
2856
که بزودی خودکار یا دچار مشکل خواهند بود.
04:37
But there's a much bigger question as well.
84
277560
2976
اما سوالی بسیار بزرگ‌تری هم هست.
04:40
How high will the water end up rising?
85
280560
1810
تا چه میزانی آب بالا خواهد آمد؟
04:43
Will it eventually rise to flood everything,
86
283440
3200
آیا تا محدوده‌ای که همه چیز را غرق کند پیش خواهد رفت
04:47
matching human intelligence at all tasks.
87
287840
2496
تا تمام وظایف انسان‌ها را در بر بگیرد؟
04:50
This is the definition of artificial general intelligence --
88
290360
3736
و این تعریفی برای هوش‌مصنوعی‌ همه‌جانبه،
04:54
AGI,
89
294120
1296
AGI است.
04:55
which has been the holy grail of AI research since its inception.
90
295440
3080
که هدف نهایی محققان هوش‌مصنوعی از زمان تعریف شدنش است.
04:59
By this definition, people who say,
91
299000
1776
با این تعریف، مردم می‌گویند:
05:00
"Ah, there will always be jobs that humans can do better than machines,"
92
300800
3416
"همیشه برای انسان‌ها شغل‌هایی باقیست که از ماشین‌ها بهتر انجام دهند."
05:04
are simply saying that we'll never get AGI.
93
304240
2920
و معتقدند هرگز به هوش‌مصنوعی همه‌جانبه نخواهیم رسید.
05:07
Sure, we might still choose to have some human jobs
94
307680
3576
یقیناً، ما شاید بتوانیم شغل‌هایی خاص برای انسان‌ها انتخاب کنیم
05:11
or to give humans income and purpose with our jobs,
95
311280
3096
یا برای انسان‌ها درآمد و هدفی با شغل‌هایمان متصور شویم،
05:14
but AGI will in any case transform life as we know it
96
314400
3736
اما هوش‌مصنوعی‌همه‌جانبه، زندگی که با آن آشناییم را به کل تغییر خواهد داد
05:18
with humans no longer being the most intelligent.
97
318160
2736
بطوریکه انسان‌ها دیگر هوشمندترین نخواهند بود.
05:20
Now, if the water level does reach AGI,
98
320920
3696
خب، اگر سطح آب به سطح هوش‌مصنوعی‌همه‌جانبه برسد،
05:24
then further AI progress will be driven mainly not by humans but by AI,
99
324640
5296
دیگر پیشرفت‌های بعدی هوش‌مصنوعی توسط انسان نیستند
بلکه خود هوش‌مصنوعی خودش را ارتقا خواهد داد،
05:29
which means that there's a possibility
100
329960
1856
که به معنی احتمال سرعت یافتن پیشرفت‌های بعدی
05:31
that further AI progress could be way faster
101
331840
2336
هوش‌مصنوعی در مقابل
05:34
than the typical human research and development timescale of years,
102
334200
3376
زمانی که تحقیقات و توسعه انسانی طول می‌کشد خواهد بود،
05:37
raising the controversial possibility of an intelligence explosion
103
337600
4016
این باعث افزایش احتمال وقوع پدیده جنجالی تکینگی هوشمندی می‌شود
05:41
where recursively self-improving AI
104
341640
2296
زمانی که هوش‌مصنوعی خود ارتقاء مرتباً
05:43
rapidly leaves human intelligence far behind,
105
343960
3416
انسان‌ها را در هوشمندی پشت سر می‌گذارد.
05:47
creating what's known as superintelligence.
106
347400
2440
و ابر هوش‌مصنوعی در این زمان متولد می‌گردد.
05:51
Alright, reality check:
107
351800
2280
بگذارید به حال برگردیم:
05:55
Are we going to get AGI any time soon?
108
355120
2440
آیا به این زودی به هوش‌مصنوعی‌همه‌جانبه خواهیم رسید؟
05:58
Some famous AI researchers, like Rodney Brooks,
109
358360
2696
برخی از محققان مشهور هوش‌مصنوعی همچون رودنی بروکس
06:01
think it won't happen for hundreds of years.
110
361080
2496
معتقدند این اتفاق تا صدها سال طول خواهد کشید.
06:03
But others, like Google DeepMind founder Demis Hassabis,
111
363600
3896
اما بقیه همچون موسس هوش‌مصنوعی دیپ مایند گوگل، دمیس هاسابیس،
06:07
are more optimistic
112
367520
1256
خوش‌بین‌تر هستند
06:08
and are working to try to make it happen much sooner.
113
368800
2576
و سخت تلاش می‌کنند هرچه زودتر اتفاق بیفتد.
06:11
And recent surveys have shown that most AI researchers
114
371400
3296
نظرسنجی‌های اخیر نشان داده اکثر محققان هوش‌مصنوعی
06:14
actually share Demis's optimism,
115
374720
2856
به خوش‌بینی دمیس معتقدند
06:17
expecting that we will get AGI within decades,
116
377600
3080
و انتظار ظهور هوش‌مصنوعی‌همه‌جانبه را در چند دهه آینده دارند،
06:21
so within the lifetime of many of us,
117
381640
2256
یعنی در طول عمر اکثر ما.
06:23
which begs the question -- and then what?
118
383920
1960
که این سوال بعدی را به وجود می‌آورد -- بعد از آن چه می‌شود؟
06:27
What do we want the role of humans to be
119
387040
2216
نقش انسان‌ها بعد از اینکه ماشین‌ها تمام کارها را
06:29
if machines can do everything better and cheaper than us?
120
389280
2680
بهتر و ارزان‌تر انجام دادند، چه خواهد بود؟
06:35
The way I see it, we face a choice.
121
395000
2000
از دید من، ما بر سر دوراهی خواهیم بود.
06:38
One option is to be complacent.
122
398000
1576
انتخاب اول این است که از خود راضی باشیم:
06:39
We can say, "Oh, let's just build machines that can do everything we can do
123
399600
3776
"بگذارید ماشین‌هایی بسازیم که همه‌کاره باشند
06:43
and not worry about the consequences.
124
403400
1816
و نگران پیش‌آمدهایش نباشیم.
06:45
Come on, if we build technology that makes all humans obsolete,
125
405240
3256
اگر ما تکنولوژی بسازیم که همه انسان‌ها را از رده خارج کند
06:48
what could possibly go wrong?"
126
408520
2096
مثلا چه چیز بدی ممکن است اتفاق بیافتد که نگرانید؟"
06:50
(Laughter)
127
410640
1656
(خنده حضار)
06:52
But I think that would be embarrassingly lame.
128
412320
2760
اما بنظر من این انتخاب بشدت نسنجیده خواهد بود.
06:56
I think we should be more ambitious -- in the spirit of TED.
129
416080
3496
بنظرم ما باید بخاطر حضور در TED هم که شده بیشتر جاه طلبانه فکر کنیم.
06:59
Let's envision a truly inspiring high-tech future
130
419600
3496
بگذارید آینده‌ای واقعاً الهام‌بخش را متصور شویم
07:03
and try to steer towards it.
131
423120
1400
و برای رسیدن به آن با تأمل حرکت کنیم.
07:05
This brings us to the second part of our rocket metaphor: the steering.
132
425720
3536
این مارا به بحث دوم در تشبیه موشک می‌کشاند: هدایت.
07:09
We're making AI more powerful,
133
429280
1896
ما در حال قوی‌تر کردن هوش‌مصنوعی هستیم
07:11
but how can we steer towards a future
134
431200
3816
اما چگونه آن را به سوی آینده هدایت کنیم
07:15
where AI helps humanity flourish rather than flounder?
135
435040
3080
که هوش‌مصنوعی بشریت را به جای تسلیم کردن کامل‌تر کند؟
07:18
To help with this,
136
438760
1256
برای کمک به این بحث،
من موسسه تحقیقات حیات آینده را تاسیس نمودم.
07:20
I cofounded the Future of Life Institute.
137
440040
1976
موسسه‌ای کوچک و غیر انتفاعی که فواید استفاده از تکنولوژی را تبلیغ می‌کند
07:22
It's a small nonprofit promoting beneficial technology use,
138
442040
2776
07:24
and our goal is simply for the future of life to exist
139
444840
2736
و هدف ما ساده است:
در آینده حیات وجود داشته باشد و به بهترین شکل ممکن درآید.
07:27
and to be as inspiring as possible.
140
447600
2056
07:29
You know, I love technology.
141
449680
3176
می‌دانید، من عاشق تکنولوژی هستم.
07:32
Technology is why today is better than the Stone Age.
142
452880
2920
تکنولوژی دلیل بهتر بودن امروز نسبت به عصر سنگی است.
07:36
And I'm optimistic that we can create a really inspiring high-tech future ...
143
456600
4080
و من خوش‌بینم که ما می‌توانیم آینده‌ای با فناوری بالا و الهام‌بخش بسازیم،
07:41
if -- and this is a big if --
144
461680
1456
اگر -- و این اگر دشواریست --
07:43
if we win the wisdom race --
145
463160
2456
اگر ما در نبرد دانش پیروز شویم --
07:45
the race between the growing power of our technology
146
465640
2856
نبردی میان رشد قدرت تکنولوژی‌مان
07:48
and the growing wisdom with which we manage it.
147
468520
2200
و رشد دانشی که خودمان داریم.
07:51
But this is going to require a change of strategy
148
471240
2296
اما این پیروزی نیازمند تغییر استراتژی است
07:53
because our old strategy has been learning from mistakes.
149
473560
3040
چون استراتژی قبلی ما بر پایه یادگیری از اشتباهات بوده است.
07:57
We invented fire,
150
477280
1536
ما آتش را اختراع کردیم،
07:58
screwed up a bunch of times --
151
478840
1536
چندین بار باعث حادثه شد،
08:00
invented the fire extinguisher.
152
480400
1816
و مواد آتش خاموش کن ساختیم.
08:02
(Laughter)
153
482240
1336
(خنده حضار)
08:03
We invented the car, screwed up a bunch of times --
154
483600
2416
ماشین را اختراع کردیم، چند بار باعث تصادف شد
08:06
invented the traffic light, the seat belt and the airbag,
155
486040
2667
سپس چراغ راهنما، کمربند ایمنی و کیسه هوا را اختراع کردیم،
08:08
but with more powerful technology like nuclear weapons and AGI,
156
488731
3845
اما در برخورد با تکنولوژی‌های قدرتمندی چون سلاح هسته‌ای و هوش‌مصنوعی‌همه‌جانبه،
08:12
learning from mistakes is a lousy strategy,
157
492600
3376
یادگیری از اشتباهات، استراتژی شکست خورده محسوب می‌شود،
08:16
don't you think?
158
496000
1216
بنظر شما اینطور نیست؟
08:17
(Laughter)
159
497240
1016
(خنده حضار)
08:18
It's much better to be proactive rather than reactive;
160
498280
2576
فعالانه عمل کردن بهتر از واکنش است؛
08:20
plan ahead and get things right the first time
161
500880
2296
از پیش برنامه‌ریزی کنید و از همان اول همه چیز را درست کنید
08:23
because that might be the only time we'll get.
162
503200
2496
چون ممکن است تنها فرصت‌مان باشد.
08:25
But it is funny because sometimes people tell me,
163
505720
2336
اما این جالب است چون گاهی مردم به من می‌گویند:
08:28
"Max, shhh, don't talk like that.
164
508080
2736
"مکس، هیشش، اینطوری صحبت نکن،
08:30
That's Luddite scaremongering."
165
510840
1720
چرا که سخنانت مانند تکنولوژی‌هراسان ترسناک است."
08:34
But it's not scaremongering.
166
514040
1536
اما این‌ها ترسناک نیستند
08:35
It's what we at MIT call safety engineering.
167
515600
2880
بلکه ما در MIT آن‌ها را بخشی از دروس مهندسی ایمنی می‌دانیم.
08:39
Think about it:
168
519200
1216
به آن فکر کنید:
08:40
before NASA launched the Apollo 11 mission,
169
520440
2216
قبل از اینکه ناسا ماموریت آپولو ۱۱ را آغاز کند،
08:42
they systematically thought through everything that could go wrong
170
522680
3136
آن‌ها به طور منظم احتمال هر ایرادی
08:45
when you put people on top of explosive fuel tanks
171
525840
2376
در حالتی که شما انسان‌هایی روی تانکرهای سوختی می‌گذارید
08:48
and launch them somewhere where no one could help them.
172
528240
2616
و به‌جایی می‌فرستید که هیچ کمکی بعداً نمی‌شود فرستاد، بررسی کردند.
08:50
And there was a lot that could go wrong.
173
530880
1936
احتمال فراوانی از ایرادها ممکن بود.
08:52
Was that scaremongering?
174
532840
1480
آیا آن بررسی‌ها باعث ترس می‌شدند؟
08:55
No.
175
535159
1217
نه.
08:56
That's was precisely the safety engineering
176
536400
2016
این دقیقاً همان مهندسی ایمنی بود
08:58
that ensured the success of the mission,
177
538440
1936
که موفقیت ماموریت را تضمین کرد.
09:00
and that is precisely the strategy I think we should take with AGI.
178
540400
4176
معتقدم همان استراتژی دقیقاً باید در مورد هوش‌مصنوعی‌همه‌جانبه نیز به کار رود.
09:04
Think through what can go wrong to make sure it goes right.
179
544600
4056
در مورد پیش‌آمد‌های بد فکر کن تا مطمئن شوی بدون نقص خواهد شد.
09:08
So in this spirit, we've organized conferences,
180
548680
2536
خب در این زمینه، کنفرانس‌هایی تشکیل دادیم
09:11
bringing together leading AI researchers and other thinkers
181
551240
2816
تا محققان پیشتاز هوش‌مصنوعی را کنار یکدیگر جمع کنیم
09:14
to discuss how to grow this wisdom we need to keep AI beneficial.
182
554080
3736
تا در مورد چگونگی رشد دانش‌مان به منظور داشتن هوش‌مصنوعی سودمند گفتگو کنیم.
09:17
Our last conference was in Asilomar, California last year
183
557840
3296
آخرین کنفرانس ما، سال قبل در آسیلومر کالیفرنیا بود
09:21
and produced this list of 23 principles
184
561160
3056
و این لیست ۲۳ بندی از اصولی
09:24
which have since been signed by over 1,000 AI researchers
185
564240
2896
که توسط ۱۰۰۰ نفر از محققان هوش‌مصنوعی
و رهبران صنعتی امضا شده را تشکیل داد.
09:27
and key industry leaders,
186
567160
1296
09:28
and I want to tell you about three of these principles.
187
568480
3176
می‌خواهم در مورد سه تا از این اصول برایتان بگویم:
09:31
One is that we should avoid an arms race and lethal autonomous weapons.
188
571680
4960
اول، باید از هرگونه مسابقه نظامی و سلاح‌های خودکار مرگبار خودداری شود.
09:37
The idea here is that any science can be used for new ways of helping people
189
577480
3616
نکته این است که هر علمی می‌تواند
باعث ایجاد راه‌های جدید برای کمک یا صدمه‌زدن به مردم شود.
09:41
or new ways of harming people.
190
581120
1536
09:42
For example, biology and chemistry are much more likely to be used
191
582680
3936
به طور نمونه، زیست‌شناسی و شیمی
بیشتر در مقاصد ساخت دارو و درمان‌های جدید
09:46
for new medicines or new cures than for new ways of killing people,
192
586640
4856
در مقابل روش جدید برای کشتن مردم بکار می‌رود،
09:51
because biologists and chemists pushed hard --
193
591520
2176
چراکه زیست‌شناسان و شیمی‌دانان مستمرانه --
09:53
and successfully --
194
593720
1256
و موفقیت آمیز --
برای ممنوع کردن سلاح‌های زیستی و شیمیایی تلاش کردند.
09:55
for bans on biological and chemical weapons.
195
595000
2176
09:57
And in the same spirit,
196
597200
1256
و در همین زمینه،
09:58
most AI researchers want to stigmatize and ban lethal autonomous weapons.
197
598480
4440
اکثر محققان هوش‌مصنوعی می‌خواهند استفاده از
سلاح‌های مرگبار خودکار را ممنوع و بد جلوه دهند.
10:03
Another Asilomar AI principle
198
603600
1816
اصل بعدی تصویب شده در کنفرانس آسیلومار،
10:05
is that we should mitigate AI-fueled income inequality.
199
605440
3696
ما باید شکاف درآمدی حاصل از هوش‌مصنوعی را کاهش دهیم.
10:09
I think that if we can grow the economic pie dramatically with AI
200
609160
4456
معتقدم، اگر بتوانیم کیک [سرانه درآمد جهان] را با هوش‌مصنوعی به شدت بزرگ کنیم
10:13
and we still can't figure out how to divide this pie
201
613640
2456
اما نتوانیم راهی برای تقسیم آن پیدا کنیم
10:16
so that everyone is better off,
202
616120
1576
طوری که همه راضی باشند،
10:17
then shame on us.
203
617720
1256
پس شرم بر ما.
10:19
(Applause)
204
619000
4096
(تشویق حضار)
10:23
Alright, now raise your hand if your computer has ever crashed.
205
623120
3600
اگر کسی تا حالا کامپیوترش خراب شده، دستش را بالا بیاورد.
10:27
(Laughter)
206
627480
1256
(خنده حضار)
10:28
Wow, that's a lot of hands.
207
628760
1656
واو، دست‌ها زیاد هستند.
10:30
Well, then you'll appreciate this principle
208
630440
2176
خب، پس باید به این اصل شما هم معتقد باشید
10:32
that we should invest much more in AI safety research,
209
632640
3136
که باید بودجه زیادی برای تحقیق روی تحقیقات ایمنی‌هوش‌مصنوعی بگذاریم.
10:35
because as we put AI in charge of even more decisions and infrastructure,
210
635800
3656
چون زمانی‌که ما هوش‌مصنوعی را تصمیم‌گیر و مسئول زیرساخت‌ها قرار می‌دهیم،
10:39
we need to figure out how to transform today's buggy and hackable computers
211
639480
3616
باید راهی برای تبدیل کامپیوترهای ایراددار و قابل هک امروزی
به هوش‌مصنوعی قدرت‌مندی که واقعاً بتوان به آن اعتماد کرد پیدا کنیم،
10:43
into robust AI systems that we can really trust,
212
643120
2416
10:45
because otherwise,
213
645560
1216
در غیر اینصورت،
10:46
all this awesome new technology can malfunction and harm us,
214
646800
2816
تمامی این تکنولوژی وحشتناک می‌تواند دچار اختلال شده و به ما آسیب رساند،
10:49
or get hacked and be turned against us.
215
649640
1976
یا هک شده و علیه ما تنظیم شود.
10:51
And this AI safety work has to include work on AI value alignment,
216
651640
5696
کار ما بر روی ایمنی کارکرد هوش‌مصنوعی باید شامل کار بر روی تنظیم ارزش‌هایش باشد،
10:57
because the real threat from AGI isn't malice,
217
657360
2816
چرا که تهدید واقعی از جانب هوش‌مصنوعی‌همه‌جانبه از نوع شیطانی نیست
11:00
like in silly Hollywood movies,
218
660200
1656
همانند آنچه در فیلم‌های احمقانه هالیوودی هست،
11:01
but competence --
219
661880
1736
بلکه از نوع برتری است --
11:03
AGI accomplishing goals that just aren't aligned with ours.
220
663640
3416
یعنی هوش‌مصنوعی‌همه‌جانبه به اهدافی می‌رسد که با اهداف ما در تضاد است.
11:07
For example, when we humans drove the West African black rhino extinct,
221
667080
4736
برای نمونه، وقتی ما انسان‌ها کرگدن‌های سیاه غرب‌آفریقایی را به انقراض کشاندیم،
11:11
we didn't do it because we were a bunch of evil rhinoceros haters, did we?
222
671840
3896
به‌خاطر دسته‌ای از افکار شیطانی ضد کرگدنی این‌کار را نکردیم که، قبول دارید؟
11:15
We did it because we were smarter than them
223
675760
2056
ما این‌کار را بخاطر اینکه از آن‌ها باهوش‌تر بودیم
11:17
and our goals weren't aligned with theirs.
224
677840
2576
و اهداف ما با آن‌ها در تضاد بود انجام دادیم.
11:20
But AGI is by definition smarter than us,
225
680440
2656
اما هوش‌مصنوعی‌همه‌جانبه روی کاغذ از ما هوشمندتر است
11:23
so to make sure that we don't put ourselves in the position of those rhinos
226
683120
3576
پس برای اینکه اطمینان داشته باشیم خودمان را در مقامی چون کرگدن‌ها در مقابل
11:26
if we create AGI,
227
686720
1976
هوش‌مصنوعی‌همه‌جانبه -- اگر ساختیم -- قرار ندهیم،
11:28
we need to figure out how to make machines understand our goals,
228
688720
4176
ما باید بفهمیم که ماشین‌ها چگونه اهداف ما را می‌فهمند
11:32
adopt our goals and retain our goals.
229
692920
3160
با آن‌ها سازگار شده و تغییرشان نمی‌دهند.
11:37
And whose goals should these be, anyway?
230
697320
2856
اما پس اهداف چه‌کسی باید روی‌آن‌ها تنظیم گردد؟
11:40
Which goals should they be?
231
700200
1896
چه اهدافی باید باشند؟
11:42
This brings us to the third part of our rocket metaphor: the destination.
232
702120
3560
این ما را به بحث سوم‌ در تشبیه موشک می‌رساند: مقصد.
11:47
We're making AI more powerful,
233
707160
1856
ما در حال قوی‌تر کردن هوش‌مصنوعی هستیم،
11:49
trying to figure out how to steer it,
234
709040
1816
می‌خواهیم طریقه هدایتش را بدانیم،
11:50
but where do we want to go with it?
235
710880
1680
اما با آن به کجا می‌خواهیم برویم؟
11:53
This is the elephant in the room that almost nobody talks about --
236
713760
3656
این چالشی است که هیچ‌کس نمی‌خواهد در موردش صحبت کند --
11:57
not even here at TED --
237
717440
1856
حتی در همین صحنه TED نیز --
11:59
because we're so fixated on short-term AI challenges.
238
719320
4080
زیرا همه ما شدیداً به اهداف کوتاه‌مدت هوش‌مصنوعی چسبیده‌ایم.
12:04
Look, our species is trying to build AGI,
239
724080
4656
نژاد ما در حال ساختن هوش‌مصنوعی‌همه‌جانبه است،
12:08
motivated by curiosity and economics,
240
728760
3496
که با انگیزه‌ توجیه اقتصادی و کنجکاوی همراه است،
12:12
but what sort of future society are we hoping for if we succeed?
241
732280
3680
اما پس اگر موفق شویم، چه تصوری از جامعه آینده باید داشته باشیم؟
12:16
We did an opinion poll on this recently,
242
736680
1936
ما اخیراً نظرسنجی بر روی این موضوع داشتیم.
12:18
and I was struck to see
243
738640
1216
من به‌طور ناخوش‌آیندی متوجه شدم
12:19
that most people actually want us to build superintelligence:
244
739880
2896
اکثر مردم واقعاً از ما می‌خواهد ابرهوش‌مصنوعی را بسازیم:
12:22
AI that's vastly smarter than us in all ways.
245
742800
3160
هوش‌مصنوعی که بشدت در همه جهات از ما هوشمندتر است.
12:27
What there was the greatest agreement on was that we should be ambitious
246
747120
3416
و چیزی که عامه توافق بالایی روی‌آن دارند
بلندپروازی ما برای کمک در انتشار حیات در عالم است،
12:30
and help life spread into the cosmos,
247
750560
2016
12:32
but there was much less agreement about who or what should be in charge.
248
752600
4496
اما توافق کمی درباره اینکه چه کسی یا چه چیزی مسئول آن باشد وجود دارد.
12:37
And I was actually quite amused
249
757120
1736
و من واقعا دلم می‌خواهد کسی را
12:38
to see that there's some some people who want it to be just machines.
250
758880
3456
که می‌خواهد فقط ماشین‌ها در عالم به عنوان حیات پخش شوند ببینم.
12:42
(Laughter)
251
762360
1696
(خنده حضار)
12:44
And there was total disagreement about what the role of humans should be,
252
764080
3856
و عدم‌توافق کاملی در مورد نقش انسان‌ها داریم
12:47
even at the most basic level,
253
767960
1976
حتی در ابتدایی ترین نقش‌ها،
12:49
so let's take a closer look at possible futures
254
769960
2816
پس بیایید به آینده‌های محتمل نگاهی بیندازیم
12:52
that we might choose to steer toward, alright?
255
772800
2736
که ممکن است انتخابمان به سوی‌شان باشد، موافقید؟
12:55
So don't get me wrong here.
256
775560
1336
در این‌قسمت اشتباه در موردم فکر نکنید.
12:56
I'm not talking about space travel,
257
776920
2056
در مورد سفرهای فضایی صحبت نمی‌کنم،
12:59
merely about humanity's metaphorical journey into the future.
258
779000
3200
بلکه صرفاً در مورد سفر استعاره‌ای بشریت به سمت آینده صحبت خواهم کرد.
13:02
So one option that some of my AI colleagues like
259
782920
3496
یکی از انتخاب‌هایی که بعضی از همکارانم دوستش دارند
13:06
is to build superintelligence and keep it under human control,
260
786440
3616
ساختن ابر هوش‌مصنوعی و در زیر کنترل بشریت نگه‌داشتن آن است،
13:10
like an enslaved god,
261
790080
1736
همچون خدایی در بند شده،
13:11
disconnected from the internet
262
791840
1576
جدا شده از اینترنت،
13:13
and used to create unimaginable technology and wealth
263
793440
3256
که برای تولید تکنولوژی و ثروت غیر قابل تصور
13:16
for whoever controls it.
264
796720
1240
برای هرکسی‌که صاحبش باشد، مورد استفاده قرار می‌گیرد.
13:18
But Lord Acton warned us
265
798800
1456
اما لرد اکتون ما را آگاه ساخته که:
13:20
that power corrupts, and absolute power corrupts absolutely,
266
800280
3616
"قدرت فساد می‌آورد و قدرت مطلق، فساد مطلق می‌آورد."
13:23
so you might worry that maybe we humans just aren't smart enough,
267
803920
4056
خب شاید بنظر بیاید که ما انسان‌ها به‌اندازه کافی باهوش
یا دانا نخواهیم بود
13:28
or wise enough rather,
268
808000
1536
13:29
to handle this much power.
269
809560
1240
تا این حجم از قدرت را در کنترل داشته باشیم
13:31
Also, aside from any moral qualms you might have
270
811640
2536
همچنین، در کنار همه تردیدهای اخلاقی که شما ممکن است
13:34
about enslaving superior minds,
271
814200
2296
درباره به کنترل درآوردن هوش[مصنوعی] برتر داشته باشید،
13:36
you might worry that maybe the superintelligence could outsmart us,
272
816520
3976
ممکن است نگران باشید که ابر هوش‌مصنوعی می‌تواند از ما در هوشمندی جلوتر زده،
13:40
break out and take over.
273
820520
2240
از دستمان در رود و بر ما چیره شود.
13:43
But I also have colleagues who are fine with AI taking over
274
823560
3416
اما من همچنین همکارانی دارم که راضی‌اند هوش‌مصنوعی بر ما چیره شود
13:47
and even causing human extinction,
275
827000
2296
و حتی باعث انقراض نسل بشر گردد،
13:49
as long as we feel the the AIs are our worthy descendants,
276
829320
3576
مثل اینکه به هوش‌مصنوعی به دید میراث‌داران شایسته‌مان بنگریم،
13:52
like our children.
277
832920
1736
مثل فرزندان‌مان.
13:54
But how would we know that the AIs have adopted our best values
278
834680
5616
اما از کجا بدانیم که هوش‌مصنوعی با بهترین ارزش‌های ما سازگار شده است
14:00
and aren't just unconscious zombies tricking us into anthropomorphizing them?
279
840320
4376
و همانند زامبی‌های ناخودآگاه ما را در انسان‌گونه دانستن‌شان فریب نخواهد زد؟
14:04
Also, shouldn't those people who don't want human extinction
280
844720
2856
آیا نباید به انسان‌هایی که انقراض نسل بشر را نمی‌خواهد
14:07
have a say in the matter, too?
281
847600
1440
در این زمینه، فرصت نظر دادن داد؟
حالا اگر شما هیچ‌کدام از این دو انتخاب برای آینده همراه با فناوری را نخواهید
14:10
Now, if you didn't like either of those two high-tech options,
282
850200
3376
14:13
it's important to remember that low-tech is suicide
283
853600
3176
باید به یاد داشته باشید که آینده با فناوری کم
14:16
from a cosmic perspective,
284
856800
1256
از منظر کیهانی همانند خودکشی است،
14:18
because if we don't go far beyond today's technology,
285
858080
2496
چرا که اگر ما از مرزهای تکنولوژی امروزی فراتر نرویم
14:20
the question isn't whether humanity is going to go extinct,
286
860600
2816
سوال این نخواهد بود که بشریت منقرض می‌شود یا نه،
14:23
merely whether we're going to get taken out
287
863440
2016
بلکه اساسا درباره این خواهد بود که عامل آن
14:25
by the next killer asteroid, supervolcano
288
865480
2136
سیارک قاتل بعدی است یا ابر آتشفشان
14:27
or some other problem that better technology could have solved.
289
867640
3096
یا مشکلات دیگری که می‌توانستیم با تکنولوژی بهتر مانع‌شان شویم.
14:30
So, how about having our cake and eating it ...
290
870760
3576
خب، چطور است کیک‌مان را داشته باشیم و آن را بخوریم ...
با هوش‌مصنوعی‌همه‌جانبه‌ای در بند ما نیست
14:34
with AGI that's not enslaved
291
874360
1840
بلکه با ما خوب رفتار می‌کند چون ارزش‌های آن با ارزش‌های ما هم‌راستاست؟
14:37
but treats us well because its values are aligned with ours?
292
877120
3176
14:40
This is the gist of what Eliezer Yudkowsky has called "friendly AI,"
293
880320
4176
این نیم‌نگاهی است به آنچه که الیزر یودکاوسکی آن‌را "هوش‌مصنوعی‌دوستانه" می‌نامد.
14:44
and if we can do this, it could be awesome.
294
884520
2680
و اگر ما چنین هوش‌مصنوعی بسازیم می‌تواند بسیار الهام‌بخش باشد.
14:47
It could not only eliminate negative experiences like disease, poverty,
295
887840
4816
این می‌تواند نه‌تنها ما را از تجربه‌های منفی همچون بیماری، فقر،
14:52
crime and other suffering,
296
892680
1456
جرایم و سایر رنج‌ها برهاند،
14:54
but it could also give us the freedom to choose
297
894160
2816
همچنین می‌تواند به ما آزادی انتخاب
14:57
from a fantastic new diversity of positive experiences --
298
897000
4056
از میان گوناگونی تجربه‌های فوق‌العاده مثبت و جدید را بدهد --
15:01
basically making us the masters of our own destiny.
299
901080
3160
اساساً ما را صاحبان سرنوشت‌مان کند.
15:06
So in summary,
300
906280
1376
خب پس در خلاصه،
15:07
our situation with technology is complicated,
301
907680
3096
وضعیت ما با تکنولوژی پیچیده است
15:10
but the big picture is rather simple.
302
910800
2416
اما شرایط کلی‌مان ساده است.
اکثر محققان هوش‌مصنوعی انتظار ظهور هوش‌مصنوعی‌همه‌جانبه را در چند دهه بعدی دارند
15:13
Most AI researchers expect AGI within decades,
303
913240
3456
15:16
and if we just bumble into this unprepared,
304
916720
3136
اگر ما بدون برنامه به آن مرحله برسیم،
15:19
it will probably be the biggest mistake in human history --
305
919880
3336
شاید این بزرگترین اشتباه در تاریخ بشریت باشد.
15:23
let's face it.
306
923240
1416
امتحانش مجانی است.
15:24
It could enable brutal, global dictatorship
307
924680
2576
این رویداد می‌تواند باعث دیکتاتوری وحشیانه جهانی
15:27
with unprecedented inequality, surveillance and suffering,
308
927280
3536
همراه با نابرابری بی‌سابقه، تحت نظر قرار گرفتن و رنج بردن
15:30
and maybe even human extinction.
309
930840
1976
و حتی موجب انقراض بشریت شود.
15:32
But if we steer carefully,
310
932840
2320
اما اگر ما با دقت هدایتش کنیم،
15:36
we could end up in a fantastic future where everybody's better off:
311
936040
3896
می‌توانیم به آینده‌ای خارق‌العاده که همه در وضع بهتری از الان خواهند بود برسیم:
15:39
the poor are richer, the rich are richer,
312
939960
2376
فقیر، ثروتمند و ثروتمند، ثروتمندتر شده،
15:42
everybody is healthy and free to live out their dreams.
313
942360
3960
همه سالم و آزاد برای زندگی به سمت اهدافشان هستند.
15:47
Now, hang on.
314
947000
1536
حالا، صبر کنید.
15:48
Do you folks want the future that's politically right or left?
315
948560
4576
آیا شما گروهی هستید که آینده سیاسی راست یا چپی می‌خواهید؟
15:53
Do you want the pious society with strict moral rules,
316
953160
2856
آیا جامعه مذهبی بر پایه قوانین سرسخت اخلاقی می‌خواهید؟
یا جامعه‌ای همراه با خوشی و لذت همگانی،
15:56
or do you an hedonistic free-for-all,
317
956040
1816
15:57
more like Burning Man 24/7?
318
957880
2216
چیزی مثل مراسم سالانه "مرد سوزان" در نوادا که بصورت همیشگی دایر باشد؟
16:00
Do you want beautiful beaches, forests and lakes,
319
960120
2416
سواحل، جنگل و دریاچه زیبا می‌خواهید
16:02
or would you prefer to rearrange some of those atoms with the computers,
320
962560
3416
یا ترجیح می‌دهید یکی از آن اتم‌ها را توسط
واقعیت مجازی کامپیوتری دستکاری کنید؟
16:06
enabling virtual experiences?
321
966000
1715
16:07
With friendly AI, we could simply build all of these societies
322
967739
3157
با هوش‌مصنوعی‌مهربان، تمامی این جوامع امکان‌پذیر است
16:10
and give people the freedom to choose which one they want to live in
323
970920
3216
و می‌توان به مردم آزادی داد تا در هر کدام که خواستند زندگی کنند
16:14
because we would no longer be limited by our intelligence,
324
974160
3096
چرا که دیگر ما توسط هوش‌خودمان محدود نیستیم
و تنها محدود به قوانین فیزیک‌ هستیم.
16:17
merely by the laws of physics.
325
977280
1456
16:18
So the resources and space for this would be astronomical --
326
978760
4616
پس میزان منابع و فضا برای آن نجومی خواهد بود --
16:23
literally.
327
983400
1320
به معنای واقعی کلمه.
16:25
So here's our choice.
328
985320
1200
پس این انتخاب ماست:
16:27
We can either be complacent about our future,
329
987880
2320
می‌توانیم در مورد آینده‌مان از خود راضی باشیم،
16:31
taking as an article of blind faith
330
991440
2656
و همانند نوشته‌ای از ایمان کور
16:34
that any new technology is guaranteed to be beneficial,
331
994120
4016
به همه تکنولوژی‌های جدید به شکل تضمینی و سودمند نگاه کنیم،
16:38
and just repeat that to ourselves as a mantra over and over and over again
332
998160
4136
و به خودمان این تضمین را مدام همچون وردی تکرار کنیم
16:42
as we drift like a rudderless ship towards our own obsolescence.
333
1002320
3680
در حالی که همچون کشتی سرگردان به‌سمت تباهی‌مان پیش می‌رویم.
16:46
Or we can be ambitious --
334
1006920
1880
یا می‌توانیم بلندپرواز باشیم --
16:49
thinking hard about how to steer our technology
335
1009840
2456
در مورد نحوه هدایت تکنولوژی‌مان
16:52
and where we want to go with it
336
1012320
1936
و جایی که با آن می‌خواهیم برویم
16:54
to create the age of amazement.
337
1014280
1760
تا عصر شگفتی‌ها را با آن بسازیم خوب فکر کنیم.
ما همه اینجا هستیم، تا عصر شگفتی را جشن بگیریم،
16:57
We're all here to celebrate the age of amazement,
338
1017000
2856
16:59
and I feel that its essence should lie in becoming not overpowered
339
1019880
4440
و من احساس می‌کنم ماهیت آن نباید این باشد که قدرت فناوری از ما بیشتر شود،
17:05
but empowered by our technology.
340
1025240
2616
بلکه ما باید با آن قدرتمند شویم.
17:07
Thank you.
341
1027880
1376
متشکرم.
17:09
(Applause)
342
1029280
3080
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7