How civilization could destroy itself -- and 4 ways we could prevent it | Nick Bostrom

153,340 views ・ 2020-01-17

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: ‌Behdad Khazaeli Reviewer: Masoud Motamedifar
00:13
Chris Anderson: Nick Bostrom.
0
13000
1809
کریس اندرسن: نیک بوستروم.
00:14
So, you have already given us so many crazy ideas out there.
1
14833
3976
خوب، تو تا الان نظرات عجیب و غریب زیادی داشته ای.
00:18
I think a couple of decades ago,
2
18833
1726
فکر کنم چند دهه قبل است،
00:20
you made the case that we might all be living in a simulation,
3
20583
2935
پیشنهاد دادی که ممکن است همه ما در یک شبیه سازی زندگی کنیم،
00:23
or perhaps probably were.
4
23542
1809
یا شاید می کردیم.
00:25
More recently,
5
25375
1351
این اواخر،
00:26
you've painted the most vivid examples of how artificial general intelligence
6
26750
4601
مثال های کاملا زنده ای ترسیم کردی از اینکه چطور هوش مصنوعی عمومی
00:31
could go horribly wrong.
7
31375
1833
می تواند به شکل وحشتناکی اشتباه باشد.
00:33
And now this year,
8
33750
1393
و حالا امسال،
00:35
you're about to publish
9
35167
2226
در حال نشرِ
00:37
a paper that presents something called the vulnerable world hypothesis.
10
37417
3934
مقاله ای هستی که فرضیات دنیایِ آسیب پذیر نام دارد.
00:41
And our job this evening is to give the illustrated guide to that.
11
41375
4583
و کار امروز عصر ما تهیه یک بروشور راهنما برای آن است.
00:46
So let's do that.
12
46417
1833
پس بیا تا انجامش دهیم.
00:48
What is that hypothesis?
13
48833
1792
این فرضیات چه هستند؟
00:52
Nick Bostrom: It's trying to think about
14
52000
2434
نیک بوستروم: سعی می کند تا درباره
00:54
a sort of structural feature of the current human condition.
15
54458
3084
نوعی از ویژگی های ساختاری وضعیت موجود انسان بیاندیشد.
00:59
You like the urn metaphor,
16
59125
2351
تو از استعاره گلدان خوشت می آید،
01:01
so I'm going to use that to explain it.
17
61500
1893
پس از آن برای مثال استفاده می کنم.
01:03
So picture a big urn filled with balls
18
63417
4351
یک گلدان بزرگ پر از توپ را تصور کن
01:07
representing ideas, methods, possible technologies.
19
67792
3958
که نمایشگر نظرات، راهکارها و فناوری های ممکن است.
01:12
You can think of the history of human creativity
20
72833
3726
می توانی تاریخ خلاقیت انسان را
01:16
as the process of reaching into this urn and pulling out one ball after another,
21
76583
3810
به شکل بردن دست در گلدان و بیرون آوردن توپ یکی پس از دیگری تصور کنی،
01:20
and the net effect so far has been hugely beneficial, right?
22
80417
3226
و تاثیر کلی آن تا حالا بسیار مفید بوده، درست؟
01:23
We've extracted a great many white balls,
23
83667
2726
تا حالا توپ های سفید خیلی خوبی را درآورده ایم،
01:26
some various shades of gray, mixed blessings.
24
86417
2875
انواع توپ های خاکستری، که چیزهای درهم خوب و بدی هستند.
01:30
We haven't so far pulled out the black ball --
25
90042
2958
و تا حالا هیچ توپ سیاهی بیرون نیامده --
01:34
a technology that invariably destroys the civilization that discovers it.
26
94292
5476
فناوری که به شکل دائمی، تمدنی که پیدایش کند را نابود می کند.
01:39
So the paper tries to think about what could such a black ball be.
27
99792
3267
این مقاله سعی دارد تا بررسی کند که چه چیزی ممکن است یک توپ سیاه باشد.
01:43
CA: So you define that ball
28
103083
1810
ک.ا: پس تعریف شما از این توپ
01:44
as one that would inevitably bring about civilizational destruction.
29
104917
3684
چیزی است که همراهش نابودی حتمی تمدن است.
01:48
NB: Unless we exit what I call the semi-anarchic default condition.
30
108625
5309
ن.ب.: مگر آنکه از شرایطی که من اسمش را نیمه-آشفته گذاشته ام خارج شویم.
01:53
But sort of, by default.
31
113958
1500
اما به شکلی، حتمی است.
01:56
CA: So, you make the case compelling
32
116333
3518
ک.ا.: پس شما برای این که این نظریه قابل را قبول کنید
01:59
by showing some sort of counterexamples
33
119875
2018
انواع مثال های مخالف را می آورید
02:01
where you believe that so far we've actually got lucky,
34
121917
2934
تا نشان دهید تا حالا شانس آورده ایم،
02:04
that we might have pulled out that death ball
35
124875
2851
و ممکن بود که توپ مرگ را بیرون می کشیدیم
02:07
without even knowing it.
36
127750
1559
بدون آنکه خودمان حتی بفهمیم.
02:09
So there's this quote, what's this quote?
37
129333
2292
گفته ای نقل شده، چه چیزی گفته شده؟
02:12
NB: Well, I guess it's just meant to illustrate
38
132625
2684
ن.ب.: خوب، معنی اش نشان دادن
02:15
the difficulty of foreseeing
39
135333
2101
سختی پیش بینی
02:17
what basic discoveries will lead to.
40
137458
2685
این است که اکتشافات بنیادی ما را به کجا خواهند برد.
02:20
We just don't have that capability.
41
140167
3059
ما هنوز این توانایی را نداریم.
02:23
Because we have become quite good at pulling out balls,
42
143250
3351
چون در توپ بیرون آوردن ماهر شده ایم،
02:26
but we don't really have the ability to put the ball back into the urn, right.
43
146625
3726
اما واقعا توانایی برگرداندن توپ به گلدان را نداریم، غیر از این است؟
02:30
We can invent, but we can't un-invent.
44
150375
2167
می توانیم اختراع کنیم، اما نمی توانیم حذف-اختراع کنیم.
02:33
So our strategy, such as it is,
45
153583
2768
پس راهبرد ما، هم این که داریم،
02:36
is to hope that there is no black ball in the urn.
46
156375
2434
امیدواری به این است که توپ سیاهی در گلدان نباشد.
02:38
CA: So once it's out, it's out, and you can't put it back in,
47
158833
4060
ک.ا.: پس وقتی بیرون آمد، بیرون آمده، و نمی شود برش گرداند،
02:42
and you think we've been lucky.
48
162917
1517
و فکر می کنی که ما شانس آورده ایم.
02:44
So talk through a couple of these examples.
49
164458
2226
برایمان از اینها چند مثال بیاور.
02:46
You talk about different types of vulnerability.
50
166708
3101
از انواع مختلف آسیب پذیری صحبت کرده ای.
02:49
NB: So the easiest type to understand
51
169833
2435
ن.ب : ساده ترین نوع آن برای فهمیدن
02:52
is a technology that just makes it very easy
52
172292
3142
فناوری است که به سادگی امکان می دهد
02:55
to cause massive amounts of destruction.
53
175458
2125
تا مقادیر عظیمی از تخریب ایجاد شود.
02:59
Synthetic biology might be a fecund source of that kind of black ball,
54
179375
3518
زیست شناسی مصنوعی ممکن است نمونه ای حاصلخیز از این توپ سیاه باشد،
03:02
but many other possible things we could --
55
182917
2684
اما خیلی چیزهای ممکن دیگر هم می توانیم انجام دهیم --
03:05
think of geoengineering, really great, right?
56
185625
2518
به مهندسی زمین شناسی توجه کنید که بسیار عالی است، نه؟
03:08
We could combat global warming,
57
188167
2226
می توانیم با گرمایش جهانی مبارزه کنیم،
03:10
but you don't want it to get too easy either,
58
190417
2142
اما نمی خواهی که خیلی هم ساده باشد،
03:12
you don't want any random person and his grandmother
59
192583
2476
نباید که هر آدمی و مامان بزرگش مثلا
03:15
to have the ability to radically alter the earth's climate.
60
195083
3060
این قدرت را داشته باشند که آب و هوای زمین را به شدت تغییر دهند.
03:18
Or maybe lethal autonomous drones,
61
198167
3559
یا شاید هم پهپادهای خودکار مرگبار،
03:21
massed-produced, mosquito-sized killer bot swarms.
62
201750
3333
تولید انبوه شوند، ربات هایی به اندازه پشه هجوم ربات های کشنده.
03:26
Nanotechnology, artificial general intelligence.
63
206500
2726
فناوری نانو، هوش مصنوعی عمومی.
03:29
CA: You argue in the paper
64
209250
1309
ک.ا : در این مقاله عنوان کرده ای
03:30
that it's a matter of luck that when we discovered
65
210583
2893
که این تنها از روی شانس است که وقتی ما کشف کردیم
03:33
that nuclear power could create a bomb,
66
213500
3434
که فناوری هسته ای می تواند بمب تولید کند،
03:36
it might have been the case
67
216958
1393
می توانست اینطور باشد
03:38
that you could have created a bomb
68
218375
1851
که بمبی اختراع شود
03:40
with much easier resources, accessible to anyone.
69
220250
3559
که منابع آن خیلی ساده تر باشد، در دسترس همه.
03:43
NB: Yeah, so think back to the 1930s
70
223833
3560
ن.ب: درسته، فکر کنید به سال های ۱۹۳۰ برگردیم
03:47
where for the first time we make some breakthroughs in nuclear physics,
71
227417
4601
موقعی که توانستیم برای اولین بار در فیزیک هسته ای پیشرفت هایی حاصل کنیم،
03:52
some genius figures out that it's possible to create a nuclear chain reaction
72
232042
3684
عده ای از نوابغ فهمیدند که می شود یک واکنش زنجیره ای هسته ای هم ایجاد کرد
03:55
and then realizes that this could lead to the bomb.
73
235750
3184
و بعد متوجه شدند که این می تواند تبدیل به بمب شود.
03:58
And we do some more work,
74
238958
1893
و بعد ما کمی کار بیشتر کردیم،
04:00
it turns out that what you require to make a nuclear bomb
75
240875
2726
و مشخص شد که چیزی که برای ساختن بمب نیاز داری
04:03
is highly enriched uranium or plutonium,
76
243625
2393
اورانیوم بسیار غنی شده یا پلوتونیم است،
04:06
which are very difficult materials to get.
77
246042
2017
که تهیه این مواد بسیار سخت و مشکل است.
04:08
You need ultracentrifuges,
78
248083
2268
به سانتریفیوژ های با سرعت خیلی بالا نیاز داری،
04:10
you need reactors, like, massive amounts of energy.
79
250375
3768
نیاز به راکتور دارید، مقادیر عظیم انرژی.
04:14
But suppose it had turned out instead
80
254167
1809
اما حالا فرض کنید به جایش
04:16
there had been an easy way to unlock the energy of the atom.
81
256000
3976
راه ساده ای وجود داشت تا انرژی اتم را آزاد کنی.
04:20
That maybe by baking sand in the microwave oven
82
260000
2768
مثا اگر با پختن شن توی دستگاه مایکروویو
04:22
or something like that
83
262792
1267
یا چیزی شبیه به آن
04:24
you could have created a nuclear detonation.
84
264083
2101
می توانستی انفجار هسته ای ایجاد کنی.
04:26
So we know that that's physically impossible.
85
266208
2143
این را می دانیم که از لحاظ فیزیکی ممکن نیست.
04:28
But before you did the relevant physics
86
268375
1893
اما قبل از انجام محاسبات فیزیکی لازم
04:30
how could you have known how it would turn out?
87
270292
2191
از کجا می دانستی که نتیجه اش چه می شود؟
04:32
CA: Although, couldn't you argue
88
272507
1552
ک.ا: اگرچه، نمی شود بحث کرد
04:34
that for life to evolve on Earth
89
274083
1935
که تکامل حیات روی زمین
04:36
that implied sort of stable environment,
90
276042
3267
به طور ضمنی به معنی محیطی ثابت است،
04:39
that if it was possible to create massive nuclear reactions relatively easy,
91
279333
4185
و اگر ایجاد واکنش های بزرگ هسته ای نسبتا ساده بود،
04:43
the Earth would never have been stable,
92
283542
1858
زمین هیچ وقت ثابت نمی بود،
04:45
that we wouldn't be here at all.
93
285424
1552
و ما اصلا اینجا نبودیم.
04:47
NB: Yeah, unless there were something that is easy to do on purpose
94
287000
3393
ن.ب: درسته، مگر آنکه چیزی باشد که انجام عمدی اش ساده باشد
04:50
but that wouldn't happen by random chance.
95
290417
2851
اما به شکل اتفاقی انجام نشده باشد.
04:53
So, like things we can easily do,
96
293292
1579
مثل کارهایی که به سادگی انجام می دهیم،
04:54
we can stack 10 blocks on top of one another,
97
294896
2110
ما می توانیم ده قطعه چیزی را روی هم بگذاریم،
04:57
but in nature, you're not going to find, like, a stack of 10 blocks.
98
297031
3197
اما در طبیعت نمی توانی دسته ای از ۱۰ قطعه روی هم پیدا کنی.
05:00
CA: OK, so this is probably the one
99
300253
1673
ک.ا: بسیار خوب، پس این احتمالا همانی است
05:01
that many of us worry about most,
100
301950
1943
که خیلی از ما بیشتر نگرانش هستیم،
05:03
and yes, synthetic biology is perhaps the quickest route
101
303917
3517
و بله، زیست شناسی مصنوعی احتمالا سریعترین مسیری است
05:07
that we can foresee in our near future to get us here.
102
307458
3018
که پیش بینی می کنیم که در آینده نزدیک ما را به اینجا بیاورد.
05:10
NB: Yeah, and so think about what that would have meant
103
310500
2934
ن.ب: درسته، و توجه کن معنی اش چه بود
05:13
if, say, anybody by working in their kitchen for an afternoon
104
313458
3643
اگر، مثلا، هر کسی در آشپزخانه اش بعد از ظهر کاری می کرد که
05:17
could destroy a city.
105
317125
1393
می توانست شهری را نابود کند.
05:18
It's hard to see how modern civilization as we know it
106
318542
3559
قابل تصور نیست که چطور تمدن های امروزی که ما می شناسیم
05:22
could have survived that.
107
322125
1434
می توانستند باقی بمانند.
05:23
Because in any population of a million people,
108
323583
2518
چون در هر جمعیتی از یک میلیون نفر،
05:26
there will always be some who would, for whatever reason,
109
326125
2684
همیشه کسی وجود دارد، که به هر دلیلی،
05:28
choose to use that destructive power.
110
328833
2084
بخواهد که از نیروی تخریب استفاده کند.
05:31
So if that apocalyptic residual
111
331750
3143
پس اگر آن بازمانده از آخر دنیا
05:34
would choose to destroy a city, or worse,
112
334917
1976
بخواهد که شهری را نابود کند، یا بدتر از آن،
05:36
then cities would get destroyed.
113
336917
1559
پس آن شهرها نابود می شوند.
05:38
CA: So here's another type of vulnerability.
114
338500
2351
ک.ا: پس این نوع دیگری از آسیب پذیری است.
05:40
Talk about this.
115
340875
1643
برایمان توضیح بده.
05:42
NB: Yeah, so in addition to these kind of obvious types of black balls
116
342542
3976
ن.ب: بله، علاوه بر این نمونه های کاملا واضح از توپ های سیاه
05:46
that would just make it possible to blow up a lot of things,
117
346542
2810
که می توانند چیزهای زیادی را منفجر کنند،
05:49
other types would act by creating bad incentives
118
349376
4433
انواع دیگر از راه ایجاد مشوق های بد عمل می کنند
05:53
for humans to do things that are harmful.
119
353833
2226
تا انسانها کارهای مضری انجام دهند.
05:56
So, the Type-2a, we might call it that,
120
356083
4101
اگر اسمش را نوع ۲-الف بگذاریم،
06:00
is to think about some technology that incentivizes great powers
121
360208
4518
درباره فناوری است که مشوق هایی برای قدرت های بزرگ ایجاد می کند
06:04
to use their massive amounts of force to create destruction.
122
364750
4476
که از نیروی عظیم شان برای تخریب استفاده کنند.
06:09
So, nuclear weapons were actually very close to this, right?
123
369250
2833
سلاح های هسته ای خیلی به این نزدیک هستند، نه؟
06:14
What we did, we spent over 10 trillion dollars
124
374083
3060
کاری که ما کردیم، کمی بیش از ۱۰ تریلیون دلار هزینه کردیم
06:17
to build 70,000 nuclear warheads
125
377167
2517
تا حدود ۷۰،۰۰۰ کلاهک هسته ای بسازیم
06:19
and put them on hair-trigger alert.
126
379708
2435
و آنها را آماده شلیک قرار دهیم.
06:22
And there were several times during the Cold War
127
382167
2267
و چند باری هم در طول جنگ سرد
06:24
we almost blew each other up.
128
384458
1435
تقریبا همدیگر را از بین بردیم.
06:25
It's not because a lot of people felt this would be a great idea,
129
385917
3101
دلیلش این نبود که خیلی از افراد فکر می کردند که این کار خیلی خوبی است،
06:29
let's all spend 10 trillion dollars to blow ourselves up,
130
389042
2684
بیایید ۱۰ تریلیون دلار خرج کنیم تا خودمان را منفجر کنیم،
06:31
but the incentives were such that we were finding ourselves --
131
391750
2934
اما مشوق ها به گونه ای بود که خودمان را --
06:34
this could have been worse.
132
394708
1310
می توانست خیلی بدتر باشد.
06:36
Imagine if there had been a safe first strike.
133
396042
2434
فرض کنید که یک تهاجم اولیه بدون مشکل انجام می شد.
06:38
Then it might have been very tricky,
134
398500
2309
بعد ممکن بود وضعیت خیلی پیچیده ای پیش بیاید،
06:40
in a crisis situation,
135
400833
1268
در شرایط بحران،
06:42
to refrain from launching all their nuclear missiles.
136
402125
2477
تا مانع از پرتاب تمام موشک های هسته ای بشویم.
06:44
If nothing else, because you would fear that the other side might do it.
137
404626
3392
اگر مانعی نباشد، چون می ترسی که طرف دیگر این کار را انجام دهد.
06:48
CA: Right, mutual assured destruction
138
408042
1809
ک.ا: درست، تضمین تخریب متقابل
06:49
kept the Cold War relatively stable,
139
409875
2726
باعث شد تا دوران جنگ سرد نسبتا ثابت باشد،
06:52
without that, we might not be here now.
140
412625
1934
بدون آن، شاید حالا الان اینجا نبودیم.
06:54
NB: It could have been more unstable than it was.
141
414583
2310
ن.ب: می توانست خیلی نامتعادل تر از آنچه بود باشد.
06:56
And there could be other properties of technology.
142
416917
2351
و می توانست مشخصات دیگر فناوری هم باشد.
06:59
It could have been harder to have arms treaties,
143
419292
2309
بستن پیمان های تسلیحاتی می توانست سخت تر باشد،
07:01
if instead of nuclear weapons
144
421625
1601
اگر بجای تسلیحات اتمی
07:03
there had been some smaller thing or something less distinctive.
145
423250
3018
چیزهایی کوچکتر یا نامشخص تر بود.
07:06
CA: And as well as bad incentives for powerful actors,
146
426292
2559
ک.ا: و مانند مشوق های بد برای بازیگران قدرت،
07:08
you also worry about bad incentives for all of us, in Type-2b here.
147
428875
3518
می توانی نگران مشوق های بد برای همه ما باشی، اینجا در نوع ۲-ب.
07:12
NB: Yeah, so, here we might take the case of global warming.
148
432417
4250
ن.ب.: درسته، اینجا می شود مسئله گرمایش جهانی را در نظر گرفت.
07:18
There are a lot of little conveniences
149
438958
1893
راحت طلبی های کوچک زیادی هستند
07:20
that cause each one of us to do things
150
440875
2184
که باعث می شوند ما کارهایی انجام دهیم
07:23
that individually have no significant effect, right?
151
443083
2851
که جداگانه هر کدام اثر خیلی زیادی ندارند، درست؟
07:25
But if billions of people do it,
152
445958
1976
اما اگر میلیاردها نفر انجامش دهند،
07:27
cumulatively, it has a damaging effect.
153
447958
2060
اثر تجمیعی آن، مخرب است.
07:30
Now, global warming could have been a lot worse than it is.
154
450042
2809
امروزه، گرمایش جهانی می توانست خیلی از این بدتر باشد.
07:32
So we have the climate sensitivity parameter, right.
155
452875
2976
ما مولفه حساسیت آب و هوا را داریم.
07:35
It's a parameter that says how much warmer does it get
156
455875
3643
این مولفه ای است که می گوید چقدر گرمتر می شود
07:39
if you emit a certain amount of greenhouse gases.
157
459542
2684
اگر مقدار معینی گاز گلخانه ای منتشر کنی.
07:42
But, suppose that it had been the case
158
462250
2393
اما، فرض کن به شکل دیگری بود
07:44
that with the amount of greenhouse gases we emitted,
159
464667
2517
اگر با همان میزان گاز گلخانه ای که منتشر می کردیم،
07:47
instead of the temperature rising by, say,
160
467208
2060
بجای افزایش دمای، مثلا،
07:49
between three and 4.5 degrees by 2100,
161
469292
3726
بین ۳ تا ۴/۵ درجه تا سال ۲۱۰۰،
07:53
suppose it had been 15 degrees or 20 degrees.
162
473042
2500
فرض کنید بین ۱۵ تا ۲۰ درجه می شد.
07:56
Like, then we might have been in a very bad situation.
163
476375
2559
اینطور، ممکن بود وضعیت خیلی بدی داشته باشیم.
07:58
Or suppose that renewable energy had just been a lot harder to do.
164
478958
3143
یا فرض کنید که استفاده از انرژی های تجدید پذیر خیلی مشکل تر بود.
08:02
Or that there had been more fossil fuels in the ground.
165
482125
2643
یا اینکه سوخت های فسیلی بیشتری در زمین بود.
08:04
CA: Couldn't you argue that if in that case of --
166
484792
2642
ک.ا: آیا می شد دلیل آورد که در آن حالت --
08:07
if what we are doing today
167
487458
1726
اگر کاری که امروز می کنیم
08:09
had resulted in 10 degrees difference in the time period that we could see,
168
489208
4560
موجب ۱۰ درجه تفاوت در مدت زمانی که می توانستیم ببینیم می شد،
08:13
actually humanity would have got off its ass and done something about it.
169
493792
3684
واقعا بشریت تکانی به خودش می داد و کاری می کرد.
08:17
We're stupid, but we're not maybe that stupid.
170
497500
2809
احمق هستیم. اما شاید نه آنقدر احمق.
08:20
Or maybe we are.
171
500333
1268
شاید هم هستیم.
08:21
NB: I wouldn't bet on it.
172
501625
1268
ن.ب: من اطمینان نمی کردم.
08:22
(Laughter)
173
502917
2184
(خنده حضار)
08:25
You could imagine other features.
174
505125
1684
می توانی ویژگی های دیگر را هم تصور کنی.
08:26
So, right now, it's a little bit difficult to switch to renewables and stuff, right,
175
506833
5518
همین حالا، تغییر به انرژی های تجدید پذیر کمی مشکل است، درست،
08:32
but it can be done.
176
512375
1268
اما شدنی است.
08:33
But it might just have been, with slightly different physics,
177
513667
2976
اما اگر خواص فیزیکی کمی متفاوت بود،
08:36
it could have been much more expensive to do these things.
178
516667
2791
ممکن بود این کارها خیلی پر هزینه تر باشند.
08:40
CA: And what's your view, Nick?
179
520375
1518
ک.ا: و تو چه نظری داری، نیک؟
08:41
Do you think, putting these possibilities together,
180
521917
2434
فکر می کنی با روی هم گذاشتن این احتمالات،
08:44
that this earth, humanity that we are,
181
524375
4268
که با این زمین، بشریتی که ما هستیم
08:48
we count as a vulnerable world?
182
528667
1559
ما دنیایی آسیب پذیر هستیم؟
08:50
That there is a death ball in our future?
183
530250
2417
که یک توپ مرگ در آینده ما وجود دارد؟
08:55
NB: It's hard to say.
184
535958
1268
ن.ب: پاسخ به آن سخت است.
08:57
I mean, I think there might well be various black balls in the urn,
185
537250
5059
منظورم اینکه فکر می کنم احتمال زیادی دارد که توپ های سیاه مختلفی در گلدان باشند،
09:02
that's what it looks like.
186
542333
1310
اینطور به نظر می رسد.
09:03
There might also be some golden balls
187
543667
2392
اما ممکن است توپ های طلایی هم باشند
09:06
that would help us protect against black balls.
188
546083
3476
که به ما در برابر توپ های سیاه کمک کنند.
09:09
And I don't know which order they will come out.
189
549583
2976
و نمی دانم که ترتیب بیرون آمدنشان به چه صورت است.
09:12
CA: I mean, one possible philosophical critique of this idea
190
552583
3851
ک.ا: منظورم، یک انتقاد محتمل فلسفی به این تفکر
09:16
is that it implies a view that the future is essentially settled.
191
556458
5643
این است که به طور ضمنی این دید را دارد که آینده اساسا تثبیت شده است.
09:22
That there either is that ball there or it's not.
192
562125
2476
که یا این توپ آنجاست یا نیست.
09:24
And in a way,
193
564625
3018
و به شکلی،
09:27
that's not a view of the future that I want to believe.
194
567667
2601
این نگاهی به آینده نیست که بخواهم باور کنم.
09:30
I want to believe that the future is undetermined,
195
570292
2351
می خواهم باور کنم که آینده قطعی نیست،
09:32
that our decisions today will determine
196
572667
1934
که تصمیمات امروز ما معین می کنند
09:34
what kind of balls we pull out of that urn.
197
574625
2208
که چه توپی را از گلدان بیرون می آوریم.
09:37
NB: I mean, if we just keep inventing,
198
577917
3767
ن.ب: منظورم این است، که اگر همینطور نوآوری را ادامه دهیم،
09:41
like, eventually we will pull out all the balls.
199
581708
2334
نهایتا همه توپ ها را بیرون خواهیم آورد.
09:44
I mean, I think there's a kind of weak form of technological determinism
200
584875
3393
یعنی، فکر می کنم وجود مقدار کمی جبرگرایی فناوری
09:48
that is quite plausible,
201
588292
1267
کاملا ممکن است.
09:49
like, you're unlikely to encounter a society
202
589583
2643
شبیه به اینکه، احتمال کمی دارد که جامعه ای پیدا کنی
09:52
that uses flint axes and jet planes.
203
592250
2833
که از سنگ چخماق و هواپیمای جت با هم استفاده کند.
09:56
But you can almost think of a technology as a set of affordances.
204
596208
4060
اما اغلب می شود یک فناوری را به عنوان مجموعه ای از ویژگی ها در نظر گرفت
10:00
So technology is the thing that enables us to do various things
205
600292
3017
پس فناوری چیزی است که به ما امکان انجام کارهای مختلف
10:03
and achieve various effects in the world.
206
603333
1976
و دسترسی به نتایج گوناگون را می دهد.
10:05
How we'd then use that, of course depends on human choice.
207
605333
2810
اینکه چطور از آن استفاده کنیم، مسلما به انتخاب انسان بستگی دارد.
10:08
But if we think about these three types of vulnerability,
208
608167
2684
اما اگر به این سه نوع آسیب پذیری فکر کنیم،
10:10
they make quite weak assumptions about how we would choose to use them.
209
610875
3393
آنها فرضیات کاملا ضعیفی از انتخاب ما در چگونه استفاده کردنشان اند.
10:14
So a Type-1 vulnerability, again, this massive, destructive power,
210
614292
3392
پس یک آسیب پذیری نوع ۱، مجددا، این نیروی عظیم مخرب،
10:17
it's a fairly weak assumption
211
617708
1435
این فرض ضعیفی است
10:19
to think that in a population of millions of people
212
619167
2392
که در میان میلیون ها انسان
10:21
there would be some that would choose to use it destructively.
213
621583
2935
بعضی ها هستند که بخواهند از آن برای تخریب استفاده کنند.
10:24
CA: For me, the most single disturbing argument
214
624542
2434
ک.ا: برای من، تنها موضوع ناراحت کننده
10:27
is that we actually might have some kind of view into the urn
215
627000
4559
این است که واقعا ممکن است ما نگاهی به داخل گلدان بیاندازیم
10:31
that makes it actually very likely that we're doomed.
216
631583
3518
که موجب شود واقعا محکوم به بدبختی شویم.
10:35
Namely, if you believe in accelerating power,
217
635125
4643
مثلا، اگر به قدرت مضاعف اعتقاد داشته باشی،
10:39
that technology inherently accelerates,
218
639792
2267
که شتاب فناوری ذاتی است،
10:42
that we build the tools that make us more powerful,
219
642083
2435
که ما ابزارهایی می سازیم که ما را قوی تر می کنند،
10:44
then at some point you get to a stage
220
644542
2642
پس زمانی به صحنه می آیی
10:47
where a single individual can take us all down,
221
647208
3060
که یک نفر به تنهایی می تواند حریف همه ما شود،
10:50
and then it looks like we're screwed.
222
650292
2851
و بعد انگار که ما شکست خورده ایم.
10:53
Isn't that argument quite alarming?
223
653167
2934
این موضوعی خیلی نگران کننده نیست؟
10:56
NB: Ah, yeah.
224
656125
1750
ن.ب: آه، بله.
10:58
(Laughter)
225
658708
1268
(خنده حضار)
11:00
I think --
226
660000
1333
به نظرم --
11:02
Yeah, we get more and more power,
227
662875
1601
بله، ما بیشتر و بیشتر قدرت پیدا می کنیم،
11:04
and [it's] easier and easier to use those powers,
228
664500
3934
و استفاده از آن ساده و ساده تر می شود،
11:08
but we can also invent technologies that kind of help us control
229
668458
3560
ولی ما می توانیم فناوری هایی هم بسازیم که به ما در کنترل آن
11:12
how people use those powers.
230
672042
2017
که چطور مردم از این قدرت ها استفاده کنند کمک کند.
11:14
CA: So let's talk about that, let's talk about the response.
231
674083
2851
ک.ا: بگذار در موردش صحبت کنیم، در مورد پاسخ به آن صحبت کنیم.
11:16
Suppose that thinking about all the possibilities
232
676958
2310
فرض کن در نظر گرفتن همه حالت های ممکن
11:19
that are out there now --
233
679292
2101
که حالا آنجا است --
11:21
it's not just synbio, it's things like cyberwarfare,
234
681417
3726
تنها زیست شناسی مصنوعی نیست، چیزهایی مثل نبرد سایبری،
11:25
artificial intelligence, etc., etc. --
235
685167
3351
هوش مصنوعی، غیره و غیره. --
11:28
that there might be serious doom in our future.
236
688542
4517
آن چیزها احتمالا آینده ما را محکوم می کنند.
11:33
What are the possible responses?
237
693083
1601
پاسخ های ممکن چه هستند؟
11:34
And you've talked about four possible responses as well.
238
694708
4893
تو درباره چهار پاسخ ممکن صحبت کرده ای.
11:39
NB: Restricting technological development doesn't seem promising,
239
699625
3643
ن.ب: محدود کردن توسعه فناوری به نظر امیدوار کننده نمی رسد،
11:43
if we are talking about a general halt to technological progress.
240
703292
3226
اگر منظورمان یک توقف عمومی در پیشرفت فناوری است.
11:46
I think neither feasible,
241
706542
1267
فکر نمی کنم هیچ کدام شدنی باشند،
11:47
nor would it be desirable even if we could do it.
242
707833
2310
هیچ کدام خواسته ما نیستند حتی اگر بتوانیم انجامشان دهیم.
11:50
I think there might be very limited areas
243
710167
3017
به نظرم ممکن است در موضوعات محدودی
11:53
where maybe you would want slower technological progress.
244
713208
2726
بخواهی که توسعه فناوری کندتر باشد.
11:55
You don't, I think, want faster progress in bioweapons,
245
715958
3393
فکر نکنم، توسعه سریعتر تسلیحات زیستی را بخواهی،
11:59
or in, say, isotope separation,
246
719375
2059
یا فرضا، جداسازی ایزوتوپ ها،
12:01
that would make it easier to create nukes.
247
721458
2250
که تولید تسلیحات هسته ای را ساده تر می کند.
12:04
CA: I mean, I used to be fully on board with that.
248
724583
3310
ک.ا: به نظرم، معمولا کاملا با آن همراه بودم.
12:07
But I would like to actually push back on that for a minute.
249
727917
3267
اما حالا واقعا می خواهم دقیقه ای آن را کنار بگذارم.
12:11
Just because, first of all,
250
731208
1310
تنها به دلیل، اول از همه،
12:12
if you look at the history of the last couple of decades,
251
732542
2684
اگر به تاریخ چند دهه اخیر نگاه کنی،
12:15
you know, it's always been push forward at full speed,
252
735250
3559
می بینی، که همیشه تخت گاز فشار به جلو با حداکثر سرعت بوده،
12:18
it's OK, that's our only choice.
253
738833
1851
اشکالی ندارد، این تنها انتخاب ماست.
12:20
But if you look at globalization and the rapid acceleration of that,
254
740708
4268
اما اگر به جهانی شدن و شتاب سریع آن فکر کنی،
12:25
if you look at the strategy of "move fast and break things"
255
745000
3434
اگر به راهبرد «تجربه مادر علم است» توجه کنی
12:28
and what happened with that,
256
748458
2060
و نتایجش را بررسی کنی،
12:30
and then you look at the potential for synthetic biology,
257
750542
2767
و بعد به توانایی ذاتی زیست شناسی مصنوعی توجه کنی،
12:33
I don't know that we should move forward rapidly
258
753333
4435
مطمئن نیستم که باید سریع حرکت کنیم
12:37
or without any kind of restriction
259
757792
1642
یا بدون هر گونه محدودیت
12:39
to a world where you could have a DNA printer in every home
260
759458
3310
به سمت جهانی که می توانی یک چاپگر دی ان ای در هر خانه
12:42
and high school lab.
261
762792
1333
یا آزمایشگاه دبیرستان داشته باشی.
12:45
There are some restrictions, right?
262
765167
1684
محدودیت هایی وجود دارند، بله؟
12:46
NB: Possibly, there is the first part, the not feasible.
263
766875
2643
ن.ب: احتمالا وجود دارند، در بخش اول، در امکان پذیر نبودن.
12:49
If you think it would be desirable to stop it,
264
769542
2184
اگر توقف اش را بخواهی،
12:51
there's the problem of feasibility.
265
771750
1726
مشکل انجام شدنی بودن آن است.
12:53
So it doesn't really help if one nation kind of --
266
773500
2809
پس واقعا فایده ای ندارد اگر نوعی از یک کشور --
12:56
CA: No, it doesn't help if one nation does,
267
776333
2018
ک.ا: فایده ای ندارد اگر یک کشور انجامش دهد،
12:58
but we've had treaties before.
268
778375
2934
ولی ما قبلا معاهده هایی داشته ایم.
13:01
That's really how we survived the nuclear threat,
269
781333
3351
روشی که واقعا از خطر هسته ای عبور کرده ایم،
13:04
was by going out there
270
784708
1268
با حرکت به سمتش بوده
13:06
and going through the painful process of negotiating.
271
786000
2518
و عبور از مسیر دردناک مذاکرات.
13:08
I just wonder whether the logic isn't that we, as a matter of global priority,
272
788542
5434
تعجب می کنم که آیا منطقی نیست اگر به عنوان اولویتی جهانی،
13:14
we shouldn't go out there and try,
273
794000
1684
بخواهیم تلاش کنیم،
13:15
like, now start negotiating really strict rules
274
795708
2685
مثلا، همین حالا مذاکره برای قوانینی خیلی محکم را شروع کنیم
13:18
on where synthetic bioresearch is done,
275
798417
2684
که تحقیقات زیست شناسی مصنوعی تا کجا ادامه یابد،
13:21
that it's not something that you want to democratize, no?
276
801125
2851
که این چیزی نیست که بخواهید به دست همه بدهید، نه؟
13:24
NB: I totally agree with that --
277
804000
1809
ن.ب: من کاملا موافقم که --
13:25
that it would be desirable, for example,
278
805833
4226
که این را می خواهیم، برای مثال،
13:30
maybe to have DNA synthesis machines,
279
810083
3601
شاید داشتن دستگاه های ترکیب دی ان ای،
13:33
not as a product where each lab has their own device,
280
813708
3560
وسیله ای نباشد که هر آزمایشگاه دستگاهش را داشته باشد،
13:37
but maybe as a service.
281
817292
1476
شاید خدمات آن داشته باشد.
13:38
Maybe there could be four or five places in the world
282
818792
2517
شاید مثلا چهار یا پنج محل در جهان باشند
13:41
where you send in your digital blueprint and the DNA comes back, right?
283
821333
3518
که شما الگوی دیجیتال خود را می فرستید و دی ان ای برایتان بر می گردد، درست؟
13:44
And then, you would have the ability,
284
824875
1768
و حالا این توانایی را دارید،
13:46
if one day it really looked like it was necessary,
285
826667
2392
که اگر روزی واقعا به نظر لازم رسید،
13:49
we would have like, a finite set of choke points.
286
829083
2351
محل های مشخصی برای خفه کردن داریم.
13:51
So I think you want to look for kind of special opportunities,
287
831458
3518
پس به نظرم به دنبال نوعی موقعیت خاص هستی،
13:55
where you could have tighter control.
288
835000
2059
که بتوانی کنترلی محکمتر داشته باشی.
13:57
CA: Your belief is, fundamentally,
289
837083
1643
ک.ا: به باور شما، اساسا،
13:58
we are not going to be successful in just holding back.
290
838750
2893
ما با عقب نگاه داشتن موفقیتی بدست نمی آوریم.
14:01
Someone, somewhere -- North Korea, you know --
291
841667
2726
کسی، جایی -- کره شمالی، می دانی --
14:04
someone is going to go there and discover this knowledge,
292
844417
3517
کسی به آنجا می رسد و دانش را بدست می آورد،
14:07
if it's there to be found.
293
847958
1268
اگر آنجا باشد.
14:09
NB: That looks plausible under current conditions.
294
849250
2351
ن.ب: در شرایط موجود قابل قبول است.
14:11
It's not just synthetic biology, either.
295
851625
1934
تنها زیست شناسی مصنوعی هم نیست.
14:13
I mean, any kind of profound, new change in the world
296
853583
2518
به نظرم هر نوعی از تغییرات جدید و عمیق در جهان
14:16
could turn out to be a black ball.
297
856101
1626
می تواند تبدیل به یک توپ سیاه شود.
14:17
CA: Let's look at another possible response.
298
857727
2096
ک.ا: بیا تا به شکل دیگری از پاسخ نگاه کنیم.
14:19
NB: This also, I think, has only limited potential.
299
859823
2403
ن.ب: این هم، به نظرم، تنها توانایی محدودی دارد.
14:22
So, with the Type-1 vulnerability again,
300
862250
3559
برای آسیب پذیری نوع ۱،
14:25
I mean, if you could reduce the number of people who are incentivized
301
865833
4351
منظورم اینکه اگر بتوانی تعداد کسانی را کاهش دهی که انگیزه
14:30
to destroy the world,
302
870208
1268
نابودی جهان را دارند،
14:31
if only they could get access and the means,
303
871500
2059
اگر تنها آنها به امکانات و روش ها دسترسی داشته باشند ،
14:33
that would be good.
304
873583
1268
14:34
CA: In this image that you asked us to do
305
874875
1976
چیز خوبی است.
ک.ا: در این تصویری که از ما می خواهی انجام دهیم
14:36
you're imagining these drones flying around the world
306
876875
2559
به نظرت این پهپاد هایی که دور دنیا پرواز می کنند
14:39
with facial recognition.
307
879458
1268
با توانایی تشخیص چهره.
14:40
When they spot someone showing signs of sociopathic behavior,
308
880750
2893
اگر کسی را پیدا کردند که رفتارهای جامعه ستیزانه دارد،
14:43
they shower them with love, they fix them.
309
883667
2184
باید با عشق نثارشان کرد، درمانشان کرد.
14:45
NB: I think it's like a hybrid picture.
310
885875
1893
ن.ب: فکر می کنم این مثل تصویری ترکیبی است.
14:47
Eliminate can either mean, like, incarcerate or kill,
311
887792
4017
حذف یا معنی، حبس و کشتن می دهد،
14:51
or it can mean persuade them to a better view of the world.
312
891833
3018
یا می تواند تشویق کردن به نگاه بهتری از جهان باشد.
14:54
But the point is that,
313
894875
1726
اما نکته اینجاست،
14:56
suppose you were extremely successful in this,
314
896625
2143
فرض کنید که بی نهایت در این موفق باشید،
14:58
and you reduced the number of such individuals by half.
315
898792
3309
و تعداد چنین افرادی را نصف کنید.
15:02
And if you want to do it by persuasion,
316
902125
1893
و اگر بخواهید با تشویق این کار را انجام دهید،
15:04
you are competing against all other powerful forces
317
904042
2392
مجبور به رقابت با همه انواع نیروهای قدرتمند دیگر می شوید
15:06
that are trying to persuade people,
318
906458
1685
که مردم را تشویق،
15:08
parties, religion, education system.
319
908167
1767
به صف بندی، دین، سیستم های آموزشی می کنند.
15:09
But suppose you could reduce it by half,
320
909958
1905
اما فرض کنید بتوانید نصفش کنید،
15:11
I don't think the risk would be reduced by half.
321
911887
2256
فکر نمی کنم که خطر آن به نصف کاهش یابد.
15:14
Maybe by five or 10 percent.
322
914167
1559
شاید پنج یا ۱۰ درصد.
15:15
CA: You're not recommending that we gamble humanity's future on response two.
323
915750
4351
ک.ا: توصیه نمی کنی که ما آینده بشریت را روی پاسخ دوم شرط بندی کنیم.
15:20
NB: I think it's all good to try to deter and persuade people,
324
920125
3018
ن.ب: به نظرم این کار خوبی است که برای تشویق و تغییر افراد تلاش کنیم،
15:23
but we shouldn't rely on that as our only safeguard.
325
923167
2976
اما نباید آن را به عنوان تنها راه حفاظت بدانیم.
15:26
CA: How about three?
326
926167
1267
ک.ا: سومی چطور؟
15:27
NB: I think there are two general methods
327
927458
2893
ن.ب: به نظر من دو روش عمومی وجود دارد
15:30
that we could use to achieve the ability to stabilize the world
328
930375
3976
که برای رسیدن به توانایی تثبیت جهان
15:34
against the whole spectrum of possible vulnerabilities.
329
934375
2976
در برابر طیف کاملی از نقاط ضعف احتمالی قابل استفاده هستند.
15:37
And we probably would need both.
330
937375
1559
که احتمالا به هر دو نیازمندیم.
15:38
So, one is an extremely effective ability
331
938958
4518
یکی، توانایی است بی نهایت موثر
15:43
to do preventive policing.
332
943500
1768
در ایجاد نظم پیشگیرانه.
15:45
Such that you could intercept.
333
945292
1524
به گونه ای که بتوانی رهگیری کنی.
15:46
If anybody started to do this dangerous thing,
334
946840
2761
هرکسی را که خواست از این کارهای خطرناک انجام دهد،
15:49
you could intercept them in real time, and stop them.
335
949625
2684
بتوانی در لحظه پیدایشان کنی، و جلویشان را بگیری.
15:52
So this would require ubiquitous surveillance,
336
952333
2476
و این نیازمند نظارت فراگیر در همه جاست،
15:54
everybody would be monitored all the time.
337
954833
2375
همه باید همیشه تحت نظر باشند.
15:58
CA: This is "Minority Report," essentially, a form of.
338
958333
2560
ک.ا: این مثل فیلم «گزارش اقلیت» است، اساسا، به شکلی.
16:00
NB: You would have maybe AI algorithms,
339
960917
1934
ن.ب: شاید الگوریتم های هوش مصنوعی داشته باشی،
16:02
big freedom centers that were reviewing this, etc., etc.
340
962875
4417
مراکز بزرگ آزادی خواهی که این را بررسی می کنند، غیره و غیره.
16:08
CA: You know that mass surveillance is not a very popular term right now?
341
968583
4393
ک.ا: می دانی که نظارت انبوه عمومی این روزها موضوع خیلی محبوبی نیست؟
16:13
(Laughter)
342
973000
1250
(خنده حضار)
16:15
NB: Yeah, so this little device there,
343
975458
1810
ن.ب: بله، این وسیله کوچک اینجا،
16:17
imagine that kind of necklace that you would have to wear at all times
344
977292
3601
فرض کن این نوع از گردنبند که باید همیشه ببندی
16:20
with multidirectional cameras.
345
980917
2000
با دوربین های تمام جهت.
16:23
But, to make it go down better,
346
983792
1809
اما، برای اینکه بهتر جا بیفتد،
16:25
just call it the "freedom tag" or something like that.
347
985625
2524
اسمش را بگذار «پلاک آزادی» یا چیزی مشابه آن.
16:28
(Laughter)
348
988173
2011
(خنده حضار)
16:30
CA: OK.
349
990208
1268
ک.ا: قبول.
16:31
I mean, this is the conversation, friends,
350
991500
2101
دوستان، این همان صحبتی است که باید باشد،
16:33
this is why this is such a mind-blowing conversation.
351
993625
3559
به این دلیل است که چرا این صحبت دیوانه کننده است.
16:37
NB: Actually, there's a whole big conversation on this
352
997208
2601
ن.ب: واقعا، بحث های زیادی است
16:39
on its own, obviously.
353
999833
1310
تنها در این مورد، مشخص است.
16:41
There are huge problems and risks with that, right?
354
1001167
2476
مشکلات و مخاطراتی عظیم همراهش است، درسته؟
16:43
We may come back to that.
355
1003667
1267
شاید به آن برگردیم.
16:44
So the other, the final,
356
1004958
1268
آن بعدی، آخری،
16:46
the other general stabilization capability
357
1006250
2559
توانایی ایجاد ثبات عمومی
16:48
is kind of plugging another governance gap.
358
1008833
2060
به نوعی اتصال یک شکاف مدیریتی دیگر است.
16:50
So the surveillance would be kind of governance gap at the microlevel,
359
1010917
4184
پس این نظارت نوعی از مدیریت شکاف مدیریتی در سطح-خرد است.
16:55
like, preventing anybody from ever doing something highly illegal.
360
1015125
3101
مثل، جلوگیری از از اینکه کسی هیچوقت خطای خیلی بزرگی نکند.
16:58
Then, there's a corresponding governance gap
361
1018250
2309
سپس، یک شکاف مدیریتی مشابه هم هست
17:00
at the macro level, at the global level.
362
1020583
1935
در سطح-کلان، سطحی جهانی.
17:02
You would need the ability, reliably,
363
1022542
3934
تو به توانایی و مطمئن بودن نیاز داری،
17:06
to prevent the worst kinds of global coordination failures,
364
1026500
2809
تا مانع از بدترین نوع عدم هماهنگی جهانی شوی،
17:09
to avoid wars between great powers,
365
1029333
3768
مانع از جنگ میان قدرت های بزرگ،
17:13
arms races,
366
1033125
1333
مسابقات تسلیحاتی،
17:15
cataclysmic commons problems,
367
1035500
2208
مشکلات فاجعه آمیز مشترک،
17:19
in order to deal with the Type-2a vulnerabilities.
368
1039667
4184
تا بتوانی با آسیب پذیری های نوع ۲-الف مواجه شوی.
17:23
CA: Global governance is a term
369
1043875
1934
ک.ا: مدیریت جهان عبارتی است
17:25
that's definitely way out of fashion right now,
370
1045833
2226
که امروزه خیلی از مد افتاده،
17:28
but could you make the case that throughout history,
371
1048083
2518
اما آیا می توانی اینطور نتیجه بگیری که در طول تاریخ،
17:30
the history of humanity
372
1050625
1268
تارخ بشریت،
17:31
is that at every stage of technological power increase,
373
1051917
5434
در هر مرحله از افزایش قدرت فناوری،
17:37
people have reorganized and sort of centralized the power.
374
1057375
3226
انسان با سازماندهی دوباره، قدرت را مرکزی کرده.
17:40
So, for example, when a roving band of criminals
375
1060625
3434
برای مثال، وقتی که یک گروه جانی
17:44
could take over a society,
376
1064083
1685
می توانند جامعه ای را در اختیار بگیرند،
17:45
the response was, well, you have a nation-state
377
1065792
2239
پاسخ این بود که شما یک کشور-ملت هستید
17:48
and you centralize force, a police force or an army,
378
1068055
2434
و تو نیرو را مرکزی مردی، مثل نیروی پلیس یا ارتش،
17:50
so, "No, you can't do that."
379
1070513
1630
پس، «نه نمی شود این کار را کرد.»
17:52
The logic, perhaps, of having a single person or a single group
380
1072167
4559
شاید، منطقِ داشتن یک شخص یا گروه
17:56
able to take out humanity
381
1076750
1643
که بتواند بشریت را رها کند
17:58
means at some point we're going to have to go this route,
382
1078417
2726
به معنی این است که زمانی باید وارد این مسیر شویم،
18:01
at least in some form, no?
383
1081167
1434
حداقل به شکلی، نه؟
18:02
NB: It's certainly true that the scale of political organization has increased
384
1082625
3684
ن.ب: مسلما درست است که اندازه سازمان های سیاسی افزایش یافته
18:06
over the course of human history.
385
1086333
2143
که در طول تاریخ بشر.
18:08
It used to be hunter-gatherer band, right,
386
1088500
2018
معمولا شکارچی-گردآور بوده است، درست،
18:10
and then chiefdom, city-states, nations,
387
1090542
2934
و بعد رئیس قبیله، دولت-شهر، ملت،
18:13
now there are international organizations and so on and so forth.
388
1093500
3976
و حالا سازمان های بین المللی و به همین شکل و صورت.
18:17
Again, I just want to make sure
389
1097500
1518
حالا، می خواستم تا مطمئن شوم
18:19
I get the chance to stress
390
1099042
1642
که این موقعیت را داشته ام که تاکید کنم
18:20
that obviously there are huge downsides
391
1100708
1976
مشخصا ضررهایی عظیم
18:22
and indeed, massive risks,
392
1102708
1518
و حقیقتا، خطراتی سنگین وجود دارند،
18:24
both to mass surveillance and to global governance.
393
1104250
3351
هم در نظارت سنگین عمومی و هم در مدیریت جهانی.
18:27
I'm just pointing out that if we are lucky,
394
1107625
2559
اشاره من تنها این است که ما خوش شانسیم،
18:30
the world could be such that these would be the only ways
395
1110208
2685
جهان می توانست چنان باشد که اینها تنها راه های
18:32
you could survive a black ball.
396
1112917
1517
بقا بعد از یک توپ سیاه باشند.
18:34
CA: The logic of this theory,
397
1114458
2518
ک.ا: منطق این نظریه،
18:37
it seems to me,
398
1117000
1268
به نظر من،
18:38
is that we've got to recognize we can't have it all.
399
1118292
3601
این است که باید تشخیص دهیم که نمی شود همه چیز را با هم داشت.
18:41
That the sort of,
400
1121917
1833
که نوعی از،
18:45
I would say, naive dream that many of us had
401
1125500
2976
رویای ساده لوحانه که خیلی از ما داشته ایم
18:48
that technology is always going to be a force for good,
402
1128500
3351
که فناوری همیشه یک نیروی خوبی خواهد بود،
18:51
keep going, don't stop, go as fast as you can
403
1131875
2976
ادامه بده، توقف نکن، تا می توانی تند برو
18:54
and not pay attention to some of the consequences,
404
1134875
2351
و به بعضی از نتایج توجه نکن،
18:57
that's actually just not an option.
405
1137250
1684
واقعا دیگر امکان پذیر نیست.
18:58
We can have that.
406
1138958
1935
می توانیم آن را داشته باشیم.
19:00
If we have that,
407
1140917
1267
و اگر داشته باشیم،
19:02
we're going to have to accept
408
1142208
1435
باید قبول کنیم
19:03
some of these other very uncomfortable things with it,
409
1143667
2559
بعضی از چیزهای ناراحت کننده ای را که همراه آن است،
19:06
and kind of be in this arms race with ourselves
410
1146250
2226
که نوعی از بودن در آن مسابقه تسلیحاتی با خودت است
19:08
of, you want the power, you better limit it,
411
1148500
2268
که اگر قدرت می خواهی، بهتر است محدودش کنی،
19:10
you better figure out how to limit it.
412
1150792
2142
بهتر است بفهمی چطور محدودش کنی.
19:12
NB: I think it is an option,
413
1152958
3476
ن.ب: به نظرم این یک انتخاب است،
19:16
a very tempting option, it's in a sense the easiest option
414
1156458
2768
یک انتخاب خیلی وسوسه کننده، از این نظر که انتخابی ساده تر است
19:19
and it might work,
415
1159250
1268
که ممکن است جواب هم بدهد،
19:20
but it means we are fundamentally vulnerable to extracting a black ball.
416
1160542
4809
اما معنی اش این است که ما ذاتا در بیرون آوردن توپ سیاه آسیب پذیریم.
19:25
Now, I think with a bit of coordination,
417
1165375
2143
حالا، فکر کنم با کمی هماهنگی،
19:27
like, if you did solve this macrogovernance problem,
418
1167542
2726
مثلا، اگر بتوانی مشکل این مدیریت کلان را حل کنی،
19:30
and the microgovernance problem,
419
1170292
1601
و مدیریت خرد را حل کنی،
19:31
then we could extract all the balls from the urn
420
1171917
2309
می توانی توپ را از گلدان بیرون آوری
19:34
and we'd benefit greatly.
421
1174250
2268
و کلی مزیت بدست آورده ایم.
19:36
CA: I mean, if we're living in a simulation, does it matter?
422
1176542
3434
ک.ا: اگر ما در یک شبیه سازی زندگی می کنیم، این اهمیتی دارد؟
19:40
We just reboot.
423
1180000
1309
برنامه را دوباره اجرا می کنیم.
19:41
(Laughter)
424
1181333
1268
( خنده حضار)
19:42
NB: Then ... I ...
425
1182625
1643
ن.ب.: پس ... من ...
19:44
(Laughter)
426
1184292
2476
(خنده حضار)
19:46
I didn't see that one coming.
427
1186792
1416
حواسم به این یکی نبود.
19:50
CA: So what's your view?
428
1190125
1268
ک.ا: شما چه نگاهی دارید؟
19:51
Putting all the pieces together, how likely is it that we're doomed?
429
1191417
4809
با کنار هم گذاشتن همه این اجزاء، احتمال محکوم به شکست بودنمان چقدر است؟
19:56
(Laughter)
430
1196250
1958
(خنده حضار)
19:59
I love how people laugh when you ask that question.
431
1199042
2392
عاشق خنده مردم هستم وقتی این سوال را می پرسی.
20:01
NB: On an individual level,
432
1201458
1351
ن.ب: در سطح فردی،
20:02
we seem to kind of be doomed anyway, just with the time line,
433
1202833
3851
به نظر می رسد که به هر شکل محکوم هستیم، تنها از دید زمانی،
20:06
we're rotting and aging and all kinds of things, right?
434
1206708
2601
ما می پوسیم و پیر می شویم و هه این چیزها، درست؟
20:09
(Laughter)
435
1209333
1601
(خنده حضار)
20:10
It's actually a little bit tricky.
436
1210958
1685
واقعا کمی پیچیده است.
20:12
If you want to set up so that you can attach a probability,
437
1212667
2767
اگر بخواهی به شکلی تنظیمش کنی که، بتوانی احتمالی هم به آن بدهی،
20:15
first, who are we?
438
1215458
1268
اول، ما که هستیم؟
20:16
If you're very old, probably you'll die of natural causes,
439
1216750
2726
اگر خیلی پیر هستید، احتمالا به دلایل طبیعی خواهید مرد،
20:19
if you're very young, you might have a 100-year --
440
1219500
2351
اگر جوان هستید، احتمالا به ۱۰۰ سالگی برسید --
20:21
the probability might depend on who you ask.
441
1221875
2143
احتمال آن بستگی دارد از که بپرسید.
20:24
Then the threshold, like, what counts as civilizational devastation?
442
1224042
4226
بعد آن آستانه، یعنی، چه چیزی را نابودی تمدن می دانیم؟
20:28
In the paper I don't require an existential catastrophe
443
1228292
5642
در این مقاله، من نیازی به یک فاجعه نابود کننده هستی
20:33
in order for it to count.
444
1233958
1435
برای به حساب آوردن نداشته ام.
20:35
This is just a definitional matter,
445
1235417
1684
این تنها یک تعریف است.
20:37
I say a billion dead,
446
1237125
1309
فرض کنید یک میلیارد کشته،
20:38
or a reduction of world GDP by 50 percent,
447
1238458
2060
یا کاهش ۵۰ درصدی تولید ناخالص ملی جهان،
20:40
but depending on what you say the threshold is,
448
1240542
2226
اما با توجه به آستانه ای که شما تعریف می کنید،
20:42
you get a different probability estimate.
449
1242792
1976
تخمین متفاوتی از احتمال بدست می آورید.
20:44
But I guess you could put me down as a frightened optimist.
450
1244792
4517
اما فکر کنم شما بهتر است من را به عنوان یک خوشبین ترسو کنار بگذارید.
20:49
(Laughter)
451
1249333
1101
(خنده حضار)
20:50
CA: You're a frightened optimist,
452
1250458
1643
ک.ا: تو یک خوشبین ترسو هستی،
20:52
and I think you've just created a large number of other frightened ...
453
1252125
4268
که فکر کنم همین حالا کلی ترسوی دیگر بوجود آوردی ....
20:56
people.
454
1256417
1267
آدمهای.
20:57
(Laughter)
455
1257708
1060
(خنده حضار)
20:58
NB: In the simulation.
456
1258792
1267
ن.ب.: در شبیه سازی.
21:00
CA: In a simulation.
457
1260083
1268
ک.ا: در شبیه سازی.
21:01
Nick Bostrom, your mind amazes me,
458
1261375
1684
نیک بوستروم، ذهن تو مرا شگفت زده می کند،
21:03
thank you so much for scaring the living daylights out of us.
459
1263083
2893
خیلی متشکرم از اینکه حالا ما را از روز روشن هم ترسانده ای.
21:06
(Applause)
460
1266000
2375
(تشویق حضار)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7