How civilization could destroy itself -- and 4 ways we could prevent it | Nick Bostrom

153,547 views ・ 2020-01-17

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Cihan Ekmekçi Gözden geçirme: Figen Ergürbüz
00:13
Chris Anderson: Nick Bostrom.
0
13000
1809
Chris Anderson: Nick Bostrom.
00:14
So, you have already given us so many crazy ideas out there.
1
14833
3976
Bize çoktan birçok çılgın fikir verdin.
00:18
I think a couple of decades ago,
2
18833
1726
Sanırım 20 yıl önce
00:20
you made the case that we might all be living in a simulation,
3
20583
2935
hepimizin bir simülasyonda yaşıyor olabileceğini ortaya attın
00:23
or perhaps probably were.
4
23542
1809
ya da geçmişte yaşadığımızı.
00:25
More recently,
5
25375
1351
Yakın zamanda,
00:26
you've painted the most vivid examples of how artificial general intelligence
6
26750
4601
yapay genel zekânın nasıl korkunç düzeyde kötüye gidebileceğinin
00:31
could go horribly wrong.
7
31375
1833
en gerçekçi örneklerini gösterdin.
00:33
And now this year,
8
33750
1393
Ve bu yıl da
00:35
you're about to publish
9
35167
2226
hassas dünya hipotezi denen bir konu üzerinde
00:37
a paper that presents something called the vulnerable world hypothesis.
10
37417
3934
bir yazı yayımlamak üzeresin.
00:41
And our job this evening is to give the illustrated guide to that.
11
41375
4583
Bu akşam bizim görevimiz buna örnekli bir kılavuz sunmak.
00:46
So let's do that.
12
46417
1833
Hadi başlayalım.
00:48
What is that hypothesis?
13
48833
1792
Nedir bu hipotez?
Nick Bostrom: Bu, şu anki insan durumunun
00:52
Nick Bostrom: It's trying to think about
14
52000
2434
00:54
a sort of structural feature of the current human condition.
15
54458
3084
bir tür yapısal özelliği üzerinde düşünmeye çalışma.
00:59
You like the urn metaphor,
16
59125
2351
Sen vazo örneğini seviyorsun,
01:01
so I'm going to use that to explain it.
17
61500
1893
bu yüzden açıklamak için o örneği kullanacağım.
01:03
So picture a big urn filled with balls
18
63417
4351
Fikirleri, metotları ve olası teknolojileri temsil eden
01:07
representing ideas, methods, possible technologies.
19
67792
3958
toplarla dolu büyük bir vazo hayal et.
01:12
You can think of the history of human creativity
20
72833
3726
İnsan yaratıcılığının tarihini,
01:16
as the process of reaching into this urn and pulling out one ball after another,
21
76583
3810
bu vazoya ulaşma ve topları birer birer çıkarma süreci olarak düşünebilirsin
01:20
and the net effect so far has been hugely beneficial, right?
22
80417
3226
ve ağ etkisi şimdiye kadar oldukça yararlıydı değil mi?
01:23
We've extracted a great many white balls,
23
83667
2726
Bazısı hem faydalı hem zararlı olan çeşitli gri tonlarda
01:26
some various shades of gray, mixed blessings.
24
86417
2875
oldukça fazla sayıda beyaz top çıkardık.
01:30
We haven't so far pulled out the black ball --
25
90042
2958
Şimdiye kadar siyah topu çıkarmadık --
01:34
a technology that invariably destroys the civilization that discovers it.
26
94292
5476
onu keşfeden medeniyeti sürekli olarak yok eden bir teknoloji.
01:39
So the paper tries to think about what could such a black ball be.
27
99792
3267
Yazı, siyah topun ne olabileceği üzerine düşünmeye çalışıyor.
01:43
CA: So you define that ball
28
103083
1810
CA: Yani bu topu, kaçınılmaz bir şekilde
01:44
as one that would inevitably bring about civilizational destruction.
29
104917
3684
medeniyet yıkımı getirecek bir şey olarak tanımlıyorsun.
01:48
NB: Unless we exit what I call the semi-anarchic default condition.
30
108625
5309
NB: Yarı anarşik standart koşul diye adlandırdığım şeyden çıkmadığımız sürece.
01:53
But sort of, by default.
31
113958
1500
Ama bir çeşit, varsayımla.
01:56
CA: So, you make the case compelling
32
116333
3518
CA: Yani, aslında şu zamana kadar
01:59
by showing some sort of counterexamples
33
119875
2018
şanslı olduğumuza inandığın,
02:01
where you believe that so far we've actually got lucky,
34
121917
2934
o ölüm topunu hiç bilmeden çekmiş olabileceğimiz
02:04
that we might have pulled out that death ball
35
124875
2851
bir çeşit karşıt örnekler vererek
02:07
without even knowing it.
36
127750
1559
durumu zorlaştırıyorsun.
02:09
So there's this quote, what's this quote?
37
129333
2292
Evet bir alıntı var, nedir bu alıntı?
02:12
NB: Well, I guess it's just meant to illustrate
38
132625
2684
NB: Sanırım, bu sadece
02:15
the difficulty of foreseeing
39
135333
2101
ana keşiflerin neye yol açacağını
02:17
what basic discoveries will lead to.
40
137458
2685
öngörmenin zorluğunu anlatmaya yarıyor.
02:20
We just don't have that capability.
41
140167
3059
Henüz bu yetiye sahip değiliz.
02:23
Because we have become quite good at pulling out balls,
42
143250
3351
Çünkü, topları çıkarmakta çok iyi hâle geldik
02:26
but we don't really have the ability to put the ball back into the urn, right.
43
146625
3726
ama topu geri vazoya doğru şekilde koyma yeteneğine aslında sahip değiliz.
02:30
We can invent, but we can't un-invent.
44
150375
2167
İcat edebiliyoruz ama geri bozamıyoruz.
02:33
So our strategy, such as it is,
45
153583
2768
Yani bizim stratejimiz, olduğu gibi,
02:36
is to hope that there is no black ball in the urn.
46
156375
2434
vazoda hiç siyah top olmadığını ummak.
02:38
CA: So once it's out, it's out, and you can't put it back in,
47
158833
4060
CA: Yani bir kez dışarı çıktığında dışarıdadır, onu geri içine koyamazsın
02:42
and you think we've been lucky.
48
162917
1517
ve şanslı olduğumuzu düşünüyorsun.
02:44
So talk through a couple of these examples.
49
164458
2226
Bu örneklerden bazıları üzerinde konuşalım.
02:46
You talk about different types of vulnerability.
50
166708
3101
Farklı türdeki zaaflar hakkında konuşalım.
02:49
NB: So the easiest type to understand
51
169833
2435
NB: Anlamanın en kolay türü
02:52
is a technology that just makes it very easy
52
172292
3142
büyük miktarda yıkımlara yol açmayı
02:55
to cause massive amounts of destruction.
53
175458
2125
oldukça çok kolaylaştıran bir teknoloji.
02:59
Synthetic biology might be a fecund source of that kind of black ball,
54
179375
3518
Sentetik biyoloji, bu siyah topu bulmakta verimli bir kaynak olabilir
03:02
but many other possible things we could --
55
182917
2684
ama iklim mühendisliğiyle ilgili düşünebileceğimiz --
03:05
think of geoengineering, really great, right?
56
185625
2518
diğer birçok mümkün şey de gerçekten harika, değil mi?
03:08
We could combat global warming,
57
188167
2226
Küresel ısınmayla mücadele edebiliriz
03:10
but you don't want it to get too easy either,
58
190417
2142
ama bunun çok kolay hâle gelmesini de istemezsin;
03:12
you don't want any random person and his grandmother
59
192583
2476
rastgele birinin ve büyük annesinin
03:15
to have the ability to radically alter the earth's climate.
60
195083
3060
Dünya ikliminde köklü değişiklikler yapabilmesini istemezsin.
03:18
Or maybe lethal autonomous drones,
61
198167
3559
Ya da belki, ölümcül özerk drone'lar,
03:21
massed-produced, mosquito-sized killer bot swarms.
62
201750
3333
toplu üretilmiş, sivrisinek boyunda öldürücü sürüler.
03:26
Nanotechnology, artificial general intelligence.
63
206500
2726
Nanoteknoloji, yapay genel zekâ.
03:29
CA: You argue in the paper
64
209250
1309
CA: Yazıda savunduğun,
03:30
that it's a matter of luck that when we discovered
65
210583
2893
nükleer gücün bir bomba yaratabileceğini öğrendiğimizde
03:33
that nuclear power could create a bomb,
66
213500
3434
03:36
it might have been the case
67
216958
1393
sen zaten herkes için erişilebilir daha kolay kaynaklarla
03:38
that you could have created a bomb
68
218375
1851
03:40
with much easier resources, accessible to anyone.
69
220250
3559
şans eseri bir bomba yaratmış olabilirsin.
03:43
NB: Yeah, so think back to the 1930s
70
223833
3560
NB: 1930'lu yılları düşünelim,
03:47
where for the first time we make some breakthroughs in nuclear physics,
71
227417
4601
nükleer fizikte harika yenilikler yaptığımız ilk zamanları,
03:52
some genius figures out that it's possible to create a nuclear chain reaction
72
232042
3684
bazı dâhiler nükleer zincirleme reaksiyon yaratmanın mümkün olduğunu anlıyor
03:55
and then realizes that this could lead to the bomb.
73
235750
3184
ve sonra bunun ucunun bombaya uzanacağını anlıyor.
03:58
And we do some more work,
74
238958
1893
Birkaç tane daha çalışma yaptık;
04:00
it turns out that what you require to make a nuclear bomb
75
240875
2726
bir nükleer bomba yapmak için ihtiyacın olan şeylerin,
04:03
is highly enriched uranium or plutonium,
76
243625
2393
yüksek oranda zenginleştirilmiş uranyum ve plutonyum,
04:06
which are very difficult materials to get.
77
246042
2017
elde etmesi çok zor materyaller.
04:08
You need ultracentrifuges,
78
248083
2268
Ultrasantrifüje, reaktörlere,
04:10
you need reactors, like, massive amounts of energy.
79
250375
3768
yani büyük miktarda enerjiye ihtiyaç var.
04:14
But suppose it had turned out instead
80
254167
1809
Ama bunlar yerine,
04:16
there had been an easy way to unlock the energy of the atom.
81
256000
3976
atomun enerjisini açığa çıkarmanın kolay bir yolu olduğunu düşün.
04:20
That maybe by baking sand in the microwave oven
82
260000
2768
Belki mikrodalga fırında kum pişirerek
04:22
or something like that
83
262792
1267
ya da bunun gibi bir şeyle
04:24
you could have created a nuclear detonation.
84
264083
2101
bir nükleer patlama yaratabilirdin.
04:26
So we know that that's physically impossible.
85
266208
2143
Bunun fiziksel olarak imkânsız olduğunu biliyoruz.
04:28
But before you did the relevant physics
86
268375
1893
Ama ilgili fiziği bilmeden önce
04:30
how could you have known how it would turn out?
87
270292
2191
bunun neye dönüşeceğini nasıl bilebilirdin?
04:32
CA: Although, couldn't you argue
88
272507
1552
CA: Ama şöyle düşünmüyor musun,
04:34
that for life to evolve on Earth
89
274083
1935
Dünya'daki yaşamın evrilmesi
04:36
that implied sort of stable environment,
90
276042
3267
ve bunun bir tür durağan çevre anlamına gelmesi için
04:39
that if it was possible to create massive nuclear reactions relatively easy,
91
279333
4185
büyük nükleer reaksiyonlar yaratmak nispeten daha kolay ve mümkün olsaydı
04:43
the Earth would never have been stable,
92
283542
1858
Dünya hiç sabit kalmazdı,
04:45
that we wouldn't be here at all.
93
285424
1552
biz burada bile olmazdık.
04:47
NB: Yeah, unless there were something that is easy to do on purpose
94
287000
3393
NB: Evet, şayet bilerek yapılması kolay
04:50
but that wouldn't happen by random chance.
95
290417
2851
ama rastgele şansla olmayacak bir şey var olmasaydı.
04:53
So, like things we can easily do,
96
293292
1579
Yani kolayca yapabildiğimiz şeyler,
04:54
we can stack 10 blocks on top of one another,
97
294896
2110
üst üste 10 tane blok dizebiliriz
04:57
but in nature, you're not going to find, like, a stack of 10 blocks.
98
297031
3197
ama doğada üst üste dizilmiş 10 blok bulamazsın.
05:00
CA: OK, so this is probably the one
99
300253
1673
CA: Tamam, yani bu muhtemelen
05:01
that many of us worry about most,
100
301950
1943
çoğumuzun en çok endişelendiği şey
05:03
and yes, synthetic biology is perhaps the quickest route
101
303917
3517
ve evet yapay biyoloji belki de yakın gelecekte öngördüğümüz,
05:07
that we can foresee in our near future to get us here.
102
307458
3018
bizi oraya götürebilecek en hızlı yöntem.
05:10
NB: Yeah, and so think about what that would have meant
103
310500
2934
NB: Evet ve diyelim ki bir öğleden sonra
05:13
if, say, anybody by working in their kitchen for an afternoon
104
313458
3643
mutfağında çalışan herhangi birinin bir şehri yok edebilmesi
05:17
could destroy a city.
105
317125
1393
nasıl olurdu bir düşün.
05:18
It's hard to see how modern civilization as we know it
106
318542
3559
Bizim bildiğimiz modern medeniyet böyle bir şeyden
nasıl kurtulabilirdi kestirmek zor.
05:22
could have survived that.
107
322125
1434
05:23
Because in any population of a million people,
108
323583
2518
Çünkü mutlaka her bir milyonluk insan nüfusunda,
05:26
there will always be some who would, for whatever reason,
109
326125
2684
herhangi bir sebep için bu yıkıcı gücü kullanmayı
05:28
choose to use that destructive power.
110
328833
2084
seçecek biri olacaktır.
05:31
So if that apocalyptic residual
111
331750
3143
Yani, eğer bu kıyamet kalıntısı
05:34
would choose to destroy a city, or worse,
112
334917
1976
bir şehri yok etmeyi ya da daha kötüsünü isterse
05:36
then cities would get destroyed.
113
336917
1559
şehirler yok edilirdi.
05:38
CA: So here's another type of vulnerability.
114
338500
2351
CA: İşte başka tür bir zayıflık.
05:40
Talk about this.
115
340875
1643
Bunun hakkında konuşalım.
05:42
NB: Yeah, so in addition to these kind of obvious types of black balls
116
342542
3976
NB: Evet, birçok şeyi patlatmayı mümkün kılan
05:46
that would just make it possible to blow up a lot of things,
117
346542
2810
bu tür siyah topların yanında
05:49
other types would act by creating bad incentives
118
349376
4433
diğer türler de insanlarda onları zararlı şeyler yapmaya iten
05:53
for humans to do things that are harmful.
119
353833
2226
kötü güdüleri dürtebilir.
05:56
So, the Type-2a, we might call it that,
120
356083
4101
Yani Tür 2A diye adlandırabileceğimiz bu şey,
06:00
is to think about some technology that incentivizes great powers
121
360208
4518
inanılmaz ölçüde kuvvet kullanarak yıkım yatratmak için
06:04
to use their massive amounts of force to create destruction.
122
364750
4476
büyük güçleri teşvik eden bir teknoloji.
06:09
So, nuclear weapons were actually very close to this, right?
123
369250
2833
Aslında nükleer silahlar buna oldukça yakınlardı değil mi?
06:14
What we did, we spent over 10 trillion dollars
124
374083
3060
Yaptığımız şey, 70.000 nükleer savaş başlığı yapmak için
06:17
to build 70,000 nuclear warheads
125
377167
2517
10 trilyon dolar harcamak
06:19
and put them on hair-trigger alert.
126
379708
2435
ve onları tetikte tutmaktı.
06:22
And there were several times during the Cold War
127
382167
2267
Ve Soğuk Savaş sırasında
neredeyse birbirimizi havaya uçurduğumuz zamanlar oldu.
06:24
we almost blew each other up.
128
384458
1435
06:25
It's not because a lot of people felt this would be a great idea,
129
385917
3101
Birçok insan bunun iyi bir fikir olduğunu düşündüğünden değil,
hadi kendimizi patlatmak için 10 trilyon dolar harcayalım,
06:29
let's all spend 10 trillion dollars to blow ourselves up,
130
389042
2684
06:31
but the incentives were such that we were finding ourselves --
131
391750
2934
teşvikler öyle bir ayarlandı ki
kendimizi daha kötü olabilirdi diye düşünürken bulduk.
06:34
this could have been worse.
132
394708
1310
06:36
Imagine if there had been a safe first strike.
133
396042
2434
Güvenli bir ilk atış olduğunu düşünün.
06:38
Then it might have been very tricky,
134
398500
2309
O zaman bir kriz durumunda,
06:40
in a crisis situation,
135
400833
1268
bütün nükleer füzelerini fırlatmak kendilerini alıkoymaları zor olurdu.
06:42
to refrain from launching all their nuclear missiles.
136
402125
2477
06:44
If nothing else, because you would fear that the other side might do it.
137
404626
3392
En kötü ihtimalle bunu diğer taraf yapabilir korkusu olurdu.
06:48
CA: Right, mutual assured destruction
138
408042
1809
CA: Evet, karşılıklı yıkım güvencesi Soğuk Savaş'ı nispeten dengede tuttu,
06:49
kept the Cold War relatively stable,
139
409875
2726
06:52
without that, we might not be here now.
140
412625
1934
o olmasaydı şu an burada olmayabilirdik.
06:54
NB: It could have been more unstable than it was.
141
414583
2310
NB: Her şey daha istikrarsız olabilirdi.
06:56
And there could be other properties of technology.
142
416917
2351
Ve daha farklı teknolojiler olabilirdi.
06:59
It could have been harder to have arms treaties,
143
419292
2309
Nükleer silahlar yerine daha küçük
07:01
if instead of nuclear weapons
144
421625
1601
ya da daha az belirgin şeyler olsaydı
07:03
there had been some smaller thing or something less distinctive.
145
423250
3018
silah anlaşmaları yapmak daha zor olurdu.
07:06
CA: And as well as bad incentives for powerful actors,
146
426292
2559
CA: Güçlü aktörler için kötü teşvikler kadar
07:08
you also worry about bad incentives for all of us, in Type-2b here.
147
428875
3518
Tür 2B'de hepimizin için olan kötü teşvikler için de endişeleniyorsun.
07:12
NB: Yeah, so, here we might take the case of global warming.
148
432417
4250
NB: Evet, küresel ısınmayı ele alabiliriz.
07:18
There are a lot of little conveniences
149
438958
1893
Pek çok küçük eylem var,
07:20
that cause each one of us to do things
150
440875
2184
her birimizin yapabileceği şeyler
07:23
that individually have no significant effect, right?
151
443083
2851
ama tek başımıza yapsak hiçbir etkisi olmayacak şeyler.
07:25
But if billions of people do it,
152
445958
1976
Ama milyarlarca insan bunu yaparsa
07:27
cumulatively, it has a damaging effect.
153
447958
2060
bunlar birikerek zararlı bir etkiye sahip olur.
07:30
Now, global warming could have been a lot worse than it is.
154
450042
2809
Küresel ısınma şimdikinden çok daha kötü olabilirdi.
07:32
So we have the climate sensitivity parameter, right.
155
452875
2976
Bu yüzden iklim duyarlılığı ölçeğimiz var.
07:35
It's a parameter that says how much warmer does it get
156
455875
3643
Bu ölçek, belli bir miktarda sera gazı saldığında
07:39
if you emit a certain amount of greenhouse gases.
157
459542
2684
iklimin ne kadar ısındığını söylüyor.
07:42
But, suppose that it had been the case
158
462250
2393
Bunun, yükselen ısı yerine saldığımız sera gazı miktarıyla ilgili varsayalım
07:44
that with the amount of greenhouse gases we emitted,
159
464667
2517
07:47
instead of the temperature rising by, say,
160
467208
2060
07:49
between three and 4.5 degrees by 2100,
161
469292
3726
2100'e kadar 3 ve 4,5 derece arası ısı yükselişi yerine
07:53
suppose it had been 15 degrees or 20 degrees.
162
473042
2500
15 veya 20 derece arası olduğunu varsay.
07:56
Like, then we might have been in a very bad situation.
163
476375
2559
Çok kötü bir durumda olabilirdik.
07:58
Or suppose that renewable energy had just been a lot harder to do.
164
478958
3143
Ya da yenilenebilir enerji yapmanın çok daha zor olduğunu varsay.
08:02
Or that there had been more fossil fuels in the ground.
165
482125
2643
Ya da yer altında daha fazla fosil yakıt olduğunu.
08:04
CA: Couldn't you argue that if in that case of --
166
484792
2642
CA: Böyle bir durumda --
08:07
if what we are doing today
167
487458
1726
eğer bugün yaptığımız şey
08:09
had resulted in 10 degrees difference in the time period that we could see,
168
489208
4560
görebileceğimiz süreçte 10 derece farklılık yarattıysa
08:13
actually humanity would have got off its ass and done something about it.
169
493792
3684
aslında insanoğlu yerinden kalkıp bununla ilgili bir şeyler yapabilirdi.
08:17
We're stupid, but we're not maybe that stupid.
170
497500
2809
Aptalız ama belki de o kadar da aptal değiliz.
08:20
Or maybe we are.
171
500333
1268
Ya da belki öyleyiz.
08:21
NB: I wouldn't bet on it.
172
501625
1268
NB: Bu kadar emin olmazdım.
08:22
(Laughter)
173
502917
2184
(Kahkahalar)
08:25
You could imagine other features.
174
505125
1684
Diğer özellikleri hayal edebilirsin.
08:26
So, right now, it's a little bit difficult to switch to renewables and stuff, right,
175
506833
5518
Şu anda yenilenebilir ve diğerleri arasında geçiş yapmak bir miktar zor,
08:32
but it can be done.
176
512375
1268
evet, ama yapılabilir.
08:33
But it might just have been, with slightly different physics,
177
513667
2976
Biraz farklı bir fizikle mümkün olabilirdi
08:36
it could have been much more expensive to do these things.
178
516667
2791
ama bu tür şeyleri yapmak daha pahalı olurdu.
08:40
CA: And what's your view, Nick?
179
520375
1518
CA: Peki senin görüşün ne Nick?
08:41
Do you think, putting these possibilities together,
180
521917
2434
Bu ihtimalleri bir araya koyarsak
08:44
that this earth, humanity that we are,
181
524375
4268
bu yeryüzü, insanlık olarak biz,
08:48
we count as a vulnerable world?
182
528667
1559
savunmasız bir dünya olarak sayılır mıyız?
08:50
That there is a death ball in our future?
183
530250
2417
Geleceğimizde bir ölüm topu olur mu?
08:55
NB: It's hard to say.
184
535958
1268
NB: Bunu söylemek zor.
08:57
I mean, I think there might well be various black balls in the urn,
185
537250
5059
Anlatmak istediğim, vazoda göründüğü gibi çok çeşitli siyah toplar olabilir.
09:02
that's what it looks like.
186
542333
1310
09:03
There might also be some golden balls
187
543667
2392
Siyah toplara karşı korunmamıza yardım edecek altın toplar da olabilir.
09:06
that would help us protect against black balls.
188
546083
3476
09:09
And I don't know which order they will come out.
189
549583
2976
Hangi sırayla ortaya çıkacaklarını bilmiyorum.
09:12
CA: I mean, one possible philosophical critique of this idea
190
552583
3851
CA: Yani, bu fikirle ilgili olası bir felsefi eleştiri de
09:16
is that it implies a view that the future is essentially settled.
191
556458
5643
geleceğin aslında belirlenmiş olduğuyla ilgili bir görüşü işaret eder.
09:22
That there either is that ball there or it's not.
192
562125
2476
O top ya vardır ya da yoktur.
09:24
And in a way,
193
564625
3018
Ve bir taraftan,
09:27
that's not a view of the future that I want to believe.
194
567667
2601
bu inanmak istediğim bir gelecek görüşü değil.
09:30
I want to believe that the future is undetermined,
195
570292
2351
Geleceğin belirlenmediğine, bugünkü kararlarımızın
09:32
that our decisions today will determine
196
572667
1934
o vazodan hangi topu çekeceğimizi belirleyeceğine inanmak istiyorum.
09:34
what kind of balls we pull out of that urn.
197
574625
2208
09:37
NB: I mean, if we just keep inventing,
198
577917
3767
NB: İcat etmeye devam edersek
09:41
like, eventually we will pull out all the balls.
199
581708
2334
en sonunda tüm topları çıkaracağız.
09:44
I mean, I think there's a kind of weak form of technological determinism
200
584875
3393
Yani, oldukça mantıklı bir tür güçsüz, teknolojik determinizm var olabilir,
09:48
that is quite plausible,
201
588292
1267
09:49
like, you're unlikely to encounter a society
202
589583
2643
el baltası ve jet uçaklar kullanan bir topluma rastlamak çok zormuş gibi.
09:52
that uses flint axes and jet planes.
203
592250
2833
09:56
But you can almost think of a technology as a set of affordances.
204
596208
4060
Ama teknolojiyi neredeyse bir takım sağlayıcı olarak düşünebilirsin.
10:00
So technology is the thing that enables us to do various things
205
600292
3017
Teknoloji, farklı şeyler yapmamızı
ve dünyada farklı etkilere ulaşmamızı sağlayan bir şey.
10:03
and achieve various effects in the world.
206
603333
1976
10:05
How we'd then use that, of course depends on human choice.
207
605333
2810
Bunu nasıl kullandığımız tabii ki insan seçimlerine bağlı.
10:08
But if we think about these three types of vulnerability,
208
608167
2684
Ama bu üç çeşit zaafı düşünürsek
10:10
they make quite weak assumptions about how we would choose to use them.
209
610875
3393
onları kullanma seçimimizle ilgili oldukça zayıf varsayımlar yapıyorlar.
10:14
So a Type-1 vulnerability, again, this massive, destructive power,
210
614292
3392
Tür-1 zaaf, yeniden, bu büyük, yıkıcı güç,
10:17
it's a fairly weak assumption
211
617708
1435
milyonlarca insanlık bir nüfusta
10:19
to think that in a population of millions of people
212
619167
2392
bunu yıkıcı bir şekilde kullanacak birinin olacağını düşünmek
10:21
there would be some that would choose to use it destructively.
213
621583
2935
oldukça zayıf bir varsayım.
10:24
CA: For me, the most single disturbing argument
214
624542
2434
CA: Benim için tek rahatsız edici argüman,
10:27
is that we actually might have some kind of view into the urn
215
627000
4559
ölüme mahkum edildiğimiz ihtimalinin yüksek olduğu
10:31
that makes it actually very likely that we're doomed.
216
631583
3518
bir tür bakış açısına sahip olabilirdik.
10:35
Namely, if you believe in accelerating power,
217
635125
4643
Şöyle ki eğer hızlanan güce inanıyorsan --
10:39
that technology inherently accelerates,
218
639792
2267
giderek hızlanan teknolojiye
10:42
that we build the tools that make us more powerful,
219
642083
2435
ve bununla bizi daha güçlü kılan araçları yaptığımıza
10:44
then at some point you get to a stage
220
644542
2642
o hâlde bir noktada tek bir kişinin hepimizi yok edebileceği bir sahne çıkıyor
10:47
where a single individual can take us all down,
221
647208
3060
10:50
and then it looks like we're screwed.
222
650292
2851
ve işimiz bitik görünüyor.
10:53
Isn't that argument quite alarming?
223
653167
2934
Bu argüman oldukça korkutucu değil mi?
10:56
NB: Ah, yeah.
224
656125
1750
NB: Ah, evet.
10:58
(Laughter)
225
658708
1268
(Kahkahalar)
11:00
I think --
226
660000
1333
Bence --
11:02
Yeah, we get more and more power,
227
662875
1601
Evet, gittikçe daha çok güç kazanıyoruz
11:04
and [it's] easier and easier to use those powers,
228
664500
3934
ve bu gücü kullanmak gittikçe daha kolay hale geliyor
11:08
but we can also invent technologies that kind of help us control
229
668458
3560
ama insanların bu gücü nasıl kullandığını kontrol etmemize yardımcı olacak
11:12
how people use those powers.
230
672042
2017
teknolojiler de üretebiliriz.
11:14
CA: So let's talk about that, let's talk about the response.
231
674083
2851
CA: O zaman bunun hakkında konuşalım, geri bildirim hakkında.
11:16
Suppose that thinking about all the possibilities
232
676958
2310
Şu an mevcut tüm ihtimalleri düşündüğünü var say --
11:19
that are out there now --
233
679292
2101
11:21
it's not just synbio, it's things like cyberwarfare,
234
681417
3726
sadece sentetik biyoloji değil, siber savaş gibi bir şey bu,
11:25
artificial intelligence, etc., etc. --
235
685167
3351
yapay zeka ve benzerleri gibi --
11:28
that there might be serious doom in our future.
236
688542
4517
geleceğimizde ciddi bir kötü sonla karşılaşabiliriz.
11:33
What are the possible responses?
237
693083
1601
Mümkün olan tepkiler neler?
11:34
And you've talked about four possible responses as well.
238
694708
4893
Dört olası tepki hakkında da konuşmuştun.
11:39
NB: Restricting technological development doesn't seem promising,
239
699625
3643
NB: Teknolojik gelişime karşı bir durdurma hakkında konuşacak olursak
11:43
if we are talking about a general halt to technological progress.
240
703292
3226
teknolojik gelişimleri kısıtlamak hiç mantıklı görünmüyor.
11:46
I think neither feasible,
241
706542
1267
Bence ne ikisi de mümkün,
11:47
nor would it be desirable even if we could do it.
242
707833
2310
ne de bunu yapabilseydik bile bu çekici olurdu.
11:50
I think there might be very limited areas
243
710167
3017
Bence, daha yavaş teknolojik gelişmeler isteyebileceğin
11:53
where maybe you would want slower technological progress.
244
713208
2726
oldukça sınırlı alanlar olabilir.
11:55
You don't, I think, want faster progress in bioweapons,
245
715958
3393
Bana kalırsa biyolojik silahlarda ya da diyelim ki izotop ayırmada
11:59
or in, say, isotope separation,
246
719375
2059
atom bombası yaratmayı daha kolay hâle getirebilecek hızda
12:01
that would make it easier to create nukes.
247
721458
2250
bir gelişme istemezsin.
12:04
CA: I mean, I used to be fully on board with that.
248
724583
3310
CA: Eskiden buna tamamen katılırdım.
12:07
But I would like to actually push back on that for a minute.
249
727917
3267
Ama bir dakikalığına bu fikri uzaklaştırıyorum.
12:11
Just because, first of all,
250
731208
1310
Her şeyden önce,
12:12
if you look at the history of the last couple of decades,
251
732542
2684
eğer son birkaç on yıldaki tarihe bakacak olursak
12:15
you know, it's always been push forward at full speed,
252
735250
3559
bu her zaman son hızda ilerlemiştir,
12:18
it's OK, that's our only choice.
253
738833
1851
bu konuda bir sıkıntı yok, tek şansımız bu.
12:20
But if you look at globalization and the rapid acceleration of that,
254
740708
4268
Ama küreselleşmeye yükseliş hızına bakarsan
12:25
if you look at the strategy of "move fast and break things"
255
745000
3434
eğer "hızlı hareket et ve bir şeyleri kır" stratejisine
12:28
and what happened with that,
256
748458
2060
ve bununla ne olduğuna bakarsan
12:30
and then you look at the potential for synthetic biology,
257
750542
2767
ve sonra sentetik biyolojinin potansiyeline bakacak olursan
12:33
I don't know that we should move forward rapidly
258
753333
4435
her evde ve lise laboratuvarında bir DNA yazıcısı olabildiği bir dünyaya
12:37
or without any kind of restriction
259
757792
1642
hızlı bir şekilde veya hiçbir kısıtlama olmadan
12:39
to a world where you could have a DNA printer in every home
260
759458
3310
devam etmeli miyiz bilmiyorum.
12:42
and high school lab.
261
762792
1333
12:45
There are some restrictions, right?
262
765167
1684
Bazı kısıtlamalar var değil mi?
12:46
NB: Possibly, there is the first part, the not feasible.
263
766875
2643
NB: Muhtemelen, ilk bölüm, mümkün olmaz.
12:49
If you think it would be desirable to stop it,
264
769542
2184
Bunu durdurmanın mantıklı olduğunu düşünürsen
12:51
there's the problem of feasibility.
265
771750
1726
uygulanabilirlik sorunu var olur.
12:53
So it doesn't really help if one nation kind of --
266
773500
2809
Yani aslında bu hiç yardımcı olmazdı, şayet bir millet --
12:56
CA: No, it doesn't help if one nation does,
267
776333
2018
CA: Hayır bir millet yapsa yardımcı olmazdı
12:58
but we've had treaties before.
268
778375
2934
ama daha önce anlaşmalarımız vardı.
13:01
That's really how we survived the nuclear threat,
269
781333
3351
Bu aslında nükleer tehditlerden nasıl kurtulduğumuzun cevabı,
13:04
was by going out there
270
784708
1268
oraya giderek
13:06
and going through the painful process of negotiating.
271
786000
2518
ve pazarlığın zorlu sürecinden geçerek.
13:08
I just wonder whether the logic isn't that we, as a matter of global priority,
272
788542
5434
Sadece mantığının küresel bir öncelik olayı olup olmadığını merak ediyorum,
13:14
we shouldn't go out there and try,
273
794000
1684
oraya gidip şunu denememeliyiz,
13:15
like, now start negotiating really strict rules
274
795708
2685
sentetik biyolojik araştırmaya dair kuralların müzakeresini yapmak...
13:18
on where synthetic bioresearch is done,
275
798417
2684
13:21
that it's not something that you want to democratize, no?
276
801125
2851
bunu demokratikleştirmek istemezsin, değil mi?
13:24
NB: I totally agree with that --
277
804000
1809
NB: Buna kesinlikle katılıyorum --
13:25
that it would be desirable, for example,
278
805833
4226
bu oldukça ilgi çekici olurdu, mesela,
13:30
maybe to have DNA synthesis machines,
279
810083
3601
belki DNA sentez makinelerine sahip olmak,
13:33
not as a product where each lab has their own device,
280
813708
3560
her laboratuvarın kendine ait olan bir ürünü olarak değil
13:37
but maybe as a service.
281
817292
1476
ama belki bir hizmet olarak.
13:38
Maybe there could be four or five places in the world
282
818792
2517
Belki dünyada dijital planını yolladığın ve DNA'nın geri geldiği
13:41
where you send in your digital blueprint and the DNA comes back, right?
283
821333
3518
dört ya da beş yer vardır, değil mi?
13:44
And then, you would have the ability,
284
824875
1768
Ve sonra, yetiye sahip olabilirsin,
13:46
if one day it really looked like it was necessary,
285
826667
2392
eğer bir gün bu gerçekten gerekli gibi görünürse
13:49
we would have like, a finite set of choke points.
286
829083
2351
sınırlı bir miktar tıkanma noktasına sahip olabiliriz.
13:51
So I think you want to look for kind of special opportunities,
287
831458
3518
Sanırım sen daha sıkı bir kontrole sahip olabileceğin
13:55
where you could have tighter control.
288
835000
2059
özel fırsatlara bakmak istiyorsun.
13:57
CA: Your belief is, fundamentally,
289
837083
1643
CA: Temelde senin inancın,
13:58
we are not going to be successful in just holding back.
290
838750
2893
sadece geri çekilerek başarılı olamayacağındır.
14:01
Someone, somewhere -- North Korea, you know --
291
841667
2726
Birileri, bir yerler -- mesela Kuzey Kore --
14:04
someone is going to go there and discover this knowledge,
292
844417
3517
eğer bilgi keşfedilecek bir yerdetse biri oraya gidecek
14:07
if it's there to be found.
293
847958
1268
ve bu bilgiyi keşfedecektir.
14:09
NB: That looks plausible under current conditions.
294
849250
2351
NB: Şu anki koşullar altında mantıklı duruyor.
14:11
It's not just synthetic biology, either.
295
851625
1934
Bu sadece sentetik biyoloji de değil.
14:13
I mean, any kind of profound, new change in the world
296
853583
2518
Demek istediğim, dünyadaki her türlü derin ve yeni değişim
14:16
could turn out to be a black ball.
297
856101
1626
bir siyah topa dönüşebilir.
14:17
CA: Let's look at another possible response.
298
857727
2096
CA: Bir diğer olası tepkiye bakalım.
14:19
NB: This also, I think, has only limited potential.
299
859823
2403
NB: Bence bu da sadece sınırlı potansiyele sahip.
14:22
So, with the Type-1 vulnerability again,
300
862250
3559
Yani, yine Tür-1 zaafla,
14:25
I mean, if you could reduce the number of people who are incentivized
301
865833
4351
dünyayı yok etmek için teşvik edilen insan sayısını düşürebilirsen
14:30
to destroy the world,
302
870208
1268
14:31
if only they could get access and the means,
303
871500
2059
ve bu araçlara sadece onlar erişebilse işte bu güzel olurdu.
14:33
that would be good.
304
873583
1268
14:34
CA: In this image that you asked us to do
305
874875
1976
CA: Bizden yapmamızı istediğin bu görselde
14:36
you're imagining these drones flying around the world
306
876875
2559
yüz tanıma sistemiyle tüm dünyada dolaşan drone'ları hayal ediyorsun.
14:39
with facial recognition.
307
879458
1268
14:40
When they spot someone showing signs of sociopathic behavior,
308
880750
2893
Sosyopatik davranış sergileyen birini saptadıklarında
14:43
they shower them with love, they fix them.
309
883667
2184
onları sevgiyle yıkayıp düzeltiyorlar.
14:45
NB: I think it's like a hybrid picture.
310
885875
1893
NB: Bunun hibrid bir görsel olduğunu düşünüyorum.
14:47
Eliminate can either mean, like, incarcerate or kill,
311
887792
4017
Eleme ya hapsetmektir ya da öldürmek
14:51
or it can mean persuade them to a better view of the world.
312
891833
3018
ya da onları daha iyi bir dünya görüşüne ikna etmek demektir.
14:54
But the point is that,
313
894875
1726
Ama asıl nokta şu ki
14:56
suppose you were extremely successful in this,
314
896625
2143
bu konuda fazlasıyla başarılı olduğunu düşün
14:58
and you reduced the number of such individuals by half.
315
898792
3309
ve bu tür bireylerin sayısını yarıya düşürdüğünü.
Ve eğer bunu ikna yoluyla yapmak istiyorsan
15:02
And if you want to do it by persuasion,
316
902125
1893
15:04
you are competing against all other powerful forces
317
904042
2392
insanları ikna etme uğraşında diğer tüm güçlerle rekabet hâlindesin,
15:06
that are trying to persuade people,
318
906458
1685
15:08
parties, religion, education system.
319
908167
1767
partiler, din, eğitim sistemi.
15:09
But suppose you could reduce it by half,
320
909958
1905
Ama yarıya kadar düşürdüğünü varsay,
15:11
I don't think the risk would be reduced by half.
321
911887
2256
yine de riskin yarıya kadar düşeceğini düşünmüyorum.
15:14
Maybe by five or 10 percent.
322
914167
1559
Belki yüzde 10 ya da 5 düşebilir.
15:15
CA: You're not recommending that we gamble humanity's future on response two.
323
915750
4351
CA: İnsanlığın geleceğini tepki iki üzerine riske atmamızı önermiyorsun.
15:20
NB: I think it's all good to try to deter and persuade people,
324
920125
3018
NB: Bence insanları vazgeçirmeye ve ikna etmeye çalışmakta sıkıntı yok
15:23
but we shouldn't rely on that as our only safeguard.
325
923167
2976
ama tek korumamız olarak buna sırt yaslamamalıyız.
15:26
CA: How about three?
326
926167
1267
CA: Peki ya üç?
15:27
NB: I think there are two general methods
327
927458
2893
NB: Bence olası zayıflıkların tüm spektrumuna karşı
15:30
that we could use to achieve the ability to stabilize the world
328
930375
3976
dünyayı stabilize edebilmek için kullanabileceğimiz iki genel metot var.
15:34
against the whole spectrum of possible vulnerabilities.
329
934375
2976
15:37
And we probably would need both.
330
937375
1559
Ve muhtemelen ikisine de ihtiyaç duyardık.
15:38
So, one is an extremely effective ability
331
938958
4518
Biri, önleyici politikalar yapmanın oldukça etkili bir yetisi.
15:43
to do preventive policing.
332
943500
1768
15:45
Such that you could intercept.
333
945292
1524
Müdahele edebilmek için.
15:46
If anybody started to do this dangerous thing,
334
946840
2761
Eğer biri tehlikeli bir şey yapmaya başlamışsa,
15:49
you could intercept them in real time, and stop them.
335
949625
2684
gerçek zamanlı olarak onları engelleyip durdurabilirsin.
15:52
So this would require ubiquitous surveillance,
336
952333
2476
Bu eş zamanlı gözetim gerektirirdi,
15:54
everybody would be monitored all the time.
337
954833
2375
herkes, sürekli olarak izleniyor olurdu.
15:58
CA: This is "Minority Report," essentially, a form of.
338
958333
2560
CA: Bu özünde bir tür "Azınlık Raporu."
16:00
NB: You would have maybe AI algorithms,
339
960917
1934
NB: Yapay zekâ algoritmaların olabilir,
16:02
big freedom centers that were reviewing this, etc., etc.
340
962875
4417
bunu inceleyen büyük özgürlük merkezleri gibi.
16:08
CA: You know that mass surveillance is not a very popular term right now?
341
968583
4393
CA: Şu an bu kitle gözetimi pek sevilen bir terim değil biliyor musun?
16:13
(Laughter)
342
973000
1250
(Kahkahalar)
16:15
NB: Yeah, so this little device there,
343
975458
1810
NB: Evet, şuradaki küçük cihaz,
16:17
imagine that kind of necklace that you would have to wear at all times
344
977292
3601
farklı yönlü bir sürü kameralı, sürekli takmak zorunda olduğun
16:20
with multidirectional cameras.
345
980917
2000
o tarz bir kolyeyi hayal et.
16:23
But, to make it go down better,
346
983792
1809
Ama daha trajikomik hâle getirmek için
16:25
just call it the "freedom tag" or something like that.
347
985625
2524
ona "özgürlük etiketi" ya da o tarz bir şey diyelim.
16:28
(Laughter)
348
988173
2011
(Kahkahalar)
16:30
CA: OK.
349
990208
1268
CA: Tamam.
16:31
I mean, this is the conversation, friends,
350
991500
2101
Yani, bu bir sohbet, arkadaşlar,
16:33
this is why this is such a mind-blowing conversation.
351
993625
3559
bu denli akıllara durgunluk veren bir sohbet olmasının sebebi işte bu.
16:37
NB: Actually, there's a whole big conversation on this
352
997208
2601
NB: Aslında, sadece bunun üzerine kurulabilecek büyük bir sohbet olur.
16:39
on its own, obviously.
353
999833
1310
16:41
There are huge problems and risks with that, right?
354
1001167
2476
Bununla ilgili büyük problemler ve riskler var, değil mi?
16:43
We may come back to that.
355
1003667
1267
Buna geri döneriz.
16:44
So the other, the final,
356
1004958
1268
Ve diğeri, sonuncusu,
16:46
the other general stabilization capability
357
1006250
2559
diğer genel dengeleme yetimiz
16:48
is kind of plugging another governance gap.
358
1008833
2060
bir tür başka yönetişim boşluğu kapatmak.
16:50
So the surveillance would be kind of governance gap at the microlevel,
359
1010917
4184
Gözetim mikro düzeyde yönetişim boşluğu olurdu,
16:55
like, preventing anybody from ever doing something highly illegal.
360
1015125
3101
birilerini yasa dışı şeyler yapmaktan alıkoymak gibi.
16:58
Then, there's a corresponding governance gap
361
1018250
2309
Böylece, makro düzeyde küresel boyutta
17:00
at the macro level, at the global level.
362
1020583
1935
uyumlu bir yönetim boşluğu olur.
17:02
You would need the ability, reliably,
363
1022542
3934
En kötü türde küresel koordinasyon hatalarını engellemek için
bu yeteneğe ihtiyaç duyardık,
17:06
to prevent the worst kinds of global coordination failures,
364
1026500
2809
17:09
to avoid wars between great powers,
365
1029333
3768
büyük güçler arası savaşları,
17:13
arms races,
366
1033125
1333
silah yarışlarını,
17:15
cataclysmic commons problems,
367
1035500
2208
kataklizmik doğal kaynak sorunları için.
17:19
in order to deal with the Type-2a vulnerabilities.
368
1039667
4184
tüm bu Tip 2a zayıflıklarıyla başa çıkabilmek için.
17:23
CA: Global governance is a term
369
1043875
1934
CA: Küresel yönetişim, şu anda
17:25
that's definitely way out of fashion right now,
370
1045833
2226
kesinlikle demode olan bir terim,
17:28
but could you make the case that throughout history,
371
1048083
2518
ama konuyu tarih boyunca, insan tarihi boyunca işleyemez misin?
17:30
the history of humanity
372
1050625
1268
17:31
is that at every stage of technological power increase,
373
1051917
5434
Teknolojik güç artışının her aşamasında
17:37
people have reorganized and sort of centralized the power.
374
1057375
3226
insanlar gücü yeniden düzenledi ve bir bakıma merkezleştirdiler.
17:40
So, for example, when a roving band of criminals
375
1060625
3434
Yani mesela bir grup başıboş suçlu,
17:44
could take over a society,
376
1064083
1685
toplumu ele geçirdiğinde
17:45
the response was, well, you have a nation-state
377
1065792
2239
yanıt; peki, bir ulus devletin var
17:48
and you centralize force, a police force or an army,
378
1068055
2434
ve gücü merkezleştirdin, polisi ya da bir ordu,
17:50
so, "No, you can't do that."
379
1070513
1630
yani "Hayır, bunu yapamazsın" olurdu.
17:52
The logic, perhaps, of having a single person or a single group
380
1072167
4559
İnsanlığı ele geçirebilecek bir insan ya da belki bir grup mantığı da
17:56
able to take out humanity
381
1076750
1643
17:58
means at some point we're going to have to go this route,
382
1078417
2726
bir noktada bu yönden gitmemiz gerekecek anlamına gelmez mi?
18:01
at least in some form, no?
383
1081167
1434
18:02
NB: It's certainly true that the scale of political organization has increased
384
1082625
3684
NB: İnsanlık tarihinin yolu boyunca politik organizasyon ölçeğinin
18:06
over the course of human history.
385
1086333
2143
yükseldiği kesinlikle doğru.
18:08
It used to be hunter-gatherer band, right,
386
1088500
2018
Eskiden avcı-toplayıcı grup vardı
18:10
and then chiefdom, city-states, nations,
387
1090542
2934
ve sonra şerifler, şehir devletleri, uluslar,
18:13
now there are international organizations and so on and so forth.
388
1093500
3976
şimdi uluslararası organizasyonlar var ve buna benzer şeyler.
18:17
Again, I just want to make sure
389
1097500
1518
Ben yine şunu vurgulamak istiyorum;
18:19
I get the chance to stress
390
1099042
1642
18:20
that obviously there are huge downsides
391
1100708
1976
hem kitlesel gözetim hem de küresel yönetişime dair
18:22
and indeed, massive risks,
392
1102708
1518
18:24
both to mass surveillance and to global governance.
393
1104250
3351
dev dezavantajar ve de çok büyük riskler var.
18:27
I'm just pointing out that if we are lucky,
394
1107625
2559
Şunu vurgulamak istiyorum ki eğer şanslıysak
dünya öyle bir durumda olabilir ki
18:30
the world could be such that these would be the only ways
395
1110208
2685
bir siyah toptan kurtulmanın tek yolu bunlar olur.
18:32
you could survive a black ball.
396
1112917
1517
18:34
CA: The logic of this theory,
397
1114458
2518
CA: Anladığım kadarıyla bu teorinin mantığı
18:37
it seems to me,
398
1117000
1268
18:38
is that we've got to recognize we can't have it all.
399
1118292
3601
hepsine sahip olamayacağımızı anlamamız gerektiği.
18:41
That the sort of,
400
1121917
1833
Bu bir bakıma,
18:45
I would say, naive dream that many of us had
401
1125500
2976
teknolojinin her zaman iyiye kullanılacağına dair
18:48
that technology is always going to be a force for good,
402
1128500
3351
hepimizin kurduğu saf bir hayal diyebilirim,
18:51
keep going, don't stop, go as fast as you can
403
1131875
2976
devam et, durma, gidebildiğin kadar hızlı git
18:54
and not pay attention to some of the consequences,
404
1134875
2351
ve bazı sonuçlara çok takılma
18:57
that's actually just not an option.
405
1137250
1684
ki bu aslında bir seçenek sayılmaz.
18:58
We can have that.
406
1138958
1935
Buna sahip olabiliriz.
19:00
If we have that,
407
1140917
1267
Buna sahip olursak
19:02
we're going to have to accept
408
1142208
1435
bununla beraber
19:03
some of these other very uncomfortable things with it,
409
1143667
2559
diğer rahatsız edici şeyleri de kabullenmek zorunda kalırız
19:06
and kind of be in this arms race with ourselves
410
1146250
2226
ve bir bakıma kendimizle bir silahlanma yarışı içinde oluruz,
19:08
of, you want the power, you better limit it,
411
1148500
2268
güç istiyorsan onu sınırlaman lazım,
19:10
you better figure out how to limit it.
412
1150792
2142
nasıl sınırlandıracağını çözsen iyi edersin.
19:12
NB: I think it is an option,
413
1152958
3476
NB: Bence bu bir seçenek,
19:16
a very tempting option, it's in a sense the easiest option
414
1156458
2768
oldukça cazip bir seçenek, bi bakıma en kolay seçenek
19:19
and it might work,
415
1159250
1268
ve işe yarayabilir
19:20
but it means we are fundamentally vulnerable to extracting a black ball.
416
1160542
4809
ama bu, özünde bir siyah top çekmeye eğimli olmamız anlamına gelir.
19:25
Now, I think with a bit of coordination,
417
1165375
2143
Bence biraz koordinasyonla
19:27
like, if you did solve this macrogovernance problem,
418
1167542
2726
mesela, bu makro ve mikro yönetişim sorununu çözersen
19:30
and the microgovernance problem,
419
1170292
1601
19:31
then we could extract all the balls from the urn
420
1171917
2309
vazodaki bütün topları çıkarırdık
19:34
and we'd benefit greatly.
421
1174250
2268
ve bundan oldukça yararlanırdık.
19:36
CA: I mean, if we're living in a simulation, does it matter?
422
1176542
3434
CA: Bir simülasyonda yaşıyorsak bile bu fark eder mi?
19:40
We just reboot.
423
1180000
1309
Sadece yeniden başlatırız.
19:41
(Laughter)
424
1181333
1268
(Kahkahalar)
19:42
NB: Then ... I ...
425
1182625
1643
NB: O zaman... ben...
19:44
(Laughter)
426
1184292
2476
(Kahkahalar)
19:46
I didn't see that one coming.
427
1186792
1416
Bunu kestiremedim.
19:50
CA: So what's your view?
428
1190125
1268
CA: Peki senin görüşün ne?
19:51
Putting all the pieces together, how likely is it that we're doomed?
429
1191417
4809
Bütün parçaları birleştirdiğinde işimizin bitik olduğu ne kadar olası?
19:56
(Laughter)
430
1196250
1958
(Kahkahalar)
Bu soruyu sorduğumda insanların gülmesine bayılıyorum.
19:59
I love how people laugh when you ask that question.
431
1199042
2392
20:01
NB: On an individual level,
432
1201458
1351
NB: Bir birey düzeyinde,
20:02
we seem to kind of be doomed anyway, just with the time line,
433
1202833
3851
zaten bir tür mahkumuz, sadece zaman çizgisiyle,
20:06
we're rotting and aging and all kinds of things, right?
434
1206708
2601
çürüyor, yaşlanıyor ve bu tür diğer şeyleri yaşıyoruz değil mi?
20:09
(Laughter)
435
1209333
1601
(Kahkahalar)
20:10
It's actually a little bit tricky.
436
1210958
1685
Bu aslında biraz yanıltıcı.
20:12
If you want to set up so that you can attach a probability,
437
1212667
2767
Bir ihtimal yakalamak için tuzak kurmak istiyorsan
20:15
first, who are we?
438
1215458
1268
ilk olarak, biz kimiz?
20:16
If you're very old, probably you'll die of natural causes,
439
1216750
2726
Eğer çok yaşlıysan, muhtemelen doğal sebeplerle öleceksin,
20:19
if you're very young, you might have a 100-year --
440
1219500
2351
eğer çok gençsen önünde 100 yılın olabilir --
20:21
the probability might depend on who you ask.
441
1221875
2143
ihtimali kime sorduğuna göre değişebilir.
20:24
Then the threshold, like, what counts as civilizational devastation?
442
1224042
4226
Sonrasında eşik, mesela, ne medeniyet yıkımı olarak sayılır?
20:28
In the paper I don't require an existential catastrophe
443
1228292
5642
Yazıda, bunun sayılması için bir varoluş yıkımına ihtiyacım olmadı.
20:33
in order for it to count.
444
1233958
1435
20:35
This is just a definitional matter,
445
1235417
1684
Bu sadece tanımsal bir mesele,
20:37
I say a billion dead,
446
1237125
1309
ben bir milyar ölü derim
20:38
or a reduction of world GDP by 50 percent,
447
1238458
2060
ya da dünya GSYİH'sinde yüzde 50 bir azalma
20:40
but depending on what you say the threshold is,
448
1240542
2226
ama senin eşiğe ne anlam yüklediğine bağlı,
20:42
you get a different probability estimate.
449
1242792
1976
sen farklı bir olası tahmin yürütürsün.
20:44
But I guess you could put me down as a frightened optimist.
450
1244792
4517
Ama sanırım beni korkmuş bir iyimser olarak yazardın.
20:49
(Laughter)
451
1249333
1101
(Kahkahalar)
20:50
CA: You're a frightened optimist,
452
1250458
1643
CA: Sen korkmuş bir iyimsersin
20:52
and I think you've just created a large number of other frightened ...
453
1252125
4268
ve bence büyük sayıda başka korkmuş insan yarattın.
20:56
people.
454
1256417
1267
20:57
(Laughter)
455
1257708
1060
(Kahkahalar)
20:58
NB: In the simulation.
456
1258792
1267
NB: Simülasyonda.
21:00
CA: In a simulation.
457
1260083
1268
CA: Simülasyonda.
21:01
Nick Bostrom, your mind amazes me,
458
1261375
1684
Nick Bostrom, zihnine hayranım.
21:03
thank you so much for scaring the living daylights out of us.
459
1263083
2893
bize korku saldığın için çok teşekkürler.
21:06
(Applause)
460
1266000
2375
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7