The 4 greatest threats to the survival of humanity

503,273 views ・ 2022-07-19

TED-Ed


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Ali Eren Kayhan Gözden geçirme: Ozay Ozaydin
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
Ocak 1995′te Rusya, kendisine doğru gelen bir nükleer füze tespit etti.
00:16
The alert went all the way to the president,
1
16804
2836
Uyarı, başka bir sistem ilk uyarıyla çeliştiğinde
00:19
who was deciding whether to strike back
2
19640
2962
karşılık verip vermemeye karar verecek olan
00:22
when another system contradicted the initial warning.
3
22602
3378
başkana kadar gitti.
00:26
What they thought was the first missile in a massive attack
4
26355
3796
Büyük bir saldırıdaki ilk füze olduğunu düşündükleri şey
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
aslında Kuzey Işıklarını inceleyen bir araştırma roketiydi.
00:35
This incident happened after the end of the Cold War,
6
35156
3420
Bu olay Soğuk Savaş’ın sona ermesinden sonra gerçekleşti,
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
ancak yine de küresel bir nükleer savaşı körükleyecek
00:42
to igniting a global nuclear war.
8
42080
2961
en yakın anlardan biriydi.
00:45
With the invention of the atomic bomb,
9
45833
2169
Atom bombasının icadı ile
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
insanlık tarihimizde ilk kez kendini yok etme gücüne kavuştu.
00:53
Since then, our existential risk—
11
53341
3086
O zamandan beri varoluşsal riskimiz -
00:56
risk of either extinction
12
56427
1835
yok olma ya da
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
insan uygarlığının kurtarılamaz çöküşü-
01:01
has steadily increased.
14
61641
1918
istikrarlı bir şekilde arttı.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
Bu riski azaltmak bizim elimizde,
01:07
but in order to do so,
16
67021
1585
ancak bunu yapabilmek için
01:08
we have to understand which of our activities
17
68606
2753
hangi faaliyetlerimizin şu anda varoluşsal tehdit
01:11
pose existential threats now, and which might in the future.
18
71359
4504
oluşturduğunu ve hangilerinin gelecekte olabileceğini anlamamız gerekiyor.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
Şimdiye kadar, türümüz 2.000 asır boyunca
göktaşı çarpması, süpervolkanlar ve benzeri doğal olaylardan kaynaklacak
01:20
each with some extinction risk from natural causes—
20
80868
3754
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
yok olma riskleriyle karşı karşıya kalmasına rağmen hayatta kaldı.
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
Varoluşsal riski değerlendirmek doğası gereği belirsiz bir iştir,
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
çünkü genellikle bir şeyin ne kadar olası olduğunu anlamaya çalıştığımızda,
01:36
we check how often it's happened before.
24
96259
2460
daha önce ne sıklıkta olduğunu kontrol ederiz.
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
Ancak insanlığın tamamen yok olması daha önce hiç olmadı.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
Doğal tehditlerden kaynaklanan riskimizi belirlemek için ideal bir yöntem olmasa da
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
uzmanlar, bunun her yüzyıl için 10.000′de 1 olduğunu tahmin ediyor.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
Nükleer silahlar bu referansa yaptığımız ilk eklemeydi.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
Nükleer silahlarla ilgili birçok risk olsa da,
01:59
the existential risk comes from the possibility
30
119782
3087
varoluşsal risk, nükleer bir kışa yol açan,
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
yanan şehirlerden kaynaklanan kurumun yıllarca güneşi engellediği ve
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
insanlığın bağlı olduğu mahsullerin yok olmasına
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
neden olan küresel bir nükleer savaş olasılığından kaynaklanmaktadır.
02:15
We haven't had a nuclear war yet,
34
135339
2253
Henüz bir nükleer savaş yaşamadık,
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
ancak geçmiş performansımız, doğal olarak olası olup olmadığını veya sadece şanslı
02:22
or we’ve simply been lucky.
36
142013
1710
olup olmadığımızı söylemek için çok kısa.
02:24
We also can’t say for sure
37
144307
1459
Ayrıca, küresel bir nükleer savaşın,
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
insanlık için varoluşsal bir tehdit oluşturacak kadar şiddetli bir nükleer
02:30
it would pose an existential threat to humanity.
39
150479
2712
kışa neden olup olmayacağını da kesin olarak söyleyemeyiz.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
Varoluşsal riskimize bir sonraki büyük katkı iklim değişikliğiydi.
02:39
Like nuclear war, climate change could result
41
159322
2794
Nükleer savaş gibi, iklim değişikliği de kaçınmak
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
için çok çalışmamız gereken çok sayıda korkunç senaryoya neden olabilir,
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
ancak bu, yok olmaya veya geri dönülemez bir çöküşe neden olmaz.
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
Birkaç santigrat derecelik bir ısınma bekliyoruz,
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
ancak henüz benzeri görülmemiş oranlarda bir felakete
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
neden olacak 6 hatta 10 dereceyi tamamen göz ardı edemeyiz.
03:03
Even in this worst-case scenario,
47
183596
2127
Bu en kötü senaryoda bile,
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
ısınmanın doğrudan bir varoluşsal risk oluşturup oluşturmayacağı net değil,
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
ancak neden olacağı aksama muhtemelen bizi diğer varoluşsal risklere
03:13
to other existential risks.
50
193147
2002
karşı daha savunmasız hale getirecek.
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
En büyük riskler, hala ortaya çıkmakta olan teknolojilerden gelebilir.
03:20
Take engineered pandemics.
52
200112
2294
Tasarlanmış salgınları ele alın.
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
İnsanlık tarihinin en büyük felaketleri pandemilerden olmuştur.
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
Biyoteknoloji, doğal olarak oluşanlardan çok daha ölümcül olabilecek
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
mikropları değiştirmemizi ve yaratmamızı sağlıyor.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
Bu tür mikroplar biyolojik savaş ve araştırma
kazaları yoluyla salgınlara neden olabilir.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
Ölümcül virüslerin yayınlanan genomları gibi
03:42
along with increased availability of potentially dangerous information
58
222551
3921
potansiyel olarak tehlikeli bilgilerin artan mevcudiyeti ile birlikte genom
03:46
like the published genomes of deadly viruses,
59
226472
2544
dizileme ve modifikasyonunun azalan maliyetleri,
03:49
also increase the number of people and groups
60
229016
2711
potansiyel olarak bu tür patojenleri
03:51
who could potentially create such pathogens.
61
231727
2920
yaratabilecek kişi ve grupların sayısını da artırmaktadır.
03:55
Another concern is unaligned AI.
62
235564
2878
Başka bir endişe, hizalanmamış yapay zekadır.
03:58
Most AI researchers think this will be the century
63
238442
2586
Çoğu yapay zeka araştırmacısı,
bu yüzyılın insan yeteneklerini aşan yapay zekayı geliştirdiğimiz
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
04:05
across the board.
65
245366
1293
yüzyıl olacağını düşünüyor.
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
Bu avantajımızdan vazgeçersek, geleceğimizi yarattığımız sistemlerin
04:10
of the systems we create.
67
250788
2002
ellerine bırakmış oluruz.
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
Yalnızca insanlığın çıkarları göz önünde bulundurularak yaratılmış olsa bile,
04:16
superintelligent AI could pose an existential risk
69
256502
3504
süper akıllı yapay zeka, insani değerlerle mükemmel bir şekilde uyumlu
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
değilse varoluşsal bir risk oluşturabilir -
04:23
a task scientists are finding extremely difficult.
71
263426
3503
bu, bilim adamlarının son derece zor bulduğu bir görevdir.
04:27
Based on what we know at this point,
72
267346
2044
Bu noktada bildiklerimize dayanarak,
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
bazı uzmanlar antropojenik varoluşsal riskin,
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
doğal riskin arka plan oranından 100 kat daha fazla olduğunu tahmin ediyor.
04:38
But these odds depend heavily on human choices.
75
278482
4004
Ancak bu oranlar büyük ölçüde insan seçimlerine bağlıdır.
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
Çünkü riskin çoğu insan eyleminden kaynaklanmaktadır ve insan kontrolündedir.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
İnsanlığın geleceğini korumayı zamanımızın belirleyici sorunu
04:52
we can reduce this risk.
78
292663
2127
olarak görürsek, bu riski azaltabiliriz.
04:55
Whether humanity fulfils its potential—
79
295082
2836
İnsanlığın potansiyelini gerçekleştirip
04:57
or not—
80
297918
1168
gerçekleştirmemesi
05:00
is in our hands.
81
300129
1793
bizim elimizde.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7