The 4 greatest threats to the survival of humanity

503,273 views ・ 2022-07-19

TED-Ed


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Julia Stipsits Lektorat: Andrea Hielscher
00:10
In January of 1995, Russia detected a nuclear missile headed its way.
0
10840
5964
Im Januar 1995 entdeckte Russland eine Atomrakete, die auf es zusteuerte.
00:16
The alert went all the way to the president,
1
16804
2836
Der Alarm ging bis zum PrÀsidenten,
00:19
who was deciding whether to strike back
2
19640
2962
der ĂŒberlegte, ob er zurĂŒckschlagen solle,
00:22
when another system contradicted the initial warning.
3
22602
3378
als ein weiteres System die erste Warnung widerlegte.
00:26
What they thought was the first missile in a massive attack
4
26355
3796
Was man fĂŒr die erste Rakete eines Großangriffs gehalten hatte,
00:30
was actually a research rocket studying the Northern Lights.
5
30151
4338
entpuppte sich als Forschungsrakete, die das Polarlicht untersuchte.
00:35
This incident happened after the end of the Cold War,
6
35156
3420
Der Zwischenfall geschah nach dem Ende des Kalten Krieges,
00:38
but was nevertheless one of the closest calls we’ve had
7
38576
3504
war aber dennoch eine hochbrisante Situation,
00:42
to igniting a global nuclear war.
8
42080
2961
die fast einen Atomkrieg ausgelöst hÀtte.
00:45
With the invention of the atomic bomb,
9
45833
2169
Mit der Erfindung der Atombombe
00:48
humanity gained the power to destroy itself for the first time in our history.
10
48002
5339
bekam die Menschheit erstmals in der Geschichte die Macht,
sich selbst zu zerstören.
00:53
Since then, our existential risk—
11
53341
3086
Seither ist unser existenzielles Risiko -–
00:56
risk of either extinction
12
56427
1835
entweder das der Auslöschung
00:58
or the unrecoverable collapse of human civilization—
13
58262
3379
oder des endgĂŒltigen Zusammenbruchs der Zivilisation –-
01:01
has steadily increased.
14
61641
1918
stetig gewachsen.
01:04
It’s well within our power to reduce this risk,
15
64060
2961
Wir könnten dieses Risiko sehr wohl minimieren,
01:07
but in order to do so,
16
67021
1585
aber in diesem Fall mĂŒssen wir verstehen,
01:08
we have to understand which of our activities
17
68606
2753
welche unserer AktivitÀten
01:11
pose existential threats now, and which might in the future.
18
71359
4504
aktuell und in Zukunft existentielle Gefahren darstellen.
01:16
So far, our species has survived 2,000 centuries,
19
76489
4379
Unsere Spezies hat bisher 200.000 Jahre ĂŒberlebt
01:20
each with some extinction risk from natural causes—
20
80868
3754
und es gab immer wieder natĂŒrliche GrĂŒnde fĂŒr ihre Auslöschung:
01:24
asteroid impacts, supervolcanoes, and the like.
21
84622
3128
AsteroideneinschlÀge, Supervulkane und dergleichen.
01:28
Assessing existential risk is an inherently uncertain business
22
88000
4338
Existenzielle Risiken einzuschÀtzen ist von Natur aus schwierig,
01:32
because usually when we try to figure out how likely something is,
23
92338
3921
denn wenn wir herausfinden wollen, wie wahrscheinlich etwas ist,
prĂŒfen wir gewöhnlich, wie oft es schon passiert ist.
01:36
we check how often it's happened before.
24
96259
2460
01:38
But the complete destruction of humanity has never happened before.
25
98719
4255
Aber die völlige Auslöschung der Menschheit hat es noch nie gegeben.
01:43
While there’s no perfect method to determine our risk from natural threats,
26
103474
4004
Es gibt keine perfekte Methode, Naturkatastrophen vorherzusagen,
01:47
experts estimate it’s about 1 in 10,000 per century.
27
107478
4922
doch schÀtzen Experten das Risiko auf etwa 1 zu 10.000 pro Jahrhundert.
01:52
Nuclear weapons were our first addition to that baseline.
28
112692
3503
Atomwaffen waren die erste Erweiterung dieses Bestands.
01:56
While there are many risks associated with nuclear weapons,
29
116612
3170
Mit Atomwaffen sind viele Risiken verbunden,
01:59
the existential risk comes from the possibility
30
119782
3087
doch das existenzielle Risiko
02:02
of a global nuclear war that leads to a nuclear winter,
31
122869
4379
wÀre ein weltweiter Atomkrieg mit einem nuklearen Winter,
02:07
where soot from burning cities blocks out the sun for years,
32
127248
4171
in dem der Ruß brennender StĂ€dte die Sonne jahrelang verdunkelt
02:11
causing the crops that humanity depends on to fail.
33
131419
3253
und ĂŒberlebenswichtige Ernten vernichtet wĂŒrden.
02:15
We haven't had a nuclear war yet,
34
135339
2253
Bisher gab es noch keinen Atomkrieg,
02:17
but our track record is too short to tell if they’re inherently unlikely
35
137592
4421
doch unsere Erfahrungsbilanz ist zu kurz, um das ausschließen zu können,
02:22
or we’ve simply been lucky.
36
142013
1710
oder wir hatten einfach GlĂŒck.
02:24
We also can’t say for sure
37
144307
1459
Auch ist nicht sicher,
02:25
whether a global nuclear war would cause a nuclear winter so severe
38
145766
4713
ob ein Atomkrieg einen so strengen nuklearen Winter auslösen wĂŒrde,
02:30
it would pose an existential threat to humanity.
39
150479
2712
der die Menschheit vernichten könnte.
02:33
The next major addition to our existential risk was climate change.
40
153858
5047
Eine zusÀtzliche Erweiterung zu unserem existenziellen Risiko ist der Klimawandel.
02:39
Like nuclear war, climate change could result
41
159322
2794
Genau wie ein Atomkrieg könnte der Klimawandel
02:42
in a lot of terrible scenarios that we should be working hard to avoid,
42
162116
4880
viele schreckliche Situationen auslösen, die wir dringend vermeiden sollten,
02:46
but that would stop short of causing extinction or unrecoverable collapse.
43
166996
4713
auch wenn sie nicht zwangslÀufig
zu Auslöschung oder Zusammenbruch fĂŒhren wĂŒrden.
02:52
We expect a few degrees Celsius of warming,
44
172043
2794
Wir erwarten eine ErwÀrmung um einige Grad Celsius,
02:54
but can’t yet completely rule out 6 or even 10 degrees,
45
174837
4171
doch können wir auch 6 oder sogar 10 Grad nicht völlig ausschließen.
02:59
which would cause a calamity of possibly unprecedented proportions.
46
179008
4338
Das wĂŒrde eine Katastrophe bisher ungeahnten Ausmaßes bedeuten.
03:03
Even in this worst-case scenario,
47
183596
2127
Sogar in diesem Extremfall ist unklar,
03:05
it’s not clear whether warming would pose a direct existential risk,
48
185723
4046
ob die ErwÀrmung unsere Existenz unmittelbar bedroht,
03:09
but the disruption it would cause would likely make us more vulnerable
49
189769
3378
aber die entstandenen SchĂ€den wĂŒrden uns vermutlich
fĂŒr andere existenzielle Risiken anfĂ€llig machen.
03:13
to other existential risks.
50
193147
2002
03:15
The greatest risks may come from technologies that are still emerging.
51
195566
4546
Höchste Risiken könnten von gerade entstehendenTechnologien ausgehen.
03:20
Take engineered pandemics.
52
200112
2294
Nehmen wir kĂŒnstlich erzeugte Pandemien.
03:22
The biggest catastrophes in human history have been from pandemics.
53
202406
4547
Die grĂ¶ĂŸten Katastrophen der Menschheitsgeschichte
entstanden durch Pandemien.
03:27
And biotechnology is enabling us to modify and create germs
54
207203
3670
Mit Biotechnologie können wir Erreger schaffen und modifizieren,
03:30
that could be much more deadly than naturally occurring ones.
55
210873
3462
die vielleicht tödlicher sind als natĂŒrliche.
03:34
Such germs could cause pandemics through biowarfare and research accidents.
56
214752
4588
Durch Biowaffen oder LaborunfÀlle könnten diese Erreger Pandemien verursachen.
03:39
Decreased costs of genome sequencing and modification,
57
219340
3211
Geringere Kosten fĂŒr ErbgutentschlĂŒsselung und -verĂ€nderung
03:42
along with increased availability of potentially dangerous information
58
222551
3921
sowie leichterer Zugang zu potentiell gefÀhrlichen Informationen
03:46
like the published genomes of deadly viruses,
59
226472
2544
wie öffentlich zugÀnglichen Daten von tödlichen Viren
03:49
also increase the number of people and groups
60
229016
2711
vergrĂ¶ĂŸern auch die Zahl der Menschen,
03:51
who could potentially create such pathogens.
61
231727
2920
die potenziell solche Pathogene herstellen könnten.
03:55
Another concern is unaligned AI.
62
235564
2878
Ein anderes Problem ist falsche Ausrichtung der KI.
03:58
Most AI researchers think this will be the century
63
238442
2586
Die meisten KI-Forscher glauben,
in nĂ€chster Zeit werde kĂŒnstliche Intelligenz entwickelt,
04:01
where we develop artificial intelligence that surpasses human abilities
64
241028
4338
die die menschliche in allen Bereichen ĂŒbertrifft.
04:05
across the board.
65
245366
1293
04:06
If we cede this advantage, we place our future in the hands
66
246659
4129
Wenn wir unseren Vorteil aufgeben, legen wir unsere Zukunft
in die HĂ€nde der Systeme, die wir schaffen.
04:10
of the systems we create.
67
250788
2002
04:12
Even if created solely with humanity’s best interests in mind,
68
252790
3712
Selbst wenn sie mit den besten Absichten fĂŒr uns Menschen entsteht,
04:16
superintelligent AI could pose an existential risk
69
256502
3504
könnte superintelligente KI ein Existenzrisiko darstellen,
falls sie nicht perfekt auf menschliche Werte ausgerichtet ist --
04:20
if it isn’t perfectly aligned with human values—
70
260006
3420
04:23
a task scientists are finding extremely difficult.
71
263426
3503
eine Aufgabe, die Wissenschaftler extrem schwierig finden.
04:27
Based on what we know at this point,
72
267346
2044
Nach unserem derzeitigen Wissen
04:29
some experts estimate the anthropogenic existential risk
73
269390
3837
schÀtzen manche Experten
das vom Menschen verursachte existenzielle Risiko
04:33
is more than 100 times higher than the background rate of natural risk.
74
273227
4797
100-mal höher ein als das natĂŒrliche Risiko.
04:38
But these odds depend heavily on human choices.
75
278482
4004
Doch diese Chancen hÀngen stark von menschlichen Entscheidungen ab.
04:42
Because most of the risk is from human action, and it’s within human control.
76
282486
5422
Denn die meisten Risiken entstehen durch menschliches Handeln,
und darauf haben wir Einfluss.
04:47
If we treat safeguarding humanity's future as the defining issue of our time,
77
287908
4755
Wenn wir die Sicherung der Zukunft als Kernthema unserer Zeit betrachten,
04:52
we can reduce this risk.
78
292663
2127
können wir diese Risiken reduzieren.
04:55
Whether humanity fulfils its potential—
79
295082
2836
Ob die Menschheit ihr Potential ausschöpft
04:57
or not—
80
297918
1168
oder nicht,
05:00
is in our hands.
81
300129
1793
liegt in unserer Hand.
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nĂŒtzlich sind. Sie sehen Englischlektionen, die von hochkarĂ€tigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder WĂŒnsche haben, kontaktieren Sie uns bitte ĂŒber dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7