How to get empowered, not overpowered, by AI | Max Tegmark

129,785 views ・ 2018-07-05

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Andreas Herzog Lektorat: Johannes Duschner
00:12
After 13.8 billion years of cosmic history,
0
12760
4416
Nach 13,8 Milliarden Jahren kosmischer Geschichte
00:17
our universe has woken up
1
17200
2096
ist unser Universum aufgewacht
00:19
and become aware of itself.
2
19320
1520
und sich seiner selbst bewusst geworden.
00:21
From a small blue planet,
3
21480
1936
Von einem kleinen blauen Planeten aus
00:23
tiny, conscious parts of our universe have begun gazing out into the cosmos
4
23440
4136
haben winzige, bewusste Teile unseres Universums begonnen,
mit Teleskopen in den Kosmos zu schauen
00:27
with telescopes,
5
27600
1376
und etwas Demütigendes entdeckt.
00:29
discovering something humbling.
6
29000
1480
00:31
We've discovered that our universe is vastly grander
7
31320
2896
Nämlich, dass das Universum sehr viel größer ist, als unsere Vorfahren glaubten,
00:34
than our ancestors imagined
8
34240
1336
00:35
and that life seems to be an almost imperceptibly small perturbation
9
35600
4256
und das Leben eine fast unmerklich kleine Störung
00:39
on an otherwise dead universe.
10
39880
1720
eines sonst toten Universums zu sein scheint.
00:42
But we've also discovered something inspiring,
11
42320
3016
Aber wir haben auch etwas Inspirierendes entdeckt,
00:45
which is that the technology we're developing has the potential
12
45360
2976
nämlich, dass unsere Technologie das Potenzial hat,
00:48
to help life flourish like never before,
13
48360
2856
das Leben wie nie zuvor florieren zu lassen.
00:51
not just for centuries but for billions of years,
14
51240
3096
Nicht nur für Jahrhunderte, sondern für Milliarden von Jahren.
00:54
and not just on earth but throughout much of this amazing cosmos.
15
54360
4120
Nicht nur auf der Erde, sondern in einem Großteil des Kosmos.
00:59
I think of the earliest life as "Life 1.0"
16
59680
3336
Ich denke an erstes Leben als "Life 1.0",
01:03
because it was really dumb,
17
63040
1376
weil es wirklich dumm war,
01:04
like bacteria, unable to learn anything during its lifetime.
18
64440
4296
wie etwa Bakterien, unfähig, irgendetwas in seinem Leben zu lernen.
01:08
I think of us humans as "Life 2.0" because we can learn,
19
68760
3376
Ich denke an uns Menschen als "Life 2.0", weil wir lernen können.
01:12
which we in nerdy, geek speak,
20
72160
1496
Etwas langweilig gesagt,
01:13
might think of as installing new software into our brains,
21
73680
3216
entspricht das der Installation neuer Software in unser Gehirn
01:16
like languages and job skills.
22
76920
2120
wie etwa Sprachen oder berufliche Fertigkeiten.
01:19
"Life 3.0," which can design not only its software but also its hardware
23
79680
4296
"Leben 3.0", das neben seiner Software auch seine Hardware entwerfen kann,
existiert natürlich noch nicht.
01:24
of course doesn't exist yet.
24
84000
1656
01:25
But perhaps our technology has already made us "Life 2.1,"
25
85680
3776
Aber vielleicht sind wir mit unserer Technologie auch schon bei "Life 2.1",
01:29
with our artificial knees, pacemakers and cochlear implants.
26
89480
4336
mit unseren künstlichen Knien, Schrittmachern und Cochlea-Implantaten.
01:33
So let's take a closer look at our relationship with technology, OK?
27
93840
3880
Sehen wir uns also unsere Beziehung zur Technologie genauer an:
01:38
As an example,
28
98800
1216
Die Mondmission Apollo 11 etwa
01:40
the Apollo 11 moon mission was both successful and inspiring,
29
100040
5296
war sowohl erfolgreich als auch inspirierend
01:45
showing that when we humans use technology wisely,
30
105360
3016
und zeigte, dass wir Menschen bei weisem Umgang mit Technologie
01:48
we can accomplish things that our ancestors could only dream of.
31
108400
3936
Dinge erreichen können, von denen unsere Vorfahren nur träumen konnten.
01:52
But there's an even more inspiring journey
32
112360
2976
Aber es gibt eine noch inspirierendere Reise,
01:55
propelled by something more powerful than rocket engines,
33
115360
2680
angetrieben von etwas, das mächtiger ist als Raketentriebwerke,
01:59
where the passengers aren't just three astronauts
34
119200
2336
wo die Passagiere nicht nur drei Astronauten,
02:01
but all of humanity.
35
121560
1776
sondern die ganze Menschheit ist.
02:03
Let's talk about our collective journey into the future
36
123360
2936
Ich meine unsere gemeinsame Reise
in eine Zukunft mit künstlicher Intelligenz.
02:06
with artificial intelligence.
37
126320
2000
02:08
My friend Jaan Tallinn likes to point out that just as with rocketry,
38
128960
4536
Mein Freund Jaan Tallinn zeigt gerne auf, dass es, genau wie bei der Raketentechnik,
02:13
it's not enough to make our technology powerful.
39
133520
3160
nicht ausreicht, unsere Technologie leistungsfähig zu machen.
02:17
We also have to figure out, if we're going to be really ambitious,
40
137560
3175
Wir müssen auch herausfinden, wie wir sie steuern
02:20
how to steer it
41
140759
1416
und wohin wir gehen wollen,
02:22
and where we want to go with it.
42
142199
1681
wenn wir ehrgeizig sein wollen.
02:24
So let's talk about all three for artificial intelligence:
43
144880
2840
Sprechen wir über alle drei Punkte, die künstliche Intelligenz betreffend:
02:28
the power, the steering and the destination.
44
148440
3056
die Leistung, die Lenkung und das Ziel.
02:31
Let's start with the power.
45
151520
1286
Beginnen wir mit der Leistung.
02:33
I define intelligence very inclusively --
46
153600
3096
Ich definiere Intelligenz sehr offen,
02:36
simply as our ability to accomplish complex goals,
47
156720
4336
einfach als die Fähigkeit, komplexe Ziele zu erreichen,
02:41
because I want to include both biological and artificial intelligence.
48
161080
3816
weil ich sowohl biologische als auch künstliche Intelligenz einbeziehen will.
02:44
And I want to avoid the silly carbon-chauvinism idea
49
164920
4016
Ich möchte den albernen Kohlenstoff- Chauvinismus vermeiden,
02:48
that you can only be smart if you're made of meat.
50
168960
2360
dass nur klug sein kann, was aus Fleisch besteht.
02:52
It's really amazing how the power of AI has grown recently.
51
172880
4176
Es ist erstaunlich, wie die Leistung der KI in letzter Zeit gewachsen ist.
Denken Sie mal nach.
02:57
Just think about it.
52
177080
1256
02:58
Not long ago, robots couldn't walk.
53
178360
3200
Vor nicht langer Zeit konnten Roboter nicht laufen.
Jetzt können sie Rückwärtssaltos machen.
03:03
Now, they can do backflips.
54
183040
1720
03:06
Not long ago,
55
186080
1816
Vor nicht langer Zeit
03:07
we didn't have self-driving cars.
56
187920
1760
gab es keine selbstfahrenden Autos.
03:10
Now, we have self-flying rockets.
57
190920
2480
Jetzt gibt es selbstfliegende Raketen.
03:15
Not long ago,
58
195960
1416
Vor nicht langer Zeit
03:17
AI couldn't do face recognition.
59
197400
2616
konnte KI keine Gesichtserkennung.
03:20
Now, AI can generate fake faces
60
200040
2976
Jetzt kann KI falsche Gesichter erzeugen
03:23
and simulate your face saying stuff that you never said.
61
203040
4160
und Ihr Gesicht vortäuschen lassen, Dinge zu sagen, die Sie nie sagten.
03:28
Not long ago,
62
208400
1576
Vor nicht langer Zeit
konnte KI uns nicht im Go-Spiel schlagen.
03:30
AI couldn't beat us at the game of Go.
63
210000
1880
03:32
Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games
64
212400
5096
Dann nahm AlphaZero von Google DeepMind
3.000 Jahre menschlicher Go-Spiele und Go-Weisheit, ignorierte alles
03:37
and Go wisdom,
65
217520
1256
03:38
ignored it all and became the world's best player by just playing against itself.
66
218800
4976
und wurde zum weltweit besten Spieler, indem es nur gegen sich selbst spielte.
03:43
And the most impressive feat here wasn't that it crushed human gamers,
67
223800
3696
Das beeindruckendste Kunststück war nicht, dass es menschliche Spieler schlug;
03:47
but that it crushed human AI researchers
68
227520
2576
sondern auch die menschlichen KI-Forscher,
03:50
who had spent decades handcrafting game-playing software.
69
230120
3680
die jahrzehntelang an Go-Software gearbeitet hatten.
03:54
And AlphaZero crushed human AI researchers not just in Go but even at chess,
70
234200
4656
AlphaZero hat die KI-Forscher nicht nur in Go, sondern auch im Schach geschlagen,
03:58
which we have been working on since 1950.
71
238880
2480
an dem wir schon seit 1950 arbeiteten.
04:02
So all this amazing recent progress in AI really begs the question:
72
242000
4240
Alle diese erstaunlichen Fortschritte in der KI werfen die Frage auf:
04:07
How far will it go?
73
247280
1560
Wie weit wird das gehen?
04:09
I like to think about this question
74
249800
1696
Ich denke gerne über diese Frage anhand dieser abstrakten Aufgabenlandschaft nach.
04:11
in terms of this abstract landscape of tasks,
75
251520
2976
04:14
where the elevation represents how hard it is for AI to do each task
76
254520
3456
Die Höhe stellt dar, wie schwer es für KI ist,
etwas auf menschlichem Niveau zu tun,
04:18
at human level,
77
258000
1216
und der Meeresspiegel repräsentiert, was die KI heute kann.
04:19
and the sea level represents what AI can do today.
78
259240
2760
Der Wasserstand steigt mit wachsender KI,
04:23
The sea level is rising as AI improves,
79
263120
2056
04:25
so there's a kind of global warming going on here in the task landscape.
80
265200
3440
sodass es in der Aufgabenlandschaft zu einer Art globaler Erwärmung kommt.
04:30
And the obvious takeaway is to avoid careers at the waterfront --
81
270040
3335
Die offensichtliche Lehre ist, Jobs am Wasser zu vermeiden --
04:33
(Laughter)
82
273399
1257
(Lachen)
04:34
which will soon be automated and disrupted.
83
274680
2856
da die bald automatisiert werden.
04:37
But there's a much bigger question as well.
84
277560
2976
Aber es gibt auch eine viel größere Frage.
04:40
How high will the water end up rising?
85
280560
1810
Wie hoch wird das Wasser am Ende steigen?
04:43
Will it eventually rise to flood everything,
86
283440
3200
Wird es irgendwann alles fluten,
04:47
matching human intelligence at all tasks.
87
287840
2496
menschliche Intelligenz überall übertreffen?
04:50
This is the definition of artificial general intelligence --
88
290360
3736
Dies ist die Definition der Allgemeinen Künstlichen Intelligenz --
04:54
AGI,
89
294120
1296
AKI, die von Anfang an der heilige Gral der KI-Forschung war.
04:55
which has been the holy grail of AI research since its inception.
90
295440
3080
Demnach bedeutet die Aussage:
04:59
By this definition, people who say,
91
299000
1776
05:00
"Ah, there will always be jobs that humans can do better than machines,"
92
300800
3416
"Es wird immer Jobs geben, die Menschen besser als Maschinen machen",
05:04
are simply saying that we'll never get AGI.
93
304240
2920
einfach, dass wir AKI niemals bekommen werden.
05:07
Sure, we might still choose to have some human jobs
94
307680
3576
Wir könnten uns zwar entscheiden, einige Jobs für Menschen zu behalten,
05:11
or to give humans income and purpose with our jobs,
95
311280
3096
um Menschen Einkommen und Ziele zu geben,
05:14
but AGI will in any case transform life as we know it
96
314400
3736
aber AKI wird auf jeden Fall das Leben, wie wir es kennen, verändern,
05:18
with humans no longer being the most intelligent.
97
318160
2736
wenn der Mensch nicht mehr intelligenter ist.
05:20
Now, if the water level does reach AGI,
98
320920
3696
Erreicht der Wasserspiegel AKI,
05:24
then further AI progress will be driven mainly not by humans but by AI,
99
324640
5296
dann treibt KI und nicht Menschen den weiteren KI-Fortschritt voran,
05:29
which means that there's a possibility
100
329960
1856
was bedeutet, dass weiterer KI-Fortschritt wesentlich schneller sein könnte
05:31
that further AI progress could be way faster
101
331840
2336
05:34
than the typical human research and development timescale of years,
102
334200
3376
als der typische menschliche Entwicklungszeitraum von Jahren,
05:37
raising the controversial possibility of an intelligence explosion
103
337600
4016
was die umstrittene Möglichkeit einer Intelligenzexplosion eröffnet,
05:41
where recursively self-improving AI
104
341640
2296
in der sich rekursiv selbstverbessernde KI
05:43
rapidly leaves human intelligence far behind,
105
343960
3416
die menschliche Intelligenz weit hinter sich lässt
05:47
creating what's known as superintelligence.
106
347400
2440
und so die sogenannte Superintelligenz schafft.
05:51
Alright, reality check:
107
351800
2280
Okay, die Fakten:
05:55
Are we going to get AGI any time soon?
108
355120
2440
Werden wir in naher Zukunft AKI bekommen?
05:58
Some famous AI researchers, like Rodney Brooks,
109
358360
2696
Einige berühmte KI-Forscher, wie Rodney Brooks, glauben,
06:01
think it won't happen for hundreds of years.
110
361080
2496
dass es für Hunderte von Jahren nicht passieren wird.
06:03
But others, like Google DeepMind founder Demis Hassabis,
111
363600
3896
Andere wie Demis Hassabis, der Google DeepMind-Gründer,
06:07
are more optimistic
112
367520
1256
sind da optimistischer
06:08
and are working to try to make it happen much sooner.
113
368800
2576
und arbeiten daran, es viel früher zu verwirklichen.
06:11
And recent surveys have shown that most AI researchers
114
371400
3296
Neuere Umfragen haben gezeigt, dass die meisten KI-Forscher
06:14
actually share Demis's optimism,
115
374720
2856
tatsächlich Demis' Optimismus teilen
06:17
expecting that we will get AGI within decades,
116
377600
3080
und erwarten, dass wir AKI innerhalb von Jahrzehnten bekommen werden,
06:21
so within the lifetime of many of us,
117
381640
2256
also im Laufe der Lebenszeit von vielen von uns,
06:23
which begs the question -- and then what?
118
383920
1960
was die Frage aufwirft -- und was dann?
06:27
What do we want the role of humans to be
119
387040
2216
Was soll die Rolle des Menschen sein,
06:29
if machines can do everything better and cheaper than us?
120
389280
2680
wenn Maschinen alles besser und billiger machen können als wir?
06:35
The way I see it, we face a choice.
121
395000
2000
Ich denke, wir stehen vor einer Wahl.
Eine Option ist, selbstgefällig zu sein:
06:38
One option is to be complacent.
122
398000
1576
06:39
We can say, "Oh, let's just build machines that can do everything we can do
123
399600
3776
"Lasst uns KI bauen, die alles kann, was wir können,
06:43
and not worry about the consequences.
124
403400
1816
und uns nicht um die Folgen kümmern.
06:45
Come on, if we build technology that makes all humans obsolete,
125
405240
3256
Wenn wir Technologie schaffen, die alle Menschen obsolet macht,
06:48
what could possibly go wrong?"
126
408520
2096
was könnte da schon schiefgehen?"
06:50
(Laughter)
127
410640
1656
(Lachen)
06:52
But I think that would be embarrassingly lame.
128
412320
2760
Aber das wäre peinlich faul.
06:56
I think we should be more ambitious -- in the spirit of TED.
129
416080
3496
Wir sollten im Geiste von TED ehrgeiziger sein.
06:59
Let's envision a truly inspiring high-tech future
130
419600
3496
Stellen wir uns eine wahrhaft inspirierende Hightech-Zukunft vor
07:03
and try to steer towards it.
131
423120
1400
und versuchen, dahin zu steuern.
07:05
This brings us to the second part of our rocket metaphor: the steering.
132
425720
3536
Das bringt uns zum zweiten Teil unserer Raketenmetapher: die Lenkung.
07:09
We're making AI more powerful,
133
429280
1896
Wir machen die KI leistungsfähiger,
07:11
but how can we steer towards a future
134
431200
3816
aber wie können wir in eine Zukunft steuern,
07:15
where AI helps humanity flourish rather than flounder?
135
435040
3080
wo KI der Menschheit hilft zu florieren, anstatt sich abzumühen?
07:18
To help with this,
136
438760
1256
Das Future of Life Institute habe ich dazu mitgegründet.
07:20
I cofounded the Future of Life Institute.
137
440040
1976
Ein gemeinnütziges Unternehmen
07:22
It's a small nonprofit promoting beneficial technology use,
138
442040
2776
zur Förderung nutzbringender Technik.
07:24
and our goal is simply for the future of life to exist
139
444840
2736
Unser Ziel ist einfach, für die Zukunft des Lebens fortzubestehen
07:27
and to be as inspiring as possible.
140
447600
2056
und so inspirierend wie möglich zu sein.
07:29
You know, I love technology.
141
449680
3176
Ich liebe nämlich Technologie.
07:32
Technology is why today is better than the Stone Age.
142
452880
2920
Technologie ist der Grund, warum das Heute besser als die Steinzeit ist.
07:36
And I'm optimistic that we can create a really inspiring high-tech future ...
143
456600
4080
Ich bin optimistisch, dass wir eine inspirierende Zukunft schaffen können,
07:41
if -- and this is a big if --
144
461680
1456
wenn -- und das ist ein großes wenn --
07:43
if we win the wisdom race --
145
463160
2456
wir das Weisheitsrennen gewinnen --
07:45
the race between the growing power of our technology
146
465640
2856
den Wettlauf zwischen unserer Technologie mit ihrer zunehmenden Macht
07:48
and the growing wisdom with which we manage it.
147
468520
2200
und der zunehmenden Klugheit, sie zu managen.
07:51
But this is going to require a change of strategy
148
471240
2296
Aber das erfordert eine neue Strategie,
07:53
because our old strategy has been learning from mistakes.
149
473560
3040
weil unsere alte Strategie war, aus Fehlern zu lernen.
07:57
We invented fire,
150
477280
1536
Wir haben das Feuer erfunden,
07:58
screwed up a bunch of times --
151
478840
1536
vermasselten es einige Male --
08:00
invented the fire extinguisher.
152
480400
1816
und erfanden den Feuerlöscher.
08:02
(Laughter)
153
482240
1336
(Lachen)
08:03
We invented the car, screwed up a bunch of times --
154
483600
2416
Wir erfanden das Auto, vermasselten es einige Male --
08:06
invented the traffic light, the seat belt and the airbag,
155
486040
2667
und erfanden die Ampel, den Sicherheitsgurt und den Airbag.
08:08
but with more powerful technology like nuclear weapons and AGI,
156
488731
3845
Aber mit mächtigeren Technologien wie Atomwaffen und AKI
08:12
learning from mistakes is a lousy strategy,
157
492600
3376
ist das Lernen aus Fehlern eine lausige Strategie, finden Sie nicht?
08:16
don't you think?
158
496000
1216
(Lachen)
08:17
(Laughter)
159
497240
1016
Es ist viel besser, proaktiv statt reaktiv zu sein,
08:18
It's much better to be proactive rather than reactive;
160
498280
2576
08:20
plan ahead and get things right the first time
161
500880
2296
gut zu planen und die Dinge sofort richtigzumachen,
08:23
because that might be the only time we'll get.
162
503200
2496
weil wir vielleicht nur eine Chance bekommen.
08:25
But it is funny because sometimes people tell me,
163
505720
2336
Aber es ist lustig, manchmal sagen mir Leute:
"Max, pssst, rede nicht so.
08:28
"Max, shhh, don't talk like that.
164
508080
2736
08:30
That's Luddite scaremongering."
165
510840
1720
Das ist technikfeindliche Panikmache."
08:34
But it's not scaremongering.
166
514040
1536
Aber es ist keine Panikmache.
08:35
It's what we at MIT call safety engineering.
167
515600
2880
Das nennen wir am MIT Sicherheitstechnik.
08:39
Think about it:
168
519200
1216
Bedenken Sie:
08:40
before NASA launched the Apollo 11 mission,
169
520440
2216
Bevor die NASA Apollo 11 startete,
08:42
they systematically thought through everything that could go wrong
170
522680
3136
durchdachten sie systematisch alles, was schiefgehen könnte,
08:45
when you put people on top of explosive fuel tanks
171
525840
2376
wenn man Menschen auf explosive Treibstofftanks setzt
08:48
and launch them somewhere where no one could help them.
172
528240
2616
und sie dorthin schießt, wo ihnen keiner helfen kann.
08:50
And there was a lot that could go wrong.
173
530880
1936
Da könnte eine Menge schiefgehen.
08:52
Was that scaremongering?
174
532840
1480
War das Panikmache?
08:55
No.
175
535159
1217
Nein.
08:56
That's was precisely the safety engineering
176
536400
2016
Das war genau die Sicherheitstechnik,
die den Erfolg der Mission sicherstellte,
08:58
that ensured the success of the mission,
177
538440
1936
und genau das ist die Strategie, die wir bei AKI wählen sollten.
09:00
and that is precisely the strategy I think we should take with AGI.
178
540400
4176
09:04
Think through what can go wrong to make sure it goes right.
179
544600
4056
Durchdenken, was schiefgehen kann, um sicherzustellen, dass es gut verläuft.
09:08
So in this spirit, we've organized conferences,
180
548680
2536
In diesem Sinne organisierten wir Konferenzen,
09:11
bringing together leading AI researchers and other thinkers
181
551240
2816
an denen führende KI-Forscher und andere Denker teilnahmen,
um zu diskutieren, wie wir diese Weisheit entwickeln, damit die KI nützlich bleibt.
09:14
to discuss how to grow this wisdom we need to keep AI beneficial.
182
554080
3736
09:17
Our last conference was in Asilomar, California last year
183
557840
3296
Unsere letzte Konferenz in Asilomar, Kalifornien,
09:21
and produced this list of 23 principles
184
561160
3056
brachte letztes Jahr diese Liste von 23 Prinzipien hervor,
09:24
which have since been signed by over 1,000 AI researchers
185
564240
2896
die seitdem über 1000 KI-Forscher und führende Industrielle unterzeichnet haben.
09:27
and key industry leaders,
186
567160
1296
09:28
and I want to tell you about three of these principles.
187
568480
3176
Ich möchte Ihnen drei dieser Prinzipien näher bringen.
09:31
One is that we should avoid an arms race and lethal autonomous weapons.
188
571680
4960
Eines davon ist, dass wir ein Wettrüsten und tödliche autonome Waffen vermeiden.
09:37
The idea here is that any science can be used for new ways of helping people
189
577480
3616
Jede Wissenschaft kann genutzt werden,
um Menschen zu helfen oder auf neue Weise zu schaden.
09:41
or new ways of harming people.
190
581120
1536
09:42
For example, biology and chemistry are much more likely to be used
191
582680
3936
Zum Beispiel werden Biologie und Chemie viel eher für neue Medikamente eingesetzt
09:46
for new medicines or new cures than for new ways of killing people,
192
586640
4856
als für neue Arten, Menschen zu töten,
09:51
because biologists and chemists pushed hard --
193
591520
2176
weil Biologen und Chemiker unnachgiebig und erfolgreich
09:53
and successfully --
194
593720
1256
auf Verbote von biologischen und chemischen Waffen drängten.
09:55
for bans on biological and chemical weapons.
195
595000
2176
09:57
And in the same spirit,
196
597200
1256
Im gleichen Sinne wollen die meisten KI-Forscher
09:58
most AI researchers want to stigmatize and ban lethal autonomous weapons.
197
598480
4440
tödliche autonome Waffen stigmatisieren und verbieten.
10:03
Another Asilomar AI principle
198
603600
1816
Ein weiteres Asilomar KI-Prinzip besagt,
10:05
is that we should mitigate AI-fueled income inequality.
199
605440
3696
dass das KI-bedingte Einkommensgefälle verringert werden sollte.
10:09
I think that if we can grow the economic pie dramatically with AI
200
609160
4456
Wenn wir den wirtschaftlichen Kuchen mit KI dramatisch vergrößern können,
10:13
and we still can't figure out how to divide this pie
201
613640
2456
aber nicht wissen, wie wir den Kuchen zum Nutzen aller verteilen können,
10:16
so that everyone is better off,
202
616120
1576
10:17
then shame on us.
203
617720
1256
dann Schande über uns!
10:19
(Applause)
204
619000
4096
(Beifall)
10:23
Alright, now raise your hand if your computer has ever crashed.
205
623120
3600
Okay, jetzt heben Sie die Hand, wenn Ihr Computer jemals abgestürzt ist.
10:27
(Laughter)
206
627480
1256
(Lachen)
10:28
Wow, that's a lot of hands.
207
628760
1656
Wow, das sind viele Hände.
10:30
Well, then you'll appreciate this principle
208
630440
2176
Dann werden Sie das Prinzip zu schätzen wissen,
10:32
that we should invest much more in AI safety research,
209
632640
3136
dass wir viel mehr Forschung in die KI-Sicherheit stecken sollten.
10:35
because as we put AI in charge of even more decisions and infrastructure,
210
635800
3656
Wenn wir die KI immer mehr Entscheidungen und Infrastruktur steuern lassen,
10:39
we need to figure out how to transform today's buggy and hackable computers
211
639480
3616
müssen wir die heutigen störanfälligen und hackbaren Computer
10:43
into robust AI systems that we can really trust,
212
643120
2416
zu robusten Systemen machen, denen wir vertrauen können,
10:45
because otherwise,
213
645560
1216
denn sonst könnte diese neue Technologie versagen und uns schaden
10:46
all this awesome new technology can malfunction and harm us,
214
646800
2816
10:49
or get hacked and be turned against us.
215
649640
1976
oder gehackt und gegen uns eingesetzt werden.
10:51
And this AI safety work has to include work on AI value alignment,
216
651640
5696
Diese KI-Sicherheitsarbeit muss die KI-Werte-Ausrichtung beinhalten.
10:57
because the real threat from AGI isn't malice,
217
657360
2816
Die wirkliche Bedrohung durch AKI ist nicht Bosheit,
11:00
like in silly Hollywood movies,
218
660200
1656
wie in albernen Hollywoodfilmen,
11:01
but competence --
219
661880
1736
sondern Befähigung --
11:03
AGI accomplishing goals that just aren't aligned with ours.
220
663640
3416
AKI, die Ziele erreicht, die nicht mit unseren übereinstimmen.
11:07
For example, when we humans drove the West African black rhino extinct,
221
667080
4736
Zum Beispiel, als wir Menschen das Spitzmaul-Nashorn ausgerottet haben,
11:11
we didn't do it because we were a bunch of evil rhinoceros haters, did we?
222
671840
3896
taten wir das nicht, weil wir böse Nashorn-Hasser waren, oder?
11:15
We did it because we were smarter than them
223
675760
2056
Wir taten es, weil wir schlauer waren
11:17
and our goals weren't aligned with theirs.
224
677840
2576
und unsere Ziele nicht zu ihren passten.
11:20
But AGI is by definition smarter than us,
225
680440
2656
Aber AKI ist definitionsgemäß schlauer als wir,
11:23
so to make sure that we don't put ourselves in the position of those rhinos
226
683120
3576
also um sicherzugehen, dass wir nicht in die Lage dieser Nashörner geraten,
11:26
if we create AGI,
227
686720
1976
wenn wir AKI schaffen,
11:28
we need to figure out how to make machines understand our goals,
228
688720
4176
müssen wir herausfinden, wie wir KI dazu bringen, unsere Ziele zu verstehen,
11:32
adopt our goals and retain our goals.
229
692920
3160
unsere Ziele zu übernehmen und unsere Ziele beizubehalten.
11:37
And whose goals should these be, anyway?
230
697320
2856
Wessen Ziele sollten das sein?
11:40
Which goals should they be?
231
700200
1896
Welche Ziele sollten sie haben?
11:42
This brings us to the third part of our rocket metaphor: the destination.
232
702120
3560
Dies bringt uns zum dritten Teil unserer Raketenmetapher: das Ziel.
11:47
We're making AI more powerful,
233
707160
1856
Wir machen KI leistungsfähiger,
versuchen herauszufinden, wie man sie steuert,
11:49
trying to figure out how to steer it,
234
709040
1816
11:50
but where do we want to go with it?
235
710880
1680
aber wohin wollen wir damit gehen?
11:53
This is the elephant in the room that almost nobody talks about --
236
713760
3656
Das ist das offensichtliche Problem, über das fast niemand spricht --
11:57
not even here at TED --
237
717440
1856
nicht einmal hier bei TED --
11:59
because we're so fixated on short-term AI challenges.
238
719320
4080
weil wir so fixiert sind auf kurzfristige KI-Herausforderungen.
12:04
Look, our species is trying to build AGI,
239
724080
4656
Durch Neugier und Wirtschaft motiviert,
12:08
motivated by curiosity and economics,
240
728760
3496
versucht unsere Spezies AKI zu schaffen.
12:12
but what sort of future society are we hoping for if we succeed?
241
732280
3680
Aber was für eine zukünftige Gesellschaft erhoffen wir, falls wir es schaffen?
12:16
We did an opinion poll on this recently,
242
736680
1936
Wir machten eine Umfrage und ich war verblüfft,
12:18
and I was struck to see
243
738640
1216
12:19
that most people actually want us to build superintelligence:
244
739880
2896
dass die meisten Leute wollen, dass wir Superintelligenz bauen:
12:22
AI that's vastly smarter than us in all ways.
245
742800
3160
KI, die in jeder Hinsicht schlauer ist als wir.
12:27
What there was the greatest agreement on was that we should be ambitious
246
747120
3416
Die größte Übereinstimmung war, dass wir ehrgeizig sein sollten
12:30
and help life spread into the cosmos,
247
750560
2016
und helfen, das Leben im Kosmos zu verbreiten,
12:32
but there was much less agreement about who or what should be in charge.
248
752600
4496
aber es gab weniger Einigkeit darüber, wer oder was die Macht haben sollte.
12:37
And I was actually quite amused
249
757120
1736
Ich fand es ziemlich lustig,
12:38
to see that there's some some people who want it to be just machines.
250
758880
3456
dass es einige Leute gibt, die wollen, dass es nur Maschinen sind.
12:42
(Laughter)
251
762360
1696
(Lachen)
12:44
And there was total disagreement about what the role of humans should be,
252
764080
3856
Es gab völlige Uneinigkeit darüber, was die Rolle des Menschen sein sollte,
12:47
even at the most basic level,
253
767960
1976
selbst auf der grundlegendsten Ebene.
12:49
so let's take a closer look at possible futures
254
769960
2816
Sehen wir uns also die mögliche Zukunft genauer an,
12:52
that we might choose to steer toward, alright?
255
772800
2736
auf die wir vielleicht hinsteuern.
12:55
So don't get me wrong here.
256
775560
1336
Verstehen Sie mich nicht falsch, ich spreche nicht über Raumfahrt.
12:56
I'm not talking about space travel,
257
776920
2056
Sondern nur über die metaphorische Reise der Menschheit in die Zukunft.
12:59
merely about humanity's metaphorical journey into the future.
258
779000
3200
13:02
So one option that some of my AI colleagues like
259
782920
3496
Eine Möglichkeit, die einige meiner KI-Kollegen mögen,
13:06
is to build superintelligence and keep it under human control,
260
786440
3616
ist Superintelligenz zu bauen und unter menschlicher Kontrolle zu halten
13:10
like an enslaved god,
261
790080
1736
wie einen versklavten, vom Internet getrennten Gott,
13:11
disconnected from the internet
262
791840
1576
13:13
and used to create unimaginable technology and wealth
263
793440
3256
und sie einzusetzen, um unvorstellbare Technologien und Reichtum
13:16
for whoever controls it.
264
796720
1240
für den zu schaffen, der sie kontrolliert.
13:18
But Lord Acton warned us
265
798800
1456
Aber Lord Acton warnte uns,
13:20
that power corrupts, and absolute power corrupts absolutely,
266
800280
3616
dass Macht korrumpiert und absolute Macht absolut korrumpiert,
13:23
so you might worry that maybe we humans just aren't smart enough,
267
803920
4056
also könnte man befürchten, dass wir Menschen vielleicht nicht klug
13:28
or wise enough rather,
268
808000
1536
oder vielmehr weise genug sind,
13:29
to handle this much power.
269
809560
1240
um mit so viel Macht umzugehen.
13:31
Also, aside from any moral qualms you might have
270
811640
2536
Abgesehen von allen moralischen Problemen,
die Sie vielleicht mit versklavten Göttern haben,
13:34
about enslaving superior minds,
271
814200
2296
13:36
you might worry that maybe the superintelligence could outsmart us,
272
816520
3976
könnten Sie befürchten, dass die Superintelligenz uns austrickst,
13:40
break out and take over.
273
820520
2240
ausbricht und die Macht übernimmt.
13:43
But I also have colleagues who are fine with AI taking over
274
823560
3416
Aber ich habe auch Kollegen, die eine Übernahme durch KI gut fänden,
13:47
and even causing human extinction,
275
827000
2296
selbst wenn sie zu unserer Ausrottung führt,
13:49
as long as we feel the the AIs are our worthy descendants,
276
829320
3576
solange wir glauben, dass die KIs unsere würdigen Nachkommen sind,
13:52
like our children.
277
832920
1736
wie unsere Kinder.
13:54
But how would we know that the AIs have adopted our best values
278
834680
5616
Aber wie können wir wissen, dass die KIs unsere Werte angenommen haben
14:00
and aren't just unconscious zombies tricking us into anthropomorphizing them?
279
840320
4376
und nicht nur dumme Zombies sind, die uns Menschlichkeit vorspiegeln?
14:04
Also, shouldn't those people who don't want human extinction
280
844720
2856
Sollten nicht auch jene Menschen ein Mitspracherecht haben,
14:07
have a say in the matter, too?
281
847600
1440
die keine menschliche Auslöschung wollen?
14:10
Now, if you didn't like either of those two high-tech options,
282
850200
3376
Wenn Sie keine dieser beiden High-Tech-Optionen mögen,
14:13
it's important to remember that low-tech is suicide
283
853600
3176
sollten Sie bedenken, dass Low-Tech aus kosmischer Sicht Selbstmord ist.
14:16
from a cosmic perspective,
284
856800
1256
14:18
because if we don't go far beyond today's technology,
285
858080
2496
Wenn unsere Technologien nicht viel besser werden,
14:20
the question isn't whether humanity is going to go extinct,
286
860600
2816
ist das Aussterben der Menschheit keine Frage,
14:23
merely whether we're going to get taken out
287
863440
2016
sondern nur, ob wir durch den nächsten Killer-Asteroiden, Supervulkan,
14:25
by the next killer asteroid, supervolcano
288
865480
2136
14:27
or some other problem that better technology could have solved.
289
867640
3096
oder etwas anderes sterben, das bessere Technologie lösen könnte.
14:30
So, how about having our cake and eating it ...
290
870760
3576
Wie wäre es, beides gleichzeitig zu haben?
14:34
with AGI that's not enslaved
291
874360
1840
Eine AKI, die nicht versklavt ist,
14:37
but treats us well because its values are aligned with ours?
292
877120
3176
sondern uns gut behandelt, weil ihre Werte zu unseren passen?
14:40
This is the gist of what Eliezer Yudkowsky has called "friendly AI,"
293
880320
4176
Das ist der Kern dessen, was Eliezer Yudkowsky "freundliche KI" nannte
14:44
and if we can do this, it could be awesome.
294
884520
2680
und wenn wir das schaffen, wäre es wunderbar.
14:47
It could not only eliminate negative experiences like disease, poverty,
295
887840
4816
Es könnte nicht nur negative Erfahrungen
wie Krankheit, Armut, Kriminalität und andere Leiden beseitigen,
14:52
crime and other suffering,
296
892680
1456
14:54
but it could also give us the freedom to choose
297
894160
2816
sondern es könnte uns auch die Freiheit geben,
14:57
from a fantastic new diversity of positive experiences --
298
897000
4056
aus einer fantastischen neuen Vielfalt positiver Erfahrungen zu wählen.
Das würde uns zu Herren unseres eigenen Schicksals machen.
15:01
basically making us the masters of our own destiny.
299
901080
3160
15:06
So in summary,
300
906280
1376
Alles in allem ist unsere Situation mit der Technologie kompliziert,
15:07
our situation with technology is complicated,
301
907680
3096
15:10
but the big picture is rather simple.
302
910800
2416
aber das große Bild ist ziemlich einfach.
15:13
Most AI researchers expect AGI within decades,
303
913240
3456
Die meisten KI-Forscher erwarten AKI innerhalb von Jahrzehnten,
15:16
and if we just bumble into this unprepared,
304
916720
3136
und stolpern wir da unvorbereitet hinein,
15:19
it will probably be the biggest mistake in human history --
305
919880
3336
wäre dies wohl der größte Fehler in der Geschichte der Menschheit,
15:23
let's face it.
306
923240
1416
wenn wir ehrlich sind.
15:24
It could enable brutal, global dictatorship
307
924680
2576
Es könnte eine brutale, globale Diktatur
15:27
with unprecedented inequality, surveillance and suffering,
308
927280
3536
mit beispielloser Ungleichheit, Überwachung und Leid ermöglichen
15:30
and maybe even human extinction.
309
930840
1976
und vielleicht sogar das Aussterben der Menschen.
15:32
But if we steer carefully,
310
932840
2320
Aber wenn wir vorsichtig steuern,
15:36
we could end up in a fantastic future where everybody's better off:
311
936040
3896
könnten wir eine Zukunft haben, in der es allen besser geht:
15:39
the poor are richer, the rich are richer,
312
939960
2376
die Armen sind reicher, die Reichen sind reicher.
15:42
everybody is healthy and free to live out their dreams.
313
942360
3960
Jeder ist gesund und frei, seine Träume zu leben.
15:47
Now, hang on.
314
947000
1536
Warten Sie mal.
15:48
Do you folks want the future that's politically right or left?
315
948560
4576
Wollen Sie eine Zukunft haben, die politisch rechts oder links ist?
15:53
Do you want the pious society with strict moral rules,
316
953160
2856
Wollen Sie die fromme Gesellschaft mit strengen moralischen Regeln,
15:56
or do you an hedonistic free-for-all,
317
956040
1816
oder eine hedonistische Anarchie,
15:57
more like Burning Man 24/7?
318
957880
2216
mehr wie Burning Man rund um die Uhr?
16:00
Do you want beautiful beaches, forests and lakes,
319
960120
2416
Wollen Sie schöne Strände, Wälder und Seen,
16:02
or would you prefer to rearrange some of those atoms with the computers,
320
962560
3416
oder wollen Sie lieber mit Computern Atome neu ordnen,
um virtuelle Erfahrungen zu machen?
16:06
enabling virtual experiences?
321
966000
1715
16:07
With friendly AI, we could simply build all of these societies
322
967739
3157
Mit freundlicher KI könnten wir all diese Gesellschaften aufbauen
16:10
and give people the freedom to choose which one they want to live in
323
970920
3216
und die Menschen wählen lassen, wie ​​sie leben wollen,
weil wir nicht mehr durch unsere Intelligenz limitiert wären,
16:14
because we would no longer be limited by our intelligence,
324
974160
3096
16:17
merely by the laws of physics.
325
977280
1456
sondern nur noch durch die Physik.
16:18
So the resources and space for this would be astronomical --
326
978760
4616
So wären die Ressourcen und der Raum dafür astronomisch --
16:23
literally.
327
983400
1320
buchstäblich.
16:25
So here's our choice.
328
985320
1200
Also, wir haben die Wahl.
16:27
We can either be complacent about our future,
329
987880
2320
Wir können entweder selbstgefällig hinsichtlich unserer Zukunft sein,
16:31
taking as an article of blind faith
330
991440
2656
in dem blindem Glauben,
16:34
that any new technology is guaranteed to be beneficial,
331
994120
4016
dass jede neue Technologie garantiert von Nutzen ist,
16:38
and just repeat that to ourselves as a mantra over and over and over again
332
998160
4136
und das einfach als ein Mantra immer und immer wiederholen,
16:42
as we drift like a rudderless ship towards our own obsolescence.
333
1002320
3680
während wir wie ein Schiff ohne Ruder auf unsere Überflüssigkeit zutreiben.
16:46
Or we can be ambitious --
334
1006920
1880
Oder wir können ehrgeizig sein --
16:49
thinking hard about how to steer our technology
335
1009840
2456
und darüber nachdenken, wie wir unsere Technologie steuern
16:52
and where we want to go with it
336
1012320
1936
und wohin wir gehen wollen,
16:54
to create the age of amazement.
337
1014280
1760
um das Zeitalter des Staunens zu schaffen.
16:57
We're all here to celebrate the age of amazement,
338
1017000
2856
Wir sind alle hier, um das Zeitalter des Staunens zu feiern,
16:59
and I feel that its essence should lie in becoming not overpowered
339
1019880
4440
und ich meine, das Wesentliche dabei sollte sein, nicht überwältigt zu werden,
17:05
but empowered by our technology.
340
1025240
2616
sondern durch unsere Technologie gestärkt zu werden.
17:07
Thank you.
341
1027880
1376
Vielen Dank.
17:09
(Applause)
342
1029280
3080
(Beifall)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7