What Is an AI Anyway? | Mustafa Suleyman | TED

1,902,222 views ・ 2024-04-22

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Cornelia Schlesinger Lektorat: Andrea Hielscher
00:04
I want to tell you what I see coming.
0
4292
2586
Ich möchte Ihnen sagen, was ich kommen sehe.
00:07
I've been lucky enough to be working on AI for almost 15 years now.
1
7712
4463
Ich habe das Glück, seit fast 15 Jahren an KI zu arbeiten.
00:12
Back when I started, to describe it as fringe would be an understatement.
2
12676
5088
Sie damals als Randerscheinung zu beschreiben, wäre untertrieben.
00:17
Researchers would say, “No, no, we’re only working on machine learning.”
3
17806
4045
Forscher sagten: „Nein, wir arbeiten nur an maschinellem Lernen.“
00:21
Because working on AI was seen as way too out there.
4
21893
3087
An KI zu arbeiten, galt als abgehoben.
00:25
In 2010, just the very mention of the phrase “AGI,”
5
25021
4380
2010 erntete man bei der bloßen Erwähnung von “AGI”,
00:29
artificial general intelligence,
6
29401
2169
künstlicher allgemeiner Intelligenz,
00:31
would get you some seriously strange looks
7
31570
2877
seltsame Blicke
00:34
and even a cold shoulder.
8
34489
1585
oder man wurde ignoriert.
00:36
"You're actually building AGI?" people would say.
9
36366
3837
„Ihr baut tatsächlich AGI?“, wurde man gefragt.
00:40
"Isn't that something out of science fiction?"
10
40203
2294
„Ist das nicht Science-Fiction?“
00:42
People thought it was 50 years away or 100 years away,
11
42914
2544
Die Leute dachten, das sei noch 50 oder 100 Jahre entfernt,
00:45
if it was even possible at all.
12
45500
1919
wenn es überhaupt möglich wäre.
00:47
Talk of AI was, I guess, kind of embarrassing.
13
47752
3337
Über KI zu reden, war irgendwie peinlich.
00:51
People generally thought we were weird.
14
51631
2211
Die Leute hielten uns allgemein für seltsam.
00:54
And I guess in some ways we kind of were.
15
54217
2503
Gewissermaßen waren wir das wohl auch.
00:56
It wasn't long, though, before AI started beating humans
16
56761
2878
Doch schon nach kurzer Zeit
besiegte die KI den Menschen bei einer Reihe von Aufgaben,
00:59
at a whole range of tasks
17
59681
1793
01:01
that people previously thought were way out of reach.
18
61516
2795
die man ihr eigentlich nicht zugetraut hatte:
01:05
Understanding images,
19
65020
2127
Bilder verstehen,
01:07
translating languages,
20
67147
1918
Sprachen übersetzen,
01:09
transcribing speech,
21
69065
1585
Sprache transkribieren,
01:10
playing Go and chess
22
70692
2127
Go und Schach spielen
01:12
and even diagnosing diseases.
23
72861
1918
und sogar Krankheiten diagnostizieren.
01:15
People started waking up to the fact
24
75905
1752
Man begann zu begreifen,
01:17
that AI was going to have an enormous impact,
25
77657
3462
dass KI enormen Einfluss haben würde.
01:21
and they were rightly asking technologists like me
26
81119
2836
Und man stellte Technologen wie mir
01:23
some pretty tough questions.
27
83955
1752
zu Recht ziemlich schwierige Fragen:
01:25
Is it true that AI is going to solve the climate crisis?
28
85749
3044
Stimmt es, dass KI die Klimakrise lösen wird?
01:29
Will it make personalized education available to everyone?
29
89127
3337
Macht sie personalisierte Bildung für alle zugänglich?
01:32
Does it mean we'll all get universal basic income
30
92881
2294
Bekommen wir alle ein bedingungsloses Grundeinkommen
01:35
and we won't have to work anymore?
31
95216
2002
und müssen nicht mehr arbeiten?
01:37
Should I be afraid?
32
97218
1544
Müssen wir Angst haben?
01:38
What does it mean for weapons and war?
33
98762
2335
Was bedeutet das für Waffen und Krieg?
Und natürlich: Wird China gewinnen?
01:41
And of course, will China win?
34
101598
1460
01:43
Are we in a race?
35
103058
1543
Sind wir Konkurrenten?
01:45
Are we headed for a mass misinformation apocalypse?
36
105518
3212
Steuern wir auf eine Massenapokalypse der Fehlinformationen zu?
01:49
All good questions.
37
109147
1668
Alles gute Fragen.
01:51
But it was actually a simpler
38
111608
1418
Aber es war eine einfachere und viel grundlegendere Frage,
01:53
and much more kind of fundamental question that left me puzzled.
39
113026
4046
die mich stutzig machte.
01:58
One that actually gets to the very heart of my work every day.
40
118031
3962
Eine, die meine tägliche Arbeit auf den Punkt bringt.
02:03
One morning over breakfast,
41
123620
2044
Eines Morgens spielte mein sechsjähriger Neffe Caspian
02:05
my six-year-old nephew Caspian was playing with Pi,
42
125705
3379
beim Frühstück mit Pi,
der KI, die ich bei Inflection, meiner letzten Firma, entwickelt hatte.
02:09
the AI I created at my last company, Inflection.
43
129084
3378
02:12
With a mouthful of scrambled eggs,
44
132504
1877
Den Mund voller Rührei, sah er mich an und sagte:
02:14
he looked at me plain in the face and said,
45
134381
3503
02:17
"But Mustafa, what is an AI anyway?"
46
137926
3295
„Mustafa, was ist eigentlich eine KI?”
02:21
He's such a sincere and curious and optimistic little guy.
47
141930
3545
Er ist so ein offener, neugieriger, optimistischer kleiner Kerl.
02:25
He'd been talking to Pi about how cool it would be if one day in the future,
48
145517
4254
Er hatte mit Pi darüber gesprochen, wie cool es wäre,
wenn er eines Tages Dinosaurier im Zoo besuchen könnte.
02:29
he could visit dinosaurs at the zoo.
49
149771
2377
02:32
And how he could make infinite amounts of chocolate at home.
50
152190
3795
Und wie er zu Hause unendlich viel Schokolade herstellen könnte.
02:35
And why Pi couldn’t yet play I Spy.
51
155985
2920
Und warum Pi noch nicht “I Spy” spielen konnte.
02:39
"Well," I said, "it's a clever piece of software
52
159823
2252
“Nun”, sagte ich, “es ist eine clevere Software,
02:42
that's read most of the text on the open internet,
53
162075
2461
die sehr viele Texte im freien Internet gelesen hat
02:44
and it can talk to you about anything you want."
54
164577
2419
und mit dir über alles Mögliche reden kann.“
02:48
"Right.
55
168540
1168
„Okay.
02:49
So like a person then?"
56
169749
2127
Also wie ein Mensch?“
02:54
I was stumped.
57
174254
1334
Ich war baff.
02:56
Genuinely left scratching my head.
58
176798
2502
Ich kratze mich am Kopf.
03:00
All my boring stock answers came rushing through my mind.
59
180301
4046
All meine langweiligen Standardantworten gingen mir durch den Kopf.
03:04
"No, but AI is just another general-purpose technology,
60
184723
2585
„KI ist nur eine weitere Allzwecktechnologie
03:07
like printing or steam."
61
187308
1710
wie Drucken oder Dampf.
03:09
It will be a tool that will augment us
62
189394
2502
Es wird ein Tool sein, das uns ergänzt
03:11
and make us smarter and more productive.
63
191938
2377
und uns intelligenter und produktiver macht.
03:14
And when it gets better over time,
64
194649
1960
Wenn sie mit der Zeit besser wird,
03:16
it'll be like an all-knowing oracle
65
196651
1919
ist sie wie ein allwissendes Orakel,
03:18
that will help us solve grand scientific challenges."
66
198611
3087
mit dessen Hilfe wir große wissenschaftliche Fragen lösen.“
03:22
You know, all of these responses started to feel, I guess,
67
202115
3712
All diese Antworten
klangen ein bisschen defensiv.
03:25
a little bit defensive.
68
205869
1418
Besser geeignet für ein Politikseminar
03:28
And actually better suited to a policy seminar
69
208246
2211
03:30
than breakfast with a no-nonsense six-year-old.
70
210457
2627
als für ein Frühstück mit einem sachlichen Sechsjährigen.
03:33
"Why am I hesitating?" I thought to myself.
71
213126
3086
„Warum zögere ich?“, fragte ich mich.
03:37
You know, let's be honest.
72
217839
1960
Seien wir mal ehrlich.
03:39
My nephew was asking me a simple question
73
219799
3253
Mein Neffe stellte mir eine einfache Frage,
03:43
that those of us in AI just don't confront often enough.
74
223052
3796
mit der wir, die an KI arbeiten, einfach nicht oft genug konfrontiert werden.
03:48
What is it that we are actually creating?
75
228099
2920
Was entwickeln wir da eigentlich?
03:51
What does it mean to make something totally new,
76
231895
3753
Was bedeutet es, etwas völlig Neues zu machen,
03:55
fundamentally different to any invention that we have known before?
77
235648
4255
grundlegend anders als jede bisherige Erfindung?
04:00
It is clear that we are at an inflection point
78
240695
2795
Es ist klar:
Wir stehen an einem Wendepunkt in der Geschichte der Menschheit.
04:03
in the history of humanity.
79
243490
1793
04:06
On our current trajectory,
80
246493
1918
Auf unserem aktuellen Weg
04:08
we're headed towards the emergence of something
81
248411
2211
entsteht gerade etwas,
04:10
that we are all struggling to describe,
82
250663
3170
das wir alle nur schwer beschreiben können.
04:13
and yet we cannot control what we don't understand.
83
253875
4630
Aber was wir nicht verstehen, können wir nicht steuern.
04:19
And so the metaphors,
84
259631
1585
Die Metaphern,
04:21
the mental models,
85
261216
1251
die geistigen Modelle,
04:22
the names, these all matter
86
262509
2585
die Namen,
all das ist wichtig, wenn wir das Beste aus KI herausholen
04:25
if we’re to get the most out of AI whilst limiting its potential downsides.
87
265094
4088
und gleichzeitig potenzielle Nachteile begrenzen wollen.
04:30
As someone who embraces the possibilities of this technology,
88
270391
3421
Als Menschen, die die Möglichkeiten dieser Technologie schätzen,
04:33
but who's also always cared deeply about its ethics,
89
273812
3670
denen aber auch ethische Aspekte am Herzen liegen,
04:37
we should, I think,
90
277524
1293
sollten wir ganz einfach beschreiben können,
04:38
be able to easily describe what it is we are building.
91
278817
3044
was wir da gerade entwickeln.
04:41
And that includes the six-year-olds.
92
281861
2002
Selbst einem Sechsjährigen.
04:44
So it's in that spirit that I offer up today the following metaphor
93
284239
4254
In diesem Sinne biete ich heute die folgende Metapher an,
04:48
for helping us to try to grapple with what this moment really is.
94
288535
3461
damit wir besser begreifen können, was gerade passiert.
04:52
I think AI should best be understood
95
292539
2627
Ich denke, KI sollte
04:55
as something like a new digital species.
96
295166
4254
als eine Art neue digitale Spezies verstanden werden.
05:00
Now, don't take this too literally,
97
300296
2253
Nehmen Sie das nicht zu wörtlich,
05:02
but I predict that we'll come to see them as digital companions,
98
302590
4630
aber ich sage voraus, dass wir sie als digitalen Begleiter betrachten werden.
05:07
new partners in the journeys of all our lives.
99
307220
3295
Als neuen Partner auf der Reise durch unser ganzes Leben.
05:10
Whether you think we’re on a 10-, 20- or 30-year path here,
100
310557
4087
Egal, ob Sie glauben, dass es hier um 10, 20 oder 30 Jahre geht.
05:14
this is, in my view, the most accurate and most fundamentally honest way
101
314686
5005
Das ist wohl die genaueste und ehrlichste Art zu beschreiben,
05:19
of describing what's actually coming.
102
319732
2378
was tatsächlich passiert.
05:22
And above all, it enables everybody to prepare for
103
322610
3963
Vor allem ermöglicht es jedem, sich darauf vorzubereiten
05:26
and shape what comes next.
104
326614
2711
und mitzugestalten, wie es weitergeht.
05:29
Now I totally get, this is a strong claim,
105
329868
2002
Das ist eine starke Behauptung,
05:31
and I'm going to explain to everyone as best I can why I'm making it.
106
331911
3837
und ich werde so gut ich kann erklären, warum ich sie aufstelle.
05:36
But first, let me just try to set the context.
107
336291
2961
Zuerst möchte ich den Kontext darstellen.
05:39
From the very first microscopic organisms,
108
339252
2753
Von den allerersten winzigen Organismen an
05:42
life on Earth stretches back billions of years.
109
342046
3462
reicht das Leben auf der Erde Jahrmilliarden zurück.
05:45
Over that time, life evolved and diversified.
110
345508
4213
In dieser Zeit hat es sich weiterentwickelt und differenziert.
05:49
Then a few million years ago, something began to shift.
111
349762
3796
Dann, vor ein paar Millionen Jahren, veränderte sich etwas.
05:54
After countless cycles of growth and adaptation,
112
354183
3629
Nach unzähligen Zyklen von Wachstum und Anpassung
05:57
one of life’s branches began using tools, and that branch grew into us.
113
357812
6256
begann einer der Zweige des Lebens, Werkzeuge zu benutzen,
und aus diesem Zweig entstanden wir.
06:04
We went on to produce a mesmerizing variety of tools,
114
364777
4130
Wir entwickelten eine faszinierende Vielfalt von Werkzeugen,
06:08
at first slowly and then with astonishing speed,
115
368907
3670
erst langsam und dann unglaublich schnell.
06:12
we went from stone axes and fire
116
372577
3670
Von Steinäxten und Feuer
06:16
to language, writing and eventually industrial technologies.
117
376247
5005
zu Sprache, Schrift und schließlich industriellen Technologien.
06:21
One invention unleashed a thousand more.
118
381878
2919
Jede Erfindung führte zu tausend weiteren.
06:25
And in time, we became homo technologicus.
119
385173
3712
Mit der Zeit wurden wir zum Homo technologicus.
06:29
Around 80 years ago,
120
389594
1209
Vor rund 80 Jahren begann ein weiterer neuer Technologiezweig.
06:30
another new branch of technology began.
121
390803
2545
06:33
With the invention of computers,
122
393973
1710
Mit Erfindung des Computers
06:35
we quickly jumped from the first mainframes and transistors
123
395725
3295
gingen wir rasch von den ersten Großrechnern und Transistoren
06:39
to today's smartphones and virtual-reality headsets.
124
399062
3461
zu den heutigen Smartphones und Virtual-Reality-Headsets über.
06:42
Information, knowledge, communication, computation.
125
402565
4421
Information, Wissen, Kommunikation, Berechnung.
06:47
In this revolution,
126
407570
1418
In dieser Revolution
06:49
creation has exploded like never before.
127
409030
3295
verlief die Entwicklung explosionsartig wie nie zuvor.
06:53
And now a new wave is upon us.
128
413242
2503
Jetzt rollt eine neue Welle auf uns zu:
06:55
Artificial intelligence.
129
415787
1668
künstliche Intelligenz.
06:57
These waves of history are clearly speeding up,
130
417872
2544
Diese Wellen der Geschichte werden immer schneller,
07:00
as each one is amplified and accelerated by the last.
131
420458
4338
jede wird durch die vorige verstärkt und beschleunigt.
Wenn man zurückblickt,
07:05
And if you look back,
132
425088
1167
07:06
it's clear that we are in the fastest
133
426297
2002
befinden wir uns offenbar
auf der schnellsten und folgenreichsten Welle aller Zeiten.
07:08
and most consequential wave ever.
134
428299
2586
07:11
The journeys of humanity and technology are now deeply intertwined.
135
431844
4630
Die Wege von Menschheit und Technologie sind heute eng miteinander verwoben.
07:16
In just 18 months,
136
436516
1543
In nur 18 Monaten haben über eine Milliarde Menschen
07:18
over a billion people have used large language models.
137
438059
3170
große Sprachmodelle genutzt.
07:21
We've witnessed one landmark event after another.
138
441729
3545
Wir erleben ein wegweisendes Ereignis nach dem anderen.
07:25
Just a few years ago, people said that AI would never be creative.
139
445650
3462
Noch vor ein paar Jahren meinte man, KI würde nie kreativ sein.
07:30
And yet AI now feels like an endless river of creativity,
140
450113
4045
Dennoch erscheint KI heute wie ein endloser Fluss der Kreativität,
07:34
making poetry and images and music and video that stretch the imagination.
141
454200
4671
der Poesie, Bilder, Musik und Videos erzeugt und so die Fantasie anregt.
07:39
People said it would never be empathetic.
142
459664
2252
Es hieß, KI werde nie empathisch sein.
07:42
And yet today, millions of people enjoy meaningful conversations with AIs,
143
462417
5297
Und doch führen heute Millionen Menschen sinnvolle Gespräche mit ihr
07:47
talking about their hopes and dreams
144
467755
2002
über Hoffnungen und Träume
07:49
and helping them work through difficult emotional challenges.
145
469757
3087
und zur Bewältigung von heiklen emotionalen Herausforderungen.
07:53
AIs can now drive cars,
146
473177
2294
KI kann Autos steuern,
07:55
manage energy grids
147
475513
1543
Energienetze verwalten
07:57
and even invent new molecules.
148
477056
2252
und sogar neue Moleküle erfinden.
07:59
Just a few years ago, each of these was impossible.
149
479308
3713
Noch vor ein paar Jahren war das alles unmöglich.
08:03
And all of this is turbocharged by spiraling exponentials of data
150
483771
5506
All das wird noch beschleunigt
durch exponentiell ansteigende Daten- und Berechnungsmengen.
08:09
and computation.
151
489277
1626
08:10
Last year, Inflection 2.5, our last model,
152
490945
5297
Letztes Jahr benötigte unser neuestes Modell, Inflection 2.5,
08:16
used five billion times more computation
153
496242
4129
fünf Milliarden Mal mehr Rechenleistung als die DeepMind-KI,
08:20
than the DeepMind AI that beat the old-school Atari games
154
500371
3629
die vor etwas mehr als zehn Jahren
die Atari-Spiele der alten Schule schlug.
08:24
just over 10 years ago.
155
504042
1668
08:26
That's nine orders of magnitude more computation.
156
506085
3420
Das heißt neun Größenordnungen mehr Rechenleistung.
08:30
10x per year,
157
510089
1627
10x pro Jahr,
08:31
every year for almost a decade.
158
511716
3253
jedes Jahr, seit fast einem Jahrzehnt.
08:34
Over the same time, the size of these models has grown
159
514969
2544
Im gleichen Zeitraum wuchs die Größe dieser Modelle
08:37
from first tens of millions of parameters to then billions of parameters,
160
517555
4213
von zunächst zig Millionen Parametern auf Milliarden Parameter
08:41
and very soon, tens of trillions of parameters.
161
521809
3504
und sehr bald auf Dutzende Billionen Parameter.
08:45
If someone did nothing but read 24 hours a day for their entire life,
162
525313
4755
Wenn jemand sein ganzes Leben lang 24 Stunden am Tag lesen würde,
08:50
they'd consume eight billion words.
163
530109
3337
würde er acht Milliarden Wörter lesen.
08:53
And of course, that's a lot of words.
164
533488
1835
Das ist natürlich eine Menge.
08:55
But today, the most advanced AIs consume more than eight trillion words
165
535364
5756
Aber heute nehmen die fortschrittlichsten KIs
in einem einzigen Trainingsmonat über acht Billionen Wörter auf.
09:01
in a single month of training.
166
541120
2336
09:03
And all of this is set to continue.
167
543873
1960
Und all das geht noch weiter.
09:05
The long arc of technological history is now in an extraordinary new phase.
168
545875
5797
Die lange Geschichte der Technologie
befindet sich in einer außergewöhnlichen neuen Phase.
09:12
So what does this mean in practice?
169
552256
2503
Was bedeutet das in der Praxis?
09:15
Well, just as the internet gave us the browser
170
555426
2920
So wie uns das Internet den Browser
09:18
and the smartphone gave us apps,
171
558346
2502
und das Smartphone die Apps gab,
09:20
the cloud-based supercomputer is ushering in a new era
172
560890
4004
läutet der cloudbasierte Supercomputer eine neue Ära allgegenwärtiger KIs ein.
09:24
of ubiquitous AIs.
173
564936
2502
09:27
Everything will soon be represented by a conversational interface.
174
567438
4588
Bald wird alles durch eine Konversationsschnittstelle repräsentiert.
Oder, anders ausgedrückt, durch eine persönliche KI.
09:32
Or, to put it another way, a personal AI.
175
572026
3003
09:35
And these AIs will be infinitely knowledgeable,
176
575780
2336
Diese KIs haben unendlich viel Wissen
09:38
and soon they'll be factually accurate and reliable.
177
578157
3879
und werden bald sachlich genau und zuverlässig sein.
09:42
They'll have near-perfect IQ.
178
582036
1794
Sie haben einen nahezu perfekten IQ,
09:44
They’ll also have exceptional EQ.
179
584914
2377
dazu einen außergewöhnlichen EQ.
09:47
They’ll be kind, supportive, empathetic.
180
587291
4129
Sie sind freundlich, hilfsbereit und einfühlsam.
09:53
These elements on their own would be transformational.
181
593089
2836
Allein diese Elemente wären transformativ.
09:55
Just imagine if everybody had a personalized tutor in their pocket
182
595925
3795
Stellen Sie sich vor, jeder hätte seinen eigenen Tutor in der Tasche
09:59
and access to low-cost medical advice.
183
599720
3003
und Zugang zu kostengünstiger medizinischer Beratung.
10:02
A lawyer and a doctor,
184
602723
1544
Zu Anwälten und Ärzten,
10:04
a business strategist and coach --
185
604267
1960
Unternehmensstrategen und Coaches.
10:06
all in your pocket 24 hours a day.
186
606269
2252
All das 24 Stunden pro Tag in der Tasche.
10:08
But things really start to change when they develop what I call AQ,
187
608980
4713
Aber alles wird noch ganz anders,
wenn das entwickelt wird, was ich HQ nenne:
10:13
their “actions quotient.”
188
613693
1668
den „Handlungsquotienten“ –
10:15
This is their ability to actually get stuff done
189
615695
2794
die Fähigkeit, in der digitalen und physischen Welt
10:18
in the digital and physical world.
190
618531
2294
tatsächlich etwas zu erreichen.
10:20
And before long, it won't just be people that have AIs.
191
620867
3420
Schon bald werden nicht nur Menschen über KIs verfügen.
10:24
Strange as it may sound, every organization,
192
624328
2962
Seltsamerweise wird jede Einrichung –
Kleinunternehmen, gemeinnützige Organisationen, nationale Regierungen –
10:27
from small business to nonprofit to national government,
193
627290
3253
10:30
each will have their own.
194
630585
1710
ihre eigene KI haben.
10:32
Every town, building and object
195
632795
2711
Jede Stadt, jedes Gebäude und jedes Objekt
10:35
will be represented by a unique interactive persona.
196
635506
3754
wird durch eine einzigartige interaktive Persona repräsentiert.
10:39
And these won't just be mechanistic assistants.
197
639302
2544
Das sind nicht nur mechanische Assistenten,
10:42
They'll be companions, confidants,
198
642221
3754
sondern Weggefährten, Vertraute,
10:46
colleagues, friends and partners,
199
646017
2669
Kollegen, Freunde und Partner,
10:48
as varied and unique as we all are.
200
648728
2627
so vielfältig und einzigartig wie wir alle.
An diesem Punkt können KIs den Menschen
10:52
At this point, AIs will convincingly imitate humans at most tasks.
201
652273
4630
bei den meisten Aufgaben überzeugend nachahmen.
10:57
And we'll feel this at the most intimate of scales.
202
657737
2794
Wir werden das auf der intimsten Ebene spüren.
11:00
An AI organizing a community get-together for an elderly neighbor.
203
660990
3587
Eine KI organisiert ein Treffen für einen älteren Nachbarn.
11:04
A sympathetic expert helping you make sense of a difficult diagnosis.
204
664619
4588
Ein mitfühlender Experte erklärt eine schwierige Diagnose.
11:09
But we'll also feel it at the largest scales.
205
669248
2753
Aber wir spüren es auch in den höchsten Dimensionen.
11:12
Accelerating scientific discovery,
206
672043
2586
Schnellere wissenschaftliche Erkenntnisse,
11:14
autonomous cars on the roads,
207
674629
2168
autonome Autos auf den Straßen,
11:16
drones in the skies.
208
676797
1627
Drohnen am Himmel.
11:18
They'll both order the takeout and run the power station.
209
678966
3337
Sie werden Essen zum Mitnehmen bestellen und Kraftwerke betreiben.
11:22
They’ll interact with us and, of course, with each other.
210
682970
3337
Sie werden mit uns interagieren und natürlich auch miteinander.
11:26
They'll speak every language,
211
686349
1918
Sie werden alle Sprachen sprechen,
11:28
take in every pattern of sensor data,
212
688267
2836
jedes Muster an Sensordaten,
Anblicke, Geräusche
11:31
sights, sounds,
213
691145
2336
11:33
streams and streams of information,
214
693481
2377
und gewaltige Informationsströme aufnehmen,
11:35
far surpassing what any one of us could consume in a thousand lifetimes.
215
695900
4379
weit mehr als das, was jeder von uns in tausend Leben aufnehmen könnte.
11:40
So what is this?
216
700780
1293
Was ist das also?
11:42
What are these AIs?
217
702990
2086
Was sind diese KIs?
11:46
If we are to prioritize safety above all else,
218
706410
4588
Wenn wir Sicherheit über alles andere stellen wollen,
um zu garantieren, dass diese neue Welle immer der Menschheit dient,
11:51
to ensure that this new wave always serves and amplifies humanity,
219
711040
5088
11:56
then we need to find the right metaphors for what this might become.
220
716128
4922
dann müssen wir die richtigen Metaphern dafür finden, was daraus werden könnte.
12:01
For years, we in the AI community, and I specifically,
221
721842
4296
Seit Jahren tendieren wir und speziell ich in der KI-Community dazu,
12:06
have had a tendency to refer to this as just tools.
222
726180
3587
sie nur als Werkzeuge zu bezeichnen.
Aber das trifft nicht wirklich, was hier passiert.
12:11
But that doesn't really capture what's actually happening here.
223
731060
3003
12:14
AIs are clearly more dynamic,
224
734730
2503
KIs sind eindeutig dynamischer,
12:17
more ambiguous, more integrated
225
737233
2753
mehrdeutiger, integrierter
12:19
and more emergent than mere tools,
226
739986
2627
und aufstrebender als bloße Werkzeuge,
12:22
which are entirely subject to human control.
227
742613
2878
die völlig der menschlichen Kontrolle unterliegen.
12:25
So to contain this wave,
228
745533
2544
Um diese Welle zu kontrollieren,
menschliche Handlungsfähigkeit in den Mittelpunkt zu stellen
12:28
to put human agency at its center
229
748119
3044
und die unvermeidlichen unbeabsichtigten Folgen abzumildern,
12:31
and to mitigate the inevitable unintended consequences
230
751163
2711
12:33
that are likely to arise,
231
753916
1835
die sich wahrscheinlich ergeben,
12:35
we should start to think about them as we might a new kind of digital species.
232
755793
5005
sollten wir sie als eine Art neue, digitale Spezies behandeln.
12:41
Now it's just an analogy,
233
761132
1793
Das ist nur eine Analogie,
12:42
it's not a literal description, and it's not perfect.
234
762925
2586
es ist keine wörtliche Beschreibung und nicht perfekt.
Zunächst einmal sind KIs nicht biologisch im herkömmlichen Sinne,
12:46
For a start, they clearly aren't biological in any traditional sense,
235
766053
4046
12:50
but just pause for a moment
236
770141
2377
aber halten Sie einfach kurz inne
12:52
and really think about what they already do.
237
772560
2836
und überlegen, was sie bereits können.
12:55
They communicate in our languages.
238
775438
2627
Sie kommunizieren in unseren Sprachen.
Sie sehen, was wir sehen.
12:58
They see what we see.
239
778107
2127
13:00
They consume unimaginably large amounts of information.
240
780234
3587
Sie konsumieren unvorstellbare Mengen an Informationen.
13:04
They have memory.
241
784739
1376
Sie haben ein Gedächtnis.
13:06
They have personality.
242
786991
1752
Sie haben eine Persönlichkeit.
13:09
They have creativity.
243
789493
1710
Sie sind kreativ.
Sie können sogar bis zu einem gewissen Grad denken
13:12
They can even reason to some extent and formulate rudimentary plans.
244
792038
3962
und rudimentäre Pläne schmieden.
13:16
They can act autonomously if we allow them.
245
796709
3128
Sie können autonom handeln, wenn wir sie lassen.
13:20
And they do all this at levels of sophistication
246
800546
2294
All das tun sie mit einer Raffinesse,
13:22
that is far beyond anything that we've ever known from a mere tool.
247
802882
3587
die weit über alles hinausgeht, was wir von Werkzeugen kennen.
13:27
And so saying AI is mainly about the math or the code
248
807762
4296
Zu sagen, KI sei hauptsächlich Mathematik oder Code,
ist, als würde man sagen,
13:32
is like saying we humans are mainly about carbon and water.
249
812099
4838
dass wir Menschen hauptsächlich Kohlenstoff und Wasser sind.
13:37
It's true, but it completely misses the point.
250
817897
3795
Es stimmt, geht aber völlig am Kern vorbei.
13:42
And yes, I get it, this is a super arresting thought
251
822860
3629
Das ist ein äußerst fesselnder Gedanke,
13:46
but I honestly think this frame helps sharpen our focus on the critical issues.
252
826489
5171
aber ich glaube, dieser Rahmen trägt dazu bei,
unseren Blick für die entscheidenden Themen zu schärfen.
13:52
What are the risks?
253
832745
1585
Was sind die Risiken?
13:55
What are the boundaries that we need to impose?
254
835790
2752
Welche Grenzen müssen wir ziehen?
13:59
What kind of AI do we want to build or allow to be built?
255
839293
4338
Welche Art von KI wollen wir bauen oder zulassen?
14:04
This is a story that's still unfolding.
256
844465
2377
Das alles steckt noch in der Entwicklung.
14:06
Nothing should be accepted as a given.
257
846884
2544
Nichts sollte als gegeben akzeptiert werden.
14:09
We all must choose what we create.
258
849428
2544
Wir alle müssen wählen, was wir erschaffen.
14:12
What AIs we bring into the world, or not.
259
852681
3921
Welche KIs wir in die Welt bringen oder eben nicht.
14:18
These are the questions for all of us here today,
260
858604
2836
Das sind Fragen, die uns alle heute hier betreffen.
14:21
and all of us alive at this moment.
261
861440
2586
Und alle Menschen, die gerade leben.
14:24
For me, the benefits of this technology are stunningly obvious,
262
864693
4296
Für mich liegen die Vorteile dieser Technologie auf der Hand
14:28
and they inspire my life's work every single day.
263
868989
3546
und sie inspirieren mein Lebenswerk jeden Tag aufs Neue.
14:33
But quite frankly, they'll speak for themselves.
264
873661
3086
Aber sie werden sicher für sich selbst sprechen.
14:37
Over the years, I've never shied away from highlighting risks
265
877706
2920
Ich habe mich nie gescheut, Risiken hervorzuheben
14:40
and talking about downsides.
266
880668
1710
und über Nachteile zu sprechen.
Diese Denkweise hilft,
14:43
Thinking in this way helps us focus on the huge challenges
267
883087
3211
uns auf die großen Herausforderungen zu konzentrieren.
14:46
that lie ahead for all of us.
268
886298
1836
14:48
But let's be clear.
269
888843
1418
Klar ist aber:
14:50
There is no path to progress
270
890719
2128
Es gibt keinen Weg zum Fortschritt
14:52
where we leave technology behind.
271
892888
2169
ohne Technologie.
14:55
The prize for all of civilization is immense.
272
895683
3795
Der Gewinn für die gesamte Zivilisation ist immens.
Wir brauchen Lösungen im Gesundheits- und Bildungswesen, für die Klimakrise.
15:00
We need solutions in health care and education, to our climate crisis.
273
900062
3879
15:03
And if AI delivers just a fraction of its potential,
274
903941
3921
Wenn KI nur einen Bruchteil ihres Potenzials ausschöpft,
15:07
the next decade is going to be the most productive in human history.
275
907903
4421
wird das nächste Jahrzehnt
das produktivste in der Menschheitsgeschichte.
15:13
Here's another way to think about it.
276
913701
2002
Oder, anders betrachtet:
15:15
In the past,
277
915744
1293
Früher war die Förderung des Wirtschaftswachstums
15:17
unlocking economic growth often came with huge downsides.
278
917037
4088
oft mit enormen Nachteilen verbunden.
15:21
The economy expanded as people discovered new continents
279
921500
3712
Die Wirtschaft expandierte mit der Entdeckung neuer Kontinente
15:25
and opened up new frontiers.
280
925254
2002
und öffnete neue Grenzen.
15:28
But they colonized populations at the same time.
281
928632
3045
Aber gleichzeitig wurden Völker kolonialisiert.
15:32
We built factories,
282
932595
1710
Wir bauten Fabriken,
15:34
but they were grim and dangerous places to work.
283
934305
3044
aber es waren düstere und gefährliche Arbeitsorte.
Wir stießen auf Öl,
15:38
We struck oil,
284
938017
1918
15:39
but we polluted the planet.
285
939977
1627
aber wir verschmutzten den Planeten.
15:42
Now because we are still designing and building AI,
286
942146
3170
Jetzt, da wir KI entwerfen und entwickeln,
15:45
we have the potential and opportunity to do it better,
287
945316
3795
haben wir die Gelegenheit, es besser zu machen,
15:49
radically better.
288
949153
1335
wesentlich besser.
15:51
And today, we're not discovering a new continent
289
951071
2628
Heute entdecken wir keinen neuen Kontinent
15:53
and plundering its resources.
290
953741
1918
und plündern seine Ressourcen.
15:56
We're building one from scratch.
291
956285
1919
Wir bauen einen von Grund auf neuen.
15:58
Sometimes people say that data or chips are the 21st century’s new oil,
292
958662
5297
Manche sagen, dass Daten oder Chips das Erdöl des 21. Jahrhunderts sind,
16:03
but that's totally the wrong image.
293
963959
2002
aber das ist ein völlig falsches Bild.
16:06
AI is to the mind
294
966587
1919
KI ist für den Verstand,
16:08
what nuclear fusion is to energy.
295
968547
2753
was Kernfusion für Energie ist:
16:12
Limitless, abundant,
296
972259
2670
Grenzenlos, reichlich vorhanden,
16:14
world-changing.
297
974970
1544
weltverändernd.
16:17
And AI really is different,
298
977389
2962
KI ist wirklich anders.
16:20
and that means we have to think about it creatively and honestly.
299
980392
4213
Das bedeutet, dass wir kreativ und ehrlich darüber nachdenken müssen.
16:24
We have to push our analogies and our metaphors
300
984647
2586
Wir müssen unsere Analogien und Metaphern bis an die Grenzen treiben,
16:27
to the very limits
301
987274
1752
um mit dem, was kommt, umgehen zu können.
16:29
to be able to grapple with what's coming.
302
989068
2252
16:31
Because this is not just another invention.
303
991362
2878
Denn es ist nicht einfach eine weitere Erfindung.
16:34
AI is itself an infinite inventor.
304
994907
3503
KI selbst ist ein undendlicher Erfinder.
16:38
And yes, this is exciting and promising and concerning
305
998869
3295
Das ist aufregend, vielversprechend, besorgniserregend
16:42
and intriguing all at once.
306
1002164
2044
und faszinierend zugleich.
Ehrlich gesagt, es ist ziemlich surreal.
16:45
To be quite honest, it's pretty surreal.
307
1005251
2585
16:47
But step back,
308
1007836
1293
Aber wenn man einen Schritt zurücktritt
16:49
see it on the long view of glacial time,
309
1009171
3462
und das Ganze langfristig seit der Eiszeit betrachtet,
16:52
and these really are the very most appropriate metaphors that we have today.
310
1012633
4796
sind das wirklich die treffendsten Metaphern, die wir haben.
16:57
Since the beginning of life on Earth,
311
1017471
3003
Seit Beginn des Lebens auf der Erde
17:00
we've been evolving, changing
312
1020516
2961
haben wir uns weiterentwickelt, verändert
17:03
and then creating everything around us in our human world today.
313
1023477
4171
und alles geschaffen, was uns in der heutigen Welt umgibt.
17:08
And AI isn't something outside of this story.
314
1028232
3003
KI findet nicht außerhalb dieser Geschichte statt.
17:11
In fact, it's the very opposite.
315
1031569
2961
Ganz im Gegenteil.
17:15
It's the whole of everything that we have created,
316
1035197
3170
Sie ist die Gesamtheit von allem, was wir geschaffen haben,
17:18
distilled down into something that we can all interact with
317
1038367
3545
zusammengefasst zu etwas, womit wir alle interagieren
17:21
and benefit from.
318
1041912
1377
und wovon wir profitieren können.
17:23
It's a reflection of humanity across time,
319
1043872
3504
Es ist ein Spiegelbild der Menschheit im Laufe der Zeit.
17:27
and in this sense,
320
1047418
1251
So gesehen ist es gar keine neue Spezies.
17:28
it isn't a new species at all.
321
1048711
1918
17:31
This is where the metaphors end.
322
1051213
1960
Hier enden die Metaphern.
17:33
Here's what I'll tell Caspian next time he asks.
323
1053591
2502
Wenn Caspian mich das nächste Mal fragt, sage ich:
KI existiert nicht separat.
17:37
AI isn't separate.
324
1057219
1460
17:39
AI isn't even in some senses, new.
325
1059388
3295
KI ist in gewisser Weise nicht einmal neu.
17:43
AI is us.
326
1063517
1126
KI sind wir.
17:45
It's all of us.
327
1065394
1210
Wir alle.
Das ist vielleicht das Vielversprechendste und Wichtigste überhaupt,
17:47
And this is perhaps the most promising and vital thing of all
328
1067062
3754
17:50
that even a six-year-old can get a sense for.
329
1070858
2669
wofür selbst ein Sechsjähriger ein Gefühl bekommen kann.
17:54
As we build out AI,
330
1074528
1376
Bei der Entwicklung der KI
17:55
we can and must reflect all that is good,
331
1075946
3545
können und müssen wir all das spiegeln, was gut ist,
17:59
all that we love,
332
1079533
1126
alles, was wir lieben,
18:00
all that is special about humanity:
333
1080701
2753
alles, was besonders an der Menschheit ist:
18:03
our empathy, our kindness,
334
1083495
2169
Einfühlungsvermögen, Freundlichkeit,
18:05
our curiosity and our creativity.
335
1085664
2169
Neugier und Kreativität.
18:09
This, I would argue, is the greatest challenge of the 21st century,
336
1089251
5130
Ich glaube,
das ist die größte Herausforderung des 21. Jahrhunderts,
18:14
but also the most wonderful,
337
1094381
2211
aber auch die wunderbarste,
18:16
inspiring and hopeful opportunity for all of us.
338
1096592
3336
inspirierendste und hoffnungsvollste Chance für uns alle.
18:20
Thank you.
339
1100429
1168
Danke.
18:21
(Applause)
340
1101639
4879
(Applaus)
18:26
Chris Anderson: Thank you Mustafa.
341
1106560
1668
Chris Anderson: Danke, Mustafa.
18:28
It's an amazing vision and a super powerful metaphor.
342
1108270
3796
Es ist eine unglaubliche Vision und eine superstarke Metapher.
Du bist gerade in einer tollen Position.
18:32
You're in an amazing position right now.
343
1112066
1960
18:34
I mean, you were connected at the hip
344
1114026
1793
Du warst von Anfang an in die Arbeit involviert,
18:35
to the amazing work happening at OpenAI.
345
1115819
2795
die bei OpenAI passiert.
18:38
You’re going to have resources made available,
346
1118614
2169
Dir werden Ressourcen zur Verfügung gestellt,
18:40
there are reports of these giant new data centers,
347
1120824
4046
es gibt Berichte über diese riesigen neuen Rechenzentren,
18:44
100 billion dollars invested and so forth.
348
1124870
2461
100 Milliarden Dollar Investitionen und so weiter.
Daraus kann eine neue Spezies hervorgehen.
18:48
And a new species can emerge from it.
349
1128082
3837
18:52
I mean, in your book,
350
1132294
1502
In deinem Buch zeichnest du nicht nur eine unglaublich optimistische Vision,
18:53
you did, as well as painting an incredible optimistic vision,
351
1133837
2878
18:56
you were super eloquent on the dangers of AI.
352
1136757
3629
sondern sprichst auch sehr eloquent über die Gefahren der KI.
19:00
And I'm just curious, from the view that you have now,
353
1140427
3963
Und ich frage mich, aus deiner jetzigen Sicht:
19:04
what is it that most keeps you up at night?
354
1144431
2336
Was hält dich nachts vor allem wach?
19:06
Mustafa Suleyman: I think the great risk is that we get stuck
355
1146809
2878
Mustafa Suleyman: Das große Risiko
19:09
in what I call the pessimism aversion trap.
356
1149728
2086
ist die Pessimismus-Abneigungsfalle.
19:11
You know, we have to have the courage to confront
357
1151855
2586
Wir müssen den Mut haben, uns potenziell düsteren Szenarien zu stellen,
19:14
the potential of dark scenarios
358
1154483
1960
19:16
in order to get the most out of all the benefits that we see.
359
1156443
3128
um das Beste aus all den Vorteilen herauszuholen.
19:19
So the good news is that if you look at the last two or three years,
360
1159613
3712
Zum Glück hat es in den letzten zwei, drei Jahren
19:23
there have been very, very few downsides, right?
361
1163325
2961
sehr wenige Nachteile gegeben, oder?
19:26
It’s very hard to say explicitly what harm an LLM has caused.
362
1166328
4922
Es ist sehr schwer, explizit zu sagen, welchen Schaden ein LLM angerichtet hat.
Das heißt aber nicht, dass das in den nächsten zehn Jahren so bleibt.
19:31
But that doesn’t mean that that’s what the trajectory is going to be
363
1171291
3212
19:34
over the next 10 years.
364
1174503
1168
19:35
So I think if you pay attention to a few specific capabilities,
365
1175671
3462
Ich denke also, man sollte auf einige spezifische Fähigkeiten achten,
19:39
take for example, autonomy.
366
1179174
1835
etwa Autonomie.
Autonomie ist offenbar eine Schwelle,
19:41
Autonomy is very obviously a threshold
367
1181009
2336
die zu überschreiten das Risiko für die Gesellschaft erhöht.
19:43
over which we increase risk in our society.
368
1183387
2794
19:46
And it's something that we should step towards very, very closely.
369
1186223
3128
Da sollten wir ganz genau hinschauen.
19:49
The other would be something like recursive self-improvement.
370
1189393
3420
Das andere wäre so etwas wie rekursive Selbstverbesserung.
19:52
If you allow the model to independently self-improve,
371
1192813
3629
Würde man dem Modell erlauben, sich selbstständig zu verbessern,
19:56
update its own code,
372
1196483
1460
seinen Code zu aktualisieren,
19:57
explore an environment without oversight, and, you know,
373
1197985
3295
eine Umgebung ohne Aufsicht zu erkunden –
ohne Kontrolle eines Menschen, der einen Kurswechsel vornimmt –,
20:01
without a human in control to change how it operates,
374
1201321
3295
20:04
that would obviously be more dangerous.
375
1204616
1919
wäre das natürlich gefährlicher.
20:06
But I think that we're still some way away from that.
376
1206535
2544
Aber davon sind wir wohl noch weit entfernt.
Das dauert noch fünf bis zehn Jahre.
20:09
I think it's still a good five to 10 years before we have to really confront that.
377
1209079
3879
Doch wir sollten jetzt schon darüber sprechen.
20:12
But it's time to start talking about it now.
378
1212958
2085
CA: Eine digitale Spezies kann sich im Gegensatz zu jeder biologischen
20:15
CA: A digital species, unlike any biological species,
379
1215043
2545
20:17
can replicate not in nine months,
380
1217588
2002
nicht in neun Monaten,
20:19
but in nine nanoseconds,
381
1219631
1669
sondern in Nanosekunden replizieren
20:21
and produce an indefinite number of copies of itself,
382
1221341
3421
und eine unbestimmte Anzahl Kopien ihrer selbst produzieren,
20:24
all of which have more power than we have in many ways.
383
1224803
3796
die in vielerlei Hinsicht mehr Macht hat als wir.
20:28
I mean, the possibility for unintended consequences seems pretty immense.
384
1228599
4838
Die Möglichkeit unbeabsichtigter Folgen scheint ziemlich groß.
20:33
And isn't it true that if a problem happens,
385
1233479
2168
Ist es wahr, dass ein Problem
20:35
it could happen in an hour?
386
1235689
1919
in einer Stunde auftreten kann?
20:37
MS: No.
387
1237649
1335
MS: Nein.
20:38
That is really not true.
388
1238984
1752
Das stimmt wirklich nicht.
20:40
I think there's no evidence to suggest that.
389
1240778
2085
Ich denke, es gibt dafür keine Beweise.
20:42
And I think that, you know,
390
1242863
1585
Es wird oft als „Intelligenzexplosion“ bezeichnet.
20:44
that’s often referred to as the “intelligence explosion.”
391
1244490
2836
Ich denke, es ist ein theoretisches, hypothetisches “Vielleicht”,
20:47
And I think it is a theoretical, hypothetical maybe
392
1247367
3712
das wir alle gern erforschen würden,
20:51
that we're all kind of curious to explore,
393
1251079
2420
aber es gibt keine Beweise, dass wir auch nur annähernd so weit sind.
20:53
but there's no evidence that we're anywhere near anything like that.
394
1253540
3212
20:56
And I think it's very important that we choose our words super carefully.
395
1256752
3462
Wir müssen unsere Worte sehr sorgfältig wählen.
Du hast Recht, das ist eine Schwäche der Spezies-Bezeichnung,
21:00
Because you're right, that's one of the weaknesses of the species framing,
396
1260255
3546
21:03
that we will design the capability for self-replication into it
397
1263801
4337
dass wir die Fähigkeit zur Selbstreplikation hineinkonstruieren,
wenn Menschen sich dafür entscheiden.
21:08
if people choose to do that.
398
1268180
1668
21:09
And I would actually argue that we should not,
399
1269890
2169
Wir sollten das wohl nicht tun.
Das wäre eine gefährliche Fähigkeit,
21:12
that would be one of the dangerous capabilities
400
1272059
2210
von der wir Abstand nehmen sollten.
21:14
that we should step back from, right?
401
1274269
1835
Es besteht also keine Gefahr, dass das versehentlich „auftaucht“.
21:16
So there's no chance that this will "emerge" accidentally.
402
1276104
3796
21:19
I really think that's a very low probability.
403
1279942
2502
Ich denke, das ist wirklich sehr unwahrscheinlich.
21:22
It will happen if engineers deliberately design those capabilities in.
404
1282486
4338
Es wird passieren, wenn Ingenieure diese Funktionen bewusst einbauen.
21:26
And if they don't take enough efforts to deliberately design them out.
405
1286865
3295
Wenn sie sich nicht genug Mühe geben, sie bewusst auszuschließen.
21:30
And so this is the point of being explicit
406
1290160
2294
Genau darum geht es:
21:32
and transparent about trying to introduce safety by design very early on.
407
1292454
5672
explizit und transparent zu versuchen, schon früh „safety by design“ einzuführen.
21:39
CA: Thank you, your vision of humanity injecting into this new thing
408
1299044
5964
CA: Danke. Deine Vision, dass wir Menschen in diese neue Sache
die besten Teile von uns selbst einbringen
21:45
the best parts of ourselves,
409
1305008
1877
21:46
avoiding all those weird, biological, freaky,
410
1306927
2920
und all diese seltsamen, biologischen, verrückten,
21:49
horrible tendencies that we can have in certain circumstances,
411
1309888
2920
schrecklichen Tendenzen vermeiden, die wir bisweilen haben –
21:52
I mean, that is a very inspiring vision.
412
1312808
2127
das ist eine sehr inspirierende Vision.
21:54
And thank you so much for coming here and sharing it at TED.
413
1314977
3336
Vielen Dank, dass du das hier bei TED vorgestellt hast.
21:58
Thank you, good luck.
414
1318355
1210
Danke, viel Glück.
21:59
(Applause)
415
1319565
1876
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7