How to Keep AI Under Control | Max Tegmark | TED

168,006 views ・ 2023-11-02

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Anonymous Translator Lektorat: Cornelia Schlesinger
00:03
Five years ago,
0
3833
2461
Vor fünf Jahren stand ich hier auf der TED-Bühne
00:06
I stood on the TED stage
1
6294
1752
00:08
and warned about the dangers of superintelligence.
2
8046
4379
und warnte vor den Gefahren der Superintelligenz.
00:13
I was wrong.
3
13051
1710
Aber damals lag ich falsch.
Es kam noch schlimmer, als ich seinerzeit dachte.
00:16
It went even worse than I thought.
4
16513
1752
00:18
(Laughter)
5
18306
1752
(Lachen)
00:20
I never thought governments would let AI companies get this far
6
20058
4379
Ich hätte nie gedacht, dass Regierungen die KI-Firmen so weit gehen lassen würden,
00:24
without any meaningful regulation.
7
24479
2294
ohne jede nennenswerte Regulierung.
00:27
And the progress of AI went even faster than I predicted.
8
27732
4880
Die KI hat noch größere Fortschritte gemacht, als ich vorausgesagt hatte.
00:32
Look, I showed this abstract landscape of tasks
9
32654
3587
Damals zeigte ich diese Landschaft, wo die Höhe darstellte,
00:36
where the elevation represented how hard it was for AI
10
36241
3128
wie schwierig es für KI sein würde, diese verschiedenen Aufgaben
00:39
to do each task at human level.
11
39369
1919
auf menschlichem Niveau zu erledigen.
00:41
And the sea level represented what AI could be back then.
12
41288
3753
Der Meeresspiegel repräsentierte das, was KI damals schon konnte.
00:45
And boy or boy, has the sea been rising fast ever since.
13
45875
2962
Wie schnell der Meeresspiegel seitdem gestiegen ist!
00:48
But a lot of these tasks have already gone blub blub blub blub blub blub.
14
48878
3587
Viele dieser Aufgaben stehen jetzt schon unter Wasser.
00:52
And the water is on track to submerge all land,
15
52882
3921
Bald wird das Wasser das ganze Land überschwemmt haben,
00:56
matching human intelligence at all cognitive tasks.
16
56803
3420
und der menschlichen Intelligenz bei allen Aufgaben ebenbürtig sein.
01:00
This is a definition of artificial general intelligence, AGI,
17
60849
5756
Hierbei handelt es sich um die Definition von Künstlicher Allgemeiner Intelligenz,
auch AGI, die das erklärte Ziel von Firmen wie OpenAI, DeepMind und Anthropic ist.
01:06
which is the stated goal of companies like OpenAI,
18
66605
3837
01:10
Google DeepMind and Anthropic.
19
70442
2002
01:12
And these companies are also trying to build superintelligence,
20
72819
3587
Diese Firmen versuchen außerdem, Superintelligenz zu erschaffen,
01:16
leaving human intelligence far behind.
21
76448
2919
welche die menschliche Intelligenz weit übertreffen würde.
01:19
And many think it'll only be a few years, maybe, from AGI to superintelligence.
22
79826
4379
Viele glauben, dass es nur wenige Jahre von AGI zur Superintelligenz dauern wird.
01:24
So when are we going to get AGI?
23
84539
2795
Wann werden wir also AGI bekommen?
01:27
Well, until recently, most AI researchers thought it was at least decades away.
24
87375
5464
Bis vor Kurzem dachten viele KI-Forscher, dass es noch Jahrzehnte dauern würde.
01:33
And now Microsoft is saying, "Oh, it's almost here."
25
93214
3504
Aber jetzt sagt Microsoft: “Wir sind schon fast da.”
01:36
We're seeing sparks of AGI in ChatGPT-4,
26
96760
3753
Wir sehen kleine Funken von AGI in ChatGPT-4,
01:40
and the Metaculus betting site is showing the time left to AGI
27
100555
3796
die Vorhersageplattform Metaculus korrigierte die Zeit bis zur AGI
01:44
plummeting from 20 years away to three years away
28
104351
4129
in den letzten 18 Monaten von 20 auf drei Jahre.
01:48
in the last 18 months.
29
108521
1544
01:50
And leading industry people are now predicting
30
110106
4922
Führende Mitglieder der KI-Branche sagen inzwischen voraus,
01:55
that we have maybe two or three years left until we get outsmarted.
31
115028
5047
dass uns noch zwei, drei Jahre bleiben, bis wir intellektuell überflügelt werden.
02:00
So you better stop talking about AGI as a long-term risk,
32
120116
4421
Wir sollten also aufhören, über AGI als langfristiges Risiko zu sprechen,
02:04
or someone might call you a dinosaur stuck in the past.
33
124579
3170
wenn wir nicht als Dinosaurier bezeichnet werden wollen.
02:08
It's really remarkable how AI has progressed recently.
34
128416
3837
Die jüngsten Fortschritte in der KI sind wirklich bemerkenswert.
02:12
Not long ago, robots moved like this.
35
132921
2419
Vor gar nicht langer Zeit bewegten Roboter sich so.
02:15
(Music)
36
135382
2085
(Musik)
02:18
Now they can dance.
37
138551
1418
Inzwischen können sie tanzen.
02:20
(Music)
38
140804
2711
(Musik)
02:29
Just last year, Midjourney produced this image.
39
149979
3295
Letztes Jahr hat Midjourney noch dieses Bild produziert.
02:34
This year, the exact same prompt produces this.
40
154401
3253
Dieses Jahr erzeugt die gleiche Eingabe dieses Bild.
02:39
Deepfakes are getting really convincing.
41
159656
2544
Deepfakes sind inzwischen richtig überzeugend.
02:43
(Video) Deepfake Tom Cruise: I’m going to show you some magic.
42
163201
2920
(Video) Deepfake Tom Cruise: Ich zeige Ihnen mal etwas Magie.
02:46
It's the real thing.
43
166913
1335
Das ist wirklich so.
02:48
(Laughs)
44
168289
2086
(Lacht)
02:50
I mean ...
45
170375
1293
Es ist...
02:53
It's all ...
46
173920
1835
wirklich...
02:55
the real ...
47
175797
1710
alles...
02:57
thing.
48
177549
1168
echt.
02:58
Max Tegmark: Or is it?
49
178717
1251
Max Tegmark: Oder?
03:02
And Yoshua Bengio now argues
50
182387
2669
Und Yoshua Bengio ist inzwischen der Meinung,
03:05
that large language models have mastered language
51
185056
3837
dass große Sprachmodelle heute Sprache und Wissen so gut meistern,
03:08
and knowledge to the point that they pass the Turing test.
52
188893
2795
dass sie den Turing-Test bestehen.
03:12
I know some skeptics are saying,
53
192355
1585
Einige Skeptiker sagen wohl:
03:13
"Nah, they're just overhyped stochastic parrots
54
193940
2711
“Ach was, das sind überschätzte stochastische Papageien,
03:16
that lack a model of the world,"
55
196693
1877
ohne eine Vorstellung von der Welt.”
03:18
but they clearly have a representation of the world.
56
198611
2878
Die Modelle haben aber sehr wohl eine Vorstellung von der Welt.
03:21
In fact, we recently found that Llama-2 even has a literal map of the world in it.
57
201531
5839
Wir haben kürzlich sogar festgestellt, dass Llama-2 eine Weltkarte in sich trägt.
03:28
And AI also builds
58
208121
3045
KI kann auch geometrische Darstellungen von abstrakten Konzepten entwickeln,
03:31
geometric representations of more abstract concepts
59
211207
3796
03:35
like what it thinks is true and false.
60
215003
3754
wie etwa von Aussagen, die sie für wahr oder falsch hält.
03:40
So what's going to happen if we get AGI and superintelligence?
61
220467
5046
Was wird also passieren, wenn AGI und Superintelligenz da sind?
03:46
If you only remember one thing from my talk, let it be this.
62
226514
3879
Wenn Sie aus meinem Vortrag nur eine Sache mitnehmen, dann bitte diese:
03:51
AI godfather, Alan Turing predicted
63
231311
3462
Alan Turing, der Vater der KI, hat vorausgesagt,
03:54
that the default outcome is the machines take control.
64
234814
4797
dass in diesem Fall die Maschinen die Kontrolle übernehmen würden.
04:00
The machines take control.
65
240528
2211
Die Maschinen übernehmen die Kontrolle.
04:04
I know this sounds like science fiction,
66
244240
2336
Ich weiß, das klingt nach Science Fiction,
04:06
but, you know, having AI as smart as GPT-4
67
246618
3503
aber eine KI so intelligent wie GPT-4
04:10
also sounded like science fiction not long ago.
68
250163
2919
hörte sich vor Kurzem auch noch nach Science Fiction an.
04:13
And if you think of AI,
69
253124
2378
Wenn man die KI und die Superintelligenz
04:15
if you think of superintelligence in particular, as just another technology,
70
255502
6047
als eine Technologie wie jede andere betrachtet,
04:21
like electricity,
71
261591
2419
wie etwa Elektrizität, dann ist man wahrscheinlich nicht sehr besorgt.
04:24
you're probably not very worried.
72
264052
2002
04:26
But you see,
73
266095
1168
Alan Turing jedoch sah Superintelligenz eher als eine neue Spezies an.
04:27
Turing thinks of superintelligence more like a new species.
74
267263
3837
Denken Sie darüber nach:
04:31
Think of it,
75
271142
1168
Wir bauen unheimliche, extrem fähige, amoralische Psychopathen,
04:32
we are building creepy, super capable,
76
272310
3879
04:36
amoral psychopaths
77
276231
1585
04:37
that don't sleep and think much faster than us,
78
277857
2711
die nicht schlafen, die viel schneller denken als wir,
04:40
can make copies of themselves
79
280610
1418
die sich selbst kopieren können, und nichts Menschliches an sich haben.
04:42
and have nothing human about them at all.
80
282070
2002
04:44
So what could possibly go wrong?
81
284072
1835
Was kann da schon schiefgehen?
04:45
(Laughter)
82
285949
1543
(Lachen)
04:47
And it's not just Turing.
83
287951
1585
Und das sagt nicht nur Turing.
04:49
OpenAI CEO Sam Altman, who gave us ChatGPT,
84
289536
2919
Sam Altman, der Chef von OpenAI, der uns ChatGPT gebracht hat,
04:52
recently warned that it could be "lights out for all of us."
85
292497
3837
hat vor Kurzem davor gewarnt, dass “für uns alle Licher ausgehen”.
04:57
Anthropic CEO, Dario Amodei, even put a number on this risk:
86
297126
3754
Dario Amodei, der Chef von Anthropic, hat das Risiko sogar beziffert:
05:02
10-25 percent.
87
302090
2210
10-25 Prozent. Und das sagen nicht nur diese beiden.
05:04
And it's not just them.
88
304300
1335
05:05
Human extinction from AI went mainstream in May
89
305677
3086
Das Ende der Menschheit durch KI erregte im Mai viel Aufsehen,
05:08
when all the AGI CEOs and who's who of AI researchers
90
308763
4922
als alle Chefs der großen KI-Firmen und wichtige KI-Forscher davor warnten.
05:13
came on and warned about it.
91
313685
1376
05:15
And last month, even the number one of the European Union
92
315061
2920
Und letzten Monat hat sogar die Nummer eins der EU
05:18
warned about human extinction by AI.
93
318022
3295
vor der Auslöschung der Menschheit durch KI gewarnt.
05:21
So let me summarize everything I've said so far
94
321359
2211
Hier nun eine Kurzfassung des bisher Gesagten
05:23
in just one slide of cat memes.
95
323611
2544
anhand von Katzenbildern:
05:27
Three years ago,
96
327282
1793
Vor drei Jahren hieß es: Superintelligenz ist unvermeidbar,
05:29
people were saying it's inevitable, superintelligence,
97
329117
4129
05:33
it'll be fine,
98
333288
1501
sie ist aber kein Problem, und braucht noch Jahrzehnte.
05:34
it's decades away.
99
334789
1210
05:35
Last year it was more like,
100
335999
1835
Vor einem Jahr hieß es: Unvermeidbar, aber kein Problem.
05:37
It's inevitable, it'll be fine.
101
337876
2043
05:40
Now it's more like,
102
340295
2460
Und jetzt heißt es: Unvermeidbar.
05:42
It's inevitable.
103
342797
1251
05:44
(Laughter)
104
344090
1126
(Lachen)
05:47
But let's take a deep breath and try to raise our spirits
105
347260
3962
Aber lassen Sie uns tief durchatmen und versuchen, die Stimmung zu heben,
05:51
and cheer ourselves up,
106
351264
1168
und uns aufzumuntern,
05:52
because the rest of my talk is going to be about the good news,
107
352473
3045
denn der Rest meines Vortrags handelt von guten Neuigkeiten:
05:55
that it's not inevitable, and we can absolutely do better,
108
355560
2919
Superintelligenz ist nicht unvermeidbar, und wir können es besser machen.
05:58
alright?
109
358521
1168
06:00
(Applause)
110
360315
2002
(Applaus)
06:02
So ...
111
362317
1209
Also:
06:04
The real problem is that we lack a convincing plan for AI safety.
112
364903
5296
Das wirkliche Problem liegt darin, dass es keinen guten Plan für KI-Sicherheit gibt.
06:10
People are working hard on evals
113
370700
3337
Einige Forscher arbeiten hart an sogenannten Evals,
06:14
looking for risky AI behavior, and that's good,
114
374037
4087
die riskantes KI-Verhalten erkennen, und das ist gut, aber es reicht nicht aus.
06:18
but clearly not good enough.
115
378124
2044
06:20
They're basically training AI to not say bad things
116
380209
4797
Im Grunde trainieren sie die KI darauf, nichts Schlechtes zu sagen,
06:25
rather than not do bad things.
117
385006
2502
und nicht darauf, nichts Schlechtes zu tun.
06:28
Moreover, evals and debugging are really just necessary,
118
388176
4212
Evals und Fehlersuche sind notwendig, aber nicht ausreichend für KI-Sicherheit.
06:32
not sufficient, conditions for safety.
119
392430
2002
06:34
In other words,
120
394474
1751
Anders ausgedrückt: Sie können zwar das Vorhandensein von Risiken aufzeigen,
06:36
they can prove the presence of risk,
121
396225
3671
06:39
not the absence of risk.
122
399938
2168
aber nicht die Abwesenheit von Risiken.
06:42
So let's up our game, alright?
123
402148
2544
Wir müssen uns also etwas mehr anstrengen.
06:44
Try to see how we can make provably safe AI that we can control.
124
404692
5631
Wir müssen nachweislich sichere, kontrollierbare KI erschaffen.
06:50
Guardrails try to physically limit harm.
125
410323
5047
Leitplanken versuchen Schaden physisch zu begrenzen.
06:55
But if your adversary is superintelligence
126
415828
2211
Aber wenn man eine Superintelligenz allein
06:58
or a human using superintelligence against you, right,
127
418081
2544
oder mit einem menschlichen User zum Gegenspieler hat,
07:00
trying is just not enough.
128
420625
1960
dann reicht “versuchen” nicht aus.
07:02
You need to succeed.
129
422585
1877
Dann müssen wir erfolgreich sein. Schaden anzurichten muss unmöglich sein.
07:04
Harm needs to be impossible.
130
424504
2169
07:06
So we need provably safe systems.
131
426714
2544
Wir brauchen nachweislich sichere Systeme.
07:09
Provable, not in the weak sense of convincing some judge,
132
429258
3838
Nachweislich nicht in dem Sinne, dass sich ein Richter davon überzeugen lässt,
07:13
but in the strong sense of there being something that's impossible
133
433137
3128
sondern in dem Sinne, dass Schaden durch KI
nach den Gesetzen der Physik ausgeschlossen ist.
07:16
according to the laws of physics.
134
436265
1585
07:17
Because no matter how smart an AI is,
135
437892
2002
Denn egal, wie intelligent eine KI ist,
07:19
it can't violate the laws of physics and do what's provably impossible.
136
439936
4046
die Gesetze der Physik kann sie nicht verletzen.
07:24
Steve Omohundro and I wrote a paper about this,
137
444440
2836
Steve Omohundro und ich schrieben einen Aufsatz darüber
07:27
and we're optimistic that this vision can really work.
138
447318
5005
und wir sind recht zuversichtlich, dass diese Vision funktionieren kann.
07:32
So let me tell you a little bit about how.
139
452323
2169
Ich möchte Ihnen berichten, wie.
07:34
There's a venerable field called formal verification,
140
454993
4421
Es gibt ein ehrwürdiges Forschungsgebiet namens formale Verifikation,
07:39
which proves stuff about code.
141
459455
2127
das Code überprüft.
07:41
And I'm optimistic that AI will revolutionize automatic proving business
142
461624
6548
Ich bin zuversichtlich, dass KI die formale Verifikation
07:48
and also revolutionize program synthesis,
143
468214
3337
und die Programmsynthese revolutionieren wird,
07:51
the ability to automatically write really good code.
144
471592
3254
also die Fähigkeit, automatisch wirklich guten Code zu schreiben.
07:54
So here is how our vision works.
145
474887
1585
Unsere Vision ist folgende:
07:56
You, the human, write a specification
146
476472
4213
Der Mensch verfasst eine Spezifikation, der die KI gehorchen muss,
08:00
that your AI tool must obey,
147
480685
2711
08:03
that it's impossible to log in to your laptop
148
483438
2127
wie etwa: Ohne richtiges Passwort kein Zugang zum Laptop,
08:05
without the correct password,
149
485565
1793
08:07
or that a DNA printer cannot synthesize dangerous viruses.
150
487400
5714
oder dass ein DNA-Drucker keine gefährlichen Viren herstellen darf.
08:13
Then a very powerful AI creates both your AI tool
151
493156
5213
Dann erstellt eine sehr leistungsstarke KI sowohl das gewünschte KI-Programm,
08:18
and a proof that your tool meets your spec.
152
498369
3837
als auch den Beweis, dass das Programm den Spezifikationen entspricht.
08:22
Machine learning is uniquely good at learning algorithms,
153
502540
4254
Machinelles Lernen ist einzigartig im Erlernen von Algorithmen,
08:26
but once the algorithm has been learned,
154
506836
2169
und sobald ein Algorithmus erlernt wurde,
08:29
you can re-implement it in a different computational architecture
155
509047
3169
kann man ihn in anderen Rechenvorgängen, die leichter verifizierbar sind, nutzen.
08:32
that's easier to verify.
156
512216
1627
08:35
Now you might worry,
157
515344
1210
Nun machen Sie sich vielleicht Sorgen, wie Sie diese leistungsstarke KI,
08:36
how on earth am I going to understand this powerful AI
158
516554
3921
08:40
and the powerful AI tool it built
159
520475
1626
das KI-Programm und den Beweis verstehen sollen,
08:42
and the proof,
160
522143
1126
08:43
if they're all too complicated for any human to grasp?
161
523311
2794
wenn sie für Menschen zu kompliziert sind?
08:46
Here is the really great news.
162
526147
2127
Hier ist die wirklich gute Nachricht:
08:48
You don't have to understand any of that stuff,
163
528316
2461
Sie müssen von alledem gar nichts verstehen,
08:50
because it's much easier to verify a proof than to discover it.
164
530818
5297
denn es ist viel einfacher, einen Beweis zu verifizieren, als ihn zu entwickeln.
08:56
So you only have to understand or trust your proof-checking code,
165
536115
5089
Sie müssen also nur den Code, der den Beweis prüft, verstehen,
09:01
which could be just a few hundred lines long.
166
541245
2211
und das sind oft nur ein paar hundert Zeilen.
09:03
And Steve and I envision
167
543498
2252
Steve und ich malen uns aus, dass solcher Code
09:05
that such proof checkers get built into all our compute hardware,
168
545750
4463
in alle Computerhardware eingebaut wird,
09:10
so it just becomes impossible to run very unsafe code.
169
550254
4213
und es dadurch schlichtweg unmöglich wird, unsicheren Code auszuführen.
09:14
What if the AI, though, isn't able to write that AI tool for you?
170
554509
5505
Aber was, wenn die KI dieses KI-Programm nicht für uns schreiben kann?
09:20
Then there's another possibility.
171
560056
3795
In diesem Fall gibt es eine andere Möglichkeit.
09:23
You train an AI to first just learn to do what you want
172
563851
3587
Man trainiert zunächst die KI für die gewünschte Aufgabe
09:27
and then you use a different AI
173
567480
3337
und verwendet dann eine andere KI,
09:30
to extract out the learned algorithm and knowledge for you,
174
570858
3963
um den erlernten Algorithmus und das Wissen zu extrahieren,
09:34
like an AI neuroscientist.
175
574862
2086
wie ein Neurowissenschaftler für KI.
09:37
This is in the spirit of the field of mechanistic interpretability,
176
577281
3879
Dabei handelt es sich um das Gebiet der mechanistischen Erklärbarkeit,
09:41
which is making really impressive rapid progress.
177
581160
3253
auf dem es zurzeit beeindruckende und schnelle Fortschritte gibt.
09:44
Provably safe systems are clearly not impossible.
178
584455
3170
Nachweislich sichere Systeme sind ganz klar machbar.
09:47
Let's look at a simple example
179
587625
1502
Hier ein einfaches Beispiel,
09:49
of where we first machine-learn an algorithm from data
180
589168
4630
wo wir zunächst durch maschinelles Lernen einen Algorithmus aus den Daten erstellen
09:53
and then distill it out in the form of code
181
593840
4254
und diesen dann in Code umsetzen, der nachweisbar der Vorschrift entspricht.
09:58
that provably meets spec, OK?
182
598136
2252
10:00
Let’s do it with an algorithm that you probably learned in first grade,
183
600888
4922
Hier mit einem Algorithmus, den Sie wohl schon in der ersten Klasse gelernt haben,
10:05
addition,
184
605810
1168
der Addition, wo man die Zahlen von rechts nach links durchgeht
10:07
where you loop over the digits from right to left,
185
607019
2503
10:09
and sometimes you do a carry.
186
609564
1793
und manchmal eine überträgt.
10:11
We'll do it in binary,
187
611357
1752
Wir addieren hier im Binärsystem,
10:13
as if you were counting on two fingers instead of ten.
188
613151
2752
so als würden Sie an zwei statt an zehn Fingern zählen.
10:16
And we first train a recurrent neural network,
189
616279
3378
Zunächst trainieren wir also ein rekurrentes neuronales Netzwerk -
10:19
never mind the details,
190
619657
2211
die Details sind nicht so wichtig -
10:21
to nail the task.
191
621909
1418
für diese Aufgabe.
10:23
So now you have this algorithm that you don't understand how it works
192
623828
3253
Der dadurch entstandene Algorithmus sitzt nun in seiner Black Box
10:27
in a black box
193
627123
2753
10:29
defined by a bunch of tables of numbers that we, in nerd speak,
194
629917
4463
und definiert sich durch eine Reihe von Tabellen,
die Computerfreaks als Parameter bezeichnen.
10:34
call parameters.
195
634380
1502
10:35
Then we use an AI tool we built to automatically distill out from this
196
635882
5297
Dann verwenden wir unser KI-Programm, um den erlernten Algorithmus automatisch
10:41
the learned algorithm in the form of a Python program.
197
641179
3420
in Form eines Python-Programms daraus zu gewinnen.
10:44
And then we use the formal verification tool known as Daphne
198
644640
4838
Und dann verwenden wir ein Programm zur formalen Verifikation namens Daphne,
10:49
to prove that this program correctly adds up any numbers,
199
649520
5422
um zu beweisen, dass dieses Programm beliebige Zahlen korrekt zusammenzählt,
10:54
not just the numbers that were in your training data.
200
654942
2503
nicht nur die Zahlen aus den Trainingsdaten.
10:57
So in summary,
201
657778
1377
Alles in allem bin ich davon überzeugt, dass wir sichere KI entwickeln können,
10:59
provably safe AI, I'm convinced is possible,
202
659155
3962
11:03
but it's going to take time and work.
203
663117
3003
aber das wird Zeit und Arbeit erfordern.
11:06
And in the meantime,
204
666162
1209
In der Zwischenzeit sollten wir daran denken, dass die Vorteile von KI,
11:07
let's remember that all the AI benefits
205
667413
4254
11:11
that most people are excited about
206
671709
3795
über die viele Leute so begeistert sind, gar keine Superintelligenz erfordern.
11:15
actually don't require superintelligence.
207
675504
2628
11:18
We can have a long and amazing future with AI.
208
678758
5005
Wir können mit der KI eine lange und fantastische Zukunft haben.
11:25
So let's not pause AI.
209
685014
2169
Lasst uns die KI also nicht auf Eis legen.
11:28
Let's just pause the reckless race to superintelligence.
210
688476
4129
Wir müssen das leichtsinnige Streben nach Superintelligenz stoppen.
11:32
Let's stop obsessively training ever-larger models
211
692980
4255
Wir müssen das zwanghafte Trainieren immer größerer Modelle stoppen,
11:37
that we don't understand.
212
697276
1669
die wir nicht verstehen.
11:39
Let's heed the warning from ancient Greece
213
699737
3212
Wir müssen die Warnung des griechischen Mythos beherzigen
11:42
and not get hubris, like in the story of Icarus.
214
702949
3712
und nicht überheblich werden, wie Ikarus in der Geschichte.
11:46
Because artificial intelligence
215
706702
2711
KI verleiht uns intellektuelle Flügel,
11:49
is giving us incredible intellectual wings
216
709455
4463
mit denen wir Dinge erreichen können,
11:53
with which we can do things beyond our wildest dreams
217
713960
4045
die unsere kühnsten Träume übertreffen,
11:58
if we stop obsessively trying to fly to the sun.
218
718047
4379
wenn wir nur damit aufhören, zwanghaft auf die Sonne zuzufliegen.
12:02
Thank you.
219
722802
1168
Vielen Dank.
12:03
(Applause)
220
723970
5880
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7