How to Govern AI — Even If It’s Hard to Predict | Helen Toner | TED

60,892 views ・ 2024-05-01

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Cornelia Schlesinger Lektorat: P Hakenberg
00:03
When I talk to people about artificial intelligence,
0
3583
3963
Wenn ich mit Leuten über künstliche Intelligenz spreche
00:07
something I hear a lot from non-experts is “I don’t understand AI.”
1
7546
5255
sagen Laien oft:
„Ich verstehe KI nicht.“
00:13
But when I talk to experts, a funny thing happens.
2
13260
2794
Aber wenn ich mit Experten spreche, passiert etwas Lustiges.
00:16
They say, “I don’t understand AI, and neither does anyone else.”
3
16096
4546
Sie sagen: „Ich verstehe KI nicht.
Niemand versteht sie.“
00:21
This is a pretty strange state of affairs.
4
21393
3503
Das ist ein ziemlich seltsamer Zustand.
00:24
Normally, the people building a new technology
5
24896
3295
Normalerweise verstehen die Leute, die eine neue Technologie entwickeln,
00:28
understand how it works inside and out.
6
28233
2669
ganz genau, wie sie funktioniert.
00:31
But for AI, a technology that's radically reshaping the world around us,
7
31695
4546
Aber bei KI,
einer Technologie, die die Welt um uns herum radikal verändert,
00:36
that's not so.
8
36283
1167
ist das nicht der Fall.
00:37
Experts do know plenty about how to build and run AI systems, of course.
9
37492
4588
Experten wissen natürlich viel darüber, wie man KI-Systeme baut und betreibt.
00:42
But when it comes to how they work on the inside,
10
42455
2503
Aber wenn es darum geht, wie sie im Inneren funktionieren,
00:45
there are serious limits to how much we know.
11
45000
2877
ist unser Wissen sehr begrenzt.
00:48
And this matters because without deeply understanding AI,
12
48420
3879
Und das ist wichtig, denn ohne tieferes Verständnis von KI
00:52
it's really difficult for us to know what it will be able to do next,
13
52340
4255
ist es schwierig zu wissen, was sie als Nächstes können könnte
00:56
or even what it can do now.
14
56636
2336
oder sogar was sie jetzt schon kann.
00:59
And the fact that we have such a hard time understanding
15
59556
3378
Dass es uns so schwer fällt zu verstehen,
01:02
what's going on with the technology and predicting where it will go next,
16
62976
3837
was mit der Technologie vor sich geht,
und vorherzusagen was als Nächstes kommt,
01:06
is one of the biggest hurdles we face in figuring out how to govern AI.
17
66855
4629
ist eine der größten Hürden, bei der Regulierung von KI.
01:12
But AI is already all around us,
18
72861
2294
Aber wir sind jetzt schon von KI umgeben,
01:15
so we can't just sit around and wait for things to become clearer.
19
75155
4254
also können wir nicht einfach herumsitzen und auf mehr Klarheit warten.
01:19
We have to forge some kind of path forward anyway.
20
79826
3170
Wir müssen irgendeinen Weg vorwärts finden.
01:24
I've been working on these AI policy and governance issues
21
84080
3629
Ich arbeite an Fragen der KI-Politik und Regulierung
01:27
for about eight years,
22
87751
1167
seit über acht Jahren,
01:28
First in San Francisco, now in Washington, DC.
23
88918
3170
zuerst in San Francisco, jetzt in Washington, DC.
01:32
Along the way, I've gotten an inside look
24
92922
2753
Dabei habe ich einen Einblick bekommen,
01:35
at how governments are working to manage this technology.
25
95717
3754
wie Regierungen daran arbeiten, wie sie mit der Technologie umgehen.
01:39
And inside the industry, I've seen a thing or two as well.
26
99471
4421
Innerhalb der Branche habe ich auch ein, zwei Dinge erlebt.
01:45
So I'm going to share a couple of ideas
27
105852
3170
Deshalb werde ich Ihnen ein paar Ideen vorstellen,
01:49
for what our path to governing AI could look like.
28
109022
3629
wie unser Weg zur Regulierung von KI aussehen könnte.
Aber lassen Sie uns erst darüber sprechen,
01:53
But first, let's talk about what actually makes AI so hard to understand
29
113026
4421
warum KI so schwer zu verstehen und vorherzusagen ist.
01:57
and predict.
30
117489
1251
01:59
One huge challenge in building artificial "intelligence"
31
119616
3837
Eine große Herausforderung
bei der Entwicklung von künstlicher „Intelligenz“ ist,
02:03
is that no one can agree on what it actually means
32
123495
3086
dass man sich nicht einig ist,
was das eigentlich heißt, intelligent zu sein.
02:06
to be intelligent.
33
126623
1752
02:09
This is a strange place to be in when building a new tech.
34
129000
3170
Das macht es schwierig, wenn man eine neue Technologie entwickelt.
02:12
When the Wright brothers started experimenting with planes,
35
132212
3295
Als die Gebrüder Wright anfingen mit Flugzeugen zu experimentieren,
02:15
they didn't know how to build one,
36
135507
1668
wussten sie nicht, wie man eines baut,
02:17
but everyone knew what it meant to fly.
37
137175
3128
aber jeder wusste, was fliegen ist.
02:21
With AI on the other hand,
38
141596
1794
Bei KI hingegen haben verschiedene Experten
02:23
different experts have completely different intuitions
39
143431
3295
völlig unterschiedliche Anschauungen davon
02:26
about what lies at the heart of intelligence.
40
146726
2920
was den Kern der Intelligenz ausmacht.
02:29
Is it problem solving?
41
149646
2210
Ist es das Lösen von Problemen?
02:31
Is it learning and adaptation,
42
151898
2711
Ist es Lernen und Anpassung?
02:34
are emotions,
43
154651
1418
Spielen Emotionen
02:36
or having a physical body somehow involved?
44
156111
3128
oder die Existenz eines physischen Körpers eine Rolle?
02:39
We genuinely don't know.
45
159698
1459
Wir wissen es nicht.
02:41
But different answers lead to radically different expectations
46
161157
4338
Aber unterschiedliche Antworten
führen zu komplett unterschiedlichen Erwartungen,
02:45
about where the technology is going and how fast it'll get there.
47
165537
4254
wohin sich die Technologie entwickelt und wie schnell sie dort hin kommt.
02:50
An example of how we're confused is how we used to talk
48
170834
2586
Ein Beispiel dafür, wie verwirrend es ist, ist die Art, wie früher
02:53
about narrow versus general AI.
49
173461
2294
über schwache und allgemeine KI gesprochen wurde.
02:55
For a long time, we talked in terms of two buckets.
50
175797
3795
Lange Zeit sprachen wir von zwei Bereichen.
02:59
A lot of people thought we should just be dividing between narrow AI,
51
179634
4129
Viele glaubten, wir sollten zwischen schwacher KI,
03:03
trained for one specific task,
52
183763
1919
die für bestimmte Aufgaben trainiert ist,
03:05
like recommending the next YouTube video,
53
185724
2669
wie das Vorschlagen des nächsten YouTube-Videos,
03:08
versus artificial general intelligence, or AGI,
54
188435
3795
und künstlicher allgemeiner Intelligenz oder AGI,
03:12
that could do everything a human could do.
55
192272
2586
die alles kann, was ein Mensch kann, unterscheiden.
03:15
We thought of this distinction, narrow versus general,
56
195859
2919
Wir betrachteten diese Unterscheidung, schwach oder allgemein,
03:18
as a core divide between what we could build in practice
57
198778
3963
als Hauptunterschied zwischen dem
was wir entwickeln können,
03:22
and what would actually be intelligent.
58
202782
2252
und dem, was tatsächlich intelligent wäre.
03:25
But then a year or two ago, along came ChatGPT.
59
205952
4963
Vor ein oder zwei Jahren kam dann ChatGPT.
03:31
If you think about it,
60
211541
1543
Wenn man darüber nachdenkt --
03:33
you know, is it narrow AI, trained for one specific task?
61
213126
3712
ist es eine schwache KI,
die für eine bestimmte Aufgabe trainiert ist?
03:36
Or is it AGI and can do everything a human can do?
62
216838
3170
Oder ist es AGI und kann alles, was ein Mensch kann?
03:41
Clearly the answer is neither.
63
221092
1502
Die Antwort lautet: Weder noch.
03:42
It's certainly general purpose.
64
222635
1919
Es ist sicherlich generell einsetzbar.
03:44
It can code, write poetry,
65
224554
2920
Es kann programmieren, Gedichte schreiben,
03:47
analyze business problems, help you fix your car.
66
227515
3045
Geschäftsprobleme analysieren und helfen das Auto zu reparieren.
03:51
But it's a far cry from being able to do everything
67
231352
2795
Aber es ist weit davon entfernt alles so gut machen zu können
03:54
as well as you or I could do it.
68
234189
2419
wie Sie oder ich es könnten.
03:56
So it turns out this idea of generality
69
236608
2043
Die Idee der Generalität scheint also nicht die richtige Trennlinie
03:58
doesn't actually seem to be the right dividing line
70
238651
2711
04:01
between intelligent and not.
71
241404
2127
zwischen intelligent und nicht intelligent zu sein.
04:04
And this kind of thing
72
244073
1335
Diese Dinge sind derzeit eine große Herausforderung
04:05
is a huge challenge for the whole field of AI right now.
73
245450
2794
für den gesamten Bereich von KI.
04:08
We don't have any agreement on what we're trying to build
74
248286
2836
Wir sind uns nicht einig darüber, was wir bauen wollen
04:11
or on what the road map looks like from here.
75
251164
2419
oder wie das weitere Vorgehen aussieht.
04:13
We don't even clearly understand the AI systems that we have today.
76
253625
3962
Wir verstehen die KI-Systeme, die wir heute haben, nicht einmal genau.
04:18
Why is that?
77
258004
1251
Warum ist das so?
04:19
Researchers sometimes describe deep neural networks,
78
259297
3003
Forscher beschreiben manchmal tiefe neuronale Netze,
04:22
the main kind of AI being built today,
79
262300
2085
die wichtigste Art von KI, die heute gebaut wird,
04:24
as a black box.
80
264427
1460
als Blackbox.
04:26
But what they mean by that is not that it's inherently mysterious
81
266304
3670
Aber damit meinen sie nicht, dass es von Natur aus rätselhaft ist
04:29
and we have no way of looking inside the box.
82
269974
2711
und wir keine Möglichkeit haben in die Box hineinzuschauen.
04:33
The problem is that when we do look inside,
83
273228
2669
Das Problem ist, dass wir, wenn wir hineinschauen,
04:35
what we find are millions,
84
275939
2335
Millionen, Milliarden
04:38
billions or even trillions of numbers
85
278316
2878
oder sogar Billionen von Zahlen vorfinden,
04:41
that get added and multiplied together in a particular way.
86
281194
3462
die auf eine bestimmte Weise addiert und multipliziert werden.
Was es für Experten schwierig macht, zu wissen, was vor sich geht,
04:45
What makes it hard for experts to know what's going on
87
285031
2544
04:47
is basically just, there are too many numbers,
88
287617
3086
ist im Grunde nur, dass es zu viele Zahlen gibt
04:50
and we don't yet have good ways of teasing apart what they're all doing.
89
290745
3962
und wir noch keine guten Möglichkeiten haben,
das, was sie alle tun, zu verstehen.
04:54
There's a little bit more to it than that, but not a lot.
90
294707
3003
Es steckt ein bisschen mehr dahinter, aber nicht viel.
04:58
So how do we govern this technology
91
298545
3003
Wie regulieren wir also diese Technologie,
05:01
that we struggle to understand and predict?
92
301589
2628
die wir nur schwer verstehen und vorhersagen können?
05:04
I'm going to share two ideas.
93
304717
1502
Ich werde Ihnen zwei Ideen vorstellen.
05:06
One for all of us and one for policymakers.
94
306261
3253
Eine für uns alle und eine für politische Entscheidungsträger.
05:10
First, don't be intimidated.
95
310932
2711
Lassen Sie sich nicht einschüchtern.
05:14
Either by the technology itself
96
314102
2461
Weder von die Technologie selbst
05:16
or by the people and companies building it.
97
316563
3086
noch von den Menschen und Unternehmen, die sie entwickeln.
05:20
On the technology,
98
320400
1168
Was die Technologie angeht kann KI verwirrend sein,
05:21
AI can be confusing, but it's not magical.
99
321568
2502
aber ist keine Zauberei.
05:24
There are some parts of AI systems we do already understand well,
100
324070
3504
Es gibt Teile von KI-Systemen, die wir bereits gut verstehen,
05:27
and even the parts we don't understand won't be opaque forever.
101
327574
4045
und selbst das was wir nicht verstehen, wird nicht für immer undurchsichtig sein.
05:31
An area of research known as “AI interpretability”
102
331619
3295
Das Forschungsgebiet der „KI-Interpretierbarkeit“,
05:34
has made quite a lot of progress in the last few years
103
334956
3128
hat in den letzten Jahren große Fortschritte beim Verständnis,
05:38
in making sense of what all those billions of numbers are doing.
104
338084
3504
was all diese Milliarden von Zahlen bewirken, gemacht.
05:42
One team of researchers, for example,
105
342463
2169
Ein Forscherteam fand beispielsweise einen Weg
05:44
found a way to identify different parts of a neural network
106
344674
3420
verschiedene Teile eines neuronalen Nezes zu identifizieren
05:48
that they could dial up or dial down
107
348136
2335
die sie hoch- oder runterstufen konnte,
05:50
to make the AI's answers happier or angrier,
108
350513
3754
um die Antworten der KI erfreulicher oder wütender,
05:54
more honest,
109
354309
1418
ehrlicher,
05:55
more Machiavellian, and so on.
110
355768
2545
machiavellistischer und so weiter zu machen.
05:58
If we can push forward this kind of research further,
111
358771
2503
Wenn wir diese Art der Forschung weiter vorantreiben können,
06:01
then five or 10 years from now,
112
361316
2210
werden wir in fünf oder zehn Jahren
06:03
we might have a much clearer understanding of what's going on
113
363526
3003
vielleicht viel besser verstehen,
was in der sogenannten Blackbox passiert.
06:06
inside the so-called black box.
114
366571
2669
06:10
And when it comes to those building the technology,
115
370325
2669
Wenn es um die geht, die die Technologie entwickeln --
06:13
technologists sometimes act as though
116
373036
1918
Technologen tun manchmal so, als ob,
06:14
if you're not elbows deep in the technical details,
117
374996
3420
Leute ohne tiefes Verständnis der technischen Details,
06:18
then you're not entitled to an opinion on what we should do with it.
118
378458
3420
kein Recht auf eine Meinung haben, was wir damit machen sollten.
06:22
Expertise has its place, of course,
119
382337
2294
Fachwissen ist natürlich wichtig,
06:24
but history shows us how important it is
120
384672
2169
aber die Geschichte zeigt
wie wichtig es ist, dass die Menschen,
06:26
that the people affected by a new technology
121
386883
3003
die von einer neuen Technologie betroffen sind
06:29
get to play a role in shaping how we use it.
122
389886
2753
mitgestalten, wie sie genutzt wird.
06:32
Like the factory workers in the 20th century who fought for factory safety,
123
392639
4629
Wie die Fabrikarbeiter im 20. Jahrhundert,
die für die Sicherheit in Fabriken kämpften,
06:37
or the disability advocates
124
397310
2127
oder die Behindertenvertreter,
06:39
who made sure the world wide web was accessible.
125
399437
3003
die dafür sorgten, das das World Wide Web zugänglich wurde.
06:42
You don't have to be a scientist or engineer to have a voice.
126
402982
3963
Sie müssen kein Wissenschaftler oder Ingenieur sein,
um ein Mitspracherecht zu haben.
06:48
(Applause)
127
408821
4547
(Applaus)
06:53
Second, we need to focus on adaptability, not certainty.
128
413868
5464
Zweitens müssen wir uns auf Anpassungsfähigkeit konzentrieren
statt auf Sicherheit.
06:59
A lot of conversations about how to make policy for AI
129
419749
3128
Viele Diskussionen über KI-Regulierung
07:02
get bogged down in fights between, on the one side,
130
422919
2711
verzetteln sich in Kämpfen zwischen den Leuten, die sagen:
07:05
people saying, "We have to regulate AI really hard right now
131
425672
3003
„Wir müssen KI jetzt hart regulieren, weil sie so riskant ist.“
07:08
because it's so risky."
132
428716
1585
07:10
And on the other side, people saying,
133
430301
1794
Und Leute auf der anderen Seite, die sagen:
07:12
“But regulation will kill innovation, and those risks are made up anyway.”
134
432136
4129
„Regulierung macht Innovation zunichte, und diese Risiken sind sowieso erfunden.“
07:16
But the way I see it,
135
436307
1168
Ich denke, man hat nicht nur die Wahl,
07:17
it’s not just a choice between slamming on the brakes
136
437475
2961
zwischen auf die Bremse treten
07:20
or hitting the gas.
137
440478
1502
oder Gas geben.
07:22
If you're driving down a road with unexpected twists and turns,
138
442313
3962
Wenn Sie eine Straße mit unerwarteten Kurven entlangfahren,
07:26
then two things that will help you a lot
139
446275
2503
dann werden Ihnen zwei Dinge sehr helfen:
07:28
are having a clear view out the windshield
140
448778
2794
Eine klare Sicht durch die Windschutzscheibe
07:31
and an excellent steering system.
141
451614
2419
und ein hervorragendes Lenksystem.
07:34
In AI, this means having a clear picture of where the technology is
142
454033
5005
Bei KI heißt das ein klares Bild davon zu haben,
wo die Technologie steht und wohin sie sich entwickelt,
07:39
and where it's going,
143
459080
1627
07:40
and having plans in place for what to do in different scenarios.
144
460707
3628
und Pläne für verschiedene Szenarien zu haben.
07:44
Concretely, this means things like investing in our ability to measure
145
464752
4338
Konkret bedeutet das beispielsweise
in unsere Fähigkeit zu investieren, zu messen was KI-Systeme leisten können.
07:49
what AI systems can do.
146
469132
1877
07:51
This sounds nerdy, but it really matters.
147
471342
3212
Das klingt nerdig, aber es ist wichtig.
07:54
Right now, if we want to figure out
148
474595
2044
Wenn wir herausfinden wollen,
07:56
whether an AI can do something concerning,
149
476681
2002
ob eine KI etwas Beunruhigendes tun kann,
07:58
like hack critical infrastructure
150
478725
2377
wie zum Beispiel kritische Infrastrukturen hacken
08:01
or persuade someone to change their political beliefs,
151
481102
4671
oder jemanden überzeugen, seine politische Meinung zu ändern,
08:05
our methods of measuring that are rudimentary.
152
485773
2544
sind unsere Messmethoden rudimentär.
08:08
We need better.
153
488317
1210
Wir brauchen bessere.
08:10
We should also be requiring AI companies,
154
490319
2545
Wir sollten auch von KI-Unternehmen verlangen,
08:12
especially the companies building the most advanced AI systems,
155
492905
3420
insbesondere von Unternehmen,
die die fortschrittlichsten KI-Systeme entwickeln,
08:16
to share information about what they're building,
156
496367
3170
dass sie offenlegen was sie entwickeln,
08:19
what their systems can do
157
499537
1710
was ihre Systeme können
08:21
and how they're managing risks.
158
501289
2127
und wie sie mit Risiken umgehen.
08:23
And they should have to let in external AI auditors to scrutinize their work
159
503458
5589
Sie sollten externe KI-Auditoren hinzuziehen müssen,
um ihre Arbeit zu überprüfen,
08:29
so that the companies aren't just grading their own homework.
160
509088
3128
damit die Unternehmen nicht nur ihre eigenen Hausaufgaben bewerten.
08:33
(Applause)
161
513801
4213
(Applaus)
08:38
A final example of what this can look like
162
518014
2461
Ein letztes Beispiel dafür wie das aussehen kann,
08:40
is setting up incident reporting mechanisms,
163
520475
3503
ist die Einrichtung von Mechanismen zur Meldung von Vorfällen,
08:44
so that when things do go wrong in the real world,
164
524020
2753
sodass wir, wenn in der realen Welt etwas schief geht,
08:46
we have a way to collect data on what happened
165
526814
2962
eine Möglichkeit haben, Daten darüber zu sammeln, was passiert ist
08:49
and how we can fix it next time.
166
529817
2002
und wie wir es beim nächsten Mal beheben können.
08:51
Just like the data we collect on plane crashes and cyber attacks.
167
531819
4421
So wie wir bei Flugzeugabstürzen und Cyberangriffen Daten sammeln.
08:57
None of these ideas are mine,
168
537158
1668
Keine dieser Ideen stammt von mir,
08:58
and some of them are already starting to be implemented in places like Brussels,
169
538868
4504
und einige von ihnen werden bereits an Orten wie Brüssel,
09:03
London, even Washington.
170
543372
2128
London oder Washington umgesetzt.
09:06
But the reason I'm highlighting these ideas,
171
546042
2627
Aber der Grund, warum ich diese Ideen hervorhebe,
09:08
measurement, disclosure, incident reporting,
172
548669
4046
Messung, Offenlegung und Meldung von Vorfällen, ist,
09:12
is that they help us navigate progress in AI
173
552757
2794
dass sie uns helfen, Fortschritte bei der KI zu steuern,
09:15
by giving us a clearer view out the windshield.
174
555593
3086
indem sie uns einen klareren Blick durch die Windschutzscheibe erlauben.
09:18
If AI is progressing fast in dangerous directions,
175
558721
3712
Wenn KI schnell in gefährliche Richtungen voranschreitet,
09:22
these policies will help us see that.
176
562475
2377
helfen diese Richtlinien dabei das zu erkennen.
09:25
And if everything is going smoothly, they'll show us that too,
177
565436
3545
Und wenn alles glatt läuft zeigen sie uns das auch
09:28
and we can respond accordingly.
178
568981
2211
und wir können entsprechend reagieren.
09:33
What I want to leave you with
179
573569
1502
Was ich Ihnen mit auf den Weg geben möchte, ist,
09:35
is that it's both true that there's a ton of uncertainty
180
575071
4629
dass es im Bereich der KI tatsächlich eine Menge Unsicherheiten
09:39
and disagreement in the field of AI.
181
579742
2961
und Meinungsverschiedenheiten gibt.
09:42
And that companies are already building and deploying AI
182
582745
4046
Und dass Unternehmen sowieso schon überall KI entwickeln und einsetzen,
09:46
all over the place anyway in ways that affect all of us.
183
586833
4462
und zwar auf eine Weise, die uns alle betrifft.
Wenn sie sich selbst überlassen werden,
09:52
Left to their own devices,
184
592004
1544
09:53
it looks like AI companies might go in a similar direction
185
593548
3169
könnten KI-Unternehmen eine ähnliche Richtung einschlagen
09:56
to social media companies,
186
596717
1961
wie Social-Media-Unternehmen
09:58
spending most of their resources on building web apps
187
598678
2627
und den Großteil ihrer Ressourcen für die Entwicklung von Web-Apps
10:01
and for users' attention.
188
601305
1836
und Benutzeraufmerksamkeit ausgeben.
Es sieht ganz danach aus
10:04
And by default, it looks like the enormous power of more advanced AI systems
189
604016
4463
dass die enorme Leistungsfähigkeit fortschrittlicherer KI-Systeme
10:08
might stay concentrated in the hands of a small number of companies,
190
608479
4046
in den Händen weniger Unternehmen
10:12
or even a small number of individuals.
191
612567
1918
oder sogar einer kleinen Zahl von Einzelpersonen liegt.
10:15
But AI's potential goes so far beyond that.
192
615278
3253
Aber das Potenzial von KI geht weit darüber hinaus.
10:18
AI already lets us leap over language barriers
193
618531
2711
KI ermöglicht es uns bereits, Sprachbarrieren zu überwinden
10:21
and predict protein structures.
194
621284
2252
und Proteinstrukturen vorherzusagen.
10:23
More advanced systems could unlock clean, limitless fusion energy
195
623536
4504
Fortschrittlichere Systeme könnten saubere,
grenzenlose Fusionsenergie erschließen
10:28
or revolutionize how we grow food
196
628082
2503
oder die Art und Weise, wie wir Lebensmittel anbauen
10:30
or 1,000 other things.
197
630626
1835
oder 1.000 andere Dinge revolutionieren.
10:32
And we each have a voice in what happens.
198
632962
2586
Wir alle haben Mitspracherecht bei dem, was passiert.
10:35
We're not just data sources,
199
635548
2002
Wir sind nicht nur Datenquellen,
10:37
we are users,
200
637592
2043
wir sind Nutzer,
10:39
we're workers,
201
639635
1502
wir sind Arbeiter,
10:41
we're citizens.
202
641137
1209
wir sind Bürger.
10:43
So as tempting as it might be,
203
643514
2961
So verlockend es auch sein mag,
10:46
we can't wait for clarity or expert consensus
204
646475
4672
wir können nicht auf Klarheit oder Expertenkonsens warten
10:51
to figure out what we want to happen with AI.
205
651147
3378
um herauszufinden, wie wir mit KI umgehen wollen.
10:54
AI is already happening to us.
206
654525
2586
KI umgibt uns bereits.
10:57
What we can do is put policies in place
207
657737
3211
Was wir tun können, ist Richtlinien einzuführen,
11:00
to give us as clear a picture as we can get
208
660948
2670
die uns ein möglichst klares Bild davon vermitteln,
11:03
of how the technology is changing,
209
663618
2460
wie sich die Technologie verändert,
11:06
and then we can get in the arena and push for futures we actually want.
210
666078
5089
dann können wir auf eine Zukunft drängen, die wir uns tatsächlich wünschen.
11:11
Thank you.
211
671751
1126
Danke.
11:12
(Applause)
212
672919
3378
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7