AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED

1,167,750 views ・ 2023-11-06

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Cornelia Schlesinger Lektorat: Andrea Hielscher
00:04
So I've been an AI researcher for over a decade.
0
4292
3504
Ich bin seit über zehn Jahren KI-Forscherin.
00:07
And a couple of months ago, I got the weirdest email of my career.
1
7796
3503
Vor ein paar Monaten erhielt ich die seltsamste E-Mail meiner Laufbahn.
00:11
A random stranger wrote to me
2
11925
1668
Ein Unbekannter schrieb mir,
00:13
saying that my work in AI is going to end humanity.
3
13635
3420
meine Arbeit im Bereich KI bedeute das Ende der Menschheit.
00:18
Now I get it, AI, it's so hot right now.
4
18598
3754
Ich verstehe es, KI ist gerade ein heißes Thema.
00:22
(Laughter)
5
22352
1627
(Lachen)
Es ist fast täglich in den Schlagzeilen,
00:24
It's in the headlines pretty much every day,
6
24020
2086
etwa wegen wirklich cooler Dinge
00:26
sometimes because of really cool things
7
26106
1918
wie der Entdeckung neuer Moleküle für die Medizin
00:28
like discovering new molecules for medicine
8
28066
2169
00:30
or that dope Pope in the white puffer coat.
9
30235
2252
oder des coolen Papstes im weißen Daunenmantel.
Aber manchmal sind die Schlagzeilen echt düster,
00:33
But other times the headlines have been really dark,
10
33446
2461
00:35
like that chatbot telling that guy that he should divorce his wife
11
35907
3671
wie der Chatbot, der einem Typ riet, sich scheiden zu lassen,
00:39
or that AI meal planner app proposing a crowd pleasing recipe
12
39619
4088
oder die KI-Speiseplan-App,
die ein populäres Rezept mit Chlorgas vorschlägt.
00:43
featuring chlorine gas.
13
43707
2002
00:46
And in the background,
14
46376
1418
Im Hintergrund gibt es viel Gerede
00:47
we've heard a lot of talk about doomsday scenarios,
15
47836
2419
über Weltuntergangs-Szenarien,
existenzielle Risiken und Singularität;
00:50
existential risk and the singularity,
16
50255
1918
00:52
with letters being written and events being organized
17
52215
2503
damit das nicht passiert,
werden Briefe geschrieben und Veranstaltungen organisiert.
00:54
to make sure that doesn't happen.
18
54718
2002
00:57
Now I'm a researcher who studies AI's impacts on society,
19
57637
4630
Als Forscherin untersuche ich die Auswirkungen von KI auf die Gesellschaft.
01:02
and I don't know what's going to happen in 10 or 20 years,
20
62267
2836
Ich weiß nicht, was in zehn oder 20 Jahren passiert.
01:05
and nobody really does.
21
65145
2461
Keiner weiß das wirklich.
01:07
But what I do know is that there's some pretty nasty things going on right now,
22
67981
4546
Aber ich weiß, dass im Moment einige ziemlich üble Dinge passieren,
01:12
because AI doesn't exist in a vacuum.
23
72527
2878
weil KI nicht im luftleeren Raum existiert.
Sie ist Teil der Gesellschaft
01:15
It is part of society, and it has impacts on people and the planet.
24
75447
3920
und hat Auswirkungen auf Menschen und den Planeten.
01:20
AI models can contribute to climate change.
25
80160
2502
KI-Modelle können zum Klimawandel beitragen.
01:22
Their training data uses art and books created by artists
26
82704
3462
Ihre Trainingsdaten verwenden Kunst und Bücher
von Künstlern und Autoren ohne deren Zustimmung.
01:26
and authors without their consent.
27
86207
1710
01:27
And its deployment can discriminate against entire communities.
28
87959
3837
Ihr Einsatz kann ganze Gemeinschaften diskriminieren.
Aber wir müssen endlich den Auswirkungen nachgehen.
01:32
But we need to start tracking its impacts.
29
92797
2127
01:34
We need to start being transparent and disclosing them and creating tools
30
94966
3587
Wir müssen transparent sein, sie offenlegen und Tools entwickeln,
01:38
so that people understand AI better,
31
98595
2419
damit die Menschen KI besser verstehen,
damit künftige Generationen von KI-Modellen
01:41
so that hopefully future generations of AI models
32
101056
2335
01:43
are going to be more trustworthy, sustainable,
33
103433
2836
hoffentlich vertrauenswürdiger und nachhaltiger sind
01:46
maybe less likely to kill us, if that's what you're into.
34
106269
2836
und uns nicht so leicht töten, falls Sie das umtreibt.
01:50
But let's start with sustainability,
35
110148
1752
Zunächst zur Nachhaltigkeit.
01:51
because that cloud that AI models live on is actually made out of metal, plastic,
36
111900
5756
Denn die Wolke, auf der KI-Modelle leben, besteht aus Metall und Plastik
01:57
and powered by vast amounts of energy.
37
117656
2460
und wird mit riesigen Mengen Energie betrieben.
02:00
And each time you query an AI model, it comes with a cost to the planet.
38
120116
4463
Immer wenn man ein KI-Modell konsultiert, entstehen Kosten für den Planeten.
02:05
Last year, I was part of the BigScience initiative,
39
125789
3044
Letztes Jahr war ich Teil der BigScience-Initiative,
02:08
which brought together a thousand researchers
40
128833
2127
die tausend Forscher aus der ganzen Welt versammelte,
02:10
from all over the world to create Bloom,
41
130960
2503
um Bloom zu entwickeln,
02:13
the first open large language model, like ChatGPT,
42
133505
4337
das erste große offene Sprachmodell wie ChatGPT,
02:17
but with an emphasis on ethics, transparency and consent.
43
137842
3546
aber mit Schwerpunkt auf Ethik, Transparenz und Konsens.
02:21
And the study I led that looked at Bloom's environmental impacts
44
141721
3253
Die von mir geleitete Studie über Blooms Umweltauswirkungen ergab,
02:25
found that just training it used as much energy
45
145016
3253
dass allein das Training so viel Energie verbrauchte
02:28
as 30 homes in a whole year
46
148311
2211
wie 30 Haushalte in einem ganzen Jahr
02:30
and emitted 25 tons of carbon dioxide,
47
150563
2419
und 25 Tonnen Kohlendioxid freisetzte
wie eine Autofahrt fünfmal um den Planeten,
02:33
which is like driving your car five times around the planet
48
153024
3253
nur damit man mit dem Modell einen Kinderwitz erzählen kann.
02:36
just so somebody can use this model to tell a knock-knock joke.
49
156319
3170
02:39
And this might not seem like a lot,
50
159489
2169
Das klingt vielleicht nicht nach viel,
02:41
but other similar large language models,
51
161700
2460
aber andere ähnlich große Sprachmodelle
02:44
like GPT-3,
52
164202
1126
wie GPT-3
02:45
emit 20 times more carbon.
53
165370
2544
stoßen 20-mal mehr Kohlenstoff aus.
02:47
But the thing is, tech companies aren't measuring this stuff.
54
167956
2878
Doch Technologieunternehmen messen so etwas nicht,
02:50
They're not disclosing it.
55
170875
1252
legen es nicht offen.
Das ist wohl nur die Spitze des Eisbergs,
02:52
And so this is probably only the tip of the iceberg,
56
172168
2461
02:54
even if it is a melting one.
57
174629
1418
auch wenn er schmilzt.
02:56
And in recent years we've seen AI models balloon in size
58
176798
3629
In den letzten Jahren sind KI-Modelle größer geworden,
03:00
because the current trend in AI is "bigger is better."
59
180468
3462
weil der aktuelle KI-Trend lautet: „Je größer, desto besser.“
Lassen Sie mich bitte nicht erklären, warum.
03:04
But please don't get me started on why that's the case.
60
184305
2795
Jedenfalls beobachten wir, dass vor allem große Sprachmodelle
03:07
In any case, we've seen large language models in particular
61
187100
3003
in den letzten fünf Jahren um das 2000-Fache gewachsen sind.
03:10
grow 2,000 times in size over the last five years.
62
190103
3211
03:13
And of course, their environmental costs are rising as well.
63
193314
3045
Natürlich steigen auch die Kosten für die Umwelt.
03:16
The most recent work I led, found that switching out a smaller,
64
196401
3795
Meine jüngste Arbeit ergab,
dass der Austausch eines kleineren, effizienteren Sprachmodells
03:20
more efficient model for a larger language model
65
200238
3337
gegen ein größeres
03:23
emits 14 times more carbon for the same task.
66
203616
3754
für dieselbe Aufgabe 14-mal mehr Kohlenstoff ausstößt.
03:27
Like telling that knock-knock joke.
67
207412
1877
Etwa, um so einen Witz zu erzählen.
03:29
And as we're putting in these models into cell phones and search engines
68
209289
3462
Wenn wir diese Modelle in Handys, Suchmaschinen
03:32
and smart fridges and speakers,
69
212792
2836
intelligente Kühlschränke und Lautsprecher einbauen,
03:35
the environmental costs are really piling up quickly.
70
215628
2628
steigen die Kosten für die Umwelt rasant.
03:38
So instead of focusing on some future existential risks,
71
218840
3754
Statt uns auf künftige existenzielle Risiken zu konzentrieren,
03:42
let's talk about current tangible impacts
72
222635
2753
sollten wir über aktuelle konkrete Auswirkungen und Instrumente sprechen,
03:45
and tools we can create to measure and mitigate these impacts.
73
225388
3629
um diese Auswirkungen zu messen und zu mildern.
03:49
I helped create CodeCarbon,
74
229893
1668
Ich habe CodeCarbon mitentwickelt,
03:51
a tool that runs in parallel to AI training code
75
231603
2961
ein Tool, das parallel zum KI-Trainingscode läuft
03:54
that estimates the amount of energy it consumes
76
234564
2211
und Energieverbrauch
sowie Kohlenstoffausstoß schätzt.
03:56
and the amount of carbon it emits.
77
236775
1668
03:58
And using a tool like this can help us make informed choices,
78
238485
2877
Damit lassen sich fundierte Entscheidungen treffen,
04:01
like choosing one model over the other because it's more sustainable,
79
241404
3253
etwa nachhaltigere Modelle
oder KI-Modelle, die mit erneuerbaren Energien laufen,
04:04
or deploying AI models on renewable energy,
80
244657
2920
04:07
which can drastically reduce their emissions.
81
247619
2544
um die Emissionen drastisch zu senken.
04:10
But let's talk about other things
82
250163
2085
Aber lassen wir dieses Thema,
04:12
because there's other impacts of AI apart from sustainability.
83
252290
2961
denn KI hat außer Nachhaltigkeit noch andere Auswirkungen.
04:15
For example, it's been really hard for artists and authors
84
255627
3128
So können etwa Künstler und Autoren nur schwer nachweisen,
04:18
to prove that their life's work has been used for training AI models
85
258797
4212
dass ihr Lebenswerk ohne ihre Zustimmung
für das Training von KI-Modellen verwendet wurde.
04:23
without their consent.
86
263051
1209
04:24
And if you want to sue someone, you tend to need proof, right?
87
264302
3170
Um jemanden zu verklagen, braucht man in der Regel Beweise.
04:27
So Spawning.ai, an organization that was founded by artists,
88
267806
3920
Spawning.ai, eine von Künstlern gegründete Organisation,
04:31
created this really cool tool called “Have I Been Trained?”
89
271726
3337
hat das coole Tool „Have I Been Trained?“ entwickelt.
Damit kann man riesige Datensätze durchsuchen,
04:35
And it lets you search these massive data sets
90
275104
2461
04:37
to see what they have on you.
91
277607
2085
um zu sehen, ob man darin vorkommt.
04:39
Now, I admit it, I was curious.
92
279734
1668
Zugegeben, ich war neugierig.
04:41
I searched LAION-5B,
93
281444
1627
Ich durchsuchte LAION-5B,
einen riesigen Datensatz aus Bildern und Texten,
04:43
which is this huge data set of images and text,
94
283112
2461
04:45
to see if any images of me were in there.
95
285615
2711
um zu sehen, ob es dort Bilder von mir gab.
04:49
Now those two first images,
96
289285
1585
Die ersten beiden Bilder,
04:50
that's me from events I've spoken at.
97
290870
2169
das bin ich als Referentin bei Veranstaltungen.
04:53
But the rest of the images, none of those are me.
98
293081
2753
Aber ich bin auf keinem der restlichen Bilder.
04:55
They're probably of other women named Sasha
99
295875
2002
Da haben wohl andere Frauen namens Sasha
04:57
who put photographs of themselves up on the internet.
100
297919
2628
Fotos von sich ins Internet gestellt.
Das erklärt wohl,
05:01
And this can probably explain why,
101
301047
1627
warum ich meist Bilder von Bikini-Models bekomme,
05:02
when I query an image generation model
102
302715
1836
05:04
to generate a photograph of a woman named Sasha,
103
304551
2294
wenn ich ein Modell zur Bildgenerierung
05:06
more often than not I get images of bikini models.
104
306886
2753
Fotos von Frauen namens Sasha erstellen lasse.
05:09
Sometimes they have two arms,
105
309681
1626
Manchmal haben sie zwei Arme,
05:11
sometimes they have three arms,
106
311349
2294
manchmal drei,
05:13
but they rarely have any clothes on.
107
313685
2043
aber sie haben meist nur wenig an.
05:16
And while it can be interesting for people like you and me
108
316563
2794
Zwar kann es für Menschen wie Sie und mich interessant sein,
05:19
to search these data sets,
109
319357
2127
diese Datensätze zu durchsuchen,
05:21
for artists like Karla Ortiz,
110
321526
2044
doch Künstlern wie Karla Ortiz liefern sie entscheidende Beweise,
05:23
this provides crucial evidence that her life's work, her artwork,
111
323570
3753
dass ihr Lebenswerk, ihre Kunst
ohne ihre Zustimmung zum Training von KI-Modellen verwendet wurde.
05:27
was used for training AI models without her consent,
112
327365
2961
05:30
and she and two artists used this as evidence
113
330326
2336
Sie und zwei Künstler nutzten das als Beweise
05:32
to file a class action lawsuit against AI companies
114
332704
2794
für eine Sammelklage gegen KI-Unternehmen
05:35
for copyright infringement.
115
335540
1960
wegen Urheberrechtsverletzung.
05:37
And most recently --
116
337542
1168
Und vor Kurzem —
05:38
(Applause)
117
338710
3378
(Applaus)
05:42
And most recently Spawning.ai partnered up with Hugging Face,
118
342130
3044
Vor Kurzem tat sich Spawning.ai mit Hugging Face,
05:45
the company where I work at,
119
345216
1585
dem Unternehmen, wo ich arbeite, zusammen,
05:46
to create opt-in and opt-out mechanisms for creating these data sets.
120
346801
4922
um Opt-In- und Opt-Out-Mechanismen
zur Erstellung dieser Datensätze zu entwickeln.
05:52
Because artwork created by humans shouldn’t be an all-you-can-eat buffet
121
352098
3587
Denn menschliche Kunstwerke sollten kein All-you-can-eat-Büfett
05:55
for training AI language models.
122
355727
1793
für das Training von KI-Sprachmodellen sein.
05:58
(Applause)
123
358313
4254
(Applaus)
06:02
The very last thing I want to talk about is bias.
124
362567
2336
Zuletzt möchte ich über Voreingenommenheit sprechen.
06:04
You probably hear about this a lot.
125
364944
1919
Darüber hört man derzeit viel.
06:07
Formally speaking, it's when AI models encode patterns and beliefs
126
367196
3713
Formal gesehen, kodieren KI-Modelle Muster und Überzeugungen,
06:10
that can represent stereotypes or racism and sexism.
127
370950
3128
die Stereotype, Rassismus und Sexismus darstellen können.
06:14
One of my heroes, Dr. Joy Buolamwini, experienced this firsthand
128
374412
3212
Eine meiner Heldinnen, Dr. Joy Buolamwini, erlebte das aus erster Hand,
06:17
when she realized that AI systems wouldn't even detect her face
129
377665
3045
als KI-Systeme ihr Gesicht nicht erkannten,
06:20
unless she was wearing a white-colored mask.
130
380752
2169
wenn sie keine weiße Maske trug.
06:22
Digging deeper, she found that common facial recognition systems
131
382962
3754
Sie stellte auch fest, dass gängige Gesichtserkennungssysteme
06:26
were vastly worse for women of color compared to white men.
132
386758
3253
für nicht-weiße Frauen weit schlechter funktionierten als für weiße Männer.
06:30
And when biased models like this are deployed in law enforcement settings,
133
390428
5297
Werden voreingenommene Modelle wie dieses bei der Strafverfolgung eingesetzt,
06:35
this can result in false accusations, even wrongful imprisonment,
134
395767
4296
kann das zu falschen Anschuldigungen führen,
sogar zu unrechtmäßiger Inhaftierung,
06:40
which we've seen happen to multiple people in recent months.
135
400063
3920
wie wir in den letzten Monaten mehrfach gesehen haben.
06:44
For example, Porcha Woodruff was wrongfully accused of carjacking
136
404025
3086
So wurde Porcha Woodruff, im achten Monat schwanger,
fälschlicherweise des Autodiebstahls beschuldigt,
06:47
at eight months pregnant
137
407111
1252
06:48
because an AI system wrongfully identified her.
138
408363
2961
weil ein KI-System sie falsch identifiziert hatte.
06:52
But sadly, these systems are black boxes,
139
412325
2002
Leider sind diese Systeme Blackboxes,
06:54
and even their creators can't say exactly why they work the way they do.
140
414369
5964
und selbst ihre Entwickler wissen nicht genau,
warum sie so funktionieren.
07:00
And for example, for image generation systems,
141
420917
3462
Werden etwa Systeme zur Bilderzeugung
07:04
if they're used in contexts like generating a forensic sketch
142
424379
4129
in Kontexten wie der Generierung einer forensischen Skizze
07:08
based on a description of a perpetrator,
143
428549
2711
auf Grundlage einer Täterbeschreibung eingesetzt,
07:11
they take all those biases and they spit them back out
144
431260
3587
nehmen sie diese Vorurteile und spucken sie wieder aus
07:14
for terms like dangerous criminal, terrorists or gang member,
145
434889
3462
als Begriffe wie gefährlicher Krimineller, Terrorist oder Bandenmitglied,
07:18
which of course is super dangerous
146
438393
2168
was natürlich extrem gefährlich ist,
07:20
when these tools are deployed in society.
147
440603
4421
wenn diese Tools in der Gesellschaft eingesetzt werden.
07:25
And so in order to understand these tools better,
148
445566
2294
Um diese Tools besser zu verstehen,
07:27
I created this tool called the Stable Bias Explorer,
149
447902
3212
habe ich ein Tool namens “Stable Bias Explorer” entwickelt,
mit dem man die Voreingenommenheit von Bildgenerierungsmodellen
07:31
which lets you explore the bias of image generation models
150
451155
3379
07:34
through the lens of professions.
151
454575
1669
an Berufen untersuchen kann.
07:37
So try to picture a scientist in your mind.
152
457370
3045
Stellen Sie sich mal einen Wissenschaftler vor.
07:40
Don't look at me.
153
460456
1168
Schauen Sie nicht mich an.
07:41
What do you see?
154
461666
1335
Was sehen Sie?
07:43
A lot of the same thing, right?
155
463835
1501
Ziemlich das Gleiche, oder?
07:45
Men in glasses and lab coats.
156
465378
2377
Männer mit Brillen und Laborkitteln.
07:47
And none of them look like me.
157
467797
1710
Keiner davon sieht aus wie ich.
07:50
And the thing is,
158
470174
1460
Wir haben uns alle Modelle
07:51
is that we looked at all these different image generation models
159
471676
3253
zur Bilderzeugung angesehen
07:54
and found a lot of the same thing:
160
474929
1627
und immer wieder dasselbe festgestellt:
07:56
significant representation of whiteness and masculinity
161
476597
2586
eine signifikante Darstellung weißer Männlichkeit
07:59
across all 150 professions that we looked at,
162
479225
2127
in allen 150 untersuchten Berufen –
08:01
even if compared to the real world,
163
481352
1794
trotz des Vergleichs mit der Realität
08:03
the US Labor Bureau of Statistics.
164
483187
1836
des US Labor Bureau of Statistics.
08:05
These models show lawyers as men,
165
485023
3044
Diese Modelle zeigen Anwälte als Männer,
08:08
and CEOs as men, almost 100 percent of the time,
166
488109
3462
CEOs als Männer, und das in fast 100 Prozent der Fälle,
08:11
even though we all know not all of them are white and male.
167
491571
3170
obwohl wir alle wissen, dass nicht alle weiß und männlich sind.
08:14
And sadly, my tool hasn't been used to write legislation yet.
168
494782
4380
Leider wurde mein Tool noch nicht verwendet, um Gesetze zu verfassen.
Aber ich stellte es neulich auf einer UN-Veranstaltung
08:19
But I recently presented it at a UN event about gender bias
169
499203
3963
über geschlechterspezifische Vorurteile vor
08:23
as an example of how we can make tools for people from all walks of life,
170
503166
3879
als Beispiel für Tools für Menschen aller Schichten,
auch die, die nicht programmieren können,
08:27
even those who don't know how to code,
171
507086
2252
damit sie sich mit KI beschäftigen und sie besser verstehen.
08:29
to engage with and better understand AI because we use professions,
172
509380
3253
Wir verwenden Berufe ,
08:32
but you can use any terms that are of interest to you.
173
512633
3087
aber man kann jeden Begriff nehmen, der einen interessiert.
08:36
And as these models are being deployed,
174
516596
2752
Durch ihren Einsatz
werden diese Modelle in das Gefüge unserer Gesellschaften gewebt;
08:39
are being woven into the very fabric of our societies,
175
519390
3128
08:42
our cell phones, our social media feeds,
176
522518
2044
unsere Handys, Social-Media-Feeds,
08:44
even our justice systems and our economies have AI in them.
177
524604
3211
sogar unsere Justizsysteme und Volkswirtschaften enthalten KI.
08:47
And it's really important that AI stays accessible
178
527815
3879
Es ist wirklich wichtig, dass KI zugänglich bleibt,
08:51
so that we know both how it works and when it doesn't work.
179
531736
4713
damit wir wissen, wie sie funktioniert und wann nicht.
08:56
And there's no single solution for really complex things like bias
180
536908
4296
Es gibt nicht die eine Lösung für wirklich komplexe Dinge
wie Vorurteile, Urheberrecht oder Klimawandel.
09:01
or copyright or climate change.
181
541245
2419
09:03
But by creating tools to measure AI's impact,
182
543664
2711
Aber durch die Entwicklung von Tools zur Messung der Auswirkungen von KI
09:06
we can start getting an idea of how bad they are
183
546375
3337
können wir erkennen, wie schlimm sie sind,
09:09
and start addressing them as we go.
184
549754
2502
und uns sukzessive damit beschäftigen –
09:12
Start creating guardrails to protect society and the planet.
185
552256
3337
Leitplanken errichten, um Gesellschaft und Planet zu schützen.
09:16
And once we have this information,
186
556177
2336
Mit Hilfe dieser Informationen
09:18
companies can use it in order to say,
187
558513
1835
können Unternehmen wählen:
09:20
OK, we're going to choose this model because it's more sustainable,
188
560389
3170
Wir nehmen dieses Modell,
weil es nachhaltiger ist und das Urheberrecht respektiert.
09:23
this model because it respects copyright.
189
563601
2044
09:25
Legislators who really need information to write laws,
190
565686
3087
Politiker, die für neue Gesetze Informationen brauchen,
09:28
can use these tools to develop new regulation mechanisms
191
568773
3462
können mit diesen Instrumenten
neue Regulierungsmechanismen oder Kontrollen für KI entwickeln,
09:32
or governance for AI as it gets deployed into society.
192
572276
3796
wenn sie in der Gesellschaft eingesetzt wird.
09:36
And users like you and me can use this information
193
576114
2377
Wir Nutzer können dank dieser Informationen KI-Modelle wählen,
09:38
to choose AI models that we can trust,
194
578491
3337
von denen wir annehmen dürfen,
09:41
not to misrepresent us and not to misuse our data.
195
581869
2920
dass sie uns weder falsch darstellen noch unsere Daten missbrauchen.
09:45
But what did I reply to that email
196
585790
1918
Wie reagierte ich auf die Mail, in der es hieß,
09:47
that said that my work is going to destroy humanity?
197
587750
2961
meine Arbeit werde die Menschheit zerstören?
09:50
I said that focusing on AI's future existential risks
198
590711
4046
Ich schrieb, die Konzentration auf künftige existenzielle Risiken der KI
09:54
is a distraction from its current,
199
594799
2044
sei eine Ablenkung von ihren aktuellen, sehr greifbaren Auswirkungen
09:56
very tangible impacts
200
596843
1835
09:58
and the work we should be doing right now, or even yesterday,
201
598719
4004
und von der Arbeit, die wir jetzt, noch besser gestern, erledigen sollten,
10:02
for reducing these impacts.
202
602723
1919
um diese Auswirkungen zu verringern.
10:04
Because yes, AI is moving quickly, but it's not a done deal.
203
604684
4045
Ja, KI entwickelt sich schnell, aber wir sind noch nicht am Ende.
10:08
We're building the road as we walk it,
204
608771
2503
Wir bauen den Weg, während wir ihn gehen,
10:11
and we can collectively decide what direction we want to go in together.
205
611274
3795
und können gemeinsam entscheiden,
welche Richtung wir einschlagen wollen.
10:15
Thank you.
206
615069
1210
Vielen Dank.
10:16
(Applause)
207
616279
2002
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7