How to keep human bias out of AI | Kriti Sharma

99,340 views ・ 2019-04-12

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
Übersetzung: Nina Held Lektorat: Andreas Herzog
00:12
How many decisions have been made about you today,
1
12875
3768
Wie viele Entscheidungen wurden heute über Sie getroffen,
00:16
or this week or this year,
2
16667
2601
oder diese Woche, dieses Jahr,
00:19
by artificial intelligence?
3
19292
1958
von künstlicher Intelligenz?
00:22
I build AI for a living
4
22958
1685
Ich entwickle beruflich KI,
00:24
so, full disclosure, I'm kind of a nerd.
5
24667
3017
ja, ich gebe zu, ich bin ein Sonderling.
00:27
And because I'm kind of a nerd,
6
27708
2393
Und weil ich ein Sonderling bin,
00:30
wherever some new news story comes out
7
30125
2351
immer wenn Nachrichten darüber veröffentlicht werden,
00:32
about artificial intelligence stealing all our jobs,
8
32500
3434
wie künstliche Intelligenz all unsere Arbeitsplätze stielt,
00:35
or robots getting citizenship of an actual country,
9
35958
4185
oder Roboter die Staatsbürgerschaft eines echten Landes erhalten,
00:40
I'm the person my friends and followers message
10
40167
3142
kontaktieren Freunde und Follower mich
00:43
freaking out about the future.
11
43333
1542
und verzweifeln über die Zukunft.
00:45
We see this everywhere.
12
45833
2101
Wir sehen es überall.
00:47
This media panic that our robot overlords are taking over.
13
47958
4893
Diese Panik der Medien, dass Roboter die Weltherrschaft übernehmen.
00:52
We could blame Hollywood for that.
14
52875
1917
Wir könnten Hollywood die Schuld dafür geben.
00:56
But in reality, that's not the problem we should be focusing on.
15
56125
4125
Aber eigentlich ist das nicht das Problem, auf das wir uns konzentrieren sollten.
01:01
There is a more pressing danger, a bigger risk with AI,
16
61250
3643
Es gibt eine größere Gefahr, ein höheres Risiko bei der KI,
01:04
that we need to fix first.
17
64917
1583
die wir zuerst lösen müssen.
01:07
So we are back to this question:
18
67417
2309
Also zurück zu der Frage:
01:09
How many decisions have been made about you today by AI?
19
69750
4708
Wie viele Entscheidungen über Sie wurden heute von KI getroffen?
01:15
And how many of these
20
75792
1976
Und wie viele davon
01:17
were based on your gender, your race or your background?
21
77792
4500
basierten auf Ihrem Geschlecht, Ihrer Hautfarbe oder Herkunft?
01:24
Algorithms are being used all the time
22
84500
2768
Algorithmen werden ständig benutzt,
01:27
to make decisions about who we are and what we want.
23
87292
3833
um Entscheidungen darüber zu treffen, wer wir sind und was wir wollen.
01:32
Some of the women in this room will know what I'm talking about
24
92208
3643
Manche Frauen hier wissen, worüber ich spreche,
01:35
if you've been made to sit through those pregnancy test adverts on YouTube
25
95875
3768
wenn sie mal auf YouTube diese Schwangerschaftstest-Werbungen
über sich ergehen lassen mussten,
01:39
like 1,000 times.
26
99667
2059
um die 1000 mal.
01:41
Or you've scrolled past adverts of fertility clinics
27
101750
2851
Oder auf Facebook an Werbung für Fruchtbarkeitskliniken vorbeiscrollten,
01:44
on your Facebook feed.
28
104625
2042
01:47
Or in my case, Indian marriage bureaus.
29
107625
2393
Oder, in meinem Fall, indische Ehevermittlungen.
01:50
(Laughter)
30
110042
1267
(Gelächter)
01:51
But AI isn't just being used to make decisions
31
111333
2976
Aber KI wird nicht nur genutzt, um zu entscheiden,
01:54
about what products we want to buy
32
114333
2601
welche Produkte wir kaufen wollen
01:56
or which show we want to binge watch next.
33
116958
2500
oder welche Serie wir als nächstes verschlingen wollen.
02:01
I wonder how you'd feel about someone who thought things like this:
34
121042
5184
Ich frage mich, wie Sie es wohl fänden,
wenn jemand Sachen denkt wie:
02:06
"A black or Latino person
35
126250
1934
"Eine dunkelhäutige oder lateinamerikanische Person
02:08
is less likely than a white person to pay off their loan on time."
36
128208
4125
zahlt Schulden weniger zuverlässig zurück als eine weiße Person."
02:13
"A person called John makes a better programmer
37
133542
2809
"Eine Person namens John ist ein besserer Programmierer
02:16
than a person called Mary."
38
136375
1667
als eine Person namens Mary."
02:19
"A black man is more likely to be a repeat offender than a white man."
39
139250
5083
"Ein dunkelhäutiger Mann ist mit größerer Wahrscheinlichkeit
ein Wiederholungstäter als ein weißer."
02:26
You're probably thinking,
40
146958
1268
Sie denken wahrscheinlich:
02:28
"Wow, that sounds like a pretty sexist, racist person," right?
41
148250
3750
"Wow, das klingt nach
einer sehr sexistischen und rassistischen Person", oder?
02:33
These are some real decisions that AI has made very recently,
42
153000
4851
Dies sind einige reale Entscheidungen von KI in letzter Zeit,
02:37
based on the biases it has learned from us,
43
157875
2934
basierend auf Vorurteilen, die sie von uns übernahm,
02:40
from the humans.
44
160833
1250
von den Menschen.
02:43
AI is being used to help decide whether or not you get that job interview;
45
163750
4809
KI wird genutzt, um bei der Entscheidung zu helfen,
ob Sie zum Vorstellungsgespräch eingeladen werden;
02:48
how much you pay for your car insurance;
46
168583
2393
wie viel Sie für die Autoversicherung zahlen;
02:51
how good your credit score is;
47
171000
1893
wie gut Ihre Kreditwürdigkeit ist;
02:52
and even what rating you get in your annual performance review.
48
172917
3125
und sogar wie Ihre jährliche Leistungsbeurteilung ausfällt.
02:57
But these decisions are all being filtered through
49
177083
3143
Aber all diese Entscheidungen werden gefiltert,
03:00
its assumptions about our identity, our race, our gender, our age.
50
180250
5875
durch Annahmen über unsere Identität, Hautfarbe, unser Geschlecht und Alter.
03:08
How is that happening?
51
188250
2268
Wie kann das passieren?
03:10
Now, imagine an AI is helping a hiring manager
52
190542
3517
Stellen Sie sich vor, eine KI hilft einem Personalchef,
03:14
find the next tech leader in the company.
53
194083
2851
den nächsten technischen Leiter der Firma zu finden.
03:16
So far, the manager has been hiring mostly men.
54
196958
3101
Bisher stellte der Personalchef vor allem Männer ein.
03:20
So the AI learns men are more likely to be programmers than women.
55
200083
4750
Also lernt die KI, dass Männer eher Programmierer sind als Frauen.
03:25
And it's a very short leap from there to:
56
205542
2892
Von dort ist es nicht weit zu:
03:28
men make better programmers than women.
57
208458
2042
Männer sind bessere Programmierer als Frauen.
03:31
We have reinforced our own bias into the AI.
58
211417
3726
Wir haben unser eigenes Vorurteil in die KI infiltriert.
03:35
And now, it's screening out female candidates.
59
215167
3625
Und nun werden weibliche Kandidaten aussortiert.
03:40
Hang on, if a human hiring manager did that,
60
220917
3017
Wenn ein menschlicher Manager dies tun würde,
03:43
we'd be outraged, we wouldn't allow it.
61
223958
2351
wären wir entsetzt, würden es nicht erlauben.
03:46
This kind of gender discrimination is not OK.
62
226333
3476
Diese Form von Diskriminierung ist nicht in Ordnung.
03:49
And yet somehow, AI has become above the law,
63
229833
4518
Dennoch hat sich KI irgendwie über das Gesetz gestellt,
03:54
because a machine made the decision.
64
234375
2083
weil eine Maschine die Entscheidung traf.
03:57
That's not it.
65
237833
1518
Aber das ist nicht alles.
03:59
We are also reinforcing our bias in how we interact with AI.
66
239375
4875
Wir lassen unsere Vorurteile auch bei der Interaktion mit KI einfließen.
04:04
How often do you use a voice assistant like Siri, Alexa or even Cortana?
67
244917
5976
Wie oft benutzen wir einen Sprachassistenten,
wie Siri, Alexa oder Cortana?
04:10
They all have two things in common:
68
250917
2559
Alle haben zwei Dinge gemein:
04:13
one, they can never get my name right,
69
253500
3101
erstens, sie sprechen meinen Namen nie richtig aus
04:16
and second, they are all female.
70
256625
2667
und zweitens, sie sind alle weiblich.
04:20
They are designed to be our obedient servants,
71
260417
2767
Sie wurden entwickelt, um unsere gehorsamen Dienerinnen zu sein,
04:23
turning your lights on and off, ordering your shopping.
72
263208
3250
das Licht ein und aus zu schalten, Einkäufe zu bestellen.
04:27
You get male AIs too, but they tend to be more high-powered,
73
267125
3309
Es gibt auch männliche KI, aber diese sind eher leistungsstärker,
04:30
like IBM Watson, making business decisions,
74
270458
3059
wie IBM Watson,
der Business-Entscheidungen trifft,
04:33
Salesforce Einstein or ROSS, the robot lawyer.
75
273541
3792
Salesforce Einstein oder ROSS, der Roboter-Jurist.
04:38
So poor robots, even they suffer from sexism in the workplace.
76
278208
4060
Arme Roboter, sogar sie sind von Sexismus am Arbeitsplatz betroffen.
04:42
(Laughter)
77
282292
1125
(Gelächter)
04:44
Think about how these two things combine
78
284542
2851
Überlegen Sie, wie diese beiden Dinge zusammenspielen
04:47
and affect a kid growing up in today's world around AI.
79
287417
5309
und Kinder beeinflussen, die in der heutigen Welt aufwachsen,
umgeben von KI.
04:52
So they're doing some research for a school project
80
292750
2934
Sie führen dann ein Forschungsprojekt für die Schule durch
04:55
and they Google images of CEO.
81
295708
3018
und suchen Bilder von Vorstandsvorsitzenden auf Google.
04:58
The algorithm shows them results of mostly men.
82
298750
2893
Der Algorithmus zeigt ihnen hauptsächlich welche von Männern.
05:01
And now, they Google personal assistant.
83
301667
2559
Dann suchen sie nach persönlichen Assistenten
05:04
As you can guess, it shows them mostly females.
84
304250
3434
und finden, wie man sich denken kann, hauptsächlich Frauen.
05:07
And then they want to put on some music, and maybe order some food,
85
307708
3601
Dann wollen sie Musik hören und vielleicht Essen bestellen
05:11
and now, they are barking orders at an obedient female voice assistant.
86
311333
6584
und geben Anweisungen an gehorsame weibliche Sprachassistentinnen.
05:19
Some of our brightest minds are creating this technology today.
87
319542
5309
Einige unsere schlausten Köpfe entwickeln diese Technologien heute.
05:24
Technology that they could have created in any way they wanted.
88
324875
4184
Sie hätten sie in jeder beliebigen Form
entwickeln können.
05:29
And yet, they have chosen to create it in the style of 1950s "Mad Man" secretary.
89
329083
5685
Doch sie nahmen die Sekretärin aus "Mad Man" aus den 50ern als Vorbild.
05:34
Yay!
90
334792
1500
Hurra!
05:36
But OK, don't worry,
91
336958
1310
Aber keine Sorge,
05:38
this is not going to end with me telling you
92
338292
2059
es läuft nicht darauf hinaus, dass ich Ihnen sage,
05:40
that we are all heading towards sexist, racist machines running the world.
93
340375
3477
dass uns sexistische, rassistische Roboter beherrschen werden.
05:44
The good news about AI is that it is entirely within our control.
94
344792
5791
Der Vorteil von KI ist, dass wir sie kontrollieren können.
05:51
We get to teach the right values, the right ethics to AI.
95
351333
4000
Wir können sie die richtigen Werte, die richtige Ethik lehren.
05:56
So there are three things we can do.
96
356167
2184
Wir können drei Dinge tun.
05:58
One, we can be aware of our own biases
97
358375
3351
Erstens können wir uns unserer eigenen Vorurteile
06:01
and the bias in machines around us.
98
361750
2726
und derer der Maschinen um uns herum bewusst sein.
06:04
Two, we can make sure that diverse teams are building this technology.
99
364500
4518
Zweitens können wir sicherstellen,
dass bunt gemischte Teams diese Technologien entwickeln.
06:09
And three, we have to give it diverse experiences to learn from.
100
369042
4916
Und drittens müssen wir ihr vielfältige Erfahrungen geben,
von denen sie lernen kann.
06:14
I can talk about the first two from personal experience.
101
374875
3309
Die ersten beiden kenne ich aus persönlicher Erfahrung.
06:18
When you work in technology
102
378208
1435
Wenn man in der Technologie arbeitet,
06:19
and you don't look like a Mark Zuckerberg or Elon Musk,
103
379667
3392
und nicht wie ein Mark Zuckerberg oder Elon Musk aussieht,
06:23
your life is a little bit difficult, your ability gets questioned.
104
383083
3750
ist das Leben ein wenig schwierig, Fähigkeiten werden hinterfragt.
06:27
Here's just one example.
105
387875
1393
Hier nur ein Beispiel.
06:29
Like most developers, I often join online tech forums
106
389292
3726
Wie die meisten Entwickler trete ich online vielen Technik-Foren bei,
06:33
and share my knowledge to help others.
107
393042
3226
um anderen mit meinem Wissen zu helfen.
06:36
And I've found,
108
396292
1309
Ich stellte fest,
06:37
when I log on as myself, with my own photo, my own name,
109
397625
3976
wenn ich mich anmelde, mit meinem Foto, meinem Namen,
06:41
I tend to get questions or comments like this:
110
401625
4601
werden viele Fragen oder Kommentare, wie diese, gepostet:
06:46
"What makes you think you're qualified to talk about AI?"
111
406250
3000
"Wieso denkst du, dass du qualifiziert bist über KI zu sprechen?"
06:50
"What makes you think you know about machine learning?"
112
410458
3476
"Wieso denkst du, dass du etwas über maschinelles Lernen weißt?"
06:53
So, as you do, I made a new profile,
113
413958
3435
Also erstellte ich, wie viele, ein neues Profil,
06:57
and this time, instead of my own picture, I chose a cat with a jet pack on it.
114
417417
4851
diesmal mit einem lustigen Katzenbild anstelle eines Bildes von mir.
07:02
And I chose a name that did not reveal my gender.
115
422292
2458
Ich benutzte einen Namen, der mein Geschlecht nicht verriet.
07:05
You can probably guess where this is going, right?
116
425917
2726
Sie ahnen wahrscheinlich, wohin das führt, oder?
07:08
So, this time, I didn't get any of those patronizing comments about my ability
117
428667
6392
Diesmal bekam ich keine dieser
herablassenden Kommentare über meine Fähigkeiten
07:15
and I was able to actually get some work done.
118
435083
3334
und konnte tatsächlich produktiv arbeiten.
07:19
And it sucks, guys.
119
439500
1851
Das kotzt mich an!
07:21
I've been building robots since I was 15,
120
441375
2476
Ich baue Roboter seit ich 15 bin,
07:23
I have a few degrees in computer science,
121
443875
2268
ich habe ein paar Abschlüsse in Informatik,
07:26
and yet, I had to hide my gender
122
446167
2434
und dennoch musste ich mein Geschlecht verheimlichen,
07:28
in order for my work to be taken seriously.
123
448625
2250
um Anerkennung für meine Arbeit zu erlangen.
07:31
So, what's going on here?
124
451875
1893
Wie kann das sein?
07:33
Are men just better at technology than women?
125
453792
3208
Sind Männer einfach besser in der Technologie als Frauen?
07:37
Another study found
126
457917
1559
Eine andere Studie fand heraus,
07:39
that when women coders on one platform hid their gender, like myself,
127
459500
4934
dass, wenn Programmiererinnen
ihr Geschlecht auf Plattformen vertuschten, so wie ich,
07:44
their code was accepted four percent more than men.
128
464458
3250
war die Anerkennungsrate ihrer Codes vier Prozent höher als die von Männern.
07:48
So this is not about the talent.
129
468542
2916
Es geht also nicht um Talent.
07:51
This is about an elitism in AI
130
471958
2893
Es geht um das Elitedenken bei KI,
07:54
that says a programmer needs to look like a certain person.
131
474875
2792
das besagt, dass Programmierer bestimmte Merkmale haben müssen.
07:59
What we really need to do to make AI better
132
479375
3101
Was wir tun müssen, um KI zu verbessern,
08:02
is bring people from all kinds of backgrounds.
133
482500
3042
ist Leute unterschiedlicher Herkunft zusammen zu bringen.
08:06
We need people who can write and tell stories
134
486542
2559
Wir brauchen Leute, die Geschichten schreiben und erzählen können,
08:09
to help us create personalities of AI.
135
489125
2167
um zu helfen KI einen Charakter zu geben.
08:12
We need people who can solve problems.
136
492208
2042
Wir brauchen Leute, die Probleme lösen können,
Leute, die sich unterschiedlichen Herausforderungen stellen können
08:15
We need people who face different challenges
137
495125
3768
08:18
and we need people who can tell us what are the real issues that need fixing
138
498917
5351
und wir brauchen Leute, die uns die wahren Probleme aufzeigen,
die gelöst werden müssen,
08:24
and help us find ways that technology can actually fix it.
139
504292
3041
und uns helfen Wege zu finden, wie Technologie diese lösen kann.
08:29
Because, when people from diverse backgrounds come together,
140
509833
3726
Denn wenn Menschen verschiedener Herkunft zusammenkommen,
08:33
when we build things in the right way,
141
513583
2143
wenn wir Dinge auf die richtige Art und Weise aufbauen,
08:35
the possibilities are limitless.
142
515750
2042
dann sind die Möglichkeiten unbegrenzt.
08:38
And that's what I want to end by talking to you about.
143
518750
3309
Darüber möchte ich abschließend sprechen.
08:42
Less racist robots, less machines that are going to take our jobs --
144
522083
4225
Weniger über rassistische Roboter oder Maschinen,
die uns unsere Jobs wegnehmen --
08:46
and more about what technology can actually achieve.
145
526332
3125
und mehr darüber, was Technologie tatsächlich leisten kann.
08:50
So, yes, some of the energy in the world of AI,
146
530292
3434
Ja, ein Teil der Welt der KI,
08:53
in the world of technology
147
533750
1393
der Welt der Technologie,
08:55
is going to be about what ads you see on your stream.
148
535167
4267
wird sich damit beschäftigen, welche Werbung Ihnen angezeigt wird.
08:59
But a lot of it is going towards making the world so much better.
149
539458
5209
Aber vieles wird helfen, die Welt sehr viel besser zu machen.
09:05
Think about a pregnant woman in the Democratic Republic of Congo,
150
545500
3768
Denken Sie an eine schwangere Frau in der Republik Kongo,
09:09
who has to walk 17 hours to her nearest rural prenatal clinic
151
549292
4184
die 17 Stunden zur nächstgelegenen pränatalen Klinik laufen muss,
09:13
to get a checkup.
152
553500
1851
um untersucht zu werden.
09:15
What if she could get diagnosis on her phone, instead?
153
555375
2917
Was, wenn sie stattdessen die Diagnose auf ihrem Smartphone empfangen könnte?
09:19
Or think about what AI could do
154
559750
1809
Oder denken Sie was KI tun könnte,
09:21
for those one in three women in South Africa
155
561583
2726
für das Drittel der Frauen in Südafrika,
09:24
who face domestic violence.
156
564333
2125
das von häuslicher Gewalt betroffen ist.
09:27
If it wasn't safe to talk out loud,
157
567083
2726
Wenn sie nicht öffentlich darüber sprechen könnten,
09:29
they could get an AI service to raise alarm,
158
569833
2476
könnte eine KI einen Alarm auslösen,
09:32
get financial and legal advice.
159
572333
2459
finanzielle oder rechtliche Hilfe geben.
09:35
These are all real examples of projects that people, including myself,
160
575958
5018
Das sind alles Beispiele realer Projekte, an denen Leute, auch ich,
09:41
are working on right now, using AI.
161
581000
2500
aktuell mit KI arbeiten.
09:45
So, I'm sure in the next couple of days there will be yet another news story
162
585542
3601
Ich bin mir sicher,
dass in den nächsten Tagen eine neue Meldung kommen wird,
09:49
about the existential risk,
163
589167
2684
über das existentielle Risiko,
09:51
robots taking over and coming for your jobs.
164
591875
2434
dass Roboter die Welt übernehmen und auf unsere Jobs aus sind.
09:54
(Laughter)
165
594333
1018
(Gelächter)
09:55
And when something like that happens,
166
595375
2309
Und wenn das passiert,
09:57
I know I'll get the same messages worrying about the future.
167
597708
3601
bekomme ich sicherlich die gleichen Nachrichten,
mit Sorgen über die Zukunft.
10:01
But I feel incredibly positive about this technology.
168
601333
3667
Aber ich stehe dieser Technologie sehr positiv gegenüber.
10:07
This is our chance to remake the world into a much more equal place.
169
607458
5959
Es ist unsere Chance, die Welt in einen gerechteren Ort zu verwandeln.
10:14
But to do that, we need to build it the right way from the get go.
170
614458
4000
Aber wir müssen sie von Grund auf richtig bilden.
10:19
We need people of different genders, races, sexualities and backgrounds.
171
619667
5083
Wir brauchen dafür Leute verschiedener Geschlechter, Sexualität und Herkunft.
10:26
We need women to be the makers
172
626458
2476
Frauen müssen Produzentinnen sein
10:28
and not just the machines who do the makers' bidding.
173
628958
3000
und nicht nur Handlangerinnen von Produzenten.
10:33
We need to think very carefully what we teach machines,
174
633875
3768
Wir müssen aufpassen, was wir Maschinen beibringen,
10:37
what data we give them,
175
637667
1642
welche Informationen wir ihnen geben,
10:39
so they don't just repeat our own past mistakes.
176
639333
3125
so dass sie nicht nur unsere Fehler der Vergangenheit wiederholen.
10:44
So I hope I leave you thinking about two things.
177
644125
3542
Ich hoffe, dass Sie nun über zwei Dinge nachdenken werden.
10:48
First, I hope you leave thinking about bias today.
178
648542
4559
Erstens hoffe ich, dass Sie über Vorurteile nachdenken.
10:53
And that the next time you scroll past an advert
179
653125
3184
Und dass, wenn Sie das nächste Mal eine Anzeige sehen,
10:56
that assumes you are interested in fertility clinics
180
656333
2810
die annimmt, dass Sie an Fruchtbarkeitskliniken interessiert sind,
10:59
or online betting websites,
181
659167
2851
oder an Online-Wetten,
11:02
that you think and remember
182
662042
2017
dass sie sich erinnern,
11:04
that the same technology is assuming that a black man will reoffend.
183
664083
4625
dass die gleiche Technologie annimmt,
dass ein schwarzer Mann Wiederholungstäter ist.
11:09
Or that a woman is more likely to be a personal assistant than a CEO.
184
669833
4167
Oder, dass eine Frau eher Sekretärin als Vorstandsvorsitzende ist.
11:14
And I hope that reminds you that we need to do something about it.
185
674958
3709
Ich hoffe, das erinnert Sie daran, dass wir etwas ändern müssen.
11:20
And second,
186
680917
1851
Zweitens hoffe ich, dass Sie daran denken,
11:22
I hope you think about the fact
187
682792
1892
11:24
that you don't need to look a certain way
188
684708
1976
dass Sie keinem Ideal entsprechen müssen,
11:26
or have a certain background in engineering or technology
189
686708
3851
oder Erfahrung im Ingenieurwesen oder Technologie haben müssen,
11:30
to create AI,
190
690583
1268
um KI zu entwickeln,
11:31
which is going to be a phenomenal force for our future.
191
691875
2875
was einen unglaublichen Einfluss auf die Zukunft haben wird.
11:36
You don't need to look like a Mark Zuckerberg,
192
696166
2143
Sie müssen nicht wie Mark Zuckerberg aussehen,
11:38
you can look like me.
193
698333
1250
Sie können aussehen wie ich.
11:41
And it is up to all of us in this room
194
701250
2893
Es ist die Aufgabe von uns allen hier im Raum
11:44
to convince the governments and the corporations
195
704167
2726
die Regierungen und Konzerne zu überzeugen
11:46
to build AI technology for everyone,
196
706917
2892
KI für alle zu entwickeln,
11:49
including the edge cases.
197
709833
2393
auch für die Randgruppen.
11:52
And for us all to get education
198
712250
2059
Und dass wir uns zukünftig alle
11:54
about this phenomenal technology in the future.
199
714333
2375
über diese wunderbare Technologie informieren.
11:58
Because if we do that,
200
718167
2017
Denn wenn wir das tun,
12:00
then we've only just scratched the surface of what we can achieve with AI.
201
720208
4893
dann haben wir bisher nur an der Oberfläche dessen gekratzt,
was wir mit KI erreichen können.
12:05
Thank you.
202
725125
1268
Danke.
12:06
(Applause)
203
726417
2708
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7