How to Get Inside the "Brain" of AI | Alona Fyshe | TED

59,902 views ・ 2023-04-03

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Lektorat: Sonja Maria Neef
00:04
People are funny.
0
4417
1127
Menschen sind lustig.
00:05
We're constantly trying to understand and interpret
1
5585
2544
Wir versuchen ständig, die Welt um uns herum zu verstehen
00:08
the world around us.
2
8171
1460
und zu interpretieren.
Ich lebe in einem Haus mit zwei schwarzen Katzen und wirklich,
00:10
I live in a house with two black cats, and let me tell you,
3
10090
2794
00:12
every time I see a black, bunched up sweater out of the corner of my eye,
4
12926
3462
immer, wenn ich einen schwarzen, zusammengeballten Pullover sehe,
00:16
I think it's a cat.
5
16388
1209
denke ich, es sei eine Katze.
00:18
It's not just the things we see.
6
18098
1585
Es sind nicht nur Dinge, die wir sehen.
00:19
Sometimes we attribute more intelligence than might actually be there.
7
19724
3587
Manchmal schreiben wir mehr Intelligenz zu, als eigentlich vorhanden sein könnte.
00:23
Maybe you've seen the dogs on TikTok.
8
23770
1794
Vielleicht haben Sie die Hunde auf TikTok gesehen.
00:25
They have these little buttons that say things like "walk" or "treat."
9
25605
3379
Sie haben Tasten, auf denen „Gassi“ oder „Belohnung“ stehen.
Sie können sie drücken, um mit ihren Besitzern zu kommunizieren
00:29
They can push them to communicate some things with their owners,
10
29025
3128
und ihre Besitzer glauben, dass sie sie verwenden,
00:32
and their owners think they use them
11
32195
1752
00:33
to communicate some pretty impressive things.
12
33947
2169
um beeindruckende Dinge zu kommunizieren.
00:36
But do the dogs know what they're saying?
13
36491
2002
Doch wissen die Hunde was sie sagen?
00:39
Or perhaps you've heard the story of Clever Hans the horse,
14
39494
3462
Vielleicht haben Sie die Geschichte vom klugen Hans, dem Pferd, gehört.
00:42
and he could do math.
15
42956
1376
Er konnte rechnen.
00:44
And not just like, simple math problems, really complicated ones,
16
44374
3086
Nicht nur einfache Matheaufgaben, sondern wirklich komplizierte, wie:
00:47
like, if the eighth day of the month falls on a Tuesday,
17
47460
3003
Wenn der achte Tag des Monats auf einen Dienstag fällt,
00:50
what's the date of the following Friday?
18
50463
1919
welches Datum ist dann am darauffolgenden Freitag?
00:52
It's like, pretty impressive for a horse.
19
52841
2043
Ziemlich beeindruckend für ein Pferd.
00:55
Unfortunately, Hans wasn't doing math,
20
55927
2586
Leider hat Hans nicht gerechnet,
00:58
but what he was doing was equally impressive.
21
58555
2586
aber was er tat, war genauso beeindruckend.
01:01
Hans had learned to watch the people in the room
22
61182
2670
Hans hatte gelernt, die Leute im Raum zu beobachten,
01:03
to tell when he should tap his hoof.
23
63893
2002
um zu erkennen, wann er mit dem Huf klopfen sollte.
01:05
So he communicated his answers by tapping his hoof.
24
65937
2461
Also teilte er seine Antworten mit, indem er mit dem Huf tippte.
01:08
It turns out that if you know the answer
25
68982
1918
Wenn Sie also die Antwort kennen,
01:10
to "if the eighth day of the month falls on a Tuesday,
26
70942
2544
auf: “Wenn der achte Tag des Monats auf einen Dienstag fällt,
01:13
what's the date of the following Friday,"
27
73528
1960
welches Datum ist der darauffolgende Freitag?“,
01:15
you will subconsciously change your posture
28
75488
2044
ändern Sie unbewusst Ihre Haltung,
01:17
once the horse has given the correct 18 taps.
29
77532
2169
sobald das Pferd die richtigen 18 Schläge gegeben hat.
01:20
So Hans couldn't do math,
30
80493
1293
Hans konnte also nicht rechnen,
01:21
but he had learned to watch the people in the room who could do math,
31
81786
3254
er hatte gelernt, die Leute im Raum zu beobachten, die rechnen konnten,
01:25
which, I mean, still pretty impressive for a horse.
32
85081
2419
was für ein Pferd immer noch ziemlich beeindruckend ist.
01:28
But this is an old picture,
33
88418
1418
Aber das ist ein altes Bild,
01:29
and we would not fall for Clever Hans today.
34
89836
2252
und wir würden heute nicht auf Clever Hans reinfallen.
01:32
Or would we?
35
92672
1168
Oder doch?
01:34
Well, I work in AI,
36
94549
2169
Nun, ich arbeite in der KI,
01:36
and let me tell you, things are wild.
37
96718
2002
und ich kann Ihnen sagen, die Dinge sind verrückt.
01:38
There have been multiple examples of people being completely convinced
38
98720
3754
Es gab mehrere Beispiele dafür, dass Menschen davon überzeugt waren,
01:42
that AI understands them.
39
102515
1502
dass KI sie versteht.
01:44
In 2022,
40
104559
2711
Im Jahr 2022
dachte ein Google-Ingenieur, dass Googles KI empfindungsfähig sei.
01:47
a Google engineer thought that Google’s AI was sentient.
41
107270
3337
01:50
And you may have had a really human-like conversation
42
110649
2752
Vielleicht haben Sie ein wirklich menschliches Gespräch
01:53
with something like ChatGPT.
43
113401
1877
mit etwas wie ChatGPT geführt.
01:55
But models we're training today are so much better
44
115779
2377
Doch die Modelle, die wir heute trainieren, sind viel besser
01:58
than the models we had even five years ago.
45
118198
2002
als die Modelle, die wir vor fünf Jahren hatten.
02:00
It really is remarkable.
46
120200
1710
Es ist wirklich bemerkenswert.
02:02
So at this super crazy moment in time,
47
122744
2502
Lassen Sie uns also in diesem superverrückten Moment
02:05
let’s ask the super crazy question:
48
125288
2127
die superverrückte Frage stellen:
02:07
Does AI understand us,
49
127832
1293
Versteht uns die KI
02:09
or are we having our own Clever Hans moment?
50
129167
2878
oder erleben wir unseren eigenen Clever Hans-Moment?
Manche Philosophen glauben, dass Computer Sprache niemals verstehen werden.
02:13
Some philosophers think that computers will never understand language.
51
133254
3462
02:16
To illustrate this, they developed something they call
52
136716
2628
Um dies zu veranschaulichen, entwickelten sie etwas, das sie
02:19
the Chinese room argument.
53
139344
1460
das chinesische Raum-Argument nennen.
02:21
In the Chinese room, there is a person, hypothetical person,
54
141429
3629
Im chinesischen Raum gibt es eine hypothetische Person,
02:25
who does not understand Chinese,
55
145100
1835
die kein Chinesisch versteht,
02:26
but he has along with him a set of instructions
56
146976
2211
aber sie hat eine Reihe von Anweisungen bei sich,
02:29
that tell him how to respond in Chinese to any Chinese sentence.
57
149229
4212
die ihm sagen, wie er auf Chinesisch auf jeden chinesischen Satz reagieren soll.
02:33
Here's how the Chinese room works.
58
153983
1669
So funktioniert das chinesische Zimmer:
02:35
A piece of paper comes in through a slot in the door,
59
155652
2502
Ein Zettel kommt durch einen Schlitz in der Tür herein,
02:38
has something written in Chinese on it.
60
158196
2461
auf dem etwas auf Chinesisch geschrieben steht.
02:40
The person uses their instructions to figure out how to respond.
61
160699
3003
Die Person nutzt die Anweisungen, um herauszufinden, wie sie reagieren soll,
02:43
They write the response down on a piece of paper
62
163702
2293
schreibt die Antwort auf ein Blatt Papier
02:46
and then send it back out through the door.
63
166037
2252
und schickt sie durch die Tür zurück.
02:48
To somebody who speaks Chinese,
64
168331
1502
Für jemanden, der Chinesisch spricht
02:49
standing outside this room,
65
169833
1293
und vor diesem Raum steht,
02:51
it might seem like the person inside the room speaks Chinese.
66
171167
3170
mag es so aussehen, als ob die Person im Raum Chinesisch spricht.
02:54
But we know they do not,
67
174337
2753
Wir wissen jedoch, dass dies nicht der Fall ist,
02:57
because no knowledge of Chinese is required to follow the instructions.
68
177090
4546
da keine Chinesischkenntnisse erforderlich sind,
um den Anweisungen zu folgen.
03:01
Performance on this task does not show that you know Chinese.
69
181636
2961
Die Durchführung dieser Aufgabe zeigt nicht, dass Sie Chinesisch sprechen.
03:05
So what does that tell us about AI?
70
185807
2002
Was sagt uns das über KI?
03:08
Well, when you and I stand outside of the room,
71
188226
2753
Nun, wenn Sie und ich außerhalb des Raums stehen,
03:11
when we speak to one of these AIs like ChatGPT,
72
191020
4547
wenn wir mit einer dieser KIs wie ChatGPT sprechen,
03:15
we are the person standing outside the room.
73
195567
2085
sind wir die Person, die außerhalb des Raums steht.
03:17
We're feeding in English sentences,
74
197652
1710
Wir geben englische Sätze ein,
03:19
we're getting English sentences back.
75
199362
2127
wir bekommen englische Sätze zurück.
03:21
It really looks like the models understand us.
76
201531
2419
Es sieht wirklich so aus, als würden uns die Models verstehen.
03:23
It really looks like they know English.
77
203992
2502
Es sieht wirklich so aus, als ob sie Englisch sprechen.
03:27
But under the hood,
78
207203
1168
Doch in Wahrheit
03:28
these models are just following a set of instructions, albeit complex.
79
208371
3754
folgen diese Modelle nur einer Reihe von Anweisungen, wenn auch komplexe.
03:32
How do we know if AI understands us?
80
212917
2795
Woher wissen wir, ob KI uns versteht?
03:36
To answer that question, let's go back to the Chinese room again.
81
216880
3086
Um diese Frage zu beantworten,
gehen wir zurück in das chinesische Zimmer.
03:39
Let's say we have two Chinese rooms.
82
219966
1794
Sagen wir, wir haben zwei chinesische Zimmer.
03:41
In one Chinese room is somebody who actually speaks Chinese,
83
221801
3879
In dem einen ist jemand, der tatsächlich Chinesisch spricht,
und in dem anderen Raum ist unser Betrüger.
03:46
and in the other room is our impostor.
84
226014
1877
Bekommt die Person, die tatsächlich Chinesisch spricht, ein Blatt Papier
03:48
When the person who actually speaks Chinese gets a piece of paper
85
228224
3087
03:51
that says something in Chinese in it, they can read it, no problem.
86
231311
3170
auf dem etwas auf Chinesisch steht, kann sie es lesen, kein Problem.
03:54
But when our imposter gets it again,
87
234522
1752
Aber bekommt unser Betrüger es wieder,
03:56
he has to use his set of instructions to figure out how to respond.
88
236274
3170
muss er anhand der Anweisungen herausfinden, wie er reagieren soll.
03:59
From the outside, it might be impossible to distinguish these two rooms,
89
239819
3671
Von außen mag es unmöglich sein, diese beiden Räume zu unterscheiden,
04:03
but we know inside something really different is happening.
90
243531
3587
aber wir wissen, dass drinnen etwas ganz anderes passiert.
04:07
To illustrate that,
91
247660
1168
Um das zu veranschaulichen,
04:08
let's say inside the minds of our two people,
92
248870
2836
nehmen wir an, in den Köpfen unserer beiden Leute,
04:11
inside of our two rooms,
93
251748
1585
in unseren beiden Räumen,
04:13
is a little scratch pad.
94
253374
1752
befindet sich ein kleiner Notizblock.
04:15
And everything they have to remember in order to do this task
95
255168
2878
Alles, was sie sich merken müssen, um die Aufgabe zu erledigen,
04:18
has to be written on that little scratch pad.
96
258046
2169
muss auf den Notizblock geschrieben werden.
04:20
If we could see what was written on that scratch pad,
97
260757
2586
Könnten wir sehen, was auf dem Notizblock geschrieben steht,
04:23
we would be able to tell how different their approach to the task is.
98
263384
3421
würden wir bemerken, wie unterschiedlich sie an die Aufgabe herangehen.
04:27
So though the input and the output of these two rooms
99
267514
2502
Obwohl die Eingabe und die Ausgabe dieser beiden Räume
04:30
might be exactly the same,
100
270016
1293
genau dieselbe ist,
04:31
the process of getting from input to output -- completely different.
101
271309
3337
ist der Prozess, von der Eingabe zur Ausgabe zu gelangen, völlig anders.
04:35
So again, what does that tell us about AI?
102
275897
2294
Was sagt uns das über KI?
04:38
Again, if AI, even if it generates completely plausible dialogue,
103
278691
3838
Auch hier gilt: Wenn KI, selbst wenn sie einen völlig plausiblen Dialog generiert,
04:42
answers questions just like we would expect,
104
282529
2085
Fragen so beantwortet, wie wir es erwarten,
04:44
it may still be an imposter of sorts.
105
284614
2377
kann sie immernoch eine Art Betrüger sein.
04:47
If we want to know if AI understands language like we do,
106
287033
3003
Wenn wir wissen wollen, ob KI Sprache so versteht wie wir,
04:50
we need to know what it's doing.
107
290078
1835
müssen wir wissen, was sie tut.
04:51
We need to get inside to see what it's doing.
108
291955
2335
Wir müssen reingehen, um zu sehen, was sie tut.
04:54
Is it an imposter or not?
109
294332
1585
Ist es ein Betrüger oder nicht?
04:55
We need to see its scratch pad,
110
295959
1835
Wir müssen sein Notizblock sehen
04:57
and we need to be able to compare it
111
297794
1752
und in der Lage sein, es mit dem Notizblock
04:59
to the scratch pad of somebody who actually understands language.
112
299587
3212
von jemandem zu vergleichen, der Sprache tatsächlich versteht.
05:02
But like scratch pads in brains,
113
302841
1751
Aber Notitzblöcke im Gehirn können wir
05:04
that's not something we can actually see, right?
114
304634
2336
nicht wirklich sehen, oder?
05:07
Well, it turns out that we can kind of see scratch pads in brains.
115
307720
3337
Ja, wir können Notizblöcke in Gehirnen sehen.
05:11
Using something like fMRI or EEG,
116
311099
2127
Mit etwas wie fMRT oder EEG
05:13
we can take what are like little snapshots of the brain while it’s reading.
117
313268
3712
können wir Schnappschüsse des Gehirns machen, während es liest.
05:17
So have people read words or stories and then take pictures of their brain.
118
317021
4171
Leute lesen also Wörter oder Geschichten
und wir machen Fotos von ihrem Gehirn.
05:21
And those brain images are like fuzzy,
119
321192
2252
Diese Gehirnbilder sind verschwommene,
05:23
out-of-focus pictures of the scratch pad of the brain.
120
323486
3253
unscharfe Bilder vom Notizblock des Gehirns.
05:26
They tell us a little bit about how the brain is processing
121
326739
3045
Sie zeigen uns ein wenig, wie das Gehirn Informationen verarbeitet
05:29
and representing information while you read.
122
329784
2461
und darstellt, beim Lesen.
Hier sind drei Gehirnbilder, aufgenommen, während eine Person
05:33
So here are three brain images taken while a person read the word "apartment,"
123
333079
4087
die Wörter „Wohnung“, „Haus“ und „Sellerie“ las.
05:37
"house" and "celery."
124
337208
1669
05:39
You can see just with your naked eye
125
339252
2002
Sie können mit bloßem Auge sehen,
05:41
that the brain image for "apartment" and "house"
126
341296
2252
dass das Gehirnbild für „Wohnung“ und „Haus“
05:43
are more similar to each other
127
343548
1585
einander ähnlicher ist
05:45
than they are to the brain image for "celery."
128
345133
2252
als das Gehirnbild für „Sellerie“.
05:47
And you know, of course that apartments and houses are more similar
129
347385
3170
Sie wissen natürlich, dass Wohnungen und Häuser
05:50
than they are to celery, just the words.
130
350555
2210
sich mehr ähneln als Sellerie, allein die Worte.
05:52
So said another way,
131
352807
2544
Anders ausgedrückt:
05:55
the brain uses its scratchpad when reading the words "apartment" and "house"
132
355393
4296
Das Gehirn verwendet seinen Notizblock, beim Lesen der Wörter „Wohnung“ und „Haus“
05:59
in a way that's more similar than when you read the word "celery."
133
359731
3128
auf eine Weise, die ähnlicher ist als wenn Sie das Wort „Sellerie“ lesen.
06:03
The scratch pad tells us a little bit
134
363693
1793
Der Notizblock zeigt uns ein wenig,
06:05
about how the brain represents the language.
135
365486
2086
wie das Gehirn die Sprache darstellt.
06:07
It's not a perfect picture of what the brain's doing,
136
367572
2502
Es ist kein perfektes Bild dessen, was das Gehirn tut,
06:10
but it's good enough.
137
370074
1335
aber es ist gut genug.
06:11
OK, so we have scratch pads for the brain.
138
371409
2169
Wir haben also Notizblöcke für das Gehirn.
06:13
Now we need a scratch pad for AI.
139
373620
2127
Jetzt brauchen wir ein Notizblock für KI.
06:16
So inside a lot of AIs is a neural network.
140
376706
2878
In vielen KIs befindet sich ein neuronales Netzwerk.
06:19
And inside of a neural network is a bunch of these little neurons.
141
379626
3253
In einem neuronalen Netzwerk befindet sich ein Haufen kleiner Neuronen.
06:22
So here the neurons are like these little gray circles.
142
382921
2919
Hier sind die Neuronen diese kleinen grauen Kreise.
06:25
And we would like to know
143
385840
1210
Wir wüssten gerne
was der Notizblock eines neuronalen Netzwerks ist.
06:27
what is the scratch pad of a neural network?
144
387091
2086
06:29
Well, when we feed in a word into a neural network,
145
389177
4254
Wenn wir ein Wort in ein neuronales Netzwerk eingeben,
06:33
each of the little neurons computes a number.
146
393473
2794
berechnet jedes der kleinen Neuronen eine Zahl,
06:36
Those little numbers I'm representing here with colors.
147
396893
2627
die ich hier mit Farben darstelle.
06:39
So every neuron computes this little number,
148
399562
2795
Jedes Neuron berechnet also diese Zahl,
06:42
and those numbers tell us something
149
402398
1710
und die Zahlen sagen uns etwas darüber,
06:44
about how the neural network is processing language.
150
404108
2711
wie das neuronale Netzwerk Sprache verarbeitet.
06:47
Taken together,
151
407862
1168
Zusammengenommen zeichnen uns
06:49
all of those little circles paint us a picture
152
409030
2753
all diese Kreise ein Bild davon,
06:51
of how the neural network is representing language,
153
411824
2419
wie das neuronale Netzwerk Sprache darstellt,
06:54
and they give us the scratch pad of the neural network.
154
414243
2753
und zeigen uns den Notizblock des neuronalen Netzwerks.
06:57
OK, great.
155
417580
1168
Wunderbar.
06:58
Now we have two scratch pads, one from the brain and one from AI.
156
418790
3086
Jetzt haben wir zwei Notizblöcke, eines aus dem Gehirn und eines aus der KI.
07:01
And we want to know: Is AI doing something like what the brain is doing?
157
421876
3629
Wir wollen wissen: Macht KI so etwas wie das Gehirn?
07:05
How can we test that?
158
425838
1377
Wie können wir das testen?
07:07
Here's what researchers have come up with.
159
427757
2002
Folgendes haben sich Forscher ausgedacht.
07:09
We're going to train a new model.
160
429801
1877
Wir trainieren ein neues Modell.
07:11
That new model is going to look at neural network scratch pad
161
431678
2877
Das neue Modell sieht sich die Notizen neuronaler Netzwerke
07:14
for a particular word
162
434555
1168
für ein bestimmtes Wort an
07:15
and try to predict the brain scratch pad for the same word.
163
435723
3087
und versucht, die Notizen im Gehirn für dasselbe Wort vorherzusagen.
07:18
We can do it, by the way, around two.
164
438851
1919
Wir können es übrigens für zwei machen.
07:20
So let's train a new model.
165
440812
2043
Also trainieren wir ein neues Modell.
07:22
It’s going to look at the neural network scratch pad for a particular word
166
442897
3504
Es sucht auf dem Notizblock des neuronalen Netzwerks nach einem Wort
07:26
and try to predict the brain scratchpad.
167
446401
1918
und versucht, die Notiz des Gehirns vorherzusagen.
07:28
If the brain and AI are doing nothing alike,
168
448319
2586
Wenn das Gehirn und die KI nichts gleich machen,
07:30
have nothing in common,
169
450947
1168
nichts gemeinsam haben,
07:32
we won't be able to do this prediction task.
170
452115
2085
können wir die Vorhersageaufgabe nicht bewältigen.
07:34
It won't be possible to predict one from the other.
171
454200
2461
Wir können nicht das eine vom anderen vorhrsagen.
07:36
So we've reached a fork in the road
172
456995
1710
Wir sind an einer Weggabelung angelangt
07:38
and you can probably tell I'm about to tell you one of two things.
173
458705
3295
und Sie wissen vermutlich,
dass ich Ihnen eins von zwei Dingen sagen werde.
07:42
I’m going to tell you AI is amazing,
174
462458
2044
Ich sage, dass KI fantastisch ist,
07:44
or I'm going to tell you AI is an imposter.
175
464544
2669
oder ich sage, dass KI ein Betrug ist.
Forscher wie ich erinnern Sie gerne daran,
07:48
Researchers like me love to remind you
176
468047
2211
07:50
that AI is nothing like the brain.
177
470299
1627
dass KI nichts mit dem Gehirn zu tun hat.
07:51
And that is true.
178
471968
1501
Und das stimmt.
07:53
But could it also be the AI and the brain share something in common?
179
473845
3253
Aber könnte es sein, dass die KI und das Gehirn etwas gemeinsam haben?
Wir haben diese Aufgabe zur Vorhersage von Notizen gemacht
07:58
So we’ve done this scratch pad prediction task,
180
478516
2211
08:00
and it turns out, 75 percent of the time
181
480727
2669
und in 75 Prozent
ist der vorhergesagte neuronale Netzwerk-Notizblock,
08:03
the predicted neural network scratchpad for a particular word
182
483438
3169
für ein bestimmtes Wort,
08:06
is more similar to the true neural network scratchpad for that word
183
486649
3754
dem echten neuronalen Netzwerk-Notitzblock für dieses Wort ähnlicher
08:10
than it is to the neural network scratch pad
184
490403
2085
als dem neuronalen Netzwerk-Notizblock
08:12
for some other randomly chosen word --
185
492488
1835
für ein anderes zufällig ausgewähltes Wort —
08:14
75 percent is much better than chance.
186
494323
2962
75 Prozent sind viel besser als Zufall.
08:17
What about for more complicated things,
187
497285
1918
Was ist mit komplizierteren Dingen,
08:19
not just words, but sentences, even stories?
188
499203
2086
nicht nur Wörter, sondern Sätze oder Geschichten?
08:21
Again, this scratch pad prediction task works.
189
501330
2420
Auch diese Vorhersage funktioniert.
08:23
We’re able to predict the neural network scratch pad from the brain and vice versa.
190
503791
4213
Wir können Notizen im neuronalen Netzwerk
vom Gehirn aus vorhersagen und umgekehrt.
08:28
Amazing.
191
508838
1210
Unglaublich.
08:30
So does that mean
192
510548
1168
Bedeutet das also,
08:31
that neural networks and AI understand language just like we do?
193
511758
3378
dass neuronale Netzwerke und KI Sprache genauso verstehen wie wir?
08:35
Well, truthfully, no.
194
515511
1585
Ehrlich gesagt, nein.
08:37
Though these scratch pad prediction tasks show above-chance accuracy,
195
517513
4880
Obwohl die Notizblock-Vorhersageaufgaben eine Genauigkeit aufweisen,
die über der Wahrscheinlichkeit liegt,
08:42
the underlying correlations are still pretty weak.
196
522393
2378
sind die zugrunde liegenden Korrelationen immer noch schwach.
08:45
And though neural networks are inspired by the brain,
197
525188
2502
Obwohl neuronale Netzwerke vom Gehirn inspiriert sind,
08:47
they don't have the same kind of structure and complexity
198
527690
2711
haben sie nicht die gleiche Struktur und Komplexität,
08:50
that we see in the brain.
199
530401
1210
die wir im Gehirn sehen.
08:52
Neural networks also don't exist in the world.
200
532028
2461
Neuronale Netzwerke gibt es auch nicht auf der Welt.
08:54
A neural network has never opened a door
201
534530
2086
Ein neuronales Netzwerk hat noch nie eine Tür geöffnet,
08:56
or seen a sunset, heard a baby cry.
202
536657
2962
einen Sonnenuntergang gesehen oder ein Baby weinen gehört.
09:00
Can a neural network that doesn't actually exist in the world,
203
540161
2961
Kann ein neuronales Netzwerk, das auf der Welt nicht existiert
09:03
hasn't really experienced the world,
204
543122
1794
die Welt nicht wirklich erlebt hat,
09:04
really understand language about the world?
205
544916
2294
Sprache über die Welt verstehen?
Trotzdem haben sich Experimente zur Vorhersage von Notizblöcken gehalten —
09:08
Still, these scratch pad prediction experiments have held up --
206
548169
2961
mehrere Experimente zur Bildgebung des Gehirns,
09:11
multiple brain imaging experiments,
207
551130
1710
09:12
multiple neural networks.
208
552840
1418
mehrere neuronale Netzwerke.
09:14
We've also found that as the neural networks get more accurate,
209
554300
2961
Wir fanden heraus, dass die neuronalen Netzwerke,
09:17
they also start to use their scratch pad in a way
210
557261
2711
je genauer sie werden, auch anfangen, ihr Notizblock so zu verwenden,
09:20
that becomes more brain-like.
211
560014
2002
dass es hirnähnlicher wird.
09:22
And it's not just language.
212
562058
1293
Es ist nicht nur Sprache.
09:23
We've seen similar results in navigation and vision.
213
563392
2503
Wir haben ähnliche Ergebnisse bei Navigation und Vision erzielt.
09:26
So AI is not doing exactly what the brain is doing,
214
566270
3879
KI macht also nicht genau das, was das Gehirn tut,
09:30
but it's not completely random either.
215
570191
2377
aber sie ist auch nicht völlig zufällig.
Wenn wir also von meinem Standpunkt aus
09:34
So from where I sit,
216
574112
1835
09:35
if we want to know if AI really understands language like we do,
217
575988
3337
wissen wollen, ob KI Sprache wirklich so versteht wie wir,
09:39
we need to get inside of the Chinese room.
218
579325
2336
müssen wir in den chinesischen Raum gehen.
09:41
We need to know what the AI is doing,
219
581702
1836
Wir müssen wissen, was die KI tut,
09:43
and we need to be able to compare that to what people are doing
220
583579
2962
und wir müssen es mit dem vergleichen können,
09:46
when they understand language.
221
586541
1751
was Menschen tun, wenn sie Sprache verstehen.
09:48
AI is moving so fast.
222
588334
1877
KI bewegt sich so schnell.
09:50
Today, I'm asking you, does AI understand language
223
590545
2377
Heute frage ich Sie, ob KI Sprache versteht.
09:52
that might seem like a silly question in ten years.
224
592964
2460
Das könnte in zehn Jahren wie eine dumme Frage erscheinen.
09:55
Or ten months.
225
595466
1168
Oder in zehn Monaten.
09:56
(Laughter)
226
596634
1919
(Lachen)
09:58
But one thing will remain true.
227
598594
1544
Aber eines bleibt wahr.
10:00
We are meaning-making humans,
228
600179
1460
Wir sind bedeutungsstiftende Menschen,
10:01
and we are going to continue to look for meaning
229
601681
2878
wir werden weiterhin nach Sinn suchen
10:04
and interpret the world around us.
230
604559
1918
und die Welt um uns herum interpretieren.
10:06
And we will need to remember
231
606477
2127
Wir müssen uns daran erinnern,
10:08
that if we only look at the input and output of AI,
232
608646
2794
dass es sehr leicht ist, sich täuschen zu lassen,
wenn wir uns nur die Eingabe und Ausgabe von KI ansehen.
10:11
it's very easy to be fooled.
233
611440
2128
10:13
We need to get inside of the metaphorical room of AI
234
613609
3712
Wir müssen in den metaphorischen Raum der KI gelangen,
10:17
in order to see what's happening.
235
617363
1627
um zu sehen, was passiert.
10:19
It's what's inside the counts.
236
619740
2461
Es ist was darin ist, das zählt.
10:22
Thank you.
237
622660
1168
Danke.
10:23
(Applause)
238
623828
4004
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7