3 principles for creating safer AI | Stuart Russell

139,790 views ・ 2017-06-06

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Tanja Daub Lektorat: Andreas Herzog
00:12
This is Lee Sedol.
0
12532
1552
Das hier ist Lee Sedol.
00:14
Lee Sedol is one of the world's greatest Go players,
1
14108
3997
Lee Sedol ist einer der besten Go-Spieler.
00:18
and he's having what my friends in Silicon Valley call
2
18129
2885
Er erlebt hier, was meine Freunde im Silicon Valley
einen "Heiliger Strohsack"-Moment nennen.
00:21
a "Holy Cow" moment --
3
21038
1510
00:22
(Laughter)
4
22572
1073
(Gelächter)
00:23
a moment where we realize
5
23669
2188
Ein Moment, in dem wir bemerken,
00:25
that AI is actually progressing a lot faster than we expected.
6
25881
3296
dass die KI schneller vorankommt, als wir erwartet haben.
00:29
So humans have lost on the Go board. What about the real world?
7
29974
3047
Menschen verloren also bei Go.
Was ist mit der echten Welt?
00:33
Well, the real world is much bigger,
8
33045
2100
Die echte Welt ist viel größer
00:35
much more complicated than the Go board.
9
35169
2249
und komplizierter als ein Go-Brett.
00:37
It's a lot less visible,
10
37442
1819
Sie ist weniger einsehbar,
00:39
but it's still a decision problem.
11
39285
2038
aber trotzdem entscheidbar.
00:42
And if we think about some of the technologies
12
42768
2321
Wenn wir an ein paar Technologien denken,
00:45
that are coming down the pike ...
13
45113
1749
die auf uns zukommen --
00:47
Noriko [Arai] mentioned that reading is not yet happening in machines,
14
47558
4335
Noriko [Arai] erwähnte, dass Maschinen noch nicht lesen können,
00:51
at least with understanding.
15
51917
1500
jedenfalls nicht mit Verständnis.
00:53
But that will happen,
16
53441
1536
Aber das wird kommen.
00:55
and when that happens,
17
55001
1771
Wenn es so weit kommt,
00:56
very soon afterwards,
18
56796
1187
werden Maschinen sehr bald alles gelesen haben,
00:58
machines will have read everything that the human race has ever written.
19
58007
4572
was Menschen je geschrieben haben.
01:03
And that will enable machines,
20
63670
2030
Das wird Maschinen ermöglichen,
01:05
along with the ability to look further ahead than humans can,
21
65724
2920
neben der Fähigkeit weiter vorauszuschauen als Menschen,
01:08
as we've already seen in Go,
22
68668
1680
wie wir bei Go schon sahen --
01:10
if they also have access to more information,
23
70372
2164
wenn sie auch noch mehr Information haben,
01:12
they'll be able to make better decisions in the real world than we can.
24
72560
4268
werden sie in der echten Welt bessere Entscheidungen treffen können als wir.
01:18
So is that a good thing?
25
78612
1606
Ist das gut?
01:21
Well, I hope so.
26
81718
2232
Ich hoffe es.
01:26
Our entire civilization, everything that we value,
27
86514
3255
Unsere gesamte Zivilisation, alles, was wir wertschätzen,
01:29
is based on our intelligence.
28
89793
2068
basiert auf unserer Intelligenz.
01:31
And if we had access to a lot more intelligence,
29
91885
3694
Wenn wir Zugriff auf mehr Intelligenz hätten,
01:35
then there's really no limit to what the human race can do.
30
95603
3302
dann kann die Menschheit alles erreichen.
01:40
And I think this could be, as some people have described it,
31
100485
3325
Ich glaube, das könnte, wie manche Leute es beschrieben,
01:43
the biggest event in human history.
32
103834
2016
das größte Ereignis in der Geschichte der Menschheit sein.
01:48
So why are people saying things like this,
33
108485
2829
Warum sagen Leute also,
01:51
that AI might spell the end of the human race?
34
111338
2876
dass KI das Ende der Menschheit bedeuten könnte?
01:55
Is this a new thing?
35
115258
1659
Ist das neu?
01:56
Is it just Elon Musk and Bill Gates and Stephen Hawking?
36
116941
4110
Sind es nur Elon Musk, Bill Gates und Stephen Hawking?
02:01
Actually, no. This idea has been around for a while.
37
121773
3262
Nein. Diese Idee gibt es schon länger.
02:05
Here's a quotation:
38
125059
1962
Hier ist ein Zitat:
02:07
"Even if we could keep the machines in a subservient position,
39
127045
4350
"Selbst wenn wir die Maschinen in unterwürfiger Stellung halten könnten,
02:11
for instance, by turning off the power at strategic moments" --
40
131419
2984
z. B. indem wir den Strom abschalten" --
02:14
and I'll come back to that "turning off the power" idea later on --
41
134427
3237
ich werde später auf diese Idee eingehen --
02:17
"we should, as a species, feel greatly humbled."
42
137688
2804
"sollten wir uns als Spezies demütig fühlen."
02:21
So who said this? This is Alan Turing in 1951.
43
141997
3448
Wer hat das gesagt? Alan Turing, 1951.
02:26
Alan Turing, as you know, is the father of computer science
44
146120
2763
Alan Turing, wie Sie wissen, ist der Vater der Informatik
02:28
and in many ways, the father of AI as well.
45
148907
3048
und in vielerlei Hinsicht auch der KI.
02:33
So if we think about this problem,
46
153059
1882
Wenn wir also über dieses Problem nachdenken,
02:34
the problem of creating something more intelligent than your own species,
47
154965
3787
etwas Intelligenteres als unsere eigene Art zu entwerfen,
02:38
we might call this "the gorilla problem,"
48
158776
2622
könnten wir es als "Gorilla-Problem" bezeichnen,
02:42
because gorillas' ancestors did this a few million years ago,
49
162165
3750
weil die Vorfahren der Gorillas das vor Jahrmillionen taten.
02:45
and now we can ask the gorillas:
50
165939
1745
Wir können die Gorillas jetzt fragen:
02:48
Was this a good idea?
51
168572
1160
War das eine gute Idee?
02:49
So here they are having a meeting to discuss whether it was a good idea,
52
169756
3530
Hier sind sie bei einem Meeting und besprechen, ob es eine gute Idee war.
02:53
and after a little while, they conclude, no,
53
173310
3346
Sie kommen zu dem Schluss, nein,
02:56
this was a terrible idea.
54
176680
1345
es war eine schlechte Idee.
02:58
Our species is in dire straits.
55
178049
1782
Unsere Spezies ist in arger Not.
03:00
In fact, you can see the existential sadness in their eyes.
56
180358
4263
Sie können die existenzielle Traurigkeit in ihren Augen sehen.
03:04
(Laughter)
57
184645
1640
(Gelächter)
03:06
So this queasy feeling that making something smarter than your own species
58
186309
4840
Das mulmige Gefühl, dass es eine schlechte Idee sein könnte,
03:11
is maybe not a good idea --
59
191173
2365
etwas Intelligenteres als uns selbst zu erstellen,
03:14
what can we do about that?
60
194308
1491
was können wir dagegen tun?
03:15
Well, really nothing, except stop doing AI,
61
195823
4767
Nichts so richtig, außer keine KI mehr zu entwickeln.
03:20
and because of all the benefits that I mentioned
62
200614
2510
Wegen all der Vorteile, die ich schon erwähnte,
03:23
and because I'm an AI researcher,
63
203148
1716
und weil ich ein KI-Forscher bin, werde ich das nicht zulassen.
03:24
I'm not having that.
64
204888
1791
03:27
I actually want to be able to keep doing AI.
65
207103
2468
Ich will weiter KI erforschen.
03:30
So we actually need to nail down the problem a bit more.
66
210435
2678
Wir müssen das Problem also genauer festnageln.
03:33
What exactly is the problem?
67
213137
1371
Was genau ist das Problem?
03:34
Why is better AI possibly a catastrophe?
68
214532
3246
Warum könnte bessere KI eine Katastrophe sein?
03:39
So here's another quotation:
69
219218
1498
Hier ist noch ein Zitat:
03:41
"We had better be quite sure that the purpose put into the machine
70
221755
3335
"Wir sollten uns sicher sein, dass die Absichten in der Maschine
03:45
is the purpose which we really desire."
71
225114
2298
tatsächlich die gewünschten Absichten sind."
03:48
This was said by Norbert Wiener in 1960,
72
228102
3498
Das sagte Norbert Wiener 1960,
03:51
shortly after he watched one of the very early learning systems
73
231624
4002
kurz nachdem er ein sehr frühes lernendes System
03:55
learn to play checkers better than its creator.
74
235650
2583
hatte lernen sehen, besser als sein Urheber Dame zu spielen.
04:00
But this could equally have been said
75
240422
2683
Aber das hätte genauso gut
König Midas sagen können.
04:03
by King Midas.
76
243129
1167
04:04
King Midas said, "I want everything I touch to turn to gold,"
77
244903
3134
Er sagte: "Alles, was ich berühre, soll zu Gold werden."
Er bekam das, was er wollte.
04:08
and he got exactly what he asked for.
78
248061
2473
04:10
That was the purpose that he put into the machine,
79
250558
2751
Das war der Zweck, den er der Maschine gab,
04:13
so to speak,
80
253333
1450
sozusagen,
04:14
and then his food and his drink and his relatives turned to gold
81
254807
3444
und sein Essen, Trinken und Verwandte verwandelten sich in Gold.
04:18
and he died in misery and starvation.
82
258275
2281
Er verhungerte elendig.
04:22
So we'll call this "the King Midas problem"
83
262264
2341
Nennen wir das also "das König-Midas-Problem",
04:24
of stating an objective which is not, in fact,
84
264629
3305
ein Ziel zu verfolgen, das in Wirklichkeit
04:27
truly aligned with what we want.
85
267958
2413
nicht mit dem, was wir wollen, übereinstimmt.
04:30
In modern terms, we call this "the value alignment problem."
86
270395
3253
Moderner gesagt nennen wir das das "Wertausrichtungsproblem".
04:36
Putting in the wrong objective is not the only part of the problem.
87
276867
3485
Das falsche Ziel vorzugeben, ist nicht der einzige Teil des Problems.
04:40
There's another part.
88
280376
1152
Es gibt noch einen Teil.
04:41
If you put an objective into a machine,
89
281980
1943
Wenn man Maschinen ein Ziel gibt,
04:43
even something as simple as, "Fetch the coffee,"
90
283947
2448
selbst etwas Einfaches wie: "Hol den Kaffee",
04:47
the machine says to itself,
91
287728
1841
sagt sich die Maschine:
04:50
"Well, how might I fail to fetch the coffee?
92
290553
2623
"Wie könnte ich dabei scheitern, den Kaffee zu holen?
04:53
Someone might switch me off.
93
293200
1580
Jemand könnte mich ausschalten.
04:55
OK, I have to take steps to prevent that.
94
295465
2387
Okay, ich muss das verhindern.
04:57
I will disable my 'off' switch.
95
297876
1906
Ich werde meinen Ausschalter blockieren.
05:00
I will do anything to defend myself against interference
96
300354
2959
Ich werde alles tun, um mich gegen Störung des Ziels zu verteidigen,
05:03
with this objective that I have been given."
97
303337
2629
das mir gegeben wurde."
05:05
So this single-minded pursuit
98
305990
2012
Dieses zielstrebige, defensive Verfolgen eines Ziels,
05:09
in a very defensive mode of an objective that is, in fact,
99
309033
2945
das tatsächlich nicht mit den Zielen der Menschheit übereinstimmt,
05:12
not aligned with the true objectives of the human race --
100
312002
2814
05:15
that's the problem that we face.
101
315942
1862
ist das Problem, vor dem wir stehen.
05:18
And in fact, that's the high-value takeaway from this talk.
102
318827
4767
Das ist die hochwertige Information in diesem Vortrag.
05:23
If you want to remember one thing,
103
323618
2055
Wenn Sie sich nur eins merken,
05:25
it's that you can't fetch the coffee if you're dead.
104
325697
2675
dann, dass Sie keinen Kaffee holen können, wenn Sie tot sind.
05:28
(Laughter)
105
328396
1061
(Gelächter)
05:29
It's very simple. Just remember that. Repeat it to yourself three times a day.
106
329481
3829
Es ist einfach. Merken Sie sich das. Wiederholen Sie es dreimal am Tag.
05:33
(Laughter)
107
333334
1821
(Gelächter)
05:35
And in fact, this is exactly the plot
108
335179
2754
Das ist im Grunde die Handlung
05:37
of "2001: [A Space Odyssey]"
109
337957
2648
von "2001: [Odyssee im Weltraum]".
05:41
HAL has an objective, a mission,
110
341046
2090
HAL hat ein Ziel, eine Mission,
05:43
which is not aligned with the objectives of the humans,
111
343160
3732
die nicht mit den Zielen der Menschen übereinstimmt,
05:46
and that leads to this conflict.
112
346916
1810
was zu Konflikt führt.
05:49
Now fortunately, HAL is not superintelligent.
113
349314
2969
Zum Glück ist HAL nicht superintelligent.
05:52
He's pretty smart, but eventually Dave outwits him
114
352307
3587
Er ist ziemlich clever, aber Dave überlistet ihn letztendlich
05:55
and manages to switch him off.
115
355918
1849
und schaltet ihn aus.
06:01
But we might not be so lucky.
116
361648
1619
Wir werden vielleicht weniger Glück haben.
06:08
So what are we going to do?
117
368013
1592
Was werden wir also tun?
06:12
I'm trying to redefine AI
118
372191
2601
Ich versuche, KI neu zu definieren,
06:14
to get away from this classical notion
119
374816
2061
um von dieser klassischen Vorstellung wegzukommen, dass Maschinen
06:16
of machines that intelligently pursue objectives.
120
376901
4567
Ziele auf intelligente Weise verfolgen.
06:22
There are three principles involved.
121
382532
1798
Es geht um drei Prinzipien.
Das erste ist ein Prinzip des Altruismus,
06:24
The first one is a principle of altruism, if you like,
122
384354
3289
06:27
that the robot's only objective
123
387667
3262
dass das einzige Ziel eines Roboters ist,
06:30
is to maximize the realization of human objectives,
124
390953
4246
die Verwirklichung menschlicher Ziele und Werte zu maximieren.
06:35
of human values.
125
395223
1390
06:36
And by values here I don't mean touchy-feely, goody-goody values.
126
396637
3330
Mit Werten meine ich nicht gefühlsduselige, tugendhafte Werte,
06:39
I just mean whatever it is that the human would prefer
127
399991
3787
sondern wie ein Mensch sein Leben bevorzugen würde.
06:43
their life to be like.
128
403802
1343
06:47
And so this actually violates Asimov's law
129
407184
2309
Das widerspricht also Asimovs Gesetz,
06:49
that the robot has to protect its own existence.
130
409517
2329
dass der Roboter sich selbst schützen muss.
06:51
It has no interest in preserving its existence whatsoever.
131
411870
3723
Er hat kein Interesse an Selbsterhaltung.
06:57
The second law is a law of humility, if you like.
132
417240
3768
Das zweite Gesetz ist das Gesetz der Ergebenheit.
07:01
And this turns out to be really important to make robots safe.
133
421794
3743
Das ist sehr wichtig, um Roboter sicherzumachen.
07:05
It says that the robot does not know
134
425561
3142
Es besagt, dass der Roboter diese menschlichen Werte nicht kennt,
07:08
what those human values are,
135
428727
2028
07:10
so it has to maximize them, but it doesn't know what they are.
136
430779
3178
sie maximieren soll, aber sie nicht kennt.
07:15
And that avoids this problem of single-minded pursuit
137
435074
2626
Das verhindert das Problem des zielstrebigen Verfolgens eines Ziels.
07:17
of an objective.
138
437724
1212
07:18
This uncertainty turns out to be crucial.
139
438960
2172
Diese Ungewissheit ist ausschlaggebend.
07:21
Now, in order to be useful to us,
140
441546
1639
Damit er uns nützlich ist,
07:23
it has to have some idea of what we want.
141
443209
2731
muss er eine Ahnung haben, was wir wollen.
07:27
It obtains that information primarily by observation of human choices,
142
447043
5427
Er erlangt diese Information durch das Beobachten menschlicher Entscheidungen.
07:32
so our own choices reveal information
143
452494
2801
Unsere Entscheidungen beinhalten Information darüber,
07:35
about what it is that we prefer our lives to be like.
144
455319
3300
wie wir unser Leben gerne hätten.
07:40
So those are the three principles.
145
460452
1683
Das sind die drei Prinzipien. Was bewirken sie bei der Frage
07:42
Let's see how that applies to this question of:
146
462159
2318
07:44
"Can you switch the machine off?" as Turing suggested.
147
464501
2789
"Kann man die Maschine ausschalten?", wie Turing vorschlug.
07:48
So here's a PR2 robot.
148
468893
2120
Hier ist ein PR2-Roboter.
07:51
This is one that we have in our lab,
149
471037
1821
Den haben wir bei uns im Labor
07:52
and it has a big red "off" switch right on the back.
150
472882
2903
und er hat einen großen, roten Ausschalter am Rücken.
07:56
The question is: Is it going to let you switch it off?
151
476361
2615
Die Frage ist: Lässt es uns ihn ausschalten?
Wenn wir das klassisch machen,
07:59
If we do it the classical way,
152
479000
1465
08:00
we give it the objective of, "Fetch the coffee, I must fetch the coffee,
153
480489
3482
geben wir ihm das Ziel: "Ich hole Kaffee, ich muss Kaffee holen,
08:03
I can't fetch the coffee if I'm dead,"
154
483995
2580
ich kann keinen Kaffee holen, wenn ich tot bin."
08:06
so obviously the PR2 has been listening to my talk,
155
486599
3341
PR2 hat sich natürlich meinen Vortrag angehört
08:09
and so it says, therefore, "I must disable my 'off' switch,
156
489964
3753
und sagt also: "Ich muss meinen Ausschalter blockieren
08:14
and probably taser all the other people in Starbucks
157
494796
2694
und alle anderen Leute in Starbucks tasern,
08:17
who might interfere with me."
158
497514
1560
die mich stören könnten."
08:19
(Laughter)
159
499098
2062
(Gelächter)
08:21
So this seems to be inevitable, right?
160
501184
2153
Das scheint unvermeidbar, nicht wahr?
08:23
This kind of failure mode seems to be inevitable,
161
503361
2398
Dieser Fehlermodus scheint unvermeidbar
08:25
and it follows from having a concrete, definite objective.
162
505783
3543
und folgt aus der konkreten, eindeutigen Zielverfolgung.
08:30
So what happens if the machine is uncertain about the objective?
163
510632
3144
Was passiert, wenn die Maschine unsicher über das Ziel ist?
08:33
Well, it reasons in a different way.
164
513800
2127
Sie denkt anders.
08:35
It says, "OK, the human might switch me off,
165
515951
2424
Sie sagt sich: "Der Mensch schaltet mich vielleicht aus,
08:38
but only if I'm doing something wrong.
166
518964
1866
aber nur, wenn ich was falsch mache.
08:41
Well, I don't really know what wrong is,
167
521567
2475
Ich weiß nicht so richtig, was falsch ist,
08:44
but I know that I don't want to do it."
168
524066
2044
aber ich weiß, dass ich das nicht will."
08:46
So that's the first and second principles right there.
169
526134
3010
Das sind die ersten zwei Prinzipien.
08:49
"So I should let the human switch me off."
170
529168
3359
"Also sollte ich den Menschen mich ausschalten lassen."
08:53
And in fact you can calculate the incentive that the robot has
171
533541
3956
Man kann sogar den Anreiz errechnen, den ein Roboter hat,
08:57
to allow the human to switch it off,
172
537521
2493
sich ausschalten zu lassen.
09:00
and it's directly tied to the degree
173
540038
1914
Er ist direkt mit dem Grad der Ungewissheit über das Ziel verbunden.
09:01
of uncertainty about the underlying objective.
174
541976
2746
09:05
And then when the machine is switched off,
175
545797
2949
Wenn die Maschine ausgeschaltet wird, kommt das dritte Prinzip ins Spiel.
09:08
that third principle comes into play.
176
548770
1805
09:10
It learns something about the objectives it should be pursuing,
177
550599
3062
Sie lernt über die Ziele, die sie verfolgen sollte,
09:13
because it learns that what it did wasn't right.
178
553685
2533
weil sie lernt, dass sie etwas falsch gemacht hat.
09:16
In fact, we can, with suitable use of Greek symbols,
179
556242
3570
Mit angemessener Verwendung griechischer Zeichen,
09:19
as mathematicians usually do,
180
559836
2131
wie Mathematiker das halt tun,
09:21
we can actually prove a theorem
181
561991
1984
können wir einen Satz beweisen,
09:23
that says that such a robot is provably beneficial to the human.
182
563999
3553
der besagt, dass ein solcher Roboter nachweislich nützlich für Menschen ist.
09:27
You are provably better off with a machine that's designed in this way
183
567576
3803
Man ist bewiesenermaßen mit so einer Maschine besser dran
09:31
than without it.
184
571403
1246
als ohne sie.
09:33
So this is a very simple example, but this is the first step
185
573057
2906
Das ist ein sehr einfaches Beispiel, aber es ist der erste Schritt
09:35
in what we're trying to do with human-compatible AI.
186
575987
3903
in unseren Versuchen mit KI, die mit Menschen kompatibel ist.
09:42
Now, this third principle,
187
582477
3257
Über das dritte Prinzip
09:45
I think is the one that you're probably scratching your head over.
188
585758
3112
zerbrechen Sie sich wahrscheinlich den Kopf.
09:48
You're probably thinking, "Well, you know, I behave badly.
189
588894
3239
Wahrscheinlich denken Sie: "Ich verhalte mich schlecht.
09:52
I don't want my robot to behave like me.
190
592157
2929
Mein Roboter soll sich nicht wie ich verhalten.
09:55
I sneak down in the middle of the night and take stuff from the fridge.
191
595110
3434
Ich schleiche mich mitten in der Nacht zum Kühlschrank.
09:58
I do this and that."
192
598568
1168
Ich mache alles mögliche."
09:59
There's all kinds of things you don't want the robot doing.
193
599760
2797
Der Roboter soll alles mögliche nicht machen.
10:02
But in fact, it doesn't quite work that way.
194
602581
2071
Aber so funktioniert das nicht.
10:04
Just because you behave badly
195
604676
2155
Nur, weil Sie sich schlecht benehmen,
10:06
doesn't mean the robot is going to copy your behavior.
196
606855
2623
muss der Roboter nicht Ihr Verhalten imitieren.
10:09
It's going to understand your motivations and maybe help you resist them,
197
609502
3910
Er versteht Ihre Motivation und kann vielleicht helfen, ihr zu widerstehen,
10:13
if appropriate.
198
613436
1320
falls angemessen.
10:16
But it's still difficult.
199
616026
1464
Aber es ist trotzdem schwer.
10:18
What we're trying to do, in fact,
200
618122
2545
Wir versuchen, Maschinen zu ermöglichen,
10:20
is to allow machines to predict for any person and for any possible life
201
620691
5796
für jede Person und jedes mögliche Leben
10:26
that they could live,
202
626511
1161
10:27
and the lives of everybody else:
203
627696
1597
und alle anderen Leben vorauszusagen:
10:29
Which would they prefer?
204
629317
2517
Was würden sie vorziehen?
10:33
And there are many, many difficulties involved in doing this;
205
633881
2954
Das bringt viele Schwierigkeiten mit sich.
10:36
I don't expect that this is going to get solved very quickly.
206
636859
2932
Ich erwarte keine schnelle Lösung.
10:39
The real difficulties, in fact, are us.
207
639815
2643
Die eigentliche Schwierigkeit sind wir selbst.
10:43
As I have already mentioned, we behave badly.
208
643969
3117
Wie bereits gesagt benehmen wir uns schlecht.
Manche von uns sind richtig fies.
10:47
In fact, some of us are downright nasty.
209
647110
2321
10:50
Now the robot, as I said, doesn't have to copy the behavior.
210
650251
3052
Der Roboter muss das Verhalten nicht imitieren.
10:53
The robot does not have any objective of its own.
211
653327
2791
Der Roboter hat keine eigenen Ziele.
10:56
It's purely altruistic.
212
656142
1737
Er ist komplett altruistisch.
10:59
And it's not designed just to satisfy the desires of one person, the user,
213
659113
5221
Er ist nicht zur Erfüllung der Wünsche eines Menschen, des Benutzers, vorgesehen,
11:04
but in fact it has to respect the preferences of everybody.
214
664358
3138
sondern muss die Präferenzen Aller respektieren.
11:09
So it can deal with a certain amount of nastiness,
215
669083
2570
Er kann also mit etwas Gemeinheit umgehen
11:11
and it can even understand that your nastiness, for example,
216
671677
3701
und sogar verstehen, dass Sie zum Beispiel
11:15
you may take bribes as a passport official
217
675402
2671
als Passbeamter Bestechung annehmen,
11:18
because you need to feed your family and send your kids to school.
218
678097
3812
weil Sie Ihre Familie ernähren und Ihre Kinder zur Schule schicken müssen.
11:21
It can understand that; it doesn't mean it's going to steal.
219
681933
2906
Er versteht das und wird nicht deswegen stehlen,
11:24
In fact, it'll just help you send your kids to school.
220
684863
2679
sondern Ihnen helfen, Ihre Kinder zur Schule zu schicken.
11:28
We are also computationally limited.
221
688796
3012
Außerdem haben wir technische Limits.
11:31
Lee Sedol is a brilliant Go player,
222
691832
2505
Lee Sedol ist ein hervorragender Go-Spieler,
11:34
but he still lost.
223
694361
1325
verlor aber trotzdem.
11:35
So if we look at his actions, he took an action that lost the game.
224
695710
4239
Er hat also einen Zug gespielt, der das Spiel verloren hat.
11:39
That doesn't mean he wanted to lose.
225
699973
2161
Das bedeutet nicht, dass er verlieren wollte.
11:43
So to understand his behavior,
226
703160
2040
Um sein Verhalten zu verstehen,
11:45
we actually have to invert through a model of human cognition
227
705224
3644
brauchen wir also ein Modell menschlicher Kognition,
11:48
that includes our computational limitations -- a very complicated model.
228
708892
4977
das unsere technischen Limits einbezieht -- ein sehr kompliziertes Modell.
11:53
But it's still something that we can work on understanding.
229
713893
2993
Aber wir können daran arbeiten, es zu verstehen.
11:57
Probably the most difficult part, from my point of view as an AI researcher,
230
717696
4320
Als KI-Forscher erscheint es mir am schwierigsten,
12:02
is the fact that there are lots of us,
231
722040
2575
dass wir so viele sind
12:06
and so the machine has to somehow trade off, weigh up the preferences
232
726114
3581
und die Maschine irgendwie die Präferenzen
12:09
of many different people,
233
729719
2225
vieler verschiedener Leute abwägen muss.
12:11
and there are different ways to do that.
234
731968
1906
Das geht auf verschiedene Arten.
12:13
Economists, sociologists, moral philosophers have understood that,
235
733898
3689
Wirtschaftswissenschaftler, Soziologen und Ethiker haben das verstanden.
12:17
and we are actively looking for collaboration.
236
737611
2455
Wir suchen aktiv nach Zusammenarbeit.
12:20
Let's have a look and see what happens when you get that wrong.
237
740090
3251
Was passiert, wenn das schiefgeht?
12:23
So you can have a conversation, for example,
238
743365
2133
Man kann z. B. in ein paar Jahren
12:25
with your intelligent personal assistant
239
745522
1944
mit seinem intelligenten Assistenten, eine Konversation führen.
12:27
that might be available in a few years' time.
240
747490
2285
12:29
Think of a Siri on steroids.
241
749799
2524
Man stelle sich ein aufgeputschtes Siri vor.
12:33
So Siri says, "Your wife called to remind you about dinner tonight."
242
753447
4322
Siri sagt: "Ihre Frau rief an, um Sie an das Abendessen heute zu erinnern."
12:38
And of course, you've forgotten. "What? What dinner?
243
758436
2508
Sie haben es natürlich vergessen: "Was für ein Abendessen? Worum geht es?"
12:40
What are you talking about?"
244
760968
1425
12:42
"Uh, your 20th anniversary at 7pm."
245
762417
3746
"Ihr 20. Hochzeitstag um 7 Uhr."
12:48
"I can't do that. I'm meeting with the secretary-general at 7:30.
246
768735
3719
"Das geht nicht. Ich treffe den Generalsekretär um 7:30.
12:52
How could this have happened?"
247
772478
1692
Wie konnte das passieren?"
12:54
"Well, I did warn you, but you overrode my recommendation."
248
774194
4660
"Ich habe Sie gewarnt, aber Sie haben meine Empfehlung ignoriert."
12:59
"Well, what am I going to do? I can't just tell him I'm too busy."
249
779966
3328
"Was mache ich jetzt? Ich kann ihm nicht absagen."
13:04
"Don't worry. I arranged for his plane to be delayed."
250
784310
3281
"Keine Sorge, ich habe seinen Flug verzögert."
13:07
(Laughter)
251
787615
1682
(Gelächter)
13:10
"Some kind of computer malfunction."
252
790069
2101
"Irgend eine Computerstörung."
13:12
(Laughter)
253
792194
1212
(Gelächter)
13:13
"Really? You can do that?"
254
793430
1617
"Echt? Du kannst das?"
13:16
"He sends his profound apologies
255
796220
2179
"Er bittet um Entschuldigung.
13:18
and looks forward to meeting you for lunch tomorrow."
256
798423
2555
Er freut sich darauf, Sie morgen Mittag zu treffen."
13:21
(Laughter)
257
801002
1299
(Gelächter)
13:22
So the values here -- there's a slight mistake going on.
258
802325
4403
Die Werte hier -- hier läuft etwas schief.
13:26
This is clearly following my wife's values
259
806752
3009
Es folgt ganz klar den Werten meiner Frau,
13:29
which is "Happy wife, happy life."
260
809785
2069
und zwar "glückliche Frau, glückliches Leben".
13:31
(Laughter)
261
811878
1583
(Gelächter)
13:33
It could go the other way.
262
813485
1444
Es könnte auch anders laufen.
13:35
You could come home after a hard day's work,
263
815641
2201
Man kommt nach einem langen Arbeitstag heim
13:37
and the computer says, "Long day?"
264
817866
2195
und der Computer sagt: "Langer Tag?"
13:40
"Yes, I didn't even have time for lunch."
265
820085
2288
"Ja, ich hatte keine Zeit zum Mittagessen."
13:42
"You must be very hungry."
266
822397
1282
"Sie haben bestimmt Hunger."
13:43
"Starving, yeah. Could you make some dinner?"
267
823703
2646
"Ich bin am Verhungern. Kannst du mir Essen machen?"
13:47
"There's something I need to tell you."
268
827890
2090
"Ich muss Ihnen etwas sagen."
13:50
(Laughter)
269
830004
1155
(Gelächter)
13:52
"There are humans in South Sudan who are in more urgent need than you."
270
832013
4905
"Im Südsudan gibt es bedürftigere Menschen als Sie."
13:56
(Laughter)
271
836942
1104
(Gelächter)
13:58
"So I'm leaving. Make your own dinner."
272
838070
2075
"Also gehe ich. Machen Sie Ihr Essen selbst."
14:00
(Laughter)
273
840169
2000
(Gelächter)
14:02
So we have to solve these problems,
274
842643
1739
Wir müssen also diese Probleme lösen
14:04
and I'm looking forward to working on them.
275
844406
2515
und ich freue mich darauf, daran zu arbeiten.
14:06
There are reasons for optimism.
276
846945
1843
Es gibt Anlass zur Hoffnung.
14:08
One reason is,
277
848812
1159
Ein Anlass ist
14:09
there is a massive amount of data.
278
849995
1868
die enorme Menge an Daten.
14:11
Because remember -- I said they're going to read everything
279
851887
2794
Wie gesagt, sie werden alles lesen, was geschrieben wurde.
14:14
the human race has ever written.
280
854705
1546
Der Großteil davon ist über Menschen und ihre Taten
14:16
Most of what we write about is human beings doing things
281
856275
2724
und die Reaktionen anderer.
14:19
and other people getting upset about it.
282
859023
1914
14:20
So there's a massive amount of data to learn from.
283
860961
2398
Also kann man von vielen Daten lernen.
14:23
There's also a very strong economic incentive
284
863383
2236
Es gibt auch wirtschaftliche Anreize,
14:27
to get this right.
285
867151
1186
das hinzubekommen.
14:28
So imagine your domestic robot's at home.
286
868361
2001
Z. B. Haushaltsroboter.
14:30
You're late from work again and the robot has to feed the kids,
287
870386
3067
Sie sind wieder zu spät und der Roboter soll den Kindern Essen machen.
14:33
and the kids are hungry and there's nothing in the fridge.
288
873477
2823
Die Kinder haben Hunger und der Kühlschrank ist leer.
14:36
And the robot sees the cat.
289
876324
2605
Und der Roboter sieht die Katze.
14:38
(Laughter)
290
878953
1692
(Gelächter)
14:40
And the robot hasn't quite learned the human value function properly,
291
880669
4190
Der Roboter hat die menschliche Wertefunktion noch nicht so ganz gelernt
14:44
so it doesn't understand
292
884883
1251
und versteht somit nicht,
14:46
the sentimental value of the cat outweighs the nutritional value of the cat.
293
886158
4844
dass der sentimentale Wert der Katze ihren Nährwert übertrifft.
14:51
(Laughter)
294
891026
1095
(Gelächter)
14:52
So then what happens?
295
892145
1748
Was passiert also?
14:53
Well, it happens like this:
296
893917
3297
Es passiert etwa so etwas:
14:57
"Deranged robot cooks kitty for family dinner."
297
897238
2964
"Unzurechnungsfähiger Roboter kocht Kätzchen zum Abendessen."
15:00
That one incident would be the end of the domestic robot industry.
298
900226
4523
Dieser eine Vorfall wäre das Aus der Haushaltsroboter-Industrie.
15:04
So there's a huge incentive to get this right
299
904773
3372
Es gibt also einen großen Anreiz, das herauszubekommen,
15:08
long before we reach superintelligent machines.
300
908169
2715
lange bevor wir superintelligente Maschinen herstellen.
15:11
So to summarize:
301
911948
1535
Zusammenfassend:
15:13
I'm actually trying to change the definition of AI
302
913507
2881
Ich will die Definition von KI ändern,
15:16
so that we have provably beneficial machines.
303
916412
2993
sodass wir nachweislich vorteilhafte Maschinen haben.
15:19
And the principles are:
304
919429
1222
Die Grundsätze sind:
15:20
machines that are altruistic,
305
920675
1398
Maschinen sind altruistisch,
15:22
that want to achieve only our objectives,
306
922097
2804
wollen nur unsere Ziele erreichen,
15:24
but that are uncertain about what those objectives are,
307
924925
3116
aber wissen nicht genau, was diese Ziele sind,
15:28
and will watch all of us
308
928065
1998
also beobachten sie uns alle,
15:30
to learn more about what it is that we really want.
309
930087
3203
um besser zu lernen, was wir wirklich wollen.
15:34
And hopefully in the process, we will learn to be better people.
310
934193
3559
Hoffentlich werden wir dadurch lernen, bessere Menschen zu sein.
15:37
Thank you very much.
311
937776
1191
Vielen Dank.
15:38
(Applause)
312
938991
3709
(Beifall)
15:42
Chris Anderson: So interesting, Stuart.
313
942724
1868
Chris Anderson: Sehr interessant, Stuart. Wir haben etwas Zeit,
15:44
We're going to stand here a bit because I think they're setting up
314
944616
3170
weil alles für den nächsten Redner vorbereitet wird.
15:47
for our next speaker.
315
947810
1151
15:48
A couple of questions.
316
948985
1538
Ein paar Fragen.
15:50
So the idea of programming in ignorance seems intuitively really powerful.
317
950547
5453
Die Idee, Unwissenheit vorzuprogrammieren, erscheint intuitiv wirksam.
15:56
As you get to superintelligence,
318
956024
1594
Wenn man Superintelligenz erreicht,
15:57
what's going to stop a robot
319
957642
2258
was soll einen Roboter davon abhalten,
15:59
reading literature and discovering this idea that knowledge
320
959924
2852
Literatur zu lesen und auf die Idee zu kommen,
16:02
is actually better than ignorance
321
962800
1572
dass Wissen besser ist als Unwissenheit
16:04
and still just shifting its own goals and rewriting that programming?
322
964396
4218
und seine eigenen Ziele anzupassen und sich umzuprogrammieren?
16:09
Stuart Russell: Yes, so we want it to learn more, as I said,
323
969512
6356
Stuart Russel: Wir wollen, wie gesagt, dass er dazulernt,
16:15
about our objectives.
324
975892
1287
was unsere Ziele betrifft.
16:17
It'll only become more certain as it becomes more correct,
325
977203
5521
Er wird sich sicherer werden, wenn er fehlerloser wird,
16:22
so the evidence is there
326
982748
1945
also gibt es Hinweise
16:24
and it's going to be designed to interpret it correctly.
327
984717
2724
und er ist dazu konzipiert, sie richtig zu interpretieren.
16:27
It will understand, for example, that books are very biased
328
987465
3956
Er wird verstehen, dass Bücher einseitig
16:31
in the evidence they contain.
329
991445
1483
in ihrer Darstellung sind.
16:32
They only talk about kings and princes
330
992952
2397
Sie handeln nur von Königen und Prinzen
16:35
and elite white male people doing stuff.
331
995373
2800
und mächtigen weißen Männern und ihren Taten.
16:38
So it's a complicated problem,
332
998197
2096
Es ist ein kompliziertes Problem,
16:40
but as it learns more about our objectives
333
1000317
3872
aber wenn er mehr über unsere Ziele lernt,
16:44
it will become more and more useful to us.
334
1004213
2063
wird er zunehmend nützlicher für uns.
16:46
CA: And you couldn't just boil it down to one law,
335
1006300
2526
CA: Kann man das nicht zu einem Gesetz zusammenfassen,
16:48
you know, hardwired in:
336
1008850
1650
vorprogrammiert:
16:50
"if any human ever tries to switch me off,
337
1010524
3293
"Wenn ein Mensch versucht, mich abzuschalten,
16:53
I comply. I comply."
338
1013841
1935
gehorche ich. Ich gehorche."
16:55
SR: Absolutely not.
339
1015800
1182
SR: Auf keinen Fall, das wäre eine schlechte Idee.
16:57
That would be a terrible idea.
340
1017006
1499
16:58
So imagine that you have a self-driving car
341
1018529
2689
Wenn zum Beispiel Ihr selbstfahrendes Auto
17:01
and you want to send your five-year-old
342
1021242
2433
Ihr fünfjähriges Kind zum Kindergarten
17:03
off to preschool.
343
1023699
1174
fahren soll,
17:04
Do you want your five-year-old to be able to switch off the car
344
1024897
3101
wollen Sie, dass Ihr Kind das Auto abschalten kann,
während es fährt?
17:08
while it's driving along?
345
1028022
1213
Wahrscheinlich nicht.
17:09
Probably not.
346
1029259
1159
Es muss also verstehen, wie rational und vernünftig die Person ist.
17:10
So it needs to understand how rational and sensible the person is.
347
1030442
4703
17:15
The more rational the person,
348
1035169
1676
Je rationaler die Person, desto eher sollte es sich ausschalten.
17:16
the more willing you are to be switched off.
349
1036869
2103
17:18
If the person is completely random or even malicious,
350
1038996
2543
Wenn die Person willkürlich oder sogar boshaft ist,
17:21
then you're less willing to be switched off.
351
1041563
2512
sollte es sich nicht ausschalten.
17:24
CA: All right. Stuart, can I just say,
352
1044099
1866
CA: Okay, Stuart, Ich hoffe nur, dass Sie das für uns lösen können.
17:25
I really, really hope you figure this out for us.
353
1045989
2314
Vielen Dank für Ihren Vortrag. Er war toll.
17:28
Thank you so much for that talk. That was amazing.
354
1048327
2375
SR: Danke.
17:30
SR: Thank you.
355
1050726
1167
17:31
(Applause)
356
1051917
1837
(Beifall)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7