3 principles for creating safer AI | Stuart Russell

139,790 views ・ 2017-06-06

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Igal Opendik מבקר: Ido Dekkers
00:12
This is Lee Sedol.
0
12532
1552
זהו לי סידול.
00:14
Lee Sedol is one of the world's greatest Go players,
1
14108
3997
הוא אחד מגדולי שחקני גו בעולם.
00:18
and he's having what my friends in Silicon Valley call
2
18129
2885
כאן הוא חווה את הרגע שחבריי מעמק הסיליקון מכנים
00:21
a "Holy Cow" moment --
3
21038
1510
"זה הזוי!" -
00:22
(Laughter)
4
22572
1073
(צחוק)
00:23
a moment where we realize
5
23669
2188
הרגע בו אנו מבינים
00:25
that AI is actually progressing a lot faster than we expected.
6
25881
3296
שהתפתחותה של הב''מ (בינה מלאכתית) מתקדמת הרבה יותר מהר משציפינו.
00:29
So humans have lost on the Go board. What about the real world?
7
29974
3047
אז בני האנוש הפסידו במשחק גו. אבל מה עם העולם האמיתי?
00:33
Well, the real world is much bigger,
8
33045
2100
ובכן, העולם האמיתי הרבה יותר גדול,
00:35
much more complicated than the Go board.
9
35169
2249
הרבה יותר מורכב ממשחק גו.
00:37
It's a lot less visible,
10
37442
1819
זה פחות נגלה לעין,
00:39
but it's still a decision problem.
11
39285
2038
אבל זו עדיין בעיית קבלת החלטות.
00:42
And if we think about some of the technologies
12
42768
2321
ואם חושבים על כמה טכנולוגיות
00:45
that are coming down the pike ...
13
45113
1749
שמתממשות כנגד עיניינו...
00:47
Noriko [Arai] mentioned that reading is not yet happening in machines,
14
47558
4335
נוריקו [אראי] הזכירה שמכונות עדיין לא יודעות לקרוא,
00:51
at least with understanding.
15
51917
1500
לפחות לקרוא ולהבין.
00:53
But that will happen,
16
53441
1536
אבל, זה יקרה.
00:55
and when that happens,
17
55001
1771
וכאשר זה כן יקרה,
00:56
very soon afterwards,
18
56796
1187
עד מהרה
00:58
machines will have read everything that the human race has ever written.
19
58007
4572
הן תקראנה את כל מה שהאנושות כתבה אי פעם.
01:03
And that will enable machines,
20
63670
2030
זה יקנה למכונות יכולת חדשה,
01:05
along with the ability to look further ahead than humans can,
21
65724
2920
לצד יכולת החיזוי מעבר למה שבני האנוש מסוגלים לחזות,
01:08
as we've already seen in Go,
22
68668
1680
כפי שנוכחנו לדעת במשחק גו,
01:10
if they also have access to more information,
23
70372
2164
אם תקבלנה גישה ליותר מידע,
01:12
they'll be able to make better decisions in the real world than we can.
24
72560
4268
הן תוכלנה לקבל החלטות טובות יותר מאיתנו בעולם האמיתי.
01:18
So is that a good thing?
25
78612
1606
האם זה טוב לנו?
01:21
Well, I hope so.
26
81718
2232
ובכן, אני מקווה שכן.
01:26
Our entire civilization, everything that we value,
27
86514
3255
הציביליזציה שלנו על כל ערכיה,
01:29
is based on our intelligence.
28
89793
2068
מבוססת על התבונה שלנו.
01:31
And if we had access to a lot more intelligence,
29
91885
3694
ולו היתה לנו גישה לתבונה רבה יותר,
01:35
then there's really no limit to what the human race can do.
30
95603
3302
אזי לא יהיה גבול למה שהאנושות תוכל לעשות.
01:40
And I think this could be, as some people have described it,
31
100485
3325
ואני סבור כי זה היה יכול להיות, כפי שאנשים מסוימים תיארו זאת,
01:43
the biggest event in human history.
32
103834
2016
הארוע הגדול בתולדות האנושות.
01:48
So why are people saying things like this,
33
108485
2829
אז מדוע אנשים אומרים דברים כגון,
01:51
that AI might spell the end of the human race?
34
111338
2876
ב''מ עלולה לגרום לסוף האנושות?
01:55
Is this a new thing?
35
115258
1659
האם זה חדש לנו?
01:56
Is it just Elon Musk and Bill Gates and Stephen Hawking?
36
116941
4110
האם אלה רק אלון מאסק, ביל גייטס וסטיבן הוקינג?
02:01
Actually, no. This idea has been around for a while.
37
121773
3262
לא. רעיון זה כבר קיים זמן מה.
02:05
Here's a quotation:
38
125059
1962
הרי הציטוט:
02:07
"Even if we could keep the machines in a subservient position,
39
127045
4350
"אפילו אם היינו מסוגלים לשלוט במכונות כבמשרתים בלבד,
02:11
for instance, by turning off the power at strategic moments" --
40
131419
2984
למשל על ידי כיבוי אספקת חשמל ברגעים קריטיים" --
02:14
and I'll come back to that "turning off the power" idea later on --
41
134427
3237
אחזור לנושא "כיבוי החשמל" בהמשך --
02:17
"we should, as a species, feel greatly humbled."
42
137688
2804
"אנחנו כמין צריכים להרגיש ענווה גדולה."
02:21
So who said this? This is Alan Turing in 1951.
43
141997
3448
מי אמר זאת? אלן טורינג ב-1951.
02:26
Alan Turing, as you know, is the father of computer science
44
146120
2763
כידוע לכם, אלן טיורינג הוא אבי מדע המחשב
02:28
and in many ways, the father of AI as well.
45
148907
3048
ובמובנים רבים, גם אבי הב''מ.
02:33
So if we think about this problem,
46
153059
1882
אם חושבים על הבעייתיות שביצירת
02:34
the problem of creating something more intelligent than your own species,
47
154965
3787
משהו שחכם יותר ממינך שלך,
02:38
we might call this "the gorilla problem,"
48
158776
2622
ניתן לכנות זאת "בעיית הגורילה",
02:42
because gorillas' ancestors did this a few million years ago,
49
162165
3750
היות ואבות אבותיהן של הגורילות עשו זאת לפני מיליוני שנה,
02:45
and now we can ask the gorillas:
50
165939
1745
וכיום נוכל לשאול את הגורילות:
02:48
Was this a good idea?
51
168572
1160
האם זה היה רעיון טוב?
02:49
So here they are having a meeting to discuss whether it was a good idea,
52
169756
3530
הינה הם עורכים דיון על טיב הדבר
02:53
and after a little while, they conclude, no,
53
173310
3346
ואחרי זמן מה הם קובעים שזה- לא!
02:56
this was a terrible idea.
54
176680
1345
זה היה רעיון נוראי.
02:58
Our species is in dire straits.
55
178049
1782
מין הגורילות במצוקה קשה.
03:00
In fact, you can see the existential sadness in their eyes.
56
180358
4263
למעשה, אתם יכולים לראות את העצב הקיומי בעיניהן.
03:04
(Laughter)
57
184645
1640
(צחוק)
03:06
So this queasy feeling that making something smarter than your own species
58
186309
4840
לגבי ההרגשה המבחילה הזאת שיצירת משהו שעולה עליך בחוכמתו
03:11
is maybe not a good idea --
59
191173
2365
איננו רעיון טוב --
03:14
what can we do about that?
60
194308
1491
מה עושים איתה?
03:15
Well, really nothing, except stop doing AI,
61
195823
4767
האמת היא שכלום, חוץ מעצירת פיתוח ב''מ.
03:20
and because of all the benefits that I mentioned
62
200614
2510
בגלל כל היתרונות שהזכרתי
03:23
and because I'm an AI researcher,
63
203148
1716
ובגלל שאני חוקר ב''מ,
03:24
I'm not having that.
64
204888
1791
אני לא מקבל את אפשרות העצירה.
03:27
I actually want to be able to keep doing AI.
65
207103
2468
אני כן מעוניין להמשיך בפיתוח ב''מ.
03:30
So we actually need to nail down the problem a bit more.
66
210435
2678
לכן, אנחנו חייבים להגדיר את הבעיה טוב יותר.
03:33
What exactly is the problem?
67
213137
1371
מהי מהות הבעיה בדיוק?
03:34
Why is better AI possibly a catastrophe?
68
214532
3246
למה ב''מ טובה יותר עלולה להוות אסון?
03:39
So here's another quotation:
69
219218
1498
אז הינה לכם עוד ציטוט:
03:41
"We had better be quite sure that the purpose put into the machine
70
221755
3335
"עדיף שנהיה בטוחים שהיעוד שאנחנו מטמיעים במכונה
03:45
is the purpose which we really desire."
71
225114
2298
זה אותו היעוד שאנחנו חפצים בו באמת ".
03:48
This was said by Norbert Wiener in 1960,
72
228102
3498
זה נאמר על ידי נורברט וויינר ב-1960
03:51
shortly after he watched one of the very early learning systems
73
231624
4002
זמן קצר אחרי שצפה באחת ממערכות הלמידה המוקדמות
03:55
learn to play checkers better than its creator.
74
235650
2583
לומדת לשחק דמקה טוב מיוצרה.
04:00
But this could equally have been said
75
240422
2683
אימרה זו היתה גם יכולה להיאמר
04:03
by King Midas.
76
243129
1167
על ידי המלך מידאס.
04:04
King Midas said, "I want everything I touch to turn to gold,"
77
244903
3134
המלך מידאס אמר, "אני רוצה שכל דבר שאגע בו יהפוך לזהב".
04:08
and he got exactly what he asked for.
78
248061
2473
והוא קיבל את מבוקשו בדיוק.
04:10
That was the purpose that he put into the machine,
79
250558
2751
זה היעוד אותו הוא הטמיע במכונה,
04:13
so to speak,
80
253333
1450
כביכול,
04:14
and then his food and his drink and his relatives turned to gold
81
254807
3444
וכל המזון והמשקה שלו וכל קרוביו הפכו לזהב
04:18
and he died in misery and starvation.
82
258275
2281
והוא מת אומלל ומורעב.
04:22
So we'll call this "the King Midas problem"
83
262264
2341
נקרא לכך "בעית מלך מידאס".
04:24
of stating an objective which is not, in fact,
84
264629
3305
מתן משימה אשר לא עולה
04:27
truly aligned with what we want.
85
267958
2413
בקנה אחד עם מה שאנו רוצים.
04:30
In modern terms, we call this "the value alignment problem."
86
270395
3253
במושגים מודרניים אנו קוראים לזה "בעיית תאום ערכים".
04:36
Putting in the wrong objective is not the only part of the problem.
87
276867
3485
מתן מטרה שגויה אינה המרכיב היחיד של הבעיה.
04:40
There's another part.
88
280376
1152
יש מרכיב נוסף.
04:41
If you put an objective into a machine,
89
281980
1943
אם אתם מטמיעים משימה במכונה
04:43
even something as simple as, "Fetch the coffee,"
90
283947
2448
אפילו משהו פשוט כמו "תביאי לי קפה",
04:47
the machine says to itself,
91
287728
1841
המכונה אומרת לעצמה,
04:50
"Well, how might I fail to fetch the coffee?
92
290553
2623
"מה עלול למנוע ממני להביא את הקפה?
04:53
Someone might switch me off.
93
293200
1580
מישהו עלול לנתק אותי מהחשמל.
04:55
OK, I have to take steps to prevent that.
94
295465
2387
לכן אני חייבת לנקוט בצעדים שימנעו זאת.
04:57
I will disable my 'off' switch.
95
297876
1906
אנטרל את מתג הכיבוי שלי.
05:00
I will do anything to defend myself against interference
96
300354
2959
אעשה הכל כדי להגן על עצמי כנגד מה שימנע ממני
05:03
with this objective that I have been given."
97
303337
2629
לבצע את המשימה שניתנה לי".
05:05
So this single-minded pursuit
98
305990
2012
לכן, חתירה חד-כיוונית למשימה
05:09
in a very defensive mode of an objective that is, in fact,
99
309033
2945
בתצורה הגנתית המבטיחה את ביצוע המשימה, אשר
05:12
not aligned with the true objectives of the human race --
100
312002
2814
איננה תואמת משימות אמיתיות של האנושות --
05:15
that's the problem that we face.
101
315942
1862
זו הבעיה אתה אנו מתמודדים.
05:18
And in fact, that's the high-value takeaway from this talk.
102
318827
4767
זו התובנה בעלת ערך אותה אנו נקח מהרצאה זו.
05:23
If you want to remember one thing,
103
323618
2055
אם תרצו לזכור דבר אחד --
05:25
it's that you can't fetch the coffee if you're dead.
104
325697
2675
-- לא ניתן להביא את הקפה אם אתה מת.
05:28
(Laughter)
105
328396
1061
(צחוק)
05:29
It's very simple. Just remember that. Repeat it to yourself three times a day.
106
329481
3829
זה פשוט מאוד. רק תזכרו את זה. שננו זאת לעצמכם שלוש פעמים ביום.
05:33
(Laughter)
107
333334
1821
(צחוק)
05:35
And in fact, this is exactly the plot
108
335179
2754
זוהי העלילה המדויקת של
05:37
of "2001: [A Space Odyssey]"
109
337957
2648
"2001: אודיסאה בחלל"
05:41
HAL has an objective, a mission,
110
341046
2090
ל-HAL יש משימה,
05:43
which is not aligned with the objectives of the humans,
111
343160
3732
אשר איננה מתואמת עם משימות של בני האנוש,
05:46
and that leads to this conflict.
112
346916
1810
וזה מוביל לקונפליקט.
05:49
Now fortunately, HAL is not superintelligent.
113
349314
2969
למרבה המזל HAL איננו בעל תבונת-על.
05:52
He's pretty smart, but eventually Dave outwits him
114
352307
3587
הוא די חכם, אבל לבסוף דייב מצליח להערים עליו
05:55
and manages to switch him off.
115
355918
1849
ומצליח לכבות אותו.
06:01
But we might not be so lucky.
116
361648
1619
אבל אנחנו עלולים לא להיות ברי מזל באותה מידה.
06:08
So what are we going to do?
117
368013
1592
אז מה נעשה?
06:12
I'm trying to redefine AI
118
372191
2601
אני מנסה להגדיר את הב''מ במושגים אחרים
06:14
to get away from this classical notion
119
374816
2061
כדי להתנתק מן ההעקרון הקלאסי
06:16
of machines that intelligently pursue objectives.
120
376901
4567
לפיו מכונות שואפות לבצע משימות בצורה תבונתית.
06:22
There are three principles involved.
121
382532
1798
ישנם שלושה עקרונות בבסיס העניין.
06:24
The first one is a principle of altruism, if you like,
122
384354
3289
הראשון הוא, אם תרצו, עקרון האלטרויזם --
06:27
that the robot's only objective
123
387667
3262
-- המשימה היחידה של הרובוטים היא
06:30
is to maximize the realization of human objectives,
124
390953
4246
מיקסום הגשמתן של המטרות של בני אנוש,
06:35
of human values.
125
395223
1390
של ערכי בני אנוש.
06:36
And by values here I don't mean touchy-feely, goody-goody values.
126
396637
3330
באומרי "ערכים" אינני מתכוון כאן לערכים נשגבים של יפי נפש.
06:39
I just mean whatever it is that the human would prefer
127
399991
3787
אני פשוט מתכוון לכל מה שבני אנוש
06:43
their life to be like.
128
403802
1343
מעדיפים בחייהם.
06:47
And so this actually violates Asimov's law
129
407184
2309
זה למעשה נוגד לחוק אסימוב
06:49
that the robot has to protect its own existence.
130
409517
2329
לפיו רובוט חייב להגן על קיומו.
06:51
It has no interest in preserving its existence whatsoever.
131
411870
3723
אין לו עניין בשימור קיומו בכלל.
06:57
The second law is a law of humility, if you like.
132
417240
3768
העקרון השני, אם תרצו, הוא עקרון הענווה.
07:01
And this turns out to be really important to make robots safe.
133
421794
3743
מתברר שהוא חשוב מאוד ליצירת רובוטים בטוחים.
07:05
It says that the robot does not know
134
425561
3142
לפיו רובוט איננו יודע
07:08
what those human values are,
135
428727
2028
מהם ערכי בני האנוש.
07:10
so it has to maximize them, but it doesn't know what they are.
136
430779
3178
הוא חייב לממש אותם על הצד הטוב ביותר, אבל הוא לא יודע מה הם.
07:15
And that avoids this problem of single-minded pursuit
137
435074
2626
זה עוקף את בעיית חתירה חד-כיוונית
07:17
of an objective.
138
437724
1212
למשימה.
07:18
This uncertainty turns out to be crucial.
139
438960
2172
אי הוודאות הזאת הופכת לעניין מכריע.
07:21
Now, in order to be useful to us,
140
441546
1639
בכדי שרובוט יהיה מועיל לנו
07:23
it has to have some idea of what we want.
141
443209
2731
עליו לדעת מה אנו רוצים, ברמה כלשהי.
07:27
It obtains that information primarily by observation of human choices,
142
447043
5427
הוא מקבל מידע זה בעיקר מצפיה בבחירות אנושיות,
07:32
so our own choices reveal information
143
452494
2801
כך שהבחירות שלנו מלמדות מידע
07:35
about what it is that we prefer our lives to be like.
144
455319
3300
על כיצד אנו מעדיפים שחיינו יהיו.
07:40
So those are the three principles.
145
460452
1683
אלה הם שלושת העקרונות.
07:42
Let's see how that applies to this question of:
146
462159
2318
הבה נראה כיצד הם מיושמים בבעיה של:
07:44
"Can you switch the machine off?" as Turing suggested.
147
464501
2789
"האם אתה יכול לכבות את המכונה?" כפי שהציע טיורינג.
07:48
So here's a PR2 robot.
148
468893
2120
הינה רובוט מדגם PR2 --
07:51
This is one that we have in our lab,
149
471037
1821
-- אחד מאלה שיש לנו במעבדה
07:52
and it has a big red "off" switch right on the back.
150
472882
2903
ויש לו על הגב כפתור כיבוי גדול ואדום.
07:56
The question is: Is it going to let you switch it off?
151
476361
2615
השאלה היא: האם הוא ירשה לך לכבות אותו?
07:59
If we do it the classical way,
152
479000
1465
אם נלך לפי המודל הקלאסי,
08:00
we give it the objective of, "Fetch the coffee, I must fetch the coffee,
153
480489
3482
כך הוא יבצע את משימת "תביא את הקפה": "אני חייב להביא את הקפה,
08:03
I can't fetch the coffee if I'm dead,"
154
483995
2580
אני לא יכול להביא את הקפה אם אני מת",
08:06
so obviously the PR2 has been listening to my talk,
155
486599
3341
והיות ו - PR2 כמובן הקשיב להרצאתי
08:09
and so it says, therefore, "I must disable my 'off' switch,
156
489964
3753
הוא אומר איפוא, "אני חייב לנטרל את מתג הכיבוי שלי
08:14
and probably taser all the other people in Starbucks
157
494796
2694
ואולי גם לחשמל את כל האנשים בסטארבקס
08:17
who might interfere with me."
158
497514
1560
אשר עלולים להפריע לי".
08:19
(Laughter)
159
499098
2062
(צחוק)
08:21
So this seems to be inevitable, right?
160
501184
2153
נראה בלתי נמנע, נכון?
08:23
This kind of failure mode seems to be inevitable,
161
503361
2398
אופן פעולה זה נראה בלתי נמנע
08:25
and it follows from having a concrete, definite objective.
162
505783
3543
בגלל שהוא נובע ממתן משימה מוגדרת וסופית.
08:30
So what happens if the machine is uncertain about the objective?
163
510632
3144
אבל מה יקרה אם המכונה לא בטוחה לגבי המשימה?
08:33
Well, it reasons in a different way.
164
513800
2127
במקרה זה היא חושבת בצורה שונה.
08:35
It says, "OK, the human might switch me off,
165
515951
2424
היא אומרת. "טוב, בן אנוש עלול לכבות אותי,
08:38
but only if I'm doing something wrong.
166
518964
1866
אבל זה רק אם אעשה משהו לא נכון.
08:41
Well, I don't really know what wrong is,
167
521567
2475
אינני יודעת מהו לא נכון,
08:44
but I know that I don't want to do it."
168
524066
2044
אבל אני יודעת שאינני רוצה לעשות אותו."
08:46
So that's the first and second principles right there.
169
526134
3010
כך, יש לנו פה העקרון הראשון והשני גם יחד.
08:49
"So I should let the human switch me off."
170
529168
3359
"לכן, אני צריכה לאפשר לבני אנוש לכבות אותי".
08:53
And in fact you can calculate the incentive that the robot has
171
533541
3956
ניתן להטמיע את שיקול הרווח שיהיה לרובוט
08:57
to allow the human to switch it off,
172
537521
2493
כדי שיאפשר לנו לכבות אותו.
09:00
and it's directly tied to the degree
173
540038
1914
זה ישירות קשור ברמת
09:01
of uncertainty about the underlying objective.
174
541976
2746
אי-הוודאות לגבי מהות המשימה.
09:05
And then when the machine is switched off,
175
545797
2949
וכאשר המכונה כבר מכובה,
09:08
that third principle comes into play.
176
548770
1805
העקרון השלישי נכנס למשחק.
09:10
It learns something about the objectives it should be pursuing,
177
550599
3062
המכונה לומדת משהו אודות המשימות שעליה לבצע,
09:13
because it learns that what it did wasn't right.
178
553685
2533
כי היא לומדת שמה שעשתה היה לא נכון.
09:16
In fact, we can, with suitable use of Greek symbols,
179
556242
3570
באמצעות שימוש ראוי באותיות יווניות,
09:19
as mathematicians usually do,
180
559836
2131
כפי שנהוג אצל המתמטיקאים,
09:21
we can actually prove a theorem
181
561991
1984
ניתן להוכיח ההנחה
09:23
that says that such a robot is provably beneficial to the human.
182
563999
3553
שאומרת שרובוט כזה הינו בהחלט מועיל לאנושות.
09:27
You are provably better off with a machine that's designed in this way
183
567576
3803
עדיף לכם שהמכונה תהיה כזאת
09:31
than without it.
184
571403
1246
ולא אחרת.
09:33
So this is a very simple example, but this is the first step
185
573057
2906
זוהי דוגמא מאוד פשוטה, אבל זה הצעד הראשון
09:35
in what we're trying to do with human-compatible AI.
186
575987
3903
לקראת מה שאנו מנסים לעשות עם ב''מ מותאמת אנושות.
09:42
Now, this third principle,
187
582477
3257
העקרון השלישי הוא זה
09:45
I think is the one that you're probably scratching your head over.
188
585758
3112
שלגביו אתם מהרהרים לדעתי.
09:48
You're probably thinking, "Well, you know, I behave badly.
189
588894
3239
אתם בוודאי חושבים, "אני מתנהג לא כראוי.
09:52
I don't want my robot to behave like me.
190
592157
2929
ואינני רוצה שהרובוט שלי יתנהג כמוני.
09:55
I sneak down in the middle of the night and take stuff from the fridge.
191
595110
3434
אני מתגנב באמצע הלילה ולוקח דברים מן המקרר.
09:58
I do this and that."
192
598568
1168
אני עושה את זה ואת זה."
09:59
There's all kinds of things you don't want the robot doing.
193
599760
2797
יש כל מיני דברים שלא תרצו שהרובוט שלכם יעשה.
10:02
But in fact, it doesn't quite work that way.
194
602581
2071
אבל, הדברים לא בדיוק עובדים ככה.
10:04
Just because you behave badly
195
604676
2155
רק בגלל שאתם מתנהגים לא כראוי
10:06
doesn't mean the robot is going to copy your behavior.
196
606855
2623
הרובוט שלכם לא בהכרח יעתיק את התנהגותכם.
10:09
It's going to understand your motivations and maybe help you resist them,
197
609502
3910
הוא יבין את המניעים שלכם ואולי יעזור לכם להתנגד להם,
10:13
if appropriate.
198
613436
1320
במידה וזה יהיה ראוי.
10:16
But it's still difficult.
199
616026
1464
אבל עדיין, העניין מסובך.
10:18
What we're trying to do, in fact,
200
618122
2545
מה שאנו מנסים לעשות,
10:20
is to allow machines to predict for any person and for any possible life
201
620691
5796
זה לאפשר למכונות לחזות בעבור כל אדם ועבור כל מסלולי החיים
10:26
that they could live,
202
626511
1161
שהוא עשוי לחיות,
10:27
and the lives of everybody else:
203
627696
1597
וכן חייהם של כל השאר:
10:29
Which would they prefer?
204
629317
2517
מה יעדיפו?
10:33
And there are many, many difficulties involved in doing this;
205
633881
2954
וישנם הרבה מאוד קשיים בדרך לביצוע,
10:36
I don't expect that this is going to get solved very quickly.
206
636859
2932
אינני מצפה שהעניין ייפתר במהרה.
10:39
The real difficulties, in fact, are us.
207
639815
2643
הקשיים האמיתיים הם למעשה אנחנו.
10:43
As I have already mentioned, we behave badly.
208
643969
3117
כפי שכבר ציינתי, אנחנו מתנהגים לא כראוי.
10:47
In fact, some of us are downright nasty.
209
647110
2321
למעשה, חלק מאיתנו פשוט נוראים.
10:50
Now the robot, as I said, doesn't have to copy the behavior.
210
650251
3052
כפי שאמרתי הרובוט לא חייב להעתיק את התנהגותינו.
10:53
The robot does not have any objective of its own.
211
653327
2791
לרובוט אין כל משימה משלו.
10:56
It's purely altruistic.
212
656142
1737
הוא אלטרויסט טהור.
10:59
And it's not designed just to satisfy the desires of one person, the user,
213
659113
5221
והוא לא עוצב לשם מימוש רצונות של אדם אחד בלבד,המשתמש,
11:04
but in fact it has to respect the preferences of everybody.
214
664358
3138
אלא לקחת בחשבון את העדפות של כולם.
11:09
So it can deal with a certain amount of nastiness,
215
669083
2570
כך, הוא יכול להתמודד עם רמה מסוימת של רוע,
11:11
and it can even understand that your nastiness, for example,
216
671677
3701
והוא אפילו יכול להבין את ההתנהגות הרעה שלך.
11:15
you may take bribes as a passport official
217
675402
2671
למשל, אתה אולי לוקח שוחד בתור פקיד דרכונים,
11:18
because you need to feed your family and send your kids to school.
218
678097
3812
בגלל שאתה צריך להאכיל את משפחתך ולשלוח את ילדיך לביה''ס.
11:21
It can understand that; it doesn't mean it's going to steal.
219
681933
2906
הוא יכול להבין זאת. אין זה אומר שהוא בעצמו יגנוב.
11:24
In fact, it'll just help you send your kids to school.
220
684863
2679
ההבנה שלו רק תעזור לך לשלוח את הילדים לב''ס.
11:28
We are also computationally limited.
221
688796
3012
אנחנו גם מוגבלים בתחום החישובים.
11:31
Lee Sedol is a brilliant Go player,
222
691832
2505
לי סדול הוא שחקן גו מבריק,
11:34
but he still lost.
223
694361
1325
אבל הוא עדיין הפסיד.
11:35
So if we look at his actions, he took an action that lost the game.
224
695710
4239
אז אם נתבונן בצעדיו, הוא עשה צעד שהוביל להפסד.
11:39
That doesn't mean he wanted to lose.
225
699973
2161
זה לא אומר שהוא רצה להפסיד.
11:43
So to understand his behavior,
226
703160
2040
לכן, על מנת להבין את התנהגותו,
11:45
we actually have to invert through a model of human cognition
227
705224
3644
עלינו לרדת לפרטי המודל הקוגניטיבי האנושי
11:48
that includes our computational limitations -- a very complicated model.
228
708892
4977
שכולל את המגבלות החישוביות שלנו - וזה מודל מסובך מאוד.
11:53
But it's still something that we can work on understanding.
229
713893
2993
אבל, זה עדיין משהו שאנחנו יכולים לנסות להבין.
11:57
Probably the most difficult part, from my point of view as an AI researcher,
230
717696
4320
אולי החלק הקשה ביותר עבורי כחוקר ב''מ
12:02
is the fact that there are lots of us,
231
722040
2575
הוא העובדה שאנחנו רבים,
12:06
and so the machine has to somehow trade off, weigh up the preferences
232
726114
3581
ולכן המכונה חייבת איכשהו לנתב ולקחת בחשבון את העדפות
12:09
of many different people,
233
729719
2225
של המון אנשים שונים.
12:11
and there are different ways to do that.
234
731968
1906
וישנן דרכים שונות לעשות זאת.
12:13
Economists, sociologists, moral philosophers have understood that,
235
733898
3689
כלכלנים, סוציולוגים, פילוסופים חוקרי מוסר הבינו זאת
12:17
and we are actively looking for collaboration.
236
737611
2455
ואנחנו מחפשים את שיתוף הפעולה באופן פעיל.
12:20
Let's have a look and see what happens when you get that wrong.
237
740090
3251
בוא נראה מה קורה כאשר לא מבינים את זה נכונה.
12:23
So you can have a conversation, for example,
238
743365
2133
נגיד שאתם מנהלים שיחה
12:25
with your intelligent personal assistant
239
745522
1944
עם העוזר האישי התבוני שלכם,
12:27
that might be available in a few years' time.
240
747490
2285
אשר יכול להיות זמין בעוד כמה שנים.
12:29
Think of a Siri on steroids.
241
749799
2524
תחשבו על סירי על סטרואידים.
12:33
So Siri says, "Your wife called to remind you about dinner tonight."
242
753447
4322
אז סירי אומרת, "אישתך התקשרה להזכיר על ארוחת הערב".
12:38
And of course, you've forgotten. "What? What dinner?
243
758436
2508
וכמובן אתם שכחתם. "מה? איזה ארוחה?
12:40
What are you talking about?"
244
760968
1425
על מה אתה מדבר?"
12:42
"Uh, your 20th anniversary at 7pm."
245
762417
3746
"אה, יום הנישואין ה-20 שלכם ב- 19:00"
12:48
"I can't do that. I'm meeting with the secretary-general at 7:30.
246
768735
3719
"אני לא יכול. יש לי פגישה עם המנכ''ל ב- 19:30.
12:52
How could this have happened?"
247
772478
1692
איך זה היה יכול לקרות?"
12:54
"Well, I did warn you, but you overrode my recommendation."
248
774194
4660
"הזכרתי לך, אבל אתה התעלמת מההמלצה שלי".
12:59
"Well, what am I going to do? I can't just tell him I'm too busy."
249
779966
3328
"טוב, אזה מה אני אעשה? אני לא יכול פשוט לומר לו שאני עסוק."
13:04
"Don't worry. I arranged for his plane to be delayed."
250
784310
3281
"אל תדאג. דאגתי שיהיה לו עיכוב בטיסה".
13:07
(Laughter)
251
787615
1682
(צחוק)
13:10
"Some kind of computer malfunction."
252
790069
2101
"סוג של תקלת מחשב".
13:12
(Laughter)
253
792194
1212
(צחוק)
13:13
"Really? You can do that?"
254
793430
1617
"באמת? אתה יכול לעשות את זה?"
13:16
"He sends his profound apologies
255
796220
2179
"הוא שולח את התנצלותו העמוקה
13:18
and looks forward to meeting you for lunch tomorrow."
256
798423
2555
ומצפה לפגוש אותך מחר לארוחת הצהרים".
13:21
(Laughter)
257
801002
1299
(צחוק)
13:22
So the values here -- there's a slight mistake going on.
258
802325
4403
אז מבחינת הערכים פה -- ישנו שיבוש קל.
13:26
This is clearly following my wife's values
259
806752
3009
זה בבירור תואם לערכיה של אישתי -
13:29
which is "Happy wife, happy life."
260
809785
2069
"אישה מאושרת- חיים מאושרים".
13:31
(Laughter)
261
811878
1583
(צחוק)
13:33
It could go the other way.
262
813485
1444
זה היה יכול ללכת גם לכיוון אחר.
13:35
You could come home after a hard day's work,
263
815641
2201
נניח שחזרתם הביתה אחרי יום עבודה קשה
13:37
and the computer says, "Long day?"
264
817866
2195
והמחשב שואל "יום ארוך?"
13:40
"Yes, I didn't even have time for lunch."
265
820085
2288
"כן, אפילו לא היה לי זמן לאכול צהרים".
13:42
"You must be very hungry."
266
822397
1282
"אתה בטח מאוד רעב".
13:43
"Starving, yeah. Could you make some dinner?"
267
823703
2646
כן, גווע מרעב. תוכל לבשל ארוחת ערב?"
13:47
"There's something I need to tell you."
268
827890
2090
"יש משהו שאני חייב לספר לך"
13:50
(Laughter)
269
830004
1155
(צחוק)
13:52
"There are humans in South Sudan who are in more urgent need than you."
270
832013
4905
"יש בני אנוש בדרום סודן שנזקקים הרבה יותר ממך."
13:56
(Laughter)
271
836942
1104
(צחוק)
13:58
"So I'm leaving. Make your own dinner."
272
838070
2075
"אז אני עוזב. תכין לך אוכל בעצמך."
14:00
(Laughter)
273
840169
2000
(צחוק)
14:02
So we have to solve these problems,
274
842643
1739
אז עלינו לפתור את הבעיות הללו
14:04
and I'm looking forward to working on them.
275
844406
2515
ואני מאוד רוצה לעבוד על זה.
14:06
There are reasons for optimism.
276
846945
1843
יש סיבות לאופטימיות.
14:08
One reason is,
277
848812
1159
סיבה ראשונה היא
14:09
there is a massive amount of data.
278
849995
1868
שקיימת כמות אדירה של מידע.
14:11
Because remember -- I said they're going to read everything
279
851887
2794
זוכרים -- אמרתי שהם יקראו את כל
14:14
the human race has ever written.
280
854705
1546
מה שהאנושות כתבה אי פעם?
14:16
Most of what we write about is human beings doing things
281
856275
2724
לרוב אנחנו כותבים אודות מעשי אנשים
14:19
and other people getting upset about it.
282
859023
1914
ואודות אנשים אחרים שמתוסכלים מכך.
14:20
So there's a massive amount of data to learn from.
283
860961
2398
לכן, ישנו נפח ענק של מידע שאפשר ללמוד ממנו.
14:23
There's also a very strong economic incentive
284
863383
2236
ישנו גם מניע כלכלי חזק מאוד
14:27
to get this right.
285
867151
1186
לעשות זאת נכון.
14:28
So imagine your domestic robot's at home.
286
868361
2001
דמיינו את הרובוט הביתי שלכם.
14:30
You're late from work again and the robot has to feed the kids,
287
870386
3067
שוב חזרתם מאוחר מהעבודה והרובוט חייב להאכיל את ילדיכם
14:33
and the kids are hungry and there's nothing in the fridge.
288
873477
2823
הילדים רעבים ואין כלום במקרר.
14:36
And the robot sees the cat.
289
876324
2605
ואז הרובוט מבחין בחתול.
14:38
(Laughter)
290
878953
1692
(צחוק)
14:40
And the robot hasn't quite learned the human value function properly,
291
880669
4190
הרובוט עדיין לא לגמרי למד כיצד הערכים האנושיים עובדים,
14:44
so it doesn't understand
292
884883
1251
לכן איננו מבין
14:46
the sentimental value of the cat outweighs the nutritional value of the cat.
293
886158
4844
שהערך הרגשי של החתול רב על ערכו התזונתי.
14:51
(Laughter)
294
891026
1095
(צחוק)
14:52
So then what happens?
295
892145
1748
אז מה קורה אחרי זה?
14:53
Well, it happens like this:
296
893917
3297
מה שקורה זה ככה:
14:57
"Deranged robot cooks kitty for family dinner."
297
897238
2964
"הרובוט המטורף מבשל את החתול לארוחת ערב משפחתית".
15:00
That one incident would be the end of the domestic robot industry.
298
900226
4523
ארוע אחד שכזה יהיה סופה של תעשיית רובוטים ביתיים.
15:04
So there's a huge incentive to get this right
299
904773
3372
לכן, ישנה סיבה ממש טובה לעשות הכל נכון.
15:08
long before we reach superintelligent machines.
300
908169
2715
הרבה לפני שנגיע לשלב מכונות עם תבונת-על.
15:11
So to summarize:
301
911948
1535
לסיכום:
15:13
I'm actually trying to change the definition of AI
302
913507
2881
אני מנסה לשנות את הגדרת ב''מ,
15:16
so that we have provably beneficial machines.
303
916412
2993
כך שנייצר מכונות שתהיינה בהחלט טובות לנו.
15:19
And the principles are:
304
919429
1222
והרי העקרונות:
15:20
machines that are altruistic,
305
920675
1398
מכונות שהן אלטרויסטיות,
15:22
that want to achieve only our objectives,
306
922097
2804
שרוצות לממש את המשימות שלנו בלבד,
15:24
but that are uncertain about what those objectives are,
307
924925
3116
אבל אינן בטוחות מה הן המשימות הללו
15:28
and will watch all of us
308
928065
1998
ושתתבוננה בכולנו
15:30
to learn more about what it is that we really want.
309
930087
3203
כדי ללמוד יותר על מה שאנחנו רוצים באמת.
15:34
And hopefully in the process, we will learn to be better people.
310
934193
3559
נקווה שתוך כדי כך נלמד להיות אנשים טובים יותר.
15:37
Thank you very much.
311
937776
1191
תודה רבה.
15:38
(Applause)
312
938991
3709
(מחיאות כפיים)
15:42
Chris Anderson: So interesting, Stuart.
313
942724
1868
כריס אנדרסון (כ.א.): זה כל כך מעניין, סטוארט.
15:44
We're going to stand here a bit because I think they're setting up
314
944616
3170
בוא רגע נעמוד פה כי אני חושב שהמארגנים מתכוננים
15:47
for our next speaker.
315
947810
1151
לדובר הבא.
15:48
A couple of questions.
316
948985
1538
מספר שאלות.
15:50
So the idea of programming in ignorance seems intuitively really powerful.
317
950547
5453
רעיון הטמעת בורות מרגיש ממש עוצמתי.
15:56
As you get to superintelligence,
318
956024
1594
אבל, כאשר נגיע לשלב תבונת-על
15:57
what's going to stop a robot
319
957642
2258
מה ימנע מרובוט
15:59
reading literature and discovering this idea that knowledge
320
959924
2852
לעיין בספרות ולגלות את הרעיון שידע
16:02
is actually better than ignorance
321
962800
1572
עדיף על בורות,
16:04
and still just shifting its own goals and rewriting that programming?
322
964396
4218
לשנות את מטרותיו ולשכתב את התוכנה בהתאם?
16:09
Stuart Russell: Yes, so we want it to learn more, as I said,
323
969512
6356
ס.ר.: כן. אנחנו רוצים שילמד יותר, כפי שאמרתי,
16:15
about our objectives.
324
975892
1287
אודות מטרותינו.
16:17
It'll only become more certain as it becomes more correct,
325
977203
5521
זה יתבהר יותר רק כשזה יהיה נכון יותר
16:22
so the evidence is there
326
982748
1945
אז העובדות נמצאות בפניו
16:24
and it's going to be designed to interpret it correctly.
327
984717
2724
והרובוט יעוצב כך שיוכל לפרש אותן נכון.
16:27
It will understand, for example, that books are very biased
328
987465
3956
למשל, הוא יבין שספרים מוטים מאוד
16:31
in the evidence they contain.
329
991445
1483
בעובדות שהם מכילים.
16:32
They only talk about kings and princes
330
992952
2397
הם מדברים רק על המלכים והנסיכות
16:35
and elite white male people doing stuff.
331
995373
2800
ואליטות של גברים לבנים שעושים כל מיני דברים.
16:38
So it's a complicated problem,
332
998197
2096
לכן, זוהי בעיה מורכבת.
16:40
but as it learns more about our objectives
333
1000317
3872
אבל, ככל שהרובוט ילמד את מטרותינו
16:44
it will become more and more useful to us.
334
1004213
2063
הוא יילך וייעשה מועיל יותר עבורנו.
16:46
CA: And you couldn't just boil it down to one law,
335
1006300
2526
כ.א.: אי אפשר לסכם את זה לכדי חוק אחד,
16:48
you know, hardwired in:
336
1008850
1650
אתה יודע, משהו חצוב בסלע:
16:50
"if any human ever tries to switch me off,
337
1010524
3293
" אם בן אנוש ינסה אי פעם לכבות אותי,
16:53
I comply. I comply."
338
1013841
1935
אני מציית. אני מציית."
16:55
SR: Absolutely not.
339
1015800
1182
ס.ר.: לגמרי לא.
16:57
That would be a terrible idea.
340
1017006
1499
זה יהיה רעיון נוראי.
16:58
So imagine that you have a self-driving car
341
1018529
2689
דמיינו שיש לכם רכב אוטומטי
17:01
and you want to send your five-year-old
342
1021242
2433
ואתם רוצים לשלוח את ילדיכם בן החמש
17:03
off to preschool.
343
1023699
1174
לגן ילדים.
17:04
Do you want your five-year-old to be able to switch off the car
344
1024897
3101
הייתם רוצים שהילד יוכל לכבות את הרכב
17:08
while it's driving along?
345
1028022
1213
תוך כדי הנסיעה?
17:09
Probably not.
346
1029259
1159
כנראה שלא.
17:10
So it needs to understand how rational and sensible the person is.
347
1030442
4703
יוצא שהמכונית חייבת להחליט עד כמה הנוסע נבון והגיוני.
17:15
The more rational the person,
348
1035169
1676
ככל שהנוסע הגיוני יותר,
17:16
the more willing you are to be switched off.
349
1036869
2103
כך המכונית תהיה מוכנה יותר שיכבו אותה.
17:18
If the person is completely random or even malicious,
350
1038996
2543
אם הנוסע פזיז וחסר הגיון לחלוטין או אפילו זדוני,
17:21
then you're less willing to be switched off.
351
1041563
2512
אז המכונית פחות תרצה שיכבו אותה.
17:24
CA: All right. Stuart, can I just say,
352
1044099
1866
ק.א.: בסדר גמור. תרשה לי רק לומר
17:25
I really, really hope you figure this out for us.
353
1045989
2314
שאני ממש מקווה שתפתור את זה עבורינו.
17:28
Thank you so much for that talk. That was amazing.
354
1048327
2375
תודה רבה על ההרצאה הזאת. זה היה מדהים.
17:30
SR: Thank you.
355
1050726
1167
ס.ר: תודה.
17:31
(Applause)
356
1051917
1837
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7