The danger of AI is weirder than you think | Janelle Shane

2,793,443 views ・ 2019-11-13

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

תרגום: Shlomo Adam עריכה: Sigal Tifferet
00:01
So, artificial intelligence
0
1765
3000
הבינה המלאכותית, ב"מ,
00:04
is known for disrupting all kinds of industries.
1
4789
3529
ידועה בכך שהיא משבשת תעשיות שונות.
00:08
What about ice cream?
2
8961
2043
מה עם גלידה?
00:11
What kind of mind-blowing new flavors could we generate
3
11879
3639
מהם הטעמים החדשים והמדהימים שנוכל להמציא
00:15
with the power of an advanced artificial intelligence?
4
15542
2976
אם ניעזר בכוחה של ב"מ מתקדמת?
00:19
So I teamed up with a group of coders from Kealing Middle School
5
19011
4161
איחדתי כוחות עם קבוצת מתכנתים מחטיבת הביניים של ביה"ס קילינג
00:23
to find out the answer to this question.
6
23196
2241
כדי למצוא את התשובה לשאלה זו.
00:25
They collected over 1,600 existing ice cream flavors,
7
25461
5081
הם אספו מעל 1,600 טעמים קיימים של גלידה
00:30
and together, we fed them to an algorithm to see what it would generate.
8
30566
5522
וביחד הזנו אותם לאלגוריתם כדי לראות מה הוא יצליח ליצור.
00:36
And here are some of the flavors that the AI came up with.
9
36112
3753
הנה כמה מהטעמים שהב"מ המציאה.
00:40
[Pumpkin Trash Break]
10
40444
1471
[הפסקת זבל דלעת]
00:41
(Laughter)
11
41939
1402
(צחוק)
00:43
[Peanut Butter Slime]
12
43365
2469
[סליים חמאת בוטנים]
00:46
[Strawberry Cream Disease]
13
46822
1343
[מחלת קצפת תות]
00:48
(Laughter)
14
48189
2126
(צחוק)
00:50
These flavors are not delicious, as we might have hoped they would be.
15
50339
4597
אלה אינם טעמים טעימים, כפי שקיווינו שיהיו.
00:54
So the question is: What happened?
16
54960
1864
אז השאלה היא: מה קרה? מה השתבש?
00:56
What went wrong?
17
56848
1394
00:58
Is the AI trying to kill us?
18
58266
1959
האם הב"מ מנסה להרוג אותנו?
01:01
Or is it trying to do what we asked, and there was a problem?
19
61027
4310
ואולי היא מנסה לעשות מה שביקשנו, והיתה כאן בעיה?
01:06
In movies, when something goes wrong with AI,
20
66567
2464
בסרטים, כשמשהו משתבש עם ב"מ,
01:09
it's usually because the AI has decided
21
69055
2712
זה בדרך כלל כי הב"מ החליטה
01:11
that it doesn't want to obey the humans anymore,
22
71791
2272
שהיא כבר לא רוצה לציית לבני האדם
ויש לה מטרות משלה, תודה רבה לכם.
01:14
and it's got its own goals, thank you very much.
23
74087
2623
01:17
In real life, though, the AI that we actually have
24
77266
3216
אבל במציאות, הב"מ שיש לנו
01:20
is not nearly smart enough for that.
25
80506
1863
ממש לא כל-כך חכמה.
01:22
It has the approximate computing power
26
82781
2982
יש לה כוח מיחשוב בערך כמו של שלשול,
01:25
of an earthworm,
27
85787
1276
ולכל היותר - של דבורת דבש יחידה,
01:27
or maybe at most a single honeybee,
28
87087
3403
01:30
and actually, probably maybe less.
29
90514
2215
וכנראה פחות מכך.
01:32
Like, we're constantly learning new things about brains
30
92753
2594
הרי אנו כל הזמן לומדים דברים חדשים אודות המוח
01:35
that make it clear how much our AIs don't measure up to real brains.
31
95371
4360
שמבהירים עד כמה הב"מ אינה בת-השוואה עם מוח אמיתי.
01:39
So today's AI can do a task like identify a pedestrian in a picture,
32
99755
5663
הב"מ של היום מסוגלת לעשות לזהות בתמונה הולך-רגל,
01:45
but it doesn't have a concept of what the pedestrian is
33
105442
2983
אבל אין לה מושג מהו הולך-רגל
01:48
beyond that it's a collection of lines and textures and things.
34
108449
4824
מעבר להיותו אוסף קווים, מרקמים וכדומה.
01:53
It doesn't know what a human actually is.
35
113792
2521
היא בכלל לא יודעת מהו אדם.
01:56
So will today's AI do what we ask it to do?
36
116822
3282
האם הב"מ של ימינו תעשה מה שנבקש ממנה?
02:00
It will if it can,
37
120128
1594
כן, אם היא תוכל,
02:01
but it might not do what we actually want.
38
121746
2726
אבל אולי לא בדיוק מה שנרצה.
02:04
So let's say that you were trying to get an AI
39
124496
2415
נניח שאתם רוצים שהב"מ
02:06
to take this collection of robot parts
40
126935
2619
תיקח את אוסף חלקי הרובוט הזה
02:09
and assemble them into some kind of robot to get from Point A to Point B.
41
129578
4197
ותרכיב מהן רובוט שיגיע מנקודה א' לב'.
02:13
Now, if you were going to try and solve this problem
42
133799
2481
אילו ניסיתם לפתור בעיה זו ע"י כתיבת תוכנת מחשב רגילה,
02:16
by writing a traditional-style computer program,
43
136304
2351
02:18
you would give the program step-by-step instructions
44
138679
3417
הייתם נותנים לתוכנה הוראות מפורטות
02:22
on how to take these parts,
45
142120
1329
איך לקחת את החלקים האלה,
02:23
how to assemble them into a robot with legs
46
143473
2407
להרכיב מהם רובוט עם רגליים
02:25
and then how to use those legs to walk to Point B.
47
145904
2942
ולהשתמש ברגליים האלה כדי ללכת עד נקודה ב'.
02:29
But when you're using AI to solve the problem,
48
149441
2340
אבל כשמשתמשים בב"מ כדי לפתור בעיה זו,
02:31
it goes differently.
49
151805
1174
זה שונה.
אינכם אומרים לה איך לפתור את הבעיה,
02:33
You don't tell it how to solve the problem,
50
153003
2382
02:35
you just give it the goal,
51
155409
1479
אלא רק אומרים לה מהי המטרה,
02:36
and it has to figure out for itself via trial and error
52
156912
3262
והיא צריכה להבין לבד דרך ניסוי וטעייה
02:40
how to reach that goal.
53
160198
1484
איך להגיע למטרה זו.
02:42
And it turns out that the way AI tends to solve this particular problem
54
162254
4102
ומסתבר שהב"מ נוטה לפתור בעיה מסוימת זו באופן הבא:
02:46
is by doing this:
55
166380
1484
02:47
it assembles itself into a tower and then falls over
56
167888
3367
היא מרכיבה מהחלקים מגדל שנופל ונוחת על נקודה ב'.
02:51
and lands at Point B.
57
171279
1827
וטכנית, זה פותר את הבעיה.
02:53
And technically, this solves the problem.
58
173130
2829
02:55
Technically, it got to Point B.
59
175983
1639
טכנית, היא הגיעה לנקודה ב'.
02:57
The danger of AI is not that it's going to rebel against us,
60
177646
4265
הסכנה איננה שהב"מ תתמרד נגדנו,
03:01
it's that it's going to do exactly what we ask it to do.
61
181935
4274
אלא שתעשה בדיוק מה שאנו דורשים ממנה.
03:06
So then the trick of working with AI becomes:
62
186876
2498
לכן, החוכמה בעבודה עם ב"מ היא,
03:09
How do we set up the problem so that it actually does what we want?
63
189398
3828
איך להגדיר את הבעיה כך שהיא תעשה בדיוק את מה שביקשנו?
03:14
So this little robot here is being controlled by an AI.
64
194726
3306
הרובוט הקטן הזה נשלט ע"י ב"מ.
הב"מ עיצבה את רגלי הרובוט
03:18
The AI came up with a design for the robot legs
65
198056
2814
03:20
and then figured out how to use them to get past all these obstacles.
66
200894
4078
ומצאה דרך להשתמש בהן כדי לעבור את כל המכשולים האלה.
03:24
But when David Ha set up this experiment,
67
204996
2741
אבל כשדייויד הא ערך את הניסוי הזה,
03:27
he had to set it up with very, very strict limits
68
207761
2856
היה עליו להגדיר מגבלות נוקשות ביותר
03:30
on how big the AI was allowed to make the legs,
69
210641
3292
לגבי גודל הרגליים שהב"מ רשאית לקבוע,
03:33
because otherwise ...
70
213957
1550
כי אחרת...
03:43
(Laughter)
71
223058
3931
(צחוק)
03:48
And technically, it got to the end of that obstacle course.
72
228563
3745
וטכנית, היא עברה את מסלול המכשולים.
03:52
So you see how hard it is to get AI to do something as simple as just walk.
73
232332
4942
אז אתם מבינים כמה קשה לגרום לב"מ לעשות משהו פשוט כמו הליכה.
03:57
So seeing the AI do this, you may say, OK, no fair,
74
237298
3820
אז כשאתם רואים את הב"מ עושה כך, ודאי תגידו: "זה לא הוגן,
04:01
you can't just be a tall tower and fall over,
75
241142
2580
"אסור לך לבנות סתם מגדל שנופל.
04:03
you have to actually, like, use legs to walk.
76
243746
3435
"עלייך להשתמש ברגליים כדי ללכת."
04:07
And it turns out, that doesn't always work, either.
77
247205
2759
ומסתבר שגם זה לא תמיד עובד.
04:09
This AI's job was to move fast.
78
249988
2759
המטלה של הב"מ הזאת היתה לנוע מהר.
04:13
They didn't tell it that it had to run facing forward
79
253115
3593
לא נאמר לה שצריך לנוע קדימה
04:16
or that it couldn't use its arms.
80
256732
2258
או שאסור לה להשתמש בזרועות.
04:19
So this is what you get when you train AI to move fast,
81
259487
4618
זה מה שמקבלים כשמאמנים את הב"מ לתנועה מהירה:
04:24
you get things like somersaulting and silly walks.
82
264129
3534
סלטות והליכה משונה.
04:27
It's really common.
83
267687
1400
זה נפוץ מאד.
04:29
So is twitching along the floor in a heap.
84
269667
3179
כך גם התקדמות של ערימה בעוויתות.
04:32
(Laughter)
85
272870
1150
(צחוק)
04:35
So in my opinion, you know what should have been a whole lot weirder
86
275241
3254
אז לדעתי, מה שהיה צריך להיות הרבה יותר מוזר
04:38
is the "Terminator" robots.
87
278519
1396
הם הרובוטים של "שליחות קטלנית".
04:40
Hacking "The Matrix" is another thing that AI will do if you give it a chance.
88
280256
3755
גם פיצוח ה"מטריקס" הוא משהו שב"מ תוכל לעשות אם יתנו לה הזדמנות.
04:44
So if you train an AI in a simulation,
89
284035
2517
אז אם תאמנו ב"מ בהדמייה,
04:46
it will learn how to do things like hack into the simulation's math errors
90
286576
4113
היא תלמד למשל לפצח את השגיאות המתמטיות של ההדמייה
04:50
and harvest them for energy.
91
290713
2207
ולהפיק מהן אנרגיה.
04:52
Or it will figure out how to move faster by glitching repeatedly into the floor.
92
292944
5475
או תמצא איך לנוע מהר יותר ע"י גלישה מתמדת על הרצפה.
04:58
When you're working with AI,
93
298443
1585
כשעובדים עם ב"מ,
05:00
it's less like working with another human
94
300052
2389
זה דומה פחות לעבודה עם יצור אנושי אחר,
05:02
and a lot more like working with some kind of weird force of nature.
95
302465
3629
ודומה יותר לעבודה עם איזה כוח-טבע מוזר.
05:06
And it's really easy to accidentally give AI the wrong problem to solve,
96
306562
4623
ולמעשה, קל מאד לתת לב"מ בטעות את הבעיה הלא-נכונה,
05:11
and often we don't realize that until something has actually gone wrong.
97
311209
4538
ועל פי רוב איננו מבינים זאת עד שמשהו משתבש.
05:16
So here's an experiment I did,
98
316242
2080
הנה ניסוי שערכתי,
05:18
where I wanted the AI to copy paint colors,
99
318346
3182
ובו רציתי שהב"מ תעתיק גווני צבע
05:21
to invent new paint colors,
100
321552
1746
כדי להמציא גוונים חדשים,
05:23
given the list like the ones here on the left.
101
323322
2987
בהינתן רשימה כמו זו שמשמאל.
05:26
And here's what the AI actually came up with.
102
326798
3004
והנה הרשימה שהפיקה הב"מ.
05:29
[Sindis Poop, Turdly, Suffer, Gray Pubic]
103
329826
3143
[קקי סינדיס, גוון גלל, סבל, אפור ערווה]
05:32
(Laughter)
104
332993
4230
(צחוק)
05:39
So technically,
105
339177
1886
אז טכנית,
05:41
it did what I asked it to.
106
341087
1864
הב"מ עשתה מה שביקשתי.
05:42
I thought I was asking it for, like, nice paint color names,
107
342975
3308
חשבתי שאני מבקשת ממנה שמות חדשים ונחמדים של גוונים,
05:46
but what I was actually asking it to do
108
346307
2307
אבל מה שביקשתי ממנה בפועל
05:48
was just imitate the kinds of letter combinations
109
348638
3086
היה רק לחקות את צירופי האותיות
05:51
that it had seen in the original.
110
351748
1905
שהיא ראתה במקור.
05:53
And I didn't tell it anything about what words mean,
111
353677
3098
ולא אמרתי לה דבר על משמעות המילים,
05:56
or that there are maybe some words
112
356799
2560
או שאולי יש מילים
05:59
that it should avoid using in these paint colors.
113
359383
2889
שכדאי להימנע מהן בשמות של גווני צבע.
06:03
So its entire world is the data that I gave it.
114
363141
3494
כל עולמה היה הנתונים שנתתי לה.
06:06
Like with the ice cream flavors, it doesn't know about anything else.
115
366659
4028
כמו עם טעמי הגלידה, היא לא מכירה שום דבר נוסף.
06:12
So it is through the data
116
372491
1638
משמע שדרך הנתונים
06:14
that we often accidentally tell AI to do the wrong thing.
117
374153
4044
אנו מרבים לטעות ולומר לב"מ לעשות את הדבר הלא-נכון.
06:18
This is a fish called a tench.
118
378694
3032
זהו דג בשם טינקה.
06:21
And there was a group of researchers
119
381750
1815
והיתה קבוצת חוקרים
06:23
who trained an AI to identify this tench in pictures.
120
383589
3874
שאימנה ב"מ לזהות טינקה בתמונות.
06:27
But then when they asked it
121
387487
1296
אבל כשהם שאלו את הב"מ
06:28
what part of the picture it was actually using to identify the fish,
122
388807
3426
באיזה חלק מהתמונה היא השתמשה כדי לזהות את הדג,
06:32
here's what it highlighted.
123
392257
1358
זה מה שהיא הדגישה.
06:35
Yes, those are human fingers.
124
395203
2189
נכון, אצבעות אנושיות.
06:37
Why would it be looking for human fingers
125
397416
2059
מדוע היא מחפשת אצבעות אנושיות כשהיא מנסה לזהות דג?
06:39
if it's trying to identify a fish?
126
399499
1921
06:42
Well, it turns out that the tench is a trophy fish,
127
402126
3164
מסתבר שאת הטינקה דגים בעיקר כשלל ציד,
06:45
and so in a lot of pictures that the AI had seen of this fish
128
405314
3811
ולכן בתמונות רבות של הדג הזה שהב"מ ראתה באימון שלה,
06:49
during training,
129
409149
1151
06:50
the fish looked like this.
130
410324
1490
הדג נראה ככה.
06:51
(Laughter)
131
411838
1635
(צחוק)
06:53
And it didn't know that the fingers aren't part of the fish.
132
413497
3330
היא לא ידעה שהאצבעות אינן איברים של הדג.
06:58
So you see why it is so hard to design an AI
133
418808
4120
אז אתם מבינים למה קשה כל-כך לתכנן ב"מ
07:02
that actually can understand what it's looking at.
134
422952
3319
שתוכל להבין מה היא רואה.
07:06
And this is why designing the image recognition
135
426295
2862
ולכן קשה כך-כך לתכנן זיהוי תמונה
07:09
in self-driving cars is so hard,
136
429181
2067
במכוניות אוטונומיות,
07:11
and why so many self-driving car failures
137
431272
2205
ומדוע כשלים רבים כל-כך במכוניות אוטונומיות
07:13
are because the AI got confused.
138
433501
2885
נובעים מבלבול של הב"מ.
07:16
I want to talk about an example from 2016.
139
436410
4008
אני רוצה לדבר על דוגמה מ-2016.
07:20
There was a fatal accident when somebody was using Tesla's autopilot AI,
140
440442
4455
היתה תאונה קטלנית כשמישהו השתמש בב"מ של רכב אוטונומי של "טסלה",
07:24
but instead of using it on the highway like it was designed for,
141
444921
3414
אבל במקום להשתמש בה בכביש המהיר, כפי שתוכננה,
07:28
they used it on city streets.
142
448359
2205
הוא השתמש בה ברחובות העיר.
07:31
And what happened was,
143
451239
1175
ומה שקרה הוא,
07:32
a truck drove out in front of the car and the car failed to brake.
144
452438
3396
שמשאית חצתה לפני הרכב והרכב לא בלם.
07:36
Now, the AI definitely was trained to recognize trucks in pictures.
145
456507
4762
הב"מ הוכשרה בהחלט לזהות משאיות בתמונות.
07:41
But what it looks like happened is
146
461293
2145
אבל מה שכנראה קרה הוא,
07:43
the AI was trained to recognize trucks on highway driving,
147
463462
2931
שהב"מ אומנה לזהות משאיות בכביש המהיר,
07:46
where you would expect to see trucks from behind.
148
466417
2899
ושם הציפיה היא לראות משאיות מאחור.
07:49
Trucks on the side is not supposed to happen on a highway,
149
469340
3420
משאיות במבט צידי לא אמורות להיראות בכביש מהיר,
07:52
and so when the AI saw this truck,
150
472784
3455
אז כשב"מ ראתה את המשאית,
07:56
it looks like the AI recognized it as most likely to be a road sign
151
476263
4827
היא כנראה זיהתה אותה כשלט דרכים,
08:01
and therefore, safe to drive underneath.
152
481114
2273
כזה שבטוח לעבור מתחתיו.
08:04
Here's an AI misstep from a different field.
153
484114
2580
הנה טעות של ב"מ מתחום שונה.
08:06
Amazon recently had to give up on a résumé-sorting algorithm
154
486718
3460
לאחרונה "אמזון" נאלצה לנטוש אלגוריתם למיון קורות-חיים
08:10
that they were working on
155
490202
1220
שעליו הם עבדו,
08:11
when they discovered that the algorithm had learned to discriminate against women.
156
491446
3908
כשגילו שהאלגוריתם למד להפלות נגד נשים.
08:15
What happened is they had trained it on example résumés
157
495378
2716
מה שקרה הוא שהם אימנו אותו עם דגימות של קורות-חיים
08:18
of people who they had hired in the past.
158
498118
2242
של אנשים שהם העסיקו בעבר.
08:20
And from these examples, the AI learned to avoid the résumés of people
159
500384
4023
ומהדוגמאות, הב"מ למדה להימנע מקורות-חיים של אנשים
08:24
who had gone to women's colleges
160
504431
2026
שהלכו למכללות של נשים
08:26
or who had the word "women" somewhere in their resume,
161
506481
2806
או שהמילה "נשים" הופיעה בקורות החיים,
08:29
as in, "women's soccer team" or "Society of Women Engineers."
162
509311
4576
כמו "נבחרת כדורגל נשים" או "אגודת הנשים המהנדסות".
08:33
The AI didn't know that it wasn't supposed to copy this particular thing
163
513911
3974
הב"מ לא ידעה שהיא לא אמורה להעתיק את הדבר המסוים הזה
08:37
that it had seen the humans do.
164
517909
1978
מבני האדם.
08:39
And technically, it did what they asked it to do.
165
519911
3177
וטכנית, היא עשתה כפי שהתבקשה.
08:43
They just accidentally asked it to do the wrong thing.
166
523112
2797
אלא שביקשו ממנה בטעות לעשות את הדבר הלא-נכון.
08:46
And this happens all the time with AI.
167
526653
2895
וזה קורה כל הזמן עם ב"מ.
08:50
AI can be really destructive and not know it.
168
530120
3591
ב"מ יכולה להיות הרסנית מאד מבלי לדעת זאת.
08:53
So the AIs that recommend new content in Facebook, in YouTube,
169
533735
5078
אז הב"מ שממליצות על תכנים ב"פייסבוק" ו"יו-טיוב",
08:58
they're optimized to increase the number of clicks and views.
170
538837
3539
ממוטבות להגדיל את מספר הקליקים והצפיות.
09:02
And unfortunately, one way that they have found of doing this
171
542400
3436
למרבה הצער, אחת הדרכים שהן מצאו לעשות זאת
09:05
is to recommend the content of conspiracy theories or bigotry.
172
545860
4503
היא להמליץ על תכני תיאוריות-קשר או גזענות.
09:10
The AIs themselves don't have any concept of what this content actually is,
173
550902
5302
לב"מ עצמן אין שום מושג מהם בעצם התכנים האלה,
09:16
and they don't have any concept of what the consequences might be
174
556228
3395
וגם לא מה עלולות להיות התוצאות
09:19
of recommending this content.
175
559647
2109
של ההמלצה על תכנים כאלה.
09:22
So, when we're working with AI,
176
562296
2011
אז כשאנו עובדים עם ב"מ,
09:24
it's up to us to avoid problems.
177
564331
4182
באחריותנו למנוע בעיות.
09:28
And avoiding things going wrong,
178
568537
2323
ומניעה מדברים להשתבש
09:30
that may come down to the age-old problem of communication,
179
570884
4526
יכולה להסתכם בבעייה עתיקת היומין של קצרים בתקשורת.
09:35
where we as humans have to learn how to communicate with AI.
180
575434
3745
כשאנו, בני האדם, צריכים ללמוד איך לתקשר עם ב"מ,
09:39
We have to learn what AI is capable of doing and what it's not,
181
579203
4039
עלינו ללמוד מה הב"מ מסוגלת לעשות ומה לא,
09:43
and to understand that, with its tiny little worm brain,
182
583266
3086
ולהבין שעם מוח השלשול הזעיר שלה,
09:46
AI doesn't really understand what we're trying to ask it to do.
183
586376
4013
הב"מ לא ממש מבינה מה אנו מנסים לבקש ממנה לעשות.
09:51
So in other words, we have to be prepared to work with AI
184
591148
3321
במלים אחרות, עלינו להיות מוכנים לעבוד עם ב"מ
09:54
that's not the super-competent, all-knowing AI of science fiction.
185
594493
5258
שאיננה כל-יכולה ויודעת-כל כמו במדע הבדיוני:
09:59
We have to be prepared to work with an AI
186
599775
2862
עלינו להיות מוכנים לעבוד עם הב"מ שיש לנו בהווה.
10:02
that's the one that we actually have in the present day.
187
602661
2938
10:05
And present-day AI is plenty weird enough.
188
605623
4205
והב"מ בהווה היא מספיק מוזרה.
10:09
Thank you.
189
609852
1190
תודה לכם.
10:11
(Applause)
190
611066
5225
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7