Machine intelligence makes human morals more important | Zeynep Tufekci

180,336 views ・ 2016-11-11

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Gili Baltsan מבקר: Ido Dekkers
00:12
So, I started my first job as a computer programmer
0
12739
4122
התחלתי את עבודתי הראשונה כמתכנתת מחשבים
00:16
in my very first year of college --
1
16885
1956
בשנתי הראשונה בקולג' -
00:18
basically, as a teenager.
2
18865
1507
כשהייתי נערה מתבגרת.
00:20
Soon after I started working,
3
20889
1732
זמן קצר לאחר שהתחלתי לעבוד,
00:22
writing software in a company,
4
22645
1610
לכתוב תוכנות בחברה,
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
מנהל שעבד בחברה נכנס לחדר בו הייתי,
00:28
and he whispered to me,
6
28458
1268
ולחש אליי,
00:30
"Can he tell if I'm lying?"
7
30229
2861
"האם הוא יכול לדעת אם אני משקר?"
00:33
There was nobody else in the room.
8
33806
2077
לא היה אף אחד נוסף בחדר.
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
"מי יכול לדעת אם אתה משקר? ולמה אנחנו לוחשים?"
00:42
The manager pointed at the computer in the room.
10
42266
3107
המנהל הצביע על המחשב בחדר.
00:45
"Can he tell if I'm lying?"
11
45397
3096
"האם הוא יכול לדעת אם אני משקר?"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
טוב, המנהל הזה ניהל רומן עם פקידת הקבלה.
00:53
(Laughter)
13
53999
1112
(צחוק)
00:55
And I was still a teenager.
14
55135
1766
ואני הייתי עדיין נערה מתבגרת.
00:57
So I whisper-shouted back to him,
15
57447
2019
אז לחשתי-צעקתי אליו בחזרה,
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"כן, המחשב יכול לדעת אם אתה משקר."
01:03
(Laughter)
17
63138
1806
(צחוק)
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
טוב, צחקתי, אבל בעצם, הבדיחה היא על חשבוני.
01:07
Nowadays, there are computational systems
19
67915
3268
בימינו, קיימות מערכות ממוחשבות
01:11
that can suss out emotional states and even lying
20
71207
3548
שיכולות לקלוט מצבים רגשיים ואפילו שקר
01:14
from processing human faces.
21
74779
2044
באמצעות עיבוד פרצופים אנושיים.
01:17
Advertisers and even governments are very interested.
22
77248
4153
מפרסמים ואפילו ממשלות מאד מתעניינות בזה.
01:22
I had become a computer programmer
23
82319
1862
אני נהייתי מתכנתת מחשבים
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
כי הייתי מהילדים האלה שמשוגעים על מתמטיקה ומדעים.
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
אבל איפשהו במהלך הדרך למדתי על נשק גרעיני,
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
והתחלתי להיות מאוד מודאגת בעניין האתיקה של המדע.
01:34
I was troubled.
27
94050
1204
הייתי מוטרדת.
01:35
However, because of family circumstances,
28
95278
2641
עם זאת, בגלל נסיבות משפחתיות,
01:37
I also needed to start working as soon as possible.
29
97943
3298
נאלצתי להתחיל לעבוד מוקדם ככל האפשר.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
אז חשבתי לעצמי, אני אבחר בתחום טכני
01:44
where I can get a job easily
31
104588
1796
בו אמצא עבודה בקלות
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
ולא אצטרך להתעסק בשאלות אתיות מטרידות.
01:51
So I picked computers.
33
111022
1529
אז בחרתי במחשבים.
01:52
(Laughter)
34
112575
1104
(צחוק)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
טוב, חה, חה, חה! כל הצחוק הוא על חשבוני.
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
בימינו, מדעני מחשבים בונים פלטפורמות
01:59
that control what a billion people see every day.
37
119915
4209
אשר שולטות במה שמיליארד אנשים יצפו בכל יום.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
הם מפתחים מכוניות שיכולות להחליט את מי לדרוס.
02:09
They're even building machines, weapons,
39
129707
3213
הם אפילו בונים מכונות, כלי נשק,
02:12
that might kill human beings in war.
40
132944
2285
שיכולים להרוג בני אדם במלחמה.
02:15
It's ethics all the way down.
41
135253
2771
מדובר באתיקה לאורך כל הדרך.
02:19
Machine intelligence is here.
42
139183
2058
הבינה המלאכותית כבר כאן.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
אנו משתמשים כעת במחשוב כדי לקבל כל מיני החלטות.
02:25
but also new kinds of decisions.
44
145321
1886
אבל גם החלטות מסוגים חדשים.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
אנחנו שואלים את המחשוב שאלות שיש להן יותר מתשובה נכונה אחת,
02:32
that are subjective
46
152427
1202
שהן סוביקטיביות
02:33
and open-ended and value-laden.
47
153653
2325
שאלות פתוחות ובעלות מטען ערכי.
02:36
We're asking questions like,
48
156002
1758
אנו שואלים שאלות כמו,
02:37
"Who should the company hire?"
49
157784
1650
"את מי צריכה החברה להעסיק?"
02:40
"Which update from which friend should you be shown?"
50
160096
2759
"איזה עדכון מאיזה חבר אנחנו צריכים להראות?"
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
"מיהו האסיר שסביר יותר שיפשע שוב?"
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
"על איזה אייטם חדשותי או סרט כדאי להמליץ לאנשים?"
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
תראו, כן, אנחנו משתמשים במחשבים כבר זמן רב,
02:51
but this is different.
54
171988
1517
אבל זה שונה.
02:53
This is a historical twist,
55
173529
2067
זהו טוויסט היסטורי,
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
כיוון שאנחנו לא יכולים להיעזר במחשוב בשאלות סובייקטיביות כאלו
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
כפי שאנו נעזרים במחשוב להטסת מטוסים, לבניית גשרים,
03:06
going to the moon.
58
186425
1259
להגיע לירח.
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
האם מטוסים בטוחים יותר? האם הגשר התנדנד ונפל?
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
בדברים האלו הסכמנו על אמות מידה ברורות למדי,
03:16
and we have laws of nature to guide us.
61
196254
2239
ויש לנו את חוקי הטבע שמדריכים אותנו.
03:18
We have no such anchors and benchmarks
62
198517
3394
אין לנו עוגנים ואמות מידה כאלו
03:21
for decisions in messy human affairs.
63
201935
3963
עבור החלטות בעניינים אנושיים מסובכים.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
כדי לסבך את העניין עוד יותר, התוכנה שלנו הולכת ונעשית חזקה יותר,
03:30
but it's also getting less transparent and more complex.
65
210183
3773
אבל היא גם נעשית פחות שקופה ויותר מורכבת.
03:34
Recently, in the past decade,
66
214542
2040
לאחרונה, בעשור החולף,
03:36
complex algorithms have made great strides.
67
216606
2729
אלגוריתמים מורכבים התקדמו מאד.
03:39
They can recognize human faces.
68
219359
1990
הם יכולים לזהות פרצופים אנושיים.
03:41
They can decipher handwriting.
69
221985
2055
הם יכולים לפענח כתב יד.
03:44
They can detect credit card fraud
70
224436
2066
הם יכולים לזהות הונאת כרטיסי אשראי
03:46
and block spam
71
226526
1189
ולחסום דואר זבל
03:47
and they can translate between languages.
72
227739
2037
והם יכולים לתרגם משפה לשפה.
03:49
They can detect tumors in medical imaging.
73
229800
2574
הם יכולים לזהות גידולים בהדמיה רפואית.
03:52
They can beat humans in chess and Go.
74
232398
2205
הם יכולים לנצח בני אדם במשחקי שח-מט וגו.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
הרבה מההתקדמות הזו היא הודות לשיטה שנקראת "לימוד מכונה".
04:00
Machine learning is different than traditional programming,
76
240175
3187
לימוד מכונה הוא שונה מתכנות מסורתי,
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
בו נותנים למחשב הוראות מפורטות, מדויקות, מדוקדקות.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
זה יותר כמו שמכניסים למערכת הרבה נתונים,
04:11
including unstructured data,
79
251584
1656
כולל נתונים לא מובנים,
04:13
like the kind we generate in our digital lives.
80
253264
2278
כמו אלה שאנו מייצרים בחיינו הדיגיטליים.
04:15
And the system learns by churning through this data.
81
255566
2730
והמערכת לומדת, על-ידי ערבול כל הנתונים הללו.
04:18
And also, crucially,
82
258669
1526
כמו כן, באופן מכריע,
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
המערכות הללו לא פועלות על פי ההיגיון של תשובה-אחת.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
הן לא מייצרות תשובה פשוטה; זה יותר הסתברותי:
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"זו כנראה יותר מתאימה למה שאתה מחפש."
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
היתרון הוא: השיטה הזו ממש חזקה.
04:35
The head of Google's AI systems called it,
87
275117
2076
המנהל של מערכת AI של גוגל קרא לזה,
04:37
"the unreasonable effectiveness of data."
88
277217
2197
"היעילות חסרת ההיגיון של נתונים."
04:39
The downside is,
89
279791
1353
החיסרון הוא,
04:41
we don't really understand what the system learned.
90
281738
3071
שאנחנו לא באמת מבינים מה המערכת למדה.
04:44
In fact, that's its power.
91
284833
1587
בעצם, זה הכוח שלה.
04:46
This is less like giving instructions to a computer;
92
286946
3798
זה פחות כמו לתת הוראות למחשב;
04:51
it's more like training a puppy-machine-creature
93
291200
4064
זה יותר כמו לאמן יצור שהוא גור-מכונה
04:55
we don't really understand or control.
94
295288
2371
שאנחנו לא באמת מבינים ושולטים בו.
04:58
So this is our problem.
95
298362
1551
אז זו הבעיה שלנו.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
זו בעיה כאשר הבינה המלאכותית הזו טועה.
05:04
It's also a problem when it gets things right,
97
304713
3540
זו גם בעיה כאשר היא אינה טועה,
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
מכיוון שאנו לא יודעים מהו מה כאשר הבעיה היא סוביקטיבית.
05:11
We don't know what this thing is thinking.
99
311929
2339
איננו יודעים מה הדבר הזה חושב.
05:15
So, consider a hiring algorithm --
100
315493
3683
אז, חישבו על אלגוריתם של העסקת עובדים -
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
מערכת שרגילה להעסיק אנשים, משתמשת במערכות לימוד-מכונה.
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
מערכת כזו הייתה מאומנת על נתוני העסקה קודמים
05:28
and instructed to find and hire
103
328655
2591
וניתנת לה הנחייה למצוא ולהעסיק
05:31
people like the existing high performers in the company.
104
331270
3038
אנשים בעלי ביצועים טובים כמו אלה שכבר נמצאים בחברה.
05:34
Sounds good.
105
334814
1153
נשמע טוב.
05:35
I once attended a conference
106
335991
1999
פעם השתתפתי בכנס
05:38
that brought together human resources managers and executives,
107
338014
3125
אשר חיבר יחד מנהלי משאבי אנוש,
05:41
high-level people,
108
341163
1206
אנשים ברמה גבוהה,
05:42
using such systems in hiring.
109
342393
1559
המשתמשים במערכות כאלה להעסקת עובדים.
05:43
They were super excited.
110
343976
1646
הם מאד התלהבו.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
הם חשבו שזה יהפוך את תהליך ההעסקה לאובייקטיבי יותר, פחות מוטה,
05:50
and give women and minorities a better shot
112
350323
3000
ויעניק לנשים ומיעוטים סיכוי גבוה יותר
05:53
against biased human managers.
113
353347
2188
כנגד מנהלים אנושיים משוחדים.
05:55
And look -- human hiring is biased.
114
355559
2843
ותראו - העסקה על-ידי בני-אדם היא משוחדת.
05:59
I know.
115
359099
1185
אני יודעת.
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
באחד ממקומות העבודה המוקדמים שלי כמתכנתת,
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
המנהלת הישירה שלי הייתה באה לפעמים למקום בו הייתי
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
ממש מוקדם בבוקר או ממש מאוחר אחר הצהריים,
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
ואמרה לי, "זיינב, בואי נלך לאכול ארוחת צהרים!"
06:14
I'd be puzzled by the weird timing.
120
374724
2167
הייתי מבולבלת מהתזמון המוזר.
06:16
It's 4pm. Lunch?
121
376915
2129
עכשיו 4 אחר הצהריים. ארוחת צהריים?
06:19
I was broke, so free lunch. I always went.
122
379068
3094
הייתי מרוששת, אז ארוחת חינם. תמיד הלכתי.
06:22
I later realized what was happening.
123
382618
2067
מאוחר יותר הבנתי מה קרה.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
מנהליי הישירים לא הודו בפני הממונים עליהם
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
שהמתכנתת שהם העסיקו בתפקיד רציני היא נערה מתבגרת
06:32
who wore jeans and sneakers to work.
126
392416
3930
שבאה לעבודה בג'ינס וסניקרס.
06:37
I was doing a good job, I just looked wrong
127
397174
2202
עשיתי עבודה טובה, רק לא נראיתי נכון
06:39
and was the wrong age and gender.
128
399400
1699
והייתי בגיל ובמגדר הלא נכונים.
06:41
So hiring in a gender- and race-blind way
129
401123
3346
אז העסקת עובדים באופן עיוור למגדר וגזע
06:44
certainly sounds good to me.
130
404493
1865
בהחלט נשמע לי טוב.
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
אבל עם המערכות האלו, זה יותר מורכב, וזו הסיבה:
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
כעת, מערכות ממוחשבות יכולות להסיק כל מיני דברים עליכם
06:56
from your digital crumbs,
133
416783
1872
מהפירורים הדיגיטליים שלכם,
06:58
even if you have not disclosed those things.
134
418679
2333
אפילו אם לא גילית את הדברים האלה.
07:01
They can infer your sexual orientation,
135
421506
2927
הם יכולות להסיק לגבי האוריינטציה המינית שלכם,
07:04
your personality traits,
136
424994
1306
תכונות האופי שלכם,
07:06
your political leanings.
137
426859
1373
הנטייה הפוליטית שלכם.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
יש להן יכולת ניבוי עם רמות דיוק גבוהות.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
זכרו - אפילו לגבי דברים שלא גיליתם.
07:15
This is inference.
140
435964
1591
זוהי הסקה.
07:17
I have a friend who developed such computational systems
141
437579
3261
יש לי חברה שפיתחה מערכות ממוחשבות שיכולות
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
לנבא את הסיכון לדיכאון קליני או דיכאון אחרי לידה
07:24
from social media data.
143
444529
1416
מנתונים של מדיה חברתית.
07:26
The results are impressive.
144
446676
1427
התוצאות הן מרשימות.
07:28
Her system can predict the likelihood of depression
145
448492
3357
המערכת שלה יכולה לנבא את הסיכון ללקות בדיכאון
07:31
months before the onset of any symptoms --
146
451873
3903
חודשים לפני הופעת סימפטומים כלשהם -
07:35
months before.
147
455800
1373
חודשים לפני.
07:37
No symptoms, there's prediction.
148
457197
2246
אין סימפטומים, יש ניבוי.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
היא מקווה שישתמשו בזה להתערבות מוקדמת. נהדר!
07:44
But now put this in the context of hiring.
150
464911
2040
אבל עכשיו שימו את זה בהקשר של העסקה.
07:48
So at this human resources managers conference,
151
468027
3046
אז בכנס הזה של מנהלי משאבי אנוש,
07:51
I approached a high-level manager in a very large company,
152
471097
4709
פניתי אל מנהלת בכירה בחברה גדולה מאד,
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
ואמרתי לה, "תראי, מה אם, ללא ידיעתך,
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
"המערכת שלך מנפה החוצה אנשים עם סיכון עתידי גבוה ללקות בדיכאון?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
"הם לא מדוכאים כעת, רק אולי בעתיד, בסיכון גבוה יותר.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
"מה אם היא מנפה החוצה נשים שסיכוייהן גדולים יותר להרות
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
"בשנה או שנתיים הקרובות אך אינן בהריון כעת?
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
"מה אם המערכת מעסיקה אנשים אגרסיביים מכיוון שזו התרבות בסביבת העבודה שלך?"
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
אתם לא יכולים לדעת את זה על-ידי חלוקה למגדרים.
08:27
Those may be balanced.
160
507888
1502
אלו יכולים להיות מאוזנים.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
ומאחר וזאת למידת מכונה, לא שיטת קידוד מסורתית,
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
אין שם משתנה שמוגדר "סיכון מוגבר לדיכאון",
08:37
"higher risk of pregnancy,"
163
517926
1833
"סיכון מוגבר להריון,"
08:39
"aggressive guy scale."
164
519783
1734
"סולם של אגרסיביות".
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
לא רק שאינכם יודעים לפי מה המערכת שלכם בוחרת,
08:45
you don't even know where to begin to look.
166
525698
2323
אתם אפילו לא יודעים איפה להתחיל לחפש.
08:48
It's a black box.
167
528045
1246
זוהי קופסה שחורה.
08:49
It has predictive power, but you don't understand it.
168
529315
2807
יש לה יכולת ניבוי, אבל אתם לא מבינים אותה.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
"אילו אמצעי ביטחון," שאלתי, "יש לך
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
"להבטיח שהקופסה השחורה שלך לא עושה משהו מפוקפק?"
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
היא הסתכלה עלי כאילו שדרכתי על 10 זנבות של כלבלבים.
09:04
(Laughter)
172
544765
1248
(צחוק)
09:06
She stared at me and she said,
173
546037
2041
היא נעצה בי מבט ואמרה,
09:08
"I don't want to hear another word about this."
174
548556
4333
"אני לא רוצה לשמוע מילה נוספת על זה."
09:13
And she turned around and walked away.
175
553458
2034
והיא הסתובבה והלכה משם.
09:16
Mind you -- she wasn't rude.
176
556064
1486
שימו לב - היא לא הייתה גסת רוח.
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
זה היה בבירור: מה שאני לא יודעת הוא לא הבעיה שלי, לכי מכאן, מבט מקפיא.
09:23
(Laughter)
178
563906
1246
(צחוק)
09:25
Look, such a system may even be less biased
179
565862
3839
תראו, מערכת כזו יכולה אפילו להיות פחות מוטה
09:29
than human managers in some ways.
180
569725
2103
מאשר מנהלים אנושיים באופנים מסוימים.
09:31
And it could make monetary sense.
181
571852
2146
והיא יכולה להיות הגיונית מבחינה כלכלית.
09:34
But it could also lead
182
574573
1650
אבל היא גם יכולה להוביל
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
לסגירה מתמשכת וחמקנית של שוק העבודה
09:41
of people with higher risk of depression.
184
581019
2293
בפני אנשים עם סיכון גבוה ללקות בדיכאון.
09:43
Is this the kind of society we want to build,
185
583753
2596
האם זו החברה שאנחנו רוצים לבנות,
09:46
without even knowing we've done this,
186
586373
2285
מבלי שנדע אפילו שאנחנו עושים זאת,
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
בגלל שהשארנו את קבלת ההחלטות בידי מכונות שאנחנו לא מבינים עד הסוף?
09:53
Another problem is this:
188
593265
1458
בעיה נוספת היא זו:
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
המערכות האלו לעיתים קרובות מכוונות לנתונים המיוצרים על ידי הפעולות שלנו,
09:59
human imprints.
190
599790
1816
חותם אנושי.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
אם כך, הן יכולות פשוט לשקף את ההעדפות שלנו.
10:06
and these systems could be picking up on our biases
192
606020
3593
והמערכות האלו יכולות להיטפל להעדפות שלנו
10:09
and amplifying them
193
609637
1313
ולהגביר אותן
10:10
and showing them back to us,
194
610974
1418
ולשקף לנו אותן בחזרה,
10:12
while we're telling ourselves,
195
612416
1462
בזמן שאנחנו אומרים לעצמנו,
10:13
"We're just doing objective, neutral computation."
196
613902
3117
"אנחנו עוסקים במחשוב אובייקטיבי וניטרלי."
10:18
Researchers found that on Google,
197
618314
2677
חוקרים מצאו שבגוגל,
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
לנשים יש סיכוי נמוך יותר מאשר לגברים לקבל מודעות דרושים לתפקידים עם שכר גבוה.
10:28
And searching for African-American names
199
628463
2530
וחיפוש של שמות אפריקנים-אמריקנים
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
יעלה בסיכוי גבוה יותר פרסומות המרמזות על עבר פלילי,
10:35
even when there is none.
201
635747
1567
אפילו כאשר אין כזה.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
להטיות חבויות כאלה ואלגוריתמים של קופסא שחורה
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
שחוקרים מגלים לפעמים אבל לפעמים איננו יודעים עליהם,
10:46
can have life-altering consequences.
204
646263
2661
יכולות להיות השלכות משנות חיים.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
בוויסקונסין, נאשם נשפט לשש שנים בכלא
10:54
for evading the police.
206
654141
1355
על התחמקות מהמשטרה.
10:56
You may not know this,
207
656824
1186
יכול להיות שאתם לא יודעים זאת,
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
אך השימוש באלגוריתמים הולך וגובר בהחלטות על ענישה וחנינה.
11:02
He wanted to know: How is this score calculated?
209
662056
2955
הוא רצה לדעת: איך המספר הזה חושב?
11:05
It's a commercial black box.
210
665795
1665
זו היא קופסה שחורה מסחרית.
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
החברה סירבה לאפשר לאתגר את האלגוריתם שלה באולם בית המשפט
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
אבל פרו-פבליקה, חברת חקירות ללא מטרות רווח, בדקה את האלגוריתם הזה
11:17
with what public data they could find,
213
677952
2016
עם כל הנתונים הציבוריים שיכלו למצוא,
11:19
and found that its outcomes were biased
214
679992
2316
וגילו שהתוצאות היו מוטות
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
וכוח הניבוי שלו היה מפחיד, בקושי יותר טוב ממזל,
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
והוא הגדיר באופן מוטעה נאשם שחור כפושע עתידי
11:30
at twice the rate of white defendants.
217
690425
3895
בשיעור כפול מאשר נאשם לבן.
11:35
So, consider this case:
218
695891
1564
אז, בחנו את המקרה הבא:
11:38
This woman was late picking up her godsister
219
698103
3852
האישה הזו איחרה לאסוף את אחותה החורגת
11:41
from a school in Broward County, Florida,
220
701979
2075
מבית ספר במחוז ברווארד, בפלורידה,
11:44
running down the street with a friend of hers.
221
704757
2356
והיא רצה ברחוב עם חברתה.
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
הן הבחינו באופני ילדים ובקורקינט שהיו לא קשורים במרפסת
11:51
and foolishly jumped on it.
223
711260
1632
ובטיפשות קפצו עליהם.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
בעוד הן דוהרות, אישה הגיחה ואמרה,
11:55
"Hey! That's my kid's bike!"
225
715539
2205
" הי, אלו האופניים של הילד שלי!"
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
הן זרקו אותם, הן הלכו משם, אבל הן נעצרו.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
היא טעתה, היא עשתה שטות, אבל היא גם הייתה רק בת 18.
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
היו לה שתי עברות נעורים קודמות.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
בינתיים, האיש הזה נעצר על גניבה מחנות בהום דיפו -
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
דברים בשווי של 85 דולר, פשע חסר חשיבות דומה.
12:16
But he had two prior armed robbery convictions.
231
736766
4559
אבל היו לו שתי הרשעות קודמות על שוד מזויין.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
אבל האלגוריתם חישב אותה בסיכון גבוה, ולא אותו.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
שנתיים לאחר מכן, פרו-פבליקה מצאה שהיא לא פשעה שוב.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
רק היה לה קשה למצוא עבודה עם העבר שלה.
12:33
He, on the other hand, did reoffend
235
753218
2076
הוא, לעומת זאת, כן פשע שוב
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
וכעת הוא מרצה עונש של שמונה שנות מאסר בגלל פשע מאוחר יותר.
12:40
Clearly, we need to audit our black boxes
237
760088
3369
בברור, עלינו לבקר את הקופסאות השחורות שלנו
12:43
and not have them have this kind of unchecked power.
238
763481
2615
ולא לאפשר להן סוג כזה של כוח בלתי בדוק.
12:46
(Applause)
239
766120
2879
(מחיאות כפיים)
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
ביקורות הן נהדרות וחשובות אך הן לא פותרות את כל בעיותינו.
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
קחו למשל את האלגוריתם החזק של הפיד החדשותי של פייסבוק -
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
אתם יודעים, זה שמדרג כל דבר ומחליט מה להראות לכם
13:01
from all the friends and pages you follow.
243
781992
2284
מכל החברים והדפים שאחריהם אתם עוקבים.
13:04
Should you be shown another baby picture?
244
784898
2275
האם צריך להראות לכם תמונה אחרת של תינוק?
13:07
(Laughter)
245
787197
1196
(צחוק)
13:08
A sullen note from an acquaintance?
246
788417
2596
הערה זועפת מאיזה מכר?
13:11
An important but difficult news item?
247
791449
1856
פריט חדשותי חשוב אך קשה לצפייה?
13:13
There's no right answer.
248
793329
1482
אין כאן תשובה נכונה.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
פייסבוק מְיַטֶב לצורך מעורבות באתר:
13:17
likes, shares, comments.
250
797518
1415
לייקים, שיתופים, תגובות.
13:20
In August of 2014,
251
800168
2696
באוגוסט 2014,
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
פרצה מחאה בפרגוסון, מיזורי
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
לאחר הריגתו של נער אפריקני-אמריקני על-ידי שוטר לבן,
13:30
under murky circumstances.
254
810015
1570
בנסיבות חשודות.
13:31
The news of the protests was all over
255
811974
2007
החדשות בנוגע למחאה הופיעו בגדול
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
בדף הטוויטר שלי שהוא ללא סינון אלגוריתמי,
13:36
but nowhere on my Facebook.
257
816714
1950
אך לא הופיעו כלל בדף הפייסבוק שלי.
13:39
Was it my Facebook friends?
258
819182
1734
האם היו אלה חבריי בפייסבוק?
13:40
I disabled Facebook's algorithm,
259
820940
2032
ניטרלתי את האלגוריתם של הפייסבוק,
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
דבר שקשה לעשות כי פייסבוק רוצה שתהיו
13:46
come under the algorithm's control,
261
826344
2036
כל הזמן תחת שליטת האלגוריתם,
13:48
and saw that my friends were talking about it.
262
828404
2238
וראיתי שחבריי דיברו על זה.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
רק שהאלגוריתם לא הראה לי את זה.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
בדקתי את זה ומצאתי שזו הייתה בעיה נרחבת.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
הסיפור מפרגוסון לא היה ידידותי לאלגוריתם.
14:00
It's not "likable."
266
840102
1171
הוא לא "אהוב".
14:01
Who's going to click on "like?"
267
841297
1552
מי יסמן לזה "לייק"?
14:03
It's not even easy to comment on.
268
843500
2206
אפילו לא קל להגיב עליו.
14:05
Without likes and comments,
269
845730
1371
ללא לייקים ותגובות,
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
סביר שהאלגוריתם הראה אותו אפילו לפחות אנשים,
14:10
so we didn't get to see this.
271
850441
1542
אז לא זכינו לראות את זה.
14:12
Instead, that week,
272
852946
1228
במקומו, באותו שבוע,
14:14
Facebook's algorithm highlighted this,
273
854198
2298
האלגוריתם של פייסבוק הדגיש את זה,
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
זהו אתגר דלי הקרח של ALS.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
מטרה טובה; שפוך דלי קרח, תרום כסף, יופי.
14:22
But it was super algorithm-friendly.
276
862536
1904
אבל הוא היה ידידותי ביותר לאלגוריתם.
14:25
The machine made this decision for us.
277
865219
2613
המכונה קיבלה את ההחלטה הזו עבורנו.
14:27
A very important but difficult conversation
278
867856
3497
שיחה חשובה מאד אך קשה
14:31
might have been smothered,
279
871377
1555
אולי הייתה מושתקת,
14:32
had Facebook been the only channel.
280
872956
2696
אם פייסבוק היה הערוץ היחיד.
14:36
Now, finally, these systems can also be wrong
281
876117
3797
כעת, לבסוף, המערכות האלה גם יכולות לטעות
14:39
in ways that don't resemble human systems.
282
879938
2736
בצורות שאינן דומות למערכות אנושיות.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
האם אתם זוכרים את ווטסון, מערכת הבינה המלאכותית של IBM
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
שטאטאה את הרצפה עם מתחרה אנושי במשחק "סכנה"?
14:49
It was a great player.
285
889131
1428
הוא היה שחקן נהדר.
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
אבל אז, במשימה האחרונה, ווטסון נשאל את השאלה הבאה:
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
"שמו של שדה התעופה הכי גדול שלו נקרא ע"ש גיבור מלחמת העולם ה-2,
14:57
its second-largest for a World War II battle."
288
897615
2252
השני הכי גדול על שם קרב במלחמת העולם ה-II."
14:59
(Hums Final Jeopardy music)
289
899891
1378
(מזמזת את הנעימה של השלב הסופי במשחק)
15:01
Chicago.
290
901582
1182
שיקגו.
15:02
The two humans got it right.
291
902788
1370
שני האנשים ענו נכון.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
ווטסון, לעומת זאת, ענה "טורונטו" -
15:09
for a US city category!
293
909069
1818
בקטגוריה של ערים בארצות הברית!
15:11
The impressive system also made an error
294
911596
2901
המערכת המרשימה גם עשתה טעות
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
שבן אנוש לעולם לא היה עושה, שתלמיד כיתה ב' לא היה עושה.
15:18
Our machine intelligence can fail
296
918823
3109
הבינה המלאכותית שלנו יכולה להכשל
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
בדרכים שאינן תואמות לדפוסי טעויות אנושיות,
15:25
in ways we won't expect and be prepared for.
298
925080
2950
בדרכים שאנו לא מצפים להן ולא מוכנים להן.
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
זה יהיה מחורבן לא לקבל עבודה שאתה מוכשר אליה,
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
אבל זה יעצבן פי שלוש אם זה יהיה בגלל גלישת מחסנית
15:35
in some subroutine.
301
935467
1432
באיזו פונקציה תכנותית.
15:36
(Laughter)
302
936923
1579
(צחוק)
15:38
In May of 2010,
303
938526
2786
במאי 2010,
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
התרסקות בזק בוול סטריט שהתגברה עקב תגובה חוזרת ונשנית
15:45
in Wall Street's "sell" algorithm
305
945404
3028
של אלגוריתם ה"מכירה" של וול סטריט
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
מחקה ערך של טריליון דולר ב- 36 דקות.
15:53
I don't even want to think what "error" means
307
953722
2187
אני אפילו לא רוצה לחשוב מה המשמעות של "טעות"
15:55
in the context of lethal autonomous weapons.
308
955933
3589
בהקשר של נשק קטלני אוטונומי.
16:01
So yes, humans have always made biases.
309
961894
3790
אז כן, אנשים מאז ומתמיד עשו הטיות.
16:05
Decision makers and gatekeepers,
310
965708
2176
מקבלי החלטות ושומרי הסף,
16:07
in courts, in news, in war ...
311
967908
3493
בבתי משפט, בחדשות, במלחמה...
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
הם עושים טעויות: אבל זו בדיוק הטענה שלי.
16:14
We cannot escape these difficult questions.
313
974487
3521
אנחנו לא יכולים לברוח מהשאלות הקשות הללו.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
איננו יכולים להעביר את האחריות שלנו למכונות.
16:22
(Applause)
315
982676
4208
(מחיאות כפים)
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
הבינה המלאכותית לא נותנת לנו אישור להשתחרר מהאתיקה.
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
מדען הנתונים פרד בנסון מכנה זאת "שטיפה-מתמטית".
16:38
We need the opposite.
318
998147
1389
אנחנו זקוקים לדבר ההפוך.
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
עלינו לפתח אלגוריתם לחשדנות, בחינה מדוקדקת וחקירה.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
עלינו להבטיח שיש לנו נטילת אחריות אלגוריתמית,
16:48
auditing and meaningful transparency.
321
1008602
2445
ביקורות ושקיפות משמעותית.
16:51
We need to accept that bringing math and computation
322
1011380
3234
עלינו לקבל שהכנסת מתמטיקה ומחשוב
16:54
to messy, value-laden human affairs
323
1014638
2970
אל עניינים אנושיים מסובכים, עמוסי ערך
16:57
does not bring objectivity;
324
1017632
2384
לא מביאה אוביקטיביות;
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
אלא, המורכבות של עניינים אנושיים חודרת אל האלגוריתמים.
17:04
Yes, we can and we should use computation
326
1024148
3487
כן, אנו יכולים וצריכים להשתמש במחשוב
17:07
to help us make better decisions.
327
1027659
2014
כדי לעזור לנו לקבל החלטות טובות יותר.
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
אך עלינו לקחת בעלות על האחריות המוסרית והשיפוטיות שלנו,
17:15
and use algorithms within that framework,
329
1035053
2818
ולהשתמש באלגוריתמים במסגרת הזו,
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
לא כאמצעי להתפטר או להעביר את האחריות שלנו
17:22
to one another as human to human.
331
1042854
2454
מאחד לשני כמו מאדם לאדם.
17:25
Machine intelligence is here.
332
1045807
2609
הבינה המלאכותית כבר כאן.
17:28
That means we must hold on ever tighter
333
1048440
3421
זה אומר שעלינו לשמור יותר מאי פעם
17:31
to human values and human ethics.
334
1051885
2147
על ערכים אנושיים ואתיקה אנושית.
17:34
Thank you.
335
1054056
1154
תודה רבה.
17:35
(Applause)
336
1055234
5020
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7