The era of blind faith in big data must end | Cathy O'Neil

241,832 views ・ 2017-09-07

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

תרגום: Nurit Noy עריכה: Shlomo Adam
00:12
Algorithms are everywhere.
0
12795
1596
האלגוריתמים נמצאים בכל מקום.
00:15
They sort and separate the winners from the losers.
1
15931
3125
הם ממיינים אנשים ומפרידים בין מנצחים למפסידים.
00:19
The winners get the job
2
19839
2264
המנצחים זוכים במשרה הנחשקת
00:22
or a good credit card offer.
3
22127
1743
או בהצעה לכרטיס אשראי טוב.
00:23
The losers don't even get an interview
4
23894
2651
המפסידים לא זוכים אפילו בראיון
00:27
or they pay more for insurance.
5
27410
1777
או משלמים יותר על הביטוח.
00:30
We're being scored with secret formulas that we don't understand
6
30017
3549
נוסחאות סודיות שאיננו מבינים מדרגות אותנו,
00:34
that often don't have systems of appeal.
7
34495
3217
ובדרך כלל אין אפשרות לערער על החלטותיהן.
00:39
That begs the question:
8
39060
1296
מתבקשת השאלה:
00:40
What if the algorithms are wrong?
9
40380
2913
מה אם האלגוריתמים טועים?
00:44
To build an algorithm you need two things:
10
44920
2040
כדי לבנות אלגוריתם נחוצים שני דברים:
00:46
you need data, what happened in the past,
11
46984
1981
נתונים: מה קרה בעבר,
00:48
and a definition of success,
12
48989
1561
והגדרה של הצלחה,
00:50
the thing you're looking for and often hoping for.
13
50574
2457
מה שאתם רוצים או מקווים לו.
00:53
You train an algorithm by looking, figuring out.
14
53055
5037
האלגוריתם לומד ע"י...
00:58
The algorithm figures out what is associated with success.
15
58116
3419
האלגוריתם מזהה מה מתקשר להצלחה.
01:01
What situation leads to success?
16
61559
2463
אילו מצבים מובילים להצלחה?
01:04
Actually, everyone uses algorithms.
17
64701
1762
בעצם, כולנו משתמשים באלגוריתמים,
01:06
They just don't formalize them in written code.
18
66487
2718
אבל לא מנסחים אותם בצורת קוד כתוב.
01:09
Let me give you an example.
19
69229
1348
אתן לכם דוגמה.
01:10
I use an algorithm every day to make a meal for my family.
20
70601
3316
אני משתמשת בכל יום באלגוריתם כדי להכין למשפחתי ארוחה.
01:13
The data I use
21
73941
1476
הנתונים בהם אני משתמשת
01:16
is the ingredients in my kitchen,
22
76214
1659
הם המוצרים במטבח שלי,
01:17
the time I have,
23
77897
1527
הזמן שעומד לרשותי,
01:19
the ambition I have,
24
79448
1233
השאיפות שלי,
01:20
and I curate that data.
25
80705
1709
ואני מארגנת את הנתונים.
01:22
I don't count those little packages of ramen noodles as food.
26
82438
4251
אני לא מחשיבה "מנה חמה" כמזון.
01:26
(Laughter)
27
86713
1869
(צחוק)
01:28
My definition of success is:
28
88606
1845
ההגדרה שלי להצלחה:
01:30
a meal is successful if my kids eat vegetables.
29
90475
2659
ארוחה נחשבת למוצלחת אם הילדים שלי אוכלים ירקות.
01:34
It's very different from if my youngest son were in charge.
30
94001
2854
אם בני הצעיר יהיה אחראי לכך זה יהיה אחרת לגמרי.
01:36
He'd say success is if he gets to eat lots of Nutella.
31
96879
2788
הוא יגיד שהצלחה פירושה שהוא אכל הרבה חמאת-בוטנים.
01:40
But I get to choose success.
32
100999
2226
אבל אני היא זו שבוחרת מהי הצלחה.
01:43
I am in charge. My opinion matters.
33
103249
2707
אני האחראית. הדעה שלי קובעת.
01:45
That's the first rule of algorithms.
34
105980
2675
זהו החוק הראשון של האלגוריתמים.
01:48
Algorithms are opinions embedded in code.
35
108679
3180
אלגוריתמים הם דעות שמוטמעות בקוד.
01:53
It's really different from what you think most people think of algorithms.
36
113382
3663
זה שונה מאד ממה שרוב האנשים חושבים על אלגוריתמים.
01:57
They think algorithms are objective and true and scientific.
37
117069
4504
הם חושבים שהאלגוריתמים הם אובייקטיביים, נכונים ומדעיים.
02:02
That's a marketing trick.
38
122207
1699
זו תחבולה שיווקית.
02:05
It's also a marketing trick
39
125089
2125
תחבולה שיווקית נוספת
02:07
to intimidate you with algorithms,
40
127238
3154
היא להפחיד אתכם באלגוריתמים,
02:10
to make you trust and fear algorithms
41
130416
3661
כדי שתבטחו בהם ותחששו מהם
02:14
because you trust and fear mathematics.
42
134101
2018
כי אתם בוטחים במתמטיקה וחוששים ממנה.
02:17
A lot can go wrong when we put blind faith in big data.
43
137387
4830
הרבה יכול להשתבש כשאנחנו נותנים אמון עיוור בנתוני-עתק.
02:23
This is Kiri Soares. She's a high school principal in Brooklyn.
44
143504
3373
זו קירי סוארז, מנהלת בי"ס תיכון בברוקלין.
02:26
In 2011, she told me her teachers were being scored
45
146901
2586
ב-2011 היא אמרה לי שהמורים שלה מדורגים
02:29
with a complex, secret algorithm
46
149511
2727
בעזרת אלגוריתם סודי ומורכב,
02:32
called the "value-added model."
47
152262
1489
שנקרא "מודל הערך המוסף".
02:34
I told her, "Well, figure out what the formula is, show it to me.
48
154325
3092
אמרתי לה, "תבררי מהי הנוסחה ותראי לי אותה.
"אני אסביר לך אותה"
02:37
I'm going to explain it to you."
49
157441
1541
היא אמרה, "ניסיתי לקבל את הנוסחה.
02:39
She said, "Well, I tried to get the formula,
50
159006
2141
"אך במשרד החינוך אמרו לי שזאת מתמטיקה,
02:41
but my Department of Education contact told me it was math
51
161171
2772
02:43
and I wouldn't understand it."
52
163967
1546
"ושאני לא אבין אותה."
02:47
It gets worse.
53
167086
1338
זה נהיה יותר גרוע.
02:48
The New York Post filed a Freedom of Information Act request,
54
168448
3530
ה"ניו-יורק פוסט" הגיש בקשה לפי חוק חופש המידע.
02:52
got all the teachers' names and all their scores
55
172002
2959
קיבל את כל שמות המורים והדירוג שלהם,
02:54
and they published them as an act of teacher-shaming.
56
174985
2782
ופירסם אותן כצעד של ביוש מורים.
02:58
When I tried to get the formulas, the source code, through the same means,
57
178904
3860
כשניסיתי להשיג את הנוסחאות, את הקוד המקורי, באותם האמצעים,
03:02
I was told I couldn't.
58
182788
2149
אמרו לי, "אי-אפשר".
03:04
I was denied.
59
184961
1236
דחו אותי.
03:06
I later found out
60
186221
1174
מאוחר יותר גיליתי
03:07
that nobody in New York City had access to that formula.
61
187419
2866
שלאף אחד בעיר ניו-יורק אין גישה לנוסחה ההיא.
03:10
No one understood it.
62
190309
1305
שאיש לא מבין אותה.
03:13
Then someone really smart got involved, Gary Rubinstein.
63
193749
3224
ואז נכנס לתמונה מישהו ממש חכם. גרי רובינשטיין.
03:16
He found 665 teachers from that New York Post data
64
196997
3621
הוא זיהה בנתוני ה"ניו-יורק פוסט" 665 מורים עם שני דירוגים.
03:20
that actually had two scores.
65
200642
1866
03:22
That could happen if they were teaching
66
202532
1881
זה יכול היה לקרות אם הם לימדו מתמטיקה בכיתות ז' וגם בכיתות ח'.
03:24
seventh grade math and eighth grade math.
67
204437
2439
03:26
He decided to plot them.
68
206900
1538
הוא החליט להציג זאת בגרף.
03:28
Each dot represents a teacher.
69
208462
1993
כל נקודה מסמלת מורה.
03:30
(Laughter)
70
210924
2379
(צחוק)
03:33
What is that?
71
213327
1521
מה זה?
03:34
(Laughter)
72
214872
1277
(צחוק)
03:36
That should never have been used for individual assessment.
73
216173
3446
זה לא משהו שאמור לשמש לצורך הערכות אישיות.
03:39
It's almost a random number generator.
74
219643
1926
זהו כמעט מחולל מספרים אקראי.
03:41
(Applause)
75
221593
2946
(מחיאות כפיים)
03:44
But it was.
76
224563
1162
אך זה שימש לכך.
03:45
This is Sarah Wysocki.
77
225749
1176
זוהי שרה וויסוקי. היא פוטרה יחד עם עוד 205 מורים
03:46
She got fired, along with 205 other teachers,
78
226949
2175
03:49
from the Washington, DC school district,
79
229148
2662
מהמחוז הבית-סיפרי של וושינגטון הבירה,
03:51
even though she had great recommendations from her principal
80
231834
2909
למרות שהיו לה המלצות מעולות מהנהלת ביה"ס
03:54
and the parents of her kids.
81
234767
1428
וגם מההורים של הילדים שלימדה.
03:57
I know what a lot of you guys are thinking,
82
237210
2032
אני יודעת שרבים מכם חושבים,
במיוחד חוקרי הנתונים ומומחי הבינה המלאכותית שכאן,
03:59
especially the data scientists, the AI experts here.
83
239266
2487
04:01
You're thinking, "Well, I would never make an algorithm that inconsistent."
84
241777
4226
"אני אף פעם לא אכתוב אלגוריתם כל-כך לא עיקבי."
04:06
But algorithms can go wrong,
85
246673
1683
אבל אלגוריתמים יכולים לטעות,
04:08
even have deeply destructive effects with good intentions.
86
248380
4598
ואפילו לגרום לתוצאות הרסניות ביותר מתוך כוונות טובות.
04:14
And whereas an airplane that's designed badly
87
254351
2379
ובעוד שמטוס שתוכנן גרוע מתרסק וכולם רואים זאת,
04:16
crashes to the earth and everyone sees it,
88
256754
2001
04:18
an algorithm designed badly
89
258779
1850
הרי כשאלגוריתם מעוצב גרוע,
04:22
can go on for a long time, silently wreaking havoc.
90
262065
3865
הוא יכול לעבוד הרבה זמן ולזרוע בשקט תוהו.
04:27
This is Roger Ailes.
91
267568
1570
זהו רוג'ר איילס.
04:29
(Laughter)
92
269162
2000
(צחוק)
04:32
He founded Fox News in 1996.
93
272344
2388
הוא ייסד את "חדשות פוקס" ב-1996.
04:35
More than 20 women complained about sexual harassment.
94
275256
2581
יותר מ-20 נשים התלוננו על הטרדה מינית
04:37
They said they weren't allowed to succeed at Fox News.
95
277861
3235
ואמרו שהן לא הירשו להן להצליח ב"חדשות פוקס".
04:41
He was ousted last year, but we've seen recently
96
281120
2520
הוא הודח בשנה שעברה, אך לאחרונה נודע לנו
04:43
that the problems have persisted.
97
283664
2670
שהבעיה נמשכת.
04:47
That begs the question:
98
287474
1400
נשאלת השאלה:
04:48
What should Fox News do to turn over another leaf?
99
288898
2884
מה צריכה רשת "חדשות פוקס" לעשות כדי לפתוח דף חדש?
04:53
Well, what if they replaced their hiring process
100
293065
3041
מה אם הם יחליפו את תהליך ההעסקה שלהם
באלגוריתם של למידת-מכונה?
04:56
with a machine-learning algorithm?
101
296130
1654
04:57
That sounds good, right?
102
297808
1595
נשמע טוב, נכון?
04:59
Think about it.
103
299427
1300
חישבו על זה.
05:00
The data, what would the data be?
104
300751
2105
הנתונים, מה הם יהיו?
05:02
A reasonable choice would be the last 21 years of applications to Fox News.
105
302880
4947
הגיוני שאלה יהיו נתוני 21 השנים האחרונות של בקשות עבודה ב"חדשות פוקס".
05:07
Reasonable.
106
307851
1502
הגיוני.
05:09
What about the definition of success?
107
309377
1938
מה לגבי ההגדרה להצלחה?
05:11
Reasonable choice would be,
108
311741
1324
בחירה הגיונית תהיה,
05:13
well, who is successful at Fox News?
109
313089
1778
מי מצליח ב"חדשות פוקס"?
05:14
I guess someone who, say, stayed there for four years
110
314891
3580
אולי מישהו שעובד שם כבר 4 שנים,
05:18
and was promoted at least once.
111
318495
1654
וקיבל קידום לפחות פעם אחת.
05:20
Sounds reasonable.
112
320636
1561
נשמע הגיוני.
05:22
And then the algorithm would be trained.
113
322221
2354
ואז האלגוריתם יעבור לימוד.
05:24
It would be trained to look for people to learn what led to success,
114
324599
3877
הוא ילמד לחפש אנשים כדי ללמוד מה הוביל להצלחה,
05:29
what kind of applications historically led to success
115
329039
4318
אילו מועמדים הפכו לעובדים מוצלחים,
05:33
by that definition.
116
333381
1294
לפי ההגדרה הזו.
עכשיו חישבו מה יקרה אם ניישם זאת למאגר מועמדים בהווה:
05:36
Now think about what would happen
117
336020
1775
05:37
if we applied that to a current pool of applicants.
118
337819
2555
05:40
It would filter out women
119
340939
1629
האלגוריתם יסנן החוצה נשים,
05:43
because they do not look like people who were successful in the past.
120
343483
3930
כי הן אינן דומות לאנשים שהצליחו בעבר.
05:51
Algorithms don't make things fair
121
351572
2537
האלגוריתמים אינם מתקנים את העולם
05:54
if you just blithely, blindly apply algorithms.
122
354133
2694
אם מיישמים אותם בשמחה ובעיוורון
05:56
They don't make things fair.
123
356851
1482
הם לא מתקנים את העולם
05:58
They repeat our past practices,
124
358357
2128
אלא רק חוזרים על מה שעשינו בעבר,
06:00
our patterns.
125
360509
1183
על הדפוסים שלנו.
06:01
They automate the status quo.
126
361716
1939
הם הופכים את המצב הקיים לאוטומטי.
06:04
That would be great if we had a perfect world,
127
364538
2389
היה נהדר אם היה לנו עולם מושלם,
06:07
but we don't.
128
367725
1312
אבל אין לנו.
06:09
And I'll add that most companies don't have embarrassing lawsuits,
129
369061
4102
ואני אוסיף שרוב החברות לא מתמודדות עם תביעות מביכות,
06:14
but the data scientists in those companies
130
374266
2588
אבל מומחי הנתונים בחברות אלה מחוייבים לציית לנתונים,
06:16
are told to follow the data,
131
376878
2189
06:19
to focus on accuracy.
132
379091
2143
להתמקד בדיוק.
06:22
Think about what that means.
133
382093
1381
חישבו מה זה אומר,
06:23
Because we all have bias, it means they could be codifying sexism
134
383498
4027
הרי לכולנו יש הטיות.
אולי הם מתכנתים לאפליה על רקע מין,
06:27
or any other kind of bigotry.
135
387549
1836
או כל סוג אחר של גזענות.
06:31
Thought experiment,
136
391308
1421
ניסוי מחשבתי,
06:32
because I like them:
137
392753
1509
כי אני אוהבת כאלה:
06:35
an entirely segregated society --
138
395394
2975
דמיינו חברה שלמה שמופרדת לפי גזעים:
06:40
racially segregated, all towns, all neighborhoods
139
400067
3328
כל העיירות, כל השכונות,
06:43
and where we send the police only to the minority neighborhoods
140
403419
3037
ואת המשטרה שולחים לחפש פשיעה רק בשכונות של מיעוטים.
06:46
to look for crime.
141
406480
1193
06:48
The arrest data would be very biased.
142
408271
2219
נתוני המעצרים יהיו מוטים בצורה מובהקת.
06:51
What if, on top of that, we found the data scientists
143
411671
2575
מה אם בנוסף, מצאנו מומחה לנתונים
06:54
and paid the data scientists to predict where the next crime would occur?
144
414270
4161
ושילמנו לו כדי שינבא איפה יקרה הפשע הבא?
06:59
Minority neighborhood.
145
419095
1487
שכונת מיעוטים.
07:01
Or to predict who the next criminal would be?
146
421105
3125
או כדי שינבא מי יהיה הפושע הבא?
07:04
A minority.
147
424708
1395
בן מיעוטים.
07:07
The data scientists would brag about how great and how accurate
148
427769
3541
מומחי הנתונים יתפארו כמה נהדר ומדוייק המודל שלהם.
07:11
their model would be,
149
431334
1297
07:12
and they'd be right.
150
432655
1299
והם יצדקו.
07:15
Now, reality isn't that drastic, but we do have severe segregations
151
435771
4615
המציאות לא כל כך דרסטית, אבל יש לנו באמת הפרדה חמורה
07:20
in many cities and towns,
152
440410
1287
בערים ועיירות רבות,
07:21
and we have plenty of evidence
153
441721
1893
ויש לנו שפע ראיות
07:23
of biased policing and justice system data.
154
443638
2688
להטיות בנתונים המשטרתיים מוטים ובמערכת המשפט.
07:27
And we actually do predict hotspots,
155
447452
2815
ואנחנו אכן חוזים נקודות סיכון,
07:30
places where crimes will occur.
156
450291
1530
מקומות בהם יקרו פשעים.
07:32
And we do predict, in fact, the individual criminality,
157
452221
3866
ואנחנו גם מנבאים את מידת הנטיה האישית לפשוע.
07:36
the criminality of individuals.
158
456111
1770
את נטייתם של אנשים מסויימים לפשוע.
07:38
The news organization ProPublica recently looked into
159
458792
3963
סוכנות החדשות "פרופבליקה" בחנה לאחרונה
07:42
one of those "recidivism risk" algorithms,
160
462779
2024
אחד אותם אלגוריתמים ל"ניבוי הישנות פשיעה"
07:44
as they're called,
161
464827
1163
כמו שקוראים להם.
07:46
being used in Florida during sentencing by judges.
162
466014
3194
בפלורידה משתמשים בהם שופטים בזמן חריצת גזר הדין.
07:50
Bernard, on the left, the black man, was scored a 10 out of 10.
163
470231
3585
ברנרד, משמאל, הגבר השחור קיבל 10 נקודות מתך 10.
07:54
Dylan, on the right, 3 out of 10.
164
474999
2007
דילן, מימין - 3 מתוך 10.
07:57
10 out of 10, high risk. 3 out of 10, low risk.
165
477030
2501
10 מתוך 10 - סיכון גבוה. 3 מתוך 10 - סיכון נמוך.
08:00
They were both brought in for drug possession.
166
480418
2385
שניהם נעצרו על החזקת סמים.
08:02
They both had records,
167
482827
1154
לשניהם היה כבר תיק.
08:04
but Dylan had a felony
168
484005
2806
אבל דילן עבר עבירה
08:06
but Bernard didn't.
169
486835
1176
וברנרד - לא.
08:09
This matters, because the higher score you are,
170
489638
3066
זה משנה, כי ככל שתקבל ניקוד יותר גבוה,
08:12
the more likely you're being given a longer sentence.
171
492728
3473
גובר הסיכוי שתקבל עונש מאסר ארוך יותר.
08:18
What's going on?
172
498114
1294
מה קורה פה?
08:20
Data laundering.
173
500346
1332
הלבנת נתונים.
08:22
It's a process by which technologists hide ugly truths
174
502750
4427
זהו תהליך שבו אנשי הטכנולוגיה מסתירים אמיתות מכוערות
08:27
inside black box algorithms
175
507201
1821
בתוך אלגוריתמים חתומים
ואומרים שהם "אובייקטיביים",
08:29
and call them objective;
176
509046
1290
08:31
call them meritocratic.
177
511140
1568
שזאת מריטוקרטיה.
08:34
When they're secret, important and destructive,
178
514938
2385
טבעתי כינוי לאלגוריתמים סודיים, חשובים והרסניים אלו:
08:37
I've coined a term for these algorithms:
179
517347
2487
08:39
"weapons of math destruction."
180
519858
1999
"נשק להשמדה מתמטית".
08:41
(Laughter)
181
521881
1564
(צחוק)
08:43
(Applause)
182
523469
3054
(מחיאות כפיים)
08:46
They're everywhere, and it's not a mistake.
183
526547
2354
הם בכל מקום וזו לא טעות:
08:49
These are private companies building private algorithms
184
529515
3723
מדובר בחברות פרטיות שכותבות אלגוריתמים פרטיים
08:53
for private ends.
185
533262
1392
לצרכיהן הפרטיים.
08:55
Even the ones I talked about for teachers and the public police,
186
535034
3214
אפילו אלו שהזכרתי, שמשמשים להערכה של מורים ולשיטור
08:58
those were built by private companies
187
538272
1869
נכתבו בידי חברות פרטיות ונמכרו למוסדות ממשלתיים.
09:00
and sold to the government institutions.
188
540165
2231
09:02
They call it their "secret sauce" --
189
542420
1873
הם אומרים שזה "הרוטב הסודי" שלהם
09:04
that's why they can't tell us about it.
190
544317
2128
ולכן אינם יכולים לחשוף אותו.
09:06
It's also private power.
191
546469
2220
זהו גם כוח פרטי.
09:09
They are profiting for wielding the authority of the inscrutable.
192
549744
4695
הם מרוויחים מהפעלת כוח העמימות.
09:16
Now you might think, since all this stuff is private
193
556934
2934
אתם יכולים לחשוב, "בגלל שכל זה פרטי
09:19
and there's competition,
194
559892
1158
"וישנה תחרות,
"השוק החופשי אולי יפתור את הבעיה."
09:21
maybe the free market will solve this problem.
195
561074
2306
09:23
It won't.
196
563404
1249
לא נכון.
09:24
There's a lot of money to be made in unfairness.
197
564677
3120
אפשר להרוויח הרבה כסף מחוסר הוגנות.
09:28
Also, we're not economic rational agents.
198
568947
3369
אנחנו גם לא יצורים רציונליים מבחינה כלכלית
09:32
We all are biased.
199
572851
1292
לכולנו דעות קדומות.
09:34
We're all racist and bigoted in ways that we wish we weren't,
200
574780
3377
כולנו גזענים ומוטים למרות שהיינו מעדיפים לא להיות כאלה,
09:38
in ways that we don't even know.
201
578181
2019
ובדרכים שאיננו אפילו יודעים.
09:41
We know this, though, in aggregate,
202
581172
3081
אבל אנחנו יודעים שבמצטבר,
09:44
because sociologists have consistently demonstrated this
203
584277
3220
בגלל שסוציולוגים מראים באופן עקבי
09:47
with these experiments they build,
204
587521
1665
בניסויים שהם עורכים,
09:49
where they send a bunch of applications to jobs out,
205
589210
2568
שבהם הם שולחים למעסיקים הרבה קורות חיים
09:51
equally qualified but some have white-sounding names
206
591802
2501
עם כישורים זהים, כשחלק מהשמות נשמעים "לבנים",
ושמות אחרים נשמעים "שחורים",
09:54
and some have black-sounding names,
207
594327
1706
09:56
and it's always disappointing, the results -- always.
208
596057
2694
והתוצאות של הניסויים תמיד מאכזבות, תמיד.
09:59
So we are the ones that are biased,
209
599330
1771
אז אנחנו בעלי הדעות הקדומות,
10:01
and we are injecting those biases into the algorithms
210
601125
3429
ואנחנו מחדירים את ההטיות האלו לתוך האלגוריתמים
10:04
by choosing what data to collect,
211
604578
1812
בכך שאנו בוחרים אילו נתונים יש לאסוף,
10:06
like I chose not to think about ramen noodles --
212
606414
2743
כמו שאני החלטתי לא להתייחס ל"מנה חמה"-
10:09
I decided it was irrelevant.
213
609181
1625
החלטתי שהיא איננה רלוונטית.
10:10
But by trusting the data that's actually picking up on past practices
214
610830
5684
אבל אם אנחנו בוטחים בנתונים ובהגדרת ההצלחה על יסוד גישות קודמות,
10:16
and by choosing the definition of success,
215
616538
2014
10:18
how can we expect the algorithms to emerge unscathed?
216
618576
3983
איך אנחנו יכולים לצפות שהאלגוריתמים ייצאו ללא פגע?
10:22
We can't. We have to check them.
217
622583
2356
ממש לא. אנחנו מוכרחים לבדוק אותם.
10:25
We have to check them for fairness.
218
625985
1709
אנחנו מוכרחים לוודא שהם הוגנים.
10:27
The good news is, we can check them for fairness.
219
627718
2711
החדשות הטובות הן: זה אפשרי.
10:30
Algorithms can be interrogated,
220
630453
3352
אפשר לחקור אלגוריתמים
10:33
and they will tell us the truth every time.
221
633829
2034
והם יגידו לנו תמיד את האמת.
10:35
And we can fix them. We can make them better.
222
635887
2493
ואנחנו יכולים לתקן ולשפר אותם.
10:38
I call this an algorithmic audit,
223
638404
2375
אני קוראת לזה "בדיקת אלגוריתם"
10:40
and I'll walk you through it.
224
640803
1679
אסביר לכם איך זה נעשה.
10:42
First, data integrity check.
225
642506
2196
ראשית מוודאים את שלמות הנתונים.
10:45
For the recidivism risk algorithm I talked about,
226
645952
2657
באלגוריתם "הישנות הפשיעה" שהזכרתי,
10:49
a data integrity check would mean we'd have to come to terms with the fact
227
649402
3573
בדיקת שלמות הנתונים פירושה שמוכרחים להשלים עם העובדה
10:52
that in the US, whites and blacks smoke pot at the same rate
228
652999
3526
שבארה"ב, הלבנים והשחורים מעשנים מריחואנה באותה מידה
10:56
but blacks are far more likely to be arrested --
229
656549
2485
אבל לשחורים יש סיכוי גבוה יותר להיעצר -
10:59
four or five times more likely, depending on the area.
230
659058
3184
סיכוי גבוה פי ארבעה או חמישה, תלוי באיזור.
11:03
What is that bias looking like in other crime categories,
231
663137
2826
איך נראית ההטיה בתחומי פשע אחרים,
11:05
and how do we account for it?
232
665987
1451
ואיך אנחנו מסבירים אותה?
11:07
Second, we should think about the definition of success,
233
667982
3039
שנית, אנחנו צריכים להגדיר מחדש מהי הצלחה.
11:11
audit that.
234
671045
1381
לבדוק את הנושא.
11:12
Remember -- with the hiring algorithm? We talked about it.
235
672450
2752
זוכרים את האלגוריתם לשכירת עובדים? דיברנו על זה.
11:15
Someone who stays for four years and is promoted once?
236
675226
3165
עובד המועסק כבר ארבע שנים וקודם פעם אחת?
11:18
Well, that is a successful employee,
237
678415
1769
זה באמת עובד מצליח,
11:20
but it's also an employee that is supported by their culture.
238
680208
3079
אבל זה גם עובד שהסביבה התרבותית תומכת בו.
11:23
That said, also it can be quite biased.
239
683909
1926
אבל גם כאן יכולות להיות דעות קדומות.
11:25
We need to separate those two things.
240
685859
2065
צריך להפריד בין שני הדברים.
11:27
We should look to the blind orchestra audition
241
687948
2426
למשל בבחינות קבלה עיוורות,
11:30
as an example.
242
690398
1196
11:31
That's where the people auditioning are behind a sheet.
243
691618
2756
כשהבוחנים נמצאים מאחורי מסך.
11:34
What I want to think about there
244
694766
1931
אני רוצה לחשוב שכאן,
11:36
is the people who are listening have decided what's important
245
696721
3417
האנשים המקשיבים הם שהחליטו מה חשוב ומה לא,
11:40
and they've decided what's not important,
246
700162
2029
ודעתם לא מוסחת ע"י זה.
11:42
and they're not getting distracted by that.
247
702215
2059
11:44
When the blind orchestra auditions started,
248
704781
2749
כשהתחילו המבחנים העיוורים,
11:47
the number of women in orchestras went up by a factor of five.
249
707554
3444
מספר הנשים המנגנות בתזמורת גדל פי חמש.
11:52
Next, we have to consider accuracy.
250
712073
2015
הבא בתור הוא הדיוק.
11:55
This is where the value-added model for teachers would fail immediately.
251
715053
3734
כאן אלגוריתם הערך המוסף לדירוג מורים ייכשל מיד.
11:59
No algorithm is perfect, of course,
252
719398
2162
אין אלגוריתם מושלם, כמובן,
12:02
so we have to consider the errors of every algorithm.
253
722440
3605
אז צריך לקחת בחשבון את השגיאות של כל אלגוריתם:
12:06
How often are there errors, and for whom does this model fail?
254
726656
4359
כמה ומתי הן קורות ועם מי המודל הזה נכשל?
12:11
What is the cost of that failure?
255
731670
1718
מהו המחיר של הכשלון הזה?
12:14
And finally, we have to consider
256
734254
2207
ולסיום, אנחנו מוכרחים לקחת בחשבון
12:17
the long-term effects of algorithms,
257
737793
2186
את ההשפעות ארוכות הטווח של האלגוריתמים,
12:20
the feedback loops that are engendering.
258
740686
2207
של לולאות המשוב שנוצרות.
12:23
That sounds abstract,
259
743406
1236
זה נשמע מופשט,
12:24
but imagine if Facebook engineers had considered that
260
744666
2664
אבל מה אם מהנדסי "פייסבוק" היו לוקחים זאת בחשבון
12:28
before they decided to show us only things that our friends had posted.
261
748090
4855
בטרם החליטו להראות לנו רק מה ששיתפו החברים שלנו.
12:33
I have two more messages, one for the data scientists out there.
262
753581
3234
יש לי עוד שני מסרים, אחד למתכנתים באשר הם:
12:37
Data scientists: we should not be the arbiters of truth.
263
757270
3409
מתכנתים: אסור לנו לתווך את האמת.
12:41
We should be translators of ethical discussions that happen
264
761340
3783
אנחנו צריכים לתת ביטוי לדיוני מוסר שמתקיימים
12:45
in larger society.
265
765147
1294
בחברה כולה.
12:47
(Applause)
266
767399
2133
(מחיאות כפיים)
12:49
And the rest of you,
267
769556
1556
ולשאר האנשים,
12:51
the non-data scientists:
268
771831
1396
אלו שאינם עוסקים במידע:
12:53
this is not a math test.
269
773251
1498
לא מדובר במבחן במתמטיקה,
12:55
This is a political fight.
270
775452
1348
אלא במאבק פוליטי.
12:58
We need to demand accountability for our algorithmic overlords.
271
778407
3907
אנחנו צריכים לדרוש משליטי האלגוריתמים לקחת אחריות.
13:03
(Applause)
272
783938
1499
(מחיאות כפיים)
13:05
The era of blind faith in big data must end.
273
785461
4225
עידן האמון העיוור בנתונים חייב להסתיים.
13:09
Thank you very much.
274
789710
1167
תודה רבה.
13:10
(Applause)
275
790901
5303
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7