How I'm fighting bias in algorithms | Joy Buolamwini

308,224 views ・ 2017-03-29

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Ilan Caner מבקר: Ido Dekkers
00:12
Hello, I'm Joy, a poet of code,
0
12861
3134
שלום, שמי ג׳וי, ואני משוררת של קוד,
00:16
on a mission to stop an unseen force that's rising,
1
16019
4993
במשימה לעצור כח בלתי נראה שנמצא בעליה,
00:21
a force that I called "the coded gaze,"
2
21036
2856
כח שקראתי לו ״בהייה קודית״,
00:23
my term for algorithmic bias.
3
23916
3309
ההגדרה שלי להטייה אלגוריתמית.
00:27
Algorithmic bias, like human bias, results in unfairness.
4
27249
4300
הטייה אלגוריתמית, בדומה להטייה אנושית, גורמת לחוסר הוגנות.
00:31
However, algorithms, like viruses, can spread bias on a massive scale
5
31573
6022
אבל אלגוריתמים, כמו וירוסים, יכולים להפיץ את ההטייה בצורה נרחבת
00:37
at a rapid pace.
6
37619
1582
ובקצב גבוה.
00:39
Algorithmic bias can also lead to exclusionary experiences
7
39763
4387
הטייה אלגוריתמית יכולה להוביל לחוויות פסילה
00:44
and discriminatory practices.
8
44174
2128
ולפרקטיקות מפלות.
00:46
Let me show you what I mean.
9
46326
2061
בואו ואראה לכם למה אני מתכוונת.
00:48
(Video) Joy Buolamwini: Hi, camera. I've got a face.
10
48800
2436
שלום מצלמה, יש לי פנים.
00:51
Can you see my face?
11
51982
1864
את מזהה את הפנים שלי?
00:53
No-glasses face?
12
53871
1625
אולי בלי משקפיים?
00:55
You can see her face.
13
55521
2214
את רואה את הפנים שלה.
00:58
What about my face?
14
58057
2245
מה לגבי הפנים שלי?
01:03
I've got a mask. Can you see my mask?
15
63710
3750
יש לי מסכה. את רואה אותה?
01:08
Joy Buolamwini: So how did this happen?
16
68294
2365
אז איך זה קרה?
01:10
Why am I sitting in front of a computer
17
70683
3141
למה אני יושבת לפני המחשב
01:13
in a white mask,
18
73848
1424
במסכה לבנה,
01:15
trying to be detected by a cheap webcam?
19
75296
3650
מנסה להיות מזוהה על ידי מצלמת רשת זולה?
01:18
Well, when I'm not fighting the coded gaze
20
78970
2291
ובכן, כשאני לא נלחמת בבהייה הקודית
01:21
as a poet of code,
21
81285
1520
כמשוררת של קוד,
01:22
I'm a graduate student at the MIT Media Lab,
22
82829
3272
אני סטודנטית לתואר שני במעבדת המדיה של MIT,
01:26
and there I have the opportunity to work on all sorts of whimsical projects,
23
86125
4917
ושם יש לי הזדמנות לעבוד על כל מיני פרוייקטים גחמניים,
01:31
including the Aspire Mirror,
24
91066
2027
כולל ״המראה המעצימה״,
01:33
a project I did so I could project digital masks onto my reflection.
25
93117
5134
פרוייקט שעשיתי כדי לשים מסכה דיגיטלית על ההשתקפות שלי.
01:38
So in the morning, if I wanted to feel powerful,
26
98275
2350
כך שבבוקר, אם רציתי להרגיש עוצמתית,
01:40
I could put on a lion.
27
100649
1434
יכולתי לשים מסיכה של אריה.
01:42
If I wanted to be uplifted, I might have a quote.
28
102107
3496
אם רציתי להיות מעודדת, יכולתי לשים ציטוט.
01:45
So I used generic facial recognition software
29
105627
2989
ובכן, השתמשתי בתוכנת זיהוי פנים כללית
01:48
to build the system,
30
108640
1351
כדי לבנות את המערכת,
01:50
but found it was really hard to test it unless I wore a white mask.
31
110015
5103
אבל גיליתי שקשה לבדוק את המערכת בלי שאלבש מסיכה לבנה.
01:56
Unfortunately, I've run into this issue before.
32
116102
4346
לרוע המזל, נתקלתי בבעיה זו גם בעבר.
02:00
When I was an undergraduate at Georgia Tech studying computer science,
33
120472
4303
כשלמדתי לתואר ראשון במדעי המחשב במכון הטכנולוגי בג׳ורג׳יה,
02:04
I used to work on social robots,
34
124799
2055
עבדתי על ״רובוטים חברתיים״,
02:06
and one of my tasks was to get a robot to play peek-a-boo,
35
126878
3777
ואחת מהמשימות היתה ללמד רובוט לשחק מחבואים (Peek-a-boo),
02:10
a simple turn-taking game
36
130679
1683
משחק פשוט מבוסס תורות
02:12
where partners cover their face and then uncover it saying, "Peek-a-boo!"
37
132386
4321
שבו השחקנים מכסים את פניהם, וכשהם מגלים אותם הם אומרים ״Peek-a-boo״!
02:16
The problem is, peek-a-boo doesn't really work if I can't see you,
38
136731
4429
הבעייה היא שהמשחק לא עובד אם אי אפשר לראות אותך.
02:21
and my robot couldn't see me.
39
141184
2499
והרובוט שלי לא יכל לראות אותי.
02:23
But I borrowed my roommate's face to get the project done,
40
143707
3950
אבל השאלתי את פניה של השותפה לדירה שלי כדי להשלים את הפרוייקט,
02:27
submitted the assignment,
41
147681
1380
הגשתי את המשימה,
02:29
and figured, you know what, somebody else will solve this problem.
42
149085
3753
והנחתי שמישהו אחר כבר יפתור את הבעייה הזאת.
02:33
Not too long after,
43
153489
2003
כעבור זמן לא רב,
02:35
I was in Hong Kong for an entrepreneurship competition.
44
155516
4159
הייתי בהונג קונג כמשתתפת בתחרות יזמות.
02:40
The organizers decided to take participants
45
160159
2694
המארגנים החליטו לקחת את המשתתפים
02:42
on a tour of local start-ups.
46
162877
2372
לסיור בין סטארטאפים מקומיים.
02:45
One of the start-ups had a social robot,
47
165273
2715
באחד הסטארטאפים היה ״רובוט חברתי״,
02:48
and they decided to do a demo.
48
168012
1912
והם החליטו לערוך הדגמה.
02:49
The demo worked on everybody until it got to me,
49
169948
2980
ההדגמה עבדה על כולם עד שהגיעו אלי,
02:52
and you can probably guess it.
50
172952
1923
ואתם בטח כבר מנחשים,
02:54
It couldn't detect my face.
51
174899
2965
הרובוט לא הצליח לזהות את פניי.
02:57
I asked the developers what was going on,
52
177888
2511
שאלתי את המפתחים למה זה קורה,
03:00
and it turned out we had used the same generic facial recognition software.
53
180423
5533
ומסתבר שהם השתמשו באותה תוכנה כללית לזיהוי פנים.
03:05
Halfway around the world,
54
185980
1650
בצד השני של העולם,
03:07
I learned that algorithmic bias can travel as quickly
55
187654
3852
למדתי שהטייה אלגוריתמית יכולה לנוע באותה מהירות
03:11
as it takes to download some files off of the internet.
56
191530
3170
שלוקח להוריד כמה קבצים מהאינטרנט.
03:15
So what's going on? Why isn't my face being detected?
57
195565
3076
אז מה קורה פה? למה הפנים שלי לא מזוהות?
03:18
Well, we have to look at how we give machines sight.
58
198665
3356
ובכן, עלינו להבין כיצד אנו נותנים למכונות את היכולת לראות.
03:22
Computer vision uses machine learning techniques
59
202045
3409
ראייה ממוחשבת משתמשת בטכניקות של למידת מכונה
03:25
to do facial recognition.
60
205478
1880
כדי לבצע זיהוי פנים.
03:27
So how this works is, you create a training set with examples of faces.
61
207382
3897
הדרך בה זה עובד היא שאתה מכין קבוצת אימון של דוגמאות של פנים.
03:31
This is a face. This is a face. This is not a face.
62
211303
2818
אלו פנים. אלו פנים. אלו לא פנים.
03:34
And over time, you can teach a computer how to recognize other faces.
63
214145
4519
ואז, לאחר זמן מה, אתה יכול ללמד את המחשב לזהות פנים אחרות.
03:38
However, if the training sets aren't really that diverse,
64
218688
3989
אבל, אם קבוצות האימון אינן באמת מגוונות מספיק
03:42
any face that deviates too much from the established norm
65
222701
3349
אז כל צורת פנים שסוטה יותר מדי מהנורמה
03:46
will be harder to detect,
66
226074
1649
תהיה קשה לזיהוי,
03:47
which is what was happening to me.
67
227747
1963
וזה מה שקרה לי.
03:49
But don't worry -- there's some good news.
68
229734
2382
אבל אל דאגה - יש לי חדשות טובות.
03:52
Training sets don't just materialize out of nowhere.
69
232140
2771
קבוצות אימון אינן נוצרות משום מקום.
03:54
We actually can create them.
70
234935
1788
אנחנו למעשה יכולים ליצור אותן.
03:56
So there's an opportunity to create full-spectrum training sets
71
236747
4176
כלומר יש לנו הזדמנות ליצור קבוצות אימון שמכסות את כל הספקטרום
04:00
that reflect a richer portrait of humanity.
72
240947
3824
ומייצגות דיוקן עשיר יותר של האנושות.
04:04
Now you've seen in my examples
73
244795
2221
כעת ראיתם בדוגמאות שהבאתי
04:07
how social robots
74
247040
1768
כיצד בעזרת רובוטים חברתיים
04:08
was how I found out about exclusion with algorithmic bias.
75
248832
4611
גיליתי על הטייה אלגוריתמית שגורמת לפסילה.
04:13
But algorithmic bias can also lead to discriminatory practices.
76
253467
4815
אבל הטייה אלגוריתמית יכולה להוביל גם לאפלייה.
04:19
Across the US,
77
259257
1453
לאורך כל ארצות הברית
04:20
police departments are starting to use facial recognition software
78
260734
4198
מחלקות משטרה מתחילות להשתמש בתוכנה לזיהוי פנים
04:24
in their crime-fighting arsenal.
79
264956
2459
כחלק מהאמצעים ללחימה פשע.
04:27
Georgetown Law published a report
80
267439
2013
האוניברסיטה ג'ורג'טאון לאו פרסמה דו״ח
04:29
showing that one in two adults in the US -- that's 117 million people --
81
269476
6763
שהפנים של אחד מכל שני בוגרים בארה״ב - כלומר 117 מליון אנשים
04:36
have their faces in facial recognition networks.
82
276263
3534
נמצאות ברשתות של זיהוי פנים.
04:39
Police departments can currently look at these networks unregulated,
83
279821
4552
מחלקות משטרה משתמשות כיום ברשתות אלו בצורה לא מוסדרת,
04:44
using algorithms that have not been audited for accuracy.
84
284397
4286
ומשתמשות באלגוריתמים שדיוקם לא מוודא.
04:48
Yet we know facial recognition is not fail proof,
85
288707
3864
ועדיין, אנו יודעים שזיהוי פנים אינו חף מטעויות,
04:52
and labeling faces consistently remains a challenge.
86
292595
4179
ותיוג פנים בעקביות נשאר אתגר.
04:56
You might have seen this on Facebook.
87
296798
1762
אולי ראיתם זאת בפייסבוק.
04:58
My friends and I laugh all the time when we see other people
88
298584
2988
חבריי ואני צוחקים כל הזמן כשאנו רואים אנשים אחרים
05:01
mislabeled in our photos.
89
301596
2458
מתוייגים בטעות בתמונות שלנו.
05:04
But misidentifying a suspected criminal is no laughing matter,
90
304078
5591
אבל זיהוי מוטעה של חשוד בפשע אינו נושא לצחוק,
05:09
nor is breaching civil liberties.
91
309693
2827
כמו גם פריצת זכויות אזרח.
05:12
Machine learning is being used for facial recognition,
92
312544
3205
לימוד מכונה נמצא בשימוש של זיהוי פנים,
05:15
but it's also extending beyond the realm of computer vision.
93
315773
4505
אך זה גם מתרחב מעבר לתחום של ראייה ממוחשבת.
05:21
In her book, "Weapons of Math Destruction,"
94
321086
4016
בספרה ״נשקים של השמדה מתמטית״,
05:25
data scientist Cathy O'Neil talks about the rising new WMDs --
95
325126
6681
מדענית הנתונים קאת׳י אוניל מדברת על העלייה של אלגוריתמים מסוג WMDs -
05:31
widespread, mysterious and destructive algorithms
96
331831
4353
אלגוריתמים נפוצים, מסתוריים והרסניים
05:36
that are increasingly being used to make decisions
97
336208
2964
שנמצאים בשימוש גובר למטרת קבלת החלטות
05:39
that impact more aspects of our lives.
98
339196
3177
שמשפיעות על עוד ועוד היבטים של חיינו.
05:42
So who gets hired or fired?
99
342397
1870
מי מתקבל לעבודה ומי מפוטר?
05:44
Do you get that loan? Do you get insurance?
100
344291
2112
האם תקבל את ההלוואה? האם תקבל את הביטוח?
05:46
Are you admitted into the college you wanted to get into?
101
346427
3503
האם אתה מתקבל לקולג׳ שרצית?
05:49
Do you and I pay the same price for the same product
102
349954
3509
האם אתה ואני משלמים אותו מחיר עבור אותו מוצר
05:53
purchased on the same platform?
103
353487
2442
שנקנה באותה פלטפורמה?
05:55
Law enforcement is also starting to use machine learning
104
355953
3759
יחידות לאכיפת החוק גם מתחילות להשתמש בלימוד מכונה
05:59
for predictive policing.
105
359736
2289
עבור שיטור תחזיתי.
06:02
Some judges use machine-generated risk scores to determine
106
362049
3494
יש שופטים שמשתמשים בציוני סיכון שהופקו ע״י מכונה כדי להחליט
06:05
how long an individual is going to spend in prison.
107
365567
4402
כמה זמן אדם יבלה בכלא.
06:09
So we really have to think about these decisions.
108
369993
2454
לכן עלינו לחשוב באמת על החלטות אלו.
06:12
Are they fair?
109
372471
1182
האם הן הוגנות?
06:13
And we've seen that algorithmic bias
110
373677
2890
וכבר ראינו שהטייה אלגורימית
06:16
doesn't necessarily always lead to fair outcomes.
111
376591
3374
לא בהכרח מביאה לתוצאות הוגנות.
06:19
So what can we do about it?
112
379989
1964
אז מה ניתן לעשות בקשר לזה?
06:21
Well, we can start thinking about how we create more inclusive code
113
381977
3680
ובכן, אנחנו יכולים להתחיל לחשוב איך ניצור קוד יותר מכליל
06:25
and employ inclusive coding practices.
114
385681
2990
ולממש שיטות קידוד מכלילות.
06:28
It really starts with people.
115
388695
2309
זה באמת מתחיל באנשים.
06:31
So who codes matters.
116
391528
1961
כך שזה משנה מי מקודד.
06:33
Are we creating full-spectrum teams with diverse individuals
117
393513
4119
האם אנחנו בונים צוותים מכל הספקטרום עם אנשים שונים?
06:37
who can check each other's blind spots?
118
397656
2411
שיכולים לבדוק את האזורים המתים של האחרים?
06:40
On the technical side, how we code matters.
119
400091
3545
בצד הטכני, איך אנחנו מקודדים משנה גם.
06:43
Are we factoring in fairness as we're developing systems?
120
403660
3651
האם אנחנו משקללים גם הוגנות כשאנו מפתחים מערכות?
06:47
And finally, why we code matters.
121
407335
2913
ולבסוף, למה אנחנו מקודדים גם משנה.
06:50
We've used tools of computational creation to unlock immense wealth.
122
410605
5083
השתמשנו בכלים ממוחשבים לפתוח עושר עצום.
06:55
We now have the opportunity to unlock even greater equality
123
415712
4447
יש לנו הזדמנות כעת לפתוח אפילו יותר שוויון
07:00
if we make social change a priority
124
420183
2930
אם ניתן עדיפות לשינוי חברתי
07:03
and not an afterthought.
125
423137
2170
ולא רק לאחר מעשה.
07:05
And so these are the three tenets that will make up the "incoding" movement.
126
425828
4522
וכך אלו שלושת העיקרים של תנועת ״הקוד המכליל״.
07:10
Who codes matters,
127
430374
1652
מי שמקודד משנה,
07:12
how we code matters
128
432050
1543
איך מקודדים משנה
07:13
and why we code matters.
129
433617
2023
ולמה אנחנו מקודדים משנה.
07:15
So to go towards incoding, we can start thinking about
130
435664
3099
כדי להתקדם לעבר הקוד המכליל אנחנו יכולים להתחיל לחשוב
07:18
building platforms that can identify bias
131
438787
3164
על בניית פלטפורמות שיכולות לזהות הטייה
07:21
by collecting people's experiences like the ones I shared,
132
441975
3078
על ידי איסוף חוויות מאנשים, כפי שאני שיתפתי,
07:25
but also auditing existing software.
133
445077
3070
אך גם על ידי ביקורת של תוכנה קיימת.
07:28
We can also start to create more inclusive training sets.
134
448171
3765
אנו יכולים גם ליצור קבוצות אימון שלמות יותר.
07:31
Imagine a "Selfies for Inclusion" campaign
135
451960
2803
דמיינו קמפיין ״סלפי לשלמות״
07:34
where you and I can help developers test and create
136
454787
3655
שבו אתם ואני יכולים לעזור למפתחים לבדוק וליצור
07:38
more inclusive training sets.
137
458466
2093
קבוצות אימון שלמות יותר.
07:41
And we can also start thinking more conscientiously
138
461122
2828
אנו יכולים גם להתחיל לחשוב בצורה מודעת יותר
07:43
about the social impact of the technology that we're developing.
139
463974
5391
על ההשפעה החברתית של הטכנולוגיה אותה אנו מפתחים.
07:49
To get the incoding movement started,
140
469389
2393
כדי להתחיל את תנועת ״הקוד המכליל״,
07:51
I've launched the Algorithmic Justice League,
141
471806
2847
השקתי את הליגה לצדק אלגוריתמי,
07:54
where anyone who cares about fairness can help fight the coded gaze.
142
474677
5872
שבה כל אחד שאכפת לו מצדק יכול להילחם בבהייה קודית.
08:00
On codedgaze.com, you can report bias,
143
480573
3296
באתר codedgaze.com אתם יכולים לדווח על הטייה,
08:03
request audits, become a tester
144
483893
2445
לבקש ביקורת, להיות בודק
08:06
and join the ongoing conversation,
145
486362
2771
ולהצטרף לשיחה על הנושא,
08:09
#codedgaze.
146
489157
2287
#codegaze.
08:12
So I invite you to join me
147
492562
2487
אז אני מזמינה אתכם להצטרף אלי
08:15
in creating a world where technology works for all of us,
148
495073
3719
ביצירת עולם שבו הטכנולוגיה עובדת עבור כולנו,
08:18
not just some of us,
149
498816
1897
לא רק עבור חלקינו,
08:20
a world where we value inclusion and center social change.
150
500737
4588
עולם שבו אנו מעריכים שלמות ומתרכזים בשינוי חברתי.
08:25
Thank you.
151
505349
1175
תודה לכם.
08:26
(Applause)
152
506548
4271
(מחיאות כפיים)
08:32
But I have one question:
153
512693
2854
יש לי רק שאלה אחת:
08:35
Will you join me in the fight?
154
515571
2059
תצטרפו אלי למאבק?
08:37
(Laughter)
155
517654
1285
(צחוק)
08:38
(Applause)
156
518963
3687
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7