How I'm fighting bias in algorithms | Joy Buolamwini

308,224 views ・ 2017-03-29

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Alaa Eladle المدقّق: Eatedal Saii
00:12
Hello, I'm Joy, a poet of code,
0
12861
3134
مرحبا أُدعى (جوي)، أَنظُم الشعر على الحاسوب
00:16
on a mission to stop an unseen force that's rising,
1
16019
4993
في مهمة لردع قوة ناشئة غير مرئية،
00:21
a force that I called "the coded gaze,"
2
21036
2856
قوة أسميتها "النظرة المشفرَّة،"
00:23
my term for algorithmic bias.
3
23916
3309
مصطلح أطلقه عن تحيز الخوارزمية.
00:27
Algorithmic bias, like human bias, results in unfairness.
4
27249
4300
تحيز الخوارزمية مثل تحيز البشر يؤدي إلى الإجحاف.
00:31
However, algorithms, like viruses, can spread bias on a massive scale
5
31573
6022
برغم ذلك، الخوارزميات مثل الفيروسات يتفشى فيها التحيز على مستوى واسع
00:37
at a rapid pace.
6
37619
1582
بخطى سريعة.
00:39
Algorithmic bias can also lead to exclusionary experiences
7
39763
4387
تحيز الخوارزمية قد يُفضِي إلى وقوع حوادث إقصائية
00:44
and discriminatory practices.
8
44174
2128
و ممارسات تمييزية.
00:46
Let me show you what I mean.
9
46326
2061
دعوني أوضح ما أعنيه.
00:48
(Video) Joy Buolamwini: Hi, camera. I've got a face.
10
48800
2436
(فيديو): أهلا بالكاميرا. لدي وجه.
00:51
Can you see my face?
11
51982
1864
هل ترون وجهي؟
00:53
No-glasses face?
12
53871
1625
وجه بلا نظارات؟
00:55
You can see her face.
13
55521
2214
تستطيع رؤية وجهها.
00:58
What about my face?
14
58057
2245
ماذا عن وجهي؟
01:03
I've got a mask. Can you see my mask?
15
63710
3750
لدي قناع. هل ترى قناعي؟
01:08
Joy Buolamwini: So how did this happen?
16
68294
2365
إذن كيف حدث هذا؟
01:10
Why am I sitting in front of a computer
17
70683
3141
لمَ أجلس أمام حاسوب
01:13
in a white mask,
18
73848
1424
أضع قناعًا أبيض،
01:15
trying to be detected by a cheap webcam?
19
75296
3650
أحاول أن تكتشفني كاميرا ويب زهيدة؟
01:18
Well, when I'm not fighting the coded gaze
20
78970
2291
حسنا عندما لا أقاوم النظرة المشفرة
01:21
as a poet of code,
21
81285
1520
بصفتي شاعرة أستخدم التشفير،
01:22
I'm a graduate student at the MIT Media Lab,
22
82829
3272
أنا طالبة دراسات عليا في إم آي تي ميديا لاب،
01:26
and there I have the opportunity to work on all sorts of whimsical projects,
23
86125
4917
و هناك لدي الفرصة للعمل على جميع أنواع المشروعات الغريبة،
01:31
including the Aspire Mirror,
24
91066
2027
بما في ذلك ( أسباير ميرور)،
01:33
a project I did so I could project digital masks onto my reflection.
25
93117
5134
مشروع قمت به لأرسم أقنعة رقْمية على انعكاسي.
01:38
So in the morning, if I wanted to feel powerful,
26
98275
2350
لذا في الصباح إذا أردت الشعور بالقوة،
01:40
I could put on a lion.
27
100649
1434
أستطيع أن أضع قناع أسد.
01:42
If I wanted to be uplifted, I might have a quote.
28
102107
3496
إذا أردت أن أرفع معنوياتي، قد أحصل على اقتباس.
01:45
So I used generic facial recognition software
29
105627
2989
لذا استخدمت برمجة موسعة للتعرف على الوجه
01:48
to build the system,
30
108640
1351
لبناء النظام،
01:50
but found it was really hard to test it unless I wore a white mask.
31
110015
5103
لكني وجدت أنه من الصعب اختباره مالم أضع قناعًا.
01:56
Unfortunately, I've run into this issue before.
32
116102
4346
لسوء الحظ واجهتني هذه المسألة من قبل.
02:00
When I was an undergraduate at Georgia Tech studying computer science,
33
120472
4303
عندما كنت طالبة في جامعة جورجيا التقنية أدرس علوم الحاسب،
02:04
I used to work on social robots,
34
124799
2055
اعتدت العمل على الروبوتات الاجتماعية،
02:06
and one of my tasks was to get a robot to play peek-a-boo,
35
126878
3777
و إحدى مهامي كانت أن أجعل روبوت يلعب بيكابو (لعبة الاختفاء)،
02:10
a simple turn-taking game
36
130679
1683
لعبة بسيطة لتناوب الأدوار
02:12
where partners cover their face and then uncover it saying, "Peek-a-boo!"
37
132386
4321
حيث يغطي الشخص وجهه عن شريكه ثم يكشفه قائلا، "بيكابو!"
02:16
The problem is, peek-a-boo doesn't really work if I can't see you,
38
136731
4429
المشكلة أن هذه اللعبة لا تعمل حقيقةً إذا لم أستطع رؤيتك،
02:21
and my robot couldn't see me.
39
141184
2499
و روبوتي لا يستطيع رؤيتي.
02:23
But I borrowed my roommate's face to get the project done,
40
143707
3950
لكني استعنت بوجه زميلتي بالسكن لكي أنهي المشروع،
02:27
submitted the assignment,
41
147681
1380
وقدمت المَهًمّة،
02:29
and figured, you know what, somebody else will solve this problem.
42
149085
3753
ووجدت أن شخصا آخر قد حل هذه المشكلة.
02:33
Not too long after,
43
153489
2003
ليس بعد وقت طويل حينها،
02:35
I was in Hong Kong for an entrepreneurship competition.
44
155516
4159
كنت في هونغ كونغ لأجل مسابقة في ريادة الأعمال.
02:40
The organizers decided to take participants
45
160159
2694
قرر المنظمون أن يأخذوا المشاركين
02:42
on a tour of local start-ups.
46
162877
2372
في جولة للشركات الناشئة المحلية.
02:45
One of the start-ups had a social robot,
47
165273
2715
إحدى هذه الشركات كان لديها روبوت اجتماعي،
02:48
and they decided to do a demo.
48
168012
1912
و قرروا استخدام عرض توضيحي.
02:49
The demo worked on everybody until it got to me,
49
169948
2980
عمل العرض التوضيحي مع الجميع حتى جاء دوري،
02:52
and you can probably guess it.
50
172952
1923
ربما تستطيع تخيل الأمر.
02:54
It couldn't detect my face.
51
174899
2965
لم يتعرف على وجهي.
02:57
I asked the developers what was going on,
52
177888
2511
سألت المطورين عما يحدث،
03:00
and it turned out we had used the same generic facial recognition software.
53
180423
5533
واتضح أننا استخدمنا نفس البرمجة العامة للتعرف على الوجه.
03:05
Halfway around the world,
54
185980
1650
جبت نصف العالم،
03:07
I learned that algorithmic bias can travel as quickly
55
187654
3852
لأعلم أن تحيز الخوارزمية يستطيع الانتقال بسرعة
03:11
as it takes to download some files off of the internet.
56
191530
3170
قدر ما يأخذه الوقت لتحميل بعض الملفات من شبكة الانترنت.
03:15
So what's going on? Why isn't my face being detected?
57
195565
3076
إذن ما الذي يحدث؟ لم لا يتعرف على وجهي؟
03:18
Well, we have to look at how we give machines sight.
58
198665
3356
حسنا، علينا أن ننظر إلى كيفية تفعيل حاسة البصر عند الآلات.
03:22
Computer vision uses machine learning techniques
59
202045
3409
يستخدم البصر الحاسوبي تقنيات خاصة بتعلم الآلة
03:25
to do facial recognition.
60
205478
1880
للقيام بالتعرف على الوجه.
03:27
So how this works is, you create a training set with examples of faces.
61
207382
3897
إذن يتفعل هذا بإنشاء جهاز تدريب مزود بأمثلة للأوجه.
03:31
This is a face. This is a face. This is not a face.
62
211303
2818
هذا وجه. هذا وجه. هذا ليس بوجه.
03:34
And over time, you can teach a computer how to recognize other faces.
63
214145
4519
وبمرور الوقت، يتعلم الحاسوب كيف يتعرف على وجوه أخرى.
03:38
However, if the training sets aren't really that diverse,
64
218688
3989
برغم ذلك، إذا لم تكن أجهزة التدريب متنوعة،
03:42
any face that deviates too much from the established norm
65
222701
3349
ووجد وجه يختلف كثيرا عن النمط القائم
03:46
will be harder to detect,
66
226074
1649
سيكون أصعب في التعرف عليه،
03:47
which is what was happening to me.
67
227747
1963
الأمر الذي حدث معي.
03:49
But don't worry -- there's some good news.
68
229734
2382
لكن لا تقلقوا -- هناك أخبار جيدة.
03:52
Training sets don't just materialize out of nowhere.
69
232140
2771
أجهزة التدريب لا تحقق إنجازًا من لاشيء.
03:54
We actually can create them.
70
234935
1788
نستطيع بالفعل أن ننشئهم.
03:56
So there's an opportunity to create full-spectrum training sets
71
236747
4176
إذن هناك فرصة لإنتاج أجهزة تدريب تمسح الطيف الكامل
04:00
that reflect a richer portrait of humanity.
72
240947
3824
التي تعكس صورا تُثري الإنسانية أكثر.
04:04
Now you've seen in my examples
73
244795
2221
الآن قد رأيتم في أمثلتي
04:07
how social robots
74
247040
1768
كيف أن الروبوتات الاجتماعية
04:08
was how I found out about exclusion with algorithmic bias.
75
248832
4611
كشفت لي الإقصاء المنتهج في تحيز الخوارزمية.
04:13
But algorithmic bias can also lead to discriminatory practices.
76
253467
4815
لكن قد يؤدي تحيز الخوارزمية إلى الممارسات التمييزية أيضا.
04:19
Across the US,
77
259257
1453
عبر الولايات المتحدة،
04:20
police departments are starting to use facial recognition software
78
260734
4198
بدأت أقسام الشرطة في استخدام برمجة التعرف على الوجه
04:24
in their crime-fighting arsenal.
79
264956
2459
كسلاح لمكافحة الجريمة.
04:27
Georgetown Law published a report
80
267439
2013
نشرت كلية حقوق جورج تاون تقريراً
04:29
showing that one in two adults in the US -- that's 117 million people --
81
269476
6763
يظهر أن بالغاً من كل اثنين في الولايات المتحدة -- حوالى 117 مليون نسمة --
04:36
have their faces in facial recognition networks.
82
276263
3534
توجد بصمة وجهه في شبكات التعرف على الوجه.
04:39
Police departments can currently look at these networks unregulated,
83
279821
4552
تتمكن أقسام الشرطة حالياً من تفحص هذه الشبكات بطريقة غير منظمة،
04:44
using algorithms that have not been audited for accuracy.
84
284397
4286
باستخدام خوارزميات لم يراع فيها الدقة.
04:48
Yet we know facial recognition is not fail proof,
85
288707
3864
حتى الآن لم يثبَت فشل التعرف على الوجه،
04:52
and labeling faces consistently remains a challenge.
86
292595
4179
ويظل تصنيف الوجوه تحدياً مستمراً.
04:56
You might have seen this on Facebook.
87
296798
1762
قد تكون رأيت هذا في فيسبوك.
04:58
My friends and I laugh all the time when we see other people
88
298584
2988
أضحك كثيرا أنا وأصدقائي عندما نرى الآخرين
05:01
mislabeled in our photos.
89
301596
2458
غير مصنَّفين في صورنا.
05:04
But misidentifying a suspected criminal is no laughing matter,
90
304078
5591
لكن عدم تحديد مجرماً مشتبهاً به ليس أمراً مضحكاً،
05:09
nor is breaching civil liberties.
91
309693
2827
ولا انتهاكاً للحريات المدنية.
05:12
Machine learning is being used for facial recognition,
92
312544
3205
التعلم الآلي يستخدم في التعرف على الوجه،
05:15
but it's also extending beyond the realm of computer vision.
93
315773
4505
لكنه أيضا يتجاوز حدود رؤية الحاسوب.
05:21
In her book, "Weapons of Math Destruction,"
94
321086
4016
في كتابها، "أسلحة الدمار الحسابيّ،"
05:25
data scientist Cathy O'Neil talks about the rising new WMDs --
95
325126
6681
تحدثت عالمة البيانات (كاثي أونيل) عن هذه الأسلحة الصاعدة --
05:31
widespread, mysterious and destructive algorithms
96
331831
4353
الخوارزميات الرائجة والغامضة والمدمرة
05:36
that are increasingly being used to make decisions
97
336208
2964
التي تُستخدم بتزايد في اتخاذ القرارات
05:39
that impact more aspects of our lives.
98
339196
3177
التي تؤثر على نواحي أكثر في حياتنا.
05:42
So who gets hired or fired?
99
342397
1870
إذن من يُوظَّف أو يُطرَد؟
05:44
Do you get that loan? Do you get insurance?
100
344291
2112
هل تحصل على ذاك القرض؟ هل تحصل على التأمين؟
05:46
Are you admitted into the college you wanted to get into?
101
346427
3503
هل قُبلت بالكلية التي أردتها؟
05:49
Do you and I pay the same price for the same product
102
349954
3509
هل يدفع الجميع نفس السعرعن نفس المنتج
05:53
purchased on the same platform?
103
353487
2442
الذي اشتُرِي من نفس المنصة؟
05:55
Law enforcement is also starting to use machine learning
104
355953
3759
بدأ مسؤولو تطبيق القانون في استخدام التعلم الآلي
05:59
for predictive policing.
105
359736
2289
لغرض الفاعلية في حفظ الأمن.
06:02
Some judges use machine-generated risk scores to determine
106
362049
3494
بعض القضاة يحددون درجات الخطر باستخدام الآلة لمعرفة
06:05
how long an individual is going to spend in prison.
107
365567
4402
طول المدة التي سيقضيها الفرد في السجن.
06:09
So we really have to think about these decisions.
108
369993
2454
بالتالي علينا أن نفكر مليًّا في هذه القرارات.
06:12
Are they fair?
109
372471
1182
هل هي عادلة؟
06:13
And we've seen that algorithmic bias
110
373677
2890
و لقد رأينا أن تحيز الخوارزمية
06:16
doesn't necessarily always lead to fair outcomes.
111
376591
3374
لا يؤدي بالضرورة إلى نتائج عادلة دائما.
06:19
So what can we do about it?
112
379989
1964
ما الذي يمكن فعله حيال هذا؟
06:21
Well, we can start thinking about how we create more inclusive code
113
381977
3680
حسنا، نستطيع البدء في إنتاج تشفير أكثر تضميناً
06:25
and employ inclusive coding practices.
114
385681
2990
و نوظف ممارسات تشفير شاملة.
06:28
It really starts with people.
115
388695
2309
إن الناس هم من يبادروا.
06:31
So who codes matters.
116
391528
1961
لذا من يقوم بالتشفير له أهمية.
06:33
Are we creating full-spectrum teams with diverse individuals
117
393513
4119
هل ننتج مجموعات للطيف الكامل بها أفراد متنوعين
06:37
who can check each other's blind spots?
118
397656
2411
من يستطيع فحص النقاط غير المرئية لبعضهم البعض؟
06:40
On the technical side, how we code matters.
119
400091
3545
على الصعيد الفني، يوجد أهمية لكيفية التشفير.
06:43
Are we factoring in fairness as we're developing systems?
120
403660
3651
هل نصنّع بعَدْل بينما نطور النظام؟
06:47
And finally, why we code matters.
121
407335
2913
و في النهاية لمً نقوم بالتشفير.
06:50
We've used tools of computational creation to unlock immense wealth.
122
410605
5083
لقد استخدمنا أدوات للإعداد الحاسوبي لكشف الثروة الهائلة.
06:55
We now have the opportunity to unlock even greater equality
123
415712
4447
لدينا الآن الفرصة لكشف جودة أكبر
07:00
if we make social change a priority
124
420183
2930
إذا جعلنا من التغير الاجتماعي أولوية
07:03
and not an afterthought.
125
423137
2170
و ليس كتفكير مؤجَّل.
07:05
And so these are the three tenets that will make up the "incoding" movement.
126
425828
4522
و هذه الركائز الثلاثة التي ستشعل حركة التشفير.
07:10
Who codes matters,
127
430374
1652
من يشفر له أهمية،
07:12
how we code matters
128
432050
1543
كيف نشفر مهم
07:13
and why we code matters.
129
433617
2023
ولمِاذا نشفر مهم أيضا.
07:15
So to go towards incoding, we can start thinking about
130
435664
3099
إذن لنتحول للتشفير نستطيع البدء بالتفكير في
07:18
building platforms that can identify bias
131
438787
3164
بناء منصات تستطيع تحديد التحيز
07:21
by collecting people's experiences like the ones I shared,
132
441975
3078
بواسطة جمع خبرات الناس مثل تلك التي شاركتها،
07:25
but also auditing existing software.
133
445077
3070
أيضا التدقيق في البرمجة الحالية.
07:28
We can also start to create more inclusive training sets.
134
448171
3765
نستطيع أيضا إنشاء أدوات تدريب شاملة أكثر.
07:31
Imagine a "Selfies for Inclusion" campaign
135
451960
2803
تخيل حملة بعنوان" سيلفي للتضمين"
07:34
where you and I can help developers test and create
136
454787
3655
حيث نستطيع جميعا مساعدة المطورين لاختبار و إنتاج
07:38
more inclusive training sets.
137
458466
2093
أجهزة تدريب أكثر شمولية.
07:41
And we can also start thinking more conscientiously
138
461122
2828
و نستطيع التفكير بطريقة أكثر وعياً
07:43
about the social impact of the technology that we're developing.
139
463974
5391
تجاه التأثير الاجتماعي للتكنولوجيا التي نطورها.
07:49
To get the incoding movement started,
140
469389
2393
لكي نفعل حركة التشفير،
07:51
I've launched the Algorithmic Justice League,
141
471806
2847
أطللقت رابطة باسم العدالة الخوارزمية،
07:54
where anyone who cares about fairness can help fight the coded gaze.
142
474677
5872
حيث يستطيع كل من يهتم بالعدل أن يكافح ضد النظرة المشفرة.
08:00
On codedgaze.com, you can report bias,
143
480573
3296
يمكنكم التبليغ عن التحيز على موقع codedgaze.com
08:03
request audits, become a tester
144
483893
2445
وتطالب بالتدقيق وتصبح مُختبِراً
08:06
and join the ongoing conversation,
145
486362
2771
و تنضم للمحادثة الدائرة،
08:09
#codedgaze.
146
489157
2287
على وسْم #codegaze.
08:12
So I invite you to join me
147
492562
2487
لذا أدعوكم للانضمام إليّ
08:15
in creating a world where technology works for all of us,
148
495073
3719
في إيجاد عالم حيث تعمل فيه التكنولوجيا من أجل الجميع،
08:18
not just some of us,
149
498816
1897
ليس البعض منا فحسب،
08:20
a world where we value inclusion and center social change.
150
500737
4588
عالم حيث نقدّر التضمين و نركز على التغير الاجتماعي.
08:25
Thank you.
151
505349
1175
شكرا لكم.
08:26
(Applause)
152
506548
4271
(تصفيق)
08:32
But I have one question:
153
512693
2854
لكن لدي سؤال واحد:
08:35
Will you join me in the fight?
154
515571
2059
هل ستنضمون إلي في الكفاح؟
08:37
(Laughter)
155
517654
1285
(ضحك)
08:38
(Applause)
156
518963
3687
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7