How I'm fighting bias in algorithms | Joy Buolamwini

312,131 views ・ 2017-03-29

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Iman Mirzadeh Reviewer: soheila Jafari
00:12
Hello, I'm Joy, a poet of code,
0
12861
3134
سلام ، من جوی هستم ، شاعر کد،
00:16
on a mission to stop an unseen force that's rising,
1
16019
4993
در یک ماموریت برای متوقف کردن یک نیروی دیده نشده در حال ظهور،
00:21
a force that I called "the coded gaze,"
2
21036
2856
نیرویی که من آن را "نگاه رمزی" صدا می کنم
00:23
my term for algorithmic bias.
3
23916
3309
اصطلاح من برای تبعیض الگوریتمی.
00:27
Algorithmic bias, like human bias, results in unfairness.
4
27249
4300
تبعیض الگوریتمی، مانند تبعیض انسانی باعث نابرابری میشود.
00:31
However, algorithms, like viruses, can spread bias on a massive scale
5
31573
6022
با این حال،الگوریتم ها، مانند ویروس ها می تونن در ابعاد عظیم
00:37
at a rapid pace.
6
37619
1582
و سرعت زیادی، تبعیض رو گسترش یابند
00:39
Algorithmic bias can also lead to exclusionary experiences
7
39763
4387
تبعیض الگوریتمی همچنین میتونه باعث تجربیات انحصاری
00:44
and discriminatory practices.
8
44174
2128
و اعمال تبعیض آمیز بشه.
00:46
Let me show you what I mean.
9
46326
2061
بذارین منظورمو بهتون نشون بدم.
00:48
(Video) Joy Buolamwini: Hi, camera. I've got a face.
10
48800
2436
[فیلم] جوی: سلام دوربین. من یک صورت دارم.
00:51
Can you see my face?
11
51982
1864
میتونی صورتمو ببینی
00:53
No-glasses face?
12
53871
1625
صورت بدون عینکم رو؟
00:55
You can see her face.
13
55521
2214
تو میتونی صورتشو ببینی.
00:58
What about my face?
14
58057
2245
صورت من رو چطور؟
01:03
I've got a mask. Can you see my mask?
15
63710
3750
من یک ماسک دارم. می تونی ماسک من رو ببینی؟
01:08
Joy Buolamwini: So how did this happen?
16
68294
2365
پس چطور این اتفاق افتاد؟
01:10
Why am I sitting in front of a computer
17
70683
3141
چرا من روبه روی یک کامپیوتر نشستم
01:13
in a white mask,
18
73848
1424
به همراه یک ماسک سفید
01:15
trying to be detected by a cheap webcam?
19
75296
3650
و تلاش می کنم تا به وسیله یک وب کم ارزان قیمت شناخته شوم؟
01:18
Well, when I'm not fighting the coded gaze
20
78970
2291
خب وقتی که من با "نگاه رمزی" مبارزه نمی کنم
01:21
as a poet of code,
21
81285
1520
به عنوان یک شاعر کد،
01:22
I'm a graduate student at the MIT Media Lab,
22
82829
3272
من یک دانشجوی تحصیلات تکمیلی در آزمایشگاه رسانه MIT هستم
01:26
and there I have the opportunity to work on all sorts of whimsical projects,
23
86125
4917
من آنجا فرصت دارم تا روی انواع پروژه های جالب و خیالبافانه کار کنم
01:31
including the Aspire Mirror,
24
91066
2027
مثل آینه آرزو
01:33
a project I did so I could project digital masks onto my reflection.
25
93117
5134
پروژه ای که می تواند روی تصویر من ماسک بگذارد
01:38
So in the morning, if I wanted to feel powerful,
26
98275
2350
پس در صبح، اگر من بخوام احساس قدرت کنم،
01:40
I could put on a lion.
27
100649
1434
میتونم ماسک یک شیر رو بذارم.
01:42
If I wanted to be uplifted, I might have a quote.
28
102107
3496
یا اگر بخواهم با روحیه باشم می توانم یک نقل قول ببینم.
01:45
So I used generic facial recognition software
29
105627
2989
بنابراین از یک دستگاه تشخیص چهره استفاده کردم
01:48
to build the system,
30
108640
1351
تا این سیستم رو بسازم،
01:50
but found it was really hard to test it unless I wore a white mask.
31
110015
5103
ولی فهمیدم که واقعا بدون ماسک سفید امکان تست این سیستم وجود نداره.
01:56
Unfortunately, I've run into this issue before.
32
116102
4346
متاسفانه قبلاً هم به این مشکل برخورد کرده بودم
02:00
When I was an undergraduate at Georgia Tech studying computer science,
33
120472
4303
وقتی که در دانشگاه Gerogia Tech دانشجوی کارشناسی رشته علوم کامپیوتر بودم،
02:04
I used to work on social robots,
34
124799
2055
روی ربات‌های اجتماعی کار میکردم،
02:06
and one of my tasks was to get a robot to play peek-a-boo,
35
126878
3777
و یکی از وظایفم این بود که به ربات بازی peek-a-boo رو یاد بدم
02:10
a simple turn-taking game
36
130679
1683
یک بازی نوبتی ساده (مثل دالّی کردن)
02:12
where partners cover their face and then uncover it saying, "Peek-a-boo!"
37
132386
4321
که تو اون به نوبت هرکی صورتشو میپوشونه و بعد پوشش رو بر میداره و میگه "peek-a-boo"
02:16
The problem is, peek-a-boo doesn't really work if I can't see you,
38
136731
4429
مشکل اینه که، این بازی اگر من نتونم ببینمتون فایده نداره
02:21
and my robot couldn't see me.
39
141184
2499
و ربات من نمی‌تونست من رو ببینه.
02:23
But I borrowed my roommate's face to get the project done,
40
143707
3950
ولی من صورت هم اتاقیم رو قرض گرفتم تا پروژم رو انجام بدم
02:27
submitted the assignment,
41
147681
1380
تمرین رو انجام دادم،
02:29
and figured, you know what, somebody else will solve this problem.
42
149085
3753
و فهمیدم که، میدونی چیه؟ یکی دیگه این مشکل رو حل خواهد کرد.
02:33
Not too long after,
43
153489
2003
مدت کوتاهی بعد از این ماجرا،
02:35
I was in Hong Kong for an entrepreneurship competition.
44
155516
4159
من برای یک مسابقه کارآفرینی در هنگ کنگ بودم.
02:40
The organizers decided to take participants
45
160159
2694
برگزارکنندگان تصیمیم گرفتن که شرکت کننده ها رو
02:42
on a tour of local start-ups.
46
162877
2372
به یک تور بازدید از استارتاپ های محلی ببرن
02:45
One of the start-ups had a social robot,
47
165273
2715
یکی از استارتاپ‌ها یک ربات اجتماعی داشت،
02:48
and they decided to do a demo.
48
168012
1912
و تصمیم گرفتن که یک دمو برگزار کنن.
02:49
The demo worked on everybody until it got to me,
49
169948
2980
دمو روی همه کار کرد تا اینکه نوبت من شد
02:52
and you can probably guess it.
50
172952
1923
و احتمالا میتونین حدس بزنین.
02:54
It couldn't detect my face.
51
174899
2965
که ربات نتونست صورت من رو تشخیص بده.
02:57
I asked the developers what was going on,
52
177888
2511
من از توسعه‌دهندگان ربات پرسیدم جریان چیه
03:00
and it turned out we had used the same generic facial recognition software.
53
180423
5533
و معلوم شد که همون نرم‌افزار تشخیص چهره‌ای رو استفاده میکردن که ما میکردیم.
03:05
Halfway around the world,
54
185980
1650
اون طرف دنیا،
03:07
I learned that algorithmic bias can travel as quickly
55
187654
3852
من یاد گرفتم که تبعیض الگوریتمی میتونه خیلی سریع سفر کنه
03:11
as it takes to download some files off of the internet.
56
191530
3170
به سرعت دانلود چندتا فایل از اینترنت.
03:15
So what's going on? Why isn't my face being detected?
57
195565
3076
حالا جریان چیه؟ چرا صورت من تشخیص داده نشد؟
03:18
Well, we have to look at how we give machines sight.
58
198665
3356
باید ببینیم که ما چطوری به ماشین‌ها توانایی دیدن میدیم.
03:22
Computer vision uses machine learning techniques
59
202045
3409
بینایی کامپیوتر برای تشخیص چهره از تکنیک‌های یادگیری ماشین استفاده میکنه
03:25
to do facial recognition.
60
205478
1880
03:27
So how this works is, you create a training set with examples of faces.
61
207382
3897
روش کارش اینطوریه که یک مجموعه داده آموزشی از نمونه صورت ها درست میکنید.
03:31
This is a face. This is a face. This is not a face.
62
211303
2818
این یک صورته. این یک صورته. این صورت نیست.
03:34
And over time, you can teach a computer how to recognize other faces.
63
214145
4519
و به مرور زمان، میتونین به کامپیوتر یاد بدین که چطوری صورت هارو تشخیص بده.
03:38
However, if the training sets aren't really that diverse,
64
218688
3989
اما اگه مجموعه داده آموزشی واقعا متنوع نباشه.
03:42
any face that deviates too much from the established norm
65
222701
3349
هر چهره‌ای که خیلی با معیار فرق کنه،
03:46
will be harder to detect,
66
226074
1649
تشخیصش سخت ‌تر میشه
03:47
which is what was happening to me.
67
227747
1963
که این برای من هم پیش اومد.
03:49
But don't worry -- there's some good news.
68
229734
2382
ولی نگران نباشین خبرهای خوبی برای شنیدن هستن
03:52
Training sets don't just materialize out of nowhere.
69
232140
2771
مجموعه داده آموزشی همینطوری از ناکجا آباد نمیان.
03:54
We actually can create them.
70
234935
1788
در واقع ما میسازیمشون.
03:56
So there's an opportunity to create full-spectrum training sets
71
236747
4176
پس این فرصت برای ساخت مجموعه‌ داده آموزشی متنوع و فراگیر وجود داره.
04:00
that reflect a richer portrait of humanity.
72
240947
3824
که تصویر غنی‌تری از انسانیت رو نشون بدن.
04:04
Now you've seen in my examples
73
244795
2221
شما در مثال‌های من دیدین که
04:07
how social robots
74
247040
1768
چجوری ربات‌های اجتماعی
04:08
was how I found out about exclusion with algorithmic bias.
75
248832
4611
باعث کشف من درباره محرومیت به وسیله تبعیض الگوریتمی شدن.
04:13
But algorithmic bias can also lead to discriminatory practices.
76
253467
4815
ولی تبعیض الگوریتمی میتونه باعث رفتارهای تبعیض‌آمیز بشه
04:19
Across the US,
77
259257
1453
در سراسر ایالات متحده
04:20
police departments are starting to use facial recognition software
78
260734
4198
دپارتمان‌های پلیس شروع به استفاده از نرم‌افزار تشخیص چهره کردن.
04:24
in their crime-fighting arsenal.
79
264956
2459
و اون رو به تجهیزاتشون در جنگ با جرم اضافه کردن.
04:27
Georgetown Law published a report
80
267439
2013
Georgetown Law گزارشی رو منتشر کرده که
04:29
showing that one in two adults in the US -- that's 117 million people --
81
269476
6763
نشون میده، در ایالت متحده از هر دو نفر یک نفر
04:36
have their faces in facial recognition networks.
82
276263
3534
چیزی حدود ۱۱۷ میلیون نفر تصاویرشون در شبکه‌های تشخیص چهره قرار داره
04:39
Police departments can currently look at these networks unregulated,
83
279821
4552
پلیس بدون نظارت مراجع مربوطه میتونه به این شبکه‌ها نگاه کنه
04:44
using algorithms that have not been audited for accuracy.
84
284397
4286
اونم با استفاده از الگوریتم‌هایی که صحتشون تایید نشده.
04:48
Yet we know facial recognition is not fail proof,
85
288707
3864
با این وجود میدونیم که تشخیص چهره، عاری از خطا نیست
04:52
and labeling faces consistently remains a challenge.
86
292595
4179
و مشخص کردن چهره‌ها همیشه یک چالش باقی خواهد ماند.
04:56
You might have seen this on Facebook.
87
296798
1762
شاید شما اینو تو فیسبوک دیده باشین.
04:58
My friends and I laugh all the time when we see other people
88
298584
2988
من و دوستام همیشه ازینکه بقیه اشتباه تو عکسهامون مشخص شدن خندمون میگیره.
05:01
mislabeled in our photos.
89
301596
2458
05:04
But misidentifying a suspected criminal is no laughing matter,
90
304078
5591
ولی تشخیص اشتباه یک مظنون جنایی اصلا چیز خنده داری نیست.
05:09
nor is breaching civil liberties.
91
309693
2827
نقض آزادی‌های مدنی هم همینطور.
05:12
Machine learning is being used for facial recognition,
92
312544
3205
برای تشخیص چهره، از یادگیری ماشین داره استفاده میشه
05:15
but it's also extending beyond the realm of computer vision.
93
315773
4505
ولی یادگیری ماشین فراتر از محدوده بینایی ماشین هست.
05:21
In her book, "Weapons of Math Destruction,"
94
321086
4016
در کتاب "سلاح‌های ریاضی مخرب"
05:25
data scientist Cathy O'Neil talks about the rising new WMDs --
95
325126
6681
Cathy O'Neil که یک داده شناس هست، درباره ظهور این سلاح‌های جدید صحبت میکنه
05:31
widespread, mysterious and destructive algorithms
96
331831
4353
الگوریتم‌هایی مرموز، فراگیر و مخرب
05:36
that are increasingly being used to make decisions
97
336208
2964
که به طور روز افزون در حال استفاده شدن در تصمیم گیری‌ها هستند.
05:39
that impact more aspects of our lives.
98
339196
3177
و روی جنبه های بیشتری از زندگی‌های ما تاثیر میذارن.
05:42
So who gets hired or fired?
99
342397
1870
مثلا کی استخدام شه کی اخراج؟
05:44
Do you get that loan? Do you get insurance?
100
344291
2112
فلان وام رو بگیرین؟ بیمه بشین؟
05:46
Are you admitted into the college you wanted to get into?
101
346427
3503
در دانشگاهی که میخواهین برین پذیرفته شین؟
05:49
Do you and I pay the same price for the same product
102
349954
3509
من و شما یک کالا رو از یک مکان با یک قیمت بخریم؟
05:53
purchased on the same platform?
103
353487
2442
05:55
Law enforcement is also starting to use machine learning
104
355953
3759
مجریان قانونی هم شروع به استفاده از یادگیری ماشین
05:59
for predictive policing.
105
359736
2289
برای محافظت پیشگیرانه کرده اند.
06:02
Some judges use machine-generated risk scores to determine
106
362049
3494
برخی از قاضی ها از مقدار ریسک محاسبه شده توسط ماشین برای مشخص کردن اینکه
06:05
how long an individual is going to spend in prison.
107
365567
4402
یک فرد چقدر در زندان باشد، استفاده میکنند.
06:09
So we really have to think about these decisions.
108
369993
2454
پس ما باید خیلی جدی درباره این تصمیمات فکر کنیم.
06:12
Are they fair?
109
372471
1182
آیا منصفانه هستن؟
06:13
And we've seen that algorithmic bias
110
373677
2890
و ما تبعیض الگوریتمی رو دیده ایم
06:16
doesn't necessarily always lead to fair outcomes.
111
376591
3374
که لزوماً باعث نتایج منصفانه نمیشن.
06:19
So what can we do about it?
112
379989
1964
خب ما چه کار میتونیم بکنیم؟
06:21
Well, we can start thinking about how we create more inclusive code
113
381977
3680
ما میتونیم شروع کنیم به فکر کردن درباره ساختن کدهای غیر انحصاری تر
06:25
and employ inclusive coding practices.
114
385681
2990
و رفتارهای غیر انحصاری رو برای کد زدن استفاده کنیم.
06:28
It really starts with people.
115
388695
2309
همه چی واقعاً از آدم‌ها شروع میشه.
06:31
So who codes matters.
116
391528
1961
اینکه چه کسی کُد میزنه مهمه.
06:33
Are we creating full-spectrum teams with diverse individuals
117
393513
4119
آیا ما داریم تیم هایی با طیف مختلفی از افراد درست میکنیم؟
06:37
who can check each other's blind spots?
118
397656
2411
که بتونن نقاط ضعف همدیگه رو بررسی کنن؟
06:40
On the technical side, how we code matters.
119
400091
3545
در سمت تکنیکال، اینکه چطوری کد میزنیم مهمه
06:43
Are we factoring in fairness as we're developing systems?
120
403660
3651
آیا وقتی که یک سیستم رو توسعه میدیم برامون برابری یک شاخص هست؟
06:47
And finally, why we code matters.
121
407335
2913
و در پایان، اینکه چرا کد میزنیم مهمه.
06:50
We've used tools of computational creation to unlock immense wealth.
122
410605
5083
ما از ابزارهای کامپیوتری برای بدست آوردن ثروت زیادی استفاده کرده ایم.
06:55
We now have the opportunity to unlock even greater equality
123
415712
4447
حالا این فرصت رو داریم که حتی برابری بیشتری هم بدست بیاریم.
07:00
if we make social change a priority
124
420183
2930
به شرط اینکه تغییر اجتماعی رو یک اولویت بذاریم
07:03
and not an afterthought.
125
423137
2170
و به عنوان نه چیزی که حالا بعدا بهش فکر میکنیم
07:05
And so these are the three tenets that will make up the "incoding" movement.
126
425828
4522
پس برای جنبش "کد غیرانحصاری" این سه اصل رو داریم:
07:10
Who codes matters,
127
430374
1652
اینکه کی کد میزنه مهمه،
07:12
how we code matters
128
432050
1543
اینکه چطوری کد میزنیم مهمه
07:13
and why we code matters.
129
433617
2023
و اینکه چرا کد میزنیم هم مهمه.
07:15
So to go towards incoding, we can start thinking about
130
435664
3099
پس برای اینکه به این سمت بریم، میتونیم شروع کنیم به فکر کردن
07:18
building platforms that can identify bias
131
438787
3164
درباره ساختن پلتفرم‌هایی که تبعیض رو تشخیص میدن
07:21
by collecting people's experiences like the ones I shared,
132
441975
3078
استفاده از تجربیات افراد، مثل اونایی که من به اشتراک گذاشتم
07:25
but also auditing existing software.
133
445077
3070
و البته نظارت و بازرسی بر نرم افزارها.
07:28
We can also start to create more inclusive training sets.
134
448171
3765
همچنین میتونیم شروع کنیم به ساختن مجموعه داده‌های آموزشی غیرانحصاری تر.
07:31
Imagine a "Selfies for Inclusion" campaign
135
451960
2803
کمپین "سلفی‌ برای باهم بودن" رو تصور کنید
07:34
where you and I can help developers test and create
136
454787
3655
که من و شما میتونیم به برنامه‌نویس‌ها کمک کنیم
تا مجموعه داده‌های غیرانحصاری‌تری بسازن و تست کنن
07:38
more inclusive training sets.
137
458466
2093
07:41
And we can also start thinking more conscientiously
138
461122
2828
و میتونیم با وجدان بیشتری شروع به فکر کردن کنیم
07:43
about the social impact of the technology that we're developing.
139
463974
5391
درباره مسائلی مثل تاثیر اجتماعی تکنولوژی که خودمون توسعش میدیم.
07:49
To get the incoding movement started,
140
469389
2393
برای شروع این جنبش،
07:51
I've launched the Algorithmic Justice League,
141
471806
2847
من لیگ عدالت الگوریتمی رو راه‌ اندازی کردم
07:54
where anyone who cares about fairness can help fight the coded gaze.
142
474677
5872
که هرکس که به برابری اهمیت میده میتونه برای مبارزه با نگاه رمزی مبارزه کنه
08:00
On codedgaze.com, you can report bias,
143
480573
3296
شما میتونین در سایت codedgaze.com تبعیض ها رو گزارش بدین،
08:03
request audits, become a tester
144
483893
2445
درخواست بررسی کنین، یک تست کننده بشین
08:06
and join the ongoing conversation,
145
486362
2771
و به گفتگو در جریان بپیوندید.
08:09
#codedgaze.
146
489157
2287
codedgaze#
08:12
So I invite you to join me
147
492562
2487
من شما رو دعوت میکنم که به من ملحق شین
08:15
in creating a world where technology works for all of us,
148
495073
3719
برای ساخت جهانی که در آن، تکنولوژی برای همه‌ی ما، نه فقط بعضی‌ها کار کنه.
08:18
not just some of us,
149
498816
1897
08:20
a world where we value inclusion and center social change.
150
500737
4588
جهانی که به غیر انحصاری بودن ارزش میدیم و تغییرات اجتماعی مورد توجهمون هست.
08:25
Thank you.
151
505349
1175
خیلی ممنون.
08:26
(Applause)
152
506548
4271
(تشویق حاضرین)
08:32
But I have one question:
153
512693
2854
ولی من یک سوال ازتون دارم:
08:35
Will you join me in the fight?
154
515571
2059
آیا به من در این مبارزه می‌پیوندید؟
08:37
(Laughter)
155
517654
1285
(خنده حاضرین)
08:38
(Applause)
156
518963
3687
(تشویق حاضرین)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7