How I'm fighting bias in algorithms | Joy Buolamwini

308,224 views ・ 2017-03-29

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Thuy Nguyen Thanh Reviewer: Nguyet Minh Doan
00:12
Hello, I'm Joy, a poet of code,
0
12861
3134
Xin chào, Tôi là Joy, một nhà thơ viết mã,
00:16
on a mission to stop an unseen force that's rising,
1
16019
4993
đang thực hiện nhiệm vụ ngăn chặn một một lực lượng vô hình đang gia tăng,
00:21
a force that I called "the coded gaze,"
2
21036
2856
một lực lượng mà tôi gọi là "the coded gaze,"
00:23
my term for algorithmic bias.
3
23916
3309
là từ tôi nói về sự thiên vị thuật toán.
00:27
Algorithmic bias, like human bias, results in unfairness.
4
27249
4300
Thiên vị thuật toán, giống như thiên vị con người, sẽ đưa đến sự bất công.
00:31
However, algorithms, like viruses, can spread bias on a massive scale
5
31573
6022
Tuy nhiên, thuật toán, giống như virút, có thể phát tán sự thiên vị trên quy mô lớn
00:37
at a rapid pace.
6
37619
1582
với tốc độ nhanh chóng.
00:39
Algorithmic bias can also lead to exclusionary experiences
7
39763
4387
Thiên vị thuật toán có thể dẫn đến nhiều trải nghiệm bị loại trừ ra
00:44
and discriminatory practices.
8
44174
2128
và các hành vi phân biệt đối xử.
00:46
Let me show you what I mean.
9
46326
2061
Tôi sẽ cho các bạn thấy điều tôi muốn nói.
00:48
(Video) Joy Buolamwini: Hi, camera. I've got a face.
10
48800
2436
(Video) Joy: Chào camera. Tôi có một khuôn mặt.
00:51
Can you see my face?
11
51982
1864
Bạn có thấy mặt tôi không?
00:53
No-glasses face?
12
53871
1625
Khuôn mặt không đeo kính ấy?
00:55
You can see her face.
13
55521
2214
Bạn có thể thấy mặt cô ấy.
00:58
What about my face?
14
58057
2245
Thế còn mặt của tôi?
01:03
I've got a mask. Can you see my mask?
15
63710
3750
Tôi có một mặt nạ. Bạn có thấy mặt nạ của tôi không?
01:08
Joy Buolamwini: So how did this happen?
16
68294
2365
Joy Buolamwini: Việc này là thế nào?
01:10
Why am I sitting in front of a computer
17
70683
3141
Tại sao tôi đang ngồi trước máy tính
01:13
in a white mask,
18
73848
1424
đeo mặt nạ trắng,
01:15
trying to be detected by a cheap webcam?
19
75296
3650
cố dò khuôn mặt mình bằng một webcam rẽ tiền?
01:18
Well, when I'm not fighting the coded gaze
20
78970
2291
Vâng, tôi không chống lại the coded gaze
01:21
as a poet of code,
21
81285
1520
với vai trò một nhà thơ viết mã
01:22
I'm a graduate student at the MIT Media Lab,
22
82829
3272
Tôi là sinh viên tốt nghiệp tại MIT Media Lab,
01:26
and there I have the opportunity to work on all sorts of whimsical projects,
23
86125
4917
và ở đó, tôi có cơ hội làm việc với mọi loại dự án kỳ quặc,
01:31
including the Aspire Mirror,
24
91066
2027
bao gồm dự án Aspire Mirror,
01:33
a project I did so I could project digital masks onto my reflection.
25
93117
5134
dự án này tôi đã thực hiện nên tôi có thể chiếu các mặt nạ số phản ánh tâm trạng tôi
01:38
So in the morning, if I wanted to feel powerful,
26
98275
2350
vào buổi sáng, nếu tôi muốn cảm thấy mạnh mẽ
01:40
I could put on a lion.
27
100649
1434
Tôi có thể đeo mặt nạ sư tử.
01:42
If I wanted to be uplifted, I might have a quote.
28
102107
3496
Nếu tôi muốn được lên tinh thần, tôi có thể có một viện dẫn.
01:45
So I used generic facial recognition software
29
105627
2989
Và tôi đã sử dụng một phần mềm nhận diện khuôn mặt thông dụng
01:48
to build the system,
30
108640
1351
để xây dựng hệ thống,
01:50
but found it was really hard to test it unless I wore a white mask.
31
110015
5103
nhưng tôi nhận ra rằng rất khó để chạy thử nó trừ khi tôi đeo mặt nạ trắng
01:56
Unfortunately, I've run into this issue before.
32
116102
4346
Thật không may, trước đây tôi cũng đã gặp sự cố này.
02:00
When I was an undergraduate at Georgia Tech studying computer science,
33
120472
4303
Khi tôi còn là sinh viên nghiên cứu khoa học máy tính ở Georgia Tech,
02:04
I used to work on social robots,
34
124799
2055
tôi đã từng làm các robot xã hội,
02:06
and one of my tasks was to get a robot to play peek-a-boo,
35
126878
3777
và một trong những công việc của tôi là cài đặt robot chơi trò "Ú òa",
02:10
a simple turn-taking game
36
130679
1683
một trò chơi luân phiên đơn giản
02:12
where partners cover their face and then uncover it saying, "Peek-a-boo!"
37
132386
4321
trong đó các người chơi che mặt lại và tháo mặt ra và nói "Ú òa!"
02:16
The problem is, peek-a-boo doesn't really work if I can't see you,
38
136731
4429
Vấn đề là, tôi sẽ không Ú Òa nếu không nhìn thấy bạn,
02:21
and my robot couldn't see me.
39
141184
2499
và robot của tôi đã không thấy tôi.
02:23
But I borrowed my roommate's face to get the project done,
40
143707
3950
Nhưng khi tôi mượn khuôn mặt của bạn cùng phòng để thực hiện dự án,
02:27
submitted the assignment,
41
147681
1380
nộp bài tập,
02:29
and figured, you know what, somebody else will solve this problem.
42
149085
3753
và tham gia, bạn biết không, ai sẽ giải quyết vấn đề này.
02:33
Not too long after,
43
153489
2003
Không lâu sau đó,
02:35
I was in Hong Kong for an entrepreneurship competition.
44
155516
4159
Tôi đã đến Hong Kong để tham gia một cuộc thi làm doanh nhân.
02:40
The organizers decided to take participants
45
160159
2694
Các nhà tổ chức đã quyết định đưa những người tham gia
02:42
on a tour of local start-ups.
46
162877
2372
đi tham quan các startup địa phương.
02:45
One of the start-ups had a social robot,
47
165273
2715
Một trong các startup đó có một robot xã hội,
02:48
and they decided to do a demo.
48
168012
1912
và họ đã quyết định demo.
02:49
The demo worked on everybody until it got to me,
49
169948
2980
Việc demo thực hiện với mọi người và khi đến lược tôi
02:52
and you can probably guess it.
50
172952
1923
và bạn có lẽ cùng đoán được.
02:54
It couldn't detect my face.
51
174899
2965
Nó không nhận diện được khuôn mặt tôi.
02:57
I asked the developers what was going on,
52
177888
2511
Tôi đã hỏi người phát triển nó chuyện gì xãy ra vậy,
03:00
and it turned out we had used the same generic facial recognition software.
53
180423
5533
và hóa ra chúng tôi đã sử dụng cùng một phần mềm nhận diện khuôn mặt đó.
03:05
Halfway around the world,
54
185980
1650
Nữa vòng trái đất,
03:07
I learned that algorithmic bias can travel as quickly
55
187654
3852
Tôi đã học được rằng sự thiên vị thuật toán có thể di chuyển nhanh như
03:11
as it takes to download some files off of the internet.
56
191530
3170
việc tải một số file từ internet.
03:15
So what's going on? Why isn't my face being detected?
57
195565
3076
Vậy điều gì đang xãy ra? Tại sao khuôn mặt tôi không nhận ra được
03:18
Well, we have to look at how we give machines sight.
58
198665
3356
Vâng, chúng ta phải xem lại cách chúng ta cho máy tính nhìn.
03:22
Computer vision uses machine learning techniques
59
202045
3409
Thi giác máy tính sử dụng các công nghệ học máy để nhìn
03:25
to do facial recognition.
60
205478
1880
để nhận diện khuôn mặt.
03:27
So how this works is, you create a training set with examples of faces.
61
207382
3897
Và cách làm là, ta tạo ra một một tập huấn luyện với các ví dụ về khuôn mặt.
03:31
This is a face. This is a face. This is not a face.
62
211303
2818
Đây là khuôn mặt. Đây là khuôn mặt. Còn đây thì không.
03:34
And over time, you can teach a computer how to recognize other faces.
63
214145
4519
và qua thời gian, ta có thể dạy máy tính cách nhận ra các khuôn mặt khác.
03:38
However, if the training sets aren't really that diverse,
64
218688
3989
Tuy nhiên, nếu tập huấn luyện không đa dạng,
03:42
any face that deviates too much from the established norm
65
222701
3349
bất kỳ khuôn mặt nào mà khác quá nhiều so với chuẩn đã thiết lập
03:46
will be harder to detect,
66
226074
1649
sẽ khó dò tìm hơn,
03:47
which is what was happening to me.
67
227747
1963
đó chính là trường hợp xãy ra với tôi.
03:49
But don't worry -- there's some good news.
68
229734
2382
Nhưng đừng lo - có một vài tin tốt.
03:52
Training sets don't just materialize out of nowhere.
69
232140
2771
Các tập huấn luyện không tồn tại ở cõi hư vô.
03:54
We actually can create them.
70
234935
1788
Mà do chính chúng ta tạo ra.
03:56
So there's an opportunity to create full-spectrum training sets
71
236747
4176
Do vậy chúng ta có cơ hội tạo ra các tập huấn luyện phủ kín các trường hợp
04:00
that reflect a richer portrait of humanity.
72
240947
3824
và phản ánh một bức tranh đầy đủ hơn về con người.
04:04
Now you've seen in my examples
73
244795
2221
Bây giờ bạn đã thấy trong các ví dụ của tôi
04:07
how social robots
74
247040
1768
các robot xã hội nó ra sao
04:08
was how I found out about exclusion with algorithmic bias.
75
248832
4611
cách tôi đã tìm ra sự sai sót về thiên vị thuật toán.
04:13
But algorithmic bias can also lead to discriminatory practices.
76
253467
4815
Nhưng sự thiên vị thuật toán có thể dẫn đến các hành vi phân biệt đối xử.
04:19
Across the US,
77
259257
1453
Khắp nước Mỹ,
04:20
police departments are starting to use facial recognition software
78
260734
4198
các sở cảnh sát đang bắt đầu đưa phần mềm nhận dạng khuôn mặt
04:24
in their crime-fighting arsenal.
79
264956
2459
vào kho vũ khí chống tội phạm của họ.
04:27
Georgetown Law published a report
80
267439
2013
Trường luật Georgetown công bố một báo cáo
04:29
showing that one in two adults in the US -- that's 117 million people --
81
269476
6763
cho thấy 1/2 người lớn ở Mỹ -- có đến 117 triệu người --
04:36
have their faces in facial recognition networks.
82
276263
3534
có khuôn mặt trong các mạng lưới nhận dạng khuôn mặt.
04:39
Police departments can currently look at these networks unregulated,
83
279821
4552
Hiện tại các sở cảnh sát có thể nhìn vào các mạng lưới không được kiểm soát này
04:44
using algorithms that have not been audited for accuracy.
84
284397
4286
sử dụng các thuật toán không được kiểm tra để bảo đảm sự chính xác.
04:48
Yet we know facial recognition is not fail proof,
85
288707
3864
Nhưng chúng ta biết nhận dạng khuôn mặt không phải là không có sai sót
04:52
and labeling faces consistently remains a challenge.
86
292595
4179
và đánh nhãn khuôn mặt một cách chắc chắn vẫn còn là một thách thức.
04:56
You might have seen this on Facebook.
87
296798
1762
Bạn có thể thấy điều này trên Facebook
04:58
My friends and I laugh all the time when we see other people
88
298584
2988
Tôi và các bạn tôi luôn cười khi thấy những người khác
05:01
mislabeled in our photos.
89
301596
2458
bị đánh nhãn sai trong các bức hình của chúng tôi.
05:04
But misidentifying a suspected criminal is no laughing matter,
90
304078
5591
Nhưng nhận diện sai một nghi phạm không phải là một chuyện để cười,
05:09
nor is breaching civil liberties.
91
309693
2827
cũng không phải là vi phạm quyền tự do dân sự.
05:12
Machine learning is being used for facial recognition,
92
312544
3205
Công nghệ học máy đang được sử dụng để nhận diện khuôn mặt,
05:15
but it's also extending beyond the realm of computer vision.
93
315773
4505
nhưng nó cũng đang mở rộng vượt quá lĩnh vực thị giác máy tính.
05:21
In her book, "Weapons of Math Destruction,"
94
321086
4016
Trong cuốn sách "Vũ khí hủy diệt toán học"
05:25
data scientist Cathy O'Neil talks about the rising new WMDs --
95
325126
6681
của cô Cathy O'Neil, một nhà khoa học dữ liệu, nói các loại WMD đang gia tăng --
05:31
widespread, mysterious and destructive algorithms
96
331831
4353
các giải thuật hủy diệt, thần bí và phổ biến rộng rãi
05:36
that are increasingly being used to make decisions
97
336208
2964
đang ngày càng được sử dụng để đưa ra quyết định
05:39
that impact more aspects of our lives.
98
339196
3177
mà ảnh hưởng đến nhiều lĩnh vực của cuộc sống.
05:42
So who gets hired or fired?
99
342397
1870
Vậy ai được tuyển dụng hoặc sa thải?
05:44
Do you get that loan? Do you get insurance?
100
344291
2112
Bạn có khoản vay đó? Bạn có bảo hiểm không?
05:46
Are you admitted into the college you wanted to get into?
101
346427
3503
Bạn có được tiếp nhận vào trường đại học mà bạn muốn?
05:49
Do you and I pay the same price for the same product
102
349954
3509
Bạn và tôi có trả cùng giá cho cùng sản phẩm
05:53
purchased on the same platform?
103
353487
2442
được mua trên cùng một nền tảng?
05:55
Law enforcement is also starting to use machine learning
104
355953
3759
Việc thực thi luật pháp cũng đang bắt đầu sử dụng công nghệ học máy
05:59
for predictive policing.
105
359736
2289
để dự báo tình hình phạm pháp
06:02
Some judges use machine-generated risk scores to determine
106
362049
3494
Một số thẩm phán sử dụng điểm số rủi ro do máy tạo ra để xác định
06:05
how long an individual is going to spend in prison.
107
365567
4402
một cá nhân sẽ đi tù trong bao lâu.
06:09
So we really have to think about these decisions.
108
369993
2454
Do vậy chúng ta phải nghĩ về những quyết định này.
06:12
Are they fair?
109
372471
1182
Chúng có công bằng?
06:13
And we've seen that algorithmic bias
110
373677
2890
Và chúng ta đã thấy rằng sự thiên vị thuật toán
06:16
doesn't necessarily always lead to fair outcomes.
111
376591
3374
không nhất thiết luôn cho ra kết quả công bằng
06:19
So what can we do about it?
112
379989
1964
Vậy ta có thể làm gì với chúng?
06:21
Well, we can start thinking about how we create more inclusive code
113
381977
3680
Vâng, ta có thể bắt đầu nghĩ về cách tạo ra mã lệnh bao hàm nhiều hơn
06:25
and employ inclusive coding practices.
114
385681
2990
và sử dụng các hoạt động viết mã có tính bao hàm.
06:28
It really starts with people.
115
388695
2309
Nó thực sự bắt đầu với con người.
06:31
So who codes matters.
116
391528
1961
Vậy ai viết các mã lệnh đó.
06:33
Are we creating full-spectrum teams with diverse individuals
117
393513
4119
Có phải chúng ta đang tạo ra các nhóm đầy đủ với các cá nhân đa dạng
06:37
who can check each other's blind spots?
118
397656
2411
những người có thể kiểm tra các điểm mù lẫn nhau?
06:40
On the technical side, how we code matters.
119
400091
3545
Về mặt kỹ thuật, chúng ta viết các mã lệnh đó như thế nào
06:43
Are we factoring in fairness as we're developing systems?
120
403660
3651
Chúng ta có đang tính đến yếu tố công bằng khi xây dựng hệ thống/
06:47
And finally, why we code matters.
121
407335
2913
Và cuối cùng, tại sao chúng ta viết những mã lệnh đó.
06:50
We've used tools of computational creation to unlock immense wealth.
122
410605
5083
Chúng ta đã sử dụng các công cụ sáng tạo tính toán để mở khóa sự giàu có to lớn.
06:55
We now have the opportunity to unlock even greater equality
123
415712
4447
Giờ đây chúng ta có cơ hội mở khóa sự bình đẳng to lớn hơn
07:00
if we make social change a priority
124
420183
2930
nếu chúng ta tạo ra sự thay đổi xã hội một sự ưu tiên
07:03
and not an afterthought.
125
423137
2170
và không suy nghĩ lại
07:05
And so these are the three tenets that will make up the "incoding" movement.
126
425828
4522
Và đây là 3 nguyên lý mà sẽ tạo nên phong trào "incoding".
07:10
Who codes matters,
127
430374
1652
Ai viết mã lệnh đó,
07:12
how we code matters
128
432050
1543
chúng ta viết mã lệnh đó ra sao
07:13
and why we code matters.
129
433617
2023
và tại sao ta viết mã lệnh đó.
07:15
So to go towards incoding, we can start thinking about
130
435664
3099
Do đó để hướng đến sự viết mã tận tâm, ta có thể bắt đầu nghĩ về
07:18
building platforms that can identify bias
131
438787
3164
xây dựng các nền tảng mà có thể nhận diện sự thiên vị
07:21
by collecting people's experiences like the ones I shared,
132
441975
3078
bằng cách tập hợp trải nghiệm của mọi người như tôi đã chia sẽ
07:25
but also auditing existing software.
133
445077
3070
nhưng cũng kiểm tra các phần mềm hiện tại.
07:28
We can also start to create more inclusive training sets.
134
448171
3765
Chúng ta cũng có thể bắt đầu tạo ra những tập huấn luyện bao hàm hơn
07:31
Imagine a "Selfies for Inclusion" campaign
135
451960
2803
Hãy tưởng tượng một chiến dịch "Tự sướng để hòa nhập"
07:34
where you and I can help developers test and create
136
454787
3655
ở đó bạn và tôi có thể giúp các nhà phát triển kiểm thử và tạo ra
07:38
more inclusive training sets.
137
458466
2093
các tập huấn luyện bao hàm hơn.
07:41
And we can also start thinking more conscientiously
138
461122
2828
Và chúng ta cũng bắt đầu suy nghĩ một cách tận tâm hơn
07:43
about the social impact of the technology that we're developing.
139
463974
5391
về sự ảnh hưởng xã hội của công nghệ mà ta đang phát triển.
07:49
To get the incoding movement started,
140
469389
2393
Để bắt đầu phong trào viết mã tận tâm
07:51
I've launched the Algorithmic Justice League,
141
471806
2847
Tôi đã khởi xướng Liên minh công lý thuật toán,
07:54
where anyone who cares about fairness can help fight the coded gaze.
142
474677
5872
ở đó bất cứ ai quan tâm đến sự công bằng đều có thể giúp chống lại the coded gaze.
08:00
On codedgaze.com, you can report bias,
143
480573
3296
trên codedgaze.com, nơi bạn có thể báo cáo lại các thiên vị,
08:03
request audits, become a tester
144
483893
2445
đề nghị sự kiểm tra, trở thành người kiểm thử
08:06
and join the ongoing conversation,
145
486362
2771
và tham gia vào các cuộc nói chuyện
08:09
#codedgaze.
146
489157
2287
#codedgaze.
08:12
So I invite you to join me
147
492562
2487
Tôi mời bạn tham gia với tôi
08:15
in creating a world where technology works for all of us,
148
495073
3719
để tạo ra một thế giới ở đó công nghệ phục vụ cho tất cả chúng ta,
08:18
not just some of us,
149
498816
1897
không phải chỉ với một số người,
08:20
a world where we value inclusion and center social change.
150
500737
4588
một thế giới ở đó chúng ta đề cao sự hòa nhập và thay đổi xã hội làm trung tâm
08:25
Thank you.
151
505349
1175
Xin cảm ơn.
08:26
(Applause)
152
506548
4271
(Vỗ tay)
08:32
But I have one question:
153
512693
2854
Nhưng tôi còn một câu hỏi:
08:35
Will you join me in the fight?
154
515571
2059
Bạn có cùng tôi vào cuộc chiến này không?
08:37
(Laughter)
155
517654
1285
(Cười)
08:38
(Applause)
156
518963
3687
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7