How I'm fighting bias in algorithms | Joy Buolamwini

312,131 views ・ 2017-03-29

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Yoichi Fukuoka 校正: Yuko Yoshida
00:12
Hello, I'm Joy, a poet of code,
0
12861
3134
こんにちは コードの詩人 ジョイです
00:16
on a mission to stop an unseen force that's rising,
1
16019
4993
私の使命は 強まりつつある 目に見えない力
00:21
a force that I called "the coded gaze,"
2
21036
2856
「コード化された視線」 と私が呼ぶ―
00:23
my term for algorithmic bias.
3
23916
3309
アルゴリズムにおける偏見を 阻止することです
00:27
Algorithmic bias, like human bias, results in unfairness.
4
27249
4300
アルゴリズムも 人と同じで 偏見が入り込むと不公正な結果を生みます
00:31
However, algorithms, like viruses, can spread bias on a massive scale
5
31573
6022
しかも アルゴリズムはウイルスのように 偏見をどんどん拡散してしまいます
00:37
at a rapid pace.
6
37619
1582
それも急速にです
00:39
Algorithmic bias can also lead to exclusionary experiences
7
39763
4387
アルゴリズムの偏見は 排他的な扱いや
00:44
and discriminatory practices.
8
44174
2128
差別行為を生む恐れもあります
00:46
Let me show you what I mean.
9
46326
2061
具体的にお見せしましょう
00:48
(Video) Joy Buolamwini: Hi, camera. I've got a face.
10
48800
2436
(ビデオ)ねえ カメラくん 私には顔があるわ
00:51
Can you see my face?
11
51982
1864
私の顔が見える?
00:53
No-glasses face?
12
53871
1625
メガネを外した方がいいかな?
00:55
You can see her face.
13
55521
2214
この人の顔は見えるわね
00:58
What about my face?
14
58057
2245
私の顔はどう?
01:03
I've got a mask. Can you see my mask?
15
63710
3750
お面をつけるわ このお面は見える?
01:08
Joy Buolamwini: So how did this happen?
16
68294
2365
(ジョイ)何が起きたのでしょう?
01:10
Why am I sitting in front of a computer
17
70683
3141
私が白い仮面をつけて
01:13
in a white mask,
18
73848
1424
コンピュータの前に座り
01:15
trying to be detected by a cheap webcam?
19
75296
3650
安いウェブカメラで検知されるか 試している理由は?
01:18
Well, when I'm not fighting the coded gaze
20
78970
2291
コードの詩人として コード化された視線と
01:21
as a poet of code,
21
81285
1520
戦うとき以外の私は
01:22
I'm a graduate student at the MIT Media Lab,
22
82829
3272
MITメディアラボの大学院生で
01:26
and there I have the opportunity to work on all sorts of whimsical projects,
23
86125
4917
ちょっと変わったプロジェクトに いろいろ関わっています
01:31
including the Aspire Mirror,
24
91066
2027
その1つの 「Aspire Mirror(鼓舞する鏡)」は
01:33
a project I did so I could project digital masks onto my reflection.
25
93117
5134
鏡に映った自分の顔に デジタルの仮面を重ねるものです
01:38
So in the morning, if I wanted to feel powerful,
26
98275
2350
朝起きてパワフルな気分に なりたければ
01:40
I could put on a lion.
27
100649
1434
ライオンの面をつけたり
01:42
If I wanted to be uplifted, I might have a quote.
28
102107
3496
気分を高めるために 何かを「引用」したりできます
01:45
So I used generic facial recognition software
29
105627
2989
このとき 私は 一般的な顔認識ソフトを使い
01:48
to build the system,
30
108640
1351
システムを組もうとしたのですが
01:50
but found it was really hard to test it unless I wore a white mask.
31
110015
5103
白い仮面をつけないと テストすら難しいと気づきました
01:56
Unfortunately, I've run into this issue before.
32
116102
4346
実は この問題に悩まされたのは 初めてではありませんでした
02:00
When I was an undergraduate at Georgia Tech studying computer science,
33
120472
4303
ジョージア工科大学で コンピュータ科学を学んでいたとき
02:04
I used to work on social robots,
34
124799
2055
ソーシャルロボットを研究していて
02:06
and one of my tasks was to get a robot to play peek-a-boo,
35
126878
3777
ロボット相手に 代わりばんこに
「いないいないばあ」をするという 課題がありました
02:10
a simple turn-taking game
36
130679
1683
02:12
where partners cover their face and then uncover it saying, "Peek-a-boo!"
37
132386
4321
顔を覆った手を 「ばあ!」のところで どけて顔を見せる遊びですね
02:16
The problem is, peek-a-boo doesn't really work if I can't see you,
38
136731
4429
相手の顔が見えないと 成立しないゲームですが
02:21
and my robot couldn't see me.
39
141184
2499
ロボットは私の顔を 認識できませんでした
02:23
But I borrowed my roommate's face to get the project done,
40
143707
3950
私はルームメイトの顔を借りて どうにか作業を終え
02:27
submitted the assignment,
41
147681
1380
課題を提出しました
02:29
and figured, you know what, somebody else will solve this problem.
42
149085
3753
そのときは このバグも誰かが 直してくれると思っていました
02:33
Not too long after,
43
153489
2003
それから少しして 私は
02:35
I was in Hong Kong for an entrepreneurship competition.
44
155516
4159
起業コンテストに参加するため 香港に行きました
02:40
The organizers decided to take participants
45
160159
2694
参加者たちは いくつかの地元の新興企業に
02:42
on a tour of local start-ups.
46
162877
2372
案内されました
02:45
One of the start-ups had a social robot,
47
165273
2715
ある会社の製品は ソーシャルロボットで
02:48
and they decided to do a demo.
48
168012
1912
デモを見せてもらうことに なりました
02:49
The demo worked on everybody until it got to me,
49
169948
2980
デモは成功し 私の番がやって来ます
02:52
and you can probably guess it.
50
172952
1923
結果はご想像のとおり
02:54
It couldn't detect my face.
51
174899
2965
私の顔は検知されません
02:57
I asked the developers what was going on,
52
177888
2511
「どうなってるの?」 と開発者たちに尋ねたら
03:00
and it turned out we had used the same generic facial recognition software.
53
180423
5533
私と同じ顔認識ソフトを 使っていることが判明しました
03:05
Halfway around the world,
54
185980
1650
世界を半周して分かったのは
03:07
I learned that algorithmic bias can travel as quickly
55
187654
3852
アルゴリズムの偏見が 広がるのはすごく早いことです
03:11
as it takes to download some files off of the internet.
56
191530
3170
ネットからダウンロードする 時間しかかかりません
03:15
So what's going on? Why isn't my face being detected?
57
195565
3076
どうなっているのか? なぜ私の顔は検知されないのか?
03:18
Well, we have to look at how we give machines sight.
58
198665
3356
機械に視覚を持たせる仕組みを 考えてみましょう
03:22
Computer vision uses machine learning techniques
59
202045
3409
コンピュータビジョンでは 機械学習の技術を使って
03:25
to do facial recognition.
60
205478
1880
顔を認識します
03:27
So how this works is, you create a training set with examples of faces.
61
207382
3897
顔のサンプルを集めて トレーニングするのです
03:31
This is a face. This is a face. This is not a face.
62
211303
2818
これは顔 これは顔 これは顔じゃない
03:34
And over time, you can teach a computer how to recognize other faces.
63
214145
4519
やがてコンピュータは 顔を認識する方法を習得します
03:38
However, if the training sets aren't really that diverse,
64
218688
3989
でもトレーニング用のサンプルに あまり多様性がなかったら
03:42
any face that deviates too much from the established norm
65
222701
3349
そこで確立された基準から 大きく外れた顔は
03:46
will be harder to detect,
66
226074
1649
検知するのが難しくなります
03:47
which is what was happening to me.
67
227747
1963
私の場合はそれでした
03:49
But don't worry -- there's some good news.
68
229734
2382
でも大丈夫 希望の持てる面もあります
03:52
Training sets don't just materialize out of nowhere.
69
232140
2771
顔のサンプル集は ひとりでに できるわけではありません
03:54
We actually can create them.
70
234935
1788
私たちにだって作れます
03:56
So there's an opportunity to create full-spectrum training sets
71
236747
4176
ですから 網羅的な トレーニング用のサンプルを作り
04:00
that reflect a richer portrait of humanity.
72
240947
3824
さまざまな人間の姿形を しっかり反映させれば いいんです
04:04
Now you've seen in my examples
73
244795
2221
私の例でお見せしたように
04:07
how social robots
74
247040
1768
ソーシャルロボットの振る舞いから
04:08
was how I found out about exclusion with algorithmic bias.
75
248832
4611
アルゴリズムの偏見による 切り捨てが見つかりました
04:13
But algorithmic bias can also lead to discriminatory practices.
76
253467
4815
この偏見は 差別行為にも つながりうるものです
04:19
Across the US,
77
259257
1453
米国では全国的に
04:20
police departments are starting to use facial recognition software
78
260734
4198
警察が顔認識ソフトを使って
04:24
in their crime-fighting arsenal.
79
264956
2459
犯罪に対処し始めています
04:27
Georgetown Law published a report
80
267439
2013
ジョージタウン大学 ロースクールの報告によると
04:29
showing that one in two adults in the US -- that's 117 million people --
81
269476
6763
米国の成人2人に1人 1億1700万人の顔が
04:36
have their faces in facial recognition networks.
82
276263
3534
何らかの顔認識用のデータベースに 記録されています
04:39
Police departments can currently look at these networks unregulated,
83
279821
4552
警察は現在 制限なしに これらのシステムを参照できますが
04:44
using algorithms that have not been audited for accuracy.
84
284397
4286
使っているアルゴリズムの 正確さは検証されていません
04:48
Yet we know facial recognition is not fail proof,
85
288707
3864
でも 顔認識は完璧でなく
04:52
and labeling faces consistently remains a challenge.
86
292595
4179
顔と名前を一致させるのは なおも難しい課題です
04:56
You might have seen this on Facebook.
87
296798
1762
Facebookで こんな経験をしたことは?
04:58
My friends and I laugh all the time when we see other people
88
298584
2988
写真の中の人が正しく認識されず おかしなタグが付いていて
05:01
mislabeled in our photos.
89
301596
2458
私は いつも友達と大笑いしています
05:04
But misidentifying a suspected criminal is no laughing matter,
90
304078
5591
でも 犯罪者と間違われたら 笑い事では済みません
05:09
nor is breaching civil liberties.
91
309693
2827
市民の自由が侵された どころでもありません
05:12
Machine learning is being used for facial recognition,
92
312544
3205
機械学習は顔認識に 利用されるとともに
05:15
but it's also extending beyond the realm of computer vision.
93
315773
4505
コンピュータビジョンの 利用範囲を拡大しています
05:21
In her book, "Weapons of Math Destruction,"
94
321086
4016
データ・サイエンティストの キャシー・オニールは
05:25
data scientist Cathy O'Neil talks about the rising new WMDs --
95
325126
6681
『Weapons of Math Destruction (数学破壊兵器)』の中で
05:31
widespread, mysterious and destructive algorithms
96
331831
4353
不可解で破壊的なアルゴリズムが 「数学破壊兵器」として台頭し
05:36
that are increasingly being used to make decisions
97
336208
2964
ますます広く意思決定に 使われるようになり
05:39
that impact more aspects of our lives.
98
339196
3177
私たちの暮らしの多くの場面に 影響を与えていると述べています
05:42
So who gets hired or fired?
99
342397
1870
仕事の採用・不採用を分けるものは?
05:44
Do you get that loan? Do you get insurance?
100
344291
2112
ローンが組めるかどうか 保険に入れるかどうか
05:46
Are you admitted into the college you wanted to get into?
101
346427
3503
志望大学に入学できるかどうか
05:49
Do you and I pay the same price for the same product
102
349954
3509
同じところで同じ製品を 購入するのなら
05:53
purchased on the same platform?
103
353487
2442
誰でも値段は同じかどうか といったことにもです
05:55
Law enforcement is also starting to use machine learning
104
355953
3759
警察は機械学習を 予測警備にも
05:59
for predictive policing.
105
359736
2289
使い始めています
06:02
Some judges use machine-generated risk scores to determine
106
362049
3494
裁判官の中には 機械が出したリスク評価をもとに
06:05
how long an individual is going to spend in prison.
107
365567
4402
何年の懲役にすべきか 決める人もいます
06:09
So we really have to think about these decisions.
108
369993
2454
だから こうした判断について よく考えなければなりません
06:12
Are they fair?
109
372471
1182
判断は公平なのでしょうか?
06:13
And we've seen that algorithmic bias
110
373677
2890
すでに見た通り アルゴリズムの偏見により
06:16
doesn't necessarily always lead to fair outcomes.
111
376591
3374
出てくる結果は必ずしも 公平ではありません
06:19
So what can we do about it?
112
379989
1964
私たちに何ができるでしょう
06:21
Well, we can start thinking about how we create more inclusive code
113
381977
3680
どうすれば より包括的なコードを作り
06:25
and employ inclusive coding practices.
114
385681
2990
それを実践していけるのか 考えることから始めましょう
06:28
It really starts with people.
115
388695
2309
まずは人からです
06:31
So who codes matters.
116
391528
1961
つまり コードを書く人が大事です
06:33
Are we creating full-spectrum teams with diverse individuals
117
393513
4119
多様なメンバーで チームを構成し
06:37
who can check each other's blind spots?
118
397656
2411
互いの盲点を チェックできているか?
06:40
On the technical side, how we code matters.
119
400091
3545
技術的な面では コードをどう作るかが重要です
06:43
Are we factoring in fairness as we're developing systems?
120
403660
3651
システム開発の要素に 公正さを組み込んでいるか?
06:47
And finally, why we code matters.
121
407335
2913
最後に 何のために コードを書くかも重要です
06:50
We've used tools of computational creation to unlock immense wealth.
122
410605
5083
私たちはコンピュータを使って 莫大な富を生み出してきましたが
06:55
We now have the opportunity to unlock even greater equality
123
415712
4447
今 より一層の平等も 生み出すことができるのです
07:00
if we make social change a priority
124
420183
2930
社会の変革を 後付けでなく
07:03
and not an afterthought.
125
423137
2170
優先事項とすれば良いのです
07:05
And so these are the three tenets that will make up the "incoding" movement.
126
425828
4522
このように「インコーディング」運動には 3つの柱があるわけです
07:10
Who codes matters,
127
430374
1652
誰がコードを書くかが重要
07:12
how we code matters
128
432050
1543
どのようにコードを書くかが重要
07:13
and why we code matters.
129
433617
2023
なぜコードを書くかが重要 なのです
07:15
So to go towards incoding, we can start thinking about
130
435664
3099
インコーディングに向けて まず手を付けるべきは
07:18
building platforms that can identify bias
131
438787
3164
偏りを発見できる プラットフォームを作ること
07:21
by collecting people's experiences like the ones I shared,
132
441975
3078
私が紹介したような 経験を集積して
07:25
but also auditing existing software.
133
445077
3070
今あるソフトウェアの 点検もします
07:28
We can also start to create more inclusive training sets.
134
448171
3765
トレーニング用サンプルにも もっと多様性を盛り込みましょう
07:31
Imagine a "Selfies for Inclusion" campaign
135
451960
2803
「インクルージョンに向けた自撮り」 キャンペーンを展開して
07:34
where you and I can help developers test and create
136
454787
3655
多様性のあるサンプルを 開発者が作成しテストするのを
07:38
more inclusive training sets.
137
458466
2093
支援することもできます
07:41
And we can also start thinking more conscientiously
138
461122
2828
さらには 開発中の技術が 社会に与える影響について
07:43
about the social impact of the technology that we're developing.
139
463974
5391
もっと注意深く 考えるようにしましょう
07:49
To get the incoding movement started,
140
469389
2393
インコーディング運動を 始めるために
07:51
I've launched the Algorithmic Justice League,
141
471806
2847
私は「Algorithmic Justice League」 を設立しました
07:54
where anyone who cares about fairness can help fight the coded gaze.
142
474677
5872
公正さに関心がある人なら誰でも コード化された視線との戦いに参加できます
08:00
On codedgaze.com, you can report bias,
143
480573
3296
偏ったコードの通報や監査依頼
08:03
request audits, become a tester
144
483893
2445
試験者の参加申し込みは codedgaze.comへ
08:06
and join the ongoing conversation,
145
486362
2771
話題の共有には
08:09
#codedgaze.
146
489157
2287
#codedgazeを使ってください
08:12
So I invite you to join me
147
492562
2487
ぜひ皆さんに 参加してほしいんです
08:15
in creating a world where technology works for all of us,
148
495073
3719
テクノロジーが 一部の人でなく みんなの役に立つ―
08:18
not just some of us,
149
498816
1897
世界を創りましょう
08:20
a world where we value inclusion and center social change.
150
500737
4588
インクルージョンを大事にし 自ら社会を変える そんな世界にしましょう
08:25
Thank you.
151
505349
1175
ありがとうございました
08:26
(Applause)
152
506548
4271
(拍手)
08:32
But I have one question:
153
512693
2854
でも ほんとに大丈夫?
08:35
Will you join me in the fight?
154
515571
2059
本気で参加してくれますね?
08:37
(Laughter)
155
517654
1285
(笑)
08:38
(Applause)
156
518963
3687
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7