Machine intelligence makes human morals more important | Zeynep Tufekci

180,336 views ・ 2016-11-11

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Naoko Fujii 校正: Misaki Sato
00:12
So, I started my first job as a computer programmer
0
12739
4122
私はコンピュータ・プログラマー としての最初の仕事を
00:16
in my very first year of college --
1
16885
1956
大学1年生で始めました
00:18
basically, as a teenager.
2
18865
1507
まあ 10代だったんですね
00:20
Soon after I started working,
3
20889
1732
ある会社で ソフトウェアを
00:22
writing software in a company,
4
22645
1610
書くという仕事を 始めてまもなく
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
会社のマネージャーが 私のところに来て
00:28
and he whispered to me,
6
28458
1268
こうささやきました
00:30
"Can he tell if I'm lying?"
7
30229
2861
「僕の嘘 彼にばれてる?」
00:33
There was nobody else in the room.
8
33806
2077
部屋には他に誰もいません
「誰にばれてるって言うんです? それにどうしてひそひそ声で?」
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
00:42
The manager pointed at the computer in the room.
10
42266
3107
マネージャーは 室内のコンピュータを指さして
00:45
"Can he tell if I'm lying?"
11
45397
3096
「僕の嘘 彼にばれてる?」
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
実はこのマネージャー 受付係と浮気してたんです
00:53
(Laughter)
13
53999
1112
(笑)
私はまだ10代でした
00:55
And I was still a teenager.
14
55135
1766
00:57
So I whisper-shouted back to him,
15
57447
2019
だからささやき声で 彼に叫び返しました
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
「ええ コンピュータには お見通しですよ」って
(笑)
01:03
(Laughter)
17
63138
1806
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
笑っちゃいましたが 実は その笑いは自分に返ってきました
01:07
Nowadays, there are computational systems
19
67915
3268
今日 コンピュータ・システムは
01:11
that can suss out emotional states and even lying
20
71207
3548
人間の顔画像を処理することによって
01:14
from processing human faces.
21
74779
2044
感情や 嘘まで見抜けるんです
01:17
Advertisers and even governments are very interested.
22
77248
4153
広告主や 政府までもが 非常に関心を寄せています
01:22
I had become a computer programmer
23
82319
1862
コンピュータプログラマーに 私がなったのは
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
子どもの頃から数学と科学が 熱狂的に好きだったからです
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
しかしその過程で 核兵器についても学び
科学の倫理について 非常に懸念するようになりました
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
悩みました
01:34
I was troubled.
27
94050
1204
01:35
However, because of family circumstances,
28
95278
2641
しかし 家庭の事情で
01:37
I also needed to start working as soon as possible.
29
97943
3298
私はできるだけ早く 働き始めなければなりませんでした
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
それでひそかに考えました 技術者として
01:44
where I can get a job easily
31
104588
1796
簡単に職が得られて
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
倫理という厄介な問題を何も 考えなくていい分野の仕事はないかと
それで選んだのがコンピュータです
01:51
So I picked computers.
33
111022
1529
01:52
(Laughter)
34
112575
1104
(笑)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
ハハ 笑っちゃう 自分のことを笑ってるんです
近頃 コンピュータ科学者は
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
01:59
that control what a billion people see every day.
37
119915
4209
10億人が毎日見ているものを制御する プラットフォームを作っています
誰をひき殺すか決定できる 車を開発しています
02:05
They're developing cars that could decide who to run over.
38
125052
3822
02:09
They're even building machines, weapons,
39
129707
3213
戦争で人間を殺すかもしれないような
02:12
that might kill human beings in war.
40
132944
2285
機械や兵器さえも作っています
02:15
It's ethics all the way down.
41
135253
2771
全てにおいて重要になるのが倫理です
02:19
Machine intelligence is here.
42
139183
2058
機械知能は もう存在しています
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
私たちは今や コンピュータを使って あらゆる種類の決定を下し
02:25
but also new kinds of decisions.
44
145321
1886
さらに新しい類の決定も下します
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
私たちは 単一の正答がない問題の答えを コンピュータに尋ねています
02:32
that are subjective
46
152427
1202
その問題とは 主観的で
02:33
and open-ended and value-laden.
47
153653
2325
オープンエンドで 価値観にかかわるものです
私たちがする質問はこんなふうです
02:36
We're asking questions like,
48
156002
1758
02:37
"Who should the company hire?"
49
157784
1650
「誰を社員に採用すべきか?」
「どの友達からの新着情報を 表示すべきか?」
02:40
"Which update from which friend should you be shown?"
50
160096
2759
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
「再犯する可能性の高い受刑者は誰か?」
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
「人々に勧めるべき ニュースや映画はどれか?」
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
確かに私たちは しばらくの間 コンピュータを使ってきました
02:51
but this is different.
54
171988
1517
しかしこれは違います
02:53
This is a historical twist,
55
173529
2067
これは歴史的なひずみです
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
なぜならそのような主観的な決定を コンピュータには頼れないからです
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
飛行機を飛ばしたり 建物を建てたり
03:06
going to the moon.
58
186425
1259
月に行く場合とは違うんです
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
飛行機の方が安全か? その橋は揺れたり落ちたりしたか?
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
そこでは合意された かなり明確な基準があり
03:16
and we have laws of nature to guide us.
61
196254
2239
自然の法則が私たちを導いてくれます
03:18
We have no such anchors and benchmarks
62
198517
3394
私たちがそのような 支えや基準を何も持っていないのが
03:21
for decisions in messy human affairs.
63
201935
3963
人間くさい事柄における 厄介な決定についてです
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
もっと複雑なことに ソフトウェアは強力になりつつあります
03:30
but it's also getting less transparent and more complex.
65
210183
3773
その一方で 透明性を減らし 複雑さを増してもいるのです
03:34
Recently, in the past decade,
66
214542
2040
ここ10年のあいだ
03:36
complex algorithms have made great strides.
67
216606
2729
複雑なアルゴリズムは 大きく前進しました
03:39
They can recognize human faces.
68
219359
1990
人間の顔を認識できます
03:41
They can decipher handwriting.
69
221985
2055
手書き文字を読み取れます
03:44
They can detect credit card fraud
70
224436
2066
クレジットカードの不正使用を探知し
03:46
and block spam
71
226526
1189
スパムをブロックし
03:47
and they can translate between languages.
72
227739
2037
言語の翻訳もできます
03:49
They can detect tumors in medical imaging.
73
229800
2574
医用イメージングで 腫瘍を探しあてることもできます
03:52
They can beat humans in chess and Go.
74
232398
2205
チェスや碁で人間を 打ち負かすこともできます
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
この進歩の多くは 「機械学習」と 呼ばれる方法から成り立っています
機械学習は コンピュータに 詳細で正確、綿密な指示を与える―
04:00
Machine learning is different than traditional programming,
76
240175
3187
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
伝統的なプログラミングとは異なります
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
機械学習は システムに 大量のデータを しこたま詰め込むやり方です
04:11
including unstructured data,
79
251584
1656
そこには非構造化データという
04:13
like the kind we generate in our digital lives.
80
253264
2278
人間がデジタルライフで 生成する類のものも含まれます
04:15
And the system learns by churning through this data.
81
255566
2730
そしてシステムはこのデータを 組み合わせながら学習します
04:18
And also, crucially,
82
258669
1526
そしてまた重要なことに
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
これらのシステムは 答が単一になる論理で動いてはいません
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
単純に回答を与えるのではなく もっと確率論的です
04:27
"This one is probably more like what you're looking for."
85
267606
3483
「これはおそらくあなたが 探しているものにより近いでしょう」
これの良い面は この方法が非常に強力であることです
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
GoogleのAIシステムのトップはこれを
04:35
The head of Google's AI systems called it,
87
275117
2076
04:37
"the unreasonable effectiveness of data."
88
277217
2197
「データの理不尽なほどの強力さ」 と呼んでいます
04:39
The downside is,
89
279791
1353
このシステムの悪い面は
04:41
we don't really understand what the system learned.
90
281738
3071
これが何を学習しているのか 私たちはそれほど理解していないことです
04:44
In fact, that's its power.
91
284833
1587
実際 その強力さが問題なのです
04:46
This is less like giving instructions to a computer;
92
286946
3798
これはコンピュータに 指示を与えるというよりは
04:51
it's more like training a puppy-machine-creature
93
291200
4064
むしろ子犬のような生き物として 訓練するようなものです
04:55
we don't really understand or control.
94
295288
2371
その機械をそれほど 理解も制御もできていないのにです
04:58
So this is our problem.
95
298362
1551
これは問題です
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
この人工知能システムが 誤りを犯したときだけでなく
05:04
It's also a problem when it gets things right,
97
304713
3540
正しいことをした場合にも 問題が生じます
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
なぜなら主観的な問題の場合 私たちには正誤さえも分からないからです
05:11
We don't know what this thing is thinking.
99
311929
2339
私たちはこの物体が 何を考えているか知りません
05:15
So, consider a hiring algorithm --
100
315493
3683
ですから たとえば雇用アルゴリズムを 考えてみましょう
社員を雇う際に使われるシステムで 機械学習システムを使っています
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
そのようなシステムは過去の従業員の データに基づいて訓練されています
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
05:28
and instructed to find and hire
103
328655
2591
そしてそのシステムが指示するのは
05:31
people like the existing high performers in the company.
104
331270
3038
その会社に在籍する業績優秀者に似た 人材を探し雇うことです
05:34
Sounds good.
105
334814
1153
良さそうですね
05:35
I once attended a conference
106
335991
1999
以前ある会議に 出席した折のことですが
そこには人事部のマネージャーと 執行役が集まっていました
05:38
that brought together human resources managers and executives,
107
338014
3125
高い職位の人たちで
05:41
high-level people,
108
341163
1206
05:42
using such systems in hiring.
109
342393
1559
そのようなシステムを 雇用に活用しています
05:43
They were super excited.
110
343976
1646
彼らは非常にワクワクしていました
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
彼らの考えでは このシステムは より客観的で偏見の少ない雇用を行い
05:50
and give women and minorities a better shot
112
350323
3000
マネージャーの偏見に対して 女性や少数派の人々に
05:53
against biased human managers.
113
353347
2188
より良い機会を与えるものでした
05:55
And look -- human hiring is biased.
114
355559
2843
そうです  雇用には偏見が混じるのです
私は知っています
05:59
I know.
115
359099
1185
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
ある職場で プログラマーとして 働きだした頃
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
直属のマネージャーが 時々私のところに来ました
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
それも早朝とか夕方にです
そして彼女はこう言うんです 「ゼイナップ ランチ行きましょ」
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
06:14
I'd be puzzled by the weird timing.
120
374724
2167
おかしなタイミングで 全く訳が分かりませんでした
06:16
It's 4pm. Lunch?
121
376915
2129
午後4時にランチ?
私はお金がなかったので おごりでした いつも行きました
06:19
I was broke, so free lunch. I always went.
122
379068
3094
06:22
I later realized what was happening.
123
382618
2067
後で何が起こっていたのか悟りました
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
直属のマネージャーは上層部に
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
重要な仕事のために雇ったのが
06:32
who wore jeans and sneakers to work.
126
392416
3930
ジーンズとスニーカーで仕事をする 10代女子だと言ってなかったんです
私は良い仕事ぶりだったのに 体裁が悪くて
06:37
I was doing a good job, I just looked wrong
127
397174
2202
06:39
and was the wrong age and gender.
128
399400
1699
年齢や性別の点でも 良くなかったんです
ですから性別や人種に 惑わされない形での雇用は
06:41
So hiring in a gender- and race-blind way
129
401123
3346
06:44
certainly sounds good to me.
130
404493
1865
非常に良いことだと 私には思えます
でもこのシステムを用いると 事態はより複雑になります なぜなら
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
現在コンピュータシステムは あなたに関するあらゆる類のことを
06:56
from your digital crumbs,
133
416783
1872
デジタル情報の断片から 推測できるからです
06:58
even if you have not disclosed those things.
134
418679
2333
自分が開示していなくてもです
07:01
They can infer your sexual orientation,
135
421506
2927
システムはあなたの性的志向や
07:04
your personality traits,
136
424994
1306
性格特徴や
07:06
your political leanings.
137
426859
1373
政治的傾向を推測できます
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
システムは高水準の正確さで 予測する力を持っています
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
思い出してください 開示さえしていない事柄をですよ
07:15
This is inference.
140
435964
1591
これが推測です
07:17
I have a friend who developed such computational systems
141
437579
3261
ある友達は そのようなコンピュータシステムを
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
病的な あるいは産後の 抑うつの可能性を 予測するために開発しています
07:24
from social media data.
143
444529
1416
SNSのデータを用いるんです
07:26
The results are impressive.
144
446676
1427
結果は素晴らしいです
07:28
Her system can predict the likelihood of depression
145
448492
3357
彼女のシステムは うつ罹患の可能性を
07:31
months before the onset of any symptoms --
146
451873
3903
症状が現れる数か月前に 予測できるのです
07:35
months before.
147
455800
1373
数か月も前ですよ
07:37
No symptoms, there's prediction.
148
457197
2246
症状が全くない段階での予測です
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
彼女はこれを早期介入のために 活用したがっています 素晴らしい!
07:44
But now put this in the context of hiring.
150
464911
2040
でもこれを雇用の文脈で 考えてみましょう
例の 人事マネージャーの会議では
07:48
So at this human resources managers conference,
151
468027
3046
私はある非常に大きな企業の 高職位のマネージャーに近づき
07:51
I approached a high-level manager in a very large company,
152
471097
4709
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
こう言いました 「まだご存じないこととは思いますが
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
もしそのシステムが 将来うつになる可能性が 高い人を排除しているとしたらどうでしょう?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
今ではなく  将来そうなる可能性が高い人です
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
妊娠する可能性の 高い女性を排除しているとしたら?
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
来年か再来年のことで 今は妊娠していない場合ですよ?
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
もし職場の文化に合っているからと 攻撃的な人が雇われたらどうします?」
性別の構成からは そのことを読み取れません
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
08:27
Those may be balanced.
160
507888
1502
構成比はバランスが取れています
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
これは機械学習で 伝統的なプログラムではないので
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
たとえば「うつハイリスク」とか 「妊娠ハイリスク」
08:37
"higher risk of pregnancy,"
163
517926
1833
「攻撃的な人物度」
08:39
"aggressive guy scale."
164
519783
1734
などの変数は登場しません
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
システムが何に基づいて選択しているのか 分からないばかりか
08:45
you don't even know where to begin to look.
166
525698
2323
どうすれば分かるのかの 手がかりもありません
ブラックボックスなんです
08:48
It's a black box.
167
528045
1246
08:49
It has predictive power, but you don't understand it.
168
529315
2807
システムには予測力がありますが 人間には理解できない代物です
08:52
"What safeguards," I asked, "do you have
169
532486
2369
「どんな安全対策をしていますか?
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
あなたのブラックボックスが やましいことをしないようにです」
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
彼女は子犬の尻尾を10匹分も踏みつけた 人でなしを見るかのような顔になりました
09:04
(Laughter)
172
544765
1248
(笑)
彼女は私をじっと見て言いました
09:06
She stared at me and she said,
173
546037
2041
09:08
"I don't want to hear another word about this."
174
548556
4333
「これについては もう何も聞きたくない」
09:13
And she turned around and walked away.
175
553458
2034
そして彼女は踵を返して 行ってしまいました
彼女が失礼なわけではありません
09:16
Mind you -- she wasn't rude.
176
556064
1486
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
明らかに 聞かなかったことにしたい あっち行ってという憎悪の眼差しでした
09:23
(Laughter)
178
563906
1246
(笑)
09:25
Look, such a system may even be less biased
179
565862
3839
いいですか そのようなシステムは ある意味 偏見の程度は
09:29
than human managers in some ways.
180
569725
2103
人間のマネージャーよりは 少ないかもしれません
09:31
And it could make monetary sense.
181
571852
2146
費用の面でも 理にかなっているでしょう
09:34
But it could also lead
182
574573
1650
でもそれはまた
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
ひそやかながら確実に 労働市場からの
うつハイリスク者の締め出しに つながりかねません
09:41
of people with higher risk of depression.
184
581019
2293
09:43
Is this the kind of society we want to build,
185
583753
2596
これが私たちの築きたい 社会の姿でしょうか?
09:46
without even knowing we've done this,
186
586373
2285
こんなことをしていることさえ 私たちは知らないんです
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
完全には理解していない機械に 意思決定をさせているんですからね
09:53
Another problem is this:
188
593265
1458
もう1つの問題はこれです
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
このようなシステムの訓練は往々にして 人間の行動データに基づいています
09:59
human imprints.
190
599790
1816
人間らしさが刻み込まれています
10:02
Well, they could just be reflecting our biases,
191
602188
3808
それらは私たちの偏見を 反映している可能性があり
これらのシステムは 私たちの偏見を拾い上げ
10:06
and these systems could be picking up on our biases
192
606020
3593
10:09
and amplifying them
193
609637
1313
それを増幅して
10:10
and showing them back to us,
194
610974
1418
私たちに示し返しかねません
10:12
while we're telling ourselves,
195
612416
1462
私たちはこんな言いっぷりなのにですよ
10:13
"We're just doing objective, neutral computation."
196
613902
3117
「私たちはまさしく客観的です 中立的なコンピューティングですから」
10:18
Researchers found that on Google,
197
618314
2677
研究者たちは Googleにおいて
女性には 高給の求人広告が 表示されにくいことを見出しました
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
10:28
And searching for African-American names
199
628463
2530
また アフリカ系アメリカ人の 名前を検索すると
犯罪歴をほのめかす広告が 高確率で表示されます
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
10:35
even when there is none.
201
635747
1567
犯罪歴がない人の場合でもそうです
10:38
Such hidden biases and black-box algorithms
202
638693
3549
そのような隠れた偏見と ブラックボックスのアルゴリズムを
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
研究者が暴くこともありますが 知られない場合もあります
10:46
can have life-altering consequences.
204
646263
2661
それらは人生を 変える結果になりうるのです
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
ウィスコンシンで ある被告が 刑期6年の判決を受けました
警察官から逃げたためです
10:54
for evading the police.
206
654141
1355
10:56
You may not know this,
207
656824
1186
ご存知ないかもしれませんが
仮釈放や判決の決定においても アルゴリズムの使用が増えています
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
彼はこのスコアが計算される仕組みを 知りたいと思いました
11:02
He wanted to know: How is this score calculated?
209
662056
2955
11:05
It's a commercial black box.
210
665795
1665
それは商用のブラックボックスです
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
企業はアルゴリズムが 公開の法廷で検証されるのを拒みました
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
でもProPublicaという非営利の調査団体が そのアルゴリズムを監査しました
11:17
with what public data they could find,
213
677952
2016
入手可能だった 公開データを用いてです
11:19
and found that its outcomes were biased
214
679992
2316
そして分かったのは 結果には偏見が影響しており
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
予測力はひどいものでした 偶然よりわずかにましな程度です
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
黒人の被告は 白人の被告に比べて 将来犯罪を起こす確率が
11:30
at twice the rate of white defendants.
217
690425
3895
2倍高いと 誤ってラベリングされていました
11:35
So, consider this case:
218
695891
1564
ではこのケースを考えてみましょう
女性のほうは予定より遅れて 親友を迎えに行くため
11:38
This woman was late picking up her godsister
219
698103
3852
11:41
from a school in Broward County, Florida,
220
701979
2075
フロリダ州ブロワード郡の ある学校に向かって
11:44
running down the street with a friend of hers.
221
704757
2356
友達と一緒に道を走っていました
ふたりはある家の玄関で 無施錠の 子ども用の自転車とキックスケーターを見つけ
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
11:51
and foolishly jumped on it.
223
711260
1632
愚かにもそれに飛び乗りました
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
走り去ろうとしたところ 女性が出てきて言いました
11:55
"Hey! That's my kid's bike!"
225
715539
2205
「ちょっと! それはうちの子の自転車よ!」
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
ふたりは降りて 歩き去りましたが 逮捕されました
彼女は間違っていたし愚かでした でもまだ18歳です
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
彼女は2回の非行歴がありました
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
一方 男性のほうは Home Depoで 万引きをして捕まりました
彼が万引きしたのは85ドル相当で 同じく軽犯罪ですが
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
12:16
But he had two prior armed robbery convictions.
231
736766
4559
彼は強盗で前科2犯でした
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
でもアルゴリズムは 男性ではなく 女性の方をハイリスクと評価しました
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
その女性が2年後に再犯していないことを ProPiblicaは明らかにしています
12:30
It was just hard to get a job for her with her record.
234
750644
2550
犯罪記録をもつ彼女が 職を得るのは実に困難でした
12:33
He, on the other hand, did reoffend
235
753218
2076
一方 男性の方は再犯し
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
2つ目の犯罪のために 現在は8年間の収監中です
ブラックボックスに対して 監査が必要なのは明白です
12:40
Clearly, we need to audit our black boxes
237
760088
3369
12:43
and not have them have this kind of unchecked power.
238
763481
2615
チェックしないままこの種の権力を 与えてはいけないのです
(拍手)
12:46
(Applause)
239
766120
2879
監査は偉大で重要ですが それで全ての問題を解決できはしません
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
Facebookのニュース・フィードの 強力なアルゴリズムの場合
全てをランク付けし 全ての友達やフォロー中のページのなかで
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
13:01
from all the friends and pages you follow.
243
781992
2284
何を見るべきか決定する仕組みですね
13:04
Should you be shown another baby picture?
244
784898
2275
赤ちゃんの写真をもう1枚見るべきか?
13:07
(Laughter)
245
787197
1196
(笑)
13:08
A sullen note from an acquaintance?
246
788417
2596
知り合いからの ご機嫌斜めのコメントは?
13:11
An important but difficult news item?
247
791449
1856
重要だけど難解なニュース記事は?
13:13
There's no right answer.
248
793329
1482
正答はありません
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
Facebookはサイト上での やりとりに応じて最適化します
13:17
likes, shares, comments.
250
797518
1415
「いいね」やシェア コメント といったものです
2014年8月
13:20
In August of 2014,
251
800168
2696
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
ミズーリ州ファーガソンで 抗議運動が勃発しました
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
アフリカ系アメリカ人の10代が 白人の警察官に殺され
その状況が不審だったのです
13:30
under murky circumstances.
254
810015
1570
13:31
The news of the protests was all over
255
811974
2007
抗議運動のニュースは
フィルタリングされない Twitterフィードを埋め尽くしました
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
13:36
but nowhere on my Facebook.
257
816714
1950
でもFacebookには何ら 表示されませんでした
13:39
Was it my Facebook friends?
258
819182
1734
Facebook上の友達との 関連でしょうか?
13:40
I disabled Facebook's algorithm,
259
820940
2032
私はFacebookのアルゴリズムを 無効にしました
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
Facebookはアルゴリズムの 管理下に置きたがるので
13:46
come under the algorithm's control,
261
826344
2036
難しかったですけどね
13:48
and saw that my friends were talking about it.
262
828404
2238
すると友達が 抗議運動のことを 話しているのが分かりました
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
アルゴリズムが私に 見せなかっただけなんです
13:53
I researched this and found this was a widespread problem.
264
833199
3042
調査して分かりましたが これは広範囲にわたる問題でした
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
ファーガソンの話題は アルゴリズムに馴染まなかったんです
「いいね」しにくいのです
14:00
It's not "likable."
266
840102
1171
14:01
Who's going to click on "like?"
267
841297
1552
誰が「いいね」します?
14:03
It's not even easy to comment on.
268
843500
2206
コメントをするのさえ 容易じゃありません
14:05
Without likes and comments,
269
845730
1371
「いいね」もコメントもないので
アルゴリズムは少数の人にしか それを表示しません
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
14:10
so we didn't get to see this.
271
850441
1542
だから目にすることがなかったんです
14:12
Instead, that week,
272
852946
1228
そのかわり その週
14:14
Facebook's algorithm highlighted this,
273
854198
2298
Facebookのアルゴリズムが ハイライトしたのは
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
ALSアイス・バケツ・チャレンジでした
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
価値のある目的で氷水をかぶり チャリティに寄付 良いですね
14:22
But it was super algorithm-friendly.
276
862536
1904
でも極めてよく アルゴリズムに馴染みます
14:25
The machine made this decision for us.
277
865219
2613
機械が私たちのために これを決定したんです
14:27
A very important but difficult conversation
278
867856
3497
非常に重要だけれど難解な会話は
14:31
might have been smothered,
279
871377
1555
Facebookが唯一の経路の場合
14:32
had Facebook been the only channel.
280
872956
2696
抑え込まれてきたのかもしれません
さて最後にこれらのシステムは
14:36
Now, finally, these systems can also be wrong
281
876117
3797
14:39
in ways that don't resemble human systems.
282
879938
2736
人間のシステムとは似つかない誤りを 犯しうるのです
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
皆さんはワトソンを覚えていますか IBMの機械知能システムで
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
クイズ番組『ジェパディ!』で 対戦相手の人間を打ち負かしました
すごい選手だったんです
14:49
It was a great player.
285
889131
1428
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
しかし最終問題で ワトソンは こんな質問をされました
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
「その地域最大の空港の名は 第二次世界大戦の英雄に由来し
14:57
its second-largest for a World War II battle."
288
897615
2252
2番目の空港の名の由来は 第二次世界大戦中の戦いです」
14:59
(Hums Final Jeopardy music)
289
899891
1378
(最終問題の音楽をハミング)
15:01
Chicago.
290
901582
1182
「シカゴ」
15:02
The two humans got it right.
291
902788
1370
人間ふたりは正答でした
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
一方ワトソンの答えは 「トロント」
米国の都市についての 問題だったのに!
15:09
for a US city category!
293
909069
1818
15:11
The impressive system also made an error
294
911596
2901
この素晴らしいシステムも エラーをするんです
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
人間はしないようなエラーです 2年生の子どもでもしません
15:18
Our machine intelligence can fail
296
918823
3109
機械知能は失敗を犯すこともあるんです
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
人間のエラーパターンとは 異なります
予想外であり 備えもできないような方法です
15:25
in ways we won't expect and be prepared for.
298
925080
2950
資質のある人が仕事を得られないのも ひどい話ですが
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
もしそれがプログラムのサブルーチンに伴う スタックオーバーフローが原因なら
15:35
in some subroutine.
301
935467
1432
3倍ひどい話です
15:36
(Laughter)
302
936923
1579
(笑)
15:38
In May of 2010,
303
938526
2786
2010年5月
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
ウォールストリートの 「売り」アルゴリズムでの
15:45
in Wall Street's "sell" algorithm
305
945404
3028
フィードバックループによって 瞬間暴落が起き
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
36分間で1兆ドル相当の 損失が出ました
15:53
I don't even want to think what "error" means
307
953722
2187
「エラー」の意味を 考えたくもないのが
15:55
in the context of lethal autonomous weapons.
308
955933
3589
無人攻撃機の場合です
16:01
So yes, humans have always made biases.
309
961894
3790
ええ人間には 偏見がつきものです
16:05
Decision makers and gatekeepers,
310
965708
2176
意思決定者やゲートキーパー
16:07
in courts, in news, in war ...
311
967908
3493
法廷、ニュース、戦争・・・
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
そこではミスが生じますが これこそ私の言いたいことです
16:14
We cannot escape these difficult questions.
313
974487
3521
これらの難問から 私たちは逃れられません
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
私たちは責任を 機械に外部委託することはできないのです
16:22
(Applause)
315
982676
4208
(拍手)
人工知能は「倫理問題からの解放」カードを 私たちにくれたりしません
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
データ科学者のフレッド・ベネンソンは これを数学による洗脳だと呼びました
私たちに必要なのは逆のものです
16:38
We need the opposite.
318
998147
1389
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
私たちはアルゴリズムを疑い 精査するようにならねばなりません
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
私たちは アルゴリズムについての 説明責任を持ち
16:48
auditing and meaningful transparency.
321
1008602
2445
監査や意味のある透明化を 求めなければなりません
16:51
We need to accept that bringing math and computation
322
1011380
3234
私たちは厄介で価値観にかかわる 人間くさい事柄に対して
16:54
to messy, value-laden human affairs
323
1014638
2970
数学や計算機は 客観性をもたらしえないことを
16:57
does not bring objectivity;
324
1017632
2384
受け入れなければなりません
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
むしろ人間くささのもつ複雑さが アルゴリズムを管理するのです
確かに私たちは コンピュータを 良い決断を下す助けとして
17:04
Yes, we can and we should use computation
326
1024148
3487
17:07
to help us make better decisions.
327
1027659
2014
使いうるし そうすべきです
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
でも私たちは判断を下すことへの 自分の道徳的な責任を認め
そしてアルゴリズムを その枠内で用いなければなりません
17:15
and use algorithms within that framework,
329
1035053
2818
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
自分の責任を放棄して 別の人間へ委ねることとは
17:22
to one another as human to human.
331
1042854
2454
異なるのです
17:25
Machine intelligence is here.
332
1045807
2609
機械知能はもう存在しています
17:28
That means we must hold on ever tighter
333
1048440
3421
つまり私たちは 人間としての価値観や倫理感を
17:31
to human values and human ethics.
334
1051885
2147
よりしっかり持たねばなりません
ありがとうございました
17:34
Thank you.
335
1054056
1154
17:35
(Applause)
336
1055234
5020
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7