Machine intelligence makes human morals more important | Zeynep Tufekci
180,336 views ・ 2016-11-11
下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Naoko Fujii
校正: Misaki Sato
00:12
So, I started my first job
as a computer programmer
0
12739
4122
私はコンピュータ・プログラマー
としての最初の仕事を
00:16
in my very first year of college --
1
16885
1956
大学1年生で始めました
00:18
basically, as a teenager.
2
18865
1507
まあ 10代だったんですね
00:20
Soon after I started working,
3
20889
1732
ある会社で ソフトウェアを
00:22
writing software in a company,
4
22645
1610
書くという仕事を 始めてまもなく
00:24
a manager who worked at the company
came down to where I was,
5
24799
3635
会社のマネージャーが
私のところに来て
00:28
and he whispered to me,
6
28458
1268
こうささやきました
00:30
"Can he tell if I'm lying?"
7
30229
2861
「僕の嘘 彼にばれてる?」
00:33
There was nobody else in the room.
8
33806
2077
部屋には他に誰もいません
「誰にばれてるって言うんです?
それにどうしてひそひそ声で?」
00:37
"Can who tell if you're lying?
And why are we whispering?"
9
37032
4389
00:42
The manager pointed
at the computer in the room.
10
42266
3107
マネージャーは
室内のコンピュータを指さして
00:45
"Can he tell if I'm lying?"
11
45397
3096
「僕の嘘 彼にばれてる?」
00:49
Well, that manager was having
an affair with the receptionist.
12
49613
4362
実はこのマネージャー
受付係と浮気してたんです
00:53
(Laughter)
13
53999
1112
(笑)
私はまだ10代でした
00:55
And I was still a teenager.
14
55135
1766
00:57
So I whisper-shouted back to him,
15
57447
2019
だからささやき声で
彼に叫び返しました
00:59
"Yes, the computer can tell
if you're lying."
16
59490
3624
「ええ コンピュータには
お見通しですよ」って
(笑)
01:03
(Laughter)
17
63138
1806
01:04
Well, I laughed, but actually,
the laugh's on me.
18
64968
2923
笑っちゃいましたが 実は
その笑いは自分に返ってきました
01:07
Nowadays, there are computational systems
19
67915
3268
今日 コンピュータ・システムは
01:11
that can suss out
emotional states and even lying
20
71207
3548
人間の顔画像を処理することによって
01:14
from processing human faces.
21
74779
2044
感情や 嘘まで見抜けるんです
01:17
Advertisers and even governments
are very interested.
22
77248
4153
広告主や 政府までもが
非常に関心を寄せています
01:22
I had become a computer programmer
23
82319
1862
コンピュータプログラマーに
私がなったのは
01:24
because I was one of those kids
crazy about math and science.
24
84205
3113
子どもの頃から数学と科学が
熱狂的に好きだったからです
01:27
But somewhere along the line
I'd learned about nuclear weapons,
25
87942
3108
しかしその過程で
核兵器についても学び
科学の倫理について
非常に懸念するようになりました
01:31
and I'd gotten really concerned
with the ethics of science.
26
91074
2952
悩みました
01:34
I was troubled.
27
94050
1204
01:35
However, because of family circumstances,
28
95278
2641
しかし 家庭の事情で
01:37
I also needed to start working
as soon as possible.
29
97943
3298
私はできるだけ早く
働き始めなければなりませんでした
01:41
So I thought to myself, hey,
let me pick a technical field
30
101265
3299
それでひそかに考えました
技術者として
01:44
where I can get a job easily
31
104588
1796
簡単に職が得られて
01:46
and where I don't have to deal
with any troublesome questions of ethics.
32
106408
4018
倫理という厄介な問題を何も
考えなくていい分野の仕事はないかと
それで選んだのがコンピュータです
01:51
So I picked computers.
33
111022
1529
01:52
(Laughter)
34
112575
1104
(笑)
01:53
Well, ha, ha, ha!
All the laughs are on me.
35
113703
3410
ハハ 笑っちゃう
自分のことを笑ってるんです
近頃 コンピュータ科学者は
01:57
Nowadays, computer scientists
are building platforms
36
117137
2754
01:59
that control what a billion
people see every day.
37
119915
4209
10億人が毎日見ているものを制御する
プラットフォームを作っています
誰をひき殺すか決定できる
車を開発しています
02:05
They're developing cars
that could decide who to run over.
38
125052
3822
02:09
They're even building machines, weapons,
39
129707
3213
戦争で人間を殺すかもしれないような
02:12
that might kill human beings in war.
40
132944
2285
機械や兵器さえも作っています
02:15
It's ethics all the way down.
41
135253
2771
全てにおいて重要になるのが倫理です
02:19
Machine intelligence is here.
42
139183
2058
機械知能は もう存在しています
02:21
We're now using computation
to make all sort of decisions,
43
141823
3474
私たちは今や コンピュータを使って
あらゆる種類の決定を下し
02:25
but also new kinds of decisions.
44
145321
1886
さらに新しい類の決定も下します
02:27
We're asking questions to computation
that have no single right answers,
45
147231
5172
私たちは 単一の正答がない問題の答えを
コンピュータに尋ねています
02:32
that are subjective
46
152427
1202
その問題とは 主観的で
02:33
and open-ended and value-laden.
47
153653
2325
オープンエンドで
価値観にかかわるものです
私たちがする質問はこんなふうです
02:36
We're asking questions like,
48
156002
1758
02:37
"Who should the company hire?"
49
157784
1650
「誰を社員に採用すべきか?」
「どの友達からの新着情報を
表示すべきか?」
02:40
"Which update from which friend
should you be shown?"
50
160096
2759
02:42
"Which convict is more
likely to reoffend?"
51
162879
2266
「再犯する可能性の高い受刑者は誰か?」
02:45
"Which news item or movie
should be recommended to people?"
52
165514
3054
「人々に勧めるべき
ニュースや映画はどれか?」
02:48
Look, yes, we've been using
computers for a while,
53
168592
3372
確かに私たちは しばらくの間
コンピュータを使ってきました
02:51
but this is different.
54
171988
1517
しかしこれは違います
02:53
This is a historical twist,
55
173529
2067
これは歴史的なひずみです
02:55
because we cannot anchor computation
for such subjective decisions
56
175620
5337
なぜならそのような主観的な決定を
コンピュータには頼れないからです
03:00
the way we can anchor computation
for flying airplanes, building bridges,
57
180981
5420
飛行機を飛ばしたり 建物を建てたり
03:06
going to the moon.
58
186425
1259
月に行く場合とは違うんです
03:08
Are airplanes safer?
Did the bridge sway and fall?
59
188449
3259
飛行機の方が安全か?
その橋は揺れたり落ちたりしたか?
03:11
There, we have agreed-upon,
fairly clear benchmarks,
60
191732
4498
そこでは合意された
かなり明確な基準があり
03:16
and we have laws of nature to guide us.
61
196254
2239
自然の法則が私たちを導いてくれます
03:18
We have no such anchors and benchmarks
62
198517
3394
私たちがそのような
支えや基準を何も持っていないのが
03:21
for decisions in messy human affairs.
63
201935
3963
人間くさい事柄における
厄介な決定についてです
03:25
To make things more complicated,
our software is getting more powerful,
64
205922
4237
もっと複雑なことに
ソフトウェアは強力になりつつあります
03:30
but it's also getting less
transparent and more complex.
65
210183
3773
その一方で 透明性を減らし
複雑さを増してもいるのです
03:34
Recently, in the past decade,
66
214542
2040
ここ10年のあいだ
03:36
complex algorithms
have made great strides.
67
216606
2729
複雑なアルゴリズムは
大きく前進しました
03:39
They can recognize human faces.
68
219359
1990
人間の顔を認識できます
03:41
They can decipher handwriting.
69
221985
2055
手書き文字を読み取れます
03:44
They can detect credit card fraud
70
224436
2066
クレジットカードの不正使用を探知し
03:46
and block spam
71
226526
1189
スパムをブロックし
03:47
and they can translate between languages.
72
227739
2037
言語の翻訳もできます
03:49
They can detect tumors in medical imaging.
73
229800
2574
医用イメージングで
腫瘍を探しあてることもできます
03:52
They can beat humans in chess and Go.
74
232398
2205
チェスや碁で人間を
打ち負かすこともできます
03:55
Much of this progress comes
from a method called "machine learning."
75
235264
4504
この進歩の多くは 「機械学習」と
呼ばれる方法から成り立っています
機械学習は コンピュータに
詳細で正確、綿密な指示を与える―
04:00
Machine learning is different
than traditional programming,
76
240175
3187
04:03
where you give the computer
detailed, exact, painstaking instructions.
77
243386
3585
伝統的なプログラミングとは異なります
04:07
It's more like you take the system
and you feed it lots of data,
78
247378
4182
機械学習は システムに 大量のデータを
しこたま詰め込むやり方です
04:11
including unstructured data,
79
251584
1656
そこには非構造化データという
04:13
like the kind we generate
in our digital lives.
80
253264
2278
人間がデジタルライフで
生成する類のものも含まれます
04:15
And the system learns
by churning through this data.
81
255566
2730
そしてシステムはこのデータを
組み合わせながら学習します
04:18
And also, crucially,
82
258669
1526
そしてまた重要なことに
04:20
these systems don't operate
under a single-answer logic.
83
260219
4380
これらのシステムは
答が単一になる論理で動いてはいません
04:24
They don't produce a simple answer;
it's more probabilistic:
84
264623
2959
単純に回答を与えるのではなく
もっと確率論的です
04:27
"This one is probably more like
what you're looking for."
85
267606
3483
「これはおそらくあなたが
探しているものにより近いでしょう」
これの良い面は
この方法が非常に強力であることです
04:32
Now, the upside is:
this method is really powerful.
86
272023
3070
GoogleのAIシステムのトップはこれを
04:35
The head of Google's AI systems called it,
87
275117
2076
04:37
"the unreasonable effectiveness of data."
88
277217
2197
「データの理不尽なほどの強力さ」
と呼んでいます
04:39
The downside is,
89
279791
1353
このシステムの悪い面は
04:41
we don't really understand
what the system learned.
90
281738
3071
これが何を学習しているのか
私たちはそれほど理解していないことです
04:44
In fact, that's its power.
91
284833
1587
実際 その強力さが問題なのです
04:46
This is less like giving
instructions to a computer;
92
286946
3798
これはコンピュータに
指示を与えるというよりは
04:51
it's more like training
a puppy-machine-creature
93
291200
4064
むしろ子犬のような生き物として
訓練するようなものです
04:55
we don't really understand or control.
94
295288
2371
その機械をそれほど
理解も制御もできていないのにです
04:58
So this is our problem.
95
298362
1551
これは問題です
05:00
It's a problem when this artificial
intelligence system gets things wrong.
96
300427
4262
この人工知能システムが
誤りを犯したときだけでなく
05:04
It's also a problem
when it gets things right,
97
304713
3540
正しいことをした場合にも
問題が生じます
05:08
because we don't even know which is which
when it's a subjective problem.
98
308277
3628
なぜなら主観的な問題の場合
私たちには正誤さえも分からないからです
05:11
We don't know what this thing is thinking.
99
311929
2339
私たちはこの物体が
何を考えているか知りません
05:15
So, consider a hiring algorithm --
100
315493
3683
ですから たとえば雇用アルゴリズムを
考えてみましょう
社員を雇う際に使われるシステムで
機械学習システムを使っています
05:20
a system used to hire people,
using machine-learning systems.
101
320123
4311
そのようなシステムは過去の従業員の
データに基づいて訓練されています
05:25
Such a system would have been trained
on previous employees' data
102
325052
3579
05:28
and instructed to find and hire
103
328655
2591
そしてそのシステムが指示するのは
05:31
people like the existing
high performers in the company.
104
331270
3038
その会社に在籍する業績優秀者に似た
人材を探し雇うことです
05:34
Sounds good.
105
334814
1153
良さそうですね
05:35
I once attended a conference
106
335991
1999
以前ある会議に
出席した折のことですが
そこには人事部のマネージャーと
執行役が集まっていました
05:38
that brought together
human resources managers and executives,
107
338014
3125
高い職位の人たちで
05:41
high-level people,
108
341163
1206
05:42
using such systems in hiring.
109
342393
1559
そのようなシステムを
雇用に活用しています
05:43
They were super excited.
110
343976
1646
彼らは非常にワクワクしていました
05:45
They thought that this would make hiring
more objective, less biased,
111
345646
4653
彼らの考えでは このシステムは
より客観的で偏見の少ない雇用を行い
05:50
and give women
and minorities a better shot
112
350323
3000
マネージャーの偏見に対して
女性や少数派の人々に
05:53
against biased human managers.
113
353347
2188
より良い機会を与えるものでした
05:55
And look -- human hiring is biased.
114
355559
2843
そうです
雇用には偏見が混じるのです
私は知っています
05:59
I know.
115
359099
1185
06:00
I mean, in one of my early jobs
as a programmer,
116
360308
3005
ある職場で プログラマーとして
働きだした頃
06:03
my immediate manager would sometimes
come down to where I was
117
363337
3868
直属のマネージャーが
時々私のところに来ました
06:07
really early in the morning
or really late in the afternoon,
118
367229
3753
それも早朝とか夕方にです
そして彼女はこう言うんです
「ゼイナップ ランチ行きましょ」
06:11
and she'd say, "Zeynep,
let's go to lunch!"
119
371006
3062
06:14
I'd be puzzled by the weird timing.
120
374724
2167
おかしなタイミングで
全く訳が分かりませんでした
06:16
It's 4pm. Lunch?
121
376915
2129
午後4時にランチ?
私はお金がなかったので おごりでした
いつも行きました
06:19
I was broke, so free lunch. I always went.
122
379068
3094
06:22
I later realized what was happening.
123
382618
2067
後で何が起こっていたのか悟りました
06:24
My immediate managers
had not confessed to their higher-ups
124
384709
4546
直属のマネージャーは上層部に
06:29
that the programmer they hired
for a serious job was a teen girl
125
389279
3113
重要な仕事のために雇ったのが
06:32
who wore jeans and sneakers to work.
126
392416
3930
ジーンズとスニーカーで仕事をする
10代女子だと言ってなかったんです
私は良い仕事ぶりだったのに
体裁が悪くて
06:37
I was doing a good job,
I just looked wrong
127
397174
2202
06:39
and was the wrong age and gender.
128
399400
1699
年齢や性別の点でも
良くなかったんです
ですから性別や人種に
惑わされない形での雇用は
06:41
So hiring in a gender- and race-blind way
129
401123
3346
06:44
certainly sounds good to me.
130
404493
1865
非常に良いことだと
私には思えます
でもこのシステムを用いると
事態はより複雑になります なぜなら
06:47
But with these systems,
it is more complicated, and here's why:
131
407031
3341
06:50
Currently, computational systems
can infer all sorts of things about you
132
410968
5791
現在コンピュータシステムは
あなたに関するあらゆる類のことを
06:56
from your digital crumbs,
133
416783
1872
デジタル情報の断片から
推測できるからです
06:58
even if you have not
disclosed those things.
134
418679
2333
自分が開示していなくてもです
07:01
They can infer your sexual orientation,
135
421506
2927
システムはあなたの性的志向や
07:04
your personality traits,
136
424994
1306
性格特徴や
07:06
your political leanings.
137
426859
1373
政治的傾向を推測できます
07:08
They have predictive power
with high levels of accuracy.
138
428830
3685
システムは高水準の正確さで
予測する力を持っています
07:13
Remember -- for things
you haven't even disclosed.
139
433362
2578
思い出してください
開示さえしていない事柄をですよ
07:15
This is inference.
140
435964
1591
これが推測です
07:17
I have a friend who developed
such computational systems
141
437579
3261
ある友達は
そのようなコンピュータシステムを
07:20
to predict the likelihood
of clinical or postpartum depression
142
440864
3641
病的な あるいは産後の 抑うつの可能性を
予測するために開発しています
07:24
from social media data.
143
444529
1416
SNSのデータを用いるんです
07:26
The results are impressive.
144
446676
1427
結果は素晴らしいです
07:28
Her system can predict
the likelihood of depression
145
448492
3357
彼女のシステムは
うつ罹患の可能性を
07:31
months before the onset of any symptoms --
146
451873
3903
症状が現れる数か月前に
予測できるのです
07:35
months before.
147
455800
1373
数か月も前ですよ
07:37
No symptoms, there's prediction.
148
457197
2246
症状が全くない段階での予測です
07:39
She hopes it will be used
for early intervention. Great!
149
459467
4812
彼女はこれを早期介入のために
活用したがっています 素晴らしい!
07:44
But now put this in the context of hiring.
150
464911
2040
でもこれを雇用の文脈で
考えてみましょう
例の 人事マネージャーの会議では
07:48
So at this human resources
managers conference,
151
468027
3046
私はある非常に大きな企業の
高職位のマネージャーに近づき
07:51
I approached a high-level manager
in a very large company,
152
471097
4709
07:55
and I said to her, "Look,
what if, unbeknownst to you,
153
475830
4578
こう言いました
「まだご存じないこととは思いますが
08:00
your system is weeding out people
with high future likelihood of depression?
154
480432
6549
もしそのシステムが 将来うつになる可能性が
高い人を排除しているとしたらどうでしょう?
08:07
They're not depressed now,
just maybe in the future, more likely.
155
487761
3376
今ではなく
将来そうなる可能性が高い人です
08:11
What if it's weeding out women
more likely to be pregnant
156
491923
3406
妊娠する可能性の
高い女性を排除しているとしたら?
08:15
in the next year or two
but aren't pregnant now?
157
495353
2586
来年か再来年のことで
今は妊娠していない場合ですよ?
08:18
What if it's hiring aggressive people
because that's your workplace culture?"
158
498844
5636
もし職場の文化に合っているからと
攻撃的な人が雇われたらどうします?」
性別の構成からは
そのことを読み取れません
08:25
You can't tell this by looking
at gender breakdowns.
159
505173
2691
08:27
Those may be balanced.
160
507888
1502
構成比はバランスが取れています
08:29
And since this is machine learning,
not traditional coding,
161
509414
3557
これは機械学習で
伝統的なプログラムではないので
08:32
there is no variable there
labeled "higher risk of depression,"
162
512995
4907
たとえば「うつハイリスク」とか
「妊娠ハイリスク」
08:37
"higher risk of pregnancy,"
163
517926
1833
「攻撃的な人物度」
08:39
"aggressive guy scale."
164
519783
1734
などの変数は登場しません
08:41
Not only do you not know
what your system is selecting on,
165
521995
3679
システムが何に基づいて選択しているのか
分からないばかりか
08:45
you don't even know
where to begin to look.
166
525698
2323
どうすれば分かるのかの
手がかりもありません
ブラックボックスなんです
08:48
It's a black box.
167
528045
1246
08:49
It has predictive power,
but you don't understand it.
168
529315
2807
システムには予測力がありますが
人間には理解できない代物です
08:52
"What safeguards," I asked, "do you have
169
532486
2369
「どんな安全対策をしていますか?
08:54
to make sure that your black box
isn't doing something shady?"
170
534879
3673
あなたのブラックボックスが
やましいことをしないようにです」
09:00
She looked at me as if I had
just stepped on 10 puppy tails.
171
540863
3878
彼女は子犬の尻尾を10匹分も踏みつけた
人でなしを見るかのような顔になりました
09:04
(Laughter)
172
544765
1248
(笑)
彼女は私をじっと見て言いました
09:06
She stared at me and she said,
173
546037
2041
09:08
"I don't want to hear
another word about this."
174
548556
4333
「これについては
もう何も聞きたくない」
09:13
And she turned around and walked away.
175
553458
2034
そして彼女は踵を返して
行ってしまいました
彼女が失礼なわけではありません
09:16
Mind you -- she wasn't rude.
176
556064
1486
09:17
It was clearly: what I don't know
isn't my problem, go away, death stare.
177
557574
6308
明らかに 聞かなかったことにしたい
あっち行ってという憎悪の眼差しでした
09:23
(Laughter)
178
563906
1246
(笑)
09:25
Look, such a system
may even be less biased
179
565862
3839
いいですか そのようなシステムは
ある意味 偏見の程度は
09:29
than human managers in some ways.
180
569725
2103
人間のマネージャーよりは
少ないかもしれません
09:31
And it could make monetary sense.
181
571852
2146
費用の面でも
理にかなっているでしょう
09:34
But it could also lead
182
574573
1650
でもそれはまた
09:36
to a steady but stealthy
shutting out of the job market
183
576247
4748
ひそやかながら確実に
労働市場からの
うつハイリスク者の締め出しに
つながりかねません
09:41
of people with higher risk of depression.
184
581019
2293
09:43
Is this the kind of society
we want to build,
185
583753
2596
これが私たちの築きたい
社会の姿でしょうか?
09:46
without even knowing we've done this,
186
586373
2285
こんなことをしていることさえ
私たちは知らないんです
09:48
because we turned decision-making
to machines we don't totally understand?
187
588682
3964
完全には理解していない機械に
意思決定をさせているんですからね
09:53
Another problem is this:
188
593265
1458
もう1つの問題はこれです
09:55
these systems are often trained
on data generated by our actions,
189
595314
4452
このようなシステムの訓練は往々にして
人間の行動データに基づいています
09:59
human imprints.
190
599790
1816
人間らしさが刻み込まれています
10:02
Well, they could just be
reflecting our biases,
191
602188
3808
それらは私たちの偏見を
反映している可能性があり
これらのシステムは
私たちの偏見を拾い上げ
10:06
and these systems
could be picking up on our biases
192
606020
3593
10:09
and amplifying them
193
609637
1313
それを増幅して
10:10
and showing them back to us,
194
610974
1418
私たちに示し返しかねません
10:12
while we're telling ourselves,
195
612416
1462
私たちはこんな言いっぷりなのにですよ
10:13
"We're just doing objective,
neutral computation."
196
613902
3117
「私たちはまさしく客観的です
中立的なコンピューティングですから」
10:18
Researchers found that on Google,
197
618314
2677
研究者たちは Googleにおいて
女性には 高給の求人広告が
表示されにくいことを見出しました
10:22
women are less likely than men
to be shown job ads for high-paying jobs.
198
622134
5313
10:28
And searching for African-American names
199
628463
2530
また アフリカ系アメリカ人の
名前を検索すると
犯罪歴をほのめかす広告が
高確率で表示されます
10:31
is more likely to bring up ads
suggesting criminal history,
200
631017
4706
10:35
even when there is none.
201
635747
1567
犯罪歴がない人の場合でもそうです
10:38
Such hidden biases
and black-box algorithms
202
638693
3549
そのような隠れた偏見と
ブラックボックスのアルゴリズムを
10:42
that researchers uncover sometimes
but sometimes we don't know,
203
642266
3973
研究者が暴くこともありますが
知られない場合もあります
10:46
can have life-altering consequences.
204
646263
2661
それらは人生を
変える結果になりうるのです
10:49
In Wisconsin, a defendant
was sentenced to six years in prison
205
649958
4159
ウィスコンシンで ある被告が
刑期6年の判決を受けました
警察官から逃げたためです
10:54
for evading the police.
206
654141
1355
10:56
You may not know this,
207
656824
1186
ご存知ないかもしれませんが
仮釈放や判決の決定においても
アルゴリズムの使用が増えています
10:58
but algorithms are increasingly used
in parole and sentencing decisions.
208
658034
3998
彼はこのスコアが計算される仕組みを
知りたいと思いました
11:02
He wanted to know:
How is this score calculated?
209
662056
2955
11:05
It's a commercial black box.
210
665795
1665
それは商用のブラックボックスです
11:07
The company refused to have its algorithm
be challenged in open court.
211
667484
4205
企業はアルゴリズムが
公開の法廷で検証されるのを拒みました
11:12
But ProPublica, an investigative
nonprofit, audited that very algorithm
212
672396
5532
でもProPublicaという非営利の調査団体が
そのアルゴリズムを監査しました
11:17
with what public data they could find,
213
677952
2016
入手可能だった
公開データを用いてです
11:19
and found that its outcomes were biased
214
679992
2316
そして分かったのは
結果には偏見が影響しており
11:22
and its predictive power
was dismal, barely better than chance,
215
682332
3629
予測力はひどいものでした
偶然よりわずかにましな程度です
11:25
and it was wrongly labeling
black defendants as future criminals
216
685985
4416
黒人の被告は 白人の被告に比べて
将来犯罪を起こす確率が
11:30
at twice the rate of white defendants.
217
690425
3895
2倍高いと
誤ってラベリングされていました
11:35
So, consider this case:
218
695891
1564
ではこのケースを考えてみましょう
女性のほうは予定より遅れて
親友を迎えに行くため
11:38
This woman was late
picking up her godsister
219
698103
3852
11:41
from a school in Broward County, Florida,
220
701979
2075
フロリダ州ブロワード郡の
ある学校に向かって
11:44
running down the street
with a friend of hers.
221
704757
2356
友達と一緒に道を走っていました
ふたりはある家の玄関で 無施錠の
子ども用の自転車とキックスケーターを見つけ
11:47
They spotted an unlocked kid's bike
and a scooter on a porch
222
707137
4099
11:51
and foolishly jumped on it.
223
711260
1632
愚かにもそれに飛び乗りました
11:52
As they were speeding off,
a woman came out and said,
224
712916
2599
走り去ろうとしたところ
女性が出てきて言いました
11:55
"Hey! That's my kid's bike!"
225
715539
2205
「ちょっと!
それはうちの子の自転車よ!」
11:57
They dropped it, they walked away,
but they were arrested.
226
717768
3294
ふたりは降りて 歩き去りましたが
逮捕されました
彼女は間違っていたし愚かでした
でもまだ18歳です
12:01
She was wrong, she was foolish,
but she was also just 18.
227
721086
3637
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
彼女は2回の非行歴がありました
12:07
Meanwhile, that man had been arrested
for shoplifting in Home Depot --
229
727808
5185
一方 男性のほうは Home Depoで
万引きをして捕まりました
彼が万引きしたのは85ドル相当で
同じく軽犯罪ですが
12:13
85 dollars' worth of stuff,
a similar petty crime.
230
733017
2924
12:16
But he had two prior
armed robbery convictions.
231
736766
4559
彼は強盗で前科2犯でした
12:21
But the algorithm scored her
as high risk, and not him.
232
741955
3482
でもアルゴリズムは 男性ではなく
女性の方をハイリスクと評価しました
12:26
Two years later, ProPublica found
that she had not reoffended.
233
746746
3874
その女性が2年後に再犯していないことを
ProPiblicaは明らかにしています
12:30
It was just hard to get a job
for her with her record.
234
750644
2550
犯罪記録をもつ彼女が
職を得るのは実に困難でした
12:33
He, on the other hand, did reoffend
235
753218
2076
一方 男性の方は再犯し
12:35
and is now serving an eight-year
prison term for a later crime.
236
755318
3836
2つ目の犯罪のために
現在は8年間の収監中です
ブラックボックスに対して
監査が必要なのは明白です
12:40
Clearly, we need to audit our black boxes
237
760088
3369
12:43
and not have them have
this kind of unchecked power.
238
763481
2615
チェックしないままこの種の権力を
与えてはいけないのです
(拍手)
12:46
(Applause)
239
766120
2879
監査は偉大で重要ですが
それで全ての問題を解決できはしません
12:50
Audits are great and important,
but they don't solve all our problems.
240
770087
4242
12:54
Take Facebook's powerful
news feed algorithm --
241
774353
2748
Facebookのニュース・フィードの
強力なアルゴリズムの場合
全てをランク付けし
全ての友達やフォロー中のページのなかで
12:57
you know, the one that ranks everything
and decides what to show you
242
777125
4843
13:01
from all the friends and pages you follow.
243
781992
2284
何を見るべきか決定する仕組みですね
13:04
Should you be shown another baby picture?
244
784898
2275
赤ちゃんの写真をもう1枚見るべきか?
13:07
(Laughter)
245
787197
1196
(笑)
13:08
A sullen note from an acquaintance?
246
788417
2596
知り合いからの ご機嫌斜めのコメントは?
13:11
An important but difficult news item?
247
791449
1856
重要だけど難解なニュース記事は?
13:13
There's no right answer.
248
793329
1482
正答はありません
13:14
Facebook optimizes
for engagement on the site:
249
794835
2659
Facebookはサイト上での
やりとりに応じて最適化します
13:17
likes, shares, comments.
250
797518
1415
「いいね」やシェア コメント
といったものです
2014年8月
13:20
In August of 2014,
251
800168
2696
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
ミズーリ州ファーガソンで
抗議運動が勃発しました
13:25
after the killing of an African-American
teenager by a white police officer,
253
805574
4417
アフリカ系アメリカ人の10代が
白人の警察官に殺され
その状況が不審だったのです
13:30
under murky circumstances.
254
810015
1570
13:31
The news of the protests was all over
255
811974
2007
抗議運動のニュースは
フィルタリングされない
Twitterフィードを埋め尽くしました
13:34
my algorithmically
unfiltered Twitter feed,
256
814005
2685
13:36
but nowhere on my Facebook.
257
816714
1950
でもFacebookには何ら
表示されませんでした
13:39
Was it my Facebook friends?
258
819182
1734
Facebook上の友達との
関連でしょうか?
13:40
I disabled Facebook's algorithm,
259
820940
2032
私はFacebookのアルゴリズムを
無効にしました
13:43
which is hard because Facebook
keeps wanting to make you
260
823472
2848
Facebookはアルゴリズムの
管理下に置きたがるので
13:46
come under the algorithm's control,
261
826344
2036
難しかったですけどね
13:48
and saw that my friends
were talking about it.
262
828404
2238
すると友達が 抗議運動のことを
話しているのが分かりました
13:50
It's just that the algorithm
wasn't showing it to me.
263
830666
2509
アルゴリズムが私に
見せなかっただけなんです
13:53
I researched this and found
this was a widespread problem.
264
833199
3042
調査して分かりましたが
これは広範囲にわたる問題でした
13:56
The story of Ferguson
wasn't algorithm-friendly.
265
836265
3813
ファーガソンの話題は
アルゴリズムに馴染まなかったんです
「いいね」しにくいのです
14:00
It's not "likable."
266
840102
1171
14:01
Who's going to click on "like?"
267
841297
1552
誰が「いいね」します?
14:03
It's not even easy to comment on.
268
843500
2206
コメントをするのさえ
容易じゃありません
14:05
Without likes and comments,
269
845730
1371
「いいね」もコメントもないので
アルゴリズムは少数の人にしか
それを表示しません
14:07
the algorithm was likely showing it
to even fewer people,
270
847125
3292
14:10
so we didn't get to see this.
271
850441
1542
だから目にすることがなかったんです
14:12
Instead, that week,
272
852946
1228
そのかわり その週
14:14
Facebook's algorithm highlighted this,
273
854198
2298
Facebookのアルゴリズムが
ハイライトしたのは
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
ALSアイス・バケツ・チャレンジでした
14:18
Worthy cause; dump ice water,
donate to charity, fine.
275
858770
3742
価値のある目的で氷水をかぶり
チャリティに寄付 良いですね
14:22
But it was super algorithm-friendly.
276
862536
1904
でも極めてよく
アルゴリズムに馴染みます
14:25
The machine made this decision for us.
277
865219
2613
機械が私たちのために
これを決定したんです
14:27
A very important
but difficult conversation
278
867856
3497
非常に重要だけれど難解な会話は
14:31
might have been smothered,
279
871377
1555
Facebookが唯一の経路の場合
14:32
had Facebook been the only channel.
280
872956
2696
抑え込まれてきたのかもしれません
さて最後にこれらのシステムは
14:36
Now, finally, these systems
can also be wrong
281
876117
3797
14:39
in ways that don't resemble human systems.
282
879938
2736
人間のシステムとは似つかない誤りを
犯しうるのです
14:42
Do you guys remember Watson,
IBM's machine-intelligence system
283
882698
2922
皆さんはワトソンを覚えていますか
IBMの機械知能システムで
14:45
that wiped the floor
with human contestants on Jeopardy?
284
885644
3128
クイズ番組『ジェパディ!』で
対戦相手の人間を打ち負かしました
すごい選手だったんです
14:49
It was a great player.
285
889131
1428
14:50
But then, for Final Jeopardy,
Watson was asked this question:
286
890583
3569
しかし最終問題で
ワトソンは こんな質問をされました
14:54
"Its largest airport is named
for a World War II hero,
287
894659
2932
「その地域最大の空港の名は
第二次世界大戦の英雄に由来し
14:57
its second-largest
for a World War II battle."
288
897615
2252
2番目の空港の名の由来は
第二次世界大戦中の戦いです」
14:59
(Hums Final Jeopardy music)
289
899891
1378
(最終問題の音楽をハミング)
15:01
Chicago.
290
901582
1182
「シカゴ」
15:02
The two humans got it right.
291
902788
1370
人間ふたりは正答でした
15:04
Watson, on the other hand,
answered "Toronto" --
292
904697
4348
一方ワトソンの答えは
「トロント」
米国の都市についての
問題だったのに!
15:09
for a US city category!
293
909069
1818
15:11
The impressive system also made an error
294
911596
2901
この素晴らしいシステムも
エラーをするんです
15:14
that a human would never make,
a second-grader wouldn't make.
295
914521
3651
人間はしないようなエラーです
2年生の子どもでもしません
15:18
Our machine intelligence can fail
296
918823
3109
機械知能は失敗を犯すこともあるんです
15:21
in ways that don't fit
error patterns of humans,
297
921956
3100
人間のエラーパターンとは
異なります
予想外であり 備えもできないような方法です
15:25
in ways we won't expect
and be prepared for.
298
925080
2950
資質のある人が仕事を得られないのも
ひどい話ですが
15:28
It'd be lousy not to get a job
one is qualified for,
299
928054
3638
15:31
but it would triple suck
if it was because of stack overflow
300
931716
3727
もしそれがプログラムのサブルーチンに伴う
スタックオーバーフローが原因なら
15:35
in some subroutine.
301
935467
1432
3倍ひどい話です
15:36
(Laughter)
302
936923
1579
(笑)
15:38
In May of 2010,
303
938526
2786
2010年5月
15:41
a flash crash on Wall Street
fueled by a feedback loop
304
941336
4044
ウォールストリートの
「売り」アルゴリズムでの
15:45
in Wall Street's "sell" algorithm
305
945404
3028
フィードバックループによって
瞬間暴落が起き
15:48
wiped a trillion dollars
of value in 36 minutes.
306
948456
4184
36分間で1兆ドル相当の
損失が出ました
15:53
I don't even want to think
what "error" means
307
953722
2187
「エラー」の意味を
考えたくもないのが
15:55
in the context of lethal
autonomous weapons.
308
955933
3589
無人攻撃機の場合です
16:01
So yes, humans have always made biases.
309
961894
3790
ええ人間には 偏見がつきものです
16:05
Decision makers and gatekeepers,
310
965708
2176
意思決定者やゲートキーパー
16:07
in courts, in news, in war ...
311
967908
3493
法廷、ニュース、戦争・・・
16:11
they make mistakes;
but that's exactly my point.
312
971425
3038
そこではミスが生じますが
これこそ私の言いたいことです
16:14
We cannot escape
these difficult questions.
313
974487
3521
これらの難問から
私たちは逃れられません
16:18
We cannot outsource
our responsibilities to machines.
314
978596
3516
私たちは責任を
機械に外部委託することはできないのです
16:22
(Applause)
315
982676
4208
(拍手)
人工知能は「倫理問題からの解放」カードを
私たちにくれたりしません
16:29
Artificial intelligence does not give us
a "Get out of ethics free" card.
316
989089
4447
16:34
Data scientist Fred Benenson
calls this math-washing.
317
994742
3381
データ科学者のフレッド・ベネンソンは
これを数学による洗脳だと呼びました
私たちに必要なのは逆のものです
16:38
We need the opposite.
318
998147
1389
16:39
We need to cultivate algorithm suspicion,
scrutiny and investigation.
319
999560
5388
私たちはアルゴリズムを疑い
精査するようにならねばなりません
16:45
We need to make sure we have
algorithmic accountability,
320
1005380
3198
私たちは アルゴリズムについての
説明責任を持ち
16:48
auditing and meaningful transparency.
321
1008602
2445
監査や意味のある透明化を
求めなければなりません
16:51
We need to accept
that bringing math and computation
322
1011380
3234
私たちは厄介で価値観にかかわる
人間くさい事柄に対して
16:54
to messy, value-laden human affairs
323
1014638
2970
数学や計算機は
客観性をもたらしえないことを
16:57
does not bring objectivity;
324
1017632
2384
受け入れなければなりません
17:00
rather, the complexity of human affairs
invades the algorithms.
325
1020040
3633
むしろ人間くささのもつ複雑さが
アルゴリズムを管理するのです
確かに私たちは コンピュータを
良い決断を下す助けとして
17:04
Yes, we can and we should use computation
326
1024148
3487
17:07
to help us make better decisions.
327
1027659
2014
使いうるし そうすべきです
17:09
But we have to own up
to our moral responsibility to judgment,
328
1029697
5332
でも私たちは判断を下すことへの
自分の道徳的な責任を認め
そしてアルゴリズムを
その枠内で用いなければなりません
17:15
and use algorithms within that framework,
329
1035053
2818
17:17
not as a means to abdicate
and outsource our responsibilities
330
1037895
4935
自分の責任を放棄して
別の人間へ委ねることとは
17:22
to one another as human to human.
331
1042854
2454
異なるのです
17:25
Machine intelligence is here.
332
1045807
2609
機械知能はもう存在しています
17:28
That means we must hold on ever tighter
333
1048440
3421
つまり私たちは
人間としての価値観や倫理感を
17:31
to human values and human ethics.
334
1051885
2147
よりしっかり持たねばなりません
ありがとうございました
17:34
Thank you.
335
1054056
1154
17:35
(Applause)
336
1055234
5020
(拍手)
New videos
Original video on YouTube.com
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。