We're building a dystopia just to make people click on ads | Zeynep Tufekci
738,629 views ・ 2017-11-17
下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Yoichi Fukuoka
校正: Eriko T
00:12
So when people voice fears
of artificial intelligence,
0
12760
3536
人工知能(AI)に対する不安を
口にするとき
00:16
very often, they invoke images
of humanoid robots run amok.
1
16320
3976
人々はたいてい ヒューマノイドの暴走を
イメージしています
00:20
You know? Terminator?
2
20320
1240
『ターミネーター』みたいに
00:22
You know, that might be
something to consider,
3
22400
2336
確かに考えておくべきことかも
しれませんが
00:24
but that's a distant threat.
4
24760
1856
差し迫った脅威というわけでは
ありません
00:26
Or, we fret about digital surveillance
5
26640
3456
また デジタル技術による
監視への懸念から
00:30
with metaphors from the past.
6
30120
1776
過去のメタファーを
持ち出したりもします
00:31
"1984," George Orwell's "1984,"
7
31920
2656
ジョージ・オーウェルの『1984年』が
00:34
it's hitting the bestseller lists again.
8
34600
2280
またもやベストセラー入りしています
00:37
It's a great book,
9
37960
1416
優れた小説ですが
00:39
but it's not the correct dystopia
for the 21st century.
10
39400
3880
21世紀のディストピアを
正しく言い当ててはいません
00:44
What we need to fear most
11
44080
1416
私たちが最も
恐れるべきなのは
00:45
is not what artificial intelligence
will do to us on its own,
12
45520
4776
AIそれ自体が私たちに
何をするかではなく
00:50
but how the people in power
will use artificial intelligence
13
50320
4736
権力者が私たちをコントロールし
00:55
to control us and to manipulate us
14
55080
2816
操るために
00:57
in novel, sometimes hidden,
15
57920
3136
目新しく 予想もつかない
巧妙なやり方で
密かにAIを
使うかもしれないことです
01:01
subtle and unexpected ways.
16
61080
3016
01:04
Much of the technology
17
64120
1856
近い将来
01:06
that threatens our freedom
and our dignity in the near-term future
18
66000
4336
私たちの自由と尊厳を
脅かすテクノロジーの多くは
01:10
is being developed by companies
19
70360
1856
私たちのデータと注意を捉え
01:12
in the business of capturing
and selling our data and our attention
20
72240
4936
広告主その他の顧客に
販売している企業によって
01:17
to advertisers and others:
21
77200
2256
開発されています
01:19
Facebook, Google, Amazon,
22
79480
3416
Facebookや Googleや Amazonや
01:22
Alibaba, Tencent.
23
82920
1880
Alibabaや Tencent
01:26
Now, artificial intelligence has started
bolstering their business as well.
24
86040
5496
AIは そうした企業のビジネスを
強化し始めています
01:31
And it may seem
like artificial intelligence
25
91560
2096
ちょっと見には AIも
01:33
is just the next thing after online ads.
26
93680
2856
単にネット広告に続く技術だと
思えるかもしれません
01:36
It's not.
27
96560
1216
でも そうではありません
01:37
It's a jump in category.
28
97800
2456
カテゴリーが不連続なのです
01:40
It's a whole different world,
29
100280
2576
AIはまったく別の世界であり
01:42
and it has great potential.
30
102880
2616
大きな力を秘めています
01:45
It could accelerate our understanding
of many areas of study and research.
31
105520
6920
AIによって 様々な研究分野が
急速に発展する可能性があります
01:53
But to paraphrase
a famous Hollywood philosopher,
32
113120
3496
しかし ハリウッドの有名な
論者によると
01:56
"With prodigious potential
comes prodigious risk."
33
116640
3640
「途方もない可能性には
途方もないリスクがつきもの」です
02:01
Now let's look at a basic fact
of our digital lives, online ads.
34
121120
3936
デジタルライフの基本的な事実―
オンライン広告に目を向けましょう
02:05
Right? We kind of dismiss them.
35
125080
2896
いいですか?
まあ たいてい無視しますよね
02:08
They seem crude, ineffective.
36
128000
1976
粗雑で 効果もなさそうに見えます
02:10
We've all had the experience
of being followed on the web
37
130000
4256
ウェブで何かを検索したり
読んだりしたら
02:14
by an ad based on something
we searched or read.
38
134280
2776
それに応じて働きかけを受けた経験は
誰にでもありますよね
02:17
You know, you look up a pair of boots
39
137080
1856
たとえば ウェブでブーツを見つけたら
02:18
and for a week, those boots are following
you around everywhere you go.
40
138960
3376
それから1週間 どこへ行っても
そのブーツの広告がついて回ります
02:22
Even after you succumb and buy them,
they're still following you around.
41
142360
3656
たとえ根負けして購入したとしても
やっぱりまだ追いかけてくるのです
02:26
We're kind of inured to that kind
of basic, cheap manipulation.
42
146040
3016
こうした 初歩的で安っぽい消費者操作に
私たちは慣れっこになっています
02:29
We roll our eyes and we think,
"You know what? These things don't work."
43
149080
3400
「あのさ ぜんぜん効き目ないんだけど」
と呆れてしまいます
02:33
Except, online,
44
153720
2096
ただし オンラインでの
02:35
the digital technologies are not just ads.
45
155840
3600
デジタルテクノロジーの用途は
広告に限りません
02:40
Now, to understand that,
let's think of a physical world example.
46
160240
3120
そのことを理解するために
物理的世界の例を考えてみましょう
02:43
You know how, at the checkout counters
at supermarkets, near the cashier,
47
163840
4656
スーパーに行くとレジのそばに
02:48
there's candy and gum
at the eye level of kids?
48
168520
3480
子供の目の高さで
キャンディやガムが置いてありますよね
02:52
That's designed to make them
whine at their parents
49
172800
3496
あれは親が支払いを
しようとしているときに
02:56
just as the parents
are about to sort of check out.
50
176320
3080
子供がねだるように
仕向けるための手法です
03:00
Now, that's a persuasion architecture.
51
180040
2640
「説得アーキテクチャ」の例です
03:03
It's not nice, but it kind of works.
52
183160
3096
好ましくはないけれど
ともかく機能します
03:06
That's why you see it
in every supermarket.
53
186280
2040
だからこそ どこのスーパーでも
見られるのです
03:08
Now, in the physical world,
54
188720
1696
物理的世界において
03:10
such persuasion architectures
are kind of limited,
55
190440
2496
こうした説得アーキテクチャは
いくらか制限を受けます
03:12
because you can only put
so many things by the cashier. Right?
56
192960
4816
レジの横に置ける商品の数は
限られているからです そうですね?
03:17
And the candy and gum,
it's the same for everyone,
57
197800
4296
そして キャンディやガムは
誰にとっても同じ製品です
03:22
even though it mostly works
58
202120
1456
ただし 一番効果があるのは
03:23
only for people who have
whiny little humans beside them.
59
203600
4040
おチビさんを連れている
人に対してだけですけれど
03:29
In the physical world,
we live with those limitations.
60
209160
3920
物理的世界で私たちは
そうした制約とともに生きています
03:34
In the digital world, though,
61
214280
1936
しかし デジタル世界では
03:36
persuasion architectures
can be built at the scale of billions
62
216240
4320
説得アーキテクチャを
何十億というスケールで構築でき
03:41
and they can target, infer, understand
63
221840
3856
個人に狙いを定めて 推論し 理解し
03:45
and be deployed at individuals
64
225720
2896
投入することが可能で
03:48
one by one
65
228640
1216
1人1人の
03:49
by figuring out your weaknesses,
66
229880
2136
弱点を把握して
03:52
and they can be sent
to everyone's phone private screen,
67
232040
5616
その人のスマートフォンの画面に
送信できるため
03:57
so it's not visible to us.
68
237680
2256
仕組みが目に見えないのです
03:59
And that's different.
69
239960
1256
大きな違いです
04:01
And that's just one of the basic things
that artificial intelligence can do.
70
241240
3576
これは AIがやってのける基本的な事柄の
たった1つにすぎません
04:04
Now, let's take an example.
71
244840
1336
例を挙げましょう
04:06
Let's say you want to sell
plane tickets to Vegas. Right?
72
246200
2696
たとえば ラスベガス行きの航空券を
売りたいとしましょう
04:08
So in the old world, you could think
of some demographics to target
73
248920
3496
以前の世界なら
購入してくれそうな層を
04:12
based on experience
and what you can guess.
74
252440
2520
経験や想像に基づいて
設定するでしょう
04:15
You might try to advertise to, oh,
75
255560
2816
広告を打つなら
04:18
men between the ages of 25 and 35,
76
258400
2496
25歳から35歳までの男性か
04:20
or people who have
a high limit on their credit card,
77
260920
3936
クレジットカードの
限度額が大きい人々や
04:24
or retired couples. Right?
78
264880
1376
リタイアしたカップル向けに
するかもしれません
04:26
That's what you would do in the past.
79
266280
1816
これまでならそうしたでしょう
04:28
With big data and machine learning,
80
268120
2896
ビッグデータと機械学習の出現で
04:31
that's not how it works anymore.
81
271040
1524
もうそれは通用しません
04:33
So to imagine that,
82
273320
2176
事態を想像するために
04:35
think of all the data
that Facebook has on you:
83
275520
3856
Facebookが持っている
あなたの全データを思い浮かべてください
04:39
every status update you ever typed,
84
279400
2536
これまでにあなたが入力した
すべての近況アップデート
04:41
every Messenger conversation,
85
281960
2016
Messengerのすべての会話
04:44
every place you logged in from,
86
284000
1880
どこからログインしたかという記録
04:48
all your photographs
that you uploaded there.
87
288400
3176
アップロードしたすべての写真
04:51
If you start typing something
and change your mind and delete it,
88
291600
3776
何か打ち込み始めてから
気が変わって削除しても
04:55
Facebook keeps those
and analyzes them, too.
89
295400
3200
Facebookはそれも記録し
分析します
04:59
Increasingly, it tries
to match you with your offline data.
90
299160
3936
オフラインデータとの突き合わせも
どんどん進めています
05:03
It also purchases
a lot of data from data brokers.
91
303120
3176
また データブローカーから
大量のデータを購入しています
05:06
It could be everything
from your financial records
92
306320
3416
財務記録から
ブラウザの膨大な閲覧履歴まで
05:09
to a good chunk of your browsing history.
93
309760
2120
あらゆるものが含まれます
05:12
Right? In the US,
such data is routinely collected,
94
312360
5416
アメリカではこうしたデータが
日常的に収集され
05:17
collated and sold.
95
317800
1960
照合され 販売されています
05:20
In Europe, they have tougher rules.
96
320320
2440
ヨーロッパでは
もっと厳しいルールがあります
05:23
So what happens then is,
97
323680
2200
それで何が起こるかというと
05:26
by churning through all that data,
these machine-learning algorithms --
98
326920
4016
「学習アルゴリズム」と呼ばれる
機械学習のアルゴリズムは
05:30
that's why they're called
learning algorithms --
99
330960
2896
あらゆるデータを
組み合わせることで
05:33
they learn to understand
the characteristics of people
100
333880
4096
これまでにラスベガス行きの
航空券を買った人々の特徴を
05:38
who purchased tickets to Vegas before.
101
338000
2520
把握するようになります
05:41
When they learn this from existing data,
102
341760
3536
既存データからの学習が進むと
05:45
they also learn
how to apply this to new people.
103
345320
3816
それを別の人々に
適用する方法も学びます
05:49
So if they're presented with a new person,
104
349160
3056
つまり 他のユーザーがいたら
05:52
they can classify whether that person
is likely to buy a ticket to Vegas or not.
105
352240
4640
その人物がラスベガス行き航空券を
購入しそうかどうか分類できるのです
05:57
Fine. You're thinking,
an offer to buy tickets to Vegas.
106
357720
5456
あなたはラスベガス行き航空券の
広告を見て考えます
06:03
I can ignore that.
107
363200
1456
「無視してもいいな」
06:04
But the problem isn't that.
108
364680
2216
しかし 問題はそこではありません
06:06
The problem is,
109
366920
1576
問題なのは
06:08
we no longer really understand
how these complex algorithms work.
110
368520
4136
これら複雑なアルゴリズムがどう働いているか
もうよく分からなくなってしまっている事です
06:12
We don't understand
how they're doing this categorization.
111
372680
3456
どうやって分類しているのか
私たちには分かりません
06:16
It's giant matrices,
thousands of rows and columns,
112
376160
4416
何千 いや何百万もの
行と列で構成された
06:20
maybe millions of rows and columns,
113
380600
1960
巨大なマトリクスがあって
06:23
and not the programmers
114
383320
2640
プログラマーや 他の誰かが
06:26
and not anybody who looks at it,
115
386760
1680
そのマトリクスを見ても
06:29
even if you have all the data,
116
389440
1496
たとえ全データを持っていようと
06:30
understands anymore
how exactly it's operating
117
390960
4616
どう機能しているかを
正確に理解することはできません
06:35
any more than you'd know
what I was thinking right now
118
395600
3776
私の脳の断面を見ても
06:39
if you were shown
a cross section of my brain.
119
399400
3960
私が何を考えているかは
分からないのと同じです
06:44
It's like we're not programming anymore,
120
404360
2576
もうプログラミングをしている
という次元ではなく
06:46
we're growing intelligence
that we don't truly understand.
121
406960
4400
人智を超えた知能を
育てているかのようです
06:52
And these things only work
if there's an enormous amount of data,
122
412520
3976
こういう仕組みが機能するには
膨大なデータが必要なため
06:56
so they also encourage
deep surveillance on all of us
123
416520
5096
私たち全員を深層まで監視して
07:01
so that the machine learning
algorithms can work.
124
421640
2336
機械学習アルゴリズムを機能させよう
という力も働きます
07:04
That's why Facebook wants
to collect all the data it can about you.
125
424000
3176
だから Facebookはあなたについて
出来る限りのデータを集めようとします
07:07
The algorithms work better.
126
427200
1576
アルゴリズムが上手く機能するように
07:08
So let's push that Vegas example a bit.
127
428800
2696
ラスベガスの例を
もう少し掘り下げましょう
07:11
What if the system
that we do not understand
128
431520
3680
もし私たちの理解できない
システムの判断で
07:16
was picking up that it's easier
to sell Vegas tickets
129
436200
5136
ラスベガス行き航空券を
売りつけやすい相手は
07:21
to people who are bipolar
and about to enter the manic phase.
130
441360
3760
双極性障害で躁状態になりかけの人だ
ということになったらどうでしょう
07:25
Such people tend to become
overspenders, compulsive gamblers.
131
445640
4920
浪費したり ギャンブルにのめり込んだり
しやすい人たちです
07:31
They could do this, and you'd have no clue
that's what they were picking up on.
132
451280
4456
そんな基準で選び出されたとしても
その事実を知る手がかりがありません
07:35
I gave this example
to a bunch of computer scientists once
133
455760
3616
あるとき この例について
コンピュータ科学者たちに尋ねてみたところ
07:39
and afterwards, one of them came up to me.
134
459400
2056
そのうちの1人が後で
私のところへ来ました
07:41
He was troubled and he said,
"That's why I couldn't publish it."
135
461480
3520
苦しげな様子で こう言いました
「だから論文を発表できなかったんです」
07:45
I was like, "Couldn't publish what?"
136
465600
1715
「何をですか?」
07:47
He had tried to see whether you can indeed
figure out the onset of mania
137
467800
5856
彼が調べようとしていたのは
躁状態になりかけているかどうかを
07:53
from social media posts
before clinical symptoms,
138
473680
3216
症状が現れる前にSNSの投稿で
判断できるかということで
07:56
and it had worked,
139
476920
1776
実際 うまくいきました
07:58
and it had worked very well,
140
478720
2056
非常にうまく
判別できたのですが
08:00
and he had no idea how it worked
or what it was picking up on.
141
480800
4880
なぜうまくいくのか 何を拾い出しているのか
分かりませんでした
08:06
Now, the problem isn't solved
if he doesn't publish it,
142
486840
4416
でも 論文が発表されなくても
問題は解決していません
08:11
because there are already companies
143
491280
1896
既にいくつもの企業が
08:13
that are developing
this kind of technology,
144
493200
2536
この種のテクノロジーを開発していて
08:15
and a lot of the stuff
is just off the shelf.
145
495760
2800
簡単に入手できるものが
たくさんあるからです
08:19
This is not very difficult anymore.
146
499240
2576
もう それほど
難しいことではないのです
08:21
Do you ever go on YouTube
meaning to watch one video
147
501840
3456
動画を1本見ようと思って
YouTubeのサイトへ行き
08:25
and an hour later you've watched 27?
148
505320
2360
1時間経つと27本も
見ていたという経験は?
08:28
You know how YouTube
has this column on the right
149
508760
2496
YouTubeのページでは
右側の欄に
08:31
that says, "Up next"
150
511280
2216
「次の動画」とあって
08:33
and it autoplays something?
151
513520
1816
自動再生するのをご存じですね?
08:35
It's an algorithm
152
515360
1216
アルゴリズムが選び出すのは
08:36
picking what it thinks
that you might be interested in
153
516600
3616
あなたが興味を持ちそうだけれど
08:40
and maybe not find on your own.
154
520240
1536
自分では見つけられない可能性があると
判断された動画です
08:41
It's not a human editor.
155
521800
1256
人が判断しているのではなく
08:43
It's what algorithms do.
156
523080
1416
アルゴリズムが決めているのです
08:44
It picks up on what you have watched
and what people like you have watched,
157
524520
4736
あなたがこれまでに見たものや
あなたに似た人が見たものを選び出し
08:49
and infers that that must be
what you're interested in,
158
529280
4216
あなたが何に興味を持っていて
08:53
what you want more of,
159
533520
1255
何をもっと見たがるか推論し
08:54
and just shows you more.
160
534799
1336
さらに見せようとするのです
08:56
It sounds like a benign
and useful feature,
161
536159
2201
無害で役に立つ機能のように
聞こえますが
08:59
except when it isn't.
162
539280
1200
常にそうとは限りません
09:01
So in 2016, I attended rallies
of then-candidate Donald Trump
163
541640
6960
2016年に私は 当時大統領候補だった
ドナルド・トランプの集会に行って
09:09
to study as a scholar
the movement supporting him.
164
549840
3336
彼の支持者たちの運動を
研究しました
09:13
I study social movements,
so I was studying it, too.
165
553200
3456
社会運動研究の中で
トランプ支持についても調べたのです
09:16
And then I wanted to write something
about one of his rallies,
166
556680
3336
トランプ支持者の集会について
何か書こうと思って
09:20
so I watched it a few times on YouTube.
167
560040
1960
その様子をYouTubeで何度か見ました
09:23
YouTube started recommending to me
168
563240
3096
YouTubeは白人至上主義者の
動画を私に推奨し
09:26
and autoplaying to me
white supremacist videos
169
566360
4256
自動再生するようになり
09:30
in increasing order of extremism.
170
570640
2656
どんどん過激なものを
出してくるようになりました
09:33
If I watched one,
171
573320
1816
私が1本 視聴すれば
09:35
it served up one even more extreme
172
575160
2976
さらに過激な1本を提示し
09:38
and autoplayed that one, too.
173
578160
1424
それも自動再生しました
09:40
If you watch Hillary Clinton
or Bernie Sanders content,
174
580320
4536
ヒラリー・クリントンや
バーニー・サンダースの動画を見れば
09:44
YouTube recommends
and autoplays conspiracy left,
175
584880
4696
YouTubeは左翼の陰謀に関する
動画を推奨して自動再生し
09:49
and it goes downhill from there.
176
589600
1760
さらにどんどん
ひどくなっていきます
09:52
Well, you might be thinking,
this is politics, but it's not.
177
592480
3056
それが政治だと思うかもしれませんが
間違いです
09:55
This isn't about politics.
178
595560
1256
政治などではありません
09:56
This is just the algorithm
figuring out human behavior.
179
596840
3096
人間の行動を読んでいる
アルゴリズムにすぎないのです
09:59
I once watched a video
about vegetarianism on YouTube
180
599960
4776
あるとき YouTubeで
ベジタリアンについての動画を見たら
10:04
and YouTube recommended
and autoplayed a video about being vegan.
181
604760
4936
YouTubeはヴィーガン暮らしの動画を
推奨し 自動再生しました
10:09
It's like you're never
hardcore enough for YouTube.
182
609720
3016
まるでこちらの覚悟が
足りないとでもいうように
10:12
(Laughter)
183
612760
1576
(笑)
10:14
So what's going on?
184
614360
1560
何が起きているのでしょう?
10:16
Now, YouTube's algorithm is proprietary,
185
616520
3536
YouTubeのアルゴリズムは
公開されていませんが
10:20
but here's what I think is going on.
186
620080
2360
私はこう考えています
10:23
The algorithm has figured out
187
623360
2096
アルゴリズムが
10:25
that if you can entice people
188
625480
3696
人々を誘導して
10:29
into thinking that you can
show them something more hardcore,
189
629200
3736
より過激な画像を見られると
誘惑できれば
10:32
they're more likely to stay on the site
190
632960
2416
そのサイトから離れにくくなって
10:35
watching video after video
going down that rabbit hole
191
635400
4416
次から次へと動画を見続け
10:39
while Google serves them ads.
192
639840
1680
Googleが表示する広告を
見ながらのめり込むという訳です
10:43
Now, with nobody minding
the ethics of the store,
193
643760
3120
販売者が倫理的かどうか
今は誰も気にしていないので
10:47
these sites can profile people
194
647720
4240
こうしたサイトが人々を
プロファイリングして
10:53
who are Jew haters,
195
653680
1920
ユダヤ人嫌いの人
10:56
who think that Jews are parasites
196
656360
2480
ユダヤ人は社会に
寄生していると思っている人
11:00
and who have such explicit
anti-Semitic content,
197
660320
4920
あからさまに反ユダヤ主義的な内容を
掲げている人だと分類し
11:06
and let you target them with ads.
198
666080
2000
広告のターゲットにもできるわけです
11:09
They can also mobilize algorithms
199
669200
3536
アルゴリズムはそれだけでなく
11:12
to find for you look-alike audiences,
200
672760
3136
自分と似たような人を
探し出すのにも利用でき
11:15
people who do not have such explicit
anti-Semitic content on their profile
201
675920
5576
明確に反ユダヤ主義的なことを
プロフィールに書いていなくても
11:21
but who the algorithm detects
may be susceptible to such messages,
202
681520
6176
そんなメッセージに影響されやすい人を
アルゴリズムで検知して
11:27
and lets you target them with ads, too.
203
687720
1920
広告のターゲットにすることも可能です
11:30
Now, this may sound
like an implausible example,
204
690680
2736
ありえない話のように
聞こえるかもしれませんが
11:33
but this is real.
205
693440
1320
これは現実です
11:35
ProPublica investigated this
206
695480
2136
ProPublicaが調査したところ
11:37
and found that you can indeed
do this on Facebook,
207
697640
3616
実際にFacebook上でも
この機能が利用でき
11:41
and Facebook helpfully
offered up suggestions
208
701280
2416
訪問者を増やすための方法を
11:43
on how to broaden that audience.
209
703720
1600
Facebookが助言までしてくれます
11:46
BuzzFeed tried it for Google,
and very quickly they found,
210
706720
3016
BuzzFeedがGoogleで試すと
すぐに分かりました
11:49
yep, you can do it on Google, too.
211
709760
1736
そう Googleでも
同じことができるのです
11:51
And it wasn't even expensive.
212
711520
1696
しかも 費用は
たいしてかかりません
11:53
The ProPublica reporter
spent about 30 dollars
213
713240
4416
ProPublicaの記者は
30ドルほど払って
11:57
to target this category.
214
717680
2240
ターゲットを絞りました
12:02
So last year, Donald Trump's
social media manager disclosed
215
722600
5296
去年 ドナルド・トランプの
SNS担当者が明らかにしたのは
12:07
that they were using Facebook dark posts
to demobilize people,
216
727920
5336
Facebookの「ダークポスト」の使い方が
動員の逆を狙ったもので
12:13
not to persuade them,
217
733280
1376
投票勧誘ではなく
12:14
but to convince them not to vote at all.
218
734680
2800
まったく投票しない意思を
固めさせるためだったということです
12:18
And to do that,
they targeted specifically,
219
738520
3576
そのためにターゲットにしたのは
例えば
12:22
for example, African-American men
in key cities like Philadelphia,
220
742120
3896
フィラデルフィアなど 要となる都市の
アフリカ系の男性でした
12:26
and I'm going to read
exactly what he said.
221
746040
2456
担当者の言葉を
そのまま読み上げます
12:28
I'm quoting.
222
748520
1216
ここからは引用です
12:29
They were using "nonpublic posts
223
749760
3016
陣営が使ったのは 「視聴者を限定できる
12:32
whose viewership the campaign controls
224
752800
2176
公開範囲の指定で
12:35
so that only the people
we want to see it see it.
225
755000
3776
我々が見て欲しい人だけが
それを見るようにした
12:38
We modeled this.
226
758800
1216
投稿のねらいはこうだ
12:40
It will dramatically affect her ability
to turn these people out."
227
760040
4720
支持者を投票に出かけさせる[ヒラリーの]
力に劇的な影響を及ぼすこと」
12:45
What's in those dark posts?
228
765720
2280
ダークポストには
何が書かれていたのか?
12:48
We have no idea.
229
768480
1656
分かりません
12:50
Facebook won't tell us.
230
770160
1200
Facebookは答えません
12:52
So Facebook also algorithmically
arranges the posts
231
772480
4376
Facebookはアルゴリズムによる
投稿の並べ換えを
友達の投稿や あなたがフォローしている
ページでも行っています
12:56
that your friends put on Facebook,
or the pages you follow.
232
776880
3736
13:00
It doesn't show you
everything chronologically.
233
780640
2216
全てを時系列で
表示しているのではなく
13:02
It puts the order in the way
that the algorithm thinks will entice you
234
782880
4816
あなたが興味を持って
サイトに長く留まってくれるだろうと
アルゴリズムが判断した
順序で表示しているのです
13:07
to stay on the site longer.
235
787720
1840
13:11
Now, so this has a lot of consequences.
236
791040
3376
このことが様々な影響を
生んでいます
13:14
You may be thinking
somebody is snubbing you on Facebook.
237
794440
3800
誰かがFacebook上で
あなたを無視していると思ったことは?
13:18
The algorithm may never
be showing your post to them.
238
798800
3256
アルゴリズムがあなたの投稿を
彼らに表示していないのかも
13:22
The algorithm is prioritizing
some of them and burying the others.
239
802080
5960
アルゴリズムは一部の投稿を優先し
他は埋もれさせてしまいます
13:29
Experiments show
240
809320
1296
実験で明らかになったのですが
13:30
that what the algorithm picks to show you
can affect your emotions.
241
810640
4520
アルゴリズムが選んで提示するものに
人の感情は影響を受けます
13:36
But that's not all.
242
816600
1200
でも それだけでなく
13:38
It also affects political behavior.
243
818280
2360
政治的な行動にも影響が及びます
13:41
So in 2010, in the midterm elections,
244
821360
4656
2010年の中間選挙で
13:46
Facebook did an experiment
on 61 million people in the US
245
826040
5896
Facebookは6100万人の
アメリカ人を対象に実験を行い
13:51
that was disclosed after the fact.
246
831960
1896
後日そのことを公表しました
13:53
So some people were shown,
"Today is election day,"
247
833880
3416
一部の人に「今日は投票日です」と
13:57
the simpler one,
248
837320
1376
シンプルなメッセージを示し
13:58
and some people were shown
the one with that tiny tweak
249
838720
3896
他の人には少しだけ
手を加えて
14:02
with those little thumbnails
250
842640
2096
「投票しました」をクリックした友達の
14:04
of your friends who clicked on "I voted."
251
844760
2840
サムネイル画像も表示したのです
14:09
This simple tweak.
252
849000
1400
単純な細工です
14:11
OK? So the pictures were the only change,
253
851520
4296
いいですか? 違いは写真だけで
14:15
and that post shown just once
254
855840
3256
たった一度だけの投稿でしたが
14:19
turned out an additional 340,000 voters
255
859120
6056
研究によると この選挙では
14:25
in that election,
256
865200
1696
投票した人が
14:26
according to this research
257
866920
1696
34万人増えたことが
14:28
as confirmed by the voter rolls.
258
868640
2520
投票人名簿で確認されました
14:32
A fluke? No.
259
872920
1656
偶然? いいえ
14:34
Because in 2012,
they repeated the same experiment.
260
874600
5360
なぜなら2012年にも同じ実験を
しているからです
14:40
And that time,
261
880840
1736
このときは
14:42
that civic message shown just once
262
882600
3296
公共メッセージを1回出しただけで
14:45
turned out an additional 270,000 voters.
263
885920
4440
投票者は27万人増えました
14:51
For reference, the 2016
US presidential election
264
891160
5216
参考までに 2016年の
大統領選挙では
14:56
was decided by about 100,000 votes.
265
896400
3520
約10万票の差で結果が
決まっています
15:01
Now, Facebook can also
very easily infer what your politics are,
266
901360
4736
また あなたが
政治的な内容を書いていなくても
15:06
even if you've never
disclosed them on the site.
267
906120
2256
Facebookはあなたの政治的信条を
たやすく推論できます
15:08
Right? These algorithms
can do that quite easily.
268
908400
2520
アルゴリズムを使って
ごく簡単にできるのです
15:11
What if a platform with that kind of power
269
911960
3896
そんな力を持つ
プラットフォームが
15:15
decides to turn out supporters
of one candidate over the other?
270
915880
5040
ある候補を別の候補よりも
支持すると決めたらどうでしょう?
15:21
How would we even know about it?
271
921680
2440
私たちにそれを知る術が
あるでしょうか?
15:25
Now, we started from someplace
seemingly innocuous --
272
925560
4136
さて ここでは 一見すると
無害そうなこと―
15:29
online adds following us around --
273
929720
2216
私たちを追いかけてくる
オンライン広告からスタートして
15:31
and we've landed someplace else.
274
931960
1840
別の場所に行き着いたわけです
15:35
As a public and as citizens,
275
935480
2456
国民として 市民として
15:37
we no longer know
if we're seeing the same information
276
937960
3416
私たちはもう
同じ情報を見ているのかどうか
15:41
or what anybody else is seeing,
277
941400
1480
他の人が何を見ているのか
分かりません
15:43
and without a common basis of information,
278
943680
2576
情報に共通の基盤がないため
15:46
little by little,
279
946280
1616
少しずつ
15:47
public debate is becoming impossible,
280
947920
3216
国民全体での議論が
不可能になりつつあります
15:51
and we're just at
the beginning stages of this.
281
951160
2976
これでもまだ
始まったばかりの段階です
15:54
These algorithms can quite easily infer
282
954160
3456
こうしたアルゴリズムは
かなり容易に
15:57
things like your people's ethnicity,
283
957640
3256
あなたの人種や 宗教や 政治的見解や
16:00
religious and political views,
personality traits,
284
960920
2336
人格特性や 知性や 幸福度や
16:03
intelligence, happiness,
use of addictive substances,
285
963280
3376
薬物の使用や 両親の離婚や
16:06
parental separation, age and genders,
286
966680
3136
年齢や 性別など 個人的なことを
16:09
just from Facebook likes.
287
969840
1960
Facebookなどから推察できます
16:13
These algorithms can identify protesters
288
973440
4056
こうしたアルゴリズムを使えば
顔の一部が隠れていても
16:17
even if their faces
are partially concealed.
289
977520
2760
抗議活動をしている人が誰かを
特定できます
16:21
These algorithms may be able
to detect people's sexual orientation
290
981720
6616
デートの相手を探すための
プロフィール画像だけからでも
16:28
just from their dating profile pictures.
291
988360
3200
性的指向を探り当てられる
かもしれません
16:33
Now, these are probabilistic guesses,
292
993560
2616
こうした判断は確率に基づく推定なので
16:36
so they're not going
to be 100 percent right,
293
996200
2896
100%正しいわけではありません
16:39
but I don't see the powerful resisting
the temptation to use these technologies
294
999120
4896
しかし 判断の誤りが
いくらか交じるというだけで
16:44
just because there are
some false positives,
295
1004040
2176
権力者がこうしたテクノロジーの使用を
思いとどまるとは考えにくく
16:46
which will of course create
a whole other layer of problems.
296
1006240
3256
当然ながら 派生的な問題が
山のように生じるでしょう
16:49
Imagine what a state can do
297
1009520
2936
国家が市民に関する膨大なデータを
手に入れたら
16:52
with the immense amount of data
it has on its citizens.
298
1012480
3560
どんなことができるか
想像してみてください
16:56
China is already using
face detection technology
299
1016680
4776
中国は既に顔認識技術を使って
17:01
to identify and arrest people.
300
1021480
2880
人物を特定し
逮捕しています
17:05
And here's the tragedy:
301
1025280
2136
何が悲劇的かというと
17:07
we're building this infrastructure
of surveillance authoritarianism
302
1027440
5536
私たちが監視による独裁を可能にする
インフラを整備しているのは
17:13
merely to get people to click on ads.
303
1033000
2960
ただ 広告をクリックしてもらうためだ
という点です
17:17
And this won't be
Orwell's authoritarianism.
304
1037240
2576
オーウェルの描いた独裁の
ようにはなりません
17:19
This isn't "1984."
305
1039839
1897
『1984年』とは違います
17:21
Now, if authoritarianism
is using overt fear to terrorize us,
306
1041760
4576
恐怖で公然と人々を
支配するのであれば
17:26
we'll all be scared, but we'll know it,
307
1046359
2897
誰もが恐れを抱くにしても
何が起きているかは分かるので
17:29
we'll hate it and we'll resist it.
308
1049280
2200
私たちはそれを嫌悪し
抵抗するでしょう
17:32
But if the people in power
are using these algorithms
309
1052880
4416
しかし 権力者が
こうしたアルゴリズムを使って
17:37
to quietly watch us,
310
1057319
3377
密かに私たちを監視し
17:40
to judge us and to nudge us,
311
1060720
2080
判別し 突つきまわし
17:43
to predict and identify
the troublemakers and the rebels,
312
1063720
4176
トラブルを起こしそうな
反抗的な者を洗い出してマークし
17:47
to deploy persuasion
architectures at scale
313
1067920
3896
説得アーキテクチャを
大々的に利用し
17:51
and to manipulate individuals one by one
314
1071840
4136
個人の弱みや脆弱な面を突いて
17:56
using their personal, individual
weaknesses and vulnerabilities,
315
1076000
5440
1人ずつ操作しようとするなら―
18:02
and if they're doing it at scale
316
1082720
2200
市民の仲間や隣人が
何を目にしているか
18:06
through our private screens
317
1086080
1736
私たちが互いに分からないように
18:07
so that we don't even know
318
1087840
1656
個人の画面を通して
18:09
what our fellow citizens
and neighbors are seeing,
319
1089520
2760
大きなスケールで実行するなら
18:13
that authoritarianism
will envelop us like a spider's web
320
1093560
4816
この独裁体制が私たちを
クモの巣のように包み込んでも
18:18
and we may not even know we're in it.
321
1098400
2480
自分がその中にいるとは
夢にも思わないかもしれません
18:22
So Facebook's market capitalization
322
1102440
2936
Facebookの時価総額は
18:25
is approaching half a trillion dollars.
323
1105400
3296
5000億ドルに近づいています
18:28
It's because it works great
as a persuasion architecture.
324
1108720
3120
説得アーキテクチャが
絶大な効果を発揮しているからです
18:33
But the structure of that architecture
325
1113760
2816
しかし アーキテクチャの構造は
18:36
is the same whether you're selling shoes
326
1116600
3216
その広告が靴を売っていようと
18:39
or whether you're selling politics.
327
1119840
2496
政治信条を売っていようと同じです
18:42
The algorithms do not know the difference.
328
1122360
3120
アルゴリズムに
その違いは分かりません
18:46
The same algorithms set loose upon us
329
1126240
3296
広告にもっと影響されやすくなるよう
18:49
to make us more pliable for ads
330
1129560
3176
私たちに投げかけられるのと
同じアルゴリズムが
18:52
are also organizing our political,
personal and social information flows,
331
1132760
6736
政治的 個人的 社会的な
情報の流れも組織している―
18:59
and that's what's got to change.
332
1139520
1840
そこを変えなければなりません
19:02
Now, don't get me wrong,
333
1142240
2296
ただし 誤解しないでください
19:04
we use digital platforms
because they provide us with great value.
334
1144560
3680
私たちがデジタル技術を使うのは
大きな価値を提供してくれるからです
19:09
I use Facebook to keep in touch
with friends and family around the world.
335
1149120
3560
私は世界中にいる友人や家族と
繋がるためにFacebookを使っています
19:14
I've written about how crucial
social media is for social movements.
336
1154000
5776
また SNSが社会運動にとって
どれほど重要かを文章にしてきました
19:19
I have studied how
these technologies can be used
337
1159800
3016
こうしたテクノロジーを使って
世界中で検閲を回避する方法も
19:22
to circumvent censorship around the world.
338
1162840
2480
研究してきました
19:27
But it's not that the people who run,
you know, Facebook or Google
339
1167280
6416
でも FacebookやGoogleの
経営者たちが
19:33
are maliciously and deliberately trying
340
1173720
2696
悪意をもって意図的に
19:36
to make the country
or the world more polarized
341
1176440
4456
この国や世界の分極化を進め
19:40
and encourage extremism.
342
1180920
1680
過激化を後押ししている
わけではありません
19:43
I read the many
well-intentioned statements
343
1183440
3976
良心的に行動するという彼らの声明を
19:47
that these people put out.
344
1187440
3320
これまでにいくつも読みました
19:51
But it's not the intent or the statements
people in technology make that matter,
345
1191600
6056
しかし 技術力を持つ人々の
意図や声明ではなく
19:57
it's the structures
and business models they're building.
346
1197680
3560
彼らが構築している構造や
ビジネスモデルが問題なのです
20:02
And that's the core of the problem.
347
1202360
2096
それが問題の核心です
20:04
Either Facebook is a giant con
of half a trillion dollars
348
1204480
4720
もしかして Facebookは
5000億ドルの巨大な詐欺であり
20:10
and ads don't work on the site,
349
1210200
1896
サイト上の広告は効果がなく
20:12
it doesn't work
as a persuasion architecture,
350
1212120
2696
説得アーキテクチャとして
無力なのか―
20:14
or its power of influence
is of great concern.
351
1214840
4120
そうでないとしたら その影響力は
重大な懸念を招きます
20:20
It's either one or the other.
352
1220560
1776
真実はそのどちらかです
20:22
It's similar for Google, too.
353
1222360
1600
Googleについても同様です
20:24
So what can we do?
354
1224880
2456
では 私たちは何ができるのか?
20:27
This needs to change.
355
1227360
1936
現状を変える必要があります
20:29
Now, I can't offer a simple recipe,
356
1229320
2576
私には 単純な処方箋を
提示できません
20:31
because we need to restructure
357
1231920
2256
今のデジタルテクノロジーのあり方を
20:34
the whole way our
digital technology operates.
358
1234200
3016
根底から構築し直す
必要があるからです
20:37
Everything from the way
technology is developed
359
1237240
4096
技術開発の方法から
20:41
to the way the incentives,
economic and otherwise,
360
1241360
3856
経済面その他の
インセンティブまで
20:45
are built into the system.
361
1245240
2280
すべてがシステムに
組み込まれています
20:48
We have to face and try to deal with
362
1248480
3456
私たちが直視し
対処しなければならないのは
20:51
the lack of transparency
created by the proprietary algorithms,
363
1251960
4656
独自非公開アルゴリズムが
もたらす透明性の欠如や
20:56
the structural challenge
of machine learning's opacity,
364
1256640
3816
機械学習の不透明さという
構造的な課題や
21:00
all this indiscriminate data
that's being collected about us.
365
1260480
3400
個人についての情報が
見境なく収集されていることです
21:05
We have a big task in front of us.
366
1265000
2520
私たちは大きな難題に
直面しています
21:08
We have to mobilize our technology,
367
1268160
2680
テクノロジーや
21:11
our creativity
368
1271760
1576
創造性や
21:13
and yes, our politics
369
1273360
1880
そう 政治力も結集して
21:16
so that we can build
artificial intelligence
370
1276240
2656
私たちが作り上げたいのは
21:18
that supports us in our human goals
371
1278920
3120
私たちの人間的な目標の追求を
支えてくれるとともに
21:22
but that is also constrained
by our human values.
372
1282800
3920
人間的な価値によって
制約も受けるようなAIです
21:27
And I understand this won't be easy.
373
1287600
2160
容易でないことは
分かっています
21:30
We might not even easily agree
on what those terms mean.
374
1290360
3600
その言葉の定義についてさえ
簡単には合意できないかも
21:34
But if we take seriously
375
1294920
2400
それでも 私たちがこれほど深く
依存しているシステムが
21:38
how these systems that we
depend on for so much operate,
376
1298240
5976
どのように働いているかを
真剣に考えるなら
21:44
I don't see how we can postpone
this conversation anymore.
377
1304240
4120
この議論をこれ以上
先延ばしにできるとは思えません
21:49
These structures
378
1309200
2536
こうした構造が
21:51
are organizing how we function
379
1311760
4096
私たちの行動を組織し
21:55
and they're controlling
380
1315880
2296
私たちに何ができ
何ができないかを
21:58
what we can and we cannot do.
381
1318200
2616
コントロールしています
22:00
And many of these ad-financed platforms,
382
1320840
2456
広告収入で維持される
こうしたプラットフォームの多くは
22:03
they boast that they're free.
383
1323320
1576
無料で利用できることを
強調しています
22:04
In this context, it means
that we are the product that's being sold.
384
1324920
4560
つまり 販売されているのは
私たち自身だということです
22:10
We need a digital economy
385
1330840
2736
私たちにとって必要な
デジタル経済は
22:13
where our data and our attention
386
1333600
3496
最も高い値段をつけた
独裁者や扇動的な政治家に
22:17
is not for sale to the highest-bidding
authoritarian or demagogue.
387
1337120
5080
私たちのデータや注目が
売り渡されないシステムです
22:23
(Applause)
388
1343160
3800
(拍手)
22:30
So to go back to
that Hollywood paraphrase,
389
1350480
3256
先ほど紹介した
ハリウッドの言葉に話を戻すなら
22:33
we do want the prodigious potential
390
1353760
3736
AIの途方もない可能性と
デジタルテクノロジーが
22:37
of artificial intelligence
and digital technology to blossom,
391
1357520
3200
開花することを
切に望みながらも
22:41
but for that, we must face
this prodigious menace,
392
1361400
4936
私たちは 途方もない脅威から
目をそらさず
22:46
open-eyed and now.
393
1366360
1936
正に今 直視しなければなりません
22:48
Thank you.
394
1368320
1216
ありがとうございました
22:49
(Applause)
395
1369560
4640
(拍手)
New videos
Original video on YouTube.com
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。