How we can protect truth in the age of misinformation | Sinan Aral

235,868 views ・ 2020-01-16

TED


下の英語字幕をダブルクリックすると動画を再生できます。

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
翻訳: Kyohei Uto 校正: Eriko Tsukamoto
00:13
So, on April 23 of 2013,
1
13468
5222
2013年 4月23日
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
AP通信は次のようなツイートを 投稿しました
00:24
It said, "Breaking news:
3
24252
2397
「速報
00:26
Two explosions at the White House
4
26673
2571
ホワイトハウスで2度の爆発
00:29
and Barack Obama has been injured."
5
29268
2333
バラク・オバマ大統領が負傷」
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
このツイートは5分足らずで 4000回以上リツイートされ
00:37
and it went viral thereafter.
7
37661
2217
その後 バズりました
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
しかし これはAP通信によって出された 本物のニュースではなく
00:45
In fact it was false news, or fake news,
9
45134
3333
虚偽のニュース フェイクニュースだったのです
00:48
that was propagated by Syrian hackers
10
48491
2825
これはAP通信のツイッターを乗っ取った
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
シリアのハッカーたちによって 流布されたものでした
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
社会を混乱させるのが彼らの目的でしたが 混乱は予想を超えました
01:00
Because automated trading algorithms
13
60320
2476
自動化された市場取引のアルゴリズムが
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
このツイートによる市場心理の変化を 瞬時に察知し
01:06
and began trading based on the potential
15
66204
2968
アメリカ大統領がこの爆発で負傷―
01:09
that the president of the United States had been injured or killed
16
69196
3381
もしくは殺されたという見込みで
01:12
in this explosion.
17
72601
1200
取引を始めたからです
01:14
And as they started tweeting,
18
74188
1992
ツイートが投稿されると
01:16
they immediately sent the stock market crashing,
19
76204
3349
株式市場はすぐに大混乱に陥りました
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
たった1日で 1400億ドルに相当する 株式価値が消し飛びました
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
アメリカ合衆国特別検察官 ロバート・モラーは
01:29
issued indictments against three Russian companies
22
89562
3892
ロシアの会社3社と13人のロシア人を
01:33
and 13 Russian individuals
23
93478
2619
2016年のアメリカ大統領選に干渉して
01:36
on a conspiracy to defraud the United States
24
96121
3167
アメリカに対し詐欺を働こうとした罪で
01:39
by meddling in the 2016 presidential election.
25
99312
3780
起訴しています
01:43
And what this indictment tells as a story
26
103855
3564
起訴された会社の1つは
01:47
is the story of the Internet Research Agency,
27
107443
3142
「インターネット・リサーチ・ エージェンシー」
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
ソーシャルメディアに携わる クレムリンの影の機関です
01:54
During the presidential election alone,
29
114815
2777
大統領選期間中だけでも
01:57
the Internet Agency's efforts
30
117616
1889
インターネット・エージェンシーは
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
フェイスブック上で 1億2600万人のアメリカ人にリーチし
02:04
issued three million individual tweets
32
124720
3277
300万もの個人名義のツイートをし
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
43時間分のYoutubeの動画を 作成しました
02:11
All of which was fake --
34
131887
1652
そのすべてがフェイク つまり―
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
アメリカ大統領選で不和の種を 蒔くために作られたデマ情報でした
02:20
A recent study by Oxford University
36
140996
2650
オックスフォード大による 近年の研究によると
02:23
showed that in the recent Swedish elections,
37
143670
3270
最近のスウェーデンの選挙では
02:26
one third of all of the information spreading on social media
38
146964
4375
ソーシャルメディアで拡散された 選挙に関する全情報のうち
02:31
about the election
39
151363
1198
3分の1が
02:32
was fake or misinformation.
40
152585
2087
フェイクかデマ情報でした
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
さらに こうしたソーシャルメディア上の デマ情報活動というのは
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
「集団虐殺プロパガンダ」と呼ばれてきた ものを拡散させかねません
02:44
for instance against the Rohingya in Burma,
43
164314
3111
たとえばミャンマーでの ロヒンギャを対象にしたものや
02:47
triggering mob killings in India.
44
167449
2303
インドでのリンチ殺人の 引き金になったものです
02:49
We studied fake news
45
169776
1494
私たちはこの言葉が一般的なものになる前から
02:51
and began studying it before it was a popular term.
46
171294
3219
フェイクニュースを研究してきました
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
そして最近 ネットでの フェイクニュースの広がりについて
03:00
of the spread of fake news online
48
180094
2286
史上最大規模の長期研究の成果を 発表し
03:02
on the cover of "Science" in March of this year.
49
182404
3204
それが今年の3月の「サイエンス」誌の 表紙を飾りました
03:06
We studied all of the verified true and false news stories
50
186523
4161
研究対象にしたのは ツイッターが サービスを開始した2006年から
03:10
that ever spread on Twitter,
51
190708
1753
2017年までの間に拡散された
03:12
from its inception in 2006 to 2017.
52
192485
3818
裏の取れている真実のニュースと 虚偽のニュース全部です
03:16
And when we studied this information,
53
196612
2314
これらの情報を調べるにあたり
03:18
we studied verified news stories
54
198950
2876
6つの独立した ファクトチェック機関によって
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
確認されたニュースを扱いました
03:25
So we knew which stories were true
56
205792
2762
ですからどのニュースが真実で
03:28
and which stories were false.
57
208578
2126
どれが虚偽なのか 分かっていました
03:30
We can measure their diffusion,
58
210728
1873
調べたのはニュースの拡散の度合いや
03:32
the speed of their diffusion,
59
212625
1651
拡散するスピード
03:34
the depth and breadth of their diffusion,
60
214300
2095
拡散の深さと広がり
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
どれくらい多くの人が その情報の 流れに巻き込まれたか などです
03:40
And what we did in this paper
62
220942
1484
さらに この論文では
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
真実のニュースと虚偽のニュースの 拡散スピードを比較しました
03:46
And here's what we found.
64
226339
1683
その結果分かったのは
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
虚偽のニュースは 真実よりも 遠くまで 速く 深く
03:52
and more broadly than the truth
66
232049
1806
そして大勢の人に広まるということです
03:53
in every category of information that we studied,
67
233879
3003
それも 研究対象にしたどのカテゴリの 情報においてもです
03:56
sometimes by an order of magnitude.
68
236906
2499
その差が桁違いというケースもありました
03:59
And in fact, false political news was the most viral.
69
239842
3524
とりわけ 虚偽の政治ニュースは もっともバズりやすいものでした
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
ほかのどの種類のニュースよりも 遠くまで 速く
04:06
than any other type of false news.
71
246561
2802
深く 大勢の人に広まったのです
04:09
When we saw this,
72
249387
1293
このことを発見したとき
04:10
we were at once worried but also curious.
73
250704
2841
私たちは心配になると同時に 好奇心も覚えました
04:13
Why?
74
253569
1151
なぜ?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
なぜ虚偽のニュースは真実よりも ずっと遠くまで 速く 深く
04:18
and more broadly than the truth?
76
258141
1864
大勢の人に届くのか?
04:20
The first hypothesis that we came up with was,
77
260339
2961
私たちが思いついた第一の仮説は こういうものでした
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
「虚偽のニュースを広めている人たちは フォロー・フォロワー数が多いとか
04:28
or tweet more often,
79
268140
1557
ツイートの頻度が高いとか
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
ツイッターの認証を受けていて より信頼性が高いとか
04:33
or maybe they've been on Twitter longer."
81
273871
2182
ツイッターの利用時間が多いとか だろう」
04:36
So we checked each one of these in turn.
82
276077
2298
そこでこれらの仮説を 1つずつ検証してみました
04:38
And what we found was exactly the opposite.
83
278691
2920
ところが まったく逆でした
04:41
False-news spreaders had fewer followers,
84
281635
2436
虚偽のニュースを広めている人は フォロー数が少なく
04:44
followed fewer people, were less active,
85
284095
2254
フォロワー数も少なく アクティブでもなく
04:46
less often "verified"
86
286373
1460
認証を受けていないことが多く
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
ツイッターの利用時間も短かったのです
04:50
And yet,
88
290841
1189
さらに
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
これら全てと 他の多くの要素を 調整すると 虚偽のニュースは
04:57
controlling for all of these and many other factors.
90
297111
3363
真実よりも 70%も リツイート されやすいことがわかりました
05:00
So we had to come up with other explanations.
91
300498
2690
ですから 他の説明を 探す必要がありました
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
それで考えついたのが 「新奇性仮説」と呼んでいるものです
05:07
So if you read the literature,
93
307038
1960
記事を読む人の注目というのは
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
新奇性へと吸い寄せられることが よく知られています
05:12
things that are new in the environment.
95
312800
2519
新奇性とは その環境において 新しいものです
05:15
And if you read the sociology literature,
96
315343
1985
社会学の文献を読んだことがあれば
05:17
you know that we like to share novel information.
97
317352
4300
人は新奇性の高い情報を共有したく なるものだとご存知でしょう
05:21
It makes us seem like we have access to inside information,
98
321676
3838
そうすることで 内部情報へのアクセスを 持っているように見えますし
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
新奇性のある情報を広げることで 自分の地位が高まるからです
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
そこで 流れてくる真実 あるいは 虚偽のツイートの新奇性を測るために
05:36
compared to the corpus of what that individual had seen
101
336268
4055
当該のツイートを その人がツイッター上で その前の60日間に見た情報と比較しました
05:40
in the 60 days prior on Twitter.
102
340347
2952
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
でもこれでは不十分でした 内心ではこう考えていたからです
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
「虚偽のニュースは情報理論的な意味では 真実よりも新奇性があるかもしれないが
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
だからといって より新奇性があると 人々が思うとは限らない」
05:53
So to understand people's perceptions of false news,
106
353849
3927
ですから 虚偽のニュースが どう受け止められるかを理解するために
05:57
we looked at the information and the sentiment
107
357800
3690
真実のツイートと虚偽のツイートへの リプライに含まれている
06:01
contained in the replies to true and false tweets.
108
361514
4206
情報と感情を検証してみることにしました
06:06
And what we found
109
366022
1206
その結果―
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
それぞれに異なる種類の感情として
06:11
surprise, disgust, fear, sadness,
111
371490
3301
ここでは 驚き 嫌悪 恐怖 悲しみ
06:14
anticipation, joy and trust --
112
374815
2484
期待 喜び そして信頼を考えましたが
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
虚偽のツイートへのリプライには 驚き そして嫌悪が
06:23
in the replies to false tweets.
114
383204
2806
有意に多く含まれていたことが分かりました
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
そして真実のツイートへのリプライには
期待や喜び そして信頼が
06:30
joy and trust
116
390205
1547
06:31
in reply to true tweets.
117
391776
2547
有意に多く含まれていました
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
この驚きの発見は 私たちの新奇性仮説を裏付けるものです
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
新しくて驚かされるものは 共有したい気持ちが高まるのです
06:43
At the same time, there was congressional testimony
120
403092
2925
そして同じころ アメリカでは両議会で
06:46
in front of both houses of Congress in the United States,
121
406041
3036
議会証言が行われていました
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
デマ情報の拡散で ボットが どんな役割を果たしているかについてでした
06:52
So we looked at this too --
123
412863
1354
これについても調べてみました
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
複数の高性能な ボット検出アルゴリズムを用いて
06:57
to find the bots in our data and to pull them out.
125
417863
3074
データの中のボットを見つけ 取り出します
07:01
So we pulled them out, we put them back in
126
421347
2659
そして取り出した場合と ボットも含む場合とで
07:04
and we compared what happens to our measurement.
127
424030
3119
計測結果がどう変化するか 比較しました
07:07
And what we found was that, yes indeed,
128
427173
2293
これで分かったのは そう 確かに
07:09
bots were accelerating the spread of false news online,
129
429490
3682
ボットはネットの虚偽ニュースの 拡散を加速させていましたが
07:13
but they were accelerating the spread of true news
130
433196
2651
真実のニュースの拡散もほぼ同じ度合いで
07:15
at approximately the same rate.
131
435871
2405
加速させていました
07:18
Which means bots are not responsible
132
438300
2858
つまり ボットの存在では ネットにおける
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
真実と虚偽の拡散度合いの違いを 説明できなかったのです
07:25
We can't abdicate that responsibility,
134
445919
2849
私たちがこの説明責任を 放棄することはできません
07:28
because we, humans, are responsible for that spread.
135
448792
4259
なぜなら私たち人間こそが 虚偽の情報の拡散の責任を負っているからです
07:34
Now, everything that I have told you so far,
136
454472
3334
さて ここまでお話したことはすべて
07:37
unfortunately for all of us,
137
457830
1754
大変残念ながら―
07:39
is the good news.
138
459608
1261
まだマシなお知らせです
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
というのも まさにこれから 何もかもが どんどん悪化していくところだからです
07:47
And two specific technologies are going to make it worse.
140
467850
3682
事態を悪化させるのは 2つのテクノロジーです
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
合成メディアの巨大な波が 今押し寄せようとしているのです
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
人の目にとって 極めてもっともらしい フェイク動画やフェイク音声です
08:03
And this will powered by two technologies.
143
483458
2754
2つのテクノロジーが この巨大な波を推進していくでしょう
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
1つめは「敵対的生成ネットワーク (GANs)」と呼ばれるもの
08:10
This is a machine-learning model with two networks:
145
490093
2563
これは機械学習モデルで 2つのネットワークから成ります
08:12
a discriminator,
146
492680
1547
1つは識別ネットワーク
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
ある情報が真実か虚偽かを 決定する役割を持ちます
08:18
and a generator,
148
498475
1167
そして生成ネットワーク
08:19
whose job it is to generate synthetic media.
149
499666
3150
合成動画を出力する役割を持ちます
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
生成ネットワークが 合成動画や音声を出力すると
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
識別ネットワークがこれが「リアルか フェイクか」を判定しようとします
08:32
And in fact, it is the job of the generator
152
512665
2874
生成ネットワークの仕事というのは
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
作り出す動画や音声がリアルだと 識別ネットワークを騙せるまで
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
合成動画のもっともらしさを
08:43
is actually true.
155
523633
1730
最大化することなのです
08:45
Imagine a machine in a hyperloop,
156
525387
2373
これは 機械が処理を高速で繰り返し
08:47
trying to get better and better at fooling us.
157
527784
2803
人間を騙すテクを どんどん 磨こうとするようなものです
08:51
This, combined with the second technology,
158
531114
2500
これが 2つめのテクノロジーと合体します
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
そのテクノロジーは本質的には AIの民主化ともいうべきものです
08:59
the ability for anyone,
160
539384
2189
誰でも
09:01
without any background in artificial intelligence
161
541597
2830
AIや機械学習の基礎知識がなくても 合成メディアを出力するための
09:04
or machine learning,
162
544451
1182
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
この手のアルゴリズムを使えるようになる AIの民主化
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
これがGANsと融合し 合成動画を 作り出すことが果てしなく簡単になるのです
09:14
The White House issued a false, doctored video
165
554355
4421
たとえばホワイトハウスは 虚偽の加工動画を公開しました
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
これはホワイトハウスのインターンが記者から マイクを返してもらおうとしたときの動画で
09:23
They removed frames from this video
167
563427
1999
動画から数フレームを取り除き
09:25
in order to make his actions seem more punchy.
168
565450
3287
記者の動きを より攻撃的に 見せようとしたものです
09:29
And when videographers and stuntmen and women
169
569157
3385
映像作家やスタントを仕事とする人たちは
09:32
were interviewed about this type of technique,
170
572566
2427
この手の技術について聞かれて
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
こう答えていました 「ええ 映画ではいつも使っていますよ
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
パンチやキックをより激しく 攻撃的に見せるためにね」
09:44
They then put out this video
173
584268
1867
でも この加工動画の目的の一部は
09:46
and partly used it as justification
174
586159
2500
ジム・アコスタという記者から
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
ホワイトハウスへの入館許可証を はく奪するのを
09:52
from the White House.
176
592706
1339
正当化するためでした
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
CNNは許可証を取り戻すために 政権を提訴しなければなりませんでした
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
これらは非常に難しい問題ですが その一部にでも取り組み 解決するために
10:06
to try and address some of these very difficult problems today.
179
606165
3739
5つの手段があると私は見ています
10:10
Each one of them has promise,
180
610379
1810
それぞれに可能性がありますが
10:12
but each one of them has its own challenges.
181
612213
2999
また それぞれに課題もあります
10:15
The first one is labeling.
182
615236
2008
1つめはラベリング
10:17
Think about it this way:
183
617268
1357
こういうものです
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
食料品店に行って食べ物を買うとします
10:22
it's extensively labeled.
185
622284
1904
どの商品もラベルがついていますね
10:24
You know how many calories it has,
186
624212
1992
カロリーはどれくらいか
10:26
how much fat it contains --
187
626228
1801
どれくらい脂肪分が含まれているか
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
けれど情報を消費するときは ラベルなんて全然ついていません
10:32
What is contained in this information?
189
632355
1928
この情報には何が含まれているか?
10:34
Is the source credible?
190
634307
1453
情報源は信頼できるか?
10:35
Where is this information gathered from?
191
635784
2317
どこで集められた情報か?
10:38
We have none of that information
192
638125
1825
こうしたことを 何も知らずに
10:39
when we are consuming information.
193
639974
2103
情報を消費しているのです
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
情報へのラベリングは見込みのある 手段ですが 課題もあります
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
たとえば 何が真実で何が虚偽か この社会で 誰が決めることになるんでしょう?
10:52
Is it the governments?
196
652387
1642
政府?
10:54
Is it Facebook?
197
654053
1150
フェイスブック?
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
それともファクトチェックをする 独立したコンソーシアム?
10:59
And who's checking the fact-checkers?
199
659387
2466
そしてファクトチェックを チェックするのは誰?
11:02
Another potential avenue is incentives.
200
662427
3084
2つめの見込みある手段は インセンティブです
11:05
We know that during the US presidential election
201
665535
2634
前回のアメリカの大統領選では
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
マケドニアから誤情報が 流れこんできていました
11:11
that didn't have any political motive
203
671907
2337
政治的動機をまったく持たず
11:14
but instead had an economic motive.
204
674268
2460
経済的動機で行われたものです
11:16
And this economic motive existed,
205
676752
2148
こうした経済的動機が存在するのは
11:18
because false news travels so much farther, faster
206
678924
3524
虚偽のニュースが 真実よりも 遠くまで 速く
11:22
and more deeply than the truth,
207
682472
2010
深く届くゆえに
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
この手の情報で注目と関心を集めれば
11:29
with this type of information.
209
689490
1960
その分広告収入を得られるからです
11:31
But if we can depress the spread of this information,
210
691474
3833
しかしこうした情報の拡散を 抑えることができれば
11:35
perhaps it would reduce the economic incentive
211
695331
2897
そもそもデマ情報を生み出そうとする インセンティブを
11:38
to produce it at all in the first place.
212
698252
2690
減らせるかもしれません
11:40
Third, we can think about regulation,
213
700966
2500
3つめに考えられるのは規制です
11:43
and certainly, we should think about this option.
214
703490
2325
避けることなく この選択肢を考えるべきです
11:45
In the United States, currently,
215
705839
1611
現在私たちは アメリカ国内で
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
もしフェイスブックなどの企業が規制を 受けたらどうなるかを研究しています
11:52
While we should consider things like regulating political speech,
217
712346
3801
今後検討すべきなのは 政治的な発言の規制や
11:56
labeling the fact that it's political speech,
218
716171
2508
事実に基づいて 政治的発言だと ラベリングすること
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
政治的な発言に外国勢力が資金投入して 介入できないようにすることなどですが
12:02
it also has its own dangers.
220
722546
2547
この手段には危険もつきまといます
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
たとえば マレーシアでは デマ情報を拡散した人に対して
12:10
for anyone found spreading misinformation.
222
730424
2734
懲役6年を課す法を制定しました
12:13
And in authoritarian regimes,
223
733696
2079
独裁政権下では
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
この手の制度は少数派の意見を 封じ込めるために
12:20
and to continue to extend repression.
225
740489
3508
そして抑圧を拡大し続けるために 使われかねません
12:24
The fourth possible option is transparency.
226
744680
3543
4つめの選択肢は透明性です
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
私たちが知りたいのは フェイスブックの アルゴリズムはどう動いているのか
12:32
How does the data combine with the algorithms
228
752581
2880
データはアルゴリズムとどう組み合わされて
12:35
to produce the outcomes that we see?
229
755485
2838
私たちが目にするものを 出力しているのかということです
12:38
We want them to open the kimono
230
758347
2349
フェイスブックに情報を開示してもらい
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
内部の動きがどうなっているのかを 正確に教えてもらうのです
12:44
And if we want to know social media's effect on society,
232
764958
2779
そしてソーシャルメディアが 社会へ及ぼす影響について知るには
12:47
we need scientists, researchers
233
767761
2086
科学者や研究者といった人々が
12:49
and others to have access to this kind of information.
234
769871
3143
この手の情報へ アクセスできる必要があります
12:53
But at the same time,
235
773038
1547
けれど同時に
12:54
we are asking Facebook to lock everything down,
236
774609
3801
フェイスブックには すべての厳重な保管―
12:58
to keep all of the data secure.
237
778434
2173
全データの安全な管理が 求められてもいます
13:00
So, Facebook and the other social media platforms
238
780631
3159
つまりフェイスブックなどの ソーシャルメディアプラットフォームは
13:03
are facing what I call a transparency paradox.
239
783814
3134
私が「透明性のパラドックス」と呼ぶものに 直面しているわけです
13:07
We are asking them, at the same time,
240
787266
2674
彼らは 同時に
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
オープンで透明であること そして 安全であることを求められているのです
13:14
This is a very difficult needle to thread,
242
794797
2691
これはごく小さい針に糸を通すような難題です
13:17
but they will need to thread this needle
243
797512
1913
でも やってもらわなければなりません
13:19
if we are to achieve the promise of social technologies
244
799449
3787
ソーシャルメディアの技術は 素晴らしい未来を約束していますが
13:23
while avoiding their peril.
245
803260
1642
同時に危機も内包していますから
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
最後の5つめは アルゴリズムと機械学習です
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
これはフェイクニュースを探し出して それがどう広まるかを理解し
その流れを押しとどめる技術です
13:34
and to try and dampen its flow.
248
814942
2331
13:37
Humans have to be in the loop of this technology,
249
817824
2897
人間自身が このテクノロジーに 関わっていく必要があります
13:40
because we can never escape
250
820745
2278
なぜなら
13:43
that underlying any technological solution or approach
251
823047
4038
どんな技術的解決策や アプローチの根底にも
13:47
is a fundamental ethical and philosophical question
252
827109
4047
根本的な倫理的・哲学的問いが 潜んでいるからです
13:51
about how do we define truth and falsity,
253
831180
3270
「真実と虚偽をどう定義するのか」
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
「それを定義する力を誰に与えるのか」
13:57
and which opinions are legitimate,
255
837678
2460
「いずれの意見が正当なのか」
14:00
which type of speech should be allowed and so on.
256
840162
3706
「どのタイプの発言が許されるべきか」 といった疑問です
14:03
Technology is not a solution for that.
257
843892
2328
テクノロジーは答えを出してはくれません
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
答えを出せるとしたら それは倫理学 そして哲学です
14:10
Nearly every theory of human decision making,
259
850950
3318
人間の意志決定 協力行動
14:14
human cooperation and human coordination
260
854292
2761
そして協調行動に関する理論はほぼすべて
14:17
has some sense of the truth at its core.
261
857077
3674
真実を判別する能力を 中核に据えています
14:21
But with the rise of fake news,
262
861347
2056
けれどフェイクニュースや
14:23
the rise of fake video,
263
863427
1443
フェイク動画
14:24
the rise of fake audio,
264
864894
1882
フェイク音声の台頭によって
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
現実がフェイクに浸食されていき
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
今や何が現実で何がフェイクか 分からなくなっているのです
14:34
And that's potentially incredibly dangerous.
267
874661
3039
この事態には 途方もない危機が潜んでいます
14:38
We have to be vigilant in defending the truth
268
878931
3948
デマ情報から真実を守るために
14:42
against misinformation.
269
882903
1534
用心しなければなりません
14:44
With our technologies, with our policies
270
884919
3436
そのために必要なのは テクノロジーと規制ですが
14:48
and, perhaps most importantly,
271
888379
1920
それ以上に欠けてはならないのは
14:50
with our own individual responsibilities,
272
890323
3214
私たち個人個人の責任と
14:53
decisions, behaviors and actions.
273
893561
3555
決意 態度 そして行動なのです
14:57
Thank you very much.
274
897553
1437
ありがとうございました
14:59
(Applause)
275
899014
3517
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7