How deepfakes undermine truth and threaten democracy | Danielle Citron

87,053 views ・ 2019-10-07

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Mishima Ryosuke 校正: Masaki Yanagishita
00:12
[This talk contains mature content]
0
12535
2767
[このトークには 成人向けの内容が含まれます]
00:17
Rana Ayyub is a journalist in India
1
17762
2992
ラナ・アイユーブはインドの記者で
00:20
whose work has exposed government corruption
2
20778
2602
政府の汚職や人権侵害を 記事にしてきました
00:24
and human rights violations.
3
24411
2157
00:26
And over the years,
4
26990
1167
何年も経つうちに
00:28
she's gotten used to vitriol and controversy around her work.
5
28181
3303
彼女は自分の仕事への 非難や論争に慣れてきました
00:32
But none of it could have prepared her for what she faced in April 2018.
6
32149
5109
しかし 2018年4月に直面したことは 予期していなかったでしょう
00:38
She was sitting in a café with a friend when she first saw it:
7
38125
3651
最初にそれを目にしたとき 彼女は友人とカフェで座っていました
00:41
a two-minute, 20-second video of her engaged in a sex act.
8
41800
4943
彼女が見たものは 2分20秒の自分のセックスの動画でした
00:47
And she couldn't believe her eyes.
9
47188
2349
彼女は目を疑いました
00:49
She had never made a sex video.
10
49561
2273
セックスの動画を撮ったことなど 1度もありませんでした
00:52
But unfortunately, thousands upon thousands of people
11
52506
3465
しかし 悲しいことに大勢の人々が
00:55
would believe it was her.
12
55995
1666
動画に映っているのは彼女だと思いました
00:58
I interviewed Ms. Ayyub about three months ago,
13
58673
2944
性的プライバシーに関する本を 書いていた私は
01:01
in connection with my book on sexual privacy.
14
61641
2504
3ヶ月前 彼女にインタビューをしました
01:04
I'm a law professor, lawyer and civil rights advocate.
15
64681
3198
私は法律学の教授で 弁護士で市民権を支持しています
01:08
So it's incredibly frustrating knowing that right now,
16
68204
4611
ですから 今の法律が彼女を助けるために ほぼ何もできないことを知っていて
01:12
law could do very little to help her.
17
72839
2238
非常に悔しい思いをしています
01:15
And as we talked,
18
75458
1547
話の中で彼女は
01:17
she explained that she should have seen the fake sex video coming.
19
77029
4512
偽物のセックス動画が作られることを 想定しておくべきだったと言いました
01:22
She said, "After all, sex is so often used to demean and to shame women,
20
82038
5596
「結局 セックスは女性の品位を落とし 辱める常套手段なのです
01:27
especially minority women,
21
87658
2428
特に少数派女性たち
01:30
and especially minority women who dare to challenge powerful men,"
22
90110
4312
とりわけ権力のある男性に敢然と立ち向かう 少数派の女性を辱めるためです」
01:34
as she had in her work.
23
94446
1533
彼女も権力に立ち向かってきました
01:37
The fake sex video went viral in 48 hours.
24
97191
3976
偽物のセックスの動画は 48時間で拡散しました
01:42
All of her online accounts were flooded with screenshots of the video,
25
102064
5307
彼女の全てのオンラインアカウントは 動画のスクリーンショットや
01:47
with graphic rape and death threats
26
107395
2627
生々しい性的暴行や殺害の予告
01:50
and with slurs about her Muslim faith.
27
110046
2533
イスラム教徒である彼女の 信仰に関する中傷で溢れました
01:53
Online posts suggested that she was "available" for sex.
28
113426
4564
オンラインの掲示板には彼女がセックスに 「いつでも応ずる」と書かれました
01:58
And she was doxed,
29
118014
1610
さらに 彼女は「晒され」ました
01:59
which means that her home address and her cell phone number
30
119648
2778
つまり 彼女の住所と電話番号が
02:02
were spread across the internet.
31
122450
1746
ネット上に広まったのです
02:04
The video was shared more than 40,000 times.
32
124879
4084
その動画は4万回以上も共有されました
02:09
Now, when someone is targeted with this kind of cybermob attack,
33
129760
3936
誰かがこの種の サイバーモブ攻撃の標的にされると
02:13
the harm is profound.
34
133720
2063
その被害は甚大です
02:16
Rana Ayyub's life was turned upside down.
35
136482
3039
ラナ・アイユーブの人生は 滅茶苦茶になりました
02:20
For weeks, she could hardly eat or speak.
36
140211
3334
数週間 彼女は食事も会話も ほとんどできなくなりました
02:23
She stopped writing and closed all of her social media accounts,
37
143919
3689
記事の執筆をやめて ソーシャルメディアの アカウントも全て閉鎖しました
02:27
which is, you know, a tough thing to do when you're a journalist.
38
147632
3158
ご存知の通り ジャーナリストとして この行為はつらい決断です
02:31
And she was afraid to go outside her family's home.
39
151188
3484
彼女は実家を出ることが怖くなりました
02:34
What if the posters made good on their threats?
40
154696
3022
もし投稿者が脅迫を実行したら どうなるでしょう?
02:38
The UN Council on Human Rights confirmed that she wasn't being crazy.
41
158395
4365
国連人権理事会は 彼女が正気であることを確認し
02:42
It issued a public statement saying that they were worried about her safety.
42
162784
4637
安全上の懸念があるという 声明を発表しました
02:48
What Rana Ayyub faced was a deepfake:
43
168776
4229
ラナ・アイユーブが直面したものは ディープフェイクです
02:53
machine-learning technology
44
173029
2540
機械学習の技術で
02:55
that manipulates or fabricates audio and video recordings
45
175593
4111
音声や動画を改ざんしたり 捏造して
02:59
to show people doing and saying things
46
179728
2723
本人が実際にしていないことや 言っていないことを
03:02
that they never did or said.
47
182475
1866
したように見せかけます
03:04
Deepfakes appear authentic and realistic, but they're not;
48
184807
3361
ディープフェイクは本物そっくりに 見えますが それは違っていて
03:08
they're total falsehoods.
49
188192
1772
完全な偽物です
03:11
Although the technology is still developing in its sophistication,
50
191228
3794
この技術は現在 まだ完成途上ですが
03:15
it is widely available.
51
195046
1614
簡単に利用出来ます
03:17
Now, the most recent attention to deepfakes arose,
52
197371
3072
最近 ディープフェイクに 注目が集まった分野は
03:20
as so many things do online,
53
200467
2161
ネット上のあらゆるものが 注目している分野―
03:22
with pornography.
54
202652
1255
ポルノグラフィです
03:24
In early 2018,
55
204498
2111
2018年の初頭
03:26
someone posted a tool on Reddit
56
206633
2468
誰かがRedditに あるツールを投稿しました
03:29
to allow users to insert faces into porn videos.
57
209125
4412
ポルノ動画に別人の顔を はめられるようにするものです
03:33
And what followed was a cascade of fake porn videos
58
213561
3440
そして 自分たちの好きな女性有名人の
03:37
featuring people's favorite female celebrities.
59
217025
2797
偽物のポルノ動画が次々と作られました
03:40
And today, you can go on YouTube and pull up countless tutorials
60
220712
3477
今ではYouTubeを見れば 無数のチュートリアルを見つけて
03:44
with step-by-step instructions
61
224213
2286
デスクトップアプリケーション上での
03:46
on how to make a deepfake on your desktop application.
62
226523
3163
ディープフェイクの作り方を 順を追って学習することができます
03:50
And soon we may be even able to make them on our cell phones.
63
230260
3706
もうすぐ 携帯でも動画を 作れるようになるかもしれません
03:55
Now, it's the interaction of some of our most basic human frailties
64
235072
5382
私たち人間の弱い部分と ネットワークツールの相互作用によって
04:00
and network tools
65
240478
1682
04:02
that can turn deepfakes into weapons.
66
242184
2666
ディープフェイクが凶器となりうるのです
04:04
So let me explain.
67
244874
1200
では 説明しましょう
04:06
As human beings, we have a visceral reaction to audio and video.
68
246875
4566
私たちは人間として 音や動画に対して 本能的な反応をします
04:11
We believe they're true,
69
251860
1488
私たちはそれらを正しいと感じますが
04:13
on the notion that of course you can believe
70
253372
2078
それは 自分の目や耳で体感したことは
04:15
what your eyes and ears are telling you.
71
255474
2478
信じられるはずという 考えに基づいています
04:18
And it's that mechanism
72
258476
1699
この仕組みがあるため
04:20
that might undermine our shared sense of reality.
73
260199
3698
私たちの共有する現実感を 損ないかねません
04:23
Although we believe deepfakes to be true, they're not.
74
263921
3147
私たちはディープフェイクを 本物であると感じますが 実際は違います
04:27
And we're attracted to the salacious, the provocative.
75
267604
4157
私たちは猥褻で刺激的なものに 惹きつけられます
04:32
We tend to believe and to share information
76
272365
3047
否定的で 今までにない情報を信じて 共有する傾向があります
04:35
that's negative and novel.
77
275436
2023
04:37
And researchers have found that online hoaxes spread 10 times faster
78
277809
5019
研究者たちはオンラインのデマが正しい情報の
04:42
than accurate stories.
79
282852
1627
10倍速く広まることを発見しました
04:46
Now, we're also drawn to information
80
286015
4380
また 私たちは自分のものの見方に合う 情報に引き付けられます
04:50
that aligns with our viewpoints.
81
290419
1892
04:52
Psychologists call that tendency "confirmation bias."
82
292950
3561
心理学者はこの傾向を 「確証バイアス」と呼んでいます
04:57
And social media platforms supercharge that tendency,
83
297300
4387
ソーシャルメディアプラットフォームは
05:01
by allowing us to instantly and widely share information
84
301711
3881
私たちの見方に合う情報を 即座に広く共有できるようにすることで
05:05
that accords with our viewpoints.
85
305616
1792
確証バイアスを強化します
05:08
Now, deepfakes have the potential to cause grave individual and societal harm.
86
308735
5568
今や ディープフェイクは個人と社会に 深刻な被害を及ぼす可能性があります
05:15
So, imagine a deepfake
87
315204
2024
アフガニスタンにいるアメリカ兵が
05:17
that shows American soldiers in Afganistan burning a Koran.
88
317252
4182
イスラム教の聖典を燃やしている ディープフェイク動画を想像してください
05:22
You can imagine that that deepfake would provoke violence
89
322807
3024
その動画が兵士たちへの 暴力を招くことは
05:25
against those soldiers.
90
325855
1533
容易に想像できます
05:27
And what if the very next day
91
327847
2873
そして もし翌日に
05:30
there's another deepfake that drops,
92
330744
2254
ロンドンに拠点を置く 有名なイスラム教の指導者が
05:33
that shows a well-known imam based in London
93
333022
3317
兵士たちへの攻撃を賞賛する 別のディープフェイク動画が
05:36
praising the attack on those soldiers?
94
336363
2467
投稿されたらどうでしょうか?
05:39
We might see violence and civil unrest,
95
339617
3163
アフガニスタンとイギリスだけでなく
05:42
not only in Afganistan and the United Kingdom,
96
342804
3249
世界中で暴力と社会不安が 起こるかもしれません
05:46
but across the globe.
97
346077
1515
05:48
And you might say to me,
98
348251
1158
私にこう言う方もいるかもしれません
05:49
"Come on, Danielle, that's far-fetched."
99
349433
2247
「ダニエルさん 考えすぎだよ」と
05:51
But it's not.
100
351704
1150
考えすぎではありません
05:53
We've seen falsehoods spread
101
353293
2191
WhatsAppやそれ以外の
05:55
on WhatsApp and other online message services
102
355508
2722
オンラインメッセージサービスで 広まった噂によって
05:58
lead to violence against ethnic minorities.
103
358254
2761
少数民族への暴力が起こっています
06:01
And that was just text --
104
361039
1887
それらはただの文章でしたが
06:02
imagine if it were video.
105
362950
2024
動画なら どうだったでしょう
06:06
Now, deepfakes have the potential to corrode the trust that we have
106
366593
5357
ディープフェイクは  私たちが持つ民主主義制度への
06:11
in democratic institutions.
107
371974
1992
信頼を失わせる可能性があります
06:15
So, imagine the night before an election.
108
375006
2667
選挙前日の夜を想像してください
06:17
There's a deepfake showing one of the major party candidates
109
377996
3238
優位政党の候補者の1人が 重病にかかっている
06:21
gravely sick.
110
381258
1150
ディープフェイク動画があるとします
06:23
The deepfake could tip the election
111
383202
2333
そのディープフェイクが選挙をひっくり返し
06:25
and shake our sense that elections are legitimate.
112
385559
3375
選挙が公正であるという感覚を 揺るがす可能性があります
06:30
Imagine if the night before an initial public offering
113
390515
3326
大手のグローバル銀行の 新規上場株の公開の前夜に
06:33
of a major global bank,
114
393865
2333
06:36
there was a deepfake showing the bank's CEO
115
396222
3149
銀行のCEOが酔って 陰謀論をベラベラしゃべる
06:39
drunkenly spouting conspiracy theories.
116
399395
2697
ディープフェイク動画が 出ることを想像してください
06:42
The deepfake could tank the IPO,
117
402887
3047
IPOは失敗し
06:45
and worse, shake our sense that financial markets are stable.
118
405958
4115
ひどければ 金融市場が安定しているという 感覚を揺るがす可能性があります
06:51
So deepfakes can exploit and magnify the deep distrust that we already have
119
411385
6989
ディープフェイクは政治家やビジネスリーダー その他の有力なリーダーに対して
06:58
in politicians, business leaders and other influential leaders.
120
418398
4214
私たちが すでに持っている深い不信感を 悪用し増幅させることができます
07:02
They find an audience primed to believe them.
121
422945
3284
ディープフェイクは 信じそうな聴衆を見つけます
07:07
And the pursuit of truth is on the line as well.
122
427287
2765
そして 真実の追求も同様な危険に 曝されています
07:11
Technologists expect that with advances in AI,
123
431077
3564
技術者はAIの進歩を予想しています
07:14
soon it may be difficult if not impossible
124
434665
3682
本物と偽物の動画の違いを見分けることは
07:18
to tell the difference between a real video and a fake one.
125
438371
3769
不可能ではないにしても 難しくなるかもしれません
07:23
So how can the truth emerge in a deepfake-ridden marketplace of ideas?
126
443022
5341
フェイクだらけの「思想の自由市場」に 真実など見いだせるでしょうか?
07:28
Will we just proceed along the path of least resistance
127
448752
3420
障害が最も少ない道を選んで
自分たちが信じたいことを信じて
07:32
and believe what we want to believe,
128
452196
2437
07:34
truth be damned?
129
454657
1150
真実を永久に無視するだけでしょうか?
07:36
And not only might we believe the fakery,
130
456831
3175
それから 偽物を信じるだけでなく
07:40
we might start disbelieving the truth.
131
460030
3326
真実を信じないということが 起き始めるかもしれません
07:43
We've already seen people invoke the phenomenon of deepfakes
132
463887
4079
ディープフェイクを使って 自分の不正行為の物的証拠に
07:47
to cast doubt on real evidence of their wrongdoing.
133
467990
3920
疑問を生じさせようとする人が すでに現れています
07:51
We've heard politicians say of audio of their disturbing comments,
134
471934
5969
自分がした不都合な発言の録音ついて こう発言した政治家が何人もいました
07:57
"Come on, that's fake news.
135
477927
1746
「まさか それはフェイクニュースだよ
07:59
You can't believe what your eyes and ears are telling you."
136
479697
3920
見聞きしたものを全部信じちゃ いけないよ」と
08:04
And it's that risk
137
484402
1731
それはロバート・チェズニー教授と私が 「嘘つきの分け前」と呼ぶリスクです
08:06
that professor Robert Chesney and I call the "liar's dividend":
138
486157
5436
08:11
the risk that liars will invoke deepfakes
139
491617
3357
嘘つきが 自分の悪行の 責任から逃れるために
08:14
to escape accountability for their wrongdoing.
140
494998
2905
ディープフェイクを持ち出す リスクのことです
08:18
So we've got our work cut out for us, there's no doubt about it.
141
498963
3071
私たちのすべき仕事がはっきりしました 疑いの余地はありません
08:22
And we're going to need a proactive solution
142
502606
3325
テクノロジー企業や議員
08:25
from tech companies, from lawmakers,
143
505955
3511
警察やメディアによる
08:29
law enforcers and the media.
144
509490
1984
予防的解決策が必要になるでしょう
08:32
And we're going to need a healthy dose of societal resilience.
145
512093
4016
そして 社会的レジリエンスが かなり必要になります
08:37
So now, we're right now engaged in a very public conversation
146
517506
3896
そこで テクノロジー企業の責任について
08:41
about the responsibility of tech companies.
147
521426
2913
公開の対話を広く実施しています
08:44
And my advice to social media platforms
148
524926
3032
ソーシャルメディアプラットフォームに対する 私のアドバイスは
08:47
has been to change their terms of service and community guidelines
149
527982
3873
被害を引き起こす ディープフェイクを禁止するために
08:51
to ban deepfakes that cause harm.
150
531879
2336
利用規約とコミュニティガイドラインを 変更することです
08:54
That determination, that's going to require human judgment,
151
534712
3960
この決定には人間の判断が必要とされ
08:58
and it's expensive.
152
538696
1571
コストがかかるでしょう
09:00
But we need human beings
153
540673
2285
けれども ディープフェイクの 内容や文脈を検討して
09:02
to look at the content and context of a deepfake
154
542982
3873
09:06
to figure out if it is a harmful impersonation
155
546879
3682
それが有害な偽物なのか それとも
09:10
or instead, if it's valuable satire, art or education.
156
550585
4382
価値のある風刺や芸術 教育なのかを 見極めるには 人間の力が必要です
09:16
So now, what about the law?
157
556118
1495
では 法律面はどうでしょう?
09:18
Law is our educator.
158
558666
2349
法律は私たちの先生です
09:21
It teaches us about what's harmful and what's wrong.
159
561515
4038
何が良くないもので 何が間違っているものかを教えてくれます
09:25
And it shapes behavior it deters by punishing perpetrators
160
565577
4555
加害者を罰して 被害者の救済策を確保することで
09:30
and securing remedies for victims.
161
570156
2267
抑止すべき行動を決定します
09:33
Right now, law is not up to the challenge of deepfakes.
162
573148
4280
現在 法律はディープフェイクという 新たな問題に対応できていません
09:38
Across the globe,
163
578116
1390
世界中で 性的プライバシーを侵害し
09:39
we lack well-tailored laws
164
579530
2444
09:41
that would be designed to tackle digital impersonations
165
581998
3570
評判を傷つけ 精神的苦痛を引き起こす
09:45
that invade sexual privacy,
166
585592
2231
なりすまし行為に対応できるように設計され
09:47
that damage reputations
167
587847
1387
09:49
and that cause emotional distress.
168
589258
1951
適切に定められた法律がありません
09:51
What happened to Rana Ayyub is increasingly commonplace.
169
591725
3873
ラナ・アイユーブに起きたことは ありふれたことになりつつあります
09:56
Yet, when she went to law enforcement in Delhi,
170
596074
2214
彼女がデリーの警察に行ったとき
09:58
she was told nothing could be done.
171
598312
2135
出来ることは何もないと言われたそうです
10:01
And the sad truth is that the same would be true
172
601101
3183
悲しいことに アメリカやヨーロッパにも
10:04
in the United States and in Europe.
173
604308
2266
同じことが当てはまります
10:07
So we have a legal vacuum that needs to be filled.
174
607300
4356
法律に埋めなければならない 空白があるのです
10:12
My colleague Dr. Mary Anne Franks and I are working with US lawmakers
175
612292
4092
同僚のメアリー・アン・フランクス博士と私は
10:16
to devise legislation that would ban harmful digital impersonations
176
616408
4804
米国の議員と協力して 身元の盗用に当たる 有害なデジタルのなりすましを
10:21
that are tantamount to identity theft.
177
621236
2533
禁止する法律を考案しています
10:24
And we've seen similar moves
178
624252
2126
また似たような取り組みが
10:26
in Iceland, the UK and Australia.
179
626402
3301
アイスランドやイギリス オーストラリアでも進んでいます
10:30
But of course, that's just a small piece of the regulatory puzzle.
180
630157
3259
ただ これは規制というパズルの ほんの1ピースに過ぎません
10:34
Now, I know law is not a cure-all. Right?
181
634911
3169
法律で全部解決する訳ではありませんよね
10:38
It's a blunt instrument.
182
638104
1600
法律は鈍器のようなもので
10:40
And we've got to use it wisely.
183
640346
1539
賢く使わねばなりません
10:42
It also has some practical impediments.
184
642411
2812
法律は実用的な障害も抱えています
10:45
You can't leverage law against people you can't identify and find.
185
645657
5044
身元の特定や探すことが出来ない人々に対して 法律は適用できないのです
10:51
And if a perpetrator lives outside the country
186
651463
3286
被害者の住む国に加害者がいない場合
10:54
where a victim lives,
187
654773
1754
10:56
then you may not be able to insist
188
656551
1629
正当な裁判を受けさせるため
10:58
that the perpetrator come into local courts
189
658204
2349
地元の裁判所に来ることを 要求できないかもしれません
11:00
to face justice.
190
660577
1150
11:02
And so we're going to need a coordinated international response.
191
662236
4063
したがって 各国が協調して 対応する必要があるでしょう
11:07
Education has to be part of our response as well.
192
667819
3333
私たちの対応には 教育も 含まれなければなりません
11:11
Law enforcers are not going to enforce laws
193
671803
3731
警察が 自分たちの知らない法律を 順守させることはないし
11:15
they don't know about
194
675558
1458
理解していない問題を
11:17
and proffer problems they don't understand.
195
677040
2596
提起することもありません
11:20
In my research on cyberstalking,
196
680376
2191
サイバーストーカーに関する私の調査で
11:22
I found that law enforcement lacked the training
197
682591
3499
警察には利用可能な法律と
11:26
to understand the laws available to them
198
686114
2582
オンラインでの虐待の問題を 理解するための訓練が
11:28
and the problem of online abuse.
199
688720
2349
欠けていることがわかりました
11:31
And so often they told victims,
200
691093
2682
彼らは頻繁に被害者にこう言いました
11:33
"Just turn your computer off. Ignore it. It'll go away."
201
693799
3971
「コンピューターの電源を切るだけです 無視してください 解決しますから」と
11:38
And we saw that in Rana Ayyub's case.
202
698261
2466
ラナのときもそうでした
11:41
She was told, "Come on, you're making such a big deal about this.
203
701102
3468
彼女は こう言われたのです 「たいしたことない 騒ぎ過ぎです
11:44
It's boys being boys."
204
704594
1743
男の子のいたずらみたいなものですよ」
11:47
And so we need to pair new legislation with efforts at training.
205
707268
5252
新しい法律と訓練を 組み合わせる必要があります
11:54
And education has to be aimed on the media as well.
206
714053
3429
また メディアで 教育する必要もあります
11:58
Journalists need educating about the phenomenon of deepfakes
207
718180
4260
記者はディープフェイクという現象について 教育する必要があります
12:02
so they don't amplify and spread them.
208
722464
3039
ディープフェイクを増長させたり 広めたりしないためです
12:06
And this is the part where we're all involved.
209
726583
2168
これは私たち全員が関わっていることです
12:08
Each and every one of us needs educating.
210
728775
3855
私たち一人一人が教育する必要があります
12:13
We click, we share, we like, and we don't even think about it.
211
733375
3675
私たちはクリックし 共有し いいねを押し そのことについて考えません
12:17
We need to do better.
212
737551
1547
もっと努力が必要です
12:19
We need far better radar for fakery.
213
739726
2809
偽物をもっとよく見分ける手段が必要です
12:25
So as we're working through these solutions,
214
745744
3841
これらの解決策で取り組んでいくと
12:29
there's going to be a lot of suffering to go around.
215
749609
2563
多くの苦労が待ち受けています
12:33
Rana Ayyub is still wrestling with the fallout.
216
753093
2746
ラナ・アイユーブは 今だにフェイクの余波と闘っています
12:36
She still doesn't feel free to express herself on- and offline.
217
756669
4189
彼女は今でもオンラインでもオフラインでも 自分を表現することはできません
12:41
And as she told me,
218
761566
1365
そして こう話してくれました
12:42
she still feels like there are thousands of eyes on her naked body,
219
762955
5074
あのフェイクは自分の体ではなかったと 頭ではわかっていても
12:48
even though, intellectually, she knows it wasn't her body.
220
768053
3661
今も自分の裸体に何千という 視線が注がれている気がすると
12:52
And she has frequent panic attacks,
221
772371
2349
知らない誰かが写真を撮ろうとすると
12:54
especially when someone she doesn't know tries to take her picture.
222
774744
4100
彼女は頻繁にパニック発作を起こします
12:58
"What if they're going to make another deepfake?" she thinks to herself.
223
778868
3511
「ディープフェイクを作る気だったら」と 考えてしまうからです
13:03
And so for the sake of individuals like Rana Ayyub
224
783082
3921
だから ラナ・アイユーブのような個人のため
13:07
and the sake of our democracy,
225
787027
2306
そして 私たちの民主主義のために
13:09
we need to do something right now.
226
789357
2182
私たちは今すぐ 行動を起こす必要があるのです
13:11
Thank you.
227
791563
1151
ありがとうございました
13:12
(Applause)
228
792738
2508
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7