How we can eliminate child sexual abuse material from the internet | Julie Cordua

108,642 views

2019-11-12 ・ TED


New videos

How we can eliminate child sexual abuse material from the internet | Julie Cordua

108,642 views ・ 2019-11-12

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Tamami Inoue 校正: Yasushi Aoki
00:12
[This talk contains mature content]
0
12836
2548
[このトークは成人向けの内容です]
00:17
Five years ago,
1
17741
1620
5年前
00:19
I received a phone call that would change my life.
2
19385
3254
私の人生を変えることになる 電話がありました
00:23
I remember so vividly that day.
3
23795
2666
その時のことはハッキリと覚えています
00:27
It was about this time of year,
4
27245
1901
季節は今頃で
00:29
and I was sitting in my office.
5
29170
1958
私はオフィスで座っていました
00:31
I remember the sun streaming through the window.
6
31692
3066
窓から日が差し込んでいました
00:35
And my phone rang.
7
35592
1320
電話が鳴って
00:37
And I picked it up,
8
37565
1187
出てみると
00:39
and it was two federal agents, asking for my help
9
39594
3978
2人の連邦捜査官からでした
ネット上でたくさんの 児童性的虐待の画像を発見したので
00:43
in identifying a little girl
10
43596
2706
00:46
featured in hundreds of child sexual abuse images they had found online.
11
46326
5367
そこに出ている少女の 身元特定を手伝ってほしいというのです
00:53
They had just started working the case,
12
53145
2576
彼らは その事件に 着手したばかりで
00:55
but what they knew
13
55745
2870
分かっていたのは その少女への虐待の様子が
00:58
was that her abuse had been broadcast to the world for years
14
58639
4823
ダークウェブにある 児童性的虐待を専門とするサイトで
01:03
on dark web sites dedicated to the sexual abuse of children.
15
63486
5149
何年間も世界中に 配信されていたことだけでした
01:09
And her abuser was incredibly technologically sophisticated:
16
69605
4385
虐待の加害者は高度な技術を 持っていて
01:14
new images and new videos every few weeks,
17
74014
4588
数週間ごとに 新たな画像や動画が出るのに
01:18
but very few clues as to who she was
18
78626
4049
その少女が誰で どこにいるのか
手がかりが ほとんどつかめませんでした
01:22
or where she was.
19
82699
1676
01:25
And so they called us,
20
85324
1386
その連邦捜査官たちは
01:26
because they had heard we were a new nonprofit
21
86734
2690
我々が児童性的虐待と戦うための テクノロジーを開発する―
01:29
building technology to fight child sexual abuse.
22
89448
3458
新進の非営利団体だと聞いて 電話をかけてきたのです
01:33
But we were only two years old,
23
93596
2287
しかし 我々の団体は 出来てから まだ2年で
01:35
and we had only worked on child sex trafficking.
24
95907
3132
実績は児童の 性的人身売買だけだったので
01:39
And I had to tell them
25
99944
2123
我々には 何もできないと
告げねばなりませんでした
01:42
we had nothing.
26
102091
1197
01:44
We had nothing that could help them stop this abuse.
27
104280
3955
我々には この虐待を止めるために 協力できる術が なかったのです
01:49
It took those agents another year
28
109263
3574
捜査局が その少女を 見つけ出すのには
01:52
to ultimately find that child.
29
112861
3001
結局 それからさらに 1年の歳月が かかりました
01:56
And by the time she was rescued,
30
116853
2275
少女が救出されるまでに
01:59
hundreds of images and videos documenting her rape had gone viral,
31
119152
6488
その子のレイプを収めた何百という 画像や動画が拡散されていました
02:05
from the dark web
32
125664
1691
ダークウェブから
02:07
to peer-to-peer networks, private chat rooms
33
127379
3017
ピアツーピア・ネットワークや プライベートチャットルーム
02:10
and to the websites you and I use
34
130420
3220
さらには 私や皆さんが 毎日 使っている
02:13
every single day.
35
133664
2602
ウェブサイトにまでもです
02:17
And today, as she struggles to recover,
36
137216
3815
現在も その少女は回復するのに 大変な思いをしています
02:21
she lives with the fact that thousands around the world
37
141055
4139
彼女は性的に虐待される姿を 世界中の人に見られ続けているという
02:25
continue to watch her abuse.
38
145218
3088
現実の中で生きているのです
02:29
I have come to learn in the last five years
39
149994
2428
私は この5年間で この事件が
02:32
that this case is far from unique.
40
152446
2517
特段 珍しくないことを知りました
02:36
How did we get here as a society?
41
156119
3843
この社会は なぜこんなことに なってしまったのでしょう?
02:41
In the late 1980s, child pornography --
42
161490
3759
1980年代後半 児童ポルノ―
02:45
or what it actually is, child sexual abuse material --
43
165273
5253
要は 児童性的虐待の 写真や映像ですが
02:50
was nearly eliminated.
44
170550
1851
それが消えかけたときがありました
02:53
New laws and increased prosecutions made it simply too risky
45
173209
4504
新しい法律と刑事起訴の増加により
郵便での取引が 危険すぎるようになったのです
02:57
to trade it through the mail.
46
177737
1572
03:00
And then came the internet, and the market exploded.
47
180233
4145
それから インターネットの台頭で 市場が爆発的に広がりました
03:05
The amount of content in circulation today
48
185310
3356
現在 出回っているコンテンツの数は
03:08
is massive and growing.
49
188690
2844
膨大であり 増加しています
03:12
This is a truly global problem,
50
192421
3244
これは 本当に世界的な問題ですが
03:15
but if we just look at the US:
51
195689
1833
アメリカだけを見ても
03:17
in the US alone last year,
52
197546
2711
昨年 アメリカだけで
03:20
more than 45 million images and videos of child sexual abuse material
53
200281
5274
4500万件の児童性的虐待の画像や動画が
03:25
were reported to the National Center for Missing and Exploited Children,
54
205579
3678
行方不明・被搾取児童センターへ 通報されました
03:29
and that is nearly double the amount the year prior.
55
209281
4381
これは 一昨年の約2倍になっています
03:34
And the details behind these numbers are hard to contemplate,
56
214627
5286
この数字の裏にある詳細は 直視に堪えません
03:39
with more than 60 percent of the images featuring children younger than 12,
57
219937
5720
画像の60%以上が 12歳以下の児童だと思われます
03:45
and most of them including extreme acts of sexual violence.
58
225681
4502
その大半が ひどい性暴力です
03:50
Abusers are cheered on in chat rooms dedicated to the abuse of children,
59
230850
5300
加害者は児童虐待専用の チャットルーム内で賞賛されます
03:56
where they gain rank and notoriety
60
236174
2483
そこでは 虐待をするほど 犠牲者が多いほど
03:58
with more abuse and more victims.
61
238681
2906
ランクが上がり 有名になるのです
04:02
In this market,
62
242243
2595
そんな市場の中で
04:04
the currency has become the content itself.
63
244862
3958
コンテンツそのものが 通貨になります
04:10
It's clear that abusers have been quick to leverage new technologies,
64
250023
3806
虐待加害者たちは 新しい技術を取り入れるのが早く
04:13
but our response as a society has not.
65
253853
3015
こちら側の対応が 遅れているのは明らかです
04:17
These abusers don't read user agreements of websites,
66
257671
4171
加害者はウェブサイトの 利用規約なんて読みはしません
04:21
and the content doesn't honor geographic boundaries.
67
261866
3802
そして コンテンツに 国境はありません
04:26
And they win when we look at one piece of the puzzle at a time,
68
266656
6113
個々の断片を一つずつ調べていたら 勝ち目はありませんが
04:32
which is exactly how our response today is designed.
69
272793
4017
現在の私たちの対応は まさに そんな感じなのです
04:36
Law enforcement works in one jurisdiction.
70
276834
3487
警察は管轄内でのみ動き
04:40
Companies look at just their platform.
71
280345
3414
企業は 自分たちの プラットフォームだけを見ます
04:43
And whatever data they learn along the way
72
283783
2704
そのようにして得たデータは どんなものであれ
04:46
is rarely shared.
73
286511
2002
ほとんど共有されません
04:49
It is so clear that this disconnected approach is not working.
74
289402
5601
こんな バラバラの取り組みでは 当然 効果が上がりません
04:55
We have to redesign our response to this epidemic
75
295643
4110
私たちはデジタル時代の 悪しき流行への対策を
04:59
for the digital age.
76
299777
1522
練り直さなくてはなりません
05:01
And that's exactly what we're doing at Thorn.
77
301702
2942
Thronの活動は まさにそれです
05:05
We're building the technology to connect these dots,
78
305311
3617
我々は組織同士を結び付けるための テクノロジーを開発しています
05:08
to arm everyone on the front lines --
79
308952
2322
児童性的虐待の画像や動画を
05:11
law enforcement, NGOs and companies --
80
311298
2824
インターネットから 消し去るのに必要なツールを
05:14
with the tools they need to ultimately eliminate
81
314146
3509
警察やNGOや企業などの 最前線で対応している人たちに
05:17
child sexual abuse material from the internet.
82
317679
2493
提供しようとしています
05:21
Let's talk for a minute --
83
321571
1271
お話ししたいのは―
05:22
(Applause)
84
322866
1519
(拍手)
05:24
Thank you.
85
324409
1304
どうも
05:25
(Applause)
86
325737
2340
(拍手)
05:29
Let's talk for a minute about what those dots are.
87
329800
2517
点を繋ぎ合わせる ということについてです
05:33
As you can imagine, this content is horrific.
88
333323
3211
そういうコンテンツが悲惨なのは 想像できますよね
05:36
If you don't have to look at it, you don't want to look at it.
89
336558
3848
見ずに済むなら 見たくないものです
05:40
And so, most companies or law enforcement agencies
90
340430
4969
ですから コンテンツを有する
企業の多くや 警察は
05:45
that have this content
91
345423
1663
05:47
can translate every file into a unique string of numbers.
92
347110
3452
個々のファイルを 固有の数字に変換します
05:50
This is called a "hash."
93
350586
1474
これを「ハッシュ」と呼びます
05:52
It's essentially a fingerprint
94
352084
2143
実質的には 個々のファイルや動画の
05:54
for each file or each video.
95
354251
2398
指紋のようなものです
05:56
And what this allows them to do is use the information in investigations
96
356673
4613
ハッシュにより いちいち 画像や動画の中身を確認しなくても
06:01
or for a company to remove the content from their platform,
97
361310
3027
その情報を捜査に利用したり
06:04
without having to relook at every image and every video each time.
98
364361
5174
企業がプラットフォームから コンテンツを削除したりできます
06:10
The problem today, though,
99
370196
2151
現在の問題は
06:12
is that there are hundreds of millions of these hashes
100
372371
3751
膨大な数のそういうハッシュが
06:16
sitting in siloed databases all around the world.
101
376146
3610
世界各地の独立したデータベースに 格納されていることです
06:20
In a silo,
102
380214
1151
それぞれのデータベースは
06:21
it might work for the one agency that has control over it,
103
381389
3076
それを管理する組織には 役立つでしょうが
06:24
but not connecting this data means we don't know how many are unique.
104
384489
4130
データベースが接続されていないと 固有のものがどれだけあるのかも
06:28
We don't know which ones represent children who have already been rescued
105
388643
3516
どの児童が救出済みで どの児童が身元確認中なのかも
06:32
or need to be identified still.
106
392183
2889
わからないのです
06:35
So our first, most basic premise is that all of this data
107
395096
4170
だから まず 基本的な前提として
全てのデータを つなげなければなりません
06:39
must be connected.
108
399290
2403
06:42
There are two ways where this data, combined with software on a global scale,
109
402318
6169
ソフトウェアによってデータを 世界的につなぎ合わせることで
06:48
can have transformative impact in this space.
110
408511
3408
大きな変化を生み出せる場所が 2つあります
06:52
The first is with law enforcement:
111
412464
2622
1つ目は警察です
06:55
helping them identify new victims faster,
112
415110
3631
警察が新たな犠牲者の 身元を迅速に特定し
06:58
stopping abuse
113
418765
1216
虐待を止めさせ
07:00
and stopping those producing this content.
114
420005
2904
コンテンツ制作を止めるのに 役立てられます
07:03
The second is with companies:
115
423441
2666
2つ目は企業です
07:06
using it as clues to identify the hundreds of millions of files
116
426131
3621
現在 出回っている膨大なファイルを 特定する手がかりとして
07:09
in circulation today,
117
429776
1594
ハッシュを使い
07:11
pulling it down
118
431394
1187
サイトから削除し
07:12
and then stopping the upload of new material before it ever goes viral.
119
432605
6818
新たなコンテンツのアップロードを 拡散前に阻止します
07:21
Four years ago,
120
441694
1646
4年前
07:23
when that case ended,
121
443364
1539
その事件が解決したとき
07:26
our team sat there, and we just felt this, um ...
122
446300
3739
我々のチームは座って ただ 強い挫折感を感じてました
07:31
... deep sense of failure, is the way I can put it,
123
451635
3338
そう感じずにいられませんでした
07:34
because we watched that whole year
124
454997
3651
なぜなら 1年間 その少女を探している間
07:38
while they looked for her.
125
458672
1320
それを見ていたからです
07:40
And we saw every place in the investigation
126
460016
3967
捜査中の事件現場の様子を 全て見ました
07:44
where, if the technology would have existed,
127
464007
2388
しかるべきテクノロジーがあったなら
07:46
they would have found her faster.
128
466419
2304
その少女は もっと早く 見つかったでしょう
07:49
And so we walked away from that
129
469684
1936
そこが我々の出発点です
07:51
and we went and we did the only thing we knew how to do:
130
471644
2955
自分たちにできる唯一のことを することにしました
07:54
we began to build software.
131
474623
2634
ソフトフェアの開発に着手したのです
07:57
So we've started with law enforcement.
132
477689
2252
最初に 警察と協力しました
07:59
Our dream was an alarm bell on the desks of officers all around the world
133
479965
4421
我々の夢は世界中の警官の机で 通知音を鳴らすことでした
08:04
so that if anyone dare post a new victim online,
134
484410
4544
誰かがネットで 新たな被害者の投稿をしたら
08:08
someone would start looking for them immediately.
135
488978
3489
即座に 捜索し始められるようにです
08:13
I obviously can't talk about the details of that software,
136
493324
2957
そのソフトウェアの詳細を 話すことはできませんが
08:16
but today it's at work in 38 countries,
137
496305
2609
現在 それは 38カ国で運用され
08:18
having reduced the time it takes to get to a child
138
498938
2974
児童を保護するまでの時間を
08:21
by more than 65 percent.
139
501936
2330
65%以上短縮しています
08:24
(Applause)
140
504290
4370
(拍手)
08:33
And now we're embarking on that second horizon:
141
513442
3015
我々の次なる目標は
08:36
building the software to help companies identify and remove this content.
142
516481
5665
企業が虐待コンテンツを特定し削除するのを 支援するソフトウェアの開発です
08:43
Let's talk for a minute about these companies.
143
523193
2532
どういう企業かですが
08:46
So, I told you -- 45 million images and videos in the US alone last year.
144
526270
5232
昨年 アメリカだけで4500万件の 通報がありましたが
08:52
Those come from just 12 companies.
145
532280
3887
その通報元は たった12の企業でした
08:57
Twelve companies, 45 million files of child sexual abuse material.
146
537883
6428
12社が4500万件もの 児童性的虐待ファイルを通報したのです
09:04
These come from those companies that have the money
147
544335
2800
これらの企業には そういうコンテンツを
09:07
to build the infrastructure that it takes to pull this content down.
148
547159
4557
削除するための仕組みを 開発する資金があるのです
09:11
But there are hundreds of other companies,
149
551740
2411
その他の多くの
09:14
small- to medium-size companies around the world,
150
554175
2666
世界中にある中小の企業も
09:16
that need to do this work,
151
556865
2054
その機能を必要としていますが
09:18
but they either: 1) can't imagine that their platform would be used for abuse,
152
558943
5425
自分たちのプラットフォームが 虐待に使われると考えていないか
09:24
or 2) don't have the money to spend on something that is not driving revenue.
153
564392
5845
利益につながらないことに投資できる 資金がないかのどちらかです
09:30
So we went ahead and built it for them,
154
570932
3289
ですから 我々は そんな企業のために 開発を進めています
09:34
and this system now gets smarter with the more companies that participate.
155
574245
4969
そして 協力企業が多くなるほど このシステムも強力になります
09:39
Let me give you an example.
156
579965
1725
例を挙げましょう
09:42
Our first partner, Imgur -- if you haven't heard of this company,
157
582459
3878
最初のパートナー企業はImgurです ご存じないかもしれませんが
09:46
it's one of the most visited websites in the US --
158
586361
3142
Imgurはアメリカで最も 利用者の多いサイトの1つです
09:49
millions of pieces of user-generated content uploaded every single day,
159
589527
5008
インターネットをもっと 楽しい場所にするという志の元
ユーザーから 日に数百万件の 画像アップロードを受けています
09:54
in a mission to make the internet a more fun place.
160
594559
2858
09:58
They partnered with us first.
161
598012
1852
我々が 最初にImgurと協力して
09:59
Within 20 minutes of going live on our system,
162
599888
3343
システムを走らせたところ 20分もせずに
10:03
someone tried to upload a known piece of abuse material.
163
603255
3572
既知の虐待コンテンツの アップロードが試みられました
10:06
They were able to stop it, they pull it down,
164
606851
2108
Imgurは それを停止して 削除し
10:08
they report it to the National Center for Missing and Exploited Children.
165
608983
3466
行方不明・被搾取児童センターへ 通報することができました
10:12
But they went a step further,
166
612473
1908
それだけでなく
10:14
and they went and inspected the account of the person who had uploaded it.
167
614405
4133
そのコンテンツをアップロードしている アカウントの人物を調べたところ
10:19
Hundreds more pieces of child sexual abuse material
168
619086
4711
これまで知られていなかった 児童性的虐待の映像が
10:23
that we had never seen.
169
623821
1818
何百と見つかりました
10:26
And this is where we start to see exponential impact.
170
626152
3532
そこから 急激な変化が始まりました
10:29
We pull that material down,
171
629708
1768
それらのコンテンツを削除し
10:31
it gets reported to the National Center for Missing and Exploited Children
172
631500
3550
行方不明・被搾取児童センターへ 通報します
10:35
and then those hashes go back into the system
173
635074
2511
すると 新たなハッシュが システムに加わり
10:37
and benefit every other company on it.
174
637609
2464
他の企業にも利益をもたらします
10:40
And when the millions of hashes we have lead to millions more and, in real time,
175
640097
4784
我々の持つ何百万というハッシュが さらに何百万というハッシュにつながり
10:44
companies around the world are identifying and pulling this content down,
176
644905
4538
世界中の企業が リアルタイムで そのコンテンツを削除します
10:49
we will have dramatically increased the speed at which we are removing
177
649467
4561
世界中のインターネットから 児童性的虐待のコンテンツを
10:54
child sexual abuse material from the internet around the world.
178
654052
4294
削除するスピードが 劇的に速まるでしょう
10:58
(Applause)
179
658370
5472
(拍手)
11:06
But this is why it can't just be about software and data,
180
666208
3220
ですから ソフトウェアと データだけでなく
11:09
it has to be about scale.
181
669452
1772
規模も重要です
11:11
We have to activate thousands of officers,
182
671248
3513
テクノロジーによって加害者側を 追い抜くことができるなら
11:14
hundreds of companies around the world
183
674785
2377
世界中の何千という警官 何百という企業に行動を促し
11:17
if technology will allow us to outrun the perpetrators
184
677186
3608
現在 児童性的虐待を 当たり前のように 行っている世界中のコミュニティを
11:20
and dismantle the communities that are normalizing child sexual abuse
185
680818
4125
11:24
around the world today.
186
684967
1552
ぶち壊さなければなりません
11:27
And the time to do this is now.
187
687064
2650
今こそ その時です
11:30
We can no longer say we don't know the impact this is having on our children.
188
690288
5797
子供たちにどんな影響を与えるか わからないとは もう言えません
11:36
The first generation of children whose abuse has gone viral
189
696688
4458
虐待を拡散された 最初の世代の子どもたちが
11:41
are now young adults.
190
701170
1710
今では若者になっています
11:43
The Canadian Centre for Child Protection
191
703451
2585
最近 カナダ児童保護センターが
11:46
just did a recent study of these young adults
192
706060
2696
自分の虐待記録が 消えないことを知ってる若者が
11:48
to understand the unique trauma they try to recover from,
193
708780
4636
そこから回復しようとするとき 特有のトラウマの理解を目的とした
11:53
knowing that their abuse lives on.
194
713440
2823
調査を行いました
11:57
Eighty percent of these young adults have thought about suicide.
195
717213
4846
被害児童だった若者の80%が 自殺を考えたことがあります
12:02
More than 60 percent have attempted suicide.
196
722566
4062
60%以上が 自殺を試みたことがあります
12:07
And most of them live with the fear every single day
197
727572
5217
そういう若者の多くが 日々 怯えながら生活しています
12:12
that as they walk down the street or they interview for a job
198
732813
4463
道を歩いている時も 就職面接の時も
12:17
or they go to school
199
737300
2290
学校へ行く時も
12:19
or they meet someone online,
200
739614
2425
誰かとオンラインで会ってる時も
12:22
that that person has seen their abuse.
201
742063
3658
虐待される自分の姿を相手が 見たことがあるんじゃないかと怖いのです
12:26
And the reality came true for more than 30 percent of them.
202
746547
4905
そして その恐怖は30%以上の人に 現実になっています
12:32
They had been recognized from their abuse material online.
203
752256
4586
ネット上の虐待画像に写っているのが 自分だとバレたことがあるのです
12:38
This is not going to be easy,
204
758022
3276
これは難しい問題ですが
12:41
but it is not impossible.
205
761322
2843
解決不能ではありません
12:44
Now it's going to take the will,
206
764189
2676
今こそ 決意すべきです
12:46
the will of our society
207
766889
1589
我々の社会が
12:48
to look at something that is really hard to look at,
208
768502
3554
目を背けたくなる現実を 見つめると決意し
12:52
to take something out of the darkness
209
772080
2343
白日の下へさらけ出す 決意をしてください
12:54
so these kids have a voice;
210
774447
2095
被害児童の声が 聞こえるように
12:58
the will of companies to take action and make sure that their platforms
211
778110
4946
企業は自社のプラットフォームが 児童虐待に加担することが絶対ないよう
13:03
are not complicit in the abuse of a child;
212
783080
3313
対策を講じると 決意してください
13:07
the will of governments to invest with their law enforcement
213
787205
3951
政府は 犠牲者が 訴えることができなくても
13:11
for the tools they need to investigate a digital first crime,
214
791180
5094
デジタル時代の犯罪を捜査するために 必要なツールを
13:16
even when the victims cannot speak for themselves.
215
796298
4083
警察に与えることを 決意してください
13:21
This audacious commitment is part of that will.
216
801746
3698
TEDのプロジェクトへの参加は この決意の一部です
13:26
It's a declaration of war against one of humanity's darkest evils.
217
806269
5407
これは人類最悪の犯罪に対する 宣戦布告です
13:32
But what I hang on to
218
812263
1940
しかし 私がこだわっているのは
13:34
is that it's actually an investment in a future
219
814227
3449
これが実は 未来への投資だということです
13:37
where every child can simply be a kid.
220
817700
3074
すべての子どもたちが 子どものままでいられる未来への
13:41
Thank you.
221
821357
1194
ありがとうございました
13:42
(Applause)
222
822896
6144
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7