下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Tohru Fujita
校正: Natsuki Kominami
00:03
It's getting harder, isn't it,
to spot real from fake,
0
3583
3879
本物と偽物の区別がつかなくなってきましたね
00:07
AI-generated from human-generated.
1
7504
2252
AIが作ったのか人間が作ったのか
00:10
With generative AI,
2
10340
1126
生成AIや
00:11
along with other advances in deep fakery,
3
11508
2419
他のディープフェイク技術の進歩で
00:13
it doesn't take
many seconds of your voice,
4
13969
2252
必要なのは ほんのわずか数秒の声や
00:16
many images of your face,
5
16263
1459
顔が写った数枚の画像だけ
00:17
to fake you,
6
17764
1251
それであなたの偽物が完成
00:19
and the realism keeps increasing.
7
19015
2628
それらはますます精巧になりつつあります
00:21
I first started working
on deepfakes in 2017,
8
21685
3086
私がディープフェイクの研究を始めた
2017年当時
00:24
when the threat to our trust
in information was overhyped,
9
24813
3962
情報を信頼できなくなる危険性が
大々的に取り上げられ
00:28
and the big harm, in reality,
was falsified sexual images.
10
28775
3670
偽造された性的画像による
大きな被害が実際にありました
00:32
Now that problem keeps growing,
harming women and girls worldwide.
11
32904
4171
今もその問題は拡大し続けて世界中の女性や
少女たちを危険にさらし続けています
00:38
But also, with advances in generative AI,
we're now also approaching a world
12
38159
4713
しかし 生成AIが進歩するにつれて
新たな世界に近づいてもいます
00:42
where it's broadly easier
to make fake reality,
13
42872
3462
それは偽物の現実を作るのが
より簡単になり
00:46
but also to dismiss reality
as possibly faked.
14
46376
3879
本物の現実も偽物かもしれないと
簡単に片付けられてしまう世界です
00:50
Now, deceptive and malicious
audiovisual AI
15
50755
3420
欺瞞と悪意に満ちた音声や映像に関するAIが
00:54
is not the root of our societal problems,
16
54217
2669
社会問題の根源とは言えないまでも
00:56
but it's likely to contribute to them.
17
56928
2252
それらを悪化させる可能性は高いといえます
00:59
Audio clones are proliferating
in a range of electoral contexts.
18
59180
4213
選挙の様々な場面で音声クローンが
急激に増加しています
01:03
"Is it, isn't it" claims cloud
human-rights evidence from war zones,
19
63435
5130
「本物か偽物か」という論争が戦争地帯での
人権侵害の証拠を雲散霧消させてしまい
01:08
sexual deepfakes target women
in public and in private,
20
68565
4129
性的ディープフェイクが有名人一般人問わず
女性をターゲットにし
01:12
and synthetic avatars
impersonate news anchors.
21
72736
3336
ニュースキャスターを
合成アバターが演じているのです
01:16
I lead WITNESS.
22
76656
1460
私はWITNESSの代表です
01:18
We're a human-rights group
23
78116
1376
人権保護団体で
01:19
that helps people use video and technology
to protect and defend their rights.
24
79492
3671
人々が映像やテクノロジーを使って権利を
守り抜くのを支援しています
01:23
And for the last five years,
we've coordinated a global effort,
25
83163
3003
過去5年間 世界的に取り組んできた活動が
01:26
"Prepare, Don't Panic,"
26
86333
1167
「備えよ 慌てるな」
01:27
around these new ways
to manipulate and synthesize reality,
27
87500
3045
現実を操作し合成する
新しい手段が台頭する中で
01:30
and on how to fortify the truth
28
90587
2377
最前線の重要なジャーナリストや
01:32
of critical frontline journalists
and human-rights defenders.
29
92964
3420
人権擁護者の真実を
強化する方法に関するものです
01:37
Now, one element in that
is a deepfakes rapid-response task force,
30
97218
5423
その一環として ディープフェイクに対する
緊急対応部隊があります
01:42
made up of media-forensics experts
31
102641
2127
メディアの真偽を鑑定する専門家と
01:44
and companies who donate
their time and skills
32
104768
2168
企業が時間とスキルを提供し
01:46
to debunk deepfakes
and claims of deepfakes.
33
106978
3087
ディープフェイクまたは
その可能性があるものを暴きます
01:50
The task force recently received
three audio clips,
34
110899
3211
最近 この対応部隊が受け取った
3つの音声ファイルは
01:54
from Sudan, West Africa and India.
35
114110
2670
スーダン 西アフリカ インドから
来たものでした
01:57
People were claiming that the clips
were deepfaked, not real.
36
117155
3879
これらのファイルがディープフェイクで
本物ではないと言われていたのです
02:01
In the Sudan case,
37
121451
1210
スーダンのケースでは
02:02
experts used a machine-learning algorithm
38
122702
2002
専門家は機械学習アルゴリズムを使いました
02:04
trained on over a million examples
of synthetic speech
39
124746
2628
100万以上の合成音声サンプルで
訓練されたもので
02:07
to prove, almost
without a shadow of a doubt,
40
127374
2294
ほとんど疑いの余地なく
02:09
that it was authentic.
41
129709
1335
本物であると証明しました
02:11
In the West Africa case,
42
131586
1835
西アフリカのケースでは
02:13
they couldn't reach
a definitive conclusion
43
133463
2002
決定的な結論に至ることはできませんでした
02:15
because of the challenges
of analyzing audio from Twitter,
44
135507
2794
Twitter上にある音声を分析する難しさと
02:18
and with background noise.
45
138301
1752
背景に聞こえるノイズが原因でした
02:20
The third clip was leaked audio
of a politician from India.
46
140095
3712
3つ目はインドの政治家の音声が
流出したファイルでした
02:23
Nilesh Christopher of “Rest of World”
brought the case to the task force.
47
143848
3796
『Rest of World』の
ニレーシュ・クリストファーが持ち込みました
02:27
The experts used almost an hour of samples
48
147644
2961
専門家たちは約1時間分のサンプルを使用して
02:30
to develop a personalized model
of the politician's authentic voice.
49
150605
3879
その政治家の本物の声を
忠実に再現したモデルを開発しました
02:35
Despite his loud and fast claims
that it was all falsified with AI,
50
155151
4380
彼は声高らかに そして矢継ぎ早に
AIで偽造されたと主張していたにもかかわらず
02:39
experts concluded that it at least
was partially real, not AI.
51
159572
4255
専門家たちは少なくとも部分的には本物で
AIではないと結論づけました
02:44
As you can see,
52
164369
1335
お分かりだと思いますが
02:45
even experts cannot rapidly
and conclusively separate true from false,
53
165745
5089
専門家でさえ真偽を迅速かつ正確に
見分けることはできないということです
02:50
and the ease of calling
"that's deepfaked" on something real
54
170875
4421
そして 本物であるはずのものをいとも簡単に
「ディープフェイクだ」と言えてしまう場合が
02:55
is increasing.
55
175296
1168
増加しつつあるのです
02:57
The future is full of profound challenges,
56
177132
2002
深刻な課題が山積みとなっています
02:59
both in protecting the real
and detecting the fake.
57
179175
3420
本物を守るのも 偽物を見抜くのも
いずれも困難な作業なのです
03:03
We're already seeing the warning signs
58
183888
1919
事実と虚構を見分ける難しさに対する
03:05
of this challenge
of discerning fact from fiction.
59
185807
2711
警告のサインはすでに目の前にあります
03:08
Audio and video deepfakes
have targeted politicians,
60
188560
3128
音声や映像のディープフェイクが
ターゲットにしているのは政治家
03:11
major political leaders in the EU,
Turkey and Mexico,
61
191688
3587
例えばEUやトルコ
そしてメキシコの主要な政治指導者
03:15
and US mayoral candidates.
62
195316
1710
それにアメリカの市長候補者たちです
03:17
Political ads are incorporating footage
of events that never happened,
63
197444
3503
政治広告の映像には
実際には起こっていない出来事が組み込まれ
03:20
and people are sharing
AI-generated imagery from crisis zones,
64
200947
4546
人々はAIが生成した
危機に瀕した地域の画像を拡散して
03:25
claiming it to be real.
65
205535
1418
これが事実だと主張しています
03:27
Now, again, this problem
is not entirely new.
66
207454
3211
繰り返しますが
この問題は全く新しいものではありません
03:31
The human-rights defenders
and journalists I work with
67
211207
2628
共に仕事をしている
人権擁護者やジャーナリストたちは
03:33
are used to having
their stories dismissed,
68
213835
2794
自分たちの話が否定されることに慣れています
03:36
and they're used to widespread,
deceptive, shallow fakes,
69
216671
3462
広く拡散された巧妙な偽情報
いわゆるシャローフェイク
03:40
videos and images taken
from one context or time or place
70
220175
3670
つまり ひとつの文脈や時間
場所から切り取られた動画や画像が
03:43
and claimed as if they're in another,
71
223887
2460
あたかも
別の状況のものであるかのように主張され
03:46
used to share confusion
and spread disinformation.
72
226347
3129
混乱や偽情報の拡散のために
利用されることにも慣れています
03:49
And of course, we live in a world
that is full of partisanship
73
229934
3170
もちろん私たちは
自分の陣営の味方ばかりして
03:53
and plentiful confirmation bias.
74
233146
2127
確証バイアスに満ちた世界に生きています
03:57
Given all that,
75
237317
1209
これらのことを踏まえて
03:58
the last thing we need
is a diminishing baseline
76
238526
3045
我々が最もさけるべきことは
民主主義の根本にある
04:01
of the shared, trustworthy information
upon which democracies thrive,
77
241613
3962
みんなで共有し信頼できる情報の基盤を
弱めてしまうことです
04:05
where the specter of AI
78
245617
1418
そうなれば AIという亡霊が
04:07
is used to plausibly believe
things you want to believe,
79
247076
3462
信じたいことをもっともらしく信じるための
口実として使われ
04:10
and plausibly deny things
you want to ignore.
80
250538
2336
臭いものには蓋をする手段になってしまいます
04:15
But I think there's a way
we can prevent that future,
81
255084
2628
しかし そのような未来を
迎えないための方法があります
04:17
if we act now;
82
257754
1501
今すぐに行動をするのです
04:19
that if we "Prepare, Don't Panic,"
83
259255
2211
「備えよ 慌てるな」の精神で
04:21
we'll kind of make our way
through this somehow.
84
261508
3253
どうにかしてこの状況を
切り抜ける道があるはずです
04:25
Panic won't serve us well.
85
265929
2627
慌てたところで何も状況は良くなりません
04:28
[It] plays into the hands
of governments and corporations
86
268681
2711
政府や企業の思惑通り 恐怖心に
04:31
who will abuse our fears,
87
271392
1669
つけ込まれてしまうでしょう
04:33
and into the hands of people
who want a fog of confusion
88
273102
3045
そして 混乱の霧を望み
AIを口実として利用する人々の
04:36
and will use AI as an excuse.
89
276147
2461
手に乗ることにもなります
04:40
How many people were taken in,
just for a minute,
90
280610
2419
ほんの一瞬でも騙された人は
どれくらいいますか
04:43
by the Pope in his dripped-out
puffer jacket?
91
283029
2336
イケイケのダウンジャケットを着た
法王の画像です
04:45
You can admit it.
92
285406
1168
正直に認めていいですよ
04:46
(Laughter)
93
286574
1210
(笑)
04:47
More seriously,
94
287784
1209
もっと深刻な話をすると
04:49
how many of you know someone
who's been scammed
95
289035
2503
我が子の声に聞こえる音声による詐欺の
04:51
by an audio that sounds like their kid?
96
291579
2044
被害者を知っている人は?
04:54
And for those of you
who are thinking "I wasn't taken in,
97
294624
2920
こんな風に思っている人はいませんか?
「私は騙されなかった
04:57
I know how to spot a deepfake,"
98
297544
1584
ディープフェイクを見抜ける」
04:59
any tip you know now is already outdated.
99
299170
3003
あなたが知っているどんなコツも
もう時代遅れです
05:02
Deepfakes didn't blink, they do now.
100
302757
2544
ディープフェイクは瞬きをしなかった?
今はします
05:06
Six-fingered hands were more common
in deepfake land than real life --
101
306177
3587
ディープフェイクの世界では
6本指の手が一般的だった?
05:09
not so much.
102
309806
1126
今は違います
05:11
Technical advances erase
those visible and audible clues
103
311307
3754
技術の進歩により 目に見える
耳に聞こえる手掛かりが消えてしまいます
05:15
that we so desperately want to hang on to
104
315061
2002
本物と偽物を見分ける証拠として
05:17
as proof we can discern real from fake.
105
317105
2252
私たちが必死につかまろうとする手掛かりが
05:20
But it also really shouldn’t be on us
to make that guess without any help.
106
320191
4713
そもそも私たちは何の助けもなく
その判断をするべきではありません
05:24
Between real deepfakes
and claimed deepfakes,
107
324946
2127
ディープフェイクと
単なる候補を見極めるには
05:27
we need big-picture, structural solutions.
108
327073
2961
全体を見据えた
根本的な解決策が必要です
05:30
We need robust foundations
109
330034
1502
本物と偽物を
05:31
that enable us to discern
authentic from simulated,
110
331578
3128
区別できるような堅固な基盤
05:34
tools to fortify the credibility
of critical voices and images,
111
334747
3921
重要な音声や画像の信憑性を
裏付けるツール
05:38
and powerful detection technology
112
338668
2336
そして 狙ったものだけを検出する
05:41
that doesn't raise more doubts
than it fixes.
113
341045
2670
強力な技術が必要なのです
05:45
There are three steps we need to take
to get to that future.
114
345091
3045
そのような未来に到達するために
必要なステップは3つあります
05:48
Step one is to ensure
that the detection skills and tools
115
348887
3712
1つ目のステップは
検出を行うためのスキルとツールを
05:52
are in the hands
of the people who need them.
116
352599
2168
必要とする人々の手に確実に届けることです
05:54
I've talked to hundreds of journalists,
117
354767
2253
これまで対話をしてきた
何百人ものジャーナリスト
05:57
community leaders
and human-rights defenders,
118
357020
2252
コミュニティのリーダーや人権保護活動者たち
05:59
and they're in the same boat
as you and me and us.
119
359272
2919
彼らも あなたも私も 私たち全員
同じ立場にいるのです
06:02
They're listening to the audio,
trying to think, "Can I spot a glitch?"
120
362191
3421
彼らは音声を聞いては
「不自然な点はないか」と考えます
06:05
Looking at the image, saying,
"Oh, does that look right or not?"
121
365612
3295
画像を見ては
「おや これは本物かな」と言います
06:08
Or maybe they're going online
to find a detector.
122
368907
3336
あるいはネットで検出ツールを
探しまわっているかもしれません
06:12
And the detector they find,
123
372285
1335
そして見つけた検出ツールの
06:13
they don't know whether they're getting
a false positive, a false negative,
124
373661
3545
結果が偽陽性なのか偽陰性なのか
それとも信頼に足るのか
06:17
or a reliable result.
125
377248
1251
判断できません
06:18
Here's an example.
126
378541
1168
1つ例を挙げましょう
06:19
I used a detector, which got the Pope
in the puffer jacket right.
127
379751
3712
この検出ツールはダウンジャケットの
法王の画像を正しく判定しました
06:23
But then, when I put in the Easter bunny
image that I made for my kids,
128
383796
4255
しかし 子供たちのために私が作った
イースターバニーの画像を入れてみると
06:28
it said that it was human-generated.
129
388092
1961
人工的に生成されたものだと判定しました
06:30
This is because of some big challenges
in deepfake detection.
130
390637
3253
これはディープフェイク検出における
大きな課題を示しています
06:34
Detection tools often only work
on one single way to make a deepfake,
131
394474
3295
検出ツールは大抵一つの
ディープフェイク生成方法に特化しているので
06:37
so you need multiple tools,
132
397769
1543
複数のツールが必要です
06:39
and they don't work well
on low-quality social media content.
133
399354
4337
さらに品質の低いSNS上のコンテンツには
その判定がうまく機能しないのです
06:43
Confidence score, 0.76-0.87,
134
403691
3337
判定に対する信頼度スコアが
0.76~0.87だったとして
06:47
how do you know whether that's reliable,
135
407028
1919
はたして信頼できる結果なのでしょうか?
06:48
if you don't know if the underlying
technology is reliable,
136
408988
2795
基礎となる技術が信頼できるかどうか
分からない場合や
06:51
or whether it works on the manipulation
that is being used?
137
411824
2795
その生成方法に対して
機能するかも分からない場合は?
06:54
And tools to spot an AI manipulation
don't spot a manual edit.
138
414661
5046
また AI操作を検出するツールは手動による
編集を検出することができないのです
07:00
These tools also won't be
available to everyone.
139
420583
3587
さらに これらのツールは誰でも自由に
利用できるというわけではありません
07:04
There's a trade-off
between security and access,
140
424212
3128
安全性を高めるか 使いやすくするか
どちらかを取るしかないのです
07:07
which means if we make them
available to anyone,
141
427382
2544
つまり 誰でも利用できるようにしてしまうと
07:09
they become useless to everybody,
142
429926
2586
すべての人にとって
無用の長物になってしまいます
07:12
because the people designing
the new deception techniques
143
432512
2711
なぜかというと
新しい偽造技術を設計する人々が
07:15
will test them on the publicly
available detectors
144
435264
3087
公開された検出ツールを利用して
テストを行い
07:18
and evade them.
145
438393
1209
回避してしまうからです
07:20
But we do need to make sure
these are available
146
440061
2920
そうは言っても
利用を保証すべき人々もいます
07:22
to the journalists, the community leaders,
147
442981
2085
ジャーナリストやコミュニティリーダー
07:25
the election officials, globally,
who are our first line of defense,
148
445108
3628
選挙管理官たち
つまり守備の第一線にいる世界中の人々です
07:28
thought through with attention
to real-world accessibility and use.
149
448736
3254
現実社会での利便性と実用性を
よく考えればそうなります
07:32
Though at the best circumstances,
150
452991
2544
文句なしの状況が整っているような
場合であれば
07:35
detection tools will be
85 to 95 percent effective,
151
455576
3003
検出ツールは85%~95%の精度を期待でき
これらは
07:38
they have to be in the hands
of that first line of defense,
152
458579
2795
第一線でAIと戦う人々の手に
届けなければならないはずが
07:41
and they're not, right now.
153
461374
1543
現状はそうなっていません
07:43
So for step one, I've been talking
about detection after the fact.
154
463710
3128
1つ目のステップは生成されたものを
検出する方法でした
07:46
Step two -- AI is going to be everywhere
in our communication,
155
466838
4462
次に2つ目です AIは私たちの
コミュニケーションのあらゆる場面において
07:51
creating, changing, editing.
156
471300
2169
作成 変更 編集に使われるようになります
07:53
It's not going to be a simple binary
of "yes, it's AI" or "phew, it's not."
157
473469
4755
「はい これはAI」「いや 違う」
という単純な二択ではなくなるということです
07:58
AI is part of all of our communication,
158
478224
3086
AIがコミュニケーション全体の
一部になっていくので
08:01
so we need to better understand
the recipe of what we're consuming.
159
481352
4046
消費しているものの成り立ちを
よりしっかりと理解しておく必要があります
08:06
Some people call this
content provenance and disclosure.
160
486232
3754
これをコンテンツ・プロヴェナンスや
ディスクロージャーと呼ぶ人もいます
08:10
Technologists have been building ways
to add invisible watermarking
161
490028
3503
技術者たちは AIで生成されたメディアに
見えない透かしを
08:13
to AI-generated media.
162
493573
1877
入れる方法を開発してきました
08:15
They've also been designing ways --
163
495491
1752
別の方法も現在 設計されていす
08:17
and I've been part of these efforts --
164
497243
1877
私もこの取り組みに参加していますが
08:19
within a standard called the C2PA,
165
499162
1710
C2PAと呼ばれる標準規格の中で
08:20
to add cryptographically signed
metadata to files.
166
500872
2669
ファイルに暗号で署名された
メタデータを追加するのです
08:24
This means data that provides details
about the content,
167
504125
4379
このメタデータというのはコンテンツに関する
詳細な情報を提供するデータのことで
08:28
cryptographically signed
in a way that reinforces our trust
168
508546
3712
情報に対する信頼を強化する方法で
暗号化された署名が
08:32
in that information.
169
512300
1501
埋め込まれています
08:33
It's an updating record
of how AI was used to create or edit it,
170
513801
5297
ファイルの作成あるいは編集段階での
AIの使途を記録する 更新可能なデータです
08:39
where humans and other
technologies were involved,
171
519098
2670
人間や他の技術が
どの部分に関わっており
08:41
and how it was distributed.
172
521809
1919
どのように配信されたかも記録します
08:43
It's basically a recipe
and serving instructions
173
523770
3003
つまりAIと人間が協力して
作ったものについて
08:46
for the mix of AI and human
174
526814
1961
その作り方と提供方法が記録されており
08:48
that's in what you're seeing and hearing.
175
528816
2336
あなたが見聞きするものに組み込まれています
08:51
And it's a critical part of a new
AI-infused media literacy.
176
531903
4462
これはAIを含む新しいメディアリテラシーの
欠かすことのできない部分となります
08:57
And this actually
shouldn't sound that crazy.
177
537116
2461
実際 それほど奇妙な話には
聞こえないはずです
08:59
Our communication is moving
in this direction already.
178
539577
3212
私たちのコミュニケーションは
すでにこの方向に向かっています
09:02
If you're like me -- you can admit it --
179
542789
2002
正直になってください
私と同じように
09:04
you browse your TikTok “For You” page,
180
544832
2419
TikTokの「おすすめ」を閲覧する人は
09:07
and you're used to seeing videos
that have an audio source,
181
547251
4213
よく目にしているはずですよね?
それらの動画には楽曲の音源
09:11
an AI filter, a green screen,
a background,
182
551464
2419
AIフィルターやグリーンバック
背景が使われており
09:13
a stitch with another edit.
183
553883
1752
別の動画とつなぎ合わせてあったりする
09:15
This, in some sense, is the alpha version
of this transparency
184
555676
3337
これは ある意味
現在主要なプラットフォームでの
09:19
in some of the major
platforms we use today.
185
559055
2377
透明性に関する
開発初期段階の試作品です
09:21
It's just that it does not yet travel
across the internet,
186
561474
2753
まだインターネット全体に
普及しているわけではなく
09:24
it’s not reliable, updatable,
and it’s not secure.
187
564268
3128
信頼できるわけでも
更新可能でも安全でもありません
09:27
Now, there are also big challenges
188
567980
2628
信頼性に関するこの種のインフラには
09:30
in this type of infrastructure
for authenticity.
189
570650
2544
大きな課題もあります
09:34
As we create these durable signs
of how AI and human were mixed,
190
574278
4088
AIと人間がどのように協力しているかを示す
永続的な透かしを作成し
09:38
that carry across the trajectory
of how media is made,
191
578366
3086
それがメディアの製作過程を伝達する際に
09:41
we need to ensure they don't compromise
privacy or backfire globally.
192
581494
4129
プライバシーが侵害されたり
世界全体で逆効果となったりしてはいけません
09:46
We have to get this right.
193
586249
1710
正しい方法で行う必要があります
09:48
We can't oblige a citizen journalist
filming in a repressive context
194
588584
4255
抑圧的な環境で撮影する市民ジャーナリストや
09:52
or a satirical maker
using novel gen-AI tools
195
592839
3169
新しい生成AIツールを使って
権力者をパロディ化する
09:56
to parody the powerful ...
196
596008
1252
風刺作家に
09:58
to have to disclose their identity
or personally identifiable information
197
598845
4879
カメラやChatGPTを使いたいなら
身元や個人を特定できる情報を開示しろと
10:03
in order to use their camera or ChatGPT.
198
603766
2961
義務付けることはできません
10:08
Because it's important they be able
to retain their ability to have anonymity,
199
608312
3712
ツールの透明性の確保と同時に
匿名性を維持できる状況が
10:12
at the same time as the tool
to create is transparent.
200
612066
3378
彼らにとって重要なことだからです
10:16
This needs to be about the how
of AI-human media making,
201
616112
4171
これはAIと人間がメディアを
「どう」製作するかであって
10:20
not the who.
202
620283
1167
「誰が」ではありません
10:22
This brings me to the final step.
203
622952
2211
いよいよ最後のステップです
10:25
None of this works
without a pipeline of responsibility
204
625163
4462
これまで話したことは
責任の連鎖なしにはどれひとつ機能しません
10:29
that runs from the foundation models
and the open-source projects
205
629667
4254
基盤となるモデルや
オープンソースのプロジェクトから
10:33
through to the way that is deployed
into systems, APIs and apps,
206
633963
4213
システムやAPI そしてアプリへと
展開していく過程を経て
10:38
to the platforms where we consume
media and communicate.
207
638217
3379
メディアを使いコミュニケーションを行う
プラットフォームまで全部です
10:43
I've spent much of the last 15 years
fighting, essentially, a rearguard action,
208
643139
4171
私は過去15年間にわたり実質のところ
最後の尻ぬぐいをしてきました
10:47
like so many of my colleagues
in the human rights world,
209
647310
2919
人権擁護の世界にいる多くの仲間と同じように
10:50
against the failures of social media.
210
650229
2169
SNSの失敗の後始末をしてきたのです
10:52
We can't make those mistakes again
in this next generation of technology.
211
652899
5380
技術が次世代の局面を迎える今
同じ過ちを繰り返すわけにはいきません
10:59
What this means is that governments
212
659572
1835
つまり私が言いたいのは政府が
11:01
need to ensure that within this pipeline
of responsibility for AI,
213
661449
4254
AIにまつわる責任の連鎖の中に
透明性と説明責任そして法的責任を
11:05
there is transparency,
accountability and liability.
214
665703
3253
しっかりと確保しなければならないのです
11:10
Without these three steps --
215
670666
2086
この3つのステップー
11:12
detection for the people who need it most,
216
672793
3129
最も必要とする人々のために
検出を可能にすること
11:15
provenance that is rights-respecting
217
675922
2502
権利を尊重するプロヴェナンス
11:18
and that pipeline of responsibility,
218
678466
2169
それと責任の連鎖がなければ
11:20
we're going to get stuck looking in vain
for the six-fingered hand,
219
680635
3545
6本の指が生えた手や
瞬きをすることのない目を
11:24
or the eyes that don't blink.
220
684222
1543
無駄に探し続けることになるでしょう
11:26
We need to take these steps.
221
686390
1836
これらのステップが私たちには必要です
11:28
Otherwise, we risk a world
where it gets easier and easier
222
688226
3294
でないと現実の偽造と
現実を偽物かもしれないと片付けることが
11:31
to both fake reality
223
691520
1502
どちらも簡単になるという
11:33
and dismiss reality as potentially faked.
224
693064
2669
リスクを背負うことになります
11:36
And that is a world that the political
philosopher Hannah Arendt
225
696234
3086
政治哲学者のハンナ・アーレントは
このような世界について
11:39
described in these terms:
226
699320
1460
次の言葉を残しています
11:40
"A people that no longer
can believe anything
227
700821
2628
「もはや何をも信じることが
できなくなった人々は
11:43
cannot make up its own mind.
228
703491
2294
自分の考えを持てなくなる
11:45
It is deprived not only
of its capacity to act
229
705785
3211
それはつまり
行動する能力を奪われてしまうだけでなく
11:48
but also of its capacity
to think and to judge.
230
708996
3504
考える能力や判断する能力も
奪われてしまうということだ
11:52
And with such a people
you can then do what you please."
231
712959
3211
人々がそうなれば
好き勝手ふるまうことができる」
11:56
That's a world I know none of us want,
232
716712
2044
誰も望まないこんな世界になることを
11:58
that I think we can prevent.
233
718798
2002
私たちは防げると信じています
12:00
Thanks.
234
720800
1168
ありがとうございました
12:02
(Cheers and applause)
235
722009
2544
(歓声と拍手)
New videos
Original video on YouTube.com
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。