Dear Facebook, this is how you're breaking democracy | Yael Eisenstat
114,945 views ・ 2020-09-24
下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Kumi Kaku
校正: Natsuhiko Mizutani
00:13
Around five years ago,
0
13000
2018
5年ほど前に
私は突然 気付きました
00:15
it struck me that I was losing the ability
1
15042
2392
自分は 考え方の違う人と
00:17
to engage with people
who aren't like-minded.
2
17458
2500
付き合う能力を失ってきている と
00:20
The idea of discussing hot-button issues
with my fellow Americans
3
20917
3642
微妙な問題について アメリカ人同士で
議論しようと考えたときの
00:24
was starting to give me more heartburn
4
24583
2393
胸焼けのような感覚が
00:27
than the times that I engaged
with suspected extremists overseas.
5
27000
4125
海外で過激派と思われる集団と
関わったときよりもひどくなり始めていました
00:31
It was starting to leave me feeling
more embittered and frustrated.
6
31750
3601
後味の悪さと苛立ちが
強く残るようになったのです
00:35
And so just like that,
7
35375
1434
そう気付いた途端に
00:36
I shifted my entire focus
8
36833
1810
私の関心は
00:38
from global national security threats
9
38667
2434
国家安全保障上の国際的な脅威から
00:41
to trying to understand
what was causing this push
10
41125
3226
国内の二極化圧力の原因を理解することへと
00:44
towards extreme polarization at home.
11
44375
3226
すっかり変わりました
00:47
As a former CIA officer and diplomat
12
47625
2351
私は かつて CIA職員や外交官として
00:50
who spent years working
on counterextremism issues,
13
50000
3434
過激思想の問題への対策に
年月を費やしてきましたが
00:53
I started to fear that this was becoming
a far greater threat to our democracy
14
53458
3851
私たちの民主主義にとっては
この二極化が 海外のどの敵よりも
00:57
than any foreign adversary.
15
57333
2518
遥かに重大な脅威になると
恐れるようになりました
00:59
And so I started digging in,
16
59875
1809
そこで これを深く掘り下げ
01:01
and I started speaking out,
17
61708
1518
公の場で声を上げ始めたところ
01:03
which eventually led me
to being hired at Facebook
18
63250
2809
それをきっかけにある時
フェイスブックで働くことになり
01:06
and ultimately brought me here today
19
66083
2685
さらに結果的に 今ここを訪れて
01:08
to continue warning you
about how these platforms
20
68792
2809
皆さんに これらのプラットフォームが
01:11
are manipulating
and radicalizing so many of us
21
71625
4018
いかに多くの人々を操り
過激化させているか 警告をお伝えし
01:15
and to talk about
how to reclaim our public square.
22
75667
2958
開かれた議論の場を
いかに取り戻すか お話ししようとしています
01:19
I was a foreign service officer in Kenya
23
79625
1976
私は外交官としてケニアで働きました
01:21
just a few years after
the September 11 attacks,
24
81625
3059
同時多発テロ事件の
ほんの数年後のことです
01:24
and I led what some call
"hearts and minds" campaigns
25
84708
2560
またソマリア国境沿いで
「ハートと心」の作戦と呼ばれる
01:27
along the Somalia border.
26
87292
1934
活動を指揮していました
01:29
A big part of my job
was to build trust with communities
27
89250
3309
主な任務は 過激派の影響が
最も及びやすいとされる地域で
01:32
deemed the most susceptible
to extremist messaging.
28
92583
2709
現地との信頼関係を築くことでした
01:36
I spent hours drinking tea
with outspoken anti-Western clerics
29
96125
4184
西洋ぎらいの無遠慮な聖職者たちと
何時間も お茶を共にしたことも
01:40
and even dialogued
with some suspected terrorists,
30
100333
3226
テロリストとおぼしき人物と
対話したこともあります
01:43
and while many of these engagements
began with mutual suspicion,
31
103583
3393
やりとりの多くは
相互不信から始まりましたが
01:47
I don't recall any of them
resulting in shouting or insults,
32
107000
3809
怒号や侮辱の応酬で
終わった記憶はまったくなく
01:50
and in some case we even worked together
on areas of mutual interest.
33
110833
4084
利害の一致する分野で
共同作業をしたことさえありました
01:56
The most powerful tools we had
were to simply listen, learn
34
116000
4143
私たちの持っていた最強のツールは
相手の話をひたすら聞き 学び
02:00
and build empathy.
35
120167
1726
気持ちを通わせるというものでした
02:01
This is the essence
of hearts and minds work,
36
121917
3059
これが「ハートと心」の活動の本質です
02:05
because what I found again and again
is that what most people wanted
37
125000
3268
というのも 私が何度も経験したように
ほとんどの人々が望むのは
02:08
was to feel heard,
validated and respected.
38
128292
3767
自分の声が届き 認められ
尊重されていると感じることだったからです
02:12
And I believe that's what most of us want.
39
132083
2643
私たちの大半も 同じことを望むはずです
02:14
So what I see happening online today
is especially heartbreaking
40
134750
3309
それで 今のネットで見られる事態には
胸の張りさける思いがしますし
02:18
and a much harder problem to tackle.
41
138083
2084
遥かに対策の難しい問題とも
感じられるのです
02:20
We are being manipulated
by the current information ecosystem
42
140917
3767
私たちは 現在の情報システムの
生態系に操られており
02:24
entrenching so many of us
so far into absolutism
43
144708
3768
余りにも多くの人が
極端な思想に染め上げられて
02:28
that compromise has become a dirty word.
44
148500
2976
妥協という言葉も禁句に
なってしまいました
02:31
Because right now,
45
151500
1309
というのも 現在
02:32
social media companies like Facebook
46
152833
2143
フェイスブックなどの
ソーシャルメディアの収益源が
02:35
profit off of segmenting us
and feeding us personalized content
47
155000
3851
私たちを分類した上で
偏見を正当化し悪用するような
個人化コンテンツを送り付けることだからです
02:38
that both validates
and exploits our biases.
48
158875
3851
02:42
Their bottom line depends
on provoking a strong emotion
49
162750
3434
彼らの最終損益を左右するのは
強い感情を掻き立てて
02:46
to keep us engaged,
50
166208
1685
投稿や共有を続けさせることなので
02:47
often incentivizing the most
inflammatory and polarizing voices,
51
167917
4267
最も扇動的で極端な意見を
奨励することとなりがちで
02:52
to the point where finding common ground
no longer feels possible.
52
172208
4435
結果的に お互いの共通点を探すことも
不可能と感じるほどになりました
02:56
And despite a growing chorus of people
crying out for the platforms to change,
53
176667
4226
また そんなプラットフォームの
変更を求める声がどんなに増えても
03:00
it's clear they will not
do enough on their own.
54
180917
3309
企業が自ら十分な対策を
講じないのは明らかです
03:04
So governments must define
the responsibility
55
184250
2893
そこで政府は
こうしたビジネスモデルから
03:07
for the real-world harms being caused
by these business models
56
187167
3809
実生活に及ぼされる悪影響についての
責任を明確にして
03:11
and impose real costs
on the damaging effects
57
191000
2768
私たちの公衆衛生や 開かれた議論の場や
民主主義に与えた損害に関する
03:13
they're having to our public health,
our public square and our democracy.
58
193792
5309
全ての費用を払わせなければなりません
03:19
But unfortunately, this won't happen
in time for the US presidential election,
59
199125
4643
ただ残念ながら それも
米大統領選には間に合わないでしょう
03:23
so I am continuing to raise this alarm,
60
203792
2767
それで 私は警告を発し続けています
03:26
because even if one day
we do have strong rules in place,
61
206583
3060
なぜなら いつか強い規制が
実現したとしても
03:29
it will take all of us to fix this.
62
209667
2750
解決には私たち全員の力が
必要だからです
03:33
When I started shifting my focus
from threats abroad
63
213417
2601
自分の関心が 海外の脅威から
03:36
to the breakdown
in civil discourse at home,
64
216042
2142
国内の社会的な対話の崩壊へと
移ったとき
03:38
I wondered if we could repurpose
some of these hearts and minds campaigns
65
218208
4060
私は「ハートと心」の作戦の一部が
私たちの分断の修復にも
03:42
to help heal our divides.
66
222292
2101
転用できるのでは と考えました
03:44
Our more than 200-year
experiment with democracy works
67
224417
3809
200年以上かけて培った 民主主義が
成果をあげている大きな理由は
03:48
in large part because we are able
to openly and passionately
68
228250
3893
私たちは 熱い 開かれた議論を通じて
03:52
debate our ideas for the best solutions.
69
232167
2809
最良の解決策を見出すことができるからです
03:55
But while I still deeply believe
70
235000
1809
ただ 私は直接会って得られる
03:56
in the power of face-to-face
civil discourse,
71
236833
2268
相互理解の力を
今でも深く信奉する一方
03:59
it just cannot compete
72
239125
1643
それだけでは
04:00
with the polarizing effects
and scale of social media right now.
73
240792
3809
現在のソーシャルメディアの二極化効果と
規模には 太刀打ちできないと考えます
04:04
The people who are sucked
down these rabbit holes
74
244625
2351
ソーシャルメディアの暴力という
アリ地獄に呑み込まれた人々を
04:07
of social media outrage
75
247000
1309
04:08
often feel far harder to break
of their ideological mindsets
76
248333
3643
観念的な思考から解放するのは
かつての不安定地域での活動よりも
04:12
than those vulnerable communities
I worked with ever were.
77
252000
3476
遥かに難しいと感じることも よくあります
04:15
So when Facebook called me in 2018
78
255500
2309
そこで2018年に
フェイスブックからの電話で
04:17
and offered me this role
79
257833
1310
選挙における政治広告を
適正に運営する責任者という
04:19
heading its elections integrity operations
for political advertising,
80
259167
3976
役割を提示されたときには
04:23
I felt I had to say yes.
81
263167
2017
これは受けねば と思いました
04:25
I had no illusions
that I would fix it all,
82
265208
2726
自分が全て解決しようなどという
幻想はなかったものの
04:27
but when offered the opportunity
83
267958
1643
船の針路をより良い方向へと
04:29
to help steer the ship
in a better direction,
84
269625
2184
導くことを手伝う機会が与えられるというなら
04:31
I had to at least try.
85
271833
1542
断る手はありませんでした
04:34
I didn't work directly on polarization,
86
274667
2267
業務で二極化を直接扱いは
しませんでしたが
04:36
but I did look at which issues
were the most divisive in our society
87
276958
4435
この社会を分断する
一番の問題が何なのか
04:41
and therefore the most exploitable
in elections interference efforts,
88
281417
3809
またそれ故に 選挙妨害に
一番弱い部分がどこなのかには着目しました
04:45
which was Russia's tactic ahead of 2016.
89
285250
2583
そこを ロシアが2016年の選挙で
戦略的に攻めたからです
04:48
So I started by asking questions.
90
288583
2351
まずは疑問点を挙げてみました
04:50
I wanted to understand
the underlying systemic issues
91
290958
2893
こんな事態の発生を許した
04:53
that were allowing all of this to happen,
92
293875
2434
システム上の問題点を理解した上で
04:56
in order to figure out how to fix it.
93
296333
2084
解決方法を見つけたかったのです
04:59
Now I still do believe
in the power of the internet
94
299625
2559
私は今でもインターネットには
より多くの意見を
05:02
to bring more voices to the table,
95
302208
2518
引き出す力があると信じていますが
05:04
but despite their stated goal
of building community,
96
304750
3101
コミュニティの構築という
公に掲げた目標にもかかわらず
05:07
the largest social media companies
as currently constructed
97
307875
3309
現在 築き上げられた
巨大ソーシャルメディア企業は
05:11
are antithetical to the concept
of reasoned discourse.
98
311208
3601
理性ある対話という概念とは
真逆の存在です
05:14
There's no way to reward listening,
99
314833
2518
人の話に耳を傾けることに報いたり
05:17
to encourage civil debate
100
317375
1601
開かれた議論を促したり
05:19
and to protect people
who sincerely want to ask questions
101
319000
3643
真摯に質問したい人々を保護したりする
手段が全くありません
05:22
in a business where optimizing
engagement and user growth
102
322667
3351
このビジネスでは
ユーザ関与の最適化とユーザの増加が
05:26
are the two most important
metrics for success.
103
326042
3226
成功のために最も重要な
2つの指標になっているからです
05:29
There's no incentive
to help people slow down,
104
329292
3434
人々が関与する前に
一旦落ち着かせて
05:32
to build in enough friction
that people have to stop,
105
332750
3226
立ち止まらせるような
干渉機能を設けて
05:36
recognize their emotional
reaction to something,
106
336000
2601
何かに感情的な反応を
していると気付かせ
05:38
and question their own
assumptions before engaging.
107
338625
2667
憶測を自省させるような試みへの
動機付けはありません
05:42
The unfortunate reality is:
108
342625
1976
不幸な現実があります
05:44
lies are more engaging online than truth,
109
344625
2893
オンラインでは
真実よりも嘘の方が興味をそそり
05:47
and salaciousness beats out
wonky, fact-based reasoning
110
347542
3726
わいせつな話題が
真面目で事実に基づく論理を追いやります
05:51
in a world optimized
for frictionless virality.
111
351292
3041
それが干渉なく拡散をすることに
最適化された世界なのです
05:55
As long as algorithms' goals
are to keep us engaged,
112
355167
3434
アルゴリズムの目的が 私たちに
関与を続けさせることである限り
05:58
they will continue to feed us the poison
that plays to our worst instincts
113
358625
4059
彼らは 最悪の本能や
人間の弱点を引き付ける毒薬を
06:02
and human weaknesses.
114
362708
1459
私たちに送り続けるでしょう
06:04
And yes, anger, mistrust,
115
364958
3018
確かに 怒り 不信
06:08
the culture of fear, hatred:
116
368000
1726
恐れの文化 憎しみ
06:09
none of this is new in America.
117
369750
2851
どれも アメリカでは
目新しいことではありません
06:12
But in recent years,
social media has harnessed all of that
118
372625
3351
でも 近年 ソーシャルメディアが
これら全てに付け入って
06:16
and, as I see it,
dramatically tipped the scales.
119
376000
3601
劇的に局面を変えたと
私は考えます
06:19
And Facebook knows it.
120
379625
2393
そしてフェイスブックも
それを知っています
06:22
A recent "Wall Street Journal" article
121
382042
1892
『ウォールストリート・ジャーナル』誌の
最近の記事で
06:23
exposed an internal
Facebook presentation from 2018
122
383958
4143
フェイスブックの
2018年の社内報告が暴露されました
06:28
that specifically points
to the companies' own algorithms
123
388125
3768
その報告は 自社のアルゴリズムが
06:31
for growing extremist groups'
presence on their platform
124
391917
3517
フェイスブック上の
過激派グループの存在感を強め
06:35
and for polarizing their users.
125
395458
2167
ユーザの二極化を招くと
特定していました
06:38
But keeping us engaged
is how they make their money.
126
398708
3685
でも 私たちに関与を続けさせるのは
彼らの金儲けの手段です
06:42
The modern information environment
is crystallized around profiling us
127
402417
4226
現代の情報環境は徹底的に
私たちの属性を抽出し
06:46
and then segmenting us
into more and more narrow categories
128
406667
2976
それを 細かいカテゴリーへと
細分化し続けて
06:49
to perfect this personalization process.
129
409667
3309
個人化プロセスを突き詰めます
06:53
We're then bombarded
with information confirming our views,
130
413000
3809
それが済むと
人々の見解を追認し 偏見を助長し
06:56
reinforcing our biases,
131
416833
1851
自分が何かに帰属していると
感じさせるような情報が
06:58
and making us feel
like we belong to something.
132
418708
3518
大量に送り付けられます
07:02
These are the same tactics
we would see terrorist recruiters
133
422250
3393
これらはテロリストのスカウトが
無防備な若者に対して
使うのと同じ手口です
07:05
using on vulnerable youth,
134
425667
2184
07:07
albeit in smaller, more localized ways
before social media,
135
427875
3851
ソーシャルメディア以前は
小規模で地域別に行われていましたが
07:11
with the ultimate goal
of persuading their behavior.
136
431750
3268
相手の行動を変えさせるという
最終目標は同じです
07:15
Unfortunately, I was never empowered
by Facebook to have an actual impact.
137
435042
5267
残念ながら 私はフェイスブックを
変える程の力は与えられませんでした
07:20
In fact, on my second day,
my title and job description were changed
138
440333
3768
実際 2日目には 肩書と
職務の内容が変更されて
07:24
and I was cut out
of decision-making meetings.
139
444125
2976
意思決定をする会議からも
外されてしまいました
07:27
My biggest efforts,
140
447125
1309
政治広告から ニセ情報や投票妨害を
排除するための計画の策定に
07:28
trying to build plans
141
448458
1393
07:29
to combat disinformation
and voter suppression in political ads,
142
449875
3601
私は一番力を注ぎましたが
07:33
were rejected.
143
453500
1559
提案は却下されました
07:35
And so I lasted just shy of six months.
144
455083
2500
結局 私が働いたのはわずか半年弱です
07:38
But here is my biggest takeaway
from my time there.
145
458125
3601
ただ そこで働いたことで
得られた一番の気づきは次のことです
07:41
There are thousands of people at Facebook
146
461750
2476
フェイスブックの社内では
07:44
who are passionately working on a product
147
464250
2018
何千人もの人が
07:46
that they truly believe
makes the world a better place,
148
466292
3684
より良い世界を作ると心から信じる機能に
情熱的に取り組んでいます
07:50
but as long as the company continues
to merely tinker around the margins
149
470000
3684
しかし会社がこのまま
コンテンツの指針や調停機能について
07:53
of content policy and moderation,
150
473708
2726
枝葉をいじくり回すだけで
07:56
as opposed to considering
151
476458
1310
仕組み全体の設計と収益の上げ方を
見直さない限り
07:57
how the entire machine
is designed and monetized,
152
477792
3226
08:01
they will never truly address
how the platform is contributing
153
481042
3351
このプラットフォームがもたらしている
憎しみや分断や過激化への
08:04
to hatred, division and radicalization.
154
484417
4184
真の対策は決して実現しないでしょう
08:08
And that's the one conversation
I never heard happen during my time there,
155
488625
4268
そして 私の在籍中に そんな話は
全く耳にしませんでした
08:12
because that would require
fundamentally accepting
156
492917
3059
なぜなら そのとき求められるのは
自ら構築したものが
08:16
that the thing you built
might not be the best thing for society
157
496000
4143
社会にとっては最善でないかもしれないと
認めることであり
08:20
and agreeing to alter
the entire product and profit model.
158
500167
3125
全ての機能と収益モデルの変更に
同意することに他ならないからです
08:24
So what can we do about this?
159
504500
1833
では私たちには何ができるでしょうか?
08:27
I'm not saying that social media
bears the sole responsibility
160
507042
3601
私はソーシャルメディアのみに
今の事態の責任があると
08:30
for the state that we're in today.
161
510667
2142
言っているのではありません
08:32
Clearly, we have deep-seated
societal issues that we need to solve.
162
512833
5435
明らかに 私たちは解決すべき
根深い社会問題を抱えています
08:38
But Facebook's response,
that it is just a mirror to society,
163
518292
4142
でも これが社会を映す鏡に過ぎないという
フェイスブックの回答は
08:42
is a convenient attempt
to deflect any responsibility
164
522458
3018
全ての責任を免れようとする
体のいい方便であって
08:45
from the way their platform
is amplifying harmful content
165
525500
4268
自社のプラットフォームが
有害なコンテンツを増幅して
08:49
and pushing some users
towards extreme views.
166
529792
3041
一部ユーザを過激思想に駆り立てていることは
省みていません
08:53
And Facebook could, if they wanted to,
167
533583
2851
しかも フェイスブックはその気があれば
08:56
fix some of this.
168
536458
1851
一部を解決できるのです
08:58
They could stop amplifying
and recommending the conspiracy theorists,
169
538333
3851
陰謀論者やヘイトグループや
ニセ情報を広める人たちの発言を
09:02
the hate groups,
the purveyors of disinformation
170
542208
2685
広めたり お勧めするのは
やめることができます
09:04
and, yes, in some cases
even our president.
171
544917
3851
そう ときには大統領の発言もです
09:08
They could stop using
the same personalization techniques
172
548792
3392
政治的発言を広めるのに
スニーカー販売と同じ
09:12
to deliver political rhetoric
that they use to sell us sneakers.
173
552208
4226
個人化テクニックを使うのも
やめることができます
09:16
They could retrain their algorithms
174
556458
1726
アルゴリズムを再学習させて
09:18
to focus on a metric
other than engagement,
175
558208
2185
ユーザの関与以外の指標に
焦点を当てることも
09:20
and they could build in guardrails
to stop certain content from going viral
176
560417
4309
ある種のコンテンツが
チェックの前に拡散しないように
09:24
before being reviewed.
177
564750
1667
防御壁を設けることもできます
09:26
And they could do all of this
178
566875
2268
そして これら全てを行うのに
09:29
without becoming what they call
the arbiters of truth.
179
569167
4184
彼らが言う「真実の決定者」に
なる必要はありません
09:33
But they've made it clear
that they will not go far enough
180
573375
2809
しかし自ら明言したとおり
彼らは強制されなければ
09:36
to do the right thing
without being forced to,
181
576208
2810
正しい方向に踏み出すことは
ないでしょう
09:39
and, to be frank, why should they?
182
579042
2934
正直なところ その必要がありますか?
09:42
The markets keep rewarding them,
and they're not breaking the law.
183
582000
3934
市場の評価は高く
法律を犯している訳でもありません
09:45
Because as it stands,
184
585958
1310
なぜなら 今のところ
09:47
there are no US laws compelling Facebook,
or any social media company,
185
587292
4892
米国の法律では フェイスブックを含む
いかなるソーシャルメディア企業も
09:52
to protect our public square,
186
592208
1768
開かれた議論の場や民主主義
それに選挙すら保護する義務がないのです
09:54
our democracy
187
594000
1309
09:55
and even our elections.
188
595333
2435
開かれた議論の場や民主主義
それに選挙すら保護する義務がないのです
09:57
We have ceded the decision-making
on what rules to write and what to enforce
189
597792
4101
私たちは どんなことを制限し
何を強制するかという意思決定を
10:01
to the CEOs of for-profit
internet companies.
190
601917
3083
利益重視のネット企業の
CEOたちにゆだねてしまっています
10:05
Is this what we want?
191
605750
2018
私たち こんなものが欲しいのでしょうか?
10:07
A post-truth world
where toxicity and tribalism
192
607792
3226
有害情報や部族主義が
架け橋や総意形成に勝るような
10:11
trump bridge-building
and consensus-seeking?
193
611042
2625
真実を見失った世界が?
10:14
I do remain optimistic that we still
have more in common with each other
194
614667
4101
私は今でも 自分たちのお互いの共通点は
10:18
than the current media
and online environment portray,
195
618792
3642
今のメディアやオンライン環境が
描くよりも多いと楽観しています
10:22
and I do believe that having
more perspective surface
196
622458
3101
また より多面的な物の見方が
10:25
makes for a more robust
and inclusive democracy.
197
625583
3601
より堅固で開かれた民主主義を
作り上げると 信じています
10:29
But not the way it's happening right now.
198
629208
2810
でもそれは 現在とは違う形のものです
10:32
And it bears emphasizing,
I do not want to kill off these companies.
199
632042
4226
強調しますが 私はこうした企業を
葬り去りたい訳ではありません
10:36
I just want them held
to a certain level of accountability,
200
636292
3226
ただ 社会の他のメンバーと同じように
ある程度の責任を
10:39
just like the rest of society.
201
639542
1916
果たしてもらいたいだけなのです
10:42
It is time for our governments
to step up and do their jobs
202
642542
4351
今こそ政府が立ち上がって
国民生活を守るという
10:46
of protecting our citizenry.
203
646917
1642
職務を果たす時です
10:48
And while there isn't
one magical piece of legislation
204
648583
3060
魔法のように ひとつで全てを解決する
10:51
that will fix this all,
205
651667
1476
法律ができるとは思いませんが
10:53
I do believe that governments
can and must find the balance
206
653167
4684
政府が言論の自由を守りながら
企業に社会的影響の責任を取らせるような
10:57
between protecting free speech
207
657875
2143
うまいバランスを見出すことは
11:00
and holding these platforms accountable
for their effects on society.
208
660042
4309
可能であり 必要であると信じています
11:04
And they could do so in part
by insisting on actual transparency
209
664375
4309
しかも 政府は 透明性を強く要求することで
ある程度はそれが実現できます
11:08
around how these recommendation
engines are working,
210
668708
3143
透明化が必要なのは
推奨エンジンの働き方と
11:11
around how the curation, amplification
and targeting are happening.
211
671875
4643
まとめサービス 増幅 そして
ターゲティングのやり方に関してです
11:16
You see, I want these companies
held accountable
212
676542
2434
お察しのように 私が企業に
責任を取らせたいのは
11:19
not for if an individual
posts misinformation
213
679000
3101
一個人が流した虚偽の情報とか
極端な表現についてではなく
11:22
or extreme rhetoric,
214
682125
1476
11:23
but for how their
recommendation engines spread it,
215
683625
3851
彼らの推奨エンジンが
その投稿を拡散させるやり方や
11:27
how their algorithms
are steering people towards it,
216
687500
3226
彼らのアルゴリズムが
人々をその投稿に誘導するやり方や
11:30
and how their tools are used
to target people with it.
217
690750
3292
彼らのツールがその投稿を
ターゲティングする方法に対してです
11:35
I tried to make change
from within Facebook and failed,
218
695417
3684
私はフェイスブックの内部から
変革を試みて失敗しました
11:39
and so I've been using my voice again
for the past few years
219
699125
3143
ですから ここ数年は
再び自分の声を使って
11:42
to continue sounding this alarm
220
702292
2226
警告を発し続けながら
11:44
and hopefully inspire more people
to demand this accountability.
221
704542
4392
これに触発されて 責任を追及する声が
さらに高まることを願っています
11:48
My message to you is simple:
222
708958
2643
私から皆さんへのメッセージはシンプルです
11:51
pressure your government representatives
223
711625
2184
地元の議員に圧力を掛けて
11:53
to step up and stop ceding
our public square to for-profit interests.
224
713833
5435
開かれた議論の場を 営利団体に
明け渡すのを止めさせるのです
11:59
Help educate your friends and family
225
719292
1851
友人や家族にも 皆がオンラインで
12:01
about how they're being
manipulated online.
226
721167
3142
いかに操られているかを
教えてあげてください
12:04
Push yourselves to engage
with people who aren't like-minded.
227
724333
3518
考え方の違う人たちとも
付き合う努力をしてください
12:07
Make this issue a priority.
228
727875
2643
この問題を優先して扱ってください
12:10
We need a whole-society
approach to fix this.
229
730542
3416
これを解決するには
社会全体の取り組みが必要です
12:15
And my message to the leaders
of my former employer Facebook is this:
230
735250
5559
ここからは 以前の雇用主である
フェイスブック首脳陣へのメッセージです
12:20
right now, people are using your tools
exactly as they were designed
231
740833
5810
現在は 人々が貴社のツールを
設計されたとおりに使い
12:26
to sow hatred, division and distrust,
232
746667
2601
憎しみや分断や不信が生み出されています
12:29
and you're not just allowing it,
you are enabling it.
233
749292
4142
それを許しているだけでなく
それを可能にしているのが貴社なのです
12:33
And yes, there are lots of great stories
234
753458
2476
確かに 世界中で貴社のプラットフォームの
12:35
of positive things happening
on your platform around the globe,
235
755958
3685
良い面が発揮された
素晴らしい話も沢山あります
12:39
but that doesn't make any of this OK.
236
759667
3226
だからと言って この問題が
帳消しになる訳ではありません
12:42
And it's only getting worse
as we're heading into our election,
237
762917
2976
我が国の選挙が 近付くにつれ
事態は悪化するばかりですし
12:45
and even more concerning,
238
765917
1767
さらに心配もあります
12:47
face our biggest potential crisis yet,
239
767708
2476
選挙結果が信用されず
暴力が発生すれば
12:50
if the results aren't trusted,
and if violence breaks out.
240
770208
4143
最大の危機が訪れる可能性があるのです
12:54
So when in 2021 you once again say,
"We know we have to do better,"
241
774375
5018
ですから2021年に貴社が
「改善の余地があるのは確かだ」などと
12:59
I want you to remember this moment,
242
779417
2684
繰り返すなら 今この時を
思い出して頂きたいと思います
13:02
because it's no longer
just a few outlier voices.
243
782125
3226
これはもはや 単なる少数意見では
ないのですから
13:05
Civil rights leaders, academics,
244
785375
2268
市民権運動のリーダーや 学界や
13:07
journalists, advertisers,
your own employees,
245
787667
2976
ジャーナリストや 広告主や
貴社自身の社員たちが
13:10
are shouting from the rooftops
246
790667
2059
声高に叫んでいます
13:12
that your policies
and your business practices
247
792750
2601
貴社の方針とビジネスのやり方が
13:15
are harming people and democracy.
248
795375
2417
人々と民主主義を傷つけていると
13:18
You own your decisions,
249
798875
2351
決定権は貴社にありますが
13:21
but you can no longer say
that you couldn't have seen it coming.
250
801250
3667
想定外だったと言うことは
もうできません
13:26
Thank you.
251
806167
1250
ありがとうございました
New videos
Original video on YouTube.com
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。