Dear Facebook, this is how you're breaking democracy | Yael Eisenstat

113,606 views

2020-09-24 ・ TED


New videos

Dear Facebook, this is how you're breaking democracy | Yael Eisenstat

113,606 views ・ 2020-09-24

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Kumi Kaku 校正: Natsuhiko Mizutani
00:13
Around five years ago,
0
13000
2018
5年ほど前に 私は突然 気付きました
00:15
it struck me that I was losing the ability
1
15042
2392
自分は 考え方の違う人と
00:17
to engage with people who aren't like-minded.
2
17458
2500
付き合う能力を失ってきている と
00:20
The idea of discussing hot-button issues with my fellow Americans
3
20917
3642
微妙な問題について アメリカ人同士で 議論しようと考えたときの
00:24
was starting to give me more heartburn
4
24583
2393
胸焼けのような感覚が
00:27
than the times that I engaged with suspected extremists overseas.
5
27000
4125
海外で過激派と思われる集団と 関わったときよりもひどくなり始めていました
00:31
It was starting to leave me feeling more embittered and frustrated.
6
31750
3601
後味の悪さと苛立ちが 強く残るようになったのです
00:35
And so just like that,
7
35375
1434
そう気付いた途端に
00:36
I shifted my entire focus
8
36833
1810
私の関心は
00:38
from global national security threats
9
38667
2434
国家安全保障上の国際的な脅威から
00:41
to trying to understand what was causing this push
10
41125
3226
国内の二極化圧力の原因を理解することへと
00:44
towards extreme polarization at home.
11
44375
3226
すっかり変わりました
00:47
As a former CIA officer and diplomat
12
47625
2351
私は かつて CIA職員や外交官として
00:50
who spent years working on counterextremism issues,
13
50000
3434
過激思想の問題への対策に 年月を費やしてきましたが
00:53
I started to fear that this was becoming a far greater threat to our democracy
14
53458
3851
私たちの民主主義にとっては この二極化が 海外のどの敵よりも
00:57
than any foreign adversary.
15
57333
2518
遥かに重大な脅威になると 恐れるようになりました
00:59
And so I started digging in,
16
59875
1809
そこで これを深く掘り下げ
01:01
and I started speaking out,
17
61708
1518
公の場で声を上げ始めたところ
01:03
which eventually led me to being hired at Facebook
18
63250
2809
それをきっかけにある時 フェイスブックで働くことになり
01:06
and ultimately brought me here today
19
66083
2685
さらに結果的に 今ここを訪れて
01:08
to continue warning you about how these platforms
20
68792
2809
皆さんに これらのプラットフォームが
01:11
are manipulating and radicalizing so many of us
21
71625
4018
いかに多くの人々を操り 過激化させているか 警告をお伝えし
01:15
and to talk about how to reclaim our public square.
22
75667
2958
開かれた議論の場を いかに取り戻すか お話ししようとしています
01:19
I was a foreign service officer in Kenya
23
79625
1976
私は外交官としてケニアで働きました
01:21
just a few years after the September 11 attacks,
24
81625
3059
同時多発テロ事件の ほんの数年後のことです
01:24
and I led what some call "hearts and minds" campaigns
25
84708
2560
またソマリア国境沿いで 「ハートと心」の作戦と呼ばれる
01:27
along the Somalia border.
26
87292
1934
活動を指揮していました
01:29
A big part of my job was to build trust with communities
27
89250
3309
主な任務は 過激派の影響が 最も及びやすいとされる地域で
01:32
deemed the most susceptible to extremist messaging.
28
92583
2709
現地との信頼関係を築くことでした
01:36
I spent hours drinking tea with outspoken anti-Western clerics
29
96125
4184
西洋ぎらいの無遠慮な聖職者たちと 何時間も お茶を共にしたことも
01:40
and even dialogued with some suspected terrorists,
30
100333
3226
テロリストとおぼしき人物と 対話したこともあります
01:43
and while many of these engagements began with mutual suspicion,
31
103583
3393
やりとりの多くは 相互不信から始まりましたが
01:47
I don't recall any of them resulting in shouting or insults,
32
107000
3809
怒号や侮辱の応酬で 終わった記憶はまったくなく
01:50
and in some case we even worked together on areas of mutual interest.
33
110833
4084
利害の一致する分野で 共同作業をしたことさえありました
01:56
The most powerful tools we had were to simply listen, learn
34
116000
4143
私たちの持っていた最強のツールは 相手の話をひたすら聞き 学び
02:00
and build empathy.
35
120167
1726
気持ちを通わせるというものでした
02:01
This is the essence of hearts and minds work,
36
121917
3059
これが「ハートと心」の活動の本質です
02:05
because what I found again and again is that what most people wanted
37
125000
3268
というのも 私が何度も経験したように ほとんどの人々が望むのは
02:08
was to feel heard, validated and respected.
38
128292
3767
自分の声が届き 認められ 尊重されていると感じることだったからです
02:12
And I believe that's what most of us want.
39
132083
2643
私たちの大半も 同じことを望むはずです
02:14
So what I see happening online today is especially heartbreaking
40
134750
3309
それで 今のネットで見られる事態には 胸の張りさける思いがしますし
02:18
and a much harder problem to tackle.
41
138083
2084
遥かに対策の難しい問題とも 感じられるのです
02:20
We are being manipulated by the current information ecosystem
42
140917
3767
私たちは 現在の情報システムの 生態系に操られており
02:24
entrenching so many of us so far into absolutism
43
144708
3768
余りにも多くの人が 極端な思想に染め上げられて
02:28
that compromise has become a dirty word.
44
148500
2976
妥協という言葉も禁句に なってしまいました
02:31
Because right now,
45
151500
1309
というのも 現在
02:32
social media companies like Facebook
46
152833
2143
フェイスブックなどの ソーシャルメディアの収益源が
02:35
profit off of segmenting us and feeding us personalized content
47
155000
3851
私たちを分類した上で
偏見を正当化し悪用するような 個人化コンテンツを送り付けることだからです
02:38
that both validates and exploits our biases.
48
158875
3851
02:42
Their bottom line depends on provoking a strong emotion
49
162750
3434
彼らの最終損益を左右するのは 強い感情を掻き立てて
02:46
to keep us engaged,
50
166208
1685
投稿や共有を続けさせることなので
02:47
often incentivizing the most inflammatory and polarizing voices,
51
167917
4267
最も扇動的で極端な意見を 奨励することとなりがちで
02:52
to the point where finding common ground no longer feels possible.
52
172208
4435
結果的に お互いの共通点を探すことも 不可能と感じるほどになりました
02:56
And despite a growing chorus of people crying out for the platforms to change,
53
176667
4226
また そんなプラットフォームの 変更を求める声がどんなに増えても
03:00
it's clear they will not do enough on their own.
54
180917
3309
企業が自ら十分な対策を 講じないのは明らかです
03:04
So governments must define the responsibility
55
184250
2893
そこで政府は こうしたビジネスモデルから
03:07
for the real-world harms being caused by these business models
56
187167
3809
実生活に及ぼされる悪影響についての 責任を明確にして
03:11
and impose real costs on the damaging effects
57
191000
2768
私たちの公衆衛生や 開かれた議論の場や 民主主義に与えた損害に関する
03:13
they're having to our public health, our public square and our democracy.
58
193792
5309
全ての費用を払わせなければなりません
03:19
But unfortunately, this won't happen in time for the US presidential election,
59
199125
4643
ただ残念ながら それも 米大統領選には間に合わないでしょう
03:23
so I am continuing to raise this alarm,
60
203792
2767
それで 私は警告を発し続けています
03:26
because even if one day we do have strong rules in place,
61
206583
3060
なぜなら いつか強い規制が 実現したとしても
03:29
it will take all of us to fix this.
62
209667
2750
解決には私たち全員の力が 必要だからです
03:33
When I started shifting my focus from threats abroad
63
213417
2601
自分の関心が 海外の脅威から
03:36
to the breakdown in civil discourse at home,
64
216042
2142
国内の社会的な対話の崩壊へと 移ったとき
03:38
I wondered if we could repurpose some of these hearts and minds campaigns
65
218208
4060
私は「ハートと心」の作戦の一部が 私たちの分断の修復にも
03:42
to help heal our divides.
66
222292
2101
転用できるのでは と考えました
03:44
Our more than 200-year experiment with democracy works
67
224417
3809
200年以上かけて培った 民主主義が 成果をあげている大きな理由は
03:48
in large part because we are able to openly and passionately
68
228250
3893
私たちは 熱い 開かれた議論を通じて
03:52
debate our ideas for the best solutions.
69
232167
2809
最良の解決策を見出すことができるからです
03:55
But while I still deeply believe
70
235000
1809
ただ 私は直接会って得られる
03:56
in the power of face-to-face civil discourse,
71
236833
2268
相互理解の力を 今でも深く信奉する一方
03:59
it just cannot compete
72
239125
1643
それだけでは
04:00
with the polarizing effects and scale of social media right now.
73
240792
3809
現在のソーシャルメディアの二極化効果と 規模には 太刀打ちできないと考えます
04:04
The people who are sucked down these rabbit holes
74
244625
2351
ソーシャルメディアの暴力という アリ地獄に呑み込まれた人々を
04:07
of social media outrage
75
247000
1309
04:08
often feel far harder to break of their ideological mindsets
76
248333
3643
観念的な思考から解放するのは かつての不安定地域での活動よりも
04:12
than those vulnerable communities I worked with ever were.
77
252000
3476
遥かに難しいと感じることも よくあります
04:15
So when Facebook called me in 2018
78
255500
2309
そこで2018年に フェイスブックからの電話で
04:17
and offered me this role
79
257833
1310
選挙における政治広告を 適正に運営する責任者という
04:19
heading its elections integrity operations for political advertising,
80
259167
3976
役割を提示されたときには
04:23
I felt I had to say yes.
81
263167
2017
これは受けねば と思いました
04:25
I had no illusions that I would fix it all,
82
265208
2726
自分が全て解決しようなどという 幻想はなかったものの
04:27
but when offered the opportunity
83
267958
1643
船の針路をより良い方向へと
04:29
to help steer the ship in a better direction,
84
269625
2184
導くことを手伝う機会が与えられるというなら
04:31
I had to at least try.
85
271833
1542
断る手はありませんでした
04:34
I didn't work directly on polarization,
86
274667
2267
業務で二極化を直接扱いは しませんでしたが
04:36
but I did look at which issues were the most divisive in our society
87
276958
4435
この社会を分断する 一番の問題が何なのか
04:41
and therefore the most exploitable in elections interference efforts,
88
281417
3809
またそれ故に 選挙妨害に 一番弱い部分がどこなのかには着目しました
04:45
which was Russia's tactic ahead of 2016.
89
285250
2583
そこを ロシアが2016年の選挙で 戦略的に攻めたからです
04:48
So I started by asking questions.
90
288583
2351
まずは疑問点を挙げてみました
04:50
I wanted to understand the underlying systemic issues
91
290958
2893
こんな事態の発生を許した
04:53
that were allowing all of this to happen,
92
293875
2434
システム上の問題点を理解した上で
04:56
in order to figure out how to fix it.
93
296333
2084
解決方法を見つけたかったのです
04:59
Now I still do believe in the power of the internet
94
299625
2559
私は今でもインターネットには より多くの意見を
05:02
to bring more voices to the table,
95
302208
2518
引き出す力があると信じていますが
05:04
but despite their stated goal of building community,
96
304750
3101
コミュニティの構築という 公に掲げた目標にもかかわらず
05:07
the largest social media companies as currently constructed
97
307875
3309
現在 築き上げられた 巨大ソーシャルメディア企業は
05:11
are antithetical to the concept of reasoned discourse.
98
311208
3601
理性ある対話という概念とは 真逆の存在です
05:14
There's no way to reward listening,
99
314833
2518
人の話に耳を傾けることに報いたり
05:17
to encourage civil debate
100
317375
1601
開かれた議論を促したり
05:19
and to protect people who sincerely want to ask questions
101
319000
3643
真摯に質問したい人々を保護したりする 手段が全くありません
05:22
in a business where optimizing engagement and user growth
102
322667
3351
このビジネスでは ユーザ関与の最適化とユーザの増加が
05:26
are the two most important metrics for success.
103
326042
3226
成功のために最も重要な 2つの指標になっているからです
05:29
There's no incentive to help people slow down,
104
329292
3434
人々が関与する前に 一旦落ち着かせて
05:32
to build in enough friction that people have to stop,
105
332750
3226
立ち止まらせるような 干渉機能を設けて
05:36
recognize their emotional reaction to something,
106
336000
2601
何かに感情的な反応を していると気付かせ
05:38
and question their own assumptions before engaging.
107
338625
2667
憶測を自省させるような試みへの 動機付けはありません
05:42
The unfortunate reality is:
108
342625
1976
不幸な現実があります
05:44
lies are more engaging online than truth,
109
344625
2893
オンラインでは 真実よりも嘘の方が興味をそそり
05:47
and salaciousness beats out wonky, fact-based reasoning
110
347542
3726
わいせつな話題が 真面目で事実に基づく論理を追いやります
05:51
in a world optimized for frictionless virality.
111
351292
3041
それが干渉なく拡散をすることに 最適化された世界なのです
05:55
As long as algorithms' goals are to keep us engaged,
112
355167
3434
アルゴリズムの目的が 私たちに 関与を続けさせることである限り
05:58
they will continue to feed us the poison that plays to our worst instincts
113
358625
4059
彼らは 最悪の本能や 人間の弱点を引き付ける毒薬を
06:02
and human weaknesses.
114
362708
1459
私たちに送り続けるでしょう
06:04
And yes, anger, mistrust,
115
364958
3018
確かに 怒り 不信
06:08
the culture of fear, hatred:
116
368000
1726
恐れの文化 憎しみ
06:09
none of this is new in America.
117
369750
2851
どれも アメリカでは 目新しいことではありません
06:12
But in recent years, social media has harnessed all of that
118
372625
3351
でも 近年 ソーシャルメディアが これら全てに付け入って
06:16
and, as I see it, dramatically tipped the scales.
119
376000
3601
劇的に局面を変えたと 私は考えます
06:19
And Facebook knows it.
120
379625
2393
そしてフェイスブックも それを知っています
06:22
A recent "Wall Street Journal" article
121
382042
1892
『ウォールストリート・ジャーナル』誌の 最近の記事で
06:23
exposed an internal Facebook presentation from 2018
122
383958
4143
フェイスブックの 2018年の社内報告が暴露されました
06:28
that specifically points to the companies' own algorithms
123
388125
3768
その報告は 自社のアルゴリズムが
06:31
for growing extremist groups' presence on their platform
124
391917
3517
フェイスブック上の 過激派グループの存在感を強め
06:35
and for polarizing their users.
125
395458
2167
ユーザの二極化を招くと 特定していました
06:38
But keeping us engaged is how they make their money.
126
398708
3685
でも 私たちに関与を続けさせるのは 彼らの金儲けの手段です
06:42
The modern information environment is crystallized around profiling us
127
402417
4226
現代の情報環境は徹底的に 私たちの属性を抽出し
06:46
and then segmenting us into more and more narrow categories
128
406667
2976
それを 細かいカテゴリーへと 細分化し続けて
06:49
to perfect this personalization process.
129
409667
3309
個人化プロセスを突き詰めます
06:53
We're then bombarded with information confirming our views,
130
413000
3809
それが済むと 人々の見解を追認し 偏見を助長し
06:56
reinforcing our biases,
131
416833
1851
自分が何かに帰属していると 感じさせるような情報が
06:58
and making us feel like we belong to something.
132
418708
3518
大量に送り付けられます
07:02
These are the same tactics we would see terrorist recruiters
133
422250
3393
これらはテロリストのスカウトが
無防備な若者に対して 使うのと同じ手口です
07:05
using on vulnerable youth,
134
425667
2184
07:07
albeit in smaller, more localized ways before social media,
135
427875
3851
ソーシャルメディア以前は 小規模で地域別に行われていましたが
07:11
with the ultimate goal of persuading their behavior.
136
431750
3268
相手の行動を変えさせるという 最終目標は同じです
07:15
Unfortunately, I was never empowered by Facebook to have an actual impact.
137
435042
5267
残念ながら 私はフェイスブックを 変える程の力は与えられませんでした
07:20
In fact, on my second day, my title and job description were changed
138
440333
3768
実際 2日目には 肩書と 職務の内容が変更されて
07:24
and I was cut out of decision-making meetings.
139
444125
2976
意思決定をする会議からも 外されてしまいました
07:27
My biggest efforts,
140
447125
1309
政治広告から ニセ情報や投票妨害を 排除するための計画の策定に
07:28
trying to build plans
141
448458
1393
07:29
to combat disinformation and voter suppression in political ads,
142
449875
3601
私は一番力を注ぎましたが
07:33
were rejected.
143
453500
1559
提案は却下されました
07:35
And so I lasted just shy of six months.
144
455083
2500
結局 私が働いたのはわずか半年弱です
07:38
But here is my biggest takeaway from my time there.
145
458125
3601
ただ そこで働いたことで 得られた一番の気づきは次のことです
07:41
There are thousands of people at Facebook
146
461750
2476
フェイスブックの社内では
07:44
who are passionately working on a product
147
464250
2018
何千人もの人が
07:46
that they truly believe makes the world a better place,
148
466292
3684
より良い世界を作ると心から信じる機能に 情熱的に取り組んでいます
07:50
but as long as the company continues to merely tinker around the margins
149
470000
3684
しかし会社がこのまま コンテンツの指針や調停機能について
07:53
of content policy and moderation,
150
473708
2726
枝葉をいじくり回すだけで
07:56
as opposed to considering
151
476458
1310
仕組み全体の設計と収益の上げ方を 見直さない限り
07:57
how the entire machine is designed and monetized,
152
477792
3226
08:01
they will never truly address how the platform is contributing
153
481042
3351
このプラットフォームがもたらしている 憎しみや分断や過激化への
08:04
to hatred, division and radicalization.
154
484417
4184
真の対策は決して実現しないでしょう
08:08
And that's the one conversation I never heard happen during my time there,
155
488625
4268
そして 私の在籍中に そんな話は 全く耳にしませんでした
08:12
because that would require fundamentally accepting
156
492917
3059
なぜなら そのとき求められるのは 自ら構築したものが
08:16
that the thing you built might not be the best thing for society
157
496000
4143
社会にとっては最善でないかもしれないと 認めることであり
08:20
and agreeing to alter the entire product and profit model.
158
500167
3125
全ての機能と収益モデルの変更に 同意することに他ならないからです
08:24
So what can we do about this?
159
504500
1833
では私たちには何ができるでしょうか?
08:27
I'm not saying that social media bears the sole responsibility
160
507042
3601
私はソーシャルメディアのみに 今の事態の責任があると
08:30
for the state that we're in today.
161
510667
2142
言っているのではありません
08:32
Clearly, we have deep-seated societal issues that we need to solve.
162
512833
5435
明らかに 私たちは解決すべき 根深い社会問題を抱えています
08:38
But Facebook's response, that it is just a mirror to society,
163
518292
4142
でも これが社会を映す鏡に過ぎないという フェイスブックの回答は
08:42
is a convenient attempt to deflect any responsibility
164
522458
3018
全ての責任を免れようとする 体のいい方便であって
08:45
from the way their platform is amplifying harmful content
165
525500
4268
自社のプラットフォームが 有害なコンテンツを増幅して
08:49
and pushing some users towards extreme views.
166
529792
3041
一部ユーザを過激思想に駆り立てていることは 省みていません
08:53
And Facebook could, if they wanted to,
167
533583
2851
しかも フェイスブックはその気があれば
08:56
fix some of this.
168
536458
1851
一部を解決できるのです
08:58
They could stop amplifying and recommending the conspiracy theorists,
169
538333
3851
陰謀論者やヘイトグループや ニセ情報を広める人たちの発言を
09:02
the hate groups, the purveyors of disinformation
170
542208
2685
広めたり お勧めするのは やめることができます
09:04
and, yes, in some cases even our president.
171
544917
3851
そう ときには大統領の発言もです
09:08
They could stop using the same personalization techniques
172
548792
3392
政治的発言を広めるのに スニーカー販売と同じ
09:12
to deliver political rhetoric that they use to sell us sneakers.
173
552208
4226
個人化テクニックを使うのも やめることができます
09:16
They could retrain their algorithms
174
556458
1726
アルゴリズムを再学習させて
09:18
to focus on a metric other than engagement,
175
558208
2185
ユーザの関与以外の指標に 焦点を当てることも
09:20
and they could build in guardrails to stop certain content from going viral
176
560417
4309
ある種のコンテンツが チェックの前に拡散しないように
09:24
before being reviewed.
177
564750
1667
防御壁を設けることもできます
09:26
And they could do all of this
178
566875
2268
そして これら全てを行うのに
09:29
without becoming what they call the arbiters of truth.
179
569167
4184
彼らが言う「真実の決定者」に なる必要はありません
09:33
But they've made it clear that they will not go far enough
180
573375
2809
しかし自ら明言したとおり 彼らは強制されなければ
09:36
to do the right thing without being forced to,
181
576208
2810
正しい方向に踏み出すことは ないでしょう
09:39
and, to be frank, why should they?
182
579042
2934
正直なところ その必要がありますか?
09:42
The markets keep rewarding them, and they're not breaking the law.
183
582000
3934
市場の評価は高く 法律を犯している訳でもありません
09:45
Because as it stands,
184
585958
1310
なぜなら 今のところ
09:47
there are no US laws compelling Facebook, or any social media company,
185
587292
4892
米国の法律では フェイスブックを含む いかなるソーシャルメディア企業も
09:52
to protect our public square,
186
592208
1768
開かれた議論の場や民主主義 それに選挙すら保護する義務がないのです
09:54
our democracy
187
594000
1309
09:55
and even our elections.
188
595333
2435
開かれた議論の場や民主主義 それに選挙すら保護する義務がないのです
09:57
We have ceded the decision-making on what rules to write and what to enforce
189
597792
4101
私たちは どんなことを制限し 何を強制するかという意思決定を
10:01
to the CEOs of for-profit internet companies.
190
601917
3083
利益重視のネット企業の CEOたちにゆだねてしまっています
10:05
Is this what we want?
191
605750
2018
私たち こんなものが欲しいのでしょうか?
10:07
A post-truth world where toxicity and tribalism
192
607792
3226
有害情報や部族主義が 架け橋や総意形成に勝るような
10:11
trump bridge-building and consensus-seeking?
193
611042
2625
真実を見失った世界が?
10:14
I do remain optimistic that we still have more in common with each other
194
614667
4101
私は今でも 自分たちのお互いの共通点は
10:18
than the current media and online environment portray,
195
618792
3642
今のメディアやオンライン環境が 描くよりも多いと楽観しています
10:22
and I do believe that having more perspective surface
196
622458
3101
また より多面的な物の見方が
10:25
makes for a more robust and inclusive democracy.
197
625583
3601
より堅固で開かれた民主主義を 作り上げると 信じています
10:29
But not the way it's happening right now.
198
629208
2810
でもそれは 現在とは違う形のものです
10:32
And it bears emphasizing, I do not want to kill off these companies.
199
632042
4226
強調しますが 私はこうした企業を 葬り去りたい訳ではありません
10:36
I just want them held to a certain level of accountability,
200
636292
3226
ただ 社会の他のメンバーと同じように ある程度の責任を
10:39
just like the rest of society.
201
639542
1916
果たしてもらいたいだけなのです
10:42
It is time for our governments to step up and do their jobs
202
642542
4351
今こそ政府が立ち上がって 国民生活を守るという
10:46
of protecting our citizenry.
203
646917
1642
職務を果たす時です
10:48
And while there isn't one magical piece of legislation
204
648583
3060
魔法のように ひとつで全てを解決する
10:51
that will fix this all,
205
651667
1476
法律ができるとは思いませんが
10:53
I do believe that governments can and must find the balance
206
653167
4684
政府が言論の自由を守りながら 企業に社会的影響の責任を取らせるような
10:57
between protecting free speech
207
657875
2143
うまいバランスを見出すことは
11:00
and holding these platforms accountable for their effects on society.
208
660042
4309
可能であり 必要であると信じています
11:04
And they could do so in part by insisting on actual transparency
209
664375
4309
しかも 政府は 透明性を強く要求することで ある程度はそれが実現できます
11:08
around how these recommendation engines are working,
210
668708
3143
透明化が必要なのは 推奨エンジンの働き方と
11:11
around how the curation, amplification and targeting are happening.
211
671875
4643
まとめサービス 増幅 そして ターゲティングのやり方に関してです
11:16
You see, I want these companies held accountable
212
676542
2434
お察しのように 私が企業に 責任を取らせたいのは
11:19
not for if an individual posts misinformation
213
679000
3101
一個人が流した虚偽の情報とか 極端な表現についてではなく
11:22
or extreme rhetoric,
214
682125
1476
11:23
but for how their recommendation engines spread it,
215
683625
3851
彼らの推奨エンジンが その投稿を拡散させるやり方や
11:27
how their algorithms are steering people towards it,
216
687500
3226
彼らのアルゴリズムが 人々をその投稿に誘導するやり方や
11:30
and how their tools are used to target people with it.
217
690750
3292
彼らのツールがその投稿を ターゲティングする方法に対してです
11:35
I tried to make change from within Facebook and failed,
218
695417
3684
私はフェイスブックの内部から 変革を試みて失敗しました
11:39
and so I've been using my voice again for the past few years
219
699125
3143
ですから ここ数年は 再び自分の声を使って
11:42
to continue sounding this alarm
220
702292
2226
警告を発し続けながら
11:44
and hopefully inspire more people to demand this accountability.
221
704542
4392
これに触発されて 責任を追及する声が さらに高まることを願っています
11:48
My message to you is simple:
222
708958
2643
私から皆さんへのメッセージはシンプルです
11:51
pressure your government representatives
223
711625
2184
地元の議員に圧力を掛けて
11:53
to step up and stop ceding our public square to for-profit interests.
224
713833
5435
開かれた議論の場を 営利団体に 明け渡すのを止めさせるのです
11:59
Help educate your friends and family
225
719292
1851
友人や家族にも 皆がオンラインで
12:01
about how they're being manipulated online.
226
721167
3142
いかに操られているかを 教えてあげてください
12:04
Push yourselves to engage with people who aren't like-minded.
227
724333
3518
考え方の違う人たちとも 付き合う努力をしてください
12:07
Make this issue a priority.
228
727875
2643
この問題を優先して扱ってください
12:10
We need a whole-society approach to fix this.
229
730542
3416
これを解決するには 社会全体の取り組みが必要です
12:15
And my message to the leaders of my former employer Facebook is this:
230
735250
5559
ここからは 以前の雇用主である フェイスブック首脳陣へのメッセージです
12:20
right now, people are using your tools exactly as they were designed
231
740833
5810
現在は 人々が貴社のツールを 設計されたとおりに使い
12:26
to sow hatred, division and distrust,
232
746667
2601
憎しみや分断や不信が生み出されています
12:29
and you're not just allowing it, you are enabling it.
233
749292
4142
それを許しているだけでなく それを可能にしているのが貴社なのです
12:33
And yes, there are lots of great stories
234
753458
2476
確かに 世界中で貴社のプラットフォームの
12:35
of positive things happening on your platform around the globe,
235
755958
3685
良い面が発揮された 素晴らしい話も沢山あります
12:39
but that doesn't make any of this OK.
236
759667
3226
だからと言って この問題が 帳消しになる訳ではありません
12:42
And it's only getting worse as we're heading into our election,
237
762917
2976
我が国の選挙が 近付くにつれ 事態は悪化するばかりですし
12:45
and even more concerning,
238
765917
1767
さらに心配もあります
12:47
face our biggest potential crisis yet,
239
767708
2476
選挙結果が信用されず 暴力が発生すれば
12:50
if the results aren't trusted, and if violence breaks out.
240
770208
4143
最大の危機が訪れる可能性があるのです
12:54
So when in 2021 you once again say, "We know we have to do better,"
241
774375
5018
ですから2021年に貴社が 「改善の余地があるのは確かだ」などと
12:59
I want you to remember this moment,
242
779417
2684
繰り返すなら 今この時を 思い出して頂きたいと思います
13:02
because it's no longer just a few outlier voices.
243
782125
3226
これはもはや 単なる少数意見では ないのですから
13:05
Civil rights leaders, academics,
244
785375
2268
市民権運動のリーダーや 学界や
13:07
journalists, advertisers, your own employees,
245
787667
2976
ジャーナリストや 広告主や 貴社自身の社員たちが
13:10
are shouting from the rooftops
246
790667
2059
声高に叫んでいます
13:12
that your policies and your business practices
247
792750
2601
貴社の方針とビジネスのやり方が
13:15
are harming people and democracy.
248
795375
2417
人々と民主主義を傷つけていると
13:18
You own your decisions,
249
798875
2351
決定権は貴社にありますが
13:21
but you can no longer say that you couldn't have seen it coming.
250
801250
3667
想定外だったと言うことは もうできません
13:26
Thank you.
251
806167
1250
ありがとうございました
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7