Dear Facebook, this is how you're breaking democracy | Yael Eisenstat
114,945 views ・ 2020-09-24
아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: 승민 이
검토: Jihyeon J. Kim
00:13
Around five years ago,
0
13000
2018
약 5년 전쯤에
00:15
it struck me that I was losing the ability
1
15042
2392
저는 제 사상을
공유하지 않는 사람들과
00:17
to engage with people
who aren't like-minded.
2
17458
2500
소통할 능력을 상실하고 있음을
알게 되었습니다.
00:20
The idea of discussing hot-button issues
with my fellow Americans
3
20917
3642
제 동료 미국인들과 민감한
문제에 대해 논의하는 것이
00:24
was starting to give me more heartburn
4
24583
2393
바다 건너편에 있는 극단주의자들과
논의하는 것보다 더 답답할 때가 많았죠.
00:27
than the times that I engaged
with suspected extremists overseas.
5
27000
4125
00:31
It was starting to leave me feeling
more embittered and frustrated.
6
31750
3601
이 문제는 저를 더욱 더 찜찜하고
불편하게 만들었습니다.
00:35
And so just like that,
7
35375
1434
그래서
00:36
I shifted my entire focus
8
36833
1810
저는 제 초점을
00:38
from global national security threats
9
38667
2434
범세계적 국가 안보 위협에서
00:41
to trying to understand
what was causing this push
10
41125
3226
미국의 극단적 양극화에 대한
00:44
towards extreme polarization at home.
11
44375
3226
근본적인 원인 분석으로 옮겼습니다.
00:47
As a former CIA officer and diplomat
12
47625
2351
지난 몇 년간 양극화 이슈에 관한
연구를 해오던
00:50
who spent years working
on counterextremism issues,
13
50000
3434
전 CIA 요원과 외교관으로서
00:53
I started to fear that this was becoming
a far greater threat to our democracy
14
53458
3851
저는 이 양극화가 우리 민주주의의
그 어느 적보다 더 큰
00:57
than any foreign adversary.
15
57333
2518
위협이 될 수 있음을 직감했습니다.
00:59
And so I started digging in,
16
59875
1809
그래서 저는 이 문제에 깊숙이 파고들고
01:01
and I started speaking out,
17
61708
1518
제 목소리를 높이기 시작했죠.
01:03
which eventually led me
to being hired at Facebook
18
63250
2809
이런 일들을 바탕으로 저는
페이스북에 고용이 됐고
01:06
and ultimately brought me here today
19
66083
2685
지금 이 기회를 통해
01:08
to continue warning you
about how these platforms
20
68792
2809
여러분들에게 이 플랫폼들이
어떻게 우리의 사상을
01:11
are manipulating
and radicalizing so many of us
21
71625
4018
극단적으로 치우치게 만드는지,
그리고 어떻게 하면 이 플랫폼들을
01:15
and to talk about
how to reclaim our public square.
22
75667
2958
다시 우리의 것으로 만드는지에
대한 대화를 나누고자합니다.
01:19
I was a foreign service officer in Kenya
23
79625
1976
저는 9/11 테러
사건으로부터 몇 년 후
01:21
just a few years after
the September 11 attacks,
24
81625
3059
케냐에 외무직 요원으로 일하면서
01:24
and I led what some call
"hearts and minds" campaigns
25
84708
2560
많은 사람들이 말하길
"마음과 사상" 이라 하는 캠페인을
01:27
along the Somalia border.
26
87292
1934
소말리아 국경 근처에서 주도했습니다.
01:29
A big part of my job
was to build trust with communities
27
89250
3309
이 일의 큰 부분은 극단주의적 사상에
잠식될 가능성이 가장 높은
01:32
deemed the most susceptible
to extremist messaging.
28
92583
2709
커뮤니티 내에서
신뢰를 쌓는 것에 있었습니다.
01:36
I spent hours drinking tea
with outspoken anti-Western clerics
29
96125
4184
저는 반서방주의인 성직자들과
몇 시간이나 차를 마시고
01:40
and even dialogued
with some suspected terrorists,
30
100333
3226
심지어 테러범으로 의심되는 자들과도
대화를 나눴습니다.
01:43
and while many of these engagements
began with mutual suspicion,
31
103583
3393
이러한 대화 중 다수는
상호적 의심으로부터 시작됐으나
01:47
I don't recall any of them
resulting in shouting or insults,
32
107000
3809
이것이 욕설이 난무하는
경우로 변한 적은 기억하지 못합니다.
01:50
and in some case we even worked together
on areas of mutual interest.
33
110833
4084
몇몇 사례에서는
상호 이해관계를 맺고 협력했죠.
01:56
The most powerful tools we had
were to simply listen, learn
34
116000
4143
우리가 가지고 있던 가장
강력한 대화수단은 경청하는 것과 배우는 것,
02:00
and build empathy.
35
120167
1726
그리고 상대방을 이해하는 것이었습니다.
02:01
This is the essence
of hearts and minds work,
36
121917
3059
이것이 우리 캠페인의 본질이었죠.
02:05
because what I found again and again
is that what most people wanted
37
125000
3268
제가 보았을 때 이 사람들이
우리한테 가장 바랬던 것은
02:08
was to feel heard,
validated and respected.
38
128292
3767
우리가 자신들의 이야기를
들어주는 것과 존중받는 것이었습니다.
02:12
And I believe that's what most of us want.
39
132083
2643
대부분 우리는 이것들을 원하죠.
02:14
So what I see happening online today
is especially heartbreaking
40
134750
3309
그렇기에 지금 일어나고 있는 일들이
특히나 가슴 아프고
02:18
and a much harder problem to tackle.
41
138083
2084
해결하기 어려운 문제이기도합니다.
02:20
We are being manipulated
by the current information ecosystem
42
140917
3767
우리들은 현재 이 정보 네트워크에 의해
한쪽 사상으로 극단적으로 치우치고
02:24
entrenching so many of us
so far into absolutism
43
144708
3768
절대주의에 깊이 빠지어
타협은 생각도 못하게
02:28
that compromise has become a dirty word.
44
148500
2976
교묘히 이용당하고있습니다.
02:31
Because right now,
45
151500
1309
왜냐면 지금 현재
02:32
social media companies like Facebook
46
152833
2143
페이스북을 비롯한 많은 기업들이
02:35
profit off of segmenting us
and feeding us personalized content
47
155000
3851
우리의 편견에서 비롯된
개인화된 콘텐츠로
02:38
that both validates
and exploits our biases.
48
158875
3851
우리를 분열시킴으로써
이득을 보기 때문입니다.
02:42
Their bottom line depends
on provoking a strong emotion
49
162750
3434
이런 회사들은 격한 감정을 이끌어 내고,
우리의 시선을 끄는 콘텐츠를
02:46
to keep us engaged,
50
166208
1685
제공하는데 의존하기 때문에
02:47
often incentivizing the most
inflammatory and polarizing voices,
51
167917
4267
극단론자들의 콘텐츠를 우선적으로
제공함으로써 우리들에게
02:52
to the point where finding common ground
no longer feels possible.
52
172208
4435
협상과 타협이 불가능하다는
생각이 들게끔 유도합니다.
02:56
And despite a growing chorus of people
crying out for the platforms to change,
53
176667
4226
하지만 많은 요구에도 불구하고
이 회사들이 이런 정책들을
03:00
it's clear they will not
do enough on their own.
54
180917
3309
바꾸지 않을 것임이 너무나도 뻔합니다.
03:04
So governments must define
the responsibility
55
184250
2893
그러므로 이제는 정부에서
03:07
for the real-world harms being caused
by these business models
56
187167
3809
기업들의 이런 정책들이
03:11
and impose real costs
on the damaging effects
57
191000
2768
우리의 사회, 민주주의와
공중보건에 끼치는
03:13
they're having to our public health,
our public square and our democracy.
58
193792
5309
악영향에 대해 책임지게 할 때입니다.
03:19
But unfortunately, this won't happen
in time for the US presidential election,
59
199125
4643
유감스럽게도, 이런 제재는 다음 대통령
선거 전까지는 이행되지 못할 겁니다.
03:23
so I am continuing to raise this alarm,
60
203792
2767
그래서 제가 계속 상기시켜 드리는 겁니다.
03:26
because even if one day
we do have strong rules in place,
61
206583
3060
왜냐하면 어느날 강경한 규율이
세워진다 한들
03:29
it will take all of us to fix this.
62
209667
2750
우리 모두가 고쳐나가야 할
문제이기 때문입니다.
03:33
When I started shifting my focus
from threats abroad
63
213417
2601
제가 제 초점을 국가 안보 위협에서
03:36
to the breakdown
in civil discourse at home,
64
216042
2142
우리의 사회적 분열으로 옮겼을 때
03:38
I wondered if we could repurpose
some of these hearts and minds campaigns
65
218208
4060
저는 "마음과 사상" 캠페인을 재활용해
03:42
to help heal our divides.
66
222292
2101
이 분열을 치유해보면
어떨지 생각했습니다.
03:44
Our more than 200-year
experiment with democracy works
67
224417
3809
우리의 200년 된 민주주의가
성공 할 수 있었던 가장 큰 이유는
03:48
in large part because we are able
to openly and passionately
68
228250
3893
우리가 우리들의 생각에 대해
자유롭게 토론하고 해답을
03:52
debate our ideas for the best solutions.
69
232167
2809
찾을 수 있었기 때문입니다.
03:55
But while I still deeply believe
70
235000
1809
저는 지금도 대면 방식의
03:56
in the power of face-to-face
civil discourse,
71
236833
2268
시민 담론의 힘을 믿습니다만
03:59
it just cannot compete
72
239125
1643
SNS가 우리에게 끼치는
04:00
with the polarizing effects
and scale of social media right now.
73
240792
3809
악영향에 비해서는 역부족입니다.
04:04
The people who are sucked
down these rabbit holes
74
244625
2351
이런 기업들의 술책에
속수무책으로 빠져드는 사람들은
04:07
of social media outrage
75
247000
1309
04:08
often feel far harder to break
of their ideological mindsets
76
248333
3643
제가 케냐에서 보았던
사람들보다 더욱 더
04:12
than those vulnerable communities
I worked with ever were.
77
252000
3476
자신의 극단화된 사상으로부터
해어 나오기 힘들어합니다.
04:15
So when Facebook called me in 2018
78
255500
2309
그래서 저는 2018년
페이스북으로부터
04:17
and offered me this role
79
257833
1310
선거 광고 운영 총괄자로
04:19
heading its elections integrity operations
for political advertising,
80
259167
3976
고용 오퍼가 들어왔을 때
04:23
I felt I had to say yes.
81
263167
2017
저는 수락해야만 했습니다.
04:25
I had no illusions
that I would fix it all,
82
265208
2726
이 상황을 다 바로잡으리라
예상하지는 않았지만
04:27
but when offered the opportunity
83
267958
1643
우리가 탄 배를 정확한 방향으로
04:29
to help steer the ship
in a better direction,
84
269625
2184
바꾸는 기회가 주어졌을 때
04:31
I had to at least try.
85
271833
1542
그래도 시도는 해봐야겠다고
생각했습니다.
04:34
I didn't work directly on polarization,
86
274667
2267
양분화에 대하여 직접적으로
일을 한 것은 아니지만
04:36
but I did look at which issues
were the most divisive in our society
87
276958
4435
우리 사회에서 가장 분열화된 쟁점들을
관찰할 수 있었습니다.
04:41
and therefore the most exploitable
in elections interference efforts,
88
281417
3809
가장 유리하게 이용할 수 있는
선거 개입 활동들도 말이죠.
04:45
which was Russia's tactic ahead of 2016.
89
285250
2583
2016년 이전의 러시아의 전략처럼요.
04:48
So I started by asking questions.
90
288583
2351
그래서 질문을 하기 시작했습니다.
04:50
I wanted to understand
the underlying systemic issues
91
290958
2893
어떤 조직적 기반 문제들이
04:53
that were allowing all of this to happen,
92
293875
2434
이것들을 가능하게 했고,
04:56
in order to figure out how to fix it.
93
296333
2084
어떻게 고칠 수 있는지요.
04:59
Now I still do believe
in the power of the internet
94
299625
2559
그래도 저는 인터넷이
더 많은 의견들이 표출되게
05:02
to bring more voices to the table,
95
302208
2518
도와준다고 생각합니다.
05:04
but despite their stated goal
of building community,
96
304750
3101
하지만 그들이 하나된 공동체를
만든다는 목표와 상반되어,
05:07
the largest social media companies
as currently constructed
97
307875
3309
현재의 대기업 SNS들은
05:11
are antithetical to the concept
of reasoned discourse.
98
311208
3601
이유에 근거한 담론이
살아남기 힘들게 구조화되어 있습니다.
05:14
There's no way to reward listening,
99
314833
2518
사용자, 활동량 증가가
성공의 키인 사업체에서
05:17
to encourage civil debate
100
317375
1601
경청을 옹호하고,
05:19
and to protect people
who sincerely want to ask questions
101
319000
3643
정중한 토론을 장려하고,
05:22
in a business where optimizing
engagement and user growth
102
322667
3351
진정성 있는 질문자들을
05:26
are the two most important
metrics for success.
103
326042
3226
보호할 일은 없을 겁니다.
05:29
There's no incentive
to help people slow down,
104
329292
3434
사람들이 더 천천히 생각하고
05:32
to build in enough friction
that people have to stop,
105
332750
3226
사람들이 멈출 때를 알게 해주고
05:36
recognize their emotional
reaction to something,
106
336000
2601
어떤 것에 대한 자신의 반응을 관찰하고
05:38
and question their own
assumptions before engaging.
107
338625
2667
자신의 편견들을
되돌아 보게 할 필요가 없거든요.
05:42
The unfortunate reality is:
108
342625
1976
바로 안타까운 현실은
05:44
lies are more engaging online than truth,
109
344625
2893
온라인에서 거짓말은
진실보다 매혹적이고,
05:47
and salaciousness beats out
wonky, fact-based reasoning
110
347542
3726
빠르고 급속적인 세상에서
05:51
in a world optimized
for frictionless virality.
111
351292
3041
추잡스러움은 시시하고
사실적인 추론을 이깁니다.
05:55
As long as algorithms' goals
are to keep us engaged,
112
355167
3434
알고리즘의 목표가 우리가 계속
SNS를 하게 만드는 것인 이상,
05:58
they will continue to feed us the poison
that plays to our worst instincts
113
358625
4059
우리의 최악의 본능과 약점을 이끌어내는
06:02
and human weaknesses.
114
362708
1459
독을 계속 먹일 것입니다.
06:04
And yes, anger, mistrust,
115
364958
3018
분노, 불신,
그리고 무서움과 증오의 문화,
06:08
the culture of fear, hatred:
116
368000
1726
06:09
none of this is new in America.
117
369750
2851
다 미국에서 있던 것이지만,
06:12
But in recent years,
social media has harnessed all of that
118
372625
3351
최근에 SNS 는 그것들을 포용하고,
06:16
and, as I see it,
dramatically tipped the scales.
119
376000
3601
제가 보기에는, 극단화 시켰습니다.
06:19
And Facebook knows it.
120
379625
2393
그리고 페이스북도 압니다.
06:22
A recent "Wall Street Journal" article
121
382042
1892
최근에 월 스트리트
저널에서 나온 기사가
06:23
exposed an internal
Facebook presentation from 2018
122
383958
4143
페이스북 사내에서 2018년에
이루어진 발표를 폭로했는데
06:28
that specifically points
to the companies' own algorithms
123
388125
3768
바로 여기서 회사의 알고리즘을 통해
06:31
for growing extremist groups'
presence on their platform
124
391917
3517
극단주의 단체들의 존재감을 높이고
06:35
and for polarizing their users.
125
395458
2167
사용자들을 분열시키자는
내용이 나왔습니다.
06:38
But keeping us engaged
is how they make their money.
126
398708
3685
우리 활동을 부추기는 것이 바로
그들이 돈을 버는 방법이기 때문이죠.
06:42
The modern information environment
is crystallized around profiling us
127
402417
4226
현재의 정보 세상은
우리의 자료를 수집하고,
06:46
and then segmenting us
into more and more narrow categories
128
406667
2976
더 좁은 카테고리로 분류하여
06:49
to perfect this personalization process.
129
409667
3309
개인화 과정을 다지는것에 따라
형성되었습니다.
06:53
We're then bombarded
with information confirming our views,
130
413000
3809
그 다음에 우리의 사상을 검증하고,
06:56
reinforcing our biases,
131
416833
1851
편견들을 강화시키고
06:58
and making us feel
like we belong to something.
132
418708
3518
소속감을 주는 정보로 공격당합니다.
07:02
These are the same tactics
we would see terrorist recruiters
133
422250
3393
이것들은 테러리스트 모집원들이
07:05
using on vulnerable youth,
134
425667
2184
그들에게 사상을 주입하기 위해
07:07
albeit in smaller, more localized ways
before social media,
135
427875
3851
SNS 이전에 더 작고,
지역적인 방법으로
07:11
with the ultimate goal
of persuading their behavior.
136
431750
3268
취약한 청년층에게
사용하는 방법과 같습니다.
07:15
Unfortunately, I was never empowered
by Facebook to have an actual impact.
137
435042
5267
불행하게도, 전 변화를 줄 수 있을 정도로
페이스북에서 권한을 부여받지 못했습니다.
07:20
In fact, on my second day,
my title and job description were changed
138
440333
3768
사실 제 두 번째 날,
제 직책과 업무 내용이 바뀌어 있었으며
07:24
and I was cut out
of decision-making meetings.
139
444125
2976
중대한 회의들에서 제외되었습니다.
07:27
My biggest efforts,
140
447125
1309
제 가장 큰 노력들,
07:28
trying to build plans
141
448458
1393
계흭적으로 허위정보와
정치적 광고를 통한 유권자 억압을 막는 것,
07:29
to combat disinformation
and voter suppression in political ads,
142
449875
3601
07:33
were rejected.
143
453500
1559
모두 거절당했습니다.
07:35
And so I lasted just shy of six months.
144
455083
2500
그래서 약 6개월 후
회사를 그만뒀습니다.
07:38
But here is my biggest takeaway
from my time there.
145
458125
3601
제가 이 경험에서 배운 건 이것입니다.
07:41
There are thousands of people at Facebook
146
461750
2476
바로 열정적으로 제품 개발에 몰두하는
07:44
who are passionately working on a product
147
464250
2018
몇천명의 페이스북 직원들은
07:46
that they truly believe
makes the world a better place,
148
466292
3684
세상을 더 좋은 곳으로
만들 수 있다고 믿지만,
07:50
but as long as the company continues
to merely tinker around the margins
149
470000
3684
회사가 계속 컨텐츠 관리와 정책에
07:53
of content policy and moderation,
150
473708
2726
소홀이 행동하고
07:56
as opposed to considering
151
476458
1310
수익 창출과 플랫폼 설계에만
07:57
how the entire machine
is designed and monetized,
152
477792
3226
집중하는 이상,
08:01
they will never truly address
how the platform is contributing
153
481042
3351
이 플랫폼이 어떻게
혐오, 분열과 급진화에 앞장서는지
08:04
to hatred, division and radicalization.
154
484417
4184
신경써서 고치려 하진 않을 겁니다.
08:08
And that's the one conversation
I never heard happen during my time there,
155
488625
4268
제가 거기서 일할 때
이런 것에 대한 언급은 듣지를 못했습니다.
08:12
because that would require
fundamentally accepting
156
492917
3059
그러기 위해서는
08:16
that the thing you built
might not be the best thing for society
157
496000
4143
그들이 만든게 근본적으로
사회에 해가 되는것을 인정하고
08:20
and agreeing to alter
the entire product and profit model.
158
500167
3125
제품 전체와 수익 창출 방법을
바꿔야 하기 때문일 겁니다.
08:24
So what can we do about this?
159
504500
1833
그래서 우린 무얼 할 수 있을까요?
08:27
I'm not saying that social media
bears the sole responsibility
160
507042
3601
전 지금 이 상황에 놓이게 된 것이
08:30
for the state that we're in today.
161
510667
2142
SNS만의 책임이라고
하는 것은 아닙니다.
08:32
Clearly, we have deep-seated
societal issues that we need to solve.
162
512833
5435
분명히, 우리는 풀어나가야 할
뿌리 깊은 사회적 문제들이 많죠.
08:38
But Facebook's response,
that it is just a mirror to society,
163
518292
4142
하지만 페이스북이 이건 모두 다 사회의
본모습일 뿐이라고 주장하는 것은,
08:42
is a convenient attempt
to deflect any responsibility
164
522458
3018
그들의 플랫폼이
해로운 콘텐츠를 확산하고
08:45
from the way their platform
is amplifying harmful content
165
525500
4268
몇몇 유저들을 극단적인 사상으로
밀어넣는 것에 대한
08:49
and pushing some users
towards extreme views.
166
529792
3041
책임 회피일 뿐입니다.
08:53
And Facebook could, if they wanted to,
167
533583
2851
페이스북이 원한다면,
08:56
fix some of this.
168
536458
1851
어느 정도는 고칠 수 있을 겁니다.
08:58
They could stop amplifying
and recommending the conspiracy theorists,
169
538333
3851
그들이 음모론자들, 증오 집단들,
09:02
the hate groups,
the purveyors of disinformation
170
542208
2685
그리고 가짜 뉴스를 조달하는 사람들을
그만 부추기고 추천하면 됩니다.
09:04
and, yes, in some cases
even our president.
171
544917
3851
심지어 우리의 대통령도 말이죠.
09:08
They could stop using
the same personalization techniques
172
548792
3392
그들이 우리에게 운동화를 광고하듯이
09:12
to deliver political rhetoric
that they use to sell us sneakers.
173
552208
4226
정치적으로 설득하는 것을
그만하면 됩니다.
09:16
They could retrain their algorithms
174
556458
1726
그들이 알고리즘을
재훈련 시키면 될 겁니다.
09:18
to focus on a metric
other than engagement,
175
558208
2185
활동량이 아닌 다른 지표를 세우고,
09:20
and they could build in guardrails
to stop certain content from going viral
176
560417
4309
특정 콘텐츠가 인기를 얻지 못하게
09:24
before being reviewed.
177
564750
1667
안전 장치를 설치함으로써 말이죠.
09:26
And they could do all of this
178
566875
2268
이것을 다 하면서도
09:29
without becoming what they call
the arbiters of truth.
179
569167
4184
그들이 지칭하는 "진실의 중재자"가
되지 않을 수 있습니다.
09:33
But they've made it clear
that they will not go far enough
180
573375
2809
하지만 그들이 강제되지 않는 이상
09:36
to do the right thing
without being forced to,
181
576208
2810
옮은 일을 하지 않을 것이라고
명백히 밝혔습니다.
09:39
and, to be frank, why should they?
182
579042
2934
솔직히, 그들이 굳이
그럴 이유도 없으니까요.
09:42
The markets keep rewarding them,
and they're not breaking the law.
183
582000
3934
시장에서 계속 수익이 나며,
법을 어기는 것도 아니기 때문이죠.
09:45
Because as it stands,
184
585958
1310
왜냐하면 현재 상황에서는
09:47
there are no US laws compelling Facebook,
or any social media company,
185
587292
4892
미국의 어느 법도
페이스북이나 다른 SNS업체들이
우리의 의견을 내는 공간
09:52
to protect our public square,
186
592208
1768
우리의 민주주의나 선거를 보호하도록
09:54
our democracy
187
594000
1309
09:55
and even our elections.
188
595333
2435
강제하지 않기 때문입니다.
09:57
We have ceded the decision-making
on what rules to write and what to enforce
189
597792
4101
우리는 지금까지
영리 인터넷 기업들의 CEO들에게
10:01
to the CEOs of for-profit
internet companies.
190
601917
3083
무슨 규칙을 세우고
무엇을 강제할지 맡겨왔습니다.
10:05
Is this what we want?
191
605750
2018
서로 독이 되고 분열되어
10:07
A post-truth world
where toxicity and tribalism
192
607792
3226
유대감 없이 교감만 찾아 헤매는
진실을 외면하는 세상,
10:11
trump bridge-building
and consensus-seeking?
193
611042
2625
이게 정말 우리가 원하는 것일까요?
10:14
I do remain optimistic that we still
have more in common with each other
194
614667
4101
그래도 아직은 우리가
SNS에서 보이는 것보다는
10:18
than the current media
and online environment portray,
195
618792
3642
서로 닮은 점이 많다라고
긍정적으로 생각합니다.
10:22
and I do believe that having
more perspective surface
196
622458
3101
그리고 더 많은 관점들을 수용하는 것이
10:25
makes for a more robust
and inclusive democracy.
197
625583
3601
더욱 건강하고 포용적인
민주주의를 만든다고 믿습니다.
10:29
But not the way it's happening right now.
198
629208
2810
하지만 지금처럼은 아닙니다.
10:32
And it bears emphasizing,
I do not want to kill off these companies.
199
632042
4226
강조하는데, 저는 이 회사들을
죽이고 싶은 마음이 없습니다.
10:36
I just want them held
to a certain level of accountability,
200
636292
3226
그냥 어느 정도의 책임감만
질 수 있었으면 좋겠습니다.
10:39
just like the rest of society.
201
639542
1916
사회의 다른 것들처럼 말이죠.
10:42
It is time for our governments
to step up and do their jobs
202
642542
4351
이제 우리의 정부들이 일어서서
10:46
of protecting our citizenry.
203
646917
1642
우리의 시민성을 지킬 때가 됐습니다.
10:48
And while there isn't
one magical piece of legislation
204
648583
3060
이걸 모두 고쳐줄 마법같은 법안이
10:51
that will fix this all,
205
651667
1476
존재하는 것은 아니지만
10:53
I do believe that governments
can and must find the balance
206
653167
4684
정부가 표현의 자유 보장과
SNS가 사회에 미치는 영향에 대해
10:57
between protecting free speech
207
657875
2143
책임을 지게 하는 것, 그 사이에
균형을 찾을 수 있으며,
11:00
and holding these platforms accountable
for their effects on society.
208
660042
4309
찾아야 한다고 생각합니다.
11:04
And they could do so in part
by insisting on actual transparency
209
664375
4309
그리고 그들은 이걸 추천 알고리즘과
11:08
around how these recommendation
engines are working,
210
668708
3143
개인화, 증폭과 타겟팅을 어떻게 하는지
11:11
around how the curation, amplification
and targeting are happening.
211
671875
4643
투명하게 밝힘으로써 도울 수 있습니다.
11:16
You see, I want these companies
held accountable
212
676542
2434
이 회사들이
11:19
not for if an individual
posts misinformation
213
679000
3101
개개인이 가짜 정보나
극단적인 사상을 개재하는것이 아닌
11:22
or extreme rhetoric,
214
682125
1476
11:23
but for how their
recommendation engines spread it,
215
683625
3851
그들의 알고리즘이
이걸 어떻게 퍼트리고,
11:27
how their algorithms
are steering people towards it,
216
687500
3226
사람들을 끌어들이며,
11:30
and how their tools are used
to target people with it.
217
690750
3292
타겟팅을 하는지에 대하여
책임을 졌으면 좋겠습니다.
11:35
I tried to make change
from within Facebook and failed,
218
695417
3684
제가 페이스북 안에서
변화를 주는 것에 실패했지만,
11:39
and so I've been using my voice again
for the past few years
219
699125
3143
지난 몇 년간 다시 목소리를 내어
11:42
to continue sounding this alarm
220
702292
2226
사람들이 회사들에게
이런 책임을 요구하기를 원하며
11:44
and hopefully inspire more people
to demand this accountability.
221
704542
4392
계속 경고를 하고 있는 중입니다.
11:48
My message to you is simple:
222
708958
2643
제가 여러분에게
하고 싶은 말은 간단합니다:
11:51
pressure your government representatives
223
711625
2184
정부에게 압력을 주어
11:53
to step up and stop ceding
our public square to for-profit interests.
224
713833
5435
우리가 목소리를 내는 공간을
영리 법인들에게 양도하는 것을 멈추라고 말이죠.
11:59
Help educate your friends and family
225
719292
1851
친구들과 가족들에게
12:01
about how they're being
manipulated online.
226
721167
3142
그들이 온라인상에서
어떻게 이용당하는지 알려주고,
12:04
Push yourselves to engage
with people who aren't like-minded.
227
724333
3518
비슷한 사상을 가지지 않은 사람들과
어울리도록 노력하세요.
12:07
Make this issue a priority.
228
727875
2643
이 문제를 우선시켜 주세요.
12:10
We need a whole-society
approach to fix this.
229
730542
3416
사회 모두가 참여해야
고칠 수 있습니다.
12:15
And my message to the leaders
of my former employer Facebook is this:
230
735250
5559
제 전 직장인 페이스북의
총수들에게 바칩니다:
12:20
right now, people are using your tools
exactly as they were designed
231
740833
5810
지금도 사람들은 당신들이 만든 도구들로
12:26
to sow hatred, division and distrust,
232
746667
2601
증오, 분단과 불신을 퍼트리고 있으며
12:29
and you're not just allowing it,
you are enabling it.
233
749292
4142
당신들은 그것들을 허락하는 것을 넘어서
유도하고 있습니다.
12:33
And yes, there are lots of great stories
234
753458
2476
물론 당신들의 플랫폼에는
전 세계에서 나오는
12:35
of positive things happening
on your platform around the globe,
235
755958
3685
긍정적이고 근사한 이야기들이
많이 있지만,
12:39
but that doesn't make any of this OK.
236
759667
3226
이것들을 정당화시키는 것은 아닙니다.
12:42
And it's only getting worse
as we're heading into our election,
237
762917
2976
이제 선거에 더 가까워질수록
더욱 나빠지고 있는데
12:45
and even more concerning,
238
765917
1767
더욱더 걱정인 것은
12:47
face our biggest potential crisis yet,
239
767708
2476
가장 큰 국면이 일어날 경우
12:50
if the results aren't trusted,
and if violence breaks out.
240
770208
4143
바로 결과를 받아들이지 못하고
폭력 시위가 일어날 경우입니다.
12:54
So when in 2021 you once again say,
"We know we have to do better,"
241
774375
5018
그러니 2021년에 또
"우리가 더 잘하겠습니다" 라고 할 때,
12:59
I want you to remember this moment,
242
779417
2684
이 순간을 기억해주세요.
13:02
because it's no longer
just a few outlier voices.
243
782125
3226
왜냐하면 이제는 소수의 목소리가 아닌
13:05
Civil rights leaders, academics,
244
785375
2268
인권운동 지도자, 교수와 학생,
13:07
journalists, advertisers,
your own employees,
245
787667
2976
기자, 광고주와 당신의 직원들이
13:10
are shouting from the rooftops
246
790667
2059
당신들의 정책과 운영 방식이
13:12
that your policies
and your business practices
247
792750
2601
사람들과 민주주의에 해악을 끼친다고
13:15
are harming people and democracy.
248
795375
2417
외치고 있으니까요.
13:18
You own your decisions,
249
798875
2351
당신들의 결정은 당신들이 한 것이지만,
13:21
but you can no longer say
that you couldn't have seen it coming.
250
801250
3667
이렇게 될 걸 예측하지 못했다고
말할 수는 없을 겁니다.
감사합니다.
13:26
Thank you.
251
806167
1250
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.