Inside the bizarre world of internet trolls and propagandists | Andrew Marantz

194,244 views ・ 2019-10-01

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Soomin Ha 검토: Yunjung Nam
00:12
I spent the past three years
0
12612
1611
저는 지난 3년간
00:14
talking to some of the worst people on the internet.
1
14247
3183
인터넷에서 볼 수 있는 최악의 사람들과 대화했습니다.
00:18
Now, if you've been online recently,
2
18441
2196
여러분도 온라인을 보셨겠지만
00:20
you may have noticed that there's a lot of toxic garbage out there:
3
20661
3804
정말 쓰레기 같은 것들이 많다는 걸 알 수 있죠.
00:24
racist memes, misogynist propaganda, viral misinformation.
4
24489
4953
인종차별 짤방, 남성우월주의, 허위 사실 유포.
00:29
So I wanted to know who was making this stuff.
5
29466
2199
저는 누가 이런 걸 만드는 건지
00:31
I wanted to understand how they were spreading it.
6
31689
2338
어떻게 퍼트려지는 건지 알고 싶었습니다.
00:34
Ultimately, I wanted to know
7
34051
1387
가장 알고 싶었던 건
00:35
what kind of impact it might be having on our society.
8
35462
2569
이게 우리 사회에 어떤 영향을 미치는가 였습니다.
00:38
So in 2016, I started tracing some of these memes back to their source,
9
38055
4011
그래서 2016년, 이런 짤방들의 근원을 추적하기 시작했습니다.
00:42
back to the people who were making them or who were making them go viral.
10
42090
3502
이런걸 만들고 배포하는 그런 사람들 말이에요.
00:45
I'd approach those people and say,
11
45616
1634
몇몇을 찾은 후 물었죠.
00:47
"Hey, I'm a journalist. Can I come watch you do what you do?"
12
47274
2906
"음, 저는 기자인데요. 좀 찾아봬도 될까요?"
00:50
Now, often the response would be,
13
50204
1596
많은 이들이 이렇게 답합니다.
00:51
"Why in hell would I want to talk to
14
51824
1747
"왜 내가 너 같은 브루클린 출신의
00:53
some low-t soy-boy Brooklyn globalist Jew cuck
15
53595
2199
민주당이랑 한통속인
00:55
who's in cahoots with the Democrat Party?"
16
55818
2087
유대인 좌파를 봐야 되지?"
00:57
(Laughter)
17
57929
1252
(웃음)
00:59
To which my response would be, "Look, man, that's only 57 percent true."
18
59205
3835
저의 대답은 이렇죠. "그건 57%만 사실이에요."
01:03
(Laughter)
19
63064
1172
(웃음)
01:04
But often I got the opposite response.
20
64633
1840
하지만 정반대 대답도 많아요.
01:06
"Yeah, sure, come on by."
21
66497
1288
"물론이죠. 오세요."
01:08
So that's how I ended up in the living room
22
68625
2081
그렇게 그들의 집으로 찾아가죠.
01:10
of a social media propagandist in Southern California.
23
70730
3125
남부 캘리포니아에 있는 소셜미디어 선동가들의 집으로요.
01:14
He was a married white guy in his late 30s.
24
74386
2381
그는 30대 유부남이였는데
01:16
He had a table in front of him with a mug of coffee,
25
76791
3182
책상 위에 커피 한잔과
01:19
a laptop for tweeting,
26
79997
1570
트위터용 랩탑
01:21
a phone for texting
27
81591
1848
문자용 폰
01:23
and an iPad for livestreaming to Periscope and YouTube.
28
83463
3236
인터넷 생중계용 아이패드까지 있었어요.
01:27
That was it.
29
87258
1161
그게 전부였어요.
01:28
And yet, with those tools,
30
88998
1270
하지만 그것들로
01:30
he was able to propel his fringe, noxious talking points
31
90292
3715
그의 극단적이고 위험한 논점들을 미국인들의 일상적인 대화에
01:34
into the heart of the American conversation.
32
94031
2411
끌어 들이는게 가능했죠.
01:37
For example, one of the days I was there,
33
97144
2023
예를 들어, 제가 뉴욕에서 머무는 동안
01:39
a bomb had just exploded in New York,
34
99191
3152
어느날 폭탄이 터졌는데
01:42
and the guy accused of planting the bomb had a Muslim-sounding name.
35
102367
3475
당시 용의자의 이름이 약간 무슬림 같았어요.
01:45
Now, to the propagandist in California, this seemed like an opportunity,
36
105866
4142
캘리포니아 선동가가 이걸 놓칠리 없죠
01:50
because one of the things he wanted
37
110032
1716
그가 지지하던 것 중 하나는
01:51
was for the US to cut off almost all immigration,
38
111772
2562
미국으로 오는 이민자를 모두 막는 것이었거든요.
01:54
especially from Muslim-majority countries.
39
114358
2559
특히나 무슬림 국가 이민자들요.
01:57
So he started livestreaming,
40
117424
2055
그렇게 생중계를 시작하고
01:59
getting his followers worked up into a frenzy
41
119503
2236
그의 팔로워들에게 말하죠.
02:01
about how the open borders agenda was going to kill us all
42
121763
2775
국경을 닫지 않으면 미국은 끝장날거라고요.
02:04
and asking them to tweet about this,
43
124562
1768
그리고 이걸 트윗하라고 선동합니다.
02:06
and use specific hashtags,
44
126354
1469
가장 사람들의 이목을 끌
02:07
trying to get those hashtags trending.
45
127847
1858
해쉬태그를 사용해서 말이죠.
02:09
And tweet they did --
46
129729
1219
물론 그들은 따르죠.
02:10
hundreds and hundreds of tweets,
47
130972
1864
수백, 수천 개의 트윗들
02:12
a lot of them featuring images like this one.
48
132860
2379
대게 이런 사진들과 함께하죠.
02:15
So that's George Soros.
49
135263
1777
조지 소로스인데요.
02:17
He's a Hungarian billionaire and philanthropist,
50
137064
2645
헝가리 출신 억만장자이자 자선가입니다.
02:19
and in the minds of some conspiracists online,
51
139733
2595
하지만 온라인 음모론자들에겐
02:22
George Soros is like a globalist bogeyman,
52
142352
2568
세계의 사악한 악당 같은 존재죠.
02:24
one of a few elites who is secretly manipulating all of global affairs.
53
144944
4110
전 세계의 문제에 관여해 사람들을 조종하는 소수의 엘리트요.
02:29
Now, just to pause here: if this idea sounds familiar to you,
54
149078
3592
여기서 잠깐, 이거 어디서 많이 들어보셨죠.
02:32
that there are a few elites who control the world
55
152694
2392
소수의 엘리트 집단이 전 세계를 조종하는데
02:35
and a lot of them happen to be rich Jews,
56
155110
2581
알고보니 그건 잘 사는 유대인인 거죠.
02:37
that's because it is one of the most anti-Semitic tropes in existence.
57
157715
3704
현존하는 반유대주의 사상 중 가장 대표적인 예입니다.
02:42
I should also mention that the guy in New York who planted that bomb,
58
162296
3398
이걸 언급하지 않을 수 없군요. 그 폭탄 심었다는 남자는
02:45
he was an American citizen.
59
165718
1491
미국 시민권자입니디.
02:47
So whatever else was going on there,
60
167785
2204
무엇이 문제인진 몰라도
02:50
immigration was not the main issue.
61
170013
2173
이민이 원인은 아니죠.
02:53
And the propagandist in California, he understood all this.
62
173332
2832
그 캘리포니아의 선동가는 이걸 다 알고 있었어요.
02:56
He was a well-read guy. He was actually a lawyer.
63
176188
2521
그는 교육받은 사람이고 실제로도 변호사죠.
02:58
He knew the underlying facts,
64
178733
1687
이런 사실들을 알고 있었어요.
03:00
but he also knew that facts do not drive conversation online.
65
180444
3191
하지만 온라인이 사실에 근거하지 않는다는 것도 알고 있었죠.
03:03
What drives conversation online
66
183659
1707
온라인에서 중요한건
03:05
is emotion.
67
185390
1229
감정입니다.
03:07
See, the original premise of social media
68
187451
2010
소셜미디어의 기본적인 전제는
03:09
was that it was going to bring us all together,
69
189485
2249
이걸로 사람들을 끌어모아서
03:11
make the world more open and tolerant and fair ...
70
191758
2379
열린 세상을 만들고 관대하고 정의롭게 만드는 등
03:14
And it did some of that.
71
194161
1254
어느 정도는 맞아요.
03:16
But the social media algorithms have never been built
72
196503
2723
하지만 소셜미디어 알고리즘은
03:19
to distinguish between what's true or false,
73
199250
2338
사실 여부를 판단하지 않아요.
03:21
what's good or bad for society, what's prosocial and what's antisocial.
74
201612
3910
사회를 위해 옳고 그른것, 친사회적인지 아닌지는 중요치 않죠.
03:25
That's just not what those algorithms do.
75
205965
2237
이 알고리즘은 그럴려고 만든게 아니에요.
03:28
A lot of what they do is measure engagement:
76
208226
2555
이게 평가하는 건 사람들의 참여율이죠.
03:30
clicks, comments, shares, retweets, that kind of thing.
77
210805
3021
클릭, 답글, 공유, 리트윗 같은 거요.
03:33
And if you want your content to get engagement,
78
213850
2701
자기 컨텐츠를 많은 사람들이 보길 원한다면
03:36
it has to spark emotion,
79
216575
1658
이 감정을 유발하면 돼요.
03:38
specifically, what behavioral scientists call "high-arousal emotion."
80
218257
3500
행동과학자들은 이걸 "정서적 각성" 이라고 하는데
03:42
Now, "high arousal" doesn't only mean sexual arousal,
81
222343
2490
이 "각성"이 성적인 흥분을 말하는건 아닙니다.
03:44
although it's the internet, obviously that works.
82
224857
2735
인터넷에선 뭐 그럴 수도 있지만, 긍정 혹은 부정적이던
03:47
It means anything, positive or negative, that gets people's hearts pumping.
83
227616
4009
사람들의 가슴을 뛰게 하는 그 무언가를 의미해요.
03:51
So I would sit with these propagandists,
84
231649
1969
저는 선동가들을 만나왔어요.
03:53
not just the guy in California, but dozens of them,
85
233642
2409
그 캘리포니아 사람 말고도 많은 사람들을요.
03:56
and I would watch as they did this again and again successfully,
86
236075
3748
그들이 정서적 각성을 성공적으로 수행하는 모습을 봤습니다.
03:59
not because they were Russian hackers, not because they were tech prodigies,
87
239847
3608
러시아 해커라거나 천재 기술자라거나
04:03
not because they had unique political insights --
88
243479
2289
깊은 정치적 통찰력을 가지고 있어서가 아니라
04:05
just because they understood how social media worked,
89
245772
2473
이 소셜미디어가 어떻게 작동하는지를 이해한거에요.
04:08
and they were willing to exploit it to their advantage.
90
248269
2582
그리고 그걸 이용하고자 한거죠.
04:10
Now, at first I was able to tell myself this was a fringe phenomenon,
91
250865
3243
처음엔 이게 대단한 일이 아니라고 생각했습니다.
04:14
something that was relegated to the internet.
92
254132
2229
인터넷에만 국한된 일이라고요.
04:16
But there's really no separation anymore between the internet and everything else.
93
256385
4352
하지만 이젠 인터넷과 실제 세상을 나누는게 무의미해요.
04:20
This is an ad that ran on multiple TV stations
94
260761
2184
여러 TV 채널에서 방송된 광고인데요.
04:22
during the 2018 congressional elections,
95
262969
2607
2018년 미국 중간 선거 기간이었죠.
04:25
alleging with very little evidence that one of the candidates
96
265600
2880
별다른 증거도 없이 국제적 조종가 조지 소로스가
04:28
was in the pocket of international manipulator George Soros,
97
268504
2886
특정 후보자의 뒤를 봐주고 있다고 하죠.
04:31
who is awkwardly photoshopped here next to stacks of cash.
98
271414
3252
돈다발 옆에 합성되어 있죠.
04:35
This is a tweet from the President of the United States,
99
275296
2654
미합중국 대통령의 트윗 내용입니다.
04:37
alleging, again with no evidence,
100
277974
1633
역시 증거가 없지만
04:39
that American politics is being manipulated by George Soros.
101
279631
3431
미국 정치가 조지 소로스에 의해 조종되고 있다고 합니다.
04:43
This stuff that once seemed so shocking and marginal and, frankly, just ignorable,
102
283086
3974
충격적이긴 하지만 별로 시덥잖은 이런 것들이
04:47
it's now so normalized that we hardly even notice it.
103
287084
2945
이제는 사방에 널려있고 더 이상 놀랍지도 않습니다.
04:50
So I spent about three years in this world.
104
290053
2066
저는 3년이라는 시간동안
04:52
I talked to a lot of people.
105
292143
1670
많은 사람들과 대화를 했는데요.
04:53
Some of them seemed to have no core beliefs at all.
106
293837
2466
몇몇은 딱히 신념을 가진걸로 보이진 않았습니다.
04:56
They just seemed to be betting, perfectly rationally,
107
296327
2583
적절히 계산을 한 후 도박을 하는거 같았죠.
04:58
that if they wanted to make some money online
108
298934
2163
온라인에서 돈을 좀 만들고 싶다거나
05:01
or get some attention online,
109
301121
1412
온라인에서 관심을 끌고 싶으면
05:02
they should just be as outrageous as possible.
110
302557
2213
최대한 충격적인 내용이면 되는거죠.
05:04
But I talked to other people who were true ideologues.
111
304794
2589
몇몇은 실제로 이데올로기에 빠져 있었죠.
05:08
And to be clear, their ideology was not traditional conservatism.
112
308173
3881
확실하게 말하자면 전통적 보수주의같은 건 아니였어요.
05:12
These were people who wanted to revoke female suffrage.
113
312078
3378
여성의 투표권을 박탈해야 한다거나
05:15
These were people who wanted to go back to racial segregation.
114
315480
2967
인종차별 시대로 돌아가야 한다거나
05:18
Some of them wanted to do away with democracy altogether.
115
318471
2809
민주주의를 없애야 한다는 사람들도 있었죠.
05:21
Now, obviously these people were not born believing these things.
116
321304
3112
물론 그들이 처음부터 그랬던건 아니에요.
05:24
They didn't pick them up in elementary school.
117
324440
2392
초등학교에서 배운 내용은 아니죠.
05:26
A lot of them, before they went down some internet rabbit hole,
118
326856
2992
인터넷에서 이런것에 빠지기 전에는
05:29
they had been libertarian or they had been socialist
119
329872
2468
자유주의자나 사회주의를 믿는 사람이었거나,
05:32
or they had been something else entirely.
120
332364
2187
아니면 완전히 다른 사람이었습니다.
05:34
So what was going on?
121
334575
1291
무슨 일이 있었던 걸까요?
05:36
Well, I can't generalize about every case,
122
336918
2062
모든 걸 일반화 할 수 없겠지만,
05:39
but a lot of the people I spoke to,
123
339004
1687
제가 만난 많은 사람들은
05:40
they seem to have a combination of a high IQ and a low EQ.
124
340715
3880
높은 IQ와 낮은 EQ지수를 나타냈고
05:44
They seem to take comfort in anonymous, online spaces
125
344619
3511
온라인 공간의 익명성에서 편안함을 느꼈죠.
05:48
rather than connecting in the real world.
126
348154
1987
실제 세상에서 교류하는 것 보다요.
05:50
So often they would retreat to these message boards
127
350810
2453
그들은 그렇게 온라인 게시판 또는 서브 레딧으로
05:53
or these subreddits,
128
353287
1172
도망치게 됩니다.
05:54
where their worst impulses would be magnified.
129
354483
2454
그들의 충동이 표현될 수 있는 장소로요.
05:56
They might start out saying something just as a sick joke,
130
356961
3059
처음에는 농담 식으로 한마디씩 던지는 게
06:00
and then they would get so much positive reinforcement for that joke,
131
360044
3344
생각보다 많은 호응을 얻으면서
06:03
so many meaningless "internet points," as they called it,
132
363412
2821
그 공간에서 유명해져가죠.
06:06
that they might start believing their own joke.
133
366257
2532
그리고 그들은 자신의 농담을 실제로 믿게 됩니다.
06:10
I talked a lot with one young woman who grew up in New Jersey,
134
370014
3524
뉴저지에서 나고 자란 한 여성과 많은 이야기를 나눴는데
06:13
and then after high school, she moved to a new place
135
373562
2476
고등학교 졸업 후 이사를 가게되었고
06:16
and suddenly she just felt alienated and cut off
136
376062
2254
갑자기 소외된 그녀는 모든 교류를 중단하고
06:18
and started retreating into her phone.
137
378340
1864
핸드폰으로 빠져들게 되죠.
06:20
She found some of these spaces on the internet
138
380850
2172
인터넷에서 가장 충격적이고 극악무도한 것이
06:23
where people would post the most shocking, heinous things.
139
383046
2866
게시되는 몇몇 사이트를 찾게 됩니다.
06:25
And she found this stuff really off-putting
140
385936
2269
그녀는 뭔가 미심쩍다고 생각하지만
06:28
but also kind of engrossing,
141
388229
1775
뭔가가 그녀의 마음을 사로잡고
06:30
kind of like she couldn't look away from it.
142
390754
2084
그녀는 거기에 중독이 되는 것이죠.
06:33
She started interacting with people in these online spaces,
143
393304
2832
그녀는 온라인 상에서 사람들과 대화를 나누게 되고
06:36
and they made her feel smart, they made her feel validated.
144
396160
2799
그들은 그녀를 인정해주고 똑똑하다고 말해줍니다.
06:38
She started feeling a sense of community,
145
398983
1977
그녀는 그곳에서 소속감을 느끼고
06:40
started wondering if maybe some of these shocking memes
146
400984
2658
점차 이런 충격적인 짤방에 어쩌면
06:43
might actually contain a kernel of truth.
147
403666
2461
진실의 핵심이 있을지도 모른다고 생각하게 됩니다.
06:46
A few months later, she was in a car with some of her new internet friends
148
406151
3515
몇개월 후 그녀는 인터넷 친구들과 같은 차에 탄 상태로
06:49
headed to Charlottesville, Virginia,
149
409690
1826
버지니아주 샬러츠빌로 향하고
06:51
to march with torches in the name of the white race.
150
411540
2688
백인 우월주의의 이름하에 횃불을 들고 행진을 합니다.
06:55
She'd gone, in a few months, from Obama supporter
151
415033
2291
오바바의 지지자였던 그녀가
06:57
to fully radicalized white supremacist.
152
417338
2487
몇달만에 완전한 백인 우월주의자가 되어버립니다.
07:01
Now, in her particular case,
153
421030
2281
그래도 그녀의 경우에는
07:03
she actually was able to find her way out of the cult of white supremacy.
154
423335
4132
결국 백인 우월주의 단체에서 탈출할 수 있었습니다만,
07:08
But a lot of the people I spoke to were not.
155
428418
2060
제가 만났던 많은 사람들은 그렇지 못했죠.
07:10
And just to be clear:
156
430502
1722
확실하게 말씀드리자면,
07:12
I was never so convinced that I had to find common ground
157
432248
2966
저는 제가 만나는 모든 사람들과 항상 공통점을 찾아야 한다고
07:15
with every single person I spoke to
158
435238
2063
생각하는 건 아니에요.
07:17
that I was willing to say,
159
437325
1254
이건 아니란 거죠.
07:18
"You know what, man, you're a fascist propagandist, I'm not,
160
438603
3141
"아 너 극우 선동가니? 난 아니야,
07:21
whatever, let's just hug it out, all our differences will melt away."
161
441768
3416
뭐 어쨌든 잘 지내보자. 서로 달라도 친구가 될 수 있을 거야."
07:25
No, absolutely not.
162
445208
1714
아니요, 절대 그렇지 않습니다.
07:28
But I did become convinced that we cannot just look away from this stuff.
163
448056
3521
하지만 저는 이걸 그냥 지나칠 순 없다고 생각합니다.
07:31
We have to try to understand it, because only by understanding it
164
451601
3216
그들을 이해하기 위해 노력해야합니다. 그렇게 함으로써
07:34
can we even start to inoculate ourselves against it.
165
454841
3198
우리는 이 문제를 해결하기 시작할 수 있기 때문입니다.
07:39
In my three years in this world, I got a few nasty phone calls,
166
459361
3349
지난 3년간 악성 전화를 몇통 받았습니다.
07:42
even some threats,
167
462734
1520
그 중엔 협박 전화도 있었어요.
07:44
but it wasn't a fraction of what female journalists get on this beat.
168
464278
3430
사실 여성 기자들이 겪는 것에 비하면 아무것도 아닙니다.
07:48
And yeah, I am Jewish,
169
468791
1391
네, 저는 유대인입니다.
07:50
although, weirdly, a lot of the Nazis couldn't tell I was Jewish,
170
470206
3649
이상하게도, 나치 추종자들이 저를 알아보진 못하더라고요.
07:53
which I frankly just found kind of disappointing.
171
473879
2861
솔직히 좀 실망스럽더군요.
07:56
(Laughter)
172
476764
1800
(웃음)
07:58
Seriously, like, your whole job is being a professional anti-Semite.
173
478588
3966
전문 반유대주의자가 직업이면서
08:03
Nothing about me is tipping you off at all?
174
483228
2422
나를 보고 느끼는 게 없다고?
08:05
Nothing?
175
485674
1076
아무것도?
08:06
(Laughter)
176
486774
2303
(웃음)
08:09
This is not a secret.
177
489983
1195
숨길 것도 아니죠.
08:11
My name is Andrew Marantz, I write for "The New Yorker,"
178
491202
2683
제 이름은 Andrew Marantz이고 "뉴요커"에서 일합니다.
08:13
my personality type is like if a Seinfeld episode
179
493909
2521
제 성격은 마치 시트콤 사인필드의 한 에피소드를
08:16
was taped at the Park Slope Food Coop.
180
496454
1837
Park Slope Food Coop에서
08:18
Nothing?
181
498315
1162
찍은 것과 같죠. 아무것도?
08:19
(Laughter)
182
499501
2513
(웃음)
08:24
Anyway, look -- ultimately, it would be nice
183
504804
2231
어쨌든, 참 좋을텐데 말이죠.
08:27
if there were, like, a simple formula:
184
507059
2348
이것에 단순한 공식이 있었다면 말이에요.
08:29
smartphone plus alienated kid equals 12 percent chance of Nazi.
185
509431
3988
"핸드폰을 소유하고, 외로운 아이는 12%의 확률로 나치이다" 같은 거요.
08:33
It's obviously not that simple.
186
513918
1604
그렇게 단순하지 않지만요.
08:36
And in my writing,
187
516190
1163
제가 글을 쓸 때,
08:37
I'm much more comfortable being descriptive, not prescriptive.
188
517377
3215
명령조로 적는 걸 좋아하지 않아요.
08:41
But this is TED,
189
521049
2641
하지만 이건 TED니
08:43
so let's get practical.
190
523714
1987
실용적으로 가봅시다.
08:45
I want to share a few suggestions
191
525725
1626
몇 가지 제안을 할께요.
08:47
of things that citizens of the internet like you and I
192
527375
3126
여러분과 저 같은 네티즌들이
08:50
might be able to do to make things a little bit less toxic.
193
530525
3137
좀 덜 해로운 인터넷을 만들 수 있도록요.
08:54
So the first one is to be a smart skeptic.
194
534799
2300
첫 번째로, 똑똑한 회의론자 되기입니다.
08:57
So, I think there are two kinds of skepticism.
195
537964
2197
두 가지 종류의 회의주의가 있다고 생각해요.
09:00
And I don't want to drown you in technical epistemological information here,
196
540185
4228
복잡한 철학적 내용을 다루고 싶진 않습니다.
09:04
but I call them smart and dumb skepticism.
197
544437
2628
똑똑한 회의주의와 멍청한 회의주의가 있는데요.
09:08
So, smart skepticism:
198
548176
2507
똑똑한 회의주의란
09:10
thinking for yourself,
199
550707
1204
자신을 위해 생각하기
09:11
questioning every claim,
200
551935
1192
주장에 의문 제기하기
09:13
demanding evidence --
201
553151
1442
증거 요구하기 등
09:14
great, that's real skepticism.
202
554617
1717
이런 것이 진짜 회의주의입니다.
09:17
Dumb skepticism: it sounds like skepticism,
203
557397
2630
멍청한 회의주의는 그럴듯하게 들리지만
09:20
but it's actually closer to knee-jerk contrarianism.
204
560051
2991
사실 생각없이 회의적이기만 한 것이에요.
09:23
Everyone says the earth is round,
205
563817
1573
모두가 지구가 둥글다고 하는데
09:25
you say it's flat.
206
565414
1356
평평하다고 하거나
09:26
Everyone says racism is bad,
207
566794
1567
모두가 인종차별은 나쁘다는데
09:28
you say, "I dunno, I'm skeptical about that."
208
568385
2585
"음 잘 모르겠는데" 라고 하는 것이죠.
09:31
I cannot tell you how many young white men I have spoken to in the last few years
209
571682
4119
지난 몇 년간 대화를 나눴던 수많은 젊은 백인 남성은
09:35
who have said,
210
575825
1156
이렇게 말하더군요.
09:37
"You know, the media, my teachers, they're all trying to indoctrinate me
211
577005
3400
"미디어와 내 선생들은 나를 세뇌하려고 해,
09:40
into believing in male privilege and white privilege,
212
580429
2523
여성이 차별받고 백인이 더 우대 받는 세상이라고.
09:42
but I don't know about that, man, I don't think so."
213
582976
2452
근데 난 그건 좀 아닌거 같아."
09:45
Guys -- contrarian white teens of the world --
214
585452
3137
불만 가득찬 세상의 10대들이여,
09:48
look:
215
588613
2118
나를 보게나.
09:50
if you are being a round earth skeptic and a male privilege skeptic
216
590755
3713
당신들이 지구는 평평하고, 남성이 차별대우를 받고 있고
09:54
and a racism is bad skeptic,
217
594492
2310
인종차별이 나쁜 게 아니라고 생각한다면
09:56
you're not being a skeptic, you're being a jerk.
218
596826
2325
회의주의자가 아니라 그냥 병신인 거야.
09:59
(Applause)
219
599175
3593
(박수)
10:04
It's great to be independent-minded, we all should be independent-minded,
220
604394
3460
독립적 사고를 하는 것은 참 좋은 거고 모두가 그래야하지만
10:07
but just be smart about it.
221
607878
1541
똑똑하게 해야합니다.
10:09
So this next one is about free speech.
222
609906
1863
그 다음은 표현의 자유입니다.
10:11
You will hear smart, accomplished people who will say, "Well, I'm pro-free speech,"
223
611793
3964
똑똑하고 성공한 사람들은 자주 말하죠, "저는 표현의 자유를 존중해요."
10:15
and they say it in this way that it's like they're settling a debate,
224
615781
3273
그리곤 마치 그들이 토론을 시작하는것 처럼 말하죠.
10:19
when actually, that is the very beginning of any meaningful conversation.
225
619078
3815
사실 그건 의미있는 대화의 시작에 불과할 뿐인데 말이죠.
10:23
All the interesting stuff happens after that point.
226
623554
2473
제일 중요한건 그 이후에 시작됩니다.
10:26
OK, you're pro-free speech. What does that mean?
227
626051
2304
표현의 자유는 좋지만 그게 무슨 의미죠?
10:28
Does it mean that David Duke and Richard Spencer
228
628379
2287
그래서 데이비드 듀크나 리처드 스펜서가
10:30
need to have active Twitter accounts?
229
630690
1845
트위터 계정을 만들어야 할까요?
10:32
Does it mean that anyone can harass anyone else online
230
632888
2643
아무라도 온라인에서 타인에게 욕을 해도 되는 건가요?
10:35
for any reason?
231
635555
1452
아무 이유없이?
10:37
You know, I looked through the entire list of TED speakers this year.
232
637031
3288
저는 올해 TED 강연을 한 강연자들의 전체 리스트를 살펴봤어요.
10:40
I didn't find a single round earth skeptic.
233
640343
2036
지구가 둥글다는데 회의적인 사람은 없었죠.
10:42
Is that a violation of free speech norms?
234
642403
2142
이게 표현의 자유를 침해하는 건가요?
10:45
Look, we're all pro-free speech, it's wonderful to be pro-free speech,
235
645086
3542
모두가 표현의 자유에 동의하고, 표현의 자유는 아주 좋은 것이지요.
10:48
but if that's all you know how to say again and again,
236
648652
2621
하지만 당신 논리가 그게 다라면
10:51
you're standing in the way of a more productive conversation.
237
651297
2991
더 생산적인 대화의 길을 가로 막고 있는 거예요.
10:56
Making decency cool again, so ...
238
656105
3135
품위를 다시 위대하게
10:59
Great!
239
659264
1198
좋습니다!
11:00
(Applause)
240
660486
1541
(박수)
11:02
Yeah. I don't even need to explain it.
241
662051
2106
설명할 필요도 없네요.
11:04
So in my research, I would go to Reddit or YouTube or Facebook,
242
664181
3846
취재 중 레딧, 유튜브, 페이스북을 자주 방문합니다.
11:08
and I would search for "sharia law"
243
668051
2300
그리고 "이슬람 법"을 검색하거나
11:10
or I would search for "the Holocaust,"
244
670375
2116
홀로코스트 같은 것을 검색해봅니다.
11:12
and you might be able to guess what the algorithms showed me, right?
245
672515
3374
알고리즘이 저에게 어떤 것을 보여줬는지 대충 짐작이 가시죠?
11:16
"Is sharia law sweeping across the United States?"
246
676386
2930
"이슬람 법이 미국을 장악하고 있는가?"
11:19
"Did the Holocaust really happen?"
247
679340
2094
"홀로코스트는 정말 있었던 일인가?"
11:22
Dumb skepticism.
248
682291
1258
멍청한 회의주의죠.
11:24
So we've ended up in this bizarre dynamic online,
249
684835
2381
결국 우리는 편파적 선전활동을
11:27
where some people see bigoted propaganda
250
687240
2092
대담하거나 위험하고 멋있다고 생각하는
11:29
as being edgy or being dangerous and cool,
251
689356
2666
이 이상하고 활발한 온라인 세계에 이르렀습니다.
11:32
and people see basic truth and human decency as pearl-clutching
252
692046
3327
그리고 사람들은 실제 사실이나 또는 인간의 품위를, 충격적인 것
11:35
or virtue-signaling or just boring.
253
695397
2544
혹은 미덕의 과시이거나 그저 지루하다고 생각하죠.
11:38
And the social media algorithms, whether intentionally or not,
254
698329
3289
그리고 소셜 미디어의 알고리즘은 의도했든 아니든
11:41
they have incentivized this,
255
701642
2023
이를 장려하였습니다.
11:43
because bigoted propaganda is great for engagement.
256
703689
2928
편파적인 선전활동은 사람들의 참여율을 올리는데 최고이니까요.
11:46
Everyone clicks on it, everyone comments on it,
257
706641
2266
모두가 그것을 클릭하고, 답글을 남깁니다.
11:48
whether they love it or they hate it.
258
708931
1810
그것을 좋아하든, 싫어하든 간에요.
11:51
So the number one thing that has to happen here
259
711463
2288
그러므로 가장 먼저 일어나야 할 것은
11:53
is social networks need to fix their platforms.
260
713775
2938
소셜 네트워크의 플랫폼을 고치는 것 입니다.
11:57
(Applause)
261
717069
4149
(박수)
12:01
So if you're listening to my voice and you work at a social media company
262
721600
3430
만약 당신이 제 목소리를 듣고 있고, 소셜 미디어의 회사에서 일하거나
12:05
or you invest in one or, I don't know, own one,
263
725054
2464
그 중 하나에 투자하거나 회사 하나를 소유한다면,
12:08
this tip is for you.
264
728598
1461
이 팁은 당신을 위한거죠.
12:10
If you have been optimizing for maximum emotional engagement
265
730083
3921
만약 당신이 최대한 많은 수의 감정적인 참여를 유도해왔고,
12:14
and maximum emotional engagement turns out to be actively harming the world,
266
734028
4113
그것이 이 세계를 능동적으로 해치고 있다면,
12:18
it's time to optimize for something else.
267
738165
2536
이제는 다른 것을 위해야 할 때입니다.
12:20
(Applause)
268
740725
3704
(박수)
12:26
But in addition to putting pressure on them to do that
269
746939
3513
그러나 이들이 이렇게 하도록 압력을 가하고
12:30
and waiting for them and hoping that they'll do that,
270
750476
2634
실제로 행동으로 행하도록 바라고 기다리면서
12:33
there's some stuff that the rest of us can do, too.
271
753134
2502
우리가 직접 할 수 있는 일이 몇 가지 있습니다.
12:35
So, we can create some better pathways or suggest some better pathways
272
755660
4497
우리는 불안해하는 십대들이 진정하도록 더 나은 길을 만들어주거나,
12:40
for angsty teens to go down.
273
760181
1991
제시할 수 있습니다.
12:42
If you see something that you think is really creative and thoughtful
274
762196
3279
만약 당신이 정말 창의적이고 생각이 깊은 글을 보고
12:45
and you want to share that thing, you can share that thing,
275
765499
2799
공유하고 싶다면, 공유해주세요.
12:48
even if it's not flooding you with high arousal emotion.
276
768322
2656
그것이 당신의 정서적 각성을 일으키지 않아도요.
12:51
Now that is a very small step, I realize,
277
771002
2020
네, 이것은 아주 작은 일입니다.
12:53
but in the aggregate, this stuff does matter,
278
773046
2184
하지만 이것이 모이면 중요한 것이 됩니다.
12:55
because these algorithms, as powerful as they are,
279
775254
2406
강력한 알고리즘은
12:57
they are taking their behavioral cues from us.
280
777684
2205
우리의 참여를 신호로써 인식하기 때문이죠.
13:01
So let me leave you with this.
281
781556
1513
마지막으로 제가 할 말은,
13:03
You know, a few years ago it was really fashionable
282
783701
2489
몇년 전에는 인터넷이 혁명적인 도구이며,
13:06
to say that the internet was a revolutionary tool
283
786214
2313
우리 모두를 화합하게 할 것이라고 얘기하는 것이
13:08
that was going to bring us all together.
284
788551
2012
굉장한 유행이었습니다.
13:11
It's now more fashionable to say
285
791074
1589
지금 현재의 유행에 따르면,
13:12
that the internet is a huge, irredeemable dumpster fire.
286
792687
3094
인터넷이 어마어마하고 구제불가능인 재앙이라고 얘기해야 합니다.
13:16
Neither caricature is really true.
287
796787
1832
두 가지 묘사 방식은 모두 틀렸어요.
13:18
We know the internet is just too vast and complex
288
798643
2373
인터넷이 전부 유익하거나 해롭다고 얘기하기엔
13:21
to be all good or all bad.
289
801040
1499
너무 광대하고 복잡하다는 것을
13:22
And the danger with these ways of thinking,
290
802563
2087
우리는 알고 있습니다.
13:24
whether it's the utopian view that the internet will inevitably save us
291
804674
3463
인터넷은 결국 우리를 구해줄 것이라는 이상향의 관점이나,
13:28
or the dystopian view that it will inevitably destroy us,
292
808161
3448
우리를 파괴할 것이라는 디스토피아의 관점으로 생각하는 것의 위험은
13:31
either way, we're letting ourselves off the hook.
293
811633
2444
우리를 핵심에서 멀리 떨어뜨릴 뿐이죠.
13:35
There is nothing inevitable about our future.
294
815564
2606
우리의 미래에 그 어떤 것도 불가피한 것은 없습니다.
13:38
The internet is made of people.
295
818878
2001
인터넷은 사람으로 만들어진 것입니다.
13:40
People make decisions at social media companies.
296
820903
2984
소셜 미디어 회사에서 사람들이 결정을 내리며,
13:43
People make hashtags trend or not trend.
297
823911
2651
인기 해시태그를 유행 시키거나 그렇지 않거나,
13:46
People make societies progress or regress.
298
826586
3129
사회가 발전하거나 퇴보하도록 만듭니다.
13:51
When we internalize that fact,
299
831120
1535
이 사실을 내면화하게 되면,
13:52
we can stop waiting for some inevitable future to arrive
300
832679
3048
우리는 불가피한 미래가 올 때 까지 기다리는게 아니라,
13:55
and actually get to work now.
301
835751
1664
직접 행동할 수 있게 됩니다.
13:58
You know, we've all been taught that the arc of the moral universe is long
302
838842
3519
우리는 도덕의 궤적이 멀지 몰라도, 끝내는 정의를 향한다고 배웠습니다.
14:02
but that it bends toward justice.
303
842385
1702
14:06
Maybe.
304
846489
1230
아마도요.
14:08
Maybe it will.
305
848814
1200
아마 그럴 수도 있겠죠.
14:10
But that has always been an aspiration.
306
850776
2477
하지만 이는 항상 우리의 열망이었을 뿐,
14:13
It is not a guarantee.
307
853277
1571
보장된 것이 아닙니다.
14:15
The arc doesn't bend itself.
308
855856
2165
궤적은 스스로 휘지 않습니다.
14:18
It's not bent inevitably by some mysterious force.
309
858045
3675
어떤 신비한 힘에 의해 불가피하게 휘는 것이 아닙니다.
14:21
The real truth,
310
861744
1672
무섭지만 자유롭게도 느껴지는
14:23
which is scarier and also more liberating,
311
863440
2391
실제적 진실은, 궤적을 휘게 하는 것은
14:26
is that we bend it.
312
866847
1215
바로 우리입니다.
14:28
Thank you.
313
868943
1209
감사합니다.
14:30
(Applause)
314
870176
2617
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7