아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
00:00
Translator: Ivana Korom
Reviewer: Krystian Aparta
0
0
7000
번역: Sujin Byeon
검토: hansom Lee
00:13
So, on April 23 of 2013,
1
13468
5222
2013년 4월 23일,
00:18
the Associated Press
put out the following tweet on Twitter.
2
18714
5514
AP통신은 이런 내용을 트윗했습니다.
00:24
It said, "Breaking news:
3
24252
2397
"속보입니다.
00:26
Two explosions at the White House
4
26673
2571
백악관에서 두 건의 폭발로,
00:29
and Barack Obama has been injured."
5
29268
2333
오바마 대통령이 부상."
00:32
This tweet was retweeted 4,000 times
in less than five minutes,
6
32212
5425
이 트윗은 5분도 채 되지 않아
4천 번 리트윗 됐고,
00:37
and it went viral thereafter.
7
37661
2217
그 후 널리 퍼지게 됐죠.
00:40
Now, this tweet wasn't real news
put out by the Associated Press.
8
40760
4350
자, 이 트윗은 AP 통신이 보도한
진짜 뉴스가 아닙니다.
00:45
In fact it was false news, or fake news,
9
45134
3333
AP통신 트위터 계정에 침투한
00:48
that was propagated by Syrian hackers
10
48491
2825
시리아 해커들이 퍼뜨린
00:51
that had infiltrated
the Associated Press Twitter handle.
11
51340
4694
거짓 뉴스, 즉 가짜 뉴스입니다.
00:56
Their purpose was to disrupt society,
but they disrupted much more.
12
56407
3889
목적은 사회에 혼란을 주는 것이었지만,
그 이상이었죠.
01:00
Because automated trading algorithms
13
60320
2476
왜냐하면 알고리즘 트레이딩이
01:02
immediately seized
on the sentiment on this tweet,
14
62820
3360
즉각적으로 그 트윗의 함의를 파악해,
01:06
and began trading based on the potential
15
66204
2968
백악관 내 폭발로 인해 미국 대통령이
01:09
that the president of the United States
had been injured or killed
16
69196
3381
다치거나 사망했을 가능성에 근거해
01:12
in this explosion.
17
72601
1200
트레이딩을 시작했기 떄문이죠.
01:14
And as they started tweeting,
18
74188
1992
가짜뉴스가 트윗되자,
01:16
they immediately sent
the stock market crashing,
19
76204
3349
주식시장은 즉각적으로 폭락했고,
01:19
wiping out 140 billion dollars
in equity value in a single day.
20
79577
5167
하루아침에 1400억 달러 가치가
사라졌습니다.
01:25
Robert Mueller, special counsel
prosecutor in the United States,
21
85062
4476
로버트 뮬러 미 특수부 검사는
01:29
issued indictments
against three Russian companies
22
89562
3892
2016년 미 대선 개입을 통해
미국을 사취하려고 한
01:33
and 13 Russian individuals
23
93478
2619
공모한 혐의로 3개의 러시아 기업과
01:36
on a conspiracy to defraud
the United States
24
96121
3167
13명의 러시아인을 기소했습니다.
01:39
by meddling in the 2016
presidential election.
25
99312
3780
01:43
And what this indictment tells as a story
26
103855
3564
그리고 이 기소장이 말해주는 건
01:47
is the story of the Internet
Research Agency,
27
107443
3142
러시아 인터넷 연구 기관,
01:50
the shadowy arm of the Kremlin
on social media.
28
110609
3594
러시아 정부의 소셜 미디어
그림자 군단에 대한 이야기입니다.
01:54
During the presidential election alone,
29
114815
2777
미 대통령 선거 기간 동안에만,
01:57
the Internet Agency's efforts
30
117616
1889
러시아의 인터넷 기관은
01:59
reached 126 million people
on Facebook in the United States,
31
119529
5167
수백 만 명의 미국
페이스북 유저에 접근해,
02:04
issued three million individual tweets
32
124720
3277
300만개의 개인 트윗을 하고,
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
43시간 짜리 유튜브를 영상을
제작했습니다.
02:11
All of which was fake --
34
131887
1652
이 모든 것은 가짜였습니다.
02:13
misinformation designed to sow discord
in the US presidential election.
35
133563
6323
미국 대선에 혼란을 주기 위한
거짓 정보인 셈이죠.
02:20
A recent study by Oxford University
36
140996
2650
최근 옥스퍼드대학의 연구에 따르면,
02:23
showed that in the recent
Swedish elections,
37
143670
3270
최근 스웨덴의 선거 기간 동안
02:26
one third of all of the information
spreading on social media
38
146964
4375
소셜미디어에 퍼진 선거 관련 정보의
3분의 1이
02:31
about the election
39
151363
1198
가짜거나 잘못된 것이었다고 합니다.
02:32
was fake or misinformation.
40
152585
2087
02:35
In addition, these types
of social-media misinformation campaigns
41
155037
5078
또한, 이러한 형태의 소셜 미디어의
가짜 정보의 활동은
02:40
can spread what has been called
"genocidal propaganda,"
42
160139
4151
소위 "대량 학살의 선전." 이라
부르는데,
02:44
for instance against
the Rohingya in Burma,
43
164314
3111
부르마의 로힝야 족에
관한 것이라든가,
02:47
triggering mob killings in India.
44
167449
2303
인도에서 대량 학살이
일어났다든가 런 식이죠.
02:49
We studied fake news
45
169776
1494
우리는 가짜 뉴스가
02:51
and began studying it
before it was a popular term.
46
171294
3219
지금처럼 널리퍼진 용어가 되기 전부터
이에 대해 연구하기 시작했습니다.
02:55
And we recently published
the largest-ever longitudinal study
47
175030
5040
그리고 최근 온라인 상의
가짜 뉴스의 전파에 대한
03:00
of the spread of fake news online
48
180094
2286
사상 최대의 연구 결과를 발표했고,
03:02
on the cover of "Science"
in March of this year.
49
182404
3204
2019년 사이언스지 3월호
표지에 실리게 되었습니다.
03:06
We studied all of the verified
true and false news stories
50
186523
4161
우리는 2006년부터 2017년까지
트위터에 퍼진 모든 사실들과
가짜 뉴스들을 연구했습니다.
03:10
that ever spread on Twitter,
51
190708
1753
03:12
from its inception in 2006 to 2017.
52
192485
3818
03:16
And when we studied this information,
53
196612
2314
그리고 이 정보를 연구하면서,
03:18
we studied verified news stories
54
198950
2876
독립 된 사실 확인 기관 여섯 곳에서
03:21
that were verified by six
independent fact-checking organizations.
55
201850
3918
검증한 뉴스들을 연구했습니다.
03:25
So we knew which stories were true
56
205792
2762
우리는 어떤 이야기가 진실이고
03:28
and which stories were false.
57
208578
2126
어떤 것이 거짓인지 알 수 있었습니다.
03:30
We can measure their diffusion,
58
210728
1873
우리는 이들의 확산과
03:32
the speed of their diffusion,
59
212625
1651
확산의 속도,
03:34
the depth and breadth of their diffusion,
60
214300
2095
깊이와 넓이,
03:36
how many people become entangled
in this information cascade and so on.
61
216419
4142
얼마나 많은 사람들이 이 정보를
접하고 퍼뜨렸는지 알 수 있었죠.
03:40
And what we did in this paper
62
220942
1484
그리고 진짜 뉴스가 퍼지는 속도
03:42
was we compared the spread of true news
to the spread of false news.
63
222450
3865
가짜 뉴스가 퍼지는 속도를
비교해 논문에 실었죠.
03:46
And here's what we found.
64
226339
1683
저희가 연구한 결과입니다.
03:48
We found that false news
diffused further, faster, deeper
65
228046
3979
가짜 뉴스는 진실보다
더 빠르고, 더 깊고,
03:52
and more broadly than the truth
66
232049
1806
더 넓게 퍼져 있었습니다.
03:53
in every category of information
that we studied,
67
233879
3003
저희가 연구하면서 분류한
모든 정보에서요.
03:56
sometimes by an order of magnitude.
68
236906
2499
가끔은 일정한 규모로.
03:59
And in fact, false political news
was the most viral.
69
239842
3524
그리고 정치 관련 가짜 뉴스가
가장 널리 퍼졌습니다.
04:03
It diffused further, faster,
deeper and more broadly
70
243390
3147
정치 뉴스는 다른 어떤 종류의
가짜 뉴스보다
04:06
than any other type of false news.
71
246561
2802
더 빠르고, 더 깊고,
더 넓게 퍼졌습니다.
04:09
When we saw this,
72
249387
1293
이와 같은 결과에 대해
04:10
we were at once worried but also curious.
73
250704
2841
우리는 걱정을 하면서도
호기심을 느꼈습니다.
04:13
Why?
74
253569
1151
왜 그럴까요?
04:14
Why does false news travel
so much further, faster, deeper
75
254744
3373
가짜 뉴스는 왜 진실보다 훨씬
더 멀리, 더 빠르게, 더 깊게,
04:18
and more broadly than the truth?
76
258141
1864
더 넓게 퍼지는 걸까요?
04:20
The first hypothesis
that we came up with was,
77
260339
2961
저희가 생각한 첫 번째 가설은,
04:23
"Well, maybe people who spread false news
have more followers or follow more people,
78
263324
4792
"아마 팔로워 수가 더 많거나
팔로잉을 많이 한 사람들이거나
04:28
or tweet more often,
79
268140
1557
더 자주 트윗을 하거나,
04:29
or maybe they're more often 'verified'
users of Twitter, with more credibility,
80
269721
4126
트위터에서 '공인 된' 유저라
신뢰도가 더 높거나,
04:33
or maybe they've been on Twitter longer."
81
273871
2182
아니면 트위터를 오랫동안 사용한
유저라는 것이었죠."
04:36
So we checked each one of these in turn.
82
276077
2298
그래서 우리는 이런 요소들을
차례로 확인했습니다.
04:38
And what we found
was exactly the opposite.
83
278691
2920
그리고 우리의 예상과는
정확하게 반대였습니다.
04:41
False-news spreaders had fewer followers,
84
281635
2436
가짜 뉴스 유포자들은 팔로워가 적고
04:44
followed fewer people, were less active,
85
284095
2254
팔로잉도 많지 않으며,
활동도 그리 많지 않고
04:46
less often "verified"
86
286373
1460
‘공인 된' 유저도 아니었고
04:47
and had been on Twitter
for a shorter period of time.
87
287857
2960
트위터를 사용한 기간도 짧았습니다.
04:50
And yet,
88
290841
1189
그럼에도 불구하고,
04:52
false news was 70 percent more likely
to be retweeted than the truth,
89
292054
5033
가짜 뉴스는 진실보다 70%정도
더 리트윗 됐습니다.
04:57
controlling for all of these
and many other factors.
90
297111
3363
이러한 것들을 통제하고
다른 수많은 요소들도 함께요.
05:00
So we had to come up
with other explanations.
91
300498
2690
그래서 우리는 다른 가설들을
생각해야 했습니다.
05:03
And we devised what we called
a "novelty hypothesis."
92
303212
3467
저희는 "새로움의 가설"이라는
새로운 가설을 세웠습니다.
05:07
So if you read the literature,
93
307038
1960
문헌을 읽어보면,
05:09
it is well known that human attention
is drawn to novelty,
94
309022
3754
인간의 관심은 익숙한 환경 속에서
새로운 것에 끌린다는 사실이
05:12
things that are new in the environment.
95
312800
2519
잘 나와 있습니다.
05:15
And if you read the sociology literature,
96
315343
1985
그리고 사회학 문헌들을 읽어보면,
05:17
you know that we like to share
novel information.
97
317352
4300
저희는 새로운 정보를 공유하는 것을
좋아한다는 사실을 알게 됩니다.
05:21
It makes us seem like we have access
to inside information,
98
321676
3838
우리가 그 정보 안에
들어가는 것처럼 느끼게 하고,
05:25
and we gain in status
by spreading this kind of information.
99
325538
3785
이런 정보를 퍼트림으로써
우위를 차지할 수 있다는 것이죠.
05:29
So what we did was we measured the novelty
of an incoming true or false tweet,
100
329792
6452
그래서 저희는 새로 트윗된
진짜와 가짜의 참신함을 측정하려고
05:36
compared to the corpus
of what that individual had seen
101
336268
4055
개인이 60일 전에
트위터에서 봤던 내용들을
05:40
in the 60 days prior on Twitter.
102
340347
2952
다 비교해 봤습니다.
05:43
But that wasn't enough,
because we thought to ourselves,
103
343323
2659
하지만 그것으론 충분하지 않았죠.
왜냐면 정보 이론적으로 보면 가짜 뉴스가
훨씬 더 신선할 수도 있겠지만,
05:46
"Well, maybe false news is more novel
in an information-theoretic sense,
104
346006
4208
05:50
but maybe people
don't perceive it as more novel."
105
350238
3258
사람들이 그걸 신선하지 않다고
여길 수 있다고 생각했기 때문이죠.
05:53
So to understand people's
perceptions of false news,
106
353849
3927
그래서 가짜 뉴스에 대한
사람들의 인식을 알아보기 위해
05:57
we looked at the information
and the sentiment
107
357800
3690
저희는 정보들을 살펴보고
진짜와 가짜 트윗 응답에
06:01
contained in the replies
to true and false tweets.
108
361514
4206
함의되어 있는 정서를 살펴봤습니다.
06:06
And what we found
109
366022
1206
그리고 우리가 발견한 것은
06:07
was that across a bunch
of different measures of sentiment --
110
367252
4214
수많은 다양한 감정들
06:11
surprise, disgust, fear, sadness,
111
371490
3301
놀라움, 혐오, 두려움, 슬픔,
06:14
anticipation, joy and trust --
112
374815
2484
기대, 즐거움, 신뢰
이러한 다양한 감정 중에서
06:17
false news exhibited significantly more
surprise and disgust
113
377323
5857
가짜 뉴스에는 놀라움과 혐오의
정서가 훨씬 더 많이 보여진다는 겁니다.
06:23
in the replies to false tweets.
114
383204
2806
가짜 트윗 응답자들 중에서요.
06:26
And true news exhibited
significantly more anticipation,
115
386392
3789
진짜 뉴스에서는 상대적으로
06:30
joy and trust
116
390205
1547
즐거움, 신뢰가
06:31
in reply to true tweets.
117
391776
2547
더 많이 나타났죠.
06:34
The surprise corroborates
our novelty hypothesis.
118
394347
3786
이 놀라운 사실은 저희의 가설을
뒷받침해주었습니다.
06:38
This is new and surprising,
and so we're more likely to share it.
119
398157
4609
이것은 새롭고 놀라운 일이며,
더 많이 공유해야겠다고 생각했죠.
06:43
At the same time,
there was congressional testimony
120
403092
2925
동시에, 잘못된 정보의 확산에 있어
06:46
in front of both houses of Congress
in the United States,
121
406041
3036
로봇의 역할을 살펴보는
06:49
looking at the role of bots
in the spread of misinformation.
122
409101
3738
청문회가 미국 상하원
양원에서 진행됐죠.
06:52
So we looked at this too --
123
412863
1354
저희도 살펴보았죠.
06:54
we used multiple sophisticated
bot-detection algorithms
124
414241
3598
저희는 몇가지
로봇 탐지 알고리즘을 사용해
06:57
to find the bots in our data
and to pull them out.
125
417863
3074
저희 데이터 속의 로봇을 찾아내
그 로봇을 꺼냈죠.
07:01
So we pulled them out,
we put them back in
126
421347
2659
그러고 난 후 다시 집어 넣어서
07:04
and we compared what happens
to our measurement.
127
424030
3119
무슨 일이 일어났는지
결과를 비교했습니다.
07:07
And what we found was that, yes indeed,
128
427173
2293
그리고 우리가 발견한 것은, 정말로
07:09
bots were accelerating
the spread of false news online,
129
429490
3682
로봇이 온라인상의 가짜 뉴스 확산을
가속화한다는 사실,
07:13
but they were accelerating
the spread of true news
130
433196
2651
하지만 진짜 뉴스도 그만큼 빠른 속도로
07:15
at approximately the same rate.
131
435871
2405
퍼트리고 있다는 사실이었습니다.
07:18
Which means bots are not responsible
132
438300
2858
이것은 로봇은 온라인상의
진짜 뉴스와 가짜 뉴스의 확산에
07:21
for the differential diffusion
of truth and falsity online.
133
441182
4713
책임이 없다는 사실을 의미합니다.
07:25
We can't abdicate that responsibility,
134
445919
2849
우리는 이 책무를 거부할 수 없습니다.
07:28
because we, humans,
are responsible for that spread.
135
448792
4259
왜냐면, 우리 인간에게
확산의 책임이 있기 때문이죠.
07:34
Now, everything
that I have told you so far,
136
454472
3334
지금까지 제가 말씀드린 것은
07:37
unfortunately for all of us,
137
457830
1754
안타깝게도 우리 모두에게
07:39
is the good news.
138
459608
1261
좋은 소식입니다
07:42
The reason is because
it's about to get a whole lot worse.
139
462670
4450
왜냐하면 머지않아
훨씬 더 악화될 것이기 떄문입니다.
07:47
And two specific technologies
are going to make it worse.
140
467850
3682
그리고 특히 두 가지 기술이
상황을 더 안 좋게 만들 겁니다.
07:52
We are going to see the rise
of a tremendous wave of synthetic media.
141
472207
5172
저희는 합성 미디어의 홍수를
보게 될 것입니다.
07:57
Fake video, fake audio
that is very convincing to the human eye.
142
477403
6031
가짜 비디오, 가짜 오디오들은
사람의 인지에 설득을 더하죠.
08:03
And this will powered by two technologies.
143
483458
2754
그리고 이것은 두 가지 기술로
가능하게 됩니다.
08:06
The first of these is known
as "generative adversarial networks."
144
486236
3833
첫 번째 기술은
‘생성적 적대 신경(GAN)’ 입니다.
08:10
This is a machine-learning model
with two networks:
145
490093
2563
GAN은 두 개의 네트워크를 가진
머신러닝 모델입니다.
08:12
a discriminator,
146
492680
1547
여기서 판별자는
08:14
whose job it is to determine
whether something is true or false,
147
494251
4200
무엇이 진짜이고 가짜인지
판별하는 역할을 합니다.
08:18
and a generator,
148
498475
1167
그리고 생성자는
08:19
whose job it is to generate
synthetic media.
149
499666
3150
합성 미디어를 생성합니다.
08:22
So the synthetic generator
generates synthetic video or audio,
150
502840
5102
그래서 생성자는
비디오, 오디오를 합성하고
08:27
and the discriminator tries to tell,
"Is this real or is this fake?"
151
507966
4675
판별자는 이것이 진짜인지 가짜인지
그 진위여부를 판단합니다.
08:32
And in fact, it is the job
of the generator
152
512665
2874
그리고 실제로, 생성자의 역할은
08:35
to maximize the likelihood
that it will fool the discriminator
153
515563
4435
최대한 비슷하게 만들어서
판별자가 그것이
08:40
into thinking the synthetic
video and audio that it is creating
154
520022
3587
합성된 비디오나 오디오인지
08:43
is actually true.
155
523633
1730
알 수 없도록 하는 역할입니다.
08:45
Imagine a machine in a hyperloop,
156
525387
2373
하이퍼루프 안의 기계가
08:47
trying to get better
and better at fooling us.
157
527784
2803
우리를 속이려고
점점 더 노력한다고 상상해보세요.
08:51
This, combined with the second technology,
158
531114
2500
이 기술이 두 번째 기술과 결합하면,
08:53
which is essentially the democratization
of artificial intelligence to the people,
159
533638
5722
근본적으로 모든 사람들이
인공지능을 쓸 수 있고,
08:59
the ability for anyone,
160
539384
2189
누구나 가능하며,
09:01
without any background
in artificial intelligence
161
541597
2830
인공지능 혹은
09:04
or machine learning,
162
544451
1182
머신러닝에 대한 배경지식이 없어도
09:05
to deploy these kinds of algorithms
to generate synthetic media
163
545657
4103
이러한 알고리즘을 이용하여
합성 미디어를 만들어서
09:09
makes it ultimately so much easier
to create videos.
164
549784
4547
결국에는 더 쉽게 비디오를
만들 수 있게 되는 것입니다.
09:14
The White House issued
a false, doctored video
165
554355
4421
백악관이 한 기자가 그의 마이크를
받으려고 하는 인턴기자와의
09:18
of a journalist interacting with an intern
who was trying to take his microphone.
166
558800
4288
접촉을 살짝 편집한
가짜 비디오를 올렸습니다.
09:23
They removed frames from this video
167
563427
1999
그들은 이 비디오의 프레임 중
일부분을 삭제해
09:25
in order to make his actions
seem more punchy.
168
565450
3287
그의 행동을 일부러
더 잘보이게 했습니다.
09:29
And when videographers
and stuntmen and women
169
569157
3385
촬영기사나 스턴트 배우들은
09:32
were interviewed
about this type of technique,
170
572566
2427
인터뷰에서 이와 같은 기술들이
09:35
they said, "Yes, we use this
in the movies all the time
171
575017
3828
"네, 영화에서 주먹을
휘두르거나 발차기를 할 때
09:38
to make our punches and kicks
look more choppy and more aggressive."
172
578869
4763
더욱 거칠고 공격적으로 보이기 위해
늘 사용한다" 고 말했습니다.
09:44
They then put out this video
173
584268
1867
백악관은 이 영상을
09:46
and partly used it as justification
174
586159
2500
짐 아소티카 기자의
09:48
to revoke Jim Acosta,
the reporter's, press pass
175
588683
3999
백악관 출입 정지 조치를
정당화하는데 이용했습니다.
09:52
from the White House.
176
592706
1339
09:54
And CNN had to sue
to have that press pass reinstated.
177
594069
4809
그리고 CNN은 백악관 출입증을
돌려받기 위해 고소를 했습니다.
10:00
There are about five different paths
that I can think of that we can follow
178
600538
5603
오늘날 우리가 마주한
이와 같은 어려운 문제들을
10:06
to try and address some
of these very difficult problems today.
179
606165
3739
해결할 수 있는
5가지 방법이 있습니다.
10:10
Each one of them has promise,
180
610379
1810
모두 다 장래성이 있지만,
10:12
but each one of them
has its own challenges.
181
612213
2999
나름의 과제를 안고 있기도 합니다.
10:15
The first one is labeling.
182
615236
2008
첫번째는 라벨링입니다.
10:17
Think about it this way:
183
617268
1357
이렇게 생각해보세요.
10:18
when you go to the grocery store
to buy food to consume,
184
618649
3611
여러분이 음식을 사러 식료품점에 가면,
10:22
it's extensively labeled.
185
622284
1904
아주 많은 라벨이 붙어 있습니다.
10:24
You know how many calories it has,
186
624212
1992
칼로리가 얼만지,
10:26
how much fat it contains --
187
626228
1801
지방은 얼만지,
10:28
and yet when we consume information,
we have no labels whatsoever.
188
628053
4278
하지만 우리가 정보를 소비할 때는
그 어떤 라벨도 없습니다.
10:32
What is contained in this information?
189
632355
1928
이 정보는 무슨 내용이고
10:34
Is the source credible?
190
634307
1453
출처는 믿을만한지
10:35
Where is this information gathered from?
191
635784
2317
어디에서 수집된 정보인지
10:38
We have none of that information
192
638125
1825
정보를 소비할 때는
10:39
when we are consuming information.
193
639974
2103
이에 대해서는 전혀 알 수 없죠.
10:42
That is a potential avenue,
but it comes with its challenges.
194
642101
3238
좋은 방법이긴 하지만,
문제도 있습니다.
10:45
For instance, who gets to decide,
in society, what's true and what's false?
195
645363
6451
예를 들면, 우리 사회에서
진실과 거짓은 무엇이고 누가 정하죠?
10:52
Is it the governments?
196
652387
1642
정부일까요?
10:54
Is it Facebook?
197
654053
1150
페이스북일까요?
10:55
Is it an independent
consortium of fact-checkers?
198
655601
3762
독립 된 팩트 체커 컨소시움일까요?
10:59
And who's checking the fact-checkers?
199
659387
2466
그렇다면 팩트체커는 누가 확인하죠?
11:02
Another potential avenue is incentives.
200
662427
3084
또 다른 좋은 방법은 인센티브 입니다.
11:05
We know that during
the US presidential election
201
665535
2634
우리는 미국 대통령 선거 기간 동안
11:08
there was a wave of misinformation
that came from Macedonia
202
668193
3690
마케도니아에서 나온 잘못된 정보들이
11:11
that didn't have any political motive
203
671907
2337
경제적 동기가 있었을 뿐
11:14
but instead had an economic motive.
204
674268
2460
정치적 동기는 없었다는 것을
알고 있습니다.
11:16
And this economic motive existed,
205
676752
2148
여기에서 경제적 동기는
11:18
because false news travels
so much farther, faster
206
678924
3524
가짜 뉴스가 진실보다 훨씬
더 멀리, 더 빠르고
11:22
and more deeply than the truth,
207
682472
2010
더 깊이 퍼질 수 있기 때문에,
11:24
and you can earn advertising dollars
as you garner eyeballs and attention
208
684506
4960
이러한 정보로
사람들의 관심과 시선을 얻으면
광고 수익을 얻을 수 있기 때문입니다.
11:29
with this type of information.
209
689490
1960
11:31
But if we can depress the spread
of this information,
210
691474
3833
하지만 만약 우리가 이 정보의
확산을 막게 되면
11:35
perhaps it would reduce
the economic incentive
211
695331
2897
애초에 가짜 뉴스를 생산할
11:38
to produce it at all in the first place.
212
698252
2690
경제적 동기가 존재하지 않게
되는 것이죠.
11:40
Third, we can think about regulation,
213
700966
2500
셋째, 규제를 생각할 수 있습니다.
11:43
and certainly, we should think
about this option.
214
703490
2325
그리고 확실히, 우리는 이 방법을
생각하고 있습니다.
11:45
In the United States, currently,
215
705839
1611
최근 미국에서는
11:47
we are exploring what might happen
if Facebook and others are regulated.
216
707474
4848
페이스북이나 다른 것들이 규제되면
어떤 일이 일어날지 조사하고 있습니다.
11:52
While we should consider things
like regulating political speech,
217
712346
3801
정치 연설을 규제하고,
정치 연설이라는 사실을 표기하며,
11:56
labeling the fact
that it's political speech,
218
716171
2508
외국 배우가 정치 연설에
자금을 댈 수 없도록 하는 것 등을
11:58
making sure foreign actors
can't fund political speech,
219
718703
3819
동시에 고려하면서 말이죠.
12:02
it also has its own dangers.
220
722546
2547
그러나 이것도 그 자체로 위험합니다.
12:05
For instance, Malaysia just instituted
a six-year prison sentence
221
725522
4878
예를 들어, 말레이시아는
가짜 뉴스를 퍼트린 사람에게
징역 6년 형을 선고했습니다.
12:10
for anyone found spreading misinformation.
222
730424
2734
12:13
And in authoritarian regimes,
223
733696
2079
그리고 권위주의적인 정권에서는
12:15
these kinds of policies can be used
to suppress minority opinions
224
735799
4666
이런 종류의 정책들이
소수 의견을 억압하고
12:20
and to continue to extend repression.
225
740489
3508
탄압을 확대하는데 사용될 수 있습니다.
12:24
The fourth possible option
is transparency.
226
744680
3543
네 번째 선택지는 투명성입니다.
12:28
We want to know
how do Facebook's algorithms work.
227
748843
3714
우리는 페이스북의 알고리즘이
어떻게 작동하는지 알고 싶어 합니다.
12:32
How does the data
combine with the algorithms
228
752581
2880
어떻게 데이터가 알고리즘과 결합하여
12:35
to produce the outcomes that we see?
229
755485
2838
우리가 볼 수 있게 결과물을
만들어낼까요?
12:38
We want them to open the kimono
230
758347
2349
우리는 그들이 정보를 공개해서
12:40
and show us exactly the inner workings
of how Facebook is working.
231
760720
4214
페이스북 내부가 정확히 어떻게
작동하는지 보여주길 원합니다.
12:44
And if we want to know
social media's effect on society,
232
764958
2779
또한 소셜 미디어가
사회에 미치는 영향을 알고 싶다면,
12:47
we need scientists, researchers
233
767761
2086
이런 종류의 정보에 접근할 수 있는
12:49
and others to have access
to this kind of information.
234
769871
3143
과학자와 연구자, 등이
필요하다는 것을 압니다.
12:53
But at the same time,
235
773038
1547
하지만 동시에,
12:54
we are asking Facebook
to lock everything down,
236
774609
3801
우리는 페이스북이
모든 데이터를 차단하고
12:58
to keep all of the data secure.
237
778434
2173
그 데이터를 안전하게
보관하도록 요구합니다.
13:00
So, Facebook and the other
social media platforms
238
780631
3159
그래서 페이스북과 또 다른
소셜미디어 플랫폼들은
13:03
are facing what I call
a transparency paradox.
239
783814
3134
제가 투명성의 역설이라고
말하는 상황에 직면해 있습니다.
13:07
We are asking them, at the same time,
240
787266
2674
우리는 미디어에게
13:09
to be open and transparent
and, simultaneously secure.
241
789964
4809
개방적이고 투명하면서도
동시에 안전할 것을 요구하고 있습니다.
13:14
This is a very difficult needle to thread,
242
794797
2691
이것은 실을 꿰기엔
아주 어려운 바늘이지만,
13:17
but they will need to thread this needle
243
797512
1913
이 바늘에 꼭 실을 꿰어야만
하는 것과 같죠.
13:19
if we are to achieve the promise
of social technologies
244
799449
3787
사회적인 기술의 위험을 피하면서도
그 가능성을 얻기 위해서는
13:23
while avoiding their peril.
245
803260
1642
필요한 일입니다.
13:24
The final thing that we could think about
is algorithms and machine learning.
246
804926
4691
마지막으로 알고리즘과
머신 러닝에 대해 생각해 봅시다.
13:29
Technology devised to root out
and understand fake news, how it spreads,
247
809641
5277
이 기술은 가짜 뉴스가 근본적으로
어떤지 이해하고, 얼마나 퍼지고,
13:34
and to try and dampen its flow.
248
814942
2331
그 흐름이 얼마나 깊이 퍼지는지
알아내기 위해 만든 기술입니다.
13:37
Humans have to be in the loop
of this technology,
249
817824
2897
인간은 이 기술을
분명히 이해해야 합니다.
13:40
because we can never escape
250
820745
2278
왜냐하면 우리는 결코
13:43
that underlying any technological
solution or approach
251
823047
4038
모든 기술적 해결책이나
접근방식에 존재하는
13:47
is a fundamental ethical
and philosophical question
252
827109
4047
근본적이고 윤리적이고 철학적인
질문들을 피할 수 없기 때문이죠.
13:51
about how do we define truth and falsity,
253
831180
3270
우리가 어떻게 진실과 거짓을 정의하고,
13:54
to whom do we give the power
to define truth and falsity
254
834474
3180
누구에게 이것을 판별할 수 있는
권한을 부여할 것인지,
13:57
and which opinions are legitimate,
255
837678
2460
어떤 의견이 합법적인 것인지,
14:00
which type of speech
should be allowed and so on.
256
840162
3706
어떤 종류의 목소리가
허용되야 하는지 등에 관한 질문들이죠.
14:03
Technology is not a solution for that.
257
843892
2328
기술은 그 모든 것의
해결책이 아닙니다.
14:06
Ethics and philosophy
is a solution for that.
258
846244
3698
윤리와 철학이 해결책이죠.
14:10
Nearly every theory
of human decision making,
259
850950
3318
인간의 의사결정에 관한
거의 모든 이론들과
14:14
human cooperation and human coordination
260
854292
2761
인간의 협력 그리고 협동의
14:17
has some sense of the truth at its core.
261
857077
3674
그 중심에는 진실이 있습니다.
14:21
But with the rise of fake news,
262
861347
2056
그러나 가짜 뉴스의 증가,
14:23
the rise of fake video,
263
863427
1443
가짜 비디오의 증가,
14:24
the rise of fake audio,
264
864894
1882
가짜 오디오의 증가,
14:26
we are teetering on the brink
of the end of reality,
265
866800
3924
우리는 진실의 종말을
눈앞에 두고 있습니다.
14:30
where we cannot tell
what is real from what is fake.
266
870748
3889
무엇이 진짜이고 무엇이 가짜인지
판별할 수 없는 상태입니다.
14:34
And that's potentially
incredibly dangerous.
267
874661
3039
그리고 이건 정말로 위험합니다.
14:38
We have to be vigilant
in defending the truth
268
878931
3948
우리는 잘못된 정보로부터
진실을 보호하며
14:42
against misinformation.
269
882903
1534
경계해야 합니다.
14:44
With our technologies, with our policies
270
884919
3436
우리의 기술과 우리의 정책
14:48
and, perhaps most importantly,
271
888379
1920
그리고 아마도, 가장 중요한 것은
14:50
with our own individual responsibilities,
272
890323
3214
우리 개개인의 책임과
14:53
decisions, behaviors and actions.
273
893561
3555
결정, 행동 그리고 움직임일 것입니다.
14:57
Thank you very much.
274
897553
1437
대단히 감사합니다.
14:59
(Applause)
275
899014
3517
(박수)
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.