How you can help transform the internet into a place of trust | Claire Wardle

53,461 views ・ 2019-11-15

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Jungmin Hwang 검토: Whayoung Cha
00:13
No matter who you are or where you live,
0
13548
2516
여러분이 누구든, 어디에서 살든
00:16
I'm guessing that you have at least one relative
1
16088
2356
그런 이메일을 전달하기 좋아하는 친척이 적어도
00:18
that likes to forward those emails.
2
18468
2334
한 명은 있을 거라 예상합니다.
00:21
You know the ones I'm talking about --
3
21206
1900
제가 어떤 이메일 말하는지 아실 텐데요.
00:23
the ones with dubious claims or conspiracy videos.
4
23130
2854
이상한 주장이나 음모론 영상을 담은 그런 이메일 말입니다.
00:26
And you've probably already muted them on Facebook
5
26315
2668
그리고 여러분은 아마도 이런 게시글을 공유하는
00:29
for sharing social posts like this one.
6
29007
2348
그 친척을 페이스북에서 음소거 처리 하셨을 겁니다.
00:31
It's an image of a banana
7
31379
1404
이상한 빨간 십자가가 중간을 가로지르고 있는
00:32
with a strange red cross running through the center.
8
32807
2667
바나나의 사진입니다.
00:35
And the text around it is warning people
9
35498
2139
주변에 있는 텍스트를 보시면,
00:37
not to eat fruits that look like this,
10
37661
2158
이렇게 생긴 과일을 먹지 말라고 경고하고 있는데요,
00:39
suggesting they've been injected with blood
11
39843
2028
여기에 HIV 바이러스로 감염된
00:41
contaminated with the HIV virus.
12
41895
2130
혈액이 주입되었다면서 말이죠.
00:44
And the social share message above it simply says,
13
44049
2603
그리고 사진 위의 사회적 공유 메시지에는 이렇게 되어 있습니다.
00:46
"Please forward to save lives."
14
46676
2181
"널리 퍼뜨려 생명을 구해주세요."
00:49
Now, fact-checkers have been debunking this one for years,
15
49672
3294
팩트 체크하는 사람들이 이것을 몇 년째 바로잡고 있지만,
00:52
but it's one of those rumors that just won't die.
16
52990
2809
절대 사라지지 않고 있는 루머 중 하나입니다.
00:55
A zombie rumor.
17
55823
1271
좀비 루머인 것이죠.
00:57
And, of course, it's entirely false.
18
57513
2093
그리고, 당연하게도, 완전히 틀린 말이죠.
01:00
It might be tempting to laugh at an example like this, to say,
19
60180
2959
이런 예를 보고 비웃을 수도 있습니다.
01:03
"Well, who would believe this, anyway?"
20
63163
1884
"누가 이런걸 실제로 믿을까?" 하면서요.
01:05
But the reason it's a zombie rumor
21
65419
1626
하지만 이런 사진들이 좀비 루머인 이유는
01:07
is because it taps into people's deepest fears about their own safety
22
67069
3889
사람들로 하여금 그들 자신의 안전, 그리고
01:10
and that of the people they love.
23
70982
2175
사랑하는 이들의 안전에 대해 깊이 걱정하도록 만들기 때문입니다.
01:13
And if you spend as enough time as I have looking at misinformation,
24
73783
3273
그리고 잘못된 정보를 살피는데 저만큼 시간을 쓰신다면,
01:17
you know that this is just one example of many
25
77080
2420
이것이 사람들의 공포심과 취약점을 건드리는 수많은 잘못된 정보 중
01:19
that taps into people's deepest fears and vulnerabilities.
26
79524
3047
하나일 뿐이라는 것을 알게 되실 겁니다.
01:23
Every day, across the world, we see scores of new memes on Instagram
27
83214
4369
매일 전 세계에서 수십 개의 인스타그램 밈(meme)이 올라오는데요,
01:27
encouraging parents not to vaccinate their children.
28
87607
3039
자녀들 백신접종을 시키지 말라고 부모들을 부추기는 내용이죠.
01:30
We see new videos on YouTube explaining that climate change is a hoax.
29
90670
4532
기후변화가 거짓이라는 내용의 유튜브 영상도 매일 업로드됩니다.
01:35
And across all platforms, we see endless posts designed to demonize others
30
95226
4302
또, 모든 소셜 미디어 플랫폼에서 타인을 인종, 종교, 성 정체성에 따라
01:39
on the basis of their race, religion or sexuality.
31
99552
3501
악마취급하고자 작성된 글이 끝도 없이 올라옵니다.
01:44
Welcome to one of the central challenges of our time.
32
104314
3030
우리 시대에 가장 핵심적인 문제 중 하나가 이것입니다.
01:47
How can we maintain an internet with freedom of expression at the core,
33
107647
4025
어떻게 하면 표현의 자유에 중점을 두면서도
01:51
while also ensuring that the content that's being disseminated
34
111696
3303
온라인상에서 퍼져나가는 내용들이 우리의 민주주의와 커뮤니티,
01:55
doesn't cause irreparable harms to our democracies, our communities
35
115023
3886
우리의 신체적, 정신적 건강의 안녕에 돌이킬 수 없는 해를 끼치지 하는
01:58
and to our physical and mental well-being?
36
118933
2238
인터넷 환경을 유지할 수 있을까요?
02:01
Because we live in the information age,
37
121998
2087
우리는 정보화 시대에 살고 있지만,
02:04
yet the central currency upon which we all depend -- information --
38
124109
3547
우리 모두가 의존하는 중앙통화, 즉 정보는,
02:07
is no longer deemed entirely trustworthy
39
127680
2357
더 이상 전적으로 신뢰할 만하다고 여겨지지 않습니다.
02:10
and, at times, can appear downright dangerous.
40
130061
2328
어쩔 때는 완전 위험해보이기까지 하죠.
02:12
This is thanks in part to the runaway growth of social sharing platforms
41
132811
3937
이는 걷잡을 수 없이 성장한 사회공유플랫폼에 일부 원인이 있는데요.
02:16
that allow us to scroll through,
42
136772
1642
스크롤을 통해 이것 저것 볼 수 있게 되었지만,
02:18
where lies and facts sit side by side,
43
138438
2222
이 곳엔 거짓과 사실이 나란히 공존하는 반면,
02:20
but with none of the traditional signals of trustworthiness.
44
140684
3071
전통적인 신뢰의 흔적은 찾기 힘들죠.
02:24
And goodness -- our language around this is horribly muddled.
45
144268
3619
그리고 우리의 언어는 이 현상을 정확하게 설명해 주지 못합니다.
02:27
People are still obsessed with the phrase "fake news,"
46
147911
3103
사람들은 아직도 "가짜 뉴스"라는 말에 집착하고 있습니다.
02:31
despite the fact that it's extraordinarily unhelpful
47
151038
2531
이 말이 상황 설명에 특별히 도움이 되지 않을 뿐더러,
02:33
and used to describe a number of things that are actually very different:
48
153593
3460
실제론 서로 다른 것들을 설명하는데 쓰이고 있음에도 말이죠.
02:37
lies, rumors, hoaxes, conspiracies, propaganda.
49
157077
3386
거짓말, 루머, 날조, 음모, 프로파간다와 같은 개념들이요.
02:40
And I really wish we could stop using a phrase
50
160911
2912
저는 우리가 전 세계 좌파, 우파 정치인들이
02:43
that's been co-opted by politicians right around the world,
51
163847
2862
자유 독립 언론을 공격하기 위해
02:46
from the left and the right,
52
166733
1471
사용하기 시작한 이 문구를
02:48
used as a weapon to attack a free and independent press.
53
168228
3222
그만 사용했으면 좋겠습니다.
02:52
(Applause)
54
172307
4702
(박수)
02:57
Because we need our professional news media now more than ever.
55
177033
3462
왜냐하면 지금 우리에겐 그 어느 때보다 전문 뉴스 미디어가 필요하기 때문입니다.
03:00
And besides, most of this content doesn't even masquerade as news.
56
180882
3373
게다가, 이런 내용들은 뉴스로 둔갑하지도 않은 채 돌아다닙니다.
03:04
It's memes, videos, social posts.
57
184279
2642
밈(meme), 비디오, 쇼셜미디어에 올라오는 게시물 같은 것들인데요.
03:06
And most of it is not fake; it's misleading.
58
186945
3453
대부분은 가짜가 아니라, 사람들을 호도하는 것들입니다.
03:10
We tend to fixate on what's true or false.
59
190422
3015
우리는 주로 어떤 글의 진위여부를 가려내려고 합니다.
03:13
But the biggest concern is actually the weaponization of context.
60
193461
4032
하지만 가장 큰 문제는 내용이 무기화된다는 것입니다.
03:18
Because the most effective disinformation
61
198855
1968
왜냐하면 가장 효과적인 거짓 정보들은
03:20
has always been that which has a kernel of truth to it.
62
200847
3048
항상 조금의 사실을 포함하고 있기 마련이죠.
03:23
Let's take this example from London, from March 2017,
63
203919
3476
이 예를 한번 들어 보죠. 2017년 3월, 런던에서
03:27
a tweet that circulated widely
64
207419
1540
한 트윗이 널리 유포됐는데요,
03:28
in the aftermath of a terrorist incident on Westminster Bridge.
65
208983
3587
웨스트민스터 다리에서 일어난 테러사건의 여파였죠.
03:32
This is a genuine image, not fake.
66
212594
2428
이 사진은 진짜 사진입니다. 가짜가 아니라요.
03:35
The woman who appears in the photograph was interviewed afterwards,
67
215046
3169
이 사진에 등장한 여성은 이후에 인터뷰에 응했는데요,
03:38
and she explained that she was utterly traumatized.
68
218239
2409
완전히 정신적 충격을 받았다고 설명을 하더군요.
03:40
She was on the phone to a loved one,
69
220672
1738
그녀는 애인과 통화하는 중이었고,
03:42
and she wasn't looking at the victim out of respect.
70
222434
2618
피해자를 제대로 보고 있지 않았습니다.
03:45
But it still was circulated widely with this Islamophobic framing,
71
225076
3960
하지만 이 사진은 이슬람 혐오 프레임이 씌워진 채 유포되었습니다.
03:49
with multiple hashtags, including: #BanIslam.
72
229060
3046
#BanIslam(이슬람금지) 등 여러 해시태그가 달린 채 말이죠.
03:52
Now, if you worked at Twitter, what would you do?
73
232425
2398
여러분이 트위터 직원이라면, 어떤 조치를 취하실 건가요?
03:54
Would you take that down, or would you leave it up?
74
234847
2562
이 사진을 내리실 건가요, 아니면 내버려두실 것인가요?
03:58
My gut reaction, my emotional reaction, is to take this down.
75
238553
3429
제 본능적 반응, 감정적 반응은 사진을 내린다는 것입니다.
04:02
I hate the framing of this image.
76
242006
2142
저는 이 사진에 씌워진 프레임이 싫습니다.
04:04
But freedom of expression is a human right,
77
244585
2388
하지만 표현의 자유는 인권이며,
04:06
and if we start taking down speech that makes us feel uncomfortable,
78
246997
3225
불편하다는 이유로 게시글을 내리기 시작한다면
04:10
we're in trouble.
79
250246
1230
이 또한 문제가 될 수 있습니다.
04:11
And this might look like a clear-cut case,
80
251500
2294
이 예시의 경우 명백해 보이지만,
04:13
but, actually, most speech isn't.
81
253818
1698
대부분의 게시물은 그렇지 않습니다.
04:15
These lines are incredibly difficult to draw.
82
255540
2436
옳고 그름의 선을 긋기 매우 어렵습니다.
04:18
What's a well-meaning decision by one person
83
258000
2281
어떤 사람이 좋은 의도로 내려진 결정이
04:20
is outright censorship to the next.
84
260305
2077
다른 사람에게는 완전한 검열로 될 수 있습니다.
04:22
What we now know is that this account, Texas Lone Star,
85
262759
2929
이제 우리는 이 계정, Texas Lone Star가
04:25
was part of a wider Russian disinformation campaign,
86
265712
3230
러시아의 거짓 정보 캠페인의 일부였고,
04:28
one that has since been taken down.
87
268966
2151
그 때 이후 내려진 상태라는 걸 압니다.
04:31
Would that change your view?
88
271141
1563
이것이 여러분의 관점을 바꿀 수 있을까요?
04:33
It would mine,
89
273322
1159
제 관점은 변화시킬 듯 합니다.
04:34
because now it's a case of a coordinated campaign
90
274505
2301
왜냐하면 이제 이 글은 불화를 초래하기 위해서
04:36
to sow discord.
91
276830
1215
설계된 캠페인의 일부이기 때문입니다.
04:38
And for those of you who'd like to think
92
278069
1961
여러분 중에서 혹시
04:40
that artificial intelligence will solve all of our problems,
93
280054
2831
인공지능이 우리의 문제를 해결해 줄 수 있다고 믿으시는 분이 있다면,
04:42
I think we can agree that we're a long way away
94
282909
2225
아마 이런 사건을 해결할 수 있는 인공지능이 등장하기 전까지는
04:45
from AI that's able to make sense of posts like this.
95
285158
2587
오랜 시간이 걸릴 것이라고 동의하실 겁니다.
04:48
So I'd like to explain three interlocking issues
96
288856
2507
그래서 저는 이 문제를 복잡하게 만드는
04:51
that make this so complex
97
291387
2373
세 가지 서로 맞물린 이슈에 대해 설명하고자 합니다.
04:53
and then think about some ways we can consider these challenges.
98
293784
3122
그리고 우리가 이 문제의 해결 방법을 생각해보도록 하죠.
04:57
First, we just don't have a rational relationship to information,
99
297348
3890
첫째로, 우리는 정보를 이성적으로 받아들이지 않습니다.
05:01
we have an emotional one.
100
301262
1468
감정으로 받아들이죠.
05:02
It's just not true that more facts will make everything OK,
101
302754
3794
사실이 더 많아지면 모든 것이 괜찮아질 것이라는 건 사실이 아닙니다.
05:06
because the algorithms that determine what content we see,
102
306572
3100
왜냐하면 우리가 어떤 콘텐츠를 볼지를 정하는 알고리즘은
05:09
well, they're designed to reward our emotional responses.
103
309696
3127
우리의 감정적인 반응을 우선시하게 되어 있습니다.
05:12
And when we're fearful,
104
312847
1381
그리고 우리가 공포를 느낄 때,
05:14
oversimplified narratives, conspiratorial explanations
105
314252
3174
지나치게 축소된 이야기들, 음모론적인 설명들,
05:17
and language that demonizes others is far more effective.
106
317450
3418
그리고 다른 사람을 탓하는 언어가 훨씬 효과적입니다.
05:21
And besides, many of these companies,
107
321538
1874
게다가, 많은 이런 회사들의
05:23
their business model is attached to attention,
108
323436
2546
비즈니스 모델은 관심을 받는 정도에 따라 결정됩니다.
05:26
which means these algorithms will always be skewed towards emotion.
109
326006
3690
따라서 이 알고리즘들은 감정 변화에 치우쳐서 반응하게 됩니다.
05:30
Second, most of the speech I'm talking about here is legal.
110
330371
4298
둘째로, 제가 말하는 대부분의 내용은 법적인 문제입니다.
05:35
It would be a different matter
111
335081
1446
아동 성범죄 관련 사진 혹은
05:36
if I was talking about child sexual abuse imagery
112
336551
2341
폭력을 일으키는 내용이라면
05:38
or content that incites violence.
113
338916
1927
다른 문제가 될 수 있습니다.
05:40
It can be perfectly legal to post an outright lie.
114
340867
3270
노골적인 거짓을 업로드하면 완벽히 법적인 문제가 될 수 있습니다.
05:45
But people keep talking about taking down "problematic" or "harmful" content,
115
345130
4034
하지만 사람들은 "문제가 되는" 또는 "해로운" 글을 내려야 한다고 합니다.
05:49
but with no clear definition of what they mean by that,
116
349188
2609
그 말이 무슨 뜻인지 명확한 정의를 내리지 못한 채 말이죠.
05:51
including Mark Zuckerberg,
117
351821
1264
마크 저커버그를 포함해서요.
05:53
who recently called for global regulation to moderate speech.
118
353109
3412
그는 최근에 온건한 표현에 대한 국제적 규제를 촉구했습니다.
05:56
And my concern is that we're seeing governments
119
356870
2215
제가 걱겅되는 것은,
05:59
right around the world
120
359109
1292
전 세계 정부들이
06:00
rolling out hasty policy decisions
121
360425
2676
우리가 올리는 게시물, 표현에 있어
06:03
that might actually trigger much more serious consequences
122
363125
2746
훨씬 더 큰 결과를 촉발할수 있는 정책결정을
06:05
when it comes to our speech.
123
365895
1714
성급하게 내놓고 있다는 것입니다.
06:08
And even if we could decide which speech to take up or take down,
124
368006
3706
심지어 우리가 어떤 표현을 허용하고, 어떤 표현을 규제할지 정한다 해도
06:11
we've never had so much speech.
125
371736
2174
이보다 더 많았던 적이 없었다는 게 문제죠.
06:13
Every second, millions of pieces of content
126
373934
2131
매 초 마다, 수 백만 개의 게시글이
06:16
are uploaded by people right around the world
127
376089
2107
세계 각지에서 업로드됩니다.
06:18
in different languages,
128
378220
1168
여러 언어로 말이죠.
06:19
drawing on thousands of different cultural contexts.
129
379412
2768
수 천개의 다른 문화적 맥락이 들어간 것들이죠.
06:22
We've simply never had effective mechanisms
130
382204
2532
이런 규모의 표현을 제어할 수 있는
06:24
to moderate speech at this scale,
131
384760
1738
효율적인 방법이 현재로선 없습니다.
06:26
whether powered by humans or by technology.
132
386522
2801
인간이 되었든, 기계가 되었든 간에 말이죠.
06:30
And third, these companies -- Google, Twitter, Facebook, WhatsApp --
133
390284
3944
셋째로, 구글, 트위터, 페이스북, 왓츠앱과 같은 회사들은
06:34
they're part of a wider information ecosystem.
134
394252
2841
정보 생태계의 일부분을 차지할 뿐이라는 겁니다.
06:37
We like to lay all the blame at their feet, but the truth is,
135
397117
3352
우리는 이 회사들을 탓하기 쉽지만,
06:40
the mass media and elected officials can also play an equal role
136
400493
3830
사실은, 매스미디어와 지도자들도 그들이 원할 때
06:44
in amplifying rumors and conspiracies when they want to.
137
404347
2913
루머와 음모론을 확산할 수 있다는 것입니다.
06:47
As can we, when we mindlessly forward divisive or misleading content
138
407800
4944
우리도 마찬가지로 생각없이 오해의 소지가 있는 글을 공유합니다.
06:52
without trying.
139
412768
1285
06:54
We're adding to the pollution.
140
414077
1800
우리도 정보 생태계의 오염에 한 몫을 하는 겁니다.
06:57
I know we're all looking for an easy fix.
141
417236
2618
우리는 모두 쉬운 해결책을 갈구하고 있습니다.
06:59
But there just isn't one.
142
419878
1667
하지만 그런 건 존재하지 않습니다.
07:01
Any solution will have to be rolled out at a massive scale, internet scale,
143
421950
4445
어떤 해결책이든, 넓은 범위로, 인터넷 범위로 적용되어야 합니다.
07:06
and yes, the platforms, they're used to operating at that level.
144
426419
3261
그리고 소셜네트워크 플랫폼은 그 단계에 최적화되어 있습니다.
07:09
But can and should we allow them to fix these problems?
145
429704
3472
하지만 그렇다고 그들이 이 문제를 해결하도록 둘 수 있을까요? 그래야 할까요?
07:13
They're certainly trying.
146
433668
1232
그들도 물론 노력하고 있긴 하죠.
07:14
But most of us would agree that, actually, we don't want global corporations
147
434924
4086
하지만 우리 대부분은 글로벌 기업들이 온라인에서
07:19
to be the guardians of truth and fairness online.
148
439034
2332
진실과 공정의 수호자가 되는 것을 원치 않을 것입니다.
07:21
And I also think the platforms would agree with that.
149
441390
2537
소셜플랫폼들도 이에 동의할 것입니다.
07:24
And at the moment, they're marking their own homework.
150
444257
2881
지금 그들은, 스스로에게 내 준 숙제를 채점하고 있습니다.
07:27
They like to tell us
151
447162
1198
그들은 우리에게
07:28
that the interventions they're rolling out are working,
152
448384
2579
그들이 설치한 제어 장치들이 작동하고 있다고 뻐기죠.
07:30
but because they write their own transparency reports,
153
450987
2540
하지만 그들이 스스로 투명성 보고서를 쓰기 때문에,
07:33
there's no way for us to independently verify what's actually happening.
154
453551
3618
무엇이 진짜로 일어나는지 우리가 확인할 길이 없습니다.
07:38
(Applause)
155
458431
3342
(박수)
07:41
And let's also be clear that most of the changes we see
156
461797
2952
또, 우리가 보는 변화의 대부분은
07:44
only happen after journalists undertake an investigation
157
464773
2994
저널리스트들이 조사를 통해 편향되었다는 증거를 발견하거나,
07:47
and find evidence of bias
158
467791
1611
커뮤니티 가이드라인을 위반하는 콘텐츠를
07:49
or content that breaks their community guidelines.
159
469426
2829
발견한 이후에나 나타납니다.
07:52
So yes, these companies have to play a really important role in this process,
160
472815
4595
네, 이 회사들은 문제해결을 위해 아주 중요한 역할을 해야 하지만,
07:57
but they can't control it.
161
477434
1560
그것을 통제하지는 못합니다.
07:59
So what about governments?
162
479855
1518
정부는 어떨까요?
08:01
Many people believe that global regulation is our last hope
163
481863
3096
많은 사람들은 우리의 정보 생태계를 정화시키기 위해서는
08:04
in terms of cleaning up our information ecosystem.
164
484983
2880
전세계적인 규율이 필요하다고 믿고 있습니다.
08:07
But what I see are lawmakers who are struggling to keep up to date
165
487887
3166
하지만 정책 입안자들은 빠른 기술의 발전을
08:11
with the rapid changes in technology.
166
491077
2341
따라가지 못하고 있습니다.
08:13
And worse, they're working in the dark,
167
493442
1904
설상가상으로, 정부는 암흑 속에서 일하고 있습니다.
08:15
because they don't have access to data
168
495370
1821
이런 플랫폼에서 무슨 일이 일어나는지 알 길이 없습니다.
08:17
to understand what's happening on these platforms.
169
497215
2650
알 수 있는 데이터에 접근할 수 없으니까요.
08:20
And anyway, which governments would we trust to do this?
170
500260
3071
게다가, 어떤 정부를 믿을 수 있을까요?
08:23
We need a global response, not a national one.
171
503355
2770
우리는 국가적인 대응보다는 세계적인 대응이 필요합니다.
08:27
So the missing link is us.
172
507419
2277
여기서 빠진 연결고리가 바로 우리입니다.
08:29
It's those people who use these technologies every day.
173
509720
3123
이 기술을 매일매일 사용하는 우리들이지요.
08:33
Can we design a new infrastructure to support quality information?
174
513260
4591
양질의 정보를 지지하기 위한 새로운 인프라를 만들 수 있을까요?
08:38
Well, I believe we can,
175
518371
1230
저는 가능하다고 믿습니다.
08:39
and I've got a few ideas about what we might be able to actually do.
176
519625
3357
우리가 실제로 할 수 있는 일에 대한 몇 가지 아이디어가 있습니다.
08:43
So firstly, if we're serious about bringing the public into this,
177
523006
3103
첫째로, 사람들의 참여가 정말로 필요하다면,
08:46
can we take some inspiration from Wikipedia?
178
526133
2381
위키피디아에서 영감을 얻을 수 없을까요?
08:48
They've shown us what's possible.
179
528538
1824
그들은 무엇이 가능한지 우리에게 보여주었습니다.
08:50
Yes, it's not perfect,
180
530386
1151
네, 완벽하진 않지만,
08:51
but they've demonstrated that with the right structures,
181
531561
2634
위키피디아는 투명성이 보장되고
08:54
with a global outlook and lots and lots of transparency,
182
534219
2635
전 세계 사람들이 참여할 수 있는 기초적인 구조가 있다면
08:56
you can build something that will earn the trust of most people.
183
536878
3096
사람들이 신뢰할 수 있는 플랫폼을 만들 수 있다는 것을 보여주었습니다.
08:59
Because we have to find a way to tap into the collective wisdom
184
539998
3162
왜냐하면 우리는 집단적 지혜와 모든 사용자들의 경험을 활용할
09:03
and experience of all users.
185
543184
2309
방법을 찾아야 하기 때문입니다.
09:05
This is particularly the case for women, people of color
186
545517
2646
이는 여성, 유색인종들, 그리고 대표성을 갖지 못하는 소수자들에게
09:08
and underrepresented groups.
187
548187
1346
더욱 필요한 방법입니다.
09:09
Because guess what?
188
549557
1166
왜냐하면
09:10
They are experts when it comes to hate and disinformation,
189
550747
2735
그들은 혐오와 허위 정보에 관해서라면 전문가니까요.
09:13
because they have been the targets of these campaigns for so long.
190
553506
3516
그들이야말로 오랫동안 혐오 캠페인의 표적이 되어왔기 때문이죠.
09:17
And over the years, they've been raising flags,
191
557046
2350
몇 년 전부터 그들은 의문을 제기하기 시작하였지만,
09:19
and they haven't been listened to.
192
559420
1665
그들의 목소리는 아무도 듣지 않았습니다.
09:21
This has got to change.
193
561109
1280
이는 바뀌어야 합니다.
09:22
So could we build a Wikipedia for trust?
194
562807
4326
신뢰의 위키피디아 같은 것을 우리가 만들 수 있을까요?
09:27
Could we find a way that users can actually provide insights?
195
567157
4189
사용자들이 자신의 통찰을 제시하게끔 할 방법을 찾을 수 있을까요?
09:31
They could offer insights around difficult content-moderation decisions.
196
571370
3697
그들은 어떤 표현이 온건한지와 같은, 판단이 어려운 결정에 통찰을 줄 수 있습니다.
09:35
They could provide feedback
197
575091
1463
플랫폼들이 새로운 변경사항을 출시할 때,
09:36
when platforms decide they want to roll out new changes.
198
576578
3041
피드백을 줄 수도 있습니다.
09:40
Second, people's experiences with the information is personalized.
199
580241
4162
둘째로, 정보에 대한 사람들의 경험은 개인적이라는 것입니다.
09:44
My Facebook news feed is very different to yours.
200
584427
2643
저의 페이스북 피드는 여러분의 것과 아주 다릅니다.
09:47
Your YouTube recommendations are very different to mine.
201
587094
2745
여러분의 유튜브 추천목록은 제 것과 많이 다릅니다.
09:49
That makes it impossible for us to actually examine
202
589863
2492
그래서 사람들이 무슨 정보를 보고 있는지 조사하는 것은
09:52
what information people are seeing.
203
592379
2023
불가능합니다.
09:54
So could we imagine
204
594815
1389
그렇다면
09:56
developing some kind of centralized open repository for anonymized data,
205
596228
4778
익명화된 데이터를 위한 일종의 개방형 중앙 저장소를 개발해서
10:01
with privacy and ethical concerns built in?
206
601030
2864
개인 정보와 윤리를 보호할 수 있도록 할 수 있을까요?
10:04
Because imagine what we would learn
207
604220
1778
예를 들어, 이런 경우 우리가 무엇을 배울 수 있을지 상상해볼까요.
10:06
if we built out a global network of concerned citizens
208
606022
3261
이런 문제에 관심이 있고, 자신의 소셜데이터를 연구에 기부하려는
10:09
who wanted to donate their social data to science.
209
609307
3294
시민들로 구성된 글로벌 네트워크를 만든다면 말이죠.
10:13
Because we actually know very little
210
613141
1722
혐오와 허위 정보가
10:14
about the long-term consequences of hate and disinformation
211
614887
2881
장기적으로 사람들의 태도와 행동에 어떤 영향을 미치는지,
10:17
on people's attitudes and behaviors.
212
617792
1975
우리는 잘 알고 있지 못합니다..
10:20
And what we do know,
213
620236
1167
우리가 아는 것들은
10:21
most of that has been carried out in the US,
214
621427
2193
미국 한정으로 밝혀진 연구입니다.
10:23
despite the fact that this is a global problem.
215
623644
2381
이 문제는 전 세계적인 문제인데 말이죠.
10:26
We need to work on that, too.
216
626049
1635
이 문제도 해결해야 합니다.
10:28
And third,
217
628192
1150
세 번째로,
10:29
can we find a way to connect the dots?
218
629366
2310
점과 점을 서로 이을 방법을 찾을 수 있을까요?
10:31
No one sector, let alone nonprofit, start-up or government,
219
631700
3438
어떤 한 비영리단체, 스타트업, 정부도
10:35
is going to solve this.
220
635162
1422
이 문제를 스스로 해결할 수는 없습니다.
10:36
But there are very smart people right around the world
221
636608
2564
하지만 이 문제를 해결하기 위해 일하고 있는 아주 똑똑한 사람들이
10:39
working on these challenges,
222
639196
1381
전 세계에 있습니다.
10:40
from newsrooms, civil society, academia, activist groups.
223
640601
3576
뉴스 편집국에서부터 시민 사회, 학계, 권익 보호 운동 단체까지요.
10:44
And you can see some of them here.
224
644201
1898
여기 그들 중 일부를 보실 수 있습니다.
10:46
Some are building out indicators of content credibility.
225
646123
2927
몇 명은 콘텐츠 신뢰성을 나타내는 지표를 개발 중입니다.
10:49
Others are fact-checking,
226
649074
1246
몇 명은 팩트체크를 하고 있습니다.
10:50
so that false claims, videos and images can be down-ranked by the platforms.
227
650344
3591
거짓 정보, 비디오와 사진들이 순위에서 멀어질 수 있게 말이죠.
10:53
A nonprofit I helped to found, First Draft,
228
653959
2213
제가 설립을 도운 비영리단체인 퍼스트 드래프트(First Draft)는
10:56
is working with normally competitive newsrooms around the world
229
656196
2968
평균적으로 경쟁력있는 뉴스 편집국들과 함께 일하며
10:59
to help them build out investigative, collaborative programs.
230
659188
3503
그들이 협력할 수 있는 프로그램을 세울 수 있도록 돕습니다.
11:03
And Danny Hillis, a software architect,
231
663231
2309
소프트웨어 설계자인 대니 힐즈(Danny Hillls)는
11:05
is designing a new system called The Underlay,
232
665564
2381
언더레이(The Underlay)라고 불리는 새로운 시스템을 만들고 있습니다.
11:07
which will be a record of all public statements of fact
233
667969
2775
이는 인터넷 상의 모든 발언들과 그 출처를 엮은
11:10
connected to their sources,
234
670768
1329
기록물입니다.
11:12
so that people and algorithms can better judge what is credible.
235
672121
3654
사람들과 알고리즘이 믿을 만한 정보를 가려내는 것을 도와주죠.
11:16
And educators around the world are testing different techniques
236
676800
3356
전 세계의 교육자들은 사람들이 접하는 정보들을
11:20
for finding ways to make people critical of the content they consume.
237
680180
3484
비판적으로 받아들일 수 있게 교육하는 방법을 찾고 있습니다.
11:24
All of these efforts are wonderful, but they're working in silos,
238
684633
3141
이 모든 노력들은 대단하지만 그들은 지하에서 일하고 있습니다.
11:27
and many of them are woefully underfunded.
239
687798
2680
대부분은 자금 부족을 겪고 있죠.
11:30
There are also hundreds of very smart people
240
690502
2053
또한 수백 명의 정말 똑똑한 인재들이
11:32
working inside these companies,
241
692579
1652
이들 회사에서 일하고 있지만,
11:34
but again, these efforts can feel disjointed,
242
694255
2325
이들의 노력이 서로 연결되고 있지 않은 느낌입니다.
11:36
because they're actually developing different solutions to the same problems.
243
696604
3937
같은 문제에 대해 서로 다른 해결책을 만들고 있기 때문이죠.
11:41
How can we find a way to bring people together
244
701205
2269
어떻게 하면 이 사람들을 며칠 혹은 몇 주 간,
11:43
in one physical location for days or weeks at a time,
245
703498
3278
하나의 물리적인 공간에 모아서,
11:46
so they can actually tackle these problems together
246
706800
2396
그들이 자신들의 견해와 관점을 제시하며
11:49
but from their different perspectives?
247
709220
1818
이 문제를 함께 해결하도록 할 수 있을까요?
11:51
So can we do this?
248
711062
1340
이것이 가능할까요?
11:52
Can we build out a coordinated, ambitious response,
249
712426
3239
우리의 문제가 복잡하고 큰 만큼
11:55
one that matches the scale and the complexity of the problem?
250
715689
3709
우리도 잘 설계된 해결 방법을 야심차게 내놓을 수 있을까요?
11:59
I really think we can.
251
719819
1373
저는 이것이 가능하다고 믿습니다.
12:01
Together, let's rebuild our information commons.
252
721216
2959
함께 안전한 정보 공동체를 재구축해 봅시다.
12:04
Thank you.
253
724819
1190
감사합니다.
12:06
(Applause)
254
726033
3728
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7