How technology can fight extremism and online harassment | Yasmin Green

75,290 views ・ 2018-06-27

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Hyowon Ahn 검토: Jihyeon J. Kim
00:13
My relationship with the internet reminds me of the setup
0
13131
4411
인터넷과 저의 관계는 뻔한 공포 영화의 설정 같습니다.
00:17
to a clichéd horror movie.
1
17566
1833
00:19
You know, the blissfully happy family moves in to their perfect new home,
2
19867
4386
너무나도 행복한 가족이 모든 게 완벽한 새 집으로 이사를 가서
00:24
excited about their perfect future,
3
24277
2281
다같이 완벽한 미래를 꿈꾸는 설정이요.
00:26
and it's sunny outside and the birds are chirping ...
4
26582
3521
화창한 날씨와 지저귀는 새들까지...
00:30
And then it gets dark.
5
30857
1839
그리고 어둠이 찾아오죠.
00:32
And there are noises from the attic.
6
32720
2348
다락방에서 소리가 들려옵니다.
00:35
And we realize that that perfect new house isn't so perfect.
7
35092
4345
그제서야 완벽한 줄만 알았던 그 집이 완벽하지 않다는 걸 깨닫게 되죠.
00:40
When I started working at Google in 2006,
8
40485
3131
제가 2006년에 구글에서 일하기 시작했을 때
00:43
Facebook was just a two-year-old,
9
43640
1767
페이스북이 시작한지는 고작 2년 밖에 되지 않았고
00:45
and Twitter hadn't yet been born.
10
45431
2012
트위터는 존재하지도 않았습니다.
00:47
And I was in absolute awe of the internet and all of its promise
11
47848
4410
저는 인터넷에 완전히 매료되어 인터넷을 통해 우리가 더 가까워지고
00:52
to make us closer
12
52282
1437
00:53
and smarter
13
53743
1296
더 똑똑해지며
00:55
and more free.
14
55063
1214
그리고 더 자유로워질 미래를 꿈꿨습니다.
00:57
But as we were doing the inspiring work of building search engines
15
57265
3714
하지만 우리가 검색엔진을 만들고
01:01
and video-sharing sites and social networks,
16
61003
2886
영상 공유 사이트나 소셜 네트워크를 만드는 동안
01:04
criminals, dictators and terrorists were figuring out
17
64907
4304
범죄자, 독재자와 테러범들은
같은 플랫폼을 악용할 방법을 찾고 있었습니다.
01:09
how to use those same platforms against us.
18
69235
3202
01:13
And we didn't have the foresight to stop them.
19
73417
2455
하지만 우리에겐 그들을 막을 선견지명이 없었습니다.
01:16
Over the last few years, geopolitical forces have come online to wreak havoc.
20
76746
5099
지난 몇 년 동안, 지정학적인 세력이 온라인에서 대혼란을 일으키려 했습니다.
01:21
And in response,
21
81869
1169
그리고 그에 맞서
01:23
Google supported a few colleagues and me to set up a new group called Jigsaw,
22
83062
4778
구글사에서는 저와 몇 직원들을 구성해 직소라는 그룹을 만들고
01:27
with a mandate to make people safer from threats like violent extremism,
23
87864
4596
폭력적인 극단주의자들의 공격으로부터 사람들을 보호하도록 했습니다.
01:32
censorship, persecution --
24
92484
2078
검열, 처벌 등
01:35
threats that feel very personal to me because I was born in Iran,
25
95186
4117
저에게 매우 익숙한 공격들인데 저는 이란에서 태어났고
01:39
and I left in the aftermath of a violent revolution.
26
99327
2929
난폭한 혁명의 여파로 나라를 떠났거든요.
01:43
But I've come to realize that even if we had all of the resources
27
103525
4346
하지만 제가 깨달은 것이 우리에게 세상의 모든 자원과
01:47
of all of the technology companies in the world,
28
107895
2858
모든 기술 회사들이 있다고 해도
01:51
we'd still fail
29
111595
1230
우리가 가장 중요한 한 가지를 놓친다면
01:53
if we overlooked one critical ingredient:
30
113586
2948
결국 실패한다는 것입니다.
01:57
the human experiences of the victims and perpetrators of those threats.
31
117653
5789
앞서 말한 위협의 피해자나 가해자의 인간적 경험입니다.
02:04
There are many challenges I could talk to you about today.
32
124935
2736
오늘은 많은 위협 중 두 가지에 집중하겠습니다.
02:07
I'm going to focus on just two.
33
127695
1504
02:09
The first is terrorism.
34
129623
2079
첫 번째는 테러입니다.
02:13
So in order to understand the radicalization process,
35
133563
2557
우리는 급진화의 과정을 이해하기 위해서
02:16
we met with dozens of former members of violent extremist groups.
36
136144
4287
폭력적 급진파의 전 멤버였던 수 많은 사람들을 만나보았습니다.
02:21
One was a British schoolgirl,
37
141590
2483
그 중 한명은 영국인 여학생이었는데
02:25
who had been taken off of a plane at London Heathrow
38
145049
3699
시리아에 가서 반정부 무장단체 IS에 가입하려다가
02:28
as she was trying to make her way to Syria to join ISIS.
39
148772
4692
런던 히드로 공항 비행기에서 잡혔습니다.
02:34
And she was 13 years old.
40
154281
1931
고작 13살이었는데 말입니다.
02:37
So I sat down with her and her father, and I said, "Why?"
41
157792
4625
학생의 아버지와 셋이 앉아서 제가 물었습니다. "이유가 뭐지?"
02:42
And she said,
42
162441
1717
그러자 그녀가 말했습니다.
02:44
"I was looking at pictures of what life is like in Syria,
43
164182
3639
"시리아에서는 어떻게 사는지 사진을 보고있다가
02:47
and I thought I was going to go and live in the Islamic Disney World."
44
167845
3510
이슬람 디즈니 월드에서 살 수 있을 것 같았어요."
02:52
That's what she saw in ISIS.
45
172527
2084
ISIS를 보고 그렇게 생각한 거예요.
02:54
She thought she'd meet and marry a jihadi Brad Pitt
46
174635
3492
브래드 피트처럼 생긴 지하드 전사를 만나 결혼해서
02:58
and go shopping in the mall all day and live happily ever after.
47
178151
3058
하루종일 쇼핑 다니고 평생 행복할 거라 생각했대요.
03:02
ISIS understands what drives people,
48
182977
2824
IS는 사람들이 뭘 좋아하는지 알고
03:05
and they carefully craft a message for each audience.
49
185825
3544
각 대상에 맞춰 정교한 메세지를 만듭니다.
03:11
Just look at how many languages
50
191122
1511
IS가 홍보자료를
03:12
they translate their marketing material into.
51
192657
2273
몇 개 국어로 번역해내는지만 봐도 답이 보입니다.
03:15
They make pamphlets, radio shows and videos
52
195677
2661
팜플렛, 라디오쇼, 비디오 모두
03:18
in not just English and Arabic,
53
198362
1973
영어와 아랍어 뿐 아니라
03:20
but German, Russian, French, Turkish, Kurdish,
54
200359
4767
독일어, 러시아어, 프랑스어, 터키어, 쿠르드어
03:25
Hebrew,
55
205150
1672
히브리어
03:26
Mandarin Chinese.
56
206846
1741
표준 중국어로 까지 번역합니다.
03:29
I've even seen an ISIS-produced video in sign language.
57
209309
4192
심지어 수화로 된 IS 홍보영상도 있습니다.
03:34
Just think about that for a second:
58
214605
1884
한번 생각해 보세요.
03:36
ISIS took the time and made the effort
59
216513
2308
ISIS는 시간과 노력을 들여 그들의 메세지를
03:38
to ensure their message is reaching the deaf and hard of hearing.
60
218845
3804
난청과 청각 장애인들에게도 전파하려고 했습니다.
03:45
It's actually not tech-savviness
61
225143
2144
ISIS가 사람들의 마음을 훔치는 방법은
03:47
that is the reason why ISIS wins hearts and minds.
62
227311
2595
높은 기술력이 아닙니다.
03:49
It's their insight into the prejudices, the vulnerabilities, the desires
63
229930
4163
자신들이 손을 뻗고자 하는 대상에 대한
03:54
of the people they're trying to reach
64
234117
1774
편견이나 나약함, 갈망 등을
03:55
that does that.
65
235915
1161
꿰뚫어봤기 때문입니다.
03:57
That's why it's not enough
66
237718
1429
이러한 이유 때문에
03:59
for the online platforms to focus on removing recruiting material.
67
239171
4239
단순히 온라인 상의 모집 관련 글을 내리는 것으론 충분한 대응이 되지 않습니다.
04:04
If we want to have a shot at building meaningful technology
68
244518
3581
급진화를 대응할 의미있는 기술을 발달시킬
04:08
that's going to counter radicalization,
69
248123
1874
노력이라도 해보기 위해서는
04:10
we have to start with the human journey at its core.
70
250021
2979
인간의 여정의 본질부터 알아야 합니다.
04:13
So we went to Iraq
71
253884
2187
그래서 저희는 이라크에 가서
04:16
to speak to young men who'd bought into ISIS's promise
72
256095
2831
한 남자를 만나봤습니다.
04:18
of heroism and righteousness,
73
258950
3191
그는 IS의 영웅주의와 정의에 이끌려
04:22
who'd taken up arms to fight for them
74
262165
1847
그들과 한편이 되어 싸웠지만
04:24
and then who'd defected
75
264036
1338
그들의 잔인함을 목격한 후
04:25
after they witnessed the brutality of ISIS's rule.
76
265398
3021
IS를 떠나 돌아섰습니다.
04:28
And I'm sitting there in this makeshift prison in the north of Iraq
77
268880
3192
이라크 북쪽에 위치한 임시교도소에 앉아서
04:32
with this 23-year-old who had actually trained as a suicide bomber
78
272096
4550
자살폭탄 테러범 훈련을 받았지만 결국 돌아선
04:36
before defecting.
79
276670
1552
23살짜리 남자와 얘기를 나눴습니다.
04:39
And he says,
80
279080
1158
그가 말했습니다.
04:41
"I arrived in Syria full of hope,
81
281119
3220
"희망을 가득 품고 시리아에 도착했는데,
04:44
and immediately, I had two of my prized possessions confiscated:
82
284363
4365
도착 즉시 저의 가장 중요한 소유품 두 개를 압수당했습니다.
04:48
my passport and my mobile phone."
83
288752
2933
제 여권과 핸드폰을요."
04:52
The symbols of his physical and digital liberty
84
292140
2406
신체적, 디지털 자유의 상징 두 가지가
04:54
were taken away from him on arrival.
85
294570
1760
도착 즉시 압수되었습니다.
04:57
And then this is the way he described that moment of loss to me.
86
297248
3510
그는 압수 당시의 상황을 이렇게 설명했습니다.
05:01
He said,
87
301356
1586
그가 말하길,
05:02
"You know in 'Tom and Jerry,'
88
302966
2329
"만화영화 '톰과 제리' 아시죠?
05:06
when Jerry wants to escape, and then Tom locks the door
89
306192
3103
제리가 도망가려고 하면 톰이 문을 잠그고
05:09
and swallows the key
90
309319
1156
열쇠를 꿀꺽 하잖아요.
05:10
and you see it bulging out of his throat as it travels down?"
91
310499
3551
열쇠가 뱃속으로 불룩하고 튀어나오며 내려가는 것도 보이고요."
05:14
And of course, I really could see the image that he was describing,
92
314446
3153
물론, 그가 설명하는 상황이 머릿속에 그려졌고
05:17
and I really did connect with the feeling that he was trying to convey,
93
317623
3661
그가 전하고자 하는 느낌 또한 이해가 됐습니다.
05:21
which was one of doom,
94
321308
2021
빠져나갈 방법이 없는
05:23
when you know there's no way out.
95
323353
1789
최후의 날이나 막다른 길 같은 느낌이요.
05:26
And I was wondering:
96
326551
1289
그리고 궁금해졌습니다.
05:28
What, if anything, could have changed his mind
97
328644
2682
그가 집을 떠나던 날
05:31
the day that he left home?
98
331350
1240
그의 마음을 돌릴 수 있는 건 뭐가 있었을까요?
05:32
So I asked,
99
332614
1250
그래서 그에게 물었습니다.
05:33
"If you knew everything that you know now
100
333888
3178
"만약 당신이 지금 아는 모든 것을,
05:37
about the suffering and the corruption, the brutality --
101
337090
3051
고통, 부패, 잔인함 등 모든 것을
05:40
that day you left home,
102
340165
1415
집을 떠나기 전의 당신이 알았더라도
05:41
would you still have gone?"
103
341604
1679
같은 선택을 했을까요?"
05:43
And he said, "Yes."
104
343786
1711
그러자 그가 대답했습니다, "네."
05:45
And I thought, "Holy crap, he said 'Yes.'"
105
345846
2282
제가 "세상에, '네' 라고 대답하다니" 라고 생각하는 도중
05:48
And then he said,
106
348694
1219
그가 이어서 말했습니다.
05:49
"At that point, I was so brainwashed,
107
349937
3001
"그때 저는 완전히 세뇌되어 있는 상태여서
05:52
I wasn't taking in any contradictory information.
108
352962
3244
반박될 만한 정보는 하나도 받아들이지 않았어요.
05:56
I couldn't have been swayed."
109
356744
1555
맘이 바뀌지 않았을 겁니다."
05:59
"Well, what if you knew everything that you know now
110
359235
2527
"그럼 지금 당신이 아는 모든 것들을
06:01
six months before the day that you left?"
111
361786
2098
떠나기 6개월 전에 알았다면요?"
06:05
"At that point, I think it probably would have changed my mind."
112
365345
3131
"그때는 아마 제 맘이 바뀌었을 수도 있을 것 같아요."
06:10
Radicalization isn't this yes-or-no choice.
113
370138
3397
급진화는 네 또는 아니오 선택의 문제가 아닙니다.
06:14
It's a process, during which people have questions --
114
374007
2977
사람들에게 이념, 종교, 생활 환경 등에 대한
06:17
about ideology, religion, the living conditions.
115
377008
3776
질문을 불러 일으키는 과정입니다.
06:20
And they're coming online for answers,
116
380808
2766
그리고 사람들은 온라인에서 그 답을 찾으려고 하는데
06:23
which is an opportunity to reach them.
117
383598
1917
ISIS는 이를 기회로 삼는 것입니다.
06:25
And there are videos online from people who have answers --
118
385905
3014
온라인엔 이런 질문들에 대한 답을 담은 동영상들이 존재합니다.
06:28
defectors, for example, telling the story of their journey
119
388943
2876
폭력의 길에 들어섰다가 돌아선 사람들의
06:31
into and out of violence;
120
391843
1583
여정을 공유하는 동영상들 말입니다.
06:33
stories like the one from that man I met in the Iraqi prison.
121
393450
3487
제가 이라크 교도소에서 만났던 그 남자와 같은 사람들이 올린 영상들이죠.
06:37
There are locals who've uploaded cell phone footage
122
397914
2590
혹은 현지인들이 핸드폰으로 찍어올린
06:40
of what life is really like in the caliphate under ISIS's rule.
123
400528
3503
ISIS의 지배를 받는 칼리프 삶의 실상도 볼 수 있습니다.
06:44
There are clerics who are sharing peaceful interpretations of Islam.
124
404055
3735
이슬람 교리의 평화로운 해석을 하는 성직자들도 있고요.
06:48
But you know what?
125
408830
1150
하지만 그거 아세요?
06:50
These people don't generally have the marketing prowess of ISIS.
126
410004
3020
이런 사람들은 보통 ISIS 만큼의 홍보 역량이 없습니다.
06:54
They risk their lives to speak up and confront terrorist propaganda,
127
414049
4532
자신의 삶을 내걸고 테러범 조직 선전활동에 반대하지만
06:58
and then they tragically don't reach the people
128
418605
2211
비극적이게도, 정작 그런 메세지를 들어야 되는 사람들에게는
07:00
who most need to hear from them.
129
420840
1682
영향력을 미치지 못합니다.
07:03
And we wanted to see if technology could change that.
130
423173
2612
그래서 저희 그룹은 기술을 통해 이를 변화시키고자 했습니다.
07:06
So in 2016, we partnered with Moonshot CVE
131
426205
4183
2016년에 Moonshot CVE 라는 그룹과 제휴를 맺고
07:10
to pilot a new approach to countering radicalization
132
430412
3180
급진화를 대응하기 위한 새로운 시도인
07:13
called the "Redirect Method."
133
433616
1780
"우회 방법" 이란 시험을 해보았습니다.
07:16
It uses the power of online advertising
134
436453
3012
온라인 홍보의 힘을 이용해
07:19
to bridge the gap between those susceptible to ISIS's messaging
135
439489
4514
ISIS의 메세지에 취약한 사람들과 그 메세지를 무력화할 수 있는
07:24
and those credible voices that are debunking that messaging.
136
444027
3760
설득력 있는 사람들의 영상을 연결시켜주는 방법이었습니다.
07:28
And it works like this:
137
448633
1150
예를 들면 이런 방식입니다.
07:29
someone looking for extremist material --
138
449807
1961
누군가 극단주의적인 자료를 검색한다고 해보죠.
07:31
say they search for "How do I join ISIS?" --
139
451792
2990
"ISIS에 가입하는 법" 을 검색하면
07:34
will see an ad appear
140
454806
2476
광고가 같이 뜹니다.
07:37
that invites them to watch a YouTube video of a cleric, of a defector --
141
457306
4882
성직자나, 변절자 등 제대로 된 답을 줄 수 있는 사람들의
07:42
someone who has an authentic answer.
142
462212
2310
유튜브 영상을 보도록 유도하는 광고죠.
07:44
And that targeting is based not on a profile of who they are,
143
464546
3623
광고의 대상을 정할 때 사람들의 신상정보 보다는
07:48
but of determining something that's directly relevant
144
468193
3053
검색어나 질문에 직접적인 연관이 있는 행동을 할 만한
07:51
to their query or question.
145
471270
1708
가능성에 초점을 두었습니다.
07:54
During our eight-week pilot in English and Arabic,
146
474122
2842
8주 동안 영어와 아랍어로 시범 운행을 해본 결과
07:56
we reached over 300,000 people
147
476988
3279
지하드 그룹에 대해 관심이나 동정을 표한
08:00
who had expressed an interest in or sympathy towards a jihadi group.
148
480291
5545
30만 명이 넘는 사람들에게 손길을 뻗을 수 있었습니다.
08:06
These people were now watching videos
149
486626
2264
이 사람들은 절망적인 선택을 하기 전에
08:08
that could prevent them from making devastating choices.
150
488914
3340
그들을 막아 줄 수 있는 영상을 보게 된 것입니다.
08:13
And because violent extremism isn't confined to any one language,
151
493405
3727
그리고 폭력적인 극단주의는 한 언어나, 종교나, 이념에
08:17
religion or ideology,
152
497156
1804
국한되어 있는 것이 아니기 때문에
08:18
the Redirect Method is now being deployed globally
153
498984
3501
'우회 방법'은 전세계적으로 퍼져
08:22
to protect people being courted online by violent ideologues,
154
502509
3804
많은 사람들을 폭력적인 이념주의자들의 유혹에서 구하고 있습니다.
08:26
whether they're Islamists, white supremacists
155
506337
2596
이슬람 교도이던, 백인 우월주의자이든
08:28
or other violent extremists,
156
508957
2103
혹은 다른 폭력적 극단주의자이든 간에
08:31
with the goal of giving them the chance to hear from someone
157
511084
2873
그 여정의 반대쪽에 있는 누군가의 말을 전하고자 하는
08:33
on the other side of that journey;
158
513981
2091
극단주의자들의 손에서 벗어나
08:36
to give them the chance to choose a different path.
159
516096
2839
다른 여정을 걸을 수 있는 기회를 주는 겁니다.
08:40
It turns out that often the bad guys are good at exploiting the internet,
160
520749
5980
알고보니 보통 악당들이 인터넷을 잘 이용하더라고요.
08:46
not because they're some kind of technological geniuses,
161
526753
3744
그건 그들이 기술을 엄청나게 잘 다뤄서 그런 게 아니라
08:50
but because they understand what makes people tick.
162
530521
2985
사람들을 움직이는 법을 알기 때문입니다.
08:54
I want to give you a second example:
163
534855
2369
다른 예시를 들어볼게요.
08:58
online harassment.
164
538019
1391
온라인 괴롭힘.
09:00
Online harassers also work to figure out what will resonate
165
540629
3363
온라인 괴롭힘 또한 다른 사람들이 공명할 수 있는
09:04
with another human being.
166
544016
1615
요인을 파악하려고 노력합니다.
09:05
But not to recruit them like ISIS does,
167
545655
3110
하지만 ISIS처럼 사람들을 모집하려는 게 아니라
09:08
but to cause them pain.
168
548789
1275
고통을 주기 위해서요.
09:11
Imagine this:
169
551259
1342
한번 상상해보세요.
09:13
you're a woman,
170
553347
1659
여러분이 여성이고
09:15
you're married,
171
555030
1413
기혼이며
09:16
you have a kid.
172
556467
1154
아이가 있다고 가정해보세요.
09:18
You post something on social media,
173
558834
1784
소셜 미디어에 뭔가를 올렸는데
09:20
and in a reply, you're told that you'll be raped,
174
560642
2886
답장이 옵니다. 누군가 여러분을 강간하러 올거고
09:24
that your son will be watching,
175
564577
1560
아들이 그걸 보게 만들 거라고 하며
09:26
details of when and where.
176
566825
1856
자세하게 장소와 시간까지 적은 답장이요.
09:29
In fact, your home address is put online for everyone to see.
177
569148
3143
사실, 여러분 집주소는 온라인에 올려져있어서 모든 사람들이 볼 수 있습니다.
09:33
That feels like a pretty real threat.
178
573580
2007
아까 그 답장이 정말 협박처럼 느껴지죠.
09:37
Do you think you'd go home?
179
577113
1656
여러분이라면 집에 가시겠습니까?
09:39
Do you think you'd continue doing the thing that you were doing?
180
579999
3048
하던 일을 계속 하시겠어요?
09:43
Would you continue doing that thing that's irritating your attacker?
181
583071
3220
당신에게 그 메세지를 보낸 사람을 거슬리게 하는 행동을 계속 할 수 있으시겠어요?
09:48
Online abuse has been this perverse art
182
588016
3096
온라인상의 학대는 이처럼
09:51
of figuring out what makes people angry,
183
591136
3468
사람들을 화나게 하거나
09:54
what makes people afraid,
184
594628
2132
두려워하게 하거나
09:56
what makes people insecure,
185
596784
1641
불안하게 만드는 방법을 알아내서
09:58
and then pushing those pressure points until they're silenced.
186
598449
3067
결국 사람들이 입을 다물 때까지 아픈 곳을 찌르는 사악한 방법입니다.
10:02
When online harassment goes unchecked,
187
602333
2304
온라인 상의 학대는 검열받지 않지만
10:04
free speech is stifled.
188
604661
1667
언론의 자유는 억압당합니다.
10:07
And even the people hosting the conversation
189
607196
2127
토론을 이끌던 사람들마저
10:09
throw up their arms and call it quits,
190
609347
1834
두손두발 들고 포기해 버립니다.
10:11
closing their comment sections and their forums altogether.
191
611205
2957
코멘트란을 닫아버리거나 토론 포럼 자체를 닫아버립니다.
10:14
That means we're actually losing spaces online
192
614186
2849
이건 온라인 상에서 우리가 만나고 생각을 나눌
10:17
to meet and exchange ideas.
193
617059
1987
공간이 사라진다는 뜻입니다.
10:19
And where online spaces remain,
194
619939
2163
그리고 남아있는 온라인 공간은
10:22
we descend into echo chambers with people who think just like us.
195
622126
4470
우리와 똑같은 생각을 하는 사람들의 같은 말만 울려퍼지는 공간으로 변질되고
10:27
But that enables the spread of disinformation;
196
627688
2499
허위 정보를 퍼트려 양극화를 조장하는데
10:30
that facilitates polarization.
197
630211
2184
이용되도록 추락할 것입니다.
10:34
What if technology instead could enable empathy at scale?
198
634508
5269
하지만 기술을 사용해서 필요한 만큼의 공감을 끌어낼 수 있다면 어떨까요?
10:40
This was the question that motivated our partnership
199
640451
2486
이 질문을 시작으로 저희는
10:42
with Google's Counter Abuse team,
200
642961
1819
구글사의 학대 대응 팀,
10:44
Wikipedia
201
644804
1178
위키피디아,
10:46
and newspapers like the New York Times.
202
646006
1934
뉴욕타임즈와 같은 신문사들과 협력관계를 맺었습니다.
10:47
We wanted to see if we could build machine-learning models
203
647964
2876
기계가 스스로 학습하는 머신 러닝 모델을 구축해서
10:50
that could understand the emotional impact of language.
204
650864
3606
언어의 감정적인 여파를 이해할 수 있는지 실험해 보고자 했습니다.
10:55
Could we predict which comments were likely to make someone else leave
205
655062
3610
어떤 댓글들이 온라인 상의 대화나 토론을
10:58
the online conversation?
206
658696
1374
끝내는데 일조하는지 예상할 수 있을까요?
11:00
And that's no mean feat.
207
660515
3887
이건 정말 대단한 일이죠.
11:04
That's no trivial accomplishment
208
664426
1566
인공지능이 이런 역할을
11:06
for AI to be able to do something like that.
209
666016
2563
수행할 수 있게 된다는 건 사소한 성과가 아닙니다.
11:08
I mean, just consider these two examples of messages
210
668603
3729
제가 앞서 말씀드린 두 개의 메세지처럼
11:12
that could have been sent to me last week.
211
672356
2224
지난 주에 제가 받을 수도 있던 메세지를 생각해보세요.
11:15
"Break a leg at TED!"
212
675517
1879
"TED에서 잘하고 와!"
11:17
... and
213
677420
1164
...아니면
11:18
"I'll break your legs at TED."
214
678608
2126
"TED에서 다리 부러뜨려!" (무대에서 잘 하라는 관용적 표현)
11:20
(Laughter)
215
680758
1246
(웃음)
11:22
You are human,
216
682028
1513
여러분은 사람이기 때문에
11:23
that's why that's an obvious difference to you,
217
683565
2210
단어의 뜻이 사실상 거의 같아도
11:25
even though the words are pretty much the same.
218
685799
2224
의미의 차이를 명백히 느낄 수 있습니다.
11:28
But for AI, it takes some training to teach the models
219
688047
3079
하지만 인공지능에게 이러한 차이를 인지하도록 하려면
11:31
to recognize that difference.
220
691150
1571
훈련하는 시간이 조금 걸립니다.
11:32
The beauty of building AI that can tell the difference
221
692745
3245
차이점을 인지 할 수 있는 인공지능을 개발한다는 건
11:36
is that AI can then scale to the size of the online toxicity phenomenon,
222
696014
5050
결국 이 지능이 온라인 독성 현상을 해결할 만큼 발달할 수 있다는 겁니다.
11:41
and that was our goal in building our technology called Perspective.
223
701088
3287
이것이 바로 저희가 '퍼스펙티브' 라고 불리는 기술을 개발할 때 염두해 둔 목표입니다.
11:45
With the help of Perspective,
224
705056
1427
'퍼스펙티브'의 도움으로
11:46
the New York Times, for example,
225
706507
1583
예를 들어, 뉴욕 타임즈 지는
11:48
has increased spaces online for conversation.
226
708114
2487
온라인 상에서의 대화 가능 공간을 늘렸습니다.
11:51
Before our collaboration,
227
711005
1310
협력 전에는
11:52
they only had comments enabled on just 10 percent of their articles.
228
712339
4305
전체 기사 중 10%에만 댓글을 달 수 있었습니다.
11:57
With the help of machine learning,
229
717495
1644
머신 러닝을 통해
11:59
they have that number up to 30 percent.
230
719163
1897
이제는 그 수가 30%에 육박합니다.
12:01
So they've tripled it,
231
721084
1156
3배나 늘린 것이죠.
12:02
and we're still just getting started.
232
722264
1917
이건 겨우 시작에 불과한데도요.
12:04
But this is about way more than just making moderators more efficient.
233
724872
3461
하지만 이건 더 효과적으로 중재 역할을 시행해 내는 것에 그치는 일이 아닙니다.
12:10
Right now I can see you,
234
730076
1850
지금 저는 여러분을 볼 수 있고
12:11
and I can gauge how what I'm saying is landing with you.
235
731950
3294
제가 하는 말이 여러분에게 어떻게 들리는지 판단할 수 있죠.
12:16
You don't have that opportunity online.
236
736370
1879
온라인에서는 그런 기회가 없습니다.
12:18
Imagine if machine learning could give commenters,
237
738558
3635
만약 머신 러닝이 댓글을 다는 사람들에게
12:22
as they're typing,
238
742217
1162
실시간으로
12:23
real-time feedback about how their words might land,
239
743403
3347
그들이 다는 댓글이 어떻게 들릴지 알려준다면 어떨까요?
12:27
just like facial expressions do in a face-to-face conversation.
240
747609
3024
얼굴을 보고 대화 하면 표정을 볼 수 있듯이요.
12:32
Machine learning isn't perfect,
241
752926
1842
머신 러닝은 완벽하지 않습니다.
12:34
and it still makes plenty of mistakes.
242
754792
2394
아직도 실수를 잔뜩 저지릅니다.
12:37
But if we can build technology
243
757210
1557
하지만 우리가 만드는 기술이
12:38
that understands the emotional impact of language,
244
758791
3293
언어가 미치는 감정적인 영향력을 이해할 수 있다면
12:42
we can build empathy.
245
762108
1460
우린 공감을 자아낼 수 있습니다.
12:43
That means that we can have dialogue between people
246
763592
2425
그렇게 된다면, 우리는
12:46
with different politics,
247
766041
1816
다른 정치적 견해,
12:47
different worldviews,
248
767881
1216
세상을 바라보는 눈,
12:49
different values.
249
769121
1246
다른 가치에 대해 대화할 수 있게 됩니다.
12:51
And we can reinvigorate the spaces online that most of us have given up on.
250
771359
4775
그럼 우리 대부분이 포기했던 온라인 상의 공간들을 되살릴 수도 있겠죠.
12:57
When people use technology to exploit and harm others,
251
777857
3785
사람들이 기술을 악용해 다른 사람들에게 해를 입힐때
13:01
they're preying on our human fears and vulnerabilities.
252
781666
3642
인간의 두려움과 취약함을 먹이로 삼습니다.
13:06
If we ever thought that we could build an internet
253
786461
3508
우리가 만약 인간성의 어두운 면을 완벽 차단하는
13:09
insulated from the dark side of humanity,
254
789993
2578
인터넷을 개발 할 수 있다고 생각한 적이 있다면
13:12
we were wrong.
255
792595
1184
잘못 생각한 겁니다.
13:14
If we want today to build technology
256
794361
2270
오늘날 우리가 직면하는 문제들을 극복할 수 있는
13:16
that can overcome the challenges that we face,
257
796655
3127
기술을 개발해내고 싶다면
13:19
we have to throw our entire selves into understanding the issues
258
799806
4043
문제를 정확히 이해하는 것과 해결책을 만드는 것에
13:23
and into building solutions
259
803873
1893
온 힘을 다해야 합니다.
13:25
that are as human as the problems they aim to solve.
260
805790
3782
해결하고자 하는 문제만큼이나 인간적인 해결책을요.
13:30
Let's make that happen.
261
810071
1513
한번 이뤄내봅시다.
13:31
Thank you.
262
811924
1150
감사합니다.
13:33
(Applause)
263
813098
3277
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7