The moral bias behind your search results | Andreas Ekström

142,235 views

2015-12-07 ・ TED


New videos

The moral bias behind your search results | Andreas Ekström

142,235 views ・ 2015-12-07

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Ju Hye Lim 검토: Sanghyun Hahn
00:13
So whenever I visit a school and talk to students,
0
13087
2493
저는 학교에서 학생들에게 강연할 때마다
00:15
I always ask them the same thing:
1
15604
2143
항상 똑같은 것을 묻습니다.
00:18
Why do you Google?
2
18754
1434
왜 구글을 쓰니?
00:20
Why is Google the search engine of choice for you?
3
20624
3397
왜 검색엔진으로 구글을 선택했니?
00:24
Strangely enough, I always get the same three answers.
4
24855
2552
신기하게도, 항상 답은 세 개로 똑같습니다.
00:27
One, "Because it works,"
5
27431
2039
첫 번째는 "잘 되니까요."입니다.
00:29
which is a great answer; that's why I Google, too.
6
29494
2906
훌륭한 대답이죠. 저도 그래서 구글을 씁니다.
00:32
Two, somebody will say,
7
32424
2033
두 번째로 어떤 이들은 이렇게 말합니다.
00:34
"I really don't know of any alternatives."
8
34481
2640
"다른 건 뭐가 있는지 잘 몰라요."
00:37
It's not an equally great answer and my reply to that is usually,
9
37708
3128
첫 번째 대답만큼 좋진 않지만 이에 대한 제 대답은 주로 이렇습니다.
00:40
"Try to Google the word 'search engine,'
10
40860
1921
"''검색엔진'을 구글에 쳐 봐.
00:42
you may find a couple of interesting alternatives."
11
42805
2402
괜찮은 사이트를 한 두 개 찾을 수도 있어."
00:45
And last but not least, thirdly,
12
45231
2095
마지막으로, 세 번째 대답으로는
00:47
inevitably, one student will raise her or his hand and say,
13
47350
3310
꼭 한 명의 학생이 손을 들고 이렇게 말합니다.
00:50
"With Google, I'm certain to always get the best, unbiased search result."
14
50684
5183
"구글은 언제나 편향되지 않은 최고의 검색결과를 가져다 주니까요."
00:57
Certain to always get the best, unbiased search result.
15
57157
6506
언제나 편향되지 않은 최고의 검색결과를 가져다 준다고요.
01:05
Now, as a man of the humanities,
16
65091
2390
인류의 한 사람으로서
01:07
albeit a digital humanities man,
17
67505
2181
디지털 인류의 사람일지라도.
01:09
that just makes my skin curl,
18
69710
1738
소름이 돋게 만드는 말입니다.
01:11
even if I, too, realize that that trust, that idea of the unbiased search result
19
71472
4886
비편파적 검색결과에 대한 신뢰와 생각이 우리의
01:16
is a cornerstone in our collective love for and appreciation of Google.
20
76382
3855
구글에 대한 집단적 사랑과 감사의 초석이라는 것을 저도 알지만 말이죠.
01:20
I will show you why that, philosophically, is almost an impossibility.
21
80658
4258
제가 왜 이것이 철학적으로 거의 불가능한지 보여드리겠습니다.
01:24
But let me first elaborate, just a little bit, on a basic principle
22
84940
3254
하지만 먼저 모든 검색어 이면의 우리가 가끔 잊어버리곤 하는
01:28
behind each search query that we sometimes seem to forget.
23
88218
3113
기본 원칙에 대해 조금만 설명드리겠습니다.
01:31
So whenever you set out to Google something,
24
91851
2080
뭔가를 구글에 치려고 할 때마다
01:33
start by asking yourself this: "Am I looking for an isolated fact?"
25
93955
3927
먼저 이 질문을 스스로에게 물어보세요. "객관적 사실을 찾는 것인가?"
01:38
What is the capital of France?
26
98334
3161
프랑스의 수도는 어디인가?
01:41
What are the building blocks of a water molecule?
27
101519
2425
물 분자의 구성요소는 무엇인가?
01:43
Great -- Google away.
28
103968
2341
좋아요-- 마음껏 검색하세요.
01:46
There's not a group of scientists who are this close to proving
29
106333
3120
그 정답이 런던이나 H3O라고 증명할
01:49
that it's actually London and H30.
30
109477
1997
과학자 집단은 하나도 없으니까요.
01:51
You don't see a big conspiracy among those things.
31
111498
2371
이런 것들에는 큰 음모랄게 없는거죠.
01:53
We agree, on a global scale,
32
113893
1533
세계적으로 우리는
01:55
what the answers are to these isolated facts.
33
115450
2725
이 객관적 사실의 답에 동의하죠.
01:58
But if you complicate your question just a little bit and ask something like,
34
118199
5302
하지만 질문을 약간 더 복잡하게 만들어
02:03
"Why is there an Israeli-Palestine conflict?"
35
123525
2683
"왜 이스라엘과 팔레스타인 분쟁이 일어나는가?" 같은 다른 질문을 물으면
02:06
You're not exactly looking for a singular fact anymore,
36
126978
2640
더 이상 하나의 사실을 찾는 게 아닙니다.
02:09
you're looking for knowledge,
37
129642
1833
지식을 찾는거죠.
02:11
which is something way more complicated and delicate.
38
131499
2578
지식은 훨씬 더 복잡하고 까다롭습니다.
02:14
And to get to knowledge,
39
134600
1549
그리고 지식을 얻으려면
02:16
you have to bring 10 or 20 or 100 facts to the table
40
136173
3031
10개, 20개 또는 100개의 사실을 논의 대상으로 가져와
02:19
and acknowledge them and say, "Yes, these are all true."
41
139228
2976
모두 사실이라는 걸 인정해야 합니다.
02:22
But because of who I am,
42
142228
1674
하지만 자신이 누구냐에 따라
02:23
young or old, black or white, gay or straight,
43
143926
2270
젊든 늙었든, 흑인이든 백인이든 동성애자든 이성애자든
02:26
I will value them differently.
44
146220
1611
사람들은 각자 다르게 평가내릴 것입니다.
02:27
And I will say, "Yes, this is true,
45
147855
1688
저는 이렇게 말하겠죠. "그래, 이게 사실이지만
02:29
but this is more important to me than that."
46
149567
2114
이게 나한테 저것보다 중요해."
02:31
And this is where it becomes interesting,
47
151705
1990
여기서부터 재밌어집니다,
02:33
because this is where we become human.
48
153719
2146
이 부분에서 인간적인 모습을 보이기 때문이죠.
02:35
This is when we start to argue, to form society.
49
155889
2996
여기서 우리는 논쟁하기 시작하고 집단을 형성합니다.
02:38
And to really get somewhere, we need to filter all our facts here,
50
158909
3357
그리고 정말 어딘가에 도달하려면 친구나, 이웃, 부모님,
02:42
through friends and neighbors and parents and children
51
162290
2556
자식, 직장동료, 신문, 잡지를 통해
02:44
and coworkers and newspapers and magazines,
52
164870
2032
모든 사실을 걸러내야 합니다.
02:46
to finally be grounded in real knowledge,
53
166926
3080
궁극적으로 진리 속에 둘러싸이기 위해선 말입니다.
02:50
which is something that a search engine is a poor help to achieve.
54
170030
4047
이건 검색엔진이 도움이 안 되는 부분입니다.
02:55
So, I promised you an example just to show you why it's so hard
55
175284
6328
제가 생각해 볼 거리로 왜 진실되고 깨끗하고 객관적인
03:01
to get to the point of true, clean, objective knowledge --
56
181636
3404
지식에 도달하는 것이 왜 그렇게 어려운지 보여주는
03:05
as food for thought.
57
185064
1468
예시를 약속했었죠?
03:06
I will conduct a couple of simple queries, search queries.
58
186556
3893
한 두 개 간단한 검색어를 검색해보겠습니다,
03:10
We'll start with "Michelle Obama,"
59
190473
4040
미국의 영부인인
03:14
the First Lady of the United States.
60
194537
1804
"미셸 오바마"부터 해보죠.
03:16
And we'll click for pictures.
61
196365
1729
이미지를 누르면
03:19
It works really well, as you can see.
62
199007
2272
보시다시피 정말 잘 되네요.
03:21
It's a perfect search result, more or less.
63
201303
3028
검색결과가 거의 완벽하네요.
03:24
It's just her in the picture, not even the President.
64
204355
2750
정말 영부인만 있고 대통령 조차 같이 없습니다.
03:27
How does this work?
65
207664
1313
어떤 원리일까요?
03:29
Quite simple.
66
209837
1372
꽤 간단합니다.
03:31
Google uses a lot of smartness to achieve this, but quite simply,
67
211233
3215
구글은 기발한 방법도 많이 동원하지만 사실 단순하게,
03:34
they look at two things more than anything.
68
214472
2060
다른 것보다 두 가지를 중점적으로 봅니다.
03:36
First, what does it say in the caption under the picture on each website?
69
216556
5156
먼저, 웹사이트 상의 사진 밑에 있는 설명에 뭐라고 쓰여있는가?
03:41
Does it say "Michelle Obama" under the picture?
70
221736
2215
"미셸 오바마"라고 적혀 있는가?
03:43
Pretty good indication it's actually her on there.
71
223975
2356
그렇다면 정말로 영부인 사진일 가능성이 크죠.
03:46
Second, Google looks at the picture file,
72
226355
2386
두 번째로, 구글은 사진 파일을 봅니다.
03:48
the name of the file as such uploaded to the website.
73
228765
3032
웹사이트에 올려진 파일의 이름을 봅니다.
03:51
Again, is it called "MichelleObama.jpeg"?
74
231821
2669
파일명이 "미셸오바마.jpg"인가?
03:54
Pretty good indication it's not Clint Eastwood in the picture.
75
234839
2922
사진이 클린트 이스트우드가 아니라는 걸 잘 말해주죠.
03:57
So, you've got those two and you get a search result like this -- almost.
76
237785
4265
그렇게 두 가지가 갖춰지면 대개는 이런 검색결과가 나옵니다.
04:02
Now, in 2009, Michelle Obama was the victim of a racist campaign,
77
242074
6603
2009년에 미셸 오바마는 인종차별 캠페인의 피해자였습니다.
04:08
where people set out to insult her through her search results.
78
248701
4015
사람들은 검색 결과로 그녀에게 모욕을 주려 했죠.
04:13
There was a picture distributed widely over the Internet
79
253430
2702
인터넷에 그녀의 얼굴을 원숭이처럼
04:16
where her face was distorted to look like a monkey.
80
256156
2644
왜곡시킨 사진이 인터넷에 널리 퍼졌었습니다.
04:18
And that picture was published all over.
81
258824
3169
모든 곳에 게시되었죠.
04:22
And people published it very, very purposefully,
82
262017
3761
사람들은 다분히 의도적으로 사진이 상위 검색 결과에
04:25
to get it up there in the search results.
83
265802
1971
뜨도록 게시했습니다.
04:27
They made sure to write "Michelle Obama" in the caption
84
267797
2955
사진 설명에 반드시 "미셸 오바마"를 넣었고
04:30
and they made sure to upload the picture as "MichelleObama.jpeg," or the like.
85
270776
4177
파일명을 "미셸오바마.jpg" 나 비슷한 이름으로 올렸습니다.
04:34
You get why -- to manipulate the search result.
86
274977
2367
검색결과를 조작하기 위해서였다는 거 아시겠죠.
04:37
And it worked, too.
87
277368
1295
이 수법은 통했습니다.
04:38
So when you picture-Googled for "Michelle Obama" in 2009,
88
278687
2720
2009년에 "미셸 오바마"의 이미지를 검색하면
04:41
that distorted monkey picture showed up among the first results.
89
281431
3387
가장 먼저 뜨는 결과들 중에 일그러진 원숭이 사진이 있었습니다.
04:44
Now, the results are self-cleansing,
90
284842
3566
검색 결과는 정화능력이 있습니다.
04:48
and that's sort of the beauty of it,
91
288432
1753
그게 사실 좋은 점이죠.
04:50
because Google measures relevance every hour, every day.
92
290209
3403
구글이 연관성을 매 시간, 매일 체크하기 때문입니다.
04:53
However, Google didn't settle for that this time,
93
293636
2714
하지만 구글은 이 때 그 이상을 했습니다.
04:56
they just thought, "That's racist and it's a bad search result
94
296374
3124
그들은 이렇게만 생각했습니다. "인종차별적이고 부적절한
04:59
and we're going to go back and clean that up manually.
95
299522
3135
검색결과니까 수동으로 정화시켜야겠어.
05:02
We are going to write some code and fix it,"
96
302681
2932
코드를 입력해서 고치자."
05:05
which they did.
97
305637
1247
그리고 그렇게 했습니다.
05:07
And I don't think anyone in this room thinks that was a bad idea.
98
307454
3742
여러분 중에 누구라도 이게 나쁜 생각이라 여기지 않을 겁니다.
05:11
Me neither.
99
311789
1164
저도 그렇습니다.
05:14
But then, a couple of years go by,
100
314802
3032
그런데 2년 후에
05:17
and the world's most-Googled Anders,
101
317858
2984
세계에서 가장 많이 검색된
05:20
Anders Behring Breivik,
102
320866
2279
안드레스 베링 브레이비크가
05:23
did what he did.
103
323169
1706
사건을 일으켰습니다.
05:24
This is July 22 in 2011,
104
324899
2001
2011년 7월 22일이었는데
05:26
and a terrible day in Norwegian history.
105
326924
2649
노르웨이 역사상 최악의 날이었습니다.
05:29
This man, a terrorist, blew up a couple of government buildings
106
329597
3787
테러리스트였던 그는 지금 우리가 있는 곳에서
05:33
walking distance from where we are right now in Oslo, Norway
107
333408
2883
걸어서 갈 수 있을만큼 가까이 있던 정부 청사 두 개를 폭파시키고
05:36
and then he traveled to the island of Utøya
108
336315
2051
우퇴야 섬으로 가서
05:38
and shot and killed a group of kids.
109
338390
2223
아이들을 모아놓고 쏘아 죽였습니다.
05:41
Almost 80 people died that day.
110
341113
1728
그 날 거의 80명의 사람들이 죽었죠.
05:44
And a lot of people would describe this act of terror as two steps,
111
344397
4559
많은 사람들이 이 테러행각을 두 단계로 묘사합니다.
05:48
that he did two things: he blew up the buildings and he shot those kids.
112
348980
3411
빌딩을 폭파시키고 아이들을 쏴 죽이는 두 가지 사건을 일으켰다고 합니다.
05:52
It's not true.
113
352415
1165
하지만 사실이 아닙니다.
05:54
It was three steps.
114
354326
2143
세 단계가 있었죠.
05:56
He blew up those buildings, he shot those kids,
115
356493
2214
건물을 폭파시키고 아이들을 쏜 다음
05:58
and he sat down and waited for the world to Google him.
116
358731
3644
앉아서 세계가 그를 구글에 검색하기를 기다렸습니다.
06:03
And he prepared all three steps equally well.
117
363227
2627
그는 세 단계를 다 잘 준비했습니다.
06:06
And if there was somebody who immediately understood this,
118
366544
2790
이걸 바로 알아차린 사람은 스웨덴인으로 스톡홀름에 사는
06:09
it was a Swedish web developer,
119
369358
1524
웹사이트 개발자이자
06:10
a search engine optimization expert in Stockholm, named Nikke Lindqvist.
120
370906
3623
검색 엔진 최적화 전문가인 니키 린드크비스트뿐이었습니다.
06:14
He's also a very political guy
121
374553
1588
굉장히 정치적인 사람이었죠.
06:16
and he was right out there in social media, on his blog and Facebook.
122
376165
3276
소셜미디어와 블로그와 페이스북을 하는 사람이었죠.
06:19
And he told everybody,
123
379465
1206
그는 모든 사람에게
06:20
"If there's something that this guy wants right now,
124
380695
2455
"이 남자가 지금 바라는 게 있다면
06:23
it's to control the image of himself.
125
383174
2459
바로 자기 이미지를 조종하는 겁니다.
06:26
Let's see if we can distort that.
126
386760
1960
그걸 우리가 막아봅시다.
06:29
Let's see if we, in the civilized world, can protest against what he did
127
389490
3977
문명화된 세상에 사는 우리가 검색 결과로 그에게 모욕을 줘서
06:33
through insulting him in his search results."
128
393491
3317
그가 한 행동에 대해 시위할 수 있는지 봅시다."
06:36
And how?
129
396832
1187
어떻게 하는 걸까요?
06:38
He told all of his readers the following,
130
398797
2056
니키는 모든 구독자에게 이렇게 말했습니다.
06:40
"Go out there on the Internet,
131
400877
1864
"인터넷에 들어가서
06:42
find pictures of dog poop on sidewalks --
132
402765
2895
길거리에 있는 개똥 사진을 찾아,
06:46
find pictures of dog poop on sidewalks --
133
406708
2174
길거리에 있는 개똥 사진을 찾아,
06:48
publish them in your feeds, on your websites, on your blogs.
134
408906
3470
여러분의 뉴스피드, 웹사이트, 블로그에 올리세요.
06:52
Make sure to write the terrorist's name in the caption,
135
412400
2921
제목에 테러리스트의 이름을 넣는 것을 잊지 마세요.
06:55
make sure to name the picture file "Breivik.jpeg."
136
415345
4487
파일명을 꼭 "브레이비크.jpg"로 붙이세요.
06:59
Let's teach Google that that's the face of the terrorist."
137
419856
3801
구글에게 그게 테러리스트의 얼굴이라는 걸 보여줍시다."
07:05
And it worked.
138
425552
1278
그리고 이게 먹혀들었습니다.
07:07
Two years after that campaign against Michelle Obama,
139
427853
2898
미셸 오바마를 반대하는 운동이 일어나고 2년 후에
07:10
this manipulation campaign against Anders Behring Breivik worked.
140
430775
3266
안드레스 베링 브레이비크를 반대하는 조작 운동이 통했습니다.
07:14
If you picture-Googled for him weeks after the July 22 events from Sweden,
141
434065
4462
7월 22일이 몇 주나 지난 시점에서 이미지 검색을 해도
07:18
you'd see that picture of dog poop high up in the search results,
142
438551
4327
여전히 상위 검색 결과에 개똥 사진이 떴습니다.
07:22
as a little protest.
143
442902
1444
일종의 시위였죠.
07:25
Strangely enough, Google didn't intervene this time.
144
445425
4132
재미있게도 이번엔 구글이 개입하지 않았습니다.
07:30
They did not step in and manually clean those search results up.
145
450494
4272
나서서 수동적으로 검색 결과를 정화하려고 하지 않았습니다.
07:35
So the million-dollar question,
146
455964
1716
그렇다면 중요한 질문은 이겁니다.
07:37
is there anything different between these two happenings here?
147
457704
3368
두 사건 사이에 차이가 있는가?
07:41
Is there anything different between what happened to Michelle Obama
148
461096
3193
미셸 오바마에게 일어난 일과 브레이비크에게 일어난 일에
07:44
and what happened to Anders Behring Breivik?
149
464313
2065
차이가 있는가?
07:46
Of course not.
150
466402
1284
당연히 없습니다.
07:48
It's the exact same thing,
151
468861
1471
완전히 동일합니다.
07:50
yet Google intervened in one case and not in the other.
152
470356
2864
그런데도 구글은 한 번은 개입하고 다른 한 번은 안했죠.
07:53
Why?
153
473244
1253
왜일까요?
07:55
Because Michelle Obama is an honorable person, that's why,
154
475283
3300
미셸 오바마는 존경스러운 인물이고
07:58
and Anders Behring Breivik is a despicable person.
155
478607
2916
안드레스 베링 브레이비크는 파렴치한 인간이기 때문입니다.
08:02
See what happens there?
156
482142
1535
무슨 일이 벌어지고 있는지 아시겠어요?
08:03
An evaluation of a person takes place
157
483701
3255
인물에 대한 평가가 이루어지고,
08:06
and there's only one power-player in the world
158
486980
3786
세상에는 누가 어떤 사람인지 말할 수 있는 권위를 가진
08:10
with the authority to say who's who.
159
490790
2480
권력자는 단 하나밖에 없습니다.
08:13
"We like you, we dislike you.
160
493882
1741
"우리는 너가 좋아, 우리는 너가 싫어.
08:15
We believe in you, we don't believe in you.
161
495647
2039
우리는 널 믿어. 우리는 널 안 믿어.
08:17
You're right, you're wrong. You're true, you're false.
162
497710
2547
너는 맞고 너는 틀려. 너는 사실이고 너는 거짓이야."
08:20
You're Obama, and you're Breivik."
163
500281
1805
넌 오바마고 넌 브레이비크야."
08:22
That's power if I ever saw it.
164
502791
2000
바로 그게 권력입니다.
08:27
So I'm asking you to remember that behind every algorithm
165
507206
3652
그래서 저는 여러분들께 모든 알고리즘 뒤에는 항상
08:30
is always a person,
166
510882
1777
그 어떤 코드도
08:32
a person with a set of personal beliefs
167
512683
2495
완전히 말살할 수 없는 자기만의 신념을 가진
08:35
that no code can ever completely eradicate.
168
515202
2525
사람이 있다는 걸 기억해달라고 부탁하고 싶습니다.
08:37
And my message goes out not only to Google,
169
517751
2434
그리고 제가 드리는 말씀은 구글뿐만이 아니라
08:40
but to all believers in the faith of code around the world.
170
520209
2810
코드를 신뢰하는 전세계 모든 사람들에게도 해당됩니다.
08:43
You need to identify your own personal bias.
171
523043
2976
여러분은 자신이 가진 편견을 구분해내야 합니다.
08:46
You need to understand that you are human
172
526043
2013
자신이 인간이라는 걸 받아들이고
08:48
and take responsibility accordingly.
173
528080
2491
그에 맞는 책임을 져야 합니다.
08:51
And I say this because I believe we've reached a point in time
174
531891
2938
제가 이 말을 하는 이유는 우리가 인간과 기술 간의
08:54
when it's absolutely imperative
175
534853
1555
유대를 더 공고히해야 하는
08:56
that we tie those bonds together again, tighter:
176
536432
3217
절대적으로 중요한 시점에
08:59
the humanities and the technology.
177
539673
2368
다다랐다고 생각하기 때문입니다.
09:02
Tighter than ever.
178
542483
1805
그 어느 때보다 끈끈해야 하죠.
09:04
And, if nothing else, to remind us that that wonderfully seductive idea
179
544312
3339
그리고 정말 매력적으로 보이는 편파적이지 않고 깨끗한 검색 결과는
09:07
of the unbiased, clean search result
180
547675
2668
지금도, 앞으로도 허구로 남을 가능성이
09:10
is, and is likely to remain, a myth.
181
550367
2767
높다는 걸 최소한 일깨워드리기 위해서입니다.
09:13
Thank you for your time.
182
553984
1159
시간 내 주셔서 감사합니다.
09:15
(Applause)
183
555167
2432
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7