아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: J J LEE
검토: Bianca Lee
00:15
Mark Zuckerberg,
0
15260
2000
한 언론인이
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
마크 주커버그에게
뉴스 피드에 대한 질문을 했습니다.
00:20
And the journalist was asking him,
2
20260
2000
그 언론인은 이렇게 물었죠.
00:22
"Why is this so important?"
3
22260
2000
"이것이 왜 그렇게 중요한가요?"
00:24
And Zuckerberg said,
4
24260
2000
주커버그가 답했습니다.
00:26
"A squirrel dying in your front yard
5
26260
2000
"아프리카에서 죽어가는 사람들 보다
00:28
may be more relevant to your interests right now
6
28260
3000
여러분 앞마당에서 죽어가는 다람쥐가
00:31
than people dying in Africa."
7
31260
3000
지금 당장은 더 관심이 갈지도 모릅니다."
00:34
And I want to talk about
8
34260
2000
저는 관련성의 아이디어에 바탕을 둔
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
웹이 어떤 것인가에 대해서
말하고자 합니다.
00:40
So when I was growing up
10
40260
2000
제가 메인주의 시골에서
00:42
in a really rural area in Maine,
11
42260
2000
성장할 때는,
00:44
the Internet meant something very different to me.
12
44260
3000
인터넷은 제게 아주
다른 것을 의미했습니다.
00:47
It meant a connection to the world.
13
47260
2000
세계와의 연결을 의미했죠.
00:49
It meant something that would connect us all together.
14
49260
3000
우리를 다함께 연결할 뭔가를 의미했죠.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
저는 인터넷이 민주주의와 우리 사회에
00:55
and for our society.
16
55260
3000
유익할 것이라고 확신했습니다.
00:58
But there's this shift
17
58260
2000
하지만 온라인에서
01:00
in how information is flowing online,
18
60260
2000
어떻게 정보가 공급되는지에
변화가 존재하고,
01:02
and it's invisible.
19
62260
3000
그것은 눈에 띄지 않죠.
01:05
And if we don't pay attention to it,
20
65260
2000
그리고 거기에 관심을
기울이지 않는다면,
01:07
it could be a real problem.
21
67260
3000
진짜 문제가 될 수 있습니다.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
저는 이것을 제가 많은 시간을
보내는 페이스북에서
01:13
my Facebook page.
23
73260
2000
처음으로 인지했습니다.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
저는 진보적 정치 성향을 가지고 있습니다.
놀랄만한 일인가요.
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
하지만 저는 늘 보수적 성향의 사람들을
만나려고 노력했습니다.
01:20
I like hearing what they're thinking about;
26
80260
2000
저는 그들이 생각하는 바를
경청하기 좋아합니다.
01:22
I like seeing what they link to;
27
82260
2000
저는 그들이 연관되어 있는 것을
확인하기 좋아합니다.
01:24
I like learning a thing or two.
28
84260
2000
저는 이것 저것 배우는 것을 좋아합니다.
01:26
And so I was surprised when I noticed one day
29
86260
3000
그래서 어느날 보수주의자들이
제 페이스북 피드에서
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
사라졌다는 것을 알았을 때
깜짝 놀랐습니다.
01:33
And what it turned out was going on
31
93260
2000
페이스북이 제가 어떤 링크를
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
클릭하는지 살펴보고 있었고,
그것은 실제로
01:39
and it was noticing that, actually,
33
99260
2000
제가 보수적 성향의 친구들 보다
01:41
I was clicking more on my liberal friends' links
34
101260
2000
진보적 성향을 가진 친구들의 링크를
01:43
than on my conservative friends' links.
35
103260
3000
더 많이 클릭했다는 것을
나타내는 것이었죠.
01:46
And without consulting me about it,
36
106260
2000
그리고 제 의견을 묻지도 않고
01:48
it had edited them out.
37
108260
2000
페이스북은 그것을 편집해 버렸습니다.
01:50
They disappeared.
38
110260
3000
그들은 사라졌죠.
01:54
So Facebook isn't the only place
39
114260
2000
페이스북만이 이런 눈에 띄지 않는
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
알고리즘적인 웹 편집을
01:58
editing of the Web.
41
118260
3000
실행하고 있는 것이 아닙니다.
02:01
Google's doing it too.
42
121260
2000
구글 역시 그렇게 합니다.
02:03
If I search for something, and you search for something,
43
123260
3000
제가 뭔가를 검색하고,
여러분이 검색을 한다면,
02:06
even right now at the very same time,
44
126260
2000
바로 지금 동시에 검색을 할지라도,
02:08
we may get very different search results.
45
128260
3000
서로 다른 검색 결과를 얻을 것입니다.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
한 엔지니어가 제게 말하길,
비록 로그 아웃 했을지라도
02:14
there are 57 signals
47
134260
2000
여러분의 질의 결과에
02:16
that Google looks at --
48
136260
3000
개별적으로 맞추기 위해
02:19
everything from what kind of computer you're on
49
139260
3000
구글은 57개의 신호들을 살펴본다고 합니다.
02:22
to what kind of browser you're using
50
142260
2000
어떤 종류의 컴퓨터를 사용하는지,
02:24
to where you're located --
51
144260
2000
어떤 종류의 브라우저를 사용하는지,
02:26
that it uses to personally tailor your query results.
52
146260
3000
어느 지역에 있는지까지 모든 것을 말이죠.
02:29
Think about it for a second:
53
149260
2000
잠시 그것을 생각해보세요.
02:31
there is no standard Google anymore.
54
151260
4000
표준화된 구글은
더 이상 존재하지 않습니다.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
그리고 재미있는 것은
이것이 눈에 띄기 힘들다는 것입니다.
02:38
You can't see how different your search results are
56
158260
2000
여러분의 검색 결과가
다른 사람들의 것과
02:40
from anyone else's.
57
160260
2000
얼마나 다른지 볼 수 없습니다.
02:42
But a couple of weeks ago,
58
162260
2000
하지만 2주 전에,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
저는 친구들에게
구글에서 "이집트"를 검색해보고
02:47
and to send me screen shots of what they got.
60
167260
3000
그 결과의 스크린 샷을
보내달라고 부탁했습니다.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
여기 제 친구 스콧의
스크린 샷이 있습니다.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
그리고 제 친구 다니엘의
스크린 샷입니다.
02:57
When you put them side-by-side,
63
177260
2000
그것들을 나란히 놓고 볼 때,
02:59
you don't even have to read the links
64
179260
2000
이 두 페이지가 어떻게 다른지
03:01
to see how different these two pages are.
65
181260
2000
링크들을 읽어볼 필요도 없습니다.
03:03
But when you do read the links,
66
183260
2000
하지만 그 링크들을 읽어보면,
03:05
it's really quite remarkable.
67
185260
3000
정말 아주 놀랄만합니다.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
다니엘은 구글 검색 결과의
첫 페이지에서 이집트에서의
03:12
in his first page of Google results.
69
192260
2000
시위에 대해 아무런 결과도 얻지 못했습니다.
03:14
Scott's results were full of them.
70
194260
2000
스콧의 결과는 시위에 대해 가득했습니다.
03:16
And this was the big story of the day at that time.
71
196260
2000
시위는 그 당시의 가장 큰 뉴스거리였죠.
03:18
That's how different these results are becoming.
72
198260
3000
그것이 이 결과들이
얼마나 달라지는가 하는 것입니다.
03:21
So it's not just Google and Facebook either.
73
201260
3000
구글과 페이스북만 그런 것이 아닙니다.
03:24
This is something that's sweeping the Web.
74
204260
2000
이것은 웹에 광범위하게
나타나는 것입니다.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
이런 개인화를 실행하고 있는
수 많은 기업들이 존재합니다.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
인터넷 최대 뉴스 사이트인
야후 뉴스는
03:32
is now personalized -- different people get different things.
77
212260
3000
이제 개인화 되어, 서로 다른 사람들이
서로 다른 결과를 얻습니다.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
허핑톤 포스트, 워싱턴 포스트, 뉴욕 타임즈 등
03:39
all flirting with personalization in various ways.
79
219260
3000
모두가 개인화를 다양한 방식으로
시도하고 있습니다.
03:42
And this moves us very quickly
80
222260
3000
이것이 인터넷이 우리가 보기 원한다고
03:45
toward a world in which
81
225260
2000
생각하지만 우리가 반드시
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
볼 필요는 없는 것을 보여주는 세상으로
03:51
but not necessarily what we need to see.
83
231260
3000
빠르게 움직이게 하고 있습니다.
03:54
As Eric Schmidt said,
84
234260
3000
에릭 슈미트가
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"어떤 의미에서, 사람들이
그들에게 맞춰지지 않은
04:00
that has not in some sense
86
240260
2000
뭔가를 보고, 소비한다는 것은
04:02
been tailored for them."
87
242260
3000
매우 힘든 일이 될 것입니다."
라고 말한 대로
04:05
So I do think this is a problem.
88
245260
2000
저는 이것이 정말 문제라고
생각합니다.
04:07
And I think, if you take all of these filters together,
89
247260
3000
여러분이 이런 필터들과 알고리즘들을
04:10
you take all these algorithms,
90
250260
2000
함께 사용한다면, 제가 필터 버블이라
04:12
you get what I call a filter bubble.
91
252260
3000
부르는 것을 겪을 것이라고 생각합니다.
04:16
And your filter bubble is your own personal,
92
256260
3000
여러분의 필터 버블은 온라인에서
04:19
unique universe of information
93
259260
2000
살아가는 여러분만의 개인적인
04:21
that you live in online.
94
261260
2000
유일무이한 정보 우주입니다.
04:23
And what's in your filter bubble
95
263260
3000
여러분의 필터 버블 안에 있는 것은
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
여러분이 누구인가, 여러분이
무엇을 하는가에 달려있습니다.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
하지만 무엇이 포함될지
여러분이 결정하지 않습니다.
04:33
And more importantly,
98
273260
2000
그리고 보다 중요하게는,
04:35
you don't actually see what gets edited out.
99
275260
3000
실제로 무엇이 편집되어
사라지는지 확인하지 않습니다.
04:38
So one of the problems with the filter bubble
100
278260
2000
필터 버블의 문제점 중 하나는
04:40
was discovered by some researchers at Netflix.
101
280260
3000
넷플릭스의 연구자들에 의해
발견되었습니다.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
그들은 넷플릭스의 큐(queue)를 들여다 봤고, 아마도 우리 중 많은 수가 인지해 왔을
04:46
that a lot of us probably have noticed,
103
286260
2000
재미난 뭔가를 알아냈습니다.
04:48
which is there are some movies
104
288260
2000
압축 된 후, 즉시 우리의 가정으로
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
압축이 해제됬던
영화 파일들이 있었던 겁니다.
04:53
They enter the queue, they just zip right out.
106
293260
3000
영화들은 큐에 들어가고,
바로 압축이 해제됩니다.
04:56
So "Iron Man" zips right out,
107
296260
2000
"아이언맨"은 바로 압축이 풀어지고,
04:58
and "Waiting for Superman"
108
298260
2000
"슈퍼맨을 기다리며"는
05:00
can wait for a really long time.
109
300260
2000
오랜 시간 대기열을 탑니다.
05:02
What they discovered
110
302260
2000
우리 넷플릭스 큐에서
05:04
was that in our Netflix queues
111
304260
2000
그들이 발견한 것은
05:06
there's this epic struggle going on
112
306260
3000
우리 열망하는 미래의 자아들과
05:09
between our future aspirational selves
113
309260
3000
보다 충동적인 현재의 자아 사이에서
05:12
and our more impulsive present selves.
114
312260
3000
서사시적인 투쟁이 존재한다는 것입니다.
05:15
You know we all want to be someone
115
315260
2000
우리는 모두 "라쇼몽"을 본
05:17
who has watched "Rashomon,"
116
317260
2000
사람이 되기를 바라지만,
05:19
but right now
117
319260
2000
당장은
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
"에이스 벤츄라"를
네 번째로 보기 원합니다.
05:24
(Laughter)
119
324260
3000
(웃음)
05:27
So the best editing gives us a bit of both.
120
327260
2000
최상의 편집은 우리에게
양쪽 측면을 조금씩 건내줍니다.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
저스틴 비버에 대해 조금,
05:31
and a little bit of Afghanistan.
122
331260
2000
아프가니스탄에 대해 조금 건내주죠.
05:33
It gives us some information vegetables;
123
333260
2000
그것은 우리에게
정보 야채를 제공합니다.
05:35
it gives us some information dessert.
124
335260
3000
그것은 우리에게
정보 디저트를 제공하죠.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
이런 종류의 알고리즘 필터,
05:40
these personalized filters,
126
340260
2000
개인화 필터의 문제점은
05:42
is that, because they're mainly looking
127
342260
2000
여러분이 가장 처음에 무엇을 클릭하는지
05:44
at what you click on first,
128
344260
4000
주로 탐색을 하기 때문에
05:48
it can throw off that balance.
129
348260
4000
균형을 깰 수가 있다는 것입니다.
05:52
And instead of a balanced information diet,
130
352260
3000
균형잡힌 정보 식단 대신에,
05:55
you can end up surrounded
131
355260
2000
정보 정크 푸드로
05:57
by information junk food.
132
357260
2000
둘러싸일 수 있습니다.
05:59
What this suggests
133
359260
2000
이것은 실제로 인터넷에 대해
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
우리가 원하는 것이 아닌 기사를
볼 수도 있다는 것을 시사합니다.
06:04
In a broadcast society --
135
364260
2000
정보 배급 사회에서
06:06
this is how the founding mythology goes --
136
366260
2000
이것은 어떻게 시작되는
이야기인가 하는 것입니다.
06:08
in a broadcast society,
137
368260
2000
방송 사회에서는
06:10
there were these gatekeepers, the editors,
138
370260
2000
정보관리자, 편집자가 있어서
06:12
and they controlled the flows of information.
139
372260
3000
정보의 흐름을 제어했습니다.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
인터넷이 등장하자 모든 것을 쓸어버렸고,
06:18
and it allowed all of us to connect together,
141
378260
2000
우리 모두가 함께 연결되도록 했습니다.
06:20
and it was awesome.
142
380260
2000
그것은 정말 대단했습니다.
06:22
But that's not actually what's happening right now.
143
382260
3000
하지만 그것은 실제로
바로 지금 벌어지는 일이 아닙니다.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
우리가 보고 있는 것은 오히려
인간 정보 관리자에서
06:29
from human gatekeepers
145
389260
2000
알고리즘 정보 관리자로
06:31
to algorithmic ones.
146
391260
3000
주도권이 넘어가는 것입니다.
06:34
And the thing is that the algorithms
147
394260
3000
문제는 그 알고리즘은 아직까지
06:37
don't yet have the kind of embedded ethics
148
397260
3000
편집자들과 같이 일종의 내면적 윤리를
06:40
that the editors did.
149
400260
3000
가지고 있지 못하다는 것입니다.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
그래서 알고리즘이 우리를 위해
세상을 조율할 것이라면,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
또 알고리즘이 우리가 무엇을 보고
보지 않을지 결정할 것이라면,
06:49
then we need to make sure
152
409260
2000
그것이 그저 관련성에
06:51
that they're not just keyed to relevance.
153
411260
3000
맞춰진 것이 아님을 확실히 할
필요가 있습니다.
06:54
We need to make sure that they also show us things
154
414260
2000
또한 거북하거나,
도전적이거나, 또는 중요한
06:56
that are uncomfortable or challenging or important --
155
416260
3000
다른 관점들을 우리에게
보여주기도 한다는 것을
06:59
this is what TED does --
156
419260
2000
확실히 할 필요가 있습니다.
07:01
other points of view.
157
421260
2000
이것이 TED가 하는 일입니다.
07:03
And the thing is, we've actually been here before
158
423260
2000
우린 사실 하나의 사회로서 전에 여기
07:05
as a society.
159
425260
2000
있어왔던 것입니다.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
그것은 1915년 신문들이
그들의 시민적 책임에 대해
07:11
about their civic responsibilities.
161
431260
3000
많이 노력했던 것과는 다릅니다.
07:14
Then people noticed
162
434260
2000
그 당시 사람들은
07:16
that they were doing something really important.
163
436260
3000
신문이 아주 중요한 일을
하고 있음을 인지했습니다.
07:19
That, in fact, you couldn't have
164
439260
2000
사실, 시민들에게 괜찮은 정보가
07:21
a functioning democracy
165
441260
2000
유입되지 못한다면,
07:23
if citizens didn't get a good flow of information,
166
443260
4000
민주주의가 제 기능을
할 수가 없습니다.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
신문이 필터로서 작용했기 때문에
매우 중요했고,
07:31
and then journalistic ethics developed.
168
451260
2000
그리고 나서 기자의 윤리가
발전했습니다.
07:33
It wasn't perfect,
169
453260
2000
완벽하지는 않지만,
07:35
but it got us through the last century.
170
455260
3000
우리가 지난 세기를 지나오게 했습니다.
07:38
And so now,
171
458260
2000
그래서 현재,
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
우리는 웹상에서 1915년으로
돌아와 있는 것과 같습니다.
07:44
And we need the new gatekeepers
173
464260
3000
그런 책임을 그들이 만들고 있는
07:47
to encode that kind of responsibility
174
467260
2000
코드로 표현할
07:49
into the code that they're writing.
175
469260
2000
새로운 정보 관리자가 필요합니다.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
페이스북과 구글에 있는 많은 분들이
여기 오신 것으로 압니다.
07:54
Larry and Sergey --
177
474260
2000
래리와 세르게이는
07:56
people who have helped build the Web as it is,
178
476260
2000
현재 상황으로 웹을 구축하는데
일조한 사람들이고,
07:58
and I'm grateful for that.
179
478260
2000
그것에 대단히 감사를 드립니다.
08:00
But we really need you to make sure
180
480260
3000
하지만 거기 있는 이 알고리즘들이
08:03
that these algorithms have encoded in them
181
483260
3000
공공의 삶의 의미와
시민적 책임의 의미로
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
만들어진 것인지 확실히 할
필요가 있습니다.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
우리 필터들을 통해서 결정하는 규칙들이
08:12
that we can see what the rules are
184
492260
2000
어떤 것인지 볼 수 있을만큼
충분히 투명한지
08:14
that determine what gets through our filters.
185
494260
3000
확실히 할 필요가 있습니다.
08:17
And we need you to give us some control
186
497260
2000
여러분이 저희에게
약간의 제어권을 주면
08:19
so that we can decide
187
499260
2000
무엇이 전달되고
08:21
what gets through and what doesn't.
188
501260
3000
무엇이 그렇지 않을지
결정할 수 있습니다.
08:24
Because I think
189
504260
2000
저는 우리 모두가
08:26
we really need the Internet to be that thing
190
506260
2000
꿈꾸는 것이 되는 인터넷이 정말
08:28
that we all dreamed of it being.
191
508260
2000
필요하다고 생각하기 때문입니다.
08:30
We need it to connect us all together.
192
510260
3000
우리 모두를 연결하기 위해
그것이 필요합니다.
08:33
We need it to introduce us to new ideas
193
513260
3000
우리에게 새로운 아이디어와
새로운 사람들,
08:36
and new people and different perspectives.
194
516260
3000
다른 시각들을 소개하기 위해
그것이 필요합니다.
08:40
And it's not going to do that
195
520260
2000
웹에서 우리 모두가 개개인으로 외따로 있다면
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
그렇게 되지 않을 것입니다.
08:45
Thank you.
197
525260
2000
감사합니다.
08:47
(Applause)
198
527260
11000
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.