아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Sue J. Hur
검토: Young-ho Park
00:15
This is a photograph
0
15260
2000
이것은 마이클 나자라는 예술가의
00:17
by the artist Michael Najjar,
1
17260
2000
작품인데 그가 실제로 아르헨티나에
00:19
and it's real,
2
19260
2000
가서 찍은 사진이니까
00:21
in the sense that he went there to Argentina
3
21260
2000
실제 사진이라고도
00:23
to take the photo.
4
23260
2000
말할 수 있죠.
00:25
But it's also a fiction. There's a lot of work that went into it after that.
5
25260
3000
하지만, 이 사진은 많은 작업을 한 사진이기 때문에 가짜 사진이라고 말할 수도 있죠.
00:28
And what he's done
6
28260
2000
이것은 사실 디지털 작업을 통해
00:30
is he's actually reshaped, digitally,
7
30260
2000
다우존스 지수가 변동한
00:32
all of the contours of the mountains
8
32260
2000
모양에 따라 산의 등고선을
00:34
to follow the vicissitudes of the Dow Jones index.
9
34260
3000
조작한 사진이지요.
00:37
So what you see,
10
37260
2000
여기에 보이는 계곡의
00:39
that precipice, that high precipice with the valley,
11
39260
2000
높은 절벽은
00:41
is the 2008 financial crisis.
12
41260
2000
2008년 금융위기를 나타내죠.
00:43
The photo was made
13
43260
2000
이 사진은 우리의 경제가 저 깊숙한
00:45
when we were deep in the valley over there.
14
45260
2000
계곡안에 있었을때 찍은것이지요.
00:47
I don't know where we are now.
15
47260
2000
요즘 요즘 다우존스는 어떤지 모르겠습니다.
00:49
This is the Hang Seng index
16
49260
2000
이 사진은 홍콩
00:51
for Hong Kong.
17
51260
2000
항생지수인데
00:53
And similar topography.
18
53260
2000
전체적 양상이 비슷하네요.
00:55
I wonder why.
19
55260
2000
왜 그럴까요?
00:57
And this is art. This is metaphor.
20
57260
3000
이것은 예술인 동시에 메타포죠.
01:00
But I think the point is
21
60260
2000
그런데 이 메타포에는 알고리즘 자체가
01:02
that this is metaphor with teeth,
22
62260
2000
실세계에 영향을 미친다는 의미가 있지요.
01:04
and it's with those teeth that I want to propose today
23
64260
3000
알고리즘은 실세계에 영향을 미치기 때문에 저는
01:07
that we rethink a little bit
24
67260
2000
금융수학 같은 현대 수학 뿐만 아니라
01:09
about the role of contemporary math --
25
69260
3000
일반적인 수학의 역할도
01:12
not just financial math, but math in general.
26
72260
3000
재고할 것을 저는 여러분께 건의합니다.
01:15
That its transition
27
75260
2000
저는 또한 우리가 세계로 부터 추출하고
01:17
from being something that we extract and derive from the world
28
77260
3000
유도해 내는 데이터가 우리의 생활과
01:20
to something that actually starts to shape it --
29
80260
3000
우리를 둘러싸는 세계를
01:23
the world around us and the world inside us.
30
83260
3000
실지로 만드는 전이 과정, 그리고
01:26
And it's specifically algorithms,
31
86260
2000
컴퓨터가 결정을 내릴 때 사용되는 수학,
01:28
which are basically the math
32
88260
2000
특히 알고리즘에 대해
01:30
that computers use to decide stuff.
33
90260
3000
말씀드리고자 합니다.
01:33
They acquire the sensibility of truth
34
93260
2000
컴퓨터의 알고리즘은 계속 반복적으로
01:35
because they repeat over and over again,
35
95260
2000
사용되기 때문에 그들이 옳다는 인상을 주며
01:37
and they ossify and calcify,
36
97260
3000
시간이 흐름에 따라 그들에 대한
01:40
and they become real.
37
100260
2000
신뢰도가 더 증가하고 결국에는 진실이 되죠.
01:42
And I was thinking about this, of all places,
38
102260
3000
저는 한 2년전에 대서양을 건너는 비행기 안에서
01:45
on a transatlantic flight a couple of years ago,
39
105260
3000
바로 이런 생각을 하고있었는데
01:48
because I happened to be seated
40
108260
2000
마침 제 옆에 제 나이 정도되는
01:50
next to a Hungarian physicist about my age
41
110260
2000
헝가리인 물리학자가 앉았었지요.
01:52
and we were talking
42
112260
2000
우리는 냉전 당시 헝가리에서
01:54
about what life was like during the Cold War
43
114260
2000
물리학자로 일하는게
01:56
for physicists in Hungary.
44
116260
2000
어땠는가 하는 대화를 나눴는데
01:58
And I said, "So what were you doing?"
45
118260
2000
그사람에게 무슨일을 했냐고 물었더니
02:00
And he said, "Well we were mostly breaking stealth."
46
120260
2000
주로 스텔스를 잡는 일을 했다고 하더군요.
02:02
And I said, "That's a good job. That's interesting.
47
122260
2000
그래서 저는 흥미있는 직업같다고 말했죠.
02:04
How does that work?"
48
124260
2000
그런데 그건 어떤 기술인가요?
02:06
And to understand that,
49
126260
2000
그 기술을 이해하려면
02:08
you have to understand a little bit about how stealth works.
50
128260
3000
스텔스의 작동원리를 좀 알아야 하죠.
02:11
And so -- this is an over-simplification --
51
131260
3000
아주 간단히 말하자면 레이더 신호가
02:14
but basically, it's not like
52
134260
2000
하늘에 뜬 156톤의 철 덩어리를
02:16
you can just pass a radar signal
53
136260
2000
뚫고 나가거나
02:18
right through 156 tons of steel in the sky.
54
138260
3000
또는 그냥 사라지게
02:21
It's not just going to disappear.
55
141260
3000
만들 수는 없죠.
02:24
But if you can take this big, massive thing,
56
144260
3000
그렇지만 이렇게 큰 비행기를 수만개의
02:27
and you could turn it into
57
147260
3000
작은 조각으로 쪼갤 수 있다면
02:30
a million little things --
58
150260
2000
- 예를들면 새 떼 같은 것으로요 -
02:32
something like a flock of birds --
59
152260
2000
이런 비행기를 추적하는
02:34
well then the radar that's looking for that
60
154260
2000
레이다는 날라다니는
02:36
has to be able to see
61
156260
2000
모든 새 떼들을
02:38
every flock of birds in the sky.
62
158260
2000
다 볼 수 있어야 겠지요.
02:40
And if you're a radar, that's a really bad job.
63
160260
4000
레이더로 그런 일을 하는것은 참 어렵죠.
02:44
And he said, "Yeah." He said, "But that's if you're a radar.
64
164260
3000
그리고 그 헝가리 물리학자가 말했죠,
02:47
So we didn't use a radar;
65
167260
2000
"그래서 우리는 레이더를 만들지 않고
02:49
we built a black box that was looking for electrical signals,
66
169260
3000
전기통신이나 전기신호를 감지하는
02:52
electronic communication.
67
172260
3000
블랙박스를 만들었죠. 그리고는,
02:55
And whenever we saw a flock of birds that had electronic communication,
68
175260
3000
새 떼들이 전기통신을 할때 마다 미국인들과
02:58
we thought, 'Probably has something to do with the Americans.'"
69
178260
3000
무슨 연관이 있을지 모른다고 생각했죠".
03:01
And I said, "Yeah.
70
181260
2000
그래서 제가 그랬죠.
03:03
That's good.
71
183260
2000
"좋군요.
03:05
So you've effectively negated
72
185260
2000
당신네들이 60년간의 항공학
03:07
60 years of aeronautic research.
73
187260
2000
연구를 무효화한 셈이네요.
03:09
What's your act two?
74
189260
2000
그럼 당신의 제2장은 뭐죠?
03:11
What do you do when you grow up?"
75
191260
2000
그럼 지금은 무슨일을 하세요?"
03:13
And he said,
76
193260
2000
그가 이렇게 답했죠,
03:15
"Well, financial services."
77
195260
2000
"금융서비스에서 일해요".
03:17
And I said, "Oh."
78
197260
2000
근데 그 당시에 그런 이야기들이
03:19
Because those had been in the news lately.
79
199260
3000
뉴스에 보도되고 있었기 때문에 제가 물었죠.
03:22
And I said, "How does that work?"
80
202260
2000
"그게 뭐하는거죠?"
03:24
And he said, "Well there's 2,000 physicists on Wall Street now,
81
204260
2000
그가 말하길, "월스트리트엔 저같은
03:26
and I'm one of them."
82
206260
2000
물리학자들이 약 2000명 일하고 있죠".
03:28
And I said, "What's the black box for Wall Street?"
83
208260
3000
제가 물었죠. "월스트리트의 블랙박스가 뭡니까?"
03:31
And he said, "It's funny you ask that,
84
211260
2000
그가 말하길, "말그대로 블랙박스예요.
03:33
because it's actually called black box trading.
85
213260
3000
사실 블랙박스 트레이딩이라고 말하죠.
03:36
And it's also sometimes called algo trading,
86
216260
2000
어떤 사람은 알고 트레이딩, 즉
03:38
algorithmic trading."
87
218260
3000
알고리즈믹 트레이딩이라고 하죠".
03:41
And algorithmic trading evolved in part
88
221260
3000
알고리즈믹 트레이딩이 발달되게 된 이유의 하나는
03:44
because institutional traders have the same problems
89
224260
3000
월스트리트의 기관투자자들이 미국 공군이 가졌던
03:47
that the United States Air Force had,
90
227260
3000
똑 같은 문제를 가지고 있기 때문이었는데 -
03:50
which is that they're moving these positions --
91
230260
3000
그들은, 예를들면 프록터 앤 갬블
03:53
whether it's Proctor & Gamble or Accenture, whatever --
92
233260
2000
또는 액센쳐 같은,
03:55
they're moving a million shares of something
93
235260
2000
회사들의 수많은
03:57
through the market.
94
237260
2000
주식을 사고 팔지요.
03:59
And if they do that all at once,
95
239260
2000
그런데 이들이 주식거래를 한꺼번에 한다면
04:01
it's like playing poker and going all in right away.
96
241260
2000
포커를 할때 올인하는거나 마찬가지죠.
04:03
You just tip your hand.
97
243260
2000
있는 돈을 한꺼번에 다 거는 거니까요.
04:05
And so they have to find a way --
98
245260
2000
그래서 그들은 큰 금액을
04:07
and they use algorithms to do this --
99
247260
2000
한꺼번에 거래하지 않고,
04:09
to break up that big thing
100
249260
2000
많은 수의 적은 금액으로 나눠서 거래를 하는데
04:11
into a million little transactions.
101
251260
2000
그럴때 알고리즘을 사용하죠.
04:13
And the magic and the horror of that
102
253260
2000
그런데 한가지 흥미있는 동시에 두려운 사실은
04:15
is that the same math
103
255260
2000
큰 금액의 거래를 많은 여러개의 작은 거래로 갈를때
04:17
that you use to break up the big thing
104
257260
2000
사용한 똑같은 수학방식을 사용하면
04:19
into a million little things
105
259260
2000
수많은 작은 금액의 거래들을 원래의
04:21
can be used to find a million little things
106
261260
2000
큰 금액으로 다시 조립시켜서
04:23
and sew them back together
107
263260
2000
주식 시장에서 실지로 무슨일이 벌어지고 있는지
04:25
and figure out what's actually happening in the market.
108
265260
2000
알아낼 수 있다는 것입니다.
04:27
So if you need to have some image
109
267260
2000
즉, 지금 주식시장이 어떻게 돌아가는지 이해하려면
04:29
of what's happening in the stock market right now,
110
269260
3000
주식거래를 숨기는 목적의 알고리즘이 있는가 하면,
04:32
what you can picture is a bunch of algorithms
111
272260
2000
그와는 정반대로 숨겨진 거래들을 찾아내서
04:34
that are basically programmed to hide,
112
274260
3000
적절한 조치를 취하는 것을 목적으로 프로그램된
04:37
and a bunch of algorithms that are programmed to go find them and act.
113
277260
3000
여러개의 알고리즘이 있다는 사실을 알아야 합니다.
04:40
And all of that's great, and it's fine.
114
280260
3000
자, 여기까지는 뭐 큰 문제가 없죠.
04:43
And that's 70 percent
115
283260
2000
그렇지만, 이런 기관투자자들의
04:45
of the United States stock market,
116
285260
2000
거래액이 총 증시거래액의
04:47
70 percent of the operating system
117
287260
2000
70%에 달하는데
04:49
formerly known as your pension,
118
289260
3000
이게 다 여러분의
04:52
your mortgage.
119
292260
3000
연금이고 모게지죠.
04:55
And what could go wrong?
120
295260
2000
이것처럼 안전한게 있겠어요?
04:57
What could go wrong
121
297260
2000
그런데 1년 전에 전 증시 거래액의
04:59
is that a year ago,
122
299260
2000
9%가 5분 동안에 갑자기
05:01
nine percent of the entire market just disappears in five minutes,
123
301260
3000
사라지는 사태가 벌어졌었는데
05:04
and they called it the Flash Crash of 2:45.
124
304260
3000
그들은 그 사건을 '2:45 플래시 크래쉬'라고 부르죠.
05:07
All of a sudden, nine percent just goes away,
125
307260
3000
그런 사태가 벌어질 만한 주식거래를
05:10
and nobody to this day
126
310260
2000
했던 사람도 없고 요청한 사람도 없었는데
05:12
can even agree on what happened
127
312260
2000
왜 그런 사태가 발생했었는지 아직까지도 전문가들 끼리
05:14
because nobody ordered it, nobody asked for it.
128
314260
3000
그 사건의 발생 원인에 대해 동의조차 못하고 있죠.
05:17
Nobody had any control over what was actually happening.
129
317260
3000
실제로 벌어지는 상황을 아무도 컨트롤 할 수 없었죠.
05:20
All they had
130
320260
2000
기관투자자들이 가졌던 컨트롤이라고는
05:22
was just a monitor in front of them
131
322260
2000
모니터에 표시되는 숫자들과
05:24
that had the numbers on it
132
324260
2000
'스톱'이라는 글이 적힌
05:26
and just a red button
133
326260
2000
빨간 버튼 밖에
05:28
that said, "Stop."
134
328260
2000
없었으니까요.
05:30
And that's the thing,
135
330260
2000
그러니까 우리는 우리가
05:32
is that we're writing things,
136
332260
2000
더 이상 읽을 수 없게
05:34
we're writing these things that we can no longer read.
137
334260
3000
된 것 들을 쓰고 있었다는 거죠.
05:37
And we've rendered something
138
337260
2000
우리가 그 무엇인가를 더 이상
05:39
illegible,
139
339260
2000
읽을 수 없게 만들었다는 것이죠.
05:41
and we've lost the sense
140
341260
3000
그래서 우리는 우리가 만든
05:44
of what's actually happening
141
344260
2000
이 세계에서 실지로 무슨일이 발생하고 있는지를
05:46
in this world that we've made.
142
346260
2000
모르게 됐지요.
05:48
And we're starting to make our way.
143
348260
2000
그러나 인젠 형편이 나아지기 시작했죠.
05:50
There's a company in Boston called Nanex,
144
350260
3000
보스턴에 나넥스라는 회사가 있는데,
05:53
and they use math and magic
145
353260
2000
그 회사는 수학과 제가 모르는 어떤 마술을 사용해서
05:55
and I don't know what,
146
355260
2000
증권시장의 모든 데이터를 읽고
05:57
and they reach into all the market data
147
357260
2000
항상 그런것은 아니지만
05:59
and they find, actually sometimes, some of these algorithms.
148
359260
3000
가끔 이런 알고리즘들의 일부를 찾아내지요.
06:02
And when they find them they pull them out
149
362260
3000
그들은 그런 알고리즘을 하나 찾으면
06:05
and they pin them to the wall like butterflies.
150
365260
3000
그걸 종이에 적어서 나비처럼 벽에 붙이지요.
06:08
And they do what we've always done
151
368260
2000
우리는 이해하지 못하는 엄청난 량의
06:10
when confronted with huge amounts of data that we don't understand --
152
370260
3000
데이터를 이해해야 할때는 언제나
06:13
which is that they give them a name
153
373260
2000
그래왔듯이 이런식으로 그런것에
06:15
and a story.
154
375260
2000
이름과 스토리를 붙이죠.
06:17
So this is one that they found,
155
377260
2000
그들이 찾아낸 것들은 다음과 같죠.
06:19
they called the Knife,
156
379260
4000
이것은 나이프,
06:23
the Carnival,
157
383260
2000
카니발,
06:25
the Boston Shuffler,
158
385260
4000
보스턴 셔플러,
06:29
Twilight.
159
389260
2000
트와일라이트.
06:31
And the gag is
160
391260
2000
그런데 웃기는건 일단 이런 알고리즘이
06:33
that, of course, these aren't just running through the market.
161
393260
3000
있는가를 알아내는 방법을 터득하면
06:36
You can find these kinds of things wherever you look,
162
396260
3000
증시 뿐만아니라 모든 곳에서 알고리즘이
06:39
once you learn how to look for them.
163
399260
2000
사용되고 있다는걸 알 수 있다는 거죠.
06:41
You can find it here: this book about flies
164
401260
3000
이 책도 그런 예의 하나죠:
06:44
that you may have been looking at on Amazon.
165
404260
2000
이건 아마존에서 팔았던 건데
06:46
You may have noticed it
166
406260
2000
시작가가
06:48
when its price started at 1.7 million dollars.
167
408260
2000
170만 달러였지요.
06:50
It's out of print -- still ...
168
410260
2000
절판이었는데도 말이예요.
06:52
(Laughter)
169
412260
2000
(웃음)
06:54
If you had bought it at 1.7, it would have been a bargain.
170
414260
3000
그런데 만약 170 만달러에 샀다면, 잘 투자한거죠.
06:57
A few hours later, it had gone up
171
417260
2000
왜냐하면 불과 몇 시간 뒤에,
06:59
to 23.6 million dollars,
172
419260
2000
2천360만 달러로 가격이 뛰었으니까요.
07:01
plus shipping and handling.
173
421260
2000
운송비와 포장비는 별도였죠.
07:03
And the question is:
174
423260
2000
그런데, 아무도 사거나 팔지 않았는데
07:05
Nobody was buying or selling anything; what was happening?
175
425260
2000
어떻게 그런일이 생겼을까요?
07:07
And you see this behavior on Amazon
176
427260
2000
즉, 월스트리트와 똑같은 현상을
07:09
as surely as you see it on Wall Street.
177
429260
2000
아마존에서도 볼 수 있다는 말이죠.
07:11
And when you see this kind of behavior,
178
431260
2000
이런 사건이 생긴다는 것은
07:13
what you see is the evidence
179
433260
2000
알고리즘들이 서로 충돌하고 있다는 것을
07:15
of algorithms in conflict,
180
435260
2000
증명해 주는데 간단히 말하면
07:17
algorithms locked in loops with each other,
181
437260
2000
인간의 아무런 개입이나 감독이 없이
07:19
without any human oversight,
182
439260
2000
알고리즘들이 서로 맞물고
07:21
without any adult supervision
183
441260
3000
루프에서 맴돌다가
07:24
to say, "Actually, 1.7 million is plenty."
184
444260
3000
"흠..170만 달러 정도면 됐어" 한거죠.
07:27
(Laughter)
185
447260
3000
(웃음)
07:30
And as with Amazon, so it is with Netflix.
186
450260
3000
네트플릭스도 아마존과 같은 형편에 있죠.
07:33
And so Netflix has gone through
187
453260
2000
그래서 네트플릭스는 지난 수년간
07:35
several different algorithms over the years.
188
455260
2000
여러가지 다른 알고리즘을 써봤지요.
07:37
They started with Cinematch, and they've tried a bunch of others --
189
457260
3000
처음에는 Cinematch를 사용하다가
07:40
there's Dinosaur Planet; there's Gravity.
190
460260
2000
그후에 Dinasaur Planet, 그리고 Gravity를 사용했는데
07:42
They're using Pragmatic Chaos now.
191
462260
2000
지금은 Pragmatic Chaos를 사용하죠.
07:44
Pragmatic Chaos is, like all of Netflix algorithms,
192
464260
2000
Pragmatic Chaos도 네트플릭스가 사용했던
07:46
trying to do the same thing.
193
466260
2000
다른 알고리즘과 똑같은 일을 하려고 하지요.
07:48
It's trying to get a grasp on you,
194
468260
2000
이 알고리즘은 고객의 마음안으로
07:50
on the firmware inside the human skull,
195
470260
2000
파고 들어가서 어떤것을 좋아하는가를
07:52
so that it can recommend what movie
196
472260
2000
파악한 후에 다음번에 어떤 영화를
07:54
you might want to watch next --
197
474260
2000
보고 싶어할지를 추측하려고 하는데
07:56
which is a very, very difficult problem.
198
476260
3000
이건 엄청나게 어려운 문제지요.
07:59
But the difficulty of the problem
199
479260
2000
이것이 매우 힘든 일이고
08:01
and the fact that we don't really quite have it down,
200
481260
3000
또 우리들 자체가 사실 이런 알고리즘을 아직 정확히
08:04
it doesn't take away
201
484260
2000
이해하지 못하지만 Pragmatic Chaos는
08:06
from the effects Pragmatic Chaos has.
202
486260
2000
그래도 우리에게 영향을 미치고 있지요.
08:08
Pragmatic Chaos, like all Netflix algorithms,
203
488260
3000
과거의 모든 네트플릭스 알고리즘들이 그랬듯이,
08:11
determines, in the end,
204
491260
2000
우리는 Pragmatic Chaos가
08:13
60 percent
205
493260
2000
추천하는 영화의 약
08:15
of what movies end up being rented.
206
495260
2000
60%를 실제로 빌려서 보니까요.
08:17
So one piece of code
207
497260
2000
이말은 즉, 여러분에 대해 지극히 단편적인
08:19
with one idea about you
208
499260
3000
아이디어만 가지고 있는 컴퓨터 코드가
08:22
is responsible for 60 percent of those movies.
209
502260
3000
여러분이 선택하는 영화의 60%를 결정한다는 거죠.
08:25
But what if you could rate those movies
210
505260
2000
그런데 영화를 만들기도 전에 그 영화에 대한
08:27
before they get made?
211
507260
2000
평가를 내릴 수 있다면 어떨까요?
08:29
Wouldn't that be handy?
212
509260
2000
그럼 아주 유용하지 않을까요?
08:31
Well, a few data scientists from the U.K. are in Hollywood,
213
511260
3000
영국 데이터 과학자들이 몇명이
08:34
and they have "story algorithms" --
214
514260
2000
홀리우드에 이파고긱스라는회사를 차리고
08:36
a company called Epagogix.
215
516260
2000
스토리 알고리즘을 만들었죠.
08:38
And you can run your script through there,
216
518260
3000
그 알고리즘은
08:41
and they can tell you, quantifiably,
217
521260
2000
영화 스크립트를 읽고
08:43
that that's a 30 million dollar movie
218
523260
2000
그게 3천만불 짜리 인지
08:45
or a 200 million dollar movie.
219
525260
2000
2억불짜리 영화인지 말해 주죠.
08:47
And the thing is, is that this isn't Google.
220
527260
2000
이건 구글같이 정보를 찾는것도 아니고,
08:49
This isn't information.
221
529260
2000
금융상태를 파악하는 것도 아니고,
08:51
These aren't financial stats; this is culture.
222
531260
2000
문화를 판단한다는 이야기죠.
08:53
And what you see here,
223
533260
2000
여러분이 지금 보시는 이 그림은,
08:55
or what you don't really see normally,
224
535260
2000
사실 여러분이 흔히 보는 그림은 아니지만,
08:57
is that these are the physics of culture.
225
537260
4000
문명의 기본 원칙을 보여주는 그림이죠.
09:01
And if these algorithms,
226
541260
2000
그런데 이런 알고리즘들이
09:03
like the algorithms on Wall Street,
227
543260
2000
월스트리트에 있는 알고리즘처럼
09:05
just crashed one day and went awry,
228
545260
3000
어느날 갑자기 크래쉬 한다면
09:08
how would we know?
229
548260
2000
그걸 우리가 어떻게 알까요?
09:10
What would it look like?
230
550260
2000
또 어떤 일이 생길까요?
09:12
And they're in your house. They're in your house.
231
552260
3000
여러분들 집에 있는 이런 청소기의 알고리즘들은
09:15
These are two algorithms competing for your living room.
232
555260
2000
거실을 차지하려고 서로 경쟁하고 있죠.
09:17
These are two different cleaning robots
233
557260
2000
그런데 이들은 깨끗하다는
09:19
that have very different ideas about what clean means.
234
559260
3000
것을 판단하는 기준이 서로 다르죠.
09:22
And you can see it
235
562260
2000
청소기의 속도를 줄이고
09:24
if you slow it down and attach lights to them,
236
564260
3000
라이트를 달면 그 차이를 볼 수 있죠.
09:27
and they're sort of like secret architects in your bedroom.
237
567260
3000
이들은 여러분의 침실에 있는
09:30
And the idea that architecture itself
238
570260
3000
일종의 숨어있는 건축가와 비슷하다고 볼 수 있겠는데,
09:33
is somehow subject to algorithmic optimization
239
573260
2000
사실은 건축 자체가 산술연산을
09:35
is not far-fetched.
240
575260
2000
최적화 한 결과라고 해도 과언은 아니지요.
09:37
It's super-real and it's happening around you.
241
577260
3000
이건 우리 주위에서 실제로 일어나고 있는 엄연한 사실이죠.
09:40
You feel it most
242
580260
2000
우리가 신형 '목적층선택 엘리베이터'의
09:42
when you're in a sealed metal box,
243
582260
2000
철판 박스 안에
09:44
a new-style elevator;
244
584260
2000
같혀 있을때는
09:46
they're called destination-control elevators.
245
586260
2000
그런 생각이 더 나지요.
09:48
These are the ones where you have to press what floor you're going to go to
246
588260
3000
타기 전에 승객이 밖에서
09:51
before you get in the elevator.
247
591260
2000
미리 목적층을 선택하는 이런 신형 엘리베이터는
09:53
And it uses what's called a bin-packing algorithm.
248
593260
2000
'빈 패킹'이라는 알고리즘을 사용하죠.
09:55
So none of this mishegas
249
595260
2000
승객들이 자기가 타고 싶은 승강기를
09:57
of letting everybody go into whatever car they want.
250
597260
2000
마음대로 고르는 것은 옛말이죠.
09:59
Everybody who wants to go to the 10th floor goes into car two,
251
599260
2000
10층으로 갈 사람들은 2번 승강기로,
10:01
and everybody who wants to go to the third floor goes into car five.
252
601260
3000
3층에 갈 사람들은 5번 승강기로...이런 식이죠.
10:04
And the problem with that
253
604260
2000
그런데 문제는
10:06
is that people freak out.
254
606260
2000
사람들이 당황해서
10:08
People panic.
255
608260
2000
어쩔지 모른다는 것이죠.
10:10
And you see why. You see why.
256
610260
2000
그런데 당황해 하는게 당연하죠.
10:12
It's because the elevator
257
612260
2000
그 엘레베이터에는
10:14
is missing some important instrumentation, like the buttons.
258
614260
3000
층수가 적힌 버튼 같은게 없으니까요.
10:17
(Laughter)
259
617260
2000
(웃음)
10:19
Like the things that people use.
260
619260
2000
일반 엘레베이터와는 아주 다르죠.
10:21
All it has
261
621260
2000
그저 윗쪽이나 아랫쪽으로
10:23
is just the number that moves up or down
262
623260
3000
올라갔다 내려갔다 하는 번호와
10:26
and that red button that says, "Stop."
263
626260
3000
'스톱' 이라고 적힌 빨간 버튼만 있죠.
10:29
And this is what we're designing for.
264
629260
3000
요즘 우리가 디자인하는 것들이 다들 이런식이죠.
10:32
We're designing
265
632260
2000
우리는 이런식의 인간기계
10:34
for this machine dialect.
266
634260
2000
대화를 디자인 하고 있죠.
10:36
And how far can you take that? How far can you take it?
267
636260
3000
우리는 이런식으로 얼마나 더 나갈 수 있을까요?
10:39
You can take it really, really far.
268
639260
2000
아마 거의 무한정 갈께에요.
10:41
So let me take it back to Wall Street.
269
641260
3000
월스트리트 이야기로 다시 돌아가죠.
10:45
Because the algorithms of Wall Street
270
645260
2000
월스트리트의 알고리즘에게
10:47
are dependent on one quality above all else,
271
647260
3000
그 무엇보다도 더
10:50
which is speed.
272
650260
2000
중요한 것은 속도죠.
10:52
And they operate on milliseconds and microseconds.
273
652260
3000
그들은 밀리세컨드와 마이크로세컨드를 따지죠.
10:55
And just to give you a sense of what microseconds are,
274
655260
2000
마우스를 한번 클릭하는데
10:57
it takes you 500,000 microseconds
275
657260
2000
걸리는 시간은
10:59
just to click a mouse.
276
659260
2000
50만 마이크로세컨드죠.
11:01
But if you're a Wall Street algorithm
277
661260
2000
월스트리트 알고리즘의 입장에서 볼때는
11:03
and you're five microseconds behind,
278
663260
2000
단 5 마이크로세컨드만 뒤져도
11:05
you're a loser.
279
665260
2000
패자가 되는 것이죠.
11:07
So if you were an algorithm,
280
667260
2000
여러분이 알고리즘이라면 아마도
11:09
you'd look for an architect like the one that I met in Frankfurt
281
669260
3000
제가 프랑크프루트에서 만난 건축가 같은 사람들을 찾겠지요.
11:12
who was hollowing out a skyscraper --
282
672260
2000
그 건축가는 알고리즘이
11:14
throwing out all the furniture, all the infrastructure for human use,
283
674260
3000
인터넷 케이블에 좀 더 가깝게 자리잡을 수 있게
11:17
and just running steel on the floors
284
677260
3000
다수의 컴퓨터 서버들을 들어갈 장소를 만들려고
11:20
to get ready for the stacks of servers to go in --
285
680260
3000
콘크리트 바닥만 남기고
11:23
all so an algorithm
286
683260
2000
사람들에게 필요한 모든 기반 설비와
11:25
could get close to the Internet.
287
685260
3000
가구들을 전부 다 뜯어내는 일을 했지요.
11:28
And you think of the Internet as this kind of distributed system.
288
688260
3000
인터넷은 일종의 분산 시스템이지만 그것은
11:31
And of course, it is, but it's distributed from places.
289
691260
3000
일정한 장소들로 부터 분산되는 시스템이죠.
11:34
In New York, this is where it's distributed from:
290
694260
2000
뉴욕의 인터넷은
11:36
the Carrier Hotel
291
696260
2000
허드슨 스트리트에 있는
11:38
located on Hudson Street.
292
698260
2000
캐리어 호텔에서 부터 분배되지요.
11:40
And this is really where the wires come right up into the city.
293
700260
3000
뉴욕시로 오는 모든 인터넷 케이블이 실제로 들어오는 곳이죠
11:43
And the reality is that the further away you are from that,
294
703260
4000
그래서 그곳에서 멀면 멀수록 모든 거래가
11:47
you're a few microseconds behind every time.
295
707260
2000
몇 마이크로세컨드씩 늦어지지요.
11:49
These guys down on Wall Street,
296
709260
2000
마코폴로나, 치로키 네이션 같은
11:51
Marco Polo and Cherokee Nation,
297
711260
2000
월스트리트 부근의 빌딩에 있는 사람들은
11:53
they're eight microseconds
298
713260
2000
캐리어 호텔 부근에 빌딩 내부를 허물어내고
11:55
behind all these guys
299
715260
2000
새로 인터넷 장비를 까는
11:57
going into the empty buildings being hollowed out
300
717260
4000
사람들보다 8 마이크로세컨드
12:01
up around the Carrier Hotel.
301
721260
2000
더 늦게 되죠.
12:03
And that's going to keep happening.
302
723260
3000
이런 일은 앞으로도 계속 생길겁니다.
12:06
We're going to keep hollowing them out,
303
726260
2000
그렇지 않고는 증시에서 거래를 할 때
12:08
because you, inch for inch
304
728260
3000
보스톤 셔플러처럼
12:11
and pound for pound and dollar for dollar,
305
731260
3000
마지막 한방울 까지의
12:14
none of you could squeeze revenue out of that space
306
734260
3000
이익을
12:17
like the Boston Shuffler could.
307
737260
3000
짜낼 수 없기 때문이죠.
12:20
But if you zoom out,
308
740260
2000
이제 줌아웃을 해보지요.
12:22
if you zoom out,
309
742260
2000
줌아웃을 해보면,
12:24
you would see an 825-mile trench
310
744260
4000
뉴욕시와 시카고를 연결하기 위해
12:28
between New York City and Chicago
311
748260
2000
스프레드 네트워크라는 회사가
12:30
that's been built over the last few years
312
750260
2000
지난 몇년에 걸쳐 공사하고 있는
12:32
by a company called Spread Networks.
313
752260
3000
825 마일 길이의 기반시설 공사 전경을 볼 수 있지요.
12:35
This is a fiber optic cable
314
755260
2000
이것은 카니발이나 나이프 알고리즘 전용으로
12:37
that was laid between those two cities
315
757260
2000
두 도시간에 깔린 광케이블 루트인데
12:39
to just be able to traffic one signal
316
759260
3000
마우스를 클릭하는 것보다
12:42
37 times faster than you can click a mouse --
317
762260
3000
37배 더 빠른 속도로
12:45
just for these algorithms,
318
765260
3000
신호를 전송하는
12:48
just for the Carnival and the Knife.
319
768260
3000
단 한가지의 목적을 위해 건설된 것이죠.
12:51
And when you think about this,
320
771260
2000
우리는 아무도 알지 못할
12:53
that we're running through the United States
321
773260
2000
통신 프레임워크를 구축해서
12:55
with dynamite and rock saws
322
775260
3000
주식거래를 3 마이크로세컨드
12:58
so that an algorithm can close the deal
323
778260
2000
더 빨리 체결할 수 있게
13:00
three microseconds faster,
324
780260
3000
미국의 곳곳을
13:03
all for a communications framework
325
783260
2000
다이나마이트와 암석톱으로
13:05
that no human will ever know,
326
785260
4000
폭발시키고 자르고하는데
13:09
that's a kind of manifest destiny;
327
789260
3000
이것은 서부로 팽창하자는 우리의 '명백한 운명'이겠고,
13:12
and we'll always look for a new frontier.
328
792260
3000
우리는 또한 앞으로도 계속 미개척지를 찾아 다니겠지요.
13:15
Unfortunately, we have our work cut out for us.
329
795260
3000
앞으로 우리가 할일이 태산같지요.
13:18
This is just theoretical.
330
798260
2000
이건 MIT의 수학자들이
13:20
This is some mathematicians at MIT.
331
800260
2000
작성한 단순히 이론적인 그림인데
13:22
And the truth is I don't really understand
332
802260
2000
솔직히 말하면
13:24
a lot of what they're talking about.
333
804260
2000
전 그들이 무슨 말을 하는지 몰라요.
13:26
It involves light cones and quantum entanglement,
334
806260
3000
'빛원뿔', '양자얽힘' 뭐 그런 말을하는데
13:29
and I don't really understand any of that.
335
809260
2000
전 한마디도 이해를 못하죠.
13:31
But I can read this map,
336
811260
2000
그렇지만 이 지도는 제가 이해하죠.
13:33
and what this map says
337
813260
2000
이 지도가 보여주는 것은
13:35
is that, if you're trying to make money on the markets where the red dots are,
338
815260
3000
도시가 있는 증권시장이 있는
13:38
that's where people are, where the cities are,
339
818260
2000
빨간 점들에서 돈을 벌려면
13:40
you're going to have to put the servers where the blue dots are
340
820260
3000
푸른 점들에 서버를 설치하는 것이
13:43
to do that most effectively.
341
823260
2000
가장 효율적이라는 것입니다.
13:45
And the thing that you might have noticed about those blue dots
342
825260
3000
그런데 이 지도에는
13:48
is that a lot of them are in the middle of the ocean.
343
828260
3000
대양에도 푸른 점들이 많이 있죠.
13:51
So that's what we'll do: we'll build bubbles or something,
344
831260
3000
그럼 이건 어떨까요?
13:54
or platforms.
345
834260
2000
우리가 알고리즘이 되면
13:56
We'll actually part the water
346
836260
2000
바다 한가운데 큰 공같은 구조물이나
13:58
to pull money out of the air,
347
838260
2000
플랫폼을 만들고 거기서 바다를
14:00
because it's a bright future
348
840260
2000
가르는 기적처럼 대기로 부터
14:02
if you're an algorithm.
349
842260
2000
돈을 무진장 만들 수 있겠지요.
14:04
(Laughter)
350
844260
2000
(웃음)
14:06
And it's not the money that's so interesting actually.
351
846260
3000
사실은 돈 자체가 흥미있는게 아니죠.
14:09
It's what the money motivates,
352
849260
2000
돈이 어떤 의욕을 주는가가 중요하죠.
14:11
that we're actually terraforming
353
851260
2000
우리는 알고리즘 같은 효율로
14:13
the Earth itself
354
853260
2000
지구 자체를
14:15
with this kind of algorithmic efficiency.
355
855260
2000
실제로 바꾸고 있지요.
14:17
And in that light,
356
857260
2000
우리가 이런 생각을 염두에 두고
14:19
you go back
357
859260
2000
마이클 나자의 사진들을 다시 한번 본다면
14:21
and you look at Michael Najjar's photographs,
358
861260
2000
그것은 사실 메타포가 아닌
14:23
and you realize that they're not metaphor, they're prophecy.
359
863260
3000
예언이라는 것을 깨달을 수 있지요.
14:26
They're prophecy
360
866260
2000
그의 사진들은 우리가 만드는 수학이
14:28
for the kind of seismic, terrestrial effects
361
868260
4000
지구의 지형에 얼마나
14:32
of the math that we're making.
362
872260
2000
거대한 변화를 줄것이라는 것을 예언해 줍니다.
14:34
And the landscape was always made
363
874260
3000
풍경이란 원래
14:37
by this sort of weird, uneasy collaboration
364
877260
3000
자연과 인간의 괴상하고
14:40
between nature and man.
365
880260
3000
거북한 협동으로 만들어 지죠.
14:43
But now there's this third co-evolutionary force: algorithms --
366
883260
3000
그러나 이제는 풍경을 바꾸는 제3의 요소가 생겼는데
14:46
the Boston Shuffler, the Carnival.
367
886260
3000
그것은 즉 보스턴 셔플러, 카니발 같은 알고리즘이죠.
14:49
And we will have to understand those as nature,
368
889260
3000
우리는 이제 알고리즘을 자연이라고 생각해야 하는데 어떻게 보면
14:52
and in a way, they are.
369
892260
2000
사실 그말이 맞습니다.
14:54
Thank you.
370
894260
2000
감사합니다.
14:56
(Applause)
371
896260
20000
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.