How algorithms shape our world | Kevin Slavin

Кевин Славин: Как алгоритмы формируют наш мир

484,251 views

2011-07-21 ・ TED


New videos

How algorithms shape our world | Kevin Slavin

Кевин Славин: Как алгоритмы формируют наш мир

484,251 views ・ 2011-07-21

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Aliaksandr Autayeu Редактор: Irene Loginova
00:15
This is a photograph
0
15260
2000
Это — фотография
00:17
by the artist Michael Najjar,
1
17260
2000
Майкла Найджара,
00:19
and it's real,
2
19260
2000
и она настоящая,
00:21
in the sense that he went there to Argentina
3
21260
2000
в том смысле, что он поехал в Аргентину,
00:23
to take the photo.
4
23260
2000
чтобы сделать фотографию.
00:25
But it's also a fiction. There's a lot of work that went into it after that.
5
25260
3000
Но она также и выдумка. После этого в неё было вложено много работы.
00:28
And what he's done
6
28260
2000
Он взял и переделал её
00:30
is he's actually reshaped, digitally,
7
30260
2000
на компьютере так,
00:32
all of the contours of the mountains
8
32260
2000
чтобы все очертания гор
00:34
to follow the vicissitudes of the Dow Jones index.
9
34260
3000
следовали превратностям индекса Доу-Джонса.
00:37
So what you see,
10
37260
2000
Что вы видите,
00:39
that precipice, that high precipice with the valley,
11
39260
2000
вот тот обрыв, высокий обрыв с долиной,
00:41
is the 2008 financial crisis.
12
41260
2000
это финансовый кризис 2008-го года.
00:43
The photo was made
13
43260
2000
Эта фотография была сделана,
00:45
when we were deep in the valley over there.
14
45260
2000
когда мы были глубоко вот там в долине.
00:47
I don't know where we are now.
15
47260
2000
Я не знаю, где мы находимся сейчас.
00:49
This is the Hang Seng index
16
49260
2000
Это индекс Хан-Сенга,
00:51
for Hong Kong.
17
51260
2000
из Гонконга.
00:53
And similar topography.
18
53260
2000
Схожая топография.
00:55
I wonder why.
19
55260
2000
Я в догадках, почему.
00:57
And this is art. This is metaphor.
20
57260
3000
Это искусство. Это метафора.
01:00
But I think the point is
21
60260
2000
Я думаю, дело в том,
01:02
that this is metaphor with teeth,
22
62260
2000
что это зубастая метафора.
01:04
and it's with those teeth that I want to propose today
23
64260
3000
С мыслями об этих зубах я хочу предложить, чтобы мы сегодня
01:07
that we rethink a little bit
24
67260
2000
немного переосмыслили
01:09
about the role of contemporary math --
25
69260
3000
роль современной математики —
01:12
not just financial math, but math in general.
26
72260
3000
не только финансовой математики, а математики в общем.
01:15
That its transition
27
75260
2000
Её переход от того,
01:17
from being something that we extract and derive from the world
28
77260
3000
что мы извлекаем и выводим из наблюдений за миром,
01:20
to something that actually starts to shape it --
29
80260
3000
к тому, что начинает формировать —
01:23
the world around us and the world inside us.
30
83260
3000
мир вокруг нас и наш внутренний мир.
01:26
And it's specifically algorithms,
31
86260
2000
Именно алгоритмы,
01:28
which are basically the math
32
88260
2000
та самая математика,
01:30
that computers use to decide stuff.
33
90260
3000
которую компьютеры используют для принятия решений.
01:33
They acquire the sensibility of truth
34
93260
2000
Они становятся правдоподобными,
01:35
because they repeat over and over again,
35
95260
2000
из-за многократного повторения.
01:37
and they ossify and calcify,
36
97260
3000
Они костенеют и твердеют
01:40
and they become real.
37
100260
2000
и становятся реальностью.
01:42
And I was thinking about this, of all places,
38
102260
3000
Я думал об этом, подумать только,
01:45
on a transatlantic flight a couple of years ago,
39
105260
3000
во время трансатлантического перелёта много лет назад,
01:48
because I happened to be seated
40
108260
2000
потому что по случайности меня посадили
01:50
next to a Hungarian physicist about my age
41
110260
2000
с венгерским физиком примерно моего возраста,
01:52
and we were talking
42
112260
2000
и мы разговаривали о том,
01:54
about what life was like during the Cold War
43
114260
2000
какой была жизнь физиков
01:56
for physicists in Hungary.
44
116260
2000
во время холодной войны в Венгрии.
01:58
And I said, "So what were you doing?"
45
118260
2000
Я спросил: «Так чем же вы занимались?»
02:00
And he said, "Well we were mostly breaking stealth."
46
120260
2000
Он ответил: «По большей части, ломали защиту самолётов-невидимок».
02:02
And I said, "That's a good job. That's interesting.
47
122260
2000
«Хорошая работа, — сказал я, — интересная тема.
02:04
How does that work?"
48
124260
2000
А как это работает?»
02:06
And to understand that,
49
126260
2000
Чтобы это понять, нужно понимать,
02:08
you have to understand a little bit about how stealth works.
50
128260
3000
как работают самолёты-невидимки.
02:11
And so -- this is an over-simplification --
51
131260
3000
Вот — и это сильное упрощение —
02:14
but basically, it's not like
52
134260
2000
по-простому, нельзя
02:16
you can just pass a radar signal
53
136260
2000
взять и пропустить сигнал радара
02:18
right through 156 tons of steel in the sky.
54
138260
3000
сквозь 156 тонн стали в небесах.
02:21
It's not just going to disappear.
55
141260
3000
Никуда они не денутся.
02:24
But if you can take this big, massive thing,
56
144260
3000
Но если взять эту огромную, массивную штуку,
02:27
and you could turn it into
57
147260
3000
и если сделать из неё
02:30
a million little things --
58
150260
2000
миллион маленьких —
02:32
something like a flock of birds --
59
152260
2000
примерно как стая птиц —
02:34
well then the radar that's looking for that
60
154260
2000
тогда наблюдающий радар
02:36
has to be able to see
61
156260
2000
должен уметь видеть
02:38
every flock of birds in the sky.
62
158260
2000
каждую стаю птиц в небе.
02:40
And if you're a radar, that's a really bad job.
63
160260
4000
И для радара это не самая лёгкая работа.
02:44
And he said, "Yeah." He said, "But that's if you're a radar.
64
164260
3000
«Да, — сказал он, — это так, если использовать радар.
02:47
So we didn't use a radar;
65
167260
2000
Поэтому радар мы не использовали.
02:49
we built a black box that was looking for electrical signals,
66
169260
3000
Мы сделали чёрный ящик, который искал электронные сигналы,
02:52
electronic communication.
67
172260
3000
электронные сообщения.
02:55
And whenever we saw a flock of birds that had electronic communication,
68
175260
3000
И каждый раз, когда была замечена стая птиц, ведущая электронные разговоры,
02:58
we thought, 'Probably has something to do with the Americans.'"
69
178260
3000
мы знали, что, наверное, это что-то американское».
03:01
And I said, "Yeah.
70
181260
2000
«Да, — ответил я, —
03:03
That's good.
71
183260
2000
неплохо.
03:05
So you've effectively negated
72
185260
2000
Вы практически взяли
03:07
60 years of aeronautic research.
73
187260
2000
и перечеркнули 60 лет аэронавигационных исследований.
03:09
What's your act two?
74
189260
2000
А чем вы сейчас занимаетесь?
03:11
What do you do when you grow up?"
75
191260
2000
Чем вы занимаетесь во взрослой жизни?»
03:13
And he said,
76
193260
2000
Он ответил:
03:15
"Well, financial services."
77
195260
2000
«Финансовые услуги».
03:17
And I said, "Oh."
78
197260
2000
«Ого» — удивился я.
03:19
Because those had been in the news lately.
79
199260
3000
Потому что про них недавно говорили в новостях.
03:22
And I said, "How does that work?"
80
202260
2000
«А это как работает?» — спросил я.
03:24
And he said, "Well there's 2,000 physicists on Wall Street now,
81
204260
2000
Он ответил: «На Уолл-стрит сейчас работает две тысячи физиков,
03:26
and I'm one of them."
82
206260
2000
и я один из них».
03:28
And I said, "What's the black box for Wall Street?"
83
208260
3000
Я спросил: «И каков же чёрный ящик для Уолл-стрит?»
03:31
And he said, "It's funny you ask that,
84
211260
2000
Он удивился: «Надо же, как вы спросили,
03:33
because it's actually called black box trading.
85
213260
3000
потому что он действительно называется торговля чёрными ящиками.
03:36
And it's also sometimes called algo trading,
86
216260
2000
Иногда это называется алготорговля,
03:38
algorithmic trading."
87
218260
3000
алгоритмическая торговля».
03:41
And algorithmic trading evolved in part
88
221260
3000
Алгоритмическая торговля развилась отчасти
03:44
because institutional traders have the same problems
89
224260
3000
потому что у профессиональных торговцев были те же проблемы,
03:47
that the United States Air Force had,
90
227260
3000
что и у Военно-воздушных сил США,
03:50
which is that they're moving these positions --
91
230260
3000
а именно, когда они торгуют акциями —
03:53
whether it's Proctor & Gamble or Accenture, whatever --
92
233260
2000
будь то Proctor & Gamble или Accenture, что угодно —
03:55
they're moving a million shares of something
93
235260
2000
они проводят миллионы акций
03:57
through the market.
94
237260
2000
сквозь рынок.
03:59
And if they do that all at once,
95
239260
2000
Если сделать это одним махом,
04:01
it's like playing poker and going all in right away.
96
241260
2000
то это, как в покере, поставить всё сразу.
04:03
You just tip your hand.
97
243260
2000
Все поймут, что у вас на руках.
04:05
And so they have to find a way --
98
245260
2000
Итак, им нужно найти способ —
04:07
and they use algorithms to do this --
99
247260
2000
и для этого они используют алгоритмы —
04:09
to break up that big thing
100
249260
2000
разбить эту огромную штуку
04:11
into a million little transactions.
101
251260
2000
на миллион маленьких транзакций.
04:13
And the magic and the horror of that
102
253260
2000
Магия и ужас в том,
04:15
is that the same math
103
255260
2000
что та самая математика,
04:17
that you use to break up the big thing
104
257260
2000
использованная для разбивки большой вещи
04:19
into a million little things
105
259260
2000
на миллион маленьких вещей,
04:21
can be used to find a million little things
106
261260
2000
может быть использована для поиска миллиона маленьких вещей,
04:23
and sew them back together
107
263260
2000
сборки их обратно, и выяснения,
04:25
and figure out what's actually happening in the market.
108
265260
2000
что же действительно происходит на рынке.
04:27
So if you need to have some image
109
267260
2000
В качестве представления,
04:29
of what's happening in the stock market right now,
110
269260
3000
что сейчас происходит на рынке акций прямо сейчас,
04:32
what you can picture is a bunch of algorithms
111
272260
2000
можете представить группу алгоритмов,
04:34
that are basically programmed to hide,
112
274260
3000
которые запрограммированы прятать,
04:37
and a bunch of algorithms that are programmed to go find them and act.
113
277260
3000
и группу алгоритмов, которые запрограммированы искать и действовать.
04:40
And all of that's great, and it's fine.
114
280260
3000
Конечно, всё это классно.
04:43
And that's 70 percent
115
283260
2000
И это составляет 70%
04:45
of the United States stock market,
116
285260
2000
рынка акций США,
04:47
70 percent of the operating system
117
287260
2000
70% того,
04:49
formerly known as your pension,
118
289260
3000
что раньше было известно как ваша пенсия,
04:52
your mortgage.
119
292260
3000
как ваша ипотека.
04:55
And what could go wrong?
120
295260
2000
Что же плохого может случиться?
04:57
What could go wrong
121
297260
2000
А то,
04:59
is that a year ago,
122
299260
2000
что год назад,
05:01
nine percent of the entire market just disappears in five minutes,
123
301260
3000
9% рынка просто исчезло за пять минут,
05:04
and they called it the Flash Crash of 2:45.
124
304260
3000
и это было названо мгновенное падение 2:45.
05:07
All of a sudden, nine percent just goes away,
125
307260
3000
Вдруг, 9% просто исчезает,
05:10
and nobody to this day
126
310260
2000
и по сей день,
05:12
can even agree on what happened
127
312260
2000
никто не может понять, что случилось,
05:14
because nobody ordered it, nobody asked for it.
128
314260
3000
потому что никто это не заказывал, никто об этом не просил.
05:17
Nobody had any control over what was actually happening.
129
317260
3000
Никто не контролировал происходящее.
05:20
All they had
130
320260
2000
Всё, что было доступно —
05:22
was just a monitor in front of them
131
322260
2000
монитор перед глазами,
05:24
that had the numbers on it
132
324260
2000
с цифрами на нём,
05:26
and just a red button
133
326260
2000
и красная кнопка
05:28
that said, "Stop."
134
328260
2000
с надписью «Стоп».
05:30
And that's the thing,
135
330260
2000
Дело в том,
05:32
is that we're writing things,
136
332260
2000
что мы пишем вещи,
05:34
we're writing these things that we can no longer read.
137
334260
3000
мы пишем такие вещи, которые сами не в состоянии прочесть.
05:37
And we've rendered something
138
337260
2000
Мы сделали что-то
05:39
illegible,
139
339260
2000
нечитаемое.
05:41
and we've lost the sense
140
341260
3000
Мы потеряли ощущение того,
05:44
of what's actually happening
141
344260
2000
что происходит в мире,
05:46
in this world that we've made.
142
346260
2000
который мы построили.
05:48
And we're starting to make our way.
143
348260
2000
Но мы начинаем понимать.
05:50
There's a company in Boston called Nanex,
144
350260
3000
В Бостоне есть компания Nanex,
05:53
and they use math and magic
145
353260
2000
они используют математику и магию
05:55
and I don't know what,
146
355260
2000
и что-то ещё,
05:57
and they reach into all the market data
147
357260
2000
получают доступ к данным рынка,
05:59
and they find, actually sometimes, some of these algorithms.
148
359260
3000
и находят, иногда, некоторые из этих алгоритмов.
06:02
And when they find them they pull them out
149
362260
3000
Когда они их находят, они их вытаскивают,
06:05
and they pin them to the wall like butterflies.
150
365260
3000
и прикалывают на стену как бабочек.
06:08
And they do what we've always done
151
368260
2000
Они делают то, что мы всегда делали,
06:10
when confronted with huge amounts of data that we don't understand --
152
370260
3000
сталкиваясь с огромным количеством данных, которые мы не понимаем —
06:13
which is that they give them a name
153
373260
2000
они дают им
06:15
and a story.
154
375260
2000
имя и историю.
06:17
So this is one that they found,
155
377260
2000
Вот кое-что из найденного,
06:19
they called the Knife,
156
379260
4000
названное Нож,
06:23
the Carnival,
157
383260
2000
Карнавал,
06:25
the Boston Shuffler,
158
385260
4000
Бостонский пройдоха,
06:29
Twilight.
159
389260
2000
Сумерки.
06:31
And the gag is
160
391260
2000
Прикол в том,
06:33
that, of course, these aren't just running through the market.
161
393260
3000
что это не только на рынке.
06:36
You can find these kinds of things wherever you look,
162
396260
3000
Эти вещи можно найти везде, где ни посмотри,
06:39
once you learn how to look for them.
163
399260
2000
как только научишься их искать.
06:41
You can find it here: this book about flies
164
401260
3000
Их можно найти здесь: это книга о мухах,
06:44
that you may have been looking at on Amazon.
165
404260
2000
которую можно было заметить на Amazon.
06:46
You may have noticed it
166
406260
2000
На неё можно было обратить внимание,
06:48
when its price started at 1.7 million dollars.
167
408260
2000
когда она стоила 1,7 миллиона долларов.
06:50
It's out of print -- still ...
168
410260
2000
Она больше не издается — но всё же...
06:52
(Laughter)
169
412260
2000
(Смех)
06:54
If you had bought it at 1.7, it would have been a bargain.
170
414260
3000
И если бы вы купили её за 1,7, это была бы выгодная сделка.
06:57
A few hours later, it had gone up
171
417260
2000
Несколько часов позже, она выросла в цене
06:59
to 23.6 million dollars,
172
419260
2000
до 23,6 миллиона долларов,
07:01
plus shipping and handling.
173
421260
2000
плюс доставка и упаковка.
07:03
And the question is:
174
423260
2000
Вопрос:
07:05
Nobody was buying or selling anything; what was happening?
175
425260
2000
Никто ничего не продавал и не покупал, что происходило?
07:07
And you see this behavior on Amazon
176
427260
2000
Такое поведение можно заметить на Amazon
07:09
as surely as you see it on Wall Street.
177
429260
2000
точно так же, как и на Уолл-стрит.
07:11
And when you see this kind of behavior,
178
431260
2000
При наблюдении такого поведения,
07:13
what you see is the evidence
179
433260
2000
вы видите свидетельство
07:15
of algorithms in conflict,
180
435260
2000
конфликтующих алгоритмов,
07:17
algorithms locked in loops with each other,
181
437260
2000
алгоритмов, зажавших друг друга мёртвой хваткой,
07:19
without any human oversight,
182
439260
2000
без человеческого контроля,
07:21
without any adult supervision
183
441260
3000
без надзора взрослых,
07:24
to say, "Actually, 1.7 million is plenty."
184
444260
3000
которые бы сказали: «Ну, хватит, 1,7 миллиона вполне достаточно».
07:27
(Laughter)
185
447260
3000
(Смех)
07:30
And as with Amazon, so it is with Netflix.
186
450260
3000
Это не только на Amazon, но и на Netflix.
07:33
And so Netflix has gone through
187
453260
2000
За годы, Netflix поменял
07:35
several different algorithms over the years.
188
455260
2000
несколько разных алгоритмов.
07:37
They started with Cinematch, and they've tried a bunch of others --
189
457260
3000
Они начали с Cinematch, и попробовали группу других.
07:40
there's Dinosaur Planet; there's Gravity.
190
460260
2000
Планета Динозавров, Гравитация.
07:42
They're using Pragmatic Chaos now.
191
462260
2000
Сейчас они используют Прагматический Хаос.
07:44
Pragmatic Chaos is, like all of Netflix algorithms,
192
464260
2000
Прагматический Хаос, как и все другие алгоритмы Netflix,
07:46
trying to do the same thing.
193
466260
2000
пытается решить ту же задачу.
07:48
It's trying to get a grasp on you,
194
468260
2000
Он пытается разобраться в вас,
07:50
on the firmware inside the human skull,
195
470260
2000
в прошивке внутри черепа,
07:52
so that it can recommend what movie
196
472260
2000
для того чтобы рекомендовать фильм,
07:54
you might want to watch next --
197
474260
2000
который вы можете захотеть посмотреть следующим —
07:56
which is a very, very difficult problem.
198
476260
3000
а это очень, очень трудная проблема.
07:59
But the difficulty of the problem
199
479260
2000
Трудность проблемы,
08:01
and the fact that we don't really quite have it down,
200
481260
3000
и факт того, что она до сих пор не решена,
08:04
it doesn't take away
201
484260
2000
не отменяет последствий,
08:06
from the effects Pragmatic Chaos has.
202
486260
2000
создаваемых Прагматическим Хаосом.
08:08
Pragmatic Chaos, like all Netflix algorithms,
203
488260
3000
Прагматический Хаос, как и все алгоритмы Netflix,
08:11
determines, in the end,
204
491260
2000
в итоге определяет
08:13
60 percent
205
493260
2000
60%
08:15
of what movies end up being rented.
206
495260
2000
всех взятых напрокат фильмов.
08:17
So one piece of code
207
497260
2000
Единственный участок кода,
08:19
with one idea about you
208
499260
3000
с единственным представлением о вас,
08:22
is responsible for 60 percent of those movies.
209
502260
3000
отвечает за 60% фильмов.
08:25
But what if you could rate those movies
210
505260
2000
А как насчёт оценки фильмов
08:27
before they get made?
211
507260
2000
ещё до того, как они сделаны?
08:29
Wouldn't that be handy?
212
509260
2000
Было бы это здорово?
08:31
Well, a few data scientists from the U.K. are in Hollywood,
213
511260
3000
Некоторые учёные из Великобритании сейчас в Голливуде,
08:34
and they have "story algorithms" --
214
514260
2000
и у них есть сценарные алгоритмы —
08:36
a company called Epagogix.
215
516260
2000
компания называется Epagogix.
08:38
And you can run your script through there,
216
518260
3000
Она может обработать ваш сценарий,
08:41
and they can tell you, quantifiably,
217
521260
2000
и сказать, количественно,
08:43
that that's a 30 million dollar movie
218
523260
2000
что это кино на 30 миллионов долларов,
08:45
or a 200 million dollar movie.
219
525260
2000
или на 200 миллионов долларов.
08:47
And the thing is, is that this isn't Google.
220
527260
2000
Суть в том, что это не Google.
08:49
This isn't information.
221
529260
2000
Это не информация.
08:51
These aren't financial stats; this is culture.
222
531260
2000
Это не финансовая статистика, это культура.
08:53
And what you see here,
223
533260
2000
То, что вы здесь видите,
08:55
or what you don't really see normally,
224
535260
2000
или же то, что обычно не видно,
08:57
is that these are the physics of culture.
225
537260
4000
это физика культуры.
09:01
And if these algorithms,
226
541260
2000
Если эти алгоритмы,
09:03
like the algorithms on Wall Street,
227
543260
2000
как алгоритмы на Уолл-стрит,
09:05
just crashed one day and went awry,
228
545260
3000
в один прекрасный день просто сломаются и сойдут с ума,
09:08
how would we know?
229
548260
2000
как мы об этом узнаем,
09:10
What would it look like?
230
550260
2000
как это будет выглядеть?
09:12
And they're in your house. They're in your house.
231
552260
3000
А они уже в доме. В вашем доме.
09:15
These are two algorithms competing for your living room.
232
555260
2000
Это два алгоритма, сражающиеся за вашу гостиную.
09:17
These are two different cleaning robots
233
557260
2000
Это два разных робота-уборщика,
09:19
that have very different ideas about what clean means.
234
559260
3000
с совершенно разными представлениями о чистоте.
09:22
And you can see it
235
562260
2000
Это можно увидеть,
09:24
if you slow it down and attach lights to them,
236
564260
3000
если замедлить и прикрепить к ним огоньки.
09:27
and they're sort of like secret architects in your bedroom.
237
567260
3000
Они как тайные архитекторы в вашей спальне.
09:30
And the idea that architecture itself
238
570260
3000
Идея о том, что сама архитектура
09:33
is somehow subject to algorithmic optimization
239
573260
2000
является объектом алгоритмической оптимизации
09:35
is not far-fetched.
240
575260
2000
не притянута за уши.
09:37
It's super-real and it's happening around you.
241
577260
3000
Это абсолютно реально и уже происходит вокруг нас.
09:40
You feel it most
242
580260
2000
Больше всего это ощущается
09:42
when you're in a sealed metal box,
243
582260
2000
в закрытом металлическом ящике,
09:44
a new-style elevator;
244
584260
2000
лифте нового поколения,
09:46
they're called destination-control elevators.
245
586260
2000
который называется лифтом с регистрацией места назначения.
09:48
These are the ones where you have to press what floor you're going to go to
246
588260
3000
Это те самые, где нужно нажать кнопку этажа
09:51
before you get in the elevator.
247
591260
2000
ещё до входа в лифт.
09:53
And it uses what's called a bin-packing algorithm.
248
593260
2000
Он использует так называемый алгоритм об упаковке в контейнеры.
09:55
So none of this mishegas
249
595260
2000
И никакого вольнодумства,
09:57
of letting everybody go into whatever car they want.
250
597260
2000
чтобы каждый выбирал лифт сам.
09:59
Everybody who wants to go to the 10th floor goes into car two,
251
599260
2000
Все, кто едут на десятый этаж, идут в лифт номер два,
10:01
and everybody who wants to go to the third floor goes into car five.
252
601260
3000
и все, кто едут на третий этаж, идут в лифт номер пять.
10:04
And the problem with that
253
604260
2000
Проблема в том,
10:06
is that people freak out.
254
606260
2000
что люди волнуются.
10:08
People panic.
255
608260
2000
Люди паникуют.
10:10
And you see why. You see why.
256
610260
2000
И понятно почему.
10:12
It's because the elevator
257
612260
2000
Потому что в лифте нет
10:14
is missing some important instrumentation, like the buttons.
258
614260
3000
очень важных деталей, таких как кнопки.
10:17
(Laughter)
259
617260
2000
(Смех)
10:19
Like the things that people use.
260
619260
2000
Детали, которые люди используют.
10:21
All it has
261
621260
2000
Всё, что есть,
10:23
is just the number that moves up or down
262
623260
3000
это номер, который двигается вверх и вниз,
10:26
and that red button that says, "Stop."
263
626260
3000
и та самая красная кнопка с надписью «Стоп».
10:29
And this is what we're designing for.
264
629260
3000
Вот для чего мы это делаем.
10:32
We're designing
265
632260
2000
Мы это делаем
10:34
for this machine dialect.
266
634260
2000
удобным для машин.
10:36
And how far can you take that? How far can you take it?
267
636260
3000
Сколько это можно терпеть? Как далеко можно зайти?
10:39
You can take it really, really far.
268
639260
2000
Очень, очень далеко.
10:41
So let me take it back to Wall Street.
269
641260
3000
Давайте вернёмся на Уолл-стрит.
10:45
Because the algorithms of Wall Street
270
645260
2000
Алгоритмы Уолл-стрит зависят,
10:47
are dependent on one quality above all else,
271
647260
3000
прежде всего, от одной вещи,
10:50
which is speed.
272
650260
2000
и это скорость.
10:52
And they operate on milliseconds and microseconds.
273
652260
3000
Они работают с милли- и микросекундами.
10:55
And just to give you a sense of what microseconds are,
274
655260
2000
Чтобы дать понять, что такое микросекунда —
10:57
it takes you 500,000 microseconds
275
657260
2000
щелчок мышью
10:59
just to click a mouse.
276
659260
2000
занимает полмиллиона микросекунд.
11:01
But if you're a Wall Street algorithm
277
661260
2000
Но, если алгоритм с Уолл-стрит
11:03
and you're five microseconds behind,
278
663260
2000
опоздал на пять микросекунд,
11:05
you're a loser.
279
665260
2000
он проиграл.
11:07
So if you were an algorithm,
280
667260
2000
Так что если вы — алгоритм,
11:09
you'd look for an architect like the one that I met in Frankfurt
281
669260
3000
вы бы искали такого архитектора, какого я встретил во Франкфурте.
11:12
who was hollowing out a skyscraper --
282
672260
2000
Он опустошал небоскрёб —
11:14
throwing out all the furniture, all the infrastructure for human use,
283
674260
3000
выкидывал всю мебель, всю инфраструктуру для людей,
11:17
and just running steel on the floors
284
677260
3000
покрывал полы сталью,
11:20
to get ready for the stacks of servers to go in --
285
680260
3000
подготавливая их для серверных стоек —
11:23
all so an algorithm
286
683260
2000
всё для того,
11:25
could get close to the Internet.
287
685260
3000
чтобы алгоритм мог подобраться поближе к интернету.
11:28
And you think of the Internet as this kind of distributed system.
288
688260
3000
Вы думаете, что интернет — это такая распределённая система.
11:31
And of course, it is, but it's distributed from places.
289
691260
3000
Конечно, так и есть, но она откуда-то начинается.
11:34
In New York, this is where it's distributed from:
290
694260
2000
В Нью-Йорке, она начинается отсюда:
11:36
the Carrier Hotel
291
696260
2000
Carrier Hotel,
11:38
located on Hudson Street.
292
698260
2000
расположенный на Гудзон-стрит.
11:40
And this is really where the wires come right up into the city.
293
700260
3000
Вот, где провода приходят в город.
11:43
And the reality is that the further away you are from that,
294
703260
4000
Дело в том, что с каждым удалением отсюда
11:47
you're a few microseconds behind every time.
295
707260
2000
теряются несколько микросекунд.
11:49
These guys down on Wall Street,
296
709260
2000
Вот эти парни на Уолл-стрит,
11:51
Marco Polo and Cherokee Nation,
297
711260
2000
Марко Поло и Чероки Нэйшн,
11:53
they're eight microseconds
298
713260
2000
они восемь микросекунд
11:55
behind all these guys
299
715260
2000
позади всех парней,
11:57
going into the empty buildings being hollowed out
300
717260
4000
заселяющихся в здания,
12:01
up around the Carrier Hotel.
301
721260
2000
опустошаемые вокруг Carrier Hotel.
12:03
And that's going to keep happening.
302
723260
3000
И это будет продолжаться.
12:06
We're going to keep hollowing them out,
303
726260
2000
Здания будут опустошаться,
12:08
because you, inch for inch
304
728260
3000
потому никто из вас,
12:11
and pound for pound and dollar for dollar,
305
731260
3000
сантиметр за сантиметром, доллар за долларом,
12:14
none of you could squeeze revenue out of that space
306
734260
3000
вы никогда не сможете выжать столько прибыли
12:17
like the Boston Shuffler could.
307
737260
3000
из этого пространства, сколько смог выжать Бостонский пройдоха.
12:20
But if you zoom out,
308
740260
2000
Но если подняться,
12:22
if you zoom out,
309
742260
2000
подняться высоко,
12:24
you would see an 825-mile trench
310
744260
4000
можно увидеть ров длиной 1300 километров
12:28
between New York City and Chicago
311
748260
2000
между Нью-Йорком и Чикаго,
12:30
that's been built over the last few years
312
750260
2000
построенный за последние несколько лет
12:32
by a company called Spread Networks.
313
752260
3000
компанией Spread Networks.
12:35
This is a fiber optic cable
314
755260
2000
Это оптоволоконный кабель,
12:37
that was laid between those two cities
315
757260
2000
проложенный между двумя городами
12:39
to just be able to traffic one signal
316
759260
3000
для передачи одного сигнала
12:42
37 times faster than you can click a mouse --
317
762260
3000
в 37 раз быстрее, чем щелчок мышью —
12:45
just for these algorithms,
318
765260
3000
только для этих алгоритмов,
12:48
just for the Carnival and the Knife.
319
768260
3000
только для Карнавала и для Ножа.
12:51
And when you think about this,
320
771260
2000
Подумать только,
12:53
that we're running through the United States
321
773260
2000
мы прогрызаем США насквозь,
12:55
with dynamite and rock saws
322
775260
3000
динамитом и землеройками,
12:58
so that an algorithm can close the deal
323
778260
2000
чтобы алгоритм смог закрыть сделку
13:00
three microseconds faster,
324
780260
3000
микросекундой раньше,
13:03
all for a communications framework
325
783260
2000
всё ради каналов связи,
13:05
that no human will ever know,
326
785260
4000
которые никогда не использует человек.
13:09
that's a kind of manifest destiny;
327
789260
3000
Это предсказание судьбы,
13:12
and we'll always look for a new frontier.
328
792260
3000
всегда продвигаться дальше.
13:15
Unfortunately, we have our work cut out for us.
329
795260
3000
К сожалению, наша работа уже предопределена.
13:18
This is just theoretical.
330
798260
2000
Всё это только теория.
13:20
This is some mathematicians at MIT.
331
800260
2000
Это математики из MIT.
13:22
And the truth is I don't really understand
332
802260
2000
Правда в том, что я не понимаю
13:24
a lot of what they're talking about.
333
804260
2000
практически ничего, о чём они говорят.
13:26
It involves light cones and quantum entanglement,
334
806260
3000
Это что-то о световых конусах и квантовом связывании,
13:29
and I don't really understand any of that.
335
809260
2000
и я в этом не разбираюсь.
13:31
But I can read this map,
336
811260
2000
Но я понимаю эту карту.
13:33
and what this map says
337
813260
2000
Она говорит,
13:35
is that, if you're trying to make money on the markets where the red dots are,
338
815260
3000
что, если вы пытаетесь зарабатывать на рынках, обозначенных красными точками,
13:38
that's where people are, where the cities are,
339
818260
2000
это где люди и города,
13:40
you're going to have to put the servers where the blue dots are
340
820260
3000
нужно помещать сервера в места, обозначенные голубыми точками,
13:43
to do that most effectively.
341
823260
2000
для наибольшей эффективности.
13:45
And the thing that you might have noticed about those blue dots
342
825260
3000
Как можно заметить, большая часть
13:48
is that a lot of them are in the middle of the ocean.
343
828260
3000
этих голубых точек находится посреди океана.
13:51
So that's what we'll do: we'll build bubbles or something,
344
831260
3000
Вот этим и займёмся, постройкой пузырей,
13:54
or platforms.
345
834260
2000
или платформ.
13:56
We'll actually part the water
346
836260
2000
Чтобы делать деньги из воздуха,
13:58
to pull money out of the air,
347
838260
2000
надо лезть в воду,
14:00
because it's a bright future
348
840260
2000
потому что это мудрое решение,
14:02
if you're an algorithm.
349
842260
2000
если ты — алгоритм.
14:04
(Laughter)
350
844260
2000
(Смех)
14:06
And it's not the money that's so interesting actually.
351
846260
3000
Деньги сами по себе не так интересны.
14:09
It's what the money motivates,
352
849260
2000
Интересно, что деньги мотивируют.
14:11
that we're actually terraforming
353
851260
2000
Мы изменяем
14:13
the Earth itself
354
853260
2000
саму Землю
14:15
with this kind of algorithmic efficiency.
355
855260
2000
вот такой алгоритмической оптимизацией.
14:17
And in that light,
356
857260
2000
Если вернуться,
14:19
you go back
357
859260
2000
и посмотреть на фото Майкла Найджара
14:21
and you look at Michael Najjar's photographs,
358
861260
2000
в этом свете, можно понять,
14:23
and you realize that they're not metaphor, they're prophecy.
359
863260
3000
что они не метафора, а пророчество.
14:26
They're prophecy
360
866260
2000
Они — пророчество
14:28
for the kind of seismic, terrestrial effects
361
868260
4000
эффектов сейсмического, земного масштаба,
14:32
of the math that we're making.
362
872260
2000
которые имеет наша математика.
14:34
And the landscape was always made
363
874260
3000
Ландшафт всегда формировался
14:37
by this sort of weird, uneasy collaboration
364
877260
3000
подобным образом, нелёгким сотрудничеством
14:40
between nature and man.
365
880260
3000
человека и природы.
14:43
But now there's this third co-evolutionary force: algorithms --
366
883260
3000
Но сейчас появилась третья эволюционная сила: алгоритмы —
14:46
the Boston Shuffler, the Carnival.
367
886260
3000
Бостонский пройдоха, Карнавал.
14:49
And we will have to understand those as nature,
368
889260
3000
И нам нужно их понять, как и природу.
14:52
and in a way, they are.
369
892260
2000
В каком-то смысле, они и есть природа.
14:54
Thank you.
370
894260
2000
Спасибо.
14:56
(Applause)
371
896260
20000
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7