How algorithms shape our world | Kevin Slavin

484,372 views ・ 2011-07-21

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Kostiantyn Shevchenko Утверджено: Oleksii Molchanovskyi
00:15
This is a photograph
0
15260
2000
Ось фотографія,
00:17
by the artist Michael Najjar,
1
17260
2000
зроблена художником Майклом Найджаром,
00:19
and it's real,
2
19260
2000
і вона є справжньою
00:21
in the sense that he went there to Argentina
3
21260
2000
в тому розумінні, що він дійсно побував у Аргентині
00:23
to take the photo.
4
23260
2000
щоб зробити це фото.
00:25
But it's also a fiction. There's a lot of work that went into it after that.
5
25260
3000
Але це також і фікція. Після того в неї був вкладений великий обсяг роботи.
00:28
And what he's done
6
28260
2000
А насправді все що він зробив --
00:30
is he's actually reshaped, digitally,
7
30260
2000
це провів цифрову обробку, та змінив
00:32
all of the contours of the mountains
8
32260
2000
всі гірські обриси таким чином,
00:34
to follow the vicissitudes of the Dow Jones index.
9
34260
3000
щоб вони успадковували падіння та зростання індексу Доу Джонса.
00:37
So what you see,
10
37260
2000
Тож те, що ви бачите,
00:39
that precipice, that high precipice with the valley,
11
39260
2000
та круча, та висока круча із долиною --
00:41
is the 2008 financial crisis.
12
41260
2000
це фінансова криза 2008 року.
00:43
The photo was made
13
43260
2000
Ця фотографія була зроблена тоді,
00:45
when we were deep in the valley over there.
14
45260
2000
коли ми знаходились там глибоко у долині.
00:47
I don't know where we are now.
15
47260
2000
Де ми зараз, я не знаю.
00:49
This is the Hang Seng index
16
49260
2000
Ось індекс Hang Seng
00:51
for Hong Kong.
17
51260
2000
для Гонконгу.
00:53
And similar topography.
18
53260
2000
Дуже схожа топографія.
00:55
I wonder why.
19
55260
2000
Цікаво, чому.
00:57
And this is art. This is metaphor.
20
57260
3000
І це мистецтво. Це метафора.
01:00
But I think the point is
21
60260
2000
Але як я думаю, суть у тому, що
01:02
that this is metaphor with teeth,
22
62260
2000
це метафора із зубами.
01:04
and it's with those teeth that I want to propose today
23
64260
3000
І зважаючи на ці зуби я хочу запропонувати сьогодні
01:07
that we rethink a little bit
24
67260
2000
дещо переглянути
01:09
about the role of contemporary math --
25
69260
3000
роль сучасної математики --
01:12
not just financial math, but math in general.
26
72260
3000
не тільки фінансової математики, але й математики взагалі.
01:15
That its transition
27
75260
2000
Те, що вона являє собою перехід
01:17
from being something that we extract and derive from the world
28
77260
3000
від того, що ми отримуємо та виводимо із спостережень за світом,
01:20
to something that actually starts to shape it --
29
80260
3000
до чогось, що фактично починає його змінювати --
01:23
the world around us and the world inside us.
30
83260
3000
світ навколо нас та світ всередині нас.
01:26
And it's specifically algorithms,
31
86260
2000
І це особливо стосується алгоритмів,
01:28
which are basically the math
32
88260
2000
які є, по суті, математикою,
01:30
that computers use to decide stuff.
33
90260
3000
якою користуються комп'ютери для прийняття рішень.
01:33
They acquire the sensibility of truth
34
93260
2000
Вони набувають істиннісної точності,
01:35
because they repeat over and over again,
35
95260
2000
оскільки повторюють знову і знову одні й ті ж самі дії.
01:37
and they ossify and calcify,
36
97260
3000
І вони костеніють та тверднуть,
01:40
and they become real.
37
100260
2000
і вони перетворюються на реальність.
01:42
And I was thinking about this, of all places,
38
102260
3000
І я обмірковував це, коли б ви думали,
01:45
on a transatlantic flight a couple of years ago,
39
105260
3000
під час трансатлантичного перельоту пару років назад,
01:48
because I happened to be seated
40
108260
2000
бо так сталось, що я сидів
01:50
next to a Hungarian physicist about my age
41
110260
2000
поруч із фізиком з Угорщини десь мого віку
01:52
and we were talking
42
112260
2000
і ми розмовляли
01:54
about what life was like during the Cold War
43
114260
2000
про те, яким було життя під час холодної війни
01:56
for physicists in Hungary.
44
116260
2000
для фізиків в Угорщині.
01:58
And I said, "So what were you doing?"
45
118260
2000
І я спитав: "Так чим же ви займались?"
02:00
And he said, "Well we were mostly breaking stealth."
46
120260
2000
І він відповів: "Ну, ми переважно займались зломом захисту літаків-невидимок."
02:02
And I said, "That's a good job. That's interesting.
47
122260
2000
І я сказав: "Це гарна робота. Цікава.
02:04
How does that work?"
48
124260
2000
І як це працює?"
02:06
And to understand that,
49
126260
2000
І щоб зрозуміти це,
02:08
you have to understand a little bit about how stealth works.
50
128260
3000
ви маєте трохи розуміти як працює захист літаків-невидимок.
02:11
And so -- this is an over-simplification --
51
131260
3000
Отже -- і це надмірне спрощення --
02:14
but basically, it's not like
52
134260
2000
але, власне,
02:16
you can just pass a radar signal
53
136260
2000
ви не можете просто пропустити радіолокаційний сигнал
02:18
right through 156 tons of steel in the sky.
54
138260
3000
прямо через 156 тон сталі в небі.
02:21
It's not just going to disappear.
55
141260
3000
Воно просто так не зникне.
02:24
But if you can take this big, massive thing,
56
144260
3000
Але якщо б ви могли взяти цю велику, масивну штуку,
02:27
and you could turn it into
57
147260
3000
і перетворити її на
02:30
a million little things --
58
150260
2000
мільйон маленьких частин --
02:32
something like a flock of birds --
59
152260
2000
щось схоже на зграю птахів --
02:34
well then the radar that's looking for that
60
154260
2000
ну, тоді для того, щоб радар виявив це,
02:36
has to be able to see
61
156260
2000
він має бути спроможним бачити
02:38
every flock of birds in the sky.
62
158260
2000
кожну зграю птахів в небі.
02:40
And if you're a radar, that's a really bad job.
63
160260
4000
І якщо б ви були радаром, для вас це була б безнадійна справа.
02:44
And he said, "Yeah." He said, "But that's if you're a radar.
64
164260
3000
"Згоден - він сказав, - але це вірно тільки якщо б ви були радаром.
02:47
So we didn't use a radar;
65
167260
2000
Тому ми не використовували радар,
02:49
we built a black box that was looking for electrical signals,
66
169260
3000
натомість ми побудували чорну скриню, яка виявляла електричні сигнали,
02:52
electronic communication.
67
172260
3000
електронний зв'язок.
02:55
And whenever we saw a flock of birds that had electronic communication,
68
175260
3000
І кожен раз, коли ми спостерігали зграю птахів, що вела електронний зв'язок,
02:58
we thought, 'Probably has something to do with the Americans.'"
69
178260
3000
ми знали, що це ймовірно якось було пов'язано із американцями."
03:01
And I said, "Yeah.
70
181260
2000
"Так, - сказав я, -
03:03
That's good.
71
183260
2000
Непогано.
03:05
So you've effectively negated
72
185260
2000
Отже ви фактично забракували
03:07
60 years of aeronautic research.
73
187260
2000
60 років попередніх досліджень з аеронавтики.
03:09
What's your act two?
74
189260
2000
Яким був ваш наступний крок?
03:11
What do you do when you grow up?"
75
191260
2000
Чим ви займаєтесь тепер, після того як удосталь награлись?"
03:13
And he said,
76
193260
2000
І він відповів:
03:15
"Well, financial services."
77
195260
2000
"Ну, фінансовими послугами".
03:17
And I said, "Oh."
78
197260
2000
"Ах!" - здивувався я,
03:19
Because those had been in the news lately.
79
199260
3000
тому що недавно про це згадувалось у новинах.
03:22
And I said, "How does that work?"
80
202260
2000
І я спитав: "Як це працює?"
03:24
And he said, "Well there's 2,000 physicists on Wall Street now,
81
204260
2000
І він відповів: "Ну, зараз на Уолл-стріт працює 2000 фізиків,
03:26
and I'm one of them."
82
206260
2000
і я один із них."
03:28
And I said, "What's the black box for Wall Street?"
83
208260
3000
І я спитав: "Що з себе являє чорна скринька для Уолл-стріт?"
03:31
And he said, "It's funny you ask that,
84
211260
2000
І він сказав: "Цікаво, що ви так спитали,
03:33
because it's actually called black box trading.
85
213260
3000
тому ще це справді називається торгівлею чорними скриньками.
03:36
And it's also sometimes called algo trading,
86
216260
2000
Також іноді це ще називається алго-торгівлею,
03:38
algorithmic trading."
87
218260
3000
або алгоритмічною торгівлею."
03:41
And algorithmic trading evolved in part
88
221260
3000
І алгоритмічна торгівля розвинулась частково
03:44
because institutional traders have the same problems
89
224260
3000
через те, що у відомчих трейдерів виникають ті ж самі проблеми,
03:47
that the United States Air Force had,
90
227260
3000
які були у Військово-повітряних сил США,
03:50
which is that they're moving these positions --
91
230260
3000
а саме, коли вони оперують цими торговими позиціями --
03:53
whether it's Proctor & Gamble or Accenture, whatever --
92
233260
2000
чи то Proctor & Gamble, чи Accenture, що завгодно --
03:55
they're moving a million shares of something
93
235260
2000
вони проводять десь мільйон акцій
03:57
through the market.
94
237260
2000
через ринок.
03:59
And if they do that all at once,
95
239260
2000
І якщо робити це все одразу,
04:01
it's like playing poker and going all in right away.
96
241260
2000
це буде ніби під час гри у покер йти одразу ва-банк.
04:03
You just tip your hand.
97
243260
2000
Таким чином ви тільки розкриваєте свою комбінацію.
04:05
And so they have to find a way --
98
245260
2000
І тому вони мають знайти спосіб --
04:07
and they use algorithms to do this --
99
247260
2000
а для цього вони використовують алгоритми --
04:09
to break up that big thing
100
249260
2000
щоб розбити ту велику штуку
04:11
into a million little transactions.
101
251260
2000
на мільйон маленьких транзакцій.
04:13
And the magic and the horror of that
102
253260
2000
І магія та жах в тому,
04:15
is that the same math
103
255260
2000
що та ж сама математика,
04:17
that you use to break up the big thing
104
257260
2000
яку ви використовуєте щоб розбити велику річ
04:19
into a million little things
105
259260
2000
на мільйон маленьких
04:21
can be used to find a million little things
106
261260
2000
може бути використана, щоб знайти мільйон маленьких речей
04:23
and sew them back together
107
263260
2000
та зібрати їх знову разом
04:25
and figure out what's actually happening in the market.
108
265260
2000
і таким чином зрозуміти, що ж насправді відбувається на ринку.
04:27
So if you need to have some image
109
267260
2000
Отже, якщо вам потрібне деяке уявлення
04:29
of what's happening in the stock market right now,
110
269260
3000
про те, що прямо зараз відбувається на фондовій біржі,
04:32
what you can picture is a bunch of algorithms
111
272260
2000
що ви можете собі уявити, -- це купа алгоритмів,
04:34
that are basically programmed to hide,
112
274260
3000
яких запрограмовано приховувати,
04:37
and a bunch of algorithms that are programmed to go find them and act.
113
277260
3000
та купа алгоритмів, яких запрограмовано шукати та діяти.
04:40
And all of that's great, and it's fine.
114
280260
3000
І все це прекрасно, і все це чудово.
04:43
And that's 70 percent
115
283260
2000
І це складає 70 відсотків
04:45
of the United States stock market,
116
285260
2000
фондової біржі США,
04:47
70 percent of the operating system
117
287260
2000
70 відсотків діючої системи,
04:49
formerly known as your pension,
118
289260
3000
яка до цього була відома як ваша пенсія,
04:52
your mortgage.
119
292260
3000
ваша іпотека.
04:55
And what could go wrong?
120
295260
2000
І що могло піти не так?
04:57
What could go wrong
121
297260
2000
Що могло піти не так,
04:59
is that a year ago,
122
299260
2000
так це те, що рік тому
05:01
nine percent of the entire market just disappears in five minutes,
123
301260
3000
дев'ять відсотків усього ринку просто зникло за п'ять хвилин,
05:04
and they called it the Flash Crash of 2:45.
124
304260
3000
і вони назвали це миттєвим падінням 2:45.
05:07
All of a sudden, nine percent just goes away,
125
307260
3000
Раптово, дев'ять відсотків просто зникає,
05:10
and nobody to this day
126
310260
2000
і ніхто до цього дня
05:12
can even agree on what happened
127
312260
2000
не може навіть зійтись у думці на пояснення того, що трапилось,
05:14
because nobody ordered it, nobody asked for it.
128
314260
3000
тому що ніхто цього не замовляв, і ніхто цього не просив.
05:17
Nobody had any control over what was actually happening.
129
317260
3000
Ніхто не мав ніякого контролю над тим, що насправді сталось.
05:20
All they had
130
320260
2000
Все, що у них було,
05:22
was just a monitor in front of them
131
322260
2000
так це лише монітор перед ними,
05:24
that had the numbers on it
132
324260
2000
який відображав числа
05:26
and just a red button
133
326260
2000
і у них була червона кнопка
05:28
that said, "Stop."
134
328260
2000
на якій було написано: "Стоп."
05:30
And that's the thing,
135
330260
2000
Склалась ситуація,
05:32
is that we're writing things,
136
332260
2000
що ми пишемо речі,
05:34
we're writing these things that we can no longer read.
137
334260
3000
ми пишемо ці речі, які не можемо самі прочитати.
05:37
And we've rendered something
138
337260
2000
І ми представили щось
05:39
illegible,
139
339260
2000
нерозбірливе.
05:41
and we've lost the sense
140
341260
3000
І ми втратили розуміння
05:44
of what's actually happening
141
344260
2000
того, що насправді відбувається
05:46
in this world that we've made.
142
346260
2000
в цьому світі, який ми створили.
05:48
And we're starting to make our way.
143
348260
2000
Але ми починаємо рухатись до подолання цього.
05:50
There's a company in Boston called Nanex,
144
350260
3000
В Бостоні є компанія, що називається Nanex,
05:53
and they use math and magic
145
353260
2000
і вони використовують математику та магію
05:55
and I don't know what,
146
355260
2000
та я не знаю що ще,
05:57
and they reach into all the market data
147
357260
2000
і вони розглядають увесь обсяг ринкових даних
05:59
and they find, actually sometimes, some of these algorithms.
148
359260
3000
і знаходять, насправді лише іноді, деякі з цих алгоритмів.
06:02
And when they find them they pull them out
149
362260
3000
І коли вони їх знаходять, вони витягають їх
06:05
and they pin them to the wall like butterflies.
150
365260
3000
і вони приколюють їх до стіни як метеликів.
06:08
And they do what we've always done
151
368260
2000
І вони роблять те, що ми завжди робимо
06:10
when confronted with huge amounts of data that we don't understand --
152
370260
3000
коли стикаємось із величезними обсягами даних, яких ми не розуміємо --
06:13
which is that they give them a name
153
373260
2000
вони дають їм ім'я
06:15
and a story.
154
375260
2000
та історію.
06:17
So this is one that they found,
155
377260
2000
Тож ось екземпляр, який вони знайшли,
06:19
they called the Knife,
156
379260
4000
і який вони назвали Ножем,
06:23
the Carnival,
157
383260
2000
Карнавалом,
06:25
the Boston Shuffler,
158
385260
4000
Бостонським спритником,
06:29
Twilight.
159
389260
2000
Сутінками.
06:31
And the gag is
160
391260
2000
І що забавно,
06:33
that, of course, these aren't just running through the market.
161
393260
3000
звичайно, ці речі відбуваються не тільки на ринку.
06:36
You can find these kinds of things wherever you look,
162
396260
3000
Ви зможете знайти подібні речі де б ви не шукали,
06:39
once you learn how to look for them.
163
399260
2000
як тільки ви дізнаєтесь як їх шукати.
06:41
You can find it here: this book about flies
164
401260
3000
Ви можете знайти їх тут: ось книжка про мух
06:44
that you may have been looking at on Amazon.
165
404260
2000
яку б ви могли бачити на Amazon.
06:46
You may have noticed it
166
406260
2000
Ви могли б її помітити,
06:48
when its price started at 1.7 million dollars.
167
408260
2000
коли її початкова ціна була 1,7 мільйонів доларів.
06:50
It's out of print -- still ...
168
410260
2000
Вона більше не видається -- але все одно...
06:52
(Laughter)
169
412260
2000
(Сміх)
06:54
If you had bought it at 1.7, it would have been a bargain.
170
414260
3000
Якщо б ви її купили за 1,7, це було б ще вигідно.
06:57
A few hours later, it had gone up
171
417260
2000
Через декілька годин, ціна її зросла
06:59
to 23.6 million dollars,
172
419260
2000
до 23,6 мільйонів доларів,
07:01
plus shipping and handling.
173
421260
2000
не враховуючи доставку та пакування.
07:03
And the question is:
174
423260
2000
І виникає питання:
07:05
Nobody was buying or selling anything; what was happening?
175
425260
2000
Ніхто нічого не купував чи продавав; що відбувалось?
07:07
And you see this behavior on Amazon
176
427260
2000
І таку поведінку можна помітити на Amazon
07:09
as surely as you see it on Wall Street.
177
429260
2000
так само, як і на Уолл-стріт.
07:11
And when you see this kind of behavior,
178
431260
2000
І коли ви бачите подібну поведінку,
07:13
what you see is the evidence
179
433260
2000
те, що ви спостерігаєте -- це свідчення
07:15
of algorithms in conflict,
180
435260
2000
конфлікту алгоритмів,
07:17
algorithms locked in loops with each other,
181
437260
2000
алгоритмів, які блокують один одного під час свого виконання,
07:19
without any human oversight,
182
439260
2000
без будь-якого нагляду зі сторони людини,
07:21
without any adult supervision
183
441260
3000
без будь-якого нагляду дорослих,
07:24
to say, "Actually, 1.7 million is plenty."
184
444260
3000
які б могли сказати: "Насправді, 1.7 мільйонів -- це занадто."
07:27
(Laughter)
185
447260
3000
(Сміх)
07:30
And as with Amazon, so it is with Netflix.
186
450260
3000
Так само, як це відбувається із Amazon, це відбувається і з Netflix.
07:33
And so Netflix has gone through
187
453260
2000
І тож Netflix розглянули
07:35
several different algorithms over the years.
188
455260
2000
протягом кількох років декілька різних алгоритмів.
07:37
They started with Cinematch, and they've tried a bunch of others --
189
457260
3000
Вони почали з Cinematch, і вони спробували низку інших.
07:40
there's Dinosaur Planet; there's Gravity.
190
460260
2000
Серед них Планета динозаврів, Гравітація.
07:42
They're using Pragmatic Chaos now.
191
462260
2000
Зараз вони використовують Прагматичний хаос.
07:44
Pragmatic Chaos is, like all of Netflix algorithms,
192
464260
2000
Прагматичний хаос, подібно до всіх алгоритмів Netflix,
07:46
trying to do the same thing.
193
466260
2000
намагається вирішити ту ж саму задачу.
07:48
It's trying to get a grasp on you,
194
468260
2000
Він намагаєтсья осягнути вас,
07:50
on the firmware inside the human skull,
195
470260
2000
вбудовану програму в середині людського черепа,
07:52
so that it can recommend what movie
196
472260
2000
для того, щоб порекомендувати кінофильм,
07:54
you might want to watch next --
197
474260
2000
який ви, можливо, захотіли б подивитись наступним --
07:56
which is a very, very difficult problem.
198
476260
3000
що є дуже, дуже складною проблемою.
07:59
But the difficulty of the problem
199
479260
2000
Але сладність проблеми
08:01
and the fact that we don't really quite have it down,
200
481260
3000
та той факт, що ми ще не зовсім знаємо як її розв'язати повністю,
08:04
it doesn't take away
201
484260
2000
не відміняє
08:06
from the effects Pragmatic Chaos has.
202
486260
2000
результатів Прагматичного хаосу.
08:08
Pragmatic Chaos, like all Netflix algorithms,
203
488260
3000
Прагматичний хаос, як і всі алгоритми Netflix,
08:11
determines, in the end,
204
491260
2000
визначає у підсумку
08:13
60 percent
205
493260
2000
60 відсотків
08:15
of what movies end up being rented.
206
495260
2000
тих кінофільмів, які дійсно беруться напрокат.
08:17
So one piece of code
207
497260
2000
Отже єдиний фрагмент коду
08:19
with one idea about you
208
499260
3000
за яким стоїть одна ідея про вас,
08:22
is responsible for 60 percent of those movies.
209
502260
3000
відповідає за 60 відсотків тих кінофільмів.
08:25
But what if you could rate those movies
210
505260
2000
Але уявіть, що ви можете оцінювати ці кінофільми
08:27
before they get made?
211
507260
2000
до того, як вони будуть зроблені?
08:29
Wouldn't that be handy?
212
509260
2000
Чи було б це корисним?
08:31
Well, a few data scientists from the U.K. are in Hollywood,
213
511260
3000
Щиро кажучи, декілька вчених з Великобританії, що займаються даними, зараз в Голівуді,
08:34
and they have "story algorithms" --
214
514260
2000
і у них є сюжетні алгоритми -
08:36
a company called Epagogix.
215
516260
2000
це компанія, яка називається Epagogix.
08:38
And you can run your script through there,
216
518260
3000
І ви можете обробити ваш сценарій із їхньою допомогою,
08:41
and they can tell you, quantifiably,
217
521260
2000
і вони можуть сказати вам, кількісно,
08:43
that that's a 30 million dollar movie
218
523260
2000
що той фільм на 30 мільйонів доларів
08:45
or a 200 million dollar movie.
219
525260
2000
або на 200 мільйонів доларів.
08:47
And the thing is, is that this isn't Google.
220
527260
2000
І суть у тому, що це не Google.
08:49
This isn't information.
221
529260
2000
Це не інформація.
08:51
These aren't financial stats; this is culture.
222
531260
2000
Це не фінансова статистика; це - культура.
08:53
And what you see here,
223
533260
2000
І те, що ви тут бачите
08:55
or what you don't really see normally,
224
535260
2000
або те, що зазвичай не бачите,
08:57
is that these are the physics of culture.
225
537260
4000
це те, що все це -- фізика культури.
09:01
And if these algorithms,
226
541260
2000
І якщо ці алгоритми,
09:03
like the algorithms on Wall Street,
227
543260
2000
подібно до алгоритмів на Уолл-стріт,
09:05
just crashed one day and went awry,
228
545260
3000
просто одного дня дадуть збій, або почнуть неправильно працювати,
09:08
how would we know?
229
548260
2000
як ми про це дізнаємось,
09:10
What would it look like?
230
550260
2000
на що це буде схоже?
09:12
And they're in your house. They're in your house.
231
552260
3000
І вони вже у вас вдома. Вони у вас вдома.
09:15
These are two algorithms competing for your living room.
232
555260
2000
Ось два алгоритми, які змагаються за вашу вітальню.
09:17
These are two different cleaning robots
233
557260
2000
Це два різних робота-прибиральника
09:19
that have very different ideas about what clean means.
234
559260
3000
які мають дуже різні уявлення про те, що означає прибирання.
09:22
And you can see it
235
562260
2000
І ви можете це побачити
09:24
if you slow it down and attach lights to them,
236
564260
3000
якщо уповільнити та приєднати до них світлові вогні.
09:27
and they're sort of like secret architects in your bedroom.
237
567260
3000
І вони ніби таємні архітектори у вашій спальні.
09:30
And the idea that architecture itself
238
570260
3000
Та ідея про те, що сама архітектура
09:33
is somehow subject to algorithmic optimization
239
573260
2000
може якимось чином піддаватись алгоритмічній оптимізації
09:35
is not far-fetched.
240
575260
2000
не така вже і штучна.
09:37
It's super-real and it's happening around you.
241
577260
3000
Це реально як ніколи, і це відбувається навколо вас.
09:40
You feel it most
242
580260
2000
Ви сильніше всього це відчуваєте
09:42
when you're in a sealed metal box,
243
582260
2000
коли ви знаходитесь у закритій металевій коробці,
09:44
a new-style elevator;
244
584260
2000
у ліфті нової розробки,
09:46
they're called destination-control elevators.
245
586260
2000
вони називаються ліфтами із управлінням кінцевим призначенням.
09:48
These are the ones where you have to press what floor you're going to go to
246
588260
3000
Це ті, де ви маєте обрати поверх, на який вам потрібно потрапити
09:51
before you get in the elevator.
247
591260
2000
до того, як ви зайдете до ліфту.
09:53
And it uses what's called a bin-packing algorithm.
248
593260
2000
І він використовує так званий алгоритм пакування у контейнери.
09:55
So none of this mishegas
249
595260
2000
Тож не відбувається такої нісенітниці,
09:57
of letting everybody go into whatever car they want.
250
597260
2000
коли кожен може заходити у ту кабіну, в яку захоче.
09:59
Everybody who wants to go to the 10th floor goes into car two,
251
599260
2000
Всі, хто хоче потрапити на 10-й поверх, йдуть у другу кабіну,
10:01
and everybody who wants to go to the third floor goes into car five.
252
601260
3000
і всі, хто хоче потрапити на третій поверх їдуть в кабіні під номером п'ять.
10:04
And the problem with that
253
604260
2000
І проблема із цим
10:06
is that people freak out.
254
606260
2000
в тому, що люди хвилюються.
10:08
People panic.
255
608260
2000
Люди панікують.
10:10
And you see why. You see why.
256
610260
2000
І ви знаєте чому. Ви знаєте чому.
10:12
It's because the elevator
257
612260
2000
Це через те, що в ліфті
10:14
is missing some important instrumentation, like the buttons.
258
614260
3000
відсутній важливий інструментарій, наприклад, кнопки.
10:17
(Laughter)
259
617260
2000
(Сміх)
10:19
Like the things that people use.
260
619260
2000
Ті речі, якими користуються люди.
10:21
All it has
261
621260
2000
Все, що там є --
10:23
is just the number that moves up or down
262
623260
3000
це лише число, що рухається вгору або вниз
10:26
and that red button that says, "Stop."
263
626260
3000
і та червона кнопка, на якій написано: "Стоп".
10:29
And this is what we're designing for.
264
629260
3000
І ось ціль нашого проектування.
10:32
We're designing
265
632260
2000
Ми проектуємо,
10:34
for this machine dialect.
266
634260
2000
так би мовити, машинний діалект.
10:36
And how far can you take that? How far can you take it?
267
636260
3000
І як далеко таким чином можна зайти? Як далеко можна зайти таким чином?
10:39
You can take it really, really far.
268
639260
2000
Ви можете зайти таким чином дуже, дуже далеко.
10:41
So let me take it back to Wall Street.
269
641260
3000
Тож давайте повернемося до Уолл-стріт.
10:45
Because the algorithms of Wall Street
270
645260
2000
Тому що алгоритми на Уолл-стріт
10:47
are dependent on one quality above all else,
271
647260
3000
залежать від єдиної характеристики попри інші --
10:50
which is speed.
272
650260
2000
це швидкість.
10:52
And they operate on milliseconds and microseconds.
273
652260
3000
Вони оперують мілісекундами та мікросекундами.
10:55
And just to give you a sense of what microseconds are,
274
655260
2000
І для того, щоб подати відчуття того, що являють собою мікросекунди,
10:57
it takes you 500,000 microseconds
275
657260
2000
у вас забере 500,000 мікросекунд
10:59
just to click a mouse.
276
659260
2000
просто щоб клацнути мишею.
11:01
But if you're a Wall Street algorithm
277
661260
2000
Але якщо ви алгоритм з Уолл-стріт
11:03
and you're five microseconds behind,
278
663260
2000
і ви відстаєте на п'ять мікросекунд,
11:05
you're a loser.
279
665260
2000
то ви програли.
11:07
So if you were an algorithm,
280
667260
2000
Таким чином, якщо б ви були алгоритмом,
11:09
you'd look for an architect like the one that I met in Frankfurt
281
669260
3000
ви б шукали архітектора, такого, як я зустрів у Франкфурті,
11:12
who was hollowing out a skyscraper --
282
672260
2000
який займався вивільненням хмарочоса
11:14
throwing out all the furniture, all the infrastructure for human use,
283
674260
3000
від меблів, від усієї інфраструктури, яку викристовують люди,
11:17
and just running steel on the floors
284
677260
3000
і лише покривав підлоги сталлю
11:20
to get ready for the stacks of servers to go in --
285
680260
3000
для того, щоб підготуватись до розміщення серверних стійок --
11:23
all so an algorithm
286
683260
2000
все для того, щоб алгоритм
11:25
could get close to the Internet.
287
685260
3000
міг ближче підібратись до Інтернету.
11:28
And you think of the Internet as this kind of distributed system.
288
688260
3000
І ви вбачаєте у мережі Інтернет певний різновид розподіленої системи.
11:31
And of course, it is, but it's distributed from places.
289
691260
3000
І звичайно так і є, але вона розподіляється із конкретних місць.
11:34
In New York, this is where it's distributed from:
290
694260
2000
В Нью Йорку ось звідки вона розподіляєтсья:
11:36
the Carrier Hotel
291
696260
2000
Готель Carrier,
11:38
located on Hudson Street.
292
698260
2000
що знаходиться на Гудзон-стріт.
11:40
And this is really where the wires come right up into the city.
293
700260
3000
І це насправді звідки дроти тягнуться прямо у місто.
11:43
And the reality is that the further away you are from that,
294
703260
4000
І в дійсності чим далі ви знаходитись від того місця,
11:47
you're a few microseconds behind every time.
295
707260
2000
ви завжди відстаєте на декілька мікросекунд.
11:49
These guys down on Wall Street,
296
709260
2000
Ці хлопці на Уолл-стріт,
11:51
Marco Polo and Cherokee Nation,
297
711260
2000
Marco Polo та Cherokee Nation,
11:53
they're eight microseconds
298
713260
2000
вони на вісім мікросекунд
11:55
behind all these guys
299
715260
2000
відстають від усіх цих хлопців
11:57
going into the empty buildings being hollowed out
300
717260
4000
які прямують у порожні будинки, що вивільняються
12:01
up around the Carrier Hotel.
301
721260
2000
навколо Готеля Carrier.
12:03
And that's going to keep happening.
302
723260
3000
І це буде продовжуватись.
12:06
We're going to keep hollowing them out,
303
726260
2000
І ми будемо продовжувати їх вивільнювати,
12:08
because you, inch for inch
304
728260
3000
тому що ніхто з вас, дюйм за дюймом
12:11
and pound for pound and dollar for dollar,
305
731260
3000
і фунт за фунтом, і долар за доларом
12:14
none of you could squeeze revenue out of that space
306
734260
3000
ніхто з вас не зможе вичавити прибуток з усього того простору,
12:17
like the Boston Shuffler could.
307
737260
3000
як це може Бостонський спритник.
12:20
But if you zoom out,
308
740260
2000
Але якщо ви зменшете масштаб,
12:22
if you zoom out,
309
742260
2000
якщо ви зменшете масштаб,
12:24
you would see an 825-mile trench
310
744260
4000
ви побачите рів довжиною у 1,300 кілометрів
12:28
between New York City and Chicago
311
748260
2000
між Нью Йорком та Чикаго
12:30
that's been built over the last few years
312
750260
2000
який побудувала за декілька останніх років
12:32
by a company called Spread Networks.
313
752260
3000
компанія, що називається Spread Networks.
12:35
This is a fiber optic cable
314
755260
2000
Це оптоволоконний кабель
12:37
that was laid between those two cities
315
757260
2000
який проклали між двома тими містами
12:39
to just be able to traffic one signal
316
759260
3000
лише для того, щоб передавати єдиний сигнал
12:42
37 times faster than you can click a mouse --
317
762260
3000
в 37 разів швидше, ніж ви зможете клацнути мишею -
12:45
just for these algorithms,
318
765260
3000
ексклюзивно для цих алгоритмів,
12:48
just for the Carnival and the Knife.
319
768260
3000
ексклюзивно для Карнавала, і для Ножа.
12:51
And when you think about this,
320
771260
2000
Подумати тільки,
12:53
that we're running through the United States
321
773260
2000
ми прориваємось через усі Сполучені Штати
12:55
with dynamite and rock saws
322
775260
3000
за допомогою динаміту та землерийок
12:58
so that an algorithm can close the deal
323
778260
2000
для того, щоб алгоритм завершив угоду
13:00
three microseconds faster,
324
780260
3000
на три мікросекунди швидше,
13:03
all for a communications framework
325
783260
2000
все заради інфраструктури зв'язку,
13:05
that no human will ever know,
326
785260
4000
про яку не дізнається жодна людина,
13:09
that's a kind of manifest destiny;
327
789260
3000
це приречення долі,
13:12
and we'll always look for a new frontier.
328
792260
3000
яке завжди знайде спосіб проявити себе.
13:15
Unfortunately, we have our work cut out for us.
329
795260
3000
На жаль, наша робота вже визначена.
13:18
This is just theoretical.
330
798260
2000
Це лише теорія.
13:20
This is some mathematicians at MIT.
331
800260
2000
Це зробили математики з MIT.
13:22
And the truth is I don't really understand
332
802260
2000
І насправді я не розумію
13:24
a lot of what they're talking about.
333
804260
2000
багато чого з того, про що вони говорять.
13:26
It involves light cones and quantum entanglement,
334
806260
3000
Тут використовуються світлові конуси та квантова заплутаність,
13:29
and I don't really understand any of that.
335
809260
2000
і я насправді на всьому цьому не розуміюсь.
13:31
But I can read this map,
336
811260
2000
Але я можу читати цю мапу.
13:33
and what this map says
337
813260
2000
І ця мапа каже,
13:35
is that, if you're trying to make money on the markets where the red dots are,
338
815260
3000
що якщо ви намагаєтесь заробити на ринках, які позначено червоними точками,
13:38
that's where people are, where the cities are,
339
818260
2000
це там де люди, де міста,
13:40
you're going to have to put the servers where the blue dots are
340
820260
3000
то вам потрібно розмістити сервери у місцях, де знаходяться сині точки,
13:43
to do that most effectively.
341
823260
2000
щоб зробити це найбільш ефективно.
13:45
And the thing that you might have noticed about those blue dots
342
825260
3000
І головним, що можна сказати про сині точки, як ви вже мабуть помітили,
13:48
is that a lot of them are in the middle of the ocean.
343
828260
3000
є те, що багато з них знаходяться посеред океану.
13:51
So that's what we'll do: we'll build bubbles or something,
344
831260
3000
Отже це ми і зробимо, ми побудуємо бульбашки, чи щось подібне,
13:54
or platforms.
345
834260
2000
або платформи,
13:56
We'll actually part the water
346
836260
2000
ми справді розсунемо води
13:58
to pull money out of the air,
347
838260
2000
аби отримати гроші з повітря
14:00
because it's a bright future
348
840260
2000
тому що це світле майбутнє
14:02
if you're an algorithm.
349
842260
2000
для вас, якщо ви - алгоритм.
14:04
(Laughter)
350
844260
2000
(Сміх)
14:06
And it's not the money that's so interesting actually.
351
846260
3000
І гроші самі по собі не цікаві.
14:09
It's what the money motivates,
352
849260
2000
Цікаво, на що гроші спонукають.
14:11
that we're actually terraforming
353
851260
2000
На те, щоб змінювати в планетарому маштабі
14:13
the Earth itself
354
853260
2000
саму Землю
14:15
with this kind of algorithmic efficiency.
355
855260
2000
за допомогою такої алгоритмічної оптимізації.
14:17
And in that light,
356
857260
2000
І в світлі цього
14:19
you go back
357
859260
2000
повертаючись
14:21
and you look at Michael Najjar's photographs,
358
861260
2000
і вдивляючись на фотографії Майкла Найджара
14:23
and you realize that they're not metaphor, they're prophecy.
359
863260
3000
ви розумієте, що вони -- не метафора, вони -- пророцтво.
14:26
They're prophecy
360
866260
2000
Вони пророкують
14:28
for the kind of seismic, terrestrial effects
361
868260
4000
сейсмічні, земні наслідки
14:32
of the math that we're making.
362
872260
2000
математики, яку ми створюємо.
14:34
And the landscape was always made
363
874260
3000
І ландшафт завжди формувався
14:37
by this sort of weird, uneasy collaboration
364
877260
3000
у такому дивному та складному співробітництві
14:40
between nature and man.
365
880260
3000
між природою та людиною.
14:43
But now there's this third co-evolutionary force: algorithms --
366
883260
3000
Але зараз з'явилась третя супутня еволюційна сила: алгоритми --
14:46
the Boston Shuffler, the Carnival.
367
886260
3000
Бостонський спритник, Карнавал.
14:49
And we will have to understand those as nature,
368
889260
3000
І ми будемо змушені зрозуміти їх, як і природу.
14:52
and in a way, they are.
369
892260
2000
І в деякому розумінні, вони нею і є.
14:54
Thank you.
370
894260
2000
Дякую.
14:56
(Applause)
371
896260
20000
(Аплодисменти)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7