How algorithms shape our world | Kevin Slavin

484,251 views ・ 2011-07-21

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: Denitza Toteva Reviewer: Darina Stoyanova
00:15
This is a photograph
0
15260
2000
Това е снимка
00:17
by the artist Michael Najjar,
1
17260
2000
от фотографа Майкъл Нажар
00:19
and it's real,
2
19260
2000
и тя е истинска
00:21
in the sense that he went there to Argentina
3
21260
2000
в смисъл, че той отишъл до Аржентина
00:23
to take the photo.
4
23260
2000
за да направи снимката.
00:25
But it's also a fiction. There's a lot of work that went into it after that.
5
25260
3000
Но тя също така е и фикция. Много работа е била вложена в нея след това.
00:28
And what he's done
6
28260
2000
И това, което той е направил е
00:30
is he's actually reshaped, digitally,
7
30260
2000
да я промени дигитално,
00:32
all of the contours of the mountains
8
32260
2000
така че контурите на планините
00:34
to follow the vicissitudes of the Dow Jones index.
9
34260
3000
да следват промените на индекса Dow Jones.
00:37
So what you see,
10
37260
2000
Това което виждате
00:39
that precipice, that high precipice with the valley,
11
39260
2000
стръмния скат и долината,
00:41
is the 2008 financial crisis.
12
41260
2000
е финансовата криза от 2008.
00:43
The photo was made
13
43260
2000
Снимката е била направена,
00:45
when we were deep in the valley over there.
14
45260
2000
когато ние сме били дълбоко в "долината".
00:47
I don't know where we are now.
15
47260
2000
Не знам къде сме сега.
00:49
This is the Hang Seng index
16
49260
2000
Това е Hang Seng индекса
00:51
for Hong Kong.
17
51260
2000
за Хонг Конг.
00:53
And similar topography.
18
53260
2000
И топографията е сходна.
00:55
I wonder why.
19
55260
2000
Чудя се защо.
00:57
And this is art. This is metaphor.
20
57260
3000
И това е изкуство. Това е метафора.
01:00
But I think the point is
21
60260
2000
Но мисля, че смисълът е,
01:02
that this is metaphor with teeth,
22
62260
2000
че това е силна метафора.
01:04
and it's with those teeth that I want to propose today
23
64260
3000
И със силата на тази метафора искам да предложа
01:07
that we rethink a little bit
24
67260
2000
да преосмислим
01:09
about the role of contemporary math --
25
69260
3000
ролята на съвременната математика --
01:12
not just financial math, but math in general.
26
72260
3000
не само финансовата математика, но математиката изцяло.
01:15
That its transition
27
75260
2000
Това е трансформация
01:17
from being something that we extract and derive from the world
28
77260
3000
от нещо което ние извличаме от света
01:20
to something that actually starts to shape it --
29
80260
3000
към нещо което започва да го оформя.
01:23
the world around us and the world inside us.
30
83260
3000
от нещо, което е в нас и нещо, което е извън нас.
01:26
And it's specifically algorithms,
31
86260
2000
И това са специфични алгоритми,
01:28
which are basically the math
32
88260
2000
които са в основата си математиката,
01:30
that computers use to decide stuff.
33
90260
3000
която компютрите използват, за да взимат решения.
01:33
They acquire the sensibility of truth
34
93260
2000
Те придобиват чувствителност за истината,
01:35
because they repeat over and over again,
35
95260
2000
защото повтарят отново и отново нещата.
01:37
and they ossify and calcify,
36
97260
3000
Превръщат нещата в кокали, калцифицират ги
01:40
and they become real.
37
100260
2000
и така те се превръщат в истински.
01:42
And I was thinking about this, of all places,
38
102260
3000
Така се случи, че мислех за всичко това
01:45
on a transatlantic flight a couple of years ago,
39
105260
3000
по време на презокеански полет преди няколко години,
01:48
because I happened to be seated
40
108260
2000
защото се оказа че седях
01:50
next to a Hungarian physicist about my age
41
110260
2000
до унгарски физик на моята възраст
01:52
and we were talking
42
112260
2000
и разговаряхме
01:54
about what life was like during the Cold War
43
114260
2000
за това как е бил животът по време на Студената война
01:56
for physicists in Hungary.
44
116260
2000
за физиците в Унгария.
01:58
And I said, "So what were you doing?"
45
118260
2000
И така аз го попитах "И с какво се занимавахте ?"
02:00
And he said, "Well we were mostly breaking stealth."
46
120260
2000
И той отговори, че основно е разкривал невидимите самолети (стелт).
02:02
And I said, "That's a good job. That's interesting.
47
122260
2000
И аз отбелязах: " Това е интересна работа.
02:04
How does that work?"
48
124260
2000
Как функционира?"
02:06
And to understand that,
49
126260
2000
За да разберете това,
02:08
you have to understand a little bit about how stealth works.
50
128260
3000
трябва да научите малко повече как работи стелт технологията.
02:11
And so -- this is an over-simplification --
51
131260
3000
И така този пример е прекалено опростен,
02:14
but basically, it's not like
52
134260
2000
но принципно не е така,
02:16
you can just pass a radar signal
53
136260
2000
че просто може да пуснете радарен сигнал
02:18
right through 156 tons of steel in the sky.
54
138260
3000
през 156 тона стомана в небето.
02:21
It's not just going to disappear.
55
141260
3000
Той няма просто да изчезне.
02:24
But if you can take this big, massive thing,
56
144260
3000
Но ако вземете това голямо, масивно нещо
02:27
and you could turn it into
57
147260
3000
и го превърнете в
02:30
a million little things --
58
150260
2000
милиони малки неща
02:32
something like a flock of birds --
59
152260
2000
- нещо като ято птици -
02:34
well then the radar that's looking for that
60
154260
2000
тогава радарът, който го търси,
02:36
has to be able to see
61
156260
2000
ще бъде в състояние да открие
02:38
every flock of birds in the sky.
62
158260
2000
всяко ято птици в небето.
02:40
And if you're a radar, that's a really bad job.
63
160260
4000
И ако сте радар, това е наистина гадна работа.
02:44
And he said, "Yeah." He said, "But that's if you're a radar.
64
164260
3000
И той отговори: "Да. Но това е само ако си радар.
02:47
So we didn't use a radar;
65
167260
2000
Ние не използвахме радар;
02:49
we built a black box that was looking for electrical signals,
66
169260
3000
ние направихме черна кутия, която търсеше електрични сигнали,
02:52
electronic communication.
67
172260
3000
електронна комуникация.
02:55
And whenever we saw a flock of birds that had electronic communication,
68
175260
3000
И където и да видехме ято птици, които имаха електронна комуникация,
02:58
we thought, 'Probably has something to do with the Americans.'"
69
178260
3000
мислехме, че те имат някаква връзка с американците.
03:01
And I said, "Yeah.
70
181260
2000
"Да." казах аз.
03:03
That's good.
71
183260
2000
"Това е добре.
03:05
So you've effectively negated
72
185260
2000
Така вие сте неутрализирали
03:07
60 years of aeronautic research.
73
187260
2000
60 години астронавски изследвания.
03:09
What's your act two?
74
189260
2000
И какво стана след това?
03:11
What do you do when you grow up?"
75
191260
2000
Какво направихте, когато порастнахте?"
03:13
And he said,
76
193260
2000
И той каза:
03:15
"Well, financial services."
77
195260
2000
" Ами заех се с финансови услуги."
03:17
And I said, "Oh."
78
197260
2000
Аз възкликнах.
03:19
Because those had been in the news lately.
79
199260
3000
Защото това беше в новините в последно време.
03:22
And I said, "How does that work?"
80
202260
2000
И го попитах как функционира това?
03:24
And he said, "Well there's 2,000 physicists on Wall Street now,
81
204260
2000
Той отговори: " В момента има около 2.000 физика на Wall Street
03:26
and I'm one of them."
82
206260
2000
и аз съм един от тях."
03:28
And I said, "What's the black box for Wall Street?"
83
208260
3000
Попитах го каква е черната кутия на Wall Street.
03:31
And he said, "It's funny you ask that,
84
211260
2000
Доста е забавно, че задавате този въпрос,
03:33
because it's actually called black box trading.
85
213260
3000
защото това се нарича точно търговията на черната кутия.
03:36
And it's also sometimes called algo trading,
86
216260
2000
Нарича се също и алго търговия -
03:38
algorithmic trading."
87
218260
3000
идва от алгоритмична търговия."
03:41
And algorithmic trading evolved in part
88
221260
3000
И тази алгоритмична търговия се развива отчасти,
03:44
because institutional traders have the same problems
89
224260
3000
защото брокерите имат същите проблеми,
03:47
that the United States Air Force had,
90
227260
3000
които са имали американски военновъздушни сили,
03:50
which is that they're moving these positions --
91
230260
3000
те движат тези позиции -
03:53
whether it's Proctor & Gamble or Accenture, whatever --
92
233260
2000
все едно е дали ще бъдат Proctor & Gamble или Accenture -
03:55
they're moving a million shares of something
93
235260
2000
те движат милиони акции от нещо
03:57
through the market.
94
237260
2000
през пазара.
03:59
And if they do that all at once,
95
239260
2000
И ако го правят едновременно,
04:01
it's like playing poker and going all in right away.
96
241260
2000
това е като да влезеш с всичко вътре.
04:03
You just tip your hand.
97
243260
2000
Просто играеш "ръка".
04:05
And so they have to find a way --
98
245260
2000
И така брокерите трябва да намерят начин -
04:07
and they use algorithms to do this --
99
247260
2000
и те използват алгоритми, за да го направят -
04:09
to break up that big thing
100
249260
2000
за да разчупят това голямо нещо
04:11
into a million little transactions.
101
251260
2000
на милиони малки транзакции.
04:13
And the magic and the horror of that
102
253260
2000
И магията и кошмарът тук е, че
04:15
is that the same math
103
255260
2000
това е същата математика,
04:17
that you use to break up the big thing
104
257260
2000
която използваш, за да разбиеш голямото нещо
04:19
into a million little things
105
259260
2000
на милиони малки неща,
04:21
can be used to find a million little things
106
261260
2000
може да бъде използвана, за да намериш милиони малки неща
04:23
and sew them back together
107
263260
2000
и да ги зашие едно за друго
04:25
and figure out what's actually happening in the market.
108
265260
2000
и така да разбере какво всъщност се случва на пазара.
04:27
So if you need to have some image
109
267260
2000
И така ако трябва да придобиете картина
04:29
of what's happening in the stock market right now,
110
269260
3000
какво се случва в момента на борсата,
04:32
what you can picture is a bunch of algorithms
111
272260
2000
може да изобразите купчина алгоритми,
04:34
that are basically programmed to hide,
112
274260
3000
които са програмирани да крият
04:37
and a bunch of algorithms that are programmed to go find them and act.
113
277260
3000
и друга купчина алгоритми, които имат задачата да ги открият и да действат.
04:40
And all of that's great, and it's fine.
114
280260
3000
И всичко това е страхотно и е добре.
04:43
And that's 70 percent
115
283260
2000
И това са 70 процента
04:45
of the United States stock market,
116
285260
2000
от борсата на Съединените Щати,
04:47
70 percent of the operating system
117
287260
2000
70 процента от оперативната система
04:49
formerly known as your pension,
118
289260
3000
формално наречена твоята пенсия,
04:52
your mortgage.
119
292260
3000
твоята ипотека.
04:55
And what could go wrong?
120
295260
2000
И какво може да се обърка тук?
04:57
What could go wrong
121
297260
2000
Хм, ами това което може да се обърка
04:59
is that a year ago,
122
299260
2000
е че преди година
05:01
nine percent of the entire market just disappears in five minutes,
123
301260
3000
9 процента от целия пазар просто изчезнаха в рамките на 5 минути
05:04
and they called it the Flash Crash of 2:45.
124
304260
3000
и това се нарича светкавичния краш от 2:45.
05:07
All of a sudden, nine percent just goes away,
125
307260
3000
Изведнъж 9 процента от пазарната стойност просто изчезна
05:10
and nobody to this day
126
310260
2000
и никой до ден днешен
05:12
can even agree on what happened
127
312260
2000
не може да постигне консенсус какво точно се е случило,
05:14
because nobody ordered it, nobody asked for it.
128
314260
3000
защото никой не го е поръчвал, никой не е питал за него.
05:17
Nobody had any control over what was actually happening.
129
317260
3000
Никой нямаше реален контрол над това, което се случва.
05:20
All they had
130
320260
2000
Всичко, което те имаха
05:22
was just a monitor in front of them
131
322260
2000
беше просто монитор,
05:24
that had the numbers on it
132
324260
2000
който имаше числа по него
05:26
and just a red button
133
326260
2000
и един червен бутон,
05:28
that said, "Stop."
134
328260
2000
който казваше "Стоп".
05:30
And that's the thing,
135
330260
2000
И точно това е проблемът,
05:32
is that we're writing things,
136
332260
2000
пишем неща,
05:34
we're writing these things that we can no longer read.
137
334260
3000
пишем неща, които вече не можем да прочетем.
05:37
And we've rendered something
138
337260
2000
И изоставяме нещо, което
05:39
illegible,
139
339260
2000
е нечетливо.
05:41
and we've lost the sense
140
341260
3000
Вече сме загубили чувството
05:44
of what's actually happening
141
344260
2000
какво се случва вдействителност
05:46
in this world that we've made.
142
346260
2000
в света, който самите ние сме създали.
05:48
And we're starting to make our way.
143
348260
2000
И започваме да създаваме нашия начин за тълкуването на нещата.
05:50
There's a company in Boston called Nanex,
144
350260
3000
Има една компания в Бостън наречена Nanex
05:53
and they use math and magic
145
353260
2000
и те използват точно математика и магия
05:55
and I don't know what,
146
355260
2000
и аз не знам точно какво
05:57
and they reach into all the market data
147
357260
2000
и те достигат до всички пазарни данни
05:59
and they find, actually sometimes, some of these algorithms.
148
359260
3000
и намират понякога някои от онези алгоритми.
06:02
And when they find them they pull them out
149
362260
3000
И когато ги откриват, ги "издърпват от системата"
06:05
and they pin them to the wall like butterflies.
150
365260
3000
и ги забождат на стената като пеперуди.
06:08
And they do what we've always done
151
368260
2000
И те правят това, което ние винаги правим,
06:10
when confronted with huge amounts of data that we don't understand --
152
370260
3000
когато се конфронтираме с голям брой данни, които не разбираме -
06:13
which is that they give them a name
153
373260
2000
дават им имена
06:15
and a story.
154
375260
2000
и история.
06:17
So this is one that they found,
155
377260
2000
И така това е един от алгоритмите, които те са открили,
06:19
they called the Knife,
156
379260
4000
наричат го Нож,
06:23
the Carnival,
157
383260
2000
Карнавал,
06:25
the Boston Shuffler,
158
385260
4000
Бостънският Картоиграч,
06:29
Twilight.
159
389260
2000
Сумрач.
06:31
And the gag is
160
391260
2000
И номерът е,
06:33
that, of course, these aren't just running through the market.
161
393260
3000
че те разбира се не тичат просто през пазара.
06:36
You can find these kinds of things wherever you look,
162
396260
3000
Вие можете да откриете това навсякъде, където и да погледнете
06:39
once you learn how to look for them.
163
399260
2000
само трябва да се научите къде да гледате за тях.
06:41
You can find it here: this book about flies
164
401260
3000
Ето ви един пример: тази книга за мухи,
06:44
that you may have been looking at on Amazon.
165
404260
2000
която може би сте търсили в Амазон.
06:46
You may have noticed it
166
406260
2000
Може би сте я забелязали,
06:48
when its price started at 1.7 million dollars.
167
408260
2000
когато цената и доближи 1,7 милиона долара.
06:50
It's out of print -- still ...
168
410260
2000
Тогава тиражът и е изчерпан.
06:52
(Laughter)
169
412260
2000
Смях в залата
06:54
If you had bought it at 1.7, it would have been a bargain.
170
414260
3000
Ако си я бяхте купили по това време, щеше да бъде изгодно.
06:57
A few hours later, it had gone up
171
417260
2000
След няколко часа цената се качи и
06:59
to 23.6 million dollars,
172
419260
2000
стигна 23,6 милиона долара
07:01
plus shipping and handling.
173
421260
2000
плюс транспорт и комисионна.
07:03
And the question is:
174
423260
2000
И така въпросът е:
07:05
Nobody was buying or selling anything; what was happening?
175
425260
2000
Никой не купуваше или продаваше - и така какво се случи?
07:07
And you see this behavior on Amazon
176
427260
2000
И така вие може да видите това поведение в Amazon
07:09
as surely as you see it on Wall Street.
177
429260
2000
по същия начин, по който може да го видите на Wall Street.
07:11
And when you see this kind of behavior,
178
431260
2000
И когато видите това поведени,
07:13
what you see is the evidence
179
433260
2000
това което виждате е доказателство
07:15
of algorithms in conflict,
180
435260
2000
на алгоритми в конфликт,
07:17
algorithms locked in loops with each other,
181
437260
2000
алгоритми свързани взаимно в цикъл,
07:19
without any human oversight,
182
439260
2000
без човешка намеса,
07:21
without any adult supervision
183
441260
3000
без наблюдение на възръстен,
07:24
to say, "Actually, 1.7 million is plenty."
184
444260
3000
който да каже " Всъщност 1.7 милиона са много."
07:27
(Laughter)
185
447260
3000
Смях в залата.
07:30
And as with Amazon, so it is with Netflix.
186
450260
3000
Както е с Amazon, така е и с Netflix.
07:33
And so Netflix has gone through
187
453260
2000
И така Netflix преминава през
07:35
several different algorithms over the years.
188
455260
2000
няколко различни алгоритма през годините.
07:37
They started with Cinematch, and they've tried a bunch of others --
189
457260
3000
Започнаха със Cinematch и след това опитаха още няколко.
07:40
there's Dinosaur Planet; there's Gravity.
190
460260
2000
Използваха Планетата на Динозаврите, след това Гравитация.
07:42
They're using Pragmatic Chaos now.
191
462260
2000
Сега използват Парагматичен хаос.
07:44
Pragmatic Chaos is, like all of Netflix algorithms,
192
464260
2000
Прагматичен хаос е като всички други алгоритми на Netflix,
07:46
trying to do the same thing.
193
466260
2000
опитващи се да правят едно и също нещо.
07:48
It's trying to get a grasp on you,
194
468260
2000
Опитва се да те сграбчи,
07:50
on the firmware inside the human skull,
195
470260
2000
да сграбчи фините части в мозъка ти,
07:52
so that it can recommend what movie
196
472260
2000
така че да ти препоръча филм,
07:54
you might want to watch next --
197
474260
2000
който може би ще ти се прииска да гледаш следващия път -
07:56
which is a very, very difficult problem.
198
476260
3000
което от своя страна е много труден проблем.
07:59
But the difficulty of the problem
199
479260
2000
Но трудността на проблема
08:01
and the fact that we don't really quite have it down,
200
481260
3000
и фактът, че ние не винаги го разбираме
08:04
it doesn't take away
201
484260
2000
не променя
08:06
from the effects Pragmatic Chaos has.
202
486260
2000
ефекта на Прагматичния Хаос.
08:08
Pragmatic Chaos, like all Netflix algorithms,
203
488260
3000
Прагматичният хаос, подобно на всички алгоритми на Netflix
08:11
determines, in the end,
204
491260
2000
решава накрая, че
08:13
60 percent
205
493260
2000
60 процента
08:15
of what movies end up being rented.
206
495260
2000
от всички филми в края на краищата ще бъдат взети под наем.
08:17
So one piece of code
207
497260
2000
И така едно парче код
08:19
with one idea about you
208
499260
3000
с една идея относно теб
08:22
is responsible for 60 percent of those movies.
209
502260
3000
е отговорно за 60 процента от тези филми.
08:25
But what if you could rate those movies
210
505260
2000
Но какво ще стане, ако можете да давате оценка на тези филми,
08:27
before they get made?
211
507260
2000
още преди да бъдат направени?
08:29
Wouldn't that be handy?
212
509260
2000
Това няма ли да бъде доста удобно?
08:31
Well, a few data scientists from the U.K. are in Hollywood,
213
511260
3000
И така, няколко учени, занимаващи се с оценка на данни от Великобритания са в Холивуд
08:34
and they have "story algorithms" --
214
514260
2000
и те са развили тези алгоритми -
08:36
a company called Epagogix.
215
516260
2000
компанията им се казва Epagogix.
08:38
And you can run your script through there,
216
518260
3000
Можете да пуснеш сценария си през техните алгоритми,
08:41
and they can tell you, quantifiably,
217
521260
2000
и те ще ви дадат количествен отговор,
08:43
that that's a 30 million dollar movie
218
523260
2000
дали това е филм, който ще ти донесе 30
08:45
or a 200 million dollar movie.
219
525260
2000
или 200 милиона.
08:47
And the thing is, is that this isn't Google.
220
527260
2000
И работата е в това, че това не е Google.
08:49
This isn't information.
221
529260
2000
Не е информация.
08:51
These aren't financial stats; this is culture.
222
531260
2000
Това не е и финансова статистика, това е култура.
08:53
And what you see here,
223
533260
2000
И това, което виждате тук
08:55
or what you don't really see normally,
224
535260
2000
или по-скоро това, което не виждате обикновено
08:57
is that these are the physics of culture.
225
537260
4000
е че това е физиката на културата.
09:01
And if these algorithms,
226
541260
2000
И така ако тези алгоритми,
09:03
like the algorithms on Wall Street,
227
543260
2000
подобно на алгоритмите на Wall Street,
09:05
just crashed one day and went awry,
228
545260
3000
един ден просто се сринат и увредят
09:08
how would we know?
229
548260
2000
как ще разберем
09:10
What would it look like?
230
550260
2000
как би изглеждало?
09:12
And they're in your house. They're in your house.
231
552260
3000
И така те са в твоята къща. Те са в къщата ти.
09:15
These are two algorithms competing for your living room.
232
555260
2000
Това са два алгоритма борещи се за хола ви.
09:17
These are two different cleaning robots
233
557260
2000
Това са два почистващи робота,
09:19
that have very different ideas about what clean means.
234
559260
3000
имащи различна идея какво значи чистота.
09:22
And you can see it
235
562260
2000
И можете да го видите,
09:24
if you slow it down and attach lights to them,
236
564260
3000
ако ги забавите или им монтирате светлини.
09:27
and they're sort of like secret architects in your bedroom.
237
567260
3000
И те са нещо като тайни архитекти в спалнята ви.
09:30
And the idea that architecture itself
238
570260
3000
И така идеята, че архитектурата сама по себе си
09:33
is somehow subject to algorithmic optimization
239
573260
2000
е обект на оптимизиране на алгоритми
09:35
is not far-fetched.
240
575260
2000
не е толкова нереална.
09:37
It's super-real and it's happening around you.
241
577260
3000
Всъщност тя е супер реална и тя се случва около вас.
09:40
You feel it most
242
580260
2000
Най-ясно я чувствате,
09:42
when you're in a sealed metal box,
243
582260
2000
когато се намирате в запечатана метална кутия,
09:44
a new-style elevator;
244
584260
2000
тези модерни асансьори,
09:46
they're called destination-control elevators.
245
586260
2000
които се наричат асансьори контролиращи посоката.
09:48
These are the ones where you have to press what floor you're going to go to
246
588260
3000
Това са тези асансьори, в които трябва да натиснеш етажа,
09:51
before you get in the elevator.
247
591260
2000
преди да се качиш на асансьора.
09:53
And it uses what's called a bin-packing algorithm.
248
593260
2000
И те използват алгоритъм за сортиране на контейнери.
09:55
So none of this mishegas
249
595260
2000
Това не са онези безумия
09:57
of letting everybody go into whatever car they want.
250
597260
2000
да позволиш на всеки да се качи, в която кола би му се приискало.
09:59
Everybody who wants to go to the 10th floor goes into car two,
251
599260
2000
Всеки, който иска да се качи на 10 етаж се качва на втората кола
10:01
and everybody who wants to go to the third floor goes into car five.
252
601260
3000
и всеки, който иска да се качи на третия етаж отива в кола пет.
10:04
And the problem with that
253
604260
2000
И проблемът с това е,
10:06
is that people freak out.
254
606260
2000
че хората се побъркват.
10:08
People panic.
255
608260
2000
Хората се паникьосват.
10:10
And you see why. You see why.
256
610260
2000
И вие разбирате защо.
10:12
It's because the elevator
257
612260
2000
Защото в асансьора
10:14
is missing some important instrumentation, like the buttons.
258
614260
3000
липсва нещо важно като копчетата.
10:17
(Laughter)
259
617260
2000
Смях в залата.
10:19
Like the things that people use.
260
619260
2000
Това са нещата, които хората използват.
10:21
All it has
261
621260
2000
Всичко, което има такъв асансьор
10:23
is just the number that moves up or down
262
623260
3000
е просто номерът, който показва дали асансьорът се качва или слиза
10:26
and that red button that says, "Stop."
263
626260
3000
и червеният бутон, на който пише "Стоп".
10:29
And this is what we're designing for.
264
629260
3000
И затова сме създали дизайна.
10:32
We're designing
265
632260
2000
Направили сме дизайна
10:34
for this machine dialect.
266
634260
2000
за диалекта на тази машина.
10:36
And how far can you take that? How far can you take it?
267
636260
3000
И колко далече можете да стигнете така?
10:39
You can take it really, really far.
268
639260
2000
Можете да стигнете наистина много далече.
10:41
So let me take it back to Wall Street.
269
641260
3000
И така нека се върнем към Wall Street.
10:45
Because the algorithms of Wall Street
270
645260
2000
Защото алгоритмите на Wall Street
10:47
are dependent on one quality above all else,
271
647260
3000
зависят от едно много важно условие,
10:50
which is speed.
272
650260
2000
което е скоростта.
10:52
And they operate on milliseconds and microseconds.
273
652260
3000
И те работят в рамките на мили и микросекунди.
10:55
And just to give you a sense of what microseconds are,
274
655260
2000
Тук просто искам да ви дам усещането какво са микросекунди,
10:57
it takes you 500,000 microseconds
275
657260
2000
отнема 500,000 микоросекунди,
10:59
just to click a mouse.
276
659260
2000
само за да натиснете мишката.
11:01
But if you're a Wall Street algorithm
277
661260
2000
Но ако си алгоритъм на Wall Street
11:03
and you're five microseconds behind,
278
663260
2000
и имаш 5 микросекунди закъснение,
11:05
you're a loser.
279
665260
2000
то ти си загубеняк.
11:07
So if you were an algorithm,
280
667260
2000
И така ако си алгоритъм,
11:09
you'd look for an architect like the one that I met in Frankfurt
281
669260
3000
ще се оглеждате за архитект, като онзи, когото срещнах във Франкфурт.
11:12
who was hollowing out a skyscraper --
282
672260
2000
Той изпразваше небостъргачите -
11:14
throwing out all the furniture, all the infrastructure for human use,
283
674260
3000
всички мебели, цялата инфраструктура важна за човешките нужди
11:17
and just running steel on the floors
284
677260
3000
и просто полагаше стомана на пода,
11:20
to get ready for the stacks of servers to go in --
285
680260
3000
за да приготви небостъргача за сървърите, които трябваше да бъдат положени там -
11:23
all so an algorithm
286
683260
2000
също и алгоритъм,
11:25
could get close to the Internet.
287
685260
3000
с който може да се стигне по-близо до интернет.
11:28
And you think of the Internet as this kind of distributed system.
288
688260
3000
И вие възприематe интернет като вид дистрибуторска система.
11:31
And of course, it is, but it's distributed from places.
289
691260
3000
И разбира се това е така, но дистрибуцията става отнякъде.
11:34
In New York, this is where it's distributed from:
290
694260
2000
В Ню Йорк това става от това място:
11:36
the Carrier Hotel
291
696260
2000
Carrier Hotel
11:38
located on Hudson Street.
292
698260
2000
намиращ се на Hudson Street.
11:40
And this is really where the wires come right up into the city.
293
700260
3000
И това е мястото, от което кабелите идват в града.
11:43
And the reality is that the further away you are from that,
294
703260
4000
И реалността е, че колкото по-далече сте от това място,
11:47
you're a few microseconds behind every time.
295
707260
2000
толкова по-далече сте от времето.
11:49
These guys down on Wall Street,
296
709260
2000
Момчетата на Wall Street,
11:51
Marco Polo and Cherokee Nation,
297
711260
2000
Marco Polo и Cherokee Nation,
11:53
they're eight microseconds
298
713260
2000
те са осем микросекунди
11:55
behind all these guys
299
715260
2000
след другите момчета,
11:57
going into the empty buildings being hollowed out
300
717260
4000
които влизат в онази изпразнена сграда
12:01
up around the Carrier Hotel.
301
721260
2000
на Carrier Hotel.
12:03
And that's going to keep happening.
302
723260
3000
И това ще продължи да се случва.
12:06
We're going to keep hollowing them out,
303
726260
2000
И ние ще продължим да ги изпразваме,
12:08
because you, inch for inch
304
728260
3000
защото инч по инч
12:11
and pound for pound and dollar for dollar,
305
731260
3000
и паунд по паунд и долар по долар,
12:14
none of you could squeeze revenue out of that space
306
734260
3000
никой няма да може да изстиска печалба от това място
12:17
like the Boston Shuffler could.
307
737260
3000
по начина , по който Бостънския картоиграч би успял.
12:20
But if you zoom out,
308
740260
2000
Но ако намалите мащаба,
12:22
if you zoom out,
309
742260
2000
ако намалите мащаба,
12:24
you would see an 825-mile trench
310
744260
4000
вие ще видите 825 мили канавка
12:28
between New York City and Chicago
311
748260
2000
между Ню Йорк и Чикаго,
12:30
that's been built over the last few years
312
750260
2000
която беше построена през последните няколко години
12:32
by a company called Spread Networks.
313
752260
3000
от компания наречена Spread Networks.
12:35
This is a fiber optic cable
314
755260
2000
Това е оптичен кабел,
12:37
that was laid between those two cities
315
757260
2000
който е поставен между тези два града,
12:39
to just be able to traffic one signal
316
759260
3000
просто за да бъде в състояние да предаде един сигнал
12:42
37 times faster than you can click a mouse --
317
762260
3000
37 пъти по-бързо от скоростта, с която можете да кликнете мишката -
12:45
just for these algorithms,
318
765260
3000
просто заради тези алгоритми,
12:48
just for the Carnival and the Knife.
319
768260
3000
само заради Карнавала и Ножа.
12:51
And when you think about this,
320
771260
2000
И когато се замислите,
12:53
that we're running through the United States
321
773260
2000
че ние тичаме през Съединените Щати
12:55
with dynamite and rock saws
322
775260
3000
с динамит и трион за скали,
12:58
so that an algorithm can close the deal
323
778260
2000
така че един алгоритъм да може да затвори сделката
13:00
three microseconds faster,
324
780260
3000
три милисекунди по-бързо,
13:03
all for a communications framework
325
783260
2000
и всичко това заради някаква комуникационна рамка,
13:05
that no human will ever know,
326
785260
4000
която никой човек няма никога да разбере,
13:09
that's a kind of manifest destiny;
327
789260
3000
това е нещо като демонстративна съдба
13:12
and we'll always look for a new frontier.
328
792260
3000
и винаги ще търси нови граници.
13:15
Unfortunately, we have our work cut out for us.
329
795260
3000
За нещастие ние си имаме нашата работа вече подготвена за нас.
13:18
This is just theoretical.
330
798260
2000
Това е просто теория.
13:20
This is some mathematicians at MIT.
331
800260
2000
Това е просто математици от MIT.
13:22
And the truth is I don't really understand
332
802260
2000
И истината е, че аз не разбирам наистина
13:24
a lot of what they're talking about.
333
804260
2000
много от нещата, за които те говорят.
13:26
It involves light cones and quantum entanglement,
334
806260
3000
Тя включва снопове светлина и квантови оплитания,
13:29
and I don't really understand any of that.
335
809260
2000
и аз не разбирам нито един от тях.
13:31
But I can read this map,
336
811260
2000
Но аз мога да чета тази карта.
13:33
and what this map says
337
813260
2000
И това, което тя казва
13:35
is that, if you're trying to make money on the markets where the red dots are,
338
815260
3000
е че, ако се опитваш да правиш пари на пазарите, отбелязани с червени точки,
13:38
that's where people are, where the cities are,
339
818260
2000
това са където са хората, където са градовете,
13:40
you're going to have to put the servers where the blue dots are
340
820260
3000
тоест трябва да поставиш сървърите на местата със сините точки,
13:43
to do that most effectively.
341
823260
2000
за да изпълниш плана си по-ефективно.
13:45
And the thing that you might have noticed about those blue dots
342
825260
3000
И може би забелязвате,
13:48
is that a lot of them are in the middle of the ocean.
343
828260
3000
че повечето точки са насред океана.
13:51
So that's what we'll do: we'll build bubbles or something,
344
831260
3000
И така това е нещото, което ще направим - ще направим балончета или нещо друго,
13:54
or platforms.
345
834260
2000
или платформи,
13:56
We'll actually part the water
346
836260
2000
които всъщност ще са част от водата
13:58
to pull money out of the air,
347
838260
2000
и ще дърпат пари от въздуха,
14:00
because it's a bright future
348
840260
2000
защото бъдещето е светло,
14:02
if you're an algorithm.
349
842260
2000
ако си алгоритъм.
14:04
(Laughter)
350
844260
2000
Смях в залата.
14:06
And it's not the money that's so interesting actually.
351
846260
3000
И всъщност не са парите, нещото, което е толкова интересно.
14:09
It's what the money motivates,
352
849260
2000
Става въпрос за това, което парите мотивират.
14:11
that we're actually terraforming
353
851260
2000
Това, че ние всъщност оформяме
14:13
the Earth itself
354
853260
2000
самата Земя
14:15
with this kind of algorithmic efficiency.
355
855260
2000
с нещо като алгоритмична ефективност.
14:17
And in that light,
356
857260
2000
И в тази светлина
14:19
you go back
357
859260
2000
ви се връщате назад
14:21
and you look at Michael Najjar's photographs,
358
861260
2000
и поглеждате фотографиите на Мишел Нажар
14:23
and you realize that they're not metaphor, they're prophecy.
359
863260
3000
и осъзнавате, че те не са просто метафора, а че те са пророчество.
14:26
They're prophecy
360
866260
2000
Те са пророчество
14:28
for the kind of seismic, terrestrial effects
361
868260
4000
за вида на сеизмичните, земни ефекти
14:32
of the math that we're making.
362
872260
2000
на математиката, която правим.
14:34
And the landscape was always made
363
874260
3000
И пейзажът беше винаги оформян
14:37
by this sort of weird, uneasy collaboration
364
877260
3000
от онзи вид странно, неудобно сътрудничество
14:40
between nature and man.
365
880260
3000
между природата и хората.
14:43
But now there's this third co-evolutionary force: algorithms --
366
883260
3000
Но вече имаме онази трета ко-еволюционна сила: алгоритмите -
14:46
the Boston Shuffler, the Carnival.
367
886260
3000
Бостънския картоиграч, Карнавала.
14:49
And we will have to understand those as nature,
368
889260
3000
И ще се наложи да ги разберем като природата.
14:52
and in a way, they are.
369
892260
2000
И по някакъв начин те са.
14:54
Thank you.
370
894260
2000
Благодаря ви.
14:56
(Applause)
371
896260
20000
(Аплодисменти)
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7