How algorithms shape our world | Kevin Slavin

484,372 views ・ 2011-07-21

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Cheta Manuel Corector: Maria Tancu
00:15
This is a photograph
0
15260
2000
Aceasta este o fotografie
00:17
by the artist Michael Najjar,
1
17260
2000
făcută de artistul Michael Najjar
00:19
and it's real,
2
19260
2000
și este reală
00:21
in the sense that he went there to Argentina
3
21260
2000
în sensul că el a fost în Argentina
00:23
to take the photo.
4
23260
2000
pentru a face această fotografie.
00:25
But it's also a fiction. There's a lot of work that went into it after that.
5
25260
3000
Dar este, de alfel, și ficțiune. S-a lucrat mult la ea după aceea.
00:28
And what he's done
6
28260
2000
Și ceea ce a realizat
00:30
is he's actually reshaped, digitally,
7
30260
2000
este că a remodelat digital
00:32
all of the contours of the mountains
8
32260
2000
toate contururile munților
00:34
to follow the vicissitudes of the Dow Jones index.
9
34260
3000
pentru a indica fluctuațiile indexului Dow Jones.
00:37
So what you see,
10
37260
2000
Astfel că ceea ce vedeți aici,
00:39
that precipice, that high precipice with the valley,
11
39260
2000
acea prăpastie, acea prăpastie mare cu valea ei,
00:41
is the 2008 financial crisis.
12
41260
2000
este criza financiară din 2008.
00:43
The photo was made
13
43260
2000
Poza a fost făcută
00:45
when we were deep in the valley over there.
14
45260
2000
când noi eram chiar la baza văii aceea.
00:47
I don't know where we are now.
15
47260
2000
Nu știu unde suntem noi acum.
00:49
This is the Hang Seng index
16
49260
2000
Acesta este indexul Hang Seng
00:51
for Hong Kong.
17
51260
2000
pentru Hong Kong.
00:53
And similar topography.
18
53260
2000
Și topografie similară.
00:55
I wonder why.
19
55260
2000
Mă întreb de ce?
00:57
And this is art. This is metaphor.
20
57260
3000
Și aceasta este artă. Este o metaforă.
01:00
But I think the point is
21
60260
2000
Dar ideea este că avem de-a face
01:02
that this is metaphor with teeth,
22
62260
2000
cu o metaforă cu dinți.
01:04
and it's with those teeth that I want to propose today
23
64260
3000
Legându-mă de acei dinți vreau să propun azi
01:07
that we rethink a little bit
24
67260
2000
ca noi să regândim puțin
01:09
about the role of contemporary math --
25
69260
3000
rolul matematicii contemporane --
01:12
not just financial math, but math in general.
26
72260
3000
nu doar matematica financiară, ci matematica în general.
01:15
That its transition
27
75260
2000
Că tranziția sa
01:17
from being something that we extract and derive from the world
28
77260
3000
de la ceva care este extras și derivă din lume
01:20
to something that actually starts to shape it --
29
80260
3000
la ceva care chiar începe să modeleze --
01:23
the world around us and the world inside us.
30
83260
3000
lumea din jurul nostru și lumea dinăuntrul nostru.
01:26
And it's specifically algorithms,
31
86260
2000
Și este vorba aici de algoritmi,
01:28
which are basically the math
32
88260
2000
care reprezintă, la bază, chiar matematica
01:30
that computers use to decide stuff.
33
90260
3000
folosită de calculatoare pentru a lua decizii.
01:33
They acquire the sensibility of truth
34
93260
2000
Ei dobândesc înțelepciunea adevărului
01:35
because they repeat over and over again,
35
95260
2000
pentru că se repetă de foarte multe ori.
01:37
and they ossify and calcify,
36
97260
3000
Ei se osifică și se calcifică,
01:40
and they become real.
37
100260
2000
și devin reali.
01:42
And I was thinking about this, of all places,
38
102260
3000
Și mă gândeam la acest lucru, unde altundeva,
01:45
on a transatlantic flight a couple of years ago,
39
105260
3000
într-un zbor transatlantic în urmă cu câțiva ani
01:48
because I happened to be seated
40
108260
2000
pentru că întâmplarea a făcut să stau
01:50
next to a Hungarian physicist about my age
41
110260
2000
lângă un fizician maghiar de-o vârstă cu mine
01:52
and we were talking
42
112260
2000
și vorbeam
01:54
about what life was like during the Cold War
43
114260
2000
despre cum era viața în timpul Războiului Rece
01:56
for physicists in Hungary.
44
116260
2000
pentru fizicienii din Ungaria.
01:58
And I said, "So what were you doing?"
45
118260
2000
Și i-am zis: ''Cu ce te ocupai?''
02:00
And he said, "Well we were mostly breaking stealth."
46
120260
2000
El a răspuns: ''Ei bine, noi ne ocupam, în general, de detectoare radar!''
02:02
And I said, "That's a good job. That's interesting.
47
122260
2000
Și am zis: ''Este o muncă bună. Chiar interesantă.'
02:04
How does that work?"
48
124260
2000
Cum funcționează?''
02:06
And to understand that,
49
126260
2000
Și, pentru a înțelege aceasta,
02:08
you have to understand a little bit about how stealth works.
50
128260
3000
trebuie să înțelegeți puțin modul în care camuflajul funcționează.
02:11
And so -- this is an over-simplification --
51
131260
3000
Astfel - și aceasta este o simplificare -
02:14
but basically, it's not like
52
134260
2000
de fapt, nu este ca și cum
02:16
you can just pass a radar signal
53
136260
2000
ai putea trece un semnal radar
02:18
right through 156 tons of steel in the sky.
54
138260
3000
tocmai prin 156 de tone de oțel în mijlocul cerului.
02:21
It's not just going to disappear.
55
141260
3000
Nu va dispărea.
02:24
But if you can take this big, massive thing,
56
144260
3000
Dar, dacă iei acest lucru foarte mare
02:27
and you could turn it into
57
147260
3000
și îl transformi într-un
02:30
a million little things --
58
150260
2000
milion de lucruri mici -
02:32
something like a flock of birds --
59
152260
2000
ceva asemănător unui stol de păsări -
02:34
well then the radar that's looking for that
60
154260
2000
ei bine, radarul care caută acest lucru
02:36
has to be able to see
61
156260
2000
trebuie să poată vedea
02:38
every flock of birds in the sky.
62
158260
2000
fiecare stol de păsări de pe cer.
02:40
And if you're a radar, that's a really bad job.
63
160260
4000
Și, dacă ești un radar, aceasta este o muncă foarte neplăcută.
02:44
And he said, "Yeah." He said, "But that's if you're a radar.
64
164260
3000
Și el a replicat: ''Da, dar este valabil doar dacă ești un radar.
02:47
So we didn't use a radar;
65
167260
2000
Așa că noi nu am folosit un radar,
02:49
we built a black box that was looking for electrical signals,
66
169260
3000
ci am construit o cutie neagră care căuta semnale electrice,
02:52
electronic communication.
67
172260
3000
comunicare electronică.
02:55
And whenever we saw a flock of birds that had electronic communication,
68
175260
3000
Și, de fiecare dată când vedeam un stol de păsări care avea comunicare electronică,
02:58
we thought, 'Probably has something to do with the Americans.'"
69
178260
3000
ne gândeam că, probabil, are ceva de-a face cu americanii.''
03:01
And I said, "Yeah.
70
181260
2000
Și am zis: ''Da.
03:03
That's good.
71
183260
2000
Este bine.
03:05
So you've effectively negated
72
185260
2000
Deci, ai anulat pur și simplu
03:07
60 years of aeronautic research.
73
187260
2000
60 de ani de cercetări aeronautice.
03:09
What's your act two?
74
189260
2000
Ce vei face mai departe?
03:11
What do you do when you grow up?"
75
191260
2000
Ce vei face când vei crește mare? ''
03:13
And he said,
76
193260
2000
Și el a zis:
03:15
"Well, financial services."
77
195260
2000
'' Ei bine, servicii financiare.''
03:17
And I said, "Oh."
78
197260
2000
Și am replicat: ''Oh.''
03:19
Because those had been in the news lately.
79
199260
3000
Pentru că ele erau în atenția știrilor în ultima perioadă.
03:22
And I said, "How does that work?"
80
202260
2000
Și l-am întrebat: ''Cum functionează treaba aceasta?''
03:24
And he said, "Well there's 2,000 physicists on Wall Street now,
81
204260
2000
Mi-a răspuns:''Ei bine, sunt peste 2000 de fizicieni acum pe Wall Street,
03:26
and I'm one of them."
82
206260
2000
iar eu sunt unul dintre ei.''
03:28
And I said, "What's the black box for Wall Street?"
83
208260
3000
Apoi, l-am întrebat: ''Care este cutia neagră pentru Wall Street?''
03:31
And he said, "It's funny you ask that,
84
211260
2000
El a răspuns:''Este ciudat că întrebi acest lucru,
03:33
because it's actually called black box trading.
85
213260
3000
pentru că, de fapt, se numește comerțul cutiei negre.
03:36
And it's also sometimes called algo trading,
86
216260
2000
Iar uneori i se mai zice și algo-comerț,
03:38
algorithmic trading."
87
218260
3000
comerț algoritmic.''
03:41
And algorithmic trading evolved in part
88
221260
3000
Iar comerțul algoritmic a evoluat în parte
03:44
because institutional traders have the same problems
89
224260
3000
datorită comercianților instituționali aveau aceleași probleme
03:47
that the United States Air Force had,
90
227260
3000
cu care s-au confruntat și Forțele Aeriene ale Statelor Unite,
03:50
which is that they're moving these positions --
91
230260
3000
și anume este vorba de faptul că ei mutau aceste poziții --
03:53
whether it's Proctor & Gamble or Accenture, whatever --
92
233260
2000
fie că este vorba de Proctor & Gamble sau Accenture, orice -
03:55
they're moving a million shares of something
93
235260
2000
ei mută un milion de acțiuni de ceva anume
03:57
through the market.
94
237260
2000
prin piață.
03:59
And if they do that all at once,
95
239260
2000
Și, dacă ei fac acest lucru dintr-o dată
04:01
it's like playing poker and going all in right away.
96
241260
2000
este ca și cum ar juca poker și mizează totul de la inceput.
04:03
You just tip your hand.
97
243260
2000
Tu doar îți înclini mâna.
04:05
And so they have to find a way --
98
245260
2000
Si deci trebuie să găsească o cale -
04:07
and they use algorithms to do this --
99
247260
2000
și folosesc algoritmii pentru a face aceasta --
04:09
to break up that big thing
100
249260
2000
pentru a rupe acel lucru mare
04:11
into a million little transactions.
101
251260
2000
într-un milion de tranzacții mici.
04:13
And the magic and the horror of that
102
253260
2000
Iar magia și problema mare în aceasta
04:15
is that the same math
103
255260
2000
este că aceeași matematică
04:17
that you use to break up the big thing
104
257260
2000
folosită pentru a rupe acel lucru mare
04:19
into a million little things
105
259260
2000
într-un milion de lucruri mici
04:21
can be used to find a million little things
106
261260
2000
poate fi folosită pentru a găsi un milion de lucruri mici
04:23
and sew them back together
107
263260
2000
și a le suda înapoi impreuna
04:25
and figure out what's actually happening in the market.
108
265260
2000
și pentru a afla ce se petrece, de fapt, în piață.
04:27
So if you need to have some image
109
267260
2000
Așadar, dacă vreți să aveți o imagine
04:29
of what's happening in the stock market right now,
110
269260
3000
asupra a ceea ce se petrece pe piața de acțiuni acum
04:32
what you can picture is a bunch of algorithms
111
272260
2000
vă puteți imagina o serie de algoritmi
04:34
that are basically programmed to hide,
112
274260
3000
care sunt programați să ascundă
04:37
and a bunch of algorithms that are programmed to go find them and act.
113
277260
3000
și o serie de algoritmi programați să îi găsească și să acționeze.
04:40
And all of that's great, and it's fine.
114
280260
3000
Și toate aceste lucruri sunt minunate, sunt bune.
04:43
And that's 70 percent
115
283260
2000
Și este vorba de 70%
04:45
of the United States stock market,
116
285260
2000
din piața de acțiuni al Statelor Unite
04:47
70 percent of the operating system
117
287260
2000
70% al sistemului de operare
04:49
formerly known as your pension,
118
289260
3000
cunoscut sub numele de pensia voastră,
04:52
your mortgage.
119
292260
3000
ipoteca voastră.
04:55
And what could go wrong?
120
295260
2000
Și ce ar putea să meargă prost?
04:57
What could go wrong
121
297260
2000
Ce ar putea să meargă prost
04:59
is that a year ago,
122
299260
2000
este că în urmă cu un an
05:01
nine percent of the entire market just disappears in five minutes,
123
301260
3000
9% din întreaga piață a dispărut în cinci minute,
05:04
and they called it the Flash Crash of 2:45.
124
304260
3000
și ei au numit aceasta Căderea Fulger a lui 2:45.
05:07
All of a sudden, nine percent just goes away,
125
307260
3000
Dintr-o dată, 9% se duce pur și simplu
05:10
and nobody to this day
126
310260
2000
și nimeni, până în această zi,
05:12
can even agree on what happened
127
312260
2000
nu poate cădea de acord legat de ce s-a întâmplat,
05:14
because nobody ordered it, nobody asked for it.
128
314260
3000
pentru că nimeni nu a dat comanda, nimeni nu a cerut asta.
05:17
Nobody had any control over what was actually happening.
129
317260
3000
Nimeni nu avea control asupra ceea ce se petrecea de fapt.
05:20
All they had
130
320260
2000
Tot ce aveau
05:22
was just a monitor in front of them
131
322260
2000
era doar un monitor în fața lor
05:24
that had the numbers on it
132
324260
2000
care avea numere pe el
05:26
and just a red button
133
326260
2000
și doar un buton roșu
05:28
that said, "Stop."
134
328260
2000
care spunea: ''Stop.''
05:30
And that's the thing,
135
330260
2000
Și despre asta este vorba,
05:32
is that we're writing things,
136
332260
2000
că noi scriem lucruri,
05:34
we're writing these things that we can no longer read.
137
334260
3000
noi scriem lucruri pe care nu le mai putem citi.
05:37
And we've rendered something
138
337260
2000
Și am creat ceva
05:39
illegible,
139
339260
2000
ilizibil.
05:41
and we've lost the sense
140
341260
3000
Și am pierdut șirul
05:44
of what's actually happening
141
344260
2000
a ceea ce se petrece în fapt
05:46
in this world that we've made.
142
346260
2000
în această lume pe care ne-am construit-o.
05:48
And we're starting to make our way.
143
348260
2000
Și abia am început să ne creăm drumul.
05:50
There's a company in Boston called Nanex,
144
350260
3000
Există o companie în Boston numită Nanex,
05:53
and they use math and magic
145
353260
2000
și ei folosesc matematica și magia
05:55
and I don't know what,
146
355260
2000
și încă ceva pe lângă,
05:57
and they reach into all the market data
147
357260
2000
și ei au acces la toate datele din piață
05:59
and they find, actually sometimes, some of these algorithms.
148
359260
3000
și ei chiar găsesc, uneori, unii dintre acești algoritmi.
06:02
And when they find them they pull them out
149
362260
3000
Și, atunci când îi găsesc îi extrag
06:05
and they pin them to the wall like butterflies.
150
365260
3000
și îi lipesc pe perete ca pe fluturi.
06:08
And they do what we've always done
151
368260
2000
Și ei fac ceea ce am făcut noi dintotdeauna
06:10
when confronted with huge amounts of data that we don't understand --
152
370260
3000
când suntem confruntați cu o mulțime de informații pe care nu le înțelegem --
06:13
which is that they give them a name
153
373260
2000
și anume, le dă un nume
06:15
and a story.
154
375260
2000
și o poveste.
06:17
So this is one that they found,
155
377260
2000
Deci, acesta este unul pe care l-au găsit
06:19
they called the Knife,
156
379260
4000
și l-au numit Cuțitul
06:23
the Carnival,
157
383260
2000
Carnavalul,
06:25
the Boston Shuffler,
158
385260
4000
Cartoforul din Boston,
06:29
Twilight.
159
389260
2000
Amurgul.
06:31
And the gag is
160
391260
2000
Și surpriza este
06:33
that, of course, these aren't just running through the market.
161
393260
3000
ca, desigur, acestea nu rulează doar în piață.
06:36
You can find these kinds of things wherever you look,
162
396260
3000
Poți da de aceste lucruri oriunde te uiti,
06:39
once you learn how to look for them.
163
399260
2000
odată ce ai învățat cum să te uiți după ele.
06:41
You can find it here: this book about flies
164
401260
3000
Poți da de ele aici: în această carte despre muște
06:44
that you may have been looking at on Amazon.
165
404260
2000
pe care s-ar putea să o fi căutat pe pagina de internet a Amazon.
06:46
You may have noticed it
166
406260
2000
Poate că le-ai remarcat
06:48
when its price started at 1.7 million dollars.
167
408260
2000
când prețul său a început de la 1,7 milioane de dolari.
06:50
It's out of print -- still ...
168
410260
2000
Este epuizată -- încă
06:52
(Laughter)
169
412260
2000
.....
06:54
If you had bought it at 1.7, it would have been a bargain.
170
414260
3000
Dacă ați fi cumpărat-o la 1,7 milioane ar fi fost un târg bun.
06:57
A few hours later, it had gone up
171
417260
2000
După câteva ore prețul a crescut
06:59
to 23.6 million dollars,
172
419260
2000
la 23,6 milioane de dolari,
07:01
plus shipping and handling.
173
421260
2000
plus expedierea și coletul.
07:03
And the question is:
174
423260
2000
Și întrebarea este:
07:05
Nobody was buying or selling anything; what was happening?
175
425260
2000
Nimeni nu a cumpărat nimic, ce s-a petrecut?
07:07
And you see this behavior on Amazon
176
427260
2000
Și vezi acest comportament pe Amazon
07:09
as surely as you see it on Wall Street.
177
429260
2000
la fel cu îl poți vedea pe Wall Street.
07:11
And when you see this kind of behavior,
178
431260
2000
Și când vezi acest tip de comportament
07:13
what you see is the evidence
179
433260
2000
ceea ce vezi este dovada
07:15
of algorithms in conflict,
180
435260
2000
unor algoritmi în conflict,
07:17
algorithms locked in loops with each other,
181
437260
2000
algoritmi prinși în cicluri între ei
07:19
without any human oversight,
182
439260
2000
fără nici un fel de control uman,
07:21
without any adult supervision
183
441260
3000
fără nici o supraveghere a unui adult,
07:24
to say, "Actually, 1.7 million is plenty."
184
444260
3000
care să zică: ''De fapt, 1,7 milioane este deajuns.''
07:27
(Laughter)
185
447260
3000
...
07:30
And as with Amazon, so it is with Netflix.
186
450260
3000
Și, așa cum este cu Amazon, așa este și cu Netflix.
07:33
And so Netflix has gone through
187
453260
2000
Și deci Netflix a folosit
07:35
several different algorithms over the years.
188
455260
2000
mai mulți algoritmi de-a lungul anilor.
07:37
They started with Cinematch, and they've tried a bunch of others --
189
457260
3000
Ei au început cu Cinematch și au încercat și câțiva alții.
07:40
there's Dinosaur Planet; there's Gravity.
190
460260
2000
Au folosit Dinosaur Planet, și Gravity.
07:42
They're using Pragmatic Chaos now.
191
462260
2000
Ei folosesc acum Haos Pragmatic.
07:44
Pragmatic Chaos is, like all of Netflix algorithms,
192
464260
2000
Haos Pragmatic, asemeni tuturor celorlalți algoritmi ai Netflix,
07:46
trying to do the same thing.
193
466260
2000
încearcă să facă același lucru.
07:48
It's trying to get a grasp on you,
194
468260
2000
Încearcă să te înțeleagă,
07:50
on the firmware inside the human skull,
195
470260
2000
să pătrundă în creierul tău,
07:52
so that it can recommend what movie
196
472260
2000
ca mai apoi să îți recomande ce film
07:54
you might want to watch next --
197
474260
2000
ai dori să vezi în continuare --
07:56
which is a very, very difficult problem.
198
476260
3000
lucru care este foarte, foarte dificil.
07:59
But the difficulty of the problem
199
479260
2000
Dar dificultatea problemei
08:01
and the fact that we don't really quite have it down,
200
481260
3000
și a faptului că algoritmul nu reușește pe deplin
08:04
it doesn't take away
201
484260
2000
nu șterge
08:06
from the effects Pragmatic Chaos has.
202
486260
2000
efectele pe care Haos Pragmatic le determină.
08:08
Pragmatic Chaos, like all Netflix algorithms,
203
488260
3000
Haos Pragmatic, asemeni tuturor algoritmilor Netflix,
08:11
determines, in the end,
204
491260
2000
are ca rezultat final
08:13
60 percent
205
493260
2000
60%
08:15
of what movies end up being rented.
206
495260
2000
din filmele care ajung să fie împrumutate.
08:17
So one piece of code
207
497260
2000
Așadar, o bucată de cod
08:19
with one idea about you
208
499260
3000
cu o idee despre tine
08:22
is responsible for 60 percent of those movies.
209
502260
3000
este responsabilă pentru 60% din acele filme.
08:25
But what if you could rate those movies
210
505260
2000
Dar dacă ai putea da o notă acelor filme
08:27
before they get made?
211
507260
2000
înainte de a fi create?
08:29
Wouldn't that be handy?
212
509260
2000
Nu ar fi util acest lucru?
08:31
Well, a few data scientists from the U.K. are in Hollywood,
213
511260
3000
Ei bine, câțiva cercetători de date din Marea Britanie sunt la Hollywood
08:34
and they have "story algorithms" --
214
514260
2000
și ei au algoritmi pentru scenarii --
08:36
a company called Epagogix.
215
516260
2000
o companie numită Epagogix.
08:38
And you can run your script through there,
216
518260
3000
Și poți rula un cod de acolo
08:41
and they can tell you, quantifiably,
217
521260
2000
iar ei îți pot spune, cuantificabil,
08:43
that that's a 30 million dollar movie
218
523260
2000
că acesta este un film de 30 de milioane de dolari
08:45
or a 200 million dollar movie.
219
525260
2000
sau un film de 200 de milioane de dolari.
08:47
And the thing is, is that this isn't Google.
220
527260
2000
aici nu este vorba de Google.
08:49
This isn't information.
221
529260
2000
Aceasta nu este informație.
08:51
These aren't financial stats; this is culture.
222
531260
2000
Acestea nu sunt statistici financiare, aceasta este cultură.
08:53
And what you see here,
223
533260
2000
Și ceea ce vedeți aici
08:55
or what you don't really see normally,
224
535260
2000
sau ceea ce nu vedeți de fapt
08:57
is that these are the physics of culture.
225
537260
4000
este că avem de-a face cu o fizică a culturii.
09:01
And if these algorithms,
226
541260
2000
Și dacă acești algoritmi,
09:03
like the algorithms on Wall Street,
227
543260
2000
asemeni algoritmilor de pe Wall Street,
09:05
just crashed one day and went awry,
228
545260
3000
nu ar mai funcționa la un moment dat și ar lua-o razna,
09:08
how would we know?
229
548260
2000
cum am putea știi,
09:10
What would it look like?
230
550260
2000
cum ar arăta situația?
09:12
And they're in your house. They're in your house.
231
552260
3000
Și ei sunt în casele voastre. Sunt în casele voastre.
09:15
These are two algorithms competing for your living room.
232
555260
2000
Iată doi algoritmi în competiție pentru camera voastră.
09:17
These are two different cleaning robots
233
557260
2000
Aceștia sunt doi roboți de curățenie diferiți
09:19
that have very different ideas about what clean means.
234
559260
3000
care au idei diferite legat ceea ce înseamnă curat.
09:22
And you can see it
235
562260
2000
Și poți vedea acesta
09:24
if you slow it down and attach lights to them,
236
564260
3000
dacă îi încetinești și le atașezi lumini.
09:27
and they're sort of like secret architects in your bedroom.
237
567260
3000
Iar ei sunt un fel de arhitecți secreți în dormitorul vostru.
09:30
And the idea that architecture itself
238
570260
3000
Iar ideea că arhitectura însăși
09:33
is somehow subject to algorithmic optimization
239
573260
2000
este oarecum obiectul optimizării algoritmice
09:35
is not far-fetched.
240
575260
2000
nu este exagerată.
09:37
It's super-real and it's happening around you.
241
577260
3000
Este cât se poate de reală și se petrece în jurul tău.
09:40
You feel it most
242
580260
2000
Simți acest lucru mai mult
09:42
when you're in a sealed metal box,
243
582260
2000
atunci când ești închis într-o cutie de metal,
09:44
a new-style elevator;
244
584260
2000
un lift de model nou,
09:46
they're called destination-control elevators.
245
586260
2000
numit lift cu controlul destinației.
09:48
These are the ones where you have to press what floor you're going to go to
246
588260
3000
Sunt acele lifturi la care trebuie să apeși la ce etaj vrei să ajungi
09:51
before you get in the elevator.
247
591260
2000
înainte de a te urca în ele.
09:53
And it uses what's called a bin-packing algorithm.
248
593260
2000
Iar acestea folosesc ceea ce se numește un algoritm bin packing.
09:55
So none of this mishegas
249
595260
2000
Deci, nu se permite nebunia
09:57
of letting everybody go into whatever car they want.
250
597260
2000
de a da voie tuturor sa intre în orice lift vor.
09:59
Everybody who wants to go to the 10th floor goes into car two,
251
599260
2000
Toți cei care vor să ajungă la etajul 10 intră în liftul 2,
10:01
and everybody who wants to go to the third floor goes into car five.
252
601260
3000
și toți cei care vor să ajungă la etajul trei intră în liftul 5.
10:04
And the problem with that
253
604260
2000
Problema cu aceasta
10:06
is that people freak out.
254
606260
2000
este că oamenii se sperie.
10:08
People panic.
255
608260
2000
Oamenii intră în panică.
10:10
And you see why. You see why.
256
610260
2000
Și poți vedea de ce. Poți vedea de ce.
10:12
It's because the elevator
257
612260
2000
Asta pentru că liftului
10:14
is missing some important instrumentation, like the buttons.
258
614260
3000
îi lipsesc niște instrumente importante, adică butoanele.
10:17
(Laughter)
259
617260
2000
...
10:19
Like the things that people use.
260
619260
2000
Lucruri pe care oamenii le folosesc.
10:21
All it has
261
621260
2000
Tot ceea ce are
10:23
is just the number that moves up or down
262
623260
3000
este doar un numărul care crește sau scade
10:26
and that red button that says, "Stop."
263
626260
3000
și acel buton roșu care spune :''Stop.''
10:29
And this is what we're designing for.
264
629260
3000
Iată pentru ce facem noi proiectele..
10:32
We're designing
265
632260
2000
Noi proiectăm
10:34
for this machine dialect.
266
634260
2000
pentru acest dialect al mașinilor.
10:36
And how far can you take that? How far can you take it?
267
636260
3000
Și cât de departe poți duce asta? Cât de departe?
10:39
You can take it really, really far.
268
639260
2000
Poți să ajungi chiar foarte, foarte departe.
10:41
So let me take it back to Wall Street.
269
641260
3000
Așadar, hai să ne întoarcem la Wall Street.
10:45
Because the algorithms of Wall Street
270
645260
2000
Pentru că algoritmii de pe Wall Street
10:47
are dependent on one quality above all else,
271
647260
3000
depind cel mai mult de o calitate,
10:50
which is speed.
272
650260
2000
și aceasta este viteza.
10:52
And they operate on milliseconds and microseconds.
273
652260
3000
Iar ei funcționează la milisecundă sau microsecundă.
10:55
And just to give you a sense of what microseconds are,
274
655260
2000
Ca să vă creez o idee legată de ceea ce sunt microsecundele,
10:57
it takes you 500,000 microseconds
275
657260
2000
aveți nevoie de 500 000 de microsecunde
10:59
just to click a mouse.
276
659260
2000
doar pentru a da clic cu mouse-ul.
11:01
But if you're a Wall Street algorithm
277
661260
2000
Dar, dacă tu ești un algoritm de pe Wall Street
11:03
and you're five microseconds behind,
278
663260
2000
și ești cu cinci microsecunde în urmă,
11:05
you're a loser.
279
665260
2000
atunci ai pierdut.
11:07
So if you were an algorithm,
280
667260
2000
Deci, dacă ai fi un algoritm
11:09
you'd look for an architect like the one that I met in Frankfurt
281
669260
3000
tu ai căuta un arhitect ca cel pe care l-am întâlnit în Frankfurt
11:12
who was hollowing out a skyscraper --
282
672260
2000
care golea un zgârie-nor
11:14
throwing out all the furniture, all the infrastructure for human use,
283
674260
3000
aruncând mobila, toată infrastructura folosită de oameni
11:17
and just running steel on the floors
284
677260
3000
lăsând doar oțelul podelelor,
11:20
to get ready for the stacks of servers to go in --
285
680260
3000
pregătind locul pentru stivele de servere --
11:23
all so an algorithm
286
683260
2000
toate doar ca un algoritm
11:25
could get close to the Internet.
287
685260
3000
să ajungă aproape de internet.
11:28
And you think of the Internet as this kind of distributed system.
288
688260
3000
Te gândești la internet ca la acel model de sistem distribuit.
11:31
And of course, it is, but it's distributed from places.
289
691260
3000
Este, desigur, distribuit, dar este distribuit din anumite locuri.
11:34
In New York, this is where it's distributed from:
290
694260
2000
În New York este distribuit de aici:
11:36
the Carrier Hotel
291
696260
2000
Hotelul Carrier
11:38
located on Hudson Street.
292
698260
2000
localizat pe Hudson Street.
11:40
And this is really where the wires come right up into the city.
293
700260
3000
Acesta este locul de unde vin firele în oraș.
11:43
And the reality is that the further away you are from that,
294
703260
4000
Adevărul este că distanța tot mai mare față de acest loc
11:47
you're a few microseconds behind every time.
295
707260
2000
duce la pierderea a cât mai multor microseunde.
11:49
These guys down on Wall Street,
296
709260
2000
Băieții aceștia de pe Wall Street,
11:51
Marco Polo and Cherokee Nation,
297
711260
2000
generația Marco Polo și Cherokee ,
11:53
they're eight microseconds
298
713260
2000
sunt cu opt microsecunde
11:55
behind all these guys
299
715260
2000
în urma acestor băieți
11:57
going into the empty buildings being hollowed out
300
717260
4000
care sunt în spatele clădirilor golite
12:01
up around the Carrier Hotel.
301
721260
2000
din jurul Hotelului Carrier.
12:03
And that's going to keep happening.
302
723260
3000
Iar acesta se va întâmpla încontinuu.
12:06
We're going to keep hollowing them out,
303
726260
2000
Noi vom continua să le golim
12:08
because you, inch for inch
304
728260
3000
pentru că voi, centimetru cu centimetru,
12:11
and pound for pound and dollar for dollar,
305
731260
3000
și kilogram cu kilogram și dolar cu dolar,
12:14
none of you could squeeze revenue out of that space
306
734260
3000
niciunul dintre voi nu ați putea obține venit din acel spațiu
12:17
like the Boston Shuffler could.
307
737260
3000
așa cum a făcut Boston Shuffler.
12:20
But if you zoom out,
308
740260
2000
Dar, dacă mărim harta,
12:22
if you zoom out,
309
742260
2000
dacă mărim harta,
12:24
you would see an 825-mile trench
310
744260
4000
veți vedea un șanț de 825 de mile
12:28
between New York City and Chicago
311
748260
2000
între New York și Chicago
12:30
that's been built over the last few years
312
750260
2000
care a fost construit în ultimii ani
12:32
by a company called Spread Networks.
313
752260
3000
de către o companie numită Spread Networks.
12:35
This is a fiber optic cable
314
755260
2000
Acesta este un cablu din fibră optică
12:37
that was laid between those two cities
315
757260
2000
care a fost pus între cele două orașe
12:39
to just be able to traffic one signal
316
759260
3000
pentru a fi capabil să transmită un semnal
12:42
37 times faster than you can click a mouse --
317
762260
3000
de 37 de ori mai repede decât poți da tu clic pe un mouse -
12:45
just for these algorithms,
318
765260
3000
doar pentru acești algoritmi,
12:48
just for the Carnival and the Knife.
319
768260
3000
doar pentru Carnaval și Cuțitul.
12:51
And when you think about this,
320
771260
2000
Și când te gândești la acest lucru
12:53
that we're running through the United States
321
773260
2000
că noi umblăm prin State Unite
12:55
with dynamite and rock saws
322
775260
3000
cu dinamită și spărgătoare de pietre,
12:58
so that an algorithm can close the deal
323
778260
2000
pentru ca un algoritm să poată încheia o tranzacție
13:00
three microseconds faster,
324
780260
3000
cu trei microsecunde mai repede,
13:03
all for a communications framework
325
783260
2000
totul pentru un cadru al comunicării
13:05
that no human will ever know,
326
785260
4000
pe care nici un om nu îl va știi vreodată,
13:09
that's a kind of manifest destiny;
327
789260
3000
care este ca un fel de destin manifest
13:12
and we'll always look for a new frontier.
328
792260
3000
și care se va uita mereu după noi granițe.
13:15
Unfortunately, we have our work cut out for us.
329
795260
3000
Din nefericire, ne-am găsit munca potrivită.
13:18
This is just theoretical.
330
798260
2000
Aceasta este doar teorie.
13:20
This is some mathematicians at MIT.
331
800260
2000
Iată niște matematicieni de la MIT.
13:22
And the truth is I don't really understand
332
802260
2000
Și adevărul este că nu înțeleg pe deplin
13:24
a lot of what they're talking about.
333
804260
2000
tot ceea ce zic ei acolo.
13:26
It involves light cones and quantum entanglement,
334
806260
3000
Este ceva legat de conuri de lumină și încurcătură cuantică,
13:29
and I don't really understand any of that.
335
809260
2000
și nu prea înțeleg nimic din acestea.
13:31
But I can read this map,
336
811260
2000
Dar pot citi această hartă.
13:33
and what this map says
337
813260
2000
Și ceea ce zice acestă hartă
13:35
is that, if you're trying to make money on the markets where the red dots are,
338
815260
3000
este că, dacă vrei să faci bani în piețele indicate de punctele roșii,
13:38
that's where people are, where the cities are,
339
818260
2000
acolo sunt oamenii, acolo unde sunt orașele,
13:40
you're going to have to put the servers where the blue dots are
340
820260
3000
trebuie să îți pui serverele în punctele albastre
13:43
to do that most effectively.
341
823260
2000
pentru a face acest lucru în cel mai eficient mod.
13:45
And the thing that you might have noticed about those blue dots
342
825260
3000
Și ceea ce poate ai remarcat la aceste puncte albastre
13:48
is that a lot of them are in the middle of the ocean.
343
828260
3000
este că o mulțime sunt în mijlocul oceanului.
13:51
So that's what we'll do: we'll build bubbles or something,
344
831260
3000
Deci, iată ce vom face: vom construi baloane sau ceva în genul
13:54
or platforms.
345
834260
2000
sau platforme.
13:56
We'll actually part the water
346
836260
2000
De fapt, vom despărți apele
13:58
to pull money out of the air,
347
838260
2000
pentru a scoate bani din aer
14:00
because it's a bright future
348
840260
2000
pentru că este un viitor strălucit
14:02
if you're an algorithm.
349
842260
2000
dacă ești un algoritm.
14:04
(Laughter)
350
844260
2000
...
14:06
And it's not the money that's so interesting actually.
351
846260
3000
De fapt, nu banii sunt obiectul interesului aici.
14:09
It's what the money motivates,
352
849260
2000
Este motivația din spatele banilor.
14:11
that we're actually terraforming
353
851260
2000
Faptul că noi ”terraformăm”
14:13
the Earth itself
354
853260
2000
Pământul însuși
14:15
with this kind of algorithmic efficiency.
355
855260
2000
cu acest gen de eficiență algoritmică.
14:17
And in that light,
356
857260
2000
Și, în lumina acestui fapt,
14:19
you go back
357
859260
2000
te întorci în timp
14:21
and you look at Michael Najjar's photographs,
358
861260
2000
și te uiți la fotografiile lui Michael Najjar
14:23
and you realize that they're not metaphor, they're prophecy.
359
863260
3000
și îți dai seama că ele nu sunt o metaforă, ele sunt o profeție.
14:26
They're prophecy
360
866260
2000
Ele sunt profeția
14:28
for the kind of seismic, terrestrial effects
361
868260
4000
efectelor seismice, terestre,
14:32
of the math that we're making.
362
872260
2000
determinate de matematica făcută de noi.
14:34
And the landscape was always made
363
874260
3000
Iar peisajul a fost format întotdeauna din
14:37
by this sort of weird, uneasy collaboration
364
877260
3000
acest fel ciudat și neliniștitor de colaborări
14:40
between nature and man.
365
880260
3000
între natură și om.
14:43
But now there's this third co-evolutionary force: algorithms --
366
883260
3000
Dar acum există a treia forță co-evoluționară: algoritmii --
14:46
the Boston Shuffler, the Carnival.
367
886260
3000
Cartoforul din Boston, Carnavalul.
14:49
And we will have to understand those as nature,
368
889260
3000
Și trebuie să îi înțelegem ca parte a naturii.
14:52
and in a way, they are.
369
892260
2000
Și, într-un fel, chiar sunt.
14:54
Thank you.
370
894260
2000
Mulțumesc.
14:56
(Applause)
371
896260
20000
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7