How algorithms shape our world | Kevin Slavin

484,482 views ・ 2011-07-21

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Orsolya Szemere Lektor: Krisztian Stancz
00:15
This is a photograph
0
15260
2000
Ez egy olyan fotó,
00:17
by the artist Michael Najjar,
1
17260
2000
amit a művész, Michael Najjar készített,
00:19
and it's real,
2
19260
2000
és eredeti,
00:21
in the sense that he went there to Argentina
3
21260
2000
abban az értelemben, hogy elment Argentínába ahhoz,
00:23
to take the photo.
4
23260
2000
hogy lefotózza.
00:25
But it's also a fiction. There's a lot of work that went into it after that.
5
25260
3000
Ugyanakkor fikció is. Sok munka lett azért utána még belefektetve.
00:28
And what he's done
6
28260
2000
Amit ő tett,
00:30
is he's actually reshaped, digitally,
7
30260
2000
az gyakorlatilag annyi, hogy digitálisan átformálta
00:32
all of the contours of the mountains
8
32260
2000
a hegyek összes kontúrját,
00:34
to follow the vicissitudes of the Dow Jones index.
9
34260
3000
ahhoz, hogy követni tudja a Dow Jones index viszontagságait.
00:37
So what you see,
10
37260
2000
Amit tehát itt láthatunk,
00:39
that precipice, that high precipice with the valley,
11
39260
2000
ez a szakadék, ez a nagy szakadék a völgyben,
00:41
is the 2008 financial crisis.
12
41260
2000
a 2008-as pénzügyi válság.
00:43
The photo was made
13
43260
2000
A fotó akkor készült,
00:45
when we were deep in the valley over there.
14
45260
2000
amikor mélyen a völgyben jártunk, amott.
00:47
I don't know where we are now.
15
47260
2000
Fogalmam sincs, hol tartunk jelenleg.
00:49
This is the Hang Seng index
16
49260
2000
Ez itt a Hang Seng index
00:51
for Hong Kong.
17
51260
2000
Hongkong számára.
00:53
And similar topography.
18
53260
2000
És hasonló topográfia.
00:55
I wonder why.
19
55260
2000
Vajon miért?
00:57
And this is art. This is metaphor.
20
57260
3000
És ilyen a művészet. Ez egy metafora.
01:00
But I think the point is
21
60260
2000
De szerintem a lényeg az,
01:02
that this is metaphor with teeth,
22
62260
2000
hogy ez egy olyan metafora, aminek fogai vannak.
01:04
and it's with those teeth that I want to propose today
23
64260
3000
És ezen fogak miatt javaslom azt,
01:07
that we rethink a little bit
24
67260
2000
hogy gondoljuk át egy kicsit
01:09
about the role of contemporary math --
25
69260
3000
a kortárs matematika szerepét --
01:12
not just financial math, but math in general.
26
72260
3000
nemcsak a pénzügyi matekét, hanem a matekét, általánosságban.
01:15
That its transition
27
75260
2000
Hogy az átmenet abból,
01:17
from being something that we extract and derive from the world
28
77260
3000
hogy valamit kivonunk és elvonatkoztatunk a világtól,
01:20
to something that actually starts to shape it --
29
80260
3000
eljut oda, hogy ez a valami ténylegesen elkezdi formálni --
01:23
the world around us and the world inside us.
30
83260
3000
a körülöttünk és a bennünk lévő világot egyaránt.
01:26
And it's specifically algorithms,
31
86260
2000
És konkrétan az algoritmusok azok,
01:28
which are basically the math
32
88260
2000
amik a matek részét képezik annak,
01:30
that computers use to decide stuff.
33
90260
3000
amit a számítógépek a dolgok eldöntéséhez felhasználnak.
01:33
They acquire the sensibility of truth
34
93260
2000
Rendelkeznek az igazság érzékenységével,
01:35
because they repeat over and over again,
35
95260
2000
mivel újra és újra ismétlődnek.
01:37
and they ossify and calcify,
36
97260
3000
És becsontosodnak és elmeszesednek,
01:40
and they become real.
37
100260
2000
majd valóságossá válnak.
01:42
And I was thinking about this, of all places,
38
102260
3000
Erre először, minden közül, egy Atlanti-óceánt
01:45
on a transatlantic flight a couple of years ago,
39
105260
3000
átszelő járaton gondoltam jónéhány évvel ezelőtt,
01:48
because I happened to be seated
40
108260
2000
mivel úgy alakult, hogy egy magyar fizikus mellé ültettek,
01:50
next to a Hungarian physicist about my age
41
110260
2000
aki kb. velem egyidős volt,
01:52
and we were talking
42
112260
2000
és arról beszélgettünk vele,
01:54
about what life was like during the Cold War
43
114260
2000
hogy milyen volt az élet a hidegháború idején,
01:56
for physicists in Hungary.
44
116260
2000
a magyar fizikusok számára.
01:58
And I said, "So what were you doing?"
45
118260
2000
Azt kérdeztem: "Szóval, miket csináltatok akkoriban?"
02:00
And he said, "Well we were mostly breaking stealth."
46
120260
2000
Ezt válaszolta: "Nos, többnyire lopakodókat kerestünk."
02:02
And I said, "That's a good job. That's interesting.
47
122260
2000
Mire én: "Hát az klassz munka. Nagyon érdekes.
02:04
How does that work?"
48
124260
2000
Hogy működik ez?"
02:06
And to understand that,
49
126260
2000
Ahhoz, hogy ezt megértsük,
02:08
you have to understand a little bit about how stealth works.
50
128260
3000
kicsit értenünk kell, hogy a lopakodó repülőgép min alapszik.
02:11
And so -- this is an over-simplification --
51
131260
3000
És persze -- ez egy túlegyszerűsítés, de --
02:14
but basically, it's not like
52
134260
2000
alapvetően nem úgy működik,
02:16
you can just pass a radar signal
53
136260
2000
hogy csak úgy áteresztjük a radarhullámot
02:18
right through 156 tons of steel in the sky.
54
138260
3000
156 tonnányi repülő acélon!
02:21
It's not just going to disappear.
55
141260
3000
Az nem tűnik el olyan egyszerűen.
02:24
But if you can take this big, massive thing,
56
144260
3000
De ha ezt a nagy, tömör valamit
02:27
and you could turn it into
57
147260
3000
sok milliónyi apró
02:30
a million little things --
58
150260
2000
darabbá tudod alakítani --
02:32
something like a flock of birds --
59
152260
2000
mint valami madársereggé --,
02:34
well then the radar that's looking for that
60
154260
2000
akkor a radarnak, ami keresi,
02:36
has to be able to see
61
156260
2000
észre kell tudni venni
02:38
every flock of birds in the sky.
62
158260
2000
minden egyes madársereget az égen!
02:40
And if you're a radar, that's a really bad job.
63
160260
4000
És ha te vagy az a radar, akkor ez marha kemény munka!
02:44
And he said, "Yeah." He said, "But that's if you're a radar.
64
164260
3000
Mire ő: "Hát igen, de ez akkor van, ha te radar vagy.
02:47
So we didn't use a radar;
65
167260
2000
Ezért mi nem radart használtunk;
02:49
we built a black box that was looking for electrical signals,
66
169260
3000
hanem építettünk egy fekete dobozt, ami elektromos jeleket
02:52
electronic communication.
67
172260
3000
keresett, elektronikus kommunikációt.
02:55
And whenever we saw a flock of birds that had electronic communication,
68
175260
3000
És amikor csak megláttunk egy madársereget, akik közt
02:58
we thought, 'Probably has something to do with the Americans.'"
69
178260
3000
volt elektronikus kommunikáció, tudtuk, hogy ennek valami köze van
03:01
And I said, "Yeah.
70
181260
2000
az amerikaiakhoz!" Mire én: "Hát igen.
03:03
That's good.
71
183260
2000
Ez klassz.
03:05
So you've effectively negated
72
185260
2000
Tehát gyakorlatilag 60 évnyi
03:07
60 years of aeronautic research.
73
187260
2000
repülőgép-fejlesztést tönkrevágtatok ezzel!
03:09
What's your act two?
74
189260
2000
És még mit csináltatok?
03:11
What do you do when you grow up?"
75
191260
2000
Mit csináltok, amikor felnőtök?"
03:13
And he said,
76
193260
2000
Ő ezt válaszolta,
03:15
"Well, financial services."
77
195260
2000
"Hát pénzügyi szolgáltatást nyújtunk."
03:17
And I said, "Oh."
78
197260
2000
Mire én: "Aha."
03:19
Because those had been in the news lately.
79
199260
3000
Mert ilyesmiről volt szó mostanában a hírekben.
03:22
And I said, "How does that work?"
80
202260
2000
Megkérdeztem: "És az hogy működik?"
03:24
And he said, "Well there's 2,000 physicists on Wall Street now,
81
204260
2000
Ezt válaszolta: "Nos, 2000 fizikus dolgozik manapság
03:26
and I'm one of them."
82
206260
2000
a Wall Streeten és én közülük vagyok egy."
03:28
And I said, "What's the black box for Wall Street?"
83
208260
3000
Megkérdeztem: "Mi a Wall Street fekete doboza?"
03:31
And he said, "It's funny you ask that,
84
211260
2000
"Érdekes, hogy ezt kérdezi,
03:33
because it's actually called black box trading.
85
213260
3000
mert tényleg fekete doboz kereskedésnek nevezik.
03:36
And it's also sometimes called algo trading,
86
216260
2000
Néha algokereskedésnek is hívják,
03:38
algorithmic trading."
87
218260
3000
algoritmikus kereskedésnek."
03:41
And algorithmic trading evolved in part
88
221260
3000
És az algoritmikus kereskedés részben amiatt fejlődött ki,
03:44
because institutional traders have the same problems
89
224260
3000
hogy az intézményes kereskedőknek ugyanazok a problémái,
03:47
that the United States Air Force had,
90
227260
3000
mint az USA légierejének,
03:50
which is that they're moving these positions --
91
230260
3000
ami pedig abban áll, hogy változtatják a pozícióikat --
03:53
whether it's Proctor & Gamble or Accenture, whatever --
92
233260
2000
legyen az akár Procter & Gamble vagy Accenture, bármi --
03:55
they're moving a million shares of something
93
235260
2000
valaminek a sok millió részét mozgatják át
03:57
through the market.
94
237260
2000
a piacon keresztül.
03:59
And if they do that all at once,
95
239260
2000
És amennyiben ezt egyszerre teszik,
04:01
it's like playing poker and going all in right away.
96
241260
2000
az olyan lenne, mint amikor pókerben azonnal
04:03
You just tip your hand.
97
243260
2000
'all in'-t mondanál. Kiszórnád a kezedből.
04:05
And so they have to find a way --
98
245260
2000
Ezért olyan módot kell keresniük --
04:07
and they use algorithms to do this --
99
247260
2000
amihez algoritmusokat használnak --
04:09
to break up that big thing
100
249260
2000
hogy ezt a nagy dolgot
04:11
into a million little transactions.
101
251260
2000
millió kis tranzakcióra tördeljék.
04:13
And the magic and the horror of that
102
253260
2000
És ebben a varázslat és borzalom egyben az,
04:15
is that the same math
103
255260
2000
hogy ugyanaz a matek,
04:17
that you use to break up the big thing
104
257260
2000
amit arra használunk,
04:19
into a million little things
105
259260
2000
hogy a nagyot sok millió apró darabkára tördeljük,
04:21
can be used to find a million little things
106
261260
2000
arra is használható, hogy megtaláljunk sok millió apró darabkát,
04:23
and sew them back together
107
263260
2000
és újra összeillesszük őket,
04:25
and figure out what's actually happening in the market.
108
265260
2000
amiből aztán mérthetjük, hogy valójában mi is történik a piacon!
04:27
So if you need to have some image
109
267260
2000
Tehát, ha akarsz egy kis betekintést arról,
04:29
of what's happening in the stock market right now,
110
269260
3000
mi történik az értéktőzsdén ebben a pillanatban,
04:32
what you can picture is a bunch of algorithms
111
272260
2000
akkor észreveheted, hogy van egy csokor algoritmus,
04:34
that are basically programmed to hide,
112
274260
3000
amik gyakorlatilag azt a célt szolgálják, hogy rejtőzködjenek,
04:37
and a bunch of algorithms that are programmed to go find them and act.
113
277260
3000
és egy csokor algoritmus, ami arra való, hogy megtalálja ezeket
04:40
And all of that's great, and it's fine.
114
280260
3000
és cselekedjen! És ez mind nagyszerű, és jól is van így.
04:43
And that's 70 percent
115
283260
2000
És ez az USA értéktőzsdéjének
04:45
of the United States stock market,
116
285260
2000
70%-át teszi ki!
04:47
70 percent of the operating system
117
287260
2000
A működő rendszer 70%-a,
04:49
formerly known as your pension,
118
289260
3000
amit azelőtt nyugdíjként, jelzálogként
04:52
your mortgage.
119
292260
3000
tartottunk számon.
04:55
And what could go wrong?
120
295260
2000
Mi romolhatna el?
04:57
What could go wrong
121
297260
2000
Ami elromlott,
04:59
is that a year ago,
122
299260
2000
az az, hogy egy évvel ezelőtt, az egész piac
05:01
nine percent of the entire market just disappears in five minutes,
123
301260
3000
kilenc százaléka egyszerűen eltűnt öt perc leforgása alatt,
05:04
and they called it the Flash Crash of 2:45.
124
304260
3000
amit úgy neveztek el, hogy a 2:45-ös villámkrach.
05:07
All of a sudden, nine percent just goes away,
125
307260
3000
Hirtelen, kilenc százalék csak úgy eltűnik,
05:10
and nobody to this day
126
310260
2000
és a mai napig nem ért senki egyet abban,
05:12
can even agree on what happened
127
312260
2000
hogy mi is történhetett,
05:14
because nobody ordered it, nobody asked for it.
128
314260
3000
mivel senki nem rendelte el, senki sem kérte ezt.
05:17
Nobody had any control over what was actually happening.
129
317260
3000
Senkinek nem volt ellenőrzése afölött, ami akkor történt.
05:20
All they had
130
320260
2000
Mindössze
05:22
was just a monitor in front of them
131
322260
2000
egy monitor volt előttük,
05:24
that had the numbers on it
132
324260
2000
rajta a számokkal,
05:26
and just a red button
133
326260
2000
és csak egy piros gomb,
05:28
that said, "Stop."
134
328260
2000
amin ez állt: "Stop."
05:30
And that's the thing,
135
330260
2000
Na hát ez az,
05:32
is that we're writing things,
136
332260
2000
hogy mi írjuk a dolgokat, mi magunk írjuk
05:34
we're writing these things that we can no longer read.
137
334260
3000
azokat a dolgokat, amiket többé nem vagyunk képesek olvasni!
05:37
And we've rendered something
138
337260
2000
Olvashatatlanná tettünk
05:39
illegible,
139
339260
2000
valamit.
05:41
and we've lost the sense
140
341260
3000
És többé már nem értjük,
05:44
of what's actually happening
141
344260
2000
hogy mi is zajlik éppen,
05:46
in this world that we've made.
142
346260
2000
abban a világban, amit magunk teremtettünk!
05:48
And we're starting to make our way.
143
348260
2000
De kezdünk kimászni belőle.
05:50
There's a company in Boston called Nanex,
144
350260
3000
Van Bostonban egy Nanex nevű cég,
05:53
and they use math and magic
145
353260
2000
akik matekot és mágiát,
05:55
and I don't know what,
146
355260
2000
meg ki tudja még mit használnak,
05:57
and they reach into all the market data
147
357260
2000
képesek elérni az összes piaci adatot
05:59
and they find, actually sometimes, some of these algorithms.
148
359260
3000
és néha ténylegesen megtalálják ezen algoritmusok némelyikét.
06:02
And when they find them they pull them out
149
362260
3000
Amikor megtalálják őket, akkor kivonják ezeket,
06:05
and they pin them to the wall like butterflies.
150
365260
3000
és kitűzik őket a falra, mint a pillangókat szokás.
06:08
And they do what we've always done
151
368260
2000
Azt teszik, amit mindig is tettünk,
06:10
when confronted with huge amounts of data that we don't understand --
152
370260
3000
amikor óriási mennyiségű adattal találtuk szembe magunkat,
06:13
which is that they give them a name
153
373260
2000
amiket nem értettünk -- mégpedig, hogy elnevezik őket
06:15
and a story.
154
375260
2000
és történetet szőnek köréjük.
06:17
So this is one that they found,
155
377260
2000
Ez egy azok közül, amiket találtak,
06:19
they called the Knife,
156
379260
4000
Késnek nevezték el,
06:23
the Carnival,
157
383260
2000
ezt Karneválnak,
06:25
the Boston Shuffler,
158
385260
4000
ezt Bostoni Csoszogónak,
06:29
Twilight.
159
389260
2000
ezt Szürkületnek.
06:31
And the gag is
160
391260
2000
A röhejes ebben az,
06:33
that, of course, these aren't just running through the market.
161
393260
3000
hogy persze ezek nemcsak a piacon vannak jelen.
06:36
You can find these kinds of things wherever you look,
162
396260
3000
Akárhová nézel beleütközöl az ilyenekbe,
06:39
once you learn how to look for them.
163
399260
2000
ha egyszer megtanultad felismerni őket.
06:41
You can find it here: this book about flies
164
401260
3000
Megtalálhatod itt: van ez a legyekről szóló könyv,
06:44
that you may have been looking at on Amazon.
165
404260
2000
amit az Amazonon már lehet, hogy láttál.
06:46
You may have noticed it
166
406260
2000
Lehet, hogy észrevetted,
06:48
when its price started at 1.7 million dollars.
167
408260
2000
amikor az ára ott magaslott 1,7 millió dolláron!
06:50
It's out of print -- still ...
168
410260
2000
Elfogyott -- mégis...
06:52
(Laughter)
169
412260
2000
(Nevetés)
06:54
If you had bought it at 1.7, it would have been a bargain.
170
414260
3000
Ha megvetted volna 1,7-ért, az jó üzlet lett volna!
06:57
A few hours later, it had gone up
171
417260
2000
Néhány órával később,
06:59
to 23.6 million dollars,
172
419260
2000
felment az ára 23,6 millió dollárra,
07:01
plus shipping and handling.
173
421260
2000
plusz szállítási és kezelési költség.
07:03
And the question is:
174
423260
2000
A kérdés itt az:
07:05
Nobody was buying or selling anything; what was happening?
175
425260
2000
senki nem is adott el, vagy vett semmit; akkor mi is zajlott?
07:07
And you see this behavior on Amazon
176
427260
2000
Láthatjuk ezt a viselkedést az Amazonon,
07:09
as surely as you see it on Wall Street.
177
429260
2000
ugyanolyan biztonsággal, mint a Wall Streeten!
07:11
And when you see this kind of behavior,
178
431260
2000
És amikor az ilyen viselkedést észrevesszük,
07:13
what you see is the evidence
179
433260
2000
amit látunk,
07:15
of algorithms in conflict,
180
435260
2000
az a bizonyíték az ellentétes algoritmusok jelenlétére,
07:17
algorithms locked in loops with each other,
181
437260
2000
olyan algoritmusokra, amelyek rövidre zárják egymás köreit,
07:19
without any human oversight,
182
439260
2000
mindenféle emberi beavatkozás nélkül,
07:21
without any adult supervision
183
441260
3000
mindenféle hozzáértő felügyelet nélkül,
07:24
to say, "Actually, 1.7 million is plenty."
184
444260
3000
ami azt mondaná: "Nos, az az 1,7 millió azért kicsit túl sok!
07:27
(Laughter)
185
447260
3000
Ki vele!" (Nevetés)
07:30
And as with Amazon, so it is with Netflix.
186
450260
3000
És ahogy az Amazonon, ugyanúgy van ez a Netfixen is.
07:33
And so Netflix has gone through
187
453260
2000
Tehát a Netfix keresztülment egy csomó
07:35
several different algorithms over the years.
188
455260
2000
különféle algoritmuson az évek során.
07:37
They started with Cinematch, and they've tried a bunch of others --
189
457260
3000
A Cinemathtal kezdték, és kipróbáltak egy csomó másikat is.
07:40
there's Dinosaur Planet; there's Gravity.
190
460260
2000
Ott van a 'Dinoszaurusz bolygó', ott van a 'Gravitáció'.
07:42
They're using Pragmatic Chaos now.
191
462260
2000
Most a 'Pragmatikus káosz'-t használják éppen.
07:44
Pragmatic Chaos is, like all of Netflix algorithms,
192
464260
2000
A 'Pragmatikus káosz' az összes Netfix algoritmushoz hasonlóan
07:46
trying to do the same thing.
193
466260
2000
ugyanezt próbálja véghezvinni.
07:48
It's trying to get a grasp on you,
194
468260
2000
Megpróbál kiismerni téged,
07:50
on the firmware inside the human skull,
195
470260
2000
az emberi koponya belső vezérlőproramján belül,
07:52
so that it can recommend what movie
196
472260
2000
hogy aztán mozifilmeket javasolhasson neked,
07:54
you might want to watch next --
197
474260
2000
amit legközelebb szívesen megnéznél --
07:56
which is a very, very difficult problem.
198
476260
3000
ami egy nagyon-nagyon összetett kérdés.
07:59
But the difficulty of the problem
199
479260
2000
De a kérdés nehézsége,
08:01
and the fact that we don't really quite have it down,
200
481260
3000
és az a tény, hogy nem igazán győztük még le,
08:04
it doesn't take away
201
484260
2000
nem vesz el semmit
08:06
from the effects Pragmatic Chaos has.
202
486260
2000
a 'Pragmatikus káosz' hatékonyságából.
08:08
Pragmatic Chaos, like all Netflix algorithms,
203
488260
3000
A 'Pragmatikus káosz', az összes Netflix algoritmushoz hasonlóan
08:11
determines, in the end,
204
491260
2000
végső soron meg fogja mondani,
08:13
60 percent
205
493260
2000
60%-ban, hogy
08:15
of what movies end up being rented.
206
495260
2000
milyen filmeket fognak kikölcsönözni.
08:17
So one piece of code
207
497260
2000
Tehát egyetlen darabka kód arról,
08:19
with one idea about you
208
499260
3000
hogy milyen vagy,
08:22
is responsible for 60 percent of those movies.
209
502260
3000
felelős azoknak a filmeknek a 60 százalékáért.
08:25
But what if you could rate those movies
210
505260
2000
De mi lenne akkor, ha már akkor rangsorba tudnád állítani
08:27
before they get made?
211
507260
2000
azokat a filmeket, mielőtt elkészülnek?
08:29
Wouldn't that be handy?
212
509260
2000
Hát nem lenne klassz?
08:31
Well, a few data scientists from the U.K. are in Hollywood,
213
511260
3000
Nos, néhány angol statisztikus tudós jelenleg
08:34
and they have "story algorithms" --
214
514260
2000
Hollywoodban dolgozik, és vannak történet algoritmusaik
08:36
a company called Epagogix.
215
516260
2000
-- ez az Epagogix nevű cég.
08:38
And you can run your script through there,
216
518260
3000
Végigfuttathatod a kéziratodat náluk,
08:41
and they can tell you, quantifiably,
217
521260
2000
és meg tudják mondani számszerűsítve,
08:43
that that's a 30 million dollar movie
218
523260
2000
hogy ez egy 30 millió dolláros film lesz,
08:45
or a 200 million dollar movie.
219
525260
2000
vagy egy 200 millió dolláros.
08:47
And the thing is, is that this isn't Google.
220
527260
2000
És a helyzet az, hogy ez nem a Google.
08:49
This isn't information.
221
529260
2000
Ez nem egyszerűen információ.
08:51
These aren't financial stats; this is culture.
222
531260
2000
Ezek nem pénzügyi statisztikák; hanem kultúra.
08:53
And what you see here,
223
533260
2000
És amit itt észrevehetünk,
08:55
or what you don't really see normally,
224
535260
2000
ill. amit normál esetben nem veszünk észre,
08:57
is that these are the physics of culture.
225
537260
4000
az az, hogy ez a kultúra fizikája!
09:01
And if these algorithms,
226
541260
2000
És amennyiben ezek az algoritmusok,
09:03
like the algorithms on Wall Street,
227
543260
2000
a Wall Steet-iekhez hasonlóan,
09:05
just crashed one day and went awry,
228
545260
3000
egyszercsak összeomlanak és megmutatják a fonákjukat,
09:08
how would we know?
229
548260
2000
azt hogyan tudjuk meg,
09:10
What would it look like?
230
550260
2000
hogy fog az kinézni?
09:12
And they're in your house. They're in your house.
231
552260
3000
És ott vannak a házainkban! Ott vannak a te házadban!
09:15
These are two algorithms competing for your living room.
232
555260
2000
Két olyan algoritmus, ami a nappalidért versenyez!
09:17
These are two different cleaning robots
233
557260
2000
Két különböző takarítórobot, akiknek nagyon különböző
09:19
that have very different ideas about what clean means.
234
559260
3000
felfogása van arról, hogy mit is jelent a tisztaság!
09:22
And you can see it
235
562260
2000
És láthatjuk ezt,
09:24
if you slow it down and attach lights to them,
236
564260
3000
ha lelassítjuk és fényt kapcsolunk rájuk.
09:27
and they're sort of like secret architects in your bedroom.
237
567260
3000
Olyanok, mint valami titokzatos építészek a hálószobádban.
09:30
And the idea that architecture itself
238
570260
3000
És az az elképzelés, hogy maga az építészet
09:33
is somehow subject to algorithmic optimization
239
573260
2000
valamiféleképpen az algoritmikus optimalizációtól függ,
09:35
is not far-fetched.
240
575260
2000
egyáltalán nem egy erőltetett vélemény.
09:37
It's super-real and it's happening around you.
241
577260
3000
Szupervalóságos és körülöttünk történik!
09:40
You feel it most
242
580260
2000
Akkor lehet legjobban érzékelni,
09:42
when you're in a sealed metal box,
243
582260
2000
amikor egy lezárt fémdobozban vagyunk,
09:44
a new-style elevator;
244
584260
2000
egy modern liftben,
09:46
they're called destination-control elevators.
245
586260
2000
amiket célállomás vezérelt lifteknek neveznek.
09:48
These are the ones where you have to press what floor you're going to go to
246
588260
3000
Ezek azok, amikor meg kell nyomod a gombot, hogy melyik
09:51
before you get in the elevator.
247
591260
2000
emeletre fogsz menni, még mielőtt belépnél a liftbe.
09:53
And it uses what's called a bin-packing algorithm.
248
593260
2000
Az úgynevezett 'ládapakoló' algoritmust használja.
09:55
So none of this mishegas
249
595260
2000
Tehát ezen őrületek egyike sem fogja megengedni
09:57
of letting everybody go into whatever car they want.
250
597260
2000
senkinek, hogy abba a liftbe szálljon be, amelyikbe akar!
09:59
Everybody who wants to go to the 10th floor goes into car two,
251
599260
2000
Mindenki, aki a tizedikre akar menni, a kettes liftbe,
10:01
and everybody who wants to go to the third floor goes into car five.
252
601260
3000
és mindenki, aki a harmadikra akar menni az ötösbe kell szálljon!
10:04
And the problem with that
253
604260
2000
A baj ezzel csak az,
10:06
is that people freak out.
254
606260
2000
hogy az emberek ettől
10:08
People panic.
255
608260
2000
kiakadnak! Bepánikolnak!
10:10
And you see why. You see why.
256
610260
2000
És látjuk, hogy miért! Látod!
10:12
It's because the elevator
257
612260
2000
Azért, mert a liftben
10:14
is missing some important instrumentation, like the buttons.
258
614260
3000
hiányzik valami alapvető dolog: a gombok!
10:17
(Laughter)
259
617260
2000
(Nevetés)
10:19
Like the things that people use.
260
619260
2000
Ugyanúgy, mint a használati tárgyaknál.
10:21
All it has
261
621260
2000
Mindössze annyi van benne,
10:23
is just the number that moves up or down
262
623260
3000
hogy a számok mozognak fel és le,
10:26
and that red button that says, "Stop."
263
626260
3000
és van a piros gomb, amin ez áll: "Stop!"
10:29
And this is what we're designing for.
264
629260
3000
És ezzel a céllal tervezünk!
10:32
We're designing
265
632260
2000
Erre a gépnyelvjárásra
10:34
for this machine dialect.
266
634260
2000
tervezzük a dolgokat!
10:36
And how far can you take that? How far can you take it?
267
636260
3000
Meddig vezethet ez? Meddig bírjuk elviselni ezt?
10:39
You can take it really, really far.
268
639260
2000
Nagyon sokáig elmehetünk vele.
10:41
So let me take it back to Wall Street.
269
641260
3000
Hadd kanyarodjak most vissza a Wall Streetre.
10:45
Because the algorithms of Wall Street
270
645260
2000
Mert a Wall Street algoritmusai
10:47
are dependent on one quality above all else,
271
647260
3000
egy minőségtől függenek mindenek felett,
10:50
which is speed.
272
650260
2000
mégpedig a sebességtől.
10:52
And they operate on milliseconds and microseconds.
273
652260
3000
És ezért milli- és mikroszekundumok alatt végzik el a dolgukat.
10:55
And just to give you a sense of what microseconds are,
274
655260
2000
Csak hogy megmutassam, mennyi is egy mikroszekundum,
10:57
it takes you 500,000 microseconds
275
657260
2000
500.000 mikroszekundumba telik,
10:59
just to click a mouse.
276
659260
2000
hogy az egérre klikkeljünk.
11:01
But if you're a Wall Street algorithm
277
661260
2000
De ha egy Wall Street-i algoritmus vagy,
11:03
and you're five microseconds behind,
278
663260
2000
és 5 másodperccel lemaradsz,
11:05
you're a loser.
279
665260
2000
akkor veszítettél.
11:07
So if you were an algorithm,
280
667260
2000
Tehát ha algoritmusok lennénk,
11:09
you'd look for an architect like the one that I met in Frankfurt
281
669260
3000
olyan építészt keresnénk, mint akivel Frankfurtban találkoztam,
11:12
who was hollowing out a skyscraper --
282
672260
2000
aki éppen egy felhőkarcolót ürített ki --
11:14
throwing out all the furniture, all the infrastructure for human use,
283
674260
3000
kidobálva az összes bútort, az összes emberi használathoz szükséges infrastruktúrát,
11:17
and just running steel on the floors
284
677260
3000
és kizárólag acélsíneket helyezett el a földön,
11:20
to get ready for the stacks of servers to go in --
285
680260
3000
hogy előkészítse a helyet a beszállítandó szerverkupac számára --
11:23
all so an algorithm
286
683260
2000
mindezt azért, hogy egy algoritmus
11:25
could get close to the Internet.
287
685260
3000
közel kerülhessen az internethez.
11:28
And you think of the Internet as this kind of distributed system.
288
688260
3000
Úgy gondolunk az internetre, mint valami elosztott rendszerre.
11:31
And of course, it is, but it's distributed from places.
289
691260
3000
És persze az is, de helyekről osztják szét.
11:34
In New York, this is where it's distributed from:
290
694260
2000
New Yorkban például innen szolgáltatják:
11:36
the Carrier Hotel
291
696260
2000
a Carrier Hotelből,
11:38
located on Hudson Street.
292
698260
2000
ami a Hudson Streeten helyezkedik el. És ez az a hely,
11:40
And this is really where the wires come right up into the city.
293
700260
3000
ahol a kábelek ténylegesen belépnek a városba, magába.
11:43
And the reality is that the further away you are from that,
294
703260
4000
És az a helyzet, hogy minél messzebb vagy ettől a helytől,
11:47
you're a few microseconds behind every time.
295
707260
2000
annál több mikroszekundummal le vagy maradva, minden egyes
11:49
These guys down on Wall Street,
296
709260
2000
esetben! Ezek a fickók ott a Wall Streeten
11:51
Marco Polo and Cherokee Nation,
297
711260
2000
Marco Polo és Cherokee Nation,
11:53
they're eight microseconds
298
713260
2000
8 mikorszekundummal
11:55
behind all these guys
299
715260
2000
ezek mögött a srácok mögött kullognak,
11:57
going into the empty buildings being hollowed out
300
717260
4000
akik éppen a a Carrier Hotel körüli
12:01
up around the Carrier Hotel.
301
721260
2000
kiürített épületekbe tartanak.
12:03
And that's going to keep happening.
302
723260
3000
És ilyesmik ezentúl is lesznek!
12:06
We're going to keep hollowing them out,
303
726260
2000
Továbbra is ki kell, hogy ürítsük őket,
12:08
because you, inch for inch
304
728260
3000
mert mi, centiről centire,
12:11
and pound for pound and dollar for dollar,
305
731260
3000
fontról fontra, dollárról dollárra,
12:14
none of you could squeeze revenue out of that space
306
734260
3000
egyikünk sem képes olyan bevételt kisajtolni abból a térből,
12:17
like the Boston Shuffler could.
307
737260
3000
mint amennyit a Bostoni Csoszogó tudott.
12:20
But if you zoom out,
308
740260
2000
De ha kijjebb lépünk
12:22
if you zoom out,
309
742260
2000
ebből a körből, egyre kijjebb,
12:24
you would see an 825-mile trench
310
744260
4000
láthatunk egy 1300 kilométer hosszú árkot
12:28
between New York City and Chicago
311
748260
2000
New York és Chicago között,
12:30
that's been built over the last few years
312
750260
2000
ami az elmúlt években épült,
12:32
by a company called Spread Networks.
313
752260
3000
a Spread Networks cég által.
12:35
This is a fiber optic cable
314
755260
2000
Ez egy optikai kábel,
12:37
that was laid between those two cities
315
757260
2000
amit azért fektettek le a két város közé,
12:39
to just be able to traffic one signal
316
759260
3000
hogy képesek legyenek 37-szer gyorsabban
12:42
37 times faster than you can click a mouse --
317
762260
3000
venni a jeleket, mint ahogy az egereden klikkelsz egyet,
12:45
just for these algorithms,
318
765260
3000
kizárólag ezeknek az algoritmusoknak,
12:48
just for the Carnival and the Knife.
319
768260
3000
csak a Karneválnak és a Késnek.
12:51
And when you think about this,
320
771260
2000
És ha ebbe belegondolunk,
12:53
that we're running through the United States
321
773260
2000
hogy járunk körbe az USA-ban
12:55
with dynamite and rock saws
322
775260
3000
dinamitokkal és sziklavágókkal,
12:58
so that an algorithm can close the deal
323
778260
2000
hogy az algoritmusok az üzletet
13:00
three microseconds faster,
324
780260
3000
3 mikroszekundummal gyorsabban meg tudják kötni,
13:03
all for a communications framework
325
783260
2000
mindezt egy olyan kommunikációs keretben,
13:05
that no human will ever know,
326
785260
4000
amit ember soha fel nem fog fogni,
13:09
that's a kind of manifest destiny;
327
789260
3000
ez valamiféleképpen előrevetíti a sorsot,
13:12
and we'll always look for a new frontier.
328
792260
3000
és mindig előrefele fog húzni.
13:15
Unfortunately, we have our work cut out for us.
329
795260
3000
Sajnos mindannyiunknak megvan a kijelölt munkája.
13:18
This is just theoretical.
330
798260
2000
Ez csak elmélet.
13:20
This is some mathematicians at MIT.
331
800260
2000
Ezt néhány MIT-s matematikus találta ki.
13:22
And the truth is I don't really understand
332
802260
2000
És az igazság az, hogy nem igazán értem
13:24
a lot of what they're talking about.
333
804260
2000
a nagy részét annak, amiről beszélnek.
13:26
It involves light cones and quantum entanglement,
334
806260
3000
Tartoznak ide fénykúpok, meg kvantumbonyodalmak,
13:29
and I don't really understand any of that.
335
809260
2000
és ezek egyikét sem igazán értem.
13:31
But I can read this map,
336
811260
2000
Viszont tudom olvasni ezt a térképet.
13:33
and what this map says
337
813260
2000
És amit ez a térkép mond,
13:35
is that, if you're trying to make money on the markets where the red dots are,
338
815260
3000
az az, hogy ha ott akarsz pénzt csinálni a piacon, ahol a piros pöttyök vannak,
13:38
that's where people are, where the cities are,
339
818260
2000
ahol az emberek, a városok vannak,
13:40
you're going to have to put the servers where the blue dots are
340
820260
3000
akkor a szervereket oda kell helyezned, ahol a kék pöttyök vannak,
13:43
to do that most effectively.
341
823260
2000
hogy a leghatékonyabban hajthasd ezt végre.
13:45
And the thing that you might have noticed about those blue dots
342
825260
3000
És az a helyzet, és lehet, hogy ti is észrevettétek,
13:48
is that a lot of them are in the middle of the ocean.
343
828260
3000
hogy a kék pöttyök nagy része az óceánok közepére esik!
13:51
So that's what we'll do: we'll build bubbles or something,
344
831260
3000
Tehát valami ilyesmit kell majd tennünk, buborékokat létrehozni,
13:54
or platforms.
345
834260
2000
vagy miket, vagy állványokat.
13:56
We'll actually part the water
346
836260
2000
Szó szerint részekre fogjuk osztani a vizeket ahhoz,
13:58
to pull money out of the air,
347
838260
2000
hogy pénzt hozzunk ki a levegőből,
14:00
because it's a bright future
348
840260
2000
mivel ez egy kecsegtető lehetőség,
14:02
if you're an algorithm.
349
842260
2000
ha mi vagyunk az algoritmus.
14:04
(Laughter)
350
844260
2000
(Nevetés)
14:06
And it's not the money that's so interesting actually.
351
846260
3000
És valójában nem is a pénz az érdekes ebben.
14:09
It's what the money motivates,
352
849260
2000
Hanem az, amire a pénz motivál.
14:11
that we're actually terraforming
353
851260
2000
Hogy tulajdonképpen átalakítjuk a földet,
14:13
the Earth itself
354
853260
2000
magát a Föld bolygót
14:15
with this kind of algorithmic efficiency.
355
855260
2000
ezzel a fajta algoritmikus hatékonysággal.
14:17
And in that light,
356
857260
2000
És ennek fényében
14:19
you go back
357
859260
2000
térjünk vissza
14:21
and you look at Michael Najjar's photographs,
358
861260
2000
és nézzük meg Michael Najjar fotóit,
14:23
and you realize that they're not metaphor, they're prophecy.
359
863260
3000
és akkor észrevesszük, hogy nem is metaforák, hanem próféciák!
14:26
They're prophecy
360
866260
2000
Próféciái azoknak a szeizmikus
14:28
for the kind of seismic, terrestrial effects
361
868260
4000
földön zajló hatásoknak,
14:32
of the math that we're making.
362
872260
2000
amiket a matematikánkkal művelünk.
14:34
And the landscape was always made
363
874260
3000
És a tájkép mindig is ennek a fura,
14:37
by this sort of weird, uneasy collaboration
364
877260
3000
nem igazán könnyed, természet és ember közti
14:40
between nature and man.
365
880260
3000
együttműködésnek a következtében formálódott.
14:43
But now there's this third co-evolutionary force: algorithms --
366
883260
3000
De most itt van ez az evolúció következtében megjelenő erő:
14:46
the Boston Shuffler, the Carnival.
367
886260
3000
az algoritmusok -- a Bostoni Csoszogó, a Karnevál.
14:49
And we will have to understand those as nature,
368
889260
3000
És ugyanúgy meg kell értenünk ezeket, mint a természetet!
14:52
and in a way, they are.
369
892260
2000
Mert bizonyos értelemben ők is annak a részei.
14:54
Thank you.
370
894260
2000
Köszönöm.
14:56
(Applause)
371
896260
20000
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7