How algorithms shape our world | Kevin Slavin

484,372 views ・ 2011-07-21

TED


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Ade Indarta Reviewer: Antonius Yudi Sendjaja
00:15
This is a photograph
0
15260
2000
Ini adalah foto
00:17
by the artist Michael Najjar,
1
17260
2000
karya seniman Michael Najjar,
00:19
and it's real,
2
19260
2000
dan ini sungguhan,
00:21
in the sense that he went there to Argentina
3
21260
2000
dalam arti dia benar-benar pergi ke Argentina
00:23
to take the photo.
4
23260
2000
dan mengambil foto ini.
00:25
But it's also a fiction. There's a lot of work that went into it after that.
5
25260
3000
Tapi ini juga fiksi. Ada banyak hal yang dilakukan pada foto ini sesudahnya.
00:28
And what he's done
6
28260
2000
Yang dia lakukan
00:30
is he's actually reshaped, digitally,
7
30260
2000
sebenarnya adalah mengubah secara digital
00:32
all of the contours of the mountains
8
32260
2000
semua kontur pegunungan itu
00:34
to follow the vicissitudes of the Dow Jones index.
9
34260
3000
mengikuti variasi ketinggian indeks Dow Jones.
00:37
So what you see,
10
37260
2000
Jadi yang kita lihat,
00:39
that precipice, that high precipice with the valley,
11
39260
2000
tebing curam itu, tebing curam dengan lembah itu,
00:41
is the 2008 financial crisis.
12
41260
2000
adalah krisis ekonomi 2008.
00:43
The photo was made
13
43260
2000
Foto itu dibuat
00:45
when we were deep in the valley over there.
14
45260
2000
saat kita tenggelam di lembah itu.
00:47
I don't know where we are now.
15
47260
2000
Saya tidak tahu di mana kita sekarang.
00:49
This is the Hang Seng index
16
49260
2000
Ini adalah indeks Hang Seng
00:51
for Hong Kong.
17
51260
2000
untuk Hong Kong.
00:53
And similar topography.
18
53260
2000
Topografis yang serupa.
00:55
I wonder why.
19
55260
2000
Entah kenapa.
00:57
And this is art. This is metaphor.
20
57260
3000
Ini seni, metafora.
01:00
But I think the point is
21
60260
2000
Tapi menurut saya intinya adalah
01:02
that this is metaphor with teeth,
22
62260
2000
ini adalah metafora bertaring.
01:04
and it's with those teeth that I want to propose today
23
64260
3000
Dan karena taring itulah saya ingin mengajak Anda pada hari ini
01:07
that we rethink a little bit
24
67260
2000
untuk memikirkan kembali
01:09
about the role of contemporary math --
25
69260
3000
peranan matematika kontemporer --
01:12
not just financial math, but math in general.
26
72260
3000
bukan hanya matematika finansial, tapi matematika secara umum.
01:15
That its transition
27
75260
2000
Tentang peralihannya
01:17
from being something that we extract and derive from the world
28
77260
3000
dari sesuatu yang kita ambil dan hasilkan dari dunia
01:20
to something that actually starts to shape it --
29
80260
3000
menjadi sesuatu yang mulai membentuk dunia --
01:23
the world around us and the world inside us.
30
83260
3000
dunia di sekitar kita dan dunia di dalam diri kita.
01:26
And it's specifically algorithms,
31
86260
2000
Terutama algoritma,
01:28
which are basically the math
32
88260
2000
yang pada intinya adalah matematika
01:30
that computers use to decide stuff.
33
90260
3000
yang digunakan komputer untuk mengambil keputusan.
01:33
They acquire the sensibility of truth
34
93260
2000
Algoritma dekat dengan kebenaran,
01:35
because they repeat over and over again,
35
95260
2000
karena terus berulang dan berulang.
01:37
and they ossify and calcify,
36
97260
3000
Lalu mengering dan mengerak,
01:40
and they become real.
37
100260
2000
dan menjadi nyata.
01:42
And I was thinking about this, of all places,
38
102260
3000
Saya memikirkan tentang semua ini, justru ketika berada
01:45
on a transatlantic flight a couple of years ago,
39
105260
3000
di atas penerbangan transatlantik beberapa tahun lalu,
01:48
because I happened to be seated
40
108260
2000
kebetulan saya duduk
01:50
next to a Hungarian physicist about my age
41
110260
2000
di samping seorang fisikawan Hungaria seumuran saya
01:52
and we were talking
42
112260
2000
dan kami berbicara
01:54
about what life was like during the Cold War
43
114260
2000
tentang seperti apa hidup saat Perang Dingin
01:56
for physicists in Hungary.
44
116260
2000
bagi fisikawan di Hungaria.
01:58
And I said, "So what were you doing?"
45
118260
2000
Saya bertanya, "Jadi apa pekerjaan Anda?"
02:00
And he said, "Well we were mostly breaking stealth."
46
120260
2000
Dan dia menjawab, "Kami membuat penangkal teknologi siluman."
02:02
And I said, "That's a good job. That's interesting.
47
122260
2000
Saya jawab, "Pekerjaan yang bagus. Menarik.
02:04
How does that work?"
48
124260
2000
Bagaimana cara kerjanya?"
02:06
And to understand that,
49
126260
2000
Untuk memahami hal ini,
02:08
you have to understand a little bit about how stealth works.
50
128260
3000
kita harus memahami sedikit tentang cara kerja teknologi siluman.
02:11
And so -- this is an over-simplification --
51
131260
3000
Dan -- penyederhanaan ini agak berlebihan --
02:14
but basically, it's not like
52
134260
2000
tapi pada dasarnya, kita tidak bisa
02:16
you can just pass a radar signal
53
136260
2000
begitu saja menghilang dari sinyal radar
02:18
right through 156 tons of steel in the sky.
54
138260
3000
menghilangkan 156 ton besi baja di angkasa.
02:21
It's not just going to disappear.
55
141260
3000
Tidak akan begitu saja menghilang.
02:24
But if you can take this big, massive thing,
56
144260
3000
Tapi kalau kita bisa membuat benda besar ini,
02:27
and you could turn it into
57
147260
3000
mengubahnya menjadi
02:30
a million little things --
58
150260
2000
jutaan benda kecil --
02:32
something like a flock of birds --
59
152260
2000
seperti kawanan burung --
02:34
well then the radar that's looking for that
60
154260
2000
radar yang tetap bisa melihatnya berarti
02:36
has to be able to see
61
156260
2000
juga akan bisa melihat
02:38
every flock of birds in the sky.
62
158260
2000
setiap kawanan burung di angkasa.
02:40
And if you're a radar, that's a really bad job.
63
160260
4000
Untuk radar, itu sangat sulit
02:44
And he said, "Yeah." He said, "But that's if you're a radar.
64
164260
3000
Dan dia mengatakan, "Ya, tapi itu hanya untuk radar.
02:47
So we didn't use a radar;
65
167260
2000
Jadi kami tidak menggunakan radar;
02:49
we built a black box that was looking for electrical signals,
66
169260
3000
kami membuat kotak hitam yang mencari sinyal elektronik,
02:52
electronic communication.
67
172260
3000
komunikasi elektronik.
02:55
And whenever we saw a flock of birds that had electronic communication,
68
175260
3000
Jadi kapan saja kami melihat sekawanan burung melakukan komunikasi elektronik,
02:58
we thought, 'Probably has something to do with the Americans.'"
69
178260
3000
kami boleh curiga kalau itu ada hubungannya dengan Amerika."
03:01
And I said, "Yeah.
70
181260
2000
Dan saya jawab, "Wah.
03:03
That's good.
71
183260
2000
Itu keren.
03:05
So you've effectively negated
72
185260
2000
Jadi Anda telah menghancurkan
03:07
60 years of aeronautic research.
73
187260
2000
hasil riset aeronautis selama 60 tahun.
03:09
What's your act two?
74
189260
2000
Apa kegiatan Anda yang lain?
03:11
What do you do when you grow up?"
75
191260
2000
Apa yang Anda lakukan sebelumnya?"
03:13
And he said,
76
193260
2000
Dan dia menjawab,
03:15
"Well, financial services."
77
195260
2000
"Jasa finansial."
03:17
And I said, "Oh."
78
197260
2000
Dan saya berkata, "Oh."
03:19
Because those had been in the news lately.
79
199260
3000
Karena saya sering mendengarnya di berita.
03:22
And I said, "How does that work?"
80
202260
2000
Saya bertanya, "Bagaimana cara kerjanya?"
03:24
And he said, "Well there's 2,000 physicists on Wall Street now,
81
204260
2000
Dia menjawab, "Ada 2.000 fisikawan di Wall Street sekarang,
03:26
and I'm one of them."
82
206260
2000
saya salah satunya."
03:28
And I said, "What's the black box for Wall Street?"
83
208260
3000
Dan saya mengatakan, "Jadi untuk Wall Street, apa kotak hitamnya?"
03:31
And he said, "It's funny you ask that,
84
211260
2000
Dan jawabnya, "Kebetulan sekali Anda bertanya,
03:33
because it's actually called black box trading.
85
213260
3000
karena namanya memang perdagangan kotak hitam.
03:36
And it's also sometimes called algo trading,
86
216260
2000
Kadang juga disebut perdagangan algo,
03:38
algorithmic trading."
87
218260
3000
perdagangan algoritma."
03:41
And algorithmic trading evolved in part
88
221260
3000
Perdagangan algoritma sebagian berkembang
03:44
because institutional traders have the same problems
89
224260
3000
karena pialang perusahaan punya masalah yang sama
03:47
that the United States Air Force had,
90
227260
3000
dengan Angkatan Bersenjata Amerika,
03:50
which is that they're moving these positions --
91
230260
3000
yaitu mereka memindahkan posisi-posisi ini --
03:53
whether it's Proctor & Gamble or Accenture, whatever --
92
233260
2000
baik itu Proctor & Gamble atau Accenture, apa pun itu --
03:55
they're moving a million shares of something
93
235260
2000
mereka memindahkan jutaan saham dari suatu perusahaan
03:57
through the market.
94
237260
2000
melalui pasar.
03:59
And if they do that all at once,
95
239260
2000
Dan kalau mereka melakukannya sekaligus,
04:01
it's like playing poker and going all in right away.
96
241260
2000
itu akan seperti main poker dan mempertaruhkan semuanya sekaligus.
04:03
You just tip your hand.
97
243260
2000
Anda membuka rahasia Anda sendiri.
04:05
And so they have to find a way --
98
245260
2000
Jadi mereka pun harus menemukan cara --
04:07
and they use algorithms to do this --
99
247260
2000
dan mereka menggunakan algoritma --
04:09
to break up that big thing
100
249260
2000
untuk memecahkan sesuatu yang besar
04:11
into a million little transactions.
101
251260
2000
menjadi jutaan transaksi kecil.
04:13
And the magic and the horror of that
102
253260
2000
Yang ajaib atau menakutkan dari hal itu
04:15
is that the same math
103
255260
2000
adalah perhitungan yang sama
04:17
that you use to break up the big thing
104
257260
2000
yang Anda gunakan untuk memecah benda besar
04:19
into a million little things
105
259260
2000
menjadi jutaan benda kecil
04:21
can be used to find a million little things
106
261260
2000
bisa digunakan untuk menemukan jutaan benda kecil itu
04:23
and sew them back together
107
263260
2000
dan merekatkannya kembali
04:25
and figure out what's actually happening in the market.
108
265260
2000
dan mencari tahu apa yang sebenarnya terjadi di pasar.
04:27
So if you need to have some image
109
267260
2000
Jadi kalau kita memerlukan gambaran
04:29
of what's happening in the stock market right now,
110
269260
3000
tentang apa yang terjadi di pasar modal sekarang,
04:32
what you can picture is a bunch of algorithms
111
272260
2000
Anda bisa membayangkan setumpuk algoritma
04:34
that are basically programmed to hide,
112
274260
3000
yang diprogram untuk menyembunyikan,
04:37
and a bunch of algorithms that are programmed to go find them and act.
113
277260
3000
dan setumpuk algoritma yang diprogram untuk menemukan dan bertindak.
04:40
And all of that's great, and it's fine.
114
280260
3000
Dan itu memang hebat, tidak masalah.
04:43
And that's 70 percent
115
283260
2000
Dan itulah 70 persen dari
04:45
of the United States stock market,
116
285260
2000
pasar saham Amerika Serikat,
04:47
70 percent of the operating system
117
287260
2000
70 persen sistem operasi
04:49
formerly known as your pension,
118
289260
3000
yang sebelumnya dikenal sebagai pensiun Anda,
04:52
your mortgage.
119
292260
3000
pinjaman Anda.
04:55
And what could go wrong?
120
295260
2000
Apa yang mungkin terjadi?
04:57
What could go wrong
121
297260
2000
Yang mungkin terjadi
04:59
is that a year ago,
122
299260
2000
adalah yang terjadi tahun lalu,
05:01
nine percent of the entire market just disappears in five minutes,
123
301260
3000
sembilan persen dari seluruh pasar tiba-tiba menghilang selama 5 menit,
05:04
and they called it the Flash Crash of 2:45.
124
304260
3000
mereka menyebutnya "flash crash of 2:45."
05:07
All of a sudden, nine percent just goes away,
125
307260
3000
Tiba-tiba, 9 persen hilang begitu saja,
05:10
and nobody to this day
126
310260
2000
dan tidak ada satu pun hingga hari ini
05:12
can even agree on what happened
127
312260
2000
yang sepakat tentang apa yang telah terjadi,
05:14
because nobody ordered it, nobody asked for it.
128
314260
3000
karena tidak ada yang memesannya, tidak ada yang memintanya.
05:17
Nobody had any control over what was actually happening.
129
317260
3000
Tidak ada yang bisa mengendalikan hal yang sebenarnya terjadi.
05:20
All they had
130
320260
2000
Yang mereka tahu
05:22
was just a monitor in front of them
131
322260
2000
hanya sebuah monitor di depan mereka
05:24
that had the numbers on it
132
324260
2000
yang bertuliskan angka
05:26
and just a red button
133
326260
2000
dan sebuah tombol merah
05:28
that said, "Stop."
134
328260
2000
yang bertuliskan, "Stop."
05:30
And that's the thing,
135
330260
2000
Dan itulah masalahnya,
05:32
is that we're writing things,
136
332260
2000
kita terus menulis hal-hal ini,
05:34
we're writing these things that we can no longer read.
137
334260
3000
kita terus menulis hal-hal yang tidak lagi bisa kita baca.
05:37
And we've rendered something
138
337260
2000
Kita menghasilkan sesuatu
05:39
illegible,
139
339260
2000
yang tidak bisa dibaca.
05:41
and we've lost the sense
140
341260
3000
Dan kita kehilangan pengertian
05:44
of what's actually happening
141
344260
2000
atas apa yang sebenarnya terjadi
05:46
in this world that we've made.
142
346260
2000
di dunia yang telah kita buat ini.
05:48
And we're starting to make our way.
143
348260
2000
Kita mulai membuka jalan kita sendiri.
05:50
There's a company in Boston called Nanex,
144
350260
3000
Ada sebuah perusahaan di Boston yang bernama Nanex,
05:53
and they use math and magic
145
353260
2000
dan mereka menggunakan matematika dan sulap
05:55
and I don't know what,
146
355260
2000
dan saya tidak tahu apa lagi,
05:57
and they reach into all the market data
147
357260
2000
mereka mengumpulkan semua data pasar
05:59
and they find, actually sometimes, some of these algorithms.
148
359260
3000
dan menemukan, terkadang, beberapa algoritma ini.
06:02
And when they find them they pull them out
149
362260
3000
Kalau mereka menemukannya, mereka akan menariknya
06:05
and they pin them to the wall like butterflies.
150
365260
3000
dan menempelkannya ke dinding seperti kupu-kupu
06:08
And they do what we've always done
151
368260
2000
Mereka melakukan yang selalu kita lakukan
06:10
when confronted with huge amounts of data that we don't understand --
152
370260
3000
jika dihadapkan pada sejumlah besar data yang tidak kita mengerti --
06:13
which is that they give them a name
153
373260
2000
yaitu memberinya nama
06:15
and a story.
154
375260
2000
dan cerita.
06:17
So this is one that they found,
155
377260
2000
Inilah salah satu yang mereka temukan,
06:19
they called the Knife,
156
379260
4000
mereka menyebutnya "Knife" (Pisau),
06:23
the Carnival,
157
383260
2000
"Carnival" (Karnaval),
06:25
the Boston Shuffler,
158
385260
4000
"Boston Shuffler" (Bandar Boston),
06:29
Twilight.
159
389260
2000
"Twilight" (Senja).
06:31
And the gag is
160
391260
2000
Dan yang lucu adalah
06:33
that, of course, these aren't just running through the market.
161
393260
3000
ini tidak hanya ada di pasar modal.
06:36
You can find these kinds of things wherever you look,
162
396260
3000
Anda bisa menemukan hal seperti ini di mana saja,
06:39
once you learn how to look for them.
163
399260
2000
jika Anda tahu di mana harus mencarinya.
06:41
You can find it here: this book about flies
164
401260
3000
Anda bisa menemukannya di sini: sebuah buku tentang lalat
06:44
that you may have been looking at on Amazon.
165
404260
2000
yang mungkin sedang Anda cari di Amazon.
06:46
You may have noticed it
166
406260
2000
Anda mungkin menyadari
06:48
when its price started at 1.7 million dollars.
167
408260
2000
harganya bertuliskan 1.7 juta dolar.
06:50
It's out of print -- still ...
168
410260
2000
Tapi tetap saja habis -- tetap ...
06:52
(Laughter)
169
412260
2000
(Suara tawa)
06:54
If you had bought it at 1.7, it would have been a bargain.
170
414260
3000
Jadi kalau Anda membelinya seharga 1,7 juta dolar, itu sudah murah.
06:57
A few hours later, it had gone up
171
417260
2000
Beberapa jam kemudian, harganya pernah naik
06:59
to 23.6 million dollars,
172
419260
2000
menjadi 23,6 juta dolar,
07:01
plus shipping and handling.
173
421260
2000
ditambah pengepakan dan pengiriman.
07:03
And the question is:
174
423260
2000
Pertanyaannya adalah:
07:05
Nobody was buying or selling anything; what was happening?
175
425260
2000
Tidak ada yang membeli atau menjual apa pun; apa yang terjadi?
07:07
And you see this behavior on Amazon
176
427260
2000
Kita melihat perilaku ini di Amazon
07:09
as surely as you see it on Wall Street.
177
429260
2000
mungkin juga kita melihatnya di Wall Street.
07:11
And when you see this kind of behavior,
178
431260
2000
Ketika kita melihat perilaku seperti ini,
07:13
what you see is the evidence
179
433260
2000
yang kita lihat adalah bukti
07:15
of algorithms in conflict,
180
435260
2000
konflik algoritma,
07:17
algorithms locked in loops with each other,
181
437260
2000
algoritma terkunci dalam lingkaran dengan yang lain,
07:19
without any human oversight,
182
439260
2000
tanpa ada manusia yang mengawasi,
07:21
without any adult supervision
183
441260
3000
tanpa pengawasan orang dewasa
07:24
to say, "Actually, 1.7 million is plenty."
184
444260
3000
yang berkata, "1.7 juta itu jumlah yang besar."
07:27
(Laughter)
185
447260
3000
(Suara tawa)
07:30
And as with Amazon, so it is with Netflix.
186
450260
3000
Sama seperti Amazon, Netflix juga mempunyainya.
07:33
And so Netflix has gone through
187
453260
2000
Netflix sudah menggunakan
07:35
several different algorithms over the years.
188
455260
2000
beberapa algoritma yang berbeda beberapa tahun ini.
07:37
They started with Cinematch, and they've tried a bunch of others --
189
457260
3000
Dimulai dengan "Cinematch" (Bioskop), dan beberapa yang lain.
07:40
there's Dinosaur Planet; there's Gravity.
190
460260
2000
Ada yang bernama "Dinosaur Planet" (Planet Dinosaurus), "Gravity" (Gravitasi),
07:42
They're using Pragmatic Chaos now.
191
462260
2000
Mereka menggunakan "Pragmatic Chaos" (Kekacauan Pragmatis) sekarang.
07:44
Pragmatic Chaos is, like all of Netflix algorithms,
192
464260
2000
"Pragmatic Chaos" itu, seperti algoritma Netflix lainnya,
07:46
trying to do the same thing.
193
466260
2000
mencoba melakukan hal yang sama.
07:48
It's trying to get a grasp on you,
194
468260
2000
Mencoba memahami Anda,
07:50
on the firmware inside the human skull,
195
470260
2000
memahami perangkat yang ada di dalam otak manusia,
07:52
so that it can recommend what movie
196
472260
2000
supaya bisa merekomendasikan film apa
07:54
you might want to watch next --
197
474260
2000
yang mungkin ingin Anda tonton selanjutnya --
07:56
which is a very, very difficult problem.
198
476260
3000
yang dalam hal ini menjadi masalah yang sangat sulit.
07:59
But the difficulty of the problem
199
479260
2000
Tapi tingkat kesulitan masalah ini
08:01
and the fact that we don't really quite have it down,
200
481260
3000
dan kenyataan bahwa kita tidak benar-benar mengetahuinya,
08:04
it doesn't take away
201
484260
2000
ini juga tidak jauh
08:06
from the effects Pragmatic Chaos has.
202
486260
2000
dari efek "Pragmatic Chaos".
08:08
Pragmatic Chaos, like all Netflix algorithms,
203
488260
3000
Pragmatic Chaos, seperti algoritma Netflix lainnya,
08:11
determines, in the end,
204
491260
2000
pada akhirnya menentukan
08:13
60 percent
205
493260
2000
60 persen
08:15
of what movies end up being rented.
206
495260
2000
film yang akhirnya disewa.
08:17
So one piece of code
207
497260
2000
Jadi sebuah kode yang berisi
08:19
with one idea about you
208
499260
3000
satu ide tentang diri Anda
08:22
is responsible for 60 percent of those movies.
209
502260
3000
bertanggung jawab atas 60 persen film tersebut.
08:25
But what if you could rate those movies
210
505260
2000
Bagaimana jika kita bisa menilai film-film itu
08:27
before they get made?
211
507260
2000
sebelum dibuat?
08:29
Wouldn't that be handy?
212
509260
2000
Bukankan itu akan bermanfaat?
08:31
Well, a few data scientists from the U.K. are in Hollywood,
213
511260
3000
Beberapa ilmuwan data dari Inggris sedang berada di Hollywood,
08:34
and they have "story algorithms" --
214
514260
2000
dan mereka punya algoritma naskah --
08:36
a company called Epagogix.
215
516260
2000
sebuah perusahaan bernama Epagogix.
08:38
And you can run your script through there,
216
518260
3000
Anda bisa memasukkan naskah Anda ke dalamnya,
08:41
and they can tell you, quantifiably,
217
521260
2000
dan mereka bisa memberitahu Anda, secara kuantitas,
08:43
that that's a 30 million dollar movie
218
523260
2000
apakah itu film bernilai 30 juta dolar
08:45
or a 200 million dollar movie.
219
525260
2000
atau film bernilai 200 juta dolar.
08:47
And the thing is, is that this isn't Google.
220
527260
2000
Masalahnya ini bukanlah Google.
08:49
This isn't information.
221
529260
2000
Ini bukan informasi.
08:51
These aren't financial stats; this is culture.
222
531260
2000
Ini bukan statistik finansial; ini adalah budaya.
08:53
And what you see here,
223
533260
2000
Dan yang Anda lihat di sini,
08:55
or what you don't really see normally,
224
535260
2000
atau yang biasanya tidak Anda lihat,
08:57
is that these are the physics of culture.
225
537260
4000
ini adalah ilmu fisika budaya.
09:01
And if these algorithms,
226
541260
2000
Dan jika algoritma ini,
09:03
like the algorithms on Wall Street,
227
543260
2000
seperti algoritma Wall Street,
09:05
just crashed one day and went awry,
228
545260
3000
suatu hari tiba-tiba gagal dan menjadi kacau,
09:08
how would we know?
229
548260
2000
bagaimana kita tahu
09:10
What would it look like?
230
550260
2000
akan seperti apa?
09:12
And they're in your house. They're in your house.
231
552260
3000
Algoritma ini ada di rumah Anda, di rumah kita.
09:15
These are two algorithms competing for your living room.
232
555260
2000
Ini adalah dua algoritma yang memperebutkan ruang tamu Anda.
09:17
These are two different cleaning robots
233
557260
2000
Ini adalah dua robot pembersih berbeda
09:19
that have very different ideas about what clean means.
234
559260
3000
yang punya definisi berbeda tentang kata bersih.
09:22
And you can see it
235
562260
2000
Kita bisa melihatnya
09:24
if you slow it down and attach lights to them,
236
564260
3000
kalau kita memperlambat dan memasang lampu.
09:27
and they're sort of like secret architects in your bedroom.
237
567260
3000
Mereka seperti arsitek rahasia di kamar tidur Anda.
09:30
And the idea that architecture itself
238
570260
3000
Dan ide untuk menjadikan arsitektur
09:33
is somehow subject to algorithmic optimization
239
573260
2000
sebagai subjek optimalisasi algoritma
09:35
is not far-fetched.
240
575260
2000
juga sudah ada.
09:37
It's super-real and it's happening around you.
241
577260
3000
Ini sangat nyata dan terjadi di sekitar Anda.
09:40
You feel it most
242
580260
2000
Anda paling merasakannya
09:42
when you're in a sealed metal box,
243
582260
2000
saat berada di kotak logam tertutup,
09:44
a new-style elevator;
244
584260
2000
lift gaya baru,
09:46
they're called destination-control elevators.
245
586260
2000
mereka menyebutnya lift kontrol tujuan.
09:48
These are the ones where you have to press what floor you're going to go to
246
588260
3000
Inilah yang harus Anda tekan, lantai yang ingin Anda kunjungi
09:51
before you get in the elevator.
247
591260
2000
sebelum masuk ke lift.
09:53
And it uses what's called a bin-packing algorithm.
248
593260
2000
Dan ini menggunakan apa yang disebut algoritma "bin-packing".
09:55
So none of this mishegas
249
595260
2000
Tidak perlu lagi ada kekacauan ini
09:57
of letting everybody go into whatever car they want.
250
597260
2000
membiarkan orang masuk ke lift yang mereka mau.
09:59
Everybody who wants to go to the 10th floor goes into car two,
251
599260
2000
Siapa saja yang ingin ke lantai 10 silakan masuk ke lift yang kedua,
10:01
and everybody who wants to go to the third floor goes into car five.
252
601260
3000
dan semua yang ingin ke lantai 3 silakan masuk ke nomor lima.
10:04
And the problem with that
253
604260
2000
Masalahnya adalah
10:06
is that people freak out.
254
606260
2000
orang suka panik.
10:08
People panic.
255
608260
2000
Orang panik.
10:10
And you see why. You see why.
256
610260
2000
Dan lihatlah sebabnya.
10:12
It's because the elevator
257
612260
2000
Itu karena lift tersebut
10:14
is missing some important instrumentation, like the buttons.
258
614260
3000
tidak memiliki instrumen yang penting, seperti tombol.
10:17
(Laughter)
259
617260
2000
(Suara tawa)
10:19
Like the things that people use.
260
619260
2000
Seperti yang biasa digunakan oleh orang-orang itu.
10:21
All it has
261
621260
2000
Yang ada hanya
10:23
is just the number that moves up or down
262
623260
3000
nomor yang bergerak naik dan turun
10:26
and that red button that says, "Stop."
263
626260
3000
dan tombol merah yang bertuliskan, "Stop."
10:29
And this is what we're designing for.
264
629260
3000
Dan inilah yang sekarang kami rancang.
10:32
We're designing
265
632260
2000
Kami merancang
10:34
for this machine dialect.
266
634260
2000
untuk dialek mesin ini.
10:36
And how far can you take that? How far can you take it?
267
636260
3000
Seberapa jauh Anda bisa mengembangkannya?
10:39
You can take it really, really far.
268
639260
2000
Anda bisa mengembangkannya sangat jauh.
10:41
So let me take it back to Wall Street.
269
641260
3000
Mari kita kembali ke Wall Street.
10:45
Because the algorithms of Wall Street
270
645260
2000
Karena algoritma Wall Street
10:47
are dependent on one quality above all else,
271
647260
3000
tergantung pada satu kualitas utama,
10:50
which is speed.
272
650260
2000
yaitu kecepatan.
10:52
And they operate on milliseconds and microseconds.
273
652260
3000
Mereka beroperasi dalam milidetik dan mikrodetik.
10:55
And just to give you a sense of what microseconds are,
274
655260
2000
Dan sebagai gambaran berapa lama mikrodetik itu,
10:57
it takes you 500,000 microseconds
275
657260
2000
perlu waktu 500.000 mikrodetik
10:59
just to click a mouse.
276
659260
2000
untuk mengklik sebuah mouse.
11:01
But if you're a Wall Street algorithm
277
661260
2000
Tapi kalau Anda adalah algoritma Wall Street
11:03
and you're five microseconds behind,
278
663260
2000
dan Anda terlambat lima mikrodetik,
11:05
you're a loser.
279
665260
2000
Anda kalah.
11:07
So if you were an algorithm,
280
667260
2000
Jadi kalau Anda adalah algoritma,
11:09
you'd look for an architect like the one that I met in Frankfurt
281
669260
3000
Anda harusnya mencari arsitek seperti yang saya temui di Frankfurt
11:12
who was hollowing out a skyscraper --
282
672260
2000
yang mengosongkan sebuah gedung pencakar langit --
11:14
throwing out all the furniture, all the infrastructure for human use,
283
674260
3000
membuang semua perabot, semua prasarana untuk manusia,
11:17
and just running steel on the floors
284
677260
3000
dan hanya menyiapkan besi di lantai
11:20
to get ready for the stacks of servers to go in --
285
680260
3000
bersiap menyambut tumpukan server --
11:23
all so an algorithm
286
683260
2000
selain itu, algoritma
11:25
could get close to the Internet.
287
685260
3000
juga bisa dekat dengan Internet.
11:28
And you think of the Internet as this kind of distributed system.
288
688260
3000
Anda mungkin mengira Internet itu sejenis sistem distribusi.
11:31
And of course, it is, but it's distributed from places.
289
691260
3000
Memang benar, tapi distribusi itu berasal dari berbagai tempat.
11:34
In New York, this is where it's distributed from:
290
694260
2000
Di New York, inilah asal pendistribusiannya:
11:36
the Carrier Hotel
291
696260
2000
Hotel Carrier
11:38
located on Hudson Street.
292
698260
2000
berada di Hudson Street.
11:40
And this is really where the wires come right up into the city.
293
700260
3000
Ini benar-benar asal dari kabel-kabel yang ada di kota itu.
11:43
And the reality is that the further away you are from that,
294
703260
4000
Faktanya, semakin jauh Anda dari sana,
11:47
you're a few microseconds behind every time.
295
707260
2000
semakin besar jarak mikrodetik Anda darinya.
11:49
These guys down on Wall Street,
296
709260
2000
Orang-orang ini di Wall Street,
11:51
Marco Polo and Cherokee Nation,
297
711260
2000
Marco Polo dan Cherokee Nation,
11:53
they're eight microseconds
298
713260
2000
berada 8 mikrodetik
11:55
behind all these guys
299
715260
2000
di belakang orang-orang ini
11:57
going into the empty buildings being hollowed out
300
717260
4000
yang berada di gedung kosong tadi
12:01
up around the Carrier Hotel.
301
721260
2000
di sekitar Hotel Carrier.
12:03
And that's going to keep happening.
302
723260
3000
Dan hal ini akan terus terjadi.
12:06
We're going to keep hollowing them out,
303
726260
2000
Kita akan terus mengosongkan gedung-gedung,
12:08
because you, inch for inch
304
728260
3000
karena kita, inci demi inci
12:11
and pound for pound and dollar for dollar,
305
731260
3000
dan dolar demi dolar,
12:14
none of you could squeeze revenue out of that space
306
734260
3000
tidak ada yang bisa menghasilkan uang dari sana
12:17
like the Boston Shuffler could.
307
737260
3000
seperti yang dilakukan Boston Shuffler.
12:20
But if you zoom out,
308
740260
2000
Tapi kalau kita perbesar,
12:22
if you zoom out,
309
742260
2000
kalau kita perbesar,
12:24
you would see an 825-mile trench
310
744260
4000
kita akan melihat kanal sepanjang 825 mil
12:28
between New York City and Chicago
311
748260
2000
antara New York dan Chicago
12:30
that's been built over the last few years
312
750260
2000
yang sudah dibangun selama beberapa tahun belakangan
12:32
by a company called Spread Networks.
313
752260
3000
oleh perusahaan yang bernama Spread Networks.
12:35
This is a fiber optic cable
314
755260
2000
Ini adalah kabel serat optik
12:37
that was laid between those two cities
315
757260
2000
yang ditanamkan di antara kedua kota itu
12:39
to just be able to traffic one signal
316
759260
3000
agar bisa mengirimkan sinyal
12:42
37 times faster than you can click a mouse --
317
762260
3000
37 kali lebih cepat daripada kita mengklik sebuah mouse --
12:45
just for these algorithms,
318
765260
3000
hanya untuk algoritma ini,
12:48
just for the Carnival and the Knife.
319
768260
3000
hanya untuk "Carnival" dan "Knife."
12:51
And when you think about this,
320
771260
2000
Dan kalau kita memikirkan bahwa
12:53
that we're running through the United States
321
773260
2000
kita berkeliling Amerika Serikat
12:55
with dynamite and rock saws
322
775260
3000
dengan dinamit dan gergaji batu
12:58
so that an algorithm can close the deal
323
778260
2000
agar sebuah algoritma bisa menutup sebuah transaksi
13:00
three microseconds faster,
324
780260
3000
tiga mikrodetik lebih cepat,
13:03
all for a communications framework
325
783260
2000
semua demi kerangka komunikasi
13:05
that no human will ever know,
326
785260
4000
yang tidak akan pernah diketahui manusia,
13:09
that's a kind of manifest destiny;
327
789260
3000
itu semacam perwujudan takdir
13:12
and we'll always look for a new frontier.
328
792260
3000
bahwa kita selalu mencari daerah baru.
13:15
Unfortunately, we have our work cut out for us.
329
795260
3000
Sayangnya, kita punya masalah besar.
13:18
This is just theoretical.
330
798260
2000
Ini hanya teori.
13:20
This is some mathematicians at MIT.
331
800260
2000
Ini beberapa matematikawan di MIT.
13:22
And the truth is I don't really understand
332
802260
2000
Jujur, saya tidak begitu mengerti
13:24
a lot of what they're talking about.
333
804260
2000
apa yang mereka bicarakan.
13:26
It involves light cones and quantum entanglement,
334
806260
3000
Ini melibatkan kerucut cahaya dan keterkaitan kuantum,
13:29
and I don't really understand any of that.
335
809260
2000
saya tidak begitu mengerti tentang semua itu.
13:31
But I can read this map,
336
811260
2000
Tapi saya bisa membaca peta ini.
13:33
and what this map says
337
813260
2000
Dan peta ini berkata
13:35
is that, if you're trying to make money on the markets where the red dots are,
338
815260
3000
kalau Anda mencoba menghasilkan uang di pasar yang bertitik merah,
13:38
that's where people are, where the cities are,
339
818260
2000
itulah tempat orang-orang dan kota berada,
13:40
you're going to have to put the servers where the blue dots are
340
820260
3000
kita harus menempatkan server di semua titik biru
13:43
to do that most effectively.
341
823260
2000
untuk bisa melakukannya paling efektif.
13:45
And the thing that you might have noticed about those blue dots
342
825260
3000
Dan Anda mungkin memperhatikan titik biru itu
13:48
is that a lot of them are in the middle of the ocean.
343
828260
3000
ada banyak yang berada di tengah lautan.
13:51
So that's what we'll do: we'll build bubbles or something,
344
831260
3000
Jadi itulah yang akan kita lakukan, membuat balon atau semacamnya,
13:54
or platforms.
345
834260
2000
atau landasan.
13:56
We'll actually part the water
346
836260
2000
kita akan membelah air
13:58
to pull money out of the air,
347
838260
2000
menghasilkan uang dari udara,
14:00
because it's a bright future
348
840260
2000
karena itu masa depan yang cerah
14:02
if you're an algorithm.
349
842260
2000
kalau Anda adalah algoritma.
14:04
(Laughter)
350
844260
2000
(Suara tawa)
14:06
And it's not the money that's so interesting actually.
351
846260
3000
Yang menarik sebenarnya bukan masalah uang.
14:09
It's what the money motivates,
352
849260
2000
Tapi apa yang dimotivasi oleh uang itu.
14:11
that we're actually terraforming
353
851260
2000
Bahwa kita benar-benar membentuk
14:13
the Earth itself
354
853260
2000
bumi ini
14:15
with this kind of algorithmic efficiency.
355
855260
2000
dengan efisiensi algoritma seperti ini.
14:17
And in that light,
356
857260
2000
Dan dari sini,
14:19
you go back
357
859260
2000
kita bisa kembali
14:21
and you look at Michael Najjar's photographs,
358
861260
2000
dan melihat foto Michael Najjar,
14:23
and you realize that they're not metaphor, they're prophecy.
359
863260
3000
dan menyadari bahwa itu bukanlah metafora, tapi ramalan.
14:26
They're prophecy
360
866260
2000
Foto-foto itu ramalan
14:28
for the kind of seismic, terrestrial effects
361
868260
4000
akan sejenis efek seismik, terestrial
14:32
of the math that we're making.
362
872260
2000
dari matematika yang sedang kita tulis.
14:34
And the landscape was always made
363
874260
3000
Bumi selalu dibentuk
14:37
by this sort of weird, uneasy collaboration
364
877260
3000
oleh kolaborasi yang aneh dan rumit
14:40
between nature and man.
365
880260
3000
antara alam dan manusia.
14:43
But now there's this third co-evolutionary force: algorithms --
366
883260
3000
Namun sekarang ada kekuatan evolusioner ketiga ini: algoritma --
14:46
the Boston Shuffler, the Carnival.
367
886260
3000
Boston Shuffler, Carnival.
14:49
And we will have to understand those as nature,
368
889260
3000
Dan kita harus memandangnya sebagai alam.
14:52
and in a way, they are.
369
892260
2000
Karena memang demikian.
14:54
Thank you.
370
894260
2000
Terima kasih.
14:56
(Applause)
371
896260
20000
(Tepuk tangan)
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7