Damon Horowitz calls for a "moral operating system"

92,160 views ・ 2011-06-06

TED


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Teddy Budiwan Reviewer: Anggriawan Sugianto
00:15
Power.
0
15260
2000
Kekuatan.
00:17
That is the word that comes to mind.
1
17260
2000
Itulah kata yang terlintas di pikiran.
00:19
We're the new technologists.
2
19260
2000
Kita adalah teknolog baru.
00:21
We have a lot of data, so we have a lot of power.
3
21260
3000
Kita punya banyak data, jadi kita punya kekuatan yang besar.
00:24
How much power do we have?
4
24260
2000
Seberapa besar kekuatan yang kita miliki?
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
26260
3000
Adegan dari film: "Apocalypse Now" -- film yang bagus.
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
29260
3000
Kita harus mengeluarkan pahlawan kita, Kapten Willard, menuju pangkal sungai Nung
00:32
so he can go pursue Colonel Kurtz.
7
32260
2000
agar ia dapat mengejar Kolonel Kurtz.
00:34
The way we're going to do this is fly him in and drop him off.
8
34260
2000
Caranya adalah menerbangkannya dan menjatuhkannya di lokasi.
00:36
So the scene:
9
36260
2000
Beginilah adegannya:
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
38260
3000
Langit dipenuhi oleh armada helikopter yang membawanya.
00:41
And there's this loud, thrilling music in the background,
11
41260
2000
Lalu ada musik latar belakang yang mendebarkan
00:43
this wild music.
12
43260
2000
musik yang keren.
00:45
♫ Dum da ta da dum ♫
13
45260
2000
♫ Dum da ta da dum ♫
00:47
♫ Dum da ta da dum ♫
14
47260
2000
♫ Dum da ta da dum ♫
00:49
♫ Da ta da da ♫
15
49260
3000
♫ Da ta da da ♫
00:52
That's a lot of power.
16
52260
2000
Itu kekuatan yang besar.
00:54
That's the kind of power I feel in this room.
17
54260
2000
Itulah yang kurasakan di ruangan ini.
00:56
That's the kind of power we have
18
56260
2000
Itulah kekuatan yang kita rasakan
00:58
because of all of the data that we have.
19
58260
2000
karena banyaknya data yang kita miliki.
01:00
Let's take an example.
20
60260
2000
Mari ambil contoh.
01:02
What can we do
21
62260
2000
Apa yang dapat kita lakukan
01:04
with just one person's data?
22
64260
3000
dengan data satu orang saja?
01:07
What can we do
23
67260
2000
Apa yang dapat kita lakukan
01:09
with that guy's data?
24
69260
2000
dengan datanya?
01:11
I can look at your financial records.
25
71260
2000
Saya dapat melihat catatan keuanganmu.
01:13
I can tell if you pay your bills on time.
26
73260
2000
Saya dapat tahu apakah Anda membayar tagihan Anda tepat waktu.
01:15
I know if you're good to give a loan to.
27
75260
2000
Saya tahu apakah Anda kandidat kredit yang baik.
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
77260
3000
Melalui catatan medis Anda, saya tahu apakah jantung Anda masih berfungsi baik --
01:20
see if you're good to offer insurance to.
29
80260
3000
apakah Anda masih layak untuk ditawari produk asuransi.
01:23
I can look at your clicking patterns.
30
83260
2000
Saya dapat melihat pola klikmu.
01:25
When you come to my website, I actually know what you're going to do already
31
85260
3000
Kalau Anda mengunjungi situs saya, saya tahu apa yang akan Anda lakukan,
01:28
because I've seen you visit millions of websites before.
32
88260
2000
karena saya sudah melihat Anda mengunjungi jutaan situs sebelumnya.
01:30
And I'm sorry to tell you,
33
90260
2000
Sayangnya,
01:32
you're like a poker player, you have a tell.
34
92260
2000
Anda seperti pemain poker, saya tahu kelemahan Anda.
01:34
I can tell with data analysis what you're going to do
35
94260
2000
Dengan analisa data saya tahu apa yang akan Anda lakukan
01:36
before you even do it.
36
96260
2000
bahkan sebelum Anda melakukannya.
01:38
I know what you like. I know who you are,
37
98260
3000
Saya tahu apa yang Anda suka. Saya tahu siapa Anda.
01:41
and that's even before I look at your mail
38
101260
2000
Bahkan sebelum saya melihat surat Anda
01:43
or your phone.
39
103260
2000
atau telpon Anda.
01:45
Those are the kinds of things we can do
40
105260
2000
Itu adalah hal yang dapat kita lakukan
01:47
with the data that we have.
41
107260
3000
dengan data yang kita miliki.
01:50
But I'm not actually here to talk about what we can do.
42
110260
3000
Namun saya tidak akan berbicara mengenai apa yang dapat kita lakukan.
01:56
I'm here to talk about what we should do.
43
116260
3000
Saya ingin berbicara mengenai apa yang sebaiknya kita lakukan.
02:00
What's the right thing to do?
44
120260
3000
Apa yang tepat perlu dilakukan?
02:04
Now I see some puzzled looks
45
124260
2000
Saya melihat wajah-wajah yang bingung
02:06
like, "Why are you asking us what's the right thing to do?
46
126260
3000
seperti, “Mengapa Anda bertanya pada kami apa yang sebaiknya dilakukan?
02:09
We're just building this stuff. Somebody else is using it."
47
129260
3000
Kami hanya membuatnya. Orang lain yang memakainya.”
02:12
Fair enough.
48
132260
3000
Mungkin ada benarnya.
02:15
But it brings me back.
49
135260
2000
Tapi itu mengingatkan saya.
02:17
I think about World War II --
50
137260
2000
Saya terpikir mengenai Perang Dunia 2 --
02:19
some of our great technologists then,
51
139260
2000
beberapa teknolog terhandal kita,
02:21
some of our great physicists,
52
141260
2000
ahli fisika terhebat,
02:23
studying nuclear fission and fusion --
53
143260
2000
mempelajari nuklir fisi dan fusi --
02:25
just nuclear stuff.
54
145260
2000
hanya nuklir saja.
02:27
We gather together these physicists in Los Alamos
55
147260
3000
Kita mengumpulkan ahli fisika itu di Los Alamos
02:30
to see what they'll build.
56
150260
3000
untuk memperhatikan apa yang dapat mereka buat.
02:33
We want the people building the technology
57
153260
3000
Kita ingin orang yang membuat teknologi berpikir
02:36
thinking about what we should be doing with the technology.
58
156260
3000
apa yang sebaiknya kita lakukan dengan teknologi.
02:41
So what should we be doing with that guy's data?
59
161260
3000
Apa yang seharusnya kita lakukan dengan data orang itu?
02:44
Should we be collecting it, gathering it,
60
164260
3000
Haruskah kita mengumpulkannya
02:47
so we can make his online experience better?
61
167260
2000
untuk membuat pengalaman online-nya lebih baik?
02:49
So we can make money?
62
169260
2000
Agar kita dapat menghasilkan uang?
02:51
So we can protect ourselves
63
171260
2000
Agar kita dapat melindungi diri kita sendiri
02:53
if he was up to no good?
64
173260
2000
bila ia berniat tidak baik?
02:55
Or should we respect his privacy,
65
175260
3000
Atau apakah kita sebaiknya menghormati privasinya,
02:58
protect his dignity and leave him alone?
66
178260
3000
melindungi harga dirinya dan membiarkannya?
03:02
Which one is it?
67
182260
3000
Yang manakah?
03:05
How should we figure it out?
68
185260
2000
Bagaimana cara kita menentukannya?
03:07
I know: crowdsource. Let's crowdsource this.
69
187260
3000
Saya tahu: suara terbanyak. Mari kita lakukan itu.
03:11
So to get people warmed up,
70
191260
3000
Sebagai pemanasan,
03:14
let's start with an easy question --
71
194260
2000
mari kita mulai dengan pertanyaan yang mudah --
03:16
something I'm sure everybody here has an opinion about:
72
196260
3000
semua orang pasti punya pendapat mengenai hal ini:
03:19
iPhone versus Android.
73
199260
2000
iPhone melawan Android.
03:21
Let's do a show of hands -- iPhone.
74
201260
3000
Coba tunjuk tangan -- siapa yang memakai iPhone.
03:24
Uh huh.
75
204260
2000
Oke.
03:26
Android.
76
206260
3000
Android.
03:29
You'd think with a bunch of smart people
77
209260
2000
Saya pikir karena kita orang pintar
03:31
we wouldn't be such suckers just for the pretty phones.
78
211260
2000
kita tidak akan terbujuk oleh ponsel yang cantik saja.
03:33
(Laughter)
79
213260
2000
(Tertawa)
03:35
Next question,
80
215260
2000
Selanjutnya,
03:37
a little bit harder.
81
217260
2000
sedikit lebih sulit.
03:39
Should we be collecting all of that guy's data
82
219260
2000
Apakah sebaiknya kita mengumpulkan data orang itu
03:41
to make his experiences better
83
221260
2000
untuk membuat pengalamannya lebih baik
03:43
and to protect ourselves in case he's up to no good?
84
223260
3000
dan melindungi kita kalau ia berniat tidak baik?
03:46
Or should we leave him alone?
85
226260
2000
Atau membiarkannya?
03:48
Collect his data.
86
228260
3000
Kumpulkan datanya.
03:53
Leave him alone.
87
233260
3000
Biarkan saja.
03:56
You're safe. It's fine.
88
236260
2000
Anda aman. Tidak apa-apa.
03:58
(Laughter)
89
238260
2000
(Tertawa)
04:00
Okay, last question --
90
240260
2000
Baiklah, pertanyaan terakhir --
04:02
harder question --
91
242260
2000
yang lebih sulit --
04:04
when trying to evaluate
92
244260
3000
saat mencoba mengevaluasi
04:07
what we should do in this case,
93
247260
3000
apa yang sebaiknya kita lakukan,
04:10
should we use a Kantian deontological moral framework,
94
250260
4000
apakah sebaiknya kita menggunakan kerangka moral deontologis Kant
04:14
or should we use a Millian consequentialist one?
95
254260
3000
atau konsekuensialis Mill?
04:19
Kant.
96
259260
3000
Kant.
04:22
Mill.
97
262260
3000
Mill.
04:25
Not as many votes.
98
265260
2000
Tidak banyak yang memilih.
04:27
(Laughter)
99
267260
3000
(Tertawa)
04:30
Yeah, that's a terrifying result.
100
270260
3000
Ya, itu hasil yang mengerikan.
04:34
Terrifying, because we have stronger opinions
101
274260
4000
Mengerikan, karena kita punya pendapat yang lebih kuat
04:38
about our hand-held devices
102
278260
2000
mengenai ponsel kita
04:40
than about the moral framework
103
280260
2000
dibandingkan dengan kerangka moral
04:42
we should use to guide our decisions.
104
282260
2000
yang sebaiknya kita gunakan untuk memandu keputusan kita.
04:44
How do we know what to do with all the power we have
105
284260
3000
Bagaimana kita tahu apa yang harus dilakukan dengan kekuatan yang kita punya
04:47
if we don't have a moral framework?
106
287260
3000
kalau kita tidak punya kerangka moral?
04:50
We know more about mobile operating systems,
107
290260
3000
Kita tahu banyak mengenai sistem operasi bergerak,
04:53
but what we really need is a moral operating system.
108
293260
3000
tapi yang lebih kita butuhkan adalah sistem operasi moral.
04:58
What's a moral operating system?
109
298260
2000
Apakah sistem operasi moral itu?
05:00
We all know right and wrong, right?
110
300260
2000
Kita semua tahu hal yang benar dan hal yang salah, bukan?
05:02
You feel good when you do something right,
111
302260
2000
Anda merasa senang kalau melakukan sesuatu yang benar,
05:04
you feel bad when you do something wrong.
112
304260
2000
Anda merasa tidak enak kalau melakukan sesuatu yang salah.
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
306260
3000
Orang tua kita mengajarkan: Memuji yang benar, menegur yang salah.
05:09
But how do we figure out what's right and wrong?
114
309260
3000
Bagaimana kita menentukan mana yang benar dan salah?
05:12
And from day to day, we have the techniques that we use.
115
312260
3000
Dari hari ke hari, kita memiliki teknik yang kita gunakan.
05:15
Maybe we just follow our gut.
116
315260
3000
Mungkin kita hanya akan mengikuti insting kita saja.
05:18
Maybe we take a vote -- we crowdsource.
117
318260
3000
Mungkin kita mengambil suara -- kita melakukan voting.
05:21
Or maybe we punt --
118
321260
2000
Mungkin kita menebak –
05:23
ask the legal department, see what they say.
119
323260
3000
tanya bagian hukum, apa pendapat mereka.
05:26
In other words, it's kind of random,
120
326260
2000
Dengan kata lain, cara kita adalah acak
05:28
kind of ad hoc,
121
328260
2000
dan ad hoc.
05:30
how we figure out what we should do.
122
330260
3000
bagaimana kita menentukan apa yang harus kita lakukan.
05:33
And maybe, if we want to be on surer footing,
123
333260
3000
Mungkin bila kita ingin lebih pasti,
05:36
what we really want is a moral framework that will help guide us there,
124
336260
3000
apa yang kita inginkan adalah kerangka moral yang membimbing kita,
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
339260
3000
yang akan memberitahu kita mana yang benar dan mana yang salah,
05:42
and how would we know in a given situation what to do.
126
342260
4000
dan bagaimana kita menentukan bila situasinya tiba.
05:46
So let's get a moral framework.
127
346260
2000
Mari kita menentukan kerangka moral.
05:48
We're numbers people, living by numbers.
128
348260
3000
Kita adalah masyarakat angka, hidup dengan angka.
05:51
How can we use numbers
129
351260
2000
Dapatkah kita menggunakan angka
05:53
as the basis for a moral framework?
130
353260
3000
sebagai landasan dari kerangka moral?
05:56
I know a guy who did exactly that.
131
356260
3000
Saya tahu orang yang melakukannya,
05:59
A brilliant guy --
132
359260
3000
orang yang pintar --
06:02
he's been dead 2,500 years.
133
362260
3000
ia sudah meninggal 2500 tahun yang lalu.
06:05
Plato, that's right.
134
365260
2000
Plato, ya benar.
06:07
Remember him -- old philosopher?
135
367260
2000
Ingatkah tentang dia - ahli filsafat kuno?
06:09
You were sleeping during that class.
136
369260
3000
Mungkin Anda tertidur di kelas saat guru Anda menerangkan hal ini.
06:12
And Plato, he had a lot of the same concerns that we did.
137
372260
2000
Plato mengkhawatirkan hal yang sama.
06:14
He was worried about right and wrong.
138
374260
2000
Ia khawatir terhadap hal yang benar dan salah.
06:16
He wanted to know what is just.
139
376260
2000
Ia ingin tahu apa itu keadilan.
06:18
But he was worried that all we seem to be doing
140
378260
2000
Namun ia khawatir apa yang kita lakukan
06:20
is trading opinions about this.
141
380260
2000
hanyalah bertukar pikiran mengenai hal ini.
06:22
He says something's just. She says something else is just.
142
382260
3000
Ia bilang sesuatu itu adil. Menurutnya itu hal yang lain.
06:25
It's kind of convincing when he talks and when she talks too.
143
385260
2000
Sangat meyakinkan ketika ia dan ia berbicara.
06:27
I'm just going back and forth; I'm not getting anywhere.
144
387260
2000
Saya hanya mondar mandir; Saya tidak mencapai kesimpulan apapun.
06:29
I don't want opinions; I want knowledge.
145
389260
3000
Saya tidak ingin pendapat, saya ingin pengetahuan.
06:32
I want to know the truth about justice --
146
392260
3000
Saya ingin tahu mengenai keadilan --
06:35
like we have truths in math.
147
395260
3000
seperti kita mengenal matematika.
06:38
In math, we know the objective facts.
148
398260
3000
Dalam matematika, kita mengenal fakta objektif.
06:41
Take a number, any number -- two.
149
401260
2000
Pilihlah satu angka, angka apa saja – dua.
06:43
Favorite number. I love that number.
150
403260
2000
Angka kesukaanku. Saya suka angka itu.
06:45
There are truths about two.
151
405260
2000
Ada kebenaran mengenai angka dua.
06:47
If you've got two of something,
152
407260
2000
Kalau Anda punya dua sesuatu,
06:49
you add two more, you get four.
153
409260
2000
lalu Anda tambahkan dua lagi, Anda akan memperoleh empat.
06:51
That's true no matter what thing you're talking about.
154
411260
2000
Itu benar, tidak peduli apapun yang sedang Anda bicarakan.
06:53
It's an objective truth about the form of two,
155
413260
2000
Ada kebenaran yang objektif mengenai bentuk dari angka dua,
06:55
the abstract form.
156
415260
2000
dari bentuk abstraknya.
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
417260
2000
Kalau Anda punya dua semuanya – dua mata, dua telinga, dua hidung,
06:59
just two protrusions --
158
419260
2000
hanya dua tonjolan –
07:01
those all partake of the form of two.
159
421260
3000
semua itu adalah bentuk dari dua.
07:04
They all participate in the truths that two has.
160
424260
4000
Mereka memiliki kebenaran yang sama dengan dua.
07:08
They all have two-ness in them.
161
428260
2000
Mereka memiliki ke-”dua”-an di dalam mereka.
07:10
And therefore, it's not a matter of opinion.
162
430260
3000
Karena itu, hal ini tidak terkait dengan pendapat.
07:13
What if, Plato thought,
163
433260
2000
Plato berpikir,
07:15
ethics was like math?
164
435260
2000
bagaimana bila etika itu seperti matematika?
07:17
What if there were a pure form of justice?
165
437260
3000
Bagaimana bila ada bentuk murni dari keadilan?
07:20
What if there are truths about justice,
166
440260
2000
Bagaimana bila ada kebenaran mengenai keadilan,
07:22
and you could just look around in this world
167
442260
2000
dan Anda dapat melihat dunia
07:24
and see which things participated,
168
444260
2000
dan langsung tahu mana
07:26
partook of that form of justice?
169
446260
3000
yang memiliki nilai keadilan tersebut?
07:29
Then you would know what was really just and what wasn't.
170
449260
3000
Anda akan tahu mana yang adil dan mana yang tidak.
07:32
It wouldn't be a matter
171
452260
2000
Ini tidak lagi menjadi masalah pendapat
07:34
of just opinion or just appearances.
172
454260
3000
dan penampilan.
07:37
That's a stunning vision.
173
457260
2000
Itu adalah impian yang hebat.
07:39
I mean, think about that. How grand. How ambitious.
174
459260
3000
Bayangkanlah. Betapa mulianya. Betapa ambisiusnya.
07:42
That's as ambitious as we are.
175
462260
2000
Ia seambisius kita.
07:44
He wants to solve ethics.
176
464260
2000
Ia ingin memecahkan etika.
07:46
He wants objective truths.
177
466260
2000
Ia ingin kebenaran yang objektif.
07:48
If you think that way,
178
468260
3000
Kalau Anda berpikir seperti itu,
07:51
you have a Platonist moral framework.
179
471260
3000
Anda memiliki kerangka moral Platonis.
07:54
If you don't think that way,
180
474260
2000
Bila Anda tidak berpikir seperti itu,
07:56
well, you have a lot of company in the history of Western philosophy,
181
476260
2000
banyak yang seperti Anda di sejarah Filsafat Barat,
07:58
because the tidy idea, you know, people criticized it.
182
478260
3000
karena banyak yang mengkritik ide rapi itu.
08:01
Aristotle, in particular, he was not amused.
183
481260
3000
Terutama Aristoteles. Ia tidak suka pada ide itu.
08:04
He thought it was impractical.
184
484260
3000
Menurutnya ide itu tidak praktis.
08:07
Aristotle said, "We should seek only so much precision in each subject
185
487260
4000
Aristoteles berkata, “Kita sebaiknya hanya mencari presisi dari setiap subjek
08:11
as that subject allows."
186
491260
2000
sejauh kemampuan subjek tersebut.”
08:13
Aristotle thought ethics wasn't a lot like math.
187
493260
3000
Menurut Aristoteles, etika tidak seperti matematika.
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
496260
3000
Menurutnya etika adalah pengambilan keputusan pada saat ini
08:19
using our best judgment
189
499260
2000
menggunakan pertimbangan terbaik kita pada saat itu
08:21
to find the right path.
190
501260
2000
dalam mencari jalan yang benar.
08:23
If you think that, Plato's not your guy.
191
503260
2000
Bila Anda setuju dengan cara itu, Anda tidak sependapat dengan Plato.
08:25
But don't give up.
192
505260
2000
Jangan menyerah.
08:27
Maybe there's another way
193
507260
2000
Mungkin ada cara lain
08:29
that we can use numbers as the basis of our moral framework.
194
509260
3000
untuk kita menggunakan angka sebagai landasan dari kerangka moral kita.
08:33
How about this:
195
513260
2000
Bagaimana dengan ini:
08:35
What if in any situation you could just calculate,
196
515260
3000
Bagaimana bila dalam situasi apapun Anda dapat melakukan perhitungan,
08:38
look at the choices,
197
518260
2000
melihat pilihan,
08:40
measure out which one's better and know what to do?
198
520260
3000
mempertimbangkan mana yang baik dan tahu apa yang harus dilakukan?
08:43
That sound familiar?
199
523260
2000
Apakah itu terdengar lazim?
08:45
That's a utilitarian moral framework.
200
525260
3000
Itu adalah kerangka moral utilitarian.
08:48
John Stuart Mill was a great advocate of this --
201
528260
2000
John Stuart Mill adalah pendukung gagasan itu –
08:50
nice guy besides --
202
530260
2000
orang yang baik –
08:52
and only been dead 200 years.
203
532260
2000
baru meninggal 200 tahun yang lalu.
08:54
So basis of utilitarianism --
204
534260
2000
Jadi landasan dari utilitarianime –
08:56
I'm sure you're familiar at least.
205
536260
2000
saya yakin Anda sudah tahu.
08:58
The three people who voted for Mill before are familiar with this.
206
538260
2000
Tiga orang yang memilih Mill sebelumnya lazim dengan hal ini.
09:00
But here's the way it works.
207
540260
2000
Begini caranya.
09:02
What if morals, what if what makes something moral
208
542260
3000
Bagaimana bila moral, bagaimana bila penentu yang hal bermoral
09:05
is just a matter of if it maximizes pleasure
209
545260
2000
adalah sesuatu yang bersifat memaksimalkan kesenangan
09:07
and minimizes pain?
210
547260
2000
dan meminimalkan penderitaan?
09:09
It does something intrinsic to the act.
211
549260
3000
Ini menyebabkan sesuatu yang intrinsik terhadap perbuatan itu.
09:12
It's not like its relation to some abstract form.
212
552260
2000
Ini tidak seperti hubungannya dengan bentuk abstrak tertentu.
09:14
It's just a matter of the consequences.
213
554260
2000
Ini hanyalah masalah konsekuensi.
09:16
You just look at the consequences
214
556260
2000
Anda hanya melihat konsekuensinya saja,
09:18
and see if, overall, it's for the good or for the worse.
215
558260
2000
apakah secara keseluruhan ia baik atau buruk.
09:20
That would be simple. Then we know what to do.
216
560260
2000
Ini lebih mudah. Dengan demikian kita tahu apa yang harus dilakukan.
09:22
Let's take an example.
217
562260
2000
Mari ambil contoh.
09:24
Suppose I go up
218
564260
2000
Misalnya saya berkata,
09:26
and I say, "I'm going to take your phone."
219
566260
2000
"Saya akan mengambil ponselmu."
09:28
Not just because it rang earlier,
220
568260
2000
Bukan karena ponsel itu berbunyi,
09:30
but I'm going to take it because I made a little calculation.
221
570260
3000
tapi karena saya sudah membuat sedikit perhitungan.
09:33
I thought, that guy looks suspicious.
222
573260
3000
Saya kira Anda terlihat mencurigakan.
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
576260
3000
Bagaimana jika ia sudah mengirim SMS ke persembunyian Bin Laden,
09:39
or whoever took over after Bin Laden --
224
579260
2000
atau siapapun penerusnya,
09:41
and he's actually like a terrorist, a sleeper cell.
225
581260
3000
dan ternyata ia teroris, mata-mata kelompok rahasia.
09:44
I'm going to find that out, and when I find that out,
226
584260
3000
Saya akan cari tahu, dan bila saya tahu,
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
587260
3000
saya akan mencegah kerusakan yang dapat diakibatkannya.
09:50
That has a very high utility to prevent that damage.
228
590260
3000
Hal itu memiliki nilai yang tinggi untuk mencegah kerusakan.
09:53
And compared to the little pain that it's going to cause --
229
593260
2000
Dibandingkan dengan sedikit kesakitan yang akan terjadi --
09:55
because it's going to be embarrassing when I'm looking on his phone
230
595260
2000
karena memalukan ketika saya melihat ponselnya
09:57
and seeing that he has a Farmville problem and that whole bit --
231
597260
3000
dan ternyata ia ketagihan Farmville dan sejenisnya,
10:00
that's overwhelmed
232
600260
3000
itu tidak sebanding
10:03
by the value of looking at the phone.
233
603260
2000
dengan nilai dari melihat ponselnya.
10:05
If you feel that way,
234
605260
2000
Bila Anda berpendapat seperti itu,
10:07
that's a utilitarian choice.
235
607260
3000
itu adalah pilihan utilitarian.
10:10
But maybe you don't feel that way either.
236
610260
3000
Namun mungkin Anda juga tidak berpendapat demikian.
10:13
Maybe you think, it's his phone.
237
613260
2000
Mungkin menurut Anda itu adalah ponselnya.
10:15
It's wrong to take his phone
238
615260
2000
Mengambil ponselnya adalah tindakan yang salah
10:17
because he's a person
239
617260
2000
karena ia adalah manusia
10:19
and he has rights and he has dignity,
240
619260
2000
dengan hak dan harga diri,
10:21
and we can't just interfere with that.
241
621260
2000
kita tidak dapat mengganggu hal itu.
10:23
He has autonomy.
242
623260
2000
Ia punya otonomi.
10:25
It doesn't matter what the calculations are.
243
625260
2000
Tidak peduli apapun perhitungannya.
10:27
There are things that are intrinsically wrong --
244
627260
3000
Ada banyak yang hal yang salah secara intrinsik --
10:30
like lying is wrong,
245
630260
2000
seperti berbohong adalah salah,
10:32
like torturing innocent children is wrong.
246
632260
3000
menganiaya anak kecil adalah salah.
10:35
Kant was very good on this point,
247
635260
3000
Kant sangat bagus menerangkan hal ini,
10:38
and he said it a little better than I'll say it.
248
638260
2000
lebih baik dariku.
10:40
He said we should use our reason
249
640260
2000
Katanya kita harus menggunakan akal
10:42
to figure out the rules by which we should guide our conduct,
250
642260
3000
untuk mencari peraturan yang mengatur tindakan kita.
10:45
and then it is our duty to follow those rules.
251
645260
3000
Juga, ini adalah tugas kita untuk mengikuti peraturannya.
10:48
It's not a matter of calculation.
252
648260
3000
Ini bukan perkara perhitungan.
10:51
So let's stop.
253
651260
2000
Jadi sudahlah.
10:53
We're right in the thick of it, this philosophical thicket.
254
653260
3000
Kita berada di tengah-tengahnya.
10:56
And this goes on for thousands of years,
255
656260
3000
Ini berlangsung selama ribuan tahun.
10:59
because these are hard questions,
256
659260
2000
Karena ini adalah pertanyaan yang sulit
11:01
and I've only got 15 minutes.
257
661260
2000
dan saya hanya punya 15 menit.
11:03
So let's cut to the chase.
258
663260
2000
Mari langsung saja.
11:05
How should we be making our decisions?
259
665260
4000
Bagaimana seharusnya kita mengambil keputusan?
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
669260
3000
Apakah dengan Plato, Aristoteles, Kant, Mill?
11:12
What should we be doing? What's the answer?
261
672260
2000
Apa yang seharusnya kita lakukan? Apakah jawabannya?
11:14
What's the formula that we can use in any situation
262
674260
3000
Apakah rumus yang dapat kita gunakan dalam situasi apapun
11:17
to determine what we should do,
263
677260
2000
untuk menentukan apa yang harus kita lakukan,
11:19
whether we should use that guy's data or not?
264
679260
2000
apakah kita sebaiknya menggunakan data orang itu atau tidak?
11:21
What's the formula?
265
681260
3000
Apakah rumusnya?
11:25
There's not a formula.
266
685260
2000
Tidak ada rumusnya.
11:29
There's not a simple answer.
267
689260
2000
Tidak ada jawaban yang sederhana.
11:31
Ethics is hard.
268
691260
3000
Etika itu sulit
11:34
Ethics requires thinking.
269
694260
3000
Etika memerlukan pemikiran.
11:38
And that's uncomfortable.
270
698260
2000
Dan itu tidak nyaman.
11:40
I know; I spent a lot of my career
271
700260
2000
Saya tahu: Saya menjalankan karir saya
11:42
in artificial intelligence,
272
702260
2000
di bidang kecerdasan buatan,
11:44
trying to build machines that could do some of this thinking for us,
273
704260
3000
mencoba membangun mesin yang dapat berpikir untuk kita,
11:47
that could give us answers.
274
707260
2000
yang dapat memberikan kita jawaban.
11:49
But they can't.
275
709260
2000
Tapi mereka tidak dapat melakukannya.
11:51
You can't just take human thinking
276
711260
2000
Anda tidak dapat memindahkan pemikiran manusia
11:53
and put it into a machine.
277
713260
2000
ke dalam mesin.
11:55
We're the ones who have to do it.
278
715260
3000
Kita harus melakukan pemikiran itu sendiri.
11:58
Happily, we're not machines, and we can do it.
279
718260
3000
Untungnya, kita bukan mesin dan kita dapat melakukannya.
12:01
Not only can we think,
280
721260
2000
Kita bukan hanya mampu berpikir,
12:03
we must.
281
723260
2000
kita harus berpikir.
12:05
Hannah Arendt said,
282
725260
2000
Hannah Arendt berkata,
12:07
"The sad truth
283
727260
2000
“Kebenaran yang menyedihkan
12:09
is that most evil done in this world
284
729260
2000
adalah kebanyakan kejahatan yang terjadi di dunia ini
12:11
is not done by people
285
731260
2000
tidak dilakukan oleh orang
12:13
who choose to be evil.
286
733260
2000
yang berniat jahat.
12:15
It arises from not thinking."
287
735260
3000
Kejahatan muncul dari tidak berpikir.”
12:18
That's what she called the "banality of evil."
288
738260
4000
Ia menyebutnya “kelumrahan dalam kejahatan.”
12:22
And the response to that
289
742260
2000
Respon terhadap hal itu
12:24
is that we demand the exercise of thinking
290
744260
2000
adalah kita menginginkan pemikiran
12:26
from every sane person.
291
746260
3000
dari setiap manusia yang waras.
12:29
So let's do that. Let's think.
292
749260
2000
Mari kita lakukan hal itu. Mari kita berpikir.
12:31
In fact, let's start right now.
293
751260
3000
Mari mulai sekarang juga.
12:34
Every person in this room do this:
294
754260
3000
Untuk setiap orang di ruangan ini, mari kita lakukan hal ini:
12:37
think of the last time you had a decision to make
295
757260
3000
Pikirkan saat terakhir Anda harus memutuskan
12:40
where you were worried to do the right thing,
296
760260
2000
mana yang benar,
12:42
where you wondered, "What should I be doing?"
297
762260
2000
saat Anda bertanya, “Apa yang harus saya lakukan?"
12:44
Bring that to mind,
298
764260
2000
Pikirkan kembali saat itu.
12:46
and now reflect on that
299
766260
2000
Kini ingat kembali
12:48
and say, "How did I come up that decision?
300
768260
3000
dan katakan, “Kenapa saya bisa memutuskan hal tersebut?
12:51
What did I do? Did I follow my gut?
301
771260
3000
Apa yang saya lakukan? Apakah saya mengikuti insting?
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
774260
2000
Apakah saya menyuruh seseorang untuk memilih? Apakah saya bertanya ke orang hukum?
12:56
Or now we have a few more choices.
303
776260
3000
Kini kita punya lebih banyak pilihan.
12:59
"Did I evaluate what would be the highest pleasure
304
779260
2000
“Apakah saya mengevaluasi apa yang memberikan kesenangan tertinggi
13:01
like Mill would?
305
781260
2000
seperti Mill?
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
783260
3000
Atau seperti Kant, apakah saya menggunakan logika untuk mencari apa yang secara intrinsik adalah benar?"
13:06
Think about it. Really bring it to mind. This is important.
307
786260
3000
Pikirkan hal itu. Pikirkan dengan baik. Ini penting.
13:09
It is so important
308
789260
2000
Ini sangat penting
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
791260
2000
hingga kita akan menghabiskan waktu 30 detik dari waktu TEDTalk yang berharga ini
13:13
doing nothing but thinking about this.
310
793260
2000
untuk melakukan itu saja.
13:15
Are you ready? Go.
311
795260
2000
Anda siap? Mulai.
13:33
Stop. Good work.
312
813260
3000
Berhenti. Bagus.
13:36
What you just did,
313
816260
2000
Apa yang Anda lakukan barusan,
13:38
that's the first step towards taking responsibility
314
818260
2000
itu adalah langkah pertama dalam mengambil tanggung jawab
13:40
for what we should do with all of our power.
315
820260
3000
terhadap apa yang kita miliki dengan kekuatan kita.
13:45
Now the next step -- try this.
316
825260
3000
Kini langkah selanjutnya – coba ini.
13:49
Go find a friend and explain to them
317
829260
2000
Carilah teman dan terangkan pada mereka
13:51
how you made that decision.
318
831260
2000
bagaimana proses Anda mengambil keputusan tersebut.
13:53
Not right now. Wait till I finish talking.
319
833260
2000
Tidak usah sekarang. Tunggu hingga saya selesai berbicara.
13:55
Do it over lunch.
320
835260
2000
Lakukan saat makan siang.
13:57
And don't just find another technologist friend;
321
837260
3000
Jangan mencari teman tekonolog lainnya;
14:00
find somebody different than you.
322
840260
2000
carilah seseorang yang berbeda darimu.
14:02
Find an artist or a writer --
323
842260
2000
Carilah seniman atau penulis --
14:04
or, heaven forbid, find a philosopher and talk to them.
324
844260
3000
atau, amit-amit, carilah seorang filsuf dan berbicara pada mereka.
14:07
In fact, find somebody from the humanities.
325
847260
2000
Carilah seseorang dari gerakan kemanusiaan.
14:09
Why? Because they think about problems
326
849260
2000
Mengapa? Karena mereka memikirkan masalah
14:11
differently than we do as technologists.
327
851260
2000
secara berbeda dengan kita sebagai teknolog.
14:13
Just a few days ago, right across the street from here,
328
853260
3000
Beberapa hari yang lalu, di seberang jalan dari sini,
14:16
there was hundreds of people gathered together.
329
856260
2000
ada beberapa ratus orang berkumpul.
14:18
It was technologists and humanists
330
858260
2000
Itu adalah teknolog dan humanis
14:20
at that big BiblioTech Conference.
331
860260
2000
dari BiblioTech Conference.
14:22
And they gathered together
332
862260
2000
Mereka berkumpul
14:24
because the technologists wanted to learn
333
864260
2000
karena teknolog ingin belajar
14:26
what it would be like to think from a humanities perspective.
334
866260
3000
cara berpikir melalui perspektif seorang humanis.
14:29
You have someone from Google
335
869260
2000
Ada perwakilan dari Google
14:31
talking to someone who does comparative literature.
336
871260
2000
yang akan melakukan studi banding.
14:33
You're thinking about the relevance of 17th century French theater --
337
873260
3000
Anda berpikir mengenai relevasi dari teater Prancis di abad ke-17 --
14:36
how does that bear upon venture capital?
338
876260
2000
bagaimana pengaruhnya terhadap modal ventura?
14:38
Well that's interesting. That's a different way of thinking.
339
878260
3000
Itu menarik. Itu adalah cara berpikir yang berbeda.
14:41
And when you think in that way,
340
881260
2000
Ketika Anda berpikir dengan cara itu,
14:43
you become more sensitive to the human considerations,
341
883260
3000
Anda menjadi lebih sensitif terhadap pertimbangan manusia,
14:46
which are crucial to making ethical decisions.
342
886260
3000
yang sangat penting dalam mengambil keputusan yang etis.
14:49
So imagine that right now
343
889260
2000
Bayangkan saat ini Anda pergi
14:51
you went and you found your musician friend.
344
891260
2000
dan Anda sudah menemukan teman musisi Anda.
14:53
And you're telling him what we're talking about,
345
893260
3000
Anda ceritakan padanya apa yang kita bicarakan sekarang,
14:56
about our whole data revolution and all this --
346
896260
2000
mengenai revolusi data kita dan semua ini –
14:58
maybe even hum a few bars of our theme music.
347
898260
2000
mungkin Anda nyanyikan beberapa bar dari musik tema kita.
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
900260
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musician friend will stop you and say,
349
903260
2000
Teman musisi Anda akan menyela dan berkata,
15:05
"You know, the theme music
350
905260
2000
"Musik tema
15:07
for your data revolution,
351
907260
2000
untuk revolusi datamu,
15:09
that's an opera, that's Wagner.
352
909260
2000
itu opera, itu Wagner.
15:11
It's based on Norse legend.
353
911260
2000
Itu diambil berdasarkan legenda Norwegia.
15:13
It's Gods and mythical creatures
354
913260
2000
Itu mengenai para dewa dan makhluk mitos
15:15
fighting over magical jewelry."
355
915260
3000
yang memperebutkan perhiasan gaib.”
15:19
That's interesting.
356
919260
3000
Itu menarik.
15:22
Now it's also a beautiful opera,
357
922260
3000
Itu adalah opera yang menarik.
15:25
and we're moved by that opera.
358
925260
3000
Dan kita terharu terharu dengan opera itu.
15:28
We're moved because it's about the battle
359
928260
2000
Kita terharu karena ada pertempuran
15:30
between good and evil,
360
930260
2000
antara baik dan jahat,
15:32
about right and wrong.
361
932260
2000
antara benar dan salah.
15:34
And we care about right and wrong.
362
934260
2000
Dan kita peduli terhadap benar dan salah.
15:36
We care what happens in that opera.
363
936260
3000
Kita peduli tentang apa yang terjadi di opera itu.
15:39
We care what happens in "Apocalypse Now."
364
939260
3000
Kita peduli dengan apa yang terjadi di "Apocalypse Now."
15:42
And we certainly care
365
942260
2000
Kita peduli
15:44
what happens with our technologies.
366
944260
2000
dengan apa yang terjadi dengan teknologi kita.
15:46
We have so much power today,
367
946260
2000
Kita punya banyak kekuatan saat ini,
15:48
it is up to us to figure out what to do,
368
948260
3000
apa yang akan dilakukan dengan kekuatan itu tergantung pada kita.
15:51
and that's the good news.
369
951260
2000
Itu adalah berita baiknya.
15:53
We're the ones writing this opera.
370
953260
3000
Kita yang menulis opera ini.
15:56
This is our movie.
371
956260
2000
Ini adalah film kita.
15:58
We figure out what will happen with this technology.
372
958260
3000
Kita akan menentukan apa yang akan terjadi dengan teknologi kita.
16:01
We determine how this will all end.
373
961260
3000
Kita yang menentukan akhir dari semua ini.
16:04
Thank you.
374
964260
2000
Terima kasih.
16:06
(Applause)
375
966260
5000
(Tepuk tangan)
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7