Damon Horowitz calls for a "moral operating system"

Damon Horowitz bir "ahlaki işletim sistemi" çağrısı yapıyor

92,186 views

2011-06-06 ・ TED


New videos

Damon Horowitz calls for a "moral operating system"

Damon Horowitz bir "ahlaki işletim sistemi" çağrısı yapıyor

92,186 views ・ 2011-06-06

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Kutay Erbayat Gözden geçirme: Çağrı Mert Bakırcı
00:15
Power.
0
15260
2000
Güç
00:17
That is the word that comes to mind.
1
17260
2000
Akla gelen kelime bu.
00:19
We're the new technologists.
2
19260
2000
Biz yeni teknoloji uzmanlarıyız.
00:21
We have a lot of data, so we have a lot of power.
3
21260
3000
Çok fazla verimiz var, bu yüzden de çok fazla güce sahibiz.
00:24
How much power do we have?
4
24260
2000
Peki, ne kadar gücümüz var?
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
26260
3000
Bir filmden sahne, "Apocalypse Now (Kıyamet)" -- harika bir film.
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
29260
3000
Kahramanımızı yani Kaptan Willard'ı Nung Nehri'nin ağzına götürmemiz gerek
00:32
so he can go pursue Colonel Kurtz.
7
32260
2000
o da böylece Albay Kurtz'u takip edebilecek.
00:34
The way we're going to do this is fly him in and drop him off.
8
34260
2000
Bunu yapmak için de, onu oraya uçurup iniş yaptıracağız.
00:36
So the scene:
9
36260
2000
Ve sahne:
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
38260
3000
gökyüzü onu oraya taşıyan helikopter filosuyla doludur.
00:41
And there's this loud, thrilling music in the background,
11
41260
2000
Ve arkada şu yüksek sesli, heyecanlı müzik çalar.
00:43
this wild music.
12
43260
2000
Şu çılgınca parça.
00:45
♫ Dum da ta da dum ♫
13
45260
2000
♫ Dum da ta da dum ♫
00:47
♫ Dum da ta da dum ♫
14
47260
2000
♫ Dum da ta da dum ♫
00:49
♫ Da ta da da ♫
15
49260
3000
♫ Da ta da da ♫
00:52
That's a lot of power.
16
52260
2000
İşte bu büyük bir güç.
00:54
That's the kind of power I feel in this room.
17
54260
2000
Benim bu salonda hissettiğim türden güç.
00:56
That's the kind of power we have
18
56260
2000
Bu, elimizdeki tüm o veriler sayesinde
00:58
because of all of the data that we have.
19
58260
2000
bizde olan türden bir güç.
01:00
Let's take an example.
20
60260
2000
Bir örnek ele alalım.
01:02
What can we do
21
62260
2000
Sadece bir kişinin verileriyle
01:04
with just one person's data?
22
64260
3000
ne yapabiliriz?
01:07
What can we do
23
67260
2000
Mesela şuradaki adamın
01:09
with that guy's data?
24
69260
2000
verileriyle ne yapabiliriz?
01:11
I can look at your financial records.
25
71260
2000
Finansal kayıtlarına bakabilirim.
01:13
I can tell if you pay your bills on time.
26
73260
2000
Faturalarını zamanında ödeyip ödemediğini söyleyebilirim.
01:15
I know if you're good to give a loan to.
27
75260
2000
Borç vermeye uygun olup olmadığını öğrenebilirim.
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
77260
3000
Tıbbi kayıtlarına bakıp, kalbinin sağlam olup olmadığını görebilir --
01:20
see if you're good to offer insurance to.
29
80260
3000
böylece sigorta teklif etmeye uygun mu görebilirim.
01:23
I can look at your clicking patterns.
30
83260
2000
İnternet eğilimlerine bakabilirim.
01:25
When you come to my website, I actually know what you're going to do already
31
85260
3000
İnternet sayfama geldiğinde, aslında ne yapacağını önceden biliyorum.
01:28
because I've seen you visit millions of websites before.
32
88260
2000
çünkü milyonlarca internet sayfasını ziyaret edişini gördüm
01:30
And I'm sorry to tell you,
33
90260
2000
Ve üzgünüm ama,
01:32
you're like a poker player, you have a tell.
34
92260
2000
tıpkı bir poker oyuncusu gibisin, bunu söylemek zorundayım.
01:34
I can tell with data analysis what you're going to do
35
94260
2000
Veri analizleri ile ne yapacağını sana
01:36
before you even do it.
36
96260
2000
sen daha yapmadan söyleyebilirim.
01:38
I know what you like. I know who you are,
37
98260
3000
Nelerden hoşlandığını, kim olduğunu biliyorum.
01:41
and that's even before I look at your mail
38
101260
2000
Hem de daha e-postana bakmadan önce bile
01:43
or your phone.
39
103260
2000
ya da telefonuna.
01:45
Those are the kinds of things we can do
40
105260
2000
İşte bunlar elimizdeki verilerle
01:47
with the data that we have.
41
107260
3000
yapabileceğimiz türden şeyler.
01:50
But I'm not actually here to talk about what we can do.
42
110260
3000
Ama aslında neler yapabileceğimiz hakkında konuşmak için burada değilim.
01:56
I'm here to talk about what we should do.
43
116260
3000
Neler yapmamız gerektiği hakkında konuşmak için buradayım.
02:00
What's the right thing to do?
44
120260
3000
Yapılacak doğru şey ne?
02:04
Now I see some puzzled looks
45
124260
2000
Şaşkın bakışlar görüyorum
02:06
like, "Why are you asking us what's the right thing to do?
46
126260
3000
sanki, "Bize doğru olanın ne olduğunu neden soruyorsun?
02:09
We're just building this stuff. Somebody else is using it."
47
129260
3000
Bu zımbırtıyı biz sadece geliştiriyoruz. Onu başkaları kullanıyor.” dercesine
02:12
Fair enough.
48
132260
3000
Peki, öyle olsun.
02:15
But it brings me back.
49
135260
2000
Ama bu beni geçmişe götürüyor.
02:17
I think about World War II --
50
137260
2000
II. Dünya Savaşını düşünüyorum da --
02:19
some of our great technologists then,
51
139260
2000
büyük teknoloji uzmanlarımızın bazıları,
02:21
some of our great physicists,
52
141260
2000
büyük fizikçilerimizin bazıları,
02:23
studying nuclear fission and fusion --
53
143260
2000
nükleer fisyon ve füzyon üzerine çalışıyorlar --
02:25
just nuclear stuff.
54
145260
2000
sadece nükleer şeyler üzerine.
02:27
We gather together these physicists in Los Alamos
55
147260
3000
Ne üreteceklerini görmek için tüm bu fizikçileri Los Alamos'ta
02:30
to see what they'll build.
56
150260
3000
bir araya getiriyoruz.
02:33
We want the people building the technology
57
153260
3000
Teknolojiyi üreten insanlar
02:36
thinking about what we should be doing with the technology.
58
156260
3000
teknolojiyle ne yapmamız gerektiğini düşünen insanlar olsun istiyoruz.
02:41
So what should we be doing with that guy's data?
59
161260
3000
Peki şu adamın verileriyle bizim ne yapmamız gerekiyor?
02:44
Should we be collecting it, gathering it,
60
164260
3000
Onları toplamalı, derlemeli miyiz,
02:47
so we can make his online experience better?
61
167260
2000
ki böylece onun internet deneyimini iyileştirebilelim?
02:49
So we can make money?
62
169260
2000
Böylece para kazanabilelim?
02:51
So we can protect ourselves
63
171260
2000
Böylece eğer iyi biri değilse
02:53
if he was up to no good?
64
173260
2000
kendimizi koruyabilelim?
02:55
Or should we respect his privacy,
65
175260
3000
Yoksa mahremiyetine saygı duymalı,
02:58
protect his dignity and leave him alone?
66
178260
3000
itibarını korumalı ve onu rahat mı bırakmalıyız?
03:02
Which one is it?
67
182260
3000
Hangisi?
03:05
How should we figure it out?
68
185260
2000
Bunu nasıl anlayabiliriz?
03:07
I know: crowdsource. Let's crowdsource this.
69
187260
3000
Ben biliyorum: Kitle kaynak. Bunu kitle kaynakla çözelim.
03:11
So to get people warmed up,
70
191260
3000
Öyleyse biraz ısınmak üzere,
03:14
let's start with an easy question --
71
194260
2000
kolay bir soru ile başlayalım --
03:16
something I'm sure everybody here has an opinion about:
72
196260
3000
buradaki herkesin bir fikri olduğuna emin olduğum bir şeyle:
03:19
iPhone versus Android.
73
199260
2000
iPhone’a karşı Android.
03:21
Let's do a show of hands -- iPhone.
74
201260
3000
Haydi el kaldırarak gösterelim – iPhone diyenler.
03:24
Uh huh.
75
204260
2000
A-ha
03:26
Android.
76
206260
3000
Android.
03:29
You'd think with a bunch of smart people
77
209260
2000
Bir grup zeki insan olarak bizim
03:31
we wouldn't be such suckers just for the pretty phones.
78
211260
2000
o kadar da güzel telefon budalası olmayacağımızı düşünebilirsiniz.
03:33
(Laughter)
79
213260
2000
(Gülüşmeler)
03:35
Next question,
80
215260
2000
Sıradaki soru,
03:37
a little bit harder.
81
217260
2000
birazcık daha zor
03:39
Should we be collecting all of that guy's data
82
219260
2000
Oradaki adamın deneyimlerini iyileştirmek için
03:41
to make his experiences better
83
221260
2000
ve eğer o iyi biri değilse kendimizi korumak için
03:43
and to protect ourselves in case he's up to no good?
84
223260
3000
onun tüm verilerini toplamalı mıyız?
03:46
Or should we leave him alone?
85
226260
2000
Yoksa onu rahat mı bırakmalıyız?
03:48
Collect his data.
86
228260
3000
Verileri toplayalım diyenler.
03:53
Leave him alone.
87
233260
3000
Rahat bırakalım.
03:56
You're safe. It's fine.
88
236260
2000
Güvendesiniz. Sorun yok.
03:58
(Laughter)
89
238260
2000
(Gülüşmeler)
04:00
Okay, last question --
90
240260
2000
Tamam, son soru --
04:02
harder question --
91
242260
2000
daha zor bir soru --
04:04
when trying to evaluate
92
244260
3000
böyle durumları değerlendirmeye çalışırken
04:07
what we should do in this case,
93
247260
3000
sizce ne yapmalıyız,
04:10
should we use a Kantian deontological moral framework,
94
250260
4000
Kantçı deontolojik bir ahlak çerçevesi mi kullanmalıyız,
04:14
or should we use a Millian consequentialist one?
95
254260
3000
yoksa Mill tarzı bir sonuççuluk mu kullanmalıyız?
04:19
Kant.
96
259260
3000
Kant.
04:22
Mill.
97
262260
3000
Mill.
04:25
Not as many votes.
98
265260
2000
Pek fazla oy yok.
04:27
(Laughter)
99
267260
3000
(Gülüşmeler)
04:30
Yeah, that's a terrifying result.
100
270260
3000
Evet, bu endişe verici bir sonuç.
04:34
Terrifying, because we have stronger opinions
101
274260
4000
Endişe verici, çünkü taşınabilir cihazlarımız hakkında,
04:38
about our hand-held devices
102
278260
2000
kararlarımızı yönlendirirken kullanmamız gereken
04:40
than about the moral framework
103
280260
2000
ahlaki çerçeve hakkında olduğundan
04:42
we should use to guide our decisions.
104
282260
2000
daha güçlü fikirlerimiz var.
04:44
How do we know what to do with all the power we have
105
284260
3000
Elimizdeki tüm bu güç ile ne yapacağımızı,
04:47
if we don't have a moral framework?
106
287260
3000
eğer bir ahlaki çerçevemiz yoksa nasıl bilebiliriz ki?
04:50
We know more about mobile operating systems,
107
290260
3000
Taşınabilir işletim sistemleri hakkında çok şey bilirken,
04:53
but what we really need is a moral operating system.
108
293260
3000
aslında gerçek ihtiyacımız olan şey bir ahlaki işletim sistemi.
04:58
What's a moral operating system?
109
298260
2000
Nedir ahlaki işletim sistemi?
05:00
We all know right and wrong, right?
110
300260
2000
Doğru ve yanlışın ne olduğunu biliyoruz, değil mi?
05:02
You feel good when you do something right,
111
302260
2000
Doğru bir şey yaptığında kendini iyi hissedersin,
05:04
you feel bad when you do something wrong.
112
304260
2000
Yanlış bir şey yaptığında kendini kötü hissedersin.
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
306260
3000
Ebeveynlerimiz bize şunu öğretir: iyiyi yücelt, kötünün dersini ver.
05:09
But how do we figure out what's right and wrong?
114
309260
3000
Ama neyin doğru neyin yanlış olduğunu nasıl anlayacağız?
05:12
And from day to day, we have the techniques that we use.
115
312260
3000
Günbegün kullandığımız tekniklerimiz var.
05:15
Maybe we just follow our gut.
116
315260
3000
Belki sadece kalbimizin sesini dinliyoruz.
05:18
Maybe we take a vote -- we crowdsource.
117
318260
3000
Belki oylama yapıyoruz – kitle kaynak kullanıyoruz
05:21
Or maybe we punt --
118
321260
2000
Belki kumar oynuyoruz --
05:23
ask the legal department, see what they say.
119
323260
3000
Hukukçulara sorup, ne dediklerine bakıyoruz.
05:26
In other words, it's kind of random,
120
326260
2000
Bir başka deyişle, ne yapmamız gerektiğini nasıl bulduğumuz,
05:28
kind of ad hoc,
121
328260
2000
bir bakıma rastlantısal,
05:30
how we figure out what we should do.
122
330260
3000
bir bakıma da “ad hoc” (niyete mahsus)
05:33
And maybe, if we want to be on surer footing,
123
333260
3000
Ve belki de, daha güvenilir bir temelde olmak istiyorsak
05:36
what we really want is a moral framework that will help guide us there,
124
336260
3000
gerçekte istediğimiz, bizi orada yönlendirmede yardım edecek,
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
339260
3000
ilk etapta bize neyin doğru neyin yanlış olduğunu söyleyecek,
05:42
and how would we know in a given situation what to do.
126
342260
4000
ve belli bir durumda ne yapacağımızı nasıl bileceğimize yardım edecek ahlaki bir çerçevedir.
05:46
So let's get a moral framework.
127
346260
2000
Öyleyse bir ahlaki çerçeve edinelim.
05:48
We're numbers people, living by numbers.
128
348260
3000
Biz sayılarla yaşayan, çok sayıda kişiyiz.
05:51
How can we use numbers
129
351260
2000
Ahlaki bir çerçeveye temel olacak şekilde,
05:53
as the basis for a moral framework?
130
353260
3000
sayıları nasıl kullanabiliriz?
05:56
I know a guy who did exactly that.
131
356260
3000
Ben tam olarak bunu yapan birini tanıyorum,
05:59
A brilliant guy --
132
359260
3000
Parlak zekâlı bir adam --
06:02
he's been dead 2,500 years.
133
362260
3000
2.500 yıl önce öldü.
06:05
Plato, that's right.
134
365260
2000
Platon, evet doğru.
06:07
Remember him -- old philosopher?
135
367260
2000
Hatırladınız mı – hani şu eski filozof?
06:09
You were sleeping during that class.
136
369260
3000
O sırada derste uyuyordunuz.
06:12
And Plato, he had a lot of the same concerns that we did.
137
372260
2000
Ve Platon, bizim sahip olduğumuz aynı kaygılara çokça sahipti.
06:14
He was worried about right and wrong.
138
374260
2000
Doğru ve yanlış hakkında meraklıydı.
06:16
He wanted to know what is just.
139
376260
2000
Neyin adil olduğunu bilmek istiyordu.
06:18
But he was worried that all we seem to be doing
140
378260
2000
Ama bu konuda tüm yaptığımızın bu konuda fikir alışverişi
06:20
is trading opinions about this.
141
380260
2000
yapıyormuşuz gibi göründüğünden endişeliydi.
06:22
He says something's just. She says something else is just.
142
382260
3000
Birine göre bir şey adilken, diğerine göre başka bir şey adil.
06:25
It's kind of convincing when he talks and when she talks too.
143
385260
2000
Onun anlattığı da bunun anlattığı da bir bakıma ikna edici.
06:27
I'm just going back and forth; I'm not getting anywhere.
144
387260
2000
Bir ileri bir geri gidiyorum bu şekilde, bir yere vardığım yok.
06:29
I don't want opinions; I want knowledge.
145
389260
3000
Artık fikir istemiyorum, bilgi birikimi istiyorum.
06:32
I want to know the truth about justice --
146
392260
3000
Adalet hakkındaki gerçeği bilmek istiyorum --
06:35
like we have truths in math.
147
395260
3000
tıpkı matematikte gerçekliklerimizin olduğu gibi.
06:38
In math, we know the objective facts.
148
398260
3000
Matematikte tarafsız olguları bilebiliriz.
06:41
Take a number, any number -- two.
149
401260
2000
Bir sayı al, herhangi bir sayı -- iki
06:43
Favorite number. I love that number.
150
403260
2000
En sevdiğim sayıdır. Bayılırım bu sayıya.
06:45
There are truths about two.
151
405260
2000
İki hakkında gerçekler vardır.
06:47
If you've got two of something,
152
407260
2000
Herhangi bir şeyden iki tanesine sahipseniz,
06:49
you add two more, you get four.
153
409260
2000
buna iki tane daha eklediğinizde, dört elde edersiniz.
06:51
That's true no matter what thing you're talking about.
154
411260
2000
Neden bahsettiğiniz fark etmez, her şey için doğrudur.
06:53
It's an objective truth about the form of two,
155
413260
2000
Bu iki olma biçimi hakkında, bu soyut biçim hakkında
06:55
the abstract form.
156
415260
2000
tarafsız bir olgudur.
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
417260
2000
Herhangi bir şeyden iki tanesine sahipsen – iki göz, iki kulak, burun delikleri
06:59
just two protrusions --
158
419260
2000
sadece iki çıkıntı --
07:01
those all partake of the form of two.
159
421260
3000
tüm bunlar iki biçiminde yerini alır.
07:04
They all participate in the truths that two has.
160
424260
4000
İkinin sahip olduğu tüm gerçeklere ortak olur.
07:08
They all have two-ness in them.
161
428260
2000
Hepsinde sahip oldukları bir "ikilik" vardır.
07:10
And therefore, it's not a matter of opinion.
162
430260
3000
Ve dolayısıyla, bu bir kanaat meselesi değildir.
07:13
What if, Plato thought,
163
433260
2000
Peki ya Platon, etiğin
07:15
ethics was like math?
164
435260
2000
matematik gibi olduğunu düşünseydi?
07:17
What if there were a pure form of justice?
165
437260
3000
Ya adaletin saf bir biçimi varsa?
07:20
What if there are truths about justice,
166
440260
2000
Ya adalet hakkında gerçeklikler varsa,
07:22
and you could just look around in this world
167
442260
2000
ve yalnızca dünyaya şöyle bir bakınarak
07:24
and see which things participated,
168
444260
2000
nelerin bu gerçeğe ortak olup,
07:26
partook of that form of justice?
169
446260
3000
bu adalet biçiminde yerini aldığını görebilseydik?
07:29
Then you would know what was really just and what wasn't.
170
449260
3000
Böylece gerçekte neyin adil olup neyin olmadığını bilebilirdik.
07:32
It wouldn't be a matter
171
452260
2000
Sadece kanaat veya sadece
07:34
of just opinion or just appearances.
172
454260
3000
kalıplardan ibaret olmazdı.
07:37
That's a stunning vision.
173
457260
2000
Bu çarpıcı bir görüş.
07:39
I mean, think about that. How grand. How ambitious.
174
459260
3000
Yani, bir düşünsenize. Ne kadar muazzam. Ne kadar hırslı.
07:42
That's as ambitious as we are.
175
462260
2000
Tıpkı bizim kadar hırslı.
07:44
He wants to solve ethics.
176
464260
2000
Etiği çözmek istiyor.
07:46
He wants objective truths.
177
466260
2000
Tarafsız gerçeklikler istiyor.
07:48
If you think that way,
178
468260
3000
Eğer bu şekilde düşünüyorsanız,
07:51
you have a Platonist moral framework.
179
471260
3000
Platonist bir ahlaki çerçeveniz var demektir.
07:54
If you don't think that way,
180
474260
2000
Eğer böyle düşünmüyorsanız,
07:56
well, you have a lot of company in the history of Western philosophy,
181
476260
2000
öyleyse, batı felsefesinde pek çok fikir ortağınız var demektir,
07:58
because the tidy idea, you know, people criticized it.
182
478260
3000
çünkü bu hatrı sayılır fikri – bilirsiniz, insanlar bunu eleştirdi.
08:01
Aristotle, in particular, he was not amused.
183
481260
3000
Aristo, bundan özellikle memnun kalmadı.
08:04
He thought it was impractical.
184
484260
3000
O bunun kullanışsız olduğunu düşünüyordu.
08:07
Aristotle said, "We should seek only so much precision in each subject
185
487260
4000
Aristo şöyle dedi, “Bizler herhangi bir konuda, ancak o konunun bize izin verdiği miktarda
08:11
as that subject allows."
186
491260
2000
kesinlik arayabiliriz”
08:13
Aristotle thought ethics wasn't a lot like math.
187
493260
3000
Aristo etiğin matematiğe pek benzemediğini düşünüyordu.
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
496260
3000
Etiğin, anlık bir karar verirken doğru yolu bulmak üzere, en iyi şekilde
08:19
using our best judgment
189
499260
2000
hüküm verme yetimizi kullanma meselesi
08:21
to find the right path.
190
501260
2000
olduğunu düşünüyordu.
08:23
If you think that, Plato's not your guy.
191
503260
2000
Eğer, Platon sizin adamınız değilse,
08:25
But don't give up.
192
505260
2000
yine de pes etmeyin.
08:27
Maybe there's another way
193
507260
2000
Belki, ahlaki çerçevemizde
08:29
that we can use numbers as the basis of our moral framework.
194
509260
3000
sayıları temel alarak kullanabileceğimiz başka bir yol vardır.
08:33
How about this:
195
513260
2000
Şuna ne dersiniz:
08:35
What if in any situation you could just calculate,
196
515260
3000
Ya herhangi bir durumda hesaplamalar yapıp,
08:38
look at the choices,
197
518260
2000
seçeneklere bakıp,
08:40
measure out which one's better and know what to do?
198
520260
3000
hangisinin daha iyi olduğunu ölçerek ne yapacağınızı bilebilirseniz?
08:43
That sound familiar?
199
523260
2000
Bu tanıdık geliyor mu?
08:45
That's a utilitarian moral framework.
200
525260
3000
İşte bu faydacı ahlak çerçevesi.
08:48
John Stuart Mill was a great advocate of this --
201
528260
2000
John Stuart Mill bunun en büyük savunucusuydu --
08:50
nice guy besides --
202
530260
2000
ayrıca iyi bir adamdı --
08:52
and only been dead 200 years.
203
532260
2000
ve sadece 200 yıl önce öldü.
08:54
So basis of utilitarianism --
204
534260
2000
Dolayısıyla faydacılığın temeli --
08:56
I'm sure you're familiar at least.
205
536260
2000
En azından aşina olduğunuza eminim.
08:58
The three people who voted for Mill before are familiar with this.
206
538260
2000
Başlarda Mill için el kaldırmış üç kişi için bunlar tanıdıktır.
09:00
But here's the way it works.
207
540260
2000
Ama işte bu şekilde çalışır.
09:02
What if morals, what if what makes something moral
208
542260
3000
Ya ahlak kuralları, yani bir şeyin ahlaklı olmasını sağlayanlar,
09:05
is just a matter of if it maximizes pleasure
209
545260
2000
onların sadece hazzı çoğaltması ve acıyı azaltması
09:07
and minimizes pain?
210
547260
2000
ile ilgiliyse?
09:09
It does something intrinsic to the act.
211
549260
3000
Eyleme içkin bir şey.
09:12
It's not like its relation to some abstract form.
212
552260
2000
Soyut bir biçim ile olan ilişkisi gibi değil.
09:14
It's just a matter of the consequences.
213
554260
2000
Ortaya çıkan sonuçlarla ilgili bir şey.
09:16
You just look at the consequences
214
556260
2000
Sadece sonuçlara bakıyorsunuz
09:18
and see if, overall, it's for the good or for the worse.
215
558260
2000
ve eylemin iyi veya kötü olduğunu görüyorsunuz.
09:20
That would be simple. Then we know what to do.
216
560260
2000
Böylesi basit olurdu. Böylece ne yapacağımızı bilebiliriz.
09:22
Let's take an example.
217
562260
2000
Bir örnek ele alalım.
09:24
Suppose I go up
218
564260
2000
İyice ileri gittiğimi varsayalım
09:26
and I say, "I'm going to take your phone."
219
566260
2000
diyorum ki, “Telefonunu alacağım”
09:28
Not just because it rang earlier,
220
568260
2000
Zamansız çaldığı için değil ama,
09:30
but I'm going to take it because I made a little calculation.
221
570260
3000
onu alacağım çünkü küçük bir hesaplama yaptım.
09:33
I thought, that guy looks suspicious.
222
573260
3000
Bu adamın şüpheli göründüğünü düşündüm.
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
576260
3000
Ya Bin Ladin’in saklandığı yere küçük mesajlar gönderip duruyorsa --
09:39
or whoever took over after Bin Laden --
224
579260
2000
veya Bin Ladin’den sonra yerine geçen her kimse --
09:41
and he's actually like a terrorist, a sleeper cell.
225
581260
3000
ve bu adam aslında bir terörist, emir bekleyen bir saldırgan.
09:44
I'm going to find that out, and when I find that out,
226
584260
3000
Ben bunu ortaya çıkartacağım, ve bunu yaptığımda,
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
587260
3000
sebep olabileceği muazzam boyuttaki zararı önlemiş olacağım.
09:50
That has a very high utility to prevent that damage.
228
590260
3000
Hasar önleme konusunda çok büyük faydası var bunun.
09:53
And compared to the little pain that it's going to cause --
229
593260
2000
Ve sebep olacağı azıcık ıstırabı, kıyasladığımda --
09:55
because it's going to be embarrassing when I'm looking on his phone
230
595260
2000
çünkü telefonuna bakıp aslında Farmville’de küçük bir problemi olduğunu
09:57
and seeing that he has a Farmville problem and that whole bit --
231
597260
3000
gördüğümde bu biraz utanç verici olacak --
10:00
that's overwhelmed
232
600260
3000
bu benim telefona
10:03
by the value of looking at the phone.
233
603260
2000
bakmamın değeri karşısında hiçbir şey olmayacak.
10:05
If you feel that way,
234
605260
2000
Eğer bu şekilde düşünüyorsanız,
10:07
that's a utilitarian choice.
235
607260
3000
bu faydacı bir seçimdir.
10:10
But maybe you don't feel that way either.
236
610260
3000
Ama belki, bu şekilde de düşünmüyorsunuz.
10:13
Maybe you think, it's his phone.
237
613260
2000
Belki de sizce, bu onun telefonu.
10:15
It's wrong to take his phone
238
615260
2000
Bu adamın telefonunu almamız yanlış bir şey,
10:17
because he's a person
239
617260
2000
çünkü o bir birey,
10:19
and he has rights and he has dignity,
240
619260
2000
onun kişisel hakları ve bir itibarı var,
10:21
and we can't just interfere with that.
241
621260
2000
ve biz bunlara öylece müdahale edemeyiz.
10:23
He has autonomy.
242
623260
2000
Onun bir özyönetimi var.
10:25
It doesn't matter what the calculations are.
243
625260
2000
Hesaplamaların ne olduğu mühim değil.
10:27
There are things that are intrinsically wrong --
244
627260
3000
İçkin olarak yanlış olan şeyler vardır --
10:30
like lying is wrong,
245
630260
2000
mesela yalan söylemek yanlıştır,
10:32
like torturing innocent children is wrong.
246
632260
3000
mesela masum çocuklara işkence etmek yanlıştır.
10:35
Kant was very good on this point,
247
635260
3000
Kant bu noktada çok iyidi,
10:38
and he said it a little better than I'll say it.
248
638260
2000
ve benim ifade edeceğimden biraz daha iyisini söyledi.
10:40
He said we should use our reason
249
640260
2000
O, davranışlarımızı yönlendirmemiz gereken kuralları belirlemek için
10:42
to figure out the rules by which we should guide our conduct,
250
642260
3000
idrakımızı kullanmamız gerektiğini söyledi.
10:45
and then it is our duty to follow those rules.
251
645260
3000
Sonrasında bu kuralları takip etmek bizim görevimiz.
10:48
It's not a matter of calculation.
252
648260
3000
Bu hesaplanacak bir şey değil.
10:51
So let's stop.
253
651260
2000
Öyleyse şimdi duralım.
10:53
We're right in the thick of it, this philosophical thicket.
254
653260
3000
Bu meselenin felsefi çalılıklarında dolaşmakta haklıyız.
10:56
And this goes on for thousands of years,
255
656260
3000
Ve bu binlerce yıldır sürüyor,
10:59
because these are hard questions,
256
659260
2000
çünkü bunlar zor sorular,
11:01
and I've only got 15 minutes.
257
661260
2000
ve benim yalnızca 15 dakikam var.
11:03
So let's cut to the chase.
258
663260
2000
Öyleyse sadede gelelim.
11:05
How should we be making our decisions?
259
665260
4000
Kararlarımızı nasıl vermeliyiz?
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
669260
3000
Platon mu, Aristo mu, Kant mı, yoksa Mill mi?
11:12
What should we be doing? What's the answer?
261
672260
2000
Ne yapmalıyız? Cevap ne?
11:14
What's the formula that we can use in any situation
262
674260
3000
O adamın verilerini kullanıp kullanmama konusunda
11:17
to determine what we should do,
263
677260
2000
ne yapmamız gerektiğini belirlemek için,
11:19
whether we should use that guy's data or not?
264
679260
2000
Her durumda kullanabileceğimiz türden formül ne?
11:21
What's the formula?
265
681260
3000
Nedir bunun formülü?
11:25
There's not a formula.
266
685260
2000
Böyle bir formül yok.
11:29
There's not a simple answer.
267
689260
2000
Basit bir cevap yok.
11:31
Ethics is hard.
268
691260
3000
Etik zordur.
11:34
Ethics requires thinking.
269
694260
3000
Etik düşünmeyi gerektirir.
11:38
And that's uncomfortable.
270
698260
2000
Ve bu tatsız bir durum.
11:40
I know; I spent a lot of my career
271
700260
2000
Biliyorum, kariyerimin çoğunu
11:42
in artificial intelligence,
272
702260
2000
yapay zeka için kullandım,
11:44
trying to build machines that could do some of this thinking for us,
273
704260
3000
bizim için düşünme işinin bir kısmını yapabilecek, bize cevaplar verebilecek
11:47
that could give us answers.
274
707260
2000
makineler üretmeye çalışmakta.
11:49
But they can't.
275
709260
2000
Ama yapamıyorlar.
11:51
You can't just take human thinking
276
711260
2000
Gidip insan düşüncesini alıp
11:53
and put it into a machine.
277
713260
2000
aynen bir makineye yerleştiremiyorsunuz.
11:55
We're the ones who have to do it.
278
715260
3000
Bu işi yapması gereken bizleriz.
11:58
Happily, we're not machines, and we can do it.
279
718260
3000
Şükür ki biz makine değiliz ve biz bunu yapabiliyoruz.
12:01
Not only can we think,
280
721260
2000
Sadece düşünmeyi becermekle kalmıyoruz,
12:03
we must.
281
723260
2000
buna mecburuz.
12:05
Hannah Arendt said,
282
725260
2000
Hannah Arendt şöyle söylüyor,
12:07
"The sad truth
283
727260
2000
“Acı gerçek şu ki
12:09
is that most evil done in this world
284
729260
2000
dünyadaki kötülüklerin çoğu
12:11
is not done by people
285
731260
2000
kötü olmayı seçen kişiler
12:13
who choose to be evil.
286
733260
2000
tarafından yapılmıyor.
12:15
It arises from not thinking."
287
735260
3000
Düşünmemekten kaynaklanıyor.”
12:18
That's what she called the "banality of evil."
288
738260
4000
Bu, onun “kötülüğün bayağılığı” dediği şey.
12:22
And the response to that
289
742260
2000
Ve buna verilecek karşılık,
12:24
is that we demand the exercise of thinking
290
744260
2000
aklı başında her insan tarafından düşünme tatbikine
12:26
from every sane person.
291
746260
3000
gereksinim duymamız.
12:29
So let's do that. Let's think.
292
749260
2000
Öyleyse yapalım. Haydi düşünelim.
12:31
In fact, let's start right now.
293
751260
3000
Gerçekten, şimdi başlayalım.
12:34
Every person in this room do this:
294
754260
3000
Bu salondaki herkes şunu yapsın:
12:37
think of the last time you had a decision to make
295
757260
3000
karar vermenizi gerektiren son zamanı düşünün
12:40
where you were worried to do the right thing,
296
760260
2000
doğru olanı yapmak için kaygılandığınız,
12:42
where you wondered, "What should I be doing?"
297
762260
2000
Ne yapmalıyım acaba?” diye merak ettiğiniz.
12:44
Bring that to mind,
298
764260
2000
Aklınıza getirin.
12:46
and now reflect on that
299
766260
2000
Ve şimdi üzerine kafa yorun
12:48
and say, "How did I come up that decision?
300
768260
3000
deyin ki, “Bu karara nasıl vardım?”
12:51
What did I do? Did I follow my gut?
301
771260
3000
Ne yaptım? Kalbimin sesini mi dinledim?
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
774260
2000
Birilerinin kanaatine mi sundum? Bir hukukçuya mı danıştım?
12:56
Or now we have a few more choices.
303
776260
3000
Veya artık birkaç tercihimiz daha var.
12:59
"Did I evaluate what would be the highest pleasure
304
779260
2000
“En çok hazzı verecek şeye göre mi değerlendirme yaptım,
13:01
like Mill would?
305
781260
2000
Mill’in yapacağı gibi?”
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
783260
3000
Yoksa Kant gibi, içkin doğruyu bulmak için sağduyumu mu kullandım?
13:06
Think about it. Really bring it to mind. This is important.
307
786260
3000
Bunu bir düşünün. Gerçekten aklınızda canlandırın. Bu önemli.
13:09
It is so important
308
789260
2000
Bu öylesine önemli ki
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
791260
2000
değerli TEDTalk zamanımızın 30 saniyesini buna harcayacağız
13:13
doing nothing but thinking about this.
310
793260
2000
hiçbir şey yapmayıp, sadece bunun hakkında düşüneceğiz.
13:15
Are you ready? Go.
311
795260
2000
Hazır mısınız? Başla.
13:33
Stop. Good work.
312
813260
3000
Tamam dur. Güzel.
13:36
What you just did,
313
816260
2000
Az önce yaptığınız,
13:38
that's the first step towards taking responsibility
314
818260
2000
gücümüzle ne yapmamız gerektiği konusunda
13:40
for what we should do with all of our power.
315
820260
3000
sorumluluk alma yolunda ilk adımdı.
13:45
Now the next step -- try this.
316
825260
3000
Şimdi bir sonraki adım – şunu deneyin.
13:49
Go find a friend and explain to them
317
829260
2000
Gidip bir arkadaşınızı bulun ve ona
13:51
how you made that decision.
318
831260
2000
bu kararı nasıl aldığınızı anlatın.
13:53
Not right now. Wait till I finish talking.
319
833260
2000
Şimdi değil. Konuşmamızı bitirene kadar bekleyin.
13:55
Do it over lunch.
320
835260
2000
Öğle yemeğinden sonra yapın.
13:57
And don't just find another technologist friend;
321
837260
3000
Ve gidip yine bir teknoloji uzmanı bulmayın;
14:00
find somebody different than you.
322
840260
2000
sizden farklı olan birini bulun.
14:02
Find an artist or a writer --
323
842260
2000
Bir sanatçı veya yazar bulun --
14:04
or, heaven forbid, find a philosopher and talk to them.
324
844260
3000
veya tanrı göstermesin, bir felsefeci bulup onunla konuşun.
14:07
In fact, find somebody from the humanities.
325
847260
2000
Hakikaten, beşeri bilimlerden birini bulun.
14:09
Why? Because they think about problems
326
849260
2000
Niye? Çünkü onlar sorunlar hakkında
14:11
differently than we do as technologists.
327
851260
2000
biz teknoloji uzmanlarından farklı düşünür.
14:13
Just a few days ago, right across the street from here,
328
853260
3000
Birkaç gün önce, buranın karşı sokağında,
14:16
there was hundreds of people gathered together.
329
856260
2000
yüzlerce insan toplanmıştı.
14:18
It was technologists and humanists
330
858260
2000
Teknoloji uzmanları ve hümanistler,
14:20
at that big BiblioTech Conference.
331
860260
2000
şu büyük BiblioTech konferansındaydı.
14:22
And they gathered together
332
862260
2000
Bir araya geldiler
14:24
because the technologists wanted to learn
333
864260
2000
çünkü teknoloji uzmanları, beşeri bilimler perspektifiyle
14:26
what it would be like to think from a humanities perspective.
334
866260
3000
düşünmenin nasıl bir şey olduğunu öğrenmek istiyordu.
14:29
You have someone from Google
335
869260
2000
Google'da çalışan birini
14:31
talking to someone who does comparative literature.
336
871260
2000
karşılaştırmalı edebiyat üzerine çalışan biri ile konuşurken buluyordunuz.
14:33
You're thinking about the relevance of 17th century French theater --
337
873260
3000
Şimdi 17inci yüzyıl Fransız tiyatrosunu düşünüyorsunuz --
14:36
how does that bear upon venture capital?
338
876260
2000
bunun risk sermayesi ile nasıl bir ilgisi olabilir?
14:38
Well that's interesting. That's a different way of thinking.
339
878260
3000
Evet ilginç. Bu farklı bir düşünme şekli.
14:41
And when you think in that way,
340
881260
2000
Ve bu şekilde düşündüğünüzde,
14:43
you become more sensitive to the human considerations,
341
883260
3000
insani hususlara karşı daha duyarlı hale geliyorsunuz,
14:46
which are crucial to making ethical decisions.
342
886260
3000
ki bunlar etik kararlar alırken oldukça can alıcı.
14:49
So imagine that right now
343
889260
2000
Öylese şimdi şunu hayal edin
14:51
you went and you found your musician friend.
344
891260
2000
gittiniz ve müzisyen bir arkadaşınızı buldunuz.
14:53
And you're telling him what we're talking about,
345
893260
3000
Ona hakkında konuştuğumuz şeyi anlatıyorsunuz,
14:56
about our whole data revolution and all this --
346
896260
2000
tüm bu veri devrimini ve tüm bunları --
14:58
maybe even hum a few bars of our theme music.
347
898260
2000
hatta belki şu parçamızdan birkaç ölçü mırıldanıyorsunuz.
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
900260
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musician friend will stop you and say,
349
903260
2000
Müzisyen arkadaşınız sizi durdurup şunu söyleyecek,
15:05
"You know, the theme music
350
905260
2000
“Hani şu müzik parçası var ya
15:07
for your data revolution,
351
907260
2000
şu veri devrimi için,
15:09
that's an opera, that's Wagner.
352
909260
2000
işte o bir opera, bir Wagner eseri.
15:11
It's based on Norse legend.
353
911260
2000
İskandinav efsaneleri üzerine.
15:13
It's Gods and mythical creatures
354
913260
2000
Tanrılar ve mitsel yaratıklar
15:15
fighting over magical jewelry."
355
915260
3000
sihirli mücevherler için savaşıyorlar.”
15:19
That's interesting.
356
919260
3000
Bu enteresan.
15:22
Now it's also a beautiful opera,
357
922260
3000
Ayrıca güzel de bir opera.
15:25
and we're moved by that opera.
358
925260
3000
Biz bu opera ile duygulanıyoruz.
15:28
We're moved because it's about the battle
359
928260
2000
Duygulanıyoruz, çünkü bu opera iyi ile kötü arasında
15:30
between good and evil,
360
930260
2000
doğru ile yanlış arasında
15:32
about right and wrong.
361
932260
2000
geçen bir savaş hakkında yazılmış.
15:34
And we care about right and wrong.
362
934260
2000
Ve biz doğru ile yanlışı önemsiyoruz.
15:36
We care what happens in that opera.
363
936260
3000
Biz o operada ne olduğunu önemsiyoruz.
15:39
We care what happens in "Apocalypse Now."
364
939260
3000
Biz “Kıyamet” filminde ne olduğunu önemsiyoruz.
15:42
And we certainly care
365
942260
2000
Ve biz kesinlikle teknolojimizle
15:44
what happens with our technologies.
366
944260
2000
neler olduğunu önemsiyoruz.
15:46
We have so much power today,
367
946260
2000
Bugün çok fazla gücümüz var,
15:48
it is up to us to figure out what to do,
368
948260
3000
ne yapacağımızı belirlemek bizim elimizde.
15:51
and that's the good news.
369
951260
2000
Ve işte iyi haber de bu.
15:53
We're the ones writing this opera.
370
953260
3000
Burada bu operayı yazanlar bizleriz.
15:56
This is our movie.
371
956260
2000
Bu bizim filmimiz.
15:58
We figure out what will happen with this technology.
372
958260
3000
Bu teknoloji ile neler olacağını biz belirliyoruz.
16:01
We determine how this will all end.
373
961260
3000
Nasıl biteceğini biz belirliyoruz.
16:04
Thank you.
374
964260
2000
Teşekkür ederim.
16:06
(Applause)
375
966260
5000
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7