Nick Bostrom: Humanity's biggest problems aren't what you think they are

Nick Bostrom en büyük problemlerimiz

111,744 views

2007-05-16 ・ TED


New videos

Nick Bostrom: Humanity's biggest problems aren't what you think they are

Nick Bostrom en büyük problemlerimiz

111,744 views ・ 2007-05-16

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: SERPİL ÖZSEZGİN ÖCEK Gözden geçirme: Sancak Gülgen
00:25
I want to talk today about --
0
25000
3000
Bugün- bu konu hakkında konuşmak istiyorum.
00:28
I've been asked to take the long view, and I'm going to tell you what
1
28000
6000
Ben basireti bağlanmayı sormak istedim, ve size ne olduğunu anlatacağım
00:34
I think are the three biggest problems for humanity
2
34000
4000
insanlık için üç büyük problemin olduğunu düşünüyorum.
00:38
from this long point of view.
3
38000
3000
bu kapsamlı bakış açısından
00:41
Some of these have already been touched upon by other speakers,
4
41000
3000
Bunlardan bazılarına zaten diğer konuşmacılar tarafından değinildi.
00:44
which is encouraging.
5
44000
2000
İçtenlikle
00:46
It seems that there's not just one person
6
46000
2000
Sadece tek bir kişi yok gibi gözüküyor.
00:48
who thinks that these problems are important.
7
48000
2000
Bu sorunların önemli olduğunu düşünen,
00:50
The first is -- death is a big problem.
8
50000
4000
Ilki -- Ölüm önemli bir problemdir
00:54
If you look at the statistics,
9
54000
3000
Biz istatistiklere bakacak olursak,
00:57
the odds are not very favorable to us.
10
57000
2000
avantajlar bizden yana değil.
00:59
So far, most people who have lived have also died.
11
59000
4000
Bugüne kadar yaşamış olan insanların çoğu öldü.
01:03
Roughly 90 percent of everybody who has been alive has died by now.
12
63000
4000
Şimdiye kadar yaşayanların kabaca yüzde 90 ‘ı öldü.
01:07
So the annual death rate adds up to 150,000 --
13
67000
6000
Yani yıllık ölüm oranı 150.000 ilave oluyor-
01:13
sorry, the daily death rate -- 150,000 people per day,
14
73000
3000
pardon, günlük ölüm oranı - günde 150.000 kişi,
01:16
which is a huge number by any standard.
15
76000
3000
herhangi bir standartdan büyük bir sayıdır.
01:19
The annual death rate, then, becomes 56 million.
16
79000
5000
Yıllık ölüm oranı, o halde , 56 milyon oluyor.
01:24
If we just look at the single, biggest cause of death -- aging --
17
84000
5000
Ölümün sadece en büyük nedenine bakacak olursak-- Yaşlanma -
01:30
it accounts for roughly two-thirds of all human people who die.
18
90000
5000
ölen insanların yaklaşık üçte iki nedenidir.
01:35
That adds up to an annual death toll
19
95000
3000
yıllık ölü sayısına ilave olarak gidiyor.
01:38
of greater than the population of Canada.
20
98000
2000
Bu Kanada nüfusundan daha fazla
01:40
Sometimes, we don't see a problem
21
100000
2000
Çoğu zaman, bir problem olarak görmüyoruz
01:42
because either it's too familiar or it's too big.
22
102000
4000
Çünkü O ya çok tanıdık ya da çok büyük.
01:46
Can't see it because it's too big.
23
106000
2000
Onu göremedik. Çünkü çok büyük.
01:48
I think death might be both too familiar and too big
24
108000
3000
Sanırım, ölüm hem çok tanıdık hemde çok büyük olabilir
01:51
for most people to see it as a problem.
25
111000
3000
çoğu insan için O bir problem olarak görülmekte.
01:54
Once you think about it, you see this is not statistical points;
26
114000
2000
Bir kez onun hakkında düşünün, istatistiksel sayı olarak görmeyin;
01:56
these are -- let's see, how far have I talked?
27
116000
2000
bunlar - bakalım, konuşmaya başlayalı ne kadar zaman oldu?
01:58
I've talked for three minutes.
28
118000
3000
üç dakikadır konuşmaktayım
02:01
So that would be, roughly, 324 people have died since I've begun speaking.
29
121000
7000
Böylece konuşmaya başladığım zamandan bu yana kabaca, 324 kişi öldü,
02:08
People like -- it's roughly the population in this room has just died.
30
128000
4000
- kabaca bu odadaki nüfus kadar insan sadece öldü..
02:13
Now, the human cost of that is obvious,
31
133000
2000
Şimdi, insan maliyeti apacık ortadadır,
02:15
once you start to think about it -- the suffering, the loss --
32
135000
3000
bir kez onu düşünmeye başlayın - acı çekme, kayıp -
02:18
it's also, economically, enormously wasteful.
33
138000
3000
aynı zamanda ekonomik olarak, muazzam israf var.
02:21
I just look at the information, and knowledge, and experience
34
141000
3000
Ben sadece haber, bilgi ve deneyime bakıyorum
02:24
that is lost due to natural causes of death in general,
35
144000
3000
genellikle ölüm doğal nedenlerden kaynaklıdır.
02:27
and aging, in particular.
36
147000
2000
ve özellikle de yaşlanma.
02:29
Suppose we approximated one person with one book?
37
149000
3000
Biz bir kitap ile bir kişi yi yaklasık varsayalım?
02:32
Now, of course, this is an underestimation.
38
152000
2000
Şimdi, tabii, bu değerinin altındadır.
02:34
A person's lifetime of learning and experience
39
154000
6000
Bir kişinin ömür boyu öğrenme ve deneyimi
02:40
is a lot more than you could put into a single book.
40
160000
2000
tek bir kitap içine sığabilmekten çok daha fazladır.
02:42
But let's suppose we did this.
41
162000
2000
Ama diyelim ki biz bunu yaptık varsayalım.
02:45
52 million people die of natural causes each year
42
165000
5000
52 milyon insan her yıl doğal nedenlerle ölüyor
02:50
corresponds, then, to 52 million volumes destroyed.
43
170000
4000
sonuç olarak, 52 milyon kül olmaya karşılık geliyor.
02:54
Library of Congress holds 18 million volumes.
44
174000
3000
Kongre Kütüphanesi 18 milyon cilte ulaşır.
02:58
We are upset about the burning of the Library of Alexandria.
45
178000
3000
Biz İskenderiye Kütüphanesi'nin yakılmasına üzülüyoruz.
03:01
It's one of the great cultural tragedies
46
181000
2000
O büyük kültürel trajedilerinden biri,
03:03
that we remember, even today.
47
183000
3000
Bugün bile, hatırlıyoruz.
03:07
But this is the equivalent of three Libraries of Congress --
48
187000
2000
Ama bu üç Kongre Kütüphanesine eşdeğerdir.
03:09
burnt down, forever lost -- each year.
49
189000
3000
--Yanmış kül olmuş, sonsuza kadar kayıp - - Her yıl
03:12
So that's the first big problem.
50
192000
2000
Böylece bu ilk büyük sorundu.
03:14
And I wish Godspeed to Aubrey de Grey,
51
194000
3000
Ve Aubrey de Grey ile Godspeed 'e şans diliyorum,
03:17
and other people like him,
52
197000
2000
ve onlar gibi diğer insanlara,
03:19
to try to do something about this as soon as possible.
53
199000
3000
en kısa zamanda bu konuda bir şeyler yapmaya çalışmak için
03:23
Existential risk -- the second big problem.
54
203000
3000
Varoluşçu riski - İkinci büyük sorun.
03:26
Existential risk is a threat to human survival, or to the long-term potential of our species.
55
206000
7000
Varoluşçu risk türümüzün uzun vadeli potansiyelne veya insanın hayatta kalma savaşına bir tehdittir.
03:33
Now, why do I say that this is a big problem?
56
213000
2000
Şimdi, bunun neden büyük bir sorun olduğunu söylüyorum?
03:35
Well, let's first look at the probability --
57
215000
4000
Eh, olasılıklara ilk önce bakalım -
03:39
and this is very, very difficult to estimate --
58
219000
3000
ve bunu tahmin etmek çok çok zordur -
03:42
but there have been only four studies on this in recent years,
59
222000
3000
ama son yıllarda bu konuda sadece dört çalışma yapılmıştır.
03:45
which is surprising.
60
225000
2000
şaşırtıcıdır.
03:47
You would think that it would be of some interest
61
227000
3000
ilgi çekeceğini düşüneceksiniz..
03:50
to try to find out more about this given that the stakes are so big,
62
230000
4000
varoluşa bağlı şeyler o kadar büyük ki bu konuda daha fazla keşfetmek gerekiyor.
03:54
but it's a very neglected area.
63
234000
2000
çok ihmal edilmiş bir alan olması
03:56
But there have been four studies --
64
236000
2000
sadece dört çalışma yapılmıştır-
03:58
one by John Lesley, wrote a book on this.
65
238000
2000
John Lesley bu konuda bir kitap yazdı -
04:00
He estimated a probability that we will fail
66
240000
2000
Bulunduğumuz yüzyılda hayatta kalma
04:02
to survive the current century: 50 percent.
67
242000
3000
başarısızlğımızı %50 olarak tahmin etti.
04:05
Similarly, the Astronomer Royal, whom we heard speak yesterday,
68
245000
5000
Benzer şekilde, dün konuşduğumuz, Astronom Royal
04:10
also has a 50 percent probability estimate.
69
250000
3000
de % 50 olarak tahmin etmişti.
04:13
Another author doesn't give any numerical estimate,
70
253000
3000
Bir başka yazar herhangi bir sayısal tahmin vermedi,
04:16
but says the probability is significant that it will fail.
71
256000
3000
Ama başarısız olma olasılığının belirgin olduğunu vurguluyor.
04:19
I wrote a long paper on this.
72
259000
3000
Bunun üzerine uzun bir makale yazdım.
04:22
I said assigning a less than 20 percent probability would be a mistake
73
262000
4000
bir hata olma olasılığını % 20 den daha az olduğunu söyledim.
04:26
in light of the current evidence we have.
74
266000
3000
Elimizdeki mevcut kanıtlar ışığında.
04:29
Now, the exact figures here,
75
269000
2000
Şimdi, burada kesin rakamları
04:31
we should take with a big grain of salt,
76
271000
2000
büyük bir şüphe ile almamız gerekir,
04:33
but there seems to be a consensus that the risk is substantial.
77
273000
3000
ama riskin büyük olduğu konusunda fikir birliği var gibi görünmekte.
04:36
Everybody who has looked at this and studied it agrees.
78
276000
3000
Herkes ve çalışmalar böyle kabul ediyor.
04:39
Now, if we think about what just reducing
79
279000
2000
Şimdi, biz sadece azaltabilmeyi düşünsek.
04:41
the probability of human extinction by just one percentage point --
80
281000
5000
insan neslinin olasılığı sadece yaklaşık % 1 –
04:46
not very much -- so that's equivalent to 60 million lives saved,
81
286000
5000
çok fazla değil- bu kaydedilen 60 milyon insanın hayatına eşdeğerdir,
04:51
if we just count the currently living people, the current generation.
82
291000
4000
biz sadece şu anda yaşayan insanları, şimdiki nesli sayarsak.
04:55
Now one percent of six billion people is equivalent to 60 million.
83
295000
4000
Şimdi altı milyar insanın yüzde biri 60 milyona eşdeğerdir.
04:59
So that's a large number.
84
299000
2000
Bu sayı çok büyük bir sayıdır.
05:01
If we were to take into account future generations
85
301000
3000
Biz gelecek nesilleri göz önüne alsaydık
05:04
that will never come into existence if we blow ourselves up,
86
304000
5000
kendimize boyut atlatarak, Varoluşun içine asla giremeyecektik.
05:09
then the figure becomes astronomical.
87
309000
3000
o halde bu rakam astronomik olur.
05:12
If we could eventually colonize a chunk of the universe --
88
312000
3000
biz sonunda evrende bir öbek koloni olabiliriz-
05:15
the Virgo supercluster --
89
315000
2000
Virgo supercluster-
05:17
maybe it will take us 100 million years to get there,
90
317000
2000
belki de orası 100 milyon yıl sürecekti,
05:19
but if we go extinct we never will.
91
319000
3000
ama biz soyu tükenmiş olmayacaktık.
05:22
Then, even a one percentage point reduction
92
322000
3000
Sonra, olasılıkta %1 lik bile bir azalma
05:25
in the extinction risk could be equivalent
93
325000
4000
tükenme riski üzerinde eşdeğer etkide olabilir
05:29
to this astronomical number -- 10 to the power of 32.
94
329000
3000
bu astronomik sayıya- 10 üzeri 32.
05:32
So if you take into account future generations as much as our own,
95
332000
4000
Eğer kendimiz kadar gelecek nesilleri hesaba katsaydık,
05:36
every other moral imperative of philanthropic cost just becomes irrelevant.
96
336000
5000
philanthropik maliyetinin diğer her ahlaki zorunluluğu sadece önemsiz hale gelirdi.
05:41
The only thing you should focus on
97
341000
2000
Odaklanmanız gereken tek şey
05:43
would be to reduce existential risk
98
343000
2000
varoluşsal riski azaltmak olacaktır
05:45
because even the tiniest decrease in existential risk
99
345000
4000
Çünkü varoluşsal riskde en ufak azalma bile
05:49
would just overwhelm any other benefit you could hope to achieve.
100
349000
4000
herhangi bir faydayı etkileyecek sizin başarmanızı sağlayabilir
05:53
And even if you just look at the current people,
101
353000
2000
Eğer sadece şu andaki insanlara baksak bile,
05:55
and ignore the potential that would be lost if we went extinct,
102
355000
5000
ve potansiyeli yok saysak bile biz tükenip gittikten sonra yok olacağız ,
06:00
it should still have a high priority.
103
360000
2000
O hala yüksek bir öncelik olmalıdır.
06:02
Now, let me spend the rest of my time on the third big problem,
104
362000
5000
Şimdi, üçüncü büyük problem üzerinde kalan zamanımı geçirmeme izin verin.
06:07
because it's more subtle and perhaps difficult to grasp.
105
367000
5000
Çünkü bunu kavramak daha ince ve belki de daha zor,
06:13
Think about some time in your life --
106
373000
4000
Hayatınızda bazı zamanları düşünün
06:17
some people might never have experienced it -- but some people,
107
377000
3000
Bazı insanlar onu hiçbir zaman deneyimlememiş olabilirler- ama bazı insanlar,
06:20
there are just those moments that you have experienced
108
380000
3000
Deneyimlediğiniz belirli anlar vardır.
06:23
where life was fantastic.
109
383000
2000
yaşam nerede fantastikdi.
06:25
It might have been at the moment of some great, creative inspiration
110
385000
7000
bazı büyük, yaratıcı ilham anıda olabilirdi.
06:32
you might have had when you just entered this flow stage.
111
392000
2000
bu akışa doğru girdiğinizde başaramamış olmalıydınız.
06:34
Or when you understood something you had never done before.
112
394000
2000
Yoksa daha önce hiç yapmadığınız bir şeyi anladığınız zamanlar
06:36
Or perhaps in the ecstasy of romantic love.
113
396000
4000
Veya belki de romantik aşkın ectasisi içinde.
06:40
Or an aesthetic experience -- a sunset or a great piece of art.
114
400000
5000
Ya da estetik bir deneyim - bir gün batımı ya da büyük bir sanat parçası.
06:45
Every once in a while we have these moments,
115
405000
2000
Birazdan her seferinde bu anlara sahip olacağız
06:47
and we realize just how good life can be when it's at its best.
116
407000
4000
ve biz sadece rahat yaşamın en iyi şekilde olabileceği zamanı ne kadar anlarız.
06:51
And you wonder, why can't it be like that all the time?
117
411000
5000
Ve merak ederseniz, niçin O tüm zamanlara benzemez?
06:56
You just want to cling onto this.
118
416000
2000
Sadece buna tutunmak istersiniz
06:58
And then, of course, it drifts back into ordinary life and the memory fades.
119
418000
4000
Ve sonra, tabii, sıradan yaşam içine geri sürüklenir ve hafıza unutur.
07:02
And it's really difficult to recall, in a normal frame of mind,
120
422000
4000
Ve normal bir hafızada
07:06
just how good life can be at its best.
121
426000
3000
sadece rahat yaşam nasıl en iyi şekilde olabilir
07:09
Or how bad it can be at its worst.
122
429000
3000
Ya da o daha da kötü de olabilir. hatırlamak gerçekten zor.
07:12
The third big problem is that life isn't usually
123
432000
3000
Üçüncü büyük problem ise yaşam genellikle değildir
07:15
as wonderful as it could be.
124
435000
2000
olması gerektiği kadar harika
07:17
I think that's a big, big problem.
125
437000
4000
büyük,büyük bir problem olduğunu düşünüyorum.
07:21
It's easy to say what we don't want.
126
441000
2000
bizim istemediğimiz şeyleri söylemek kolaydır.
07:24
Here are a number of things that we don't want --
127
444000
3000
İşte istemediğimiz bir sürü şey burada.
07:27
illness, involuntary death, unnecessary suffering, cruelty,
128
447000
3000
Hastalık, ani ölüm, gereksiz acı çekme, işkence,
07:30
stunted growth, memory loss, ignorance, absence of creativity.
129
450000
5000
kötü büyüme, hafıza kaybı, cehalet, yaratıcılık yokluğu.
07:36
Suppose we fixed these things -- we did something about all of these.
130
456000
3000
Bu şeyleri sabit varsayalım - bunların hepsi hakkında bir şeyler yaptık.
07:39
We were very successful.
131
459000
2000
Biz çok başarılı olduk.
07:41
We got rid of all of these things.
132
461000
2000
Biz tüm bunları bertaraf ettik.
07:43
We might end up with something like this,
133
463000
3000
Biz böyle bir şey ile sonlanabilir miydik,
07:46
which is -- I mean, it's a heck of a lot better than that.
134
466000
4000
nedir - yani, bundan daha iyiside olabilirdi.
07:50
But is this really the best we can dream of?
135
470000
5000
Ama bu gerçekten bizim hayal edebileceğimizin en iyi si mi?
07:55
Is this the best we can do?
136
475000
2000
Bu yapabileceğimizin en iyi si mi?
07:57
Or is it possible to find something a little bit more inspiring to work towards?
137
477000
6000
Ya da çalışma yanlısı olmak için biraz daha ilham verici bir şey bulmak mümkün mü?
08:03
And if we think about this,
138
483000
2000
Eğer bu konuda düşünüyorsak,
08:05
I think it's very clear that there are ways
139
485000
4000
O yolların var olduğunu çok net olarak düşünüyorum
08:09
in which we could change things, not just by eliminating negatives,
140
489000
3000
sadece negatifleri ortadan kaldırarak değil , birtakım şeyleri değiştirebiliriz,
08:12
but adding positives.
141
492000
2000
ama pozitifleri de ekleyerek
08:14
On my wish list, at least, would be:
142
494000
2000
İstek listemde, en azından olacaktır:
08:16
much longer, healthier lives, greater subjective well-being,
143
496000
5000
daha uzun, sağlıklı bir hayat, daha öznel iyi olma hali,
08:21
enhanced cognitive capacities, more knowledge and understanding,
144
501000
5000
gelişmiş bilişsel kapasite, daha fazla bilgi ve anlayış,
08:26
unlimited opportunity for personal growth
145
506000
2000
kişisel gelişim için sınırsız fırsat
08:28
beyond our current biological limits, better relationships,
146
508000
4000
mevcut biyolojik limitlerimizin ötesinde, daha iyi ilişkiler.
08:32
an unbounded potential for spiritual, moral
147
512000
2000
ruhsal, ahlaki bakımdan sınırsız bir potansiyelin ötesinde
08:34
and intellectual development.
148
514000
2000
ve zihinsel gelişim
08:36
If we want to achieve this, what, in the world, would have to change?
149
516000
8000
Eger bunu başarmak istiyorsak, dünyada, neyi değiştirmek zorunda kalacağız?
08:44
And this is the answer -- we would have to change.
150
524000
5000
Ve bu cevaptır - biz değişmek zorunda kalacağız
08:49
Not just the world around us, but we, ourselves.
151
529000
3000
Sadece Çevremizdeki dünyayı değil, fakat biz kendimizi de.
08:52
Not just the way we think about the world, but the way we are -- our very biology.
152
532000
4000
Sadece dünyayı düşünmek yoluyla değil, ama biz bu yolu - bizim çok bioloji-.
08:56
Human nature would have to change.
153
536000
2000
İnsan doğası değişmek zorunda kalacaktır.
08:58
Now, when we think about changing human nature,
154
538000
2000
Şimdi, insan doğasını değiştirmeyi düşündüğümde,
09:00
the first thing that comes to mind
155
540000
2000
akla gelen ilk şey
09:02
are these human modification technologies --
156
542000
4000
bu insan modifikasyon teknolojileri dir -
09:06
growth hormone therapy, cosmetic surgery,
157
546000
2000
büyüme hormonu tedavisi, kozmetik cerrahi,
09:08
stimulants like Ritalin, Adderall, anti-depressants,
158
548000
3000
Ritalin, Adderall, anti-depresanlar, gibi uyarıcılar.
09:11
anabolic steroids, artificial hearts.
159
551000
2000
anabolik steroidler, yapay kalp.
09:13
It's a pretty pathetic list.
160
553000
3000
Oldukça acıklı bir liste.
09:16
They do great things for a few people
161
556000
2000
Onlar birkaç kişi için büyük şeyler yapıyorlar,
09:18
who suffer from some specific condition,
162
558000
2000
bazı özel durumdan muzdarip olan
09:20
but for most people, they don't really transform
163
560000
5000
çoğu insan için, onlar gerçekten transform olmuyorlar.
09:25
what it is to be human.
164
565000
2000
Nedir İnsan olmak.
09:27
And they also all seem a little bit --
165
567000
2000
Ve onlar da hepsi biraz görünüyor -
09:29
most people have this instinct that, well, sure,
166
569000
3000
Çoğu insan bu içgüdüye sahip buna ,iyi, emin,
09:32
there needs to be anti-depressants for the really depressed people.
167
572000
2000
gerçekten depresif insanlar için anti-depresanların olması gerekir buna ihtiyaç var.
09:34
But there's a kind of queasiness
168
574000
2000
Ama bir tür mide bulantısı yapar.
09:36
that these are unnatural in some way.
169
576000
3000
bir şekilde doğal yapıları yoktur
09:39
It's worth recalling that there are a lot of other
170
579000
2000
diğerlerinden fazla olduğunu hatırlamak gerekir.
09:41
modification technologies and enhancement technologies that we use.
171
581000
3000
Bizim kullandığımız modifikasyon teknolojileri ve geliştirme teknolojileri
09:44
We have skin enhancements, clothing.
172
584000
4000
Biz bu geliştirmelerle dayanma gücümüzü arttırmaya sahibiz.
09:48
As far as I can see, all of you are users of this
173
588000
4000
Bildiğim kadarıyla bunu kullananları görebiliyorum.
09:52
enhancement technology in this room, so that's a great thing.
174
592000
5000
bu odada geliştirme teknoloji, O kadar büyük bir şey ki.
09:57
Mood modifiers have been used from time immemorial --
175
597000
3000
Duygudurum düzenleyicileri ezelden beri kullanılmaktadır -
10:00
caffeine, alcohol, nicotine, immune system enhancement,
176
600000
5000
Kafein, alkol, nikotin, bağışıklık sistem geliştirme,
10:05
vision enhancement, anesthetics --
177
605000
2000
vizyon geliştirme, anestetikler -
10:07
we take that very much for granted,
178
607000
2000
Biz çok doğal karşılıyoruz,
10:09
but just think about how great progress that is --
179
609000
4000
ancak sadece ne kadar büyük ilerleme olduğunu düşünün -
10:13
like, having an operation before anesthetics was not fun.
180
613000
4000
Mesela, anestetiklerden önce bir operasyon geçirme eğlenceli değildi.
10:17
Contraceptives, cosmetics and brain reprogramming techniques --
181
617000
6000
Kontraseptifler, kozmetikler ve beyin yeniden programlama teknikleri -
10:23
that sounds ominous,
182
623000
2000
uğursuz geliyordu,
10:25
but the distinction between what is a technology --
183
625000
4000
Ama bir teknoloji arasındaki ayrım nedir -.
10:29
a gadget would be the archetype --
184
629000
2000
bir gadget arketip olacak -
10:31
and other ways of changing and rewriting human nature is quite subtle.
185
631000
4000
ve insan doğasının yeniden yazılması ve değişmesinin yolları çok hassastır.
10:35
So if you think about what it means to learn arithmetic or to learn to read,
186
635000
4000
Eğer aritmetik veya okumayı öğrenmenin ne anlama geldiğini düşünüyorsanız,
10:39
you're actually, literally rewriting your own brain.
187
639000
3000
kelimenin tam anlamıyla kendi beyninizi yeniden yazıyorsunuz.
10:42
You're changing the microstructure of your brain as you go along.
188
642000
3000
Daha da ileri gidecek olursak siz beyninizin mikroyapısını değiştiriyorsunuz.
10:46
So in a broad sense, we don't need to think about technology
189
646000
3000
Yani geniş anlamda, teknoloji hakkında düşünmeye ihtiyacımız yok,
10:49
as only little gadgets, like these things here,
190
649000
2000
yanlız küçük gadgetler gibi, burada bunun gib şeyler,
10:51
but even institutions and techniques,
191
651000
4000
ancak kurumlar ve teknikler bile,
10:55
psychological methods and so forth.
192
655000
2000
psikolojik yöntemler ve daha fazlası.
10:57
Forms of organization can have a profound impact on human nature.
193
657000
5000
Örgütlenme Biçimleri insan doğası üzerinde derin bir etkiye sahip olabilir.
11:02
Looking ahead, there is a range of technologies
194
662000
2000
İleriye baktığımızda, bir dizi teknoloji var
11:04
that are almost certain to be developed sooner or later.
195
664000
3000
er ya da geç geliştirilmesi neredeyse kesindir.
11:07
We are very ignorant about what the time scale for these things are,
196
667000
4000
Biz bunların zaman ölçeğini tam olarak bilemiyoruz,
11:11
but they all are consistent with everything we know
197
671000
2000
Fakat hepsi bildiğimiz her şey ile tutarlıdır.
11:13
about physical laws, laws of chemistry, etc.
198
673000
4000
fizik kanunları, kimya kanunları, vb hakkında.
11:17
It's possible to assume,
199
677000
2000
varsaymak mümkündür.
11:19
setting aside a possibility of catastrophe,
200
679000
3000
bir felaket olasılığını bir kenarda tutarsak
11:22
that sooner or later we will develop all of these.
201
682000
3000
Er yada geç tüm bunları geliştireceğiz.
11:25
And even just a couple of these would be enough
202
685000
3000
Ve hatta sadece bunların bir çifti bile yeterli olacaktır.
11:28
to transform the human condition.
203
688000
2000
insani durumu transforme etmek.
11:30
So let's look at some of the dimensions of human nature
204
690000
5000
Öyleyse insan doğasının boyutlarının bazılarına bir bakalım.
11:35
that seem to leave room for improvement.
205
695000
3000
Gelişim için odayı terk ediyor gibi gözüküyor
11:38
Health span is a big and urgent thing,
206
698000
2000
Sağlık kapsamı büyük ve acil bir durumdur.
11:40
because if you're not alive,
207
700000
2000
Çünkü eger hayatta değilseniz,
11:42
then all the other things will be to little avail.
208
702000
3000
bundan sonra tüm diğer şeyler biraz boşuna olacaktır.
11:45
Intellectual capacity -- let's take that box,
209
705000
2000
Entellektüel kapasite - şu kutuları ele alalım;
11:47
which falls into a lot of different sub-categories:
210
707000
5000
Ki bir çok farklı alt kategoriye bölünür :
11:52
memory, concentration, mental energy, intelligence, empathy.
211
712000
3000
hafıza, konsantrasyon, zihinsel enerji, zeka, empati.
11:55
These are really great things.
212
715000
2000
Bunlar gerçekten güzel şeylerdir.
11:57
Part of the reason why we value these traits
213
717000
2000
Bu değerlere biz niçin önem veriyoruz sebebi de
11:59
is that they make us better at competing with other people --
214
719000
4000
bunların diğer insanlar ile rekabette bizi daha iyi yapmış olduğudur -
12:03
they're positional goods.
215
723000
2000
onlar pozisyonel olarak metadır.
12:05
But part of the reason --
216
725000
2000
Ama nedenin bir parçası –
12:07
and that's the reason why we have ethical ground for pursuing these --
217
727000
4000
ve bunu takip etmemizin etik zeminde nedenlerine sahibiz -
12:11
is that they're also intrinsically valuable.
218
731000
3000
onlar da özü itibari ile değerlidir.
12:14
It's just better to be able to understand more of the world around you
219
734000
4000
etrafınızdaki dünyayının fazlasını anlayabilmeniz için sadece daha iyidir.
12:18
and the people that you are communicating with,
220
738000
2000
ve sizin iletişim kurdugunuz insanları,
12:20
and to remember what you have learned.
221
740000
4000
ve öğrendiklerinizi hatırlamanız
12:24
Modalities and special faculties.
222
744000
2000
özel melekeler ve cihetler .
12:26
Now, the human mind is not a single unitary information processor,
223
746000
5000
Şimdi, insan aklı tek bir üniter basit bir bilgi işlemcisine sahip değildir,
12:31
but it has a lot of different, special, evolved modules
224
751000
4000
ama O farklı, özel, geliştirilmiş bir çok modüle sahiptir
12:35
that do specific things for us.
225
755000
2000
O bizim için özel şeyler yapar
12:37
If you think about what we normally take as giving life a lot of its meaning --
226
757000
4000
normalde hayatın anlamını bir çok şeye vererek almayı düsünürsek -
12:41
music, humor, eroticism, spirituality, aesthetics,
227
761000
4000
müzik, mizah, erotizm, maneviyat, estetik,
12:45
nurturing and caring, gossip, chatting with people --
228
765000
5000
beslenme ve bakım ve insanlarla sohbet, dedikodu -
12:50
all of these, very likely, are enabled by a special circuitry
229
770000
4000
bunların hepsi, çok büyük olasılıkla, özel bir devre ile etkinleştirilir
12:54
that we humans have,
230
774000
2000
biz insanların sahip olduğu,
12:56
but that you could have another intelligent life form that lacks these.
231
776000
3000
ancak bunların eksikliğinde başka bir akıllı yaşam formuna sahip olabilirsiniz.
12:59
We're just lucky that we have the requisite neural machinery
232
779000
3000
nöral makinelere sahip oldugumuz için henüz şanslıyız.
13:02
to process music and to appreciate it and enjoy it.
233
782000
4000
müzik yapmak ve onunla eğleniyoruz ve onun değerini anlıyoruz.
13:06
All of these would enable, in principle -- be amenable to enhancement.
234
786000
3000
Bunların hepsi ilke olarak, - gelişmenin mükellef olmasını- sağlayacak
13:09
Some people have a better musical ability
235
789000
2000
Bazı insanların müzikal yeteneği daha fazladır
13:11
and ability to appreciate music than others have.
236
791000
2000
diğerlerinin sahip olduğundan fazla müziğin kıymetini bilme yetenekleri vardır.
13:13
It's also interesting to think about what other things are --
237
793000
3000
Aslında diğer şeylerin ne olduğu hakkında düşünmek ilginç olmalı-
13:16
so if these all enabled great values,
238
796000
3000
Öyleyse bunların hepsi önemli değerleri seçili kılar,
13:20
why should we think that evolution has happened to provide us
239
800000
3000
evrimde ne olduğunu düşünmemiz bize neyi sağlıyacak.
13:23
with all the modalities we would need to engage
240
803000
3000
yöntemlerin hepsi ile angaje olmamız gerekecek
13:26
with other values that there might be?
241
806000
2000
diğer değerlerle bu olabillir rmi?
13:28
Imagine a species
242
808000
2000
bir tür hayal edin.
13:30
that just didn't have this neural machinery for processing music.
243
810000
4000
Sadece müzik işlemek için bu nöral makineye sahip olmadık
13:34
And they would just stare at us with bafflement
244
814000
3000
Ve onlar sadece şaşkınlıkla ile bize bakakalacaklardır
13:37
when we spend time listening to a beautiful performance,
245
817000
4000
güzel bir performansı dinleme için zaman geçirdiğimizde
13:41
like the one we just heard -- because of people making stupid movements,
246
821000
2000
Ve bizim sadece duyduğumuz bir şey gibi, aptal hareketleri yapan insanlar nedeniyle,
13:43
and they would be really irritated and wouldn't see what we were up to.
247
823000
3000
ve gerçekten rahatsız olacaklar ve biz neyin peşinde idik onu göremiyecekler.
13:46
But maybe they have another faculty, something else
248
826000
3000
Fakat onlar diğer bir melekeye sahip olabilir mi, başka bir şey
13:49
that would seem equally irrational to us,
249
829000
3000
bize eşit derecede mantıksız gözükecek olsada,
13:52
but they actually tap into some great possible value there.
250
832000
3000
ama onlar aslında orada bazı olası büyük değer içine dokunur.
13:55
But we are just literally deaf to that kind of value.
251
835000
4000
Fakat biz bu tür değerlere tam olarak sağırız.
13:59
So we could think of adding on different,
252
839000
2000
Bu yüzden, farklı eklemeler üzerine düşünebiliriz.
14:01
new sensory capacities and mental faculties.
253
841000
4000
yeni duyusal kapasiteler ve zihinsel yetenekler.
14:05
Bodily functionality and morphology and affective self-control.
254
845000
5000
Bedensel işlevsellik ve morfolojisi ve kendini kontrol duygusu.
14:10
Greater subjective well-being.
255
850000
2000
Daha fazla öznel iyi olma hali.
14:12
Be able to switch between relaxation and activity --
256
852000
3000
Dinlenme ve aktivite arasında geçiş yapabilmek-
14:15
being able to go slow when you need to do that, and to speed up.
257
855000
4000
gerektiğinde yavaş gitmek ve gerektiğinde hızlanabilmek. -
14:19
Able to switch back and forth more easily
258
859000
2000
ileri ve geri geçiş yapabilmek daha kolay
14:21
would be a neat thing to be able to do --
259
861000
2000
yapabilmek düzgün bir şey olacak-
14:23
easier to achieve the flow state,
260
863000
2000
akış durumuna ulaşmak daha kolay
14:25
when you're totally immersed in something you are doing.
261
865000
4000
Sen tamamen bir şeye dalmış konumda iken yapıyorsan.
14:29
Conscientiousness and sympathy.
262
869000
2000
Vicdanlı ve sempati.
14:31
The ability to -- it's another interesting application
263
871000
3000
diğer bir ilginç uygulama - Yeteneği -
14:34
that would have large social ramification, perhaps.
264
874000
3000
belki de, geniş sosyal dallanmayı sağlıyacak
14:37
If you could actually choose to preserve your romantic attachments to one person,
265
877000
6000
Aslında bir kişi için romantik ekleri korumak için seçilmiş olsaydınız,
14:43
undiminished through time,
266
883000
2000
zaman içinde azalmamış,
14:45
so that wouldn't have to -- love would never have to fade if you didn't want it to.
267
885000
3000
böylece gerek kalmazdı – Aşk istemediğin sürece asla solmayak.
14:50
That's probably not all that difficult.
268
890000
3000
Muhtemelen bu zor değil.
14:53
It might just be a simple hormone or something that could do this.
269
893000
3000
Bu sadece yapabileceğini bir şey veya basit bir hormon olabilir.
14:58
It's been done in voles.
270
898000
2000
Bu tarla farelerinde yapıldı.
15:02
You can engineer a prairie vole to become monogamous
271
902000
3000
monogami olmak için tekeşli genini inşa edebilirsin.
15:05
when it's naturally polygamous.
272
905000
2000
doğal olarak çok eşli olduğun zaman
15:07
It's just a single gene.
273
907000
2000
Sadece tek bir gen var.
15:09
Might be more complicated in humans, but perhaps not that much.
274
909000
2000
Insanlarda daha karmaşık olabilir, ama belki de o kadar fazla değil.
15:11
This is the last picture that I want to --
275
911000
2000
Bu benim istediğim son resimdir.
15:14
now we've got to use the laser pointer.
276
914000
2000
Şimdi lazer pointer kullandığımız -
15:17
A possible mode of being here would be a way of life --
277
917000
3000
Burada olmanın olası bir modu yaşam biçimi olacaktır.
15:20
a way of being, experiencing, thinking, seeing,
278
920000
4000
görme, düşünme, deneyim yaşama, varoluşun bir yolu
15:24
interacting with the world.
279
924000
2000
Dünya ile etkileşim,
15:26
Down here in this little corner, here, we have the little sub-space
280
926000
5000
Aşağıda burada bu küçük köşede, küçük alt-alana sahibiz.
15:31
of this larger space that is accessible to human beings --
281
931000
4000
insan olmaya erişmenin bu geniş alanına
15:35
beings with our biological capacities.
282
935000
3000
biyolojik kapasitelerimiz ile varız.
15:38
It's a part of the space that's accessible to animals;
283
938000
3000
Bu alan hayvanların erişebileceği bir bölümdür;
15:41
since we are animals, we are a subset of that.
284
941000
3000
Madem hayvanız, biz onun bir alt kümesiyiz.
15:44
And then you can imagine some enhancements of human capacities.
285
944000
4000
Ve sonra insan yeteneklerinde bazı gelişmeler hayal edebilirsiniz.
15:48
There would be different modes of being you could experience
286
948000
3000
Varoluşun modlarını deneyimliyebilmisseniz farklı olacaktı.
15:51
if you were able to stay alive for, say, 200 years.
287
951000
3000
Eğer diyelim ki 200 yıl yaşayabilmiş olsaydınız.
15:54
Then you could live sorts of lives and accumulate wisdoms
288
954000
4000
daha sonra hayatınızın bir kısmını yaşayabilir ve bilgeliklerini biriktirebilirdiniz
15:58
that are just not possible for humans as we currently are.
289
958000
3000
Bu şu anda olduğu gibi insanlar için mümkün değildir.
16:01
So then, you move off to this larger sphere of "human +,"
290
961000
4000
Peki o zaman, "insan +" bu daha büyük alana sizi taşıyacak
16:05
and you could continue that process and eventually
291
965000
3000
ve bu süreç sonunda devam edebilir
16:08
explore a lot of this larger space of possible modes of being.
292
968000
4000
varolmanın olası modlarının daha büyük alanlarının çoğunu keşfedersiniz.
16:12
Now, why is that a good thing to do?
293
972000
2000
Şimdi, neden iyi bir şey yaparız?.
16:14
Well, we know already that in this little human circle there,
294
974000
4000
Peki, burada bu küçük insan siklusunu zaten biliyoruz.
16:18
there are these enormously wonderful and worthwhile modes of being --
295
978000
4000
Varolmanın bu derece muhteşem ve değerli modları vardır-
16:22
human life at its best is wonderful.
296
982000
3000
Onun en iyiside insan hayatı harikadır -,
16:25
We have no reason to believe that within this much, much larger space
297
985000
5000
Bu çok, çok daha büyük bir alan içinde ona inanmak için hiçbir neden yok
16:30
there would not also be extremely worthwhile modes of being,
298
990000
4000
Aynı zamanda varlığın aşırı değerli modları olmayacak.
16:34
perhaps ones that would be way beyond our wildest ability
299
994000
6000
belki de birileri bizim çılgın yeteneğimizin ötesinde bir yol bulacaktır
16:40
even to imagine or dream about.
300
1000000
2000
Hatta bu konuda tasarla ve hayal et.
16:42
And so, to fix this third problem,
301
1002000
2000
Ve böylece, bu üçüncü soruna fikse ol,
16:44
I think we need -- slowly, carefully, with ethical wisdom and constraint --
302
1004000
6000
ihtiyacımızı düşünüyorum - yavaş, dikkatli, etik bilgelik ve baskı ile -
16:50
develop the means that enable us to go out in this larger space and explore it
303
1010000
5000
bu büyük alanda dışarı gitmemizi ve onu keşfetmemizi sağlayabilecek araçlar geliştirmek
16:55
and find the great values that might hide there.
304
1015000
2000
ve büyük değerleri bulmak ve orada gizlemek olabilir.
16:57
Thanks.
305
1017000
2000
Teşekkürler.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7