Can we build AI without losing control over it? | Sam Harris

3,794,879 views ・ 2016-10-19

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: pinar sadi Gözden geçirme: Yunus ASIK
00:13
I'm going to talk about a failure of intuition
0
13000
2216
Birçoğumuzun muzdarip olduğu
00:15
that many of us suffer from.
1
15240
1600
bir önsezi yetersizliğinden bahsedeceğim.
00:17
It's really a failure to detect a certain kind of danger.
2
17480
3040
Belirli tür bir tehlikeyi sezmek gerçekten bir yetersizliktir.
00:21
I'm going to describe a scenario
3
21360
1736
Bir senaryo anlatacağım,
00:23
that I think is both terrifying
4
23120
3256
korkunç olduğunu düşündüğüm
00:26
and likely to occur,
5
26400
1760
ve gerçekleşmesi muhtemel olan
00:28
and that's not a good combination,
6
28840
1656
ve görünen o ki
00:30
as it turns out.
7
30520
1536
iyi bir kombinasyon da değil.
00:32
And yet rather than be scared, most of you will feel
8
32080
2456
Yine de korkmak yerine çoğunuz, bahsettiklerimin
00:34
that what I'm talking about is kind of cool.
9
34560
2080
havalı olduğunu düşüneceksiniz.
00:37
I'm going to describe how the gains we make
10
37200
2976
Yapay zekâdaki kazanımlarımızın
00:40
in artificial intelligence
11
40200
1776
nihayetinde bizi nasıl
00:42
could ultimately destroy us.
12
42000
1776
mahvedeceğinden bahsedeceğim.
00:43
And in fact, I think it's very difficult to see how they won't destroy us
13
43800
3456
Hatta bence, bizi mahvetmeyeceğini veya kendimizi mahvetmeyi bize
00:47
or inspire us to destroy ourselves.
14
47280
1680
aşılamayacağını düşünmek çok güç.
00:49
And yet if you're anything like me,
15
49400
1856
Fakat sizler de benim gibiyseniz,
00:51
you'll find that it's fun to think about these things.
16
51280
2656
bunları düşünmenin zevkli olacağını keşfedeceksiniz.
00:53
And that response is part of the problem.
17
53960
3376
Ve bu yanıtta sorunun bir parçası.
00:57
OK? That response should worry you.
18
57360
1720
Bu yanıt sizi endişelendirmeli.
00:59
And if I were to convince you in this talk
19
59920
2656
Bu konuşmada sizi, olası bir küresel bir kıtlığa,
01:02
that we were likely to suffer a global famine,
20
62600
3416
iklim değişikliği veya başka bir afetten dolayı,
01:06
either because of climate change or some other catastrophe,
21
66040
3056
torunlarınız veya onların torunlarının muhtemelen
01:09
and that your grandchildren, or their grandchildren,
22
69120
3416
bu şekilde yaşama durumuna
01:12
are very likely to live like this,
23
72560
1800
yakın olduğuna ikna ediyor olsaydım,
01:15
you wouldn't think,
24
75200
1200
"İlginç.
01:17
"Interesting.
25
77440
1336
Bu TED konuşmasını beğendim."
01:18
I like this TED Talk."
26
78800
1200
diye düşünmezdiniz.
01:21
Famine isn't fun.
27
81200
1520
Kıtlık eğlenceli değildir.
01:23
Death by science fiction, on the other hand, is fun,
28
83800
3376
Diğer taraftan bilim kurgudaki ölüm ise eğlencelidir
ve bu noktada beni yapay zekâdaki
01:27
and one of the things that worries me most about the development of AI at this point
29
87200
3976
en çok endişelendiren gelişmelerden biri,
01:31
is that we seem unable to marshal an appropriate emotional response
30
91200
4096
önümüzde uzanan tehlikelere, uygun duyarlı bir yanıtı
01:35
to the dangers that lie ahead.
31
95320
1816
sıralayamıyor gibi görünüyoruz.
01:37
I am unable to marshal this response, and I'm giving this talk.
32
97160
3200
Bu yanıtı sıralayamıyorum ve bu konuşmayı yapıyorum.
01:42
It's as though we stand before two doors.
33
102120
2696
İki kapının önünde duruyoruz gibi.
01:44
Behind door number one,
34
104840
1256
1 numaralı kapının ardında
01:46
we stop making progress in building intelligent machines.
35
106120
3296
zeki makine üretmedeki gelişmeleri durduruyoruz.
01:49
Our computer hardware and software just stops getting better for some reason.
36
109440
4016
Her nedense bilgisayarlarımızın donanım
ve yazılımı daha iyi olmayı durduruyor.
01:53
Now take a moment to consider why this might happen.
37
113480
3000
Şimdi bir dakikanızı ayırın ve bunun
neden olabileceğini değerlendirin.
01:57
I mean, given how valuable intelligence and automation are,
38
117080
3656
Yani, zekâ ve otomasyonun ne kadar
değerli olduğu göz önüne alındığında,
02:00
we will continue to improve our technology if we are at all able to.
39
120760
3520
yapabilirsek, teknolojimizi geliştirmeye devam edeceğiz.
02:05
What could stop us from doing this?
40
125200
1667
Bunu yapmamızı ne engelleyebilir?
02:07
A full-scale nuclear war?
41
127800
1800
Büyük çaplı bir nükleer savaş mı?
02:11
A global pandemic?
42
131000
1560
Küresel bir salgın mı?
02:14
An asteroid impact?
43
134320
1320
Asteroit çarpması mı?
02:17
Justin Bieber becoming president of the United States?
44
137640
2576
Justin Bieber'in Amerika Başkanı olması mı?
02:20
(Laughter)
45
140240
2280
(Kahkahalar)
02:24
The point is, something would have to destroy civilization as we know it.
46
144760
3920
Mesele şu ki, bildiğimiz üzere
bir şeyler medeniyeti yok etmeli.
02:29
You have to imagine how bad it would have to be
47
149360
4296
Ne kadar kötü olabileceğini hayal etmelisiniz,
02:33
to prevent us from making improvements in our technology
48
153680
3336
teknolojimizde iyileştirme yapmamızı engellemenin,
02:37
permanently,
49
157040
1216
daimi olarak,
02:38
generation after generation.
50
158280
2016
nesilden nesile.
02:40
Almost by definition, this is the worst thing
51
160320
2136
Neredeyse, doğası gereği
02:42
that's ever happened in human history.
52
162480
2016
bu, insan tarihinde gerçekleşen en kötü şey.
02:44
So the only alternative,
53
164520
1296
Bu yüzden tek alternatif,
02:45
and this is what lies behind door number two,
54
165840
2336
ikinci kapının ardındaki,
02:48
is that we continue to improve our intelligent machines
55
168200
3136
akıllı makinelerimizi yıllar geçtikçe
02:51
year after year after year.
56
171360
1600
geliştirmeye devam etmemiz.
02:53
At a certain point, we will build machines that are smarter than we are,
57
173720
3640
Bir noktada da bizden daha akıllı makineler inşa edeceğiz
02:58
and once we have machines that are smarter than we are,
58
178080
2616
ve bizden akıllı makinelerimiz olduğunda onlar,
03:00
they will begin to improve themselves.
59
180720
1976
kendilerini geliştirmeye başlayacaklar.
03:02
And then we risk what the mathematician IJ Good called
60
182720
2736
Ve sonra, matematikçi IJ Good'un "zekâ patlaması" olarak
03:05
an "intelligence explosion,"
61
185480
1776
adlandırdığı bu süreçle,
03:07
that the process could get away from us.
62
187280
2000
bizden kurtulabilecekler.
03:10
Now, this is often caricatured, as I have here,
63
190120
2816
Sıklıkla karikatürize edilir, benim de burada yaptığım gibi,
03:12
as a fear that armies of malicious robots
64
192960
3216
korku kötücül robot ordularının
03:16
will attack us.
65
196200
1256
bize saldırmaları.
03:17
But that isn't the most likely scenario.
66
197480
2696
Ama bu çok da olası bir senaryo değil.
03:20
It's not that our machines will become spontaneously malevolent.
67
200200
4856
Kendiliğinden makinelerimiz kötücül olacak değil.
03:25
The concern is really that we will build machines
68
205080
2616
Asıl kaygılandıran ise; bizden o kadar çok daha yetkin
03:27
that are so much more competent than we are
69
207720
2056
makineler üreteceğiz ki bizim ve onların
03:29
that the slightest divergence between their goals and our own
70
209800
3776
amaçları arasındaki en küçük bir fark, bizi
03:33
could destroy us.
71
213600
1200
ortadan kaldırabilecek.
03:35
Just think about how we relate to ants.
72
215960
2080
Nasıl da karıncalar gibi olacağımızı bir düşünün.
03:38
We don't hate them.
73
218600
1656
Onlardan nefret etmiyoruz.
03:40
We don't go out of our way to harm them.
74
220280
2056
Onlara zarar vermek için yolumuzu değiştirmiyoruz.
03:42
In fact, sometimes we take pains not to harm them.
75
222360
2376
Üstelik bazen onlara zarar vermemeye çalışıyoruz.
03:44
We step over them on the sidewalk.
76
224760
2016
Kaldırımlarda üzerlerinden geçiyoruz.
03:46
But whenever their presence
77
226800
2136
Ancak ne zaman onların varlıkları
03:48
seriously conflicts with one of our goals,
78
228960
2496
bizim hedeflerimizle çakışsa,
03:51
let's say when constructing a building like this one,
79
231480
2477
diyelim ki bu gibi bir bina inşa ederken,
03:53
we annihilate them without a qualm.
80
233981
1960
tereddütsüz imha edebiliyoruz onları.
03:56
The concern is that we will one day build machines
81
236480
2936
Endişe uyandıran ise bir gün, bilinçli olsun veya olmasın
03:59
that, whether they're conscious or not,
82
239440
2736
bize de benzer bir umursamazlıkla muamele edebilecek
04:02
could treat us with similar disregard.
83
242200
2000
makineler üreteceğiz.
04:05
Now, I suspect this seems far-fetched to many of you.
84
245760
2760
Zannederim ki bir çoğunuza ihtimal dışı görünüyor bu durum.
04:09
I bet there are those of you who doubt that superintelligent AI is possible,
85
249360
6336
Eminim ki bazılarınız süper zeki
Yapay Zekâ'nın kaçınılmaz olması şöyle dursun,
04:15
much less inevitable.
86
255720
1656
mümkünlüğünden dahi şüphe duyuyor.
04:17
But then you must find something wrong with one of the following assumptions.
87
257400
3620
Ancak sonra ileriki varsayımlardan
bazılarında bir tuhaflık bulmalısınız.
04:21
And there are only three of them.
88
261044
1572
Ve sadece üç tanesi var.
04:23
Intelligence is a matter of information processing in physical systems.
89
263800
4719
Zekâ, fiziksel sistemlerde bilgi işleme ile ilgilidir.
04:29
Actually, this is a little bit more than an assumption.
90
269320
2615
Aslında bu bir varsayımdan biraz fazla.
04:31
We have already built narrow intelligence into our machines,
91
271959
3457
Zaten makinelerimizde kısıtlı zekâyı kurduk ve
04:35
and many of these machines perform
92
275440
2016
bu makinelerin çoğu çoktan
04:37
at a level of superhuman intelligence already.
93
277480
2640
üstün insan seviyesinde bir performansta.
04:40
And we know that mere matter
94
280840
2576
Ve biliyoruz ki bu mutlak mesele,
04:43
can give rise to what is called "general intelligence,"
95
283440
2616
"genel zekâ" denilen birçok alanda esneklikle
04:46
an ability to think flexibly across multiple domains,
96
286080
3656
düşünebilme yeteneğine sebep olabilir,
04:49
because our brains have managed it. Right?
97
289760
3136
çünkü beyinlerimiz bunu başardı değil mi?
04:52
I mean, there's just atoms in here,
98
292920
3936
Yani sadece atomlar var burada
04:56
and as long as we continue to build systems of atoms
99
296880
4496
ve biz gitgide daha zeki davranışlar sergileyen atomlar
05:01
that display more and more intelligent behavior,
100
301400
2696
sistemi kurmaya devam ettikçe,
05:04
we will eventually, unless we are interrupted,
101
304120
2536
nihayetinde makinelerimize
05:06
we will eventually build general intelligence
102
306680
3376
genel zekâyı kurabileceğiz,
05:10
into our machines.
103
310080
1296
engellenmedikçe.
05:11
It's crucial to realize that the rate of progress doesn't matter,
104
311400
3656
İlerlemenin seviyesinin önemli olmadığının farkına varmak çok mühim,
05:15
because any progress is enough to get us into the end zone.
105
315080
3176
çünkü herhangi bir gelişme bizi sayı çizgisine getirmeye yetebilir.
05:18
We don't need Moore's law to continue. We don't need exponential progress.
106
318280
3776
Devam etmek için Moore kanununa gerek yok.
Üstel bir gelişime ihtiyacımız yok.
05:22
We just need to keep going.
107
322080
1600
Sadece devam etmeliyiz.
05:25
The second assumption is that we will keep going.
108
325480
2920
İkinci varsayım ise devam etmemiz.
05:29
We will continue to improve our intelligent machines.
109
329000
2760
Akıllı makinelerimizi geliştirmeye devam edeceğiz.
05:33
And given the value of intelligence --
110
333000
4376
Ve zekânın değeri göz önüne alınırsa,
05:37
I mean, intelligence is either the source of everything we value
111
337400
3536
yani zekâ ya bütün değer verdiklerimizin kaynağıdır ya da
05:40
or we need it to safeguard everything we value.
112
340960
2776
değer verdiğimiz her şeyi
korumak için ona ihtiyacımız vardır.
05:43
It is our most valuable resource.
113
343760
2256
Bizim en değerli kaynağımızdır.
05:46
So we want to do this.
114
346040
1536
O yüzden bunu yapmak isteriz.
05:47
We have problems that we desperately need to solve.
115
347600
3336
Umutsuzca çözmek istediğimiz problemlerimiz vardır.
05:50
We want to cure diseases like Alzheimer's and cancer.
116
350960
3200
Alzheimer ve kanser gibi hastalıkları tedavi etmek isteriz.
05:54
We want to understand economic systems. We want to improve our climate science.
117
354960
3936
Ekonomi sistemlerini anlamak isteriz.
İklim bilimini ilerletmek isteriz.
05:58
So we will do this, if we can.
118
358920
2256
Yani yapabilirsek bunu yapacağız.
06:01
The train is already out of the station, and there's no brake to pull.
119
361200
3286
Tren çoktan istasyondan çıktı ve basılabilecek bir fren yok.
06:05
Finally, we don't stand on a peak of intelligence,
120
365880
5456
Velhasıl, zekânın zirvesinde duramayız
06:11
or anywhere near it, likely.
121
371360
1800
ya da yakınında herhangi bir yerde.
06:13
And this really is the crucial insight.
122
373640
1896
Ve bu gerçekten mühim bir öngörüdür.
06:15
This is what makes our situation so precarious,
123
375560
2416
Durumumuzu istikrarsız yapan ve
06:18
and this is what makes our intuitions about risk so unreliable.
124
378000
4040
risk hakkındaki sezgilerimizi güvenilmez kılan bu durum.
06:23
Now, just consider the smartest person who has ever lived.
125
383120
2720
Şimdi yaşamış en zeki insanı düşünün.
06:26
On almost everyone's shortlist here is John von Neumann.
126
386640
3416
Buradaki hemen hemen herkesin son listesinde John von Neumann vardır.
06:30
I mean, the impression that von Neumann made on the people around him,
127
390080
3336
Yani, John von Neumann' nın çevresindeki insanlardaki etkisi,
06:33
and this included the greatest mathematicians and physicists of his time,
128
393440
4056
zamanının en iyi matematikçileri ve fizikçileri de dâhil olmak üzere,
06:37
is fairly well-documented.
129
397520
1936
oldukça detaylı olarak hazırlanmış.
06:39
If only half the stories about him are half true,
130
399480
3776
Hakkında anlatılanların yarısı yarı gerçek ise
06:43
there's no question
131
403280
1216
şimdiye dek yaşamış
06:44
he's one of the smartest people who has ever lived.
132
404520
2456
en zeki insan olduğuna şüphe yok.
06:47
So consider the spectrum of intelligence.
133
407000
2520
Öyleyse zekâ spektrumunu bir düşünün.
06:50
Here we have John von Neumann.
134
410320
1429
Bir tarafta John von Neumann
06:53
And then we have you and me.
135
413560
1334
ve diğer tarafta siz ve ben.
06:56
And then we have a chicken.
136
416120
1296
Ve bir de tavuk.
06:57
(Laughter)
137
417440
1936
(Gülüşmeler)
06:59
Sorry, a chicken.
138
419400
1216
Pardon, bir tavuk.
07:00
(Laughter)
139
420640
1256
(Gülüşmeler)
07:01
There's no reason for me to make this talk more depressing than it needs to be.
140
421920
3736
Bu konuşmayı gereğinden daha depresif yapmama gerek yok.
07:05
(Laughter)
141
425680
1600
(Gülüşmeler)
07:08
It seems overwhelmingly likely, however, that the spectrum of intelligence
142
428339
3477
Ezici bir üstünlükle olası görünüyor ancak zekâ spektrumu
07:11
extends much further than we currently conceive,
143
431840
3120
şu anda tasarlayabileceğimizden daha da ileriye uzanıyor
07:15
and if we build machines that are more intelligent than we are,
144
435880
3216
ve kendimizden daha zeki makineler üretirsek
07:19
they will very likely explore this spectrum
145
439120
2296
büyük ihtimalle bu spektrumu hayal edemeyeceğimiz
07:21
in ways that we can't imagine,
146
441440
1856
ölçüde keşfedecekler
07:23
and exceed us in ways that we can't imagine.
147
443320
2520
ve o ölçüde bizi aşacaklar.
07:27
And it's important to recognize that this is true by virtue of speed alone.
148
447000
4336
Ve hızın fazileti gereği bunun doğru olduğunu anlamak önemli.
07:31
Right? So imagine if we just built a superintelligent AI
149
451360
5056
Değil mi? Stanford veya MIT'deki ortalama araştırmacı takımınızdan
07:36
that was no smarter than your average team of researchers
150
456440
3456
daha zeki olmayan süper zeki Yapay Zekâ
07:39
at Stanford or MIT.
151
459920
2296
geliştirdiğimizi düşünün.
07:42
Well, electronic circuits function about a million times faster
152
462240
2976
Elektronik devreler, biyokimyasallardan milyon kez
07:45
than biochemical ones,
153
465240
1256
daha hızlı çalışır, yani
07:46
so this machine should think about a million times faster
154
466520
3136
bu makine onu yapan beyinlerden milyon kez daha
07:49
than the minds that built it.
155
469680
1816
hızlı çalışmalıdır.
07:51
So you set it running for a week,
156
471520
1656
Bir haftalığına çalışmaya ayarlasanız
07:53
and it will perform 20,000 years of human-level intellectual work,
157
473200
4560
ve insan seviyesinde 20.000 yıl sürecek zihinsel
07:58
week after week after week.
158
478400
1960
işleri yapacak, haftalarca.
08:01
How could we even understand, much less constrain,
159
481640
3096
Engellemek şöyle dursun, bu tarz bir zihinsel
08:04
a mind making this sort of progress?
160
484760
2280
ilerlemeyi nasıl durdurabiliriz ki?
08:08
The other thing that's worrying, frankly,
161
488840
2136
Endişe uyandıran diğer bir şey ise,
08:11
is that, imagine the best case scenario.
162
491000
4976
açıkcası, olabilecek en iyi senaryoyu düşünün.
08:16
So imagine we hit upon a design of superintelligent AI
163
496000
4176
Hiçbir kaygı barındırmayan bir süper zeki Yapay Zekâ
08:20
that has no safety concerns.
164
500200
1376
tasarımı keşfettiğimizi düşünün.
08:21
We have the perfect design the first time around.
165
501600
3256
İlk seferde en iyi tasarımı bulduk.
08:24
It's as though we've been handed an oracle
166
504880
2216
Tam da istenilen şekilde davranan bir
08:27
that behaves exactly as intended.
167
507120
2016
kâhin bize verilmiş gibi.
08:29
Well, this machine would be the perfect labor-saving device.
168
509160
3720
Bu makine müthiş bir işten tasarruf ettiren bir aygıt olurdu.
08:33
It can design the machine that can build the machine
169
513680
2429
Güneş ışığıyla çalışan, herhangi bir fiziksel işi yapabilen,
08:36
that can do any physical work,
170
516133
1763
aşağı yukarı ham maddeleri
08:37
powered by sunlight,
171
517920
1456
maliyetinde olan makineyi
08:39
more or less for the cost of raw materials.
172
519400
2696
yapabilecek makineyi tasarlayabilir.
08:42
So we're talking about the end of human drudgery.
173
522120
3256
Yani insanların yaptığı angarya işlerin sonundan bahsediyoruz.
08:45
We're also talking about the end of most intellectual work.
174
525400
2800
Aynı zamanda çoğu zihinsel işlerin de sonundan bahsediyoruz.
08:49
So what would apes like ourselves do in this circumstance?
175
529200
3056
Böyle bir durumda biz maymunlar ne yapardık?
08:52
Well, we'd be free to play Frisbee and give each other massages.
176
532280
4080
Birbirimize masaj yapabilir ve frizbi oynayabiliriz.
08:57
Add some LSD and some questionable wardrobe choices,
177
537840
2856
Biraz LSD ve tartışmaya açık giysi seçimlerini de ekleyin
09:00
and the whole world could be like Burning Man.
178
540720
2176
ve bütün dünya Burning Man (festival) gibi olabilir.
09:02
(Laughter)
179
542920
1640
(Gülüşmeler)
09:06
Now, that might sound pretty good,
180
546320
2000
Şimdi kulağa hoş gelebilir ama
09:09
but ask yourself what would happen
181
549280
2376
kendinize şu anki ekonomik ve siyasi düzenimizde
09:11
under our current economic and political order?
182
551680
2736
ne olabileceğini sorun.
09:14
It seems likely that we would witness
183
554440
2416
Daha önce görmediğimiz düzeyde
09:16
a level of wealth inequality and unemployment
184
556880
4136
eşitsiz bir zenginlik ve işsizliğe
09:21
that we have never seen before.
185
561040
1496
tanık olurduk gibi görünüyor.
09:22
Absent a willingness to immediately put this new wealth
186
562560
2616
Bu yeni zenginliği derhal tüm insanlığın hizmetine
09:25
to the service of all humanity,
187
565200
1480
sunmadaki isteksizlikle,
09:27
a few trillionaires could grace the covers of our business magazines
188
567640
3616
dünyanın geri kalanı açlıktan ölürken birkaç trilyoner
09:31
while the rest of the world would be free to starve.
189
571280
2440
ekonomi dergilerimizin kapaklarını süslüyor olabilir.
09:34
And what would the Russians or the Chinese do
190
574320
2296
Peki ya Ruslar ya da Çinliler, Silikon Vadisi'ndeki
09:36
if they heard that some company in Silicon Valley
191
576640
2616
bazı şirketlerin üstün zeki Yapay Zekâ'yı dağıtmak
09:39
was about to deploy a superintelligent AI?
192
579280
2736
üzere olduğunu duysa ne yaparlardı?
09:42
This machine would be capable of waging war,
193
582040
2856
Karasal ya da siber, bu makine
09:44
whether terrestrial or cyber,
194
584920
2216
tahmin edilemez bir güçle savaş
09:47
with unprecedented power.
195
587160
1680
çıkarabilecek potansiyelde olurdu.
09:50
This is a winner-take-all scenario.
196
590120
1856
Bu kazananın her şeyi aldığı bir senaryo.
09:52
To be six months ahead of the competition here
197
592000
3136
Buradaki rekabetten 6 ay ilerde olmak
09:55
is to be 500,000 years ahead,
198
595160
2776
minimum 500.000 yıl
09:57
at a minimum.
199
597960
1496
ileride olmaktır.
09:59
So it seems that even mere rumors of this kind of breakthrough
200
599480
4736
Demek ki bu tür bir atılımın sadece söylentisi bile
10:04
could cause our species to go berserk.
201
604240
2376
türümüzün çıldırmasına yol açabiliyor.
10:06
Now, one of the most frightening things,
202
606640
2896
Şimdi en korkutucu şeylerden bir tanesi
10:09
in my view, at this moment,
203
609560
2776
bana göre, şu anda,
10:12
are the kinds of things that AI researchers say
204
612360
4296
Yapay Zekâ araştırmacılarının güven verici olmak istediklerinde
10:16
when they want to be reassuring.
205
616680
1560
söyledikleri şeyler.
Ve en sık bize endişe etmememiz
10:19
And the most common reason we're told not to worry is time.
206
619000
3456
için söylenen neden ise zaman.
10:22
This is all a long way off, don't you know.
207
622480
2056
Çok çok uzakta, haberin yok mu?
10:24
This is probably 50 or 100 years away.
208
624560
2440
Muhtemelen 50 ya da 100 yıl kadar uzakta.
10:27
One researcher has said,
209
627720
1256
Bir araştırmacı dedi ki;
"Yapay Zekâ güvenliği için endişelenmek
10:29
"Worrying about AI safety
210
629000
1576
10:30
is like worrying about overpopulation on Mars."
211
630600
2280
Mars'ta aşırı nüfus artışına endişelenmek gibi."
10:34
This is the Silicon Valley version
212
634116
1620
Bu Silikon Vadisi'nin
10:35
of "don't worry your pretty little head about it."
213
635760
2376
"Sıkmayın tatlı canınızı" versiyonu.
10:38
(Laughter)
214
638160
1336
(Gülüşmeler)
10:39
No one seems to notice
215
639520
1896
Zamana referanslamanın
10:41
that referencing the time horizon
216
641440
2616
tamamen yersiz bir deyim
10:44
is a total non sequitur.
217
644080
2576
olduğunu kimse fark etmiyor.
10:46
If intelligence is just a matter of information processing,
218
646680
3256
Zekâ eğer bilgi işlemeden ibaretse
10:49
and we continue to improve our machines,
219
649960
2656
ve biz makinelerimizi geliştirmeye devam edersek
10:52
we will produce some form of superintelligence.
220
652640
2880
bir tür süper zekâ üreteceğiz.
10:56
And we have no idea how long it will take us
221
656320
3656
Ve güvenli bir biçimde yapmak için gerekli şartları yaratmanın
11:00
to create the conditions to do that safely.
222
660000
2400
ne kadar süreceği hakkında hiçbir fikrimiz yok.
11:04
Let me say that again.
223
664200
1296
Bir daha söyleyeyim.
11:05
We have no idea how long it will take us
224
665520
3816
Güvenli bir biçimde yapmak için gerekli şartları yaratmanın
11:09
to create the conditions to do that safely.
225
669360
2240
ne kadar süreceği hakkında hiçbir fikrimiz yok.
11:12
And if you haven't noticed, 50 years is not what it used to be.
226
672920
3456
Ve eğer fark etmediyseniz, 50 yıl eskisi gibi değil artık.
11:16
This is 50 years in months.
227
676400
2456
Bu ay olarak 50 yıl.
11:18
This is how long we've had the iPhone.
228
678880
1840
Bu kadar zamandır iPhone var.
11:21
This is how long "The Simpsons" has been on television.
229
681440
2600
Bu kadar zamandır "The Simpsons" (Simpsonlar) televizyonda.
11:24
Fifty years is not that much time
230
684680
2376
50 yıl, türümüzün karşılaşabileceği
11:27
to meet one of the greatest challenges our species will ever face.
231
687080
3160
en büyük zorluklar için fazla bir zaman değil.
11:31
Once again, we seem to be failing to have an appropriate emotional response
232
691640
4016
Bir defa daha uygun duygusal karşılık vermede başarısız gibiyiz,
11:35
to what we have every reason to believe is coming.
233
695680
2696
yaklaştığına inanmamız için tüm gerekçelere sahipken.
11:38
The computer scientist Stuart Russell has a nice analogy here.
234
698400
3976
Bilgisayar bilimcisi Stuart Russell'ın güzel bir benzetimi var.
11:42
He said, imagine that we received a message from an alien civilization,
235
702400
4896
Diyor ki; uzaylı bir medeniyetten bir mektup aldığımızı düşünün,
11:47
which read:
236
707320
1696
şöyle diyor:
11:49
"People of Earth,
237
709040
1536
"Dünya Halkı,
11:50
we will arrive on your planet in 50 years.
238
710600
2360
50 yıl içinde gezegeninize ulaşacağız.
11:53
Get ready."
239
713800
1576
Hazırlanın."
11:55
And now we're just counting down the months until the mothership lands?
240
715400
4256
Ve şimdi, ana gemi varana kadar ay ay geri mi sayacağız?
11:59
We would feel a little more urgency than we do.
241
719680
3000
Normalden biraz daha fazla aciliyet hissederdik.
12:04
Another reason we're told not to worry
242
724680
1856
Endişelenmememiz söylenen
12:06
is that these machines can't help but share our values
243
726560
3016
bir diğer gerekçe ise
bu makinelerin istemeden bizim değerlerimizi paylaşacak
12:09
because they will be literally extensions of ourselves.
244
729600
2616
olmaları, çünkü bizim devamımız gibi olacaklar.
12:12
They'll be grafted onto our brains,
245
732240
1816
Beyinlerimize aşılanacaklar
12:14
and we'll essentially become their limbic systems.
246
734080
2360
ve temelde onların limbik sistemi olacağız.
12:17
Now take a moment to consider
247
737120
1416
Şimdi bir dakikanızı ayırın ve
12:18
that the safest and only prudent path forward,
248
738560
3176
önümüzdeki en sağlam ve ihtiyatlı yolun,
12:21
recommended,
249
741760
1336
önerilenin, bu teknolojiyi
12:23
is to implant this technology directly into our brains.
250
743120
2800
direkt olarak beyinlerimize
yerleştirmek olduğunu değerlendirin.
12:26
Now, this may in fact be the safest and only prudent path forward,
251
746600
3376
Belki de bu, önümüzdeki en güvenli ve özenli yol olabilir
12:30
but usually one's safety concerns about a technology
252
750000
3056
ama genelde kişinin teknoloji hakkındaki güvenlik endişelerinin
12:33
have to be pretty much worked out before you stick it inside your head.
253
753080
3656
kafasının içine bir şey yerleştirmeden çözülmesi gerekir.
12:36
(Laughter)
254
756760
2016
(Kahkahalar)
12:38
The deeper problem is that building superintelligent AI on its own
255
758800
5336
Daha derindeki problem ise süper zeki YZ geliştirmek başlı başına
12:44
seems likely to be easier
256
764160
1736
daha kolay gibi görünüyor,
12:45
than building superintelligent AI
257
765920
1856
sorunsuzca zihinlerimizle entegre
12:47
and having the completed neuroscience
258
767800
1776
olabilen tamamlanmış sinirbilimli
12:49
that allows us to seamlessly integrate our minds with it.
259
769600
2680
bir yapay zekâ geliştirmektense.
12:52
And given that the companies and governments doing this work
260
772800
3176
Ve farz edelim ki devletlerin ve şirketlerin bunu yapıyorken
12:56
are likely to perceive themselves as being in a race against all others,
261
776000
3656
birbirleriyle yarış içerisindeymişçe algılamaları
12:59
given that to win this race is to win the world,
262
779680
3256
ve bu yarışı kazanmalarının da dünyayı kazanmak sanmaları,
13:02
provided you don't destroy it in the next moment,
263
782960
2456
peşi sıra mahvetmemek şartıyla,
13:05
then it seems likely that whatever is easier to do
264
785440
2616
sonrasında hangisi en kolaysa
13:08
will get done first.
265
788080
1200
ilk o yapılacakmış gibi görünüyor.
13:10
Now, unfortunately, I don't have a solution to this problem,
266
790560
2856
Şu an ne yazık ki bu soruna bir çözümüm yok,
13:13
apart from recommending that more of us think about it.
267
793440
2616
çoğumuza bunu düşünmeyi önermek dışında.
13:16
I think we need something like a Manhattan Project
268
796080
2376
Yapay Zekâ konusunda Manhattan Projesi gibi
13:18
on the topic of artificial intelligence.
269
798480
2016
bir şeye ihtiyacımız var.
13:20
Not to build it, because I think we'll inevitably do that,
270
800520
2736
Geliştirmek için değil, çünkü
kaçınılamaz bir şekilde yapacağız bana göre,
13:23
but to understand how to avoid an arms race
271
803280
3336
ama silahlanma yarışından nasıl kaçıncağımızı anlamak
13:26
and to build it in a way that is aligned with our interests.
272
806640
3496
ve menfaatlerimiz doğrultusunda inşa etmek için.
13:30
When you're talking about superintelligent AI
273
810160
2136
Süper zeki YZ 'nın kendi başına değişiklikler
13:32
that can make changes to itself,
274
812320
2256
yapabileceğinden bahsederken,
13:34
it seems that we only have one chance to get the initial conditions right,
275
814600
4616
ana koşulları doğru anlamada tek şansımız varmış gibi görünüyor
13:39
and even then we will need to absorb
276
819240
2056
ve o zaman dahi bunları doğru anlamanın
13:41
the economic and political consequences of getting them right.
277
821320
3040
siyasi ve ekonomik sonuçlarını özümsememiz gerekecektir.
13:45
But the moment we admit
278
825760
2056
Bilgi işlemenin yapay zekânın
13:47
that information processing is the source of intelligence,
279
827840
4000
kaynağı olduğunu kabul ettiğimiz an,
13:52
that some appropriate computational system is what the basis of intelligence is,
280
832720
4800
bu bazı uygun hesaplama sistemlerinin zekânın temeli olduğunu
13:58
and we admit that we will improve these systems continuously,
281
838360
3760
ve bu sistemleri aralıksız geliştireceğimizi kabul ettiğimizde
14:03
and we admit that the horizon of cognition very likely far exceeds
282
843280
4456
ve bilişin ufkunun bildiğimizden daha uzaklara uzandığını
14:07
what we currently know,
283
847760
1200
kabul ettiğimizde,
14:10
then we have to admit
284
850120
1216
bir çeşit yaratıcı
14:11
that we are in the process of building some sort of god.
285
851360
2640
geliştirme sürecinde olduğumuzu
kabul etmek durumunda olacağız.
14:15
Now would be a good time
286
855400
1576
Şu an ise bu yaratıcıyla yaşayabilme durumumuza
14:17
to make sure it's a god we can live with.
287
857000
1953
karar vermek için doğru zaman olabilir.
14:20
Thank you very much.
288
860120
1536
Çok teşekkürler.
14:21
(Applause)
289
861680
5093
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7