How to get empowered, not overpowered, by AI | Max Tegmark

130,078 views ・ 2018-07-05

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Melis Meyer-Gümüs Gözden geçirme: Figen Ergürbüz
00:12
After 13.8 billion years of cosmic history,
0
12760
4416
13,8 milyar yıllık kozmik geçmişin ardından
00:17
our universe has woken up
1
17200
2096
evrenimiz uyandı
00:19
and become aware of itself.
2
19320
1520
ve kendi farkına vardı.
00:21
From a small blue planet,
3
21480
1936
Küçük mavi bir gezegenden
00:23
tiny, conscious parts of our universe have begun gazing out into the cosmos
4
23440
4136
evrenimizin ufacık, bilinçli parçaları uzayı teleskoplarla
00:27
with telescopes,
5
27600
1376
gözetlemeye başladılar
ve mahçup edici bir şey keşfettiler.
00:29
discovering something humbling.
6
29000
1480
00:31
We've discovered that our universe is vastly grander
7
31320
2896
Evrenimizin atalarımızın düşündüğünden
00:34
than our ancestors imagined
8
34240
1336
çok daha büyük olduğunu
00:35
and that life seems to be an almost imperceptibly small perturbation
9
35600
4256
ve hayatın, aksi taktirde ölü olacak bir evrende ufacık ve belli belirsiz
00:39
on an otherwise dead universe.
10
39880
1720
bir sapma olduğunu keşfettik.
00:42
But we've also discovered something inspiring,
11
42320
3016
Aynı zamanda büyüleyici bir şey keşfettik;
00:45
which is that the technology we're developing has the potential
12
45360
2976
geliştirdiğimiz teknolojinin, hayatın ilerlemesine
00:48
to help life flourish like never before,
13
48360
2856
yardım etme potansiyelinin daha önce hiç olmadığı kadar fazla olduğunu
00:51
not just for centuries but for billions of years,
14
51240
3096
sadece yüzyıllardır değil milyarlarca senedir
00:54
and not just on earth but throughout much of this amazing cosmos.
15
54360
4120
ve sadece dünyada değil, bu müthiş evrenin birçok yerinde...
00:59
I think of the earliest life as "Life 1.0"
16
59680
3336
En erken yaşamı "Yaşam 1.0" olarak düşünüyorum
01:03
because it was really dumb,
17
63040
1376
çünkü gerçekten aptaldı,
01:04
like bacteria, unable to learn anything during its lifetime.
18
64440
4296
bakteri gibi, yaşamı boyunca öğrenmekten aciz.
01:08
I think of us humans as "Life 2.0" because we can learn,
19
68760
3376
Biz insanları "Yaşam 2.0" olarak tahayyül ediyorum çünkü öğrenebiliyoruz
01:12
which we in nerdy, geek speak,
20
72160
1496
bilgisayar diliyle konuşursak
01:13
might think of as installing new software into our brains,
21
73680
3216
beynimize yeni bir program kurmak ile kıyaslanabilir,
01:16
like languages and job skills.
22
76920
2120
diller ve iş becerileri gibi.
01:19
"Life 3.0," which can design not only its software but also its hardware
23
79680
4296
Kendi yazılımını ve donanımını tasarlayan "Yaşam 3.0"
01:24
of course doesn't exist yet.
24
84000
1656
tabii ki henüz mevcut değil.
01:25
But perhaps our technology has already made us "Life 2.1,"
25
85680
3776
Ama belki teknolojimiz bizi zaten "Yaşam 2.1" yapmıştır
01:29
with our artificial knees, pacemakers and cochlear implants.
26
89480
4336
yapay dizlerimiz, kalp pillerimiz ve biyonik kulaklarımız ile.
01:33
So let's take a closer look at our relationship with technology, OK?
27
93840
3880
O zaman teknoloji ile olan ilişkimize daha yakından bakalım mı?
01:38
As an example,
28
98800
1216
Örnek verecek olursak
01:40
the Apollo 11 moon mission was both successful and inspiring,
29
100040
5296
Apollo 11 ay misyonunun hem başarılı hem de ilham verici olması
01:45
showing that when we humans use technology wisely,
30
105360
3016
biz insanların, teknolojiyi akıllıca kullandığımızda
01:48
we can accomplish things that our ancestors could only dream of.
31
108400
3936
atalarımızın sadece hayal edebilecekleri şeyleri başarabildiğimizi gösteriyor.
01:52
But there's an even more inspiring journey
32
112360
2976
Ama daha da ilham verici bir yolculuk var
01:55
propelled by something more powerful than rocket engines,
33
115360
2680
roket motorundan daha güçlü bir şey ile çalıştırılan,
01:59
where the passengers aren't just three astronauts
34
119200
2336
yolcuları sadece üç astronottan değil,
02:01
but all of humanity.
35
121560
1776
bütün insanlıktan oluşan.
02:03
Let's talk about our collective journey into the future
36
123360
2936
Yapay zekâ ile geleceğe
02:06
with artificial intelligence.
37
126320
2000
ortak yolculuğumuzdan bahsedelim.
02:08
My friend Jaan Tallinn likes to point out that just as with rocketry,
38
128960
4536
Arkadaşım Jaan Tallinn, füze biliminde olduğu gibi
02:13
it's not enough to make our technology powerful.
39
133520
3160
teknolojiyi güçlendirmemizin yeterli olmadığını ifade ediyor.
02:17
We also have to figure out, if we're going to be really ambitious,
40
137560
3175
Aynı zamanda gerçekten azimli olup olmayacağımızı,
02:20
how to steer it
41
140759
1416
nasıl yönlendireceğimizi
02:22
and where we want to go with it.
42
142199
1681
ve hedefimizi çözmemiz lazım.
02:24
So let's talk about all three for artificial intelligence:
43
144880
2840
Yapay zekâ bakımından önemli üç konudan da bahsedelim:
02:28
the power, the steering and the destination.
44
148440
3056
güç, yönlendirme ve hedef.
02:31
Let's start with the power.
45
151520
1286
Güç ile başlayalım.
02:33
I define intelligence very inclusively --
46
153600
3096
Ben zekâyı çok kapsamlı ama basit bir şekilde,
02:36
simply as our ability to accomplish complex goals,
47
156720
4336
karışık hedeflerin üstesinden gelme yeteneğimiz olarak tanımlıyorum
02:41
because I want to include both biological and artificial intelligence.
48
161080
3816
çünkü hem biyolojik hem de yapay zekâyı dâhil etmek istiyorum.
02:44
And I want to avoid the silly carbon-chauvinism idea
49
164920
4016
Karbon şovenizminin 'sadece etten kemikten isen zeki olabilirsin'
02:48
that you can only be smart if you're made of meat.
50
168960
2360
şeklindeki saçma sapan fikrini çürütmek istiyorum.
02:52
It's really amazing how the power of AI has grown recently.
51
172880
4176
Son zamanlarda yapay zekânın gücü inanılmaz derecede arttı.
02:57
Just think about it.
52
177080
1256
Sadece bir düşünün.
02:58
Not long ago, robots couldn't walk.
53
178360
3200
Daha düne kadar robotlar yürüyemiyordu.
03:03
Now, they can do backflips.
54
183040
1720
Şimdi ise ters takla atabiliyorlar.
03:06
Not long ago,
55
186080
1816
Daha düne kadar
03:07
we didn't have self-driving cars.
56
187920
1760
sürücüsüz arabalarımız yoktu.
03:10
Now, we have self-flying rockets.
57
190920
2480
Şimdi ise pilotsuz roketlerimiz var.
03:15
Not long ago,
58
195960
1416
Daha düne kadar
03:17
AI couldn't do face recognition.
59
197400
2616
yapay zekânın yüz tanımlaması yoktu.
03:20
Now, AI can generate fake faces
60
200040
2976
Şimdi ise yapay zekâ sahte yüzler oluşturup
03:23
and simulate your face saying stuff that you never said.
61
203040
4160
yüzünü hiç söylemediğin şeyleri söylüyormuş gibi taklit edebiliyor.
03:28
Not long ago,
62
208400
1576
Daha düne kadar
03:30
AI couldn't beat us at the game of Go.
63
210000
1880
yapay zekâ, Go oyununda bizi yenemezdi.
03:32
Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games
64
212400
5096
Sonra Google DeepMind'ın AlphaZero yapay zekâsı 3000 yıllık Go oyunlarını
03:37
and Go wisdom,
65
217520
1256
ve Go bilgeliğini alıp
03:38
ignored it all and became the world's best player by just playing against itself.
66
218800
4976
görmezden geldi ve kendisine karşı oynayarak dünyanın en iyi oyuncusu oldu.
03:43
And the most impressive feat here wasn't that it crushed human gamers,
67
223800
3696
Burada en çarpıcı başarı oyuncuları yenmesi değil
03:47
but that it crushed human AI researchers
68
227520
2576
senelerini oyun oynama yazılımlarının geliştirilmesine adamış
03:50
who had spent decades handcrafting game-playing software.
69
230120
3680
yapay zekâ araştırmacılarını yenmesi.
03:54
And AlphaZero crushed human AI researchers not just in Go but even at chess,
70
234200
4656
Ve AlphaZero yapay zekâ araştırmacıları sadece Go'da değil
03:58
which we have been working on since 1950.
71
238880
2480
1950'den beri üzerinde çalıştığımız satrançta bile yendi.
04:02
So all this amazing recent progress in AI really begs the question:
72
242000
4240
Yapay zekâda son zamanlardaki inanılmaz ilerleme gerçekten şu soruyu ortaya atıyor
04:07
How far will it go?
73
247280
1560
Ne kadar ileriye gidecek?
04:09
I like to think about this question
74
249800
1696
Bu soruyu yer şekillerinin
04:11
in terms of this abstract landscape of tasks,
75
251520
2976
görevleri temsil ettiği soyut bir alan olarak düşünmenizi istiyorum;
04:14
where the elevation represents how hard it is for AI to do each task
76
254520
3456
rakım, her bir görevi insanlarla aynı seviyede yapmanın yapay zekâ için
04:18
at human level,
77
258000
1216
ne kadar zor olduğunu,
04:19
and the sea level represents what AI can do today.
78
259240
2760
deniz seviyesi ise yapay zekânın bugün yapabildiklerini gösteriyor.
04:23
The sea level is rising as AI improves,
79
263120
2056
Yapay zekâ geliştikçe deniz seviyesi yükseliyor
04:25
so there's a kind of global warming going on here in the task landscape.
80
265200
3440
yani bu görev alanında bir tür küresel ısınma gerçekleşiyor.
04:30
And the obvious takeaway is to avoid careers at the waterfront --
81
270040
3335
Buradaki ana fikir deniz kıyısındaki kariyerlerden kaçınmamız --
04:33
(Laughter)
82
273399
1257
(Kahkaha)
04:34
which will soon be automated and disrupted.
83
274680
2856
yakında otomatikleştirilip dağıtılacak.
04:37
But there's a much bigger question as well.
84
277560
2976
Ama ortada daha büyük bir soru var.
04:40
How high will the water end up rising?
85
280560
1810
Su daha ne kadar yükselecek?
04:43
Will it eventually rise to flood everything,
86
283440
3200
Sonunda her şeyi sular altında mı bırakacak,
04:47
matching human intelligence at all tasks.
87
287840
2496
insan zekâsıyla her görevde eşit bir seviyeye gelerek.
04:50
This is the definition of artificial general intelligence --
88
290360
3736
İşte bu genel yapay zekânın tanımı --
04:54
AGI,
89
294120
1296
GYZ, başlangıçtan bu yana
04:55
which has been the holy grail of AI research since its inception.
90
295440
3080
yapay zekâ araştırmalarının nihai ve ulaşılması neredeyse imkânsız hedefi.
04:59
By this definition, people who say,
91
299000
1776
Bu tanım ile
05:00
"Ah, there will always be jobs that humans can do better than machines,"
92
300800
3416
"Her zaman insanların makinelerden daha iyi yapabileceği işler olacak"
05:04
are simply saying that we'll never get AGI.
93
304240
2920
diyen insanlar, hiçbir zaman GYZ'ye ulaşamayacağımızı söylüyorlar.
05:07
Sure, we might still choose to have some human jobs
94
307680
3576
Tabii hâlâ beşeri bir iş seçebiliriz
05:11
or to give humans income and purpose with our jobs,
95
311280
3096
veya insanlar işlerimizle maaş alabilir ya da amaç edinebilirler
05:14
but AGI will in any case transform life as we know it
96
314400
3736
ama ne olursa olsun GYZ alışageldiğimiz hayatı değiştirecek
05:18
with humans no longer being the most intelligent.
97
318160
2736
ve artık insanlar en zeki olmayacak.
05:20
Now, if the water level does reach AGI,
98
320920
3696
Eğer GYZ deniz seviyesine ulaşırsa yapay zekânın ilerleme süreci
05:24
then further AI progress will be driven mainly not by humans but by AI,
99
324640
5296
ağırlıklı olarak insanlar tarafından değil yapay zekâ tarafından yönlendirilecek
05:29
which means that there's a possibility
100
329960
1856
ve bu demektir ki bir ihtimal
05:31
that further AI progress could be way faster
101
331840
2336
yapay zekâ yıllardır süregelen insana özgü araştırma ve geliştirme
05:34
than the typical human research and development timescale of years,
102
334200
3376
zaman ölçeğinden çok daha hızlı gelişebilir.
05:37
raising the controversial possibility of an intelligence explosion
103
337600
4016
Bununla birlikte tartışmalı zekâ patlaması ihtimali yükseliyor,
05:41
where recursively self-improving AI
104
341640
2296
kendini geliştiren yapay zekâ
05:43
rapidly leaves human intelligence far behind,
105
343960
3416
insan zekâsını hızla mazide bırakarak
05:47
creating what's known as superintelligence.
106
347400
2440
süper zekâ olarak bilinen şeyi yaratıyor.
05:51
Alright, reality check:
107
351800
2280
Tamam, gerçeğe dönelim:
05:55
Are we going to get AGI any time soon?
108
355120
2440
Yakın zamanda GYZ olacak mı?
05:58
Some famous AI researchers, like Rodney Brooks,
109
358360
2696
Bazı ünlü yapay zekâ araştırmacıları, Rodney Brooks gibi,
06:01
think it won't happen for hundreds of years.
110
361080
2496
bunun yüzlerce yıl daha gerçekleşmeyeceğini düşünüyor.
06:03
But others, like Google DeepMind founder Demis Hassabis,
111
363600
3896
Ama başkaları, Google DeepMind kurucusu Demis Hassabis gibi,
06:07
are more optimistic
112
367520
1256
daha olumlu bakıyorlar
06:08
and are working to try to make it happen much sooner.
113
368800
2576
ve daha erken olması için çalışıyorlar.
06:11
And recent surveys have shown that most AI researchers
114
371400
3296
En son yapılan anketlere göre yapay zekâ araştırmacılarının çoğunluğu
06:14
actually share Demis's optimism,
115
374720
2856
Demis'in iyimserliğini paylaşıyor,
06:17
expecting that we will get AGI within decades,
116
377600
3080
beklenti o ki, GYZ birkaç on yıl içerisinde ortaya çıkacak
06:21
so within the lifetime of many of us,
117
381640
2256
yani birçoğumuz hâlen hayattayken,
06:23
which begs the question -- and then what?
118
383920
1960
bu da akıllara şu soruyu getiriyor -- peki ya sonra?
06:27
What do we want the role of humans to be
119
387040
2216
İnsanın rolü ne olmalı,
06:29
if machines can do everything better and cheaper than us?
120
389280
2680
eğer makineler her şeyi bizden daha iyi ve daha ucuza yapabiliyorsa?
06:35
The way I see it, we face a choice.
121
395000
2000
Bence bir tercih yapmalıyız.
06:38
One option is to be complacent.
122
398000
1576
İlk seçenek, ilgisiz kalmak.
06:39
We can say, "Oh, let's just build machines that can do everything we can do
123
399600
3776
Diyebiliriz ki, "Bizim yapabildiklerimizi yapabilen makineler geliştirelim
06:43
and not worry about the consequences.
124
403400
1816
ve sonuçlarını düşünmeyelim.
06:45
Come on, if we build technology that makes all humans obsolete,
125
405240
3256
Hadi ama, teknoloji biz insanları işe yaramaz bir yığına dönüştürüyorsa
06:48
what could possibly go wrong?"
126
408520
2096
sorun bunun neresinde?
06:50
(Laughter)
127
410640
1656
(Kahkaha)
06:52
But I think that would be embarrassingly lame.
128
412320
2760
Ama bence bu utandırıcı bir şekilde saçma olur.
06:56
I think we should be more ambitious -- in the spirit of TED.
129
416080
3496
Bence daha hırslı olmalıyız -- TED'i örnek alarak.
06:59
Let's envision a truly inspiring high-tech future
130
419600
3496
Gerçekten ilham veren yüksek teknolojili bir gelecek hayal edip
07:03
and try to steer towards it.
131
423120
1400
ona doğru yönelmeyi deneyelim.
07:05
This brings us to the second part of our rocket metaphor: the steering.
132
425720
3536
Bu bizi roket metaforunun ikinci bölümüne getiriyor: yönlendirme.
07:09
We're making AI more powerful,
133
429280
1896
Biz yapay zekâyı daha güçlü yapıyoruz
07:11
but how can we steer towards a future
134
431200
3816
ama nasıl bir geleceğe doğru yönlendirelim ki
07:15
where AI helps humanity flourish rather than flounder?
135
435040
3080
YZ insanlığın ilerlemesine yardım etsin, bocalamasından ziyade?
07:18
To help with this,
136
438760
1256
Buna yardım etmek için
07:20
I cofounded the Future of Life Institute.
137
440040
1976
Yaşamın Geleceği Enstitüsünü kurduk,
küçük, kâr amacı olmayan, faydalı teknoloji kullanımını
07:22
It's a small nonprofit promoting beneficial technology use,
138
442040
2776
07:24
and our goal is simply for the future of life to exist
139
444840
2736
destekleyen... Amacımız sadece yaşamın geleceğinin var olması
07:27
and to be as inspiring as possible.
140
447600
2056
ve bunun mümkün olduğunca ilham verici olması.
07:29
You know, I love technology.
141
449680
3176
Ben teknolojiyi seviyorum biliyorsunuz.
07:32
Technology is why today is better than the Stone Age.
142
452880
2920
Bugünün taş devrinden daha iyi olması teknoloji sayesinde.
07:36
And I'm optimistic that we can create a really inspiring high-tech future ...
143
456600
4080
Gerçekten ilham verici yüksek teknolojili bir gelecek yaratabileceğimize inanıyorum,
07:41
if -- and this is a big if --
144
461680
1456
eğer -- ve bu büyük bir eğer --
07:43
if we win the wisdom race --
145
463160
2456
eğer akıl yarışını kazanırsak --
07:45
the race between the growing power of our technology
146
465640
2856
ki bu yarış, teknolojimizin büyüyen gücü
07:48
and the growing wisdom with which we manage it.
147
468520
2200
ve onu yöneten aklın gelişen bilgeliği arasında.
07:51
But this is going to require a change of strategy
148
471240
2296
Ama bunun için stratejinin değişmesi gerekiyor
07:53
because our old strategy has been learning from mistakes.
149
473560
3040
çünkü eski stratejimiz hatalardan ders çıkarıyor.
07:57
We invented fire,
150
477280
1536
Ateşi keşfettik,
07:58
screwed up a bunch of times --
151
478840
1536
birkaç kere çuvalladık --
08:00
invented the fire extinguisher.
152
480400
1816
yangın tüpünü icat ettik.
08:02
(Laughter)
153
482240
1336
(Kahkaha)
08:03
We invented the car, screwed up a bunch of times --
154
483600
2416
Arabayı icat ettik, birkaç kere çuvalladık --
trafik ışıklarını, emniyet kemerini ve hava yastığını icat ettik
08:06
invented the traffic light, the seat belt and the airbag,
155
486040
2667
08:08
but with more powerful technology like nuclear weapons and AGI,
156
488731
3845
ama daha güçlü teknolojiyle, nükleer silah ve GYZ gibi
08:12
learning from mistakes is a lousy strategy,
157
492600
3376
hatalardan öğrenmek kötü bir strateji,
08:16
don't you think?
158
496000
1216
öyle değil mi?
08:17
(Laughter)
159
497240
1016
(Kahkaha)
08:18
It's much better to be proactive rather than reactive;
160
498280
2576
Önetkin olmak tepkili olmaktan çok daha iyi;
08:20
plan ahead and get things right the first time
161
500880
2296
ileriye dönük planlayıp ilk seferde doğru yapmak...
08:23
because that might be the only time we'll get.
162
503200
2496
çünkü bu tek şansımız olabilir.
08:25
But it is funny because sometimes people tell me,
163
505720
2336
Komik bir durum çünkü bazen insanlar bana diyor ki
08:28
"Max, shhh, don't talk like that.
164
508080
2736
"Max, öyle deme.
08:30
That's Luddite scaremongering."
165
510840
1720
Bu korku tellallığı."
08:34
But it's not scaremongering.
166
514040
1536
Ama korku tellallığı değil bu.
08:35
It's what we at MIT call safety engineering.
167
515600
2880
MIT'de iş güvenliği mühendisliği olarak adlandırdığımız şey.
08:39
Think about it:
168
519200
1216
Düşünün:
08:40
before NASA launched the Apollo 11 mission,
169
520440
2216
NASA Apollo 11 misyonunu fırlatmadan önce,
08:42
they systematically thought through everything that could go wrong
170
522680
3136
insanları patlayıcı yakıt tanklarının üstüne koyup
08:45
when you put people on top of explosive fuel tanks
171
525840
2376
kimsenin yardım edemeyeceği bir yere fırlattığında
08:48
and launch them somewhere where no one could help them.
172
528240
2616
ters gidebilecek her şeyi sistematik olarak düşündüler.
08:50
And there was a lot that could go wrong.
173
530880
1936
Ve ters gidecek birçok şey vardı.
08:52
Was that scaremongering?
174
532840
1480
O korku tellallığı mıydı?
08:55
No.
175
535159
1217
Hayır.
08:56
That's was precisely the safety engineering
176
536400
2016
O tam olarak bu misyonun
08:58
that ensured the success of the mission,
177
538440
1936
başarısını sağlayan iş güvenliği
09:00
and that is precisely the strategy I think we should take with AGI.
178
540400
4176
ve bu tam olarak GYZ için kullanmamız gereken strateji.
09:04
Think through what can go wrong to make sure it goes right.
179
544600
4056
Doğru gitmesini sağlamak için yanlış gidebilecekleri düşün.
09:08
So in this spirit, we've organized conferences,
180
548680
2536
Bunun için en iyi, yapay zekâ araştırmacılarını
09:11
bringing together leading AI researchers and other thinkers
181
551240
2816
ve diğer düşünürleri bir araya getirip YZ'yi faydalı tutmak için ihtiyacımız olan
09:14
to discuss how to grow this wisdom we need to keep AI beneficial.
182
554080
3736
akıl nasıl büyür diye konuşmak için konferanslar düzenledik.
09:17
Our last conference was in Asilomar, California last year
183
557840
3296
En son konferansımız geçen sene Asilomar, Kaliforniya'daydı
09:21
and produced this list of 23 principles
184
561160
3056
ve orada 23 maddeden oluşan bir liste yapıldı,
şu ana dek binden fazla YZ araştırmacısı ve üst düzey endüstri liderleri
09:24
which have since been signed by over 1,000 AI researchers
185
564240
2896
09:27
and key industry leaders,
186
567160
1296
tarafından imzalandı
09:28
and I want to tell you about three of these principles.
187
568480
3176
ve size bu maddelerin üçünden bahsetmek istiyorum.
09:31
One is that we should avoid an arms race and lethal autonomous weapons.
188
571680
4960
Bir, cephane yarışı ve ölümcül özerk silahları bırakmalıyız.
09:37
The idea here is that any science can be used for new ways of helping people
189
577480
3616
Buradaki fikir, her bilim insanlara yardım etmek ya da zarar vermek için
09:41
or new ways of harming people.
190
581120
1536
kullanılabilir.
09:42
For example, biology and chemistry are much more likely to be used
191
582680
3936
Mesela biyoloji ve kimya insanları öldürmek için yeni yollar bulmak yerine
09:46
for new medicines or new cures than for new ways of killing people,
192
586640
4856
daha çok yeni ilaçlar ve yeni tedaviler için kullanılır,
09:51
because biologists and chemists pushed hard --
193
591520
2176
çünkü biyologlar ve kimyagerler
09:53
and successfully --
194
593720
1256
biyolojik ve kimyasal silahların yasaklanması için çok direndiler
09:55
for bans on biological and chemical weapons.
195
595000
2176
ve başarılı oldular.
09:57
And in the same spirit,
196
597200
1256
Ve aynı düşünceyle
09:58
most AI researchers want to stigmatize and ban lethal autonomous weapons.
197
598480
4440
çoğu YZ araştırmacısı ölümcül özerk silahları kınayıp yasaklamak istiyor.
10:03
Another Asilomar AI principle
198
603600
1816
Başka bir Asilomar yapay zekâ prensibi ise
10:05
is that we should mitigate AI-fueled income inequality.
199
605440
3696
yapay zekâ bölümündeki maaş ayrımcılığını azaltmak.
10:09
I think that if we can grow the economic pie dramatically with AI
200
609160
4456
Bence biz milli gelir pastasını yapay zekâ ile önemli ölçüde büyütebiliyorsak
10:13
and we still can't figure out how to divide this pie
201
613640
2456
ve herkesin durumunun daha iyi olması için
hâlâ bu pastayı nasıl bölüşeceğimizi çözemiyorsak
10:16
so that everyone is better off,
202
616120
1576
10:17
then shame on us.
203
617720
1256
bize yazıklar olsun.
10:19
(Applause)
204
619000
4096
(Alkış)
10:23
Alright, now raise your hand if your computer has ever crashed.
205
623120
3600
Peki, şimdi elinizi kaldırın eğer bilgisayarınız bir kere bile çöktüyse.
10:27
(Laughter)
206
627480
1256
(Kahkaha)
10:28
Wow, that's a lot of hands.
207
628760
1656
Vay be, baya bir kişi.
10:30
Well, then you'll appreciate this principle
208
630440
2176
O zaman yapay zekâ güvenlik araştırmalarına
10:32
that we should invest much more in AI safety research,
209
632640
3136
daha çok para yatırmamız hoşunuza gider
10:35
because as we put AI in charge of even more decisions and infrastructure,
210
635800
3656
çünkü yapay zekâya daha çok karar ve altyapı sorumluluğu verdikçe
10:39
we need to figure out how to transform today's buggy and hackable computers
211
639480
3616
bugünün sorunlu ve hacklenebilen bilgisayarları nasıl gerçekten güvenilir
10:43
into robust AI systems that we can really trust,
212
643120
2416
ve sağlam yapay zekâ sistemlerine dönüşür çözmemiz lazım
10:45
because otherwise,
213
645560
1216
çünkü aksi hâlde
10:46
all this awesome new technology can malfunction and harm us,
214
646800
2816
bütün bu muhteşem yeni teknoloji arızalı çalışıp bize zarar verir
10:49
or get hacked and be turned against us.
215
649640
1976
veya hacklenip bize karşı kullanılabilir.
10:51
And this AI safety work has to include work on AI value alignment,
216
651640
5696
Ve bu yapay zekâ güvenlik çalışmasının, YZ değer sırası çalışmasını içermesi lazım
10:57
because the real threat from AGI isn't malice,
217
657360
2816
çünkü GYZ'den gelen gerçek tehlike saçma Hollywood filmlerindeki
11:00
like in silly Hollywood movies,
218
660200
1656
kötülük değil
11:01
but competence --
219
661880
1736
aksine beceri --
11:03
AGI accomplishing goals that just aren't aligned with ours.
220
663640
3416
GYZ'nin bizim hedeflerimizle paralel olmayan hedeflere ulaşması...
11:07
For example, when we humans drove the West African black rhino extinct,
221
667080
4736
Mesela biz insanlar Batı Afrika gergedanının neslini tükettiğimizde
11:11
we didn't do it because we were a bunch of evil rhinoceros haters, did we?
222
671840
3896
bunu, onlardan nefret ettiğimiz için yapmadık, değil mi?
11:15
We did it because we were smarter than them
223
675760
2056
Onlardan daha akıllı olduğumuz için yaptık
11:17
and our goals weren't aligned with theirs.
224
677840
2576
ve bizim hedeflerimiz onlarınkine uymadı.
11:20
But AGI is by definition smarter than us,
225
680440
2656
Ama GYZ doğası gereği bizden daha akıllı
11:23
so to make sure that we don't put ourselves in the position of those rhinos
226
683120
3576
yani GYZ'yi yaratırken o gergedanlarla aynı duruma
11:26
if we create AGI,
227
686720
1976
düşmemek için
11:28
we need to figure out how to make machines understand our goals,
228
688720
4176
makinelerin bizim hedeflerimizi anlamasını, benimsemesini ve sürdürmesini
11:32
adopt our goals and retain our goals.
229
692920
3160
nasıl sağlayabileceğimizi çözmeliyiz.
11:37
And whose goals should these be, anyway?
230
697320
2856
Peki kimin hedefleri olmalı?
11:40
Which goals should they be?
231
700200
1896
Hangi hedefler olmalı?
11:42
This brings us to the third part of our rocket metaphor: the destination.
232
702120
3560
Bu bizi roket metaforumuzun üçüncü bölümüne getiriyor: istikâmet.
11:47
We're making AI more powerful,
233
707160
1856
yapay zekâyı daha güçlü yapıp
nasıl yönlendireceğimizi çözmeye çalışıyoruz
11:49
trying to figure out how to steer it,
234
709040
1816
11:50
but where do we want to go with it?
235
710880
1680
ama bununla nereye varmak istiyoruz?
11:53
This is the elephant in the room that almost nobody talks about --
236
713760
3656
Bu, burada TED'de bile konuşulmayan
11:57
not even here at TED --
237
717440
1856
görmezden gelinen aşikâr gerçek
11:59
because we're so fixated on short-term AI challenges.
238
719320
4080
çünkü biz kısa süreli zorlu yapay zekâ işlerine şartlanmışız.
12:04
Look, our species is trying to build AGI,
239
724080
4656
Bizim cinsimiz GYZ'yi
12:08
motivated by curiosity and economics,
240
728760
3496
meraktan ve ekonomiden motive olarak geliştirmeye çalışıyor
12:12
but what sort of future society are we hoping for if we succeed?
241
732280
3680
ama gelecekte ne tür bir toplum başarmayı umuyoruz?
12:16
We did an opinion poll on this recently,
242
736680
1936
Geçenlerde bununla ilgili bir görüş anketi yaptık
12:18
and I was struck to see
243
738640
1216
ve çoğu insanın aslında
12:19
that most people actually want us to build superintelligence:
244
739880
2896
süper zekâ, bizden her yönden çok daha akıllı olan yapay zekâ
12:22
AI that's vastly smarter than us in all ways.
245
742800
3160
geliştirmemizi istediklerini görmeme şaşırdım.
12:27
What there was the greatest agreement on was that we should be ambitious
246
747120
3416
Hemfikir olduğumuz konu azimli olmamız
12:30
and help life spread into the cosmos,
247
750560
2016
ve yaşamın uzaya dağılmasına yardım etmemiz
12:32
but there was much less agreement about who or what should be in charge.
248
752600
4496
ama kimin veya neyin sorumlu olacağı konusunda pek aynı fikirde olamadık.
12:37
And I was actually quite amused
249
757120
1736
Ve aslında oldukça eğlendim
12:38
to see that there's some some people who want it to be just machines.
250
758880
3456
bazı insanların sadece makinelerin sorumlu olmasını istediklerini görünce.
12:42
(Laughter)
251
762360
1696
(Kahkaha)
12:44
And there was total disagreement about what the role of humans should be,
252
764080
3856
İnsanın rolü hakkında en basit seviyede bile
12:47
even at the most basic level,
253
767960
1976
büyük fikir ayrımı vardı.
12:49
so let's take a closer look at possible futures
254
769960
2816
Şimdi yönelebileceğimiz muhtemel geleceklere
12:52
that we might choose to steer toward, alright?
255
772800
2736
daha yakından bakalım.
12:55
So don't get me wrong here.
256
775560
1336
Beni yanlış anlamayın.
12:56
I'm not talking about space travel,
257
776920
2056
Uzay yolculuğundan değil,
12:59
merely about humanity's metaphorical journey into the future.
258
779000
3200
sadece insanlığın geleceğe mecazi yolculuğundan bahsediyorum.
13:02
So one option that some of my AI colleagues like
259
782920
3496
YZ iş arkadaşlarımın beğendiği bir seçenek, esir edilmiş bir tanrı gibi
13:06
is to build superintelligence and keep it under human control,
260
786440
3616
internet bağlantısı kesilmiş ve onu kontrol eden için
13:10
like an enslaved god,
261
790080
1736
akıl almaz teknoloji
13:11
disconnected from the internet
262
791840
1576
ve zenginlik getiren
13:13
and used to create unimaginable technology and wealth
263
793440
3256
süper zekâ geliştirip onu insan denetiminin
13:16
for whoever controls it.
264
796720
1240
altında tutmak.
13:18
But Lord Acton warned us
265
798800
1456
Ama Acton efendi bizi uyardı;
13:20
that power corrupts, and absolute power corrupts absolutely,
266
800280
3616
güç bozar ve sınırsız güç mutlaka bozar.
13:23
so you might worry that maybe we humans just aren't smart enough,
267
803920
4056
O yüzden insanların yeteri kadar zeki, daha doğrusu bilgili olmadıklarından
13:28
or wise enough rather,
268
808000
1536
bu kadar güçle başa çıkmak için,
13:29
to handle this much power.
269
809560
1240
endişe edebilirsiniz.
13:31
Also, aside from any moral qualms you might have
270
811640
2536
Üstün akılları esir almakla ilgili
13:34
about enslaving superior minds,
271
814200
2296
her ahlaki şüphenin yanında
13:36
you might worry that maybe the superintelligence could outsmart us,
272
816520
3976
süper zekânın belki bizi zekâsıyla yenip zincirlerini kırıp
13:40
break out and take over.
273
820520
2240
yönetimi ele geçirebileceğinden endişe edebilirsiniz.
13:43
But I also have colleagues who are fine with AI taking over
274
823560
3416
Ama yapay zekânın yönetimi ele geçirmesine ve insanın neslinin tükenmesine
13:47
and even causing human extinction,
275
827000
2296
kafa yormayan iş arkadaşlarım var,
13:49
as long as we feel the the AIs are our worthy descendants,
276
829320
3576
yeter ki yapay zekânın gelecekteki kıymetli kuşağımız olduğunu hissedelim,
13:52
like our children.
277
832920
1736
çocuklarımız gibi.
13:54
But how would we know that the AIs have adopted our best values
278
834680
5616
Ama nasıl bilebiliriz ki, yapay zekâların en iyi değerlerimizi benimseyip
14:00
and aren't just unconscious zombies tricking us into anthropomorphizing them?
279
840320
4376
sadece bilinçsiz zombiler olup bizi onları insanlaştırmak için kandırmadıklarını?
14:04
Also, shouldn't those people who don't want human extinction
280
844720
2856
İnsan neslinin tükenmesini istemeyen insanların da
14:07
have a say in the matter, too?
281
847600
1440
bunda söz hakkı olması gerekmiyor mu?
14:10
Now, if you didn't like either of those two high-tech options,
282
850200
3376
Bu iki yüksek teknoloji opsiyonunu beğenmediyseniz
14:13
it's important to remember that low-tech is suicide
283
853600
3176
uzay açısından düşük teknolojinin intihar olduğunu
14:16
from a cosmic perspective,
284
856800
1256
hatırlamak önemli,
14:18
because if we don't go far beyond today's technology,
285
858080
2496
çünkü bugünkü teknolojinin çok ilerisine gitmezsek
14:20
the question isn't whether humanity is going to go extinct,
286
860600
2816
soru insanlığın tükeneceği değil
14:23
merely whether we're going to get taken out
287
863440
2016
ancak daha iyi teknolojinin çözebileceği
14:25
by the next killer asteroid, supervolcano
288
865480
2136
bir sonraki katil asteroitin,
14:27
or some other problem that better technology could have solved.
289
867640
3096
yanardağın veya başka sorunun bizi yok etmesi.
14:30
So, how about having our cake and eating it ...
290
870760
3576
Peki, değerlerimiz uyumlu olduğu için bize iyi davranan
14:34
with AGI that's not enslaved
291
874360
1840
köleleştirilmemiş genel yapay zekâ ile
14:37
but treats us well because its values are aligned with ours?
292
877120
3176
oturup pasta yemeye ne dersiniz?
14:40
This is the gist of what Eliezer Yudkowsky has called "friendly AI,"
293
880320
4176
Bu Eliezer Yudkowsky'nin "samimi yapay zekâ ''dediği ana fikir
14:44
and if we can do this, it could be awesome.
294
884520
2680
ve bunu yapabilirsek mükemmel olur.
14:47
It could not only eliminate negative experiences like disease, poverty,
295
887840
4816
Sadece hastalık, fakirlik, suç ve başka işkenceler gibi kötü tecrübeleri
14:52
crime and other suffering,
296
892680
1456
yok etmekle kalmaz,
14:54
but it could also give us the freedom to choose
297
894160
2816
aynı zamanda müthiş çeşitlilikte pozitif tecrübeleri
14:57
from a fantastic new diversity of positive experiences --
298
897000
4056
seçme özgürlüğünü verir --
15:01
basically making us the masters of our own destiny.
299
901080
3160
bizi kendi kaderimizin efendisi yaparak.
15:06
So in summary,
300
906280
1376
Özet olarak
15:07
our situation with technology is complicated,
301
907680
3096
teknolojiyle olan durumumuz karışık
15:10
but the big picture is rather simple.
302
910800
2416
ama büyük resim oldukça basit.
15:13
Most AI researchers expect AGI within decades,
303
913240
3456
Çoğu yapay zekâ araştırmacısı GYZ'yi birkaç on yıl içinde bekliyor
15:16
and if we just bumble into this unprepared,
304
916720
3136
ve biz buna hazırlıksız girişirsek
15:19
it will probably be the biggest mistake in human history --
305
919880
3336
bu muhtemelen insanlık tarihinin en büyük hatası olur --
15:23
let's face it.
306
923240
1416
gerçekçi olmak gerekirse.
15:24
It could enable brutal, global dictatorship
307
924680
2576
Eşi görülmemiş eşitsizlikle acımasız diktatörlük,
15:27
with unprecedented inequality, surveillance and suffering,
308
927280
3536
gözetim ve işkence, hatta belki insan neslinin tükenmesine
15:30
and maybe even human extinction.
309
930840
1976
yol açabilir.
15:32
But if we steer carefully,
310
932840
2320
Ama dikkatlice yönelirsek
15:36
we could end up in a fantastic future where everybody's better off:
311
936040
3896
herkesin çok daha iyi durumda olduğu müthiş bir geleceğe varabiliriz:
15:39
the poor are richer, the rich are richer,
312
939960
2376
fakir daha zengin, zengin daha zengin,
15:42
everybody is healthy and free to live out their dreams.
313
942360
3960
herkes sağlıklı ve hayallerini gerçekleştirmekte özgür.
15:47
Now, hang on.
314
947000
1536
Şimdi durun.
15:48
Do you folks want the future that's politically right or left?
315
948560
4576
Sizler sağcı mı solcu mu bir gelecek istiyorsunuz?
15:53
Do you want the pious society with strict moral rules,
316
953160
2856
Sıkı ahlaki kuralları olan muhafazakâr mı
15:56
or do you an hedonistic free-for-all,
317
956040
1816
ya da 7/24 Burning Man gibi hedonistik
15:57
more like Burning Man 24/7?
318
957880
2216
herkese bedava toplum mu istiyorsunuz?
16:00
Do you want beautiful beaches, forests and lakes,
319
960120
2416
Güzel plajlar, ormanlar ve göller mi istersiniz
16:02
or would you prefer to rearrange some of those atoms with the computers,
320
962560
3416
yoksa sanal tecrübe sağlayarak bu atomların birkaçını
16:06
enabling virtual experiences?
321
966000
1715
bilgisayarla düzeltmek mi?
16:07
With friendly AI, we could simply build all of these societies
322
967739
3157
Samimi yapay zekâ ile kolaylıkla bu toplumları geliştirip
16:10
and give people the freedom to choose which one they want to live in
323
970920
3216
insanlara yaşamak istedikleri yeri seçme özgürlüğünü verebiliriz
16:14
because we would no longer be limited by our intelligence,
324
974160
3096
çünkü artık zekâmızla değil, sadece fizik kurallarıyla
16:17
merely by the laws of physics.
325
977280
1456
sınırlanacağız.
16:18
So the resources and space for this would be astronomical --
326
978760
4616
Bunun için kaynaklar ve mekân
16:23
literally.
327
983400
1320
aşırı büyük olur.
16:25
So here's our choice.
328
985320
1200
Seçeneklerimiz şunlar;
16:27
We can either be complacent about our future,
329
987880
2320
ya geleceğimizle ilgili kayıtsız kalırız,
16:31
taking as an article of blind faith
330
991440
2656
her yeni teknolojinin kârlı olacağına körü körüne inanıp
16:34
that any new technology is guaranteed to be beneficial,
331
994120
4016
bunu mantra olarak
16:38
and just repeat that to ourselves as a mantra over and over and over again
332
998160
4136
dümensiz bir gemi gibi kendi eskimemize doğru yönelirken,
16:42
as we drift like a rudderless ship towards our own obsolescence.
333
1002320
3680
kendimize sürekli tekrarlayabiliriz.
16:46
Or we can be ambitious --
334
1006920
1880
Ya da hırslı olabiliriz --
16:49
thinking hard about how to steer our technology
335
1009840
2456
teknolojimizi nasıl yönlendireceğimizi
16:52
and where we want to go with it
336
1012320
1936
ve nereye varmak istediğimizi iyice düşünerek
16:54
to create the age of amazement.
337
1014280
1760
muhteşem çağı geliştirmek için.
16:57
We're all here to celebrate the age of amazement,
338
1017000
2856
Hepimiz muhteşem çağı kutlamak için buradayız
16:59
and I feel that its essence should lie in becoming not overpowered
339
1019880
4440
ve hissediyorum ki özünde ona boyun eğmek değil
17:05
but empowered by our technology.
340
1025240
2616
teknolojimizle güçlenmek var.
17:07
Thank you.
341
1027880
1376
Teşekkürler.
17:09
(Applause)
342
1029280
3080
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7