3 principles for creating safer AI | Stuart Russell

139,486 views ・ 2017-06-06

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Gunperi Sisman Gözden geçirme: Sevkan Uzel
00:12
This is Lee Sedol.
0
12532
1552
Burada gördüğünüz Lee Sedol.
00:14
Lee Sedol is one of the world's greatest Go players,
1
14108
3997
Lee Sedol dünyadaki en iyi Go oyuncularından biri.
00:18
and he's having what my friends in Silicon Valley call
2
18129
2885
Burada Silikon Vadisi'ndeki arkadaşlarımın deyişiyle
00:21
a "Holy Cow" moment --
3
21038
1510
bir 'Aman Tanrım' anı yaşıyor
00:22
(Laughter)
4
22572
1073
(Gülüşmeler)
00:23
a moment where we realize
5
23669
2188
Bu, yapay zekanın beklediğimizden
00:25
that AI is actually progressing a lot faster than we expected.
6
25881
3296
çok daha hızlı ilerlediğini anladığımız bir an.
00:29
So humans have lost on the Go board. What about the real world?
7
29974
3047
İnsanlar Go tahtasında kaybetti. Peki ya gerçek hayatta?
00:33
Well, the real world is much bigger,
8
33045
2100
Gerçek dünya Go tahtasından
00:35
much more complicated than the Go board.
9
35169
2249
çok daha büyük ve çok daha karmaşık.
00:37
It's a lot less visible,
10
37442
1819
Daha az şeffaf
00:39
but it's still a decision problem.
11
39285
2038
ama yine de bir karar sorunu oluşturuyor.
00:42
And if we think about some of the technologies
12
42768
2321
Eğer gelmekte olan bazı teknolojileri
00:45
that are coming down the pike ...
13
45113
1749
düşünecek olursak...
00:47
Noriko [Arai] mentioned that reading is not yet happening in machines,
14
47558
4335
Noriko [Arai] makinelerin henüz okuyamadığından bahsetti;
00:51
at least with understanding.
15
51917
1500
en azından okuduklarını anlamadıklarından
00:53
But that will happen,
16
53441
1536
Ama bu gerçekleşecek
00:55
and when that happens,
17
55001
1771
ve bunun gerçekleşmesinin hemen ardından makineler,
00:56
very soon afterwards,
18
56796
1187
insan türünün tarih boyunca yazdığı
00:58
machines will have read everything that the human race has ever written.
19
58007
4572
her şeyi okumuş olacak.
01:03
And that will enable machines,
20
63670
2030
Bu da makinelere insanlardan daha öteye
01:05
along with the ability to look further ahead than humans can,
21
65724
2920
bakma yetisini verecek.
01:08
as we've already seen in Go,
22
68668
1680
Go oyununda gördüğümüz gibi
01:10
if they also have access to more information,
23
70372
2164
eğer daha fazla bilgiye erişebilirlerse,
01:12
they'll be able to make better decisions in the real world than we can.
24
72560
4268
gerçek hayatta bizden daha iyi kararlar alabilecekler.
01:18
So is that a good thing?
25
78612
1606
Peki bu iyi bir şey mi?
01:21
Well, I hope so.
26
81718
2232
Umarım öyledir.
01:26
Our entire civilization, everything that we value,
27
86514
3255
Tüm uygarlığımız,
değer verdiğimiz her şey zekamıza dayanıyor.
01:29
is based on our intelligence.
28
89793
2068
01:31
And if we had access to a lot more intelligence,
29
91885
3694
Eğer bizlerin daha fazla zekaya erişebilme şansı olsa
01:35
then there's really no limit to what the human race can do.
30
95603
3302
insan türünün yapabileceği şeylerin bir sınırı olmayacak.
01:40
And I think this could be, as some people have described it,
31
100485
3325
Sanırım bu, bazılarının tanımladığı gibi
01:43
the biggest event in human history.
32
103834
2016
dünya tarihindeki en önemli olay olacaktır.
01:48
So why are people saying things like this,
33
108485
2829
Peki neden bazıları yapay zekanın insan türünün
01:51
that AI might spell the end of the human race?
34
111338
2876
sonunu getirebileceğini söylüyor?
01:55
Is this a new thing?
35
115258
1659
Bu yeni bir endişe mi?
01:56
Is it just Elon Musk and Bill Gates and Stephen Hawking?
36
116941
4110
Yani bunu düşünen sadece Elon Musk, Bill Gates ve Stephen Hawking mi?
02:01
Actually, no. This idea has been around for a while.
37
121773
3262
Aslında hayır. Bu fikir uzun zamandır var.
02:05
Here's a quotation:
38
125059
1962
İşte size bir alıntı:
02:07
"Even if we could keep the machines in a subservient position,
39
127045
4350
''Makineleri itaatkâr bir pozisyonda tutabiliyor olsak bile
02:11
for instance, by turning off the power at strategic moments" --
40
131419
2984
-örneğin güç ünitelerini stratejik anlarda kapatarak-
02:14
and I'll come back to that "turning off the power" idea later on --
41
134427
3237
(birazdan bu ''güç ünitesini kapama'' fikrine geri döneceğim)
02:17
"we should, as a species, feel greatly humbled."
42
137688
2804
insan türü olarak bizler çok aşağılanmış gibi hissedeceğiz."
02:21
So who said this? This is Alan Turing in 1951.
43
141997
3448
Peki bunu kim söyledi? 1951 yılında Alan Turing.
02:26
Alan Turing, as you know, is the father of computer science
44
146120
2763
Alan Turing bildiğiniz gibi bilgisayar biliminin
02:28
and in many ways, the father of AI as well.
45
148907
3048
ve ayrıca pek çok yönden yapay zekanın da babasıdır.
02:33
So if we think about this problem,
46
153059
1882
Eğer bu problemi kendi türümüzden
02:34
the problem of creating something more intelligent than your own species,
47
154965
3787
daha zeki bir tür yaratma problemi olarak düşünürsek,
02:38
we might call this "the gorilla problem,"
48
158776
2622
buna ''goril problemi'' de diyebiliriz.
Çünkü gorillerin ataları bunu birkaç milyon yıl önce yaptı:
02:42
because gorillas' ancestors did this a few million years ago,
49
162165
3750
02:45
and now we can ask the gorillas:
50
165939
1745
Gorillere bugün şu soruyu sorabiliriz:
02:48
Was this a good idea?
51
168572
1160
Bu iyi bir fikir miydi?
02:49
So here they are having a meeting to discuss whether it was a good idea,
52
169756
3530
Burada toplantıdalar ve bu fikri değerlendiriyorlar.
02:53
and after a little while, they conclude, no,
53
173310
3346
Sonunda da bunun kötü bir fikir
olduğuna karar veriyorlar.
02:56
this was a terrible idea.
54
176680
1345
Türümüz zor durumda.
02:58
Our species is in dire straits.
55
178049
1782
03:00
In fact, you can see the existential sadness in their eyes.
56
180358
4263
Aslında gözlerindeki varoluşsal üzüntüyü görebiliyorsunuz.
03:04
(Laughter)
57
184645
1640
(Gülüşmeler)
03:06
So this queasy feeling that making something smarter than your own species
58
186309
4840
Kendi türünüzden daha zeki bir şey yaratmanın
pek de iyi bir fikir olmayabileceğine dair tatsız bir his...
03:11
is maybe not a good idea --
59
191173
2365
03:14
what can we do about that?
60
194308
1491
Bu konuda ne yapabiliriz?
03:15
Well, really nothing, except stop doing AI,
61
195823
4767
Doğrusu, yapay zeka ile uğraşmayı bırakmaktan başka bir şey yapamayız.
03:20
and because of all the benefits that I mentioned
62
200614
2510
Ama az önce sözünü ettiğim tüm yararlarından dolayı
03:23
and because I'm an AI researcher,
63
203148
1716
ve ben de bir YZ araştırmacısı olduğumdan,
03:24
I'm not having that.
64
204888
1791
buna katılmıyorum.
03:27
I actually want to be able to keep doing AI.
65
207103
2468
Aslında ben YZ yapmaya çalışmayı sürdürmek istiyorum.
03:30
So we actually need to nail down the problem a bit more.
66
210435
2678
Yani aslında soruna biraz daha yakından bakmalıyız.
03:33
What exactly is the problem?
67
213137
1371
Sorun tam olarak nedir?
03:34
Why is better AI possibly a catastrophe?
68
214532
3246
Neden daha iyi bir YZ muhtemelen bir felaket olsun?
İşte bir başka alıntı:
03:39
So here's another quotation:
69
219218
1498
03:41
"We had better be quite sure that the purpose put into the machine
70
221755
3335
''Makinelere verdiğimiz amaçların aslında bizlerin arzuladığı
03:45
is the purpose which we really desire."
71
225114
2298
amaçlar olduğuna emin olmalıyız.''
03:48
This was said by Norbert Wiener in 1960,
72
228102
3498
Norbert Wiener bunu 1960 yılında, ilk öğrenim sistemlerinden birinin,
03:51
shortly after he watched one of the very early learning systems
73
231624
4002
dama oynamayı, yaratıcısından daha iyi başardığını izledikten sonra söylemişti.
03:55
learn to play checkers better than its creator.
74
235650
2583
04:00
But this could equally have been said
75
240422
2683
Ama bu pekâlâ Kral Midas tarafından da söylenmiş olabilirdi.
04:03
by King Midas.
76
243129
1167
04:04
King Midas said, "I want everything I touch to turn to gold,"
77
244903
3134
Kral Midas şöyle demişti: ''Dokunduğum her şeyin altın olmasını istiyorum,''
04:08
and he got exactly what he asked for.
78
248061
2473
ve istediğini tam olarak elde etti.
04:10
That was the purpose that he put into the machine,
79
250558
2751
Onun makineye verdiği amacın bu olduğu söylenebilir.
04:13
so to speak,
80
253333
1450
04:14
and then his food and his drink and his relatives turned to gold
81
254807
3444
Bunun üstüne, yiyeceği ve içeceği ve akrabaları altına dönüştü.
04:18
and he died in misery and starvation.
82
258275
2281
Kendisi de açlık ve sefalet içinde öldü.
O zaman, belirttiğimiz ereklerin,
04:22
So we'll call this "the King Midas problem"
83
262264
2341
04:24
of stating an objective which is not, in fact,
84
264629
3305
aslında istediğimiz şey ile gerçekte uyuşmaması durumuna
04:27
truly aligned with what we want.
85
267958
2413
''Kral Midas Problemi'' diyelim.
04:30
In modern terms, we call this "the value alignment problem."
86
270395
3253
Modern terimlerle buna ''değer uyuşmazlığı problemi'' diyoruz.
04:36
Putting in the wrong objective is not the only part of the problem.
87
276867
3485
Problem, yanlış amaç yerleştirmekten ibaret değil.
04:40
There's another part.
88
280376
1152
Bir yönü daha var.
04:41
If you put an objective into a machine,
89
281980
1943
Bir makineye bir amaç verirseniz,
04:43
even something as simple as, "Fetch the coffee,"
90
283947
2448
örneğin ''kahvemi getir'' gibi basit bir hedef olsa bile
04:47
the machine says to itself,
91
287728
1841
makine kendi kendine şöyle der:
''Kahveyi getirmekte nasıl başarısızlığa uğrayabilirim?
04:50
"Well, how might I fail to fetch the coffee?
92
290553
2623
04:53
Someone might switch me off.
93
293200
1580
Biri beni kapatabilir.
04:55
OK, I have to take steps to prevent that.
94
295465
2387
Peki. Bunu önlemek için bir şeyler yapmalıyım.
04:57
I will disable my 'off' switch.
95
297876
1906
'Kapama' düğmemi işlev dışı bırakacağım.
05:00
I will do anything to defend myself against interference
96
300354
2959
Bana verilen komutu yerine getirmemi engelleyebilecek
05:03
with this objective that I have been given."
97
303337
2629
her türlü müdahaleye karşı kendimi savunmak için ne gerekiyorsa yapacağım."
05:05
So this single-minded pursuit
98
305990
2012
Sonuç olarak, gayet savunmacı bir moddaki
05:09
in a very defensive mode of an objective that is, in fact,
99
309033
2945
bu tek-hedef odaklı hareket,
insan türünün gerçek hedefleriyle örtüşmüyor.
05:12
not aligned with the true objectives of the human race --
100
312002
2814
05:15
that's the problem that we face.
101
315942
1862
Karşı karşıya kaldığımız sorun aslında bu.
05:18
And in fact, that's the high-value takeaway from this talk.
102
318827
4767
Doğrusu, tam da bu, bu konuşmanın en değerli dersi.
05:23
If you want to remember one thing,
103
323618
2055
Hatırlamanız gereken bir şey varsa,
05:25
it's that you can't fetch the coffee if you're dead.
104
325697
2675
o da ölüyken kahve getiremeyeceğiniz olmalı.
05:28
(Laughter)
105
328396
1061
(Gülüşmeler)
05:29
It's very simple. Just remember that. Repeat it to yourself three times a day.
106
329481
3829
Bu çok basit. Sadece bunu hatırlayın. Kendinize bunu günde üç kez tekrar edin.
05:33
(Laughter)
107
333334
1821
(Gülüşmeler)
05:35
And in fact, this is exactly the plot
108
335179
2754
Aslında, bu tam da
05:37
of "2001: [A Space Odyssey]"
109
337957
2648
''2001: [Bir Uzay Destanı]'' filmindeki hikayedir.
05:41
HAL has an objective, a mission,
110
341046
2090
HAL'in insanların hedefleriyle örtüşmeyen
05:43
which is not aligned with the objectives of the humans,
111
343160
3732
bir hedefi, bir misyonu vardır.
05:46
and that leads to this conflict.
112
346916
1810
Bu da bir çatışmaya neden olur.
05:49
Now fortunately, HAL is not superintelligent.
113
349314
2969
Neyse ki, HAL süper-zekalı değildir.
05:52
He's pretty smart, but eventually Dave outwits him
114
352307
3587
Çok zeki olsa da, sonunda Dave onu atlatır
05:55
and manages to switch him off.
115
355918
1849
ve onu kapatmayı başarır.
06:01
But we might not be so lucky.
116
361648
1619
Ama biz o kadar şanslı olamayabiliriz.
Peki ne yapacağız o zaman?
06:08
So what are we going to do?
117
368013
1592
06:12
I'm trying to redefine AI
118
372191
2601
Ben komutları zekice izleyen makinelerle ilgili
06:14
to get away from this classical notion
119
374816
2061
bu klasik düşünceden kurtulmamız için
06:16
of machines that intelligently pursue objectives.
120
376901
4567
yapay zekayı yeniden tanımlamaya çalışıyorum.
06:22
There are three principles involved.
121
382532
1798
Bununla ilgili üç ilke var.
06:24
The first one is a principle of altruism, if you like,
122
384354
3289
Birincisi, çıkar gözetmemezlik de denilebilecek bir ilke.
06:27
that the robot's only objective
123
387667
3262
Yani robotların tek hedeflerinin insanların hedeflerine,
06:30
is to maximize the realization of human objectives,
124
390953
4246
insanların değerlerine hitap etmek olması.
06:35
of human values.
125
395223
1390
06:36
And by values here I don't mean touchy-feely, goody-goody values.
126
396637
3330
'Değerler' derken, samimiyete dayanan değerleri kastetmiyorum.
06:39
I just mean whatever it is that the human would prefer
127
399991
3787
Sadece, insanların hayatlarının nasıl olması gerektiği hakkındaki
06:43
their life to be like.
128
403802
1343
tercihlerini kastetiyorum.
Bu, aslında Asimov'un
06:47
And so this actually violates Asimov's law
129
407184
2309
"robotların kendi varlıklarını korumaları gerektiği" kuralını çiğniyor.
06:49
that the robot has to protect its own existence.
130
409517
2329
06:51
It has no interest in preserving its existence whatsoever.
131
411870
3723
Robotlar, kendi varlıklarını korumakla ilgilenmez.
06:57
The second law is a law of humility, if you like.
132
417240
3768
İkinci kuralın mütevazilikle ilgili olduğu söylenebilir.
07:01
And this turns out to be really important to make robots safe.
133
421794
3743
Bunun, bir robotun güvenilir olmasında büyük katkısı olduğu ortaya çıktı.
07:05
It says that the robot does not know
134
425561
3142
Bu kural, robotların insanların değerlerinin ne olduğunu
07:08
what those human values are,
135
428727
2028
bilmeden onları arttırmaya çalıştığını söylüyor.
07:10
so it has to maximize them, but it doesn't know what they are.
136
430779
3178
Yani bilmediği değerleri arttırmaya çalışıyor.
Bu da tek-hedefli uğraş problemini önler.
07:15
And that avoids this problem of single-minded pursuit
137
435074
2626
07:17
of an objective.
138
437724
1212
07:18
This uncertainty turns out to be crucial.
139
438960
2172
Bu belirsizliğin çok önemli olduğu ortaya çıktı.
07:21
Now, in order to be useful to us,
140
441546
1639
Bunun bize yararlı olabilmesi için
07:23
it has to have some idea of what we want.
141
443209
2731
robotların bizlerin ne isteyebileceği hakkında bir fikri olmalı.
07:27
It obtains that information primarily by observation of human choices,
142
447043
5427
Bu bilgiyi de birincil olarak insanların tercihlerini gözlemleyerek elde eder.
07:32
so our own choices reveal information
143
452494
2801
Dolayısıyla bizim tercihlerimiz,
yaşamlarımızın nasıl olmasını istediğimize ilişkin bilgi sunuyor.
07:35
about what it is that we prefer our lives to be like.
144
455319
3300
07:40
So those are the three principles.
145
460452
1683
İşte üç ilke bunlar.
O zaman bu ilkelerin,
07:42
Let's see how that applies to this question of:
146
462159
2318
Turing'in önerdiği ''makineyi kapatabilir misin?''
07:44
"Can you switch the machine off?" as Turing suggested.
147
464501
2789
sorusuna nasıl uygulandığını inceleyelim.
07:48
So here's a PR2 robot.
148
468893
2120
Burada gördüğünüz bir PR2 robotu.
07:51
This is one that we have in our lab,
149
471037
1821
Bu gördüğünüz bizim laboratuvarımızdaki PR2.
07:52
and it has a big red "off" switch right on the back.
150
472882
2903
Gördüğünüz gibi arkasında kocaman kırmızı bir ''kapat'' düğmesi var.
07:56
The question is: Is it going to let you switch it off?
151
476361
2615
Sorumuz şu: Onu kapatmanıza izin verecek mi?
07:59
If we do it the classical way,
152
479000
1465
Bunu klasik şekilde yapacak olursak
08:00
we give it the objective of, "Fetch the coffee, I must fetch the coffee,
153
480489
3482
ve ona ''kahveyi getir, kahveyi getirmeliyim,
08:03
I can't fetch the coffee if I'm dead,"
154
483995
2580
ölürsem kahveyi getiremem'' amacını verirsek,
08:06
so obviously the PR2 has been listening to my talk,
155
486599
3341
tabi PR2 konuşmamı dinlemekteydi,
08:09
and so it says, therefore, "I must disable my 'off' switch,
156
489964
3753
dolayısıyla ''kapama düğmemi işlev dışı bırakmalıyım
08:14
and probably taser all the other people in Starbucks
157
494796
2694
ve Starbucks'ta bana müdahale etmeye çalışan
diğer insanları da belki elektrikle şoklarım'' der.
08:17
who might interfere with me."
158
497514
1560
08:19
(Laughter)
159
499098
2062
(Gülüşmeler)
08:21
So this seems to be inevitable, right?
160
501184
2153
Yani bu kaçınılmaz görünüyor, değil mi?
08:23
This kind of failure mode seems to be inevitable,
161
503361
2398
Bu çeşit bir hata modu kaçınılmaz görünüyor ve
08:25
and it follows from having a concrete, definite objective.
162
505783
3543
bu da kesin ve net bir hedef konulmasından kaynaklanıyor.
08:30
So what happens if the machine is uncertain about the objective?
163
510632
3144
Peki, eğer makine hedef hakkında emin değilse ne olur?
08:33
Well, it reasons in a different way.
164
513800
2127
O zaman daha farklı bir mantık yürütür.
08:35
It says, "OK, the human might switch me off,
165
515951
2424
O zaman der ki, ''Peki, insan beni kapatabilir
08:38
but only if I'm doing something wrong.
166
518964
1866
ama sadece yanlış bişey yaparsam.
08:41
Well, I don't really know what wrong is,
167
521567
2475
Ben neyin yanlış olduğunu tam bilmiyorum
08:44
but I know that I don't want to do it."
168
524066
2044
ama yanlış yapmak istemediğimi biliyorum.''
08:46
So that's the first and second principles right there.
169
526134
3010
Burada birinci ve ikinci ilkeleri görebiliyorsunuz.
08:49
"So I should let the human switch me off."
170
529168
3359
''Öyleyse insanın beni kapatmasına izin vermeliyim.''
08:53
And in fact you can calculate the incentive that the robot has
171
533541
3956
Aslında bir robotun insana kendini kapatması için izin vermesindeki
08:57
to allow the human to switch it off,
172
537521
2493
motivasyonu hesaplayabilirsiniz.
09:00
and it's directly tied to the degree
173
540038
1914
Bu doğrudan, komutun belirsizlik
09:01
of uncertainty about the underlying objective.
174
541976
2746
derecesinin ne olduğuna bağlıdır.
09:05
And then when the machine is switched off,
175
545797
2949
Sonra makine kapatılınca,
09:08
that third principle comes into play.
176
548770
1805
üçüncü ilke devreye girer.
09:10
It learns something about the objectives it should be pursuing,
177
550599
3062
Çünkü izlediği amaçlara ilişkin bir şey öğrenir,
09:13
because it learns that what it did wasn't right.
178
553685
2533
çünkü yapmış olduğu şeyin yanlış olduğunu öğrenir.
09:16
In fact, we can, with suitable use of Greek symbols,
179
556242
3570
Aslında, matematikçilerin sıkça yaptığı gibi
09:19
as mathematicians usually do,
180
559836
2131
Yunan harflerinin uygun kullanımıyla,
09:21
we can actually prove a theorem
181
561991
1984
böyle bir robotun, insanlara yararının kanıtlanabileceğini
09:23
that says that such a robot is provably beneficial to the human.
182
563999
3553
söyleyen bir teoremi kanıtlayabiliriz.
09:27
You are provably better off with a machine that's designed in this way
183
567576
3803
Bu şekilde tasarlanmış bir makinenin varlığı,
yokluğuna oranla sizi daha iyi kılacaktır.
09:31
than without it.
184
571403
1246
09:33
So this is a very simple example, but this is the first step
185
573057
2906
Bu çok basit örnek aslında başarmaya çalıştığımız
09:35
in what we're trying to do with human-compatible AI.
186
575987
3903
insan-uyumlu YZ yolunda ilk adımımızdır.
09:42
Now, this third principle,
187
582477
3257
Şimdi bu üçüncü ilke
09:45
I think is the one that you're probably scratching your head over.
188
585758
3112
biraz kafanızı karıştırıyor olabilir.
09:48
You're probably thinking, "Well, you know, I behave badly.
189
588894
3239
Herhalde şunu düşünüyorsunuz: ''Eğer ben yanlış hareket ediyorsam,
09:52
I don't want my robot to behave like me.
190
592157
2929
robotumun da benim gibi hareket etmesini istemiyorum.
09:55
I sneak down in the middle of the night and take stuff from the fridge.
191
595110
3434
Geceleri usulca gidip buzluktan bişeyler aşırıyorum.
09:58
I do this and that."
192
598568
1168
Bunun gibi şeyler yapıyorum.''
09:59
There's all kinds of things you don't want the robot doing.
193
599760
2797
Robotun yapmamasını istediğiniz birçok şey olabilir.
10:02
But in fact, it doesn't quite work that way.
194
602581
2071
Ama aslında bu pek öyle çalışmıyor.
10:04
Just because you behave badly
195
604676
2155
Sırf siz kötü bir şey yaptınız diye,
10:06
doesn't mean the robot is going to copy your behavior.
196
606855
2623
robot da sizin hareketinizi taklit edecek değil.
10:09
It's going to understand your motivations and maybe help you resist them,
197
609502
3910
Sizi buna iteni anlayacak ve belki de direnmeniz için
size yardım edecek, eğer uygunsa.
10:13
if appropriate.
198
613436
1320
10:16
But it's still difficult.
199
616026
1464
Ama bu hâlâ zor.
10:18
What we're trying to do, in fact,
200
618122
2545
Aslında yapmaya çalıştığımız şey,
10:20
is to allow machines to predict for any person and for any possible life
201
620691
5796
makinelerin herhangi biri ve yaşayabilecekleri herhangi bir olası yaşam
ve diğer herkesin yaşamı için öngörüler yapmalarını sağlamak:
10:26
that they could live,
202
626511
1161
10:27
and the lives of everybody else:
203
627696
1597
10:29
Which would they prefer?
204
629317
2517
Neyi tercih ederlerdi?
10:33
And there are many, many difficulties involved in doing this;
205
633881
2954
Bunu yapmak konusunda çok fazla güçlük var.
10:36
I don't expect that this is going to get solved very quickly.
206
636859
2932
Bunun yakın zamanda çözüleceğini de sanmıyorum.
10:39
The real difficulties, in fact, are us.
207
639815
2643
Gerçek zorluk, aslında biziz.
10:43
As I have already mentioned, we behave badly.
208
643969
3117
Bahsettiğim gibi, kötü davranışlarımız var.
10:47
In fact, some of us are downright nasty.
209
647110
2321
Aslına bakarsanız, bazılarımız gerçekten kötü.
10:50
Now the robot, as I said, doesn't have to copy the behavior.
210
650251
3052
Dediğim gibi robot bu davranışları tekrarlamak zorunda değil.
10:53
The robot does not have any objective of its own.
211
653327
2791
Robotun kendine ait bir hedefi yok.
10:56
It's purely altruistic.
212
656142
1737
Onlar bütünüyle fedakâr.
10:59
And it's not designed just to satisfy the desires of one person, the user,
213
659113
5221
Bu sadece bir kişinin, kullanıcının arzularını
tatmin etmek üzere tasarlanmış değil,
11:04
but in fact it has to respect the preferences of everybody.
214
664358
3138
aslında herkesin tercihlerine saygı duymak için tasarlanırlar.
Makineler bir kısım kötü davranışı algılayabilir
11:09
So it can deal with a certain amount of nastiness,
215
669083
2570
11:11
and it can even understand that your nastiness, for example,
216
671677
3701
ve hatta kötü davranışın ardındaki nedenleri de anlayabilir.
Örneğin görev başında rüşvet alan bir pasaport memuruysanız,
11:15
you may take bribes as a passport official
217
675402
2671
11:18
because you need to feed your family and send your kids to school.
218
678097
3812
bunu aile geçindirmek ve çocukları okula göndermek için yaptığınızı anlayabilir.
11:21
It can understand that; it doesn't mean it's going to steal.
219
681933
2906
Bu onun da çalacağı anlamına gelmez.
11:24
In fact, it'll just help you send your kids to school.
220
684863
2679
Aslında çocuklarınızı okula gönderebilmeniz için size yardım edecek.
11:28
We are also computationally limited.
221
688796
3012
Bizler ayrıca hesaplama açısından sınırlıyız.
11:31
Lee Sedol is a brilliant Go player,
222
691832
2505
Lee Sedol parlak bir Go oyuncusu,
11:34
but he still lost.
223
694361
1325
ama yine de kaybetti.
11:35
So if we look at his actions, he took an action that lost the game.
224
695710
4239
Hamlelerine bakılırsa,
oyunu kaybetmesine neden olan bir hamle yaptı.
11:39
That doesn't mean he wanted to lose.
225
699973
2161
Bu onun kaybetmek istediği anlamına gelmiyor.
11:43
So to understand his behavior,
226
703160
2040
Yani onun davranışını anlamak için, bizim hesaplama konusundaki
11:45
we actually have to invert through a model of human cognition
227
705224
3644
sınırlarımızı da içeren bir insan zekası modeli süzgecinden geçirmek gerek.
11:48
that includes our computational limitations -- a very complicated model.
228
708892
4977
Bu da çok karmaşık bir model.
11:53
But it's still something that we can work on understanding.
229
713893
2993
Ama yine de anlamaya çalışabileceğimiz bir kavram.
11:57
Probably the most difficult part, from my point of view as an AI researcher,
230
717696
4320
Bir YZ araştırmacısı olarak baktığımda, en zor olan kısım belki de
12:02
is the fact that there are lots of us,
231
722040
2575
aslında çok fazla sayıda insan oluşu.
Makineler bir şekilde tüm farklı insanların tercihlerini
12:06
and so the machine has to somehow trade off, weigh up the preferences
232
726114
3581
12:09
of many different people,
233
729719
2225
ve bunların ağırlıklarını analiz etmeliler.
12:11
and there are different ways to do that.
234
731968
1906
Bunu yapmanın farklı yolları var.
12:13
Economists, sociologists, moral philosophers have understood that,
235
733898
3689
Ekonomistler, sosyologlar, filozoflar bunu anlamıştı
ve biz de aktif olarak bir işbirliği arayışındayız.
12:17
and we are actively looking for collaboration.
236
737611
2455
12:20
Let's have a look and see what happens when you get that wrong.
237
740090
3251
O zaman bunu yanlış anladığınızda neler olabileceğine bir bakalım.
12:23
So you can have a conversation, for example,
238
743365
2133
Örneğin zeki kişisel asistanınızla
12:25
with your intelligent personal assistant
239
745522
1944
bir sohbet yapabilirsiniz;
12:27
that might be available in a few years' time.
240
747490
2285
bu birkaç yıl içinde mümkün olabilir.
12:29
Think of a Siri on steroids.
241
749799
2524
Yani steroidler verilmiş bir Siri düşünün.
12:33
So Siri says, "Your wife called to remind you about dinner tonight."
242
753447
4322
Siri diyor ki, ''Eşin bu akşamki yemek randevunuzu hatırlatmak için aradı.''
12:38
And of course, you've forgotten. "What? What dinner?
243
758436
2508
Tabi siz bunu unutmuştunuz. ''Ne? Ne yemeği?
12:40
What are you talking about?"
244
760968
1425
Neden bahsediyorsun?''
12:42
"Uh, your 20th anniversary at 7pm."
245
762417
3746
''Bu akşam 7'de olan 20. yıldönümü yemeğiniz.''
12:48
"I can't do that. I'm meeting with the secretary-general at 7:30.
246
768735
3719
''Ama yemeğe katılamam, saat 7:30'da Genel Sekreter ile buluşuyorum.
12:52
How could this have happened?"
247
772478
1692
Bu nasıl olabildi?''
12:54
"Well, I did warn you, but you overrode my recommendation."
248
774194
4660
''Sizi daha önce bununla ilgili uyarmıştım ama önerimi çiğnediniz.''
12:59
"Well, what am I going to do? I can't just tell him I'm too busy."
249
779966
3328
''Peki ne yapacağım? Genel sekretere çok meşgul olduğumu söyleyemem.''
13:04
"Don't worry. I arranged for his plane to be delayed."
250
784310
3281
"Merak etme, uçağının gecikmesini sağlıyorum.''
13:07
(Laughter)
251
787615
1682
(Gülüşmeler)
13:10
"Some kind of computer malfunction."
252
790069
2101
''Bir çeşit bilgisayar hatası.''
13:12
(Laughter)
253
792194
1212
(Gülüşmeler)
13:13
"Really? You can do that?"
254
793430
1617
''Gerçekten mi? Bunu yapabiliyor musun?''
13:16
"He sends his profound apologies
255
796220
2179
''Size en içten üzüntülerini iletiyor ve
13:18
and looks forward to meeting you for lunch tomorrow."
256
798423
2555
sizinle yarın öğlen yemeğinde görüşmeyi bekliyor.''
13:21
(Laughter)
257
801002
1299
(Gülüşmeler)
13:22
So the values here -- there's a slight mistake going on.
258
802325
4403
Yani buradaki değerler... Yanlış olan bir şeyler var.
13:26
This is clearly following my wife's values
259
806752
3009
Bu kesinlikle eşimin değerlerini takip etmekte,
13:29
which is "Happy wife, happy life."
260
809785
2069
ki bu da ''mutlu bir eş, mutlu bir hayat'' oluyor.
13:31
(Laughter)
261
811878
1583
(Gülüşmeler)
13:33
It could go the other way.
262
813485
1444
Ama bu başka türlü de gidebilir.
13:35
You could come home after a hard day's work,
263
815641
2201
Yorucu bir iş gününden eve geldiğinizde,
13:37
and the computer says, "Long day?"
264
817866
2195
bilgisayara size ''uzun bir gün müydü?'' diye soruyor.
13:40
"Yes, I didn't even have time for lunch."
265
820085
2288
''Evet, öğle yemeğine bile vaktim olmadı.''
13:42
"You must be very hungry."
266
822397
1282
''Çok aç olmalısın.''
13:43
"Starving, yeah. Could you make some dinner?"
267
823703
2646
''Evet, açlıktan ölüyorum. Yiyecek bir şeyler hazırlayabilir misin?''
13:47
"There's something I need to tell you."
268
827890
2090
''Sana söylemem gereken bişey var.''
13:50
(Laughter)
269
830004
1155
(Gülüşmeler)
13:52
"There are humans in South Sudan who are in more urgent need than you."
270
832013
4905
''Güney Sudan'da yemeğe senden daha muhtaç insanlar var.''
13:56
(Laughter)
271
836942
1104
(Gülüşmeler)
13:58
"So I'm leaving. Make your own dinner."
272
838070
2075
''Bu yüzden ben ayrılıyorum. Kendi yemeğini kendin yap.''
14:00
(Laughter)
273
840169
2000
(Gülüşmeler)
14:02
So we have to solve these problems,
274
842643
1739
Bu sorunları çözmeliyiz.
14:04
and I'm looking forward to working on them.
275
844406
2515
Ben de bu sorunların üstünde çalışmayı sabırsızlıkla bekliyorum.
14:06
There are reasons for optimism.
276
846945
1843
İyimser olmamız için sebeplerimiz var.
14:08
One reason is,
277
848812
1159
Bir nedenimiz
14:09
there is a massive amount of data.
278
849995
1868
varolan büyük bir veri oluşu.
14:11
Because remember -- I said they're going to read everything
279
851887
2794
Çünkü hatırlarsanız, insanların tarih boyunca yazdığı
14:14
the human race has ever written.
280
854705
1546
her şeyi okuyacaklarını söylemiştim.
14:16
Most of what we write about is human beings doing things
281
856275
2724
Yazdığımız çoğu şey, insanların yaptığı şeyler ve
başkalarının bunlardan dolayı üzülmesi ile ilgili.
14:19
and other people getting upset about it.
282
859023
1914
14:20
So there's a massive amount of data to learn from.
283
860961
2398
Yani öğrenilecek birçok şey var.
14:23
There's also a very strong economic incentive
284
863383
2236
Ayrıca bunu gerçekleştirmek için
güçlü bir ekonomik itki de var.
14:27
to get this right.
285
867151
1186
14:28
So imagine your domestic robot's at home.
286
868361
2001
Evcil robotunuzun evinizde olduğunu varsayın.
14:30
You're late from work again and the robot has to feed the kids,
287
870386
3067
Yine evinize geç gelmişsiniz ve robotun çocuklara yemek yedirmesi lazım.
14:33
and the kids are hungry and there's nothing in the fridge.
288
873477
2823
Çocuklar aç ve buzdolabında hiçbir şey yok.
14:36
And the robot sees the cat.
289
876324
2605
Robot kedinizi görüyor.
14:38
(Laughter)
290
878953
1692
(Gülüşmeler)
14:40
And the robot hasn't quite learned the human value function properly,
291
880669
4190
Robot henüz insanların değer yargılarını
tam olarak kullanmayı öğrenemediğinden,
14:44
so it doesn't understand
292
884883
1251
14:46
the sentimental value of the cat outweighs the nutritional value of the cat.
293
886158
4844
kedinin duygusal değerinin, kedinin besin değerinden
daha ağır bastığını anlamıyor.
(Gülüşmeler)
14:51
(Laughter)
294
891026
1095
14:52
So then what happens?
295
892145
1748
O zaman ne olur?
14:53
Well, it happens like this:
296
893917
3297
Şöyle bir son dakika haberi:
14:57
"Deranged robot cooks kitty for family dinner."
297
897238
2964
''Bozuk robot akşam yemeği için kediyi pişirdi.''
15:00
That one incident would be the end of the domestic robot industry.
298
900226
4523
Böyle tek bir olay, evcil robot endüstrisinin sonu olurdu.
15:04
So there's a huge incentive to get this right
299
904773
3372
Bu yüzden süper-zeki makinelerden önce bunu hatasız yapmamız gerekiyor.
15:08
long before we reach superintelligent machines.
300
908169
2715
15:11
So to summarize:
301
911948
1535
Kısaca özetleyecek olursak:
15:13
I'm actually trying to change the definition of AI
302
913507
2881
Ben yapay zekanın tanımını değiştirmeye çalışıyorum,
15:16
so that we have provably beneficial machines.
303
916412
2993
ki yararları kanıtlanmış makinelere sahip olabilelim.
15:19
And the principles are:
304
919429
1222
İlkeler şunlar:
15:20
machines that are altruistic,
305
920675
1398
Fedakâr makineler,
15:22
that want to achieve only our objectives,
306
922097
2804
sadece bizim hedeflerimize ulaşmak istesinler.
15:24
but that are uncertain about what those objectives are,
307
924925
3116
Ama bu hedeflerin ne olduğundan emin olmasınlar
15:28
and will watch all of us
308
928065
1998
ve öğrenmek için
15:30
to learn more about what it is that we really want.
309
930087
3203
hepimizi izleyip, gerçekte ne istediğimizi anlasınlar.
15:34
And hopefully in the process, we will learn to be better people.
310
934193
3559
Biz de ümit ederim ki bu süreçte daha iyi insanlar olmayı öğrenelim.
15:37
Thank you very much.
311
937776
1191
Çok teşekkür ederim.
15:38
(Applause)
312
938991
3709
(Alkışlar)
15:42
Chris Anderson: So interesting, Stuart.
313
942724
1868
Chris Anderson: Bu çok ilginçti Stuart.
15:44
We're going to stand here a bit because I think they're setting up
314
944616
3170
Seninle biraz burada duracağız, çünkü sanırım bir sonraki konuşmacı
15:47
for our next speaker.
315
947810
1151
için sahneyi kuruyorlar.
15:48
A couple of questions.
316
948985
1538
Sana birkaç sorum var.
15:50
So the idea of programming in ignorance seems intuitively really powerful.
317
950547
5453
Robotlara cehaleti de programlamak
içgüdüsel olarak çok güçlü bir fikir gibi duruyor.
15:56
As you get to superintelligence,
318
956024
1594
Süper-zekaya yaklaştıkça
15:57
what's going to stop a robot
319
957642
2258
bir robotun tüm araştırmaları okuyarak,
15:59
reading literature and discovering this idea that knowledge
320
959924
2852
bilginin aslında cehaletten daha iyi olduğunu keşfetmesi
16:02
is actually better than ignorance
321
962800
1572
ve kendi hedeflerini belirleyip
16:04
and still just shifting its own goals and rewriting that programming?
322
964396
4218
kendini programını yeniden yazmasını ne durdurabilir?
16:09
Stuart Russell: Yes, so we want it to learn more, as I said,
323
969512
6356
Stuart Russell: Evet, aslında dediğim gibi
biz de onun kendi hedeflerimiz hakkında
16:15
about our objectives.
324
975892
1287
daha çok şey bilmesini istiyoruz.
16:17
It'll only become more certain as it becomes more correct,
325
977203
5521
Onu, bunu doğru şekilde yorumlayacak biçimde tasarlayacağız.
16:22
so the evidence is there
326
982748
1945
Örneğin, kitapların içerdikleri kanıtlar açısından
16:24
and it's going to be designed to interpret it correctly.
327
984717
2724
son derece taraflı olduğunu anlayacak.
16:27
It will understand, for example, that books are very biased
328
987465
3956
16:31
in the evidence they contain.
329
991445
1483
16:32
They only talk about kings and princes
330
992952
2397
Sadece kralların, prenslerin ve elit beyaz erkeklerin
16:35
and elite white male people doing stuff.
331
995373
2800
yaptıklarından bahsediyorlar.
16:38
So it's a complicated problem,
332
998197
2096
Yani bu karmaşık bir problem,
16:40
but as it learns more about our objectives
333
1000317
3872
ama bizim hedeflerimizi öğrendikçe,
bize giderek daha da yararlı olacaklar.
16:44
it will become more and more useful to us.
334
1004213
2063
16:46
CA: And you couldn't just boil it down to one law,
335
1006300
2526
CA: Ve bunu da tek bir kurala indirgeyemeyiz,
16:48
you know, hardwired in:
336
1008850
1650
değil mi, yani
''eğer insan beni kapatmayı denerse,
16:50
"if any human ever tries to switch me off,
337
1010524
3293
16:53
I comply. I comply."
338
1013841
1935
uyacağım. Uyacağım.''
16:55
SR: Absolutely not.
339
1015800
1182
SR: Kesinlikle hayır.
Bu berbat bir fikir olurdu.
16:57
That would be a terrible idea.
340
1017006
1499
16:58
So imagine that you have a self-driving car
341
1018529
2689
Yani kendini süren bir arabanız olduğunu varsayın
ve beş yaşındaki çocuğunuzu
17:01
and you want to send your five-year-old
342
1021242
2433
anaokuluna göndermek istiyorsunuz.
17:03
off to preschool.
343
1023699
1174
17:04
Do you want your five-year-old to be able to switch off the car
344
1024897
3101
Peki beş yaşındaki çocuğunuzun
araba seyir halindeyken arabayı kapatabilmesini ister miydiniz?
17:08
while it's driving along?
345
1028022
1213
Muhtemelen hayır. Yani bu durumda robotun,
17:09
Probably not.
346
1029259
1159
17:10
So it needs to understand how rational and sensible the person is.
347
1030442
4703
bir insanın ne kadar mantıklı ve rasyonel olduğunu anlaması gerekiyor.
Bir insan ne kadar rasyonel ise
17:15
The more rational the person,
348
1035169
1676
17:16
the more willing you are to be switched off.
349
1036869
2103
siz de o kadar kapatılmayı kabul edersiniz.
17:18
If the person is completely random or even malicious,
350
1038996
2543
Eğer bir kişi tamamen plansız ve hatta kötü niyetliyse
17:21
then you're less willing to be switched off.
351
1041563
2512
o zaman siz de kapatılmak için daha az hevesli olursunuz.
17:24
CA: All right. Stuart, can I just say,
352
1044099
1866
CA: Peki. Stuart, sadece şunu söyleyebilirim.
17:25
I really, really hope you figure this out for us.
353
1045989
2314
Umarım bunu hepimiz için çözebilirsin.
17:28
Thank you so much for that talk. That was amazing.
354
1048327
2375
Konuşman için çok teşekkürler. Muhteşemdi.
17:30
SR: Thank you.
355
1050726
1167
SR: Teşekkürler.
17:31
(Applause)
356
1051917
1837
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7