How will AI change the world?

1,778,961 views ・ 2022-12-06

TED-Ed


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: esra kurul Gözden geçirme: Eren Gokce
Gelecek yıllarda yapay zeka,
00:07
In the coming years, artificial intelligence
0
7336
2169
muhtemelen hayatınızı ve tüm dünyayı değiştirecek.
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
Ama insanlar tam olarak nasıl olduğunu kabul etmekte zorlanıyorlar.
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
Altta ünlü bilgisayar bilimi profesörü ve yapay zeka uzmanı
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
Stuart Russell’ın duyuları saçmalıktan ayırdığı
00:22
helps separate the sense from the nonsense.
5
22435
2586
Dünya Ekonomi Forumu röportajından alıntılar mevcut.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
Bir insandan bir şey yapmasını istemek ile bunu bir yapay zeka sistemine
00:29
and giving that as the objective to an AI system.
7
29067
3461
amaç olarak vermek arasında büyük bir fark vardır.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
Birinden size kahve getirmesini istediğinizde,
bunun onun hayatının misyonu olması gerektiğini
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
evrende başka hiçbir şeyin önemi
00:37
and nothing else in the universe matters.
10
37742
1960
olmadığını kastetmezsiniz.
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
Kapanmadan önce size kahve getirmek için Starbucks’taki
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
herkesi öldürmek zorunda kalsalar bile bunu yapmalılar.
00:45
No, that’s not what you mean.
13
45124
1627
Hayır, bunu kastetmediniz.
00:46
All the other things that we mutually care about,
14
46751
2294
Karşılıklı olarak önemsediğimiz diğer tüm şeyler,
00:49
they should factor into your behavior as well.
15
49045
2169
davranışlarınızı da hesaba katmalıdır.
00:51
And the problem with the way we build AI systems now
16
51214
3169
Yapay Zeka sistemlerini kurma şeklimizle ilgili sorun şu:
Onlara sabit bir hedef veriyoruz.
00:54
is we give them a fixed objective.
17
54383
1627
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
Algoritmalar, hedefteki her şeyi belirtmemizi istiyor.
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
“Okyanusların asitlenmesini düzeltebilir miyiz?″ derseniz
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
bunu son derece verimli bir şekilde yapan
katalitik bir reaksiyon elde edebilirsiniz
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
ancak bu atmosferdeki oksijenin dörtte birini tüketir,
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
bu da görünüşe göre birkaç saat içinde oldukça yavaş ve nahoş
01:13
over the course of several hours.
23
73986
1752
bir şekilde ölmemize neden olur.
01:15
So, how do we avoid this problem?
24
75780
3211
Peki, bu problemden nasıl kaçınırız?
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
Diyebilirsiniz ki tamam, sadece hedefi belirleme konusunda daha dikkatli olun—
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
atmosferik oksijeni unutmayın.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
Ve sonra tabii ki reaksiyonun okyanustaki bazı yan etkileri
01:29
poisons all the fish.
28
89418
1377
bütün balıkları zehirler.
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
Balığı da öldürmeyin demek istedim.
01:33
And then, well, what about the seaweed?
30
93464
1919
Peki ya deniz yosunu?
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
Tüm deniz yosunlarının ölmesine sebep olacak hiçbir şey yapma.
01:38
And on and on and on.
32
98344
1210
Ve benzerleri.
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
Ve bunu insanlarla yapmak zorunda olmamamızın nedeni,
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
insanlar çoğunlukla önemsediğimiz her şeyi bilmiyorlar.
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
Eğer bir insana size bir fincan kahve getirmesini söylerseniz
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
ve bir fincan kahvenin 13 euro olduğu
01:54
where the coffee is 13 euros a cup,
37
114193
2628
Paris’teki Hotel George Sand’da olursanız,
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
geri gelmeniz ve “o, 13 Euro istediğinden emin misin?”
ya da “yan tarafa gidebilirim ve bir tane alabilir miyim?” demeniz tamamen makul.
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
Bu tamamen bir kişinin yapması için normal bir şey.
02:07
To ask, I’m going to repaint your house—
41
127039
3003
Evini yeniden boyayacağım—
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
Tahliye borularını çıkarsam ve sonra geri taksam sorun olur mu?
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
Bunun çok gelişmiş bir beceri olduğunu düşünmüyoruz
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
ancak yapay zeka sistemlerinizin bu becerisi yok,
üretme şeklimiz nedeniyle,
02:19
they have to know the full objective.
45
139719
1793
bütün amacı bilmesi gerekir.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
Amacın ne olduğunu bilmediklerini bilen bir sistem kurarsak
02:25
then they start to exhibit these behaviors,
47
145474
2586
ardından bu davranışları sergilemeye başlarlar,
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
atmosferdeki tüm oksijeni yok etmeden önce izin istemek gibi.
02:32
In all these senses, control over the AI system
49
152565
3378
Tüm bu açılardan, yapay zeka sistemi üzerindeki kontrol,
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
makinenin gerçek hedefin ne olduğu konusundaki belirsizliğinden kaynaklanır.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
Kesinlikle hedefe sahip olduğuna inanan makineler yaptığınız anda
02:44
that they have the objective,
52
164368
1418
böylesine psikopatça bir davranış sergiliyorsunuz.
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
02:48
And I think we see the same thing in humans.
54
168539
2127
Sanırım aynı şeyi insanlarda da görüyoruz.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
Her amaca uygun Yapay Zeka, reel sektörü de etkilediğinde ne olacak?
02:55
How do things change? Can we adapt?
56
175379
3587
İşler nasıl değişecek?
Uyum sağlayabilecek miyiz?
02:59
This is a very old point.
57
179175
1835
Bu uzun süredir tartışılan bir konu.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
Şaşırtıcı bir şekilde Aristotle’ın bir sözü var
03:04
look, if we had fully automated weaving machines
59
184597
3045
bak dört dörtlük otomatik dokuma makinelerimiz olsaydı
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
penalar liri çalabilir ve insan olmadan müzik üretebilirlerdi,
03:11
then we wouldn’t need any workers.
61
191604
2002
o zaman hiç müzisyene ihtiyacımız olmazdı.
03:13
That idea, which I think it was Keynes
62
193814
2878
1930′da bunu teknolojik işsizlik olarak adlandıran kişinin
03:16
who called it technological unemployment in 1930,
63
196692
2836
Keynes olduğunu düşündüğüm bu fikir,
03:19
is very obvious to people.
64
199528
1919
insanlar için çok açık.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
Tam olarak şöyle düşünüyorlar: “Makine işi hallediyorsa
03:24
then I'm going to be unemployed.
66
204533
1669
işsiz kalacağım demektir.”
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
Şirketlerin hâlihazırda e-ticaret için kullandıkları ambarları düşünün,
03:29
for e-commerce, they are half automated.
68
209872
2711
bunlar yarı otomatik.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
Bunun işleyiş şekli, her yerde birikmiş tonlarca eşyanın olduğu
03:36
all over the place and humans go and rummage around
70
216629
2461
ve insanların ortalığı karıştırdığı
ve ardından geri getirip gönderdiği eski bir depo—
03:39
and then bring it back and send it off—
71
219090
1877
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
ihtiyacınız olan her şeyi bulunduran raf ünitesini
03:44
that contains the thing that you need,
73
224553
1919
gidip getiren bir robot var
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
ancak insan, nesneyi ya çöp kutusundan ya da raftan almak zorundadır
03:50
because that’s still too difficult.
75
230101
1877
çünkü bu hala çok zor.
03:52
But, at the same time,
76
232019
2002
Ancak aynı zamanda,
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
satın alabileceğiniz, çeşitli nesnelerin içerisinden
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
herhangi bir nesneyi seçebilmek için yeterince hassas bir robot yapar mıydınız?
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
Bu tek seferde üç ya da dört milyon işe darbe yapar mıydı?
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
E.M. Forster’ın yazdığı,
04:09
where everyone is entirely machine dependent.
81
249745
3504
herkesin tamamen makinelere bağlı olduğu ilginç bir hikaye var.
04:13
The story is really about the fact that if you hand over
82
253499
3754
Hikaye aslında, uygarlığınızın yönetimini
04:17
the management of your civilization to machines,
83
257253
2961
makinelere devrederseniz,
04:20
you then lose the incentive to understand it yourself
84
260214
3504
o zaman kendini anlama veya gelecek nesillere
04:23
or to teach the next generation how to understand it.
85
263718
2544
nasıl anlayacaklarını öğretme dürtünü kaybedersin.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
“WALL-E”yi aslında herkesin makine tarafından
güçsüzleştirildiği ve çocuklaştırıldığı, modern bir versiyon olarak görebilirsiniz
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
04:32
and that hasn’t been possible up to now.
88
272893
1961
bu şu ana kadar mümkün olmadı.
04:34
We put a lot of our civilization into books,
89
274854
2419
Medeniyetimizin çoğunu kitaplara aktardık
ama kitaplar onu bizim için yönetemiyor.
04:37
but the books can’t run it for us.
90
277273
1626
04:38
And so we always have to teach the next generation.
91
278899
2795
Her zaman gelecek nesillere öğretmek zorundayız.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
Eğer çözerseniz, yaklaşık bir trilyon kişi yıllık öğretme, öğrenme
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
ve on binlerce nesil öncesine dayanan kesintisiz bir zincir demektir.
04:50
What happens if that chain breaks?
94
290119
1919
O zincir kırılırsa ne olur?
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
Yapay Zeka ilerledikçe anlamamız gereken bir şey olduğunu düşünüyorum.
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
Genel amaçlı yapay zekanın gerçek ortaya çıkma tarihini
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
tam olarak belirleyemeyeceksiniz, bu tek bir günden ibaret değil.
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
Ayrıca durum böyle değil ya hep ya hiç.
05:04
The impact is going to be increasing.
99
304592
2461
Etki giderek artacak.
05:07
So with every advance in AI,
100
307053
2043
Yapay zekadaki her bir ilerlemede
05:09
it significantly expands the range of tasks.
101
309096
2962
görev yelpazesini önemli ölçüde genişletir.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
Bu anlamda, sanırım çoğu uzman yüzyılın sonunda şunu söylüyor:
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
“Genel amaçlı yapay zekaya sahip olmamız çok ama çok muhtemel.”
05:20
The median is something around 2045.
104
320733
3754
Medyan, 2045 civarında bir şeydir.
05:24
I'm a little more on the conservative side.
105
324487
2002
Ben biraz daha muhafazakar taraftayım.
05:26
I think the problem is harder than we think.
106
326489
2085
Sanırım sorun düşündüğümüzden daha zor.
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
John McAfee’yi seviyorum, yapay zeka’nın kurucularından biriydi,
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
kendisine bu soru sorulduğunda şöyle dedi: “Beş ila 500 yıl arasında bir yerde.”
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
“Sanırım bunu yapacak birkaç Einstein’lara ihtiyacımız olacak.”

Original video on YouTube.com
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7