Rodney Brooks: How robots will invade our lives

Rodney Brooks robotların hayatımızı işgal edeceğini söylüyor

60,794 views

2008-10-10 ・ TED


New videos

Rodney Brooks: How robots will invade our lives

Rodney Brooks robotların hayatımızı işgal edeceğini söylüyor

60,794 views ・ 2008-10-10

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Ozgur Ilkay Yalcin Gözden geçirme: Ahmet Yükseltürk
00:18
What I want to tell you about today is how I see robots invading our lives
0
18330
5000
Bugün size, robotların farklı zamanlarda, farklı seviyelerde nasıl
00:23
at multiple levels, over multiple timescales.
1
23330
3000
hayatımızı işgal etmeye başladıklarından bahsedeceğim.
00:26
And when I look out in the future, I can't imagine a world, 500 years from now,
2
26330
4000
Bundan 500 yıl sonra her yanımızın robotla çevrili olmadığı bir dünya
00:30
where we don't have robots everywhere.
3
30330
2000
hayal edemiyorum.
00:32
Assuming -- despite all the dire predictions from many people about our future --
4
32330
5000
Tabii ki -- birçok insanın geleceğimiz için yaptığı dehşet verici tahminlere
00:37
assuming we're still around, I can't imagine the world not being populated with robots.
5
37330
4000
rağmen -- hâlâ ortalıkta olursak, robotlarla dolu olmayan bir dünya düşünemiyorum.
00:41
And then the question is, well, if they're going to be here in 500 years,
6
41330
3000
Ardından şu soru geliyor: 500 sene sonra burada olacakları kesinse,
00:44
are they going to be everywhere sooner than that?
7
44330
2000
daha önce de her yerde olabilirler mi?
00:46
Are they going to be around in 50 years?
8
46330
2000
Mesela 50 yıl içinde?
00:48
Yeah, I think that's pretty likely -- there's going to be lots of robots everywhere.
9
48330
3000
Evet, bence bu pekala mümkün. Her yerde oldukça fazla sayıda robot olacak.
00:51
And in fact I think that's going to be a lot sooner than that.
10
51330
3000
Ve aslına bakarsanız, ben bundan da çok önce olacağını düşünüyorum.
00:54
I think we're sort of on the cusp of robots becoming common,
11
54330
4000
Bence şu anda robotların yaygınlaşmasının dönüm noktasındayız.
00:58
and I think we're sort of around 1978 or 1980 in personal computer years,
12
58330
6000
Kişisel bilgisayarların gelişimine göre, 1978 veya 1980'de olduğumuz yerdeyiz.
01:04
where the first few robots are starting to appear.
13
64330
3000
Şu anda ilk birkaç robot daha yeni ortaya çıkmaya başlıyor.
01:07
Computers sort of came around through games and toys.
14
67330
4000
Bilgisayarlar hayatlarımıza oyunlar ve oyuncaklarla girdi sayılır.
01:11
And you know, the first computer most people had in the house
15
71330
3000
Ve bildiğiniz gibi, birçok insanın evindeki ilk bilgisayar
01:14
may have been a computer to play Pong,
16
74330
2000
Pong oynayan, içinde küçük bir mikroişlemcisi olan
01:16
a little microprocessor embedded,
17
76330
2000
bilgisayar idi.
01:18
and then other games that came after that.
18
78330
3000
Ardından diğer oyunlar geldi.
01:21
And we're starting to see that same sort of thing with robots:
19
81330
3000
Şu anda robotlarda da aynı şeyi görüyoruz:
01:24
LEGO Mindstorms, Furbies -- who here -- did anyone here have a Furby?
20
84330
4000
LEGO Mindstorms, Furbyler -- burada kimin -- aranızda Furby'si olan var mı?
01:28
Yeah, there's 38 million of them sold worldwide.
21
88330
3000
Eh tabi, dünya çapında 38 milyon adet satıldı.
01:31
They are pretty common. And they're a little tiny robot,
22
91330
2000
Oldukça yaygınlar. Küçük, ufacık bir robot bu.
01:33
a simple robot with some sensors,
23
93330
2000
Birkaç sensörü olan basit bir robot.
01:35
a little bit of processing actuation.
24
95330
2000
Birkaç hesaplanmış hareketi var.
01:37
On the right there is another robot doll, who you could get a couple of years ago.
25
97330
3000
Sağda ise başka bir robot bebek var, birkaç yıl önce bunlardan satılıyordu.
01:40
And just as in the early days,
26
100330
2000
Ve aynı bilgisayarların ilk günlerindeki gibi,
01:42
when there was a lot of sort of amateur interaction over computers,
27
102330
5000
bilgisayarlarla etkileşimlerin amatör olduğu zamanlar, bugün kendi robotunuzu
01:47
you can now get various hacking kits, how-to-hack books.
28
107330
4000
yapabileceğiniz kitler ve robot yapımıyla ilgili kitaplar satılıyor.
01:51
And on the left there is a platform from Evolution Robotics,
29
111330
4000
Soldaki Evolution Robotics'in sattığı bir platform.
01:55
where you put a PC on, and you program this thing with a GUI
30
115330
3000
Üzerine bir PC koyup, grafik arayüzüyle programlıyorsunuz.
01:58
to wander around your house and do various stuff.
31
118330
3000
Böylece evin içinde gezip, çeşitli işler yapabiliyor.
02:01
And then there's a higher price point sort of robot toys --
32
121330
3000
Bir de daha pahalı, oyuncak diyebileceğimiz, robotlar var.
02:04
the Sony Aibo. And on the right there, is one that the NEC developed,
33
124330
4000
Mesela Sony Aibo. Ve hemen yanındaki de NEC'in geliştirdiği PaPeRo.
02:08
the PaPeRo, which I don't think they're going to release.
34
128330
3000
Sanırım satışa sunmayacaklar.
02:11
But nevertheless, those sorts of things are out there.
35
131330
3000
Ama yine de, bu tip şeyler şu anda var.
02:14
And we've seen, over the last two or three years, lawn-mowing robots,
36
134330
4000
Ve son iki ya da üç yıl içinde, çim biçen robotlar gördük:
02:18
Husqvarna on the bottom, Friendly Robotics on top there, an Israeli company.
37
138330
6000
Alttaki Husqvarna, üstteki bir İsrail şirketi olan Friendly Robotics.
02:24
And then in the last 12 months or so
38
144330
2000
Son 12 ay içinde ise birkaç tane ev temizlik
02:26
we've started to see a bunch of home-cleaning robots appear.
39
146330
4000
robotunun piyasaya çıkışına şahit olduk.
02:30
The top left one is a very nice home-cleaning robot
40
150330
3000
Sol üstteki Dyson diye İngiliz bir şirketin yaptığı, çok güzel bir
02:33
from a company called Dyson, in the U.K. Except it was so expensive --
41
153330
4000
ev temizlik robotu. Ama ne yazık ki çok pahalıya maloldu. 3.500$.
02:37
3,500 dollars -- they didn't release it.
42
157330
2000
Bu yüzden piyasaya sürmediler.
02:39
But at the bottom left, you see Electrolux, which is on sale.
43
159330
3000
Ama şu sol alttaki Electrolux, şu anda satışta.
02:42
Another one from Karcher.
44
162330
2000
Bu da Karcher'nin yaptığı.
02:44
At the bottom right is one that I built in my lab
45
164330
2000
Sağ alttakini ise 10 sene kadar önce ben laboratuvarımda
02:46
about 10 years ago, and we finally turned that into a product.
46
166330
3000
yaptım ve sonunda bir ürüne dönüştürdük.
02:49
And let me just show you that.
47
169330
2000
Durun size göstereyim.
02:51
We're going to give this away I think, Chris said, after the talk.
48
171330
4000
Bunu birine hediye edeceğiz. Chris konuşmadan sonra demişti sanırım.
02:55
This is a robot that you can go out and buy, and that will clean up your floor.
49
175330
6000
Bu robotu gidip satın alıyorsunuz ve sizin yerlerinizi süpürüyor.
03:05
And it starts off sort of just going around in ever-increasing circles.
50
185330
5000
İlk açıldığında, gittikçe büyüyen çemberler çizerek dönmeye başlıyor.
03:10
If it hits something -- you people see that?
51
190330
4000
Birşeye çarparsa -- gördünüz mü?
03:14
Now it's doing wall-following, it's following around my feet
52
194330
3000
Şu anda duvar takip algoritmasıyla ayağımın çevresinden dolanarak
03:17
to clean up around me. Let's see, let's --
53
197330
4000
etrafını süpürüyor. Tamam, şimdi --
03:21
oh, who stole my Rice Krispies? They stole my Rice Krispies!
54
201330
5000
Of, Rice Krispies'imi kim çaldı? Rice Krispies'imi çalmışlar.
03:26
(Laughter)
55
206330
6000
(Gülüşmeler)
03:32
Don't worry, relax, no, relax, it's a robot, it's smart!
56
212330
3000
Sakin olun, rahatlayın, hayır, robot bu, akıllı.
03:35
(Laughter)
57
215330
3000
(Gülüşmeler)
03:38
See, the three-year-old kids, they don't worry about it.
58
218330
4000
Üç yaşındakı çocuklar hiç robota bir şey olacak diye dertlenmiyor.
03:42
It's grown-ups that get really upset.
59
222330
2000
Sadece yetişkinlere dokunuyor nedense.
03:44
(Laughter)
60
224330
1000
(Gülüşmeler)
03:45
We'll just put some crap here.
61
225330
2000
Buraya biraz çer çöp koyalım.
03:47
(Laughter)
62
227330
4000
(Gülüşmeler)
03:51
Okay.
63
231330
2000
Tamam.
03:53
(Laughter)
64
233330
4000
(Gülüşmeler)
03:57
I don't know if you see -- so, I put a bunch of Rice Krispies there,
65
237330
3000
Görebiliyor musunuz bilmiyorum. Buraya biraz Rice Krispies döktüm.
04:00
I put some pennies, let's just shoot it at that, see if it cleans up.
66
240330
7000
Birkaç bozuk para koydum. Bakalım ne yapacak, temizleyebilecek mi?
04:10
Yeah, OK. So --
67
250330
2000
Evet, işte.
04:12
we'll leave that for later.
68
252330
4000
Tamam bunu şimdilik bırakalım.
04:16
(Applause)
69
256330
5000
(Alkışlar)
04:22
Part of the trick was building a better cleaning mechanism, actually;
70
262330
4000
Aslında işin büyük kısmı daha iyi temizleme mekanizması geliştirmekti.
04:26
the intelligence on board was fairly simple.
71
266330
4000
Yapay zekası oldukça basit.
04:30
And that's true with a lot of robots.
72
270330
2000
Aslında bu birçok robot için böyle.
04:32
We've all, I think, become, sort of computational chauvinists,
73
272330
4000
Sanırım, hepimiz sayısal şovenist gibi bir şeylere dönüştük,
04:36
and think that computation is everything,
74
276330
2000
hesaplamanın her şey olduğunu düşünüyoruz,
04:38
but the mechanics still matter.
75
278330
2000
ama mekanik hâlâ çok önemli.
04:40
Here's another robot, the PackBot,
76
280330
3000
Bu da birkaç yıldır geliştirdiğimiz,
04:43
that we've been building for a bunch of years.
77
283330
2000
başka bir robot, PackBot.
04:45
It's a military surveillance robot, to go in ahead of troops --
78
285330
6000
Bir askeri istihbarat robotu. Birliklerin önünden gidip,
04:51
looking at caves, for instance.
79
291330
3000
mağaraları inceliyor mesela.
04:54
But we had to make it fairly robust,
80
294330
2000
Ama tabi bunu oldukça dayanıklı yapmamız gerekti.
04:56
much more robust than the robots we build in our labs.
81
296330
7000
Daha önce laboratuvarda ürettiğimiz tüm robotlardan daha dayanıklı.
05:03
(Laughter)
82
303330
3000
(Gülüşmeler)
05:12
On board that robot is a PC running Linux.
83
312330
4000
Robotun beyni, üzerinde Linux çalışan bir PC.
05:16
It can withstand a 400G shock. The robot has local intelligence:
84
316330
6000
400G'lik şoklara dayanabiliyor. Dahili zekası var:
05:22
it can flip itself over, can get itself into communication range,
85
322330
6000
kendini düz çevirebiliyor, kapsama alanından çıkarsa geri dönebiliyor,
05:28
can go upstairs by itself, et cetera.
86
328330
3000
kendi kendine merdiven çıkabiliyor vs.
05:38
Okay, so it's doing local navigation there.
87
338330
4000
İşte burada yerel navigasyon yapıyor.
05:42
A soldier gives it a command to go upstairs, and it does.
88
342330
6000
Bir asker, merdivenleri çıkma emrini verdi, o da çıkıyor.
05:49
That was not a controlled descent.
89
349330
3000
Bu pek kontrollü bir iniş sayılmaz.
05:52
(Laughter)
90
352330
2000
(Gülüşmeler)
05:54
Now it's going to head off.
91
354330
2000
Şimdi yoluna devam edecek.
05:56
And the big breakthrough for these robots, really, was September 11th.
92
356330
5000
Aslında bu robotların dönüm noktası 11 Eylül oldu.
06:01
We had the robots down at the World Trade Center late that evening.
93
361330
4000
Akşam geç saatte robotları Dünya Ticaret Merkezi'ne götürdük.
06:06
Couldn't do a lot in the main rubble pile,
94
366330
2000
Ana enkazda pek yapabilecekleri bir şey yoktu.
06:08
things were just too -- there was nothing left to do.
95
368330
3000
Orası bayağı -- yapılabilecek bir şey kalmamıştı.
06:11
But we did go into all the surrounding buildings that had been evacuated,
96
371330
5000
Ama çevredeki tüm boşaltılan binalara girerek, bir insanın
06:16
and searched for possible survivors in the buildings
97
376330
3000
girmesi için çok tehlikeli olan yerlerde kısılıp kalan
06:19
that were too dangerous to go into.
98
379330
2000
felaketzede var mı diye kontrol ettik.
06:21
Let's run this video.
99
381330
2000
Şu videoyu oynatalım.
06:23
Reporter: ...battlefield companions are helping to reduce the combat risks.
100
383330
3000
Muhabir: ...savaş alanı yardımcıları savaş risklerini düşürmekte yardımcı oluyorlar.
06:26
Nick Robertson has that story.
101
386330
3000
Nick Robertson bildiriyor.
06:31
Rodney Brooks: Can we have another one of these?
102
391330
2000
Rodney Brooks: Bundan başka var mı bizde?
06:38
Okay, good.
103
398330
2000
Peki, güzel.
06:43
So, this is a corporal who had seen a robot two weeks previously.
104
403330
3000
Bu robotla iki hafta önce tanışmış olan bir onbaşı.
06:48
He's sending robots into caves, looking at what's going on.
105
408330
4000
Robotları mağaraların içine gönderip, ne olup bittiğine bakıyor.
06:52
The robot's being totally autonomous.
106
412330
2000
Robot tamamen kendi başına hareket ediyor.
06:54
The worst thing that's happened in the cave so far
107
414330
4000
Şimdiye kadar mağarada başımıza gelen en kötü şey,
06:58
was one of the robots fell down ten meters.
108
418330
3000
robotlardan birinin 10 metre aşağıya düşmesi oldu.
07:08
So one year ago, the US military didn't have these robots.
109
428330
3000
Bir yıl önce, Amerikan ordusu bu robotlara sahip değildi.
07:11
Now they're on active duty in Afghanistan every day.
110
431330
2000
Artık her gün Afganistan'da aktif görevde kullanılıyorlar.
07:13
And that's one of the reasons they say a robot invasion is happening.
111
433330
3000
İşte bu da, bir robot istilası yaşıyoruz dememin sebeplerinden biri.
07:16
There's a sea change happening in how -- where technology's going.
112
436330
4000
Şu anda teknolojinin gittiği yönde inanılmaz bir değişim yaşanıyor.
07:20
Thanks.
113
440330
2000
Teşekkürler.
07:23
And over the next couple of months,
114
443330
2000
Önümüzdeki birkaç ay içinde
07:25
we're going to be sending robots in production
115
445330
3000
çalışan petrol kuyularına girip son birkaç yıllık petrol rezervini
07:28
down producing oil wells to get that last few years of oil out of the ground.
116
448330
4000
yüzeye çıkartacak robotlar üreteceğiz.
07:32
Very hostile environments, 150˚ C, 10,000 PSI.
117
452330
4000
Oldukça ölümcül bir ortam, 150 derece sıcaklık, 10.000 PSI.
07:36
Autonomous robots going down, doing this sort of work.
118
456330
4000
Otonom robotlar inip, bu tip işleri yapacak.
07:40
But robots like this, they're a little hard to program.
119
460330
3000
Ama bu tip robotları programlamak biraz zor.
07:43
How, in the future, are we going to program our robots
120
463330
2000
Gelecekte robotlarımızı nasıl programlayıp,
07:45
and make them easier to use?
121
465330
2000
kolay kullanılır hale getireceğiz?
07:47
And I want to actually use a robot here --
122
467330
3000
Bunu anlatmak için gerçek bir robot kullanacağım.
07:50
a robot named Chris -- stand up. Yeah. Okay.
123
470330
5000
Chris adında bir robot. Ayağa kalk. Tamam.
07:57
Come over here. Now notice, he thinks robots have to be a bit stiff.
124
477330
4000
Buraya gel. Bakın, robotların sırık yutmuş gibi durması
08:01
He sort of does that. But I'm going to --
125
481330
3000
gerektiğini düşünüyor. Ama ben --
08:04
Chris Anderson: I'm just British. RB: Oh.
126
484330
2000
Chris Anderson: Ben İngilizim. RB: Ah.
08:06
(Laughter)
127
486330
2000
(Gülüşmeler)
08:08
(Applause)
128
488330
2000
(Alkışlar)
08:10
I'm going to show this robot a task. It's a very complex task.
129
490330
3000
Şimdi bu robota bir görev göstereceğim. Oldukça karmaşık bir görev.
08:13
Now notice, he nodded there, he was giving me some indication
130
493330
3000
Bakın, kafasını salladı. İletişimin akışını anladığına dair
08:16
he was understanding the flow of communication.
131
496330
3000
bana bir belirti gösterdi.
08:19
And if I'd said something completely bizarre
132
499330
2000
Tamamen saçma bir şey söylemiş olsaydım eğer,
08:21
he would have looked askance at me, and regulated the conversation.
133
501330
3000
bana yan yan bakıp iletişimi kontrol altına almaya çalışacaktı.
08:24
So now I brought this up in front of him.
134
504330
3000
Şimdi bunu görebileceği bir yere getiriyorum.
08:27
I'd looked at his eyes, and I saw his eyes looked at this bottle top.
135
507330
4000
Gözlerine baktım ve gözlerinin şişe kapağına baktığını gördüm.
08:31
And I'm doing this task here, and he's checking up.
136
511330
2000
Burada bir iş yapıyorum, o da ne yaptığıma bakıyor.
08:33
His eyes are going back and forth up to me, to see what I'm looking at --
137
513330
3000
Gözleri sürekli bir bana, bir de yaptığım işe bakıyor.
08:36
so we've got shared attention.
138
516330
2000
Müşterek bir ilgi odağına sahibiz.
08:38
And so I do this task, and he looks, and he looks to me
139
518330
3000
İşi yaparken izliyor, sonra da ne istediğimi anlamak için
08:41
to see what's happening next. And now I'll give him the bottle,
140
521330
4000
bana bakıyor. Şimdi şişeyi ona vereceğim.
08:45
and we'll see if he can do the task. Can you do that?
141
525330
2000
Bakalım o da yapabilecek mi? Bunu yapabilir misin?
08:47
(Laughter)
142
527330
3000
(Gülüşmeler)
08:50
Okay. He's pretty good. Yeah. Good, good, good.
143
530330
4000
Tamam. Bu işte bayağı iyi. Evet. Aferin, aferin.
08:54
I didn't show you how to do that.
144
534330
2000
Sana onun nasıl yapılacağını göstermedim.
08:56
Now see if you can put it back together.
145
536330
2000
Bakalım şimdi tekrar birleştirebilecek misin?
08:58
(Laughter)
146
538330
2000
(Gülüşmeler)
09:00
And he thinks a robot has to be really slow.
147
540330
1000
Robotların yavaş olması gerektiğini düşünüyor bir de.
09:01
Good robot, that's good.
148
541330
2000
İyi robot, aferin.
09:03
So we saw a bunch of things there.
149
543330
2000
Evet burada birkaç şey yaptık.
09:06
We saw when we're interacting,
150
546330
3000
Birisine bir şeyin nasıl yapılacağını göstermeye çalışırken
09:09
we're trying to show someone how to do something, we direct their visual attention.
151
549330
4000
görsel dikkatini yönlendirdiğimizi gördük.
09:13
The other thing communicates their internal state to us,
152
553330
4000
Diğer nokta da, karşımızdaki bize kendi içsel durumunu,
09:17
whether he's understanding or not, regulates a social interaction.
153
557330
3000
bizi anlayıp anlamadığını belirterek, sosyal etkileşimi yönlendirdi.
09:20
There was shared attention looking at the same sort of thing,
154
560330
2000
Aynı şeye bakarken aramızda müşterek bir ilgi odağı oluştu.
09:22
and recognizing socially communicated reinforcement at the end.
155
562330
4000
Ve son olarak da sosyal olarak aktarılan takdiri de algıladı.
09:26
And we've been trying to put that into our lab robots
156
566330
3000
İşte laboratuvar robotlarımıza bunları yaptırmak istiyoruz,
09:29
because we think this is how you're going to want to interact with robots in the future.
157
569330
4000
çünkü gelecekte robotlarla bu şekilde iletişim kurmak isteyeceğinizi düşünüyoruz.
09:33
I just want to show you one technical diagram here.
158
573330
2000
Burada size bir teknik çizim göstermek istiyorum.
09:35
The most important thing for building a robot that you can interact with socially
159
575330
4000
Sosyal olarak iletişim kurabilieceğiniz bir robotta en önemli şey,
09:39
is its visual attention system.
160
579330
2000
görsel dikkat sistemidir.
09:41
Because what it pays attention to is what it's seeing
161
581330
3000
Çünkü o sırada dikkatini yönelttiği şey, gördüğü ve
09:44
and interacting with, and what you're understanding what it's doing.
162
584330
3000
etkileşimde bulunduğu şeydir. Ve bu sayede neyle ilgilendiğini anlayabilirsiniz.
09:47
So in the videos I'm about to show you,
163
587330
3000
Şimdi size göstereceğim videolarda
09:50
you're going to see a visual attention system on a robot
164
590330
4000
bir robotun görsel dikkat sistemini göreceksiniz.
09:54
which has -- it looks for skin tone in HSV space,
165
594330
4000
HSV renk uzayında ten rengini arıyor,
09:58
so it works across all human colorings.
166
598330
4000
tüm insan ten renklerini algılayabiliyor.
10:02
It looks for highly saturated colors, from toys.
167
602330
2000
Oyuncakların doygun renklerini arıyor.
10:04
And it looks for things that move around.
168
604330
2000
Ve hareket eden şeyleri arıyor.
10:06
And it weights those together into an attention window,
169
606330
3000
Bütün bunları, bir dikkat penceresi dahilinde belirli ağırlıklarla toplayıp
10:09
and it looks for the highest-scoring place --
170
609330
2000
en yüksek puanı alan, dolayısıyla
10:11
the stuff where the most interesting stuff is happening --
171
611330
2000
en ilginç şeylerin olduğu alanı buluyor.
10:13
and that is what its eyes then segue to.
172
613330
4000
Ve bakışını oraya yönlendirerek
10:17
And it looks right at that.
173
617330
2000
direkt oraya bakıyor.
10:19
At the same time, some top-down sort of stuff:
174
619330
3000
Bu sırada da yukarıdan aşağıya çalışan bir işlev
10:22
might decide that it's lonely and look for skin tone,
175
622330
3000
yalnız olduğuna karar verip ten rengi aramaya,
10:25
or might decide that it's bored and look for a toy to play with.
176
625330
3000
veya canının sıkıldığına karar verip bir oyuncak aramaya karar verebilir.
10:28
And so these weights change.
177
628330
2000
Böylece ağırlıklar değişir.
10:30
And over here on the right,
178
630330
2000
Ve burada sağdaki de
10:32
this is what we call the Steven Spielberg memorial module.
179
632330
3000
Steven Spielberg hatıra modülü ismini verdiğimiz modül.
10:35
Did people see the movie "AI"? (Audience: Yes.)
180
635330
2000
AI filmini gördünüz mü? Seyirciler: Evet.
10:37
RB: Yeah, it was really bad, but --
181
637330
2000
RB: Evet, bayağı kötü bir filmdi ama --
10:39
remember, especially when Haley Joel Osment, the little robot,
182
639330
4000
Küçük robot Haley Joel Osment'in gözlerini ayırmadan
10:43
looked at the blue fairy for 2,000 years without taking his eyes off it?
183
643330
4000
2.000 yıl boyunca mavi periye baktığını hatırlıyor musunuz?
10:47
Well, this gets rid of that,
184
647330
2000
İşte bu, o problemi çözüyor.
10:49
because this is a habituation Gaussian that gets negative,
185
649330
4000
Aynı şeye baktığı sürece negatife düşüp genliği artan bir
10:53
and more and more intense as it looks at one thing.
186
653330
3000
Gauss alışma fonksiyonu.
10:56
And it gets bored, so it will then look away at something else.
187
656330
3000
Böylece baktığı şeyden bir süre sonra sıkılıp, başka bir şeye bakıyor.
10:59
So, once you've got that -- and here's a robot, here's Kismet,
188
659330
4000
Böylece -- işte bir robot daha, işte Kismet.
11:03
looking around for a toy. You can tell what it's looking at.
189
663330
4000
Bir oyuncak arıyor. Neye baktığını anlayabilirsiniz.
11:07
You can estimate its gaze direction from those eyeballs covering its camera,
190
667330
5000
Ne yöne baktığı, kamerasının önünde duran gözbebeklerinden belli oluyor.
11:12
and you can tell when it's actually seeing the toy.
191
672330
3000
Oyuncağı ne zaman gördüğünü anlayabiliyorsunuz.
11:15
And it's got a little bit of an emotional response here.
192
675330
2000
Bakın, ufak bir duygusal tepki verdi.
11:17
(Laughter)
193
677330
1000
(Gülüşmeler)
11:18
But it's still going to pay attention
194
678330
2000
Ama hâlâ görüş alanına daha önemli bir şey girerse,
11:20
if something more significant comes into its field of view --
195
680330
4000
dikkatini oraya yönlendirebilir.
11:24
such as Cynthia Breazeal, the builder of this robot, from the right.
196
684330
4000
Mesela sağdan görüş alanına giren Cynthia Breazeal. Bu robotun yapımcısı.
11:28
It sees her, pays attention to her.
197
688330
5000
İşte onu görüyor ve dikkatini ona yönlendiriyor.
11:33
Kismet has an underlying, three-dimensional emotional space,
198
693330
4000
Kismet'in altyapısında üç boyutlu bir duygu uzayı var.
11:37
a vector space, of where it is emotionally.
199
697330
3000
Duygusal olarak ne durumda olduğunu gösteren bir vektör uzayı.
11:40
And at different places in that space, it expresses --
200
700330
5000
O uzayın farklı noktalarında, farklı --
11:46
can we have the volume on here?
201
706330
2000
burada sesi biraz açabilir miyiz?
11:48
Can you hear that now, out there? (Audience: Yeah.)
202
708330
2000
Oradan duyabiliyor musunuz? Seyirciler: Evet.
11:50
Kismet: Do you really think so? Do you really think so?
203
710330
5000
Kismet: Öyle mi düşünüyorsun? Öyle mi düşünüyorsun?
11:57
Do you really think so?
204
717330
2000
Öyle mi düşünüyorsun?
12:00
RB: So it's expressing its emotion through its face
205
720330
3000
RB: Gördüğünüz gibi duygularını suratıyla ve
12:03
and the prosody in its voice.
206
723330
2000
sesindeki tonlama ile ifade ediyor.
12:05
And when I was dealing with my robot over here,
207
725330
4000
Ben de burada kendi robotum Chris'le uğraşırken,
12:09
Chris, the robot, was measuring the prosody in my voice,
208
729330
3000
o da benim sesimdeki tonlamaya dikkat ediyordu.
12:12
and so we have the robot measure prosody for four basic messages
209
732330
5000
Burada, annelerin çocuklarına henüz dili anlamaya başlamadan önce
12:17
that mothers give their children pre-linguistically.
210
737330
4000
verdikleri dört temel mesajı baz alıyoruz.
12:21
Here we've got naive subjects praising the robot:
211
741330
3000
Burada tecrübesiz denekler robotu övüyor.
12:26
Voice: Nice robot.
212
746330
2000
Ses: Tatlı robot.
12:29
You're such a cute little robot.
213
749330
2000
Sen çok şirin bir robotsun.
12:31
(Laughter)
214
751330
2000
(Gülüşmeler)
12:33
RB: And the robot's reacting appropriately.
215
753330
2000
Robot da ona göre tepki veriyor.
12:35
Voice: ...very good, Kismet.
216
755330
4000
Ses: ...aferin Kismet.
12:40
(Laughter)
217
760330
2000
(Gülüşmeler)
12:42
Voice: Look at my smile.
218
762330
2000
Ses: Gülümsememe bak.
12:46
RB: It smiles. She imitates the smile. This happens a lot.
219
766330
3000
RB: Aslında robot gülümsüyor, kadın da gülümsemeyi taklit ediyor. Bu çok oluyor.
12:49
These are naive subjects.
220
769330
2000
Bunlar tecrübesiz denekler.
12:51
Here we asked them to get the robot's attention
221
771330
3000
Burada robotun dikkatini çekmeye çalışmalarını
12:54
and indicate when they have the robot's attention.
222
774330
3000
ve dikkatini çektiklerini düşündüklerinde belirtmelerini istedik.
12:57
Voice: Hey, Kismet, ah, there it is.
223
777330
4000
Ses: Hey, Kismet. Ah, işte.
13:01
RB: So she realizes she has the robot's attention.
224
781330
4000
RB: Robotun dikkatini çekebildiğini anladı.
13:08
Voice: Kismet, do you like the toy? Oh.
225
788330
4000
Ses: Kismet, oyuncağı sevdin mi? Oh.
13:13
RB: Now, here they're asked to prohibit the robot,
226
793330
2000
RB: Burada da robotu engellemelerini söyledik.
13:15
and this first woman really pushes the robot into an emotional corner.
227
795330
4000
Bu kadın ilk defa robotu gerçekten duygusal olarak köşeye sıkıştırdı.
13:19
Voice: No. No. You're not to do that. No.
228
799330
5000
Ses: Hayır. Hayır. Onu yapmayacaksın. Hayır.
13:24
(Laughter)
229
804330
3000
(Gülüşmeler)
13:27
Not appropriate. No. No.
230
807330
6000
Ses: Uygun değil. Hayır. Hayır.
13:33
(Laughter)
231
813330
3000
(Gülüşmeler)
13:36
RB: I'm going to leave it at that.
232
816330
2000
RB: Bu kadarı yeter.
13:38
We put that together. Then we put in turn taking.
233
818330
2000
Bunları yaptık. Sonra da konuşma sırasını ekledik.
13:40
When we talk to someone, we talk.
234
820330
3000
Biriyle konuşurken, konuşuruz,
13:43
Then we sort of raise our eyebrows, move our eyes,
235
823330
4000
sonra kaşlarımızı kaldırır, gözlerimizi oynatır,
13:47
give the other person the idea it's their turn to talk.
236
827330
3000
bir şekilde karşımızdaki insana sıranın kendisinde olduğunu hissettiririz.
13:50
And then they talk, and then we pass the baton back and forth between each other.
237
830330
4000
Sonra o konuşur, ve sırayla bayrağı elden ele veririz.
13:54
So we put this in the robot.
238
834330
2000
İşte bunu da bu robota ekledik.
13:56
We got a bunch of naive subjects in,
239
836330
2000
Tecrübesiz denekler kullandık,
13:58
we didn't tell them anything about the robot,
240
838330
2000
onlara robot hakkında hiçbir şey anlatmadık,
14:00
sat them down in front of the robot and said, talk to the robot.
241
840330
2000
onları robotun karşısına oturttuk ve robotla konuşmalarını söyledik.
14:02
Now what they didn't know was,
242
842330
2000
Bilmedikleri şey,
14:04
the robot wasn't understanding a word they said,
243
844330
2000
robotun onların dediklerini anlamaması
14:06
and that the robot wasn't speaking English.
244
846330
3000
ve robotun İngilizce konuşmuyor oluşuydu.
14:09
It was just saying random English phonemes.
245
849330
2000
Sadece rasgele İngilizce fonemler kullanıyordu.
14:11
And I want you to watch carefully, at the beginning of this,
246
851330
2000
Şimdi dikkatlice izlemenizi istiyorum, başlangıçta,
14:13
where this person, Ritchie, who happened to talk to the robot for 25 minutes --
247
853330
4000
Ritchie, 25 dakikadır robotla konuşan kişi --
14:17
(Laughter)
248
857330
2000
(Gülüşmeler)
14:19
-- says, "I want to show you something.
249
859330
2000
-- diyor ki, "Sana bir şey göstermek istiyorum.
14:21
I want to show you my watch."
250
861330
2000
Sana saatimi göstermek istiyorum."
14:23
And he brings the watch center, into the robot's field of vision,
251
863330
5000
ve saati ortaya, robotun görüş alanına getiriyor,
14:28
points to it, gives it a motion cue,
252
868330
2000
ona doğru tutuyor, bir duygu sinyali yolluyor
14:30
and the robot looks at the watch quite successfully.
253
870330
2000
ve robot saate oldukça başarılı bir şekilde bakıyor.
14:32
We don't know whether he understood or not that the robot --
254
872330
3000
Robotun durumunu anlayıp anlamadığı hakkında --
14:36
Notice the turn-taking.
255
876330
2000
kafasını çevirişine dikkat.
14:38
Ritchie: OK, I want to show you something. OK, this is a watch
256
878330
3000
Ritchie: Pekala, sana bir şey göstermek istiyorum. Bu bir saat
14:41
that my girlfriend gave me.
257
881330
3000
kız arkadaşım vermişti.
14:44
Robot: Oh, cool.
258
884330
2000
Robot: Oh, harika.
14:46
Ritchie: Yeah, look, it's got a little blue light in it too. I almost lost it this week.
259
886330
4000
Ritchie: Evet, bak, küçük mavi bir ışığı da var. Bunu geçen hafta az daha kaybediyordum.
14:51
(Laughter)
260
891330
4000
(Gülüşmeler)
14:55
RB: So it's making eye contact with him, following his eyes.
261
895330
3000
RB: İşte onunla göz teması kuruyor, gözlerini izliyor.
14:58
Ritchie: Can you do the same thing? Robot: Yeah, sure.
262
898330
2000
Ritchie: Aynısını yapabilir misin? Robot: Tabi ki.
15:00
RB: And they successfully have that sort of communication.
263
900330
2000
RB: Ve başarılı bir şekilde iletişim kurmuş oluyorlar.
15:02
And here's another aspect of the sorts of things that Chris and I were doing.
264
902330
4000
Ve burada da Chris ve benim yapmakta olduğumuz şeyin başka bir şekli var.
15:06
This is another robot, Cog.
265
906330
2000
Bu başka bir robot, Cog.
15:08
They first make eye contact, and then, when Christie looks over at this toy,
266
908330
6000
Önce göz temasını kuruyorlar, ardından Christie oyuncağa baktığı zaman,
15:14
the robot estimates her gaze direction
267
914330
2000
robot onun baktığı doğrultuyu tahmin ediyor
15:16
and looks at the same thing that she's looking at.
268
916330
2000
ve baktığı şey ne ise ona doğru bakıyor.
15:18
(Laughter)
269
918330
1000
(Gülüşmeler)
15:19
So we're going to see more and more of this sort of robot
270
919330
3000
Bu çeşit robotları önümüzdeki 5 yıl içerisinde
15:22
over the next few years in labs.
271
922330
2000
laboratuvarlarda daha fazla göreceğiz.
15:24
But then the big questions, two big questions that people ask me are:
272
924330
5000
Fakat bu durumda önemli sorular çıkıyor, insanların bana sorduğu iki önemli soru:
15:29
if we make these robots more and more human-like,
273
929330
2000
eğer bu robotlar daha ve daha fazla insan özelliği taşıyacaksa,
15:31
will we accept them, will we -- will they need rights eventually?
274
931330
5000
onları kabul edecek miyiz, haklara ihtiyaç duyacaklar mı?
15:36
And the other question people ask me is, will they want to take over?
275
936330
3000
Bana sorulan öteki soru ise ileride ele geçirme isteklerinin olup olmayacağı.
15:39
(Laughter)
276
939330
1000
(Gülüşmeler)
15:40
And on the first -- you know, this has been a very Hollywood theme
277
940330
3000
İlkine dönersek -- biliyorsunuz bu birçok filmde görülen
15:43
with lots of movies. You probably recognize these characters here --
278
943330
3000
bir Hollywood teması. Muhtemelen buradaki karakterleri anımsayacaksınız,
15:46
where in each of these cases, the robots want more respect.
279
946330
4000
robotlar bu filmlerin her birinde daha fazla saygınlık istiyordu.
15:50
Well, do you ever need to give robots respect?
280
950330
3000
Peki, hiç robotlara daha fazla saygınlık verme ihtiyacı hissettiniz mi?
15:54
They're just machines, after all.
281
954330
2000
Sonuçta onlar sadece makine.
15:56
But I think, you know, we have to accept that we are just machines.
282
956330
4000
Fakat bence, bilirsiniz, bizler de sadece makineler olduğumuzu
16:00
After all, that's certainly what modern molecular biology says about us.
283
960330
5000
kabul etmeliyiz. Bu modern biyolojinin bizim hakkımızda söylediği şey.
16:05
You don't see a description of how, you know,
284
965330
3000
Nasıl olduğuna dair bir açıklama yok, sadece biliyorsunuz,
16:08
Molecule A, you know, comes up and docks with this other molecule.
285
968330
4000
A molekülü gelip başka bir molekülle bağ kuruyor.
16:12
And it's moving forward, you know, propelled by various charges,
286
972330
3000
Ve çeşitli kuvvetlerce itilerek ileriye gidiyor,
16:15
and then the soul steps in and tweaks those molecules so that they connect.
287
975330
4000
sonra ruh devreye giriyor ve molekülleri öyle değiştiriyor ki birbirlerine bağlanıyorlar.
16:19
It's all mechanistic. We are mechanism.
288
979330
3000
Tamamen mekaniksel, biz mekanizmalarız.
16:22
If we are machines, then in principle at least,
289
982330
3000
Eğer biz makineler isek, en azından prensipte
16:25
we should be able to build machines out of other stuff,
290
985330
4000
başka şeylerden en az bizim kadar canlı makineleri
16:29
which are just as alive as we are.
291
989330
4000
yapma yeteneğine sahip olmamız gerekir.
16:33
But I think for us to admit that,
292
993330
2000
Fakat bunu kabul etmek için,
16:35
we have to give up on our special-ness, in a certain way.
293
995330
3000
özel olduğumuz düşüncesinden bir yönüyle vazgeçmemiz gerekir.
16:38
And we've had the retreat from special-ness
294
998330
2000
Son birkaç yüzyıldır
16:40
under the barrage of science and technology many times
295
1000330
3000
bilim ve teknoloji duvarına çarptıkça,
16:43
over the last few hundred years, at least.
296
1003330
2000
bu düşüncemizden defalarca taviz verdik.
16:45
500 years ago we had to give up the idea
297
1005330
2000
Evrenin merkezinde olduğumuz düşüncesini
16:47
that we are the center of the universe
298
1007330
3000
500 yıl önce dünya güneşin çevresinde
16:50
when the earth started to go around the sun;
299
1010330
2000
dönmeye başladığında bırakmak zorundaydık.
16:52
150 years ago, with Darwin, we had to give up the idea we were different from animals.
300
1012330
5000
150 yıl önce Darwin sayesinde hayvanlardan ayrı olduğumuz düşüncesini bırakmak zorunda kaldık.
16:57
And to imagine -- you know, it's always hard for us.
301
1017330
3000
Ve tahmin ettiğiniz gibi bu bizim için her zaman sancılı oldu.
17:00
Recently we've been battered with the idea that maybe
302
1020330
3000
Burada, dünyada kendimize ait bir yaradılış olayının
17:03
we didn't even have our own creation event, here on earth,
303
1023330
2000
olmayabileceği fikri son zamanlarda bizi oldukça sarsmıştı.
17:05
which people didn't like much. And then the human genome said,
304
1025330
3000
İnsanlar bundan hoşlanmadı. Sonra insan genomu bize
17:08
maybe we only have 35,000 genes. And that was really --
305
1028330
3000
sadece 35.000 genden ibaret olabileceğimizi söyledi. Bu gerçekten --
17:11
people didn't like that, we've got more genes than that.
306
1031330
3000
insanlar bunu sevmediler, bundan daha fazla gene sahip olmalıydık.
17:14
We don't like to give up our special-ness, so, you know,
307
1034330
3000
Özel olduğumuz düşüncesini bırakmayı sevmiyoruz, bu yüzden
17:17
having the idea that robots could really have emotions,
308
1037330
2000
robotların gerçekten duyguları olabileceği
17:19
or that robots could be living creatures --
309
1039330
2000
ya da robotların yaşayan canlılar olabileceği
17:21
I think is going to be hard for us to accept.
310
1041330
2000
fikrini bence kabullenmekte zorlanacağız.
17:23
But we're going to come to accept it over the next 50 years or so.
311
1043330
4000
Fakat aşağı yukarı sonraki 50 yıl içinde bunu kabulleneceğiz.
17:27
And the second question is, will the machines want to take over?
312
1047330
3000
İkinci soru: makineler yönetimi ele geçirmek isteyecekler mi?
17:30
And here the standard scenario is that we create these things,
313
1050330
5000
Alışılmış senaryoya göre biz bunları yaparız,
17:35
they grow, we nurture them, they learn a lot from us,
314
1055330
3000
büyürler, onları besleriz, bizden çok şey öğrenirler
17:38
and then they start to decide that we're pretty boring, slow.
315
1058330
4000
ve sonra bizim oldukça sıkıcı ve yavaş olduğumuzu düşünmeye başlarlar.
17:42
They want to take over from us.
316
1062330
2000
İktidarı bizden alırlar.
17:44
And for those of you that have teenagers, you know what that's like.
317
1064330
3000
Aranızda ergen çocukları olanlar ne demek istediğimi anlamıştır.
17:47
(Laughter)
318
1067330
1000
(Gülüşmeler)
17:48
But Hollywood extends it to the robots.
319
1068330
3000
Fakat Hollywood bunu robotlara taşıdı.
17:51
And the question is, you know,
320
1071330
3000
Sorulan soru şu:
17:54
will someone accidentally build a robot that takes over from us?
321
1074330
4000
birileri kazara iktidarı ele geçirmek isteyecek bir robot yapar mı?
17:58
And that's sort of like this lone guy in the backyard,
322
1078330
3000
Bu arka bahçedeki şu yalnız çocuğu andırıyor,
18:01
you know -- "I accidentally built a 747."
323
1081330
3000
var ya "Kazara bir 747 inşa ettim."
18:04
I don't think that's going to happen.
324
1084330
2000
Bunun gerçekleşeceğini sanmıyorum
18:06
And I don't think --
325
1086330
2000
ve zannetmiyorum ki --
18:08
(Laughter)
326
1088330
1000
(Gülüşmeler)
18:09
-- I don't think we're going to deliberately build robots
327
1089330
3000
-- zannetmiyorum ki bile bile sorun yaratacak
18:12
that we're uncomfortable with.
328
1092330
2000
robotlar yapalım.
18:14
We'll -- you know, they're not going to have a super bad robot.
329
1094330
2000
Birden süper kötü bir robot yapılmayacaktır.
18:16
Before that has to come to be a mildly bad robot,
330
1096330
3000
Buna gelene kadar önce orta kötülükte bir robot,
18:19
and before that a not so bad robot.
331
1099330
2000
ondan önce de fazla kötülüğü olmayan bir robot.
18:21
(Laughter)
332
1101330
1000
(Gülüşmeler)
18:22
And we're just not going to let it go that way.
333
1102330
2000
Bunun böyle gitmesine izin vermeyiz herhalde.
18:24
(Laughter)
334
1104330
1000
(Gülüşmeler)
18:25
So, I think I'm going to leave it at that: the robots are coming,
335
1105330
6000
Yani bu konuyu şuraya bağlayacağım: robotlar geliyorlar.
18:31
we don't have too much to worry about, it's going to be a lot of fun,
336
1111330
3000
Bunun hakkında fazla endişe etmeye gerek yok, oldukça eğlenceli olacak
18:34
and I hope you all enjoy the journey over the next 50 years.
337
1114330
4000
ve ümit ediyorum ki hepiniz sonraki 50 senelik yolculukta epeyce eğleneceksiniz.
18:38
(Applause)
338
1118330
2000
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7