What's it like to be a robot? | Leila Takayama

92,193 views ・ 2018-02-16

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Saliha Karatepeli Gözden geçirme: Nihal Aksakal
00:12
You only get one chance to make a first impression,
0
12760
2656
İlk izlenim oluşturmak için sadece bir şansınız vardır
00:15
and that's true if you're a robot as well as if you're a person.
1
15440
3176
ve bu insansanız da robotsanız da böyledir.
00:18
The first time that I met one of these robots
2
18640
3016
Bu robotlardan biriyle ilk tanışmam
00:21
was at a place called Willow Garage in 2008.
3
21680
2896
2008'de Willow Garage adlı bir mekandaydı.
00:24
When I went to visit there, my host walked me into the building
4
24600
3016
Oraya ziyarete gittiğimde ev sahibiyle binaya girdik
00:27
and we met this little guy.
5
27640
1576
ve bu küçük adamla tanıştım.
00:29
He was rolling into the hallway,
6
29240
1656
Koridorda dolanıyordu,
00:30
came up to me, sat there,
7
30920
1816
yanıma geldi, oturdu
00:32
stared blankly past me,
8
32760
2256
ve boş boş arkama baktı,
00:35
did nothing for a while,
9
35040
1656
bir süre hiçbir şey yapmadı,
00:36
rapidly spun his head around 180 degrees
10
36720
1936
hızlıca başını 180 derece döndürdü
00:38
and then ran away.
11
38680
1536
ve sonra kaçtı.
00:40
And that was not a great first impression.
12
40240
2176
Bu iyi bir ilk izlenim değildi.
00:42
The thing that I learned about robots that day
13
42440
2176
O gün robotlarla ilgili öğrendiğim şey,
00:44
is that they kind of do their own thing,
14
44640
2176
kendilerine has davranışları olduğu
00:46
and they're not totally aware of us.
15
46840
2136
ve tam olarak farkımızda olmadıkları.
00:49
And I think as we're experimenting with these possible robot futures,
16
49000
3239
Bence, muhtemel robot özelliklerini denerken
00:52
we actually end up learning a lot more about ourselves
17
52263
2673
bu makinelerin karşıtı olan kendimiz hakkında
00:54
as opposed to just these machines.
18
54960
1656
çok fazla şey öğreniyoruz.
00:56
And what I learned that day
19
56640
1336
O gün öğrendiğim şeyse,
00:58
was that I had pretty high expectations for this little dude.
20
58000
3416
küçük dostumuzdan çok fazla beklentim olduğuydu.
01:01
He was not only supposed to be able to navigate the physical world,
21
61440
3176
Sadece fiziksel dünyayı değil,
01:04
but also be able to navigate my social world --
22
64640
2656
benim sosyal dünyamı da saptamalıydı --
01:07
he's in my space; it's a personal robot.
23
67320
2176
benim alanımda; o kişisel bir robot.
01:09
wWhy didn't it understand me?
24
69520
2016
Neden beni anlamadı?
01:11
My host explained to me,
25
71560
1256
Ev sahibi: "Robot A noktasından B noktasına gitmeye çalışıyor,
01:12
"Well, the robot is trying to get from point A to point B,
26
72840
3176
sen de onun yolundaki bir engeldin
01:16
and you were an obstacle in his way,
27
76040
1776
ve nereye gideceğini bulması,
01:17
so he had to replan his path,
28
77840
2016
rotasını tekrar planlaması,
01:19
figure out where to go,
29
79880
1256
sonra oraya başka bir yoldan gitmesi gerek."
01:21
and then get there some other way,"
30
81160
1696
diye açıkladı.
01:22
which was actually not a very efficient thing to do.
31
82880
2456
Aslında bu pek etkili bir davranış değildi.
01:25
If that robot had figured out that I was a person, not a chair,
32
85360
3256
Eğer o robot, bir sandalye değil de insan olduğumun
ve bir yere ulaşmaya çalıştığında
01:28
and that I was willing to get out of its way
33
88640
2096
yolundan çekilmeye istekli olduğumun farkına varsaydı,
01:30
if it was trying to get somewhere,
34
90760
1656
01:32
then it actually would have been more efficient
35
92440
2216
eğer insan olduğumu ve sandalye, duvar gibi şeylerden
01:34
at getting its job done
36
94680
1256
farklı kabiliyetlerim olduğunu
01:35
if it had bothered to notice that I was a human
37
95960
2216
fark etme zahmetine girseydi,
01:38
and that I have different affordances than things like chairs and walls do.
38
98200
3576
işini yerine getirmede daha etkili olurdu.
01:41
You know, we tend to think of these robots as being from outer space
39
101800
3216
Robotları uzaydan gelme,
geleceğe ait, bilim kurguya ait gibi düşünme eğilimimiz var.
01:45
and from the future and from science fiction,
40
105040
2136
01:47
and while that could be true,
41
107200
1416
Bu doğru olabilirken
01:48
I'd actually like to argue that robots are here today,
42
108640
2656
sizinle robotların bugün burada olduğunu,
01:51
and they live and work amongst us right now.
43
111320
2776
aramızda yaşadıklarını ve çalıştıklarını konuşmak istiyorum.
01:54
These are two robots that live in my home.
44
114120
2856
Evimde yaşayan iki robot var.
01:57
They vacuum the floors and they cut the grass
45
117000
2496
Her gün
evi süpürüp çimenleri biçiyorlar.
01:59
every single day,
46
119520
1216
02:00
which is more than I would do if I actually had time to do these tasks,
47
120760
3376
Doğrusu bu, eğer vaktim olsa benim yapacağımdan daha fazlası
02:04
and they probably do it better than I would, too.
48
124160
2336
ve muhtemelen benden daha iyi yapıyorlar.
02:06
This one actually takes care of my kitty.
49
126520
2496
Bu aslında kedimle ilgileniyor.
02:09
Every single time he uses the box, it cleans it,
50
129040
2576
Her kabı kullandığında temizliyor,
02:11
which is not something I'm willing to do,
51
131640
1976
ki bu yapmaya can attığım bir şey değil
02:13
and it actually makes his life better as well as mine.
52
133640
2576
ve onun hayatını da en az benimki kadar kolaylaştırıyor.
02:16
And while we call these robot products --
53
136240
2416
Bu robotları "robot elektrikli süpürge,
02:18
it's a "robot vacuum cleaner, it's a robot lawnmower,
54
138680
2696
robot çim biçme makinesi, robot kedi kumluğu"
02:21
it's a robot littler box,"
55
141400
1495
diye adlandırırken
02:22
I think there's actually a bunch of other robots hiding in plain sight
56
142919
4137
bence gözümüzün önünde saklanan
02:27
that have just become so darn useful
57
147080
1856
çok kullanışlı ve çok sıradan
02:28
and so darn mundane
58
148960
1456
bir sürü robot var.
02:30
that we call them things like, "dishwasher," right?
59
150440
2496
Onlara "bulaşık makinesi" gibi isimler takmışız, değil mi?
02:32
They get new names.
60
152960
1216
Yeni isimleri var.
02:34
They don't get called robot anymore
61
154200
1696
Robot olarak adlandırılmıyorlar
02:35
because they actually serve a purpose in our lives.
62
155920
2416
çünkü hayatımızda bir amaca hizmet ediyorlar.
Aynı termostat gibi, değil mi?
02:38
Similarly, a thermostat, right?
63
158360
1496
02:39
I know my robotics friends out there
64
159880
1776
Bunu duyan robot arkadaşlarım
02:41
are probably cringing at me calling this a robot,
65
161680
2336
muhtemelen onu bir robot olarak adlandırdığım için tüyleri ürperdi
02:44
but it has a goal.
66
164040
1256
ama onun da bir amacı var.
02:45
Its goal is to make my house 66 degrees Fahrenheit,
67
165320
2896
Amacı evimi 18 derecede tutmak
02:48
and it senses the world.
68
168240
1256
ve dünyayı hissedebiliyor.
02:49
It knows it's a little bit cold,
69
169520
1576
Birazcık soğuk olduğunu bilebiliyor,
02:51
it makes a plan and then it acts on the physical world.
70
171120
2616
bir plan yapıp sonra hayata geçirebiliyor.
02:53
It's robotics.
71
173760
1256
Bu robot bilim.
Robot Rosie gibi görünmese de
02:55
Even if it might not look like Rosie the Robot,
72
175040
2576
02:57
it's doing something that's really useful in my life
73
177640
2936
hayatımda çok faydalı bir iş yapıyor,
03:00
so I don't have to take care
74
180600
1376
böylece ısıyı kendim ayarlamakla
03:02
of turning the temperature up and down myself.
75
182000
2576
uğraşmak zorunda kalmıyorum.
03:04
And I think these systems live and work amongst us now,
76
184600
3816
Bence bu sistemler aramızda yaşıyor ve çalışıyor.
03:08
and not only are these systems living amongst us
77
188440
2336
Ve sadece aramızda yaşamakla kalmıyorlar,
03:10
but you are probably a robot operator, too.
78
190800
2656
muhtemelen siz de bir robot kullanıcısısınız.
03:13
When you drive your car,
79
193480
1256
Arabanızı kullanırken
03:14
it feels like you are operating machinery.
80
194760
2216
bir makineyi kullandığınızı hissediyorsunuz.
03:17
You are also going from point A to point B,
81
197000
2816
Ayrıca A noktasından B noktasına gidiyorsunuz
03:19
but your car probably has power steering,
82
199840
2216
ama muhtemelen arabanızın hidrolik direksiyonu,
03:22
it probably has automatic braking systems,
83
202080
2696
otomatik fren sistemi,
03:24
it might have an automatic transmission and maybe even adaptive cruise control.
84
204800
3736
otomatik vitesi hatta uyarlanabilir seyir kontrolü bile olabilir.
03:28
And while it might not be a fully autonomous car,
85
208560
2936
Tamamen otonom olmasa bile
03:31
it has bits of autonomy,
86
211520
1296
otonom parçaları var,
03:32
and they're so useful
87
212840
1336
faydalılar
ve daha güvenli sürüş yapmamızı sağlıyorlar
03:34
and they make us drive safer,
88
214200
1816
03:36
and we just sort of feel like they're invisible-in-use, right?
89
216040
3656
ama kullanırken görünmezlermiş gibi hissediyoruz, değil mi?
03:39
So when you're driving your car,
90
219720
1576
Arabanızı sürerken
03:41
you should just feel like you're going from one place to another.
91
221320
3096
bir yerden başka bir yere gidiyormuş gibi hissetmelisiniz.
03:44
It doesn't feel like it's this big thing that you have to deal with and operate
92
224440
3736
İdare etmeniz, kullanmanız ve kontrolleri kullanmayı öğrenmeniz gereken
koca şey gibi hissettirmiyor
03:48
and use these controls
93
228200
1256
03:49
because we spent so long learning how to drive
94
229480
2176
çünkü nasıl sürüleceğini öğrenmek için o kadar çok zaman harcıyoruz ki
03:51
that they've become extensions of ourselves.
95
231680
2696
bir uzvumuz haline geliyorlar.
03:54
When you park that car in that tight little garage space,
96
234400
2696
Arabanı küçücük dar garaj alanına park ederken
03:57
you know where your corners are.
97
237120
1576
köşelerinin farkında oluyorsun.
03:58
And when you drive a rental car that maybe you haven't driven before,
98
238720
3256
Daha önce sürmediğin bir kiralık aracı sürerken
yeni robot bedenine alışman biraz zaman alıyor.
04:02
it takes some time to get used to your new robot body.
99
242000
3056
Bu diğer robot türlerini kullanan insanlar için de geçerli,
04:05
And this is also true for people who operate other types of robots,
100
245080
3976
sizlerle bununla ilgili birkaç hikaye paylaşmak istiyorum.
04:09
so I'd like to share with you a few stories about that.
101
249080
2600
04:12
Dealing with the problem of remote collaboration.
102
252240
2336
Uzaktan kumanda işbirliği ile uğraşmak.
04:14
So, at Willow Garage I had a coworker named Dallas,
103
254600
2576
Willow Garage' da Dallas adında bir iş arkadaşım vardı
04:17
and Dallas looked like this.
104
257200
1576
ve böyle görünüyordu.
04:18
He worked from his home in Indiana in our company in California.
105
258800
4056
Indiana'daki evinden California'daki şirketimiz için çalışıyordu.
04:22
He was a voice in a box on the table in most of our meetings,
106
262880
2936
Toplantılarımızın çoğunda masanın üstündeki kutudaki bir sesti,
04:25
which was kind of OK except that, you know,
107
265840
2215
aslında bilirsiniz eğer hararetli bir tartışma yapıyorsak
04:28
if we had a really heated debate and we didn't like what he was saying,
108
268079
3377
ve söylediklerini duymak istemezsek yüzüne kapatabilirdik,
04:31
we might just hang up on him.
109
271480
1416
bunun dışında pek de önemli değildi.
04:32
(Laughter)
110
272920
1015
04:33
Then we might have a meeting after that meeting
111
273959
2217
(Gülüşmeler)
O toplantıdan sonra başka bir toplantı daha yapabilir
04:36
and actually make the decisions in the hallway afterwards
112
276200
2696
ve kararları daha sonra koridorda
04:38
when he wasn't there anymore.
113
278920
1416
o bizimle değilken alabilirdik.
04:40
So that wasn't so great for him.
114
280360
1576
Bu onun için pek de iyi değildi.
04:41
And as a robotics company at Willow,
115
281960
1736
Robotik bir şirket olarak Willow'da
04:43
we had some extra robot body parts laying around,
116
283720
2336
etrafta bulunan fazladan robot parçalarımız var,
04:46
so Dallas and his buddy Curt put together this thing,
117
286080
2496
Dallas ve arkadaşı Curt bunu kurmuşlar.
04:48
which looks kind of like Skype on a stick on wheels,
118
288600
2936
Tekerlekleri olan bir çubuklu Skype'a benziyor
04:51
which seems like a techy, silly toy,
119
291560
1736
teknolojik gülünç bir şey
04:53
but really it's probably one of the most powerful tools
120
293320
2776
ama muhtemelen gördüğüm uzaktan kumandalı işbirliği için
04:56
that I've seen ever made for remote collaboration.
121
296120
2480
yapılan araçlar arasından en etkilisi.
04:59
So now, if I didn't answer Dallas' email question,
122
299160
3496
Şimdi Dallas'ın e-mailini cevaplamasam
05:02
he could literally roll into my office,
123
302680
2216
tam anlamıyla ofisime girebilir,
05:04
block my doorway and ask me the question again --
124
304920
2576
yolumu tıkayıp soruyu ben cevaplayana kadar--
05:07
(Laughter)
125
307520
1016
(Gülüşmeler)
05:08
until I answered it.
126
308560
1216
tekrar sorabilir.
05:09
And I'm not going to turn him off, right? That's kind of rude.
127
309800
2976
Onu kapatacak değilim, değil mi? Bu biraz kabalık olur.
05:12
Not only was it good for these one-on-one communications,
128
312800
2696
Bu sadece birebir iletişim için değil
05:15
but also for just showing up at the company all-hands meeting.
129
315520
2936
ayrıca şirketin tüm elemanlarıyla yapılan toplantılar için de güzel.
05:18
Getting your butt in that chair
130
318480
1696
Koltuğa oturup
05:20
and showing people that you're present and committed to your project
131
320200
3216
insanlara orada olduğunu ve projene düşkün olduğunu göstermek
05:23
is a big deal
132
323440
1256
çok önemli
05:24
and can help remote collaboration a ton.
133
324720
2176
ve uzaktan kumandalı işbirliğine bir ton yardımı dokunabilir.
05:26
We saw this over the period of months and then years,
134
326920
2856
Bunu aylar ve yıllar zarfında gördük,
05:29
not only at our company but at others, too.
135
329800
2160
sadece bizim şirketimizde değil diğer şirketlerde de.
05:32
The best thing that can happen with these systems
136
332720
2336
Bu sistemlerin en güzel yanıysa
gerçekten oradaymışsın gibi hissetirmeye başlaması.
05:35
is that it starts to feel like you're just there.
137
335080
2336
05:37
It's just you, it's just your body,
138
337440
1696
Sadece sensin, senin bedenin
05:39
and so people actually start to give these things personal space.
139
339160
3096
ve insanlar gerçekten bunlara kişisel alan vermeye başladı.
05:42
So when you're having a stand-up meeting,
140
342280
1976
Ayakta yapılan bir toplantıdaysan
05:44
people will stand around the space
141
344280
1656
insanlar gerçekten oradaymışsın gibi
05:45
just as they would if you were there in person.
142
345960
2216
etrafında dikilmeye başlayacak.
05:48
That's great until there's breakdowns and it's not.
143
348200
2576
Arızalar olana kadar bu harika, olduğunda pek değil.
05:50
People, when they first see these robots,
144
350800
1976
İnsanlar robotları ilk gördüğünde şöyleler:
05:52
are like, "Wow, where's the components? There must be a camera over there,"
145
352800
3576
"Vay, bileşenleri nerede? Oralarda bir kamera olmalı."
ve sonra yüzünüzü dürtmeye başlıyorlar.
05:56
and they start poking your face.
146
356400
1576
"Çok kısık konuşuyorsun, sesini biraz yükselteceğim"
05:58
"You're talking too softly, I'm going to turn up your volume,"
147
358000
2936
06:00
which is like having a coworker walk up to you and say,
148
360960
2616
Bu iş arkadaşının yanına gelip
"Çok kısık konuşuyorsun, sesini açacağım" demesi gibi.
06:03
"You're speaking too softly, I'm going to turn up your face."
149
363600
2896
Bu garip ve uygunsuz
06:06
That's awkward and not OK,
150
366520
1256
06:07
and so we end up having to build these new social norms
151
367800
2616
bundan dolayı bu sistemler etrafındayken uyguladığımız
06:10
around using these systems.
152
370440
2216
yeni sosyal normal oluşturduk.
06:12
Similarly, as you start feeling like it's your body,
153
372680
3416
Senin bedenin gibi hissetmeye başladığın zaman,
06:16
you start noticing things like, "Oh, my robot is kind of short."
154
376120
3696
"Robotum biraz kısa sanki" gibi şeyler fark etmeye başlıyorsun.
06:19
Dallas would say things to me -- he was six-foot tall --
155
379840
2656
Dallas'ı - boyu 182 cm -
06:22
and we would take him via robot to cocktail parties and things like that,
156
382520
3456
robot vasıtasıyla onu kokteyl partilerine ve benzer etkinliklere götürürdük,
06:26
as you do,
157
386000
1216
sizin de yaptığınız gibi
06:27
and the robot was about five-foot-tall, which is close to my height.
158
387240
3336
ve robot yaklaşık 152 cm boylarındaydı ki bu da benim boyuma yakın.
06:30
And he would tell me,
159
390600
1216
Bana derdi ki
06:31
"You know, people are not really looking at me.
160
391840
2536
"İnsanlar bana gerçekten bakmıyor.
06:34
I feel like I'm just looking at this sea of shoulders,
161
394400
2696
Sanki omuzlardan oluşan bir denize bakıyor gibiyim
bu sadece... daha uzun bir robota ihtiyacımız var."
06:37
and it's just -- we need a taller robot."
162
397120
1976
06:39
And I told him,
163
399120
1256
Ona dedim ki:
06:40
"Um, no.
164
400400
1296
"Hayır.
06:41
You get to walk in my shoes for today.
165
401720
1936
Bugünlük kendini benim yerime koyacaksın.
06:43
You get to see what it's like to be on the shorter end of the spectrum."
166
403680
3536
Kısa tarafta olmanın nasıl olduğunu gör bakalım."
06:47
And he actually ended up building a lot of empathy for that experience,
167
407240
3376
Gerçekten de büyük bir empati kazanmasıyla sonuçlandı
06:50
which was kind of great.
168
410640
1256
ki bu da harikaydı.
06:51
So when he'd come visit in person,
169
411920
1656
Şahsen ziyarete geldiğinde
06:53
he no longer stood over me as he was talking to me,
170
413600
2416
benimle konuşurken başımda dikilmemeye,
oturup göz teması kurarak konuşmaya dikkat etti.
06:56
he would sit down and talk to me eye to eye,
171
416040
2096
06:58
which was kind of a beautiful thing.
172
418160
1736
Güzel bir şeydi.
06:59
So we actually decided to look at this in the laboratory
173
419920
2656
Bunu laboratuvarda incelemeye ve robot boyunun
07:02
and see what others kinds of differences things like robot height would make.
174
422600
3656
başka ne gibi değişiklikler yapacağını görmeye karar verdik.
07:06
And so half of the people in our study used a shorter robot,
175
426280
2856
Araştırmamızdaki insanların yarısı daha kısa robotlar,
07:09
half of the people in our study used a taller robot
176
429160
2416
diğer yarısıysa daha uzun robotlar kullandı
07:11
and we actually found that the exact same person
177
431600
2256
ve aynı bedene sahip aynı kişinin
07:13
who has the exact same body and says the exact same things as someone,
178
433880
3336
daha uzun bir robot kullandığında
07:17
is more persuasive and perceived as being more credible
179
437240
2616
söyledikleri daha ikna edici
07:19
if they're in a taller robot form.
180
439880
1656
ve güvenilir algılanıyor.
07:21
It makes no rational sense,
181
441560
1816
Hiç mantıklı gelmiyor
07:23
but that's why we study psychology.
182
443400
1696
ama bu yüzden psikolojiyi araştırıyoruz.
07:25
And really, you know, the way that Cliff Nass would put this
183
445120
2856
Cliff Nass bunu;
çok eski beyinlerimiz olmasına rağmen
07:28
is that we're having to deal with these new technologies
184
448000
3016
yeni teknolojiyle uğraşmak zorundayız diyerek açıklıyor.
07:31
despite the fact that we have very old brains.
185
451040
2736
07:33
Human psychology is not changing at the same speed that tech is
186
453800
2976
İnsan psikolojisi teknoloji hızında değişmiyor
07:36
and so we're always playing catch-up,
187
456800
1816
bu yüzden hep yakalamaca oynuyoruz,
07:38
trying to make sense of this world
188
458640
1656
otonom şeylerin etrafta dolaştığı
07:40
where these autonomous things are running around.
189
460320
2336
dünyayı anlamlandırmaya çalışıyoruz.
07:42
Usually, things that talk are people, not machines, right?
190
462680
2736
Genelde konuşanlar insandır makineler değildir.
07:45
And so we breathe a lot of meaning into things like just height of a machine,
191
465440
4576
Yani bir makinenin yüksekliği gibi şeylere çok fazla anlam yüklüyoruz,
07:50
not a person,
192
470040
1256
kişiye değil
07:51
and attribute that to the person using the system.
193
471320
2360
ve bunu sistemi kullanan kişiye atfediyoruz.
07:55
You know, this, I think, is really important
194
475120
2216
Robotları düşündüğüzde
07:57
when you're thinking about robotics.
195
477360
1736
bence bu gerçekten önemli.
07:59
It's not so much about reinventing humans,
196
479120
2096
Bu insanları yeniden keşfetmekten ziyade
08:01
it's more about figuring out how we extend ourselves, right?
197
481240
3136
kendimizi nasıl genişlettiğimizle ilgili, değil mi?
08:04
And we end up using things in ways that are sort of surprising.
198
484400
2976
Bir şeyleri şaşırtıcı yöntemlerle kullanır halde buluyoruz.
08:07
So these guys can't play pool because the robots don't have arms,
199
487400
4256
Bu adamlar bilardo oynayamaz çünkü robotların kolu yok
08:11
but they can heckle the guys who are playing pool
200
491680
2336
ama bilardo oynayanlara sataşabilirler
08:14
and that can be an important thing for team bonding,
201
494040
3176
ve bu da takım kaynaşması için önemli
08:17
which is kind of neat.
202
497240
1296
ve sağlam bir yöntem.
08:18
People who get really good at operating these systems
203
498560
2496
Bu sistemleri kullanmada ustalaşan insanlar
gecenin bir yarısında çöp kutularını itekleyerek
08:21
will even do things like make up new games,
204
501080
2056
08:23
like robot soccer in the middle of the night,
205
503160
2136
robot futbolu oynamak gibi
08:25
pushing the trash cans around.
206
505320
1456
yeni oyunlar üretebilir.
08:26
But not everyone's good.
207
506800
1576
Herkes usta değil.
08:28
A lot of people have trouble operating these systems.
208
508400
2496
Birçok insan bu sistemleri kullanırken sorun yaşıyor.
08:30
This is actually a guy who logged into the robot
209
510920
2256
Robota bağlanan bir adam vardı
08:33
and his eyeball was turned 90 degrees to the left.
210
513200
2376
ve gözü 90 derece sola dönüktü.
08:35
He didn't know that,
211
515600
1256
Bunu bilmiyordu
08:36
so he ended up just bashing around the office,
212
516880
2176
ve ofisin içinde çarpıp durdu,
08:39
running into people's desks, getting super embarrassed,
213
519080
2616
insanların masalarına çarpıp, aşırı utanıp
08:41
laughing about it -- his volume was way too high.
214
521720
2336
buna gülen - sesi de fazla yüksekti.
08:44
And this guy here in the image is telling me,
215
524080
2136
Bu görüntüdeki adam bana:
"Ses kısma düğmesine ihtiyacımız var." diyor.
08:46
"We need a robot mute button."
216
526240
2096
08:48
And by that what he really meant was we don't want it to be so disruptive.
217
528360
3496
Bundan kastı bu kadar karmaşaya sebep olmasını istemediğiydi.
08:51
So as a robotics company,
218
531880
1616
Robotik şirketi olarak
08:53
we added some obstacle avoidance to the system.
219
533520
2456
sisteme bazı engel kaldırıcılar ekledik.
08:56
It got a little laser range finder that could see the obstacles,
220
536000
3056
Engelleri görebilen lazer bir uzaklık ölçer ekledik.
08:59
and if I as a robot operator try to say, run into a chair,
221
539080
3136
Robot kullanıcısı olarak söylemeye çalıştığım eğer bir sandalyeyle
09:02
it wouldn't let me, it would just plan a path around,
222
542240
2496
karşılaşırsam bana izin vermez, etrafından bir rota çizer
09:04
which seems like a good idea.
223
544760
1856
bu da iyi bir fikir gibi gözüküyor.
09:06
People did hit fewer obstacles using that system, obviously,
224
546640
3176
Apaçık, insanlar bu sistemle daha az engele çarptılar
09:09
but actually, for some of the people,
225
549840
2096
ama bazı insanlar için
09:11
it took them a lot longer to get through our obstacle course,
226
551960
2856
engel kursunu geçmek daha uzun sürdü
09:14
and we wanted to know why.
227
554840
1560
ve sebebini bilmek istediler.
09:17
It turns out that there's this important human dimension --
228
557080
3056
Ortaya, önemli bir insan boyutu olduğu çıktı.
09:20
a personality dimension called locus of control,
229
560160
2296
Kontrol odağı denilen bir kişilik boyutu
09:22
and people who have a strong internal locus of control,
230
562480
3136
ve güçlü bir içsel kontrol odağa sahip insanların
09:25
they need to be the masters of their own destiny --
231
565640
3056
kendi kaderlerinin efendisi olmaya ihtiyaçları var.
09:28
really don't like giving up control to an autonomous system --
232
568720
3096
Otonom bir sisteme kontrolü kaptırmayı
09:31
so much so that they will fight the autonomy;
233
571840
2136
öylesine istemiyorlar ki otonomiyle mücadele ediyorlar:
09:34
"If I want to hit that chair, I'm going to hit that chair."
234
574000
3096
"Eğer sandalyeye çarpmak istersem, çarpacağım."
09:37
And so they would actually suffer from having that autonomous assistance,
235
577120
3616
Sonunda o otonom sistem desteğine sahip olmaktan çekiyorlar.
09:40
which is an important thing for us to know
236
580760
2576
Bunu bilmemiz,
09:43
as we're building increasingly autonomous, say, cars, right?
237
583360
3296
artarak otonomlaşan arabaları üretirken önemli.
09:46
How are different people going to grapple with that loss of control?
238
586680
3360
Farklı insanlar kontrol kaybıyla nasıl baş edecek?
09:50
It's going to be different depending on human dimensions.
239
590880
2696
İnsan boyutlarına bağlı olarak farklılık gösterecek.
09:53
We can't treat humans as if we're just one monolithic thing.
240
593600
3496
İnsanlara monolitik bir şeymiş muamelesinde bulunamayız.
09:57
We vary by personality, by culture,
241
597120
2416
Kişilik, kültür hatta anlık duygu durumuna göre
09:59
we even vary by emotional state moment to moment,
242
599560
2456
farklılık gösteriyoruz
10:02
and being able to design these systems,
243
602040
1976
ve bu insan-robot iletişimi istemlerini
10:04
these human-robot interaction systems,
244
604040
2296
tasarlayabilmek için
10:06
we need to take into account the human dimensions,
245
606360
2736
insan boyutlarını da hesaba katmalıyız
10:09
not just the technological ones.
246
609120
1720
sadece teknolojik boyutları değil.
10:11
Along with a sense of control also comes a sense of responsibility.
247
611640
4296
Kontrol etme hissi, sorumluluk hissini beraberinde getiriyor.
10:15
And if you were a robot operator using one of these systems,
248
615960
2856
Eğer bir robot kullanıcısı olsaydınız
10:18
this is what the interface would look like.
249
618840
2056
karşılaşacağınız arayüz böyle gözükürdü.
10:20
It looks a little bit like a video game,
250
620920
1936
Biraz video oyunu gibi gözüküyor.
10:22
which can be good because that's very familiar to people,
251
622880
2976
İnsanlar aşina oldukları için bu iyi bir şey
10:25
but it can also be bad
252
625880
1216
ama aynı zamanda kötü de olabilir
10:27
because it makes people feel like it's a video game.
253
627120
2456
çünkü insanlara video oyunundaymış gibi hissettiriyor.
10:29
We had a bunch of kids over at Stanford play with the system
254
629600
2856
Standford'da bir grup çocuğu sistemle oynattık
10:32
and drive the robot around our office in Menlo Park,
255
632480
2456
ve robotu Menlo Park'daki ofisimiz etrafında sürdürdük,
10:34
and the kids started saying things like,
256
634960
1936
çocuklar şöyle şeyler söylemeye başladılar:
10:36
"10 points if you hit that guy over there. 20 points for that one."
257
636920
3176
"Oradaki adama vurursan 10 puan. Şuradaki 20."
10:40
And they would chase them down the hallway.
258
640120
2016
Onları koridor boyunca kovaladılar.
10:42
(Laughter)
259
642160
1016
(Gülüşmeler)
10:43
I told them, "Um, those are real people.
260
643200
1936
Onlara: "Bunlar gerçek insan.
10:45
They're actually going to bleed and feel pain if you hit them."
261
645160
3296
Onlara vurursanız gerçekten kanayıp acı hissedecekler."
10:48
And they'd be like, "OK, got it."
262
648480
1616
"Tamam, anlaşıldı" dediler.
10:50
But five minutes later, they would be like,
263
650120
2056
Beş dakika sonra tekrar:
10:52
"20 points for that guy over there, he just looks like he needs to get hit."
264
652200
3616
"Oradaki adam için 20 puan, vurulmaya ihtiyacı var gibi gözüküyor."
10:55
It's a little bit like "Ender's Game," right?
265
655840
2136
Biraz Uzay Oyunları gibi değil mi?
10:58
There is a real world on that other side
266
658000
1936
Öteki tarafta bir gerçek dünya var
10:59
and I think it's our responsibility as people designing these interfaces
267
659960
3416
ve bu arayüzleri tasarlayan insanlar olarak
artarak otonomlaşan bu şeyleri kullanırken
11:03
to help people remember
268
663400
1256
11:04
that there's real consequences to their actions
269
664680
2256
insanlara eylemlerinin gerçek sonuçları olduğunu
11:06
and to feel a sense of responsibility
270
666960
2296
hatırlamalarında yardımcı olmak
11:09
when they're operating these increasingly autonomous things.
271
669280
3280
ve sorumluluk hissi yaratmak bizim görevimiz.
11:13
These are kind of a great example
272
673840
2296
Bunlar bir olası robotik geleceği deneyimlemek için
11:16
of experimenting with one possible robotic future,
273
676160
3256
harika örnekler.
11:19
and I think it's pretty cool that we can extend ourselves
274
679440
3856
Bence kendimizi genişletebilirken
makinelerin içine genişleme yolları hakkında öğrenirken
11:23
and learn about the ways that we extend ourselves
275
683320
2336
11:25
into these machines
276
685680
1216
aynı zamanda
11:26
while at the same time being able to express our humanity
277
686920
2696
insanlığımızı ve kişiliğimizi ifade edebilmemiz
11:29
and our personality.
278
689640
1216
muhteşem bir şey.
11:30
We also build empathy for others
279
690880
1576
Diğerleri için; kısa, uzun, hızlı, yavaş
11:32
in terms of being shorter, taller, faster, slower,
280
692480
3216
hatta kolsuz olma açısından
11:35
and maybe even armless,
281
695720
1416
empati ediniyoruz.
11:37
which is kind of neat.
282
697160
1336
Sağlam bir yöntem.
11:38
We also build empathy for the robots themselves.
283
698520
2536
Ayrıca robotlar için de empati ediniyoruz.
11:41
This is one of my favorite robots.
284
701080
1656
Bu benim favori robotlarımdan biri.
11:42
It's called the Tweenbot.
285
702760
1456
Adı Tweenbot.
11:44
And this guy has a little flag that says,
286
704240
1976
Bu küçük adamın: "Manhattan'daki bu yere
11:46
"I'm trying to get to this intersection in Manhattan,"
287
706240
2576
gitmeye çalışıyorum" diyen bir bayrağı var.
11:48
and it's cute and rolls forward, that's it.
288
708840
2776
Sevimli ve ileri gidiyor, hepsi bu.
11:51
It doesn't know how to build a map, it doesn't know how to see the world,
289
711640
3456
Bir harita çıkarmayı bilmiyor, dünyayı görmeyi bilmiyor,
11:55
it just asks for help.
290
715120
1256
sadece yardım istiyor.
11:56
The nice thing about people
291
716400
1336
İnsanlarla ilgili güzel olan şey;
11:57
is that it can actually depend upon the kindness of strangers.
292
717760
3096
yabancıların iyiliklerine güvenebilirsiniz.
12:00
It did make it across the park to the other side of Manhattan --
293
720880
3896
Sadece insanların onu alıp doğru yöne çevirmesiyle
Manhattan'daki parkın diğer tarafına gitmeyi başardı
12:04
which is pretty great --
294
724800
1256
12:06
just because people would pick it up and point it in the right direction.
295
726080
3456
- bu oldukça güzel.
12:09
(Laughter)
296
729560
936
(Gülüşmeler)
12:10
And that's great, right?
297
730520
1256
Harika, değil mi?
12:11
We're trying to build this human-robot world
298
731800
2696
Birlikte var olabildiğimiz ve iş birliği yapabildiğimiz
12:14
in which we can coexist and collaborate with one another,
299
734520
3416
tamamen otonom ya da tamamen bireysel olmadığımız
12:17
and we don't need to be fully autonomous and just do things on our own.
300
737960
3376
bu insan- robot dünyayı kurmaya çalışıyoruz.
Aslında bir şeyleri birlikte yapıyoruz.
12:21
We actually do things together.
301
741360
1496
12:22
And to make that happen,
302
742880
1256
Bunu gerçekleştirmek içinse
12:24
we actually need help from people like the artists and the designers,
303
744160
3256
sanatçılara, tasarımcılara, siyasete yön verenlere
12:27
the policy makers, the legal scholars,
304
747440
1856
hukukçulara, psikologlara, sosyologlara
12:29
psychologists, sociologists, anthropologists --
305
749320
2216
ve antropologlara ihtiyacımız var.
Stu Card'ın yapmanız gerek dediği şeyi yapacaksak;
12:31
we need more perspectives in the room
306
751560
1816
12:33
if we're going to do the thing that Stu Card says we should do,
307
753400
2976
yaşamak istediğimiz geleceği keşfedeceksek
12:36
which is invent the future that we actually want to live in.
308
756400
3936
odada daha fazla bakış açısına ihtiyacımız var.
12:40
And I think we can continue to experiment
309
760360
2656
Bence bu farklı robotik özellikleri
12:43
with these different robotic futures together,
310
763040
2176
birlikte deneyimlemeye devam edebiliriz
12:45
and in doing so, we will end up learning a lot more about ourselves.
311
765240
4680
ve bunu yaparken de kendimiz hakkında çok daha fazla şey öğrenebiliriz.
12:50
Thank you.
312
770720
1216
Teşekkürler.
12:51
(Applause)
313
771960
2440
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7