Why we have an emotional connection to robots | Kate Darling

137,191 views ・ 2018-11-06

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Çeviri: Tolga Uslu Gözden geçirme: Figen Ergürbüz
00:13
There was a day, about 10 years ago,
1
13047
2508
Neredeyse on yıl önce, bir gün
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
bir arkadaşımdan yavru dinazor robotu baş aşağı tutmasını istedim.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
Sipariş ettiğim adı Pleo olan bu oyuncak hakkında
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
gerçekten heyecanlıydım çünkü robotları her zaman sevmişimdir.
00:29
And this one has really cool technical features.
5
29784
2279
Bununsa sahiden havalı teknik özellikleri var.
00:32
It had motors and touch sensors
6
32087
2119
Motorları, dokunma sensörleri
00:34
and it had an infrared camera.
7
34230
2244
ve kızılötesi kamerası vardı.
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
Bir diğer özelliği ise eğilim sensörüydü,
00:39
so it knew what direction it was facing.
9
39285
2318
yani hangi yöne yöneldiğini biliyordu.
00:42
And when you held it upside down,
10
42095
2134
Baş aşağı tuttuğunda
00:44
it would start to cry.
11
44253
1572
ağlamaya başlardı.
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
Bunun çok havalı olduğunu düşündüm, arkadaşıma da hava atmak istedim,
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
"Kuyruğundan tut ve ne yaptığını gör" dedim.
00:55
So we're watching the theatrics of this robot
14
55268
3625
Robotun hareketlerini, mücadelesini
00:58
struggle and cry out.
15
58917
2199
ve haykırışını izliyorduk.
01:02
And after a few seconds,
16
62767
2047
Bir süre sonra
01:04
it starts to bother me a little,
17
64838
1972
beni biraz rahatsız etmeye başladı
01:07
and I said, "OK, that's enough now.
18
67744
3424
ve ben de "Tamam, yeter.
01:11
Let's put him back down."
19
71930
2305
Yerine geri koyalım" dedim.
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
Sonra da ağlamasın diye robotun başını okşadım.
01:18
And that was kind of a weird experience for me.
21
78973
2452
Benim için çok garip bir deneyimdi.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
Başta, o zamanlarda en anaç kişi ben değildim.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
Gerçi o zamandan bu yana, yaklaşık dokuz ay önce anne oldum
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
ve bebeklerin de baş aşağı tutulduğunda kıvrandıklarını öğrendim.
01:32
(Laughter)
25
92889
1563
(Kahkaha)
01:35
But my response to this robot was also interesting
26
95023
2358
Ama bu robota karşı tepkim de çok ilginçti
01:37
because I knew exactly how this machine worked,
27
97405
4101
çünkü bu makinenin nasıl çalıştığını tam anlamıyla biliyordum
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
fakat yine de ona karşı nazik olma zorunluluğu hissettim.
01:46
And that observation sparked a curiosity
29
106450
2707
Bu gözlem geçen on yılda peşinden koştuğum
01:49
that I've spent the past decade pursuing.
30
109181
2832
bir merakı tetikledi.
01:52
Why did I comfort this robot?
31
112911
1793
Neden bu robotu rahatlattım?
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
Keşfettiğim şeylerden biri de bu makineye davranışım
01:59
was more than just an awkward moment in my living room,
33
119831
3701
odamdaki garip bir andan daha fazlasıydı.
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
Robotların hayatımıza giderek daha fazla entegre olduğu bir dünyada
02:09
an instinct like that might actually have consequences,
35
129000
3126
o tür bir içgüdünün sonuçları olabilir
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
çünkü keşfettiğim ilk şey yalnız olmadığımdı.
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
Washington Post 2007'de Birleşik Devletler ordusunun
02:24
was testing this robot that defused land mines.
38
144075
3230
kara mayınlarını etkisiz hâle getiren robotu test ettiğini yazdı.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
Robotun çalışma şekli ise şöyle, bir çubuk böcek şeklindeydi
02:30
and it would walk around a minefield on its legs,
40
150265
2651
bir mayın tarlasında bacakları üstünde yürüyor
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
ve her mayına bastığında bacaklardan biri havaya uçuyor
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
ve daha çok mayının imhası için bacakları üzerinde ilerliyordu.
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
Tatbikatın başında olan albay ise
02:43
ends up calling it off,
44
163061
2118
tatbikatın iptalini isteyivermiş
02:45
because, he says, it's too inhumane
45
165203
2435
çünkü zarar görmüş robotun mayın tarlasında
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
kendini çekiştirmesini izlemenin çok insanlık dışı olduğunu söylemiş.
02:54
Now, what would cause a hardened military officer
47
174978
3897
Katılaşmış bir askeri memurun
02:58
and someone like myself
48
178899
2043
ve benim gibi birisinin robotlara karşı
03:00
to have this response to robots?
49
180966
1857
böyle bir tepki vermesine sebep olan şey nedir?
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
Bilim kurgu ve pop kültürü tarafından bu tür eşyaları
03:06
to really want to personify these things,
51
186871
2579
kişiselleştirmek istemek için hazırlanıyoruz
03:09
but it goes a little bit deeper than that.
52
189474
2789
fakat olay bundan biraz daha derin.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
Biyolojik olarak niyet ve hayatımızı fiziksel alanımızda bize özerk olarak
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
gelen herhangi bir harekete yansıtmanın içimize işlendiği ortaya çıkıyor.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
Yani insanlar her çeşit robota sanki canlılarmış gibi davranacaklar.
03:26
These bomb-disposal units get names.
56
206703
2683
Bu bomba imha üniteleri isim alıyorlar.
03:29
They get medals of honor.
57
209410
1682
Onur madalyası alıyorlar.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
Silah selâmıyla cenazeleri oluyor.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
Araştırma bunu Roomba elektrikli süpürgesi gibi en basit ev aletiyle dahi
03:38
like the Roomba vacuum cleaner.
60
218237
2135
yaptığımızı gösteriyor.
03:40
(Laughter)
61
220396
1291
(Kahkaha)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
Yeri temizlemek için etrafta dolanan bir disk.
03:44
but just the fact it's moving around on its own
63
224824
2306
Kendi kendine etrafta dolanmasından dolayı da
03:47
will cause people to name the Roomba
64
227154
2167
insanların ona Roomba demesine yol açıyor,
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
bu yüzden Roomba koltuğun altına sıkıştığında kötü hissediyorlar.
03:52
(Laughter)
66
232551
1865
(Kahkaha)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
İnsanların bilinç altında ruh hâli ile otomatik olarak
03:57
using eyes and faces or movements
68
237804
3461
bağdaştırdığı gözleri, yüzleri ve hareketleri kullanarak
04:01
that people automatically, subconsciously associate
69
241289
3259
özellike bu tepkiyi uyandırmak için
04:04
with states of mind.
70
244572
2020
robotlar tasarlayabiliriz.
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
İnsan-robot etkileşimi adında bunun ne kadar iyi çalıştığını gösteren
04:09
that really shows how well this works.
72
249933
1826
birtakım araştırmalar var.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
Stanford Üniversitesi'ndeki araştırmacılar insanlara robotların
04:14
that it makes people really uncomfortable
74
254933
2001
mahrem yerlerine dokunmalarını istendiğinde
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
insanların rahatsız olduklarını keşfettiler.
04:19
(Laughter)
76
259454
2120
(Kahkaha)
04:21
So from this, but from many other studies,
77
261598
2023
Bundan ve birçok çalışmadan,
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
gerçek olmadıklarını bildikleri hâlde insanların canlıymış gibi olan
04:27
by these lifelike machines,
79
267892
2022
makinelerden gelen işaretlere
04:29
even if they know that they're not real.
80
269938
2017
tepki verdiklerini biliyoruz.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
Artık robotların her yerde oldukları bir dünyaya doğru gidiyoruz.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
Robot teknolojisi fabrika duvarlarından dışarı çıkıyor.
04:40
It's entering workplaces, households.
83
280823
3013
İş yerlerine ve evlere giriyor.
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
Özerkçe hisseden, kararlar veren ve ortak yaşam alanlarına
04:50
enter into these shared spaces,
85
290093
2552
girmeyi öğrenen makineler ile
04:52
I think that maybe the best analogy we have for this
86
292669
2496
en iyi karşılaştırmayı bizim hayvanlarla
04:55
is our relationship with animals.
87
295189
1935
olan ilişkimizle yapabiliriz.
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
Binlerce yıl öncesinde, hayvanları evcilleştirmeye başladık.
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
Onları iş, mühimmat ve yoldaşlık etmeleri için eğittik.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
Tarih boyunca da, bazı hayvanlara araç veya mal gibi davranırken
05:10
and other animals, we've treated with kindness
91
310513
2174
bazılarınaysa nazikçe davranıp
05:12
and we've given a place in society as our companions.
92
312711
3078
toplum içerisinde arkadaşlarımız olarak yer verdik.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
Bence robotlarla da benzer şekillerde entegre olmak gayet akla yatkın.
05:21
And sure, animals are alive.
94
321484
3096
Tabii ki hayvanlar canlı.
05:24
Robots are not.
95
324604
1150
Robotlarsa değil.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
Robotlarla çalıştığımdan ötürü herhangi bir şeyi
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
hissedebileceklerini geliştirmekten çok uzak olduğumuzu söyleyebilirim.
05:35
But we feel for them,
98
335072
1460
Ama onlar yerine hissediyoruz,
05:37
and that matters,
99
337835
1207
önemli olan bu.
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
Çünkü eğer robotları bu ortak alanlara entegre etmeye çalışırsak
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
insanların onlara diğer cihazlardan daha farklı davranacaklarını anlamamız gerek
05:47
and that in some cases,
102
347369
1844
ve hatta bazı durumlarda
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
mesela, çalıştığı robotlara duygusal olarak bağlı hisseden
05:52
to the robot that they work with,
104
352433
2047
bir askerin vakasında olduğu gibi.
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
Bu verimsizlikten tehlikeye kadar her şey olabilir.
05:58
But in other cases, it can actually be useful
106
358551
2138
Ama diğer durumlarda robotlara olan
06:00
to foster this emotional connection to robots.
107
360713
2623
bu duygusal bağı teşvik etmek yararlı olabilir.
06:04
We're already seeing some great use cases,
108
364184
2134
Zaten harika kullanılan vakaları görüyoruz.
06:06
for example, robots working with autistic children
109
366342
2604
Mesela, robotların daha önce görmediğimiz şekilde
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
otistik çocuklarla ilgilendiğini veya öğretmenlerle çalışan robotların
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
çocuklarla uğraşırken yeni sonuçlar aldığını görüyoruz.
06:17
And it's not just for kids.
112
377433
1381
Sadece çocuklar da değil.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
Önceki çalışmalar, robotların sağlık alanında doktor ve hastalara
06:22
in health care settings.
114
382997
1427
yardımlarını gösteriyor.
06:25
This is the PARO baby seal robot.
115
385535
1810
Bu PARO yavru fok robotu.
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
Bunama geçiren yaşlı hastaların bakımında kullanılıyor.
06:30
It's been around for a while.
117
390678
1570
Bir süredir kullanılıyor.
06:32
And I remember, years ago, being at a party
118
392272
3325
Hatırlarım, yıllar önce bir partideyken birine
06:35
and telling someone about this robot,
119
395621
2571
bu robot hakkında bir şeyler anlatırken
06:38
and her response was,
120
398216
2126
onun cevabı şu olmuştu:
06:40
"Oh my gosh.
121
400366
1262
"Aman Tanrım.
06:42
That's horrible.
122
402508
1188
Bu korkunç bir şey.
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
Hastalara, insan yerine robot bakımı sağladığımıza inanamıyorum.
06:50
And this is a really common response,
124
410540
1875
Bu oldukça yaygın bir cevap
06:52
and I think it's absolutely correct,
125
412439
2499
bence tamamen doğru
06:54
because that would be terrible.
126
414962
2040
çünkü korkunç bir şey olurdu.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
Ama olay robotun neyin yerini aldığı değil.
07:00
What this robot replaces is animal therapy
128
420858
3120
Bu robotun yerini alan şey gerçek hayvanları kullanamayacağımız
07:04
in contexts where we can't use real animals
129
424002
3198
onun yerine robotları kullanabileceğimiz
07:07
but we can use robots,
130
427224
1168
hayvan terapileridir.
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
Zira, insanlar sürekli onlara bir cihazdan öte bir hayvan gibi muamele edecekler.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
Robotlara olan bu duygusal bağı kabul etmek
07:17
can also help us anticipate challenges
133
437906
1969
zorlukları tahmin etmemize de yardım eder
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
çünkü bu cihazlar insan hayatının daha özel alanlarına da giriyorlar.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
Örneğin, çocuğunuzun oyuncak ayısının
07:27
records private conversations?
136
447539
2237
özel konuşmaları kaydetmesine ne derdiniz?
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
Peki ya seks robotunuzun ilgi çekici uygulama içi satın alma yapması?
07:33
(Laughter)
138
453887
1396
(Kahkaha)
07:35
Because robots plus capitalism
139
455307
2501
Çünkü robotlar artı kapitalizm
07:37
equals questions around consumer protection and privacy.
140
457832
3705
tüketici koruması ve özeli ile ilgili sorulara eşittir.
07:42
And those aren't the only reasons
141
462549
1612
Bunlar, makineler etraftayken
07:44
that our behavior around these machines could matter.
142
464185
2570
davranışlarımıza dikkat etmemiz için tek sebep değil.
07:48
A few years after that first initial experience I had
143
468747
3270
Bu yavru dinazor robotla edindiğim ilk deneyiminden
07:52
with this baby dinosaur robot,
144
472041
2311
birkaç yıl sonra
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
arkadaşım Hannes Gassert ile bir workshop yaptık.
07:56
And we took five of these baby dinosaur robots
146
476901
2897
Bu beş bebek dinazoru aldık
07:59
and we gave them to five teams of people.
147
479822
2453
ve beş takıma ayrılan insanlara verdik.
08:02
And we had them name them
148
482299
1697
İsimlendirmelerini daha sonrasında
08:04
and play with them and interact with them for about an hour.
149
484020
3809
oynamalarını ve bir saat kadar etkileşimde olmalarını istedik.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
Üstelik, bir çekiç ve balta çıkardık
08:10
and we told them to torture and kill the robots.
151
490937
2278
robotlara işkence edip öldürmelerini istedik.
08:13
(Laughter)
152
493239
3007
(Kahkaha)
08:16
And this turned out to be a little more dramatic
153
496857
2294
Beklediğimizden biraz daha dramatik olduğunu gördük
08:19
than we expected it to be,
154
499175
1278
08:20
because none of the participants would even so much as strike
155
500477
3072
çünkü katılımcılardan hiçbiri yavru dinazorlara
08:23
these baby dinosaur robots,
156
503573
1307
biraz olsa bile saldırmadı
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
bu yüzden de biraz doğaçlama yapmak zorunda kaldık ve şöyle dedik
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
"Başka takımın robotunu yok ederek kendinizinkini kurtarabilirsiniz."
08:34
(Laughter)
159
514539
1855
(Kahkaha)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
Bu bile işe yaramadı. Yapamadılar.
08:39
So finally, we said,
161
519058
1151
Son olarak da
08:40
"We're going to destroy all of the robots
162
520233
2032
"Biri baltayı vurmazsa
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
tüm robotları yok edeceğiz." dedik.
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
Biri ayağa kalktı, baltayı aldı.
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
Baltayı aşağı, robotun ensesine indirince de
08:51
on the robot's neck,
166
531919
1780
tüm oda ürktü.
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
Bu günahkâr robot için odada yarı şaka yarı ciddi
09:00
for this fallen robot.
168
540085
1698
bir sessizlik oluştu.
09:01
(Laughter)
169
541807
1406
(Kahkaha)
09:03
So that was a really interesting experience.
170
543237
3694
Çok ilginç bir deneyimdi.
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
Tabii ki kontrollü bir çalışma değildi
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
fakat daha sonrasında MIT'de
Palash Nandy Cynthia Breazeal ile yaptığım araştırmaya ön ayak oldu.
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
Laboratuvara canlı böcekmiş gibi hareket eden
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
bu robot böcekleri ezmek için gelen insanlar vardı.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
İnsanların ilgisini çekecek sevimli şeyler seçmek yerine
09:24
we chose something more basic,
177
564484
2093
daha basit bir şey seçtik.
09:26
and what we found was that high-empathy people
178
566601
3480
Keşfettiğim şey ise empati yapabilen insanların
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
robot böceklere vurmaktan çekindikleri oldu.
09:33
Now this is just a little study,
180
573575
1564
Bu sadece ufak bir çalışma
09:35
but it's part of a larger body of research
181
575163
2389
fakat insanların empati eğilimleri ve robotalara
09:37
that is starting to indicate that there may be a connection
182
577576
2944
karşı davranışları arasında
09:40
between people's tendencies for empathy
183
580544
2373
bir bağın olduğunu gösteren
09:42
and their behavior around robots.
184
582941
1976
daha büyük bir araştırmanın bir parçası.
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
İnsan-robot etkileşimi çağının gelişiyle ilgili sorum
09:49
is not: "Do we empathize with robots?"
186
589372
3055
"Robotlarla empati yapıyor muyuz?" değil
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
"Robotlar insanların empatisini değiştirebilir mi?" idi.
09:57
Is there reason to, for example,
188
597489
2287
Mesela, çocuğunuzun bir robot köpeği tekmelemesini
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
köpeğin bir eşya olduğu için mi
10:03
not just out of respect for property,
190
603228
2914
yoksa çocuğun gerçek bir köpeği de tekmeleme olasılığı
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
olabileceğini engellemek için mi durdursunuz?
10:10
And again, it's not just kids.
192
610507
1883
Aslında, konu sadece çocuklar değil.
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
Bu şiddetli video oyunları meselesi ama tamamen yeni bir seviyede
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
çünkü bu içgüdüsel hareketlere
bir ekrandaki görüntülere göre çok daha fazla tepki veriyoruz.
10:22
than to images on a screen.
195
622428
1547
10:25
When we behave violently towards robots,
196
625674
2578
Özellikle hayatımızı taklit etmek için tasarlanmış
10:28
specifically robots that are designed to mimic life,
197
628276
3120
robotlara karşı şiddetle davrandığımızda
10:31
is that a healthy outlet for violent behavior
198
631420
3892
şiddetli davranış açısından sağlıklı bir dışavurum mu
10:35
or is that training our cruelty muscles?
199
635336
2544
yoksa sadece kabalık kaslarımız için bir idman mı?
10:39
We don't know ...
200
639511
1150
Bilmiyoruz.
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
Ama bu soruya cevabın insan davranışlarını, sosyal normları
10:46
it has the potential to impact social norms,
202
646591
2768
etkileme potansiyeli var.
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
Hayvani gaddarlık kurallarına benzer şekilde belli robotlarla ne yapıp
10:53
with certain robots,
204
653256
1151
yapamayacağımıza dair
10:54
similar to our animal cruelty laws.
205
654431
1848
kuralları etkileme potansiyeli var.
10:57
Because even if robots can't feel,
206
657228
2864
Çünkü robotlar hissedemeseler dahi
11:00
our behavior towards them might matter for us.
207
660116
3080
onlara karşı davranışlarımız bizim için önemlidir.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
Kurallarımızı değiştirip değiştirmememize bakmaksızın
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
robotlar kendimiz hakkında yeni bir anlayışa varmamıza yardım edebilirler.
11:14
Most of what I've learned over the past 10 years
210
674276
2316
Geçen on yılda öğrendiklerimin çoğunun
11:16
has not been about technology at all.
211
676616
2238
teknoloji ile hiç alakası yoktu.
11:18
It's been about human psychology
212
678878
2503
Çoğu, insan psikolojisi, empati ve diğerlerine
11:21
and empathy and how we relate to others.
213
681405
2603
nasıl bağlıyız ile ilgiliydi.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
Çünkü bir çocuk Roomba'ya karşı nazik olduğunda,
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
bir asker harp meydanındaki bir robotun hayatını kurtarmaya çalıştığında
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
veya bir grup insan bir yavru robot dinazora zarar vermeyi reddettiğinde
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
robotların yalnızca motor, eşya veya algoritma olmadığını görürüz.
11:42
They're reflections of our own humanity.
218
702501
1905
Onlar insanlığımızın yansımalarıdır.
11:45
Thank you.
219
705523
1151
Teşekkür ederim.
11:46
(Applause)
220
706698
3397
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7