Why we have an emotional connection to robots | Kate Darling

131,124 views

2018-11-06 ・ TED


New videos

Why we have an emotional connection to robots | Kate Darling

131,124 views ・ 2018-11-06

TED


Norėdami paleisti vaizdo įrašą, dukart spustelėkite žemiau esančius angliškus subtitrus.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Translator: Viktorija Mažeikienė Reviewer: Andrius Družinis-Vitkus
00:13
There was a day, about 10 years ago,
1
13047
2508
Vieną dieną, maždaug prieš 10 metų,
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
paprašiau draugės, kad palaikytų robotą dinozauriuką žemyn galva.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
Tą žaislą, vardu Pleo, užsisakiau
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
ir labai juo džiaugiausi, nes man visada patiko robotai.
00:29
And this one has really cool technical features.
5
29784
2279
O Pleo techninės savybės – tiesiog nuostabios.
00:32
It had motors and touch sensors
6
32087
2119
Jis turėjo varikliukus, lietimo jutiklius
00:34
and it had an infrared camera.
7
34230
2244
ir infraraudonųjų spindulių kamerą.
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
Ir dar jis turėjo vieną dalykėlį – pakrypimo jutiklį,
00:39
so it knew what direction it was facing.
9
39285
2318
tad robotukas žinojo, kur jis pakrypęs.
00:42
And when you held it upside down,
10
42095
2134
O jeigu apversdavau jį žemyn galva,
00:44
it would start to cry.
11
44253
1572
jis pradėdavo verkti.
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
Tuomet man atrodė, kad tas žaislas nepaprastas, gyriausi juo draugei
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
ir pasakiau: „Paimk jį už uodegos. Pamatysi, kas bus.“
00:55
So we're watching the theatrics of this robot
14
55268
3625
Stebėjome, kaip įstabiai elgiasi robotukas,
00:58
struggle and cry out.
15
58917
2199
kaip jis priešinasi ir garsiai verkia.
01:02
And after a few seconds,
16
62767
2047
Po kelių akimirkų
01:04
it starts to bother me a little,
17
64838
1972
man pasidarė šiek tiek nesmagu
01:07
and I said, "OK, that's enough now.
18
67744
3424
ir aš pasakiau: „Baikim.
01:11
Let's put him back down."
19
71930
2305
Atverskime jį.“
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
Ir tuomet aš jį glosčiau, kad jis liautųsi verkęs.
01:18
And that was kind of a weird experience for me.
21
78973
2452
Man tai sukėlė keistoką jausmą.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
Įdomu, kad tuo metu aš nejaučiau stiprių motiniškų jausmų.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
Bet kuomet prieš devynis mėnesius tapau motina,
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
supratau, kad aukštyn kojomis apversti kūdikiai taip pat muistosi.
01:32
(Laughter)
25
92889
1563
(Juokas.)
01:35
But my response to this robot was also interesting
26
95023
2358
Bet mano reakciją į roboto veiksmus buvo įdomi,
01:37
because I knew exactly how this machine worked,
27
97405
4101
nes, nors ir žinojau, kaip veikia tas aparatas,
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
vis tiek nenorėjau jo skriausti.
01:46
And that observation sparked a curiosity
29
106450
2707
Tas pastebėjimas man buvo toks įdomus,
01:49
that I've spent the past decade pursuing.
30
109181
2832
kad pastaruosius dešimt metų ieškojau paaiškinimo.
01:52
Why did I comfort this robot?
31
112911
1793
Kodėl ėmiau guosti robotą?
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
Vienas iš dalykų, kuriuos supratau buvo tai, kad mano elgesys su aparatu
01:59
was more than just an awkward moment in my living room,
33
119831
3701
nebuvo vien tik keista akimirka patirta mano namų svetainėje,
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
kad mūsų pasaulyje ir gyvenamoje aplinkoje nuolat daugėja robotų,
02:09
an instinct like that might actually have consequences,
35
129000
3126
kad šitoks instinktas kažką reiškia,
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
nes jau pradžioje supratau, kad aš tokia ne viena.
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
2007 m. „Washington Post“ pranešė, kad JAV kariuomenė
02:24
was testing this robot that defused land mines.
38
144075
3230
testuoja robotą, išminuojantį po žeme slypinčias minas.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
Tas robotas veikė šitaip: jis buvo gyvalazdės formos
02:30
and it would walk around a minefield on its legs,
40
150265
2651
ir jis eidavo po minų lauką judindamas kojas.
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
Kaskart jam užlipus ant minos, mina jam nutraukdavo vieną iš kojų.
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
Jis nesiliaudavo judėjęs, kad sprogtų dar daugiau minų.
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
Už šias pratybas atsakingas pulkininkas
02:43
ends up calling it off,
44
163061
2118
neištvėrė ir atšaukė išminavimą,
02:45
because, he says, it's too inhumane
45
165203
2435
nes, jo teigimu, buvo pernelyg nežmoniška
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
stebėti, kaip apgadintas robotas šliaužia per minų lauką.
02:54
Now, what would cause a hardened military officer
47
174978
3897
Tad kas verčia labai patyrusį karininką
02:58
and someone like myself
48
178899
2043
ir tokį žmogų kaip aš
03:00
to have this response to robots?
49
180966
1857
šitaip reaguoti į robotus?
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
Esame prisiskaitę mokslo fantastikos ir paveikti popkultūros,
03:06
to really want to personify these things,
51
186871
2579
tad, suprantama, kad personifikuojame šiuos dalykus,
03:09
but it goes a little bit deeper than that.
52
189474
2789
bet paaiškinimas čia daug gilesnis.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
Pasirodo, kad esame biologiškai užprogramuoti sieti bet kokį, mūsų manymu,
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
autonomišką judesį mūsų fizinėje erdvėje su tikslingumu ir gyvybe.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
Todėl žmonės elgiasi su robotais taip, tarytum jie būtų gyvi.
03:26
These bomb-disposal units get names.
56
206703
2683
Tie robotai-išminuotojai yra vadinami vardais.
03:29
They get medals of honor.
57
209410
1682
Jie apdovanojami aukso medaliais.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
Jie netgi laidojami šaudant garbės salvėms.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
Tyrimai rodo, kad taip mes elgiamės netgi su paprastais buitiniais robotais,
03:38
like the Roomba vacuum cleaner.
60
218237
2135
pavydžiui, su dulkių siurbliu „Roomba“.
03:40
(Laughter)
61
220396
1291
(Juokas.)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
Tai tik slankiojantis diskas valantis jūsų grindis.
03:44
but just the fact it's moving around on its own
63
224824
2306
Bet vien dėl to, kad jis savarankiškai juda,
03:47
will cause people to name the Roomba
64
227154
2167
žmonės nori vadinti jį vardu
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
ir jį užjausti, kai jis užstringa po sofa.
03:52
(Laughter)
66
232551
1865
(Juokas.)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
Galime sukurti tokius robotus, kurie tikslingai sukels tokią reakciją,
03:57
using eyes and faces or movements
68
237804
3461
nes jų akių ir veidų judesius
04:01
that people automatically, subconsciously associate
69
241289
3259
žmonės pasąmonėje automatiškai sieja
04:04
with states of mind.
70
244572
2020
su konkrečiomis sąmonės būsenomis.
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
Atlikta daug tyrimų žmonių ir robotų sąveikos srityje,
04:09
that really shows how well this works.
72
249933
1826
kurie gerai parodo, kaip išties viskas veikia.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
Pavyzdžiui, Stanfordo universiteto mokslininkai atrado,
04:14
that it makes people really uncomfortable
74
254933
2001
kad žmonės jaučiasi nejaukiai
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
paprašyti paliesti robotų intymias dalis.
04:19
(Laughter)
76
259454
2120
(Juokas.)
04:21
So from this, but from many other studies,
77
261598
2023
Tad iš šio ir daugybės kitų tyrimų
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
žinome, kad žmonės reaguoja į signalus
04:27
by these lifelike machines,
79
267892
2022
skleidžiamus į žmones panašių prietaisų
04:29
even if they know that they're not real.
80
269938
2017
netgi suvokdami, kad prietaisai negyvi.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
Ateities pasaulyje robotų bus visur.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
Robotikos technologijos išėjo iš už gamyklų sienų.
04:40
It's entering workplaces, households.
83
280823
3013
Jos smelkiasi į darbo vietas, buitį.
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
Šie jutiklius turintys aparatai, galintys savarankiškai spręsti, mokytis,
04:50
enter into these shared spaces,
85
290093
2552
smelkiasi į bendrąsias erdves.
04:52
I think that maybe the best analogy we have for this
86
292669
2496
Todėl manau, kad, galbūt, geriausia analogija būtų
04:55
is our relationship with animals.
87
295189
1935
mūsų ryšys su gyvūnais.
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
Prieš tūkstančius metų pradėjome jaukintis gyvūnus.
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
Mokėme juos dirbti, padėti kovoti ir būti mūsų draugais.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
Per visą istoriją į kai kuriuos gyvūnus žiūrėjome kaip į įrankius ar produktus,
05:10
and other animals, we've treated with kindness
91
310513
2174
o kitiems gyvūnams rodėme gerumą
05:12
and we've given a place in society as our companions.
92
312711
3078
ir suteikėme jiems visuomeninę mūsų palydovų funkciją.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
Man atrodo visai tikėtina, kad robotus irgi panašiai integruosime.
05:21
And sure, animals are alive.
94
321484
3096
Aišku, gyvūnai yra gyvi.
05:24
Robots are not.
95
324604
1150
Robotai – ne.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
Kadangi dirbu su robotikos specialistais, galiu teigti,
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
kad mums dar beveik neįmanoma sukurti jaučiančius robotus.
05:35
But we feel for them,
98
335072
1460
Bet mes jiems kažką jaučiame.
05:37
and that matters,
99
337835
1207
Ir tai svarbu,
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
nes jeigu siekiame integruoti robotus į mūsų bendrąsias erdves,
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
turime suvokti, kad žmonės elgiasi su jais kitaip nei su kitais įrenginiais.
05:47
and that in some cases,
102
347369
1844
Ir kad kartais,
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
pavyzdžiui, kareivio, kuris emociškai prisiriša
05:52
to the robot that they work with,
104
352433
2047
prie roboto, su kuriuo dirba,
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
tai gali būti ir neproduktyvu, ir netgi pavojinga.
05:58
But in other cases, it can actually be useful
106
358551
2138
Tačiau kitais atvejais gali būti naudinga
06:00
to foster this emotional connection to robots.
107
360713
2623
puoselėti šį emocinį ryšį su robotu.
06:04
We're already seeing some great use cases,
108
364184
2134
Jau turime puikių robotų naudojimo pavyzdžių,
06:06
for example, robots working with autistic children
109
366342
2604
pavyzdžiui, kai robotai dirba su vaikais autistais.
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
Nieko panašaus nesame matę praeityje.
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
Arba kai robotus pasitelkia mokytojai siekdami geresnių mokymosi rezultatų.
06:17
And it's not just for kids.
112
377433
1381
Ir tai ne tik su vaikais.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
Jau yra tyrimų apie robotų gebėjimą padėt gydytojams ir pacientams
06:22
in health care settings.
114
382997
1427
sveikatos priežiūros srityje.
06:25
This is the PARO baby seal robot.
115
385535
1810
Tai – PARO, ruoniukas robotas.
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
Jis naudojamas slaugos namuose prižiūrint demencijos pacientus.
06:30
It's been around for a while.
117
390678
1570
Ir tai jau nėra naujiena.
06:32
And I remember, years ago, being at a party
118
392272
3325
Pamenu, kaip prieš nemažai metų vieno vakarėlio metu
06:35
and telling someone about this robot,
119
395621
2571
vienai moteriai papasakojau apie šį robotą
06:38
and her response was,
120
398216
2126
Ji atsakė:
06:40
"Oh my gosh.
121
400366
1262
„Oi.
06:42
That's horrible.
122
402508
1188
Kaip baisu.
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
Neįtikėta, dabar ne žmonės, o robotai paliekami rūpintis kitais žmonėmis.“
06:50
And this is a really common response,
124
410540
1875
Tokia reakcija gana įprasta
06:52
and I think it's absolutely correct,
125
412439
2499
ir, mano manymu, visai teisinga,
06:54
because that would be terrible.
126
414962
2040
nes tai būtų išties baisu.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
Bet šiuo atveju kalbame ne apie ką pakeičia robotas.
07:00
What this robot replaces is animal therapy
128
420858
3120
Šis robotas naudojamas vietoj gyvūnų terapijos
07:04
in contexts where we can't use real animals
129
424002
3198
tokioje situacijoje, kur neįmanoma pasitelkti tikrus gyvūnus,
07:07
but we can use robots,
130
427224
1168
bet robotus – taip,
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
nes žmonės linkę elgtis su jais tarytum su gyvūnais, bet ne prietaisais.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
Suvokimas apie šį emocinį ryšį su robotais
07:17
can also help us anticipate challenges
133
437906
1969
gali padėti ir numatant problemas,
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
kai šie įrenginiai panaudojami intymesnėse gyvenimo srityse.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
Pavyzdžiui, ar gerai, jeigu jūsų vaiko meškiukas robotas
07:27
records private conversations?
136
447539
2237
įrašo privačius pokalbius?
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
Ar gerai, jeigu sekso robotas siūlo patrauklius mokamus priedus?
07:33
(Laughter)
138
453887
1396
(Juokas.)
07:35
Because robots plus capitalism
139
455307
2501
Nes robotai plius kapitalizmas
07:37
equals questions around consumer protection and privacy.
140
457832
3705
susiję su klausimais apie vartotojų apsaugą ir privatumą.
07:42
And those aren't the only reasons
141
462549
1612
Ir tai nėra vienintelės priežastys,
07:44
that our behavior around these machines could matter.
142
464185
2570
dėl kurių mūsų elgesys su šiais įrenginiais svarbus.
07:48
A few years after that first initial experience I had
143
468747
3270
Praėjus keleriems metams po mano pirmojo patyrimo
07:52
with this baby dinosaur robot,
144
472041
2311
su tuo dinozauriuku robotu
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
vedžiau seminarą su savo draugu Hannes Gassert.
07:56
And we took five of these baby dinosaur robots
146
476901
2897
Penkis tokius dinozauriukus robotus
07:59
and we gave them to five teams of people.
147
479822
2453
davėme penkioms grupėms žmonių.
08:02
And we had them name them
148
482299
1697
Paprašėme duoti jiems vardus,
08:04
and play with them and interact with them for about an hour.
149
484020
3809
su jais pažaisti ir pabūti apie valandą.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
Po to parodėme plaktuką ir kirvuką
08:10
and we told them to torture and kill the robots.
151
490937
2278
ir liepėme kankinti ir sunaikinti robotus.
08:13
(Laughter)
152
493239
3007
(Juokas.)
08:16
And this turned out to be a little more dramatic
153
496857
2294
Rezultatas buvo dramatiškesnis
08:19
than we expected it to be,
154
499175
1278
nei tikėjomės,
08:20
because none of the participants would even so much as strike
155
500477
3072
nes nė vienas iš tyrimo dalyvių nesutiko net suduoti
08:23
these baby dinosaur robots,
156
503573
1307
dinozauriukams robotams.
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
Mums teko improvizuoti ir kažkuriuo momentu pasakėme:
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
„Galėsite pasilikti savo robotą, jeigu sunaikinsite kitos grupės robotą."
08:34
(Laughter)
159
514539
1855
(Juokas.)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
Ir netgi su tuo jie nesutiko. Negalėjo.
08:39
So finally, we said,
161
519058
1151
Tada mes pasakėme:
08:40
"We're going to destroy all of the robots
162
520233
2032
„Sunaikinsime visus robotus
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
jeigu nesukaposite bent vieno iš jų.“
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
Vienas vyrukas atsistojo ir paėmė kirvuką.
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
Jam nuleidus kirvuką ant roboto kaklo
08:51
on the robot's neck,
166
531919
1780
visi susigūžė
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
ir patalpoje stojo tyla, pusiau juoko, pusiau rimties momentas,
09:00
for this fallen robot.
168
540085
1698
kuomet roboto neliko.
09:01
(Laughter)
169
541807
1406
(Juokas.)
09:03
So that was a really interesting experience.
170
543237
3694
Tas patyrimas buvo labai įdomus.
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
Ir nors tai nebuvo tikras ekperimentas, akivaizdu,
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
bet jis davė pradžią vėlesniam tyrimui, kurį atlikau Masačiusetso technologijos institute
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
drauge su Palash Nandy ir Cynthia Breazeal.
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
Tuome pakvietėme žmones į laboratoriją, kad jie sutraiškytų „HEXBUG“ robotus,
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
kurie juda labai tikroviškai, kaip tikri vabzdžiai.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
Šiuo atveju rinkomės ne kažką mielo, kas traukia žmones,
09:24
we chose something more basic,
177
564484
2093
bet paprastą dalyką.
09:26
and what we found was that high-empathy people
178
566601
3480
Supratome, kad žmonės, gebantys giliai užjausti kitus,
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
lūkuriuoja ilgiau prieš trankydami prietaisus.
09:33
Now this is just a little study,
180
573575
1564
Tai tik mažas tyrimas,
09:35
but it's part of a larger body of research
181
575163
2389
bet jis yra dalis didesnio tyrimų bloko,
09:37
that is starting to indicate that there may be a connection
182
577576
2944
leidžiančio manyti, kad gali egzistuoti ryšys
09:40
between people's tendencies for empathy
183
580544
2373
tarp žmonių polinkio užjausti kitus
09:42
and their behavior around robots.
184
582941
1976
ir jų elgesio su robotais.
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
Tačiau artėjant žmonių ir robotų sąveikos erai
09:49
is not: "Do we empathize with robots?"
186
589372
3055
klausiu ne „Ar užjaučiame robotus?“,
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
bet „Ar robotai gali pakeisti žmonių gebėjimą užjausti kitą?“
09:57
Is there reason to, for example,
188
597489
2287
Ar turėtume neleisti
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
vaikui įspirti šuniui robotui,
10:03
not just out of respect for property,
190
603228
2914
ne todėl, kad daiktus reikia tausoti
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
bet todėl, kad kitaip jis greičiausiai įspirs ir gyvam šuniui?
10:10
And again, it's not just kids.
192
610507
1883
Vėlgi, tai tinka ne tik vaikams.
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
Tai gali padėti atsakyti į klausimus apie smurtinius video žaidimus,
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
nes į tokį intuityvų fiziškumą reaguojame daug intensyviau
10:22
than to images on a screen.
195
622428
1547
nei į vaizdus ekrane.
10:25
When we behave violently towards robots,
196
625674
2578
Ar smurtaudami prieš robotus,
10:28
specifically robots that are designed to mimic life,
197
628276
3120
ypač prieš tokius, kurie sukurti gyvybei imituoti,
10:31
is that a healthy outlet for violent behavior
198
631420
3892
sveiku būdu išliejame agresiją,
10:35
or is that training our cruelty muscles?
199
635336
2544
ar treniruojame žiaurumo raumenis?
10:39
We don't know ...
200
639511
1150
Atsakymo nežinome...
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
Bet atsakyme į šį klausimą slypi potencialas paveikti žmonių elgesį,
10:46
it has the potential to impact social norms,
202
646591
2768
paveikti socialines normas,
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
padėti kuriant taisykles, ką galime ir ko negalime daryti
10:53
with certain robots,
204
653256
1151
su tam tikrais robotais,
10:54
similar to our animal cruelty laws.
205
654431
1848
panašias į draudimą skriausti gyvūnus.
10:57
Because even if robots can't feel,
206
657228
2864
Nes net jeigu robotai ir neturi jausmų,
11:00
our behavior towards them might matter for us.
207
660116
3080
kaip mes su jais elgiamės yra svarbu.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
Ir nesvarbu, kokios galų gale bus mūsų taisyklės,
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
robotai gali padėti mums geriau suprasti pačius save.
11:14
Most of what I've learned over the past 10 years
210
674276
2316
Per pastaruosius 10 metų daugiausiai išmokau
11:16
has not been about technology at all.
211
676616
2238
visai ne apie technologijas,
11:18
It's been about human psychology
212
678878
2503
o apie žmonių psichologiją,
11:21
and empathy and how we relate to others.
213
681405
2603
užuojautos jausmą ir tarpusavio santykius.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
Kai vaikas yra geras „Roombai“,
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
kai kareivis stengiasi išgelbėti robotą minų lauke,
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
ar kai žmonių grupė atsisako žaloti dinozauriuką robotą,
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
visi tie robotai nėra vien tik varikliai, mechanizmai ar algoritmai.
11:42
They're reflections of our own humanity.
218
702501
1905
Jie – mūsų žmoniškumo atspindys.
11:45
Thank you.
219
705523
1151
Ačiū.
11:46
(Applause)
220
706698
3397
(Plojimai.)
Apie šią svetainę

Šioje svetainėje rasite "YouTube" vaizdo įrašų, naudingų mokantis anglų kalbos. Pamatysite anglų kalbos pamokas, kurias veda aukščiausio lygio mokytojai iš viso pasaulio. Dukart spustelėkite angliškus subtitrus, rodomus kiekvieno vaizdo įrašo puslapyje, kad iš ten paleistumėte vaizdo įrašą. Subtitrai slenka sinchroniškai su vaizdo įrašo atkūrimu. Jei turite pastabų ar pageidavimų, susisiekite su mumis naudodami šią kontaktinę formą.

https://forms.gle/WvT1wiN1qDtmnspy7