Why we have an emotional connection to robots | Kate Darling

138,301 views ・ 2018-11-06

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Fordító: Zsuzsanna Lőrincz Lektor: Péter Pallós
00:13
There was a day, about 10 years ago,
1
13047
2508
Valamikor 10 évvel ezelőtt
megkértem egy barátomat, hogy tartson fejjel lefelé egy robotdinót.
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
A Pleo nevű játékról van szó, amit megrendeltem,
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
és nagyon izgatottan vártam, mert mindig szerettem a robotokat,
00:29
And this one has really cool technical features.
5
29784
2279
és ez a játék elképesztő technikai jellemzőket vonultat fel.
00:32
It had motors and touch sensors
6
32087
2119
Motorjai, érzékelői
00:34
and it had an infrared camera.
7
34230
2244
és infrakamerája volt.
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
Többek között dőlésérzékelője is volt,
00:39
so it knew what direction it was facing.
9
39285
2318
így tudta, merre néz.
00:42
And when you held it upside down,
10
42095
2134
Amikor fejjel lefelé tartották,
00:44
it would start to cry.
11
44253
1572
elkezdett sírni.
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
Odáig voltam tőle, és megmutattam egyik barátomnak.
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
Mondtam neki: „Tartsd a farkánál fogva, és nézd, mit csinál!”
00:55
So we're watching the theatrics of this robot
14
55268
3625
Néztük a kis robot alakítását,
00:58
struggle and cry out.
15
58917
2199
kapálózott, jajgatott.
01:02
And after a few seconds,
16
62767
2047
Néhány másodperc után
01:04
it starts to bother me a little,
17
64838
1972
már zavart egy kicsit,
01:07
and I said, "OK, that's enough now.
18
67744
3424
és azt mondtam: „Jól van, most már elég lesz.
01:11
Let's put him back down."
19
71930
2305
Tegyük le.”
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
És megsimogattam, hogy ne sírjon.
01:18
And that was kind of a weird experience for me.
21
78973
2452
Furcsa élmény volt ez számomra.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
Egyrészt mert nem voltam az az anyatípus akkoriban.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
Bár azóta anya lettem kilenc hónappal ezelőtt,
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
és tudom, hogy a babák is vergődnek, ha fejjel lefelé tartjuk őket.
01:32
(Laughter)
25
92889
1563
(Nevetés)
Másrészt azért volt érdekes ez a reakcióm,
01:35
But my response to this robot was also interesting
26
95023
2358
01:37
because I knew exactly how this machine worked,
27
97405
4101
mert pontosan tudtam, hogyan működik a robot,
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
mégis késztetést éreztem, hogy kedves legyek hozzá.
01:46
And that observation sparked a curiosity
29
106450
2707
Ez a tapasztalat felkeltette bennem a kíváncsiságot,
01:49
that I've spent the past decade pursuing.
30
109181
2832
és ez az érdeklődés motivált az elmúlt évtizedben.
01:52
Why did I comfort this robot?
31
112911
1793
Miért vigasztaltam meg ezt a robotot?
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
Az egyik, amit felfedeztem, hogy többről van szó,
01:59
was more than just an awkward moment in my living room,
33
119831
3701
minthogy e gép iránti empátiám miatt volt egy kínos pillanatom a nappaliban.
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
Egy olyan világban, ahol a robotok egyre jobban beépülnek az életünkbe,
02:09
an instinct like that might actually have consequences,
35
129000
3126
egy ilyen ösztönös reakciónak következményei lehetnek,
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
ugyanis az első, amit felfedeztem, hogy nem csak velem történt ilyen.
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
2007-ben a Washington Post írt arról, hogy az Egyesült Államok hadserege
02:24
was testing this robot that defused land mines.
38
144075
3230
olyan robotot tesztel, amely aknamezőket hatástalanít.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
A módszer az volt, hogy a botsáskához hasonlóan nézett ki,
02:30
and it would walk around a minefield on its legs,
40
150265
2651
és lábait emelgetve járkált a mezőn.
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
Amikor csak aknára lépett, az egyik lába felrobbant,
majd folytatta útját a többi lábával, hogy még több aknát robbantson fel.
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
A tesztgyakorlatért felelős ezredes
02:43
ends up calling it off,
44
163061
2118
végül leállította az akciót,
02:45
because, he says, it's too inhumane
45
165203
2435
mondván, lelki szenvedés nézni,
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
ahogy a sérült robot vonszolja magát az aknamezőn.
02:54
Now, what would cause a hardened military officer
47
174978
3897
Mi késztet egy edzett katonatisztet,
02:58
and someone like myself
48
178899
2043
vagy engem és bárkit,
03:00
to have this response to robots?
49
180966
1857
hogy így reagáljon robotokra?
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
Bizonyára a sci-fi és a popkultúra hatása is,
03:06
to really want to personify these things,
51
186871
2579
hogy megszemélyesítünk dolgokat,
03:09
but it goes a little bit deeper than that.
52
189474
2789
de az okok kicsit mélyebben gyökereznek.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
Úgy tűnik, természetes tulajdonságunk, hogy szándékot és lelket tulajdonítunk
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
mindennek, ami fizikai környezetünkben autonómnak tűnő mozgást végez.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
Így minden robotot úgy kezelünk, mintha élőlény lenne.
03:26
These bomb-disposal units get names.
56
206703
2683
A bombahatástalanító egységek nevet kapnak.
03:29
They get medals of honor.
57
209410
1682
Érdemérmeket kapnak.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
Temetésük volt díszlövéssel.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
Kutatások szerint ugyanígy vagyunk egyszerű háztartási robotokkal is,
03:38
like the Roomba vacuum cleaner.
60
218237
2135
mint például a Roomba porszívóval.
03:40
(Laughter)
61
220396
1291
(Nevetés)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
Csak egy korong, ami körbejár, hogy feltakarítsa a padlót,
03:44
but just the fact it's moving around on its own
63
224824
2306
mégis a puszta tény, hogy magától mozog,
03:47
will cause people to name the Roomba
64
227154
2167
arra késztet embereket, hogy elnevezzék,
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
és sajnálják, amikor beszorul a kanapé alá.
03:52
(Laughter)
66
232551
1865
(Nevetés)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
Tervezhetünk robotokat úgy, hogy kiváltsák ezt a reakciót
03:57
using eyes and faces or movements
68
237804
3461
olyan szemek, arcok, mozgások segítségével,
04:01
that people automatically, subconsciously associate
69
241289
3259
amelyeket tudat alatt automatikusan összekapcsolunk
04:04
with states of mind.
70
244572
2020
valamilyen lelkiállapottal.
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
Külön kutatási terület jött létre: az ember-robot kapcsolat,
04:09
that really shows how well this works.
72
249933
1826
ami mutatja, hogy nem marad el a hatás.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
A Stanford Egyetem kutatói például azt tapasztalták,
04:14
that it makes people really uncomfortable
74
254933
2001
hogy az emberek zavarba jönnek,
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
ha azt kérik tőlük, hogy érintsék meg robot intim területeit.
04:19
(Laughter)
76
259454
2120
(Nevetés)
04:21
So from this, but from many other studies,
77
261598
2023
Ebből és más kutatásokból is tudjuk,
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
hogy az emberek reagálnak
04:27
by these lifelike machines,
79
267892
2022
az ilyen életszerű robotok utasításaira,
04:29
even if they know that they're not real.
80
269938
2017
akkor is, ha tudják, hogy nem valódi lények.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
Olyan világ felé haladunk, ahol a robotok mindenütt jelen lesznek.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
A robottechnológia kilép a gyárak falai mögül,
04:40
It's entering workplaces, households.
83
280823
3013
és belép a munkahelyekre, háztartásokba.
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
Ahogyan ezek a döntéseket megértő és autonóm döntéseket hozó,
tanulásra képes gépek belépnek élettereinkbe,
04:50
enter into these shared spaces,
85
290093
2552
04:52
I think that maybe the best analogy we have for this
86
292669
2496
úgy gondolom, ez a jelenség nagyon hasonlít
az állatokkal való kapcsolatunkhoz.
04:55
is our relationship with animals.
87
295189
1935
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
Több ezer évvel ezelőtt elkezdtük háziasítani az állatokat,
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
és munkára, harcászatra, társas kapcsolatra tanítottuk őket.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
Az idők folyamán egyes állatokkal eszközként vagy termékként bántunk,
05:10
and other animals, we've treated with kindness
91
310513
2174
más állatokkal barátságosak voltunk.
05:12
and we've given a place in society as our companions.
92
312711
3078
Helyet adtunk nekik a társadalomban, társaink lettek.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
Lehetségesnek tartom, hogy a robotokat hasonló módon elkezdjük integrálni.
05:21
And sure, animals are alive.
94
321484
3096
Persze tény: az állatok élnek,
05:24
Robots are not.
95
324604
1150
a robotok pedig nem.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
És mondhatom, miután dolgoztam robotszakértőkkel,
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
hogy messze vagyunk olyan robotok fejlesztésétől, amelyek bármit is éreznek.
05:35
But we feel for them,
98
335072
1460
De mi érzünk irántuk,
05:37
and that matters,
99
337835
1207
és ez lényeges,
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
mert ha integrálni akarjuk a robotokat különböző élettereinkbe,
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
meg kell értenünk, hogy az emberek nem úgy fogják kezelni őket, mint más eszközöket,
05:47
and that in some cases,
102
347369
1844
és hogy bizonyos esetekben,
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
például amikor egy katona elkezd érzelmileg kötődni a robothoz,
05:52
to the robot that they work with,
104
352433
2047
akivel dolgozik,
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
ez a kudarctól a veszélyig sokféle bajt okozhat.
05:58
But in other cases, it can actually be useful
106
358551
2138
Ugyanakkor más esetekben éppenséggel hasznos lehet,
06:00
to foster this emotional connection to robots.
107
360713
2623
ha kialakul ez az érzelmi kapcsolat robotok iránt.
06:04
We're already seeing some great use cases,
108
364184
2134
Nagyszerű alkalmazási példákat láthatunk:
06:06
for example, robots working with autistic children
109
366342
2604
robotok részt vesznek autista gyerekek terápiájában
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
eddig nem látott módszerekkel,
vagy tanárok robotok segítségével jobban be tudják vonni a gyerekeket a tanulásba.
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
06:17
And it's not just for kids.
112
377433
1381
De nemcsak gyerekekről van szó.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
A kezdetei kutatások alapján a robotok orvosoknak és betegeknek is segíthetnek
06:22
in health care settings.
114
382997
1427
az egészségügyi ellátásban.
06:25
This is the PARO baby seal robot.
115
385535
1810
Ez itt PARO, a bébifóka-robot.
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
Idősek otthonában segít demens betegeknek.
06:30
It's been around for a while.
117
390678
1570
Egy ideje már szolgálatban áll.
06:32
And I remember, years ago, being at a party
118
392272
3325
Emlékszem, évekkel ezelőtt egy partin
06:35
and telling someone about this robot,
119
395621
2571
említést tettem valakinek erről a robotról,
06:38
and her response was,
120
398216
2126
és így reagált:
06:40
"Oh my gosh.
121
400366
1262
„Úristen!
06:42
That's horrible.
122
402508
1188
Ez borzalmas.
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
Nem hiszem el, hogy robotokat adunk betegeknek emberi gondoskodás helyett.”
06:50
And this is a really common response,
124
410540
1875
Nagyon gyakori ez a reakció,
06:52
and I think it's absolutely correct,
125
412439
2499
és azt gondolom, teljesen helyénvaló,
06:54
because that would be terrible.
126
414962
2040
mert szörnyű lenne, ha ez lenne a helyzet.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
De ez esetben nem emberi gondoskodást helyettesít a robot.
07:00
What this robot replaces is animal therapy
128
420858
3120
Állatterápiát helyettesít
07:04
in contexts where we can't use real animals
129
424002
3198
olyan területeken, ahol nem tudunk igazi állatokat alkalmazni,
07:07
but we can use robots,
130
427224
1168
de robotokat igen,
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
mert a betegek szívesen tekintik őket inkább állatnak, mint eszköznek.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
A robotokkal való érzelmi kapcsolat elfogadása
07:17
can also help us anticipate challenges
133
437906
1969
segíti a felkészülésünket arra,
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
hogy ezek az eszközök az emberek életének egyre intimebb területeire lépnek be.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
Például rendben van-e, ha a gyerek robotmacija
07:27
records private conversations?
136
447539
2237
magánbeszélgetéseket vesz fel?
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
Rendben van-e, ha a szexrobot alkalmazáson belüli vásárlásokra buzdít?
07:33
(Laughter)
138
453887
1396
(Nevetés)
07:35
Because robots plus capitalism
139
455307
2501
Mert robotok plusz kapitalizmus
07:37
equals questions around consumer protection and privacy.
140
457832
3705
egyenlő a fogyasztóvédelmi és adatvédelmi szempontokkal.
07:42
And those aren't the only reasons
141
462549
1612
De más okok is magyarázzák,
07:44
that our behavior around these machines could matter.
142
464185
2570
miért lehet jelentősége a gépek iránti viselkedésünknek.
07:48
A few years after that first initial experience I had
143
468747
3270
Néhány évvel a kis robotdinóval
07:52
with this baby dinosaur robot,
144
472041
2311
való első tapasztalatom után
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
szerveztem egy kísérletet Hannes Gassert barátommal.
07:56
And we took five of these baby dinosaur robots
146
476901
2897
Fogtunk öt ilyen robotdinót,
07:59
and we gave them to five teams of people.
147
479822
2453
és odaadtuk őket öt csoportnak.
08:02
And we had them name them
148
482299
1697
A feladat az volt, hogy nevezzék el őket,
08:04
and play with them and interact with them for about an hour.
149
484020
3809
játsszanak és kommunikáljanak velük egy órán át.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
Aztán bemutattunk egy kalapácsot és egy fejszét,
08:10
and we told them to torture and kill the robots.
151
490937
2278
és kértük, hogy kínozzák, majd öljék meg a robotot.
08:13
(Laughter)
152
493239
3007
(Nevetés)
08:16
And this turned out to be a little more dramatic
153
496857
2294
Kicsit drámaibb lett a helyzet,
08:19
than we expected it to be,
154
499175
1278
mint gondoltuk,
08:20
because none of the participants would even so much as strike
155
500477
3072
mert senki nem akarta még csak megütni sem
08:23
these baby dinosaur robots,
156
503573
1307
ezeket a kis robotdinókat.
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
Úgyhogy improvizálnunk kellett egy kicsit, és egy ponton azt mondtuk:
„Oké, megmenthetitek a saját csoportotok robotját, ha egy másikét tönkreteszitek.”
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
08:34
(Laughter)
159
514539
1855
(Nevetés)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
Még ez sem működött. Nem tudták megtenni.
08:39
So finally, we said,
161
519058
1151
Végül azt mondtuk:
08:40
"We're going to destroy all of the robots
162
520233
2032
„Tönkrevágjuk az összes robotot,
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
ha valaki nem fog fejszét valamelyikre.”
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
Akkor egy srác felállt, fogta a fejszét,
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
és az egész terem feljajdult, amikor a fejszével
08:51
on the robot's neck,
166
531919
1780
lesújtott a robot nyakára.
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
Félig vicces, félig komoly csendes megemlékezés következett
09:00
for this fallen robot.
168
540085
1698
az elesett robotért.
09:01
(Laughter)
169
541807
1406
(Nevetés)
09:03
So that was a really interesting experience.
170
543237
3694
Szóval rendkívül érdekes tapasztalat volt.
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
Természetesen, nem kontrollált kísérlet volt,
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
de elvezetett egy későbbi kutatáshoz, amit az MIT-n végeztem
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
Palash Nandyvel és Cynthia Breazeallel.
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
A tesztalanyoknak a laborban össze kellett törniük a HEXBUG robotokat,
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
amik élethűen utánozzák a rovarok mozgását.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
Tehát nem valami cukiságot választottunk, ami tetszik az embereknek,
09:24
we chose something more basic,
177
564484
2093
hanem valami egyszerűbbet.
09:26
and what we found was that high-empathy people
178
566601
3480
Azt tapasztaltuk, hogy az empatikusabb emberek
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
jobban vonakodnak megütni a robotokat.
09:33
Now this is just a little study,
180
573575
1564
Ez csak egy kisebb kísérlet volt,
09:35
but it's part of a larger body of research
181
575163
2389
de egy kiterjedtebb kutatás része,
09:37
that is starting to indicate that there may be a connection
182
577576
2944
amely azt sejteti, hogy összefüggés lehet
09:40
between people's tendencies for empathy
183
580544
2373
az emberek empátiára való hajlama
09:42
and their behavior around robots.
184
582941
1976
és a robotokhoz való viszonya között.
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
De számomra az ember-robot kapcsolat elkövetkező korszakának nem az a kérdése,
09:49
is not: "Do we empathize with robots?"
186
589372
3055
hogy empatikusak vagyunk-e a robotok irányában,
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
hanem hogy megváltoztathatják-e a robotok az emberek empátiáját.
09:57
Is there reason to, for example,
188
597489
2287
Van-e alapja például,
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
hogy ne engedjük meg gyerekünknek, hogy belerúgjon egy robotkutyába.
10:03
not just out of respect for property,
190
603228
2914
Nemcsak azért, mert óvjuk értékeinket,
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
hanem mert lehet, hogy akkor egy igazi kutyába is bele fog rúgni.
10:10
And again, it's not just kids.
192
610507
1883
És itt ismét nem csak gyerekekről van szó.
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
Az erőszakos videojátékok problémájáról, csak egy teljesen új szinten,
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
mert arra, ami fizikai valójában létezik, erőteljesebben reagálunk,
10:22
than to images on a screen.
195
622428
1547
mint arra, ami képernyőn jelenik meg.
10:25
When we behave violently towards robots,
196
625674
2578
Ha erőszakosan viselkedünk robotokkal,
10:28
specifically robots that are designed to mimic life,
197
628276
3120
különösen élethű robotokkal,
10:31
is that a healthy outlet for violent behavior
198
631420
3892
az vajon erőszakos indulatok egészséges levezetése
10:35
or is that training our cruelty muscles?
199
635336
2544
vagy pusztító izmaink fejlesztése?
10:39
We don't know ...
200
639511
1150
Nem tudjuk.
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
De e kérdésre adott válasz hatással lehet az emberi magatartásra,
10:46
it has the potential to impact social norms,
202
646591
2768
hatással lehet a társadalmi normákra,
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
és hatással lehet annak szabályozására, hogy mit tehetünk meg, és mit nem
10:53
with certain robots,
204
653256
1151
egyes robotokkal,
10:54
similar to our animal cruelty laws.
205
654431
1848
az állatvédelmi törvényhez hasonlóan.
10:57
Because even if robots can't feel,
206
657228
2864
Mert annak ellenére, hogy a robotok nem éreznek,
11:00
our behavior towards them might matter for us.
207
660116
3080
számunkra van jelentősége a velük szembeni viselkedésünknek.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
És függetlenül attól, hogy végül változtatunk-e szabályainkon,
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
a robotok segíthetnek, hogy új képet kapjunk magunkról.
11:14
Most of what I've learned over the past 10 years
210
674276
2316
Amit az elmúlt tíz évben megtudtam,
11:16
has not been about technology at all.
211
676616
2238
nagyrészt nem a technológiáról szól.
11:18
It's been about human psychology
212
678878
2503
Az emberi lélekről és az empátiáról szól,
11:21
and empathy and how we relate to others.
213
681405
2603
valamint arról, hogyan viszonyulunk másokhoz.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
Mert amikor egy gyerek kedves egy Roombához,
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
amikor egy katona meg akar menteni egy robotot a harcmezőn,
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
amikor egy csoport nem hajlandó kárt tenni egy robotdinóban,
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
akkor ezek a robotok nemcsak motorok, szerkezetek és algoritmusok.
11:42
They're reflections of our own humanity.
218
702501
1905
Saját emberségünk fejeződik ki bennük.
11:45
Thank you.
219
705523
1151
Köszönöm.
11:46
(Applause)
220
706698
3397
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7