Why we have an emotional connection to robots | Kate Darling

137,191 views ・ 2018-11-06

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Vertaald door: Esther van Driel Nagekeken door: Boukeline Arnold
00:13
There was a day, about 10 years ago,
1
13047
2508
Op een dag, zo'n tien jaar geleden, vroeg ik aan een vriend
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
of hij een babydinosaurusrobot ondersteboven wilde houden.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
Het was een speelgoedbeest, een Pleo, dat ik besteld had,
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
en ik was er erg enthousiast over omdat ik altijd van robots gehouden heb.
00:29
And this one has really cool technical features.
5
29784
2279
En deze had hele gave technologische functies.
Hij had motortjes, aanraaksensoren en een infraroodcamera.
00:32
It had motors and touch sensors
6
32087
2119
00:34
and it had an infrared camera.
7
34230
2244
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
Hij had ook een kantelsensor, zodat hij wist welke kant boven was.
00:39
so it knew what direction it was facing.
9
39285
2318
00:42
And when you held it upside down,
10
42095
2134
En als je hem ondersteboven hield, begon hij te huilen.
00:44
it would start to cry.
11
44253
1572
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
Ik vond dit erg gaaf en liet hem trots aan mijn vriend zien.
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
"Hou hem eens bij zijn staart vast", zei ik, "en kijk wat er gebeurt."
00:55
So we're watching the theatrics of this robot
14
55268
3625
Dus we staan te kijken naar de verrichtingen van deze robot,
00:58
struggle and cry out.
15
58917
2199
die spartelt en huilt.
01:02
And after a few seconds,
16
62767
2047
Na een paar seconden ga ik me een beetje ongemakkelijk voelen
01:04
it starts to bother me a little,
17
64838
1972
01:07
and I said, "OK, that's enough now.
18
67744
3424
en zeg ik: "Oké, nu is het wel genoeg. Zet hem maar weer neer."
01:11
Let's put him back down."
19
71930
2305
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
Daarna aaide ik de robot om hem te laten ophouden met huilen.
01:18
And that was kind of a weird experience for me.
21
78973
2452
Dat was best een vreemde ervaring voor me.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
Ten eerste was ik destijds niet zo'n moederlijk type.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
Al ben ik negen maanden geleden zelf moeder geworden
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
en heb ik geleerd dat baby's ook spartelen als je ze ondersteboven houdt.
01:32
(Laughter)
25
92889
1563
(Gelach)
Maar mijn reactie op deze robot was ook interessant,
01:35
But my response to this robot was also interesting
26
95023
2358
01:37
because I knew exactly how this machine worked,
27
97405
4101
omdat ik precies wist hoe dit apparaat werkte
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
en er toch aardig tegen wilde zijn.
01:46
And that observation sparked a curiosity
29
106450
2707
Dat intrigeerde mij en daar ben ik de laatste tien jaar mee bezig geweest.
01:49
that I've spent the past decade pursuing.
30
109181
2832
01:52
Why did I comfort this robot?
31
112911
1793
Waarom troostte ik die robot?
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
Ik ontdekte dat de manier waarop ik dit apparaat behandelde
01:59
was more than just an awkward moment in my living room,
33
119831
3701
meer om het lijf had dan een enkel ongemakkelijk moment in mijn woonkamer,
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
en dat in een wereld waar robots steeds meer een deel van ons leven worden,
02:09
an instinct like that might actually have consequences,
35
129000
3126
zo'n instinct daadwerkelijk consequenties zou kunnen hebben,
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
want het eerste waar ik achter kwam, was dat ik niet de enige ben.
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
In 2007 schreef de Washington Post dat het Amerikaanse leger
02:24
was testing this robot that defused land mines.
38
144075
3230
een robot aan het testen was die landmijnen onschadelijk maakte.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
Het was een soort wandelende tak die over een mijnenveld liep
02:30
and it would walk around a minefield on its legs,
40
150265
2651
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
en als hij op een mijn trapte, werd een van zijn poten opgeblazen
en liep hij verder op één poot minder om nog meer mijnen op te blazen.
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
De kolonel die deze testoefening leidde, blies haar uiteindelijk helemaal af,
02:43
ends up calling it off,
44
163061
2118
02:45
because, he says, it's too inhumane
45
165203
2435
omdat hij het onmenselijk vond
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
om toe te kijken hoe deze robot zich over het mijnenveld sleepte.
02:54
Now, what would cause a hardened military officer
47
174978
3897
Hoe zou het kunnen dat een door de wol geverfde legerofficier
02:58
and someone like myself
48
178899
2043
en iemand zoals ik op deze manier op robots reageren?
03:00
to have this response to robots?
49
180966
1857
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
Natuurlijk hebben science fiction en popcultuur ons ertoe aangezet
03:06
to really want to personify these things,
51
186871
2579
deze dingen te verpersoonlijken,
03:09
but it goes a little bit deeper than that.
52
189474
2789
maar het gaat dieper.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
Het blijkt dat het in onze natuur zit om intenties en leven toe te schrijven
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
aan alles wat in onze omgeving uit zichzelf lijkt te bewegen.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
Dus we zullen allerlei soorten robots behandelen alsof het levende wezens zijn.
03:26
These bomb-disposal units get names.
56
206703
2683
Robots die mijnen ontmantelen, krijgen een naam.
03:29
They get medals of honor.
57
209410
1682
Ze krijgen eremedailles.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
Er zijn begrafenissen met saluutschoten voor hen georganiseerd.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
Onderzoek wijst uit dat we dit zelfs met simpele huishoudrobots doen,
03:38
like the Roomba vacuum cleaner.
60
218237
2135
zoals de Roomba-stofzuiger.
03:40
(Laughter)
61
220396
1291
(Gelach)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
Dat is niet meer dan een schijf die rondrijdt en je vloer schoonmaakt,
03:44
but just the fact it's moving around on its own
63
224824
2306
maar het feit dat hij zelfstandig beweegt zorgt ervoor dat mensen hem een naam geven
03:47
will cause people to name the Roomba
64
227154
2167
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
en het rot voor hem vinden als hij onder de bank vast komt te zitten.
03:52
(Laughter)
66
232551
1865
(Gelach)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
We kunnen robots zo ontwerpen dat ze juist deze reactie uitlokken,
03:57
using eyes and faces or movements
68
237804
3461
door ze uit te rusten met ogen en gezichten of bewegingen
04:01
that people automatically, subconsciously associate
69
241289
3259
die mensen automatisch en onbewust associëren met gemoedstoestanden.
04:04
with states of mind.
70
244572
2020
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
Er is een hele onderzoekstak, mens-robotinteractie genaamd,
04:09
that really shows how well this works.
72
249933
1826
die laat zien hoe goed dit werkt.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
Onderzoekers van de Stanford University ontdekten bijvoorbeeld
04:14
that it makes people really uncomfortable
74
254933
2001
dat mensen zich ongemakkelijk voelen
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
als je hen vraagt de edele delen van een robot aan te raken.
04:19
(Laughter)
76
259454
2120
(Gelach)
04:21
So from this, but from many other studies,
77
261598
2023
Door deze en veel andere onderzoeken
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
weten we dat mensen reageren
op signalen die ze krijgen van deze levensechte apparaten,
04:27
by these lifelike machines,
79
267892
2022
04:29
even if they know that they're not real.
80
269938
2017
zelfs als ze weten dat ze niet echt zijn.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
We gaan naar een wereld toe waarin overal robots zijn.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
Robottechnologie begeeft zich buiten de fabrieksmuren.
04:40
It's entering workplaces, households.
83
280823
3013
Het komt naar de werkvloer en huishoudens.
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
Als deze apparaten, die kunnen voelen, zelfstandig beslissingen nemen en leren,
04:50
enter into these shared spaces,
85
290093
2552
tot deze gedeelde ruimtes doordringen,
04:52
I think that maybe the best analogy we have for this
86
292669
2496
denk ik dat we dat het beste kunnen vergelijken
04:55
is our relationship with animals.
87
295189
1935
met de relatie die we met dieren hebben.
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
Duizenden jaren geleden begonnen we dieren te temmen
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
en hen te leren voor ons te werken, te vechten en ons gezelschap te houden.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
Sommige dieren hebben we behandeld als gereedschap of als product;
05:10
and other animals, we've treated with kindness
91
310513
2174
andere hebben we vriendelijk behandeld
05:12
and we've given a place in society as our companions.
92
312711
3078
en als huisdier een plaats gegeven in onze gemeenschap.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
Het is denkbaar dat we robots op dezelfde manier zullen integreren.
05:21
And sure, animals are alive.
94
321484
3096
Natuurlijk, dieren zijn levende wezens.
05:24
Robots are not.
95
324604
1150
Robots zijn dat niet.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
Ik kan jullie vertellen, door mijn werk met robotici,
dat we nog lang geen robots kunnen ontwikkelen die iets kunnen voelen.
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
05:35
But we feel for them,
98
335072
1460
Maar wij hebben wel gevoelens ten aanzien van hén
05:37
and that matters,
99
337835
1207
en dat is belangrijk,
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
want als we robots willen toelaten in deze gezamenlijke ruimtes,
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
dan moeten we begrijpen dat we er anders mee omgaan dan met andere apparaten
05:47
and that in some cases,
102
347369
1844
en dat dit soms,
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
zoals bij de soldaat die zich emotioneel hecht aan de robot waarmee hij werkt,
05:52
to the robot that they work with,
104
352433
2047
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
inefficiënt kan zijn of zelfs ronduit gevaarlijk.
05:58
But in other cases, it can actually be useful
106
358551
2138
In andere gevallen kan het juist handig zijn
06:00
to foster this emotional connection to robots.
107
360713
2623
om deze emotionele band met robots te versterken.
06:04
We're already seeing some great use cases,
108
364184
2134
We kennen al verschillende praktische toepassingen,
06:06
for example, robots working with autistic children
109
366342
2604
zoals robots die werken met autistische kinderen
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
en hun aandacht vasthouden op manieren die we nog niet eerder gezien hebben,
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
of robots die samen met leraren kinderen helpen te leren, met resultaat.
06:17
And it's not just for kids.
112
377433
1381
En het werkt niet alleen bij kinderen.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
Vroege studies laten zien dat robots artsen en patiënten kunnen helpen
06:22
in health care settings.
114
382997
1427
op het gebied van zorg.
06:25
This is the PARO baby seal robot.
115
385535
1810
Dit is de PARO-babyzeehondrobot.
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
Hij wordt gebruikt in verzorgingshuizen en bij dementiepatiënten.
06:30
It's been around for a while.
117
390678
1570
Hij is er al een tijdje.
06:32
And I remember, years ago, being at a party
118
392272
3325
En ik herinner me, jaren geleden, toen ik op een feestje was
06:35
and telling someone about this robot,
119
395621
2571
en ik iemand vertelde over deze robot,
06:38
and her response was,
120
398216
2126
haar reactie was:
06:40
"Oh my gosh.
121
400366
1262
"Oh, mijn god. Dat is verschrikkelijk.
06:42
That's horrible.
122
402508
1188
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
Niet te geloven dat we mensen robots geven in plaats van menselijke zorg."
06:50
And this is a really common response,
124
410540
1875
Deze reactie komt vaak voor
06:52
and I think it's absolutely correct,
125
412439
2499
en ik denk inderdaad dat hij helemaal terecht is,
06:54
because that would be terrible.
126
414962
2040
want dat zou verschrikkelijk zijn.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
Maar dat is niet wat de robot hier vervangt.
07:00
What this robot replaces is animal therapy
128
420858
3120
Deze robot vervangt diertherapie
als we geen echte dieren kunnen gebruiken maar robots wel,
07:04
in contexts where we can't use real animals
129
424002
3198
07:07
but we can use robots,
130
427224
1168
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
omdat we die consequent meer als dier dan als apparaat behandelen.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
Als we deze emotionele band met robots erkennen,
07:17
can also help us anticipate challenges
133
437906
1969
kan ons dat ook helpen uitdagingen het hoofd te bieden
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
als deze apparaten hun intrede doen in onze privésfeer.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
Is het bijvoorbeeld acceptabel als de teddybeerrobot van je kind
07:27
records private conversations?
136
447539
2237
vertrouwelijke gesprekken opneemt?
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
Is het acceptabel als je seksrobot onweerstaanbare in-app aankopen aanbiedt?
07:33
(Laughter)
138
453887
1396
(Gelach)
07:35
Because robots plus capitalism
139
455307
2501
Want de combinatie van robots en kapitalisme
07:37
equals questions around consumer protection and privacy.
140
457832
3705
roept vragen op over consumentenbescherming en privacy.
07:42
And those aren't the only reasons
141
462549
1612
En dat zijn niet de enige redenen
07:44
that our behavior around these machines could matter.
142
464185
2570
waarom onze opstelling tegenover deze apparaten van belang kan zijn.
07:48
A few years after that first initial experience I had
143
468747
3270
Een paar jaar na mijn eerste ervaring met die babydinosaurusrobot
07:52
with this baby dinosaur robot,
144
472041
2311
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
gaf ik een workshop met mijn vriend Hannes Gassert.
07:56
And we took five of these baby dinosaur robots
146
476901
2897
We gaven vijf van deze babydinosaurusrobots
07:59
and we gave them to five teams of people.
147
479822
2453
aan vijf groepjes mensen.
08:02
And we had them name them
148
482299
1697
Ze moesten er een naam voor verzinnen
08:04
and play with them and interact with them for about an hour.
149
484020
3809
en ze mochten ermee spelen en ermee aanrommelen, zo'n uur lang.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
Toen haalden we een hamer en bijl tevoorschijn
08:10
and we told them to torture and kill the robots.
151
490937
2278
en vroegen hen de robots te martelen en vermoorden.
08:13
(Laughter)
152
493239
3007
(Gelach)
08:16
And this turned out to be a little more dramatic
153
496857
2294
Dit leek iets gevoeliger te liggen dan we gedacht hadden,
08:19
than we expected it to be,
154
499175
1278
08:20
because none of the participants would even so much as strike
155
500477
3072
want geen van de deelnemers wilde ook maar een tik uitdelen
08:23
these baby dinosaur robots,
156
503573
1307
aan deze babydinosaurusrobots,
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
dus moesten we improviseren en op een gegeven moment zeiden we:
"Jullie kunnen je eigen robot redden als jullie die van een ander team slopen."
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
08:34
(Laughter)
159
514539
1855
(Gelach)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
Zelfs dat werkte niet. Ze konden het niet.
Uiteindelijk zeiden we:
08:39
So finally, we said,
161
519058
1151
08:40
"We're going to destroy all of the robots
162
520233
2032
"We gaan alle robots vernietigen
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
tenzij iemand er één met een bijl bewerkt."
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
Eén man stond op en pakte de bijl,
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
en iedereen kromp ineen toen hij de bijl liet neerkomen
08:51
on the robot's neck,
166
531919
1780
op de nek van de robot;
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
in de kamer viel een ogenblik stilte, half geamuseerd, half ernstig,
09:00
for this fallen robot.
168
540085
1698
vanwege deze gevallen robot.
09:01
(Laughter)
169
541807
1406
(Gelach)
09:03
So that was a really interesting experience.
170
543237
3694
Dat was een heel interessante ervaring.
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
Het was natuurlijk geen gecontroleerd onderzoek,
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
maar het zorgde ervoor dat ik meer onderzoek ging doen aan het MIT
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
met Palash Nandy en Cynthia Breazeal.
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
We lieten mensen naar het lab komen en lieten hen deze HEXBUGs slopen;
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
ze bewegen zich als insecten, op een levensechte manier.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
In plaats van iets schattigs te kiezen waar mensen zich tot aangetrokken voelen,
09:24
we chose something more basic,
177
564484
2093
kozen we iets simpelers
09:26
and what we found was that high-empathy people
178
566601
3480
en we ontdekten dat mensen die veel inlevingsvermogen hebben
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
langer aarzelden om op de HEXBUGs in te slaan.
09:33
Now this is just a little study,
180
573575
1564
Dit is maar een klein onderzoek,
09:35
but it's part of a larger body of research
181
575163
2389
maar het maakt deel uit van een grote groep onderzoeken
09:37
that is starting to indicate that there may be a connection
182
577576
2944
die beginnen uit te wijzen dat er een verband zou kunnen zijn
09:40
between people's tendencies for empathy
183
580544
2373
tussen iemands inlevingsvermogen en zijn houding ten aanzien van robots.
09:42
and their behavior around robots.
184
582941
1976
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
Mijn vraag voor de toekomst van mens-robotinteractie is niet:
09:49
is not: "Do we empathize with robots?"
186
589372
3055
'Kunnen we ons inleven in robots?'
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
maar: 'Hebben robots invloed op ons inlevingsvermogen?'
09:57
Is there reason to, for example,
188
597489
2287
Moet je bijvoorbeeld verhinderen
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
dat je kind een robothond schopt,
10:03
not just out of respect for property,
190
603228
2914
niet alleen omdat je nu eenmaal tegen spullen aan trapt,
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
maar omdat het kind misschien anders ook sneller een echte hond zou schoppen?
10:10
And again, it's not just kids.
192
610507
1883
Nogmaals, het gaat hier niet alleen over kinderen.
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
Hetzelfde speelt bij gewelddadige videogames,
maar nu is het op totaal onbekend terrein,
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
want op lichamelijke prikkels reageren we veel sterker dan op schermbeelden.
10:22
than to images on a screen.
195
622428
1547
10:25
When we behave violently towards robots,
196
625674
2578
Als we ons gewelddadig opstellen naar robots toe,
10:28
specifically robots that are designed to mimic life,
197
628276
3120
vooral naar robots die ontworpen zijn om levensecht te lijken,
10:31
is that a healthy outlet for violent behavior
198
631420
3892
is dat dan een gezonde uitlaatklep voor onze gewelddadige gevoelens
10:35
or is that training our cruelty muscles?
199
635336
2544
of trainen we dan juist ons vermogen om ons wreed te gedragen?
10:39
We don't know ...
200
639511
1150
We weten het niet ...
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
Het antwoord op deze vraag kan menselijk gedrag beïnvloeden,
10:46
it has the potential to impact social norms,
202
646591
2768
kan sociale normen beïnvloeden,
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
kan leiden tot regels over wat we wel en niet kunnen doen
10:53
with certain robots,
204
653256
1151
met bepaalde robots,
10:54
similar to our animal cruelty laws.
205
654431
1848
net zoals er wetten zijn omtrent dierenmishandeling.
10:57
Because even if robots can't feel,
206
657228
2864
Want zelfs als robots geen gevoel hebben,
11:00
our behavior towards them might matter for us.
207
660116
3080
dan nog kan de manier waarop we ons tegenover hen opstellen, belangrijk zijn.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
Of we nu wel of niet de regels gaan veranderen,
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
robots zouden ons kunnen helpen onszelf beter te gaan begrijpen.
Het meeste van wat ik de laatste tien jaar heb geleerd,
11:14
Most of what I've learned over the past 10 years
210
674276
2316
11:16
has not been about technology at all.
211
676616
2238
ging helemaal niet over technologie.
11:18
It's been about human psychology
212
678878
2503
Het ging over psychologie en empathie
11:21
and empathy and how we relate to others.
213
681405
2603
en hoe we met elkaar omgaan.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
Want als een kind lief doet tegen een Roomba,
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
als een soldaat een robot op het slagveld probeert te redden,
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
of als een groep mensen weigert om een babydinosaurusrobot kwaad te doen,
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
dan zijn deze robots niet alleen motoren en tandwielen en algoritmes.
11:42
They're reflections of our own humanity.
218
702501
1905
Dan zijn ze reflecties van onze eigen menselijkheid.
11:45
Thank you.
219
705523
1151
Dank jullie wel.
11:46
(Applause)
220
706698
3397
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7