Why we have an emotional connection to robots | Kate Darling

138,301 views ・ 2018-11-06

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Traducteur: Claire Ghyselen Relecteur: Morgane Quilfen
00:13
There was a day, about 10 years ago,
1
13047
2508
Un jour, il y a environ 10 ans,
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
j'ai demandé à un ami de tenir à l'envers un robot en forme de petit dinosaure.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
J'avais commandé ce jouet qui répond au nom de Pleo.
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
J'étais vraiment ravie car j'ai toujours aimé les robots.
00:29
And this one has really cool technical features.
5
29784
2279
Celui-ci avait des caractéristiques vraiment cool.
00:32
It had motors and touch sensors
6
32087
2119
Il avait des moteurs, des capteurs haptiques
00:34
and it had an infrared camera.
7
34230
2244
et une caméra infrarouge.
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
Il avait aussi un capteur d'inclinaison
00:39
so it knew what direction it was facing.
9
39285
2318
qui lui permettait de savoir dans quelle direction il Ă©tait.
00:42
And when you held it upside down,
10
42095
2134
Si on le tenait la tĂȘte en bas,
00:44
it would start to cry.
11
44253
1572
il se mettait Ă  pleurer.
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
Je trouvais ça super et donc j'étais fiÚre de le montrer à mon ami.
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
Je lui ai proposé de le tenir par la queue pour voir sa réaction.
00:55
So we're watching the theatrics of this robot
14
55268
3625
On observe les gesticulations du robot
00:58
struggle and cry out.
15
58917
2199
qui se débat et pleure,
01:02
And after a few seconds,
16
62767
2047
mais aprĂšs quelques secondes,
01:04
it starts to bother me a little,
17
64838
1972
ça a commencé à me perturber un peu.
01:07
and I said, "OK, that's enough now.
18
67744
3424
Alors j'ai décrété que c'était assez
01:11
Let's put him back down."
19
71930
2305
et que nous devrions le remettre Ă  l'endroit.
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
J'ai alors caressĂ© le robot jusqu'Ă  ce qu'il arrĂȘte de pleurer.
01:18
And that was kind of a weird experience for me.
21
78973
2452
Ce fut une expérience troublante pour moi.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
D'abord, je n'Ă©tais pas particuliĂšrement maternelle Ă  l'Ă©poque.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
Je suis devenue une maman il y a neuf mois,
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
et j'ai appris que les enfants aussi sont contrariĂ©s si on les tient la tĂȘte en bas.
01:32
(Laughter)
25
92889
1563
(Rires)
01:35
But my response to this robot was also interesting
26
95023
2358
Mais ma réaction vis-à-vis du robot est intéressante
01:37
because I knew exactly how this machine worked,
27
97405
4101
car, en dépit du fait que je savais exactement
comment la machine fonctionnait,
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
j'ai quand-mĂȘme ressenti le besoin de lui montrer de l'affection.
01:46
And that observation sparked a curiosity
29
106450
2707
Cette observation a piqué ma curiosité
01:49
that I've spent the past decade pursuing.
30
109181
2832
et cela fait une dizaine d'années que je m'y intéresse.
01:52
Why did I comfort this robot?
31
112911
1793
Pourquoi ai-je consolé ce robot ?
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
Une des choses que j'ai découvertes est que ma réaction avec cette machine
01:59
was more than just an awkward moment in my living room,
33
119831
3701
est davantage qu'un moment bizarre dans mon salon
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
et que dans un monde oĂč nous intĂ©grons de plus en plus les robots dans nos vies,
02:09
an instinct like that might actually have consequences,
35
129000
3126
un tel instinct peut avoir des conséquences concrÚtes,
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
car la premiÚre chose que j'ai découverte, c'est que je ne suis pas la seule.
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
En 2007, le Washington Post a publié un reportage sur l'armée américaine
02:24
was testing this robot that defused land mines.
38
144075
3230
qui faisait des essais avec un robot détonateur de mines antipersonnel.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
Le robot avait la forme d'un phasme.
02:30
and it would walk around a minefield on its legs,
40
150265
2651
Il marchait dans les champs de mines
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
et chaque fois qu'une de ses pattes en touchait une, elle explosait.
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
Le robot continuait de chercher d'autres mines sur ses pattes restantes.
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
Le colonel responsable de cet essai
02:43
ends up calling it off,
44
163061
2118
a fini par arrĂȘter le programme,
02:45
because, he says, it's too inhumane
45
165203
2435
car, selon lui, c'Ă©tait trop inhumain
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
d'observer le robot endommagé se traßner dans les champs de mines.
02:54
Now, what would cause a hardened military officer
47
174978
3897
Qu'est-ce qui peut bien susciter chez un militaire endurci
02:58
and someone like myself
48
178899
2043
et quelqu'un comme moi
03:00
to have this response to robots?
49
180966
1857
une telle réaction vis-à-vis des robots ?
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
Il est vrai que nous sommes poussés par la science-fiction et la culture pop
03:06
to really want to personify these things,
51
186871
2579
Ă  concevoir de l'anthropomorphisme pour ces objets.
03:09
but it goes a little bit deeper than that.
52
189474
2789
Mais c'est un peu plus compliqué que ça.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
En fait, nous sommes biologiquement conçus pour projeter intention et vie
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
dans toutes les choses animées dans notre espace physique qui paraissent autonomes.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
DĂšs lors, on traite toutes sortes de robots comme s'ils Ă©taient vivants.
03:26
These bomb-disposal units get names.
56
206703
2683
On donne des noms aux engins de déminage
03:29
They get medals of honor.
57
209410
1682
et on leur remettait des médailles.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
Ils ont mĂȘme eu des funĂ©railles avec salve d'honneur.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
Les recherches éclairent le fait que nous agissons ainsi avec nos robots ménagers
03:38
like the Roomba vacuum cleaner.
60
218237
2135
comme l'aspirateur Roomba.
03:40
(Laughter)
61
220396
1291
(Rires)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
C'est un simple disque qui déambule sur le sol pour le nettoyer,
03:44
but just the fact it's moving around on its own
63
224824
2306
mais le seul fait de se mouvoir autours de nous
03:47
will cause people to name the Roomba
64
227154
2167
incite les gens Ă  lui donner un nom
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
et à ressentir de la peine pour le Roomba quand celui-ci est coincé.
03:52
(Laughter)
66
232551
1865
(Rires)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
On peut concevoir des robots précisément pour susciter cette réaction,
03:57
using eyes and faces or movements
68
237804
3461
en utilisant des yeux et un visage ou des mouvements
04:01
that people automatically, subconsciously associate
69
241289
3259
que les gens vont automatiquement associer inconsciemment
04:04
with states of mind.
70
244572
2020
Ă  des Ă©tats d'esprit.
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
Il y a un champ de recherche entier, l'interaction humains - robots,
04:09
that really shows how well this works.
72
249933
1826
qui explique ces mécanismes.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
Par exemple, des chercheurs de l'Université de Stanford ont découvert
04:14
that it makes people really uncomfortable
74
254933
2001
que ça met les gens trÚs mal à l'aise
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
quand on leur demande de toucher les parties intimes d'un robot.
04:19
(Laughter)
76
259454
2120
(Rires)
04:21
So from this, but from many other studies,
77
261598
2023
De ces réactions, et d'autres recherches,
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
nous savons que les gens réagissent à des indices qui leur sont tendus
04:27
by these lifelike machines,
79
267892
2022
par ces engins mimant la vie,
04:29
even if they know that they're not real.
80
269938
2017
mĂȘme quand ils savent que ces engins ne sont pas vivants.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
Notre avenir sera rempli de robots.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
La technologie robotique est en train de sortir des usines.
04:40
It's entering workplaces, households.
83
280823
3013
Elle intĂšgre le lieu de travail, le domicile.
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
Alors que ces machines autonomes qui peuvent sentir,
prendre des décisions et apprendre, intÚgrent notre environnement de vie,
04:50
enter into these shared spaces,
85
290093
2552
04:52
I think that maybe the best analogy we have for this
86
292669
2496
je pense que la meilleure analogie Ă  disposition
04:55
is our relationship with animals.
87
295189
1935
est notre relation avec les animaux.
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
Il y a des milliers d'années, on a domestiqué les animaux
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
et on les a entraßnés au travail, à la guerre et à devenir nos compagnons.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
Durant l'histoire, on a traitĂ© certaines bĂȘtes comme des outils ou des marchandises
05:10
and other animals, we've treated with kindness
91
310513
2174
et on a traité d'autres animaux avec affection,
05:12
and we've given a place in society as our companions.
92
312711
3078
on leur a donné une place dans la société en tant que compagnons.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
Je pense plausible que nous commencions Ă  intĂ©grer les robots de la mĂȘme maniĂšre.
05:21
And sure, animals are alive.
94
321484
3096
Certes, les animaux sont vivants.
05:24
Robots are not.
95
324604
1150
Les robots ne le sont pas.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
Et mon expérience avec des ingénieurs en robotique me permet d'affirmer
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
qu'on est loin de concevoir des robots qui ressentent quoi que ce soit.
05:35
But we feel for them,
98
335072
1460
Mais nous Ă©prouvons des sentiments Ă  leur Ă©gard
05:37
and that matters,
99
337835
1207
et c'est crucial.
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
Car si nous tentons d'intégrer des robots dans nos espaces de vie,
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
il faut comprendre qu'on ne va pas les traiter comme d'autres objets
05:47
and that in some cases,
102
347369
1844
et que dans certains cas,
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
par exemple, celui du soldat qui s'est attaché affectivement
05:52
to the robot that they work with,
104
352433
2047
au robot avec lequel il travaille,
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
ça peut devenir improductif, voire dangereux.
05:58
But in other cases, it can actually be useful
106
358551
2138
Dans d'autres cas toutefois, ça peut ĂȘtre utile
06:00
to foster this emotional connection to robots.
107
360713
2623
de nourrir une connexion Ă©motionnelle avec un robot.
06:04
We're already seeing some great use cases,
108
364184
2134
Il y a des usages fabuleux,
06:06
for example, robots working with autistic children
109
366342
2604
comme par exemple les robots qui travaillent avec des enfants autistes.
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
Ils créent un lien avec eux jamais constaté auparavant.
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
Il y a aussi des robots aux cÎtés des enseignants
pour pousser, avec succĂšs, les enfants Ă  apprendre.
06:17
And it's not just for kids.
112
377433
1381
Il n'y a pas que les enfants.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
Des études montrent que les robots peuvent assister médecins et infirmiÚres
06:22
in health care settings.
114
382997
1427
dans le milieu des soins de la santé.
06:25
This is the PARO baby seal robot.
115
385535
1810
PARO est un robot bébé phoque.
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
Il est utilisé dans des maisons pour patients atteints de démence.
06:30
It's been around for a while.
117
390678
1570
Ça fait dĂ©jĂ  un certain temps.
06:32
And I remember, years ago, being at a party
118
392272
3325
Je me souviens d'une soirée, il y a des années,
06:35
and telling someone about this robot,
119
395621
2571
oĂč j'avais parlĂ© de ce robot Ă  quelqu'un.
06:38
and her response was,
120
398216
2126
Et cette personne avait réagi ainsi :
06:40
"Oh my gosh.
121
400366
1262
« Oh mon dieu !
06:42
That's horrible.
122
402508
1188
C'est horrible.
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
Je ne peux pas croire qu'on donne aux gens des robots à la place d'attention. »
06:50
And this is a really common response,
124
410540
1875
C'était une réaction habituelle
06:52
and I think it's absolutely correct,
125
412439
2499
et qui est correcte, je pense,
06:54
because that would be terrible.
126
414962
2040
car en effet, ce serait terrible.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
Dans ce cas, le robot ne remplace pas l'homme.
07:00
What this robot replaces is animal therapy
128
420858
3120
C'est de la thérapie animale
07:04
in contexts where we can't use real animals
129
424002
3198
dans un contexte oĂč on ne peut pas utiliser des animaux.
07:07
but we can use robots,
130
427224
1168
Mais on peut utiliser des robots
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
car les gens vont les traiter davantage comme un animal que comme un robot.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
ReconnaĂźtre cette connexion Ă©motionnelle aux robots
07:17
can also help us anticipate challenges
133
437906
1969
peut aussi nous aider à anticiper les défis
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
liés au fait que ces engins intÚgrent les espaces intimes de nos vies.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
Par exemple, serait-il acceptable que le robot nounours de votre enfant
07:27
records private conversations?
136
447539
2237
enregistre des conversations privées ?
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
Serait-il tolérable que votre robot sexuel ait une fonction d'achat attractive ?
07:33
(Laughter)
138
453887
1396
(Rires)
07:35
Because robots plus capitalism
139
455307
2501
Car robots plus capitalisme
07:37
equals questions around consumer protection and privacy.
140
457832
3705
égalent les questions sur la protection du consommateur et la vie privée.
07:42
And those aren't the only reasons
141
462549
1612
Ce ne sont pas les seules raisons
07:44
that our behavior around these machines could matter.
142
464185
2570
pour lesquelles nos comportements avec ces engins sont importants.
07:48
A few years after that first initial experience I had
143
468747
3270
Quelques années aprÚs ma premiÚre expérience
07:52
with this baby dinosaur robot,
144
472041
2311
avec le robot bébé dinosaure,
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
j'ai organisé un atelier avec mon ami Hannes Gassert.
07:56
And we took five of these baby dinosaur robots
146
476901
2897
On a pris cinq robots bébés dinosaures
07:59
and we gave them to five teams of people.
147
479822
2453
que l'on a remis Ă  cinq Ă©quipes.
08:02
And we had them name them
148
482299
1697
Elles devaient leur donner un nom,
08:04
and play with them and interact with them for about an hour.
149
484020
3809
jouer avec et interagir avec eux pendant une heure environ.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
Ensuite, on leur a remis un marteau et une hache
08:10
and we told them to torture and kill the robots.
151
490937
2278
et on leur a demandé de torturer et tuer les robots.
08:13
(Laughter)
152
493239
3007
(Rires)
08:16
And this turned out to be a little more dramatic
153
496857
2294
La situation est devenue beaucoup plus tendue
08:19
than we expected it to be,
154
499175
1278
que ce que nous avions pensé
08:20
because none of the participants would even so much as strike
155
500477
3072
car aucun participant n'a voulu faire de mal
08:23
these baby dinosaur robots,
156
503573
1307
aux robots bébés dinosaures.
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
Du coup, on a dĂ» improviser et leur dire ceci :
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
« D'accord. Vous pouvez sauver votre robot si vous détruisez celui des autres. »
08:34
(Laughter)
159
514539
1855
(Rires)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
MĂȘme ça, ça n'a pas marchĂ©. Ils n'y arrivaient pas.
08:39
So finally, we said,
161
519058
1151
Alors on leur a dit :
08:40
"We're going to destroy all of the robots
162
520233
2032
« On va détruire tous les robots
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
si personne n'en casse un à la hache. »
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
Alors, un type s'est levé et a pris la hache.
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
Toute l'assemblée a grimacé quand il l'a abattue
08:51
on the robot's neck,
166
531919
1780
sur le cou du robot.
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
Un silence s'est installé dans la salle, mi-sérieux, mi-plaisanterie,
09:00
for this fallen robot.
168
540085
1698
pour le robot tombé.
09:01
(Laughter)
169
541807
1406
(Rires)
09:03
So that was a really interesting experience.
170
543237
3694
C'était une expérience vraiment intéressante.
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
Ce n'était pas une expérience contrÎlée
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
mais elle a mené à des recherches ultérieures au MIT
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
que j'ai conduites avec Palash Nandy et Cynthia Breazeal.
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
Nous invitions des gens dans le labo pour Ă©craser ces HEXBUGs
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
qui se meuvent trÚs réalistement, comme des insectes.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
Au lieu de choisir des objets mignons qui attirent les gens,
09:24
we chose something more basic,
177
564484
2093
on a choisi quelque chose de plus basique.
09:26
and what we found was that high-empathy people
178
566601
3480
Nous avons découvert que les gens avec une grande empathie
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
hésitaient davantage à frapper les HEXBUGs.
09:33
Now this is just a little study,
180
573575
1564
C'est une petite Ă©tude
09:35
but it's part of a larger body of research
181
575163
2389
qui fait partie d'un grand champ de recherches
09:37
that is starting to indicate that there may be a connection
182
577576
2944
qui semble indiquer qu'il pourrait y avoir un lien
09:40
between people's tendencies for empathy
183
580544
2373
entre les tendances pour l'empathie des gens
09:42
and their behavior around robots.
184
582941
1976
et leur comportement avec des robots.
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
Ma question cruciale pour l'Ăšre prochaine d'interactions hommes - robots
09:49
is not: "Do we empathize with robots?"
186
589372
3055
n'est pas : « Ressentons-nous de l'empathie pour les robots ? »
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
C'est : « Les robots peuvent-ils changer l'empathie des gens ? »
09:57
Is there reason to, for example,
188
597489
2287
Y a-t-il une bonne raison pour, par exemple,
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
empĂȘcher votre enfant de frapper un robot-chien,
10:03
not just out of respect for property,
190
603228
2914
non pas pour le respect des biens,
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
mais parce que ça pourrait le rendre plus susceptible de frapper un vrai chien ?
10:10
And again, it's not just kids.
192
610507
1883
À nouveau, il n'y a pas que les enfants.
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
C'est le débat des jeux vidéo violents, mais à un tout autre niveau,
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
à cause de cette réaction physique et viscérale plus intense
10:22
than to images on a screen.
195
622428
1547
que celle ressentie face Ă  des images sur Ă©cran.
10:25
When we behave violently towards robots,
196
625674
2578
Si nous agissons avec violence vis-Ă -vis des robots,
10:28
specifically robots that are designed to mimic life,
197
628276
3120
des robots conçus pour imiter la vie,
10:31
is that a healthy outlet for violent behavior
198
631420
3892
est-ce un exutoire sain des comportements violents
10:35
or is that training our cruelty muscles?
199
635336
2544
ou bien est-ce en train de nourrir notre cruauté ?
10:39
We don't know ...
200
639511
1150
On ne sait pas.
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
Toutefois la réponse peut influencer les comportements humains,
10:46
it has the potential to impact social norms,
202
646591
2768
elle peut influencer les normes sociales,
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
elle peut inspirer des rĂšgles sur ce qu'on peut et ne peut pas faire
10:53
with certain robots,
204
653256
1151
avec certains robots,
10:54
similar to our animal cruelty laws.
205
654431
1848
à l'instar des lois contre la cruauté envers les animaux.
10:57
Because even if robots can't feel,
206
657228
2864
MĂȘme si les robots ne ressentent pas,
11:00
our behavior towards them might matter for us.
207
660116
3080
notre comportement Ă  leur Ă©gard est important pour nous-mĂȘmes.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
Que nous changions ou pas nos réglementations,
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
les robots pourraient nous offrir une comprĂ©hension nouvelle de nous-mĂȘmes.
11:14
Most of what I've learned over the past 10 years
210
674276
2316
Tout ce que j'ai appris ces dix derniÚres années,
11:16
has not been about technology at all.
211
676616
2238
ne concerne pas la technologie.
11:18
It's been about human psychology
212
678878
2503
Il s'agit de la psychologie de l'homme,
11:21
and empathy and how we relate to others.
213
681405
2603
de l'empathie et de la façon dont nous nous lions avec autrui.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
Car quand un enfant est gentil avec Roomba,
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
qu'un soldat tente de sauver un robot sur le champ de bataille
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
ou qu'un groupe de personnes refuse d'abßmer un robot bébé dinosaure,
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
ces robots ne sont plus que des moteurs, des engrenages et des algorithmes.
11:42
They're reflections of our own humanity.
218
702501
1905
Ils deviennent le reflet de notre propre humanité.
11:45
Thank you.
219
705523
1151
Merci.
11:46
(Applause)
220
706698
3397
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7