Why we have an emotional connection to robots | Kate Darling

138,301 views ・ 2018-11-06

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Traduttore: Linda Cervellera Revisore: Anna Cristiana Minoli
00:13
There was a day, about 10 years ago,
1
13047
2508
Un giorno, circa 10 anni fa,
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
ho chiesto a un amico di tenere
un cucciolo di dinosauro robot a testa in giù.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
Era un giocattolo chiamato Pleo che avevo ordinato,
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
e ne ero davvero entusiasta perché ho sempre amato i robot.
00:29
And this one has really cool technical features.
5
29784
2279
E questo ha funzioni davvero eccezionali.
00:32
It had motors and touch sensors
6
32087
2119
Aveva dei motori, sensori tattili
00:34
and it had an infrared camera.
7
34230
2244
e una telecamera ad infrarossi.
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
Una delle cose che aveva era un sensore di inclinazione,
00:39
so it knew what direction it was facing.
9
39285
2318
quindi riconosceva la direzione verso cui era rivolto.
00:42
And when you held it upside down,
10
42095
2134
E quando lo tenevi a testa in giù,
00:44
it would start to cry.
11
44253
1572
incominciava a piangere.
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
Pensavo fosse eccezionale, così l'ho mostrato ai miei amici,
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
e ho detto, "Oh, tienilo per la coda. Vedi cosa fa."
00:55
So we're watching the theatrics of this robot
14
55268
3625
Così osserviamo la teatralità di questo robot
00:58
struggle and cry out.
15
58917
2199
che si dimenava e piange.
01:02
And after a few seconds,
16
62767
2047
E dopo pochi secondi,
01:04
it starts to bother me a little,
17
64838
1972
comincia a infastidirmi,
01:07
and I said, "OK, that's enough now.
18
67744
3424
e ho detto, "OK, adesso basta.
01:11
Let's put him back down."
19
71930
2305
Rimettiamolo giù."
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
Così accarezzo il robot per farlo smettere di piangere.
01:18
And that was kind of a weird experience for me.
21
78973
2452
È stata un'esperienza alquanto strana per me.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
Per prima cosa, al tempo non ero la persona più materna.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
Benché da allora sono diventata mamma, nove mesi fa,
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
e ho imparato che anche i bimbi si agitano quando li tieni a testa in giù.
01:32
(Laughter)
25
92889
1563
(Risate)
01:35
But my response to this robot was also interesting
26
95023
2358
Ma la mia reazione a questo robot è stata interessante
01:37
because I knew exactly how this machine worked,
27
97405
4101
perché sapevo esattamente come funzionava questa macchina,
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
eppure mi sentivo costretta a essere gentile.
01:46
And that observation sparked a curiosity
29
106450
2707
E quell'osservazione suscitò una curiosità
01:49
that I've spent the past decade pursuing.
30
109181
2832
che ho perseguito nell'ultimo decennio.
01:52
Why did I comfort this robot?
31
112911
1793
Perché ho consolato questo robot?
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
Una delle cose che ho scoperto è stato che il modo di trattare la macchina
01:59
was more than just an awkward moment in my living room,
33
119831
3701
era più che solo un momento imbarazzante nel mio salotto,
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
che in un mondo dove stiamo sempre più integrando i robot nelle nostre vite,
02:09
an instinct like that might actually have consequences,
35
129000
3126
un istinto come quello in realtà potrebbe avere conseguenze,
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
perché la prima cosa che ho scoperto è che non è capitato solo a me.
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
Nel 2007, il Washington Post riportò che l'esercito degli Stati Uniti
02:24
was testing this robot that defused land mines.
38
144075
3230
stava testando un robot che disinnescava le mine.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
Aveva la forma di un insetto stecco
02:30
and it would walk around a minefield on its legs,
40
150265
2651
e camminava per un campo minato con le sue zampe,
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
e ogni volta che calpestava una mina, una delle zampe esplodeva,
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
e continuava poi con le altre zampe a far esplodere le altre mine.
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
Il colonnello al comando di questa esercitazione
02:43
ends up calling it off,
44
163061
2118
alla fine si tirò indientro,
02:45
because, he says, it's too inhumane
45
165203
2435
perché, disse, era inumano
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
guardare quel robot danneggiato trascinarsi lungo il campo minato.
02:54
Now, what would cause a hardened military officer
47
174978
3897
Ora, cosa porta un ufficiale militare indurito
02:58
and someone like myself
48
178899
2043
e qualcuno come me
03:00
to have this response to robots?
49
180966
1857
ad avere questa reazione di fronte ai robot?
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
Certo, siamo stati preparati dalla fantascienza e dalla cultura pop
03:06
to really want to personify these things,
51
186871
2579
nel voler personificare queste cose,
03:09
but it goes a little bit deeper than that.
52
189474
2789
ma va un po' più in profondità.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
Apparentemente siamo biologicamente programmati per proiettare intento e vita
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
su qualsiasi movimento nel nostro spazio fisico
che ci sembra autonomo.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
Quindi la gente tratterà tutti i tipi di robot come se fossero vivi.
03:26
These bomb-disposal units get names.
56
206703
2683
A queste unità di smaltimento di bombe viene dato un nome.
03:29
They get medals of honor.
57
209410
1682
Ricevono medaglie d'onore.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
Hanno avuto i funerali con il saluto delle armi.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
E la ricerca dimostra che lo facciamo anche con un semplice robot domestico,
03:38
like the Roomba vacuum cleaner.
60
218237
2135
come l'aspirapolvere Roomba.
03:40
(Laughter)
61
220396
1291
(Risate)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
È solo un disco che vaga sul pavimento per pulirlo,
03:44
but just the fact it's moving around on its own
63
224824
2306
ma solo il fatto che si muova autonomamente
03:47
will cause people to name the Roomba
64
227154
2167
porterà la gente a chiamarlo Roomba
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
e dispiacersi per Roomba quando si incastra sotto il divano.
03:52
(Laughter)
66
232551
1865
(Risate)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
Possiamo progettare i robot proprio per evocare questa reazione,
03:57
using eyes and faces or movements
68
237804
3461
usando gli occhi e i volti o i movimenti
04:01
that people automatically, subconsciously associate
69
241289
3259
che le persone automaticamente, inconsciamente associano
04:04
with states of mind.
70
244572
2020
con gli stati mentali.
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
E c'è un intero campo di ricerca chiamato interazione uomo-robot
04:09
that really shows how well this works.
72
249933
1826
che dimostra quanto bene funzioni.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
Per esempio, i ricercatori dell'università di Stanford hanno scoperto
04:14
that it makes people really uncomfortable
74
254933
2001
che le persone si imbarazzavano
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
quando viene chiesto loro di toccare le parti intime di un robot.
04:19
(Laughter)
76
259454
2120
(Risate)
04:21
So from this, but from many other studies,
77
261598
2023
Quindi da questo e da moltissimi altri studi,
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
sappiamo che le persone reagiscono ai segnali dati
04:27
by these lifelike machines,
79
267892
2022
da queste macchine realistiche
04:29
even if they know that they're not real.
80
269938
2017
anche se sanno che non sono reali.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
Andiamo verso un mondo in cui i robot sono ovunque.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
La tecnologia robotica sta uscendo da dietro le mura delle fabbriche.
04:40
It's entering workplaces, households.
83
280823
3013
Sta entrando nei luoghi di lavoro e domestici.
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
Quando queste macchine che possono sentire, prendere decisioni autonome e imparare
04:50
enter into these shared spaces,
85
290093
2552
entrano in questi spazi condivisi,
04:52
I think that maybe the best analogy we have for this
86
292669
2496
penso che forse la migliore analogia che abbiamo
04:55
is our relationship with animals.
87
295189
1935
è la nostra relazione con gli animali.
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
Migliaia di anni fa, abbiamo iniziato ad addomesticare gli animali,
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
e li abbiamo addestrati per il lavoro, gli armamenti e per compagnia.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
Nel corso della storia, abbiamo trattato gli animali come strumenti o come prodotti,
05:10
and other animals, we've treated with kindness
91
310513
2174
e altri animali li abbiamo trattati con gentilezza
05:12
and we've given a place in society as our companions.
92
312711
3078
e dato loro un posto nella società come nostri compagni.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
Penso che sia plausibile iniziare a integrare i robot allo stesso modo.
05:21
And sure, animals are alive.
94
321484
3096
E certo, gli animali sono vivi.
05:24
Robots are not.
95
324604
1150
I Robot non lo sono.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
E posso dirvi, lavorando con robottisti,
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
che siamo molto lontani dallo sviluppo di robot che possono sentire qualcosa.
05:35
But we feel for them,
98
335072
1460
Noi sentiamo per loro
05:37
and that matters,
99
337835
1207
ed è quello che conta,
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
perché se stiamo cercando di integrare i robot in questi spazi condivisi,
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
dobbiamo capire che la gente li tratterà in modo diverso
rispetto ad altri dispositivi,
05:47
and that in some cases,
102
347369
1844
e che in alcuni casi,
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
per esempio, il caso di un soldato che si affeziona
05:52
to the robot that they work with,
104
352433
2047
al robot con con cui lavorava,
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
può essere qualsiasi cosa, da inefficiente a pericoloso.
05:58
But in other cases, it can actually be useful
106
358551
2138
Ma in altri casi, può effettivamente essere utile
06:00
to foster this emotional connection to robots.
107
360713
2623
favorire questa connessione emotiva con i robot.
06:04
We're already seeing some great use cases,
108
364184
2134
Osserviamo già dei casi di utilizzo eccezionali,
06:06
for example, robots working with autistic children
109
366342
2604
ad esempio, i robot che lavorano con bambini autistici
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
per coinvolgerli in modi che non abbiamo visto in precedenza,
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
o robot che lavorano con gli insegnanti per coinvolgere i bambini
nell'apprendimento.
06:17
And it's not just for kids.
112
377433
1381
E non solo per i bambini.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
I primi studi mostrano che i robot possono aiutare dottori e pazienti
06:22
in health care settings.
114
382997
1427
in ambito sanitario.
06:25
This is the PARO baby seal robot.
115
385535
1810
Questo è il cucciolo di foca robot Paro.
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
È usato nelle case di cura e con pazienti affetti da demenza.
06:30
It's been around for a while.
117
390678
1570
È in giro da un po'.
06:32
And I remember, years ago, being at a party
118
392272
3325
E ricordo, anni fa, a una festa
06:35
and telling someone about this robot,
119
395621
2571
raccontai a qualcuno di questo robot,
06:38
and her response was,
120
398216
2126
e la sua risposta fu:
06:40
"Oh my gosh.
121
400366
1262
"Oh mio Dio.
06:42
That's horrible.
122
402508
1188
È orribile.
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
Non posso credere che diamo dei robot alle persone invece di cure umane."
06:50
And this is a really common response,
124
410540
1875
Questa è una risposta molto comune,
06:52
and I think it's absolutely correct,
125
412439
2499
e penso che sia assolutamente corretta,
06:54
because that would be terrible.
126
414962
2040
perché sarebbe terribile.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
Ma in questo caso, non è ciò che questo robot sostituisce.
07:00
What this robot replaces is animal therapy
128
420858
3120
Ciò che questo robot sostituisce è la terapia animale
07:04
in contexts where we can't use real animals
129
424002
3198
in contesti in cui non possiamo usare animali veri
07:07
but we can use robots,
130
427224
1168
ma possiamo usare i robot,
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
perché le persone li tratterebbero sempre più come animali che come dispositivi.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
Riconoscere questa connessione emotiva con i robot
07:17
can also help us anticipate challenges
133
437906
1969
può anche aiutarci ad anticipare le sfide
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
poiché questi dispositivi si spostano nelle aree private della vita della gente.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
Ad esempio, va bene se l'orsacchiotto robot di tuo figlio
07:27
records private conversations?
136
447539
2237
registra le conversazioni private?
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
Va bene se il tuo sex robot ha interessanti acquisti in-app?
07:33
(Laughter)
138
453887
1396
(Risate)
07:35
Because robots plus capitalism
139
455307
2501
Perché robot più capitalismo
07:37
equals questions around consumer protection and privacy.
140
457832
3705
equivale a domande sulla protezione dei consumatori e sulla privacy.
07:42
And those aren't the only reasons
141
462549
1612
E non sono le uniche ragioni
07:44
that our behavior around these machines could matter.
142
464185
2570
per cui nostro comportamento con queste macchine.
potrebbe essere importante.
07:48
A few years after that first initial experience I had
143
468747
3270
Qualche anno dopo la mia prima esperienza
07:52
with this baby dinosaur robot,
144
472041
2311
con questo cucciolo di dinosauro robot,
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
ho fatto un workshop con la mia amica Hannes Gassert.
07:56
And we took five of these baby dinosaur robots
146
476901
2897
Abbiamo preso cinque di questi piccoli dinosauri robot
07:59
and we gave them to five teams of people.
147
479822
2453
e li abbiamo dati a cinque gruppi di persone.
08:02
And we had them name them
148
482299
1697
Abbiamo fatto dare loro un nome,
08:04
and play with them and interact with them for about an hour.
149
484020
3809
li abbiamo fatti giocare e interagire con loro per circa un'ora.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
E poi abbiamo mostrato un martello e un'accetta
08:10
and we told them to torture and kill the robots.
151
490937
2278
e abbiamo detto loro di torturare e uccidere i robot.
08:13
(Laughter)
152
493239
3007
(Risate)
08:16
And this turned out to be a little more dramatic
153
496857
2294
Risultò essere un po' più drammatico
08:19
than we expected it to be,
154
499175
1278
di quanto ci aspettassimo,
08:20
because none of the participants would even so much as strike
155
500477
3072
perché nessuno dei partecipanti avrebbe colpito
08:23
these baby dinosaur robots,
156
503573
1307
questi cuccioli di dinosauro robot,
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
quindi abbiamo dovuto improvvisare un po', e a un certo punto, abbiamo detto,
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
"Potete salvare il vostro robot,
se distruggete il robot di un'altra squadra. "
08:34
(Laughter)
159
514539
1855
(Risate)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
E anche quello non ha funzionato. Non riuscivano a farlo.
08:39
So finally, we said,
161
519058
1151
Alla fine, abbiamo detto,
08:40
"We're going to destroy all of the robots
162
520233
2032
"Distruggeremo tutti i robot
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
a meno che qualcuno non ne distrugga uno con l'accetta."
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
E questo ragazzo si alzò, prese l'accetta,
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
e tutta la stanza sussultò mentre calava l'accetta
08:51
on the robot's neck,
166
531919
1780
sul collo del robot,
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
calò nella stanza un silenzio tra il serio e lo scherzoso
09:00
for this fallen robot.
168
540085
1698
per il robot ucciso.
09:01
(Laughter)
169
541807
1406
(Risate)
09:03
So that was a really interesting experience.
170
543237
3694
È stata davvero un'esperienza interessante
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
Non era uno studio controllato, ovviamente,
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
ma ha portato a successive ricerche che ho condotto al MIT
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
con Palash Nandy e Cynthia Breazeal,
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
dove abbiamo fatto distruggere alla gente questi HEXBUG
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
che si muovono davvero in modo realistico, come degli insetti.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
Invece di scegliere qualcosa di carino verso cui si è attratti,
09:24
we chose something more basic,
177
564484
2093
abbiamo scelto qualcosa di più basilare,
09:26
and what we found was that high-empathy people
178
566601
3480
e abbiamo scoperto che persone con elevata empatia
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
esitano di più a colpire gli HEXBUG.
09:33
Now this is just a little study,
180
573575
1564
Questo è solo un piccolo studio,
09:35
but it's part of a larger body of research
181
575163
2389
ma fa parte di una più ampia ricerca
09:37
that is starting to indicate that there may be a connection
182
577576
2944
che sta iniziando a indicare che potrebbe esserci una connessione
09:40
between people's tendencies for empathy
183
580544
2373
tra le tendenze per l'empatia
09:42
and their behavior around robots.
184
582941
1976
e il comportamento con i robot.
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
Ma la mia domanda per la prossima era di interazione uomo-robot
09:49
is not: "Do we empathize with robots?"
186
589372
3055
non è: "Siamo empatici nei confronti dei robot?"
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
È: "I robot possono cambiare l'empatia delle persone?"
09:57
Is there reason to, for example,
188
597489
2287
C'è un motivo, ad esempio,
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
per impedire a tuo figlio di prendere a calci un cane robot,
10:03
not just out of respect for property,
190
603228
2914
non solo per rispetto della proprietà.
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
ma perché il bambino ha più probabilità di prendere a calci un vero cane?
10:10
And again, it's not just kids.
192
610507
1883
E non vale solo per i bambini.
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
È la questione dei videogiochi violenti, ma su un livello completamente nuovo
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
a causa di questa fisicità viscerale per cui reagiamo più intensamente
10:22
than to images on a screen.
195
622428
1547
che alle immagini su uno schermo.
10:25
When we behave violently towards robots,
196
625674
2578
Quando ci comportiamo in modo violento con i robot,
10:28
specifically robots that are designed to mimic life,
197
628276
3120
in particolare con robot che sono progettati per imitare la vita,
10:31
is that a healthy outlet for violent behavior
198
631420
3892
può essere considerato uno sfogo sano per un comportamento violento
10:35
or is that training our cruelty muscles?
199
635336
2544
o è quello che allena la nostra crudeltà?
10:39
We don't know ...
200
639511
1150
Non sappiamo...
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
Ma la risposta a questa domanda ha la possibilità
di influenzare il comportamento umano,
10:46
it has the potential to impact social norms,
202
646591
2768
ha la possibilità di influire sulle norme sociali,
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
potrebbe ispirare le regole su ciò che possiamo e non possiamo fare
10:53
with certain robots,
204
653256
1151
con alcuni robot,
10:54
similar to our animal cruelty laws.
205
654431
1848
simile alle leggi sulla crudeltà sugli animali.
10:57
Because even if robots can't feel,
206
657228
2864
Perché anche se i robot non possono sentire,
11:00
our behavior towards them might matter for us.
207
660116
3080
il nostro comportamento nei loro confronti
potrebbe essere importante per noi.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
Indipendentemente dal fatto che finiamo per cambiare le nostre regole,
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
i robot potrebbero aiutarci a raggiungere una nuova consapevolezza di noi stessi.
11:14
Most of what I've learned over the past 10 years
210
674276
2316
Gran parte delle cose che ho imparato negli ultimi 10 anni
11:16
has not been about technology at all.
211
676616
2238
non ha mai riguardato la tecnologia.
11:18
It's been about human psychology
212
678878
2503
È psicologia umana
11:21
and empathy and how we relate to others.
213
681405
2603
è empatia e come ci relazioniamo con gli altri.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
Perché, quando un bambino è gentile con un Roomba,
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
quando un soldato cerca di salvare un robot sul campo di battaglia,
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
o quando un gruppo di persone si rifiuta di danneggiare un dinosauro robot,
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
quei robot non sono solo motori, ingranaggi e algoritmi.
11:42
They're reflections of our own humanity.
218
702501
1905
Sono il riflesso della nostra stessa umanità.
11:45
Thank you.
219
705523
1151
Grazie.
11:46
(Applause)
220
706698
3397
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7