Why we have an emotional connection to robots | Kate Darling

137,694 views ・ 2018-11-06

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Traductor: Lidia Cámara de la Fuente Revisor: Ciro Gomez
00:13
There was a day, about 10 years ago,
1
13047
2508
Un día, hace unos 10 años,
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
pedí a un amigo que sostuviera un robot dinosaurio bebé boca abajo.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
Era el juguete llamado Pleo que había encargado,
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
y estaba muy emocionada porque siempre me han gustado los robots.
00:29
And this one has really cool technical features.
5
29784
2279
Y este tiene características técnicas realmente geniales.
00:32
It had motors and touch sensors
6
32087
2119
Tenía motores y sensores táctiles
00:34
and it had an infrared camera.
7
34230
2244
y una cámara infrarroja.
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
Y también tenía un sensor de inclinación,
00:39
so it knew what direction it was facing.
9
39285
2318
por lo que sabía en qué dirección estaba orientado.
00:42
And when you held it upside down,
10
42095
2134
Y cuando lo poníamos boca abajo,
00:44
it would start to cry.
11
44253
1572
empezaba a llorar.
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
Y pensé que esto era genial, por eso se lo estaba mostrando a mi amigo,
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
y dije: "Levántalo por la cola. Mira lo que hace".
00:55
So we're watching the theatrics of this robot
14
55268
3625
Así que estamos viendo la teatralidad de este robot.
00:58
struggle and cry out.
15
58917
2199
luchando y llorando.
01:02
And after a few seconds,
16
62767
2047
Y después de unos segundos,
01:04
it starts to bother me a little,
17
64838
1972
esto me empezó a agobiar un poco,
01:07
and I said, "OK, that's enough now.
18
67744
3424
y dije, "Es suficiente por ahora.
01:11
Let's put him back down."
19
71930
2305
Vamos a ponerlo de nuevo hacia abajo".
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
Y luego acaricié el robot para que dejara de llorar.
01:18
And that was kind of a weird experience for me.
21
78973
2452
Y esa fue una experiencia extraña para mí.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
Por un lado, yo no era la persona más maternal en ese momento.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
Aunque ahora desde hace nueve meses, soy madre,
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
y he aprendido que los bebés también se retuercen al sostenerlos boca abajo.
01:32
(Laughter)
25
92889
1563
(Risas)
Pero mi respuesta a este robot también fue interesante.
01:35
But my response to this robot was also interesting
26
95023
2358
01:37
because I knew exactly how this machine worked,
27
97405
4101
porque sabía exactamente cómo funcionaba esta máquina,
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
y aun así me sentía obligada a ser amable con ella.
01:46
And that observation sparked a curiosity
29
106450
2707
Y esa observación despertó una curiosidad
01:49
that I've spent the past decade pursuing.
30
109181
2832
a la que he dedicado la última década.
01:52
Why did I comfort this robot?
31
112911
1793
¿Por qué he de consolar a este robot?
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
Y una de las cosas que descubrí fue que mi trato a esta máquina
01:59
was more than just an awkward moment in my living room,
33
119831
3701
era algo más que un momento incómodo en mi sala de estar,
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
que en un mundo donde integramos cada vez más robots en nuestras vidas,
02:09
an instinct like that might actually have consequences,
35
129000
3126
un instinto así podría tener consecuencias,
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
porque lo primero que descubrí es que no soy solo yo.
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
En 2007 el Washington Post informó que los militares de EE. UU.
02:24
was testing this robot that defused land mines.
38
144075
3230
estaban probando el robot que desactivaba minas terrestres.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
Y funcionaba con la forma de un insecto palo,
02:30
and it would walk around a minefield on its legs,
40
150265
2651
caminando sobre sus piernas alrededor de un campo minado
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
y cada vez que pisaba una mina, una de las piernas explotaba,
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
y seguía sobre las restantes piernas para hacer explotar más minas.
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
Y el coronel a cargo de este ejercicio de prueba
02:43
ends up calling it off,
44
163061
2118
terminó suspendiendo,
02:45
because, he says, it's too inhumane
45
165203
2435
porque decía que era demasiado inhumano
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
ver a ese robot dañado arrastrarse por el campo minado.
02:54
Now, what would cause a hardened military officer
47
174978
3897
Y ¿qué causaría que un oficial militar endurecido
02:58
and someone like myself
48
178899
2043
y alguien como yo
03:00
to have this response to robots?
49
180966
1857
tuviéramos esa reacción a los robots?
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
Por supuesto, estamos preparados por la ciencia ficción y la cultura pop
03:06
to really want to personify these things,
51
186871
2579
a querer de verdad personificar estas cosas,
03:09
but it goes a little bit deeper than that.
52
189474
2789
pero esto es un poco más profundo que eso.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
Resulta que estamos biológicamente programados
para proyectar intencionalidad y vida
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
a cualquier movimiento en nuestro espacio físico que nos parezca autónomo.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
Así que la gente tratará todo tipo de robots como si estuvieran vivos.
03:26
These bomb-disposal units get names.
56
206703
2683
Estas unidades de eliminación de bombas obtienen nombres.
03:29
They get medals of honor.
57
209410
1682
Obtienen medallas de honor.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
Les han homenajeado con funerales con salvas.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
Y la investigación muestra que lo hacemos incluso con robots domésticos muy simples,
03:38
like the Roomba vacuum cleaner.
60
218237
2135
como la aspiradora Roomba.
03:40
(Laughter)
61
220396
1291
(Risas)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
Es solo un disco que vaga por el piso para limpiarlo,
03:44
but just the fact it's moving around on its own
63
224824
2306
pero el hecho de que se está moviendo de forma autónoma
03:47
will cause people to name the Roomba
64
227154
2167
hará que la gente le denomine el Roomba
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
y se sienta mal por el Roomba cuando se atasca debajo del sofá.
03:52
(Laughter)
66
232551
1865
(Risas)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
Y podemos diseñar concretamente robots para evocar esta respuesta,
03:57
using eyes and faces or movements
68
237804
3461
usando ojos y caras o movimientos.
04:01
that people automatically, subconsciously associate
69
241289
3259
para que la gente automáticamente y subconscientemente lo asocie
04:04
with states of mind.
70
244572
2020
con estados de ánimo.
Y hay todo un cuerpo de investigación denominado interacción humano-robot
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
04:09
that really shows how well this works.
72
249933
1826
que muestra realmente lo bien que funciona esto.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
Por ejemplo, los investigadores de la Universidad de Stanford descubrieron
04:14
that it makes people really uncomfortable
74
254933
2001
que la gente se siente realmente incómoda
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
cuando se les pide tocar las partes íntimas de un robot.
04:19
(Laughter)
76
259454
2120
(Risas)
04:21
So from this, but from many other studies,
77
261598
2023
A partir de esto y a partir de muchos otros estudios,
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
sabemos que las personas responden a las señales que reciben
04:27
by these lifelike machines,
79
267892
2022
a través de estas máquinas realistas,
04:29
even if they know that they're not real.
80
269938
2017
incluso sabiendo que no son reales.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
Nos dirigimos hacia un mundo donde los robots estarán en todas partes.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
La robótica se está moviendo desde detrás de las paredes de la fábrica.
04:40
It's entering workplaces, households.
83
280823
3013
Está entrando a los lugares de trabajo, a los hogares.
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
Y como esas máquinas pueden percibir y tomar decisiones autónomas y aprender,
04:50
enter into these shared spaces,
85
290093
2552
entran en estos espacios compartidos.
04:52
I think that maybe the best analogy we have for this
86
292669
2496
Creo que tal vez la mejor analogía que tenemos para esto
04:55
is our relationship with animals.
87
295189
1935
es nuestra relación con los animales.
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
Hace miles de años comenzamos a domesticar animales,
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
y los entrenamos para el trabajo, la guerra y la compañía.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
Y a lo largo de la historia hemos tratado a algunos animales
como herramientas o productos similares.
05:10
and other animals, we've treated with kindness
91
310513
2174
y a otros animales los hemos tratado con amabilidad.
05:12
and we've given a place in society as our companions.
92
312711
3078
Y les hemos dado un lugar en la sociedad como nuestros compañeros.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
Creo entonces plausible comenzar a integrar robots de manera similar.
05:21
And sure, animals are alive.
94
321484
3096
Y claro, los animales están vivos.
05:24
Robots are not.
95
324604
1150
Los robots no.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
Y les puedo decir, por mi trabajo en robótica.
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
que estamos bastante lejos de desarrollar robots que puedan sentir.
05:35
But we feel for them,
98
335072
1460
Pero sentimos por ellos,
05:37
and that matters,
99
337835
1207
y eso importa,
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
Porque si intentamos integrar robots en estos espacios compartidos,
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
hay que entender que
las personas los tratarán de manera diferente a otros dispositivos,
05:47
and that in some cases,
102
347369
1844
y que, en algunos casos,
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
por ejemplo, el caso de un soldado que se une emocionalmente
05:52
to the robot that they work with,
104
352433
2047
al robot con el que trabaja,
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
puede ser desde ineficiente hasta peligroso.
05:58
But in other cases, it can actually be useful
106
358551
2138
Pero en otros casos, en realidad, puede ser útil
06:00
to foster this emotional connection to robots.
107
360713
2623
fomentar esta conexión emocional con los robots.
Ya estamos viendo algunos buenos casos de uso,
06:04
We're already seeing some great use cases,
108
364184
2134
06:06
for example, robots working with autistic children
109
366342
2604
Por ejemplo, robots que trabajan con niños autistas.
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
para involucrarlos en formas que no se han visto antes o
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
robots que trabajan con maestros
para involucrar a los niños en el aprendizaje con nuevos resultados.
06:17
And it's not just for kids.
112
377433
1381
Y no solo para niños.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
Los primeros estudios muestran que los robots pueden ayudar
06:22
in health care settings.
114
382997
1427
a médicos y pacientes en entornos sanitarios.
06:25
This is the PARO baby seal robot.
115
385535
1810
Este es el robot de foca bebé PARO.
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
Se utilizan en hogares de ancianos y con pacientes con demencia
06:30
It's been around for a while.
117
390678
1570
y ya se aplican hace algún tiempo.
06:32
And I remember, years ago, being at a party
118
392272
3325
Y recuerdo, hace años estar en una fiesta
06:35
and telling someone about this robot,
119
395621
2571
contándole a alguien sobre este robot,
06:38
and her response was,
120
398216
2126
y su respuesta fue,
06:40
"Oh my gosh.
121
400366
1262
"Oh Dios mío.
06:42
That's horrible.
122
402508
1188
Esto es horrible.
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
No puedo creer estar dando a las personas robots en vez de cuidado humano".
06:50
And this is a really common response,
124
410540
1875
Y esta es una respuesta muy común,
06:52
and I think it's absolutely correct,
125
412439
2499
y creo que es absolutamente correcto,
06:54
because that would be terrible.
126
414962
2040
porque eso sería terrible.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
Pero en este caso, no es lo que reemplaza este robot.
07:00
What this robot replaces is animal therapy
128
420858
3120
Lo que este robot reemplaza es la terapia animal.
07:04
in contexts where we can't use real animals
129
424002
3198
En contextos donde no podemos usar animales reales,
podemos usar robots, porque la gente
07:07
but we can use robots,
130
427224
1168
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
los tratará de forma más parecida a un animal que a un dispositivo.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
Reconocer esta conexión emocional con los robots
07:17
can also help us anticipate challenges
133
437906
1969
también nos puede ayudar a anticipar desafíos, porque
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
estos dispositivos se mueven hacia áreas más íntimas de la vida de las personas.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
Por ejemplo, ¿está bien si el robot de oso de peluche de su hijo
07:27
records private conversations?
136
447539
2237
graba conversaciones privadas?
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
¿Está bien si su robot sexual tiene compras atractivas dentro de la app?
07:33
(Laughter)
138
453887
1396
(Risas)
07:35
Because robots plus capitalism
139
455307
2501
Porque los robots más capitalismo es igual a
07:37
equals questions around consumer protection and privacy.
140
457832
3705
preguntas sobre la protección del consumidor y la privacidad.
Y esas no son las únicas razones para que
07:42
And those aren't the only reasons
141
462549
1612
07:44
that our behavior around these machines could matter.
142
464185
2570
nuestro comportamiento relacionado con estas máquinas pueda ser relevante.
07:48
A few years after that first initial experience I had
143
468747
3270
Unos años antes de esa primera experiencia inicial
07:52
with this baby dinosaur robot,
144
472041
2311
con este robot dinosaurio bebé,
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
hice un taller con mi amigo Hannes Gassert.
07:56
And we took five of these baby dinosaur robots
146
476901
2897
Y tomamos cinco de estos robots bebé dinosaurio
07:59
and we gave them to five teams of people.
147
479822
2453
y se los dimos a cinco equipos de personas.
08:02
And we had them name them
148
482299
1697
Y les pedimos que los nombraran
08:04
and play with them and interact with them for about an hour.
149
484020
3809
y jugaran e interactuaran con ellos durante aproximadamente una hora.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
Y luego les dimos un martillo y un hacha
08:10
and we told them to torture and kill the robots.
151
490937
2278
y les dijimos que torturaran y mataran a los robots.
08:13
(Laughter)
152
493239
3007
(Risas)
08:16
And this turned out to be a little more dramatic
153
496857
2294
Y esto resultó ser un poco más dramático.
08:19
than we expected it to be,
154
499175
1278
de lo que esperábamos,
08:20
because none of the participants would even so much as strike
155
500477
3072
porque ninguno de los participantes lo hizo eso
08:23
these baby dinosaur robots,
156
503573
1307
a estos robots dinosaurios bebé,
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
así que tuvimos que improvisar un poco, y en un momento dijimos,
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
"Bien, pueden salvar el robot de su equipo si destruyen el robot de otro equipo".
08:34
(Laughter)
159
514539
1855
(Risas)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
E incluso eso no funcionó. No querían hacerlo.
Así que finalmente, dijimos,
08:39
So finally, we said,
161
519058
1151
08:40
"We're going to destroy all of the robots
162
520233
2032
"Vamos a destruir todos los robots
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
a no ser que alguien destruya con un hacha uno de ellos".
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
Y un tipo se puso de pie y tomó el hacha,
y toda la habitación se estremeció cuando dio un hachazo
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
08:51
on the robot's neck,
166
531919
1780
en el cuello del robot,
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
y hubo un momento de silencio medio jocoso, medio serio en la habitación
09:00
for this fallen robot.
168
540085
1698
por este robot muerto.
09:01
(Laughter)
169
541807
1406
(Risas)
09:03
So that was a really interesting experience.
170
543237
3694
Fue una experiencia realmente interesante.
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
No era un estudio controlado, obviamente,
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
pero condujo a una investigación posterior que hice en el MIT
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
con Palash Nandy y Cynthia Breazeal,
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
donde hubo personas que vinieron al laboratorio y aplastaron a estos HEXBUGs
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
que se mueven de manera muy realista, como los insectos.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
Así que en lugar de elegir algo lindo que atrae a la gente,
09:24
we chose something more basic,
177
564484
2093
elegimos algo más básico.
09:26
and what we found was that high-empathy people
178
566601
3480
Y lo que descubrimos fue que las personas de alta empatía
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
dudaban más en golpear a los HEXBUGS.
09:33
Now this is just a little study,
180
573575
1564
Esto es solo un pequeño estudio,
09:35
but it's part of a larger body of research
181
575163
2389
pero es parte de un gran cuerpo de investigación.
09:37
that is starting to indicate that there may be a connection
182
577576
2944
Eso está empezando a indicar que puede haber una conexión
09:40
between people's tendencies for empathy
183
580544
2373
entre las tendencias de empatía de las personas
09:42
and their behavior around robots.
184
582941
1976
y su comportamiento en torno a los robots.
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
Pero mi pregunta para la era venidera de la interacción humano-robot
09:49
is not: "Do we empathize with robots?"
186
589372
3055
no es: "¿Simpatizamos con los robots?",
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
sino: "¿Pueden los robots cambiar la empatía de las personas?".
09:57
Is there reason to, for example,
188
597489
2287
¿Hay alguna razón para, por ejemplo,
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
evitar que su hijo patee a un perro robótico,
10:03
not just out of respect for property,
190
603228
2914
no solo por respeto a la propiedad, sino porque
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
el niño podría ser más propenso a patear a un perro de verdad?
10:10
And again, it's not just kids.
192
610507
1883
Y de nuevo, no son solo niños.
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
Esta es la pregunta sobre los videojuegos violentos,
pero a un nivel completamente nuevo,
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
debido a esta fisicalidad visceral a la que respondemos más intensamente
10:22
than to images on a screen.
195
622428
1547
que a las imágenes en una pantalla.
10:25
When we behave violently towards robots,
196
625674
2578
Cuando nos comportamos violentamente hacia los robots,
10:28
specifically robots that are designed to mimic life,
197
628276
3120
concretamente robots diseñados para imitar la vida,
10:31
is that a healthy outlet for violent behavior
198
631420
3892
¿es esta una salida saludable para el comportamiento violento
10:35
or is that training our cruelty muscles?
199
635336
2544
o significa entrenar nuestros músculos para la crueldad?
10:39
We don't know ...
200
639511
1150
Nosotros no lo sabemos.
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
Sin embargo, la respuesta a esta pregunta
tiene el potencial de impactar el comportamiento humano,
10:46
it has the potential to impact social norms,
202
646591
2768
tiene el potencial de impactar normas sociales,
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
tiene el potencial de inspirar reglas sobre lo que podemos
y no podemos hacer con ciertos robots,
10:53
with certain robots,
204
653256
1151
10:54
similar to our animal cruelty laws.
205
654431
1848
similar a nuestras leyes de crueldad animal.
10:57
Because even if robots can't feel,
206
657228
2864
Porque incluso si los robots no pueden sentir,
nuestro comportamiento hacia ellos puede ser importante para nosotros.
11:00
our behavior towards them might matter for us.
207
660116
3080
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
Y sin importar si terminamos cambiando nuestras reglas,
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
los robots podrían ayudarnos a llegar a una nueva comprensión de nosotros mismos.
La mayor parte de lo que he aprendido en los últimos 10 años,
11:14
Most of what I've learned over the past 10 years
210
674276
2316
11:16
has not been about technology at all.
211
676616
2238
no es tecnología en absoluto,
11:18
It's been about human psychology
212
678878
2503
sino psicología humana
11:21
and empathy and how we relate to others.
213
681405
2603
empatía y cómo nos relacionamos con los demás.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
Porque cuando un niño es amable con un Roomba,
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
cuando un soldado trata de salvar a un robot en el campo de batalla,
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
o cuando un grupo de personas se niega a dañar a un bebé dinosaurio robótico,
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
esos robots no son solo motores, engranajes y algoritmos,
11:42
They're reflections of our own humanity.
218
702501
1905
son reflejos de nuestra propia humanidad.
11:45
Thank you.
219
705523
1151
Gracias.
11:46
(Applause)
220
706698
3397
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7