What's it like to be a robot? | Leila Takayama

92,193 views ・ 2018-02-16

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Lidia Cámara de la Fuente Revisor: Ciro Gomez
00:12
You only get one chance to make a first impression,
0
12760
2656
Solo se tiene una oportunidad de causar una buena primera impresión,
00:15
and that's true if you're a robot as well as if you're a person.
1
15440
3176
y eso es así, ya bien se sea un robot o una persona.
00:18
The first time that I met one of these robots
2
18640
3016
La primera vez que conocí a uno de estos robots
00:21
was at a place called Willow Garage in 2008.
3
21680
2896
estaba en un lugar llamado Willow Garage en 2008.
00:24
When I went to visit there, my host walked me into the building
4
24600
3016
Cuando fui allí, mi anfitrión me acompañó al edificio
00:27
and we met this little guy.
5
27640
1576
y conocimos a este pequeño hombre.
00:29
He was rolling into the hallway,
6
29240
1656
Estaba rodando por el pasillo,
00:30
came up to me, sat there,
7
30920
1816
se acercó a mí, se sentó allí,
00:32
stared blankly past me,
8
32760
2256
me miró sin comprender,
00:35
did nothing for a while,
9
35040
1656
no hizo nada un rato,
00:36
rapidly spun his head around 180 degrees
10
36720
1936
para rápidamente girar su cabeza 180 grados
00:38
and then ran away.
11
38680
1536
y huir.
00:40
And that was not a great first impression.
12
40240
2176
Y esa no fue una buena primera impresión.
00:42
The thing that I learned about robots that day
13
42440
2176
Lo que aprendí sobre los robots ese día
00:44
is that they kind of do their own thing,
14
44640
2176
es que hacen su trabajo
00:46
and they're not totally aware of us.
15
46840
2136
sin ser plenamente conscientes de nosotros.
00:49
And I think as we're experimenting with these possible robot futures,
16
49000
3239
Y creo que cuando experimentamos con estos posibles futuros de robots,
00:52
we actually end up learning a lot more about ourselves
17
52263
2673
en realidad aprendemos mucho más sobre nosotros mismos
00:54
as opposed to just these machines.
18
54960
1656
que sobre estas máquinas.
00:56
And what I learned that day
19
56640
1336
Y lo que aprendí ese día
00:58
was that I had pretty high expectations for this little dude.
20
58000
3416
fue que yo tenía muchas expectativas en este pequeño amigo.
01:01
He was not only supposed to be able to navigate the physical world,
21
61440
3176
Pensaba que él no solo podía navegar el mundo físico,
01:04
but also be able to navigate my social world --
22
64640
2656
sino también mi mundo social,
01:07
he's in my space; it's a personal robot.
23
67320
2176
él está en mi espacio; es un robot personal.
01:09
wWhy didn't it understand me?
24
69520
2016
¿Por qué no me entendió?
01:11
My host explained to me,
25
71560
1256
Mi anfitrión me explicó,
01:12
"Well, the robot is trying to get from point A to point B,
26
72840
3176
"El robot intenta ir del punto A al punto B,
01:16
and you were an obstacle in his way,
27
76040
1776
y eras un obstáculo en su camino,
01:17
so he had to replan his path,
28
77840
2016
así que tuvo que replanificar su camino,
01:19
figure out where to go,
29
79880
1256
averiguar a dónde ir,
01:21
and then get there some other way,"
30
81160
1696
para luego llegar de otra manera".
01:22
which was actually not a very efficient thing to do.
31
82880
2456
Lo que en realidad no resulto ser algo muy eficiente.
01:25
If that robot had figured out that I was a person, not a chair,
32
85360
3256
Si ese robot hubiera descubierto que yo era una persona, no una silla,
01:28
and that I was willing to get out of its way
33
88640
2096
y que estaba dispuesta a apartarme de su camino
01:30
if it was trying to get somewhere,
34
90760
1656
si él quería llegar a alguna parte,
01:32
then it actually would have been more efficient
35
92440
2216
entonces realmente habría sido más eficiente
01:34
at getting its job done
36
94680
1256
al hacer su trabajo
01:35
if it had bothered to notice that I was a human
37
95960
2216
si se hubiera molestado en entender que yo era un humano
01:38
and that I have different affordances than things like chairs and walls do.
38
98200
3576
y que tengo posibilidades distintas de las que tienen objetos como sillas y paredes.
01:41
You know, we tend to think of these robots as being from outer space
39
101800
3216
Tendemos a pensar que estos robots son del espacio exterior
01:45
and from the future and from science fiction,
40
105040
2136
y del futuro y de la ciencia ficción.
01:47
and while that could be true,
41
107200
1416
Si bien eso podría ser cierto,
01:48
I'd actually like to argue that robots are here today,
42
108640
2656
me gustaría exponer que los robots están aquí hoy,
01:51
and they live and work amongst us right now.
43
111320
2776
y viven y trabajan entre nosotros ahora.
01:54
These are two robots that live in my home.
44
114120
2856
Estos son dos robots que viven en mi casa.
01:57
They vacuum the floors and they cut the grass
45
117000
2496
Uno aspira los suelos y el otro corta la hierba
01:59
every single day,
46
119520
1216
todos los días.
02:00
which is more than I would do if I actually had time to do these tasks,
47
120760
3376
Lo que es más de lo que yo haría si tuviera tiempo para hacer estas tareas,
02:04
and they probably do it better than I would, too.
48
124160
2336
y probablemente lo hacen mejor de lo yo lo haría.
02:06
This one actually takes care of my kitty.
49
126520
2496
Este realmente se ocupa de mi gatito.
02:09
Every single time he uses the box, it cleans it,
50
129040
2576
Cada vez que usa la caja, la limpia,
02:11
which is not something I'm willing to do,
51
131640
1976
que no es algo que tenga ganas de hacer,
02:13
and it actually makes his life better as well as mine.
52
133640
2576
y hace mejor la vida de mi gato y la mía.
02:16
And while we call these robot products --
53
136240
2416
Y mientras llamamos a estos robots:
02:18
it's a "robot vacuum cleaner, it's a robot lawnmower,
54
138680
2696
es un "robot aspirador, es un robot cortacésped,
02:21
it's a robot littler box,"
55
141400
1495
es una caja de robot más pequeña",
02:22
I think there's actually a bunch of other robots hiding in plain sight
56
142919
4137
creo que hay muchos otros robots escondidos a plena vista
02:27
that have just become so darn useful
57
147080
1856
que se han vuelto tan increíblemente útiles
02:28
and so darn mundane
58
148960
1456
y mundanos
02:30
that we call them things like, "dishwasher," right?
59
150440
2496
que los llamamos, por ejemplo, "lavavajillas", ¿verdad?
02:32
They get new names.
60
152960
1216
Reciben nuevos nombres.
02:34
They don't get called robot anymore
61
154200
1696
Ya no reciben el nombre de robot
02:35
because they actually serve a purpose in our lives.
62
155920
2416
porque sirven para un objetivo en nuestras vidas.
02:38
Similarly, a thermostat, right?
63
158360
1496
Igualmente, un termostato, ¿verdad?
02:39
I know my robotics friends out there
64
159880
1776
Sé que mis amigos robotistas
02:41
are probably cringing at me calling this a robot,
65
161680
2336
quizá se encojan de hombros al verme llamar a esto un robot,
02:44
but it has a goal.
66
164040
1256
pero sirve a un objetivo.
02:45
Its goal is to make my house 66 degrees Fahrenheit,
67
165320
2896
Su objetivo es tener mi casa a la temperatura de 19 ºC
02:48
and it senses the world.
68
168240
1256
y percibir el entorno.
02:49
It knows it's a little bit cold,
69
169520
1576
Sabe que está un poco frío,
02:51
it makes a plan and then it acts on the physical world.
70
171120
2616
hace un plan y luego actúa en el mundo físico.
02:53
It's robotics.
71
173760
1256
Es robótica.
02:55
Even if it might not look like Rosie the Robot,
72
175040
2576
Incluso si no se parece a Rosie the Robot,
02:57
it's doing something that's really useful in my life
73
177640
2936
está haciendo algo que es realmente útil en mi vida
03:00
so I don't have to take care
74
180600
1376
para no tener que preocuparme
03:02
of turning the temperature up and down myself.
75
182000
2576
de subir y bajar la temperatura yo misma.
03:04
And I think these systems live and work amongst us now,
76
184600
3816
Y creo que estos sistemas viven y trabajan entre nosotros ahora,
03:08
and not only are these systems living amongst us
77
188440
2336
y no solo estos sistemas viven entre nosotros,
03:10
but you are probably a robot operator, too.
78
190800
2656
sino que probablemente también sean usuarios de robots.
03:13
When you drive your car,
79
193480
1256
Cuando conducen el auto,
03:14
it feels like you are operating machinery.
80
194760
2216
es como estar manejando maquinaria.
03:17
You are also going from point A to point B,
81
197000
2816
También uno va del punto A al punto B,
03:19
but your car probably has power steering,
82
199840
2216
pero su auto probablemente disponga de dirección asistida,
03:22
it probably has automatic braking systems,
83
202080
2696
probablemente tenga un sistema de frenado automático,
03:24
it might have an automatic transmission and maybe even adaptive cruise control.
84
204800
3736
o un cambio de marchas automático y quizá control de velocidad adaptativo.
03:28
And while it might not be a fully autonomous car,
85
208560
2936
Y aunque no sea un automóvil completamente autónomo,
03:31
it has bits of autonomy,
86
211520
1296
tiene pedazos de autonomía,
03:32
and they're so useful
87
212840
1336
y son muy útiles
03:34
and they make us drive safer,
88
214200
1816
y nos hacen manejar más seguros,
03:36
and we just sort of feel like they're invisible-in-use, right?
89
216040
3656
y parece como si fueran invisibles al usarlos, ¿verdad?
03:39
So when you're driving your car,
90
219720
1576
Cuando manejamos el auto,
03:41
you should just feel like you're going from one place to another.
91
221320
3096
simplemente sentimos que vamos de un lugar a otro.
03:44
It doesn't feel like it's this big thing that you have to deal with and operate
92
224440
3736
No parece algo especial lidiar y operar
y utilizar controles
03:48
and use these controls
93
228200
1256
03:49
because we spent so long learning how to drive
94
229480
2176
porque pasamos tanto tiempo aprendiendo cómo conducir
03:51
that they've become extensions of ourselves.
95
231680
2696
que los actos se han convertido en extensiones de nosotros mismos.
03:54
When you park that car in that tight little garage space,
96
234400
2696
Cuando estacionamos el auto en ese espacio estrecho de garaje,
03:57
you know where your corners are.
97
237120
1576
sabemos dónde están los rincones.
03:58
And when you drive a rental car that maybe you haven't driven before,
98
238720
3256
Y cuando conducimos un auto alquilado que no hemos conducido antes,
04:02
it takes some time to get used to your new robot body.
99
242000
3056
toma algo de tiempo acostumbrarse a su nuevo cuerpo de robot.
04:05
And this is also true for people who operate other types of robots,
100
245080
3976
Y esto también aplica a las personas que manejan otros tipos de robots.
04:09
so I'd like to share with you a few stories about that.
101
249080
2600
Me gustaría compartir con Uds. algunas historias sobre eso.
04:12
Dealing with the problem of remote collaboration.
102
252240
2336
Lidiando con el problema de la colaboración remota.
04:14
So, at Willow Garage I had a coworker named Dallas,
103
254600
2576
En Willow Garage tenía un compañero de trabajo llamado Dallas,
04:17
and Dallas looked like this.
104
257200
1576
y Dallas era así.
04:18
He worked from his home in Indiana in our company in California.
105
258800
4056
Trabajaba desde su casa en Indiana en nuestra compañía en California.
04:22
He was a voice in a box on the table in most of our meetings,
106
262880
2936
Él era una voz en una caja sobre la mesa en la mayoría de nuestras reuniones,
04:25
which was kind of OK except that, you know,
107
265840
2215
lo que estaba bien, excepto
04:28
if we had a really heated debate and we didn't like what he was saying,
108
268079
3377
si teníamos un debate acalorado y no nos gustaba lo que decía,
04:31
we might just hang up on him.
109
271480
1416
podíamos simplemente colgar el teléfono.
04:32
(Laughter)
110
272920
1015
04:33
Then we might have a meeting after that meeting
111
273959
2217
(Risas)
Y podíamos tener una reunión tras esa reunión
04:36
and actually make the decisions in the hallway afterwards
112
276200
2696
y tomar las decisiones en el pasillo
04:38
when he wasn't there anymore.
113
278920
1416
cuando él ya no estaba allí.
04:40
So that wasn't so great for him.
114
280360
1576
Y eso no era tan bueno para él.
04:41
And as a robotics company at Willow,
115
281960
1736
Y como compañía robótica en Willow,
04:43
we had some extra robot body parts laying around,
116
283720
2336
teníamos algunas partes extra de cuerpo del robot por ahí,
04:46
so Dallas and his buddy Curt put together this thing,
117
286080
2496
y Dallas y su amigo Curt armaron esto,
04:48
which looks kind of like Skype on a stick on wheels,
118
288600
2936
que se parece a Skype en un palo sobre ruedas,
04:51
which seems like a techy, silly toy,
119
291560
1736
que parece un juguete teki, tonto,
04:53
but really it's probably one of the most powerful tools
120
293320
2776
pero probablemente sea una de las herramientas más poderosas
04:56
that I've seen ever made for remote collaboration.
121
296120
2480
que he visto para colaboración remota.
04:59
So now, if I didn't answer Dallas' email question,
122
299160
3496
Si no respondía la pregunta de Dallas por correo electrónico,
05:02
he could literally roll into my office,
123
302680
2216
él podía, literalmente, rodar por mi oficina,
05:04
block my doorway and ask me the question again --
124
304920
2576
bloquear mi puerta y hacerme la pregunta nuevamente
05:07
(Laughter)
125
307520
1016
(Risas)
05:08
until I answered it.
126
308560
1216
hasta que yo respondía.
05:09
And I'm not going to turn him off, right? That's kind of rude.
127
309800
2976
Y no voy a rechazarlo, ¿verdad? Eso sería grosero.
05:12
Not only was it good for these one-on-one communications,
128
312800
2696
No solo era bueno para estas comunicaciones uno-a-uno,
05:15
but also for just showing up at the company all-hands meeting.
129
315520
2936
sino también en la reunión general de la compañía.
05:18
Getting your butt in that chair
130
318480
1696
Sentarse en esa silla
y mostrar a las personas que estás presente y comprometido con su proyecto
05:20
and showing people that you're present and committed to your project
131
320200
3216
05:23
is a big deal
132
323440
1256
es algo bueno
05:24
and can help remote collaboration a ton.
133
324720
2176
y puede ayudar mucho a la colaboración remota.
05:26
We saw this over the period of months and then years,
134
326920
2856
Vimos esto durante el período de meses y luego años,
05:29
not only at our company but at others, too.
135
329800
2160
no solo en nuestra empresa, sino también en otras.
05:32
The best thing that can happen with these systems
136
332720
2336
Lo mejor que puede pasar con estos sistemas
05:35
is that it starts to feel like you're just there.
137
335080
2336
es que se perciben como si estuviera allí.
05:37
It's just you, it's just your body,
138
337440
1696
Solo eres tú, es solo tu cuerpo,
05:39
and so people actually start to give these things personal space.
139
339160
3096
y así la gente en realidad comienza a darle a estas cosas un espacio personal.
05:42
So when you're having a stand-up meeting,
140
342280
1976
Y, cuando tienes una reunión de pie,
05:44
people will stand around the space
141
344280
1656
la gente se sitúa alrededor del espacio
05:45
just as they would if you were there in person.
142
345960
2216
como lo harían si uno estuviera allí en persona.
05:48
That's great until there's breakdowns and it's not.
143
348200
2576
Eso es genial hasta que hay averías.
05:50
People, when they first see these robots,
144
350800
1976
La gente, cuando ve estos robots por primera vez,
05:52
are like, "Wow, where's the components? There must be a camera over there,"
145
352800
3576
dice, "Guau, ¿dónde están las piezas? Debe haber una cámara allí".
05:56
and they start poking your face.
146
356400
1576
Y comienzan a hurgar la cara.
05:58
"You're talking too softly, I'm going to turn up your volume,"
147
358000
2936
"Estás hablando demasiado bajo, voy a subir tu volumen"
06:00
which is like having a coworker walk up to you and say,
148
360960
2616
que es como tener un compañero caminando hacia ti y decirle,
06:03
"You're speaking too softly, I'm going to turn up your face."
149
363600
2896
"Estás hablando en voz muy baja, voy a alzarte la cara".
06:06
That's awkward and not OK,
150
366520
1256
Eso es incómodo y no está bien,
06:07
and so we end up having to build these new social norms
151
367800
2616
y así construimos estas nuevas normas sociales
06:10
around using these systems.
152
370440
2216
al usar estos sistemas.
06:12
Similarly, as you start feeling like it's your body,
153
372680
3416
De forma similar a como uno siente que es su cuerpo,
06:16
you start noticing things like, "Oh, my robot is kind of short."
154
376120
3696
uno comienzas a notar cosas como, "Oh, mi robot es bajito".
06:19
Dallas would say things to me -- he was six-foot tall --
155
379840
2656
Dallas me decía que medía 1.80 m,
06:22
and we would take him via robot to cocktail parties and things like that,
156
382520
3456
y lo llevaban a cócteles y cosas así,
06:26
as you do,
157
386000
1216
como lo hacen Uds.,
06:27
and the robot was about five-foot-tall, which is close to my height.
158
387240
3336
y el robot medía aproximadamente 1.5 m, que es más o menos mi altura.
06:30
And he would tell me,
159
390600
1216
Y él me dijo,
06:31
"You know, people are not really looking at me.
160
391840
2536
"Sabes, la gente realmente no me está mirando.
06:34
I feel like I'm just looking at this sea of shoulders,
161
394400
2696
Siento que solo estoy viendo este mar de hombros
06:37
and it's just -- we need a taller robot."
162
397120
1976
y necesitamos un robot más alto".
06:39
And I told him,
163
399120
1256
Y le dije,
06:40
"Um, no.
164
400400
1296
"Mmm no.
06:41
You get to walk in my shoes for today.
165
401720
1936
Tienes que caminar en mis zapatos solo hoy.
06:43
You get to see what it's like to be on the shorter end of the spectrum."
166
403680
3536
Podrás ver lo que es estar en el extremo más corto del espectro".
06:47
And he actually ended up building a lot of empathy for that experience,
167
407240
3376
Y en realidad él generó mucha empatía con esa experiencia,
06:50
which was kind of great.
168
410640
1256
lo cual fue genial.
06:51
So when he'd come visit in person,
169
411920
1656
Y cuando vino de visita en persona,
06:53
he no longer stood over me as he was talking to me,
170
413600
2416
ya no se izaba ante mí mientras me hablaba,
06:56
he would sit down and talk to me eye to eye,
171
416040
2096
se sentaba y me hablaba cara a cara,
06:58
which was kind of a beautiful thing.
172
418160
1736
lo que fue algo hermoso.
06:59
So we actually decided to look at this in the laboratory
173
419920
2656
Y decidimos ver esto en el laboratorio
07:02
and see what others kinds of differences things like robot height would make.
174
422600
3656
y ver qué otras diferencias podrían hacer cosas como la altura del robot.
Y la mitad de las personas en nuestro estudio usaron un robot más bajo,
07:06
And so half of the people in our study used a shorter robot,
175
426280
2856
07:09
half of the people in our study used a taller robot
176
429160
2416
la otra mitad en nuestro estudio usaron un robot más alto.
07:11
and we actually found that the exact same person
177
431600
2256
Y comprobamos que exactamente la misma persona
07:13
who has the exact same body and says the exact same things as someone,
178
433880
3336
con el mismo cuerpo que dice las mismas cosas que alguien,
07:17
is more persuasive and perceived as being more credible
179
437240
2616
es más persuasivo y se percibe como más creíble
07:19
if they're in a taller robot form.
180
439880
1656
si lo emite un robot de talla más alta.
07:21
It makes no rational sense,
181
441560
1816
No tiene sentido racional,
07:23
but that's why we study psychology.
182
443400
1696
por eso estudiamos psicología.
07:25
And really, you know, the way that Cliff Nass would put this
183
445120
2856
Y realmente, la forma en que Cliff Nass pondría esto
07:28
is that we're having to deal with these new technologies
184
448000
3016
es que tenemos que lidiar con estas nuevas tecnologías
07:31
despite the fact that we have very old brains.
185
451040
2736
a pesar del hecho de tener cerebros muy viejos.
07:33
Human psychology is not changing at the same speed that tech is
186
453800
2976
La psicología humana no cambia a la misma velocidad que la tecnología
07:36
and so we're always playing catch-up,
187
456800
1816
y siempre jugamos a alcanzarla,
07:38
trying to make sense of this world
188
458640
1656
tratando de dar sentido a este mundo
07:40
where these autonomous things are running around.
189
460320
2336
en el que estas cosas autónomas funcionan alrededor.
07:42
Usually, things that talk are people, not machines, right?
190
462680
2736
Por lo general, las cosas que hablan son personas, no máquinas.
07:45
And so we breathe a lot of meaning into things like just height of a machine,
191
465440
4576
Y otorgamos mucho significado a cosas como la altura de una máquina,
07:50
not a person,
192
470040
1256
no una persona,
07:51
and attribute that to the person using the system.
193
471320
2360
y a atribuir eso a la persona que usa el sistema.
07:55
You know, this, I think, is really important
194
475120
2216
Creo que esto es realmente importante
07:57
when you're thinking about robotics.
195
477360
1736
cuando se piensa en robótica.
07:59
It's not so much about reinventing humans,
196
479120
2096
No se trata tanto de reinventar a los humanos,
08:01
it's more about figuring out how we extend ourselves, right?
197
481240
3136
se trata más de averiguar cómo nos extendemos, ¿verdad?
08:04
And we end up using things in ways that are sort of surprising.
198
484400
2976
Y terminamos usando cosas de una manera sorprendente.
08:07
So these guys can't play pool because the robots don't have arms,
199
487400
4256
Y estos tipos no pueden jugar al billar porque los robots no tienen brazos,
08:11
but they can heckle the guys who are playing pool
200
491680
2336
pero pueden coordinar a los tipos que están jugando al billar
08:14
and that can be an important thing for team bonding,
201
494040
3176
y eso puede ser algo importante para la unión de equipo,
08:17
which is kind of neat.
202
497240
1296
que sea algo ordenado.
08:18
People who get really good at operating these systems
203
498560
2496
Los que se vuelvan muy buenos operando estos sistemas
08:21
will even do things like make up new games,
204
501080
2056
incluso harán cosas como inventar juegos nuevos,
08:23
like robot soccer in the middle of the night,
205
503160
2136
como el fútbol robot en el medio de la noche,
08:25
pushing the trash cans around.
206
505320
1456
empujando los botes de basura.
08:26
But not everyone's good.
207
506800
1576
Pero no todos lo hacen bien.
08:28
A lot of people have trouble operating these systems.
208
508400
2496
Mucha gente tiene problemas para manejar estos sistemas.
08:30
This is actually a guy who logged into the robot
209
510920
2256
Este es un tipo que inició sesión vía robot
08:33
and his eyeball was turned 90 degrees to the left.
210
513200
2376
y su globo ocular giró 90 grados hacia la izquierda.
08:35
He didn't know that,
211
515600
1256
Él no sabía eso,
08:36
so he ended up just bashing around the office,
212
516880
2176
así que terminó dando golpes por la oficina,
corriendo hacia las mesas de las personas, sintiéndose muy avergonzado,
08:39
running into people's desks, getting super embarrassed,
213
519080
2616
08:41
laughing about it -- his volume was way too high.
214
521720
2336
riendo nervioso con un volumen demasiado alto.
08:44
And this guy here in the image is telling me,
215
524080
2136
Y este tipo aquí en la imagen me está diciendo,
08:46
"We need a robot mute button."
216
526240
2096
"Necesitamos un botón para silenciar al robot".
08:48
And by that what he really meant was we don't want it to be so disruptive.
217
528360
3496
Y con eso quiso decir que no quería que fuera tan molesto.
08:51
So as a robotics company,
218
531880
1616
Y, como compañía de robótica,
08:53
we added some obstacle avoidance to the system.
219
533520
2456
añadimos funciones para evitar obstáculos al sistema.
08:56
It got a little laser range finder that could see the obstacles,
220
536000
3056
Tenía un pequeño buscador láser con el que veía los obstáculos,
08:59
and if I as a robot operator try to say, run into a chair,
221
539080
3136
y si yo, como operadora del robot decía, ve hacia la silla,
09:02
it wouldn't let me, it would just plan a path around,
222
542240
2496
no lo haría, solo planearía un camino alternativo,
09:04
which seems like a good idea.
223
544760
1856
lo que parece ser una buena idea.
09:06
People did hit fewer obstacles using that system, obviously,
224
546640
3176
La gente golpeó menos obstáculos usando ese sistema, obviamente,
09:09
but actually, for some of the people,
225
549840
2096
pero en realidad, a algunas personas,
09:11
it took them a lot longer to get through our obstacle course,
226
551960
2856
les tomó mucho más tiempo superar nuestra carrera de obstáculos,
09:14
and we wanted to know why.
227
554840
1560
y queríamos saber por qué.
09:17
It turns out that there's this important human dimension --
228
557080
3056
Existe esta importante dimensión humana:
09:20
a personality dimension called locus of control,
229
560160
2296
una dimensión de la personalidad llamada locus de control.
09:22
and people who have a strong internal locus of control,
230
562480
3136
Y las personas con un fuerte locus interno de control,
09:25
they need to be the masters of their own destiny --
231
565640
3056
necesitan ser dueños de su propio destino:
09:28
really don't like giving up control to an autonomous system --
232
568720
3096
realmente no les gusta ceder el control a un sistema autónomo,
09:31
so much so that they will fight the autonomy;
233
571840
2136
tanto que lucharán contra la autonomía;
09:34
"If I want to hit that chair, I'm going to hit that chair."
234
574000
3096
"Si quiero golpear esa silla, voy a golpear esa silla".
09:37
And so they would actually suffer from having that autonomous assistance,
235
577120
3616
Y ellos realmente sufrirían de tener esa asistencia autónoma,
09:40
which is an important thing for us to know
236
580760
2576
lo que es importante saber para nosotros,
09:43
as we're building increasingly autonomous, say, cars, right?
237
583360
3296
ya que estamos construyendo autos cada vez más autónomos, por ejemplo.
09:46
How are different people going to grapple with that loss of control?
238
586680
3360
¿Cómo van a lidiar las personas con esa pérdida de control?
09:50
It's going to be different depending on human dimensions.
239
590880
2696
Va a ser diferente según las dimensiones humanas.
09:53
We can't treat humans as if we're just one monolithic thing.
240
593600
3496
No podemos tratar a los humanos como un ente monolítico.
09:57
We vary by personality, by culture,
241
597120
2416
Variamos por personalidad, por cultura,
09:59
we even vary by emotional state moment to moment,
242
599560
2456
incluso variamos por estado emocional momento a momento.
10:02
and being able to design these systems,
243
602040
1976
Y al diseñar estos sistemas,
10:04
these human-robot interaction systems,
244
604040
2296
estos sistemas de interacción humano-robot,
10:06
we need to take into account the human dimensions,
245
606360
2736
debemos tener en cuenta las dimensiones humanas,
10:09
not just the technological ones.
246
609120
1720
no solo las tecnológicas.
10:11
Along with a sense of control also comes a sense of responsibility.
247
611640
4296
Con una sensación de control, también surge un sentido de responsabilidad.
10:15
And if you were a robot operator using one of these systems,
248
615960
2856
Y si fueran operadores de robots usando uno de estos sistemas,
10:18
this is what the interface would look like.
249
618840
2056
así se vería la interfaz.
10:20
It looks a little bit like a video game,
250
620920
1936
Se parece un poco a un videojuego,
10:22
which can be good because that's very familiar to people,
251
622880
2976
lo que puede ser bueno porque resulta muy familiar a las personas,
10:25
but it can also be bad
252
625880
1216
pero también puede ser malo
10:27
because it makes people feel like it's a video game.
253
627120
2456
porque hace que las personas sientan que es un videojuego.
10:29
We had a bunch of kids over at Stanford play with the system
254
629600
2856
Tuvimos un montón de niños en Stanford jugando con el sistema
10:32
and drive the robot around our office in Menlo Park,
255
632480
2456
conduciendo el robot por nuestra oficina en Menlo Park,
10:34
and the kids started saying things like,
256
634960
1936
y los niños decían cosas como,
10:36
"10 points if you hit that guy over there. 20 points for that one."
257
636920
3176
"10 puntos si das a ese tipo de ahí. 20 puntos por eso".
10:40
And they would chase them down the hallway.
258
640120
2016
Y los perseguían por el pasillo.
10:42
(Laughter)
259
642160
1016
(Risas)
10:43
I told them, "Um, those are real people.
260
643200
1936
Les dije, "Esas personas son reales.
10:45
They're actually going to bleed and feel pain if you hit them."
261
645160
3296
Realmente sangrarán y sentirán dolor si los golpean".
10:48
And they'd be like, "OK, got it."
262
648480
1616
Y contestaban: "Bien, lo entendí".
10:50
But five minutes later, they would be like,
263
650120
2056
Pero cinco minutos después decían,
10:52
"20 points for that guy over there, he just looks like he needs to get hit."
264
652200
3616
"20 puntos para ese tipo de allí, parece que necesita algún golpe".
10:55
It's a little bit like "Ender's Game," right?
265
655840
2136
Es un poco como "El juego de Ender".
10:58
There is a real world on that other side
266
658000
1936
Hay un mundo real en ese otro lado
10:59
and I think it's our responsibility as people designing these interfaces
267
659960
3416
y creo que es nuestra responsabilidad, como personas que diseñan esas interfaces,
11:03
to help people remember
268
663400
1256
ayudar a la gente a recordar
11:04
that there's real consequences to their actions
269
664680
2256
que hay consecuencias reales de sus acciones
11:06
and to feel a sense of responsibility
270
666960
2296
y obtener un sentido de responsabilidad
11:09
when they're operating these increasingly autonomous things.
271
669280
3280
cuando se están operando estas cosas cada vez más autónomas.
11:13
These are kind of a great example
272
673840
2296
Esto es un gran ejemplo
11:16
of experimenting with one possible robotic future,
273
676160
3256
de experimentar con un posible futuro robótico,
11:19
and I think it's pretty cool that we can extend ourselves
274
679440
3856
y creo que es genial que podamos extendernos
11:23
and learn about the ways that we extend ourselves
275
683320
2336
y aprender de las formas cómo nos extendemos
11:25
into these machines
276
685680
1216
en estas máquinas
11:26
while at the same time being able to express our humanity
277
686920
2696
y al mismo tiempo expresar nuestra humanidad
11:29
and our personality.
278
689640
1216
y nuestra personalidad.
11:30
We also build empathy for others
279
690880
1576
También construimos empatía para otros
11:32
in terms of being shorter, taller, faster, slower,
280
692480
3216
en términos de ser más bajo, más alto, más rápido, más lento,
11:35
and maybe even armless,
281
695720
1416
y tal vez incluso sin brazos,
11:37
which is kind of neat.
282
697160
1336
que es algo estupendo.
11:38
We also build empathy for the robots themselves.
283
698520
2536
También generamos empatía para los mismos robots.
Este es uno de mis robots favoritos
11:41
This is one of my favorite robots.
284
701080
1656
11:42
It's called the Tweenbot.
285
702760
1456
Se llama Tweenbot.
11:44
And this guy has a little flag that says,
286
704240
1976
Y este lleva una banderita que dice:
11:46
"I'm trying to get to this intersection in Manhattan,"
287
706240
2576
"Estoy tratando de llegar a este cruce en Manhattan"
11:48
and it's cute and rolls forward, that's it.
288
708840
2776
y es lindo y rueda, eso es todo.
11:51
It doesn't know how to build a map, it doesn't know how to see the world,
289
711640
3456
No sabe cómo construir un mapa, no sabe cómo ver el mundo,
11:55
it just asks for help.
290
715120
1256
solo pide ayuda.
11:56
The nice thing about people
291
716400
1336
Lo bueno de las personas
11:57
is that it can actually depend upon the kindness of strangers.
292
717760
3096
es que realmente puede depender de la bondad de los extraños.
12:00
It did make it across the park to the other side of Manhattan --
293
720880
3896
Lo hicieron cruzar el parque al otro lado de Manhattan,
12:04
which is pretty great --
294
724800
1256
lo que es bastante bueno,
12:06
just because people would pick it up and point it in the right direction.
295
726080
3456
solo porque las personas lo recogen y lo orientan en la dirección correcta.
12:09
(Laughter)
296
729560
936
(Risas)
12:10
And that's great, right?
297
730520
1256
Y eso es genial, ¿verdad?
12:11
We're trying to build this human-robot world
298
731800
2696
Estamos tratando de construir este mundo humano-robot
12:14
in which we can coexist and collaborate with one another,
299
734520
3416
en el que podemos convivir y colaborar el uno con el otro,
12:17
and we don't need to be fully autonomous and just do things on our own.
300
737960
3376
y no hay que ser completamente autónomos y hacer cosas solo por nuestra cuenta.
12:21
We actually do things together.
301
741360
1496
De hecho, hacemos cosas juntos.
12:22
And to make that happen,
302
742880
1256
Y para que eso suceda,
12:24
we actually need help from people like the artists and the designers,
303
744160
3256
en realidad, necesitamos ayuda de personas como los artistas y los diseñadores,
12:27
the policy makers, the legal scholars,
304
747440
1856
los políticos, los juristas,
12:29
psychologists, sociologists, anthropologists --
305
749320
2216
psicólogos, sociólogos, antropólogos,
12:31
we need more perspectives in the room
306
751560
1816
necesitamos más perspectivas en la sala
12:33
if we're going to do the thing that Stu Card says we should do,
307
753400
2976
si vamos a hacer lo que Stu Card dice que debemos hacer,
12:36
which is invent the future that we actually want to live in.
308
756400
3936
que es inventar el futuro en el que realmente queremos vivir.
12:40
And I think we can continue to experiment
309
760360
2656
Y creo que podemos continuar experimentando
12:43
with these different robotic futures together,
310
763040
2176
con estos diferentes futuros robóticos juntos,
12:45
and in doing so, we will end up learning a lot more about ourselves.
311
765240
4680
y al hacerlo, terminaremos aprendiendo mucho más sobre nosotros mismos.
12:50
Thank you.
312
770720
1216
Gracias.
12:51
(Applause)
313
771960
2440
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7