What's it like to be a robot? | Leila Takayama

92,193 views ・ 2018-02-16

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Maurício Kakuei Tanaka Revisor: Maricene Crus
00:12
You only get one chance to make a first impression,
0
12760
2656
Só temos uma chance para causar uma primeira impressão,
00:15
and that's true if you're a robot as well as if you're a person.
1
15440
3176
e isso vale se você é um robô ou uma pessoa.
00:18
The first time that I met one of these robots
2
18640
3016
A primeira vez que conheci um desses robôs
00:21
was at a place called Willow Garage in 2008.
3
21680
2896
foi em Willow Garage, em 2008.
00:24
When I went to visit there, my host walked me into the building
4
24600
3016
Na minha visita, meu anfitrião acompanhou-me no edifício,
00:27
and we met this little guy.
5
27640
1576
e encontramos este carinha.
00:29
He was rolling into the hallway,
6
29240
1656
Ele estava andando pelo saguão;
00:30
came up to me, sat there,
7
30920
1816
aproximou-se de mim, me encarou sem expressão;
00:32
stared blankly past me,
8
32760
2256
00:35
did nothing for a while,
9
35040
1656
não fez nada por um tempo;
00:36
rapidly spun his head around 180 degrees
10
36720
1936
girou rapidamente a cabeça cerca de 180 graus e fugiu.
00:38
and then ran away.
11
38680
1536
00:40
And that was not a great first impression.
12
40240
2176
Não foi uma primeira impressão muito boa.
00:42
The thing that I learned about robots that day
13
42440
2176
Naquele dia, aprendi que os robôs
00:44
is that they kind of do their own thing,
14
44640
2176
agem sem uma total consciência de nós.
00:46
and they're not totally aware of us.
15
46840
2136
00:49
And I think as we're experimenting with these possible robot futures,
16
49000
3239
Creio que, conforme passamos por esses possíveis futuros com robôs,
00:52
we actually end up learning a lot more about ourselves
17
52263
2673
aprendemos muito mais sobre nós mesmos do que apenas sobre essas máquinas.
00:54
as opposed to just these machines.
18
54960
1656
00:56
And what I learned that day
19
56640
1336
Aprendi que tinha muitas expectativas para esse amiguinho.
00:58
was that I had pretty high expectations for this little dude.
20
58000
3416
01:01
He was not only supposed to be able to navigate the physical world,
21
61440
3176
Ele não só deveria ser capaz de navegar no mundo físico,
01:04
but also be able to navigate my social world --
22
64640
2656
mas também em meu mundo social.
01:07
he's in my space; it's a personal robot.
23
67320
2176
Ele está em meu espaço; é um robô pessoal.
01:09
wWhy didn't it understand me?
24
69520
2016
Por que não me entendia?
01:11
My host explained to me,
25
71560
1256
Meu anfitrião me explicou:
01:12
"Well, the robot is trying to get from point A to point B,
26
72840
3176
"O robô está tentando ir do ponto A ao B.
01:16
and you were an obstacle in his way,
27
76040
1776
Como você estava no caminho, ele teve que replanejá-lo,
01:17
so he had to replan his path,
28
77840
2016
01:19
figure out where to go,
29
79880
1256
descobrir para onde ir, e chegar lá de outra maneira",
01:21
and then get there some other way,"
30
81160
1696
01:22
which was actually not a very efficient thing to do.
31
82880
2456
o que não foi muito eficiente.
01:25
If that robot had figured out that I was a person, not a chair,
32
85360
3256
Se ele soubesse que eu era uma pessoa e não uma cadeira,
01:28
and that I was willing to get out of its way
33
88640
2096
e que eu sairia do caminho se ele tentasse chegar a algum lugar,
01:30
if it was trying to get somewhere,
34
90760
1656
01:32
then it actually would have been more efficient
35
92440
2216
a tarefa dele teria sido mais eficiente
01:34
at getting its job done
36
94680
1256
01:35
if it had bothered to notice that I was a human
37
95960
2216
se tivesse notado que eu era humana
e tinha capacidades diferentes de uma cadeira ou uma parede.
01:38
and that I have different affordances than things like chairs and walls do.
38
98200
3576
01:41
You know, we tend to think of these robots as being from outer space
39
101800
3216
Costumamos achar que robôs são seres do espaço, do futuro
01:45
and from the future and from science fiction,
40
105040
2136
ou da ficção científica.
01:47
and while that could be true,
41
107200
1416
Isso pode ser verdade,
01:48
I'd actually like to argue that robots are here today,
42
108640
2656
mas os robôs estão aqui hoje,
01:51
and they live and work amongst us right now.
43
111320
2776
vivem e trabalham entre nós agora mesmo.
01:54
These are two robots that live in my home.
44
114120
2856
Estes dois robôs trabalham em minha casa:
01:57
They vacuum the floors and they cut the grass
45
117000
2496
aspiram o chão e cortam a grama todo dia,
01:59
every single day,
46
119520
1216
02:00
which is more than I would do if I actually had time to do these tasks,
47
120760
3376
o que é muito mais do que eu faria se tivesse tempo para isso,
e provavelmente fazem melhor do que eu.
02:04
and they probably do it better than I would, too.
48
124160
2336
02:06
This one actually takes care of my kitty.
49
126520
2496
Este aqui cuida do meu gatinho:
02:09
Every single time he uses the box, it cleans it,
50
129040
2576
quando ele usa a caixa, o robô a limpa, e é algo que não quero fazer.
02:11
which is not something I'm willing to do,
51
131640
1976
02:13
and it actually makes his life better as well as mine.
52
133640
2576
Ele facilita a vida do gato e a minha.
02:16
And while we call these robot products --
53
136240
2416
Enquanto os chamamos de produtos:
02:18
it's a "robot vacuum cleaner, it's a robot lawnmower,
54
138680
2696
"robô aspirador", "robô caixinha do gato", "robô cortador de grama",
02:21
it's a robot littler box,"
55
141400
1495
02:22
I think there's actually a bunch of other robots hiding in plain sight
56
142919
4137
acho que há muitos robôs ao nosso redor
02:27
that have just become so darn useful
57
147080
1856
que tornaram-se tão úteis e comuns
02:28
and so darn mundane
58
148960
1456
02:30
that we call them things like, "dishwasher," right?
59
150440
2496
que os chamamos de nomes como "lava-louças".
02:32
They get new names.
60
152960
1216
Ganham novos nomes.
Não são mais chamados de robôs porque servem um propósito em nossa vida,
02:34
They don't get called robot anymore
61
154200
1696
02:35
because they actually serve a purpose in our lives.
62
155920
2416
como um termostato.
02:38
Similarly, a thermostat, right?
63
158360
1496
02:39
I know my robotics friends out there
64
159880
1776
Meus colegas da robótica se constrangem por eu chamá-lo de robô,
02:41
are probably cringing at me calling this a robot,
65
161680
2336
mas o objetivo dele é deixar minha casa em 19ºC.
02:44
but it has a goal.
66
164040
1256
02:45
Its goal is to make my house 66 degrees Fahrenheit,
67
165320
2896
02:48
and it senses the world.
68
168240
1256
Ele também percebe o mundo, sabe que está frio, se programa
02:49
It knows it's a little bit cold,
69
169520
1576
02:51
it makes a plan and then it acts on the physical world.
70
171120
2616
e então, age no mundo físico.
02:53
It's robotics.
71
173760
1256
É a robótica.
Não se parece com um robô dos desenhos animados,
02:55
Even if it might not look like Rosie the Robot,
72
175040
2576
02:57
it's doing something that's really useful in my life
73
177640
2936
mas faz algo útil em minha vida
03:00
so I don't have to take care
74
180600
1376
para que eu não precise regular a temperatura.
03:02
of turning the temperature up and down myself.
75
182000
2576
03:04
And I think these systems live and work amongst us now,
76
184600
3816
Esses sistemas vivem e trabalham entre nós agora.
03:08
and not only are these systems living amongst us
77
188440
2336
Além disso, nós também os operamos.
03:10
but you are probably a robot operator, too.
78
190800
2656
03:13
When you drive your car,
79
193480
1256
Quando dirigimos nosso carro, a sensação é de operar uma máquina,
03:14
it feels like you are operating machinery.
80
194760
2216
mas também vamos do ponto A ao B.
03:17
You are also going from point A to point B,
81
197000
2816
03:19
but your car probably has power steering,
82
199840
2216
O carro pode ter direção hidráulica, sistema de freios automáticos,
03:22
it probably has automatic braking systems,
83
202080
2696
03:24
it might have an automatic transmission and maybe even adaptive cruise control.
84
204800
3736
transmissão automática e até controle de velocidade adaptável.
03:28
And while it might not be a fully autonomous car,
85
208560
2936
Embora não seja um carro totalmente autônomo,
03:31
it has bits of autonomy,
86
211520
1296
ele tem partes autônomas úteis que nos fazem dirigir com segurança
03:32
and they're so useful
87
212840
1336
03:34
and they make us drive safer,
88
214200
1816
e sentir como se não estivessem lá.
03:36
and we just sort of feel like they're invisible-in-use, right?
89
216040
3656
03:39
So when you're driving your car,
90
219720
1576
Dirigir deveria ser apenas a sensação de se mover de um lugar ao outro
03:41
you should just feel like you're going from one place to another.
91
221320
3096
e não essa coisa complicada na qual devemos operar os controles,
03:44
It doesn't feel like it's this big thing that you have to deal with and operate
92
224440
3736
03:48
and use these controls
93
228200
1256
03:49
because we spent so long learning how to drive
94
229480
2176
pois passamos tanto tempo aprendendo a dirigir
03:51
that they've become extensions of ourselves.
95
231680
2696
que os controles se tornam extensões de nós mesmos.
03:54
When you park that car in that tight little garage space,
96
234400
2696
Quando estacionamos numa vaga apertada, sabemos onde estão os limites.
03:57
you know where your corners are.
97
237120
1576
03:58
And when you drive a rental car that maybe you haven't driven before,
98
238720
3256
Quando dirigimos um carro alugado que nunca havíamos dirigido,
talvez demoremos a nos acostumar com nosso novo corpo de robô.
04:02
it takes some time to get used to your new robot body.
99
242000
3056
04:05
And this is also true for people who operate other types of robots,
100
245080
3976
Isso também se aplica a quem opera outros tipos de robôs.
04:09
so I'd like to share with you a few stories about that.
101
249080
2600
Gostaria de compartilhar algumas histórias
04:12
Dealing with the problem of remote collaboration.
102
252240
2336
como a de lidar com o problema da colaboração à distância.
04:14
So, at Willow Garage I had a coworker named Dallas,
103
254600
2576
Em Willow Garage, havia um colega chamado Dallas.
04:17
and Dallas looked like this.
104
257200
1576
04:18
He worked from his home in Indiana in our company in California.
105
258800
4056
Ele trabalhava de casa, em Indiana, para nossa empresa na Califórnia.
04:22
He was a voice in a box on the table in most of our meetings,
106
262880
2936
Ele era uma voz numa caixa na mesa, na maioria das reuniões, tudo bem,
04:25
which was kind of OK except that, you know,
107
265840
2215
mas, se tínhamos uma discussão acalorada e não gostávamos do que ele dizia,
04:28
if we had a really heated debate and we didn't like what he was saying,
108
268079
3377
04:31
we might just hang up on him.
109
271480
1416
desligávamos na cara dele.
04:32
(Laughter)
110
272920
1015
(Risos)
04:33
Then we might have a meeting after that meeting
111
273959
2217
Então, fazíamos outra reunião depois e tomávamos uma decisão no saguão,
04:36
and actually make the decisions in the hallway afterwards
112
276200
2696
quando ele não estava mais lá, o que não era legal para ele.
04:38
when he wasn't there anymore.
113
278920
1416
04:40
So that wasn't so great for him.
114
280360
1576
04:41
And as a robotics company at Willow,
115
281960
1736
Como empresa de robótica em Willow,
04:43
we had some extra robot body parts laying around,
116
283720
2336
tínhamos algumas partes extras de corpo de robô,
então Dallas e um amigo, o Curt, juntaram essa coisa,
04:46
so Dallas and his buddy Curt put together this thing,
117
286080
2496
04:48
which looks kind of like Skype on a stick on wheels,
118
288600
2936
tipo um Skype numa vara sobre rodas, que parece um brinquedo tecnológico bobo,
04:51
which seems like a techy, silly toy,
119
291560
1736
04:53
but really it's probably one of the most powerful tools
120
293320
2776
mas talvez seja uma das ferramentas mais poderosas
04:56
that I've seen ever made for remote collaboration.
121
296120
2480
criadas para colaboração à distância.
04:59
So now, if I didn't answer Dallas' email question,
122
299160
3496
Agora se eu não responder à pergunta do e-mail do Dallas,
05:02
he could literally roll into my office,
123
302680
2216
ele pode entrar em meu escritório, bloquear minha porta e perguntar novamente
05:04
block my doorway and ask me the question again --
124
304920
2576
(Risos)
05:07
(Laughter)
125
307520
1016
05:08
until I answered it.
126
308560
1216
até eu responder.
05:09
And I'm not going to turn him off, right? That's kind of rude.
127
309800
2976
Não vou desligá-lo, certo? Seria falta de educação.
05:12
Not only was it good for these one-on-one communications,
128
312800
2696
Não foi bom apenas para a comunicação entre duas pessoas,
05:15
but also for just showing up at the company all-hands meeting.
129
315520
2936
mas para a participação de todos às reuniões.
05:18
Getting your butt in that chair
130
318480
1696
É importante estar presente e comprometido com o seu projeto
05:20
and showing people that you're present and committed to your project
131
320200
3216
05:23
is a big deal
132
323440
1256
05:24
and can help remote collaboration a ton.
133
324720
2176
e pode ajudar bastante a colaboração à distância.
05:26
We saw this over the period of months and then years,
134
326920
2856
Vimos isso ao longo dos meses e, depois, dos anos,
05:29
not only at our company but at others, too.
135
329800
2160
não só em nossa empresa, mas também na dos outros.
05:32
The best thing that can happen with these systems
136
332720
2336
O melhor é que, com isso, começa a parecer que você está lá.
05:35
is that it starts to feel like you're just there.
137
335080
2336
05:37
It's just you, it's just your body,
138
337440
1696
É você, seu corpo.
05:39
and so people actually start to give these things personal space.
139
339160
3096
Então, as pessoas começam a dar espaço pessoal a esses objetos.
05:42
So when you're having a stand-up meeting,
140
342280
1976
Quando temos uma reunião em pé, as pessoas se posicionam no espaço
05:44
people will stand around the space
141
344280
1656
05:45
just as they would if you were there in person.
142
345960
2216
como se você estivesse ali pessoalmente, o que é ótimo, até haver avarias.
05:48
That's great until there's breakdowns and it's not.
143
348200
2576
05:50
People, when they first see these robots,
144
350800
1976
A reação das pessoas ao verem os robôs pela primeira vez é:
05:52
are like, "Wow, where's the components? There must be a camera over there,"
145
352800
3576
"Uau, cadê os componentes? Deve ter uma câmera por aí",
e começam a cutucar sua imagem:
05:56
and they start poking your face.
146
356400
1576
"Está falando baixo. Vou aumentar o volume",
05:58
"You're talking too softly, I'm going to turn up your volume,"
147
358000
2936
o mesmo que um colega chegar e dizer:
06:00
which is like having a coworker walk up to you and say,
148
360960
2616
"Você está falando baixo. Vou aumentar o seu volume".
06:03
"You're speaking too softly, I'm going to turn up your face."
149
363600
2896
Isso é estranho e não é bom.
06:06
That's awkward and not OK,
150
366520
1256
06:07
and so we end up having to build these new social norms
151
367800
2616
Tivemos que construir novas normas sociais para o uso desses sistemas.
06:10
around using these systems.
152
370440
2216
06:12
Similarly, as you start feeling like it's your body,
153
372680
3416
Assim, conforme você começa a sentir que é o seu corpo,
06:16
you start noticing things like, "Oh, my robot is kind of short."
154
376120
3696
você repara em coisas do tipo: "Meu robô é baixinho".
06:19
Dallas would say things to me -- he was six-foot tall --
155
379840
2656
O Dallas tem 1,83 metros,
06:22
and we would take him via robot to cocktail parties and things like that,
156
382520
3456
e levávamos o robô dele a festas de coquetel, por exemplo.
06:26
as you do,
157
386000
1216
06:27
and the robot was about five-foot-tall, which is close to my height.
158
387240
3336
O robô tinha cerca de 1,52 metros, quase a minha altura.
06:30
And he would tell me,
159
390600
1216
Ele me dizia: "As pessoas não estão realmente olhando pra mim.
06:31
"You know, people are not really looking at me.
160
391840
2536
06:34
I feel like I'm just looking at this sea of shoulders,
161
394400
2696
Sinto que estou olhando para um mar de ombros.
06:37
and it's just -- we need a taller robot."
162
397120
1976
Precisamos de um robô mais alto".
06:39
And I told him,
163
399120
1256
Eu disse a ele:
06:40
"Um, no.
164
400400
1296
"Não! Você vai se pôr em meu lugar hoje
06:41
You get to walk in my shoes for today.
165
401720
1936
06:43
You get to see what it's like to be on the shorter end of the spectrum."
166
403680
3536
para ver como é estar na extremidade mais baixa do espectro".
06:47
And he actually ended up building a lot of empathy for that experience,
167
407240
3376
E foi ótimo porque ele acabou criando muita empatia com essa experiência.
06:50
which was kind of great.
168
410640
1256
06:51
So when he'd come visit in person,
169
411920
1656
Ao me visitar pessoalmente,
ele não ficava mais em pé enquanto falava comigo;
06:53
he no longer stood over me as he was talking to me,
170
413600
2416
se sentava e conversava comigo olhando em meus olhos; muito legal.
06:56
he would sit down and talk to me eye to eye,
171
416040
2096
06:58
which was kind of a beautiful thing.
172
418160
1736
06:59
So we actually decided to look at this in the laboratory
173
419920
2656
Decidimos examinar isso no laboratório
07:02
and see what others kinds of differences things like robot height would make.
174
422600
3656
para ver que outras diferenças a altura do robô provocaria.
07:06
And so half of the people in our study used a shorter robot,
175
426280
2856
Metade das pessoas no nosso estudo usou um robô mais baixo
07:09
half of the people in our study used a taller robot
176
429160
2416
e a outra metade o mais alto.
07:11
and we actually found that the exact same person
177
431600
2256
Descobrimos que a mesma pessoa, com o mesmo corpo
07:13
who has the exact same body and says the exact same things as someone,
178
433880
3336
e que dizia as mesmas coisas que outras,
é mais persuasiva e vista como mais crível se estiver na forma de um robô mais alto.
07:17
is more persuasive and perceived as being more credible
179
437240
2616
07:19
if they're in a taller robot form.
180
439880
1656
07:21
It makes no rational sense,
181
441560
1816
Não tem sentido lógico, mas por isso estudamos psicologia.
07:23
but that's why we study psychology.
182
443400
1696
07:25
And really, you know, the way that Cliff Nass would put this
183
445120
2856
E Cliff Nass expressa isso dizendo
07:28
is that we're having to deal with these new technologies
184
448000
3016
que estamos tendo que lidar com essas novas tecnologias
07:31
despite the fact that we have very old brains.
185
451040
2736
apesar do fato de termos um cérebro muito antigo.
07:33
Human psychology is not changing at the same speed that tech is
186
453800
2976
A psicologia humana não acompanha a velocidade da tecnologia.
07:36
and so we're always playing catch-up,
187
456800
1816
Ficamos brincando de pega-pega, tentando dar sentido ao mundo
07:38
trying to make sense of this world
188
458640
1656
07:40
where these autonomous things are running around.
189
460320
2336
com essas coisas autônomas.
07:42
Usually, things that talk are people, not machines, right?
190
462680
2736
São as pessoas que falam, não as máquinas.
07:45
And so we breathe a lot of meaning into things like just height of a machine,
191
465440
4576
Introduzimos muito significado na altura de uma máquina,
07:50
not a person,
192
470040
1256
não de uma pessoa, por exemplo,
07:51
and attribute that to the person using the system.
193
471320
2360
e atribuímos isso à pessoa usando o sistema.
07:55
You know, this, I think, is really important
194
475120
2216
Considero isso muito importante quando pensamos em robótica.
07:57
when you're thinking about robotics.
195
477360
1736
Não se trata tanto de reinventar o homem, e sim descobrir como nos estendemos.
07:59
It's not so much about reinventing humans,
196
479120
2096
08:01
it's more about figuring out how we extend ourselves, right?
197
481240
3136
08:04
And we end up using things in ways that are sort of surprising.
198
484400
2976
Acabamos usando as coisas de maneira surpreendente.
08:07
So these guys can't play pool because the robots don't have arms,
199
487400
4256
Os rapazes não podem jogar sinuca porque os robôs não têm braços,
08:11
but they can heckle the guys who are playing pool
200
491680
2336
mas podem ajudar os que estão jogando.
08:14
and that can be an important thing for team bonding,
201
494040
3176
Isso pode ser importante para a união da equipe, o que é legal.
08:17
which is kind of neat.
202
497240
1296
08:18
People who get really good at operating these systems
203
498560
2496
Quem se sai bem operando esses sistemas
poderá criar novos jogos, como futebol de robô no meio da noite,
08:21
will even do things like make up new games,
204
501080
2056
08:23
like robot soccer in the middle of the night,
205
503160
2136
empurrando as latas de lixo.
08:25
pushing the trash cans around.
206
505320
1456
08:26
But not everyone's good.
207
506800
1576
Mas nem todos são bons.
08:28
A lot of people have trouble operating these systems.
208
508400
2496
Muitos têm problemas operando esses sistemas.
08:30
This is actually a guy who logged into the robot
209
510920
2256
Este cara se conectou ao robô
e o globo ocular dele girou 90 graus para a esquerda sem ele perceber.
08:33
and his eyeball was turned 90 degrees to the left.
210
513200
2376
08:35
He didn't know that,
211
515600
1256
Ele entrou no escritório colidindo nas mesas,
08:36
so he ended up just bashing around the office,
212
516880
2176
08:39
running into people's desks, getting super embarrassed,
213
519080
2616
superenvergonhado, rindo, e falando muito alto.
08:41
laughing about it -- his volume was way too high.
214
521720
2336
O cara na imagem me disse:
08:44
And this guy here in the image is telling me,
215
524080
2136
"Precisamos de um botão de 'mudo' para o robô".
08:46
"We need a robot mute button."
216
526240
2096
08:48
And by that what he really meant was we don't want it to be so disruptive.
217
528360
3496
Ou seja, não queremos que o robô seja tão perturbador.
08:51
So as a robotics company,
218
531880
1616
Como empresa de robótica, incluímos no sistema a ação de evitar obstáculos,
08:53
we added some obstacle avoidance to the system.
219
533520
2456
08:56
It got a little laser range finder that could see the obstacles,
220
536000
3056
com um localizador a laser que identifica obstáculos.
08:59
and if I as a robot operator try to say, run into a chair,
221
539080
3136
Se opero um robô e peço a ele para colidir com uma cadeira,
09:02
it wouldn't let me, it would just plan a path around,
222
542240
2496
ele não o fará e sim dará a volta, o que seria uma boa ideia.
09:04
which seems like a good idea.
223
544760
1856
09:06
People did hit fewer obstacles using that system, obviously,
224
546640
3176
Algumas pessoas bateram em menos obstáculos usando esse sistema,
09:09
but actually, for some of the people,
225
549840
2096
mas algumas demoraram mais para percorrer nossa pista de obstáculos,
09:11
it took them a lot longer to get through our obstacle course,
226
551960
2856
09:14
and we wanted to know why.
227
554840
1560
e queríamos entender o motivo.
09:17
It turns out that there's this important human dimension --
228
557080
3056
Existe uma dimensão humana de personalidade importante
09:20
a personality dimension called locus of control,
229
560160
2296
chamada locus de controle.
09:22
and people who have a strong internal locus of control,
230
562480
3136
Pessoas com um locus de controle interno forte
09:25
they need to be the masters of their own destiny --
231
565640
3056
precisam ser donas de seu próprio destino.
09:28
really don't like giving up control to an autonomous system --
232
568720
3096
Não gostam de ceder o controle a um sistema autônomo,
09:31
so much so that they will fight the autonomy;
233
571840
2136
tanto que lutarão contra isso: "Se quiser bater naquela cadeira, eu bato".
09:34
"If I want to hit that chair, I'm going to hit that chair."
234
574000
3096
09:37
And so they would actually suffer from having that autonomous assistance,
235
577120
3616
Elas sofreriam com essa ajuda autônoma, o que é importante sabermos,
09:40
which is an important thing for us to know
236
580760
2576
09:43
as we're building increasingly autonomous, say, cars, right?
237
583360
3296
pois estamos fabricando carros cada vez mais autônomos.
09:46
How are different people going to grapple with that loss of control?
238
586680
3360
Como pessoas diferentes vão lidar com essa perda de controle?
09:50
It's going to be different depending on human dimensions.
239
590880
2696
Vai ser diferente dependendo das dimensões humanas.
09:53
We can't treat humans as if we're just one monolithic thing.
240
593600
3496
Não podemos tratar o homem como se fôssemos um bloco monolítico.
09:57
We vary by personality, by culture,
241
597120
2416
Variamos por personalidade, cultura,
09:59
we even vary by emotional state moment to moment,
242
599560
2456
até mesmo por estado emocional, momento a momento.
10:02
and being able to design these systems,
243
602040
1976
E sendo capazes de projetar esses sistemas de interação homem-robô,
10:04
these human-robot interaction systems,
244
604040
2296
10:06
we need to take into account the human dimensions,
245
606360
2736
precisamos levar em conta as dimensões humanas,
10:09
not just the technological ones.
246
609120
1720
não apenas as tecnológicas.
10:11
Along with a sense of control also comes a sense of responsibility.
247
611640
4296
Junto com um senso de controle vem um senso de responsabilidade.
10:15
And if you were a robot operator using one of these systems,
248
615960
2856
Se fôssemos operar um robô usando um desses sistemas,
10:18
this is what the interface would look like.
249
618840
2056
a interface seria assim.
10:20
It looks a little bit like a video game,
250
620920
1936
Pareceria um pouco com um videogame,
10:22
which can be good because that's very familiar to people,
251
622880
2976
o que pode ser bom por ser familiar às pessoas,
10:25
but it can also be bad
252
625880
1216
mas pode ser ruim por fazê-las se sentir num videogame.
10:27
because it makes people feel like it's a video game.
253
627120
2456
10:29
We had a bunch of kids over at Stanford play with the system
254
629600
2856
Convidamos jovens para usar o sistema em Stanford
10:32
and drive the robot around our office in Menlo Park,
255
632480
2456
e pilotar o robô pelo nosso escritório em Menlo Park, e eles disseram:
10:34
and the kids started saying things like,
256
634960
1936
"Dez pontos se acertar aquele cara. Vinte por aquele outro".
10:36
"10 points if you hit that guy over there. 20 points for that one."
257
636920
3176
Eles os perseguiam pelo saguão.
10:40
And they would chase them down the hallway.
258
640120
2016
Eu disse: "São pessoas reais,
10:42
(Laughter)
259
642160
1016
10:43
I told them, "Um, those are real people.
260
643200
1936
que vão sangrar e sentir dor se vocês as acertarem".
10:45
They're actually going to bleed and feel pain if you hit them."
261
645160
3296
10:48
And they'd be like, "OK, got it."
262
648480
1616
E eles entenderam.
10:50
But five minutes later, they would be like,
263
650120
2056
Mas, cinco minutos depois:
"Vinte pontos por aquele cara; ele parece um bom alvo".
10:52
"20 points for that guy over there, he just looks like he needs to get hit."
264
652200
3616
10:55
It's a little bit like "Ender's Game," right?
265
655840
2136
Lembra o "Jogo do Exterminador".
Há um mundo real do outro lado,
10:58
There is a real world on that other side
266
658000
1936
10:59
and I think it's our responsibility as people designing these interfaces
267
659960
3416
e é nossa responsabilidade como criadores dessas interfaces
11:03
to help people remember
268
663400
1256
lembrar as pessoas das consequências reais das ações delas,
11:04
that there's real consequences to their actions
269
664680
2256
11:06
and to feel a sense of responsibility
270
666960
2296
para terem senso de responsabilidade
11:09
when they're operating these increasingly autonomous things.
271
669280
3280
quando operam essas coisas cada vez mais autônomas.
11:13
These are kind of a great example
272
673840
2296
São ótimos exemplos da experiência com um possível futuro robótico,
11:16
of experimenting with one possible robotic future,
273
676160
3256
11:19
and I think it's pretty cool that we can extend ourselves
274
679440
3856
e acho muito legal podermos nos estender
11:23
and learn about the ways that we extend ourselves
275
683320
2336
e aprender as maneiras de fazer isso dentro dessas máquinas
11:25
into these machines
276
685680
1216
11:26
while at the same time being able to express our humanity
277
686920
2696
e, ao mesmo tempo, podermos expressar nossa humanidade e personalidade.
11:29
and our personality.
278
689640
1216
11:30
We also build empathy for others
279
690880
1576
Também criamos empatia pelos outros em termos de ser mais baixo, alto,
11:32
in terms of being shorter, taller, faster, slower,
280
692480
3216
rápido, devagar,
11:35
and maybe even armless,
281
695720
1416
e, talvez, até sem braço; essa empatia é maravilhosa.
11:37
which is kind of neat.
282
697160
1336
11:38
We also build empathy for the robots themselves.
283
698520
2536
Também criamos empatia pelos robôs.
11:41
This is one of my favorite robots.
284
701080
1656
Este é um dos meus favoritos, o Tweenbot.
11:42
It's called the Tweenbot.
285
702760
1456
11:44
And this guy has a little flag that says,
286
704240
1976
Ele tem uma bandeirinha que diz:
11:46
"I'm trying to get to this intersection in Manhattan,"
287
706240
2576
"Estou tentando chegar a este cruzamento em Manhattan".
11:48
and it's cute and rolls forward, that's it.
288
708840
2776
É bonitinho e rola pra frente; é isso.
11:51
It doesn't know how to build a map, it doesn't know how to see the world,
289
711640
3456
Não sabe como fazer um mapa ou ver o mundo; só pede ajuda.
11:55
it just asks for help.
290
715120
1256
11:56
The nice thing about people
291
716400
1336
O legal é que ele pode realmente contar com a bondade de desconhecidos.
11:57
is that it can actually depend upon the kindness of strangers.
292
717760
3096
12:00
It did make it across the park to the other side of Manhattan --
293
720880
3896
Ele conseguiu cruzar o parque para o outro lado de Manhattan
12:04
which is pretty great --
294
724800
1256
porque as pessoas o pegavam e o colocavam no caminho certo.
12:06
just because people would pick it up and point it in the right direction.
295
726080
3456
(Risos)
12:09
(Laughter)
296
729560
936
Isso é ótimo, certo?
12:10
And that's great, right?
297
730520
1256
12:11
We're trying to build this human-robot world
298
731800
2696
Estamos tentando construir este mundo homem-robô
12:14
in which we can coexist and collaborate with one another,
299
734520
3416
no qual podemos coexistir e colaborar um com o outro.
12:17
and we don't need to be fully autonomous and just do things on our own.
300
737960
3376
Não precisamos ser autônomos e fazer as coisas sozinhos.
12:21
We actually do things together.
301
741360
1496
Fazemos as coisas juntos e, para que isso aconteça,
12:22
And to make that happen,
302
742880
1256
precisamos da ajuda de pessoas como artistas, designers,
12:24
we actually need help from people like the artists and the designers,
303
744160
3256
legisladores, magistrados, psicólogos, sociólogos, antropólogos.
12:27
the policy makers, the legal scholars,
304
747440
1856
12:29
psychologists, sociologists, anthropologists --
305
749320
2216
12:31
we need more perspectives in the room
306
751560
1816
Precisamos de mais perspectivas no espaço
12:33
if we're going to do the thing that Stu Card says we should do,
307
753400
2976
se vamos fazer o que Stu Card diz que devemos fazer:
12:36
which is invent the future that we actually want to live in.
308
756400
3936
inventar o futuro em que queremos viver.
12:40
And I think we can continue to experiment
309
760360
2656
Podemos continuar fazendo experimentos
12:43
with these different robotic futures together,
310
763040
2176
com esses diferentes futuros robóticos juntos.
12:45
and in doing so, we will end up learning a lot more about ourselves.
311
765240
4680
Assim, acabaremos aprendendo muito mais sobre nós mesmos.
12:50
Thank you.
312
770720
1216
Obrigada.
12:51
(Applause)
313
771960
2440
(Aplausos)
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7