What's it like to be a robot? | Leila Takayama

91,817 views ・ 2018-02-16

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Revisora: Margarida Ferreira
00:12
You only get one chance to make a first impression,
0
12760
2656
Só temos uma oportunidade de causar uma primeira impressão,
00:15
and that's true if you're a robot as well as if you're a person.
1
15440
3176
e isso é válido tanto para um robô como para uma pessoa.
00:18
The first time that I met one of these robots
2
18640
3016
A primeira vez que conheci um destes robôs
00:21
was at a place called Willow Garage in 2008.
3
21680
2896
foi num local chamado Willow Garage, em 2008.
00:24
When I went to visit there, my host walked me into the building
4
24600
3016
Quando lá fui de visita, o meu anfitrião levou-me a um edifício
00:27
and we met this little guy.
5
27640
1576
e foi lá que conheci este tipo.
00:29
He was rolling into the hallway,
6
29240
1656
Andava a percorrer a entrada,
00:30
came up to me, sat there,
7
30920
1816
aproximou-se de mim, parou ali,
00:32
stared blankly past me,
8
32760
2256
ficou a olhar fixamente para mim,
00:35
did nothing for a while,
9
35040
1656
não fez nada durante um bocado,
00:36
rapidly spun his head around 180 degrees
10
36720
1936
virou a cabeça rapidamente uns 180 graus
00:38
and then ran away.
11
38680
1536
e depois fugiu.
00:40
And that was not a great first impression.
12
40240
2176
Não foi lá uma primeira impressão muito boa.
00:42
The thing that I learned about robots that day
13
42440
2176
O que eu aprendi sobre robôs naquele dia,
00:44
is that they kind of do their own thing,
14
44640
2176
é que eles cumprem o seu papel,
00:46
and they're not totally aware of us.
15
46840
2136
e não têm grande consciência de nós.
Penso que à medida que fazemos experiências com estes futuros robôs,
00:49
And I think as we're experimenting with these possible robot futures,
16
49000
3239
00:52
we actually end up learning a lot more about ourselves
17
52263
2673
acabamos por aprender muito mais sobre nós mesmos
00:54
as opposed to just these machines.
18
54960
1656
ao contrário destas máquinas.
00:56
And what I learned that day
19
56640
1336
E o que eu prendi naquele dia
00:58
was that I had pretty high expectations for this little dude.
20
58000
3416
foi que eu tinha grandes expetativas em relação a este sujeito.
01:01
He was not only supposed to be able to navigate the physical world,
21
61440
3176
Não só, supostamente, ele podia navegar no mundo físico,
01:04
but also be able to navigate my social world --
22
64640
2656
mas também conseguia navegar no meu mundo social
01:07
he's in my space; it's a personal robot.
23
67320
2176
— está no meu espaço; é um robô pessoal.
01:09
wWhy didn't it understand me?
24
69520
2016
Porque é que ele não me compreendia?
01:11
My host explained to me,
25
71560
1256
O meu anfitrião explicou-me:
01:12
"Well, the robot is trying to get from point A to point B,
26
72840
3176
“O robô está a tentar ir do ponto A ao ponto B
01:16
and you were an obstacle in his way,
27
76040
1776
“e tu és um obstáculo no caminho dele,
01:17
so he had to replan his path,
28
77840
2016
“por isso, ele teve de alterar o caminho,
01:19
figure out where to go,
29
79880
1256
“imaginar por onde seguir e chegar lá por outra via.”
01:21
and then get there some other way,"
30
81160
1696
01:22
which was actually not a very efficient thing to do.
31
82880
2456
o que não era uma coisa muito eficaz de fazer.
01:25
If that robot had figured out that I was a person, not a chair,
32
85360
3256
Se o robô tivesse percebido que eu era uma pessoa, e não uma cadeira,
01:28
and that I was willing to get out of its way
33
88640
2096
e que eu me afastaria do caminho dele,
01:30
if it was trying to get somewhere,
34
90760
1656
se ele estava a tentar chegar a qualquer parte,
01:32
then it actually would have been more efficient
35
92440
2216
teria sido muito mais eficaz em cumprir o seu objetivo,
01:34
at getting its job done
36
94680
1256
01:35
if it had bothered to notice that I was a human
37
95960
2216
se se tivesse preocupado em reparar que eu era uma pessoa
01:38
and that I have different affordances than things like chairs and walls do.
38
98200
3576
com qualidades diferentes de coisas como cadeiras e paredes.
01:41
You know, we tend to think of these robots as being from outer space
39
101800
3216
Temos tendência a pensar nestes robôs como seres extraterrestres,
01:45
and from the future and from science fiction,
40
105040
2136
vindos do futuro, da ficção científica
01:47
and while that could be true,
41
107200
1416
e, embora isso possa ser verdade,
01:48
I'd actually like to argue that robots are here today,
42
108640
2656
gostava de defender que os robôs estão hoje aqui
01:51
and they live and work amongst us right now.
43
111320
2776
e vivem e trabalham entre nós, neste preciso momento.
01:54
These are two robots that live in my home.
44
114120
2856
Eu tenho dois robôs que vivem em minha casa.
Aspiram o chão e cortam a relva, todos os dias,
01:57
They vacuum the floors and they cut the grass
45
117000
2496
01:59
every single day,
46
119520
1216
02:00
which is more than I would do if I actually had time to do these tasks,
47
120760
3376
o que é mais do que faria se tivesse tempo para essas tarefas.
Além disso, eles talvez as façam melhor do que eu faria.
02:04
and they probably do it better than I would, too.
48
124160
2336
02:06
This one actually takes care of my kitty.
49
126520
2496
Este toma conta do meu gatinho.
02:09
Every single time he uses the box, it cleans it,
50
129040
2576
Sempre que ele usa a caixa, ele limpa-a,
02:11
which is not something I'm willing to do,
51
131640
1976
o que é uma coisa que não me agrada fazer,
02:13
and it actually makes his life better as well as mine.
52
133640
2576
e contribui para uma vida melhor para ele e também para mim.
02:16
And while we call these robot products --
53
136240
2416
Embora eu chame produtos a estes robôs
02:18
it's a "robot vacuum cleaner, it's a robot lawnmower,
54
138680
2696
— é um robô aspirador, é um robô corta-relva,
02:21
it's a robot littler box,"
55
141400
1495
é um robô sanita —
02:22
I think there's actually a bunch of other robots hiding in plain sight
56
142919
4137
penso que há um grupo de outros robôs escondidos à vista
que se tornaram tão diabolicamente úteis
02:27
that have just become so darn useful
57
147080
1856
02:28
and so darn mundane
58
148960
1456
e tão diabolicamente banais
02:30
that we call them things like, "dishwasher," right?
59
150440
2496
que lhes chamamos coisas como “lava-loiças”, não é?
02:32
They get new names.
60
152960
1216
Recebem nomes novos.
02:34
They don't get called robot anymore
61
154200
1696
Já ninguém lhes chama robôs
02:35
because they actually serve a purpose in our lives.
62
155920
2416
porque têm um objetivo na nossa vida.
02:38
Similarly, a thermostat, right?
63
158360
1496
Passa-se o mesmo com um termostato.
02:39
I know my robotics friends out there
64
159880
1776
Eu sei que os meus amigos robóticos
02:41
are probably cringing at me calling this a robot,
65
161680
2336
devem estar a encolher-se por eu chamar robô a isto,
02:44
but it has a goal.
66
164040
1256
mas ele tem uma missão.
02:45
Its goal is to make my house 66 degrees Fahrenheit,
67
165320
2896
A missão dele é manter a temperatura da minha casa a 19 ºC,
02:48
and it senses the world.
68
168240
1256
e sente o ambiente.
02:49
It knows it's a little bit cold,
69
169520
1576
Ele sabe que está um pouco frio,
02:51
it makes a plan and then it acts on the physical world.
70
171120
2616
traça um plano e age sobre o mundo físico.
02:53
It's robotics.
71
173760
1256
É robótica.
02:55
Even if it might not look like Rosie the Robot,
72
175040
2576
Mesmo que não tenha o aspeto de Rosie, o Robô,
02:57
it's doing something that's really useful in my life
73
177640
2936
está a fazer uma coisa que é muito útil na minha vida
03:00
so I don't have to take care
74
180600
1376
e eu não tenho de me preocupar
em andar a subir e baixar a temperatura.
03:02
of turning the temperature up and down myself.
75
182000
2576
03:04
And I think these systems live and work amongst us now,
76
184600
3816
Penso que estes sistemas vivem e trabalham hoje entre nós,
03:08
and not only are these systems living amongst us
77
188440
2336
e estes sistemas não só vivem entre nós
03:10
but you are probably a robot operator, too.
78
190800
2656
mas provavelmente, nós também somos operadores de robôs.
03:13
When you drive your car,
79
193480
1256
Quando guiamos um carro,
03:14
it feels like you are operating machinery.
80
194760
2216
é como se estivéssemos a manobrar maquinaria.
Também estamos a ir do ponto A para o ponto B,
03:17
You are also going from point A to point B,
81
197000
2816
03:19
but your car probably has power steering,
82
199840
2216
mas o nosso carro provavelmente tem direção assistida,
03:22
it probably has automatic braking systems,
83
202080
2696
provavelmente tem sistemas de travagem automática,
03:24
it might have an automatic transmission and maybe even adaptive cruise control.
84
204800
3736
pode ter transmissão automática e controlo de cruzeiro adaptável.
03:28
And while it might not be a fully autonomous car,
85
208560
2936
E embora possa não ser um carro totalmente autónomo,
03:31
it has bits of autonomy,
86
211520
1296
tem montes de autonomia.
03:32
and they're so useful
87
212840
1336
São muito úteis e tornam a condução muito mais segura
03:34
and they make us drive safer,
88
214200
1816
03:36
and we just sort of feel like they're invisible-in-use, right?
89
216040
3656
e quase que sentimos que eles funcionam de modo invisível.
03:39
So when you're driving your car,
90
219720
1576
Quando estiverem a conduzir o vosso carro,
03:41
you should just feel like you're going from one place to another.
91
221320
3096
devem sentir que é apenas ir de um local para outro.
03:44
It doesn't feel like it's this big thing that you have to deal with and operate
92
224440
3736
Não sentem que é uma coisa importante com que temos de lidar, de manobrar,
03:48
and use these controls
93
228200
1256
e de usar esses controlos
03:49
because we spent so long learning how to drive
94
229480
2176
porque passámos tanto tempo a aprender a conduzir
03:51
that they've become extensions of ourselves.
95
231680
2696
que eles tornaram-se uma extensão de nós mesmos.
03:54
When you park that car in that tight little garage space,
96
234400
2696
Quando estacionamos o carro no apertado espaço da garagem,
03:57
you know where your corners are.
97
237120
1576
sabemos onde estão os nossos limites.
03:58
And when you drive a rental car that maybe you haven't driven before,
98
238720
3256
E quando conduzimos um carro alugado que nunca guiámos,
04:02
it takes some time to get used to your new robot body.
99
242000
3056
leva algum tempo até nos habituarmos ao corpo do novo robô.
04:05
And this is also true for people who operate other types of robots,
100
245080
3976
Isto também é verdade para pessoas que funcionam com outros tipos de robôs,
por isso gostava de vos contar algumas histórias sobre isso.
04:09
so I'd like to share with you a few stories about that.
101
249080
2600
04:12
Dealing with the problem of remote collaboration.
102
252240
2336
Lidar com o problema da colaboração à distância.
04:14
So, at Willow Garage I had a coworker named Dallas,
103
254600
2576
Na Willow Garage eu tinha um colega chamado Dallas.
04:17
and Dallas looked like this.
104
257200
1576
Dalas tinha este aspeto.
04:18
He worked from his home in Indiana in our company in California.
105
258800
4056
Trabalhava na sua casa em Indiana na nossa empresa na Califórnia.
04:22
He was a voice in a box on the table in most of our meetings,
106
262880
2936
Era uma voz numa caixa sobre a mesa na maior parte das nossas reuniões,
04:25
which was kind of OK except that, you know,
107
265840
2215
o que era excelente, a não ser quando tínhamos um debate muito aceso
04:28
if we had a really heated debate and we didn't like what he was saying,
108
268079
3377
e não gostávamos do que ele dizia,
04:31
we might just hang up on him.
109
271480
1416
e acabávamos por o desligar.
04:32
(Laughter)
110
272920
1015
(Risos)
04:33
Then we might have a meeting after that meeting
111
273959
2217
Podíamos ter uma reunião a seguir àquela reunião
04:36
and actually make the decisions in the hallway afterwards
112
276200
2696
e tomávamos as decisões posteriormente, na entrada,
04:38
when he wasn't there anymore.
113
278920
1416
quando ele já lá não estava.
04:40
So that wasn't so great for him.
114
280360
1576
Para ele, não era assim tão bom.
04:41
And as a robotics company at Willow,
115
281960
1736
Enquanto empresa de robótica em Willow,
04:43
we had some extra robot body parts laying around,
116
283720
2336
havia partes extras de corpos de robôs
04:46
so Dallas and his buddy Curt put together this thing,
117
286080
2496
e Dallas e o amigo Curt montaram esta coisa,
04:48
which looks kind of like Skype on a stick on wheels,
118
288600
2936
que tem o aspeto de um Skype montado num pau com rodas,
04:51
which seems like a techy, silly toy,
119
291560
1736
e parece um brinquedo tecnológico idiota,
04:53
but really it's probably one of the most powerful tools
120
293320
2776
mas provavelmente é uma das ferramentas mais poderosas
04:56
that I've seen ever made for remote collaboration.
121
296120
2480
que já vi feita para a colaboração à distância.
04:59
So now, if I didn't answer Dallas' email question,
122
299160
3496
Então, se eu não respondesse à pergunta de Dallas por email,
05:02
he could literally roll into my office,
123
302680
2216
ele podia entrar no meu gabinete,
05:04
block my doorway and ask me the question again --
124
304920
2576
bloquear a porta e voltar a fazer a mesma pergunta,
05:07
(Laughter)
125
307520
1016
(Risos)
05:08
until I answered it.
126
308560
1216
até eu lhe responder.
05:09
And I'm not going to turn him off, right? That's kind of rude.
127
309800
2976
E eu não ia desligá-lo, não é? Seria má criação.
05:12
Not only was it good for these one-on-one communications,
128
312800
2696
Não só era bom para estas comunicações um-a-um,
05:15
but also for just showing up at the company all-hands meeting.
129
315520
2936
mas também para aparecer nas reuniões gerais da companhia.
05:18
Getting your butt in that chair
130
318480
1696
Sentarmos o rabo na cadeira
05:20
and showing people that you're present and committed to your project
131
320200
3216
e mostrar que estamos presentes e empenhados no nosso projeto
05:23
is a big deal
132
323440
1256
é importante
05:24
and can help remote collaboration a ton.
133
324720
2176
e a colaboração à distância pode ajudar imenso.
05:26
We saw this over the period of months and then years,
134
326920
2856
Vimos isto num período de meses e anos,
05:29
not only at our company but at others, too.
135
329800
2160
não só n nossa empresa mas em outras também.
05:32
The best thing that can happen with these systems
136
332720
2336
A melhor coisa que pode acontecer com estes sistemas
05:35
is that it starts to feel like you're just there.
137
335080
2336
é que começamos a sentir como se estivéssemos ali.
05:37
It's just you, it's just your body,
138
337440
1696
Nós mesmos, o nosso corpo
05:39
and so people actually start to give these things personal space.
139
339160
3096
e assim, as pessoas começam a dar espaço pessoal a estas coisas.
05:42
So when you're having a stand-up meeting,
140
342280
1976
Quando temos uma reunião de pé
05:44
people will stand around the space
141
344280
1656
as pessoas reúnem-se à sua volta
05:45
just as they would if you were there in person.
142
345960
2216
tal como se os outros estivessem ali em pessoa.
05:48
That's great until there's breakdowns and it's not.
143
348200
2576
Isso é ótimo até chegarem os intervalos.
05:50
People, when they first see these robots,
144
350800
1976
Quando veem estes robôs pela primeira vez, dizem:
05:52
are like, "Wow, where's the components? There must be a camera over there,"
145
352800
3576
“Uau! onde estão os componentes? Deve haver ali uma câmara qualquer”
05:56
and they start poking your face.
146
356400
1576
e começam a mexer na cara dele.
“Estás a falar muito baixo, vou aumentar o volume.”
05:58
"You're talking too softly, I'm going to turn up your volume,"
147
358000
2936
06:00
which is like having a coworker walk up to you and say,
148
360960
2616
o que é o mesmo que um colega chegar ao pé de nós e dizer:
06:03
"You're speaking too softly, I'm going to turn up your face."
149
363600
2896
“Estás a falar muito baixo, vou aumentar a tua cara.”
06:06
That's awkward and not OK,
150
366520
1256
É desagradável, não está bem,
06:07
and so we end up having to build these new social norms
151
367800
2616
e acabamos a ter de criar novas normas sociais
06:10
around using these systems.
152
370440
2216
no uso destes sistemas.
06:12
Similarly, as you start feeling like it's your body,
153
372680
3416
Do mesmo modo, quando começamos a sentir aquilo como o nosso corpo,
06:16
you start noticing things like, "Oh, my robot is kind of short."
154
376120
3696
começamos a reparar em coisas como: “Oh, o meu robô é um bocado baixinho.”
06:19
Dallas would say things to me -- he was six-foot tall --
155
379840
2656
Dallas dizia-me coisas destas — tinha 1,80 m de altura —
06:22
and we would take him via robot to cocktail parties and things like that,
156
382520
3456
e levávamo-lo via robô a festas e coisas dessas,
como vocês fazem,
06:26
as you do,
157
386000
1216
06:27
and the robot was about five-foot-tall, which is close to my height.
158
387240
3336
e o robô tinha 1,50 m de altura que é mais ou menos a minha altura.
06:30
And he would tell me,
159
390600
1216
E dizia-me:
06:31
"You know, people are not really looking at me.
160
391840
2536
“Sabes, as pessoas não estão a olhar para mim.
06:34
I feel like I'm just looking at this sea of shoulders,
161
394400
2696
“Sinto-me a olhar para um mar de ombros,
06:37
and it's just -- we need a taller robot."
162
397120
1976
“e precisamos de um robô mais alto.”
06:39
And I told him,
163
399120
1256
E eu dise-lhe: “Não.
06:40
"Um, no.
164
400400
1296
06:41
You get to walk in my shoes for today.
165
401720
1936
“Por agora, tens de ser como eu.
06:43
You get to see what it's like to be on the shorter end of the spectrum."
166
403680
3536
“Tens de ver o que é ser a pessoa mais baixa do espetro.”
06:47
And he actually ended up building a lot of empathy for that experience,
167
407240
3376
Ele acabou por criar muita empatia com aquela experiência, o que foi ótimo.
06:50
which was kind of great.
168
410640
1256
06:51
So when he'd come visit in person,
169
411920
1656
Quando me vinha visitar em pessoa,
06:53
he no longer stood over me as he was talking to me,
170
413600
2416
já não se colocava em cima de mim quando falava comigo,
06:56
he would sit down and talk to me eye to eye,
171
416040
2096
sentava-se e falava-me de olhos nos olhos.
06:58
which was kind of a beautiful thing.
172
418160
1736
o que era uma coisa maravilhosa.
06:59
So we actually decided to look at this in the laboratory
173
419920
2656
Então, decidimos olhar para isto no laboratório
07:02
and see what others kinds of differences things like robot height would make.
174
422600
3656
e ver que outros tipos de diferenças, coisas como a altura do robô, podia haver.
07:06
And so half of the people in our study used a shorter robot,
175
426280
2856
Metade das pessoas no nosso estudo usaram um robô mais baixo
07:09
half of the people in our study used a taller robot
176
429160
2416
e outra metade das pessoas no estudo usaram um robô mais alto
07:11
and we actually found that the exact same person
177
431600
2256
e descobrimos que a mesma pessoa
07:13
who has the exact same body and says the exact same things as someone,
178
433880
3336
que tem exatamente o mesmo corpo e diz exatamente mesma coisa que outra
07:17
is more persuasive and perceived as being more credible
179
437240
2616
é mais persuasiva e ouvida como sendo mais credível
07:19
if they're in a taller robot form.
180
439880
1656
se estiver sob a forma de um robô mais alto.
07:21
It makes no rational sense,
181
441560
1816
Não faz sentido racionalmente, mas é por isso que estudamos psicologia.
07:23
but that's why we study psychology.
182
443400
1696
07:25
And really, you know, the way that Cliff Nass would put this
183
445120
2856
Na verdade, a forma como Cliff Nass explicou,
é que temos de lidar com as novas tecnologias
07:28
is that we're having to deal with these new technologies
184
448000
3016
07:31
despite the fact that we have very old brains.
185
451040
2736
apesar de termos cérebros muito velhos.
07:33
Human psychology is not changing at the same speed that tech is
186
453800
2976
A psicologia humana não muda à mesma velocidade que a tecnologia
07:36
and so we're always playing catch-up,
187
456800
1816
e estamos sempre em atraso
07:38
trying to make sense of this world
188
458640
1656
a tentar perceber este mundo
07:40
where these autonomous things are running around.
189
460320
2336
onde estas coisas autónomas começam a aparecer.
07:42
Usually, things that talk are people, not machines, right?
190
462680
2736
Normalmente, coisas que falam são pessoas, não são máquinas, não é?
07:45
And so we breathe a lot of meaning into things like just height of a machine,
191
465440
4576
Assim, instilamos muito sentido em coisas como a altura duma máquina,
07:50
not a person,
192
470040
1256
— não numa pessoa —
07:51
and attribute that to the person using the system.
193
471320
2360
e atribuímos isso à pessoa que usa o sistema.
07:55
You know, this, I think, is really important
194
475120
2216
Acho que isto é muito importante quando se pensa na robótica.
07:57
when you're thinking about robotics.
195
477360
1736
Não é tanto a reinvenção dos seres humanos,
07:59
It's not so much about reinventing humans,
196
479120
2096
08:01
it's more about figuring out how we extend ourselves, right?
197
481240
3136
é sobretudo imaginar como nos prolongamos.
08:04
And we end up using things in ways that are sort of surprising.
198
484400
2976
E acabamos a usar coisas de formas surpreendentes.
08:07
So these guys can't play pool because the robots don't have arms,
199
487400
4256
Estes tipos não podem jogar snooker porque os robôs não têm braços,
08:11
but they can heckle the guys who are playing pool
200
491680
2336
mas podem provocar os tipos que estão a jogar snooker
08:14
and that can be an important thing for team bonding,
201
494040
3176
e isso pode ser importante para a união da equipa, o que é ótimo.
08:17
which is kind of neat.
202
497240
1296
08:18
People who get really good at operating these systems
203
498560
2496
As pessoas que são muito boas a manobrar estes sistemas
08:21
will even do things like make up new games,
204
501080
2056
até fazem coisas como inventar novos jogos,
08:23
like robot soccer in the middle of the night,
205
503160
2136
como futebol de robôs a meio da noite,
08:25
pushing the trash cans around.
206
505320
1456
a empurrar caixotes do lixo.
08:26
But not everyone's good.
207
506800
1576
Mas nem todos são bons.
08:28
A lot of people have trouble operating these systems.
208
508400
2496
Muita gente tem dificuldades em manobrar estes sistemas.
08:30
This is actually a guy who logged into the robot
209
510920
2256
Este é um tipo que se ligou ao robô
08:33
and his eyeball was turned 90 degrees to the left.
210
513200
2376
e os olhos ficaram virados 90 graus para a esquerda.
08:35
He didn't know that,
211
515600
1256
Não se apercebeu isso e acabou por atacar o escritório,
08:36
so he ended up just bashing around the office,
212
516880
2176
correndo entre as secretárias das pessoas, a ficar muito embaraçado.
08:39
running into people's desks, getting super embarrassed,
213
519080
2616
08:41
laughing about it -- his volume was way too high.
214
521720
2336
a rirem-se — tinha o volume muito alto.
08:44
And this guy here in the image is telling me,
215
524080
2136
Este tipo aqui na imagem está a dizer-me:
08:46
"We need a robot mute button."
216
526240
2096
“Precisamos de um botão para cortar o som.”
08:48
And by that what he really meant was we don't want it to be so disruptive.
217
528360
3496
Ele queria dizer com isso que não queremos que fosse perturbador.
08:51
So as a robotics company,
218
531880
1616
Enquanto empresa de robótica,
08:53
we added some obstacle avoidance to the system.
219
533520
2456
acrescentámos um sensor para evitar obstáculos.
Agora tem um detetor a laser que vê os obstáculos,
08:56
It got a little laser range finder that could see the obstacles,
220
536000
3056
08:59
and if I as a robot operator try to say, run into a chair,
221
539080
3136
e se eu, enquanto operador robótico tentar dizer, atropela uma cadeira,
09:02
it wouldn't let me, it would just plan a path around,
222
542240
2496
ele não me obedece, dá a volta.
09:04
which seems like a good idea.
223
544760
1856
o que parece ser uma boa ideia.
09:06
People did hit fewer obstacles using that system, obviously,
224
546640
3176
As pessoas atropelam poucos obstáculos usando este sistema,
09:09
but actually, for some of the people,
225
549840
2096
mas, para algumas pessoas,
09:11
it took them a lot longer to get through our obstacle course,
226
551960
2856
perdem muito mais tempo a rodear esses obstáculos
09:14
and we wanted to know why.
227
554840
1560
e queríamos saber porquê.
09:17
It turns out that there's this important human dimension --
228
557080
3056
Acontece que há uma dimensão humana importante,
uma dimensão de personalidade chamada locus de controlo,
09:20
a personality dimension called locus of control,
229
560160
2296
09:22
and people who have a strong internal locus of control,
230
562480
3136
e as pessoas que têm um forte locus de controlo interno,
09:25
they need to be the masters of their own destiny --
231
565640
3056
precisam de ser donos do seu próprio destino
09:28
really don't like giving up control to an autonomous system --
232
568720
3096
— não gostam de prescindir do controlo para um sistema autónomo —
09:31
so much so that they will fight the autonomy;
233
571840
2136
de tal modo que combaterão a autonomia;
“Se eu quiser atropelar aquela cadeira, vou atropelar a cadeira.”
09:34
"If I want to hit that chair, I'm going to hit that chair."
234
574000
3096
09:37
And so they would actually suffer from having that autonomous assistance,
235
577120
3616
Assim, não gostarão de ter assistência autónoma,
09:40
which is an important thing for us to know
236
580760
2576
o que é importante para nós sabermos
09:43
as we're building increasingly autonomous, say, cars, right?
237
583360
3296
quando estamos a criar coisas cada vez mais autónomas, como carros.
09:46
How are different people going to grapple with that loss of control?
238
586680
3360
Como é que diferentes pessoas vão reagir perante a perda de controlo?
09:50
It's going to be different depending on human dimensions.
239
590880
2696
Vai ser diferente consoante as dimensões humanas.
09:53
We can't treat humans as if we're just one monolithic thing.
240
593600
3496
Não podemos tratar os seres humanos como uma coisa monolítica.
09:57
We vary by personality, by culture,
241
597120
2416
Nós variamos de personalidade, de cultura,
09:59
we even vary by emotional state moment to moment,
242
599560
2456
até variamos em estados emocionais, a cada momento,
10:02
and being able to design these systems,
243
602040
1976
e para concebermos esses sistemas,
esses sistemas de interação entre seres humanos e robôs,
10:04
these human-robot interaction systems,
244
604040
2296
10:06
we need to take into account the human dimensions,
245
606360
2736
precisamos de ter em conta as dimensões humanas.
10:09
not just the technological ones.
246
609120
1720
não apenas as dimensões tecnológicas.
10:11
Along with a sense of control also comes a sense of responsibility.
247
611640
4296
Juntamente com o sentimento de controlo, há o sentimento de responsabilidade.
10:15
And if you were a robot operator using one of these systems,
248
615960
2856
E se formos um operador robô a usar um desses sistemas,
10:18
this is what the interface would look like.
249
618840
2056
é este o aspeto da interface.
10:20
It looks a little bit like a video game,
250
620920
1936
Parece-se um pouco com um videojogo
10:22
which can be good because that's very familiar to people,
251
622880
2976
o que pode ser bom porque é muito familiar para as pessoas,
10:25
but it can also be bad
252
625880
1216
mas também pode ser mau
10:27
because it makes people feel like it's a video game.
253
627120
2456
porque faz com que as pessoas achem que é um videojogo.
10:29
We had a bunch of kids over at Stanford play with the system
254
629600
2856
Temos uma série de miúdos em Stanford a brincar com o sistema
10:32
and drive the robot around our office in Menlo Park,
255
632480
2456
e a dirigir o robô no nosso escritório,
10:34
and the kids started saying things like,
256
634960
1936
e os miúdos começaram a dizer coisas como:
10:36
"10 points if you hit that guy over there. 20 points for that one."
257
636920
3176
“10 pontos se atingirem aquele tipo ali. 20 pontos se for aquele ali.”
10:40
And they would chase them down the hallway.
258
640120
2016
E andavam atrás deles pelo corredor.
10:42
(Laughter)
259
642160
1016
(Risos)
10:43
I told them, "Um, those are real people.
260
643200
1936
Eu disse-lhes: “Mas são pessoas reais.
10:45
They're actually going to bleed and feel pain if you hit them."
261
645160
3296
“Vão sangrar e sofrer se vocês as atingirem.”
10:48
And they'd be like, "OK, got it."
262
648480
1616
E eles: “OK, já percebemos.”
10:50
But five minutes later, they would be like,
263
650120
2056
Mas, cinco minutos depois, continuavam:
10:52
"20 points for that guy over there, he just looks like he needs to get hit."
264
652200
3616
“20 pontos para aquele tipo ali, parece que precisa de ser atingido.”
10:55
It's a little bit like "Ender's Game," right?
265
655840
2136
É um pouco como “O Jogo Final”.
Há um mundo real do outro lado.
10:58
There is a real world on that other side
266
658000
1936
10:59
and I think it's our responsibility as people designing these interfaces
267
659960
3416
Penso que é da nossa responsabilidade de pessoas a conceber estas interfaces
11:03
to help people remember
268
663400
1256
esclarecer as pessoas
11:04
that there's real consequences to their actions
269
664680
2256
de que há consequências reais para as suas ações
11:06
and to feel a sense of responsibility
270
666960
2296
e que devem ter um sentimento de responsabilidade
11:09
when they're operating these increasingly autonomous things.
271
669280
3280
quando estão a manobrar estas coisas cada vez mais autónomas.
11:13
These are kind of a great example
272
673840
2296
Estes são um ótimo exemplo
11:16
of experimenting with one possible robotic future,
273
676160
3256
de experiências com um possível futuro robótico,
11:19
and I think it's pretty cool that we can extend ourselves
274
679440
3856
e penso que é muito fixe podemos prolongar-nos
e aprender as formas como nos prolongarmos nestas máquinas
11:23
and learn about the ways that we extend ourselves
275
683320
2336
11:25
into these machines
276
685680
1216
11:26
while at the same time being able to express our humanity
277
686920
2696
enquanto, simultaneamente, conseguirmos exprimir
a nossa humanidade e a nossa personalidade.
11:29
and our personality.
278
689640
1216
11:30
We also build empathy for others
279
690880
1576
Também criamos empatia com outros
11:32
in terms of being shorter, taller, faster, slower,
280
692480
3216
em termos de serem mais baixos, mais altos, mais rápidos, mais lentos,
11:35
and maybe even armless,
281
695720
1416
e talvez mesmo sem braços,
11:37
which is kind of neat.
282
697160
1336
o que é uma coisa boa.
11:38
We also build empathy for the robots themselves.
283
698520
2536
Também criamos empatia para os próprios robôs.
Este é um dos meus robôs preferidos.
11:41
This is one of my favorite robots.
284
701080
1656
11:42
It's called the Tweenbot.
285
702760
1456
Chama-se Tweenbot.
11:44
And this guy has a little flag that says,
286
704240
1976
Este tipo tem uma bandeirinha que diz:
11:46
"I'm trying to get to this intersection in Manhattan,"
287
706240
2576
“Estou a tentar chegar a este cruzamento em Manhattan”,
11:48
and it's cute and rolls forward, that's it.
288
708840
2776
e é giro e avança em frente.
11:51
It doesn't know how to build a map, it doesn't know how to see the world,
289
711640
3456
Não sabe criar um mapa, não sabe como ver o mundo,
só sabe pedir ajuda.
11:55
it just asks for help.
290
715120
1256
11:56
The nice thing about people
291
716400
1336
O que é simpático nas pessoas
11:57
is that it can actually depend upon the kindness of strangers.
292
717760
3096
é que podem depender da amabilidade de estranhos.
12:00
It did make it across the park to the other side of Manhattan --
293
720880
3896
Eu consegui atravessar o parque até ao outro lado de Manhattan
12:04
which is pretty great --
294
724800
1256
— que é muito distante —
12:06
just because people would pick it up and point it in the right direction.
295
726080
3456
só porque as pessoas reparavam nele e apontavam na direção certa.
12:09
(Laughter)
296
729560
936
(Risos)
12:10
And that's great, right?
297
730520
1256
É fantástico, não é?
12:11
We're trying to build this human-robot world
298
731800
2696
Estamos a tentar criar um mundo humano-robô
12:14
in which we can coexist and collaborate with one another,
299
734520
3416
em que podemos coexistir e colaborar uns com os outros,
12:17
and we don't need to be fully autonomous and just do things on our own.
300
737960
3376
e não necessitamos de ser 100% autónomos e fazer as coisas sozinhos.
12:21
We actually do things together.
301
741360
1496
Na verdade, fazemos coisas juntos.
12:22
And to make that happen,
302
742880
1256
E para isso acontecer,
12:24
we actually need help from people like the artists and the designers,
303
744160
3256
precisamos de ajuda de pessoas como os artistas e os designers,
12:27
the policy makers, the legal scholars,
304
747440
1856
os políticos, os especialistas em leis,
12:29
psychologists, sociologists, anthropologists --
305
749320
2216
os psicólogos, os sociólogos, os antropólogos
12:31
we need more perspectives in the room
306
751560
1816
— precisamos de mais perspetivas
12:33
if we're going to do the thing that Stu Card says we should do,
307
753400
2976
se queremos fazer as coisas que Stu Card diz que devemos fazer,
12:36
which is invent the future that we actually want to live in.
308
756400
3936
ou seja, inventar o futuro em que queremos viver.
12:40
And I think we can continue to experiment
309
760360
2656
Penso que podemos continuar a experimentar
com estes diferentes futuros robóticos, em conjunto,
12:43
with these different robotic futures together,
310
763040
2176
12:45
and in doing so, we will end up learning a lot more about ourselves.
311
765240
4680
e, ao fazer isso, acabaremos por aprender mais sobre nós mesmos.
12:50
Thank you.
312
770720
1216
Obrigada.
12:51
(Applause)
313
771960
2440
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7