The Rise of Personal Robots | Cynthia Breazeal | TED Talks

159,306 views ・ 2011-02-08

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Cátia Costa Revisora: Rafael Eufrasio
00:15
Ever since I was a little girl
0
15260
3000
Desde pequena
00:18
seeing "Star Wars" for the first time,
1
18260
2000
e desde que vi a "Guerra das Estrelas" pela primeira vez,
00:20
I've been fascinated by this idea
2
20260
2000
que fiquei fascinada com a ideia de robôs pessoais.
00:22
of personal robots.
3
22260
2000
00:24
And as a little girl,
4
24260
2000
E enquanto criança
00:26
I loved the idea of a robot that interacted with us
5
26260
2000
adorava a ideia de um robô que interagisse connosco
00:28
much more like a helpful, trusted sidekick --
6
28260
3000
como um parceiro útil e de confiança,
00:31
something that would delight us, enrich our lives
7
31260
2000
uma coisa que nos agradasse e que enriquecesse a nossa vida
00:33
and help us save a galaxy or two.
8
33260
3000
e que nos ajudasse a salvar uma ou duas galáxias.
00:37
I knew robots like that didn't really exist,
9
37260
3000
Eu sabia que esses robôs não existiam
00:40
but I knew I wanted to build them.
10
40260
2000
mas sabia que queria construí-los.
00:42
So 20 years pass --
11
42260
2000
Passados 20 anos,
00:44
I am now a graduate student at MIT
12
44260
2000
sou estudante de pós-graduação no MIT
00:46
studying artificial intelligence,
13
46260
2000
a estudar inteligência artificial.
00:48
the year is 1997,
14
48260
2000
O ano é o de 1997,
00:50
and NASA has just landed the first robot on Mars.
15
50260
3000
e a NASA acabava de colocar o primeiro robô em Marte.
00:53
But robots are still not in our home, ironically.
16
53260
3000
Mas os robôs ainda não estavam nas nossas casas, ironicamente.
00:56
And I remember thinking about
17
56260
2000
E recordo-me de pensar em todas as razões para tal acontecer.
00:58
all the reasons why that was the case.
18
58260
2000
01:00
But one really struck me.
19
60260
2000
Mas houve uma que me chamou a atenção.
01:02
Robotics had really been about interacting with things,
20
62260
3000
A robótica relacionava-se com a interacção com as coisas
01:05
not with people --
21
65260
2000
mas não com as pessoas.
01:07
certainly not in a social way that would be natural for us
22
67260
2000
Certamente não da forma social que para nós seria natural
01:09
and would really help people accept robots
23
69260
2000
e que ajudaria as pessoas a aceitar os robôs
01:11
into our daily lives.
24
71260
2000
na sua vida quotidiana.
01:13
For me, that was the white space; that's what robots could not do yet.
25
73260
3000
Para mim, era esse o espaço em branco, que os robôs ainda não sabiam fazer.
01:16
And so that year, I started to build this robot, Kismet,
26
76260
3000
Nesse mesmo ano, comecei a construir este robô, o Kismet,
01:19
the world's first social robot.
27
79260
3000
o primeiro robô social do mundo
01:22
Three years later --
28
82260
2000
Ao fim de três anos, de muita programação,
01:24
a lot of programming,
29
84260
2000
01:26
working with other graduate students in the lab --
30
86260
2000
a trabalhar com outros estudantes no laboratório,
01:28
Kismet was ready to start interacting with people.
31
88260
2000
o Kismet podia começar a interagir com pessoas.
01:30
(Video) Scientist: I want to show you something.
32
90260
2000
(Vídeo) Cientista: Eu quero mostrar-te uma coisa.
01:32
Kismet: (Nonsense)
33
92260
2000
01:34
Scientist: This is a watch that my girlfriend gave me.
34
94260
3000
Isto é um relógio que a minha namorada me deu.
01:37
Kismet: (Nonsense)
35
97260
2000
01:39
Scientist: Yeah, look, it's got a little blue light in it too.
36
99260
2000
Sim, olha, também tem uma luzinha azul lá dentro.
01:41
I almost lost it this week.
37
101260
3000
Esta semana quase que o perdi.
01:44
Cynthia Breazeal: So Kismet interacted with people
38
104260
3000
Cynthia Breazel: O Kismet interagia com pessoas
01:47
like kind of a non-verbal child or pre-verbal child,
39
107260
3000
como uma criança não-verbal ou pré-verbal,
01:50
which I assume was fitting because it was really the first of its kind.
40
110260
3000
que eu presumo que seja adequado porque era o primeiro da espécie.
01:53
It didn't speak language, but it didn't matter.
41
113260
2000
Não falava uma língua, mas isso não importava.
01:55
This little robot was somehow able
42
115260
2000
Este pequeno robô era capaz de atingir
01:57
to tap into something deeply social within us --
43
117260
3000
uma coisa profundamente social dentro de nós.
02:00
and with that, the promise of an entirely new way
44
120260
2000
Era a promessa duma forma totalmente nova
02:02
we could interact with robots.
45
122260
2000
de podermos interagir com robôs.
02:04
So over the past several years
46
124260
2000
Ao longo dos últimos anos
02:06
I've been continuing to explore this interpersonal dimension of robots,
47
126260
2000
continuei a explorar esta dimensão interpessoal dos robôs,
02:08
now at the media lab
48
128260
2000
agora no Media Lab
02:10
with my own team of incredibly talented students.
49
130260
2000
com a minha equipa de estudantes incrivelmente talentosos.
02:12
And one of my favorite robots is Leonardo.
50
132260
3000
Um dos meus robôs preferidos é o Leonardo.
02:15
We developed Leonardo in collaboration with Stan Winston Studio.
51
135260
3000
Criámos o Leonardo em colaboração com o Stan Winston Studio.
02:18
And so I want to show you a special moment for me of Leo.
52
138260
3000
Quero mostrar-vos um momento do Leo, especial para mim .
02:21
This is Matt Berlin interacting with Leo,
53
141260
2000
Este é o Matt Berlin a interagir com o Leo,
02:23
introducing Leo to a new object.
54
143260
2000
a apresentar ao Leo um novo objecto.
02:25
And because it's new, Leo doesn't really know what to make of it.
55
145260
3000
Como é novo, o Leo não sabe o que fazer com ele.
02:28
But sort of like us, he can actually learn about it
56
148260
2000
Mas mais ou menos como nós, ele pode aprender
02:30
from watching Matt's reaction.
57
150260
3000
através da reacção do Matt.
02:33
(Video) Matt Berlin: Hello, Leo.
58
153260
2000
(Vídeo) Matt Berlin: Olá, Leo.
02:38
Leo, this is Cookie Monster.
59
158260
3000
Leo, este é o Monstro das Bolachas.
02:44
Can you find Cookie Monster?
60
164260
3000
Consegues encontrar o Monstro das Bolachas?
02:52
Leo, Cookie Monster is very bad.
61
172260
3000
Leo, o Monstro das Bolachas é muito mau.
02:56
He's very bad, Leo.
62
176260
2000
Ele é muito mau, Leo.
03:00
Cookie Monster is very, very bad.
63
180260
3000
O Monstro das Bolachas é muito, muito mau.
03:07
He's a scary monster.
64
187260
2000
É um monstro assustador.
03:09
He wants to get your cookies.
65
189260
2000
Ele quer roubar as tuas bolachas.
03:12
(Laughter)
66
192260
2000
(Risos)
03:14
CB: All right, so Leo and Cookie
67
194260
3000
CB: O Leo e o Monstro das Bolachas
03:17
might have gotten off to a little bit of a rough start,
68
197260
2000
podem ter tido um início um pouco difícil,
03:19
but they get along great now.
69
199260
3000
mas agora dão-se bem.
03:22
So what I've learned
70
202260
2000
O que eu aprendi ao construir estes sistemas
03:24
through building these systems
71
204260
2000
03:26
is that robots are actually
72
206260
2000
foi que os robôs são uma tecnologia social verdadeiramente intrigante.
03:28
a really intriguing social technology,
73
208260
2000
03:30
where it's actually their ability
74
210260
2000
Onde está a capacidade
03:32
to push our social buttons
75
212260
2000
de carregar nos nossos botões sociais
03:34
and to interact with us like a partner
76
214260
2000
e de interagir connosco como um colega
03:36
that is a core part of their functionality.
77
216260
3000
essa é a parte central da sua funcionalidade.
03:39
And with that shift in thinking, we can now start to imagine
78
219260
2000
Com essa mudança de pensamento, é possível agora imaginar
03:41
new questions, new possibilities for robots
79
221260
3000
novas questões, novas possibilidades para os robôs.
03:44
that we might not have thought about otherwise.
80
224260
3000
que, de outro modo, não teríamos pensado.
03:47
But what do I mean when I say "push our social buttons?"
81
227260
2000
O que é que quero dizer com "carregar nos botões sociais"?
03:49
Well, one of the things that we've learned
82
229260
2000
Aprendemos que, se concebermos estes robôs
03:51
is that, if we design these robots to communicate with us
83
231260
2000
para comunicar connosco
03:53
using the same body language,
84
233260
2000
usando a mesma linguagem corporal,
03:55
the same sort of non-verbal cues that people use --
85
235260
2000
os mesmos sinais não-verbais que as pessoas usam,
03:57
like Nexi, our humanoid robot, is doing here --
86
237260
3000
como o Nexi, este robô humanóide está a fazer aqui,
04:00
what we find is that people respond to robots
87
240260
2000
descobrimos que as pessoas respondem aos robôs
04:02
a lot like they respond to people.
88
242260
2000
de forma semelhante à que respondem a pessoas.
04:04
People use these cues to determine things like how persuasive someone is,
89
244260
3000
As pessoas utilizam estes sinais para saber quão persuasivo alguém é,
04:07
how likable, how engaging,
90
247260
2000
quão simpático, quão cativante,
04:09
how trustworthy.
91
249260
2000
quão digno de confiança.
04:11
It turns out it's the same for robots.
92
251260
2000
Acontece que é o mesmo para os robôs.
04:13
It's turning out now
93
253260
2000
Estamos a descobrir agora
04:15
that robots are actually becoming a really interesting new scientific tool
94
255260
3000
que os robôs estão a tornar-se uma ferramenta científica interessante
04:18
to understand human behavior.
95
258260
2000
para compreender o comportamento humano.
04:20
To answer questions like, how is it that, from a brief encounter,
96
260260
3000
Para responder a perguntas, tipo: Como é que, num breve encontro,
04:23
we're able to make an estimate of how trustworthy another person is?
97
263260
3000
conseguimos calcular quão digna de confiança é uma pessoa?
04:26
Mimicry's believed to play a role, but how?
98
266260
3000
Acreditamos que a imitação exerce um papel, mas como?
04:29
Is it the mimicking of particular gestures that matters?
99
269260
3000
A imitação de determinados gestos é importante?
04:32
It turns out it's really hard
100
272260
2000
É muito difícil aprender ou compreender isto observando as pessoas
04:34
to learn this or understand this from watching people
101
274260
2000
04:36
because when we interact we do all of these cues automatically.
102
276260
3000
pois quando interagimos, fazemos todos estes sinais automaticamente.
04:39
We can't carefully control them because they're subconscious for us.
103
279260
2000
Não podemos controlá-los. Fazem parte do nosso subconsciente.
04:41
But with the robot, you can.
104
281260
2000
Mas com o robô é possível.
04:43
And so in this video here --
105
283260
2000
Este vídeo foi feito no laboratório de David Steno na Northeasterm University.
04:45
this is a video taken from David DeSteno's lab at Northeastern University.
106
285260
3000
04:48
He's a psychologist we've been collaborating with.
107
288260
2000
É um psicólogo com quem temos estado a colaborar.
04:50
There's actually a scientist carefully controlling Nexi's cues
108
290260
3000
No vídeo vemos um cientista a controlar atentamente os sinais do Nexi
04:53
to be able to study this question.
109
293260
3000
para conseguir estudar esta questão.
04:56
And the bottom line is -- the reason why this works is
110
296260
2000
A conclusão é que isto funciona
04:58
because it turns out people just behave like people
111
298260
2000
porque as pessoas comportam-se apenas como pessoas
05:00
even when interacting with a robot.
112
300260
3000
mesmo quando interagem com um robô.
05:03
So given that key insight,
113
303260
2000
Assim, através desta ideia chave,
05:05
we can now start to imagine
114
305260
2000
é possível começar a imaginar novos tipos de aplicações para robôs.
05:07
new kinds of applications for robots.
115
307260
3000
05:10
For instance, if robots do respond to our non-verbal cues,
116
310260
3000
Por exemplo, se os robôs respondem aos nossos sinais não-verbais,
05:13
maybe they would be a cool, new communication technology.
117
313260
4000
talvez possam ser uma nova e engraçada tecnologia de comunicação.
05:17
So imagine this:
118
317260
2000
Imaginemos isto:
05:19
What about a robot accessory for your cellphone?
119
319260
2000
Que tal um acessório robô para o telemóvel?
05:21
You call your friend, she puts her handset in a robot,
120
321260
2000
Uma pessoa telefona a uma amiga, ela coloca o auricular num robô,
05:23
and, bam! You're a MeBot --
121
323260
2000
e, surpresa! Essa pessoa é o MeBot.
05:25
you can make eye contact, you can talk with your friends,
122
325260
3000
Podemos fazer contacto visual, falar com os amigos,
05:28
you can move around, you can gesture --
123
328260
2000
andar de um lado para o outro, fazer gestos.
05:30
maybe the next best thing to really being there, or is it?
124
330260
3000
Melhor só mesmo estando lá, não é verdade?
05:33
To explore this question,
125
333260
2000
Para explorar esta questão
05:35
my student, Siggy Adalgeirsson, did a study
126
335260
3000
um aluno meu, Siggy Adalgeirsson, realizou um estudo
05:38
where we brought human participants, people, into our lab
127
338260
3000
para o qual trouxemos pessoas para o nosso laboratório
05:41
to do a collaborative task
128
341260
2000
para levar a cabo uma tarefa colaborativa
05:43
with a remote collaborator.
129
343260
2000
com um colaborador à distância.
05:45
The task involved things
130
345260
2000
A tarefa incluía coisas como
05:47
like looking at a set of objects on the table,
131
347260
2000
olhar para uma série de objectos numa mesa,
05:49
discussing them in terms of their importance and relevance to performing a certain task --
132
349260
3000
analisá-los em termos de importância e relevância
para realizar uma determinada tarefa
05:52
this ended up being a survival task --
133
352260
2000
— esta era uma tarefa de sobrevivência -
05:54
and then rating them in terms
134
354260
2000
e posteriormente classificá-los
05:56
of how valuable and important they thought they were.
135
356260
2000
Segundo o valor e a importância que lhe davam.
05:58
The remote collaborator was an experimenter from our group
136
358260
3000
O colaborador à distância era um experimentador do grupo.
06:01
who used one of three different technologies
137
361260
2000
Utilizámos uma de três tecnologias diferentes
06:03
to interact with the participants.
138
363260
2000
para interagir com os participantes.
06:05
The first was just the screen.
139
365260
2000
A primeira foi apenas o ecrã, tal como uma videoconferência actual.
06:07
This is just like video conferencing today.
140
367260
3000
06:10
The next was to add mobility -- so, have the screen on a mobile base.
141
370260
3000
Na seguinte, adicionou-se mobilidade, temos um ecrã numa base móvel.
06:13
This is like, if you're familiar with any of the telepresence robots today --
142
373260
3000
Se conhecem algum dos robôs tele-presenciais actuais,
06:16
this is mirroring that situation.
143
376260
3000
isto espelha essa situação.
06:19
And then the fully expressive MeBot.
144
379260
2000
Depois o Mebot completamente expressivo.
06:21
So after the interaction,
145
381260
2000
Após a interacção,
06:23
we asked people to rate their quality of interaction
146
383260
3000
pedimos às pessoas para classificarem a sua qualidade de interacção
06:26
with the technology, with a remote collaborator
147
386260
2000
com a tecnologia, com o colaborador à distância,
06:28
through this technology, in a number of different ways.
148
388260
3000
através desta tecnologia de várias maneiras distintas.
06:31
We looked at psychological involvement --
149
391260
2000
Observámos o envolvimento psicológico:
06:33
how much empathy did you feel for the other person?
150
393260
2000
Qual o grau de empatia que sentiu pela outra pessoa?
06:35
We looked at overall engagement.
151
395260
2000
Observámos o envolvimento em geral.
06:37
We looked at their desire to cooperate.
152
397260
2000
Observámos a vontade de colaborar.
06:39
And this is what we see when they use just the screen.
153
399260
3000
E isto é o que se vê quando utilizam apenas o ecrã.
06:42
It turns out, when you add mobility -- the ability to roll around the table --
154
402260
3000
Quando se acrescenta mobilidade, a capacidade de girar na mesa,
06:45
you get a little more of a boost.
155
405260
2000
obtém-se um pouco mais de estímulo.
06:47
And you get even more of a boost when you add the full expression.
156
407260
3000
Obtém-se ainda maior estímulo se acrescentarmos a expressividade completa.
06:50
So it seems like this physical, social embodiment
157
410260
2000
Parece que esta personificação física social
06:52
actually really makes a difference.
158
412260
2000
faz, de facto, a diferença.
06:54
Now let's try to put this into a little bit of context.
159
414260
3000
Tentemos contextualizar isto um pouco.
06:57
Today we know that families are living further and further apart,
160
417260
3000
Sabemos que, hoje em dia, as famílias vivem casa vez mais separadas.
07:00
and that definitely takes a toll on family relationships
161
420260
2000
Isso tem um custo nas relações familiares
07:02
and family bonds over distance.
162
422260
2000
e nos laços familiares à distância.
07:04
For me, I have three young boys,
163
424260
2000
No meu caso, eu tenho três rapazes,
07:06
and I want them to have a really good relationship
164
426260
2000
e quero que eles tenham uma boa relação com os avós.
07:08
with their grandparents.
165
428260
2000
07:10
But my parents live thousands of miles away,
166
430260
2000
Mas os meus pais moram a quilómetros de distância,
07:12
so they just don't get to see each other that often.
167
432260
2000
e eles não se vêem muitas vezes.
07:14
We try Skype, we try phone calls,
168
434260
2000
Usamos o Skype, telefonamos,
07:16
but my boys are little -- they don't really want to talk;
169
436260
2000
mas os meus filhos não querem falar, só querem brincar.
07:18
they want to play.
170
438260
2000
07:20
So I love the idea of thinking about robots
171
440260
2000
Portanto adorei a ideia de robôs
07:22
as a new kind of distance-play technology.
172
442260
3000
como um novo tipo de tecnologia de diversão à distância.
07:25
I imagine a time not too far from now --
173
445260
3000
Eu imagino, numa época não muito distante,
07:28
my mom can go to her computer,
174
448260
2000
a minha mãe ir ao computador,
07:30
open up a browser and jack into a little robot.
175
450260
2000
abrir um browser e ligar-se a um pequeno robô.
07:32
And as grandma-bot,
176
452260
3000
E como uma avó-bô,
07:35
she can now play, really play,
177
455260
2000
ela pode brincar de verdade,
07:37
with my sons, with her grandsons,
178
457260
2000
com os meus filhos, com os netos,
07:39
in the real world with his real toys.
179
459260
3000
no mundo real com brinquedos reais.
07:42
I could imagine grandmothers being able to do social-plays
180
462260
2000
Consigo imaginar as avós a divertir-se
07:44
with their granddaughters, with their friends,
181
464260
2000
com as netas, com as amigas,
07:46
and to be able to share all kinds of other activities around the house,
182
466260
2000
e a partilhar uma série de outras actividades pela casa,
07:48
like sharing a bedtime story.
183
468260
2000
como partilhar uma história para adormecer.
07:50
And through this technology,
184
470260
2000
Através desta tecnologia,
07:52
being able to be an active participant
185
472260
2000
têm a capacidade de desempenhar um papel activo na vida dos netos
07:54
in their grandchildren's lives
186
474260
2000
07:56
in a way that's not possible today.
187
476260
2000
duma forma que hoje não é possível.
07:58
Let's think about some other domains,
188
478260
2000
Consideremos outras áreas, como a saúde.
08:00
like maybe health.
189
480260
2000
08:02
So in the United States today,
190
482260
2000
Nos Estados Unidos actualmente,
08:04
over 65 percent of people are either overweight or obese,
191
484260
3000
mais de 65% das pessoas têm excesso de peso ou são obesas.
08:07
and now it's a big problem with our children as well.
192
487260
2000
Hoje é um problema que também afecta as nossas crianças.
08:09
And we know that as you get older in life,
193
489260
2000
Sabe-se que, à medida que envelhece,
08:11
if you're obese when you're younger, that can lead to chronic diseases
194
491260
3000
uma pessoa, obesa em jovem, vem a sofrer doenças crónicas mais tarde.
08:14
that not only reduce your quality of life,
195
494260
2000
Isso diminui a qualidade de vida
08:16
but are a tremendous economic burden on our health care system.
196
496260
3000
e é uma enorme carga económica no sistema de saúde.
08:19
But if robots can be engaging,
197
499260
2000
Se os robôs cativarem,
08:21
if we like to cooperate with robots,
198
501260
2000
se gostarmos de colaborar com os robôs,
08:23
if robots are persuasive,
199
503260
2000
se os robôs forem persuasivos,
08:25
maybe a robot can help you
200
505260
2000
talvez um robô possam ajudar-nos
08:27
maintain a diet and exercise program,
201
507260
2000
a manter uma dieta e um programa de exercício físico,
08:29
maybe they can help you manage your weight.
202
509260
3000
talvez eles ajudem a controlar o peso.
08:32
Sort of like a digital Jiminy --
203
512260
2000
Uma espécie de grilo falante digital
08:34
as in the well-known fairy tale --
204
514260
2000
— como o célebre conto de fadas —
08:36
a kind of friendly, supportive presence that's always there
205
516260
2000
uma presença amigável e solidária que está sempre presente,
08:38
to be able to help you make the right decision
206
518260
2000
que ajuda a tomar a decisão certa,
08:40
in the right way at the right time
207
520260
2000
da forma certa, na altura certa,
08:42
to help you form healthy habits.
208
522260
2000
para ajudar a criar hábitos saudáveis.
08:44
So we actually explored this idea in our lab.
209
524260
2000
Explorámos esta ideia no nosso laboratório.
08:46
This is a robot, Autom.
210
526260
2000
Este é um robô, o Autom.
08:48
Cory Kidd developed this robot for his doctoral work.
211
528260
3000
Cory Kidd desenvolveu este robô para o seu doutoramento.
08:51
And it was designed to be a robot diet-and-exercise coach.
212
531260
3000
Concebeu-o para ser um conselheiro na alimentação e no exercício.
08:54
It had a couple of simple non-verbal skills it could do.
213
534260
2000
O robô realizava umas habilidades não-verbais simples.
08:56
It could make eye contact with you.
214
536260
2000
Estabelecia contacto visual connosco.
08:58
It could share information looking down at a screen.
215
538260
2000
Partilhava informação a olhar para um ecrã.
09:00
You'd use a screen interface to enter information,
216
540260
2000
Usámos um interface no ecrã para introduzir informação:
09:02
like how many calories you ate that day,
217
542260
2000
a quantidade de calorias ingeridas nesse dia,
09:04
how much exercise you got.
218
544260
2000
a quantidade de exercício realizado.
09:06
And then it could help track that for you.
219
546260
2000
E assim ele podia acompanhar-nos.
09:08
And the robot spoke with a synthetic voice
220
548260
2000
O robô falava com uma voz sintética
09:10
to engage you in a coaching dialogue
221
550260
2000
para estabelecer um diálogo de orientação
09:12
modeled after trainers
222
552260
2000
modelado a partir de treinadores, pacientes, etc.,
09:14
and patients and so forth.
223
554260
2000
09:16
And it would build a working alliance with you
224
556260
2000
E construía uma aliança de trabalho com a pessoa
09:18
through that dialogue.
225
558260
2000
através desse diálogo.
09:20
It could help you set goals and track your progress,
226
560260
2000
Ajudava a definir objectivos e a acompanhar o progresso,
09:22
and it would help motivate you.
227
562260
2000
e ajudava a motivar.
09:24
So an interesting question is,
228
564260
2000
Uma questão interessante é:
09:26
does the social embodiment really matter? Does it matter that it's a robot?
229
566260
3000
Será que a personificação social é importante?
Importa que seja um robô?
09:29
Is it really just the quality of advice and information that matters?
230
569260
3000
Será que só interessa a qualidade da informação e dos conselhos?
09:32
To explore that question,
231
572260
2000
Para resolver esta questão
09:34
we did a study in the Boston area
232
574260
2000
fizemos um estudo na zona de Boston
09:36
where we put one of three interventions in people's homes
233
576260
3000
em que colocámos uma de três intervenções nas casas das pessoas
09:39
for a period of several weeks.
234
579260
2000
por um período de várias semanas.
09:41
One case was the robot you saw there, Autom.
235
581260
3000
Um dos casos foi o robô que vimos ali, o Autom.
09:44
Another was a computer that ran the same touch-screen interface,
236
584260
3000
Outro foi um computador que executou o mesmo interface de ecrã táctil,
09:47
ran exactly the same dialogues.
237
587260
2000
exactamente com os mesmos diálogos.
09:49
The quality of advice was identical.
238
589260
2000
A qualidade da orientação foi idêntica.
09:51
And the third was just a pen and paper log,
239
591260
2000
O terceiro foi uma caneta e um bloco de notas,
09:53
because that's the standard intervention you typically get
240
593260
2000
porque é a intervenção padrão que utilizamos
09:55
when you start a diet-and-exercise program.
241
595260
3000
quando iniciámos uma dieta e um programa de exercício físico.
09:58
So one of the things we really wanted to look at
242
598260
3000
Uma das coisas que queríamos observar
10:01
was not how much weight people lost,
243
601260
3000
não era a quantidade de peso que as pessoas tinham perdido,
10:04
but really how long they interacted with the robot.
244
604260
3000
mas sim quanto tempo tinham interagido com o robô,
10:07
Because the challenge is not losing weight, it's actually keeping it off.
245
607260
3000
visto que o desafio não era perder peso, mas evitar que se ganhasse.
10:10
And the longer you could interact with one of these interventions,
246
610260
3000
Quanto mais tempo se interagisse com uma destas intervenções,
10:13
well that's indicative, potentially, of longer-term success.
247
613260
3000
mais provável era o êxito a longo prazo.
10:16
So the first thing I want to look at is how long,
248
616260
2000
A primeira coisa que quero observar
10:18
how long did people interact with these systems.
249
618260
2000
é quanto tempo as pessoas interagiram com estes sistemas.
10:20
It turns out that people interacted with the robot
250
620260
2000
Observou-se que as pessoas interagem com o robô
10:22
significantly more,
251
622260
2000
significativamente mais,
10:24
even though the quality of the advice was identical to the computer.
252
624260
3000
apesar de a qualidade da orientação ser idêntica à do computador.
10:28
When it asked people to rate it on terms of the quality of the working alliance,
253
628260
3000
Quando pedimos às pessoas para avaliarem em termos da qualidade da colaboração,
10:31
people rated the robot higher
254
631260
2000
o robô obteve a classificação mais elevada,
10:33
and they trusted the robot more.
255
633260
2000
e confiavam mais no robô.
10:35
(Laughter)
256
635260
2000
(Risos)
10:37
And when you look at emotional engagement,
257
637260
2000
E quando se observa o envolvimento emocional,
10:39
it was completely different.
258
639260
2000
os resultados são completamente diferentes.
10:41
People would name the robots.
259
641260
2000
As pessoas dão um nome ao robô,
10:43
They would dress the robots.
260
643260
2000
vestem o robô.
10:45
(Laughter)
261
645260
2000
(Risos)
10:47
And even when we would come up to pick up the robots at the end of the study,
262
647260
3000
E quando íamos buscar os robôs no fim do estudo,
10:50
they would come out to the car and say good-bye to the robots.
263
650260
2000
as pessoas acompanhavam-nos ao carro e diziam adeus aos robôs.
10:52
They didn't do this with a computer.
264
652260
2000
Não faziam isto com um computador.
10:54
The last thing I want to talk about today
265
654260
2000
A última questão que quero abordar hoje,
10:56
is the future of children's media.
266
656260
2000
é o futuro dos media para as crianças.
10:58
We know that kids spend a lot of time behind screens today,
267
658260
3000
Actualmente, as crianças passam muito tempo em frente a um ecrã,
11:01
whether it's television or computer games or whatnot.
268
661260
3000
seja o da televisão ou dos jogos de computador.
11:04
My sons, they love the screen. They love the screen.
269
664260
3000
Os meus filhos, adoram o ecrã.
11:07
But I want them to play; as a mom, I want them to play,
270
667260
3000
Mas, enquanto mãe, eu quero que eles brinquem
11:10
like, real-world play.
271
670260
2000
jogos do mundo real.
11:12
And so I have a new project in my group I wanted to present to you today
272
672260
3000
Tenho um novo projecto no meu grupo que vos quero apresentar hoje
11:15
called Playtime Computing
273
675260
2000
intitulado "Playtime Computing"
11:17
that's really trying to think about how we can take
274
677260
2000
que explora o porquê de os media digitais serem tão cativantes,
11:19
what's so engaging about digital media
275
679260
2000
11:21
and literally bring it off the screen
276
681260
2000
e levá-los para fora do ecrã,
11:23
into the real world of the child,
277
683260
2000
para o mundo real da criança,
11:25
where it can take on many of the properties of real-world play.
278
685260
3000
onde possa adoptar muitas das propriedades do mundo real da diversão.
11:29
So here's the first exploration of this idea,
279
689260
4000
Eis a primeira exploração desta ideia.
11:33
where characters can be physical or virtual,
280
693260
3000
As personagens podem ser físicas ou virtuais,
11:36
and where the digital content
281
696260
2000
o conteúdo digital sai, literalmente, do ecrã,
11:38
can literally come off the screen
282
698260
2000
11:40
into the world and back.
283
700260
2000
para o mundo real e regressa.
11:42
I like to think of this
284
702260
2000
Gosto de pensar que é o Atari Pong
11:44
as the Atari Pong
285
704260
2000
11:46
of this blended-reality play.
286
706260
2000
desta diversão de realidade híbrida.
11:48
But we can push this idea further.
287
708260
2000
Mas esta ideia pode ser explorada muito mais.
11:50
What if --
288
710260
2000
(Jogo) Nathan: Ele vem aí! Boa!
11:52
(Game) Nathan: Here it comes. Yay!
289
712260
3000
11:55
CB: -- the character itself could come into your world?
290
715260
3000
CB: E se a personagem pudesse entrar no mundo?
11:58
It turns out that kids love it
291
718260
2000
As crianças adoram quando a personagem se torna real
12:00
when the character becomes real and enters into their world.
292
720260
3000
e entra no mundo delas.
12:03
And when it's in their world,
293
723260
2000
Quando isso acontece, podem comunicar e brincar com ela
12:05
they can relate to it and play with it in a way
294
725260
2000
duma forma totalmente diferente da que costumam brincar no ecrã.
12:07
that's fundamentally different from how they play with it on the screen.
295
727260
2000
12:09
Another important idea is this notion
296
729260
2000
Outra ideia importante é a noção de permanência
12:11
of persistence of character across realities.
297
731260
3000
da personagem entre as realidades.
12:14
So changes that children make in the real world
298
734260
2000
Assim, as alterações que as crianças fazem no mundo real
12:16
need to translate to the virtual world.
299
736260
2000
devem ser transportadas para o mundo virtual.
12:18
So here, Nathan has changed the letter A to the number 2.
300
738260
3000
Aqui, o Nathan mudou a letra A para o número 2.
12:21
You can imagine maybe these symbols
301
741260
2000
Imagina-se que estes símbolos
12:23
give the characters special powers when it goes into the virtual world.
302
743260
3000
dão à personagem poderes especiais quando ela entra no mundo virtual.
12:26
So they are now sending the character back into that world.
303
746260
3000
Agora a personagem está a ser reenviada para esse mundo.
12:29
And now it's got number power.
304
749260
3000
E agora tem poder de número.
12:32
And then finally, what I've been trying to do here
305
752260
2000
E, finalmente, tenho estado a tentar criar
12:34
is create a really immersive experience for kids,
306
754260
3000
uma experiência realmente imersiva para as crianças,
12:37
where they really feel like they are part of that story,
307
757260
3000
em que eles possam sentir que fazem parte dessa história,
12:40
a part of that experience.
308
760260
2000
que fazem parte dessa experiência.
12:42
And I really want to spark their imaginations
309
762260
2000
Quero despertar a sua imaginação
12:44
the way mine was sparked as a little girl watching "Star Wars."
310
764260
3000
da mesma forma que "A Guerra das Estrelas" despertou a minha.
12:47
But I want to do more than that.
311
767260
2000
Mas quero fazer mais do que isso.
12:49
I actually want them to create those experiences.
312
769260
3000
Quero que eles criem estas experiências.
12:52
I want them to be able to literally build their imagination
313
772260
2000
Quero que eles construam, literalmente, a sua imaginação
12:54
into these experiences and make them their own.
314
774260
2000
com estas experiências e que as integrem.
12:56
So we've been exploring a lot of ideas
315
776260
2000
Temos explorado uma série de ideias
12:58
in telepresence and mixed reality
316
778260
2000
em telepresença e realidade híbrida
13:00
to literally allow kids to project their ideas into this space
317
780260
3000
para que as crianças possam projectem as suas ideias neste espaço
13:03
where other kids can interact with them
318
783260
2000
onde outras crianças possam interagir com elas
13:05
and build upon them.
319
785260
2000
e construir com base nelas.
13:07
I really want to come up with new ways of children's media
320
787260
3000
Eu quero arranjar novos meios para as crianças
13:10
that foster creativity and learning and innovation.
321
790260
3000
que fomentem a criatividade, a aprendizagem e a inovação.
13:13
I think that's very, very important.
322
793260
3000
Creio que isso seja muito importante.
13:16
So this is a new project.
323
796260
2000
Este é um projecto novo.
13:18
We've invited a lot of kids into this space,
324
798260
2000
Convidámos muitas crianças a entrar neste espaço,
13:20
and they think it's pretty cool.
325
800260
3000
e elas consideram-no "muito fixe".
13:23
But I can tell you, the thing that they love the most
326
803260
2000
Mas posso dizer que o que gostam mais é do robô.
13:25
is the robot.
327
805260
2000
13:27
What they care about is the robot.
328
807260
3000
O que lhes importa é o robô.
13:30
Robots touch something deeply human within us.
329
810260
3000
Os robôs tocam em algo profundamente humano em nós.
13:33
And so whether they're helping us
330
813260
2000
Quer nos ajudem a sermos criativos e inovadores,
13:35
to become creative and innovative,
331
815260
2000
13:37
or whether they're helping us
332
817260
2000
quer nos ajudem a sentirmo-nos mais ligados, apesar da distância,
13:39
to feel more deeply connected despite distance,
333
819260
2000
13:41
or whether they are our trusted sidekick
334
821260
2000
quer sejam o nosso parceiro de confiança,
13:43
who's helping us attain our personal goals
335
823260
2000
que nos ajudem a atingir os nossos objectivos pessoais
13:45
in becoming our highest and best selves,
336
825260
2000
para nos tornarmos no melhor de nós próprios,
13:47
for me, robots are all about people.
337
827260
3000
para mim, falar de robôs é falar de pessoas.
13:50
Thank you.
338
830260
2000
Obrigada.
13:52
(Applause)
339
832260
5000
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7