The Rise of Personal Robots | Cynthia Breazeal | TED Talks

159,450 views ・ 2011-02-08

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Juliette Hettema Nagekeken door: Els De Keyser
00:15
Ever since I was a little girl
0
15260
3000
Al sinds ik een klein meisje was
00:18
seeing "Star Wars" for the first time,
1
18260
2000
en Star Wars voor het eerst zag,
00:20
I've been fascinated by this idea
2
20260
2000
ben ik gefascineerd geraakt door het idee
00:22
of personal robots.
3
22260
2000
van huishoudelijke robots.
00:24
And as a little girl,
4
24260
2000
Als klein meisje
00:26
I loved the idea of a robot that interacted with us
5
26260
2000
hield ik van het idee van een robot die communiceert met ons
00:28
much more like a helpful, trusted sidekick --
6
28260
3000
als een behulpzame en vertrouwde 'sidekick'
00:31
something that would delight us, enrich our lives
7
31260
2000
iets dat ons pleziert en onze leven verrijkt
00:33
and help us save a galaxy or two.
8
33260
3000
en ons helpt een melkweg of twee te redden.
00:37
I knew robots like that didn't really exist,
9
37260
3000
Ik wist dat zulk soort robots niet echt bestaan,
00:40
but I knew I wanted to build them.
10
40260
2000
maar ik wist dat ik ze wilde bouwen.
00:42
So 20 years pass --
11
42260
2000
Dus 20 jaren gaan voorbij --
00:44
I am now a graduate student at MIT
12
44260
2000
Nu ben ik Mastersstudent aan het MIT
00:46
studying artificial intelligence,
13
46260
2000
waar ik kunstmatige intelligentie studeer.
00:48
the year is 1997,
14
48260
2000
Het is 1997,
00:50
and NASA has just landed the first robot on Mars.
15
50260
3000
en NASA heeft zojuist de eerste robot op Mars doen landen.
00:53
But robots are still not in our home, ironically.
16
53260
3000
Maar wij hebben nog geen robots in huis, gek genoeg.
00:56
And I remember thinking about
17
56260
2000
Ik weet nog dat ik dacht
00:58
all the reasons why that was the case.
18
58260
2000
aan alle redenen waarom dat het geval zou kunnen zijn.
01:00
But one really struck me.
19
60260
2000
Maar eentje bleef me het meeste bij.
01:02
Robotics had really been about interacting with things,
20
62260
3000
Robotica ging vooral over het communiceren met dingen,
01:05
not with people --
21
65260
2000
niet met mensen --
01:07
certainly not in a social way that would be natural for us
22
67260
2000
zeker niet op een sociale manier die natuurlijk is voor ons
01:09
and would really help people accept robots
23
69260
2000
en mensen zou helpen met het accepteren van robots
01:11
into our daily lives.
24
71260
2000
in ons dagelijks leven.
01:13
For me, that was the white space; that's what robots could not do yet.
25
73260
3000
Voor mij was dat het ontbrekende deel, wat robots nog niet kunnen doen.
01:16
And so that year, I started to build this robot, Kismet,
26
76260
3000
Dus dat jaar begon ik met het bouwen van een robot, Kismet,
01:19
the world's first social robot.
27
79260
3000
's werelds eerste sociale robot.
01:22
Three years later --
28
82260
2000
Drie jaar later --
01:24
a lot of programming,
29
84260
2000
na veel programmeren,
01:26
working with other graduate students in the lab --
30
86260
2000
werken met andere studenten in het lab --
01:28
Kismet was ready to start interacting with people.
31
88260
2000
was Kismet klaar om met mensen te communiceren.
01:30
(Video) Scientist: I want to show you something.
32
90260
2000
(Video) Wetenschapper: Ik wil je wat laten zien.
01:32
Kismet: (Nonsense)
33
92260
2000
Kismet: (Onzin).
01:34
Scientist: This is a watch that my girlfriend gave me.
34
94260
3000
Wetenschapper: Dit is een horloge dat mijn vriendin me gaf.
01:37
Kismet: (Nonsense)
35
97260
2000
Kismet: (Onzin).
01:39
Scientist: Yeah, look, it's got a little blue light in it too.
36
99260
2000
Wetenschapper: Ja, kijk, er zit ook een klein blauw lichtje in.
01:41
I almost lost it this week.
37
101260
3000
Ik was het bijna kwijtgeraakt deze week.
01:44
Cynthia Breazeal: So Kismet interacted with people
38
104260
3000
Cynthia Breazeal: Dus Kismet communiceert met mensen
01:47
like kind of a non-verbal child or pre-verbal child,
39
107260
3000
zoals een non-verbaal kind of een pre-verbaal kind,
01:50
which I assume was fitting because it was really the first of its kind.
40
110260
3000
wat eigenlijk best goed past aangezien hij de eerste van zijn soort is.
01:53
It didn't speak language, but it didn't matter.
41
113260
2000
Hij sprak geen taal, maar dat maakte niet uit.
01:55
This little robot was somehow able
42
115260
2000
Deze kleine robot kon op een of andere manier
01:57
to tap into something deeply social within us --
43
117260
3000
op een diepere sociale manier met ons omgaan.
02:00
and with that, the promise of an entirely new way
44
120260
2000
En daarmee kwam een belofte van een geheel nieuwe manier
02:02
we could interact with robots.
45
122260
2000
waarop we kunnen omgaan met robots.
02:04
So over the past several years
46
124260
2000
Dus de laatste paar jaren
02:06
I've been continuing to explore this interpersonal dimension of robots,
47
126260
2000
ben ik me verder gaan verdiepen in deze interpersoonlijke dimensie van robots,
02:08
now at the media lab
48
128260
2000
nu in het media lab
02:10
with my own team of incredibly talented students.
49
130260
2000
samen met mijn team van ongelofelijk getalenteerde studenten.
02:12
And one of my favorite robots is Leonardo.
50
132260
3000
Een van mijn favoriete robots is Leonardo.
02:15
We developed Leonardo in collaboration with Stan Winston Studio.
51
135260
3000
We hebben Leonardo ontwikkeld in samenwerking met Stan Winston Studio.
02:18
And so I want to show you a special moment for me of Leo.
52
138260
3000
Ik toon jullie graag één van Leo's momenten die me nauw aan het hart liggen.
02:21
This is Matt Berlin interacting with Leo,
53
141260
2000
Dit is Matt Berlin terwijl hij communiceert met Leo/
02:23
introducing Leo to a new object.
54
143260
2000
Hij stelt hem voor aan een nieuw voorwerp.
02:25
And because it's new, Leo doesn't really know what to make of it.
55
145260
3000
En omdat het nieuw is, weet Leo niet wat hij er van moet vinden.
02:28
But sort of like us, he can actually learn about it
56
148260
2000
Maar zoals wij dat kunnen, kan hij er toch wat van leren,
02:30
from watching Matt's reaction.
57
150260
3000
door de reacties van Matt te observeren.
02:33
(Video) Matt Berlin: Hello, Leo.
58
153260
2000
(Video) Matt Berlin: Hallo, Leo.
02:38
Leo, this is Cookie Monster.
59
158260
3000
Leo, dit is Koekjesmonster.
02:44
Can you find Cookie Monster?
60
164260
3000
Kun je Koekjesmonster vinden?
02:52
Leo, Cookie Monster is very bad.
61
172260
3000
Leo, Koekjesmonster is erg stout.
02:56
He's very bad, Leo.
62
176260
2000
Hij is heel stout, Leo.
03:00
Cookie Monster is very, very bad.
63
180260
3000
Koekjesmonster is heel, heel stout.
03:07
He's a scary monster.
64
187260
2000
Hij is een eng monster.
03:09
He wants to get your cookies.
65
189260
2000
Hij wil je koekjes hebben.
03:12
(Laughter)
66
192260
2000
(Gelach)
03:14
CB: All right, so Leo and Cookie
67
194260
3000
CB: Ok, dus Leo en Koekjesmonster
03:17
might have gotten off to a little bit of a rough start,
68
197260
2000
hebben misschien niet de beste introductie gehad,
03:19
but they get along great now.
69
199260
3000
maar ze kunnen het nu goed met elkaar vinden.
03:22
So what I've learned
70
202260
2000
Dus wat ik geleerd heb
03:24
through building these systems
71
204260
2000
door het bouwen van deze systemen,
03:26
is that robots are actually
72
206260
2000
is dat robots eigenlijk
03:28
a really intriguing social technology,
73
208260
2000
een hele fascinerende sociale technologie zijn.
03:30
where it's actually their ability
74
210260
2000
Vooral hun vermogen om
03:32
to push our social buttons
75
212260
2000
sociaal op ons in te spelen
03:34
and to interact with us like a partner
76
214260
2000
en met ons te communiceren als een gelijke,
03:36
that is a core part of their functionality.
77
216260
3000
dat is de kern van hun functionaliteit.
03:39
And with that shift in thinking, we can now start to imagine
78
219260
2000
Met die verandering van denken kunnen we ons nu
03:41
new questions, new possibilities for robots
79
221260
3000
nieuwe vragen en nieuwe mogelijkheden voor robots voorstellen
03:44
that we might not have thought about otherwise.
80
224260
3000
waar we eerder misschien nooit aan gedacht zouden hebben.
03:47
But what do I mean when I say "push our social buttons?"
81
227260
2000
Maar wat bedoel ik als ik zeg 'sociaal op ons inspelen'?
03:49
Well, one of the things that we've learned
82
229260
2000
Eén van de dingen die we geleerd hebben,
03:51
is that, if we design these robots to communicate with us
83
231260
2000
is dit: als we robots ontwerpen om met ons te communiceren
03:53
using the same body language,
84
233260
2000
met dezelfde lichaamstaal,
03:55
the same sort of non-verbal cues that people use --
85
235260
2000
en dezelfde soort non-verbale reacties die mensen gebruiken --
03:57
like Nexi, our humanoid robot, is doing here --
86
237260
3000
zoals Nexi, onze humanistiche robot hier doet --
04:00
what we find is that people respond to robots
87
240260
2000
dan zien we mensen vaak reageren op robots
04:02
a lot like they respond to people.
88
242260
2000
zoals ze op mensen reageren.
04:04
People use these cues to determine things like how persuasive someone is,
89
244260
3000
Mensen gebruiken deze indicaties om te bepalen hoe overtuigend iemand is,
04:07
how likable, how engaging,
90
247260
2000
hoe leuk, hoe sympathiek,
04:09
how trustworthy.
91
249260
2000
en hoe betrouwbaar.
04:11
It turns out it's the same for robots.
92
251260
2000
Het blijkt dat hetzelfde geldt voor robots.
04:13
It's turning out now
93
253260
2000
Het blijkt nu dat
04:15
that robots are actually becoming a really interesting new scientific tool
94
255260
3000
robots een heel interessant wetenschappelijk werktuig zijn
04:18
to understand human behavior.
95
258260
2000
om menselijk gedrag te begrijpen.
04:20
To answer questions like, how is it that, from a brief encounter,
96
260260
3000
Om vragen te beantwoorden zoals: hoe komt het dat we, door een korte ontmoeting,
04:23
we're able to make an estimate of how trustworthy another person is?
97
263260
3000
kunnen inschatten hoe betrouwbaar de andere persoon is?
04:26
Mimicry's believed to play a role, but how?
98
266260
3000
Imitatie schijnt een rol te spelen, maar hoe?
04:29
Is it the mimicking of particular gestures that matters?
99
269260
3000
Gaat het om het nadoen van bepaalde gebaren?
04:32
It turns out it's really hard
100
272260
2000
Het blijkt heel moeilijk te zijn
04:34
to learn this or understand this from watching people
101
274260
2000
om dit te leren of te begrijpen door naar mensen te kijken
04:36
because when we interact we do all of these cues automatically.
102
276260
3000
omdat we dit automatisch doen als we communiceren.
04:39
We can't carefully control them because they're subconscious for us.
103
279260
2000
We controleren dit niet voorzichtig, omdat het onbewust is voor ons.
04:41
But with the robot, you can.
104
281260
2000
Maar met een robot kan dit wel.
04:43
And so in this video here --
105
283260
2000
Zoals in deze video hier--
04:45
this is a video taken from David DeSteno's lab at Northeastern University.
106
285260
3000
dit is een video uit David DeSteno's lab in Northeastern University.
04:48
He's a psychologist we've been collaborating with.
107
288260
2000
Hij is een psycholoog met wie we samenwerken.
04:50
There's actually a scientist carefully controlling Nexi's cues
108
290260
3000
Er is eigenlijk een wetenschapper die zorgvuldig de indicaties van Nexi beheert
04:53
to be able to study this question.
109
293260
3000
om deze vraag te kunnen bestuderen.
04:56
And the bottom line is -- the reason why this works is
110
296260
2000
Het komt erop neer -- dit werkt
04:58
because it turns out people just behave like people
111
298260
2000
omdat mensen zich gewoon als mensen gedragen
05:00
even when interacting with a robot.
112
300260
3000
zelfs wanneer ze met een robot communiceren.
05:03
So given that key insight,
113
303260
2000
Dus met die gedachte
05:05
we can now start to imagine
114
305260
2000
kunnen we ons indenken
05:07
new kinds of applications for robots.
115
307260
3000
waarvoor we robots kunnen gebruiken.
05:10
For instance, if robots do respond to our non-verbal cues,
116
310260
3000
Bijvoorbeeld, als robots reageren op non-verbale indicaties,
05:13
maybe they would be a cool, new communication technology.
117
313260
4000
dan worden ze misschien een nieuwe coole communicatietechnologie.
05:17
So imagine this:
118
317260
2000
Stel je dit voor:
05:19
What about a robot accessory for your cellphone?
119
319260
2000
Wat dacht je van een robotaccessoire voor je mobiele telefoon?
05:21
You call your friend, she puts her handset in a robot,
120
321260
2000
Je belt een vriendin, ze zet haar mobiel in een robot,
05:23
and, bam! You're a MeBot --
121
323260
2000
en, bam! je bent een IkBot --
05:25
you can make eye contact, you can talk with your friends,
122
325260
3000
je kunt oogcontact maken, je kunt met je vrienden praten,
05:28
you can move around, you can gesture --
123
328260
2000
je kan rondbewegen, gebaren maken --
05:30
maybe the next best thing to really being there, or is it?
124
330260
3000
misschien het beste na echt ergens zijn, of niet?
05:33
To explore this question,
125
333260
2000
Om deze vraag te beantwoorden
05:35
my student, Siggy Adalgeirsson, did a study
126
335260
3000
heeft mijn student, Siggy Adalgeirsson, een studie gedaan
05:38
where we brought human participants, people, into our lab
127
338260
3000
waarbij we menselijke deelnemers in ons lab brachten
05:41
to do a collaborative task
128
341260
2000
om een collaboratieve taak te doen
05:43
with a remote collaborator.
129
343260
2000
met een medewerker op afstand.
05:45
The task involved things
130
345260
2000
De taak bevatte dingen zoals
05:47
like looking at a set of objects on the table,
131
347260
2000
naar een set objecten kijken op tafel,
05:49
discussing them in terms of their importance and relevance to performing a certain task --
132
349260
3000
en hun belang bespreken, en hun vermogen om een bepaalde taak te kunnen uitvoeren --
05:52
this ended up being a survival task --
133
352260
2000
dit werd uiteindelijk een survivaltaak --
05:54
and then rating them in terms
134
354260
2000
en ze dan beoordelen op
05:56
of how valuable and important they thought they were.
135
356260
2000
hoe waardevol en belangrijk ze dachten dat ze waren.
05:58
The remote collaborator was an experimenter from our group
136
358260
3000
De medewerker op afstand was een veldonderzoeker van onze groep.
06:01
who used one of three different technologies
137
361260
2000
Ze gebruikten één van de volgende drie verschillende technologieën
06:03
to interact with the participants.
138
363260
2000
om met de deelnemers te communiceren.
06:05
The first was just the screen.
139
365260
2000
De eerste was alleen het scherm.
06:07
This is just like video conferencing today.
140
367260
3000
Dus dat is net zoals videoconferenties vandaag de dag.
06:10
The next was to add mobility -- so, have the screen on a mobile base.
141
370260
3000
De tweede was mobiliteit, dus het scherm had een verplaatsbare basis.
06:13
This is like, if you're familiar with any of the telepresence robots today --
142
373260
3000
Dit is zoals -- als je bekend bent met telepresence robots --
06:16
this is mirroring that situation.
143
376260
3000
dit is een soortgelijke situatie.
06:19
And then the fully expressive MeBot.
144
379260
2000
En toen de volledig expressieve IkBot.
06:21
So after the interaction,
145
381260
2000
Na de interactie
06:23
we asked people to rate their quality of interaction
146
383260
3000
vroegen we de deelnemers om de kwaliteit van hun gesprekken te beoordelen
06:26
with the technology, with a remote collaborator
147
386260
2000
met de technologie, met een medewerker op afstand,
06:28
through this technology, in a number of different ways.
148
388260
3000
doormiddel van deze technologie, op verschillende manieren.
06:31
We looked at psychological involvement --
149
391260
2000
We keken naar psychologische betrokkenheid --
06:33
how much empathy did you feel for the other person?
150
393260
2000
hoeveel medeleven voelde je voor de andere persoon?
06:35
We looked at overall engagement.
151
395260
2000
We keken naar de gehele betrokkenheid.
06:37
We looked at their desire to cooperate.
152
397260
2000
We keken naar hun wil om mee te werken.
06:39
And this is what we see when they use just the screen.
153
399260
3000
En dit is wat we zien als je alleen een scherm gebruikt.
06:42
It turns out, when you add mobility -- the ability to roll around the table --
154
402260
3000
Het blijkt dat als je mobiliteit toevoegt -- rond de tafel kunnen rijden --
06:45
you get a little more of a boost.
155
405260
2000
je iets meer stimulatie krijgt.
06:47
And you get even more of a boost when you add the full expression.
156
407260
3000
En dat krijg je nog meer als je volledige uitdrukkingen toevoegt.
06:50
So it seems like this physical, social embodiment
157
410260
2000
Dus het ziet er naar uit dat een fysieke sociale aanwezigheid
06:52
actually really makes a difference.
158
412260
2000
echt een groot verschil maakt.
06:54
Now let's try to put this into a little bit of context.
159
414260
3000
Laten we dit nu in wat meer context plaatsen.
06:57
Today we know that families are living further and further apart,
160
417260
3000
We weten dat families steeds verder bij elkaar vandaan wonen,
07:00
and that definitely takes a toll on family relationships
161
420260
2000
en dat dit vaak een tol eist voor de onderlinge relaties
07:02
and family bonds over distance.
162
422260
2000
en familiebanden over deze afstand.
07:04
For me, I have three young boys,
163
424260
2000
Ikzelf heb drie jonge zonen,
07:06
and I want them to have a really good relationship
164
426260
2000
en ik wil dat ze een hele goede relatie hebben
07:08
with their grandparents.
165
428260
2000
met hun grootouders.
07:10
But my parents live thousands of miles away,
166
430260
2000
Maar mijn ouders wonen op duizenden kilometer afstand van ons,
07:12
so they just don't get to see each other that often.
167
432260
2000
dus ze zien elkaar gewoon niet zo vaak.
07:14
We try Skype, we try phone calls,
168
434260
2000
We proberen Skype, we proberen telefoongesprekken,
07:16
but my boys are little -- they don't really want to talk;
169
436260
2000
maar de jongens zijn klein -- ze houden niet zo van praten,
07:18
they want to play.
170
438260
2000
ze willen spelen.
07:20
So I love the idea of thinking about robots
171
440260
2000
Ze vinden het idee van robots
07:22
as a new kind of distance-play technology.
172
442260
3000
als een nieuwe speel-op-afstand-technologie geweldig.
07:25
I imagine a time not too far from now --
173
445260
3000
Dus ik stel me voor dat in de nabije toekomst --
07:28
my mom can go to her computer,
174
448260
2000
mijn moeder op haar computer
07:30
open up a browser and jack into a little robot.
175
450260
2000
een browser kan openen en een kleine robot kan inpluggen.
07:32
And as grandma-bot,
176
452260
3000
Als oma-bot
07:35
she can now play, really play,
177
455260
2000
kan ze nu spelen, echt spelen,
07:37
with my sons, with her grandsons,
178
457260
2000
met mijn zonen, met haar kleinzoons,
07:39
in the real world with his real toys.
179
459260
3000
in de echte wereld met zijn echte speelgoed.
07:42
I could imagine grandmothers being able to do social-plays
180
462260
2000
Ik kan me voorstellen dat grootmoeders sociale spelletjes doen
07:44
with their granddaughters, with their friends,
181
464260
2000
met hun kleindochters, met hun vrienden,
07:46
and to be able to share all kinds of other activities around the house,
182
466260
2000
en zo allerlei activiteiten in en rond het huis kunnen doen,
07:48
like sharing a bedtime story.
183
468260
2000
zoals een verhaaltje lezen voor het slapen gaan.
07:50
And through this technology,
184
470260
2000
Door middel van deze technologie
07:52
being able to be an active participant
185
472260
2000
hebben ze de mogelijkheid actief mee te doen
07:54
in their grandchildren's lives
186
474260
2000
in het leven van hun kleinkinderen
07:56
in a way that's not possible today.
187
476260
2000
op een manier die vandaag de dag nog niet mogelijk is.
07:58
Let's think about some other domains,
188
478260
2000
Denk eens aan andere terreinen,
08:00
like maybe health.
189
480260
2000
zoals gezondheid.
08:02
So in the United States today,
190
482260
2000
In de huidige Verenigde Staten
08:04
over 65 percent of people are either overweight or obese,
191
484260
3000
heeft 65 procent van de mensen overgewicht of zwaarlijvigheid,
08:07
and now it's a big problem with our children as well.
192
487260
2000
en nu is het ook een groot probleem voor onze kinderen.
08:09
And we know that as you get older in life,
193
489260
2000
We weten dat naarmate je ouder wordt,
08:11
if you're obese when you're younger, that can lead to chronic diseases
194
491260
3000
overgewicht tijdens de jeugd tot chronische ziektes kan leiden
08:14
that not only reduce your quality of life,
195
494260
2000
die niet alleen de kwaliteit van je leven verminderen,
08:16
but are a tremendous economic burden on our health care system.
196
496260
3000
maar een enorme economische last voor ons gezondheidssysteem betekenen.
08:19
But if robots can be engaging,
197
499260
2000
Maar als robots sympathiek kunnen zijn,
08:21
if we like to cooperate with robots,
198
501260
2000
als we het leuk vinden om met robots samen te werken,
08:23
if robots are persuasive,
199
503260
2000
als robots overtuigend zijn,
08:25
maybe a robot can help you
200
505260
2000
kan een robot je misschien helpen
08:27
maintain a diet and exercise program,
201
507260
2000
om een dieet- en trainingsprogramma vol te houden.
08:29
maybe they can help you manage your weight.
202
509260
3000
Misschien kunnen ze je helpen om je gewicht te onderhouden.
08:32
Sort of like a digital Jiminy --
203
512260
2000
Een soort digitale Jiminy (de krekel) --
08:34
as in the well-known fairy tale --
204
514260
2000
zoals in het welbekende sprookje --
08:36
a kind of friendly, supportive presence that's always there
205
516260
2000
een vriendelijke en steunende aanwezigheid die er altijd is
08:38
to be able to help you make the right decision
206
518260
2000
om je te helpen de juiste keuzes te maken,
08:40
in the right way at the right time
207
520260
2000
op de goede manier en op de juiste tijd,
08:42
to help you form healthy habits.
208
522260
2000
om gezonde gewoontes aan te nemen.
08:44
So we actually explored this idea in our lab.
209
524260
2000
Dus we hebben dit idee onderzocht in ons lab.
08:46
This is a robot, Autom.
210
526260
2000
Dit is een robot, Autom.
08:48
Cory Kidd developed this robot for his doctoral work.
211
528260
3000
Cory Kidd heeft deze robot ontworpen voor zijn doctoraal werk.
08:51
And it was designed to be a robot diet-and-exercise coach.
212
531260
3000
Hij was ontworpen als dieet- en bewegingscoach.
08:54
It had a couple of simple non-verbal skills it could do.
213
534260
2000
Hij heeft een paar simpele non-verbale vaardigheden.
08:56
It could make eye contact with you.
214
536260
2000
Hij kan oogcontact met je maken.
08:58
It could share information looking down at a screen.
215
538260
2000
Hij kan informatie delen op een scherm.
09:00
You'd use a screen interface to enter information,
216
540260
2000
Je gebruikt een scherm om informatie in te voeren,
09:02
like how many calories you ate that day,
217
542260
2000
zoals hoeveel calorieën je die dag hebt gegeten,
09:04
how much exercise you got.
218
544260
2000
hoeveel lichaamsbeweging je hebt gehad.
09:06
And then it could help track that for you.
219
546260
2000
Hij kan dit bijhouden voor je.
09:08
And the robot spoke with a synthetic voice
220
548260
2000
De robot sprak met een synthetische stem
09:10
to engage you in a coaching dialogue
221
550260
2000
om je te laten deelnemen aan een coachingsgesprek,
09:12
modeled after trainers
222
552260
2000
zoals echte trainers zouden doen
09:14
and patients and so forth.
223
554260
2000
en patiënten en zo voort.
09:16
And it would build a working alliance with you
224
556260
2000
Hij zou een werkrelatie met je opbouwen
09:18
through that dialogue.
225
558260
2000
door middel van die dialogen.
09:20
It could help you set goals and track your progress,
226
560260
2000
Hij kan je helpen doelen te stellen en je voortgang bij te houden,
09:22
and it would help motivate you.
227
562260
2000
en hij zal je motiveren.
09:24
So an interesting question is,
228
564260
2000
Een interessante vraag is:
09:26
does the social embodiment really matter? Does it matter that it's a robot?
229
566260
3000
is de personificatie echt van belang? Maakt het uit dat het een robot is?
09:29
Is it really just the quality of advice and information that matters?
230
569260
3000
Is het echt alleen de kwaliteit van het advies en de informatie die telt?
09:32
To explore that question,
231
572260
2000
Om die vraag op te lossen,
09:34
we did a study in the Boston area
232
574260
2000
hebben we een onderzoek gedaan in de omgeving van Boston
09:36
where we put one of three interventions in people's homes
233
576260
3000
waar we één van onze drie uitvindingen in de huizen van mensen plaatsten
09:39
for a period of several weeks.
234
579260
2000
voor een aantal weken.
09:41
One case was the robot you saw there, Autom.
235
581260
3000
Eén geval was de robot die je net zag, Autom.
09:44
Another was a computer that ran the same touch-screen interface,
236
584260
3000
Een ander was een computer met dezelfde touch-screen interface,
09:47
ran exactly the same dialogues.
237
587260
2000
met precies dezelfde dialogen.
09:49
The quality of advice was identical.
238
589260
2000
De kwaliteit van het advies was identiek.
09:51
And the third was just a pen and paper log,
239
591260
2000
De derde was gewoon een logboek met pen en papier,
09:53
because that's the standard intervention you typically get
240
593260
2000
want dat is de standaard-ingreep die je vaak ziet
09:55
when you start a diet-and-exercise program.
241
595260
3000
wanneer je een dieet of lichaamsbewegingsprogramma start.
09:58
So one of the things we really wanted to look at
242
598260
3000
Dus een van de dingen waar we echt naar wilde kijken,
10:01
was not how much weight people lost,
243
601260
3000
was niet hoeveel gewicht mensen verloren,
10:04
but really how long they interacted with the robot.
244
604260
3000
maar hoe lang ze communiceerden met de robot.
10:07
Because the challenge is not losing weight, it's actually keeping it off.
245
607260
3000
Want de uitdaging is niet gewicht verliezen, maar niet aankomen.
10:10
And the longer you could interact with one of these interventions,
246
610260
3000
Als je langer kan communiceren met een van deze interventies,
10:13
well that's indicative, potentially, of longer-term success.
247
613260
3000
dan kan dat, potentieel, succes op de lange termijn aangeven.
10:16
So the first thing I want to look at is how long,
248
616260
2000
Dus het eerste waar ik naar wil kijken, is hoe lang
10:18
how long did people interact with these systems.
249
618260
2000
mensen communiceerden met deze systemen.
10:20
It turns out that people interacted with the robot
250
620260
2000
Het bleek dat de mensen meer met de robot communiceerden,
10:22
significantly more,
251
622260
2000
beduidend meer,
10:24
even though the quality of the advice was identical to the computer.
252
624260
3000
ookal was de kwaliteit van het advies identiek aan dat van de computer.
10:28
When it asked people to rate it on terms of the quality of the working alliance,
253
628260
3000
Toen hij de mensen vroeg hem een cijfer te geven voor de kwaliteit van de samenwerking,
10:31
people rated the robot higher
254
631260
2000
gaven de mensen de robot een hoger cijfer
10:33
and they trusted the robot more.
255
633260
2000
en vertrouwden ze de robot meer.
10:35
(Laughter)
256
635260
2000
(Gelach)
10:37
And when you look at emotional engagement,
257
637260
2000
Als je naar emotionele band kijkt,
10:39
it was completely different.
258
639260
2000
dan was deze compleet anders.
10:41
People would name the robots.
259
641260
2000
Mensen gaven de robots een naam.
10:43
They would dress the robots.
260
643260
2000
Ze kleedden de robots aan .
10:45
(Laughter)
261
645260
2000
(Gelach)
10:47
And even when we would come up to pick up the robots at the end of the study,
262
647260
3000
Toen we ze op kwamen halen aan het einde van het onderzoek,
10:50
they would come out to the car and say good-bye to the robots.
263
650260
2000
kwamen ze zelfs naar de auto om gedag te zeggen tegen de robots.
10:52
They didn't do this with a computer.
264
652260
2000
Dit deden ze niet met een computer.
10:54
The last thing I want to talk about today
265
654260
2000
Het laatste waar ik het over wil hebben vandaag,
10:56
is the future of children's media.
266
656260
2000
is de toekomst van media voor kinderen.
10:58
We know that kids spend a lot of time behind screens today,
267
658260
3000
We weten dat kinderen tegenwoordig veel tijd achter een scherm doorbrengen,
11:01
whether it's television or computer games or whatnot.
268
661260
3000
of dat nu televisie of computerspellen of iets anders is.
11:04
My sons, they love the screen. They love the screen.
269
664260
3000
Mijn zoons zijn dol op het beeldscherm. Ze houden van het scherm.
11:07
But I want them to play; as a mom, I want them to play,
270
667260
3000
Maar ik wil dat ze spelen, als moeder wil ik dat ze spelen
11:10
like, real-world play.
271
670260
2000
zoals in de echte wereld.
11:12
And so I have a new project in my group I wanted to present to you today
272
672260
3000
Dus heb ik een nieuw project in mijn groep dat ik aan jullie wil presenteren vandaag.
11:15
called Playtime Computing
273
675260
2000
Het heet Playtime Computing.
11:17
that's really trying to think about how we can take
274
677260
2000
Het denkt echt na over
11:19
what's so engaging about digital media
275
679260
2000
wat digitale media zo boeiend maakt.
11:21
and literally bring it off the screen
276
681260
2000
Het brengt ze letterlijk van het scherm af
11:23
into the real world of the child,
277
683260
2000
naar de echte wereld van het kind toe.
11:25
where it can take on many of the properties of real-world play.
278
685260
3000
Daar kan het de vele vormen van echt spel aannemen.
11:29
So here's the first exploration of this idea,
279
689260
4000
Dus hier is een eerste verkenning van dit idee,
11:33
where characters can be physical or virtual,
280
693260
3000
waar personages fysiek of virtueel kunnen zijn,
11:36
and where the digital content
281
696260
2000
en waar de digitale inhoud
11:38
can literally come off the screen
282
698260
2000
letterlijk van het scherm af kan komen,
11:40
into the world and back.
283
700260
2000
naar de echte wereld en ook terug.
11:42
I like to think of this
284
702260
2000
Ik zie het graag
11:44
as the Atari Pong
285
704260
2000
als de Atari Pong
11:46
of this blended-reality play.
286
706260
2000
van dit gemengde realiteitsspel.
11:48
But we can push this idea further.
287
708260
2000
Maar we kunnen dit idee verder uitwerken.
11:50
What if --
288
710260
2000
Wat als --
11:52
(Game) Nathan: Here it comes. Yay!
289
712260
3000
(Spel) Nathan: Hier komt het. Yay!
11:55
CB: -- the character itself could come into your world?
290
715260
3000
CB: -- het personage in jouw wereld kan komen?
11:58
It turns out that kids love it
291
718260
2000
Het blijkt dat kinderen dat geweldig vinden
12:00
when the character becomes real and enters into their world.
292
720260
3000
wanneer de personages echt worden en in hun wereld binnenkomen.
12:03
And when it's in their world,
293
723260
2000
Als het in hun wereld is,
12:05
they can relate to it and play with it in a way
294
725260
2000
kunnen ze er een band mee scheppen en ermee spelen op een manier
12:07
that's fundamentally different from how they play with it on the screen.
295
727260
2000
die fundamenteel anders is van wanneer ze spelen op een beeldscherm.
12:09
Another important idea is this notion
296
729260
2000
Een ander belangrijk idee is de notie
12:11
of persistence of character across realities.
297
731260
3000
van standvastigheid van het personage in alle realiteiten.
12:14
So changes that children make in the real world
298
734260
2000
Aanpassingen die kinderen doen in de echte wereld,
12:16
need to translate to the virtual world.
299
736260
2000
moeten worden vertaald naar de virtuele wereld.
12:18
So here, Nathan has changed the letter A to the number 2.
300
738260
3000
Hier heeft Nathan de letter A veranderd in het nummer 2.
12:21
You can imagine maybe these symbols
301
741260
2000
Je kunt je misschien voorstellen dat deze symbolen
12:23
give the characters special powers when it goes into the virtual world.
302
743260
3000
het personage speciale krachten geven als het de virtuele wereld in gaat.
12:26
So they are now sending the character back into that world.
303
746260
3000
Dus ze sturen nu het personage terug naar die wereld.
12:29
And now it's got number power.
304
749260
3000
En nu heeft het 'nummerkracht'.
12:32
And then finally, what I've been trying to do here
305
752260
2000
Tot slot: wat ik heb geprobeerd te doen,
12:34
is create a really immersive experience for kids,
306
754260
3000
is het creeëren van een verdiepende ervaring voor kinderen,
12:37
where they really feel like they are part of that story,
307
757260
3000
waarin ze echt voelen dat ze deel uit maken van het verhaal,
12:40
a part of that experience.
308
760260
2000
en deel uitmaken van de ervaring.
12:42
And I really want to spark their imaginations
309
762260
2000
Ik wil echt hun fantasie laten spreken
12:44
the way mine was sparked as a little girl watching "Star Wars."
310
764260
3000
zoals ik dat ervaarde toen ik 'Star Wars' zag als klein meisje.
12:47
But I want to do more than that.
311
767260
2000
Maar ik wil meer dan alleen dat doen.
12:49
I actually want them to create those experiences.
312
769260
3000
Ik wil dat ze die ervaringen zelf maken.
12:52
I want them to be able to literally build their imagination
313
772260
2000
Ik wil dat ze letterlijk hun fantasie kunnen bouwen
12:54
into these experiences and make them their own.
314
774260
2000
in deze ervaringen en deze persoonlijk maken.
12:56
So we've been exploring a lot of ideas
315
776260
2000
Dus we hebben heel veel ideeën bekeken
12:58
in telepresence and mixed reality
316
778260
2000
in tele-aanwezigheid en gemengde realiteit
13:00
to literally allow kids to project their ideas into this space
317
780260
3000
om letterlijk kinderen hun ideeën te laten projecteren in deze ruimte
13:03
where other kids can interact with them
318
783260
2000
waar andere kinderen mee kunnen doen
13:05
and build upon them.
319
785260
2000
en er verder aan kunnen werken.
13:07
I really want to come up with new ways of children's media
320
787260
3000
Ik wil echt nieuwe manieren voor media voor kinderen uitvinden,
13:10
that foster creativity and learning and innovation.
321
790260
3000
die creativiteit, innovatie en leren cultiveren.
13:13
I think that's very, very important.
322
793260
3000
Ik denk dat dat erg, erg belangrijk is.
13:16
So this is a new project.
323
796260
2000
Dus dit is een nieuw project.
13:18
We've invited a lot of kids into this space,
324
798260
2000
We hebben heel veel kinderen uitgenodigd in deze ruimte,
13:20
and they think it's pretty cool.
325
800260
3000
en ze vinden het best wel cool.
13:23
But I can tell you, the thing that they love the most
326
803260
2000
Maar ik kan je vertellen, wat ze het leukste vinden
13:25
is the robot.
327
805260
2000
is de robot.
13:27
What they care about is the robot.
328
807260
3000
Waar ze om geven is de robot.
13:30
Robots touch something deeply human within us.
329
810260
3000
Robots raken iets menselijks in ons.
13:33
And so whether they're helping us
330
813260
2000
Dus of ze ons nu helpen
13:35
to become creative and innovative,
331
815260
2000
om creatief en innovatief te worden,
13:37
or whether they're helping us
332
817260
2000
of dat ze ons helpen
13:39
to feel more deeply connected despite distance,
333
819260
2000
om meer contact te ervaren ondanks grote afstanden,
13:41
or whether they are our trusted sidekick
334
821260
2000
of dat ze onze betrouwbaar hulpje zijn
13:43
who's helping us attain our personal goals
335
823260
2000
dat ons helpt onze persoonlijke doelen te bereiken
13:45
in becoming our highest and best selves,
336
825260
2000
en om het beste uit onszelf te halen,
13:47
for me, robots are all about people.
337
827260
3000
voor mij draaien robots helemaal om mensen.
13:50
Thank you.
338
830260
2000
Dankuwel.
13:52
(Applause)
339
832260
5000
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7