What's it like to be a robot? | Leila Takayama

92,193 views ・ 2018-02-16

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Kim De Groot Nagekeken door: Peter van de Ven
00:12
You only get one chance to make a first impression,
0
12760
2656
Je krijgt maar één kans om een eerste indruk te maken
00:15
and that's true if you're a robot as well as if you're a person.
1
15440
3176
en dat geldt evenzeer voor robots als voor mensen.
00:18
The first time that I met one of these robots
2
18640
3016
De eerste keer dat ik een robot ontmoette,
00:21
was at a place called Willow Garage in 2008.
3
21680
2896
was op een plek die Willow Garage heette, in 2008.
00:24
When I went to visit there, my host walked me into the building
4
24600
3016
Toen ik er op bezoek ging, leidde mijn gastheer me naar binnen
00:27
and we met this little guy.
5
27640
1576
en kwamen we deze jongen tegen.
00:29
He was rolling into the hallway,
6
29240
1656
Hij reed de gang in,
00:30
came up to me, sat there,
7
30920
1816
kwam naar me toe, zat daar,
00:32
stared blankly past me,
8
32760
2256
keek wezenloos langs me heen,
00:35
did nothing for a while,
9
35040
1656
deed niets gedurende een tijd,
00:36
rapidly spun his head around 180 degrees
10
36720
1936
draaide zijn hoofd snel 180 graden om en liep vervolgens weg.
00:38
and then ran away.
11
38680
1536
00:40
And that was not a great first impression.
12
40240
2176
Dat was geen goede eerste indruk.
00:42
The thing that I learned about robots that day
13
42440
2176
Wat ik die dag over robots geleerd heb,
00:44
is that they kind of do their own thing,
14
44640
2176
is dat ze hun eigen ding doen
00:46
and they're not totally aware of us.
15
46840
2136
en zich niet geheel bewust zijn van ons.
Ik denk dat door te experimenteren met mogelijke toekomstige robots,
00:49
And I think as we're experimenting with these possible robot futures,
16
49000
3239
00:52
we actually end up learning a lot more about ourselves
17
52263
2673
we eigenlijk veel meer over onszelf leren
00:54
as opposed to just these machines.
18
54960
1656
en niet enkel over deze machines.
00:56
And what I learned that day
19
56640
1336
Wat ik die dag geleerd heb,
00:58
was that I had pretty high expectations for this little dude.
20
58000
3416
is dat ik vrij veel verwachtte van deze kleine jongen.
01:01
He was not only supposed to be able to navigate the physical world,
21
61440
3176
Hij moest niet alleen de fysieke wereld kunnen navigeren,
01:04
but also be able to navigate my social world --
22
64640
2656
maar ook mijn sociale wereld --
01:07
he's in my space; it's a personal robot.
23
67320
2176
het is een persoonlijke robot.
01:09
wWhy didn't it understand me?
24
69520
2016
Waarom begreep hij me niet?
01:11
My host explained to me,
25
71560
1256
Mijn gastheer vertelde me:
01:12
"Well, the robot is trying to get from point A to point B,
26
72840
3176
"Wel, de robot probeert om van punt A naar punt B te raken
01:16
and you were an obstacle in his way,
27
76040
1776
en jij was een obstakel op zijn weg,
01:17
so he had to replan his path,
28
77840
2016
dus moest hij zijn route opnieuw plannen,
01:19
figure out where to go,
29
79880
1256
uitzoeken waarheen te gaan
01:21
and then get there some other way,"
30
81160
1696
en er via een andere weg raken."
01:22
which was actually not a very efficient thing to do.
31
82880
2456
Eigenlijk was dat niet efficiënt.
01:25
If that robot had figured out that I was a person, not a chair,
32
85360
3256
Als deze robot begrepen had dat ik een persoon was, geen stoel,
01:28
and that I was willing to get out of its way
33
88640
2096
en dat ik bereid was uit de weg te gaan als hij ergens naartoe moest,
01:30
if it was trying to get somewhere,
34
90760
1656
01:32
then it actually would have been more efficient
35
92440
2216
dan zou hij eigenlijk zijn taak efficiënter hebben kunnen volbrengen
01:34
at getting its job done
36
94680
1256
01:35
if it had bothered to notice that I was a human
37
95960
2216
als hij opgemerkt had dat ik een mens was
en dat ik dus flexibeler ben dan dingen zoals stoelen of muren.
01:38
and that I have different affordances than things like chairs and walls do.
38
98200
3576
01:41
You know, we tend to think of these robots as being from outer space
39
101800
3216
We hebben de neiging om robots te zien als wezens uit de ruimte
en uit de toekomst en uit science fiction,
01:45
and from the future and from science fiction,
40
105040
2136
en hoewel dat waar kan zijn,
01:47
and while that could be true,
41
107200
1416
01:48
I'd actually like to argue that robots are here today,
42
108640
2656
zou ik graag argumenteren dat robots hier zijn, vandaag,
01:51
and they live and work amongst us right now.
43
111320
2776
en dat ze op dit moment leven en werken onder ons.
01:54
These are two robots that live in my home.
44
114120
2856
Deze twee robots wonen in mijn huis.
01:57
They vacuum the floors and they cut the grass
45
117000
2496
Ze stofzuigen en maaien het gras,
01:59
every single day,
46
119520
1216
elke dag,
02:00
which is more than I would do if I actually had time to do these tasks,
47
120760
3376
wat meer is dan ik zou doen als ik al tijd had om klusjes te doen,
en ze doen het waarschijnlijk ook nog eens beter.
02:04
and they probably do it better than I would, too.
48
124160
2336
02:06
This one actually takes care of my kitty.
49
126520
2496
Deze verzorgt mijn kat.
Elke keer dat hij in de bak gaat, maakt hij die schoon,
02:09
Every single time he uses the box, it cleans it,
50
129040
2576
02:11
which is not something I'm willing to do,
51
131640
1976
wat ik niet bereid ben om te doen,
02:13
and it actually makes his life better as well as mine.
52
133640
2576
en zo maakt hij zowel zijn leven als het mijne beter.
02:16
And while we call these robot products --
53
136240
2416
Hoewel we deze dingen 'robots' noemen -
02:18
it's a "robot vacuum cleaner, it's a robot lawnmower,
54
138680
2696
een robotstofzuiger, een robotmaaier,
02:21
it's a robot littler box,"
55
141400
1495
een kattenbakrobot -
02:22
I think there's actually a bunch of other robots hiding in plain sight
56
142919
4137
denk ik dat er heel wat andere robots zich ongemerkt voor onze neus bevinden
02:27
that have just become so darn useful
57
147080
1856
die zo verdomd nuttig en alledaags geworden zijn
02:28
and so darn mundane
58
148960
1456
02:30
that we call them things like, "dishwasher," right?
59
150440
2496
dat we ze bijvoorbeeld 'afwasmachine' noemen.
02:32
They get new names.
60
152960
1216
Ze krijgen nieuwe namen.
We noemen ze geen robots meer
02:34
They don't get called robot anymore
61
154200
1696
02:35
because they actually serve a purpose in our lives.
62
155920
2416
omdat ze effectief een doel in onze levens hebben.
Neem ook een thermostaat.
02:38
Similarly, a thermostat, right?
63
158360
1496
02:39
I know my robotics friends out there
64
159880
1776
Ik weet dat mijn robotica-vrienden
02:41
are probably cringing at me calling this a robot,
65
161680
2336
erom moeten huiveren dat ik dit een robot noem,
02:44
but it has a goal.
66
164040
1256
maar hij heeft een doel.
02:45
Its goal is to make my house 66 degrees Fahrenheit,
67
165320
2896
Zijn doel is om mijn huis tot 19 graden Celsius op te warmen.
02:48
and it senses the world.
68
168240
1256
Hij voelt de wereld aan.
02:49
It knows it's a little bit cold,
69
169520
1576
Hij weet dat het wat koud is,
02:51
it makes a plan and then it acts on the physical world.
70
171120
2616
maakt een plan en beïnvloedt dan de fysieke wereld.
02:53
It's robotics.
71
173760
1256
Het is robotica.
Hij ziet er misschien niet uit als Rosie de Robot,
02:55
Even if it might not look like Rosie the Robot,
72
175040
2576
02:57
it's doing something that's really useful in my life
73
177640
2936
maar hij doet iets heel nuttigs in mijn leven,
03:00
so I don't have to take care
74
180600
1376
zodat ik niet zelf de temperatuur hoger of lager hoef te zetten.
03:02
of turning the temperature up and down myself.
75
182000
2576
03:04
And I think these systems live and work amongst us now,
76
184600
3816
Deze systemen leven en werken te midden van ons op dit moment
03:08
and not only are these systems living amongst us
77
188440
2336
en niet alleen leven deze systemen onder ons,
03:10
but you are probably a robot operator, too.
78
190800
2656
maar jij bent waarschijnlijk ook een robotbestuurder.
03:13
When you drive your car,
79
193480
1256
Als je met de auto rijdt,
03:14
it feels like you are operating machinery.
80
194760
2216
lijkt het alsof je een machine bestuurt.
03:17
You are also going from point A to point B,
81
197000
2816
Je gaat van punt A naar punt B,
03:19
but your car probably has power steering,
82
199840
2216
maar je auto heeft mogelijk stuurbekrachtiging.
03:22
it probably has automatic braking systems,
83
202080
2696
Het heeft waarschijnlijk een automatisch remsysteem,
03:24
it might have an automatic transmission and maybe even adaptive cruise control.
84
204800
3736
een automatische versnellingsbak en misschien zelfs cruise control.
03:28
And while it might not be a fully autonomous car,
85
208560
2936
En hoewel het misschien geen volledig autonome auto is,
03:31
it has bits of autonomy,
86
211520
1296
heeft het autonome delen
03:32
and they're so useful
87
212840
1336
die heel nuttig zijn en ons veiliger laten rijden
03:34
and they make us drive safer,
88
214200
1816
03:36
and we just sort of feel like they're invisible-in-use, right?
89
216040
3656
en waarvan we het gevoel hebben dat ze onzichtbaar in gebruik zijn, neen?
03:39
So when you're driving your car,
90
219720
1576
Dus wanneer je met de auto rijdt,
03:41
you should just feel like you're going from one place to another.
91
221320
3096
moet je het gevoel hebben dat je van hier naar daar gaat.
Het voelt niet aan als een groot ding dat je moet bedienen
03:44
It doesn't feel like it's this big thing that you have to deal with and operate
92
224440
3736
met allerlei bedieningselementen,
03:48
and use these controls
93
228200
1256
omdat we zo lang hebben leren rijden
03:49
because we spent so long learning how to drive
94
229480
2176
03:51
that they've become extensions of ourselves.
95
231680
2696
dat het een verlenging van onszelf geworden is.
03:54
When you park that car in that tight little garage space,
96
234400
2696
Wanneer je de auto parkeert in die krappe garageplaats,
weet je waar je hoeken zijn.
03:57
you know where your corners are.
97
237120
1576
03:58
And when you drive a rental car that maybe you haven't driven before,
98
238720
3256
En wanneer je in een huurauto rijdt die je niet eerder hebt gereden,
duurt het even om gewend te raken aan je nieuwe robotlichaam.
04:02
it takes some time to get used to your new robot body.
99
242000
3056
04:05
And this is also true for people who operate other types of robots,
100
245080
3976
Dit geldt ook voor mensen die andere soorten robots besturen,
04:09
so I'd like to share with you a few stories about that.
101
249080
2600
dus zou ik hierover graag enkele verhalen vertellen.
04:12
Dealing with the problem of remote collaboration.
102
252240
2336
Omgaan met het probleem van telesamenwerking.
04:14
So, at Willow Garage I had a coworker named Dallas,
103
254600
2576
In Willow Garage had ik een collega die Dallas heette.
04:17
and Dallas looked like this.
104
257200
1576
Dallas zag er zo uit.
04:18
He worked from his home in Indiana in our company in California.
105
258800
4056
Hij werkte vanuit zijn huis in Indiana voor ons bedrijf in Californië.
04:22
He was a voice in a box on the table in most of our meetings,
106
262880
2936
Hij was een stem in een doos op tafel tijdens onze meetings,
04:25
which was kind of OK except that, you know,
107
265840
2215
en dat gaf meestal niet,
maar wanneer we een verhit debat hadden en we waren het niet eens
04:28
if we had a really heated debate and we didn't like what he was saying,
108
268079
3377
04:31
we might just hang up on him.
109
271480
1416
dan hingen we weleens op.
04:32
(Laughter)
110
272920
1015
(Gelach)
04:33
Then we might have a meeting after that meeting
111
273959
2217
Dan hadden we een meeting na die meeting
en namen we de beslissingen pas achteraf wanneer hij er niet meer was.
04:36
and actually make the decisions in the hallway afterwards
112
276200
2696
04:38
when he wasn't there anymore.
113
278920
1416
Dat was niet zo goed voor hem.
04:40
So that wasn't so great for him.
114
280360
1576
04:41
And as a robotics company at Willow,
115
281960
1736
En als roboticabedrijf hadden we in Widow wat extra robotlichaamsdelen liggen,
04:43
we had some extra robot body parts laying around,
116
283720
2336
dus maakten Dallas en zijn vriend Curt dit ding,
04:46
so Dallas and his buddy Curt put together this thing,
117
286080
2496
04:48
which looks kind of like Skype on a stick on wheels,
118
288600
2936
dat er een beetje uitziet als Skype op een stok op wielen.
04:51
which seems like a techy, silly toy,
119
291560
1736
Het lijkt een 'techy', dom speeltje,
04:53
but really it's probably one of the most powerful tools
120
293320
2776
maar het is waarschijnlijk een van de krachtigste middelen
04:56
that I've seen ever made for remote collaboration.
121
296120
2480
die ik ooit heb zien maken voor telesamenwerking.
04:59
So now, if I didn't answer Dallas' email question,
122
299160
3496
Als ik nu niet antwoordde op de e-mailvraag van Dallas,
05:02
he could literally roll into my office,
123
302680
2216
kon hij mijn bureau letterlijk binnenrollen,
05:04
block my doorway and ask me the question again --
124
304920
2576
de ingang blokkeren en de vraag opnieuw stellen -
05:07
(Laughter)
125
307520
1016
(Gelach)
05:08
until I answered it.
126
308560
1216
tot ik antwoord gaf.
05:09
And I'm not going to turn him off, right? That's kind of rude.
127
309800
2976
En ik ga hem niet afzetten, toch? Dat is onbeleefd.
05:12
Not only was it good for these one-on-one communications,
128
312800
2696
Niet alleen was het goed voor één-op-ééncommunicatie,
05:15
but also for just showing up at the company all-hands meeting.
129
315520
2936
maar ook om aanwezig te zijn bij de voltallige vergaderingen.
05:18
Getting your butt in that chair
130
318480
1696
Op die stoel gaan zitten
05:20
and showing people that you're present and committed to your project
131
320200
3216
en mensen tonen dat je aanwezig bent en toegewijd aan je project
05:23
is a big deal
132
323440
1256
is belangrijk
05:24
and can help remote collaboration a ton.
133
324720
2176
en kan telesamenwerking enorm helpen.
05:26
We saw this over the period of months and then years,
134
326920
2856
We zagen dit over een periode van maanden en daarna jaren,
05:29
not only at our company but at others, too.
135
329800
2160
niet enkel in ons bedrijf, maar ook in andere.
05:32
The best thing that can happen with these systems
136
332720
2336
Het beste dat kan gebeuren met deze systemen
is dat het begint te voelen alsof je daar bent.
05:35
is that it starts to feel like you're just there.
137
335080
2336
05:37
It's just you, it's just your body,
138
337440
1696
Jij bent het, het is jouw lichaam,
en mensen beginnen deze dingen zelfs persoonlijke ruimte te geven.
05:39
and so people actually start to give these things personal space.
139
339160
3096
05:42
So when you're having a stand-up meeting,
140
342280
1976
Wanneer je een rechtstaande meeting hebt,
05:44
people will stand around the space
141
344280
1656
zullen mensen rondom staan
05:45
just as they would if you were there in person.
142
345960
2216
net zoals ze zouden doen als je echt daar was.
Dat is goed tot er storingen zijn en dan niet meer.
05:48
That's great until there's breakdowns and it's not.
143
348200
2576
05:50
People, when they first see these robots,
144
350800
1976
Dus als mensen robots voor het eerst zien,
05:52
are like, "Wow, where's the components? There must be a camera over there,"
145
352800
3576
zeggen ze: "Wow, waar zijn de componenten? Er moet daar een camera zijn."
05:56
and they start poking your face.
146
356400
1576
En ze porren je gezicht.
"Je praat te zacht, ik ga je volume hoger zetten."
05:58
"You're talking too softly, I'm going to turn up your volume,"
147
358000
2936
Dat is alsof een collega naar je toe komt en zegt:
06:00
which is like having a coworker walk up to you and say,
148
360960
2616
"Je praat te zacht, ik ga je gezicht hoger zetten."
06:03
"You're speaking too softly, I'm going to turn up your face."
149
363600
2896
Dat is gênant en niet oké
06:06
That's awkward and not OK,
150
366520
1256
06:07
and so we end up having to build these new social norms
151
367800
2616
en dus moeten we nieuwe sociale normen creëren
06:10
around using these systems.
152
370440
2216
omtrent het gebruik van deze systemen.
06:12
Similarly, as you start feeling like it's your body,
153
372680
3416
Evenzo, naarmate het begint aan te voelen als je lichaam,
06:16
you start noticing things like, "Oh, my robot is kind of short."
154
376120
3696
begin je dingen op te merken zoals "Oh, mijn robot is vrij klein."
06:19
Dallas would say things to me -- he was six-foot tall --
155
379840
2656
Dallas zei dingen tegen me - hij was één meter tachtig -
06:22
and we would take him via robot to cocktail parties and things like that,
156
382520
3456
en we namen hem als robot mee naar feestjes en dat soort dingen,
zoals dat gaat.
06:26
as you do,
157
386000
1216
De robot was ongeveer één meter vijftig, ongeveer even groot als ik.
06:27
and the robot was about five-foot-tall, which is close to my height.
158
387240
3336
06:30
And he would tell me,
159
390600
1216
Hij vertelde me:
06:31
"You know, people are not really looking at me.
160
391840
2536
"Weet je, mensen kijken niet echt naar mij.
06:34
I feel like I'm just looking at this sea of shoulders,
161
394400
2696
Ik heb gevoel alsof ik kijk naar een zee van schouders.
06:37
and it's just -- we need a taller robot."
162
397120
1976
We hebben een grotere robot nodig."
06:39
And I told him,
163
399120
1256
En ik vertelde hem:
06:40
"Um, no.
164
400400
1296
"Euh, neen.
06:41
You get to walk in my shoes for today.
165
401720
1936
Jij mag vandaag in mijn schoenen staan.
06:43
You get to see what it's like to be on the shorter end of the spectrum."
166
403680
3536
Je mag eens zien hoe het is aan het kortere eind van het spectrum."
06:47
And he actually ended up building a lot of empathy for that experience,
167
407240
3376
En hij begon eigenlijk heel wat empathie te voelen voor deze ervaring,
06:50
which was kind of great.
168
410640
1256
wat best geweldig was.
06:51
So when he'd come visit in person,
169
411920
1656
Wanneer hij in persoon langskwam,
06:53
he no longer stood over me as he was talking to me,
170
413600
2416
stond hij niet langer over me heen als hij praatte.
Hij zat neer en sprak met me op ooghoogte,
06:56
he would sit down and talk to me eye to eye,
171
416040
2096
wat heel mooi was.
06:58
which was kind of a beautiful thing.
172
418160
1736
06:59
So we actually decided to look at this in the laboratory
173
419920
2656
Dus besloten we om in het laboratorium te bekijken
07:02
and see what others kinds of differences things like robot height would make.
174
422600
3656
welke andere verschillen zaken zoals robotgrootte uitmaken.
07:06
And so half of the people in our study used a shorter robot,
175
426280
2856
De helft van onze onderzoeksgroep kreeg een kleinere robot,
de andere helft kreeg een grotere robot
07:09
half of the people in our study used a taller robot
176
429160
2416
07:11
and we actually found that the exact same person
177
431600
2256
en we vonden dat de exact zelfde persoon
07:13
who has the exact same body and says the exact same things as someone,
178
433880
3336
met exact hetzelfde lichaam die exact hetzelfde zegt als iemand anders
overtuigender is en als geloofwaardiger gezien wordt
07:17
is more persuasive and perceived as being more credible
179
437240
2616
07:19
if they're in a taller robot form.
180
439880
1656
als hij een grotere robot heeft.
07:21
It makes no rational sense,
181
441560
1816
Rationeel gezien slaat het op niets, maar daarom studeren we psychologie.
07:23
but that's why we study psychology.
182
443400
1696
07:25
And really, you know, the way that Cliff Nass would put this
183
445120
2856
Cliff Nass zou hiervan zeggen
dat we het beste moeten maken van deze nieuwe technologieën
07:28
is that we're having to deal with these new technologies
184
448000
3016
07:31
despite the fact that we have very old brains.
185
451040
2736
ook al hebben we nog zulke oude breinen.
07:33
Human psychology is not changing at the same speed that tech is
186
453800
2976
Menselijke psychologie verandert niet zo snel als technologie
07:36
and so we're always playing catch-up,
187
456800
1816
en dus lopen we altijd achter
07:38
trying to make sense of this world
188
458640
1656
en proberen we de wereld te begrijpen waar deze autonome dingen rondlopen.
07:40
where these autonomous things are running around.
189
460320
2336
07:42
Usually, things that talk are people, not machines, right?
190
462680
2736
Normaal zijn pratende dingen mensen, geen machines, toch?
07:45
And so we breathe a lot of meaning into things like just height of a machine,
191
465440
4576
Dus geven we veel betekenis aan zaken zoals de grootte van een machine,
07:50
not a person,
192
470040
1256
niet van een persoon,
07:51
and attribute that to the person using the system.
193
471320
2360
en schrijven dat toe aan de gebruiker.
07:55
You know, this, I think, is really important
194
475120
2216
Dit is, denk ik, heel belangrijk wanneer je nadenkt over robotica.
07:57
when you're thinking about robotics.
195
477360
1736
Het is niet zozeer mensen heruitvinden,
07:59
It's not so much about reinventing humans,
196
479120
2096
08:01
it's more about figuring out how we extend ourselves, right?
197
481240
3136
maar uitzoeken hoe we onszelf verruimen, niet?
08:04
And we end up using things in ways that are sort of surprising.
198
484400
2976
En zo gebruiken we dingen op enigszins verrassende manieren.
08:07
So these guys can't play pool because the robots don't have arms,
199
487400
4256
Deze mensen kunnen geen pool spelen, omdat de robots geen armen hebben,
08:11
but they can heckle the guys who are playing pool
200
491680
2336
maar ze kunnen de spelers wel afleiden
08:14
and that can be an important thing for team bonding,
201
494040
3176
en dat kan belangrijk zijn om een band te scheppen,
08:17
which is kind of neat.
202
497240
1296
wat best cool is.
08:18
People who get really good at operating these systems
203
498560
2496
Mensen die deze systemen heel goed kunnen besturen,
zullen zelfs nieuwe spelletjes bedenken,
08:21
will even do things like make up new games,
204
501080
2056
zoals robotvoetbal in het midden van de nacht
08:23
like robot soccer in the middle of the night,
205
503160
2136
08:25
pushing the trash cans around.
206
505320
1456
door vuilbakken rond te duwen.
08:26
But not everyone's good.
207
506800
1576
Maar niet iedereen is er goed in.
08:28
A lot of people have trouble operating these systems.
208
508400
2496
Heel wat mensen hebben moeite met de besturing.
08:30
This is actually a guy who logged into the robot
209
510920
2256
Dit is een man die in een robot inlogde
waarvan de oogbal 90° naar links gedraaid was.
08:33
and his eyeball was turned 90 degrees to the left.
210
513200
2376
08:35
He didn't know that,
211
515600
1256
Hij wist dat niet en botste dus tegen alles in het kantoor aan,
08:36
so he ended up just bashing around the office,
212
516880
2176
liep tegen bureaus aan, voelde zich belachelijk
08:39
running into people's desks, getting super embarrassed,
213
519080
2616
en lachte ermee - zijn volume stond veel te hoog.
08:41
laughing about it -- his volume was way too high.
214
521720
2336
En deze man op de foto vertelt me:
08:44
And this guy here in the image is telling me,
215
524080
2136
"We hebben een robotdempknop nodig."
08:46
"We need a robot mute button."
216
526240
2096
08:48
And by that what he really meant was we don't want it to be so disruptive.
217
528360
3496
Daarmee bedoelde hij dat het niet zo storend mag zijn.
08:51
So as a robotics company,
218
531880
1616
Dus als roboticabedrijf
08:53
we added some obstacle avoidance to the system.
219
533520
2456
voegden we obstakelvermijding aan het systeem toe.
08:56
It got a little laser range finder that could see the obstacles,
220
536000
3056
Het had een laser met een radius die de obstakels kon zien
08:59
and if I as a robot operator try to say, run into a chair,
221
539080
3136
en als ik als robotbestuurder wil zeggen: "Bots tegen een stoel",
09:02
it wouldn't let me, it would just plan a path around,
222
542240
2496
dan zou hij dit niet doen, maar eromheen gaan,
09:04
which seems like a good idea.
223
544760
1856
wat een goed idee lijkt.
09:06
People did hit fewer obstacles using that system, obviously,
224
546640
3176
Mensen raakten minder obstakels met dat systeem, natuurlijk,
09:09
but actually, for some of the people,
225
549840
2096
maar voor sommige mensen
09:11
it took them a lot longer to get through our obstacle course,
226
551960
2856
duurde het veel langer om door ons parcours te raken
09:14
and we wanted to know why.
227
554840
1560
en we wilden weten waarom.
09:17
It turns out that there's this important human dimension --
228
557080
3056
Het blijkt dat er een belangrijke menselijke dimensie is,
09:20
a personality dimension called locus of control,
229
560160
2296
een karakterdimensie: beheersingsoriëntatie,
09:22
and people who have a strong internal locus of control,
230
562480
3136
en mensen die een sterke innerlijke beheersingsoriëntatie hebben,
09:25
they need to be the masters of their own destiny --
231
565640
3056
moeten meester zijn van hun eigen lot.
09:28
really don't like giving up control to an autonomous system --
232
568720
3096
Ze vinden het niets om controle te geven aan een autonoom systeem,
09:31
so much so that they will fight the autonomy;
233
571840
2136
in die mate dat ze tegen de autonomie ingaan.
09:34
"If I want to hit that chair, I'm going to hit that chair."
234
574000
3096
"Als ik die stoel wil raken, dan zal ik die stoel raken."
09:37
And so they would actually suffer from having that autonomous assistance,
235
577120
3616
En zij leden dus onder deze autonome assistentie,
09:40
which is an important thing for us to know
236
580760
2576
wat belangrijk is voor ons om te weten
09:43
as we're building increasingly autonomous, say, cars, right?
237
583360
3296
als we bijvoorbeeld auto's maken die steeds zelfstandiger zijn, toch?
09:46
How are different people going to grapple with that loss of control?
238
586680
3360
Hoe zullen verschillende mensen omgaan met dat controleverlies?
09:50
It's going to be different depending on human dimensions.
239
590880
2696
Het zal afhangen van menselijke dimensies.
09:53
We can't treat humans as if we're just one monolithic thing.
240
593600
3496
We kunnen mensen niet behandelen alsof we één homogeen geheel zijn.
09:57
We vary by personality, by culture,
241
597120
2416
We verschillen van karakter, van cultuur,
09:59
we even vary by emotional state moment to moment,
242
599560
2456
zelfs van emotionele toestand, van moment op moment.
10:02
and being able to design these systems,
243
602040
1976
Om deze systemen te kunnen ontwerpen,
10:04
these human-robot interaction systems,
244
604040
2296
deze systemen van mens-robotinteractie,
10:06
we need to take into account the human dimensions,
245
606360
2736
moeten we rekening houden met de menselijke dimensies,
10:09
not just the technological ones.
246
609120
1720
niet alleen met de technologische.
10:11
Along with a sense of control also comes a sense of responsibility.
247
611640
4296
Samen met een gevoel van controle komt een verantwoordelijkheidsgevoel.
10:15
And if you were a robot operator using one of these systems,
248
615960
2856
Als jij een robot bestuurde met een van deze systemen,
10:18
this is what the interface would look like.
249
618840
2056
dan zou de interface er als volgt uitzien.
10:20
It looks a little bit like a video game,
250
620920
1936
Het ziet er wat uit als een videospel,
10:22
which can be good because that's very familiar to people,
251
622880
2976
wat goed kan zijn, omdat dat zeer bekend is voor mensen,
10:25
but it can also be bad
252
625880
1216
maar ook slecht,
omdat het het gevoel geeft dat het een videospel is.
10:27
because it makes people feel like it's a video game.
253
627120
2456
10:29
We had a bunch of kids over at Stanford play with the system
254
629600
2856
We lieten enkele kinderen in Stanford spelen met het systeem
10:32
and drive the robot around our office in Menlo Park,
255
632480
2456
en de robot besturen in ons bureau in Menlo Park,
10:34
and the kids started saying things like,
256
634960
1936
en ze zeiden dingen zoals:
"10 punten als je die man raakt. 20 punten voor die man."
10:36
"10 points if you hit that guy over there. 20 points for that one."
257
636920
3176
Ze joegen hen na in de gang.
10:40
And they would chase them down the hallway.
258
640120
2016
(Gelach)
10:42
(Laughter)
259
642160
1016
Ik zei: "Dat zijn echte mensen.
10:43
I told them, "Um, those are real people.
260
643200
1936
Ze gaan echt bloeden en pijn voelen als je hen raakt."
10:45
They're actually going to bleed and feel pain if you hit them."
261
645160
3296
10:48
And they'd be like, "OK, got it."
262
648480
1616
En zij reageerden met: "OK."
Maar vijf minuten later zeiden ze:
10:50
But five minutes later, they would be like,
263
650120
2056
"20 punten voor die man daar; het lijkt alsof hij slaag nodig heeft."
10:52
"20 points for that guy over there, he just looks like he needs to get hit."
264
652200
3616
Het is een beetje zoals "Ender's Game", niet?
10:55
It's a little bit like "Ender's Game," right?
265
655840
2136
De wereld aan de andere kant is echt
10:58
There is a real world on that other side
266
658000
1936
10:59
and I think it's our responsibility as people designing these interfaces
267
659960
3416
en het is onze verantwoordelijkheid als ontwerpers van deze interfaces
11:03
to help people remember
268
663400
1256
dat mensen onthouden dat hun daden echte gevolgen hebben
11:04
that there's real consequences to their actions
269
664680
2256
11:06
and to feel a sense of responsibility
270
666960
2296
en dat ze verantwoordelijk moeten zijn
11:09
when they're operating these increasingly autonomous things.
271
669280
3280
wanneer ze deze steeds autonomere objecten besturen.
11:13
These are kind of a great example
272
673840
2296
Dit zijn heel goede voorbeelden
11:16
of experimenting with one possible robotic future,
273
676160
3256
van het experimenteren met één mogelijke robottoekomst
11:19
and I think it's pretty cool that we can extend ourselves
274
679440
3856
en ik denk dat het best cool is dat we onszelf kunnen verruimen
11:23
and learn about the ways that we extend ourselves
275
683320
2336
en leren over de manieren waarop we dat doen in deze machines
11:25
into these machines
276
685680
1216
11:26
while at the same time being able to express our humanity
277
686920
2696
en tegelijk onze menselijkheid kunnen uitdrukken
11:29
and our personality.
278
689640
1216
en onze persoonlijkheid.
11:30
We also build empathy for others
279
690880
1576
Het wekt empathie op voor anderen
11:32
in terms of being shorter, taller, faster, slower,
280
692480
3216
die kleiner, groter, sneller, trager zijn
11:35
and maybe even armless,
281
695720
1416
en misschien zelfs armloos,
11:37
which is kind of neat.
282
697160
1336
wat best cool is.
11:38
We also build empathy for the robots themselves.
283
698520
2536
Het wekt ook empathie op voor de robots zelf.
11:41
This is one of my favorite robots.
284
701080
1656
Deze robot is een favoriet van me.
11:42
It's called the Tweenbot.
285
702760
1456
Hij wordt de Tweenbot genoemd.
11:44
And this guy has a little flag that says,
286
704240
1976
Hij heeft een kleine vlag waarop staat:
11:46
"I'm trying to get to this intersection in Manhattan,"
287
706240
2576
"Ik probeer naar dit kruispunt in Manhattan te raken."
11:48
and it's cute and rolls forward, that's it.
288
708840
2776
Hij is schattig en rolt vooruit, dat is het.
11:51
It doesn't know how to build a map, it doesn't know how to see the world,
289
711640
3456
Hij kan geen kaart maken. Hij kan de wereld niet zien.
Hij vraagt gewoon om hulp.
11:55
it just asks for help.
290
715120
1256
11:56
The nice thing about people
291
716400
1336
Het leuke aan mensen
11:57
is that it can actually depend upon the kindness of strangers.
292
717760
3096
is dat hij kan vertrouwen op de vriendelijkheid van vreemden.
12:00
It did make it across the park to the other side of Manhattan --
293
720880
3896
Hij heeft het park kunnen oversteken naar de andere kant van Manhattan -
12:04
which is pretty great --
294
724800
1256
wat best fantastisch is -
12:06
just because people would pick it up and point it in the right direction.
295
726080
3456
omdat mensen hem oppakten en de juiste richting wezen.
(Gelach)
12:09
(Laughter)
296
729560
936
Dat is geweldig, toch?
12:10
And that's great, right?
297
730520
1256
12:11
We're trying to build this human-robot world
298
731800
2696
We proberen een mens-robotwereld te bouwen
12:14
in which we can coexist and collaborate with one another,
299
734520
3416
waarin we kunnen samenleven en samenwerken
12:17
and we don't need to be fully autonomous and just do things on our own.
300
737960
3376
en we niet geheel zelfstandig moeten zijn en dingen alleen moeten doen.
12:21
We actually do things together.
301
741360
1496
We doen echt dingen samen.
12:22
And to make that happen,
302
742880
1256
En om daarvoor te zorgen,
hebben we hulp nodig van mensen zoals artiesten en ontwerpers,
12:24
we actually need help from people like the artists and the designers,
303
744160
3256
beleidsmakers, juristen,
12:27
the policy makers, the legal scholars,
304
747440
1856
psychologen, sociologen, antropologen.
12:29
psychologists, sociologists, anthropologists --
305
749320
2216
12:31
we need more perspectives in the room
306
751560
1816
We hebben meer gezichtspunten nodig
12:33
if we're going to do the thing that Stu Card says we should do,
307
753400
2976
als we datgene gaan doen dat Stu Card zegt dat we moeten doen,
12:36
which is invent the future that we actually want to live in.
308
756400
3936
namelijk het uitvinden van de toekomst waarin we effectief willen leven.
12:40
And I think we can continue to experiment
309
760360
2656
Ik denk dat we samen verder kunnen experimenteren
12:43
with these different robotic futures together,
310
763040
2176
met deze verschillende robottoekomsten
12:45
and in doing so, we will end up learning a lot more about ourselves.
311
765240
4680
en dat we al doende veel meer over onszelf zullen leren.
12:50
Thank you.
312
770720
1216
Bedankt.
12:51
(Applause)
313
771960
2440
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7