Rodney Brooks: How robots will invade our lives

60,794 views ・ 2008-10-10

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Rik Delaet Nagekeken door: Christel Foncke
00:18
What I want to tell you about today is how I see robots invading our lives
0
18330
5000
Ik wil het vandaag hebben over hoe robots ons leven
00:23
at multiple levels, over multiple timescales.
1
23330
3000
op meerdere niveaus, over meerdere tijdschalen binnendringen.
00:26
And when I look out in the future, I can't imagine a world, 500 years from now,
2
26330
4000
Ik kan me de toekomstige wereld, 500 jaar na nu,
00:30
where we don't have robots everywhere.
3
30330
2000
zonder robots niet voorstellen.
00:32
Assuming -- despite all the dire predictions from many people about our future --
4
32330
5000
Ervan uitgaande dat - ondanks alle sombere voorspellingen van veel mensen over onze toekomst -
00:37
assuming we're still around, I can't imagine the world not being populated with robots.
5
37330
4000
we er nog steeds zullen zijn, kan ik me niet voorstellen dat de wereld niet zal worden bevolkt door robots.
00:41
And then the question is, well, if they're going to be here in 500 years,
6
41330
3000
De vraag is of het niet
00:44
are they going to be everywhere sooner than that?
7
44330
2000
sneller zal gaan gebeuren?
00:46
Are they going to be around in 50 years?
8
46330
2000
Bijvoorbeeld binnen 50 jaar?
00:48
Yeah, I think that's pretty likely -- there's going to be lots of robots everywhere.
9
48330
3000
Ja, ik denk dat er overal heel veel robots gaan zijn.
00:51
And in fact I think that's going to be a lot sooner than that.
10
51330
3000
In feite zal het nog een stuk sneller gaan.
00:54
I think we're sort of on the cusp of robots becoming common,
11
54330
4000
We staan op de vooravond van hun komst.
00:58
and I think we're sort of around 1978 or 1980 in personal computer years,
12
58330
6000
Je kan het vergelijken met 1978 of 1980 voor de pc.
01:04
where the first few robots are starting to appear.
13
64330
3000
De eerste robots beginnen te verschijnen.
01:07
Computers sort of came around through games and toys.
14
67330
4000
De eerste computers verschenen onder de vorm van spellen en speelgoed.
01:11
And you know, the first computer most people had in the house
15
71330
3000
De eerste computer die de meeste mensen in huis haalden,
01:14
may have been a computer to play Pong,
16
74330
2000
was misschien wel een computer om Pong te spelen,
01:16
a little microprocessor embedded,
17
76330
2000
met een kleine ingebouwde microprocessor.
01:18
and then other games that came after that.
18
78330
3000
Daarna kwamen andere spellen.
01:21
And we're starting to see that same sort of thing with robots:
19
81330
3000
Met robots gaat het net zo:
01:24
LEGO Mindstorms, Furbies -- who here -- did anyone here have a Furby?
20
84330
4000
LEGO Mindstorms, Furbies - die hier - heeft iemand hier een Furby?
01:28
Yeah, there's 38 million of them sold worldwide.
21
88330
3000
Ja, er zijn er wereldwijd 38 miljoen van verkocht.
01:31
They are pretty common. And they're a little tiny robot,
22
91330
2000
Je ziet ze overal. Het zijn klein eenvoudige robotjes
01:33
a simple robot with some sensors,
23
93330
2000
met wat sensoren en
01:35
a little bit of processing actuation.
24
95330
2000
wat mogelijkheid tot activiteit.
01:37
On the right there is another robot doll, who you could get a couple of years ago.
25
97330
3000
Rechts is een andere robotpop, die je een paar jaar geleden kon kopen.
01:40
And just as in the early days,
26
100330
2000
En net zoals vroeger met de computer
01:42
when there was a lot of sort of amateur interaction over computers,
27
102330
5000
toen er een heleboel amateurs actief waren,
01:47
you can now get various hacking kits, how-to-hack books.
28
107330
4000
kan je nu allerlei doe-het-zelfboeken en kits kopen.
01:51
And on the left there is a platform from Evolution Robotics,
29
111330
4000
Links is er een platform van Evolution Robotics,
01:55
where you put a PC on, and you program this thing with a GUI
30
115330
3000
waar je een pc op zet en het ding programmeert met een GUI
01:58
to wander around your house and do various stuff.
31
118330
3000
om door je huis te zwerven en allerlei dingen te doen.
02:01
And then there's a higher price point sort of robot toys --
32
121330
3000
Dan is er ook nog robotspeelgoed in een hogere prijsklasse -
02:04
the Sony Aibo. And on the right there, is one that the NEC developed,
33
124330
4000
de Sony Aibo. Rechts is er een van NEC, de PaPeRo,
02:08
the PaPeRo, which I don't think they're going to release.
34
128330
3000
waarvan ik niet denk dat ze hem op de markt gaan brengen.
02:11
But nevertheless, those sorts of things are out there.
35
131330
3000
Maar toch is dat soort dingen er al.
02:14
And we've seen, over the last two or three years, lawn-mowing robots,
36
134330
4000
De afgelopen twee of drie jaar hebben we grasmaairobots gezien,
02:18
Husqvarna on the bottom, Friendly Robotics on top there, an Israeli company.
37
138330
6000
Onderaan Husqvarna, bovenaan Friendly Robotics van een Israëlisch bedrijf.
02:24
And then in the last 12 months or so
38
144330
2000
Het laatste jaar
02:26
we've started to see a bunch of home-cleaning robots appear.
39
146330
4000
zagen we een hoop stofzuigerrobots verschijnen.
02:30
The top left one is a very nice home-cleaning robot
40
150330
3000
Linksboven zie je een zeer mooie stofzuigerrobot
02:33
from a company called Dyson, in the U.K. Except it was so expensive --
41
153330
4000
van het bedrijf Dyson, in het Verenigd Koninkrijk. Maar hij was zo duur -
02:37
3,500 dollars -- they didn't release it.
42
157330
2000
3500 dollar – dat ze hem niet op de markt brachten.
02:39
But at the bottom left, you see Electrolux, which is on sale.
43
159330
3000
Linksonder zie je de Electrolux, die is te koop.
02:42
Another one from Karcher.
44
162330
2000
Een andere van Kärcher.
02:44
At the bottom right is one that I built in my lab
45
164330
2000
Rechts onderaan is er een die ik bouwde in mijn lab
02:46
about 10 years ago, and we finally turned that into a product.
46
166330
3000
ongeveer 10 jaar geleden en die nu marktklaar is.
02:49
And let me just show you that.
47
169330
2000
Ik toon hem even.
02:51
We're going to give this away I think, Chris said, after the talk.
48
171330
4000
We gaan deze na de talk weggeven zei Chris, denk ik.
02:55
This is a robot that you can go out and buy, and that will clean up your floor.
49
175330
6000
Dit is een robot die je kunt kopen en die je vloer zal schoonmaken.
03:05
And it starts off sort of just going around in ever-increasing circles.
50
185330
5000
Hij begint rond te gaan in steeds grotere cirkels.
03:10
If it hits something -- you people see that?
51
190330
4000
Als hij iets raakt - zien jullie dat?
03:14
Now it's doing wall-following, it's following around my feet
52
194330
3000
Nu gaat hij de hindernis volgen, rond mijn voeten rijden,
03:17
to clean up around me. Let's see, let's --
53
197330
4000
om me heen schoonmaken. Laten eens kijken, laten we -
03:21
oh, who stole my Rice Krispies? They stole my Rice Krispies!
54
201330
5000
oh, wie heeft mijn Rice Krispies gepikt? Ze hebben mijn Rice Krispies gestolen!
03:26
(Laughter)
55
206330
6000
(Gelach)
03:32
Don't worry, relax, no, relax, it's a robot, it's smart!
56
212330
3000
Maak je geen zorgen, kalm, het is een robot, hij is slim!
03:35
(Laughter)
57
215330
3000
(Gelach)
03:38
See, the three-year-old kids, they don't worry about it.
58
218330
4000
Driejarige kinderen malen daar niet om.
03:42
It's grown-ups that get really upset.
59
222330
2000
Alleen de volwassenen.
03:44
(Laughter)
60
224330
1000
(Gelach)
03:45
We'll just put some crap here.
61
225330
2000
We gaan hier gewoon wat rommel rondstrooien.
03:47
(Laughter)
62
227330
4000
(Gelach)
03:51
Okay.
63
231330
2000
Oké.
03:53
(Laughter)
64
233330
4000
(Gelach)
03:57
I don't know if you see -- so, I put a bunch of Rice Krispies there,
65
237330
3000
Ik weet niet of je het ziet – ik liet daar wat Rice Krispies vallen,
04:00
I put some pennies, let's just shoot it at that, see if it cleans up.
66
240330
7000
Ook wat centen, laten we het eens proberen, kijken of hij opruimt.
04:10
Yeah, OK. So --
67
250330
2000
Ja, Oké. -
04:12
we'll leave that for later.
68
252330
4000
Dat laten we voor later.
04:16
(Applause)
69
256330
5000
(Applaus)
04:22
Part of the trick was building a better cleaning mechanism, actually;
70
262330
4000
Een deel van de truc was eigenlijk het bouwen van een beter reinigingsmechanisme;
04:26
the intelligence on board was fairly simple.
71
266330
4000
de intelligentie aan boord was vrij simpel.
04:30
And that's true with a lot of robots.
72
270330
2000
Dat is waar voor veel robots.
04:32
We've all, I think, become, sort of computational chauvinists,
73
272330
4000
We zijn allemaal, denk ik, een beetje ‘computerchauvinisten’ geworden
04:36
and think that computation is everything,
74
276330
2000
en denken dat berekenen alles is,
04:38
but the mechanics still matter.
75
278330
2000
maar de mechaniek is nog steeds belangrijk.
04:40
Here's another robot, the PackBot,
76
280330
3000
Hier is nog een robot, de PackBot,
04:43
that we've been building for a bunch of years.
77
283330
2000
die we al een tijdje maken.
04:45
It's a military surveillance robot, to go in ahead of troops --
78
285330
6000
Het is een militaire surveillancerobot om de troepen vooraf te gaan -
04:51
looking at caves, for instance.
79
291330
3000
rondkijken in grotten, bijvoorbeeld.
04:54
But we had to make it fairly robust,
80
294330
2000
Maar we moesten hem vrij robuust maken,
04:56
much more robust than the robots we build in our labs.
81
296330
7000
veel robuuster dan de robots die we in onze labs bouwen.
05:03
(Laughter)
82
303330
3000
(Gelach)
05:12
On board that robot is a PC running Linux.
83
312330
4000
Aan boord van die robot zit een pc met Linux.
05:16
It can withstand a 400G shock. The robot has local intelligence:
84
316330
6000
Hij is bestand tegen schokken van 400 g. De robot heeft ingebouwde intelligentie:
05:22
it can flip itself over, can get itself into communication range,
85
322330
6000
hij kan kopje over doen, zich binnen communicatiebereik brengen,
05:28
can go upstairs by itself, et cetera.
86
328330
3000
zelf een trap oplopen, enzovoort.
05:38
Okay, so it's doing local navigation there.
87
338330
4000
Daar is hij bezig met lokale navigatie.
05:42
A soldier gives it a command to go upstairs, and it does.
88
342330
6000
Een soldaat geeft hem de opdracht om naar boven te gaan en hij doet het.
05:49
That was not a controlled descent.
89
349330
3000
Dat was geen gecontroleerde afdaling.
05:52
(Laughter)
90
352330
2000
(Gelach)
05:54
Now it's going to head off.
91
354330
2000
Daar gaat ie.
05:56
And the big breakthrough for these robots, really, was September 11th.
92
356330
5000
9/11 betekende de grote doorbraak voor deze robots.
06:01
We had the robots down at the World Trade Center late that evening.
93
361330
4000
We brachten die avond de robots naar het World Trade Center.
06:06
Couldn't do a lot in the main rubble pile,
94
366330
2000
Maar ze konden niet veel doen in die grote stapel puin
06:08
things were just too -- there was nothing left to do.
95
368330
3000
- er was niets meer te doen.
06:11
But we did go into all the surrounding buildings that had been evacuated,
96
371330
5000
Maar we zijn in alle geëvacueerde omliggende gebouwen
06:16
and searched for possible survivors in the buildings
97
376330
3000
gaan zoeken naar mogelijke overlevenden.
06:19
that were too dangerous to go into.
98
379330
2000
Het was te gevaarlijk om erin te gaan.
06:21
Let's run this video.
99
381330
2000
Laten we deze video eens bekijken.
06:23
Reporter: ...battlefield companions are helping to reduce the combat risks.
100
383330
3000
Reporter: ... deze slagveldmetgezellen helpen de risico's te verminderen.
06:26
Nick Robertson has that story.
101
386330
3000
Een reportage van Nick Robertson.
06:31
Rodney Brooks: Can we have another one of these?
102
391330
2000
Rodney Brooks: Kunnen we er nog eentje hebben?
06:38
Okay, good.
103
398330
2000
Oké, goed.
06:43
So, this is a corporal who had seen a robot two weeks previously.
104
403330
3000
Dit is een korporaal die pas twee weken eerder een robot had gezien.
06:48
He's sending robots into caves, looking at what's going on.
105
408330
4000
Hij stuurt robots de grotten in om te kijken naar wat er gebeurt.
06:52
The robot's being totally autonomous.
106
412330
2000
De robot is volledig autonoom.
06:54
The worst thing that's happened in the cave so far
107
414330
4000
Het ergste wat er tot nu toe in de grot is gebeurd,
06:58
was one of the robots fell down ten meters.
108
418330
3000
was dat een van de robots een val van tien meter maakte.
07:08
So one year ago, the US military didn't have these robots.
109
428330
3000
Vorig jaar beschikte het Amerikaanse leger nog niet over deze robots.
07:11
Now they're on active duty in Afghanistan every day.
110
431330
2000
Nu worden ze in Afghanistan dagelijks gebruikt.
07:13
And that's one of the reasons they say a robot invasion is happening.
111
433330
3000
Daarom zeggen ze dat er een robotinvasie aan de gang is.
07:16
There's a sea change happening in how -- where technology's going.
112
436330
4000
De technologie is in volle ontwikkeling.
07:20
Thanks.
113
440330
2000
Bedankt.
07:23
And over the next couple of months,
114
443330
2000
Binnen enkele maanden
07:25
we're going to be sending robots in production
115
445330
3000
gaan we robots naar beneden sturen
07:28
down producing oil wells to get that last few years of oil out of the ground.
116
448330
4000
in de olieputten om die laatste paar jaar olie uit de grond te krijgen.
07:32
Very hostile environments, 150˚ C, 10,000 PSI.
117
452330
4000
Zeer vijandige omgevingen, 150 ˚C, 700 bar.
07:36
Autonomous robots going down, doing this sort of work.
118
456330
4000
Autonome robots doen daar beneden dit soort werk.
07:40
But robots like this, they're a little hard to program.
119
460330
3000
Maar robots als deze zijn een beetje moeilijk om te programmeren.
07:43
How, in the future, are we going to program our robots
120
463330
2000
Hoe gaan we in de toekomst onze robots programmeren
07:45
and make them easier to use?
121
465330
2000
om ze gemakkelijker te kunnen gebruiken?
07:47
And I want to actually use a robot here --
122
467330
3000
Ik wil hier eigenlijk gebruik maken van een robot -
07:50
a robot named Chris -- stand up. Yeah. Okay.
123
470330
5000
een robot met de naam Chris – sta op. Yeah. Oké.
07:57
Come over here. Now notice, he thinks robots have to be a bit stiff.
124
477330
4000
Kom eens hier. Merk op dat hij denkt dat robots een beetje stijf moeten zijn.
08:01
He sort of does that. But I'm going to --
125
481330
3000
Hij doet dat een beetje. Maar ik ga -
08:04
Chris Anderson: I'm just British. RB: Oh.
126
484330
2000
Chris Anderson: Ik ben alleen maar Brits. RB: Oh.
08:06
(Laughter)
127
486330
2000
(Gelach)
08:08
(Applause)
128
488330
2000
(Applaus)
08:10
I'm going to show this robot a task. It's a very complex task.
129
490330
3000
Ik ga deze robot een taak laten zien. Een erg complexe taak.
08:13
Now notice, he nodded there, he was giving me some indication
130
493330
3000
Let nu op, hij knikte daar, hij gaf me een indicatie
08:16
he was understanding the flow of communication.
131
496330
3000
dat hij de communicatiestroom begreep.
08:19
And if I'd said something completely bizarre
132
499330
2000
Als ik iets heel bizar had gezegd
08:21
he would have looked askance at me, and regulated the conversation.
133
501330
3000
zou hij me scheef hebben aangekeken en het gesprek in goede banen geleid.
08:24
So now I brought this up in front of him.
134
504330
3000
Ik plaatste dit voor hem.
08:27
I'd looked at his eyes, and I saw his eyes looked at this bottle top.
135
507330
4000
Ik keek naar zijn ogen en ik zag zijn ogen naar de flessenhals gaan.
08:31
And I'm doing this task here, and he's checking up.
136
511330
2000
Ik voer deze taak uit en hij volgt dat.
08:33
His eyes are going back and forth up to me, to see what I'm looking at --
137
513330
3000
Zijn ogen volgen af en toe de mijne om te zien waar ik naar kijk -
08:36
so we've got shared attention.
138
516330
2000
we hebben dus gedeelde aandacht.
08:38
And so I do this task, and he looks, and he looks to me
139
518330
3000
Ik voer deze taak uit, hij kijkt en kijkt ook naar mij
08:41
to see what's happening next. And now I'll give him the bottle,
140
521330
4000
om te zien wat er gaat gebeuren. Nu geef ik hem de fles
08:45
and we'll see if he can do the task. Can you do that?
141
525330
2000
en we zullen zien of hij de taak aankan. Kan je dat?
08:47
(Laughter)
142
527330
3000
(Gelach)
08:50
Okay. He's pretty good. Yeah. Good, good, good.
143
530330
4000
Oké. Hij is best goed. Ja. Goed, goed, goed.
08:54
I didn't show you how to do that.
144
534330
2000
Ik heb je niet laten zien hoe je dat moet doen.
08:56
Now see if you can put it back together.
145
536330
2000
Nu eens zien of je het weer in elkaar kan zetten.
08:58
(Laughter)
146
538330
2000
(Gelach)
09:00
And he thinks a robot has to be really slow.
147
540330
1000
Hij denkt dat een robot echt traag moet zijn.
09:01
Good robot, that's good.
148
541330
2000
Goede robot, dat is goed.
09:03
So we saw a bunch of things there.
149
543330
2000
We zagen daar een hoop dingen.
09:06
We saw when we're interacting,
150
546330
3000
We zagen dat als we interageren,
09:09
we're trying to show someone how to do something, we direct their visual attention.
151
549330
4000
als we proberen iemand te tonen hoe iets gedaan wordt, we hun visuele aandacht geleiden.
09:13
The other thing communicates their internal state to us,
152
553330
4000
Het andere ding communiceert hun interne toestand naar ons en
09:17
whether he's understanding or not, regulates a social interaction.
153
557330
3000
zorgt voor sociale interactie of hij het begrijpt of niet.
09:20
There was shared attention looking at the same sort of thing,
154
560330
2000
Er was gedeelde aandacht voor hetzelfde soort dingen
09:22
and recognizing socially communicated reinforcement at the end.
155
562330
4000
en aan het eind herkennen van sociaal gecommuniceerde bekrachtiging.
09:26
And we've been trying to put that into our lab robots
156
566330
3000
Dat hebben we proberen te verwezenlijken in ons labrobots
09:29
because we think this is how you're going to want to interact with robots in the future.
157
569330
4000
omdat we denken dat dit is hoe je in de toekomst met robots gaat willen communiceren.
09:33
I just want to show you one technical diagram here.
158
573330
2000
Ik toon jullie hier een technisch diagram.
09:35
The most important thing for building a robot that you can interact with socially
159
575330
4000
Het allerbelangrijkste voor het bouwen van een robot waarmee je sociaal kunt communiceren,
09:39
is its visual attention system.
160
579330
2000
is zijn visuele-aandachtsysteem.
09:41
Because what it pays attention to is what it's seeing
161
581330
3000
Want hij besteedt aandacht aan wat hij ziet
09:44
and interacting with, and what you're understanding what it's doing.
162
584330
3000
en waarmee hij interageert, en of jij begrijpt wat hij doet.
09:47
So in the videos I'm about to show you,
163
587330
3000
In de video’s die ik jullie ga tonen,
09:50
you're going to see a visual attention system on a robot
164
590330
4000
ga je een visuele-aandachtsysteem zien bij een robot.
09:54
which has -- it looks for skin tone in HSV space,
165
594330
4000
Hij let op huidskleur in de HSV-kleurruimte,
09:58
so it works across all human colorings.
166
598330
4000
hij werkt met alle menselijke huidskleuren.
10:02
It looks for highly saturated colors, from toys.
167
602330
2000
Het zoekt naar zeer verzadigde kleuren, van speelgoed.
10:04
And it looks for things that move around.
168
604330
2000
En hij let op dingen die bewegen.
10:06
And it weights those together into an attention window,
169
606330
3000
Hij weegt die af in een aandachtsvenster,
10:09
and it looks for the highest-scoring place --
170
609330
2000
en gaat naar de plaats met de hoogste score kijken -
10:11
the stuff where the most interesting stuff is happening --
171
611330
2000
waar de interessantste dingen gebeuren -
10:13
and that is what its eyes then segue to.
172
613330
4000
en dat is wat zijn ogen dan gaan ‘segue-en’ (volgen).
10:17
And it looks right at that.
173
617330
2000
Daar kijkt hij naar.
10:19
At the same time, some top-down sort of stuff:
174
619330
3000
Op hetzelfde moment gebeuren er een aantal top-down dingen:
10:22
might decide that it's lonely and look for skin tone,
175
622330
3000
hij zou kunnen besluiten dat hij eenzaam is en zoeken naar huidskleur,
10:25
or might decide that it's bored and look for a toy to play with.
176
625330
3000
of hij kan beslissen dat hij zich verveelt en op zoek gaan naar een stuk speelgoed om mee te spelen.
10:28
And so these weights change.
177
628330
2000
Dan krijgen andere zaken meer gewicht.
10:30
And over here on the right,
178
630330
2000
Hier aan de rechterkant
10:32
this is what we call the Steven Spielberg memorial module.
179
632330
3000
is wat wij de Steven-Spielberg-gedenktekenmodule noemen.
10:35
Did people see the movie "AI"? (Audience: Yes.)
180
635330
2000
Heeft iemand de film ‘AI’ gezien? (Publiek: Ja.)
10:37
RB: Yeah, it was really bad, but --
181
637330
2000
RB: Ja, hij was echt slecht, maar -
10:39
remember, especially when Haley Joel Osment, the little robot,
182
639330
4000
herinner je je dat Haley Joel Osment, de kleine robot,
10:43
looked at the blue fairy for 2,000 years without taking his eyes off it?
183
643330
4000
2000 jaren naar de blauwe fee keek zonder zijn ogen af te wenden?
10:47
Well, this gets rid of that,
184
647330
2000
Met dit ontdoen we ons ervan
10:49
because this is a habituation Gaussian that gets negative,
185
649330
4000
want dit is een Gaussiaanse voor gewenning die negatief wordt
10:53
and more and more intense as it looks at one thing.
186
653330
3000
en wel des te meer als hij naar één ding blijft kijken.
10:56
And it gets bored, so it will then look away at something else.
187
656330
3000
Hij raakt verveeld en zal dan wegkijken naar iets anders.
10:59
So, once you've got that -- and here's a robot, here's Kismet,
188
659330
4000
Nu je dat hebt gesnapt: hier is een robot, hier is Kismet
11:03
looking around for a toy. You can tell what it's looking at.
189
663330
4000
op zoek naar een stuk speelgoed. Je kan zien waar hij naar kijkt.
11:07
You can estimate its gaze direction from those eyeballs covering its camera,
190
667330
5000
Je kan zijn blikrichting raden door die oogballen op zijn camera
11:12
and you can tell when it's actually seeing the toy.
191
672330
3000
en je kan zien wanneer hij het speelgoed in de gaten heeft.
11:15
And it's got a little bit of an emotional response here.
192
675330
2000
Hij toont hier wat emotie.
11:17
(Laughter)
193
677330
1000
(Gelach)
11:18
But it's still going to pay attention
194
678330
2000
Maar hij blijft aandachtig
11:20
if something more significant comes into its field of view --
195
680330
4000
als er iets meer betekenisvol in zijn gezichtsveld komt -
11:24
such as Cynthia Breazeal, the builder of this robot, from the right.
196
684330
4000
zoals Cynthia Breazeal, de bouwer van deze robot, van rechts.
11:28
It sees her, pays attention to her.
197
688330
5000
Hij ziet haar, besteedt er aandacht aan.
11:33
Kismet has an underlying, three-dimensional emotional space,
198
693330
4000
Kismet heeft een onderliggende, driedimensionale emotionele ruimte,
11:37
a vector space, of where it is emotionally.
199
697330
3000
een vectorruimte, van waar hij zich emotioneel bevindt.
11:40
And at different places in that space, it expresses --
200
700330
5000
Op verschillende plekken in die ruimte, drukt hij zich uit -
11:46
can we have the volume on here?
201
706330
2000
kan het volume even wat hoger?
11:48
Can you hear that now, out there? (Audience: Yeah.)
202
708330
2000
Horen jullie het nu? (Publiek: Ja)
11:50
Kismet: Do you really think so? Do you really think so?
203
710330
5000
Kismet: Denk je dat echt? Denk je dat echt?
11:57
Do you really think so?
204
717330
2000
Denk je dat echt?
12:00
RB: So it's expressing its emotion through its face
205
720330
3000
RB: Hij uit zijn emoties via zijn gezicht
12:03
and the prosody in its voice.
206
723330
2000
en de intonatie in zijn stem.
12:05
And when I was dealing with my robot over here,
207
725330
4000
Toen ik bezig was met mijn robot hier, Chris,
12:09
Chris, the robot, was measuring the prosody in my voice,
208
729330
3000
mat hij de intonatie van mijn stem.
12:12
and so we have the robot measure prosody for four basic messages
209
732330
5000
Daarom laten we de robot de intonatie meten voor vier elementaire boodschappen
12:17
that mothers give their children pre-linguistically.
210
737330
4000
die moeders hun kinderen pre-linguïstisch meedelen.
12:21
Here we've got naive subjects praising the robot:
211
741330
3000
Hier laten we onvoorbereide proefpersonen de robot prijzen:
12:26
Voice: Nice robot.
212
746330
2000
Stem: Leuke robot.
12:29
You're such a cute little robot.
213
749330
2000
Je bent zo'n schattige kleine robot.
12:31
(Laughter)
214
751330
2000
(Gelach)
12:33
RB: And the robot's reacting appropriately.
215
753330
2000
RB: En de robot reageert adequaat.
12:35
Voice: ...very good, Kismet.
216
755330
4000
Stem: ... heel goed, Kismet.
12:40
(Laughter)
217
760330
2000
(Gelach)
12:42
Voice: Look at my smile.
218
762330
2000
Stem: Kijk eens naar mijn glimlach.
12:46
RB: It smiles. She imitates the smile. This happens a lot.
219
766330
3000
RB: Hij glimlacht. Hij imiteert de glimlach. Dit gebeurt vaak.
12:49
These are naive subjects.
220
769330
2000
Dit zijn onvoorbereide proefpersonen.
12:51
Here we asked them to get the robot's attention
221
771330
3000
Hier hebben we hun gevraagd om de aandacht van de robot te trekken
12:54
and indicate when they have the robot's attention.
222
774330
3000
en aan te geven wanneer ze zijn aandacht hebben.
12:57
Voice: Hey, Kismet, ah, there it is.
223
777330
4000
Stem: Hey, Kismet, ah, daar is ie.
13:01
RB: So she realizes she has the robot's attention.
224
781330
4000
RB: Ze beseft dat ze de aandacht van de robot heeft.
13:08
Voice: Kismet, do you like the toy? Oh.
225
788330
4000
Stem: Kismet, vind je het speeltje leuk? Oh.
13:13
RB: Now, here they're asked to prohibit the robot,
226
793330
2000
RB: Hier zijn ze gevraagd om de robot iets te verbieden,
13:15
and this first woman really pushes the robot into an emotional corner.
227
795330
4000
en de eerste vrouw duwt de robot echt in een emotionele hoek.
13:19
Voice: No. No. You're not to do that. No.
228
799330
5000
Stem: Nee, nee, dat mag niet. Nee.
13:24
(Laughter)
229
804330
3000
(Gelach)
13:27
Not appropriate. No. No.
230
807330
6000
Mag niet. Nee, nee
13:33
(Laughter)
231
813330
3000
(Gelach)
13:36
RB: I'm going to leave it at that.
232
816330
2000
RB: Hier ga ik het bij laten.
13:38
We put that together. Then we put in turn taking.
233
818330
2000
Dat zetten we in elkaar. Dan voegen we beurtelings werken toe.
13:40
When we talk to someone, we talk.
234
820330
3000
Wanneer we met iemand praten, praten we,
13:43
Then we sort of raise our eyebrows, move our eyes,
235
823330
4000
dan trekken we onze wenkbrauwen op, bewegen onze ogen
13:47
give the other person the idea it's their turn to talk.
236
827330
3000
om de ander aan te geven dat het zijn beurt is om te praten.
13:50
And then they talk, and then we pass the baton back and forth between each other.
237
830330
4000
Dan gaan zij praten en dan geven we het stokje heen en weer aan elkaar door.
13:54
So we put this in the robot.
238
834330
2000
Daarom hebben we dit in de robot ondergebracht.
13:56
We got a bunch of naive subjects in,
239
836330
2000
We brachten er een stel onvoorbereide proefpersonen bij,
13:58
we didn't tell them anything about the robot,
240
838330
2000
vertelden hen niets over de robot,
14:00
sat them down in front of the robot and said, talk to the robot.
241
840330
2000
zetten ze voor de robot en zeiden: “Praat met de robot.”
14:02
Now what they didn't know was,
242
842330
2000
Wat zij niet wisten was dat
14:04
the robot wasn't understanding a word they said,
243
844330
2000
de robot geen woord snapte van wat ze zeiden
14:06
and that the robot wasn't speaking English.
244
846330
3000
en dat de robot geen Engels sprak.
14:09
It was just saying random English phonemes.
245
849330
2000
Hij produceerde alleen maar wat willekeurige Engelse fonemen.
14:11
And I want you to watch carefully, at the beginning of this,
246
851330
2000
Let vooral in het begin goed op
14:13
where this person, Ritchie, who happened to talk to the robot for 25 minutes --
247
853330
4000
als deze persoon, Ritchie, die 25 minuten lang met de robot sprak -
14:17
(Laughter)
248
857330
2000
(Gelach)
14:19
-- says, "I want to show you something.
249
859330
2000
- zegt: "Ik wil je iets laten zien.
14:21
I want to show you my watch."
250
861330
2000
Ik wil je mijn horloge tonen.”
14:23
And he brings the watch center, into the robot's field of vision,
251
863330
5000
Hij brengt zijn horloge midden in het gezichtsveld van de robot,
14:28
points to it, gives it a motion cue,
252
868330
2000
wijst ernaar, geeft hem een bewegingsaanwijzing
14:30
and the robot looks at the watch quite successfully.
253
870330
2000
en de robot slaagt erin naar het horloge te kijken.
14:32
We don't know whether he understood or not that the robot --
254
872330
3000
We weten niet of hij wel of niet begreep, dat de robot -
14:36
Notice the turn-taking.
255
876330
2000
Let op het beurtelings reageren.
14:38
Ritchie: OK, I want to show you something. OK, this is a watch
256
878330
3000
Ritchie: Ik wil je iets laten zien. Dit is een horloge
14:41
that my girlfriend gave me.
257
881330
3000
dat ik kreeg van mijn vriendin.
14:44
Robot: Oh, cool.
258
884330
2000
Robot: Oh, cool.
14:46
Ritchie: Yeah, look, it's got a little blue light in it too. I almost lost it this week.
259
886330
4000
Ritchie: Ja, kijk, er zit ook een blauw lichtje in. Ik verloor het deze week bijna.
14:51
(Laughter)
260
891330
4000
(Gelach)
14:55
RB: So it's making eye contact with him, following his eyes.
261
895330
3000
RB: Hij maakt oogcontact met hem, volgt zijn ogen.
14:58
Ritchie: Can you do the same thing? Robot: Yeah, sure.
262
898330
2000
Ritchie: Kan je dat ook? Robot: Ja, zeker.
15:00
RB: And they successfully have that sort of communication.
263
900330
2000
RB: Ze slagen er dus in een bepaald soort communicatie tot stand te brengen.
15:02
And here's another aspect of the sorts of things that Chris and I were doing.
264
902330
4000
Hier is een ander aspect van de dingen die Chris en ik deden.
15:06
This is another robot, Cog.
265
906330
2000
Dit is een andere robot, Cog.
15:08
They first make eye contact, and then, when Christie looks over at this toy,
266
908330
6000
Ze maken eerst oogcontact en dan, als Christie naar dit speeltje kijkt,
15:14
the robot estimates her gaze direction
267
914330
2000
raadt de robot haar blikrichting
15:16
and looks at the same thing that she's looking at.
268
916330
2000
en kijkt naar hetzelfde ding waar zij naar kijkt.
15:18
(Laughter)
269
918330
1000
(Gelach)
15:19
So we're going to see more and more of this sort of robot
270
919330
3000
We gaan dit soort robot de komende jaren
15:22
over the next few years in labs.
271
922330
2000
in laboratoria meer en meer te zien krijgen.
15:24
But then the big questions, two big questions that people ask me are:
272
924330
5000
Maar dan de grote vragen, de twee grote vragen die mensen mij stellen, zijn:
15:29
if we make these robots more and more human-like,
273
929330
2000
“Als we deze robots meer en meer mensachtig gaan maken,
15:31
will we accept them, will we -- will they need rights eventually?
274
931330
5000
zullen we ze dan accepteren, zullen ze dan uiteindelijk rechten moeten hebben?”
15:36
And the other question people ask me is, will they want to take over?
275
936330
3000
De andere vraag die mensen mij stellen is: “Zullen ze de zaak willen overnemen?”
15:39
(Laughter)
276
939330
1000
(Gelach)
15:40
And on the first -- you know, this has been a very Hollywood theme
277
940330
3000
Op de eerste – ja dat is een echt Hollywoodthema
15:43
with lots of movies. You probably recognize these characters here --
278
943330
3000
met een hoop films. Je herkent waarschijnlijk deze personages -
15:46
where in each of these cases, the robots want more respect.
279
946330
4000
waar in elk van deze gevallen, de robots meer respect willen.
15:50
Well, do you ever need to give robots respect?
280
950330
3000
Zal je robots ooit moeten respecteren?
15:54
They're just machines, after all.
281
954330
2000
Het zijn per slot van rekening toch alleen maar machines.
15:56
But I think, you know, we have to accept that we are just machines.
282
956330
4000
Maar ik denk, dat we moeten accepteren dat wij ook slechts machines zijn.
16:00
After all, that's certainly what modern molecular biology says about us.
283
960330
5000
Dat is immers wat de moderne moleculaire biologie over ons zegt.
16:05
You don't see a description of how, you know,
284
965330
3000
Je zal geen beschrijving vinden van hoe
16:08
Molecule A, you know, comes up and docks with this other molecule.
285
968330
4000
molecule A zich, aangedreven door tegengestelde ladingen,
16:12
And it's moving forward, you know, propelled by various charges,
286
972330
3000
beweegt naar molecule B om zich dan,
16:15
and then the soul steps in and tweaks those molecules so that they connect.
287
975330
4000
door de bemoeienis van een ‘ziel’, eraan te binden.
16:19
It's all mechanistic. We are mechanism.
288
979330
3000
Het is allemaal mechanistisch. We zijn een mechanisme.
16:22
If we are machines, then in principle at least,
289
982330
3000
Als we machines zijn, dan zijn we, in principe althans,
16:25
we should be able to build machines out of other stuff,
290
985330
4000
in staat om machines te bouwen met behulp van andere dingen.
16:29
which are just as alive as we are.
291
989330
4000
Machines die net zo levend zijn als wij.
16:33
But I think for us to admit that,
292
993330
2000
Maar ik denk dat om dat toe te geven,
16:35
we have to give up on our special-ness, in a certain way.
293
995330
3000
we onze uniciteit moeten opgeven.
16:38
And we've had the retreat from special-ness
294
998330
2000
We hebben onze uniciteit, op zijn minst
16:40
under the barrage of science and technology many times
295
1000330
3000
in de afgelopen paar honderd jaar, al vaak moeten opgeven
16:43
over the last few hundred years, at least.
296
1003330
2000
onder het spervuur van wetenschap en technologie.
16:45
500 years ago we had to give up the idea
297
1005330
2000
500 jaar geleden moesten we het idee opgeven
16:47
that we are the center of the universe
298
1007330
3000
dat wij het middelpunt van het universum waren
16:50
when the earth started to go around the sun;
299
1010330
2000
toen de aarde rond de zon begon te draaien.
16:52
150 years ago, with Darwin, we had to give up the idea we were different from animals.
300
1012330
5000
150 jaar geleden moesten we met Darwin het idee opgeven dat we iets anders waren dan dieren.
16:57
And to imagine -- you know, it's always hard for us.
301
1017330
3000
Voor ons moeilijk verteerbaar.
17:00
Recently we've been battered with the idea that maybe
302
1020330
3000
Onlangs werden we om de oren geslagen met het idee dat we misschien
17:03
we didn't even have our own creation event, here on earth,
303
1023330
2000
op aarde niet eens onze speciale schepping hadden.
17:05
which people didn't like much. And then the human genome said,
304
1025330
3000
Mensen houden daar niet van. Dan vertelde het menselijk genoom ons
17:08
maybe we only have 35,000 genes. And that was really --
305
1028330
3000
dat we misschien maar 35 duizend genen hadden. Daar
17:11
people didn't like that, we've got more genes than that.
306
1031330
3000
houden mensen ook niet van, we willen meer genen dan dat.
17:14
We don't like to give up our special-ness, so, you know,
307
1034330
3000
We houden er niet van onze uniciteit op te geven.
17:17
having the idea that robots could really have emotions,
308
1037330
2000
Het idee dat robots echt emoties zouden kunnen hebben
17:19
or that robots could be living creatures --
309
1039330
2000
of dat robots levende wezens kunnen worden -
17:21
I think is going to be hard for us to accept.
310
1041330
2000
ik denk dat we dat moeilijk zullen kunnen slikken.
17:23
But we're going to come to accept it over the next 50 years or so.
311
1043330
4000
Maar we gaan het in de komende 50 jaar of zo moeten accepteren.
17:27
And the second question is, will the machines want to take over?
312
1047330
3000
En de tweede vraag: “Zullen de machines de zaak willen overnemen?”
17:30
And here the standard scenario is that we create these things,
313
1050330
5000
Het standaard scenario is dat we deze dingen gaan maken,
17:35
they grow, we nurture them, they learn a lot from us,
314
1055330
3000
ze groeien, we voeden ze, ze leren heel veel van ons
17:38
and then they start to decide that we're pretty boring, slow.
315
1058330
4000
en dan gaan ze vinden dat we maar erg saai en traag zijn.
17:42
They want to take over from us.
316
1062330
2000
Ze zullen het willen overnemen van ons.
17:44
And for those of you that have teenagers, you know what that's like.
317
1064330
3000
Ouders met tieners kennen dat.
17:47
(Laughter)
318
1067330
1000
(Gelach)
17:48
But Hollywood extends it to the robots.
319
1068330
3000
Maar Hollywood breidt dat uit naar robots.
17:51
And the question is, you know,
320
1071330
3000
De vraag is of
17:54
will someone accidentally build a robot that takes over from us?
321
1074330
4000
iemand per ongeluk een robot bouwt die het overneemt van ons?
17:58
And that's sort of like this lone guy in the backyard,
322
1078330
3000
Dat is zoiets als die eenling in zijn achtertuin
18:01
you know -- "I accidentally built a 747."
323
1081330
3000
die zegt: "Ik heb per ongeluk een 747 gebouwd."
18:04
I don't think that's going to happen.
324
1084330
2000
Ik denk niet dat dat gaat gebeuren.
18:06
And I don't think --
325
1086330
2000
Ik denk niet dat -
18:08
(Laughter)
326
1088330
1000
(Gelach)
18:09
-- I don't think we're going to deliberately build robots
327
1089330
3000
- ik denk niet dat we bewust robots gaan bouwen
18:12
that we're uncomfortable with.
328
1092330
2000
waar we ons ongemakkelijk bij gaan voelen.
18:14
We'll -- you know, they're not going to have a super bad robot.
329
1094330
2000
We gaan geen superslechte robot maken.
18:16
Before that has to come to be a mildly bad robot,
330
1096330
3000
Daarvoor moet je eerst een robot maken die een beetje slecht is
18:19
and before that a not so bad robot.
331
1099330
2000
en daarvóór een niet zo slechte robot.
18:21
(Laughter)
332
1101330
1000
(Gelach)
18:22
And we're just not going to let it go that way.
333
1102330
2000
Zoiets gaan we gewoon niet laten gebeuren.
18:24
(Laughter)
334
1104330
1000
(Gelach)
18:25
So, I think I'm going to leave it at that: the robots are coming,
335
1105330
6000
Ik denk dat ik het hierbij ga laten: de robots komen.
18:31
we don't have too much to worry about, it's going to be a lot of fun,
336
1111330
3000
We hoeven ons daar niet te veel zorgen over te maken, het gaat heel leuk zijn
18:34
and I hope you all enjoy the journey over the next 50 years.
337
1114330
4000
en ik hoop dat jullie er de volgende 50 jaar nog veel plezier aan zullen beleven.
18:38
(Applause)
338
1118330
2000
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7