Rodney Brooks: How robots will invade our lives

60,794 views ・ 2008-10-10

TED


Pro přehrání videa dvakrát klikněte na anglické titulky níže.

Překladatel: Marek Vanžura Korektor: Kristyna Zavadilova
00:18
What I want to tell you about today is how I see robots invading our lives
0
18330
5000
To, o čem vám chci dnes vyprávět, je, jak vidím pronikání robotů do našich životů
00:23
at multiple levels, over multiple timescales.
1
23330
3000
na rozličných úrovních, přes mnoho časových stupňů.
00:26
And when I look out in the future, I can't imagine a world, 500 years from now,
2
26330
4000
Když se podívám do budoucnosti, nedovedu si představit svět, dejme tomu za 500 let,
00:30
where we don't have robots everywhere.
3
30330
2000
kde bychom neměli všude roboty.
00:32
Assuming -- despite all the dire predictions from many people about our future --
4
32330
5000
Předpokládám -- navzdory všem negativistickým předpovědím mnoha lidí o naší budoucnosti --
00:37
assuming we're still around, I can't imagine the world not being populated with robots.
5
37330
4000
předpokládám, že jsme stále zde, nedovedu si představit svět, který by nebyl obydlen roboty.
00:41
And then the question is, well, if they're going to be here in 500 years,
6
41330
3000
A pak je otázkou, když tu budou za pět set let
00:44
are they going to be everywhere sooner than that?
7
44330
2000
zda tu všude nebudou již dříve?
00:46
Are they going to be around in 50 years?
8
46330
2000
Budou tu už za 50 let?
00:48
Yeah, I think that's pretty likely -- there's going to be lots of robots everywhere.
9
48330
3000
Ano, myslím si, že je to dost možné -- bude tu všude mnoho robotů.
00:51
And in fact I think that's going to be a lot sooner than that.
10
51330
3000
A ve skutečnosti si myslím, že to bude ještě mnohem dříve.
00:54
I think we're sort of on the cusp of robots becoming common,
11
54330
4000
Myslím si, že jsme na počátku doby, kdy se roboti stávají běžnými,
00:58
and I think we're sort of around 1978 or 1980 in personal computer years,
12
58330
6000
myslím si, že se to dá přirovnat k době osobních počítačů v letech 1978 či 1980,
01:04
where the first few robots are starting to appear.
13
64330
3000
kde se začínají objevovat první roboti.
01:07
Computers sort of came around through games and toys.
14
67330
4000
Počítače se rozšířily skrze hry a hračky.
01:11
And you know, the first computer most people had in the house
15
71330
3000
A jak víte, první počítač, který měla většina lidí doma,
01:14
may have been a computer to play Pong,
16
74330
2000
mohl být počítač na hraní hry Pong,
01:16
a little microprocessor embedded,
17
76330
2000
s malým mikroprocesorem,
01:18
and then other games that came after that.
18
78330
3000
a posléze se objevily i další hry.
01:21
And we're starting to see that same sort of thing with robots:
19
81330
3000
A všímáme si, že se to samé děje s roboty:
01:24
LEGO Mindstorms, Furbies -- who here -- did anyone here have a Furby?
20
84330
4000
LEGO Mindstorms, Furby -- kdo zde -- měl někdo zde Furbyho?
01:28
Yeah, there's 38 million of them sold worldwide.
21
88330
3000
Ano, po celém světě se jich prodalo 38 milionů.
01:31
They are pretty common. And they're a little tiny robot,
22
91330
2000
Jsou velmi běžní, jsou to malí roboti.
01:33
a simple robot with some sensors,
23
93330
2000
Jednoduchý robot s pár senzory.
01:35
a little bit of processing actuation.
24
95330
2000
Je to trocha zpracování podnětů.
01:37
On the right there is another robot doll, who you could get a couple of years ago.
25
97330
3000
Zde vpravo je jiná robotická panenka, kterou jste si mohli před pár lety pořídit.
01:40
And just as in the early days,
26
100330
2000
A tak jako na počátcích,
01:42
when there was a lot of sort of amateur interaction over computers,
27
102330
5000
kdy se rozmohlo mnoho typů amatérské interakce s počítači,
01:47
you can now get various hacking kits, how-to-hack books.
28
107330
4000
dnes můžete pořídit různé "bastlicí" soupravy, knihy "jak na to".
01:51
And on the left there is a platform from Evolution Robotics,
29
111330
4000
A vlevo je platforma od Evolution Robotics,
01:55
where you put a PC on, and you program this thing with a GUI
30
115330
3000
kam vložíte PC a programujete tuto věc skrze GUI (grafické uživatelské rozhraní),
01:58
to wander around your house and do various stuff.
31
118330
3000
aby se pohybovala po vašem domě a dělala všemožné věci.
02:01
And then there's a higher price point sort of robot toys --
32
121330
3000
A tady je něco kapku dražšího, robotické hračky --
02:04
the Sony Aibo. And on the right there, is one that the NEC developed,
33
124330
4000
Sony Aibo. A tady vpravo je něco, co vyvinuli v NEC,
02:08
the PaPeRo, which I don't think they're going to release.
34
128330
3000
jmenuje se PaPeRo, o kterém si ovšem nemyslím, že by s ním šli na trh.
02:11
But nevertheless, those sorts of things are out there.
35
131330
3000
Nicméně tamti roboti jsou mezi lidmi.
02:14
And we've seen, over the last two or three years, lawn-mowing robots,
36
134330
4000
A viděli jsme před dvěma či třemi lety roboty na sečení trávníku,
02:18
Husqvarna on the bottom, Friendly Robotics on top there, an Israeli company.
37
138330
6000
dole Husqvarna, nahoře izraelská společnost Friendly Robotics.
02:24
And then in the last 12 months or so
38
144330
2000
A pak v posledních 12 měsících nebo tak nějak
02:26
we've started to see a bunch of home-cleaning robots appear.
39
146330
4000
jsme si začali všímat expanze mnoha uklízecích robotů.
02:30
The top left one is a very nice home-cleaning robot
40
150330
3000
Nahoře vlevo je velmi pěkný uklízecí robot
02:33
from a company called Dyson, in the U.K. Except it was so expensive --
41
153330
4000
od společnosti s názvem Dyson z Velké Británie. Byl ale velmi drahý --
02:37
3,500 dollars -- they didn't release it.
42
157330
2000
3 500 dolarů -- takže jej nedali na trh.
02:39
But at the bottom left, you see Electrolux, which is on sale.
43
159330
3000
Ale vlevo dole vidíte Electrolux, který je v prodeji.
02:42
Another one from Karcher.
44
162330
2000
Další je od Karcheru.
02:44
At the bottom right is one that I built in my lab
45
164330
2000
Vpravo dole je jeden, kterého jsem postavil ve své laboratoři
02:46
about 10 years ago, and we finally turned that into a product.
46
166330
3000
před zhruba deseti lety a nakonec jsme z něj udělali produkt k prodeji.
02:49
And let me just show you that.
47
169330
2000
Dovolte mi jej vám ukázat.
02:51
We're going to give this away I think, Chris said, after the talk.
48
171330
4000
Tohle po přednášce někomu věnujeme, myslím, že Chris říkal, po přednášce.
02:55
This is a robot that you can go out and buy, and that will clean up your floor.
49
175330
6000
Toto je robot, kterého si můžete koupit, bude vám uklízet podlahu.
03:05
And it starts off sort of just going around in ever-increasing circles.
50
185330
5000
Začíná na místě a postupně se točí ve stále větších kruzích.
03:10
If it hits something -- you people see that?
51
190330
4000
Jestliže do něčeho narazí -- vidíte to?
03:14
Now it's doing wall-following, it's following around my feet
52
194330
3000
Teď jezdí kolem mých nohou, jako kdyby objížděl zeď
03:17
to clean up around me. Let's see, let's --
53
197330
4000
a uklízí kolem nich. Pojďme se podívat, pojďme --
03:21
oh, who stole my Rice Krispies? They stole my Rice Krispies!
54
201330
5000
kdo mi ukradl rýžové křupky? Ukradli mi rýžové křupky.
03:26
(Laughter)
55
206330
6000
(Smích)
03:32
Don't worry, relax, no, relax, it's a robot, it's smart!
56
212330
3000
Bez obav, v klidu, ne, v klidu, je to robot, je chytrý!
03:35
(Laughter)
57
215330
3000
(Smích)
03:38
See, the three-year-old kids, they don't worry about it.
58
218330
4000
Vidíte, tříleté děti by se tím neznepokojovaly.
03:42
It's grown-ups that get really upset.
59
222330
2000
Jsou to dospělí, kdo se tím rozrušují.
03:44
(Laughter)
60
224330
1000
(Smích)
03:45
We'll just put some crap here.
61
225330
2000
Uděláme tady trochu binec.
03:47
(Laughter)
62
227330
4000
(Smích)
03:51
Okay.
63
231330
2000
Fajn.
03:53
(Laughter)
64
233330
4000
(Smích)
03:57
I don't know if you see -- so, I put a bunch of Rice Krispies there,
65
237330
3000
Nevím, jestli to vidíte -- takže, nasypal jsem tady hromádku rýžových křupek,
04:00
I put some pennies, let's just shoot it at that, see if it cleans up.
66
240330
7000
přidal pár drobných, zaostřete sem kameru, podívejte, jestli to vyčistí.
04:10
Yeah, OK. So --
67
250330
2000
Jo, OK. Takže --
04:12
we'll leave that for later.
68
252330
4000
necháme to na později.
04:16
(Applause)
69
256330
5000
(Potlesk)
04:22
Part of the trick was building a better cleaning mechanism, actually;
70
262330
4000
Část triku byla v tom, postavit lepší čisticí mechanismus,
04:26
the intelligence on board was fairly simple.
71
266330
4000
inteligence stroje byla skutečně velice prostá.
04:30
And that's true with a lot of robots.
72
270330
2000
A je tomu tak u mnoha robotů.
04:32
We've all, I think, become, sort of computational chauvinists,
73
272330
4000
Všichni jsme se stali, myslím, výpočetními šovinisty
04:36
and think that computation is everything,
74
276330
2000
a mysleli jsme si, že výpočty jsou všechno,
04:38
but the mechanics still matter.
75
278330
2000
ale mechanika stále hraje roli.
04:40
Here's another robot, the PackBot,
76
280330
3000
Zde je jiný robot, PackBot,
04:43
that we've been building for a bunch of years.
77
283330
2000
kterého jsme pár let vyráběli.
04:45
It's a military surveillance robot, to go in ahead of troops --
78
285330
6000
Je to vojenský průzkumný robot, má jít v čele jednotek
04:51
looking at caves, for instance.
79
291330
3000
a například prozkoumávat jeskyně.
04:54
But we had to make it fairly robust,
80
294330
2000
Ale museli jsme jej postavit odolnějším,
04:56
much more robust than the robots we build in our labs.
81
296330
7000
mnohem odolnějším než roboty, které ve svých laboratořích stavíme.
05:03
(Laughter)
82
303330
3000
(Smích)
05:12
On board that robot is a PC running Linux.
83
312330
4000
V tomto robotovi je PC, na kterém běží Linux.
05:16
It can withstand a 400G shock. The robot has local intelligence:
84
316330
6000
Dokáže vydržet přetížení až 400 G. Robot má lokální inteligenci:
05:22
it can flip itself over, can get itself into communication range,
85
322330
6000
může se přetočit, může se sám dostat do oblasti komunikačního dosahu,
05:28
can go upstairs by itself, et cetera.
86
328330
3000
může stoupat po schodech a podobně.
05:38
Okay, so it's doing local navigation there.
87
338330
4000
Fajn, takže zde provádí lokální navigaci.
05:42
A soldier gives it a command to go upstairs, and it does.
88
342330
6000
Voják mu dává příkaz stoupat po schodech a on jej vykonává.
05:49
That was not a controlled descent.
89
349330
3000
Toto nebyl řízený sestup.
05:52
(Laughter)
90
352330
2000
(Smích)
05:54
Now it's going to head off.
91
354330
2000
Teď se obrátí.
05:56
And the big breakthrough for these robots, really, was September 11th.
92
356330
5000
Skutečný průlom pro tyto roboty bylo 11. září.
06:01
We had the robots down at the World Trade Center late that evening.
93
361330
4000
Měli jsme roboty ve Světovém obchodním centru (WTC) ten den v pozdním večeru.
06:06
Couldn't do a lot in the main rubble pile,
94
366330
2000
Nemohli udělat mnoho v hlavních troskách,
06:08
things were just too -- there was nothing left to do.
95
368330
3000
věci byly příliš -- nezbývalo zde nic k práci.
06:11
But we did go into all the surrounding buildings that had been evacuated,
96
371330
5000
Ale šli do okolních budov, které byly evakuovány
06:16
and searched for possible survivors in the buildings
97
376330
3000
a pátrali po možných přeživších v budovách,
06:19
that were too dangerous to go into.
98
379330
2000
do kterých bylo příliš nebezpečné jít.
06:21
Let's run this video.
99
381330
2000
Zapněme si toto video.
06:23
Reporter: ...battlefield companions are helping to reduce the combat risks.
100
383330
3000
Reportér: … pomocníci na bojišti pomáhají snižovat bojová rizika.
06:26
Nick Robertson has that story.
101
386330
3000
Nick Robertson má tento příběh.
06:31
Rodney Brooks: Can we have another one of these?
102
391330
2000
Rodney Brooks: Můžeme mít další?
06:38
Okay, good.
103
398330
2000
Dobře, dobrá.
06:43
So, this is a corporal who had seen a robot two weeks previously.
104
403330
3000
Takže, toto je desátník, který se s robotem seznámil dva týdny předtím.
06:48
He's sending robots into caves, looking at what's going on.
105
408330
4000
Posílá roboty do jeskyní, aby zkoumali, co se tam děje.
06:52
The robot's being totally autonomous.
106
412330
2000
Roboti jsou zcela samostatní.
06:54
The worst thing that's happened in the cave so far
107
414330
4000
Nejhorší věc, která se v jeskyni zatím stala,
06:58
was one of the robots fell down ten meters.
108
418330
3000
byla, že jeden z těchto robotů spadl z desetimetrové výšky.
07:08
So one year ago, the US military didn't have these robots.
109
428330
3000
Před rokem americká armáda tyto roboty neměla.
07:11
Now they're on active duty in Afghanistan every day.
110
431330
2000
Nyní jsou v aktivní službě v Afghánistánu každý den.
07:13
And that's one of the reasons they say a robot invasion is happening.
111
433330
3000
A toto je jeden z důvodů, proč se říká, že probíhá invaze robotů.
07:16
There's a sea change happening in how -- where technology's going.
112
436330
4000
Probíhá obrovská změna jak -- kde se technologie vyvíjí.
07:20
Thanks.
113
440330
2000
Díky.
07:23
And over the next couple of months,
114
443330
2000
A v dalších pár měsících
07:25
we're going to be sending robots in production
115
445330
3000
jsme posílali roboty
07:28
down producing oil wells to get that last few years of oil out of the ground.
116
448330
4000
pod zem vykopávat ropné vrty k vydolování posledních zbytků ropy na těch pár let.
07:32
Very hostile environments, 150˚ C, 10,000 PSI.
117
452330
4000
Velmi nehostinné prostředí, 150 °C, 10 000 PSI.
07:36
Autonomous robots going down, doing this sort of work.
118
456330
4000
Autonomní roboti se spouští dolů, vykonávají tento typ práce.
07:40
But robots like this, they're a little hard to program.
119
460330
3000
Ale roboti jako tito jsou trochu nároční na programování.
07:43
How, in the future, are we going to program our robots
120
463330
2000
Jak v budoucnosti budeme programovat naše roboty
07:45
and make them easier to use?
121
465330
2000
a činit je tak snadněji použitelnými?
07:47
And I want to actually use a robot here --
122
467330
3000
Chci použít robota zde --
07:50
a robot named Chris -- stand up. Yeah. Okay.
123
470330
5000
robot jménem Chris -- postav se. Jo. Fajn.
07:57
Come over here. Now notice, he thinks robots have to be a bit stiff.
124
477330
4000
Pojď sem. Teď si povšimněte, myslí si, že roboti musí být trochu toporný.
08:01
He sort of does that. But I'm going to --
125
481330
3000
On je toho příkladem. Ale hodlám --
08:04
Chris Anderson: I'm just British. RB: Oh.
126
484330
2000
Chris Anderson: Jsem Brit. RB: Ach.
08:06
(Laughter)
127
486330
2000
(Smích)
08:08
(Applause)
128
488330
2000
(Potlesk)
08:10
I'm going to show this robot a task. It's a very complex task.
129
490330
3000
Hodlám robotovi předvést úkol. Je to velmi komplexní úkol.
08:13
Now notice, he nodded there, he was giving me some indication
130
493330
3000
Teď si povšimněte, přikývl, dával mi signál,
08:16
he was understanding the flow of communication.
131
496330
3000
že porozuměl toku komunikace.
08:19
And if I'd said something completely bizarre
132
499330
2000
A kdybych řekl něco zcela bizarního,
08:21
he would have looked askance at me, and regulated the conversation.
133
501330
3000
podíval by se na mne podezřívavě a usměrnil by konverzaci.
08:24
So now I brought this up in front of him.
134
504330
3000
Takže teď tohle před ním vytáhnu.
08:27
I'd looked at his eyes, and I saw his eyes looked at this bottle top.
135
507330
4000
Podíval bych se do jeho očí a viděl bych, že se dívá na vršek láhve.
08:31
And I'm doing this task here, and he's checking up.
136
511330
2000
A já dělám tento úkon a on jej pozoruje.
08:33
His eyes are going back and forth up to me, to see what I'm looking at --
137
513330
3000
Jeho oči kmitají dozadu a dopředu, dívá se na mě, na co se dívám --
08:36
so we've got shared attention.
138
516330
2000
takže sdílíme pozornost.
08:38
And so I do this task, and he looks, and he looks to me
139
518330
3000
A tak dělám tuto úlohu, on sleduje a dívá se na mě,
08:41
to see what's happening next. And now I'll give him the bottle,
140
521330
4000
co se bude dít dál. A teď mu dám láhev
08:45
and we'll see if he can do the task. Can you do that?
141
525330
2000
a podíváme se, jestli dokáže provést tento úkol. Dokážeš to udělat?
08:47
(Laughter)
142
527330
3000
(Smích)
08:50
Okay. He's pretty good. Yeah. Good, good, good.
143
530330
4000
Fajn. Je vážně dobrý. Jo. Dobře, dobře, dobře.
08:54
I didn't show you how to do that.
144
534330
2000
Neukázal jsem ti, jak tohle udělat.
08:56
Now see if you can put it back together.
145
536330
2000
Teď sledujme, jestli to dokáže vrátit zpět dohromady.
08:58
(Laughter)
146
538330
2000
(Smích)
09:00
And he thinks a robot has to be really slow.
147
540330
1000
A myslí si, že robot musí být skutečně pomalý.
09:01
Good robot, that's good.
148
541330
2000
Dobrý robot, to je dobré.
09:03
So we saw a bunch of things there.
149
543330
2000
Takže jsme zde viděli mnoho věcí.
09:06
We saw when we're interacting,
150
546330
3000
Viděli jsme, že když jsme interagovali,
09:09
we're trying to show someone how to do something, we direct their visual attention.
151
549330
4000
pokoušeli jsme se ukázat někomu jak něco udělat, řídili jsme jeho vizuální pozornost.
09:13
The other thing communicates their internal state to us,
152
553330
4000
Jiná věc nám sděluje jejich vnitřní stavy,
09:17
whether he's understanding or not, regulates a social interaction.
153
557330
3000
zda rozumí, nebo ne, reguluje sociální interakci.
09:20
There was shared attention looking at the same sort of thing,
154
560330
2000
Byla zde sdílená pozornost sledující stejnou věc,
09:22
and recognizing socially communicated reinforcement at the end.
155
562330
4000
na konci dávání najevo rozpoznání sociální komunikace.
09:26
And we've been trying to put that into our lab robots
156
566330
3000
A snažili jsme se vložit tohle všechno do našich laboratorních robotů,
09:29
because we think this is how you're going to want to interact with robots in the future.
157
569330
4000
protože si myslíme, že toto je to, jak chcete s roboty v budoucnu interagovat.
09:33
I just want to show you one technical diagram here.
158
573330
2000
Chci vám zde ukázat jeden technický diagram.
09:35
The most important thing for building a robot that you can interact with socially
159
575330
4000
Nejdůležitější věcí pro stavění robota, se kterým chcete sociálně komunikovat,
09:39
is its visual attention system.
160
579330
2000
je jeho systém vizuální pozornosti.
09:41
Because what it pays attention to is what it's seeing
161
581330
3000
Protože to, čemu věnuje pozornost, je to, co vidí
09:44
and interacting with, and what you're understanding what it's doing.
162
584330
3000
a s čím interaguje, a čemu rozumíte, co dělá.
09:47
So in the videos I'm about to show you,
163
587330
3000
Takže ve videích, které vám ukážu,
09:50
you're going to see a visual attention system on a robot
164
590330
4000
uvidíte systém vizuální pozornosti na robotovi,
09:54
which has -- it looks for skin tone in HSV space,
165
594330
4000
který má -- dívá se po odstínu kůže v HSV prostoru,
09:58
so it works across all human colorings.
166
598330
4000
takže to funguje přes všechna lidská zbarvení.
10:02
It looks for highly saturated colors, from toys.
167
602330
2000
Dívá se po vysoce saturovaných barvách na hračkách.
10:04
And it looks for things that move around.
168
604330
2000
A dívá se po věcech, které se pohybují kolem.
10:06
And it weights those together into an attention window,
169
606330
3000
A váhuje to vše dohromady v okně pozornosti
10:09
and it looks for the highest-scoring place --
170
609330
2000
a hledá místo s nejvyšší hodnotou --
10:11
the stuff where the most interesting stuff is happening --
171
611330
2000
tedy tam, kde se děje nejzajímavější věc --
10:13
and that is what its eyes then segue to.
172
613330
4000
a sem upře své oči.
10:17
And it looks right at that.
173
617330
2000
A vypadá to přesně jako zde.
10:19
At the same time, some top-down sort of stuff:
174
619330
3000
Ve stejný čas ukázka jiných věcí:
10:22
might decide that it's lonely and look for skin tone,
175
622330
3000
Může se rozhodnout, že je osamocený a porozhlédne se po odstínu kůže
10:25
or might decide that it's bored and look for a toy to play with.
176
625330
3000
nebo se může rozhodnout, že je znuděný a porozhlédne se po hračce, se kterou si může hrát.
10:28
And so these weights change.
177
628330
2000
A tak se tyto váhy změní.
10:30
And over here on the right,
178
630330
2000
A tady vpravo
10:32
this is what we call the Steven Spielberg memorial module.
179
632330
3000
je něco, co nazýváme památný modul Stevena Spielberga.
10:35
Did people see the movie "AI"? (Audience: Yes.)
180
635330
2000
Viděli jste film AI? (Publikum: Ano.)
10:37
RB: Yeah, it was really bad, but --
181
637330
2000
RB: Jo, ten byl hodně špatný, ale --
10:39
remember, especially when Haley Joel Osment, the little robot,
182
639330
4000
vzpomínáte si na to, když se Haley Joel Osment, malý robot,
10:43
looked at the blue fairy for 2,000 years without taking his eyes off it?
183
643330
4000
díval na modrou vílu 2000 let aniž by z ní spustil oči?
10:47
Well, this gets rid of that,
184
647330
2000
Nuže, toho se tento vyvaruje
10:49
because this is a habituation Gaussian that gets negative,
185
649330
4000
díky tomuto návykovému Gaussianu, který se stává záporným
10:53
and more and more intense as it looks at one thing.
186
653330
3000
a stále více intenzivním, pokud se dívá na jednu věc.
10:56
And it gets bored, so it will then look away at something else.
187
656330
3000
A začne se nudit, takže se začne dívat po něčem jiném.
10:59
So, once you've got that -- and here's a robot, here's Kismet,
188
659330
4000
Tedy když už tomu rozumíte -- zde je robot, Kismet,
11:03
looking around for a toy. You can tell what it's looking at.
189
663330
4000
rozhlížející se po hračce. Můžete říci, na co se dívá.
11:07
You can estimate its gaze direction from those eyeballs covering its camera,
190
667330
5000
Můžete odhadnout jeho směr pohledu z těchto očích bulv, které pokrývají jeho kamery,
11:12
and you can tell when it's actually seeing the toy.
191
672330
3000
a tedy poznáte, kdy se dívá na hračku.
11:15
And it's got a little bit of an emotional response here.
192
675330
2000
A taky to dostalo trochu emocionální odezvy.
11:17
(Laughter)
193
677330
1000
(Smích)
11:18
But it's still going to pay attention
194
678330
2000
Ale stále dává pozor,
11:20
if something more significant comes into its field of view --
195
680330
4000
zda se nenachází něco zajímavějšího v jeho zorném poli --
11:24
such as Cynthia Breazeal, the builder of this robot, from the right.
196
684330
4000
jako třeba Cynthia Breazeal, stavitelka tohoto robta -- zde zprava.
11:28
It sees her, pays attention to her.
197
688330
5000
Vidí ji a věnuje jí pozornost.
11:33
Kismet has an underlying, three-dimensional emotional space,
198
693330
4000
Kismet má zakladní třídimenzionální emocionální prostor,
11:37
a vector space, of where it is emotionally.
199
697330
3000
vektorový prostor, podle toho, kde se nachází.
11:40
And at different places in that space, it expresses --
200
700330
5000
A na různých místech v tomto prostoru se vyjadřuje --
11:46
can we have the volume on here?
201
706330
2000
můžete zde zesílit zvuk?
11:48
Can you hear that now, out there? (Audience: Yeah.)
202
708330
2000
Slyšíte to už? (Publikum: Ano.)
11:50
Kismet: Do you really think so? Do you really think so?
203
710330
5000
Kismet: Skutečně si to myslíš? Skutečně si to myslíš?
11:57
Do you really think so?
204
717330
2000
Skutečně si to myslíš?
12:00
RB: So it's expressing its emotion through its face
205
720330
3000
RB: Tedy vyjadřuje své emoce skrze tvář
12:03
and the prosody in its voice.
206
723330
2000
a hlasovou prozódii.
12:05
And when I was dealing with my robot over here,
207
725330
4000
A když jsem pracoval se svým robotem, tady je,
12:09
Chris, the robot, was measuring the prosody in my voice,
208
729330
3000
Chris, jako robot, měřil prozódii mého hlasu,
12:12
and so we have the robot measure prosody for four basic messages
209
732330
5000
a tak máme robota, který měří prozódii ve čtyřech základních zprávách,
12:17
that mothers give their children pre-linguistically.
210
737330
4000
které matky dávají svým dětem pre-lingvisticky.
12:21
Here we've got naive subjects praising the robot:
211
741330
3000
Tady máme jedince chválící robota.
12:26
Voice: Nice robot.
212
746330
2000
Hlas: Hodný robot.
12:29
You're such a cute little robot.
213
749330
2000
Jsi takový rozkošný malý robot.
12:31
(Laughter)
214
751330
2000
(Smích)
12:33
RB: And the robot's reacting appropriately.
215
753330
2000
RB: A robot adekvátně reaguje.
12:35
Voice: ...very good, Kismet.
216
755330
4000
Hlas: …velmi dobrý Kismet.
12:40
(Laughter)
217
760330
2000
(Smích)
12:42
Voice: Look at my smile.
218
762330
2000
Hlas: Podívej se na můj úsměv.
12:46
RB: It smiles. She imitates the smile. This happens a lot.
219
766330
3000
RB: Směje se. Imituje úsměv. To se stává často.
12:49
These are naive subjects.
220
769330
2000
Jsou to lidé, kteří nejsou seznámeni s účelem experimentu.
12:51
Here we asked them to get the robot's attention
221
771330
3000
Tady jsme je požádali, aby získali robotovu pozornost
12:54
and indicate when they have the robot's attention.
222
774330
3000
a označili, kdy robotovu pozornost získali.
12:57
Voice: Hey, Kismet, ah, there it is.
223
777330
4000
Hlas: Hej, Kismete, ach, tady je.
13:01
RB: So she realizes she has the robot's attention.
224
781330
4000
RB: Takže si uvědomila, že má robotovu pozornost.
13:08
Voice: Kismet, do you like the toy? Oh.
225
788330
4000
Hlas: Kismete, máš rád hračku? Ach.
13:13
RB: Now, here they're asked to prohibit the robot,
226
793330
2000
RB: Teď jsme je požádali, aby robotovi něco zakázali,
13:15
and this first woman really pushes the robot into an emotional corner.
227
795330
4000
a první žena skutečně robota zatlačila do emocionálního rohu.
13:19
Voice: No. No. You're not to do that. No.
228
799330
5000
Hlas: Ne. Ne. Tohle nedělej. Ne.
13:24
(Laughter)
229
804330
3000
(Smích)
13:27
Not appropriate. No. No.
230
807330
6000
To je nevhodné. Ne. Ne.
13:33
(Laughter)
231
813330
3000
(Smích)
13:36
RB: I'm going to leave it at that.
232
816330
2000
RB: Tady bych to zanechal.
13:38
We put that together. Then we put in turn taking.
233
818330
2000
Složíme si to dohromady. Pak si přidáme předávání slova.
13:40
When we talk to someone, we talk.
234
820330
3000
Když s někým mluvíme, mluvíme.
13:43
Then we sort of raise our eyebrows, move our eyes,
235
823330
4000
A rovněž zvedáme obočí, pohybujeme očima,
13:47
give the other person the idea it's their turn to talk.
236
827330
3000
dáváme druhé osobě najevo, že se může ujmout slova.
13:50
And then they talk, and then we pass the baton back and forth between each other.
237
830330
4000
A pak mluví oni, předáváme si takto štafetu jeden druhému.
13:54
So we put this in the robot.
238
834330
2000
A toto jsme vložili do robota.
13:56
We got a bunch of naive subjects in,
239
836330
2000
Pozvali jsme několik jedinců,
13:58
we didn't tell them anything about the robot,
240
838330
2000
neřekli jsme jim nic o robotovi,
14:00
sat them down in front of the robot and said, talk to the robot.
241
840330
2000
posadili jsme je před robota a řekli jim, ať si s robotem povídají.
14:02
Now what they didn't know was,
242
842330
2000
Co oni ale nevěděli, bylo,
14:04
the robot wasn't understanding a word they said,
243
844330
2000
že robot jim nerozuměl ani slovo
14:06
and that the robot wasn't speaking English.
244
846330
3000
a že robot neuměl mluvit anglicky.
14:09
It was just saying random English phonemes.
245
849330
2000
Jen říkal nahodilé anglické fonémy.
14:11
And I want you to watch carefully, at the beginning of this,
246
851330
2000
A chci, abyste si pozorně prohlédli začátek tohoto,
14:13
where this person, Ritchie, who happened to talk to the robot for 25 minutes --
247
853330
4000
kde si osoba, Ritchie, povídal s robotem 25 minut.
14:17
(Laughter)
248
857330
2000
(Smích)
14:19
-- says, "I want to show you something.
249
859330
2000
Říká: "Chci ti něco ukázat.
14:21
I want to show you my watch."
250
861330
2000
Chci ti ukázat své hodinky.“
14:23
And he brings the watch center, into the robot's field of vision,
251
863330
5000
A zvedá své hodinky do robotova zorného pole,
14:28
points to it, gives it a motion cue,
252
868330
2000
ukazuje na ně, dává tak pohybové vodítko,
14:30
and the robot looks at the watch quite successfully.
253
870330
2000
a robot se tak dívá docela úspěšně na hodinky.
14:32
We don't know whether he understood or not that the robot --
254
872330
3000
Nevíme, jestli rozuměl, nebo ne, že robot --
14:36
Notice the turn-taking.
255
876330
2000
Všimněte si, jak přebírá slovo.
14:38
Ritchie: OK, I want to show you something. OK, this is a watch
256
878330
3000
Ritchie: OK, chci Ti něco ukázat. OK, toto jsou hodinky,
14:41
that my girlfriend gave me.
257
881330
3000
které mi dala má přítelkyně.
14:44
Robot: Oh, cool.
258
884330
2000
Robot: Ach, super.
14:46
Ritchie: Yeah, look, it's got a little blue light in it too. I almost lost it this week.
259
886330
4000
Ritchie: Jo, podívej, mají také malé modré světýlko. Skoro jsem je minulý týden ztratil.
14:51
(Laughter)
260
891330
4000
(Smích)
14:55
RB: So it's making eye contact with him, following his eyes.
261
895330
3000
RB: Takže udržuje s ním oční kontakt, sleduje jeho oči.
14:58
Ritchie: Can you do the same thing? Robot: Yeah, sure.
262
898330
2000
Ritchie: Můžeš udělat tu stejnou věc? Robot: Jo, jasně.
15:00
RB: And they successfully have that sort of communication.
263
900330
2000
RB: A tak spolu úspěšně rozmlouvají.
15:02
And here's another aspect of the sorts of things that Chris and I were doing.
264
902330
4000
A zde je jiný druh věcí, které jsme Chris a já dělali.
15:06
This is another robot, Cog.
265
906330
2000
Toto je další robot, Cog.
15:08
They first make eye contact, and then, when Christie looks over at this toy,
266
908330
6000
Nejprve naváže oční kontakt, posléze, když se Christie podívá na hračku,
15:14
the robot estimates her gaze direction
267
914330
2000
odhadne směr jejího pohledu
15:16
and looks at the same thing that she's looking at.
268
916330
2000
a podívá se na stejnou věc jako se dívá ona.
15:18
(Laughter)
269
918330
1000
(Smích)
15:19
So we're going to see more and more of this sort of robot
270
919330
3000
Takže uvidíme stále více a více typů tohoto druhu robota
15:22
over the next few years in labs.
271
922330
2000
v průběhu následujících pár let v laboratořích.
15:24
But then the big questions, two big questions that people ask me are:
272
924330
5000
Pak jsou ale velké otázky, dvě velké otázky, na které se mě lidé ptají:
15:29
if we make these robots more and more human-like,
273
929330
2000
Pokud vytvoříme tyto roboty stále více podobné člověku,
15:31
will we accept them, will we -- will they need rights eventually?
274
931330
5000
vezmeme je mezi sebe, budou vyžadovat vlastní práva?
15:36
And the other question people ask me is, will they want to take over?
275
936330
3000
A druhá otázka, kterou mi lidé kladou, je: Budou nás chtít ovládnout?
15:39
(Laughter)
276
939330
1000
(Smích)
15:40
And on the first -- you know, this has been a very Hollywood theme
277
940330
3000
Co se týče první, jak víte, byla velkým tématem v mnoha hollywoodských filmech.
15:43
with lots of movies. You probably recognize these characters here --
278
943330
3000
Pravděpodobně rozpoznáte tyto postavy zde --
15:46
where in each of these cases, the robots want more respect.
279
946330
4000
kde v každém z těchto případů chtěl robot více respektu.
15:50
Well, do you ever need to give robots respect?
280
950330
3000
Nuže, budete někdy potřebovat projevovat robotům úctu?
15:54
They're just machines, after all.
281
954330
2000
Jsou to jenom stroje.
15:56
But I think, you know, we have to accept that we are just machines.
282
956330
4000
Ale myslím si, víte, že musíme přijmout, že my jsme také jen stroje.
16:00
After all, that's certainly what modern molecular biology says about us.
283
960330
5000
Po tom všem, co nám moderní molekulární biologie říká o nás samých.
16:05
You don't see a description of how, you know,
284
965330
3000
Nevidíte popis, jak se, víte,
16:08
Molecule A, you know, comes up and docks with this other molecule.
285
968330
4000
molekula A přiblíží k jiné molekule a spojí se s ní.
16:12
And it's moving forward, you know, propelled by various charges,
286
972330
3000
A takto se pokračuje dále, poháněno různými náboji
16:15
and then the soul steps in and tweaks those molecules so that they connect.
287
975330
4000
a vytváří se spojení mezi molekulami, takže se spojují.
16:19
It's all mechanistic. We are mechanism.
288
979330
3000
Všechno to je mechanické. My jsme mechanismy.
16:22
If we are machines, then in principle at least,
289
982330
3000
Jestliže jsme stroje, pak bychom přinejmenším v principu
16:25
we should be able to build machines out of other stuff,
290
985330
4000
měli být schopni stavět stroje z jiných materiálů,
16:29
which are just as alive as we are.
291
989330
4000
které by byly stejně živé jako jsme my.
16:33
But I think for us to admit that,
292
993330
2000
Ale myslím si, že abychom toto mohli přijmout,
16:35
we have to give up on our special-ness, in a certain way.
293
995330
3000
musíme rezignovat na naši výjimečnost.
16:38
And we've had the retreat from special-ness
294
998330
2000
A musíme se vzdát své výjimečnosti
16:40
under the barrage of science and technology many times
295
1000330
3000
pod palbou vědy a technologie mnohých dob
16:43
over the last few hundred years, at least.
296
1003330
2000
za posledních pár stovek let,
16:45
500 years ago we had to give up the idea
297
1005330
2000
přinejmenším před 500 lety jsme se museli vzdát představy,
16:47
that we are the center of the universe
298
1007330
3000
že jsme ve středu vesmíru,
16:50
when the earth started to go around the sun;
299
1010330
2000
když Země začala obíhat kolem Slunce.
16:52
150 years ago, with Darwin, we had to give up the idea we were different from animals.
300
1012330
5000
Před 150 lety, díky Darwinovi, jsme se museli vzdát představy, že jsme odlišní od zvířat.
16:57
And to imagine -- you know, it's always hard for us.
301
1017330
3000
A to, jak víte, bylo vždy těžké si představit.
17:00
Recently we've been battered with the idea that maybe
302
1020330
3000
V současnosti jsme vystaveni i představě,
17:03
we didn't even have our own creation event, here on earth,
303
1023330
2000
že náš vznik ani nespadá na planetu Zemi,
17:05
which people didn't like much. And then the human genome said,
304
1025330
3000
což se lidem příliš nelíbí. A pak, lidský genom říká,
17:08
maybe we only have 35,000 genes. And that was really --
305
1028330
3000
že snad máme jen 35 000 genů. A toto bylo skutečně --
17:11
people didn't like that, we've got more genes than that.
306
1031330
3000
lidem se tato představa nelíbila, musíme mít přece víc genů.
17:14
We don't like to give up our special-ness, so, you know,
307
1034330
3000
Neradi se vzdáváme své výjimečnosti, takže, jak víte,
17:17
having the idea that robots could really have emotions,
308
1037330
2000
myšlenka, že by roboti mohli mít skutečné emoce,
17:19
or that robots could be living creatures --
309
1039330
2000
či že by roboti mohli být živými tvory,
17:21
I think is going to be hard for us to accept.
310
1041330
2000
je, myslím si, pro nás obtížně přijatelná.
17:23
But we're going to come to accept it over the next 50 years or so.
311
1043330
4000
Ale v následujících přibližně 50 letech ji přijmeme.
17:27
And the second question is, will the machines want to take over?
312
1047330
3000
A druhá otázka je: Budou chtít stroje převzít vládu nad světem?
17:30
And here the standard scenario is that we create these things,
313
1050330
5000
A standardní vize je, že stvoříme takovéto věci,
17:35
they grow, we nurture them, they learn a lot from us,
314
1055330
3000
porostou, vychováme je, mnoho se od nás naučí
17:38
and then they start to decide that we're pretty boring, slow.
315
1058330
4000
a pak si pomyslí, že jsme pěkně nudní, pomalí.
17:42
They want to take over from us.
316
1062330
2000
Budou chtít převzít vládu.
17:44
And for those of you that have teenagers, you know what that's like.
317
1064330
3000
A pro ty z vás, kdo máte doma náctileté, víte, jak to vypadá.
17:47
(Laughter)
318
1067330
1000
(Smích)
17:48
But Hollywood extends it to the robots.
319
1068330
3000
Ale Hollywood toto rozšiřuje na roboty.
17:51
And the question is, you know,
320
1071330
3000
A otázka je:
17:54
will someone accidentally build a robot that takes over from us?
321
1074330
4000
Vyrobí někdo náhodou robota, který nám převezme vládu?
17:58
And that's sort of like this lone guy in the backyard,
322
1078330
3000
Něco na způsob osamělého chlapíka někde na dvorku,
18:01
you know -- "I accidentally built a 747."
323
1081330
3000
který si náhle uvědomí: "Náhodou jsem postavil (Boeing) 747.“
18:04
I don't think that's going to happen.
324
1084330
2000
Rozumíte, nemyslím si, že se to stane.
18:06
And I don't think --
325
1086330
2000
A nemyslím si --
18:08
(Laughter)
326
1088330
1000
(Smích)
18:09
-- I don't think we're going to deliberately build robots
327
1089330
3000
-- nemyslím si, že úmyslně vyrobíme roboty,
18:12
that we're uncomfortable with.
328
1092330
2000
se kterými bychom byli nespokojení.
18:14
We'll -- you know, they're not going to have a super bad robot.
329
1094330
2000
Nebudeme mít extra špatné roboty.
18:16
Before that has to come to be a mildly bad robot,
330
1096330
3000
Předtím musí, víte, přijít středně zlý robot
18:19
and before that a not so bad robot.
331
1099330
2000
a předtím ještě ne tak zlý robot.
18:21
(Laughter)
332
1101330
1000
(Smích)
18:22
And we're just not going to let it go that way.
333
1102330
2000
A nenecháme to jít touto cestou.
18:24
(Laughter)
334
1104330
1000
(Smích)
18:25
So, I think I'm going to leave it at that: the robots are coming,
335
1105330
6000
Takže myslím, že to zanechám s tím, že roboti přicházejí,
18:31
we don't have too much to worry about, it's going to be a lot of fun,
336
1111330
3000
nemusíme se toho příliš obávat, bude to velká legrace
18:34
and I hope you all enjoy the journey over the next 50 years.
337
1114330
4000
a, doufám, že si všichni užijete cestu skrze následujících 50 let.
18:38
(Applause)
338
1118330
2000
(Potlesk)
O tomto webu

Tato stránka vám představí videa na YouTube, která jsou užitečná pro výuku angličtiny. Uvidíte lekce angličtiny vedené špičkovými učiteli z celého světa. Dvojklikem na anglické titulky zobrazené na každé stránce s videem si video přehrajete přímo odtud. Titulky se posouvají synchronizovaně s přehráváním videa. Pokud máte nějaké připomínky nebo požadavky, kontaktujte nás prosím pomocí tohoto kontaktního formuláře.

https://forms.gle/WvT1wiN1qDtmnspy7