Rodney Brooks: How robots will invade our lives

60,794 views ・ 2008-10-10

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: MaYoMo com Reviewer: Anton Hikov
00:18
What I want to tell you about today is how I see robots invading our lives
0
18330
5000
Онова, за което искам да ви разкажа днес, е как виждам роботите да нахлуват в живота ни
00:23
at multiple levels, over multiple timescales.
1
23330
3000
на множество нива, в множество времеви пояси.
00:26
And when I look out in the future, I can't imagine a world, 500 years from now,
2
26330
4000
А когато погледна в бъдещето, не мога да си представя един свят след 500 години,
00:30
where we don't have robots everywhere.
3
30330
2000
при който да няма роботи навсякъде,
00:32
Assuming -- despite all the dire predictions from many people about our future --
4
32330
5000
като приемем... въпреки всички зловещи предсказания на много хора за нашето бъдеще -
00:37
assuming we're still around, I can't imagine the world not being populated with robots.
5
37330
4000
като приемем, че още съществуваме, не мога да си представя светът да не е населен с роботи.
00:41
And then the question is, well, if they're going to be here in 500 years,
6
41330
3000
А тогава въпросът е - ами, ако ще са тук след 500 години,
00:44
are they going to be everywhere sooner than that?
7
44330
2000
дали ще са навсякъде още по-скоро?
00:46
Are they going to be around in 50 years?
8
46330
2000
Ще ги има ли след 50 години?
00:48
Yeah, I think that's pretty likely -- there's going to be lots of robots everywhere.
9
48330
3000
Да, мисля, че това е доста вероятно - ще има множество роботи навсякъде.
00:51
And in fact I think that's going to be a lot sooner than that.
10
51330
3000
Всъщност мисля, че ще е много по-скоро.
00:54
I think we're sort of on the cusp of robots becoming common,
11
54330
4000
Мисля, че сме на ръба на това роботите да станат обичайни
00:58
and I think we're sort of around 1978 or 1980 in personal computer years,
12
58330
6000
и мисля, че сме някъде около 1978 или 1980 в персонални компютърни години,
01:04
where the first few robots are starting to appear.
13
64330
3000
когато започват да се появяват първите роботи.
01:07
Computers sort of came around through games and toys.
14
67330
4000
Компютрите някак навлязоха чрез игри и играчки.
01:11
And you know, the first computer most people had in the house
15
71330
3000
И знаете ли, първия компютър, който повечето хора са имали вкъщи,
01:14
may have been a computer to play Pong,
16
74330
2000
може да е бил компютър за игра на "Понг",
01:16
a little microprocessor embedded,
17
76330
2000
с вграден малък микропроцесор,
01:18
and then other games that came after that.
18
78330
3000
а след това дойдоха и други игри.
01:21
And we're starting to see that same sort of thing with robots:
19
81330
3000
Започваме да виждаме същото нещо при роботите:
01:24
LEGO Mindstorms, Furbies -- who here -- did anyone here have a Furby?
20
84330
4000
"Лего Майндсторм", "Фърби"... някой тук имал ли е "Фърби"?
01:28
Yeah, there's 38 million of them sold worldwide.
21
88330
3000
Да, по света са продадени 38 милиона от тях.
01:31
They are pretty common. And they're a little tiny robot,
22
91330
2000
Доста често срещани са. Това е един мъничък робот,
01:33
a simple robot with some sensors,
23
93330
2000
прост робот с няколко сензори.
01:35
a little bit of processing actuation.
24
95330
2000
Малко преработващо задвижване.
01:37
On the right there is another robot doll, who you could get a couple of years ago.
25
97330
3000
Там вдясно има друга кукла робот, която можеше да вземеш преди две години.
01:40
And just as in the early days,
26
100330
2000
И точно както в ранните дни,
01:42
when there was a lot of sort of amateur interaction over computers,
27
102330
5000
когато имаше много някак аматьорско взаимодействие край компютрите,
01:47
you can now get various hacking kits, how-to-hack books.
28
107330
4000
сега може да се получат различни хакерски набори, книги за хакерство.
01:51
And on the left there is a platform from Evolution Robotics,
29
111330
4000
А там вляво има една платформа от "Еволюционна роботика",
01:55
where you put a PC on, and you program this thing with a GUI
30
115330
3000
върху която се поставя компютър и се програмира това нещо с графичен потребителски интерфейс
01:58
to wander around your house and do various stuff.
31
118330
3000
да броди из къщата ти и да върши различни неща.
02:01
And then there's a higher price point sort of robot toys --
32
121330
3000
А после - по-висок ценови клас, един вид роботи играчки...
02:04
the Sony Aibo. And on the right there, is one that the NEC developed,
33
124330
4000
"Сони Айбо". А там вдясно е един, създаден от NEC,
02:08
the PaPeRo, which I don't think they're going to release.
34
128330
3000
ПаПеРо, който не смятам, че ще пуснат.
02:11
But nevertheless, those sorts of things are out there.
35
131330
3000
Но въпреки това тези неща ги има.
02:14
And we've seen, over the last two or three years, lawn-mowing robots,
36
134330
4000
През последните две-три години сме виждали роботи-косачки,
02:18
Husqvarna on the bottom, Friendly Robotics on top there, an Israeli company.
37
138330
6000
"Husqvarna" отдолу, "Френдли Роботикс" там горе, израелска компания.
02:24
And then in the last 12 months or so
38
144330
2000
А после, през последните 12 месеца или там някъде
02:26
we've started to see a bunch of home-cleaning robots appear.
39
146330
4000
започнахме да виждаме появата на куп роботи за почистване на дома.
02:30
The top left one is a very nice home-cleaning robot
40
150330
3000
Горе вляво е един много хубав робот за домашно почистване
02:33
from a company called Dyson, in the U.K. Except it was so expensive --
41
153330
4000
от една фирма, наречена "Дайсън", в Обединеното кралство. Само че бил толкова скъп...
02:37
3,500 dollars -- they didn't release it.
42
157330
2000
3500 долара... че не го пуснали.
02:39
But at the bottom left, you see Electrolux, which is on sale.
43
159330
3000
Но долу вляво виждате "Електролукс", който е в продажба.
02:42
Another one from Karcher.
44
162330
2000
Друг от "Кархер".
02:44
At the bottom right is one that I built in my lab
45
164330
2000
Долу вдясно е един, който създадох в моята лаборатория
02:46
about 10 years ago, and we finally turned that into a product.
46
166330
3000
преди десетина години, и най-сетне го превърнахме в продукт.
02:49
And let me just show you that.
47
169330
2000
Нека просто да ви покажа това.
02:51
We're going to give this away I think, Chris said, after the talk.
48
171330
4000
Според мен Крис каза, че ще го подарим след разговора.
02:55
This is a robot that you can go out and buy, and that will clean up your floor.
49
175330
6000
Това е робот, който може да излезеш и да купиш, и той ще ти чисти пода.
03:05
And it starts off sort of just going around in ever-increasing circles.
50
185330
5000
И започва просто като се върти във все по-разширяващи се кръгове.
03:10
If it hits something -- you people see that?
51
190330
4000
Ако се удари в нещо... хора, виждате ли това?
03:14
Now it's doing wall-following, it's following around my feet
52
194330
3000
Сега започва да следва стените, заобикаля около краката ми,
03:17
to clean up around me. Let's see, let's --
53
197330
4000
за да почисти около мен. Да видим, да...
03:21
oh, who stole my Rice Krispies? They stole my Rice Krispies!
54
201330
5000
о, кой ми открадна "Хрупкавите оризовки?" Откраднаха ми "Хрупкавите оризовки."
03:26
(Laughter)
55
206330
6000
(Смях)
03:32
Don't worry, relax, no, relax, it's a robot, it's smart!
56
212330
3000
Не се безпокой, отпусни се, не, спокойно, робот е, умен е.
03:35
(Laughter)
57
215330
3000
(Смях)
03:38
See, the three-year-old kids, they don't worry about it.
58
218330
4000
Виждате ли, тригодишните деца не се безпокоят от това.
03:42
It's grown-ups that get really upset.
59
222330
2000
Възрастните са тези, които се разстройват много.
03:44
(Laughter)
60
224330
1000
(Смях)
03:45
We'll just put some crap here.
61
225330
2000
Просто ще сложим малко боклук тук.
03:47
(Laughter)
62
227330
4000
(Смях)
03:51
Okay.
63
231330
2000
Така.
03:53
(Laughter)
64
233330
4000
(Смях)
03:57
I don't know if you see -- so, I put a bunch of Rice Krispies there,
65
237330
3000
Не знам дали виждате... слагам тук куп хрупкави оризовки,
04:00
I put some pennies, let's just shoot it at that, see if it cleans up.
66
240330
7000
слагам няколко монети, да спрем дотук, да видим дали ще почисти.
04:10
Yeah, OK. So --
67
250330
2000
Да, така. Значи...
04:12
we'll leave that for later.
68
252330
4000
ще оставим това за по-късно.
04:16
(Applause)
69
256330
5000
(Аплодисменти)
04:22
Part of the trick was building a better cleaning mechanism, actually;
70
262330
4000
Част от номера всъщност беше изграждането на по-добър почистващ механизъм;
04:26
the intelligence on board was fairly simple.
71
266330
4000
интелекта на борда беше доста прост.
04:30
And that's true with a lot of robots.
72
270330
2000
И това е вярно при много роботи.
04:32
We've all, I think, become, sort of computational chauvinists,
73
272330
4000
Смятам, че всички сме станали един вид изчислителни шовинисти,
04:36
and think that computation is everything,
74
276330
2000
и мислим, че изчислението е всичко,
04:38
but the mechanics still matter.
75
278330
2000
но механиката все още има значение.
04:40
Here's another robot, the PackBot,
76
280330
3000
Ето друг робот, ПакБот,
04:43
that we've been building for a bunch of years.
77
283330
2000
който изграждаме от няколко години.
04:45
It's a military surveillance robot, to go in ahead of troops --
78
285330
6000
Това е робот за военно наблюдение, който да влиза пред войниците,
04:51
looking at caves, for instance.
79
291330
3000
да разглежда пещери, например.
04:54
But we had to make it fairly robust,
80
294330
2000
Но трябваше да го направим доста як,
04:56
much more robust than the robots we build in our labs.
81
296330
7000
много по-як от роботите, които изграждаме в нашите лаборатории.
05:03
(Laughter)
82
303330
3000
(Смях)
05:12
On board that robot is a PC running Linux.
83
312330
4000
На борда на този робот има персонален компютър, на който върви с "Линукс".
05:16
It can withstand a 400G shock. The robot has local intelligence:
84
316330
6000
Може да понесе шок от 400G. Роботът има локален интелект;
05:22
it can flip itself over, can get itself into communication range,
85
322330
6000
може да се преобърне, може да навлезе сам в комуникационния обсег,
05:28
can go upstairs by itself, et cetera.
86
328330
3000
може да се качва на горния етаж сам, и така нататък.
05:38
Okay, so it's doing local navigation there.
87
338330
4000
Така, значи тук прави местна навигация.
05:42
A soldier gives it a command to go upstairs, and it does.
88
342330
6000
Един войник му дава команда да се качи горе, и той го прави.
05:49
That was not a controlled descent.
89
349330
3000
Това не беше контролирано слизане.
05:52
(Laughter)
90
352330
2000
(Смях)
05:54
Now it's going to head off.
91
354330
2000
Сега ще си тръгне.
05:56
And the big breakthrough for these robots, really, was September 11th.
92
356330
5000
А големият пробив за тези роботи всъщност беше 11-ти септември.
06:01
We had the robots down at the World Trade Center late that evening.
93
361330
4000
Изпратихме роботите долу в Световния търговски център късно онази вечер.
06:06
Couldn't do a lot in the main rubble pile,
94
366330
2000
Не можехме да сторим много в основния куп отломки,
06:08
things were just too -- there was nothing left to do.
95
368330
3000
нещата просто бяха твърде... нямаше какво повече да се направи.
06:11
But we did go into all the surrounding buildings that had been evacuated,
96
371330
5000
Но влязохме във всички околни сгради, които се евакуираха
06:16
and searched for possible survivors in the buildings
97
376330
3000
и търсехме възможни оцелели в сградите,
06:19
that were too dangerous to go into.
98
379330
2000
в които беше твърде опасно да се влиза.
06:21
Let's run this video.
99
381330
2000
Да пуснем това видео.
06:23
Reporter: ...battlefield companions are helping to reduce the combat risks.
100
383330
3000
Репортер: ...другари на бойното поле помагат за намаляване на бойните рискове.
06:26
Nick Robertson has that story.
101
386330
3000
Ник Робъртсън с тази история.
06:31
Rodney Brooks: Can we have another one of these?
102
391330
2000
Родни Брукс: Може ли още един от тези?
06:38
Okay, good.
103
398330
2000
Така, добре.
06:43
So, this is a corporal who had seen a robot two weeks previously.
104
403330
3000
Това ефрейтор, който е видял робот преди две седмици.
06:48
He's sending robots into caves, looking at what's going on.
105
408330
4000
Той изпраща роботи в пещери, за да гледа какво става.
06:52
The robot's being totally autonomous.
106
412330
2000
Роботът е напълно автономен.
06:54
The worst thing that's happened in the cave so far
107
414330
4000
Най-лошото, което се е случило в пещерата досега
06:58
was one of the robots fell down ten meters.
108
418330
3000
е, че един от роботите паднал от десет метра височина.
07:08
So one year ago, the US military didn't have these robots.
109
428330
3000
Преди една година военните в САЩ нямаха тези роботи.
07:11
Now they're on active duty in Afghanistan every day.
110
431330
2000
Сега те са на активна служба в Афганистан всеки ден.
07:13
And that's one of the reasons they say a robot invasion is happening.
111
433330
3000
И това е една от причините да казват, че се случва нашествие на роботи.
07:16
There's a sea change happening in how -- where technology's going.
112
436330
4000
Случва се трансформация в това как... накъде върви технологията.
07:20
Thanks.
113
440330
2000
Благодаря.
07:23
And over the next couple of months,
114
443330
2000
И в течение на следащите два месеца
07:25
we're going to be sending robots in production
115
445330
3000
ще изпращаме роботи в производството,
07:28
down producing oil wells to get that last few years of oil out of the ground.
116
448330
4000
в действащи петролни кладенци, за да извадят тези малко последни години петрол от земята.
07:32
Very hostile environments, 150˚ C, 10,000 PSI.
117
452330
4000
Много враждебна среда, 150 градуса по Целзий, 10 000 паунда на квадратен инч (69 MPa).
07:36
Autonomous robots going down, doing this sort of work.
118
456330
4000
Автономни роботи слизат и вършат този тип работа.
07:40
But robots like this, they're a little hard to program.
119
460330
3000
Но такива роботи са малко трудни за програмиране.
07:43
How, in the future, are we going to program our robots
120
463330
2000
Как в бъдеще ще програмираме роботите си
07:45
and make them easier to use?
121
465330
2000
и ще ги правим по-лесни за употреба?
07:47
And I want to actually use a robot here --
122
467330
3000
Всъщност, искам да използвам робот тук...
07:50
a robot named Chris -- stand up. Yeah. Okay.
123
470330
5000
робот на име Крис... стани. Да. Така.
07:57
Come over here. Now notice, he thinks robots have to be a bit stiff.
124
477330
4000
Ела тук. Забележете, той мисли, че роботите трябва да са малко сковани.
08:01
He sort of does that. But I'm going to --
125
481330
3000
Някак го прави. Но аз ще...
08:04
Chris Anderson: I'm just British. RB: Oh.
126
484330
2000
Крис Андерсън: Просто съм британец. РБ: О.
08:06
(Laughter)
127
486330
2000
(Смях)
08:08
(Applause)
128
488330
2000
(Аплодисменти)
08:10
I'm going to show this robot a task. It's a very complex task.
129
490330
3000
Ще покажа на този робот една задача. Много сложна задача.
08:13
Now notice, he nodded there, he was giving me some indication
130
493330
3000
Забележете, той кимна - показваше ми,
08:16
he was understanding the flow of communication.
131
496330
3000
че разбира потока на комуникация.
08:19
And if I'd said something completely bizarre
132
499330
2000
И ако бях казал нещо напълно странно,
08:21
he would have looked askance at me, and regulated the conversation.
133
501330
3000
той би ме погледнал въпросително и би регулирал разговора.
08:24
So now I brought this up in front of him.
134
504330
3000
И така, сега донесох това пред него.
08:27
I'd looked at his eyes, and I saw his eyes looked at this bottle top.
135
507330
4000
Погледнах го в очите и видях, че очите му гледат горната част на тази бутилка.
08:31
And I'm doing this task here, and he's checking up.
136
511330
2000
Аз върша тази задача тук, а той проверява.
08:33
His eyes are going back and forth up to me, to see what I'm looking at --
137
513330
3000
Очите му се движат напред-назад, нагоре към мен, за да види какво гледам,
08:36
so we've got shared attention.
138
516330
2000
така че имаме споделено внимание.
08:38
And so I do this task, and he looks, and he looks to me
139
518330
3000
И така, аз върша тази задача, а той гледа, и гледа към мен,
08:41
to see what's happening next. And now I'll give him the bottle,
140
521330
4000
за да види какво ще се случи. Сега му давам бутилката
08:45
and we'll see if he can do the task. Can you do that?
141
525330
2000
и ще видим може ли да изпълни задачата. Можеш ли да направиш това?
08:47
(Laughter)
142
527330
3000
(Смях)
08:50
Okay. He's pretty good. Yeah. Good, good, good.
143
530330
4000
Така. Доста е добър. Да. Добре, добре, добре.
08:54
I didn't show you how to do that.
144
534330
2000
Не съм ти показвал как се прави това.
08:56
Now see if you can put it back together.
145
536330
2000
А сега, да видим дали можеш да я поставиш обратно.
08:58
(Laughter)
146
538330
2000
(Смях)
09:00
And he thinks a robot has to be really slow.
147
540330
1000
И мисли, че роботът трябва да е много бавен.
09:01
Good robot, that's good.
148
541330
2000
Добър робот, браво.
09:03
So we saw a bunch of things there.
149
543330
2000
И така, видяхме куп неща тук.
09:06
We saw when we're interacting,
150
546330
3000
Видяхме, че когато взаимодействаме,
09:09
we're trying to show someone how to do something, we direct their visual attention.
151
549330
4000
се опитваме да покажем на някого как да прави нещо, насочваме визуалното му внимание.
09:13
The other thing communicates their internal state to us,
152
553330
4000
Другото нещо комуникира вътрешното му състояние към нас,
09:17
whether he's understanding or not, regulates a social interaction.
153
557330
3000
дали разбира, или не, регулира социално взаимодействие.
09:20
There was shared attention looking at the same sort of thing,
154
560330
2000
Имаше споделено внимание, докато гледахме едно и също,
09:22
and recognizing socially communicated reinforcement at the end.
155
562330
4000
и признаване на социално комуникирано потвърждение накрая.
09:26
And we've been trying to put that into our lab robots
156
566330
3000
Опитваме се да вкараме това в лабораторните си роботи,
09:29
because we think this is how you're going to want to interact with robots in the future.
157
569330
4000
защото смятаме, че така ще е желателно да се взаимодейства с роботите в бъдеще.
09:33
I just want to show you one technical diagram here.
158
573330
2000
Само искам да ви покажа една техническа диаграма тук.
09:35
The most important thing for building a robot that you can interact with socially
159
575330
4000
Най-важното за създаване на робот, с когото да можеш да взаимодействаш социално,
09:39
is its visual attention system.
160
579330
2000
е системата му за визуално внимание.
09:41
Because what it pays attention to is what it's seeing
161
581330
3000
Защото онова, на което обръща внимание, е онова, което вижда
09:44
and interacting with, and what you're understanding what it's doing.
162
584330
3000
и с което взаимодейства и разбирате какво прави.
09:47
So in the videos I'm about to show you,
163
587330
3000
Във видеоклиповете, които ще ви покажа,
09:50
you're going to see a visual attention system on a robot
164
590330
4000
ще видите система за визуално внимание в робот,
09:54
which has -- it looks for skin tone in HSV space,
165
594330
4000
който има... търси цвят на кожата в HSV пространството,
09:58
so it works across all human colorings.
166
598330
4000
така че работи през всички човешки разцветки.
10:02
It looks for highly saturated colors, from toys.
167
602330
2000
Търси силно наситени цветове, от играчки.
10:04
And it looks for things that move around.
168
604330
2000
Търси неща, които се движат наоколо.
10:06
And it weights those together into an attention window,
169
606330
3000
Претегля ги заедно в прозорец за внимание
10:09
and it looks for the highest-scoring place --
170
609330
2000
и търси мястото с най-висок резултат...
10:11
the stuff where the most interesting stuff is happening --
171
611330
2000
къде се случва най-интересното нещо.
10:13
and that is what its eyes then segue to.
172
613330
4000
И тогава към това се насочват очите му.
10:17
And it looks right at that.
173
617330
2000
Гледа право към това.
10:19
At the same time, some top-down sort of stuff:
174
619330
3000
В същото време, подреждане на приоритети:
10:22
might decide that it's lonely and look for skin tone,
175
622330
3000
може да реши, че е самотен, и да търси цвят на кожата,
10:25
or might decide that it's bored and look for a toy to play with.
176
625330
3000
или може да реши, че му е скучно, и да потърси играчка, с която да играе.
10:28
And so these weights change.
177
628330
2000
Така че тези тежести се променят.
10:30
And over here on the right,
178
630330
2000
А ето тук, вдясно,
10:32
this is what we call the Steven Spielberg memorial module.
179
632330
3000
това наричаме мемориален модул "Стивън Спилбърг".
10:35
Did people see the movie "AI"? (Audience: Yes.)
180
635330
2000
Хората гледали ли са филма "Изкуствен интелект"? Публика: Да.
10:37
RB: Yeah, it was really bad, but --
181
637330
2000
РБ: Да, наистина беше лош, но...
10:39
remember, especially when Haley Joel Osment, the little robot,
182
639330
4000
помните ли, особено когато Хейли Джоел Осмънт, малкият робот,
10:43
looked at the blue fairy for 2,000 years without taking his eyes off it?
183
643330
4000
гледа синята фея 2000 години, без да свали очи от нея?
10:47
Well, this gets rid of that,
184
647330
2000
Е, този се отървава от това,
10:49
because this is a habituation Gaussian that gets negative,
185
649330
4000
защото това е гаусиански за привикване, който става негативен,
10:53
and more and more intense as it looks at one thing.
186
653330
3000
и все по-интензивен, като гледа едно нещо.
10:56
And it gets bored, so it will then look away at something else.
187
656330
3000
И му доскучава, така че после ще отклони поглед към нещо друго.
10:59
So, once you've got that -- and here's a robot, here's Kismet,
188
659330
4000
Щом веднъж имаш това... ето един робот, ето го Късмет,
11:03
looking around for a toy. You can tell what it's looking at.
189
663330
4000
който се оглежда наоколо за играчка. Ясно е какво гледа.
11:07
You can estimate its gaze direction from those eyeballs covering its camera,
190
667330
5000
Може да се установи посоката на погледа му от тези очни ябълки, покриващи камерата му,
11:12
and you can tell when it's actually seeing the toy.
191
672330
3000
и може да се види кога всъщност вижда играчката.
11:15
And it's got a little bit of an emotional response here.
192
675330
2000
Тук има малко емоционален отклик.
11:17
(Laughter)
193
677330
1000
(Смях)
11:18
But it's still going to pay attention
194
678330
2000
Но все пак ще обърне внимание,
11:20
if something more significant comes into its field of view --
195
680330
4000
ако в зрителното му поле влезе нещо по-значително...
11:24
such as Cynthia Breazeal, the builder of this robot, from the right.
196
684330
4000
като Синтия Брийзъл, създателят на този робот... отдясно.
11:28
It sees her, pays attention to her.
197
688330
5000
Вижда я, обръща й внимание.
11:33
Kismet has an underlying, three-dimensional emotional space,
198
693330
4000
Късмет има скрито триизмерно емоционално пространство,
11:37
a vector space, of where it is emotionally.
199
697330
3000
векторно пространство, къде се намира емоционално.
11:40
And at different places in that space, it expresses --
200
700330
5000
И на различни места в това пространство изразява...
11:46
can we have the volume on here?
201
706330
2000
може ли да увеличим звука тук?
11:48
Can you hear that now, out there? (Audience: Yeah.)
202
708330
2000
Чувате ли сега там? Публика: Да.
11:50
Kismet: Do you really think so? Do you really think so?
203
710330
5000
Късмет: Наистина ли мислиш така? Наистина ли мислиш така?
11:57
Do you really think so?
204
717330
2000
Наистина ли мислиш така?
12:00
RB: So it's expressing its emotion through its face
205
720330
3000
РБ: Той изразява емоцията си чрез лицето
12:03
and the prosody in its voice.
206
723330
2000
и прозодията в гласа си.
12:05
And when I was dealing with my robot over here,
207
725330
4000
А когато се занимавах с моя робот ей там,
12:09
Chris, the robot, was measuring the prosody in my voice,
208
729330
3000
Крис, роботът, измерваше прозодията в гласа им,
12:12
and so we have the robot measure prosody for four basic messages
209
732330
5000
и така роботът измерва прозодия за четири основни послания,
12:17
that mothers give their children pre-linguistically.
210
737330
4000
които майките дават на децата си пред-лингвистично.
12:21
Here we've got naive subjects praising the robot:
211
741330
3000
Тук наивни субекти възхваляват робота.
12:26
Voice: Nice robot.
212
746330
2000
Глас: Добър робот.
12:29
You're such a cute little robot.
213
749330
2000
Ти си такъв хубав малък робот
12:31
(Laughter)
214
751330
2000
(Смях)
12:33
RB: And the robot's reacting appropriately.
215
753330
2000
И роботът реагира подходящо.
12:35
Voice: ...very good, Kismet.
216
755330
4000
Глас: ...много добре, Късмет.
12:40
(Laughter)
217
760330
2000
(Смях)
12:42
Voice: Look at my smile.
218
762330
2000
Глас: Погледни усмивката ми.
12:46
RB: It smiles. She imitates the smile. This happens a lot.
219
766330
3000
РБ: Усмихва се. Тя имитира усмивката. Това се случва често.
12:49
These are naive subjects.
220
769330
2000
Това са наивни субекти.
12:51
Here we asked them to get the robot's attention
221
771330
3000
Тук ги помолихме да привлекат вниманието на робота
12:54
and indicate when they have the robot's attention.
222
774330
3000
и да покажат, когато вниманието на робота е насочено към тях.
12:57
Voice: Hey, Kismet, ah, there it is.
223
777330
4000
Глас: Хей, Късмет, а, ето го.
13:01
RB: So she realizes she has the robot's attention.
224
781330
4000
РБ: Тя осъзнава, че е привлякла вниманието на робота.
13:08
Voice: Kismet, do you like the toy? Oh.
225
788330
4000
Глас: Късмет, харесва ли ти играчката? О.
13:13
RB: Now, here they're asked to prohibit the robot,
226
793330
2000
РБ: Тук са помолени да забранят на робота,
13:15
and this first woman really pushes the robot into an emotional corner.
227
795330
4000
и пърата жена наистина притиска робота в ъгъла емоционално.
13:19
Voice: No. No. You're not to do that. No.
228
799330
5000
Глас: Не. Не. Не бива да правиш това. Не.
13:24
(Laughter)
229
804330
3000
(Смях)
13:27
Not appropriate. No. No.
230
807330
6000
Глас: Не е подходящо. Не. Не.
13:33
(Laughter)
231
813330
3000
(Смях)
13:36
RB: I'm going to leave it at that.
232
816330
2000
РБ: Ще го оставя дотук.
13:38
We put that together. Then we put in turn taking.
233
818330
2000
Сглобяваме това. После поставяме редуване.
13:40
When we talk to someone, we talk.
234
820330
3000
Когато разговаряме с някого, говорим.
13:43
Then we sort of raise our eyebrows, move our eyes,
235
823330
4000
После някак вдигаме вежди, движим очи,
13:47
give the other person the idea it's their turn to talk.
236
827330
3000
даваме на другото лице идеята, че е негов ред да говори.
13:50
And then they talk, and then we pass the baton back and forth between each other.
237
830330
4000
Тогава той говори, а после си предаваме диригентската палка напред-назад помежду си.
13:54
So we put this in the robot.
238
834330
2000
Значи, слагаме това в робота.
13:56
We got a bunch of naive subjects in,
239
836330
2000
Имаме куп наивни субекти вътре,
13:58
we didn't tell them anything about the robot,
240
838330
2000
не сме им казали нищо за робота,
14:00
sat them down in front of the robot and said, talk to the robot.
241
840330
2000
сложихме ги да седнат пред робота и казахме, говорете с робота.
14:02
Now what they didn't know was,
242
842330
2000
Онова, което знаеха, беше,
14:04
the robot wasn't understanding a word they said,
243
844330
2000
че роботът не разбира и дума от това, което казват,
14:06
and that the robot wasn't speaking English.
244
846330
3000
и че роботът не говори английски.
14:09
It was just saying random English phonemes.
245
849330
2000
Просто казваше произволни английски фонеми.
14:11
And I want you to watch carefully, at the beginning of this,
246
851330
2000
Искам да гледате внимателно в началото,
14:13
where this person, Ritchie, who happened to talk to the robot for 25 minutes --
247
853330
4000
където този човек, Ричи, който говори с робота 25 минути...
14:17
(Laughter)
248
857330
2000
(Смях)
14:19
-- says, "I want to show you something.
249
859330
2000
...казва: "Искам да ти покажа нещо.
14:21
I want to show you my watch."
250
861330
2000
Искам да ти покажа ръчния си часовник."
14:23
And he brings the watch center, into the robot's field of vision,
251
863330
5000
И поставя центъра на часовника в зрителното поле на робота,
14:28
points to it, gives it a motion cue,
252
868330
2000
сочи към него, прави емоционално загатване
14:30
and the robot looks at the watch quite successfully.
253
870330
2000
и роботът поглежда часовника доста успешно.
14:32
We don't know whether he understood or not that the robot --
254
872330
3000
Не знаем дали е разбрал, или не, че роботът...
14:36
Notice the turn-taking.
255
876330
2000
Забележете как се редуват.
14:38
Ritchie: OK, I want to show you something. OK, this is a watch
256
878330
3000
Ричи: Така, искам да ти покажа нещо. Така, това е часовник,
14:41
that my girlfriend gave me.
257
881330
3000
който ми подари моята приятелка.
14:44
Robot: Oh, cool.
258
884330
2000
Робот: О, страхотно.
14:46
Ritchie: Yeah, look, it's got a little blue light in it too. I almost lost it this week.
259
886330
4000
Ричи: Да, виж, вътре има и малка синя лампичка. Едва не го изгубих тая седмица.
14:51
(Laughter)
260
891330
4000
(Смях)
14:55
RB: So it's making eye contact with him, following his eyes.
261
895330
3000
РБ: Той улавя погледа му, следва очите му.
14:58
Ritchie: Can you do the same thing? Robot: Yeah, sure.
262
898330
2000
Ричи: Можеш ли да правиш същото? Робот: Да, рабира се.
15:00
RB: And they successfully have that sort of communication.
263
900330
2000
РБ: И успешно комуникират по този начин.
15:02
And here's another aspect of the sorts of things that Chris and I were doing.
264
902330
4000
Ето още един аспект от типа неща, които правим с Крис.
15:06
This is another robot, Cog.
265
906330
2000
Това е друг робот, Ког.
15:08
They first make eye contact, and then, when Christie looks over at this toy,
266
908330
6000
Първо срещат погледи, а после, щом Кристи поглежда тази играчка,
15:14
the robot estimates her gaze direction
267
914330
2000
роботът установява посоката на взора й
15:16
and looks at the same thing that she's looking at.
268
916330
2000
и поглежда същото, което гледа и тя.
15:18
(Laughter)
269
918330
1000
(Смях)
15:19
So we're going to see more and more of this sort of robot
270
919330
3000
Ще виждаме този вид робот все повече и повече
15:22
over the next few years in labs.
271
922330
2000
през следващите години в лабораториите.
15:24
But then the big questions, two big questions that people ask me are:
272
924330
5000
А после - големите въпроси, два големи въпроса, които хората ми задават, са:
15:29
if we make these robots more and more human-like,
273
929330
2000
ако правим тези роботи все по-човекоподобни,
15:31
will we accept them, will we -- will they need rights eventually?
274
931330
5000
ще ги приемем ли, дали... дали ще са им нужни права в крайна сметка?
15:36
And the other question people ask me is, will they want to take over?
275
936330
3000
А другият въпрос, който хората ми задават е: те ще искат ли да надделеят?
15:39
(Laughter)
276
939330
1000
(Смях)
15:40
And on the first -- you know, this has been a very Hollywood theme
277
940330
3000
По първия - знаете ли, това е много холивудска тема
15:43
with lots of movies. You probably recognize these characters here --
278
943330
3000
с много филми. Вероятно разпознавате тези герои тук...
15:46
where in each of these cases, the robots want more respect.
279
946330
4000
във всеки от тези случаи роботите искат повече уважение.
15:50
Well, do you ever need to give robots respect?
280
950330
3000
Е, нужно ли е някога да се дава уважение на роботите?
15:54
They're just machines, after all.
281
954330
2000
Те са просто машини, в крайна сметка.
15:56
But I think, you know, we have to accept that we are just machines.
282
956330
4000
Но според мен трябва да приемем, че ние сме просто машини.
16:00
After all, that's certainly what modern molecular biology says about us.
283
960330
5000
В крайна сметка това твърди за нас модерната молекулярна биология.
16:05
You don't see a description of how, you know,
284
965330
3000
Не се вижда описание за това как
16:08
Molecule A, you know, comes up and docks with this other molecule.
285
968330
4000
молекула А, разбирате ли, идва и се събира с тази друга молекула.
16:12
And it's moving forward, you know, propelled by various charges,
286
972330
3000
И тя се движи напред, разбирате ли, тласкана от различни заряди,
16:15
and then the soul steps in and tweaks those molecules so that they connect.
287
975330
4000
и тогава душата влиза и побутва онези молекули, така че да се свържат.
16:19
It's all mechanistic. We are mechanism.
288
979330
3000
Всичко е механично, ние сме механизъм.
16:22
If we are machines, then in principle at least,
289
982330
3000
Ако ние сме машини, тогава поне по принцип
16:25
we should be able to build machines out of other stuff,
290
985330
4000
трябва да сме в състояние да създаваме машини от други неща,
16:29
which are just as alive as we are.
291
989330
4000
също така живи, колкото сме и ние.
16:33
But I think for us to admit that,
292
993330
2000
Но мисля, че за да признаем това,
16:35
we have to give up on our special-ness, in a certain way.
293
995330
3000
трябва да се откажем от своята специалност, в известен смисъл.
16:38
And we've had the retreat from special-ness
294
998330
2000
Оттегляли сме се от специалност
16:40
under the barrage of science and technology many times
295
1000330
3000
под заграждението на науката и технологията много пъти,
16:43
over the last few hundred years, at least.
296
1003330
2000
поне през последните няколкостотин години.
16:45
500 years ago we had to give up the idea
297
1005330
2000
Преди 500 години трябвало да се откажем от идеята,
16:47
that we are the center of the universe
298
1007330
3000
че сме центърът на Вселената,
16:50
when the earth started to go around the sun;
299
1010330
2000
когато Земята започнала да се върти около Слънцето;
16:52
150 years ago, with Darwin, we had to give up the idea we were different from animals.
300
1012330
5000
преди 150 години, с Дарвин, трябвало да се откажем от идеята, че сме различни от животните.
16:57
And to imagine -- you know, it's always hard for us.
301
1017330
3000
И да си представим... знаете ли, винаги ни е трудно.
17:00
Recently we've been battered with the idea that maybe
302
1020330
3000
Наскоро ни обстреляха с идеята, че може би
17:03
we didn't even have our own creation event, here on earth,
303
1023330
2000
дори нямаме собствено събитие за създаване тук, на Земята,
17:05
which people didn't like much. And then the human genome said,
304
1025330
3000
което не се харесва много на хората. А после - според човешкия геном
17:08
maybe we only have 35,000 genes. And that was really --
305
1028330
3000
може би имаме само 35 000 гени. А това беше наистина...
17:11
people didn't like that, we've got more genes than that.
306
1031330
3000
на хората не им хареса, трябваше да имаме повече гени от тези.
17:14
We don't like to give up our special-ness, so, you know,
307
1034330
3000
Не ни харесва да се отказваме от специалността си, затова, нали разбирате,
17:17
having the idea that robots could really have emotions,
308
1037330
2000
идеята, че роботите всъщност биха могли да имат емоции,
17:19
or that robots could be living creatures --
309
1039330
2000
или че роботите могат да са живи създания...
17:21
I think is going to be hard for us to accept.
310
1041330
2000
мисля, че ще ни е трудно да го приемем.
17:23
But we're going to come to accept it over the next 50 years or so.
311
1043330
4000
Но ще стигнем до това да го приемем през следващите 50 години или там някъде.
17:27
And the second question is, will the machines want to take over?
312
1047330
3000
А вторият въпрос е, ще искат ли машините да надделеят?
17:30
And here the standard scenario is that we create these things,
313
1050330
5000
Тук стандартният сценарий е, че ние създаваме тези неща,
17:35
they grow, we nurture them, they learn a lot from us,
314
1055330
3000
те израстват, ние ги отглеждаме, научават много от нас,
17:38
and then they start to decide that we're pretty boring, slow.
315
1058330
4000
а после започват да решават, че сме доста скучни и бавни.
17:42
They want to take over from us.
316
1062330
2000
Искат да надделеят над нас.
17:44
And for those of you that have teenagers, you know what that's like.
317
1064330
3000
Онези от вас, които имат тийнейджъри, знаят за какво става въпрос.
17:47
(Laughter)
318
1067330
1000
(Смях)
17:48
But Hollywood extends it to the robots.
319
1068330
3000
Но Холивуд го разпростира към роботите.
17:51
And the question is, you know,
320
1071330
3000
И въпросът е, знаете ли,
17:54
will someone accidentally build a robot that takes over from us?
321
1074330
4000
дали някой случайно ще създаде робот, който да надделее над нас?
17:58
And that's sort of like this lone guy in the backyard,
322
1078330
3000
Това е малко като оня самотен тип в задния двор,
18:01
you know -- "I accidentally built a 747."
323
1081330
3000
разбирате ли, "Случайно построих един 747".
18:04
I don't think that's going to happen.
324
1084330
2000
Знаете ли, според мен няма да стане така.
18:06
And I don't think --
325
1086330
2000
И не смятам...
18:08
(Laughter)
326
1088330
1000
(Смях)
18:09
-- I don't think we're going to deliberately build robots
327
1089330
3000
...не смятам, че съзнателно ще създадем роботи,
18:12
that we're uncomfortable with.
328
1092330
2000
с които не се чувстваме удобно.
18:14
We'll -- you know, they're not going to have a super bad robot.
329
1094330
2000
Е... разбирате ли, няма да има супер лош робот.
18:16
Before that has to come to be a mildly bad robot,
330
1096330
3000
Преди това да стане, нали знаете, леко лош робот,
18:19
and before that a not so bad robot.
331
1099330
2000
а преди това - не толкова лош робот.
18:21
(Laughter)
332
1101330
1000
(Смях)
18:22
And we're just not going to let it go that way.
333
1102330
2000
А ние просто няма да оставим нещата така.
18:24
(Laughter)
334
1104330
1000
(Смях)
18:25
So, I think I'm going to leave it at that: the robots are coming,
335
1105330
6000
Мисля, че ще приключа с това: роботите идват,
18:31
we don't have too much to worry about, it's going to be a lot of fun,
336
1111330
3000
няма кой знае за какво да се притесняваме, ще бъде много забавно
18:34
and I hope you all enjoy the journey over the next 50 years.
337
1114330
4000
и се надявам всички да се радвате на пътуването през следващите 50 години.
18:38
(Applause)
338
1118330
2000
(Аплодисменти)
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7