The Rise of Personal Robots | Cynthia Breazeal | TED Talks

159,306 views ・ 2011-02-08

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: Iskra Teneva Reviewer: Darina Stoyanova
00:15
Ever since I was a little girl
0
15260
3000
Откакто бях малко момиче
00:18
seeing "Star Wars" for the first time,
1
18260
2000
гледайки "Междузвездни Войни" за първи път
00:20
I've been fascinated by this idea
2
20260
2000
бях запленена от тази идея
00:22
of personal robots.
3
22260
2000
за лични роботи.
00:24
And as a little girl,
4
24260
2000
И като малко момиче,
00:26
I loved the idea of a robot that interacted with us
5
26260
2000
обичах идеята за робот, който взаимодейства с нас
00:28
much more like a helpful, trusted sidekick --
6
28260
3000
много повече като услужлив, доверен приятел --
00:31
something that would delight us, enrich our lives
7
31260
2000
нещо, което ще ни очарова, обогати нашите животи
00:33
and help us save a galaxy or two.
8
33260
3000
и ще ни помогне да спасим галактика-две.
00:37
I knew robots like that didn't really exist,
9
37260
3000
И така, аз знаех, че такива роботи не съществуват,
00:40
but I knew I wanted to build them.
10
40260
2000
но и знаех, че искам да ги създам.
00:42
So 20 years pass --
11
42260
2000
20 години изминаха --
00:44
I am now a graduate student at MIT
12
44260
2000
сега съм студентка в Техническия Университет в Масачузетс
00:46
studying artificial intelligence,
13
46260
2000
учеща изкуствен интелект,
00:48
the year is 1997,
14
48260
2000
годината е 1997,
00:50
and NASA has just landed the first robot on Mars.
15
50260
3000
и НАСА току що е приземила първият робот на Марс.
00:53
But robots are still not in our home, ironically.
16
53260
3000
Но роботите, иронично, все още, не са в нашия дом.
00:56
And I remember thinking about
17
56260
2000
И си спомням, мислейки си за
00:58
all the reasons why that was the case.
18
58260
2000
всички причини защо това се случва.
01:00
But one really struck me.
19
60260
2000
Но една наистина ме порази.
01:02
Robotics had really been about interacting with things,
20
62260
3000
Роботиката наистина е била относно взаимодействие с неща,
01:05
not with people --
21
65260
2000
не с хора --
01:07
certainly not in a social way that would be natural for us
22
67260
2000
със сигурност не по социален начин, който би бил естествен за нас
01:09
and would really help people accept robots
23
69260
2000
и наистина ще помогне на хората да приемат роботите
01:11
into our daily lives.
24
71260
2000
в ежедневието ни.
01:13
For me, that was the white space; that's what robots could not do yet.
25
73260
3000
За мен, това беше празното пространство, това е което роботите, все още, не можеха да правят.
01:16
And so that year, I started to build this robot, Kismet,
26
76260
3000
И така, същата година, аз започнах да изграждам този робот, Кисмет,
01:19
the world's first social robot.
27
79260
3000
първият в света социален робот.
01:22
Three years later --
28
82260
2000
Три години по-късно --
01:24
a lot of programming,
29
84260
2000
много програмиране,
01:26
working with other graduate students in the lab --
30
86260
2000
работа с други студенти в лабораторията --
01:28
Kismet was ready to start interacting with people.
31
88260
2000
Кисмет беше готов да започне да взаимодейства с хора.
01:30
(Video) Scientist: I want to show you something.
32
90260
2000
(Видео) Учен: Искам да ти покажа нещо.
01:32
Kismet: (Nonsense)
33
92260
2000
Кисмет: (Безмислица).
01:34
Scientist: This is a watch that my girlfriend gave me.
34
94260
3000
Учен: Това е часовник, който приятелката ми подари.
01:37
Kismet: (Nonsense)
35
97260
2000
Кисмет: (Безмислица)
01:39
Scientist: Yeah, look, it's got a little blue light in it too.
36
99260
2000
Учен: Да, виж, той също има малка синя светлина.
01:41
I almost lost it this week.
37
101260
3000
За малко да го изгубя тази седмица.
01:44
Cynthia Breazeal: So Kismet interacted with people
38
104260
3000
Синтия Брийзъл: Кисмет взаимодействаше с хора
01:47
like kind of a non-verbal child or pre-verbal child,
39
107260
3000
като невербално дете или дете преди да проговори,
01:50
which I assume was fitting because it was really the first of its kind.
40
110260
3000
което предполагам е подходящо, защото беше наистина първото по рода си.
01:53
It didn't speak language, but it didn't matter.
41
113260
2000
Не говореше език, но нямаше значение.
01:55
This little robot was somehow able
42
115260
2000
Този малък робот някак си беше способен
01:57
to tap into something deeply social within us --
43
117260
3000
да се включи в нещо дълбоко социално вътре в нас.
02:00
and with that, the promise of an entirely new way
44
120260
2000
И с това, обещание за напълно нов начин
02:02
we could interact with robots.
45
122260
2000
по който ние да взаимодействаме с роботи.
02:04
So over the past several years
46
124260
2000
И така, през последните няколко години
02:06
I've been continuing to explore this interpersonal dimension of robots,
47
126260
2000
аз продължих да изследвам тoва междуличностно измерение на роботите,
02:08
now at the media lab
48
128260
2000
сега в медийната лаборатория
02:10
with my own team of incredibly talented students.
49
130260
2000
с мой собствен екип от невероятно талантливи студенти.
02:12
And one of my favorite robots is Leonardo.
50
132260
3000
И един от моите любими роботи е Леонардо.
02:15
We developed Leonardo in collaboration with Stan Winston Studio.
51
135260
3000
Разработихме Леонардо в сътрудничество със Стан Уинстън Студио.
02:18
And so I want to show you a special moment for me of Leo.
52
138260
3000
И така, искам да ви покажа един специален момент за мен, на Лео.
02:21
This is Matt Berlin interacting with Leo,
53
141260
2000
Това е Мат Берлин взаимодействащ с Лео,
02:23
introducing Leo to a new object.
54
143260
2000
представяйки на Лео нов предмет.
02:25
And because it's new, Leo doesn't really know what to make of it.
55
145260
3000
И защото е нов, Лео не знае точно какво да прави с него.
02:28
But sort of like us, he can actually learn about it
56
148260
2000
Но, отчасти като нас, той може някакси да научи за него
02:30
from watching Matt's reaction.
57
150260
3000
като наблюдава реакцията на Мат.
02:33
(Video) Matt Berlin: Hello, Leo.
58
153260
2000
(Видео) Мат Берлин: Здравей, Лео.
02:38
Leo, this is Cookie Monster.
59
158260
3000
Лео, това е Бисквитеното чудовище.
02:44
Can you find Cookie Monster?
60
164260
3000
Можеш ли да намериш Бисквитеното чудовище?
02:52
Leo, Cookie Monster is very bad.
61
172260
3000
Лео, Бисквитеното чудовище е много лошо.
02:56
He's very bad, Leo.
62
176260
2000
Той е много лош, Лео.
03:00
Cookie Monster is very, very bad.
63
180260
3000
Бисквитеното чудовище е много, много лошо.
03:07
He's a scary monster.
64
187260
2000
Той е страшно чудовище.
03:09
He wants to get your cookies.
65
189260
2000
Той иска да ти вземе бисквитките.
03:12
(Laughter)
66
192260
2000
(Смях)
03:14
CB: All right, so Leo and Cookie
67
194260
3000
СБ: Добре, Лео и Бисквитко
03:17
might have gotten off to a little bit of a rough start,
68
197260
2000
може да започнаха малко трудно,
03:19
but they get along great now.
69
199260
3000
но сега се разбират много добре.
03:22
So what I've learned
70
202260
2000
Това което научих
03:24
through building these systems
71
204260
2000
чрез изграждането на тези системи
03:26
is that robots are actually
72
206260
2000
е, че роботите всъщност са
03:28
a really intriguing social technology,
73
208260
2000
много интригуваща социална технология.
03:30
where it's actually their ability
74
210260
2000
Където всъщност тяхната способност
03:32
to push our social buttons
75
212260
2000
да натискат нашите социални бутони
03:34
and to interact with us like a partner
76
214260
2000
и да взаимодействат с нас като партньор
03:36
that is a core part of their functionality.
77
216260
3000
която е съществената част от тяхната функционалност.
03:39
And with that shift in thinking, we can now start to imagine
78
219260
2000
И с тази промяна в мисленето, ние сега можем да започнем да си представяме
03:41
new questions, new possibilities for robots
79
221260
3000
нови въпроси, нови възможности за роботите
03:44
that we might not have thought about otherwise.
80
224260
3000
за които може да не бяхме се сетили иначе.
03:47
But what do I mean when I say "push our social buttons?"
81
227260
2000
Но какво имам в предвид, когато казвам "натискат социалните ни бутони?"
03:49
Well, one of the things that we've learned
82
229260
2000
Ами, едно от нещата, които сме научили
03:51
is that, if we design these robots to communicate with us
83
231260
2000
е, че ако проектираме тези роботи да общуват с нас
03:53
using the same body language,
84
233260
2000
използвайки същият език на тялото,
03:55
the same sort of non-verbal cues that people use --
85
235260
2000
същите невербални знаци, които хората използват --
03:57
like Nexi, our humanoid robot, is doing here --
86
237260
3000
както Некси, нашият хуманоиден робот прави тук --
04:00
what we find is that people respond to robots
87
240260
2000
това което откриваме е, че хората отговарят на роботите
04:02
a lot like they respond to people.
88
242260
2000
много подобно на техния отговор на хората.
04:04
People use these cues to determine things like how persuasive someone is,
89
244260
3000
Хората използват тези знаци, за да определят неща като колко убедителен е някой,
04:07
how likable, how engaging,
90
247260
2000
колко приятен, колко интригуващ,
04:09
how trustworthy.
91
249260
2000
колко надежден.
04:11
It turns out it's the same for robots.
92
251260
2000
Оказва се, че същото важи и за роботите.
04:13
It's turning out now
93
253260
2000
Оказва се в момента,
04:15
that robots are actually becoming a really interesting new scientific tool
94
255260
3000
че роботите всъщност стават много интересен нов научен инструмент
04:18
to understand human behavior.
95
258260
2000
за разбиране на човешкото поведение.
04:20
To answer questions like, how is it that, from a brief encounter,
96
260260
3000
Да отговарят на въпроси като, как така, от кратка среща,
04:23
we're able to make an estimate of how trustworthy another person is?
97
263260
3000
ние сме способни да преценим колко надежден друг човек е?
04:26
Mimicry's believed to play a role, but how?
98
266260
3000
Подражанието се смята да играе роля, но как?
04:29
Is it the mimicking of particular gestures that matters?
99
269260
3000
Дали подражанието на определени жестове е това, което е важно?
04:32
It turns out it's really hard
100
272260
2000
Оказва се, че наистина е трудно
04:34
to learn this or understand this from watching people
101
274260
2000
да научим това или да го разберем от наблюдението на хора,
04:36
because when we interact we do all of these cues automatically.
102
276260
3000
защото, когато взаимодействаме ние правим всички тези знаци автоматично.
04:39
We can't carefully control them because they're subconscious for us.
103
279260
2000
Не можем внимателно да ги контролираме, защото те са подсъзнателни за нас.
04:41
But with the robot, you can.
104
281260
2000
Но с робота ти можеш.
04:43
And so in this video here --
105
283260
2000
И така, в това видео --
04:45
this is a video taken from David DeSteno's lab at Northeastern University.
106
285260
3000
това е видео взето от лабораторията на Дейвид ДеСтено в Североизточния Университет.
04:48
He's a psychologist we've been collaborating with.
107
288260
2000
Той е психолог, с който си съдействаме.
04:50
There's actually a scientist carefully controlling Nexi's cues
108
290260
3000
В действителност има учен, който внимателно контролира знаците на Некси,
04:53
to be able to study this question.
109
293260
3000
за да може да изучава този въпрос.
04:56
And the bottom line is -- the reason why this works is
110
296260
2000
И в основата е -- причината това да работи е --
04:58
because it turns out people just behave like people
111
298260
2000
защото се оказва, че хората просто се държат като хора
05:00
even when interacting with a robot.
112
300260
3000
дори, когато взаимодействат с робот.
05:03
So given that key insight,
113
303260
2000
Имайки предвид това ключово прозрение,
05:05
we can now start to imagine
114
305260
2000
сега можем да започнем да си представяме
05:07
new kinds of applications for robots.
115
307260
3000
нови видове приложения за роботите.
05:10
For instance, if robots do respond to our non-verbal cues,
116
310260
3000
Например, ако роботите отговарят на нашите невербални знаци,
05:13
maybe they would be a cool, new communication technology.
117
313260
4000
може би те могат да бъдат готина, нова технология за комуникация.
05:17
So imagine this:
118
317260
2000
Така че, представете си това:
05:19
What about a robot accessory for your cellphone?
119
319260
2000
Какво да кажем за робот аксесоар за вашият мобилен телефон?
05:21
You call your friend, she puts her handset in a robot,
120
321260
2000
Обаждате се на приятелката си, тя слага апарата в робот,
05:23
and, bam! You're a MeBot --
121
323260
2000
и, бам!, вие сте МиБот --
05:25
you can make eye contact, you can talk with your friends,
122
325260
3000
можете да правите контакт с очи, можете да говорите с приятелите си,
05:28
you can move around, you can gesture --
123
328260
2000
можете да се движите наоколо, можете да жестикулирате --
05:30
maybe the next best thing to really being there, or is it?
124
330260
3000
вероятно следващото най-хубаво нещо е наистина да сте там, дали?
05:33
To explore this question,
125
333260
2000
За да проучи този въпрос
05:35
my student, Siggy Adalgeirsson, did a study
126
335260
3000
моят студент, Сиги Адалгейрсън, направи проучване
05:38
where we brought human participants, people, into our lab
127
338260
3000
където доведохме човешки участници, хора, в нашата лаборатория
05:41
to do a collaborative task
128
341260
2000
да извършат задача в сътрудничество
05:43
with a remote collaborator.
129
343260
2000
със сътрудник на дистанционно разположение.
05:45
The task involved things
130
345260
2000
Задачата включваше неща
05:47
like looking at a set of objects on the table,
131
347260
2000
като гледане на поредица от обекти на масата,
05:49
discussing them in terms of their importance and relevance to performing a certain task --
132
349260
3000
тяхното обсъждане по отношение на значимост и уместност за изпълнение на определена задача --
05:52
this ended up being a survival task --
133
352260
2000
това се оказа да бъде задача за оцеляване --
05:54
and then rating them in terms
134
354260
2000
и след това тяхното оценяване по отношение
05:56
of how valuable and important they thought they were.
135
356260
2000
на колко ценни и важни те смятаха, че са.
05:58
The remote collaborator was an experimenter from our group
136
358260
3000
Сътрудникът на дистанционно разположение беше експериментатор от нашата група,
06:01
who used one of three different technologies
137
361260
2000
където използваха една от три различни технологии,
06:03
to interact with the participants.
138
363260
2000
за да вазимодействат с участниците.
06:05
The first was just the screen.
139
365260
2000
Първата беше просто екрана.
06:07
This is just like video conferencing today.
140
367260
3000
Така че, това е точно като днешните видео конференции.
06:10
The next was to add mobility -- so, have the screen on a mobile base.
141
370260
3000
Следващото беше да се добави мобилност, така че, екранът да е на мобилна база.
06:13
This is like, if you're familiar with any of the telepresence robots today --
142
373260
3000
Това е като, ако сте запознати със някои от TelePresence роботите днес --
06:16
this is mirroring that situation.
143
376260
3000
това е отражение на тази ситуация.
06:19
And then the fully expressive MeBot.
144
379260
2000
И след това напълно изразителния МиБот.
06:21
So after the interaction,
145
381260
2000
И така, след взаимодействието,
06:23
we asked people to rate their quality of interaction
146
383260
3000
ние помолихме хората да оценят тяхното качество на взаимодействие
06:26
with the technology, with a remote collaborator
147
386260
2000
с технологията, със сътрудника на дистанционно разположение,
06:28
through this technology, in a number of different ways.
148
388260
3000
чрез тази технология, по няколко различни начина.
06:31
We looked at psychological involvement --
149
391260
2000
Разгледахме психологическото участие --
06:33
how much empathy did you feel for the other person?
150
393260
2000
колко съпричастие изпитахте за другия човек?
06:35
We looked at overall engagement.
151
395260
2000
Разгледахме цялостното взаимодействие.
06:37
We looked at their desire to cooperate.
152
397260
2000
Разгледахме тяхното желание да сътрудничат.
06:39
And this is what we see when they use just the screen.
153
399260
3000
И това е, което видяхме, когато те използват само екрана.
06:42
It turns out, when you add mobility -- the ability to roll around the table --
154
402260
3000
Оказва се, че когат добавиш мобилност -- способността да се въртиш около масата --
06:45
you get a little more of a boost.
155
405260
2000
получаваш малко повече тласък.
06:47
And you get even more of a boost when you add the full expression.
156
407260
3000
И получаваш дори повече тласък, когато добавиш пълното изражение.
06:50
So it seems like this physical, social embodiment
157
410260
2000
Изглежда че това физическо, социално въплъщение
06:52
actually really makes a difference.
158
412260
2000
всъщност, наистина има значение.
06:54
Now let's try to put this into a little bit of context.
159
414260
3000
Сега, нека се опитаме да сложим това в контекст.
06:57
Today we know that families are living further and further apart,
160
417260
3000
Днес, знаем че, семействата живеят все по-далеч и по-далеч,
07:00
and that definitely takes a toll on family relationships
161
420260
2000
и това определено оказва своя ефект на семейните взаимоотношения
07:02
and family bonds over distance.
162
422260
2000
и семейните връзки на разстояние.
07:04
For me, I have three young boys,
163
424260
2000
За мен, аз имам три малки момчета,
07:06
and I want them to have a really good relationship
164
426260
2000
и искам те да имат много добра връзка
07:08
with their grandparents.
165
428260
2000
с техните баби и дядовци.
07:10
But my parents live thousands of miles away,
166
430260
2000
Но моите родители живеят на хиляди километри,
07:12
so they just don't get to see each other that often.
167
432260
2000
така че, те нямат възможността да се виждат толкова често.
07:14
We try Skype, we try phone calls,
168
434260
2000
Опитваме Скайп, опитваме телефонни обаждания,
07:16
but my boys are little -- they don't really want to talk;
169
436260
2000
но моите момчета са малки -- те не искат да говорят,
07:18
they want to play.
170
438260
2000
те искат да играят.
07:20
So I love the idea of thinking about robots
171
440260
2000
Те обичат идеята да мислят за роботи
07:22
as a new kind of distance-play technology.
172
442260
3000
като нов вид дистанционна технология за игра.
07:25
I imagine a time not too far from now --
173
445260
3000
И така си представям в недалечно време
07:28
my mom can go to her computer,
174
448260
2000
майка мо може да отиде до нейния компютър,
07:30
open up a browser and jack into a little robot.
175
450260
2000
да отвори браузър и да се включи в малък робот.
07:32
And as grandma-bot,
176
452260
3000
И като баба-бот,
07:35
she can now play, really play,
177
455260
2000
тя ще може да играе, наистина да играе
07:37
with my sons, with her grandsons,
178
457260
2000
с моите синове, с нейните внуци,
07:39
in the real world with his real toys.
179
459260
3000
в истинския свят с истински играчки.
07:42
I could imagine grandmothers being able to do social-plays
180
462260
2000
Мога да си представя баби способни да правят социални игри
07:44
with their granddaughters, with their friends,
181
464260
2000
с техните внучки, с техните приятели,
07:46
and to be able to share all kinds of other activities around the house,
182
466260
2000
и да могат да споделят всякакви дейности из къщата,
07:48
like sharing a bedtime story.
183
468260
2000
като да разкажат приказка за лека нощ.
07:50
And through this technology,
184
470260
2000
И чрез тази технология,
07:52
being able to be an active participant
185
472260
2000
да могат да са активен участник
07:54
in their grandchildren's lives
186
474260
2000
в животите на техните внуци
07:56
in a way that's not possible today.
187
476260
2000
по начин, който не е възможен днес.
07:58
Let's think about some other domains,
188
478260
2000
Нека помислим за някои други области,
08:00
like maybe health.
189
480260
2000
като например здравето.
08:02
So in the United States today,
190
482260
2000
В Съединените Щати днес,
08:04
over 65 percent of people are either overweight or obese,
191
484260
3000
над 65 процента от хората са или с наднормено тегло, или затлъстели,
08:07
and now it's a big problem with our children as well.
192
487260
2000
и сега това е голям проблем също и за нашите деца.
08:09
And we know that as you get older in life,
193
489260
2000
И ние знаем, че като остаряваш в живота,
08:11
if you're obese when you're younger, that can lead to chronic diseases
194
491260
3000
ако си затлъстял, когато си по-млад, това може да доведе до хронични заболявания,
08:14
that not only reduce your quality of life,
195
494260
2000
които не само намаляват нашето качество на живот,
08:16
but are a tremendous economic burden on our health care system.
196
496260
3000
но са и огромно икономическо бреме на нашата здравеопазваща система.
08:19
But if robots can be engaging,
197
499260
2000
Но ако роботите могат да бъдат ангажиращи,
08:21
if we like to cooperate with robots,
198
501260
2000
ако харесваме да сътрудничим с роботи,
08:23
if robots are persuasive,
199
503260
2000
ако роботите са убедителни,
08:25
maybe a robot can help you
200
505260
2000
може би един робот може да ви помогне
08:27
maintain a diet and exercise program,
201
507260
2000
да поддържате диета и програма за упражнения,
08:29
maybe they can help you manage your weight.
202
509260
3000
може би те могат да ви помогнат да управлявате теглото си.
08:32
Sort of like a digital Jiminy --
203
512260
2000
Така че, нещо като дигитален Джимини --
08:34
as in the well-known fairy tale --
204
514260
2000
като добре познатата приказка --
08:36
a kind of friendly, supportive presence that's always there
205
516260
2000
един вид приятелско, подкрепящо присъствие, което е винаги там,
08:38
to be able to help you make the right decision
206
518260
2000
за да ви помогне да вземете правилното решение
08:40
in the right way at the right time
207
520260
2000
по правилният начин, в правилното време,
08:42
to help you form healthy habits.
208
522260
2000
да ви помогне да създадете здравословни навици.
08:44
So we actually explored this idea in our lab.
209
524260
2000
Ние всъщност, проучихме тази идея в нашата лаборатория.
08:46
This is a robot, Autom.
210
526260
2000
Това е робот, Аутом.
08:48
Cory Kidd developed this robot for his doctoral work.
211
528260
3000
Кори Кид разработи този робот за неговата докторска работа.
08:51
And it was designed to be a robot diet-and-exercise coach.
212
531260
3000
И беше проектиран да бъде робот за диета и упражнение.
08:54
It had a couple of simple non-verbal skills it could do.
213
534260
2000
Имаше няколко прости невербални умения, които можеше да извършва.
08:56
It could make eye contact with you.
214
536260
2000
Можеше да направи контакт с очи.
08:58
It could share information looking down at a screen.
215
538260
2000
Можеше да споделя информация като гледа в екрана.
09:00
You'd use a screen interface to enter information,
216
540260
2000
Вие ще използвате екранен интерфейс за въвеждане на информация,
09:02
like how many calories you ate that day,
217
542260
2000
като например, колко калории сте изяли този ден,
09:04
how much exercise you got.
218
544260
2000
колко упражнения сте направили.
09:06
And then it could help track that for you.
219
546260
2000
И след това той може да ви помогне като следи това за вас.
09:08
And the robot spoke with a synthetic voice
220
548260
2000
И роботът говореше със синтетичен глас
09:10
to engage you in a coaching dialogue
221
550260
2000
за да ви ангажира в тренировъчен диалог
09:12
modeled after trainers
222
552260
2000
моделиран спрямо треньори
09:14
and patients and so forth.
223
554260
2000
и пациенти и т.н.
09:16
And it would build a working alliance with you
224
556260
2000
И той ще създаде работещо партньорство с вас
09:18
through that dialogue.
225
558260
2000
чрез този диалог.
09:20
It could help you set goals and track your progress,
226
560260
2000
Може да ви помогне да поставите цели и да следите прогреса си,
09:22
and it would help motivate you.
227
562260
2000
и ще ви помогне да сте мотивирани.
09:24
So an interesting question is,
228
564260
2000
Така че, интересен въпрос е,
09:26
does the social embodiment really matter? Does it matter that it's a robot?
229
566260
3000
дали социалното въплъщение наистина има значение? Има ли значение, че е робот?
09:29
Is it really just the quality of advice and information that matters?
230
569260
3000
Наистина ли само качеството на съвета и информацията е, което има значение?
09:32
To explore that question,
231
572260
2000
За да разрешим този въпрос,
09:34
we did a study in the Boston area
232
574260
2000
ние направихме проучване в района на Бостън,
09:36
where we put one of three interventions in people's homes
233
576260
3000
където поставихме една от три интервенции в домовете на хората
09:39
for a period of several weeks.
234
579260
2000
за период от няколко седмици.
09:41
One case was the robot you saw there, Autom.
235
581260
3000
Един случай беше роботът, който видяхте там, Аутом.
09:44
Another was a computer that ran the same touch-screen interface,
236
584260
3000
Друг беше компютър, който имаше същият интерфейс със сензорен екран
09:47
ran exactly the same dialogues.
237
587260
2000
и изпълняваше абсолютно същият диалог.
09:49
The quality of advice was identical.
238
589260
2000
Качеството на съвета беше идентично.
09:51
And the third was just a pen and paper log,
239
591260
2000
И третият беше просто дневник с химикалка и хартия,
09:53
because that's the standard intervention you typically get
240
593260
2000
защото това е стандартната интервенция, която обикновено получаваш,
09:55
when you start a diet-and-exercise program.
241
595260
3000
когато започваш диета и програма с упражнения.
09:58
So one of the things we really wanted to look at
242
598260
3000
Едно от нещата, които наистина искахме да разгледаме
10:01
was not how much weight people lost,
243
601260
3000
беше не колко тегло хората за изгубили,
10:04
but really how long they interacted with the robot.
244
604260
3000
а всъщност колко дълго за взаимодействали с робота.
10:07
Because the challenge is not losing weight, it's actually keeping it off.
245
607260
3000
Защото предизвикателството не е да намалиш теглото, а да го задържиш така.
10:10
And the longer you could interact with one of these interventions,
246
610260
3000
И колкото по-дълго можете да взаимодействате с една от тези интервенции,
10:13
well that's indicative, potentially, of longer-term success.
247
613260
3000
това е показателно за потенциален дългосрочен успех.
10:16
So the first thing I want to look at is how long,
248
616260
2000
Така че, първото нещо, което искам да разгледам е колко дълго,
10:18
how long did people interact with these systems.
249
618260
2000
колко дълго хората взаимодействат с тези системи.
10:20
It turns out that people interacted with the robot
250
620260
2000
Оказва се, че хората взаимодействат с робота
10:22
significantly more,
251
622260
2000
значително повече,
10:24
even though the quality of the advice was identical to the computer.
252
624260
3000
въпреки че, качеството на съвета беше идентично с това на компютъра.
10:28
When it asked people to rate it on terms of the quality of the working alliance,
253
628260
3000
Когато той помоли хората да го оценят по отношение на качеството на работния съюз,
10:31
people rated the robot higher
254
631260
2000
хората оцениха робота по-високо
10:33
and they trusted the robot more.
255
633260
2000
и му се довериха повече.
10:35
(Laughter)
256
635260
2000
(Смях)
10:37
And when you look at emotional engagement,
257
637260
2000
И когато погледнем емоционалната ангажираност,
10:39
it was completely different.
258
639260
2000
беше напълно различно.
10:41
People would name the robots.
259
641260
2000
Хората наименуваха роботите.
10:43
They would dress the robots.
260
643260
2000
Облякоха ги.
10:45
(Laughter)
261
645260
2000
(Смях)
10:47
And even when we would come up to pick up the robots at the end of the study,
262
647260
3000
И дори когато дойдохме да приберем роботите в края на проучването,
10:50
they would come out to the car and say good-bye to the robots.
263
650260
2000
те излизаха от колите, за да кажат довиждане на роботите.
10:52
They didn't do this with a computer.
264
652260
2000
Не направиха същото с компютъра.
10:54
The last thing I want to talk about today
265
654260
2000
Последното нещо, за което искам да говоря днес
10:56
is the future of children's media.
266
656260
2000
е бъдещето на детската медия.
10:58
We know that kids spend a lot of time behind screens today,
267
658260
3000
Ние знаем, че децата днес прекарват много време пред екраните,
11:01
whether it's television or computer games or whatnot.
268
661260
3000
дали е телевизия или компютърни игри, или какво ли не.
11:04
My sons, they love the screen. They love the screen.
269
664260
3000
Моите синове, те обичат екрана. Те обичат екрана.
11:07
But I want them to play; as a mom, I want them to play,
270
667260
3000
Но аз искам те да играят; като майка искам те да играят
11:10
like, real-world play.
271
670260
2000
истинкси игри от реалния свят.
11:12
And so I have a new project in my group I wanted to present to you today
272
672260
3000
И така, имам нов проект в моята група, който искам да ви представя днес
11:15
called Playtime Computing
273
675260
2000
наречен Компютърно Време за Игра,
11:17
that's really trying to think about how we can take
274
677260
2000
който наистина се опитва да мисли
11:19
what's so engaging about digital media
275
679260
2000
кое е толкова ангажиращо в дигиталната медия
11:21
and literally bring it off the screen
276
681260
2000
и буквално да го пренесе извън екрана,
11:23
into the real world of the child,
277
683260
2000
в реалният свят на детето,
11:25
where it can take on many of the properties of real-world play.
278
685260
3000
където може да приеме много от свойствата на играта от реалния свят.
11:29
So here's the first exploration of this idea,
279
689260
4000
И ето го първото изследване на тази идея,
11:33
where characters can be physical or virtual,
280
693260
3000
където героите могат да бъдат физически или виртуални,
11:36
and where the digital content
281
696260
2000
и където дигиталното съдържание
11:38
can literally come off the screen
282
698260
2000
може буквално да изпадне от екрана,
11:40
into the world and back.
283
700260
2000
в реалния свят и обратно.
11:42
I like to think of this
284
702260
2000
Иска ми се да мисля за това
11:44
as the Atari Pong
285
704260
2000
като за Атари Понг
11:46
of this blended-reality play.
286
706260
2000
на тази игра със смесена реалност.
11:48
But we can push this idea further.
287
708260
2000
Но ние можем да тласнем тази идея и по-далеч.
11:50
What if --
288
710260
2000
Какво ако --
11:52
(Game) Nathan: Here it comes. Yay!
289
712260
3000
(Игра) Нейтън: Ето идва. Йей!
11:55
CB: -- the character itself could come into your world?
290
715260
3000
СБ: -- самият герой може да дойде във вашия свят?
11:58
It turns out that kids love it
291
718260
2000
Оказва се, че децата обожават,
12:00
when the character becomes real and enters into their world.
292
720260
3000
когато героят става реален и навлиза в техния свят.
12:03
And when it's in their world,
293
723260
2000
И когато е в техния свят,
12:05
they can relate to it and play with it in a way
294
725260
2000
те могат да се свържат и играят с него по начин,
12:07
that's fundamentally different from how they play with it on the screen.
295
727260
2000
който е фундаментално различен от този, по който те играят с него на екрана.
12:09
Another important idea is this notion
296
729260
2000
Друга важна идея е това понятие
12:11
of persistence of character across realities.
297
731260
3000
за запазване на героя между реалностите.
12:14
So changes that children make in the real world
298
734260
2000
Така че, промени, които децата правят в реалния свят
12:16
need to translate to the virtual world.
299
736260
2000
трябва да се пренасят във виртуалния.
12:18
So here, Nathan has changed the letter A to the number 2.
300
738260
3000
Тук, Нейтън е променил буквата А в числото 2.
12:21
You can imagine maybe these symbols
301
741260
2000
Можете да си представите, може би тези символи
12:23
give the characters special powers when it goes into the virtual world.
302
743260
3000
дават на героя специални сили, когато отиде във виртуалния свят.
12:26
So they are now sending the character back into that world.
303
746260
3000
И така, сега те изпращат героя обратно в този свят.
12:29
And now it's got number power.
304
749260
3000
И сега той има силата на числата.
12:32
And then finally, what I've been trying to do here
305
752260
2000
И най-накрая, какво се опитах да направя тук
12:34
is create a really immersive experience for kids,
306
754260
3000
е да създам наистина обгръщащо изживяване за децата,
12:37
where they really feel like they are part of that story,
307
757260
3000
където те наистина се чувстват като част от тази история,
12:40
a part of that experience.
308
760260
2000
част от това изживяване.
12:42
And I really want to spark their imaginations
309
762260
2000
И наистина искам да разпаля тяхното въображение
12:44
the way mine was sparked as a little girl watching "Star Wars."
310
764260
3000
по същия начин както моето беше разпалено като малко момиче гледащо "Междузвездни Войни".
12:47
But I want to do more than that.
311
767260
2000
Но аз искам да направя повече от това.
12:49
I actually want them to create those experiences.
312
769260
3000
Всъщност аз искам те да създават тези изживявания.
12:52
I want them to be able to literally build their imagination
313
772260
2000
Искам те буквално да могат да вграждат въображението си
12:54
into these experiences and make them their own.
314
774260
2000
в тези изживявания и да ги правят свои.
12:56
So we've been exploring a lot of ideas
315
776260
2000
И така, ние проучваме много идеи
12:58
in telepresence and mixed reality
316
778260
2000
в телеприсъствието и смесената реалност
13:00
to literally allow kids to project their ideas into this space
317
780260
3000
за да може буквално да позволим на децата да прожектират техните идеи в това пространство,
13:03
where other kids can interact with them
318
783260
2000
където други деца могат да взаимодействат с тях
13:05
and build upon them.
319
785260
2000
и да ги надграждат.
13:07
I really want to come up with new ways of children's media
320
787260
3000
Наистина искам да изляза с нови начини за детска медия,
13:10
that foster creativity and learning and innovation.
321
790260
3000
които насърчават творчеството и обучението, и иновацията.
13:13
I think that's very, very important.
322
793260
3000
Мисля, че това е много, много важно.
13:16
So this is a new project.
323
796260
2000
Така че това е нов проект.
13:18
We've invited a lot of kids into this space,
324
798260
2000
Поканили сме много деца в това пространство,
13:20
and they think it's pretty cool.
325
800260
3000
и те мислят, че е доста готино.
13:23
But I can tell you, the thing that they love the most
326
803260
2000
Но мога да ви кажа, нещото, което обичат най-много
13:25
is the robot.
327
805260
2000
е робота.
13:27
What they care about is the robot.
328
807260
3000
Това, за което ги е грижа е роботът.
13:30
Robots touch something deeply human within us.
329
810260
3000
Роботите докосват нещо дълбоко човешко в нас.
13:33
And so whether they're helping us
330
813260
2000
И така, дали ни помагат
13:35
to become creative and innovative,
331
815260
2000
да станем креативни и иновативни,
13:37
or whether they're helping us
332
817260
2000
или ни помагат
13:39
to feel more deeply connected despite distance,
333
819260
2000
да се чувстваме по-дълбоко свързани въпреки разстоянието,
13:41
or whether they are our trusted sidekick
334
821260
2000
или са нашите доверени помощници,
13:43
who's helping us attain our personal goals
335
823260
2000
които ни помагат да достигнем личните си цели
13:45
in becoming our highest and best selves,
336
825260
2000
да станем най-високите и най-добрите себе си,
13:47
for me, robots are all about people.
337
827260
3000
за мен, роботите са изцяло посветени за хората.
13:50
Thank you.
338
830260
2000
Благодаря ви.
13:52
(Applause)
339
832260
5000
(Аплодисменти)
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7