The Rise of Personal Robots | Cynthia Breazeal | TED Talks

Синтия Бризель: Эра персональных роботов

159,306 views

2011-02-08 ・ TED


New videos

The Rise of Personal Robots | Cynthia Breazeal | TED Talks

Синтия Бризель: Эра персональных роботов

159,306 views ・ 2011-02-08

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Seven DVM Редактор: Maria Polishuk
00:15
Ever since I was a little girl
0
15260
3000
Даже когда я была маленькой
00:18
seeing "Star Wars" for the first time,
1
18260
2000
и впервые смотрела "Звёздные войны",
00:20
I've been fascinated by this idea
2
20260
2000
меня привлекала мысль
00:22
of personal robots.
3
22260
2000
о персональных роботах.
00:24
And as a little girl,
4
24260
2000
И будучи ребёнком
00:26
I loved the idea of a robot that interacted with us
5
26260
2000
я любила думать о роботе, который взаимодействовал бы с нами
00:28
much more like a helpful, trusted sidekick --
6
28260
3000
совсем как надёжный, предупредительный друг,
00:31
something that would delight us, enrich our lives
7
31260
2000
способный сделать нашу жизнь интереснее и радостнее,
00:33
and help us save a galaxy or two.
8
33260
3000
и способный помочь спасти пару галактик.
00:37
I knew robots like that didn't really exist,
9
37260
3000
Тогда я знала, что таких роботов не существовало,
00:40
but I knew I wanted to build them.
10
40260
2000
но я также знала, что хочу их создавать.
00:42
So 20 years pass --
11
42260
2000
Двадцать лет прошло,
00:44
I am now a graduate student at MIT
12
44260
2000
я стала выпускницей MIT [Массачусетский Институт Технологии],
00:46
studying artificial intelligence,
13
46260
2000
изучавшей искусственный интеллект,
00:48
the year is 1997,
14
48260
2000
это было в 1997 году,
00:50
and NASA has just landed the first robot on Mars.
15
50260
3000
когда НАСА только что спустил первого робота на Марс.
00:53
But robots are still not in our home, ironically.
16
53260
3000
Однако же, роботов в наших домах до сих пор нет.
00:56
And I remember thinking about
17
56260
2000
И я всё думала
00:58
all the reasons why that was the case.
18
58260
2000
о том, что же тому причиной.
01:00
But one really struck me.
19
60260
2000
Среди прочих одна действительно поражала.
01:02
Robotics had really been about interacting with things,
20
62260
3000
Роботы предназначалисть лишь для взаимодействия с предметами,
01:05
not with people --
21
65260
2000
а не с людьми,
01:07
certainly not in a social way that would be natural for us
22
67260
2000
по крайней мере, не в естественно-социальной для нас манере,
01:09
and would really help people accept robots
23
69260
2000
позволившей бы людям скорее принять роботов
01:11
into our daily lives.
24
71260
2000
в свой быт.
01:13
For me, that was the white space; that's what robots could not do yet.
25
73260
3000
Для меня это было белым пятном, то, чего роботы пока не могли делать.
01:16
And so that year, I started to build this robot, Kismet,
26
76260
3000
В том же году я начала строить этого робота, Кисмета,
01:19
the world's first social robot.
27
79260
3000
первого в мире социального робота.
01:22
Three years later --
28
82260
2000
Спустя три года
01:24
a lot of programming,
29
84260
2000
программирования
01:26
working with other graduate students in the lab --
30
86260
2000
и работы с другими выпускниками в лабораториях
01:28
Kismet was ready to start interacting with people.
31
88260
2000
мы смогли подготовить Кисмета к взаимодействию с людьми.
01:30
(Video) Scientist: I want to show you something.
32
90260
2000
(Видео) Учёный: Я хочу показать тебе что-то.
01:32
Kismet: (Nonsense)
33
92260
2000
Кисмет: (Удивление).
01:34
Scientist: This is a watch that my girlfriend gave me.
34
94260
3000
Учёный: Это часы, подаренные мне моей девушкой.
01:37
Kismet: (Nonsense)
35
97260
2000
Кисмет: (Удивление).
01:39
Scientist: Yeah, look, it's got a little blue light in it too.
36
99260
2000
Учёный: Да, посмотри, там есть маленький синенький огонёк.
01:41
I almost lost it this week.
37
101260
3000
Я чуть не потерял их на этой неделе.
01:44
Cynthia Breazeal: So Kismet interacted with people
38
104260
3000
Синтия Бризель: Итак, Кисмет взаимодействовал с человеком
01:47
like kind of a non-verbal child or pre-verbal child,
39
107260
3000
как ещё не говорящий или агукающий ребёнок,
01:50
which I assume was fitting because it was really the first of its kind.
40
110260
3000
и я считаю это удачей, так как он был первый в своём роде.
01:53
It didn't speak language, but it didn't matter.
41
113260
2000
Он не говорил, но этот факт не имел значения.
01:55
This little robot was somehow able
42
115260
2000
Этот маленький робот каким-то образом смог
01:57
to tap into something deeply social within us --
43
117260
3000
задеть некие социальные струны глубоко внутри нас.
02:00
and with that, the promise of an entirely new way
44
120260
2000
И вместе с тем пообещать качественно новый образ
02:02
we could interact with robots.
45
122260
2000
нашего возможного взаимодействия с роботами.
02:04
So over the past several years
46
124260
2000
На протяжении следующих нескольких лет
02:06
I've been continuing to explore this interpersonal dimension of robots,
47
126260
2000
я продолжала изучать этот межличностный аспект роботов
02:08
now at the media lab
48
128260
2000
уже в медиалаборатории
02:10
with my own team of incredibly talented students.
49
130260
2000
вместе с командой невероятно талантливых студентов.
02:12
And one of my favorite robots is Leonardo.
50
132260
3000
Один из моих любимых роботов - Леонардо.
02:15
We developed Leonardo in collaboration with Stan Winston Studio.
51
135260
3000
Мы построили Леонардо вместе со Стэн Уинстон Студио.
02:18
And so I want to show you a special moment for me of Leo.
52
138260
3000
И я хочу показать вам особый для меня момент жизни Лео.
02:21
This is Matt Berlin interacting with Leo,
53
141260
2000
Мэтт Берлин взаимодействует с Лео,
02:23
introducing Leo to a new object.
54
143260
2000
показывая ему новый объект.
02:25
And because it's new, Leo doesn't really know what to make of it.
55
145260
3000
И поскольку он новый, Лео совсем не знает, что с ним делать.
02:28
But sort of like us, he can actually learn about it
56
148260
2000
Но, подобно нам, он может "изучить" его,
02:30
from watching Matt's reaction.
57
150260
3000
наблюдая за реакциями Мэтта.
02:33
(Video) Matt Berlin: Hello, Leo.
58
153260
2000
(Видео) Мэтт Берлин: Привет, Лео.
02:38
Leo, this is Cookie Monster.
59
158260
3000
Лео, это Бисквитное Чудовище [Лягушонок Кермит].
02:44
Can you find Cookie Monster?
60
164260
3000
Можешь найти Бисквитное Чудовище?
02:52
Leo, Cookie Monster is very bad.
61
172260
3000
Лео, Бисквитное Чудовище очень плохое.
02:56
He's very bad, Leo.
62
176260
2000
Оно очень плохое, Лео.
03:00
Cookie Monster is very, very bad.
63
180260
3000
Чудовище очень, очень плохое.
03:07
He's a scary monster.
64
187260
2000
Оно - страшное чудовище.
03:09
He wants to get your cookies.
65
189260
2000
Оно хочет отнять твоё печенье.
03:12
(Laughter)
66
192260
2000
(Смех)
03:14
CB: All right, so Leo and Cookie
67
194260
3000
Синтия: Хорошо, итак, Лео и Чудовище,
03:17
might have gotten off to a little bit of a rough start,
68
197260
2000
возможно, начали не очень гладко,
03:19
but they get along great now.
69
199260
3000
но сейчас они уже хорошо справляются.
03:22
So what I've learned
70
202260
2000
Я поняла,
03:24
through building these systems
71
204260
2000
строя эти системы,
03:26
is that robots are actually
72
206260
2000
что роботы действительно являются
03:28
a really intriguing social technology,
73
208260
2000
очень занимательной социальной технологией.
03:30
where it's actually their ability
74
210260
2000
Действительно, в их силах
03:32
to push our social buttons
75
212260
2000
играть на наших социальных струнах
03:34
and to interact with us like a partner
76
214260
2000
и взаимодействовать с нами по-партнёрски,
03:36
that is a core part of their functionality.
77
216260
3000
вот ядро их функциональности.
03:39
And with that shift in thinking, we can now start to imagine
78
219260
2000
И с этой мыслью мы можем теперь представить себе
03:41
new questions, new possibilities for robots
79
221260
3000
новые вопросы, новые возможности для роботов,
03:44
that we might not have thought about otherwise.
80
224260
3000
которые мы раньше представить не могли.
03:47
But what do I mean when I say "push our social buttons?"
81
227260
2000
Но что я имею в виду под "играть на наших социальных струнах"?
03:49
Well, one of the things that we've learned
82
229260
2000
Ну, из того, что мы уже выяснили:
03:51
is that, if we design these robots to communicate with us
83
231260
2000
если мы создаём этих роботов для общения с нами
03:53
using the same body language,
84
233260
2000
с использованием того же языка тела,
03:55
the same sort of non-verbal cues that people use --
85
235260
2000
той же системы невербальных знаков, которой пользуемся мы,
03:57
like Nexi, our humanoid robot, is doing here --
86
237260
3000
например, как делает Некси, наш гуманоидный робот,
04:00
what we find is that people respond to robots
87
240260
2000
мы поняли, что люди отвечают роботам
04:02
a lot like they respond to people.
88
242260
2000
очень сходно с тем, как они отвечают людям.
04:04
People use these cues to determine things like how persuasive someone is,
89
244260
3000
Люди используют эти жесты, чтобы определить, например, насколько кто-то убедителен,
04:07
how likable, how engaging,
90
247260
2000
насколько приятен, насколько обаятелен,
04:09
how trustworthy.
91
249260
2000
можно ли ему доверять.
04:11
It turns out it's the same for robots.
92
251260
2000
Оказывается, то же справедливо и для роботов.
04:13
It's turning out now
93
253260
2000
Оказывается,
04:15
that robots are actually becoming a really interesting new scientific tool
94
255260
3000
что роботы действительно становятся очень интересным научным инструментом
04:18
to understand human behavior.
95
258260
2000
в изучении человеческого поведения.
04:20
To answer questions like, how is it that, from a brief encounter,
96
260260
3000
Чтобы ответить на вопрос, как, почти что с первого взгляда,
04:23
we're able to make an estimate of how trustworthy another person is?
97
263260
3000
мы можем оценить, насколько можно доверять человеку?
04:26
Mimicry's believed to play a role, but how?
98
266260
3000
Считается, что здесь играет роль мимикрия, но какую?
04:29
Is it the mimicking of particular gestures that matters?
99
269260
3000
Возможно, важно воспроизведение конкретных жестов?
04:32
It turns out it's really hard
100
272260
2000
Оказывается, очень сложно
04:34
to learn this or understand this from watching people
101
274260
2000
разобраться в этом, лишь наблюдая за людьми,
04:36
because when we interact we do all of these cues automatically.
102
276260
3000
поскольку при взаимодействии мы воспроизводим все эти жесты непроизвольно.
04:39
We can't carefully control them because they're subconscious for us.
103
279260
2000
Мы не можем их контролировать, поскольку они подсознательны.
04:41
But with the robot, you can.
104
281260
2000
Но с роботами - можем.
04:43
And so in this video here --
105
283260
2000
Вот на этом видео,
04:45
this is a video taken from David DeSteno's lab at Northeastern University.
106
285260
3000
снятом в лаборатории Дэвида ДеСтено в Северо-восточном Университете.
04:48
He's a psychologist we've been collaborating with.
107
288260
2000
Он психолог, один из тех, с кем мы сотрудничали.
04:50
There's actually a scientist carefully controlling Nexi's cues
108
290260
3000
Здесь учёный внимательно контролирует жесты Некси,
04:53
to be able to study this question.
109
293260
3000
чтобы изучить поставленный вопрос.
04:56
And the bottom line is -- the reason why this works is
110
296260
2000
Итог этого - причина, по которой эти исследования возможны -
04:58
because it turns out people just behave like people
111
298260
2000
то, что люди, оказывается, ведут себя как люди,
05:00
even when interacting with a robot.
112
300260
3000
даже когда имеют дело с роботом.
05:03
So given that key insight,
113
303260
2000
Имея эту ключевую идею в виду,
05:05
we can now start to imagine
114
305260
2000
можно представить
05:07
new kinds of applications for robots.
115
307260
3000
новые возможные приложения для роботов.
05:10
For instance, if robots do respond to our non-verbal cues,
116
310260
3000
Например, если роботы отвечают на невербальные жесты,
05:13
maybe they would be a cool, new communication technology.
117
313260
4000
возможно, они станут новой современной технологией коммуникации.
05:17
So imagine this:
118
317260
2000
Представьте:
05:19
What about a robot accessory for your cellphone?
119
319260
2000
робот, как аксессуар для сотового телефона.
05:21
You call your friend, she puts her handset in a robot,
120
321260
2000
Вы звоните подруге, она помещает свой телефон в робота
05:23
and, bam! You're a MeBot --
121
323260
2000
и -раз! - вы становитесь Я-Ботом,
05:25
you can make eye contact, you can talk with your friends,
122
325260
3000
можете установить зрительный контакт, можете разговаривать с друзьями,
05:28
you can move around, you can gesture --
123
328260
2000
можете двигаться, жестикулировать,
05:30
maybe the next best thing to really being there, or is it?
124
330260
3000
и лучше этого может быть только личное присутствие, не так ли?
05:33
To explore this question,
125
333260
2000
Чтобы осветить этот вопрос
05:35
my student, Siggy Adalgeirsson, did a study
126
335260
3000
мой студент, Сигги Адальгейрссон, провёл исследование:
05:38
where we brought human participants, people, into our lab
127
338260
3000
мы привели несколько участников-людей в нашу лабораторию,
05:41
to do a collaborative task
128
341260
2000
чтобы они выполнили совместную задачу
05:43
with a remote collaborator.
129
343260
2000
с удалённым партнёром.
05:45
The task involved things
130
345260
2000
Работа включала следующие задачи:
05:47
like looking at a set of objects on the table,
131
347260
2000
посмотреть на набор объектов на столе,
05:49
discussing them in terms of their importance and relevance to performing a certain task --
132
349260
3000
обсудить их в терминах важности и отношения к решению определённой задачи
05:52
this ended up being a survival task --
133
352260
2000
(в конкретном случае задачи на выживание)
05:54
and then rating them in terms
134
354260
2000
и ранжировать их в смысле
05:56
of how valuable and important they thought they were.
135
356260
2000
ценности и значимости, на их взгляд.
05:58
The remote collaborator was an experimenter from our group
136
358260
3000
Удалённый партнёр - это экспериментатор из нашей группы,
06:01
who used one of three different technologies
137
361260
2000
они использовали одну из трёх различных технологий
06:03
to interact with the participants.
138
363260
2000
взаимодействия с участниками.
06:05
The first was just the screen.
139
365260
2000
Первая - простой экран.
06:07
This is just like video conferencing today.
140
367260
3000
Это похоже на простую видеоконференцию.
06:10
The next was to add mobility -- so, have the screen on a mobile base.
141
370260
3000
Следующая добавляла мобильности - экран на подвижной основе.
06:13
This is like, if you're familiar with any of the telepresence robots today --
142
373260
3000
Если вы знакомы с какими-либо роботами телеприсутствия,
06:16
this is mirroring that situation.
143
376260
3000
то вторая технология отражает такую ситуацию.
06:19
And then the fully expressive MeBot.
144
379260
2000
Затем - полностью экспрессивный Я-Бот.
06:21
So after the interaction,
145
381260
2000
После обсуждения
06:23
we asked people to rate their quality of interaction
146
383260
3000
мы попросили людей оценить качество взаимодействия
06:26
with the technology, with a remote collaborator
147
386260
2000
с удалённым партнёром при применении каждой из технологий
06:28
through this technology, in a number of different ways.
148
388260
3000
в нескольких аспектах.
06:31
We looked at psychological involvement --
149
391260
2000
Мы смотрели на психологическую вовлечённость:
06:33
how much empathy did you feel for the other person?
150
393260
2000
насколько хорошо вы чувствовали партнёра?
06:35
We looked at overall engagement.
151
395260
2000
Мы смотрели на общую вовлечённость.
06:37
We looked at their desire to cooperate.
152
397260
2000
Смотрели на их желание к сотрудничеству.
06:39
And this is what we see when they use just the screen.
153
399260
3000
И вот что мы увидели, когда использовался лишь экран.
06:42
It turns out, when you add mobility -- the ability to roll around the table --
154
402260
3000
Оказвается, что добавляя мобильности - возможности перемещаться по столу -
06:45
you get a little more of a boost.
155
405260
2000
вы получаете небольшой прирост.
06:47
And you get even more of a boost when you add the full expression.
156
407260
3000
И значительный прирост получается при добавлении полной экспрессии.
06:50
So it seems like this physical, social embodiment
157
410260
2000
Итак, кажется, что эта физическая социальная интеграция
06:52
actually really makes a difference.
158
412260
2000
действительно играет существенную роль.
06:54
Now let's try to put this into a little bit of context.
159
414260
3000
Давайте попытаемся вместить сказанное в некий контекст.
06:57
Today we know that families are living further and further apart,
160
417260
3000
Сегодня мы знаем, что члены семей живут очень далеко друг от друга,
07:00
and that definitely takes a toll on family relationships
161
420260
2000
что определённо сказывается на семейных отношениях
07:02
and family bonds over distance.
162
422260
2000
и семейных узах на расстоянии.
07:04
For me, I have three young boys,
163
424260
2000
Например, у меня трое маленьких сыновей,
07:06
and I want them to have a really good relationship
164
426260
2000
и я хочу, чтобы у них были хорошие отношения
07:08
with their grandparents.
165
428260
2000
с бабушкой и дедушкой.
07:10
But my parents live thousands of miles away,
166
430260
2000
Но мои родители живут за тысячи километров,
07:12
so they just don't get to see each other that often.
167
432260
2000
поэтому они не могут часто приезжать повидаться.
07:14
We try Skype, we try phone calls,
168
434260
2000
Мы пробовали звонить через Скайп, по телефону,
07:16
but my boys are little -- they don't really want to talk;
169
436260
2000
но мои сыновья ещё маленькие, они не очень хотят разговаривать,
07:18
they want to play.
170
438260
2000
а хотят играть.
07:20
So I love the idea of thinking about robots
171
440260
2000
Им нравится мысль о том, что роботы -
07:22
as a new kind of distance-play technology.
172
442260
3000
это новая технология дистанционных игр.
07:25
I imagine a time not too far from now --
173
445260
3000
Я представляю, как в недалёком будущем
07:28
my mom can go to her computer,
174
448260
2000
моя мать сможет подойти к компьютеру,
07:30
open up a browser and jack into a little robot.
175
450260
2000
запустить браузер и "стать" маленьким роботом.
07:32
And as grandma-bot,
176
452260
3000
И как бабушко-бот,
07:35
she can now play, really play,
177
455260
2000
она может теперь по-настоящему играть
07:37
with my sons, with her grandsons,
178
457260
2000
с моими сыновьями, с её внуками,
07:39
in the real world with his real toys.
179
459260
3000
в реальном мире, реальными игрушками.
07:42
I could imagine grandmothers being able to do social-plays
180
462260
2000
Я представляю, как бабушки смогут играть в социальные игры
07:44
with their granddaughters, with their friends,
181
464260
2000
со своими внучками, с их друзьями,
07:46
and to be able to share all kinds of other activities around the house,
182
466260
2000
и смогут помогать детям выполнять обязанности по дому,
07:48
like sharing a bedtime story.
183
468260
2000
так же, как рассказывать сказку на ночь.
07:50
And through this technology,
184
470260
2000
И с помощью этой технологии
07:52
being able to be an active participant
185
472260
2000
смогут принимать живое участие
07:54
in their grandchildren's lives
186
474260
2000
в жизнях своих внуков
07:56
in a way that's not possible today.
187
476260
2000
так, как это невозможно сегодня.
07:58
Let's think about some other domains,
188
478260
2000
Давайте подумаем и о других областях,
08:00
like maybe health.
189
480260
2000
например, о здоровье.
08:02
So in the United States today,
190
482260
2000
В США сегодня
08:04
over 65 percent of people are either overweight or obese,
191
484260
3000
более 65% населения имеют избыточный вес или ожирение,
08:07
and now it's a big problem with our children as well.
192
487260
2000
и с нашими детьми та же проблема.
08:09
And we know that as you get older in life,
193
489260
2000
И мы знаем, что по мере старения,
08:11
if you're obese when you're younger, that can lead to chronic diseases
194
491260
3000
если вы в молодости страдали ожирением, это может привести к хроническим болезням,
08:14
that not only reduce your quality of life,
195
494260
2000
и это не только уменьшает качество нашей жизни,
08:16
but are a tremendous economic burden on our health care system.
196
496260
3000
но становится также чрезвычайно тяжёлой ношей для здравоохранения.
08:19
But if robots can be engaging,
197
499260
2000
Но если роботы смогут увлечь нас,
08:21
if we like to cooperate with robots,
198
501260
2000
если нам захочется с ними сотрудничать,
08:23
if robots are persuasive,
199
503260
2000
если роботы будут убедительны,
08:25
maybe a robot can help you
200
505260
2000
возможно, они смогут помочь вам
08:27
maintain a diet and exercise program,
201
507260
2000
соблюдать диету и выполнять упражнения,
08:29
maybe they can help you manage your weight.
202
509260
3000
возможно, они помогут вам контролировать ваш вес.
08:32
Sort of like a digital Jiminy --
203
512260
2000
Вроде цифрового Джимми -
08:34
as in the well-known fairy tale --
204
514260
2000
как в известной сказке -
08:36
a kind of friendly, supportive presence that's always there
205
516260
2000
вроде дружественной поддерживающей сущности, которая всегда рядом,
08:38
to be able to help you make the right decision
206
518260
2000
готовая помочь вам сделать верный выбор,
08:40
in the right way at the right time
207
520260
2000
в нужный момент, правильным образом,
08:42
to help you form healthy habits.
208
522260
2000
помогая сформировать здоровые привычки.
08:44
So we actually explored this idea in our lab.
209
524260
2000
И мы действительно разработали эту идею в лаборатории.
08:46
This is a robot, Autom.
210
526260
2000
Это робот, Автом.
08:48
Cory Kidd developed this robot for his doctoral work.
211
528260
3000
Кори Кидд построил его для своей докторской.
08:51
And it was designed to be a robot diet-and-exercise coach.
212
531260
3000
И он был построен в качестве робота-диетолога и тренера.
08:54
It had a couple of simple non-verbal skills it could do.
213
534260
2000
В него было заложено несколько невербальных навыков.
08:56
It could make eye contact with you.
214
536260
2000
Он мог установить с вами зрительный контакт.
08:58
It could share information looking down at a screen.
215
538260
2000
Мог рассказать что-то, глядя вниз на экран.
09:00
You'd use a screen interface to enter information,
216
540260
2000
Вы используете экранный интерфейс для ввода информации,
09:02
like how many calories you ate that day,
217
542260
2000
например, о количестве калорий, потребляемых в день,
09:04
how much exercise you got.
218
544260
2000
и сколько упражнений вы выполнили.
09:06
And then it could help track that for you.
219
546260
2000
А затем он мог помочь вам отслеживать это.
09:08
And the robot spoke with a synthetic voice
220
548260
2000
Робот говорил синтезированным голосом,
09:10
to engage you in a coaching dialogue
221
550260
2000
вовлекая вас в диалог,
09:12
modeled after trainers
222
552260
2000
смоделированный тренерами
09:14
and patients and so forth.
223
554260
2000
и пациентами, и так далее.
09:16
And it would build a working alliance with you
224
556260
2000
Такой диалог поможет вам с роботом
09:18
through that dialogue.
225
558260
2000
создать рабочий альянс.
09:20
It could help you set goals and track your progress,
226
560260
2000
Он может помочь вам ставить цели и следить за их достижением,
09:22
and it would help motivate you.
227
562260
2000
он может помочь мотивировать вас.
09:24
So an interesting question is,
228
564260
2000
Интересный вопрос:
09:26
does the social embodiment really matter? Does it matter that it's a robot?
229
566260
3000
действительно ли важно социальное воплощение? Имеет ли значение, что это робот?
09:29
Is it really just the quality of advice and information that matters?
230
569260
3000
Действительно ли важно только качество советов и информации?
09:32
To explore that question,
231
572260
2000
Чтобы решить этот вопрос,
09:34
we did a study in the Boston area
232
574260
2000
мы провели исследование в Бостоне,
09:36
where we put one of three interventions in people's homes
233
576260
3000
где мы дали людям одного из трёх помощников
09:39
for a period of several weeks.
234
579260
2000
на несколько недель.
09:41
One case was the robot you saw there, Autom.
235
581260
3000
В одном случае - робота Автома, вы его уже видели.
09:44
Another was a computer that ran the same touch-screen interface,
236
584260
3000
В другом - компьютер с таким же touch-screen интерфейсом,
09:47
ran exactly the same dialogues.
237
587260
2000
с точно такими же диалогами.
09:49
The quality of advice was identical.
238
589260
2000
Качество советов было идентичным.
09:51
And the third was just a pen and paper log,
239
591260
2000
В третьем случае был всего лишь карандаш и лист бумаги,
09:53
because that's the standard intervention you typically get
240
593260
2000
стандартный метод, который обыкновенно применяется,
09:55
when you start a diet-and-exercise program.
241
595260
3000
когда вы садитесь на диету или выполняете упражнения.
09:58
So one of the things we really wanted to look at
242
598260
3000
В действительности мы хотели посмотреть не на то,
10:01
was not how much weight people lost,
243
601260
3000
сколько килограммов сбросили люди,
10:04
but really how long they interacted with the robot.
244
604260
3000
а как долго они взаимодействовали с роботом.
10:07
Because the challenge is not losing weight, it's actually keeping it off.
245
607260
3000
Так как испытание заключалось не в потере веса, об этом речи не шло.
10:10
And the longer you could interact with one of these interventions,
246
610260
3000
И чем дольше вы взаимодействовали с этими помощниками,
10:13
well that's indicative, potentially, of longer-term success.
247
613260
3000
тем больше вероятность потенциального успеха в перспективе.
10:16
So the first thing I want to look at is how long,
248
616260
2000
Первое, на что я обращала внимание -
10:18
how long did people interact with these systems.
249
618260
2000
как долго люди взаимодействовали с этими системами.
10:20
It turns out that people interacted with the robot
250
620260
2000
Оказалось, что люди общались с роботом
10:22
significantly more,
251
622260
2000
значительно дольше,
10:24
even though the quality of the advice was identical to the computer.
252
624260
3000
несмотря на то, что качество его советов было идентично качеству советов компьютера.
10:28
When it asked people to rate it on terms of the quality of the working alliance,
253
628260
3000
Когда людей попросили ранжировать помощников в смысле качества рабочего альянса,
10:31
people rated the robot higher
254
631260
2000
люди оценили робота выше,
10:33
and they trusted the robot more.
255
633260
2000
и они больше доверяли роботу.
10:35
(Laughter)
256
635260
2000
(Смех)
10:37
And when you look at emotional engagement,
257
637260
2000
Когда вы посмотрите на эмоциональное участие,
10:39
it was completely different.
258
639260
2000
вы увидите совершенно другое отношение.
10:41
People would name the robots.
259
641260
2000
Люди давали роботам имена.
10:43
They would dress the robots.
260
643260
2000
Они одевали роботов.
10:45
(Laughter)
261
645260
2000
(Смех)
10:47
And even when we would come up to pick up the robots at the end of the study,
262
647260
3000
И даже, когда исследование подошло к концу, и мы приехали забирать роботов,
10:50
they would come out to the car and say good-bye to the robots.
263
650260
2000
люди выходили провожать их до машины и прощались с ними.
10:52
They didn't do this with a computer.
264
652260
2000
С компьютерами люди так не поступали.
10:54
The last thing I want to talk about today
265
654260
2000
И последнее, о чём я хочу рассказать сегодня,
10:56
is the future of children's media.
266
656260
2000
это будущее детских медиа.
10:58
We know that kids spend a lot of time behind screens today,
267
658260
3000
Мы знаем, что дети проводят много времени перед экранами
11:01
whether it's television or computer games or whatnot.
268
661260
3000
компьютеров, телевизоров, чего угодно.
11:04
My sons, they love the screen. They love the screen.
269
664260
3000
Мои сыновья любят экран. Они любят экран.
11:07
But I want them to play; as a mom, I want them to play,
270
667260
3000
Но я хочу, чтобы они играли... как мать, я хочу, чтобы они играли
11:10
like, real-world play.
271
670260
2000
в настоящие игры.
11:12
And so I have a new project in my group I wanted to present to you today
272
672260
3000
Поэтому я со своей группой запустила новый проект, и хочу его вам показать.
11:15
called Playtime Computing
273
675260
2000
Он называется "Игровые вычисления",
11:17
that's really trying to think about how we can take
274
677260
2000
и его цель - подумать о том,
11:19
what's so engaging about digital media
275
679260
2000
что же привлекательного в цифровых медиа,
11:21
and literally bring it off the screen
276
681260
2000
и буквально перенести их с экрана
11:23
into the real world of the child,
277
683260
2000
в реальную жизнь ребёнка,
11:25
where it can take on many of the properties of real-world play.
278
685260
3000
где они могут получить многие преимущества реальных игр.
11:29
So here's the first exploration of this idea,
279
689260
4000
Здесь первое объяснение этой идеи,
11:33
where characters can be physical or virtual,
280
693260
3000
герои могут быть физическими или виртуальными,
11:36
and where the digital content
281
696260
2000
и цифровое наполнение
11:38
can literally come off the screen
282
698260
2000
может буквально сойти с экрана
11:40
into the world and back.
283
700260
2000
в реальный мир и обратно.
11:42
I like to think of this
284
702260
2000
Мне нравится думать об этом
11:44
as the Atari Pong
285
704260
2000
как об Атари Понг [игровая приставка]
11:46
of this blended-reality play.
286
706260
2000
с её смешанной реально-виртуальной игрой.
11:48
But we can push this idea further.
287
708260
2000
Но мы можем продолжить эту мысль.
11:50
What if --
288
710260
2000
Что если
11:52
(Game) Nathan: Here it comes. Yay!
289
712260
3000
(Игра) Натан: Вот оно. Ура!
11:55
CB: -- the character itself could come into your world?
290
715260
3000
Синтия: Персонаж сам сможет попасть в наш мир?
11:58
It turns out that kids love it
291
718260
2000
Оказывается, детям нравится,
12:00
when the character becomes real and enters into their world.
292
720260
3000
когда персонаж становится реальным и приходит в их мир.
12:03
And when it's in their world,
293
723260
2000
И когда он в их мире,
12:05
they can relate to it and play with it in a way
294
725260
2000
они могут обращаться к нему и играть с ним,
12:07
that's fundamentally different from how they play with it on the screen.
295
727260
2000
что фундаментальным образом отличается от того, когда персонаж на экране.
12:09
Another important idea is this notion
296
729260
2000
Другая важная идея состоит в том,
12:11
of persistence of character across realities.
297
731260
3000
что персонаж существует между реальностями.
12:14
So changes that children make in the real world
298
734260
2000
Поэтому изменения, которые делают дети в реальном мире,
12:16
need to translate to the virtual world.
299
736260
2000
должны отражаться в мире виртуальном.
12:18
So here, Nathan has changed the letter A to the number 2.
300
738260
3000
Здесь, Натан изменил букву "А" на число "2".
12:21
You can imagine maybe these symbols
301
741260
2000
Можно вообразить, например, что эти символы
12:23
give the characters special powers when it goes into the virtual world.
302
743260
3000
дают персонажу особые возможности в виртуальном мире.
12:26
So they are now sending the character back into that world.
303
746260
3000
И они посылают персонаж обратно в виртуальный мир.
12:29
And now it's got number power.
304
749260
3000
И теперь у него есть сила числа.
12:32
And then finally, what I've been trying to do here
305
752260
2000
И наконец, то, что я хочу сделать,
12:34
is create a really immersive experience for kids,
306
754260
3000
создать для детей ощущение полного погружения,
12:37
where they really feel like they are part of that story,
307
757260
3000
когда они по-настоящему чувствуют себя частью истории,
12:40
a part of that experience.
308
760260
2000
частью этого мира.
12:42
And I really want to spark their imaginations
309
762260
2000
И я действительно хочу стимулировать их воображение так,
12:44
the way mine was sparked as a little girl watching "Star Wars."
310
764260
3000
как когда-то "Звёздные войны" стимулировали воображение той маленькой девочки, которой я была.
12:47
But I want to do more than that.
311
767260
2000
Но я хочу сделать больше.
12:49
I actually want them to create those experiences.
312
769260
3000
Я хочу, чтобы именно они создавали эти миры.
12:52
I want them to be able to literally build their imagination
313
772260
2000
Буквально, я хочу, чтобы они могли воплотить своё воображение
12:54
into these experiences and make them their own.
314
774260
2000
в этих мирах, и сделать их частью себя.
12:56
So we've been exploring a lot of ideas
315
776260
2000
Итак, мы разрабатывали множество идей,
12:58
in telepresence and mixed reality
316
778260
2000
телеприсутствие, смешанная реальность,
13:00
to literally allow kids to project their ideas into this space
317
780260
3000
буквально для того, чтобы позволить детям проецировать свои идеи в пространство,
13:03
where other kids can interact with them
318
783260
2000
где другие дети смогут с ними взаимодействовать
13:05
and build upon them.
319
785260
2000
и развивать эти идеи.
13:07
I really want to come up with new ways of children's media
320
787260
3000
Я действительно хочу, чтобы у детей появились инструменты,
13:10
that foster creativity and learning and innovation.
321
790260
3000
развивающие творчество, эрудицию и новаторство.
13:13
I think that's very, very important.
322
793260
3000
Я думаю, это очень, очень важно.
13:16
So this is a new project.
323
796260
2000
Это новый проект.
13:18
We've invited a lot of kids into this space,
324
798260
2000
Мы пригласили множество детей в это пространство,
13:20
and they think it's pretty cool.
325
800260
3000
и они считают его прикольным.
13:23
But I can tell you, the thing that they love the most
326
803260
2000
Но, я скажу вам, то, что они любят больше всего -
13:25
is the robot.
327
805260
2000
это роботы.
13:27
What they care about is the robot.
328
807260
3000
Они заботятся о роботах.
13:30
Robots touch something deeply human within us.
329
810260
3000
Роботы затрагивают что-то очень глубоко человеческое внутри нас.
13:33
And so whether they're helping us
330
813260
2000
И помогают ли они нам
13:35
to become creative and innovative,
331
815260
2000
стать творцами и новаторами,
13:37
or whether they're helping us
332
817260
2000
или помогают ли они нам
13:39
to feel more deeply connected despite distance,
333
819260
2000
почувствовать глубокую связь несмотря на расстояния,
13:41
or whether they are our trusted sidekick
334
821260
2000
или становятся ли они нашими лучшими товарищами,
13:43
who's helping us attain our personal goals
335
823260
2000
которые помогают идти к нашим целям,
13:45
in becoming our highest and best selves,
336
825260
2000
становиться действительно самими собой,
13:47
for me, robots are all about people.
337
827260
3000
я считаю, что роботы - для людей.
13:50
Thank you.
338
830260
2000
Спасибо.
13:52
(Applause)
339
832260
5000
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7