The Rise of Personal Robots | Cynthia Breazeal | TED Talks

159,450 views ・ 2011-02-08

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Утверджено: Yelyzaveta Oliferuk
00:15
Ever since I was a little girl
0
15260
3000
З тих пір, як я була маленькою
00:18
seeing "Star Wars" for the first time,
1
18260
2000
і вперше дивилася "Зоряні війни",
00:20
I've been fascinated by this idea
2
20260
2000
мене зачарувала думка про
00:22
of personal robots.
3
22260
2000
персональних роботів.
00:24
And as a little girl,
4
24260
2000
І будучи ще дитиною,
00:26
I loved the idea of a robot that interacted with us
5
26260
2000
я любила думати про робота, який би взаємодіяв з нами
00:28
much more like a helpful, trusted sidekick --
6
28260
3000
більше як корисний, надійний друг
00:31
something that would delight us, enrich our lives
7
31260
2000
який би розважав нас, робити наше життя цікавіщим
00:33
and help us save a galaxy or two.
8
33260
3000
і допоміг би нам врятувати Галактику чи, навіть, дві.
00:37
I knew robots like that didn't really exist,
9
37260
3000
Тоді я знала, що таких роботів, насправді, не існує,
00:40
but I knew I wanted to build them.
10
40260
2000
але я також знала, що хочу їх створити.
00:42
So 20 years pass --
11
42260
2000
І так минуло двадцять років,
00:44
I am now a graduate student at MIT
12
44260
2000
я стала випускницею МІТ ( Массачусецький Інститут Технологій)
00:46
studying artificial intelligence,
13
46260
2000
вивчала штучний інтелект,
00:48
the year is 1997,
14
48260
2000
це було в 1997 році,
00:50
and NASA has just landed the first robot on Mars.
15
50260
3000
і НАСА ,щойно, здійснив посадку першої людинини на Марс.
00:53
But robots are still not in our home, ironically.
16
53260
3000
Іронічно, але роботів все ще не має у наших домівках..
00:56
And I remember thinking about
17
56260
2000
І я все думала,
00:58
all the reasons why that was the case.
18
58260
2000
що може бути цьому причиною.
01:00
But one really struck me.
19
60260
2000
Серед усіх одна дійсно мене вражала.
01:02
Robotics had really been about interacting with things,
20
62260
3000
Роботи були призначені для взаємодії з предметами,
01:05
not with people --
21
65260
2000
а не з людьми -
01:07
certainly not in a social way that would be natural for us
22
67260
2000
звичайно, не в природньо - соціальний спосіб
01:09
and would really help people accept robots
23
69260
2000
і що, в свою чергу, дозволило б нам прийняти роботів
01:11
into our daily lives.
24
71260
2000
у наше щоденне життя.
01:13
For me, that was the white space; that's what robots could not do yet.
25
73260
3000
Для мене, це було прогалиною; це було те, чого роботи все ще не могли робити.
01:16
And so that year, I started to build this robot, Kismet,
26
76260
3000
І так в той рік, я почала створювати цього робота, Кісмет,
01:19
the world's first social robot.
27
79260
3000
першого в світі соціального робота.
01:22
Three years later --
28
82260
2000
Після трьох років
01:24
a lot of programming,
29
84260
2000
виснажливого програмування,
01:26
working with other graduate students in the lab --
30
86260
2000
роботи в лабораторіях з іншими випускниками -
01:28
Kismet was ready to start interacting with people.
31
88260
2000
Кімсет був готовий до співпраці з людьми.
01:30
(Video) Scientist: I want to show you something.
32
90260
2000
( Відео) Науковець: Я хочу вам щось показати.
01:32
Kismet: (Nonsense)
33
92260
2000
Кісмет: ( здивування).
01:34
Scientist: This is a watch that my girlfriend gave me.
34
94260
3000
Науковець: Цей годинник подарувала мені моя подруга.
01:37
Kismet: (Nonsense)
35
97260
2000
Кісмет: ( Здивування)
01:39
Scientist: Yeah, look, it's got a little blue light in it too.
36
99260
2000
Науковець: Ти, подивись, там є також маленький синеньке світло.
01:41
I almost lost it this week.
37
101260
3000
Я ледве не загубив його цього тижня.
01:44
Cynthia Breazeal: So Kismet interacted with people
38
104260
3000
Синтія Брізель: І в такий спосіб, Кісмет спілкувався з людьми
01:47
like kind of a non-verbal child or pre-verbal child,
39
107260
3000
так, як ще не розмовляюча чи агукуюча дитина,
01:50
which I assume was fitting because it was really the first of its kind.
40
110260
3000
що, я вважаю був належним, так як він був першим у своєму роді.
01:53
It didn't speak language, but it didn't matter.
41
113260
2000
Це немало значення, що він не розмавляв.
01:55
This little robot was somehow able
42
115260
2000
Цей маленький робот зміг якимось способом
01:57
to tap into something deeply social within us --
43
117260
3000
приєднати щось глибоко соціалене в нас
02:00
and with that, the promise of an entirely new way
44
120260
2000
і з тим, пообіцяти цілком новий спосіб
02:02
we could interact with robots.
45
122260
2000
нашого можливого взаємозв'язку з роботми.
02:04
So over the past several years
46
124260
2000
Протягом декілька наступних років,
02:06
I've been continuing to explore this interpersonal dimension of robots,
47
126260
2000
я продовжувала вивчати цей міжособистісний аспект роботів,
02:08
now at the media lab
48
128260
2000
вже в медіа лабараторії
02:10
with my own team of incredibly talented students.
49
130260
2000
разом з власною командою дуже талановитих студентів.
02:12
And one of my favorite robots is Leonardo.
50
132260
3000
Один з моїх улюблених роботів - Леонаодо.
02:15
We developed Leonardo in collaboration with Stan Winston Studio.
51
135260
3000
Ми створили Леонардо у співпраці з Стен Вінстон Студіо.
02:18
And so I want to show you a special moment for me of Leo.
52
138260
3000
І я хочу показати вам особливий для мене момент життя Лео.
02:21
This is Matt Berlin interacting with Leo,
53
141260
2000
Це Метт Берлін спілкується з Лео,
02:23
introducing Leo to a new object.
54
143260
2000
показуючи йому новий предмет.
02:25
And because it's new, Leo doesn't really know what to make of it.
55
145260
3000
Оскільки, він новий, Лео зовсім не знає, що з ним робити.
02:28
But sort of like us, he can actually learn about it
56
148260
2000
Проте, так як ми, він може дізнатися про нього
02:30
from watching Matt's reaction.
57
150260
3000
слідкуючи за реакцією Метта.
02:33
(Video) Matt Berlin: Hello, Leo.
58
153260
2000
( Відео) Метт Берлін: Привіт, Лео.
02:38
Leo, this is Cookie Monster.
59
158260
3000
Лео, це Бесквітний Монстр.
02:44
Can you find Cookie Monster?
60
164260
3000
Можеш знайти Безквітного Монстра?
02:52
Leo, Cookie Monster is very bad.
61
172260
3000
Лео, Безквітний Монстр дуже поганий.
02:56
He's very bad, Leo.
62
176260
2000
Він є дуже поганий, Лео.
03:00
Cookie Monster is very, very bad.
63
180260
3000
Безквітний Монстр дуже, дуже поганий.
03:07
He's a scary monster.
64
187260
2000
Він - страшний монстр.
03:09
He wants to get your cookies.
65
189260
2000
Він хоче забрати твоє печиво.
03:12
(Laughter)
66
192260
2000
( Сміх)
03:14
CB: All right, so Leo and Cookie
67
194260
3000
Синтія:Добре, і так, Лео і Чудовисько,
03:17
might have gotten off to a little bit of a rough start,
68
197260
2000
можливо, почали не так успішно,
03:19
but they get along great now.
69
199260
3000
але вже зараз вони добре справляються.
03:22
So what I've learned
70
202260
2000
І так, що я зрозуміла,
03:24
through building these systems
71
204260
2000
через створення таких систем,
03:26
is that robots are actually
72
206260
2000
ці роботи є дійсно
03:28
a really intriguing social technology,
73
208260
2000
і насправді інтригуючою соціальною технологією,
03:30
where it's actually their ability
74
210260
2000
де в їхній справжніх силах є
03:32
to push our social buttons
75
212260
2000
штовхати наші соціальні струни
03:34
and to interact with us like a partner
76
214260
2000
і взаємодіяти з нами по-дружньому
03:36
that is a core part of their functionality.
77
216260
3000
це є ядро їх призначеності.
03:39
And with that shift in thinking, we can now start to imagine
78
219260
2000
І з цією думкою ми можемо тепер придумати собі
03:41
new questions, new possibilities for robots
79
221260
3000
нові завдання, нові можливості для роботів
03:44
that we might not have thought about otherwise.
80
224260
3000
які ми раніше не могли собі представити.
03:47
But what do I mean when I say "push our social buttons?"
81
227260
2000
Але, що я маю на увазі " штовхати наші соціальні клапани?"
03:49
Well, one of the things that we've learned
82
229260
2000
Ну, те, що ми вже вияснили
03:51
is that, if we design these robots to communicate with us
83
231260
2000
те що, якщо ми змоделюємо цих роботів для спілкування
03:53
using the same body language,
84
233260
2000
з використанням цієї самої мови тіла,
03:55
the same sort of non-verbal cues that people use --
85
235260
2000
тої самої системи невербальних знаків, якими ми користуємося,
03:57
like Nexi, our humanoid robot, is doing here --
86
237260
3000
наприклад, як Нексі, наш гуманоїдний робот,
04:00
what we find is that people respond to robots
87
240260
2000
що ми зрозуміли, це те, як люди відповідають роботам
04:02
a lot like they respond to people.
88
242260
2000
подібне до того, як вони відповідають один одному.
04:04
People use these cues to determine things like how persuasive someone is,
89
244260
3000
Люди використовують ті самі жести, щоб визначити, наприклад, наскільки хтось є переконливим,
04:07
how likable, how engaging,
90
247260
2000
наскільки приємним, наскільки чарівним,
04:09
how trustworthy.
91
249260
2000
чи можна йому довіряти.
04:11
It turns out it's the same for robots.
92
251260
2000
Виявляється, що так само і для роботів.
04:13
It's turning out now
93
253260
2000
Як зараз з'ясовується,
04:15
that robots are actually becoming a really interesting new scientific tool
94
255260
3000
що роботи дійсно стають дуже цікавим новим науковим інструментом,
04:18
to understand human behavior.
95
258260
2000
для вивчення поведінки людей
04:20
To answer questions like, how is it that, from a brief encounter,
96
260260
3000
Щоб відповісти питання, як, майже, з першого погляду,
04:23
we're able to make an estimate of how trustworthy another person is?
97
263260
3000
ми можемо оцінити , наскільки можна довіряти особі?
04:26
Mimicry's believed to play a role, but how?
98
266260
3000
Береться до уваги роль імітування, але як?
04:29
Is it the mimicking of particular gestures that matters?
99
269260
3000
Можливо, важливим є наслідування конкретних жестів?
04:32
It turns out it's really hard
100
272260
2000
Виявляється, шо дуже важко
04:34
to learn this or understand this from watching people
101
274260
2000
в цьому розібратися чи зрозуміти, тільки спостерігаючи за людьми,
04:36
because when we interact we do all of these cues automatically.
102
276260
3000
оскільки при взаємодії ми відтворюємо ці жести автоматично.
04:39
We can't carefully control them because they're subconscious for us.
103
279260
2000
Ми не можемо їх контрулювавти, оскільки вони підсвідомі.
04:41
But with the robot, you can.
104
281260
2000
Але з роботами, можемо.
04:43
And so in this video here --
105
283260
2000
Ось на цьому відео,
04:45
this is a video taken from David DeSteno's lab at Northeastern University.
106
285260
3000
знятому в лабароторії Девіда ДеСтено в Північно-східному університеті.
04:48
He's a psychologist we've been collaborating with.
107
288260
2000
Він психолог,один з тих, з ким ми співпрацювали.
04:50
There's actually a scientist carefully controlling Nexi's cues
108
290260
3000
Тут вчений уважно контролює жести Нексі,
04:53
to be able to study this question.
109
293260
3000
щоб вивчити поставлене питання.
04:56
And the bottom line is -- the reason why this works is
110
296260
2000
Результат цього - причина,чому ці дослідження можливі,
04:58
because it turns out people just behave like people
111
298260
2000
тому, що люди ведуть себе як люди,
05:00
even when interacting with a robot.
112
300260
3000
навіть,коли вони мають справу з роботами.
05:03
So given that key insight,
113
303260
2000
Маючи цю ключову ідею на думці,
05:05
we can now start to imagine
114
305260
2000
можна придумати
05:07
new kinds of applications for robots.
115
307260
3000
нові застосування роботів.
05:10
For instance, if robots do respond to our non-verbal cues,
116
310260
3000
Наприклад, якщо роботи відповідають на невербальні жести,
05:13
maybe they would be a cool, new communication technology.
117
313260
4000
можливо, вони стануть новою сучасною технологією комунікації.
05:17
So imagine this:
118
317260
2000
Уявіть собі:
05:19
What about a robot accessory for your cellphone?
119
319260
2000
Що на рахунок робота, як аксесуара для мобільного телефону?
05:21
You call your friend, she puts her handset in a robot,
120
321260
2000
Ви звонете подрузі, вона кладе телефонну трубку в робота,
05:23
and, bam! You're a MeBot --
121
323260
2000
і раз! Ви стаєте Я-Ботом,
05:25
you can make eye contact, you can talk with your friends,
122
325260
3000
ви можете мати візуальний контакт, ви можете говорити з своїми друзями,
05:28
you can move around, you can gesture --
123
328260
2000
можете рухатися, жестикулюювати,
05:30
maybe the next best thing to really being there, or is it?
124
330260
3000
можливо, краще за це може бути тільки особиста присутність, чи не так?
05:33
To explore this question,
125
333260
2000
Щоб висвітлити це питання,
05:35
my student, Siggy Adalgeirsson, did a study
126
335260
3000
мій студент, Сігги Адальгейрсон, провів дослідження,
05:38
where we brought human participants, people, into our lab
127
338260
3000
де ми привели декілька людей - учасників в нашу лабораторію,
05:41
to do a collaborative task
128
341260
2000
щоб вони виконали спільне завдання
05:43
with a remote collaborator.
129
343260
2000
з віддаленим партнером.
05:45
The task involved things
130
345260
2000
Работа включала наступні завдання:
05:47
like looking at a set of objects on the table,
131
347260
2000
подивитись на ряд прдметів на столі,
05:49
discussing them in terms of their importance and relevance to performing a certain task --
132
349260
3000
обговорити, з точки зору, їх важливості і відношення, щодо рішення поставленої задачі
05:52
this ended up being a survival task --
133
352260
2000
в кінцевому виподку - задача на виживання,
05:54
and then rating them in terms
134
354260
2000
і оцінювати,з точки зору,
05:56
of how valuable and important they thought they were.
135
356260
2000
їх значущості і важливості.
05:58
The remote collaborator was an experimenter from our group
136
358260
3000
Віддалений партнер - це експериментатор з нашої групи,
06:01
who used one of three different technologies
137
361260
2000
використовував одну із трьох різних технологій
06:03
to interact with the participants.
138
363260
2000
для взаємодії з учасниками.
06:05
The first was just the screen.
139
365260
2000
Перша - просто екран.
06:07
This is just like video conferencing today.
140
367260
3000
Це схоже на звичайну відеоконференцію.
06:10
The next was to add mobility -- so, have the screen on a mobile base.
141
370260
3000
Наступна добавляла мобільності - екран на переносній основі.
06:13
This is like, if you're familiar with any of the telepresence robots today --
142
373260
3000
Якщо ви ознайомлені з будь-якими видами телеприсутності роботів,
06:16
this is mirroring that situation.
143
376260
3000
це є відображення такої ситуації.
06:19
And then the fully expressive MeBot.
144
379260
2000
І тоді повністю емоційний Я-Бот.
06:21
So after the interaction,
145
381260
2000
Після участі,
06:23
we asked people to rate their quality of interaction
146
383260
3000
ми попросили людей оцінити якість взаємодії
06:26
with the technology, with a remote collaborator
147
386260
2000
з технологією, з віддаленим партнером
06:28
through this technology, in a number of different ways.
148
388260
3000
при застосуванні кожної з технологій в деяких аспектах.
06:31
We looked at psychological involvement --
149
391260
2000
Ми дивилися на психологічну принадлежність:
06:33
how much empathy did you feel for the other person?
150
393260
2000
наскільки добре ви відчували партнера?
06:35
We looked at overall engagement.
151
395260
2000
Ми спостерігали за загальним станом справи.
06:37
We looked at their desire to cooperate.
152
397260
2000
Дивились на їх бажання співпрацювати.
06:39
And this is what we see when they use just the screen.
153
399260
3000
І ось, що ми побачили, коли використовували тільки екран.
06:42
It turns out, when you add mobility -- the ability to roll around the table --
154
402260
3000
Виявляється, коли добавляєш мобільності, здатності переміщатися по столі -
06:45
you get a little more of a boost.
155
405260
2000
ви отримуєте невеликий приріст.
06:47
And you get even more of a boost when you add the full expression.
156
407260
3000
І переважно більший приріс отримується, коли додаєш повний вигляд.
06:50
So it seems like this physical, social embodiment
157
410260
2000
І так, здається, що така фізична, соціальна інтеграія,
06:52
actually really makes a difference.
158
412260
2000
насправді, має значення.
06:54
Now let's try to put this into a little bit of context.
159
414260
3000
Давайте попробуємо вмістити сказане у деякий контекст.
06:57
Today we know that families are living further and further apart,
160
417260
3000
На сьогоднішній час ми знаємо, що члени сімей живуть далеко один від одного,
07:00
and that definitely takes a toll on family relationships
161
420260
2000
і цей фактор відповідно виявляється на сімейних відношеннях
07:02
and family bonds over distance.
162
422260
2000
і на сімейних вузлах на відстані.
07:04
For me, I have three young boys,
163
424260
2000
Щодо мене, я маю трьох меленьких синів,
07:06
and I want them to have a really good relationship
164
426260
2000
і хочу, щоб вони підтримували хороші відносини
07:08
with their grandparents.
165
428260
2000
з бабцею і дідусем.
07:10
But my parents live thousands of miles away,
166
430260
2000
Проте, мої батьки живуть за тисячу кілометрів звідси
07:12
so they just don't get to see each other that often.
167
432260
2000
і тому вони не можуть так часто приїжджати в гості.
07:14
We try Skype, we try phone calls,
168
434260
2000
Ми намагалися з'єднуватися через Скайп, по телефону,
07:16
but my boys are little -- they don't really want to talk;
169
436260
2000
Але сини ще надто маленькі і не хочуть розмовляти,
07:18
they want to play.
170
438260
2000
а хочуть забавлятись.
07:20
So I love the idea of thinking about robots
171
440260
2000
Їм подобається думати про роботів,
07:22
as a new kind of distance-play technology.
172
442260
3000
як про навий вид технології дистанційних ігор.
07:25
I imagine a time not too far from now --
173
445260
3000
Я уявляю, як у недалекому майбутньому,
07:28
my mom can go to her computer,
174
448260
2000
моя мама зможе підійти до комп'ютера,
07:30
open up a browser and jack into a little robot.
175
450260
2000
запустити браузер і "стати" маленьким роботом.
07:32
And as grandma-bot,
176
452260
3000
І як бабця-бот,
07:35
she can now play, really play,
177
455260
2000
вона зможе по-справжньому гратись
07:37
with my sons, with her grandsons,
178
457260
2000
з моїми синами і своїми онуками,
07:39
in the real world with his real toys.
179
459260
3000
в реальному світі з справжніми іграшками.
07:42
I could imagine grandmothers being able to do social-plays
180
462260
2000
Я можу тільки уявити, як бабці зможуть грати в соціальні ігри
07:44
with their granddaughters, with their friends,
181
464260
2000
з своїми внучками, з їх друзями,
07:46
and to be able to share all kinds of other activities around the house,
182
466260
2000
і зможуть допомагати дітям виконувати обов'язки по домі,
07:48
like sharing a bedtime story.
183
468260
2000
також розказувати казку перед сном.
07:50
And through this technology,
184
470260
2000
З допомогою цієї технології,
07:52
being able to be an active participant
185
472260
2000
вони зможуть стати активним учасником
07:54
in their grandchildren's lives
186
474260
2000
в житті своїх онуків,
07:56
in a way that's not possible today.
187
476260
2000
в такий спосіб, як неможливо сьогодні.
07:58
Let's think about some other domains,
188
478260
2000
Давайте подумаємо про інші сфери,
08:00
like maybe health.
189
480260
2000
наприклад, про здоров'я.
08:02
So in the United States today,
190
482260
2000
В Сполучених Штатах Америки сьогодні
08:04
over 65 percent of people are either overweight or obese,
191
484260
3000
більшість 65% населення мають зайву вагу чи ожиріння,
08:07
and now it's a big problem with our children as well.
192
487260
2000
і з нашими дітьми таж проблема.
08:09
And we know that as you get older in life,
193
489260
2000
І ми знаємо, що коло ми старіємо,
08:11
if you're obese when you're younger, that can lead to chronic diseases
194
491260
3000
якщо ви в молодості страждали ожирінням, це може призвести до хронічної хвороби,
08:14
that not only reduce your quality of life,
195
494260
2000
і це не тільки зменшує якість життя,
08:16
but are a tremendous economic burden on our health care system.
196
496260
3000
а становиться також надзвичайно тяжкою ношею для збереження здоров'я.
08:19
But if robots can be engaging,
197
499260
2000
Але якщо роботи зможуть розважати нас,
08:21
if we like to cooperate with robots,
198
501260
2000
якщо ми захочемо з ними співпраювати,
08:23
if robots are persuasive,
199
503260
2000
якщо роботи будуть переконливі,
08:25
maybe a robot can help you
200
505260
2000
можливо, зможуть допомогти вам
08:27
maintain a diet and exercise program,
201
507260
2000
слідкувати за дієтою і виконувати програму,
08:29
maybe they can help you manage your weight.
202
509260
3000
можливо, вони поможуть вам контрулювати вашу вагу.
08:32
Sort of like a digital Jiminy --
203
512260
2000
На рахунок цифрового Джима-
08:34
as in the well-known fairy tale --
204
514260
2000
як у відомій казці-
08:36
a kind of friendly, supportive presence that's always there
205
516260
2000
вид дружньої підтримки, яка завжди поруч,
08:38
to be able to help you make the right decision
206
518260
2000
готова допомогти вам зробити правильне рішення
08:40
in the right way at the right time
207
520260
2000
в потрібний момент і в потрібний час,
08:42
to help you form healthy habits.
208
522260
2000
допомагаючи сформувати здорові звички.
08:44
So we actually explored this idea in our lab.
209
524260
2000
І ми дійсно розробили цю задумкув лабораторії.
08:46
This is a robot, Autom.
210
526260
2000
Це є робот, Автом
08:48
Cory Kidd developed this robot for his doctoral work.
211
528260
3000
Кори Кідд створив його для своєї докторської дисертації.
08:51
And it was designed to be a robot diet-and-exercise coach.
212
531260
3000
І він був розроблений на зразок робота - дієтолога і тренера.
08:54
It had a couple of simple non-verbal skills it could do.
213
534260
2000
В нього були заложені декілька простих невербальних навиків.
08:56
It could make eye contact with you.
214
536260
2000
Він міг встановити зоровий контакт з вами.
08:58
It could share information looking down at a screen.
215
538260
2000
Він міг розказувати про щось дивлячись на екран.
09:00
You'd use a screen interface to enter information,
216
540260
2000
Ви використовуєте моніторний інтерфейс для вводу інформації,
09:02
like how many calories you ate that day,
217
542260
2000
наприклад, про кількість калорій, що ви вживаєте на день,
09:04
how much exercise you got.
218
544260
2000
скільки вправ ви зробили.
09:06
And then it could help track that for you.
219
546260
2000
І так він зміг допомагти вам за цим слідкувати.
09:08
And the robot spoke with a synthetic voice
220
548260
2000
Робот говорив стинтетичним голосом,
09:10
to engage you in a coaching dialogue
221
550260
2000
спонукаючи вас до розмови,
09:12
modeled after trainers
222
552260
2000
сформаваний за зразком тренерів
09:14
and patients and so forth.
223
554260
2000
і пацієнтів, і так далі.
09:16
And it would build a working alliance with you
224
556260
2000
І так ви з роботом зможете збудувати робочуй зв'язок
09:18
through that dialogue.
225
558260
2000
через такий діалог.
09:20
It could help you set goals and track your progress,
226
560260
2000
Він допомаже вам поставити мету і слідкувати за вашими успіхами,
09:22
and it would help motivate you.
227
562260
2000
і буде вас спонукати до роботи.
09:24
So an interesting question is,
228
564260
2000
Цікаве питання:
09:26
does the social embodiment really matter? Does it matter that it's a robot?
229
566260
3000
чи дісно важливе соціальне втілення? Чи має значення, що це робот?
09:29
Is it really just the quality of advice and information that matters?
230
569260
3000
Чи наспрвді важливо тільки корисність поради і інформації?
09:32
To explore that question,
231
572260
2000
Щоб вирішити це питання,
09:34
we did a study in the Boston area
232
574260
2000
ми провели дослідження в Бостоні,
09:36
where we put one of three interventions in people's homes
233
576260
3000
де ми дали людям одного із трьох помічників
09:39
for a period of several weeks.
234
579260
2000
на декілька тижнів.
09:41
One case was the robot you saw there, Autom.
235
581260
3000
В першому випадку - робота Автома, ви вже його бачили.
09:44
Another was a computer that ran the same touch-screen interface,
236
584260
3000
В другому - комп'ютер з таким самим сенсорним інтерфейсом,
09:47
ran exactly the same dialogues.
237
587260
2000
з точно таким самим вмінням спілкуватись.
09:49
The quality of advice was identical.
238
589260
2000
Користь порад була ідентичною.
09:51
And the third was just a pen and paper log,
239
591260
2000
У третьому випадку був лише олівець і листок паперу,
09:53
because that's the standard intervention you typically get
240
593260
2000
стандартний метод, який є звичним для використання,
09:55
when you start a diet-and-exercise program.
241
595260
3000
коли ви сідаєте на дієту і виконуєте вправи.
09:58
So one of the things we really wanted to look at
242
598260
3000
В реальності ми хотіли поспостерігати не за тим,
10:01
was not how much weight people lost,
243
601260
3000
скільки кілограм скинули люди,
10:04
but really how long they interacted with the robot.
244
604260
3000
а як довго вони проводили час з роботом.
10:07
Because the challenge is not losing weight, it's actually keeping it off.
245
607260
3000
Так як випробовування заключається не у втраті ваги, про це мова не йшла.
10:10
And the longer you could interact with one of these interventions,
246
610260
3000
І чи довше ви взаємодіяли з роботом,
10:13
well that's indicative, potentially, of longer-term success.
247
613260
3000
тим більша вирогідність потенційного успіху у майбутньому.
10:16
So the first thing I want to look at is how long,
248
616260
2000
Перше, на що я звернула увагу,
10:18
how long did people interact with these systems.
249
618260
2000
я довго люди працювали з цими системами.
10:20
It turns out that people interacted with the robot
250
620260
2000
Виявилось, що люди спілкувались з роботом,
10:22
significantly more,
251
622260
2000
значно більше,
10:24
even though the quality of the advice was identical to the computer.
252
624260
3000
не дивлячись на те, що якість порад була ідентична якості порад комп'ютера.
10:28
When it asked people to rate it on terms of the quality of the working alliance,
253
628260
3000
Коли людей попросили розглянути помічників в якості взаємної співпраці,
10:31
people rated the robot higher
254
631260
2000
люди оцінили робота значно більше,
10:33
and they trusted the robot more.
255
633260
2000
тобто,вони більше довіряли роботу.
10:35
(Laughter)
256
635260
2000
( Сміх )
10:37
And when you look at emotional engagement,
257
637260
2000
І коли ви звернети увагу на емоційне залучення,
10:39
it was completely different.
258
639260
2000
ви побачити зовсім інше відношення.
10:41
People would name the robots.
259
641260
2000
Люди називали роботів.
10:43
They would dress the robots.
260
643260
2000
Одягали їх в одяг.
10:45
(Laughter)
261
645260
2000
( Сміх )
10:47
And even when we would come up to pick up the robots at the end of the study,
262
647260
3000
І навіть, коли дослідження наближалось до завершення,
10:50
they would come out to the car and say good-bye to the robots.
263
650260
2000
і ми приїхали забрати роботів, люди виходили до машини і прощались з ними.
10:52
They didn't do this with a computer.
264
652260
2000
З комп'ютерами вони так не поводилися.
10:54
The last thing I want to talk about today
265
654260
2000
І останнє, про що я хочу разказати сьогодні,
10:56
is the future of children's media.
266
656260
2000
Це майбутнє дитячих медіа.
10:58
We know that kids spend a lot of time behind screens today,
267
658260
3000
Ми знаємо, що діти проводять багато часу перед екранами,
11:01
whether it's television or computer games or whatnot.
268
661260
3000
чи це компютері,. чи це телевізорів, чи чогось іншого.
11:04
My sons, they love the screen. They love the screen.
269
664260
3000
Мої сини люблять екран. Їм подобається монітор.
11:07
But I want them to play; as a mom, I want them to play,
270
667260
3000
Але як мати, я хочу, щоб вони розважались. Я хочу, щоб вони грали
11:10
like, real-world play.
271
670260
2000
в справжні ігри.
11:12
And so I have a new project in my group I wanted to present to you today
272
672260
3000
І тому я із своєю групою запустила новий проект і сьогодні хочу його вам представити,
11:15
called Playtime Computing
273
675260
2000
він називається " Ігрові Вистежування",
11:17
that's really trying to think about how we can take
274
677260
2000
і його ціль - подумати про те,
11:19
what's so engaging about digital media
275
679260
2000
що ж такого приваблюючого в цифрових медіа
11:21
and literally bring it off the screen
276
681260
2000
і, буквально, перенести їх з екрану
11:23
into the real world of the child,
277
683260
2000
в реальне життя дитини,
11:25
where it can take on many of the properties of real-world play.
278
685260
3000
де вони зможуть отримати великі переваги реальних ігор.
11:29
So here's the first exploration of this idea,
279
689260
4000
Тут перше пояснення цього задуму,
11:33
where characters can be physical or virtual,
280
693260
3000
де герої можуть бути природніми і віртуальними,
11:36
and where the digital content
281
696260
2000
і де цифрове наповнення
11:38
can literally come off the screen
282
698260
2000
зможе, буквально, зійти з екрану
11:40
into the world and back.
283
700260
2000
у справжній світ і назад.
11:42
I like to think of this
284
702260
2000
Мені подобається думати про це,
11:44
as the Atari Pong
285
704260
2000
як про Атарі Понг (ігрова приставка)
11:46
of this blended-reality play.
286
706260
2000
з її змішаною реально - віртуальною грою.
11:48
But we can push this idea further.
287
708260
2000
Але ми зможемо продовжити цю ідею.
11:50
What if --
288
710260
2000
Що якщо
11:52
(Game) Nathan: Here it comes. Yay!
289
712260
3000
( гра) Натан: Ось воно. Ура!
11:55
CB: -- the character itself could come into your world?
290
715260
3000
Синтія: персонаж сам зможе потрапити в наш світ?
11:58
It turns out that kids love it
291
718260
2000
Виявляється, дітям подобається,
12:00
when the character becomes real and enters into their world.
292
720260
3000
коли герой стає реальним і приходить в їх світ.
12:03
And when it's in their world,
293
723260
2000
І коли він існує у їхньому світі,
12:05
they can relate to it and play with it in a way
294
725260
2000
вони можуть звертатись до нього і грати з ним,
12:07
that's fundamentally different from how they play with it on the screen.
295
727260
2000
що фундаментальним образом відрізняється від того, коли персонаж на екрані.
12:09
Another important idea is this notion
296
729260
2000
Друга важлива їдея закючається в тому,
12:11
of persistence of character across realities.
297
731260
3000
щоб герой існував між реальностями.
12:14
So changes that children make in the real world
298
734260
2000
Тому зміни, які діти роблять насправді,
12:16
need to translate to the virtual world.
299
736260
2000
повинні відображатись у світі віртуальному.
12:18
So here, Nathan has changed the letter A to the number 2.
300
738260
3000
Ось тут, Натан змінив букву "А" на число "2".
12:21
You can imagine maybe these symbols
301
741260
2000
Можна уявити, наприклад, що ці символи
12:23
give the characters special powers when it goes into the virtual world.
302
743260
3000
дають персонажу особисті можливості в віртуальному світі.
12:26
So they are now sending the character back into that world.
303
746260
3000
І вони відправляють його назад у світ.
12:29
And now it's got number power.
304
749260
3000
І тепер у нього сила цифри.
12:32
And then finally, what I've been trying to do here
305
752260
2000
І останнє, що я хочу зробити,
12:34
is create a really immersive experience for kids,
306
754260
3000
це створити у дітях відчуття цілковитого залучення,
12:37
where they really feel like they are part of that story,
307
757260
3000
коли вони, по-справжньму, відчувають себе частиною історії,
12:40
a part of that experience.
308
760260
2000
частиною цього світу.
12:42
And I really want to spark their imaginations
309
762260
2000
І я дійсно хочу стимулювати їх уяву так,
12:44
the way mine was sparked as a little girl watching "Star Wars."
310
764260
3000
як колись " зоряні Війни"стимулювали уяву маленької дівчинки,якою була я.
12:47
But I want to do more than that.
311
767260
2000
Проте, я хочу зробити більше.
12:49
I actually want them to create those experiences.
312
769260
3000
Я хочу, щоб тільки вони створювали ці світи.
12:52
I want them to be able to literally build their imagination
313
772260
2000
Буквально, я хочу, щоб вони могли реалізувати своє уявлення
12:54
into these experiences and make them their own.
314
774260
2000
в цих площинах і зробили їх частиною себе.
12:56
So we've been exploring a lot of ideas
315
776260
2000
І так, ми розробили велику кількість ідей,
12:58
in telepresence and mixed reality
316
778260
2000
у телеприсутностіі у змішаній реальністі,
13:00
to literally allow kids to project their ideas into this space
317
780260
3000
бувально для того, щоб дозволить дітям проектувати свої задуми в простір,
13:03
where other kids can interact with them
318
783260
2000
де інші діти зможуть з ними взаємодіяти
13:05
and build upon them.
319
785260
2000
і розвивати свої ідеї.
13:07
I really want to come up with new ways of children's media
320
787260
3000
Я дійсно хочу, щоб у дітей появились інструменти,
13:10
that foster creativity and learning and innovation.
321
790260
3000
щоб розвивали їхню креативність, ерудицію і новаторство.
13:13
I think that's very, very important.
322
793260
3000
Я думаю, що це дуже важливо.
13:16
So this is a new project.
323
796260
2000
Це новий проект.
13:18
We've invited a lot of kids into this space,
324
798260
2000
Ми запросили багатьох дітей у цей простір,
13:20
and they think it's pretty cool.
325
800260
3000
і вони вважають його забавним.
13:23
But I can tell you, the thing that they love the most
326
803260
2000
Але, я скажу вам, що вони люблять найбільше
13:25
is the robot.
327
805260
2000
це робота.
13:27
What they care about is the robot.
328
807260
3000
Вони піклуються про робота.
13:30
Robots touch something deeply human within us.
329
810260
3000
Роботи торкають щось глибоко людське у нас.
13:33
And so whether they're helping us
330
813260
2000
І чи допомагають вони нам
13:35
to become creative and innovative,
331
815260
2000
стати творцями і новаторами,
13:37
or whether they're helping us
332
817260
2000
чи допомагають нам
13:39
to feel more deeply connected despite distance,
333
819260
2000
відчути глибокий зв'язок на відстані,
13:41
or whether they are our trusted sidekick
334
821260
2000
і чи стають вони нашими вірними друзями,
13:43
who's helping us attain our personal goals
335
823260
2000
які допомагають досягти наших цілей,
13:45
in becoming our highest and best selves,
336
825260
2000
насправді, стати самими собою,
13:47
for me, robots are all about people.
337
827260
3000
я вважаю, що роботи - для людей.
13:50
Thank you.
338
830260
2000
Дякую.
13:52
(Applause)
339
832260
5000
( Аплодисменти)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7