Rana el Kaliouby: This app knows how you feel — from the look on your face

138,524 views ・ 2015-06-15

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Alina Siluyanova Редактор: Volha ( Olya ) Douban
00:12
Our emotions influence every aspect of our lives,
0
12556
4017
Наши эмоции оказывают влияние на все стороны жизни:
00:16
from our health and how we learn, to how we do business and make decisions,
1
16573
3576
от здоровья и способов получения знаний, до ведения бизнеса и принятия
00:20
big ones and small.
2
20149
1773
важных либо не очень важных решений.
00:22
Our emotions also influence how we connect with one another.
3
22672
3490
Наши эмоции также влияют на то, как мы взаимодействуем друг с другом.
00:27
We've evolved to live in a world like this,
4
27132
3976
Мы созданы для жизни в мире эмоций,
00:31
but instead, we're living more and more of our lives like this --
5
31108
4319
но вместо этого всё чаще и чаще мы живём вот так —
00:35
this is the text message from my daughter last night --
6
35427
3134
это смс от моей дочери, которое я получила вчера вечером, —
00:38
in a world that's devoid of emotion.
7
38561
2740
в мире, напрочь этих эмоций лишённом.
00:41
So I'm on a mission to change that.
8
41301
1951
Я намерена это изменить.
00:43
I want to bring emotions back into our digital experiences.
9
43252
4091
Я хочу вернуть эмоции в наш цифровой мир.
00:48
I started on this path 15 years ago.
10
48223
3077
Этот путь я начала 15 лет назад.
00:51
I was a computer scientist in Egypt,
11
51300
2066
Я работала программистом в Египте
00:53
and I had just gotten accepted to a Ph.D. program at Cambridge University.
12
53366
4505
и только что поступила в аспирантуру в Кембридже.
00:57
So I did something quite unusual
13
57871
2113
Я сделала нечто несвойственное
00:59
for a young newlywed Muslim Egyptian wife:
14
59984
4225
молодым новобрачным мусульманкам-египтянкам:
01:05
With the support of my husband, who had to stay in Egypt,
15
65599
2999
при поддержке своего мужа, которому пришлось остаться в Египте,
01:08
I packed my bags and I moved to England.
16
68598
3018
я упаковала чемоданы и переехала в Англию.
01:11
At Cambridge, thousands of miles away from home,
17
71616
3228
В Кембридже, за тысячи километров от дома,
01:14
I realized I was spending more hours with my laptop
18
74844
3413
я осознала, что провожу за ноутбуком больше времени,
чем с людьми.
01:18
than I did with any other human.
19
78257
2229
01:20
Yet despite this intimacy, my laptop had absolutely no idea how I was feeling.
20
80486
4853
Но несмотря на эту близость, мой ноутбук не имел представления о моих чувствах.
01:25
It had no idea if I was happy,
21
85339
3211
Он не знал, счастлива ли я,
01:28
having a bad day, or stressed, confused,
22
88550
2988
был ли у меня тяжёлый день, напряжена ли я или потеряна,
01:31
and so that got frustrating.
23
91538
2922
и это стало меня расстраивать.
01:35
Even worse, as I communicated online with my family back home,
24
95600
5231
Даже хуже того: общаясь с семьёй онлайн,
01:41
I felt that all my emotions disappeared in cyberspace.
25
101421
3282
я чувствовала, как эмоции испаряются в киберпространстве.
01:44
I was homesick, I was lonely, and on some days I was actually crying,
26
104703
5155
Я скучала по дому, мне было одиноко, иногда я даже плакала,
01:49
but all I had to communicate these emotions was this.
27
109858
4928
и единственным способом передать все эти чувства было вот это.
01:54
(Laughter)
28
114786
2020
(Смех)
01:56
Today's technology has lots of I.Q., but no E.Q.;
29
116806
4974
Технологии сегодняшнего дня обладают огромным IQ, но не EQ —
02:01
lots of cognitive intelligence, but no emotional intelligence.
30
121780
3176
высокий показатель интеллекта, но никакого эмоционального интеллекта.
02:04
So that got me thinking,
31
124956
2197
Тогда я задумалась:
02:07
what if our technology could sense our emotions?
32
127153
3624
а что, если бы технологии могли ощущать наши эмоции?
02:10
What if our devices could sense how we felt and reacted accordingly,
33
130777
4076
Что, если бы наши устройства могли ощущать, как мы себя чувствуем, и реагировать
02:14
just the way an emotionally intelligent friend would?
34
134853
3013
в соответствии этому, как сделал бы эмоционально интеллектуальный друг?
02:18
Those questions led me and my team
35
138666
3564
Эти вопросы подтолкнули меня и мою команду
02:22
to create technologies that can read and respond to our emotions,
36
142230
4377
на создание технологий, способных понимать и отвечать на наши эмоции.
02:26
and our starting point was the human face.
37
146607
3090
И начали мы с человеческого лица.
02:30
So our human face happens to be one of the most powerful channels
38
150577
3173
Человеческое лицо — один из самых мощных каналов,
02:33
that we all use to communicate social and emotional states,
39
153750
4016
используемых нами для передачи социальных и эмоциональных состояний:
02:37
everything from enjoyment, surprise,
40
157766
3010
наслаждения, удивления,
02:40
empathy and curiosity.
41
160776
4203
сопереживания, любопытства.
02:44
In emotion science, we call each facial muscle movement an action unit.
42
164979
4928
В науке об эмоциях каждое движение мышцами лица мы называем действием.
02:49
So for example, action unit 12,
43
169907
2925
Например, действие 12 —
02:52
it's not a Hollywood blockbuster,
44
172832
2038
это не название голливудского блокбастера,
02:54
it is actually a lip corner pull, which is the main component of a smile.
45
174870
3442
а движение уголков губ вверх — главный компонент улыбки.
02:58
Try it everybody. Let's get some smiles going on.
46
178312
2988
Давайте-ка все попробуем улыбнуться!
Другой пример — действие 4. Это нахмуривание бровей.
03:01
Another example is action unit 4. It's the brow furrow.
47
181300
2654
03:03
It's when you draw your eyebrows together
48
183954
2238
Это когда сводишь брови вместе,
и получаются морщинки.
03:06
and you create all these textures and wrinkles.
49
186192
2267
Мы их не любим, но они — явный показатель негативной эмоции.
03:08
We don't like them, but it's a strong indicator of a negative emotion.
50
188459
4295
У нас 45 таких действий,
03:12
So we have about 45 of these action units,
51
192754
2206
03:14
and they combine to express hundreds of emotions.
52
194960
3390
и они комбинируются для передачи сотен эмоций.
03:18
Teaching a computer to read these facial emotions is hard,
53
198350
3901
Научить компьютер считывать выражения лица трудно,
03:22
because these action units, they can be fast, they're subtle,
54
202251
2972
потому что такие действия могут быть быстрыми, нечёткими
03:25
and they combine in many different ways.
55
205223
2554
и по-разному комбинироваться.
03:27
So take, for example, the smile and the smirk.
56
207777
3738
Возьмём, к примеру, улыбку и ухмылку.
03:31
They look somewhat similar, but they mean very different things.
57
211515
3753
Они выглядят похоже, но значат абсолютно разные вещи.
03:35
(Laughter)
58
215268
1718
(Смех)
03:36
So the smile is positive,
59
216986
3004
Улыбка позитивна,
а ухмылка часто негативна.
03:39
a smirk is often negative.
60
219990
1270
Иногда ухмылка может сделать вас знаменитым.
03:41
Sometimes a smirk can make you become famous.
61
221260
3876
03:45
But seriously, it's important for a computer to be able
62
225136
2824
Но если серьёзно, важно, чтобы компьютер
03:47
to tell the difference between the two expressions.
63
227960
2855
мог определить разницу между этими двумя выражениями.
03:50
So how do we do that?
64
230815
1812
Как это сделать?
03:52
We give our algorithms
65
232627
1787
Мы снабжаем наши алгоритмы
03:54
tens of thousands of examples of people we know to be smiling,
66
234414
4110
десятками тысяч примеров людей, которые точно улыбаются, —
03:58
from different ethnicities, ages, genders,
67
238524
3065
людей из разных этнических групп, разных возрастов, разного пола.
04:01
and we do the same for smirks.
68
241589
2811
То же самое мы делаем и для ухмылки.
04:04
And then, using deep learning,
69
244400
1554
А затем с помощью глубинного обучения
04:05
the algorithm looks for all these textures and wrinkles
70
245954
2856
алгоритм рассматривает все эти текстуры, морщинки
04:08
and shape changes on our face,
71
248810
2580
и изменения форм лица
04:11
and basically learns that all smiles have common characteristics,
72
251390
3202
и запоминает, что у всех улыбок есть общие характеристики,
04:14
all smirks have subtly different characteristics.
73
254592
3181
а у ухмылок — слегка иные характеристики.
04:17
And the next time it sees a new face,
74
257773
2368
В следующий раз, когда компьютер видит новое лицо,
04:20
it essentially learns that
75
260141
2299
он, по сути, узнаёт,
04:22
this face has the same characteristics of a smile,
76
262440
3033
что у этого лица есть те же самые характеристики улыбки,
04:25
and it says, "Aha, I recognize this. This is a smile expression."
77
265473
4278
и восклицает: «Ага! Узнаю. Это выражение улыбки».
04:30
So the best way to demonstrate how this technology works
78
270381
2800
Лучший способ показать эту технологию в работе —
04:33
is to try a live demo,
79
273181
2136
это живая демонстрация,
04:35
so I need a volunteer, preferably somebody with a face.
80
275317
3913
так что мне нужен волонтёр, желательно с лицом.
(Смех)
04:39
(Laughter)
81
279230
2334
04:41
Cloe's going to be our volunteer today.
82
281564
2771
Хлоя будет сегодня нашим волонтёром.
04:45
So over the past five years, we've moved from being a research project at MIT
83
285325
4458
За последние 5 лет мы превратились из исследовательского проекта в MIT
04:49
to a company,
84
289783
1156
в компанию,
04:50
where my team has worked really hard to make this technology work,
85
290939
3192
где моя команда упорно трудилась над тем, чтобы технология заработала,
как мы любим говорить, в естественных условиях.
04:54
as we like to say, in the wild.
86
294131
2409
04:56
And we've also shrunk it so that the core emotion engine
87
296540
2670
Мы также её уменьшили, и теперь центральное ядро эмоций
04:59
works on any mobile device with a camera, like this iPad.
88
299210
3320
работает на любом мобильном устройстве с камерой, как вот этот iPad.
05:02
So let's give this a try.
89
302530
2786
Давайте попробуем.
05:06
As you can see, the algorithm has essentially found Cloe's face,
90
306756
3924
Как вы видите, алгоритм обнаружил лицо Хлои —
05:10
so it's this white bounding box,
91
310680
1692
вот эта белая рамка —
05:12
and it's tracking the main feature points on her face,
92
312372
2571
и он отслеживает основные характерные точки на её лице:
05:14
so her eyebrows, her eyes, her mouth and her nose.
93
314943
2856
это её брови, глаза, рот и нос.
05:17
The question is, can it recognize her expression?
94
317799
2987
Вопрос в том, может ли он определить выражение её лица?
05:20
So we're going to test the machine.
95
320786
1671
Протестируем механизм.
05:22
So first of all, give me your poker face. Yep, awesome. (Laughter)
96
322457
4186
Сначала покажи мне каменное лицо. Да, супер. (Смех)
05:26
And then as she smiles, this is a genuine smile, it's great.
97
326643
2813
А затем, когда она улыбается... Искренняя улыбка, здорово!
05:29
So you can see the green bar go up as she smiles.
98
329456
2300
Видите, зелёная полоска растёт, когда она улыбается?
05:31
Now that was a big smile.
99
331756
1222
Это была широкая улыбка.
05:32
Can you try a subtle smile to see if the computer can recognize?
100
332978
3043
Можешь слегка улыбнуться, чтобы посмотреть, распознает ли компьютер?
05:36
It does recognize subtle smiles as well.
101
336021
2331
Да, распознаёт и неявные улыбки.
Мы усердно трудились, чтобы это работало.
05:38
We've worked really hard to make that happen.
102
338352
2125
Теперь подними бровь — индикатор удивления.
05:40
And then eyebrow raised, indicator of surprise.
103
340477
2962
05:43
Brow furrow, which is an indicator of confusion.
104
343439
4249
Сдвинь брови — индикатор замешательства. (Смех)
05:47
Frown. Yes, perfect.
105
347688
4007
Посмотри с неодобрением. Да, отлично.
05:51
So these are all the different action units. There's many more of them.
106
351695
3493
Это различного рода действия. Их гораздо больше.
05:55
This is just a slimmed-down demo.
107
355188
2032
Это короткая демонстрация.
05:57
But we call each reading an emotion data point,
108
357220
3148
Каждое считывание эмоции мы называем точкой данных.
06:00
and then they can fire together to portray different emotions.
109
360368
2969
Они подпитывают друг друга для изображения разных эмоций.
06:03
So on the right side of the demo -- look like you're happy.
110
363337
4653
На правой стороне демо — смотри, как будто ты счастливая.
06:07
So that's joy. Joy fires up.
111
367990
1454
Это радость. Радость усиливается.
06:09
And then give me a disgust face.
112
369444
1927
А теперь покажи мне отвращение.
06:11
Try to remember what it was like when Zayn left One Direction.
113
371371
4272
Вспомни, как Зейн ушёл из группы One Direction.
06:15
(Laughter)
114
375643
1510
(Смех)
06:17
Yeah, wrinkle your nose. Awesome.
115
377153
4342
Да, сморщи нос. Великолепно.
06:21
And the valence is actually quite negative, so you must have been a big fan.
116
381495
3731
Валентность весьма негативная, то есть ты, пожалуй, была фанатом.
06:25
So valence is how positive or negative an experience is,
117
385226
2700
Валентность — это насколько опыт положителен или отрицателен.
06:27
and engagement is how expressive she is as well.
118
387926
2786
А вовлечённость — насколько она выразительна.
06:30
So imagine if Cloe had access to this real-time emotion stream,
119
390712
3414
Представьте, если бы у Хлои был доступ к этому потоку эмоций в реальном времени
06:34
and she could share it with anybody she wanted to.
120
394126
2809
и она могла бы поделиться этим с кем угодно.
06:36
Thank you.
121
396935
2923
Спасибо.
(Аплодисменты)
06:39
(Applause)
122
399858
4621
06:45
So, so far, we have amassed 12 billion of these emotion data points.
123
405749
5270
На данный момент мы собрали 12 миллиардов таких вот точек данных.
06:51
It's the largest emotion database in the world.
124
411019
2611
Это самая крупная база данных эмоций в мире.
06:53
We've collected it from 2.9 million face videos,
125
413630
2963
Мы собрали её с 2,9 миллионов видео —
06:56
people who have agreed to share their emotions with us,
126
416593
2600
людей, согласившихся поделиться с нами своими эмоциями, —
06:59
and from 75 countries around the world.
127
419193
3205
из 75 стран мира.
07:02
It's growing every day.
128
422398
1715
База данных с каждым днём растёт.
07:04
It blows my mind away
129
424603
2067
Меня поражает, что теперь мы можем
07:06
that we can now quantify something as personal as our emotions,
130
426670
3195
измерять нечто настолько личное, как эмоции,
07:09
and we can do it at this scale.
131
429865
2235
причём в таком масштабе.
07:12
So what have we learned to date?
132
432100
2177
Что мы узнали на сегодняшний день?
07:15
Gender.
133
435057
2331
Данные о полах.
07:17
Our data confirms something that you might suspect.
134
437388
3646
Наши данные подтверждают то, о чём вы, пожалуй, сами догадываетесь:
07:21
Women are more expressive than men.
135
441034
1857
женщины более выразительны, чем мужчины.
07:22
Not only do they smile more, their smiles last longer,
136
442891
2683
Они не только чаще улыбаются, но и улыбки их длятся дольше.
07:25
and we can now really quantify what it is that men and women
137
445574
2904
И теперь мы можем измерить,
на что мужчины и женщины реагируют по-разному.
07:28
respond to differently.
138
448478
2136
07:30
Let's do culture: So in the United States,
139
450614
2290
Начнём с культуры:
в США женщины на 40% выразительнее мужчин,
07:32
women are 40 percent more expressive than men,
140
452904
3204
07:36
but curiously, we don't see any difference in the U.K. between men and women.
141
456108
3645
но любопытно, что в Англии подобного различия не наблюдается.
07:39
(Laughter)
142
459753
2506
(Смех)
07:43
Age: People who are 50 years and older
143
463296
4027
Возраст: люди от 50 лет и старше
07:47
are 25 percent more emotive than younger people.
144
467323
3436
на 25% более эмоциональны, чем те, кто моложе.
07:51
Women in their 20s smile a lot more than men the same age,
145
471899
3852
Женщины после 20 улыбаются куда чаще мужчин того же возраста,
07:55
perhaps a necessity for dating.
146
475751
3839
может, это необходимо для флирта.
07:59
But perhaps what surprised us the most about this data
147
479590
2617
Но, пожалуй, больше всего нас удивило то,
08:02
is that we happen to be expressive all the time,
148
482207
3203
что мы постоянно передаём эмоции,
08:05
even when we are sitting in front of our devices alone,
149
485410
2833
даже когда в одиночестве сидим за своими устройствами,
08:08
and it's not just when we're watching cat videos on Facebook.
150
488243
3274
причём не только когда смотрим видео о кошках на Facebook.
08:12
We are expressive when we're emailing, texting, shopping online,
151
492217
3010
Мы выражаем эмоции, когда пишем имейлы, смс, делаем покупки онлайн
08:15
or even doing our taxes.
152
495227
2300
или даже оформляем налоги.
08:17
Where is this data used today?
153
497527
2392
Где сейчас используются эти данные?
08:19
In understanding how we engage with media,
154
499919
2763
Для анализа взаимодействия со СМИ,
08:22
so understanding virality and voting behavior;
155
502682
2484
то есть чтобы изучить виральность и электоральное поведение;
а также в технологиях, делающих возможным проявление эмоций.
08:25
and also empowering or emotion-enabling technology,
156
505166
2740
08:27
and I want to share some examples that are especially close to my heart.
157
507906
4621
Я хочу поделиться несколькими дорогими мне примерами.
08:33
Emotion-enabled wearable glasses can help individuals
158
513197
3068
Очки с эмоциональной поддержкой позволяют пользователю
08:36
who are visually impaired read the faces of others,
159
516265
3228
со слабым зрением считывать лица окружающих,
08:39
and it can help individuals on the autism spectrum interpret emotion,
160
519493
4187
они могут помочь людям с аутизмом определять эмоции —
сложная задача для таких людей.
08:43
something that they really struggle with.
161
523680
2778
08:47
In education, imagine if your learning apps
162
527918
2859
В образовании: представьте, что ваше обучающее приложение
08:50
sense that you're confused and slow down,
163
530777
2810
чувствует, что вы запутались, и понижает темп,
08:53
or that you're bored, so it's sped up,
164
533587
1857
или чувствует, что вам скучно, и ускоряется,
08:55
just like a great teacher would in a classroom.
165
535444
2969
как бы сделал хороший учитель в классе.
08:59
What if your wristwatch tracked your mood,
166
539043
2601
Что, если бы наручные часы отслеживали ваше настроение
09:01
or your car sensed that you're tired,
167
541644
2693
или автомобиль ощущал, что вы устали,
09:04
or perhaps your fridge knows that you're stressed,
168
544337
2548
или, может, ваш холодильник чувствовал, что вы напряжены,
09:06
so it auto-locks to prevent you from binge eating. (Laughter)
169
546885
6066
и запирался, чтобы предотвратить обжорство. (Смех)
Мне бы такое понравилось.
09:12
I would like that, yeah.
170
552951
2717
09:15
What if, when I was in Cambridge,
171
555668
1927
Что, если бы, когда я была в Кембридже,
09:17
I had access to my real-time emotion stream,
172
557595
2313
у меня был доступ к моему эмоциональному потоку в реальном времени
09:19
and I could share that with my family back home in a very natural way,
173
559908
3529
и я могла бы поделиться им со своей семьёй,
09:23
just like I would've if we were all in the same room together?
174
563437
3971
как если бы они были со мной в одной комнате?
09:27
I think five years down the line,
175
567408
3142
Думаю, через 5 лет
09:30
all our devices are going to have an emotion chip,
176
570550
2337
у всех наших устройств будет эмоциональный чип,
09:32
and we won't remember what it was like when we couldn't just frown at our device
177
572887
4064
и мы забудем о тех временах, когда мы не могли просто нахмуриться,
09:36
and our device would say, "Hmm, you didn't like that, did you?"
178
576951
4249
а наше устройство сказало бы: «Тебе это не понравилось, не так ли?»
09:41
Our biggest challenge is that there are so many applications of this technology,
179
581200
3761
Наша наибольшая трудность в том,
что у этой технологии так много областей применения,
09:44
my team and I realize that we can't build them all ourselves,
180
584961
2903
что я и моя команда не можем всё делать в одиночку.
09:47
so we've made this technology available so that other developers
181
587864
3496
Мы сделали эту технологию доступной, чтобы другие разработчики
09:51
can get building and get creative.
182
591360
2114
могли начать свои проекты и творить.
09:53
We recognize that there are potential risks
183
593474
4086
Мы осознаём, что есть риск
09:57
and potential for abuse,
184
597560
2067
и возможность неправильного обращения,
09:59
but personally, having spent many years doing this,
185
599627
2949
но лично мне, после многих лет за этим делом,
10:02
I believe that the benefits to humanity
186
602576
2972
кажется, что польза для человечества
от наличия эмоционально интеллектуальной технологии
10:05
from having emotionally intelligent technology
187
605548
2275
10:07
far outweigh the potential for misuse.
188
607823
3576
значительно перевешивает риски злоупотребления.
10:11
And I invite you all to be part of the conversation.
189
611399
2531
Я приглашаю всех принять участие.
10:13
The more people who know about this technology,
190
613930
2554
Чем больше людей знают об этой технологии,
10:16
the more we can all have a voice in how it's being used.
191
616484
3177
тем больше возможности для каждого из нас высказаться о том, как её использовать.
10:21
So as more and more of our lives become digital,
192
621081
4574
По мере того, как наша жизнь всё больше становится цифровой,
10:25
we are fighting a losing battle trying to curb our usage of devices
193
625655
3498
мы ведём безнадёжную борьбу, пытаясь обуздать применение устройств,
10:29
in order to reclaim our emotions.
194
629153
2229
чтобы вернуть нам наши эмоции.
10:32
So what I'm trying to do instead is to bring emotions into our technology
195
632622
3914
Вместо этого я пытаюсь привнести эмоции в технологии
10:36
and make our technologies more responsive.
196
636536
2229
и сделать их более чуткими.
10:38
So I want those devices that have separated us
197
638765
2670
Я хочу, чтобы устройства, отделившие нас друг от друга,
10:41
to bring us back together.
198
641435
2462
снова нас объединили.
10:43
And by humanizing technology, we have this golden opportunity
199
643897
4588
Путём очеловечивания технологий мы обретаем блестящую возможность
10:48
to reimagine how we connect with machines,
200
648485
3297
переосмыслить то, как мы взаимодействуем с машинами,
10:51
and therefore, how we, as human beings,
201
651782
4481
а значит и то, как мы, люди,
10:56
connect with one another.
202
656263
1904
взаимодействуем друг с другом.
10:58
Thank you.
203
658167
2160
Спасибо.
(Аплодисменты)
11:00
(Applause)
204
660327
3313
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7