Rana el Kaliouby: This app knows how you feel — from the look on your face

137,905 views ・ 2015-06-15

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Olga Makhnyk Утверджено: Khrystyna Romashko
00:12
Our emotions influence every aspect of our lives,
0
12556
4017
Наші емоції впливають на кожен аспект нашого життя,
00:16
from our health and how we learn, to how we do business and make decisions,
1
16573
3576
від здоров'я і навчання, до того, як ми ведемо справи і приймаємо рішення,
00:20
big ones and small.
2
20149
1773
великі чи малі.
00:22
Our emotions also influence how we connect with one another.
3
22672
3490
Наші емоції також впливають на те, як ми налагоджуємо контакти з іншими.
00:27
We've evolved to live in a world like this,
4
27132
3976
Ми звикли жити в такому світі,
00:31
but instead, we're living more and more of our lives like this --
5
31108
4319
але незважаючи на це, наше життя стає все більше таким --
00:35
this is the text message from my daughter last night --
6
35427
3134
це вчорашнє повідомлення від моєї доньки --
00:38
in a world that's devoid of emotion.
7
38561
2740
у світі, що позбавлений емоцій.
00:41
So I'm on a mission to change that.
8
41301
1951
Тому моє завдання - змінити це.
00:43
I want to bring emotions back into our digital experiences.
9
43252
4091
Я хочу повернути емоції у наші цифрові комунікації.
00:48
I started on this path 15 years ago.
10
48223
3077
На цей шлях я стала 15 років тому.
00:51
I was a computer scientist in Egypt,
11
51300
2066
Я була програмістом в Єгипті,
00:53
and I had just gotten accepted to a Ph.D. program at Cambridge University.
12
53366
4505
і мене якраз зарахували на докторську програму в Кембриджському університеті.
00:57
So I did something quite unusual
13
57871
2113
Я зробила щось незвичне
00:59
for a young newlywed Muslim Egyptian wife:
14
59984
4225
як для молодої, щойно одруженої єгипетської жінки-мусульманки:
01:05
With the support of my husband, who had to stay in Egypt,
15
65599
2999
завдяки підтримці мого чоловіка, який залишився в Єгипті,
01:08
I packed my bags and I moved to England.
16
68598
3018
я спакувала речі і переїхала до Англії.
01:11
At Cambridge, thousands of miles away from home,
17
71616
3228
В Кембриджі, за тисячі миль від дому,
01:14
I realized I was spending more hours with my laptop
18
74844
3413
я усвідомила, що проводжу більше годин за комп'ютером,
01:18
than I did with any other human.
19
78257
2229
ніж спілкуючись з іншими людьми.
01:20
Yet despite this intimacy, my laptop had absolutely no idea how I was feeling.
20
80486
4853
Проте, незважаючи на цю близькість, мій комп'ютер не знав, як я почуваюся.
01:25
It had no idea if I was happy,
21
85339
3211
Він не знав, чи я щаслива,
01:28
having a bad day, or stressed, confused,
22
88550
2988
чи в мене поганий день, чи я стресована, розгублена,
01:31
and so that got frustrating.
23
91538
2922
і це було розчаруванням.
01:35
Even worse, as I communicated online with my family back home,
24
95600
5231
Навіть гірше: коли я розмовляла зі своїми,
01:41
I felt that all my emotions disappeared in cyberspace.
25
101421
3282
то відчула, що всі емоції зникають в кіберпросторі.
01:44
I was homesick, I was lonely, and on some days I was actually crying,
26
104703
5155
Я сумувала за домом, була одинокою, і інколи навіть плакала,
01:49
but all I had to communicate these emotions was this.
27
109858
4928
але все, що я могла висловити, було ось це.
01:54
(Laughter)
28
114786
2020
(Сміх)
01:56
Today's technology has lots of I.Q., but no E.Q.;
29
116806
4974
Технології сьогодення мають багато IQ, але не мають емоційної якості.
02:01
lots of cognitive intelligence, but no emotional intelligence.
30
121780
3176
Багато пізнавального інтелекту та відсутність емоційного інтелекту.
02:04
So that got me thinking,
31
124956
2197
Це змусило мене задуматися,
02:07
what if our technology could sense our emotions?
32
127153
3624
а що, якщо технології зможуть відчувати наші емоції?
02:10
What if our devices could sense how we felt and reacted accordingly,
33
130777
4076
А що, якщо наші пристрої зможуть відчути, як ми почуваємося і відповідно відреагувати,
02:14
just the way an emotionally intelligent friend would?
34
134853
3013
так, як емоційно розвинений друг?
02:18
Those questions led me and my team
35
138666
3564
Ці питання привели мене і мою команду
02:22
to create technologies that can read and respond to our emotions,
36
142230
4377
до створення технологій, що можуть читати і відповідати на наші емоції,
02:26
and our starting point was the human face.
37
146607
3090
і нашою стартовою точкою було обличчя людини.
02:30
So our human face happens to be one of the most powerful channels
38
150577
3173
Наше обличчя є одним з найпотужніших каналів,
02:33
that we all use to communicate social and emotional states,
39
153750
4016
який ми використовуємо, щоб висловити соціальний та емоційний стан,
02:37
everything from enjoyment, surprise,
40
157766
3010
все, починаючи з веселощів, здивування,
02:40
empathy and curiosity.
41
160776
4203
співчуття і допитливості.
02:44
In emotion science, we call each facial muscle movement an action unit.
42
164979
4928
В науці емоцій, кожен порух м'язів обличчя ми називаємо одиницею поведінки.
02:49
So for example, action unit 12,
43
169907
2925
Наприклад, одиниця поведінки 12,
02:52
it's not a Hollywood blockbuster,
44
172832
2038
це не голлівудський блокбастер,
02:54
it is actually a lip corner pull, which is the main component of a smile.
45
174870
3442
це, власне, розширення кутиків губ, що є основним елементом усмішки.
02:58
Try it everybody. Let's get some smiles going on.
46
178312
2988
Спробуйте всі. Давайте посміхнемося.
03:01
Another example is action unit 4. It's the brow furrow.
47
181300
2654
Інший приклад - одиниця поведінки 4, зморшка на лобі.
03:03
It's when you draw your eyebrows together
48
183954
2238
Це коли ви зводите брови разом
03:06
and you create all these textures and wrinkles.
49
186192
2267
і утворюються всі ці нерівності і зморшки.
03:08
We don't like them, but it's a strong indicator of a negative emotion.
50
188459
4295
Ми не любимо їх, але це очевидна ознака негативної емоції.
03:12
So we have about 45 of these action units,
51
192754
2206
У нас близько 45 таких одиниць поведінки,
03:14
and they combine to express hundreds of emotions.
52
194960
3390
і вони, в поєднанні, можуть виразити сотні емоцій.
03:18
Teaching a computer to read these facial emotions is hard,
53
198350
3901
Навчити комп'ютер зчитувати емоції обличчя є досить важко,
03:22
because these action units, they can be fast, they're subtle,
54
202251
2972
оскільки ці одиниці поведінки можуть бути швидкими, ледь помітними,
03:25
and they combine in many different ways.
55
205223
2554
і вони поєднуються в різний спосіб.
03:27
So take, for example, the smile and the smirk.
56
207777
3738
Наприклад, подивимося на посмішку та самовдоволену посмішку.
03:31
They look somewhat similar, but they mean very different things.
57
211515
3753
Вони виглядають дещо однаково, але означають зовсім різне.
03:35
(Laughter)
58
215268
1718
(Сміх)
03:36
So the smile is positive,
59
216986
3004
Посмішка є позитивною,
03:39
a smirk is often negative.
60
219990
1270
а самовдоволена посмішка зазвичай негативна.
03:41
Sometimes a smirk can make you become famous.
61
221260
3876
Іноді самовдоволена посмішка може вас зробити відомим.
03:45
But seriously, it's important for a computer to be able
62
225136
2824
Але, насправді, важливо, щоб комп'ютер міг
03:47
to tell the difference between the two expressions.
63
227960
2855
розрізнити ці два вирази.
03:50
So how do we do that?
64
230815
1812
Отже, як ми це робимо?
03:52
We give our algorithms
65
232627
1787
У нас є алгоритми
03:54
tens of thousands of examples of people we know to be smiling,
66
234414
4110
десятків тисяч прикладів людей, які посміхаються,
03:58
from different ethnicities, ages, genders,
67
238524
3065
з різних етнічних груп, різного віку та статей,
04:01
and we do the same for smirks.
68
241589
2811
і такі ж приклади ми маємо для самовдоволених посмішок.
04:04
And then, using deep learning,
69
244400
1554
Поглиблено вивчаючи
04:05
the algorithm looks for all these textures and wrinkles
70
245954
2856
алгоритм шукає всі ці нерівності і зморшки,
04:08
and shape changes on our face,
71
248810
2580
і зміни обрисів на нашому обличчі,
04:11
and basically learns that all smiles have common characteristics,
72
251390
3202
і досліджує, що посмішки мають спільні риси,
04:14
all smirks have subtly different characteristics.
73
254592
3181
а самовдоволені посмішки мають інші риси.
04:17
And the next time it sees a new face,
74
257773
2368
Наступного разу, коли він бачить нове обличчя,
04:20
it essentially learns that
75
260141
2299
він вивчає,
04:22
this face has the same characteristics of a smile,
76
262440
3033
що це обличчя має характеристики посмішки,
04:25
and it says, "Aha, I recognize this. This is a smile expression."
77
265473
4278
і каже: "Ага. Я це розумію. Це - усмішка."
04:30
So the best way to demonstrate how this technology works
78
270381
2800
Щоб найкраще продемонструвати, як працює ця технологія,
04:33
is to try a live demo,
79
273181
2136
зробимо це наживо.
04:35
so I need a volunteer, preferably somebody with a face.
80
275317
3913
Мені потрібен волонтер, бажано з обличчям.
04:39
(Laughter)
81
279230
2334
(Сміх)
04:41
Cloe's going to be our volunteer today.
82
281564
2771
Хлоя буде нашим добровольцем.
04:45
So over the past five years, we've moved from being a research project at MIT
83
285325
4458
За останні 5 років ми переросли з проекту в Массачусетському інституті
04:49
to a company,
84
289783
1156
в компанію,
04:50
where my team has worked really hard to make this technology work,
85
290939
3192
в котрій моя команда дуже старалася, щоби ця технологія запрацювала,
04:54
as we like to say, in the wild.
86
294131
2409
як ми кажемо, в диких умовах.
04:56
And we've also shrunk it so that the core emotion engine
87
296540
2670
Ми також зменшили її, щоб ядро машини емоцій
04:59
works on any mobile device with a camera, like this iPad.
88
299210
3320
працювало на мобільних пристроях з камерами, таких як iPad.
05:02
So let's give this a try.
89
302530
2786
Давайте спробуємо.
05:06
As you can see, the algorithm has essentially found Cloe's face,
90
306756
3924
Бачите, алгоритм знайшов обличчя Хлої,
05:10
so it's this white bounding box,
91
310680
1692
це ця біла рамка,
05:12
and it's tracking the main feature points on her face,
92
312372
2571
і слідкує за основними рисами її обличчя,
05:14
so her eyebrows, her eyes, her mouth and her nose.
93
314943
2856
за бровами, очима, ротом та носом.
05:17
The question is, can it recognize her expression?
94
317799
2987
Питання: чи розрізнить він її вираз обличчя?
05:20
So we're going to test the machine.
95
320786
1671
Протестуємо цю машину.
05:22
So first of all, give me your poker face. Yep, awesome. (Laughter)
96
322457
4186
Перш за все, покажи мені "кам'яне обличчя". Так, чудово. (Сміх)
05:26
And then as she smiles, this is a genuine smile, it's great.
97
326643
2813
Тепер, коли вона посміхається, це справжня усмішка, чудово.
05:29
So you can see the green bar go up as she smiles.
98
329456
2300
Бачите, як зелене кільце піднімається, коли вона посміхається.
05:31
Now that was a big smile.
99
331756
1222
Це була широка посмішка.
05:32
Can you try a subtle smile to see if the computer can recognize?
100
332978
3043
Можеш злегка посміхнутись, щоб побачити, чи комп'ютер зрозуміє?
05:36
It does recognize subtle smiles as well.
101
336021
2331
Він розрізняє малопомітні усмішки також.
05:38
We've worked really hard to make that happen.
102
338352
2125
Ми тяжко працювали, щоб це вийшло.
05:40
And then eyebrow raised, indicator of surprise.
103
340477
2962
Піднята брова, індикатор подиву.
05:43
Brow furrow, which is an indicator of confusion.
104
343439
4249
Глибока зморшка між бровами - індикатор збентеження.
05:47
Frown. Yes, perfect.
105
347688
4007
Насуплення. Ідеально.
05:51
So these are all the different action units. There's many more of them.
106
351695
3493
Це все різні одиниці поведінки. Їх є значно більше.
05:55
This is just a slimmed-down demo.
107
355188
2032
Це лише скорочене демо.
05:57
But we call each reading an emotion data point,
108
357220
3148
Кожне впізнання емоцій ми називаємо емоційними даними,
06:00
and then they can fire together to portray different emotions.
109
360368
2969
і вони можуть, поєднуючись, відображати різні емоції.
06:03
So on the right side of the demo -- look like you're happy.
110
363337
4653
В правій частині демо -- виглядає, що ти щаслива.
06:07
So that's joy. Joy fires up.
111
367990
1454
Отже, це - щастя. Щастя підсвічується.
06:09
And then give me a disgust face.
112
369444
1927
Зараз спробуй показати огиду.
06:11
Try to remember what it was like when Zayn left One Direction.
113
371371
4272
Пригадай, як це - коли Зайн вийшов з групи One Direction.
06:15
(Laughter)
114
375643
1510
(Сміх)
06:17
Yeah, wrinkle your nose. Awesome.
115
377153
4342
Так, наморщи носа. Чудово.
06:21
And the valence is actually quite negative, so you must have been a big fan.
116
381495
3731
Результат доволі негативний, ти, мабуть, їхня велика шанувальниця.
06:25
So valence is how positive or negative an experience is,
117
385226
2700
Валентність показує, наскільки позитивним чи негативним є досвід,
06:27
and engagement is how expressive she is as well.
118
387926
2786
а вмикання кольорів, наскільки єкспресивною вона є.
06:30
So imagine if Cloe had access to this real-time emotion stream,
119
390712
3414
Уявімо, якби Хлоя мала доступ до емоційного потоку онлайн,
06:34
and she could share it with anybody she wanted to.
120
394126
2809
вона могла б поділитися, з ким хотіла.
06:36
Thank you.
121
396935
2923
Дякую.
06:39
(Applause)
122
399858
4621
(Оплески)
06:45
So, so far, we have amassed 12 billion of these emotion data points.
123
405749
5270
Зараз ми маємо 12 мільярдів таких емоційних даних.
06:51
It's the largest emotion database in the world.
124
411019
2611
Це найбільша емоційна база у всьому світі.
06:53
We've collected it from 2.9 million face videos,
125
413630
2963
Ми зібрали її з 2,9 мільйонів відео,
06:56
people who have agreed to share their emotions with us,
126
416593
2600
від людей, які погодилися розділити свої емоції з нами,
06:59
and from 75 countries around the world.
127
419193
3205
із 75 різних країн світу.
07:02
It's growing every day.
128
422398
1715
Вона збільшується щодня.
07:04
It blows my mind away
129
424603
2067
Це захоплююче,
07:06
that we can now quantify something as personal as our emotions,
130
426670
3195
як ми можемо підрахувати щось таке особисте як емоції,
07:09
and we can do it at this scale.
131
429865
2235
і можемо це зробити за допомогою шкали.
07:12
So what have we learned to date?
132
432100
2177
Що ми враховуємо?
07:15
Gender.
133
435057
2331
Стать.
07:17
Our data confirms something that you might suspect.
134
437388
3646
Наші дані підтверджують те, що ви підозрюєте.
07:21
Women are more expressive than men.
135
441034
1857
Жінки більш експресивні, ніж чоловіки.
07:22
Not only do they smile more, their smiles last longer,
136
442891
2683
Вони не лише посміхаються частіше, їхня посмішка триваліша,
07:25
and we can now really quantify what it is that men and women
137
445574
2904
і ми можемо справді підрахувати, на що жінки і чоловіки
07:28
respond to differently.
138
448478
2136
реагують по-різному.
07:30
Let's do culture: So in the United States,
139
450614
2290
Розглянемо культурний аспект: у США,
07:32
women are 40 percent more expressive than men,
140
452904
3204
жінки на 40% експресивніші за чоловіків,
07:36
but curiously, we don't see any difference in the U.K. between men and women.
141
456108
3645
але цікавіше, що в Англії жодної різниці між чоловіками і жінками.
07:39
(Laughter)
142
459753
2506
(Сміх)
07:43
Age: People who are 50 years and older
143
463296
4027
ВІк: люди, котрим 50 і вище
07:47
are 25 percent more emotive than younger people.
144
467323
3436
на 25% емоційніші за молодших віком.
07:51
Women in their 20s smile a lot more than men the same age,
145
471899
3852
ЖІнки у свої 20 посміхаються більше, ніж чоловіки того ж віку,
07:55
perhaps a necessity for dating.
146
475751
3839
мабуть, просто необхідність для побачень.
07:59
But perhaps what surprised us the most about this data
147
479590
2617
Але найбільше нас здивувало,
08:02
is that we happen to be expressive all the time,
148
482207
3203
що ми виражаємо емоції постійно,
08:05
even when we are sitting in front of our devices alone,
149
485410
2833
навіть тоді, коли ми наодинці зі своїми пристроями,
08:08
and it's not just when we're watching cat videos on Facebook.
150
488243
3274
і це не лише тоді, коли ми довимося відео про котів на Facebook.
08:12
We are expressive when we're emailing, texting, shopping online,
151
492217
3010
Ми виявляємо емоції, коли пишемо мейли, смс чи робимо покупки онлайн,
08:15
or even doing our taxes.
152
495227
2300
навіть, коли маємо справу з податками.
08:17
Where is this data used today?
153
497527
2392
Де можливо застосувати ці дані сьогодні?
08:19
In understanding how we engage with media,
154
499919
2763
Для розуміння того, як ми пов'язуємо себе з медіа,
08:22
so understanding virality and voting behavior;
155
502682
2484
розуміння поширення веб-контенту і поведінки вибору,
08:25
and also empowering or emotion-enabling technology,
156
505166
2740
а також, щоб розуміти могутню чи емоційно адаптовану технологію.
08:27
and I want to share some examples that are especially close to my heart.
157
507906
4621
Хочу показати вам кілька прикладів, які особливо близькі для мене.
08:33
Emotion-enabled wearable glasses can help individuals
158
513197
3068
Емоційно адапотовані окуляри можуть допомогти тим,
08:36
who are visually impaired read the faces of others,
159
516265
3228
хто погано бачить, читати обличчя інших,
08:39
and it can help individuals on the autism spectrum interpret emotion,
160
519493
4187
і також допоможе аутистам зрозуміти емоції,
08:43
something that they really struggle with.
161
523680
2778
те, з чим їм дійсно важко розібратися.
08:47
In education, imagine if your learning apps
162
527918
2859
Щодо освіти, то уявіть, якби ваші додатки для навчання
08:50
sense that you're confused and slow down,
163
530777
2810
відчували, що ви збентежені і сповільнювалися при цьому.
08:53
or that you're bored, so it's sped up,
164
533587
1857
Або відчули, що вам нудно, і пришвидшувалися,
08:55
just like a great teacher would in a classroom.
165
535444
2969
так само, як хороший вчитель зробив би у класі.
08:59
What if your wristwatch tracked your mood,
166
539043
2601
Якби ваш годинник відслідковував ваш настрій,
09:01
or your car sensed that you're tired,
167
541644
2693
чи ваша машина відчула, що ви втомлені,
09:04
or perhaps your fridge knows that you're stressed,
168
544337
2548
чи ваш холодильник був в курсі, що ви переживаєте стрес,
09:06
so it auto-locks to prevent you from binge eating. (Laughter)
169
546885
6066
і автоматично закривався, щоб не дозволити вам переїдати. (Сміх)
09:12
I would like that, yeah.
170
552951
2717
Мені б таке сподобалося.
09:15
What if, when I was in Cambridge,
171
555668
1927
Якби тоді, коли я була у Кембриджі,
09:17
I had access to my real-time emotion stream,
172
557595
2313
я мала доступ до емоційного потоку онлайн,
09:19
and I could share that with my family back home in a very natural way,
173
559908
3529
і могла б поділитися всім зі своєю сім'єю вдома у звичний спосіб,
09:23
just like I would've if we were all in the same room together?
174
563437
3971
так, наче б ми сиділи всі разом в одній кімнаті?
09:27
I think five years down the line,
175
567408
3142
Гадаю, що за п'ять років,
09:30
all our devices are going to have an emotion chip,
176
570550
2337
всі наші пристрої матимуть емоційний чіп,
09:32
and we won't remember what it was like when we couldn't just frown at our device
177
572887
4064
і ми вже не пам'ятатимемо часи, коли не можна було насупитися до пристрою
09:36
and our device would say, "Hmm, you didn't like that, did you?"
178
576951
4249
і він нам відповів би: "Гмм, тобі це не подобається, чи не так?"
09:41
Our biggest challenge is that there are so many applications of this technology,
179
581200
3761
Найбільшою трудністю є те, що ця технологія має багато додатків.
09:44
my team and I realize that we can't build them all ourselves,
180
584961
2903
Ми з командою усвідомили, що не зможемо створити її самі,
09:47
so we've made this technology available so that other developers
181
587864
3496
тому ми зробили так, щоб ця технологія стала доступною для інших розробників
09:51
can get building and get creative.
182
591360
2114
і вони могли працювати, і бути креативними.
09:53
We recognize that there are potential risks
183
593474
4086
Ми також усвідомлюємо, що існують потенційні ризики
09:57
and potential for abuse,
184
597560
2067
і зловживання,
09:59
but personally, having spent many years doing this,
185
599627
2949
але я, особисто пропрацюваваши багато років над цим,
10:02
I believe that the benefits to humanity
186
602576
2972
вірю, що користь для суспільства
10:05
from having emotionally intelligent technology
187
605548
2275
від емоційно спроможних технологій
10:07
far outweigh the potential for misuse.
188
607823
3576
значно переважатиме можливе їх зловживання.
10:11
And I invite you all to be part of the conversation.
189
611399
2531
Запрошую вас усіх приєднатися до діалогу.
10:13
The more people who know about this technology,
190
613930
2554
Чим більшій кількості людей відомо про цю технологію,
10:16
the more we can all have a voice in how it's being used.
191
616484
3177
тим більше ми знатимемо, як її використовувати.
10:21
So as more and more of our lives become digital,
192
621081
4574
Так як наше життя стає все більш цифровим,
10:25
we are fighting a losing battle trying to curb our usage of devices
193
625655
3498
ми залучені в битву, яку програємо, намагаючись обмежити використання нами пристроїв,
10:29
in order to reclaim our emotions.
194
629153
2229
щоби повернути наші емоції.
10:32
So what I'm trying to do instead is to bring emotions into our technology
195
632622
3914
Тож я намагаюся натомість внести емоції в наші технології
10:36
and make our technologies more responsive.
196
636536
2229
і зробити їх більш чутливими.
10:38
So I want those devices that have separated us
197
638765
2670
Мені б хотілося, щоб ці пристрої, які нас роз'єднують,
10:41
to bring us back together.
198
641435
2462
поєднали нас знову.
10:43
And by humanizing technology, we have this golden opportunity
199
643897
4588
Гуманізуючи технології, ми отримуємо надзвичайну можливість
10:48
to reimagine how we connect with machines,
200
648485
3297
переосмислити те, як ми з'єднуємося з машинами,
10:51
and therefore, how we, as human beings,
201
651782
4481
і, відповідно, як ми, люди,
10:56
connect with one another.
202
656263
1904
спілкуємося один з одним.
10:58
Thank you.
203
658167
2160
Дякую.
11:00
(Applause)
204
660327
3313
(Оплески)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7