Can machines read your emotions? - Kostas Karpouzis

Чи здатні машини розпізнавати ваші емоції? - Костас Карпоузіс

334,937 views

2016-11-29 ・ TED-Ed


New videos

Can machines read your emotions? - Kostas Karpouzis

Чи здатні машини розпізнавати ваші емоції? - Костас Карпоузіс

334,937 views ・ 2016-11-29

TED-Ed


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Olena Liubchenko Утверджено: Hanna Leliv
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
З кожним роком машини все частіше наздоганяють людей у багатьох галузях,
00:11
we once thought only we were capable of.
1
11642
3206
у яких ми раніше вважали себе неперевершеними.
00:14
Today's computers can beat us in complex board games,
2
14848
3575
Сучасні комп'ютери здатні перемагати в складних настільних іграх,
00:18
transcribe speech in dozens of languages,
3
18423
2871
розпізнавати мовлення багатьма мовами
00:21
and instantly identify almost any object.
4
21294
3452
та миттєво ідентифікувати майже будь-які об'єкти.
00:24
But the robots of tomorrow may go futher
5
24746
2366
Але майбутні роботи можуть піти далі,
00:27
by learning to figure out what we're feeling.
6
27112
3131
навчившись розпізнавати, що ми відчуваємо.
00:30
And why does that matter?
7
30243
2138
Але чому це важливо?
00:32
Because if machines and the people who run them
8
32381
2292
Бо якщо машини та люди, які ними керують
00:34
can accurately read our emotional states,
9
34673
2550
зможуть точно визначати наш емоційний стан,
00:37
they may be able to assist us or manipulate us
10
37223
2970
вони зможуть допомагати нам або маніпулювати нами
00:40
at unprecedented scales.
11
40193
2909
безпрецедентним чином.
00:43
But before we get there,
12
43102
1512
Та поки цього не сталось,
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
як щось настільки складне як емоції перетворити просто в числа,
00:49
the only language machines understand?
14
49653
3600
тобто в єдину мову, яку машини розуміють?
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
Фактично таким самим чином, як і наш мозок інтерпретує емоції,
00:56
by learning how to spot them.
16
56843
2151
навчаючись їх розрізняти.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
Американський психолог Пол Екман виявив певні універсальні емоції,
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
ознаки яких однаково зрозумілі в різних культурах.
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
Наприклад, зображення посмішки означає радість,
01:14
and aboriginal tribesmen alike.
20
74193
2772
як для жителів мегаполісів, так і для аборигенів.
01:16
And according to Ekman,
21
76965
1129
І згідно з Екманом,
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
злість,
огида,
01:19
fear,
24
79533
742
страх,
01:20
joy,
25
80275
817
радість,
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
смуток
і здивування - так само розпізнаються.
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
Як виявилось, комп'ютери успішно вчаться розпізнавати зображення
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
завдяки алгоритмам навчання машин, таким, як нейронні мережі.
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
Вони складаються зі штучних вузлів, які імітують біологічні нейрони
01:38
by forming connections and exchanging information.
31
98205
3579
шляхом утворення зв'язків та обміну інформацією.
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
Для навчання нейромережі приклади, систематизовані за категоріями,
01:46
such as photos marked happy or sad,
33
106285
2890
такі як фото з відмітками "щасливі" або "сумні",
01:49
are fed into the system.
34
109175
2110
вводять в мережу.
01:51
The network then learns to classify those samples
35
111285
2460
Потім мережа вчиться класифікувати дані,
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
враховуючи відносну вагу окремих параметрів.
01:58
The more training data it's given,
37
118405
1620
Що більше початкових даних,
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
то правильніше алгоритми ідентифікують нові образи.
02:04
This is similar to our own brains,
39
124795
1732
Це схоже на наш власний мозок,
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
який навчається з попереднього досвіду, як обробляти нові стимули.
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
Алгоритми розпізнавання не обмежені лише мімікою.
02:15
Our emotions manifest in many ways.
42
135466
2420
Наші емоції проявляються багатьма способами.
02:17
There's body language and vocal tone,
43
137886
2230
Це мова тіла, тон голосу,
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
ритм серцебиття, колір обличчя, температура шкіри,
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
або навіть частота слів і структура речень при написанні.
02:28
You might think that training neural networks to recognize these
46
148046
3159
Може ви думаєте, що тренування нейромереж для такого розпізнавання
02:31
would be a long and complicated task
47
151205
2432
є складним і тривалим завданням?
02:33
until you realize just how much data is out there,
48
153637
3329
Але ви навіть не уявляєте, як багато даних вже зібрано,
02:36
and how quickly modern computers can process it.
49
156966
3409
і як швидко сучасні комп'ютери здатні обробляти їх.
02:40
From social media posts,
50
160375
1542
Від постів у соціальних мережах,
02:41
uploaded photos and videos,
51
161917
1669
завантажених фото і відео,
02:43
and phone recordings,
52
163586
1401
телефонних записів
02:44
to heat-sensitive security cameras
53
164987
1780
до інфрачервоних камер
02:46
and wearables that monitor physiological signs,
54
166767
3670
і пристроїв для моніторингу фізіологічних параметрів.
02:50
the big question is not how to collect enough data,
55
170437
2510
Тепер проблема не в тому, як зібрати досить даних,
02:52
but what we're going to do with it.
56
172947
2308
а в тому, що ми з ними збираємося робити.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
Автоматизоване розпізнавання емоцій може бути дуже корисне.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
Роботи з алгоритмами розпізнавання міміки
03:02
can help children learn
59
182627
1619
можуть допомагати дітям вчитись
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
або надавати самотнім людям відчуття спілкування.
03:07
Social media companies are considering using algorithms
61
187636
3001
Соціальні мережі зможуть використовувати алгоритми
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
для запобігання суїцидів,
сигналізуючи про пости зі специфічними словами або фразами.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
Програми емоційного розпізнавання
можуть допомогти при психологічних порушеннях
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
або навіть запропонувати людям автоматизованого психотерапевта.
03:25
Despite the potential benefits,
65
205578
1610
Потенційні вигоди існують, але
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
перспектива масового мережевого автоматичного сканування наших фото,
03:30
communications,
67
210869
1089
зв'язків
03:31
and physiological signs is also quite disturbing.
68
211958
4919
та фізіологічних параметрів викликає занепокоєння.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
Які наслідки загрожують нашому особистому життю, якщо корпорації
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
будуть використовувати такі системи та експлуатувати наші емоції для реклами?
03:45
And what becomes of our rights
71
225208
1510
І що станеться з нашими правами,
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
якщо влада зможе ідентифікувати людей, здатних скоїти злочин,
03:50
before they even make a conscious decision to act?
73
230737
4190
навіть до того, як вони ухвалять свідоме рішення діяти?
03:54
Robots currently have a long way to go
74
234927
2223
Роботам ще далеко до розпізнавання
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
таких емоційних тонкощів, як іронія,
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
до визначення сили емоції, наскільки хтось щасливий або сумний.
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
Проте вони з часом зможуть точно розпізнавати наші емоції
04:09
and respond to them.
78
249288
1850
та реагувати на них.
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
А от чи зможуть вони співпереживати нашому страху небажаного втручання?
04:15
that's another story.
80
255389
1498
Та це вже інша історія.
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7