Can machines read your emotions? - Kostas Karpouzis

Могут ли машины распознавать эмоции? — Костас Карпоузис

334,937 views

2016-11-29 ・ TED-Ed


New videos

Can machines read your emotions? - Kostas Karpouzis

Могут ли машины распознавать эмоции? — Костас Карпоузис

334,937 views ・ 2016-11-29

TED-Ed


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: alisa pruzhanskaya Редактор: Ростислав Голод
С каждым годом машины всё больше превосходят нас во многих отраслях,
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
00:11
we once thought only we were capable of.
1
11642
3206
в которых, как мы когда-то считали, разбираются только люди.
00:14
Today's computers can beat us in complex board games,
2
14848
3575
Теперь компьютеры могут победить нас в различных настольных играх,
00:18
transcribe speech in dozens of languages,
3
18423
2871
записывать речь на многих языках
00:21
and instantly identify almost any object.
4
21294
3452
и мгновенно распознавать практически любой предмет.
00:24
But the robots of tomorrow may go futher
5
24746
2366
Но роботы будущего могут пойти ещё дальше
00:27
by learning to figure out what we're feeling.
6
27112
3131
и научиться понимать то, что мы чувствуем.
00:30
And why does that matter?
7
30243
2138
Почему это нас так беспокоит?
00:32
Because if machines and the people who run them
8
32381
2292
Ведь когда машины и люди, которые ими управляют,
00:34
can accurately read our emotional states,
9
34673
2550
сумеют точно определять наши эмоциональные состояния,
00:37
they may be able to assist us or manipulate us
10
37223
2970
они смогут не только помогать нам, но и манипулировать нами
00:40
at unprecedented scales.
11
40193
2909
в немыслимых ранее масштабах.
00:43
But before we get there,
12
43102
1512
Пока этого не случилось,
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
как передать всю сложность эмоций при помощи обычных чисел —
00:49
the only language machines understand?
14
49653
3600
единственного языка, понятного машинам?
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
В сущности так же, как и наш мозг может распознавать эмоции,
00:56
by learning how to spot them.
16
56843
2151
приобретая навыки их распознания.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
Американский психолог Пол Экман выяснил: существуют универсальные эмоции,
внешние признаки которых понятны представителям различных культур.
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
Например, изображение улыбки одинаково обозначает радость
как для жителей современных городов,
01:14
and aboriginal tribesmen alike.
20
74193
2772
так и для дикарей-аборигенов.
01:16
And according to Ekman,
21
76965
1129
Согласно теории Экмана,
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
злость,
отвращение,
01:19
fear,
24
79533
742
страх,
01:20
joy,
25
80275
817
радость,
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
грусть
и удивление довольно легко распознать.
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
Оказывается, компьютеры всё больше прогрессируют в распознании изображений
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
благодаря алгоритму изучения искусственных нейронных сетей.
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
Они состоят из условных узлов, копирующих наши биологические нейроны,
01:38
by forming connections and exchanging information.
31
98205
3579
образуя связи и обмениваясь информацией.
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
Для обучения системы в неё заносят образцы входных данных,
предварительно систематизированные по категориям,
01:46
such as photos marked happy or sad,
33
106285
2890
например, радостные или грустные фото.
01:49
are fed into the system.
34
109175
2110
01:51
The network then learns to classify those samples
35
111285
2460
Затем система учится самостоятельно группировать эти образцы,
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
сравнивая относительную значимость определённых отличительных параметров.
01:58
The more training data it's given,
37
118405
1620
Чем больше загружается данных,
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
тем лучше работает алгоритм распознания новых изображений.
02:04
This is similar to our own brains,
39
124795
1732
Так же и наш мозг учится
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
обрабатывать новые входные данные, основываясь на прошлых воспоминаниях.
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
Алгоритмы распознания не ограничиваются только выражением лица.
02:15
Our emotions manifest in many ways.
42
135466
2420
Наши эмоции проявляются разными способами.
02:17
There's body language and vocal tone,
43
137886
2230
Есть ещё язык тела или интонация голоса,
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
изменения частоты сердечного ритма, цвета лица или температуры кожи,
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
изменяются даже частотность слов и структура предложений на письме.
02:28
You might think that training neural networks to recognize these
46
148046
3159
Можно подумать, что обучить искусственную нейронную систему —
02:31
would be a long and complicated task
47
151205
2432
это невероятно сложная и долгая задача,
02:33
until you realize just how much data is out there,
48
153637
3329
но вы даже не представляете себе, какие объёмы данных
02:36
and how quickly modern computers can process it.
49
156966
3409
и с какой скоростью способны обрабатывать современные компьютеры.
02:40
From social media posts,
50
160375
1542
От публикаций в социальных сетях,
02:41
uploaded photos and videos,
51
161917
1669
загруженных фото и видео,
02:43
and phone recordings,
52
163586
1401
записей телефонных звонков
02:44
to heat-sensitive security cameras
53
164987
1780
до инфракрасных камер
02:46
and wearables that monitor physiological signs,
54
166767
3670
и переносных устройств, отслеживающих параметры организма,
02:50
the big question is not how to collect enough data,
55
170437
2510
вопрос не в том, как собрать достаточно информации,
02:52
but what we're going to do with it.
56
172947
2308
а в том, что мы собираемся с ней делать.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
Можно привести много примеров выгодного применения системы распознания эмоций.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
Роботы с автоматизированной системой распознания мимики
03:02
can help children learn
59
182627
1619
могут помочь детям при обучении
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
или создать одиноким людям обстановку дружеского общения.
03:07
Social media companies are considering using algorithms
61
187636
3001
Разработчики социальных сетей считают, что такие алгоритмы
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
смогут помочь в предотвращении суицидов,
сигнализируя о публикациях, содержащих определённые слова или фразы.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
Также системы распознания эмоций
смогут помочь при лечении психических расстройств
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
или даже оказывать автоматизированную психологическую помощь по доступной цене.
03:25
Despite the potential benefits,
65
205578
1610
Несмотря на потенциальную пользу,
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
перспектива того, что система будет постоянно мониторить наши фото,
03:30
communications,
67
210869
1089
активность в сетях
03:31
and physiological signs is also quite disturbing.
68
211958
4919
и физиологические перемены, всё же немного напрягает.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
Какие наступят последствия для нашей личной жизни,
когда частные компании начнут применять
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
такие обезличенные системы в рекламных акциях
для изучения наших эмоций?
03:45
And what becomes of our rights
71
225208
1510
Что станет с нашими гражданскими правами,
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
когда правоохранительные органы
смогут выявлять людей, склонных к совершению преступлений,
03:50
before they even make a conscious decision to act?
73
230737
4190
ещё до того, как кто-то предпримет противоправные действия?
03:54
Robots currently have a long way to go
74
234927
2223
Сейчас роботам ещё далеко до определения
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
таких тончайших эмоциональных оттенков, как ирония,
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
или степеней каких-то чувств, например, насколько человек счастлив или печален.
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
Тем не менее рано или поздно они научатся точно идентифицировать наши чувства
04:09
and respond to them.
78
249288
1850
и реагировать на них.
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
Однако поймут ли они страх
по поводу нежелательного вторжения в нашу личную жизнь —
04:15
that's another story.
80
255389
1498
это уже совсем другая история.
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7