Can machines read your emotions? - Kostas Karpouzis
기계가 인간의 감정을 읽을 수 있을까? - 코스타스 카르포우지스 (Kostas Karpouzis)
334,937 views ・ 2016-11-29
아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Jooyoung Moon
00:07
With every year, machines surpass humans
in more and more activities
0
7052
4590
해가 갈수록 기계는 점점 더 많은
활동 영역에서 인간을 능가합니다.
00:11
we once thought only we were capable of.
1
11642
3206
한때는 인간만 할 수 있다고
생각했던 영역까지도 그렇죠.
00:14
Today's computers can beat us
in complex board games,
2
14848
3575
오늘날 컴퓨터는 복잡한
보드 게임에서 우리를 이기고
00:18
transcribe speech in dozens of languages,
3
18423
2871
연설을 수십개 국의 언어로 옮기고
00:21
and instantly identify almost any object.
4
21294
3452
즉각적으로 어떤 개체든 식별하죠.
00:24
But the robots of tomorrow may go futher
5
24746
2366
인간의 감정을 읽는 법을 배움으로써
00:27
by learning to figure out
what we're feeling.
6
27112
3131
미래의 로봇은 더 똑똑할지도 모릅니다.
00:30
And why does that matter?
7
30243
2138
그게 왜 중요할까요?
00:32
Because if machines
and the people who run them
8
32381
2292
그 기계와 기계를 다루는 사람들이
00:34
can accurately read our emotional states,
9
34673
2550
우리의 감정을 정확히 읽을 수 있다면
00:37
they may be able to assist us
or manipulate us
10
37223
2970
우리를 도울 수 있거나
조종할 수도 있습니다.
00:40
at unprecedented scales.
11
40193
2909
이제껏 전례가 없는 규모로 말이죠.
00:43
But before we get there,
12
43102
1512
그렇게 되기 전에
00:44
how can something so complex as emotion
be converted into mere numbers,
13
44614
5039
감정처럼 복잡한 것을
기계가 이해할 수 있는 유일한 언어인
00:49
the only language machines understand?
14
49653
3600
한낱 숫자로 바꿀 수 있을까요?
00:53
Essentially the same way our own brains
interpret emotions,
15
53253
3590
본질적으로 인간의 뇌와 기계는
감정을 인지하는 법을 학습함으로써
00:56
by learning how to spot them.
16
56843
2151
인식하는 과정이 같죠.
00:58
American psychologist Paul Ekman
identified certain universal emotions
17
58994
5126
미국의 심리학자 폴 에크먼이
발견한 보편적인 감정은
01:04
whose visual cues are understood
the same way across cultures.
18
64120
5054
문화 전반에 걸쳐 시각적인 신호를
동일한 방식으로 이해합니다.
01:09
For example, an image of a smile
signals joy to modern urban dwellers
19
69174
5019
예를 들어 미소의 이미지는
현대 도시인과 원주민 부족 모두에게
01:14
and aboriginal tribesmen alike.
20
74193
2772
기쁨으로 전달되죠.
01:16
And according to Ekman,
21
76965
1129
에크먼에 따르면
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
분노
혐오감
01:19
fear,
24
79533
742
두려움
01:20
joy,
25
80275
817
기쁨
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
슬픔
놀라움을 똑같이
인식할 수 있는 거죠.
01:25
As it turns out, computers are rapidly
getting better at image recognition
28
85433
4403
신경망 같은 기계 학습 알고리즘으로
01:29
thanks to machine learning algorithms,
such as neural networks.
29
89836
4179
컴퓨터는 이미지 인식 능력이
향상된 것으로 밝혀졌고
01:34
These consist of artificial nodes that
mimic our biological neurons
30
94015
4190
이들은 인공 연결망 교점끼리
연결을 형성하여
01:38
by forming connections
and exchanging information.
31
98205
3579
우리의 생물학적 뉴런을 모방하면서
정보 교환을 합니다.
01:41
To train the network, sample inputs
pre-classified into different categories,
32
101784
4501
다른 카테고리로 사전 분류된 샘플인
01:46
such as photos marked happy or sad,
33
106285
2890
행복하거나 슬픈 표시가 있는
사진 같은 것을
01:49
are fed into the system.
34
109175
2110
시스템에 입력해서
네트워크를 훈련시킵니다.
01:51
The network then learns to classify
those samples
35
111285
2460
그다음엔 네트워크가
그런 샘플을 특정 기능에 할당된
01:53
by adjusting the relative weights
assigned to particular features.
36
113745
4660
상대 가중치를 조정하여
분류하는 방법을 학습합니다.
01:58
The more training data it's given,
37
118405
1620
교육자료가 많을수록
02:00
the better the algorithm becomes
at correctly identifying new images.
38
120025
4770
알고리즘은 새로운 이미지를
정확하게 식별할 수 있습니다.
02:04
This is similar to our own brains,
39
124795
1732
그것은 우리 두뇌와 비슷한데
02:06
which learn from previous experiences
to shape how new stimuli are processed.
40
126527
5198
우리의 두뇌도 이전의 경험을 통해
새로운 자극을 처리합니다.
02:11
Recognition algorithms aren't just
limited to facial expressions.
41
131725
3741
인식 알고리즘은
표정에만 국한되는 게 아닙니다.
02:15
Our emotions manifest in many ways.
42
135466
2420
감정은 다양하게 나타나죠.
02:17
There's body language and vocal tone,
43
137886
2230
몸짓과 음정
02:20
changes in heart rate, complexion,
and skin temperature,
44
140116
3121
심박수의 변화, 안색, 피부 온도
02:23
or even word frequency and sentence
structure in our writing.
45
143237
4809
글쓰기에서 단어 빈도와
문장 구조에서도 알 수 있습니다.
02:28
You might think that training
neural networks to recognize these
46
148046
3159
신경망을 훈련하는 것이
길고 복잡한 작업이라고
02:31
would be a long and complicated task
47
151205
2432
생각할 수도 있지만
데이터양이 얼마나 많고
02:33
until you realize just how much
data is out there,
48
153637
3329
현대 컴퓨터가 얼마나 빨리
데이터를 처리할 수 있는지
02:36
and how quickly modern computers
can process it.
49
156966
3409
깨달은 후엔 생각이 달라질 겁니다.
02:40
From social media posts,
50
160375
1542
소셜 미디어 게시물과
02:41
uploaded photos and videos,
51
161917
1669
게시된 사진 및 비디오
02:43
and phone recordings,
52
163586
1401
전화 음성 녹음
02:44
to heat-sensitive security cameras
53
164987
1780
열 감지 식 보안 카메라
02:46
and wearables that monitor
physiological signs,
54
166767
3670
생체 신호를 탐지하는 착용 기기
02:50
the big question is not how to collect
enough data,
55
170437
2510
중요한 문제는 충분한 정보
수집의 방법이 아니라
02:52
but what we're going to do with it.
56
172947
2308
정보의 활용 방법이죠.
02:55
There are plenty of beneficial uses
for computerized emotion recognition.
57
175255
4451
컴퓨터화된 감정 인식엔
유익한 용도가 많아서
02:59
Robots using algorithms to identify
facial expressions
58
179706
2921
표정을 식별하는 알고리즘의 로봇은
03:02
can help children learn
59
182627
1619
아이들이 배울 수 있도록 돕거나
03:04
or provide lonely people
with a sense of companionship.
60
184246
3390
외로운 사람에겐
우정을 느끼게 해 주죠.
03:07
Social media companies are considering
using algorithms
61
187636
3001
소셜 미디어 회사들은
알고리즘을 사용해서
03:10
to help prevent suicides by flagging posts
that contain specific words or phrases.
62
190637
6410
특정 단어나 문구가 있는
게시물을 표시하여 자살을 예방합니다.
03:17
And emotion recognition software can help
treat mental disorders
63
197047
4240
감정 인식 소프트웨어를 통해서
정신 질환을 치료하거나
03:21
or even provide people with low-cost
automated psychotherapy.
64
201287
4291
자동화된 심리 요법을
저렴한 비용으로 제공할 수도 있습니다.
03:25
Despite the potential benefits,
65
205578
1610
그러한 잠재적인 이점은 있지만
03:27
the prospect of a massive network
automatically scanning our photos,
66
207188
3681
거대한 네트워크가 우리 사진과
03:30
communications,
67
210869
1089
의사소통
03:31
and physiological signs
is also quite disturbing.
68
211958
4919
생리신호를 자동으로 스캔하는 미래는
불안하기도 하죠.
03:36
What are the implications for our privacy
when such impersonal systems
69
216877
3919
기업이 광고를 통해
우리의 감정을 이용하려고
03:40
are used by corporations to exploit
our emotions through advertising?
70
220796
4412
그러한 비인격적인 시스템을 사용할 때
우리의 사생활엔 어떤 영향을 미칠까요?
03:45
And what becomes of our rights
71
225208
1510
범죄를 저지르기도 전에
03:46
if authorities think they can identify
the people likely to commit crimes
72
226718
4019
감독 기관에서
범죄 가능성이 있는 사람들을
03:50
before they even make
a conscious decision to act?
73
230737
4190
식별할 수 있다고 하면
우리의 권리는 어떻게 될까요?
03:54
Robots currently have a long way to go
74
234927
2223
아이러니같은 감정적인 차이를 구별하고
03:57
in distinguishing emotional nuances,
like irony,
75
237150
3108
사람이 얼마나 행복하고
슬픈지 구별하려면
04:00
and scales of emotions,
just how happy or sad someone is.
76
240258
4500
현재의 로봇이
좀 더 시간이 필요합니다.
04:04
Nonetheless, they may eventually be able
to accurately read our emotions
77
244758
4530
그럼에도 불구하고 결국엔 로봇이
정확하게 인간의 감정을 읽고
04:09
and respond to them.
78
249288
1850
그에 반응할 수도 있습니다.
04:11
Whether they can empathize with our fear
of unwanted intrusion, however,
79
251138
4251
아니면 인간이 침해받고 싶지 않은
감정에 깊이 공감할 수도 있겠지만
04:15
that's another story.
80
255389
1498
그건 또 다른 이야기가 되겠죠.
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.