Rana el Kaliouby: This app knows how you feel — from the look on your face
137,190 views ・ 2015-06-15
아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Jina Bae
검토: Jihyeon J. Kim
00:12
Our emotions influence
every aspect of our lives,
0
12556
4017
우리의 감정들은
삶의 모든 면에 영향을 줍니다,
00:16
from our health and how we learn,
to how we do business and make decisions,
1
16573
3576
우리의 건강과 학습부터
사업의 방식과 의사결정까지요.
00:20
big ones and small.
2
20149
1773
큰 일이든 작은 일이든지요.
00:22
Our emotions also influence
how we connect with one another.
3
22672
3490
또한 감정은 우리가 서로를 어떻게
연결시키는지 영향을 주죠.
00:27
We've evolved to live
in a world like this,
4
27132
3976
우리는 이런 세상에서
살기위해 진화해왔죠.
00:31
but instead, we're living
more and more of our lives like this --
5
31108
4319
그러나 대신에 우리는 점점 더
이런 삶 속에 살고 있습니다.
00:35
this is the text message
from my daughter last night --
6
35427
3134
어젯밤 제 딸의 문자 메세지입니다.
00:38
in a world that's devoid of emotion.
7
38561
2740
감정이 결여된 세상이죠.
00:41
So I'm on a mission to change that.
8
41301
1951
저는 그것을 바꾸는 과제에 착수했어요.
00:43
I want to bring emotions
back into our digital experiences.
9
43252
4091
감정을 디지털 공간의
경험안에 도입시키고 싶었죠.
00:48
I started on this path 15 years ago.
10
48223
3077
전 이걸 15년 전에 시작했어요.
저는 이집트에서 컴퓨터 공학자였고
00:51
I was a computer scientist in Egypt,
11
51300
2066
00:53
and I had just gotten accepted to
a Ph.D. program at Cambridge University.
12
53366
4505
막 캠브리지의 박사 학위
과정에 입학했었습니다.
00:57
So I did something quite unusual
13
57871
2113
그래서 저는 좀 다른 것을 했습니다.
00:59
for a young newlywed Muslim Egyptian wife:
14
59984
4225
어린 신혼의 무슬림
이집트 부인으로서요.
01:05
With the support of my husband,
who had to stay in Egypt,
15
65599
2999
이집트에 남아야했던 남편의 지원 덕분에
01:08
I packed my bags and I moved to England.
16
68598
3018
저는 짐을 꾸려 영국으로 갔습니다.
01:11
At Cambridge, thousands of miles
away from home,
17
71616
3228
고향에서 수천 마일 떨어진 캠브리지에서
01:14
I realized I was spending
more hours with my laptop
18
74844
3413
사람들과 지내는 시간보다 많은 시간을
노트북과 보내고 있음을 알았습니다.
01:18
than I did with any other human.
19
78257
2229
01:20
Yet despite this intimacy, my laptop
had absolutely no idea how I was feeling.
20
80486
4853
이런 친밀성에도 불구하고
제 노트북은 저의 감정을 알 수 없었죠.
01:25
It had no idea if I was happy,
21
85339
3211
이것은 제가 행복한지, 기분이 안 좋은지,
01:28
having a bad day, or stressed, confused,
22
88550
2988
스트레스를 받는지, 혼란스러운지
알지 못했습니다.
01:31
and so that got frustrating.
23
91538
2922
그게 답답했어요.
01:35
Even worse, as I communicated
online with my family back home,
24
95600
5231
더 안 좋은 상황은 온라인상으로
고향 가족들과 대화할 때
01:41
I felt that all my emotions
disappeared in cyberspace.
25
101421
3282
제 모든 감정들이 사이버 공간에서
사라진다고 느껴졌어요.
01:44
I was homesick, I was lonely,
and on some days I was actually crying,
26
104703
5155
저는 향수병을 앓았고, 외로웠으며,
그리고 어떤날은 정말로 울었죠.
01:49
but all I had to communicate
these emotions was this.
27
109858
4928
그러나 제가 표현할 수 있는 방법은
이것뿐이었습니다.
01:54
(Laughter)
28
114786
2020
(웃음)
01:56
Today's technology
has lots of I.Q., but no E.Q.;
29
116806
4974
오늘날의 기술은 높은 I.Q를
가지고 있습니다.
그러나 E.Q는 없어요.
인지 지능이 있으나 감성 지능은 없죠.
02:01
lots of cognitive intelligence,
but no emotional intelligence.
30
121780
3176
02:04
So that got me thinking,
31
124956
2197
그래서 생각하게 됐습니다.
02:07
what if our technology
could sense our emotions?
32
127153
3624
기술이 우리의 감정을 느낀다면 어떨까?
02:10
What if our devices could sense
how we felt and reacted accordingly,
33
130777
4076
장비들이 우리의 감정을 느끼고
그에 따라 반응한다면 어떨까?
02:14
just the way an emotionally
intelligent friend would?
34
134853
3013
감수성이 있는 친구가
반응하듯이 말이죠.
02:18
Those questions led me and my team
35
138666
3564
이런 의문들 때문에 저와 동료들이
02:22
to create technologies that can read
and respond to our emotions,
36
142230
4377
감정을 읽고 반응하는
기술을 만들었습니다.
02:26
and our starting point was the human face.
37
146607
3090
우리의 시작점은 인간의 얼굴이었죠.
02:30
So our human face happens to be
one of the most powerful channels
38
150577
3173
인간의 얼굴은 하나의 강력한 경로인데
02:33
that we all use to communicate
social and emotional states,
39
153750
4016
사회적, 감정적 상태의
소통을 위해 모두가 사용하죠.
02:37
everything from enjoyment, surprise,
40
157766
3010
즐거움, 놀람, 공감과
호기심같은 감정들입니다.
02:40
empathy and curiosity.
41
160776
4203
02:44
In emotion science, we call each
facial muscle movement an action unit.
42
164979
4928
감정 과학에서 각 얼굴 근육의 움직임을
활동 단위라고 합니다.
02:49
So for example, action unit 12,
43
169907
2925
예를들어, 활동 단위 12번은
02:52
it's not a Hollywood blockbuster,
44
172832
2038
이건 헐리우드 대작이 아니예요.
02:54
it is actually a lip corner pull,
which is the main component of a smile.
45
174870
3442
입술의 가장자리를 당기는 것입니다.
웃음의 주요 구성 부분이죠.
02:58
Try it everybody. Let's get
some smiles going on.
46
178312
2988
모두 시도해보세요. 웃어 보세요.
다른 예로 활동 단위 4번은
눈썹을 찡그리는 것입니다.
03:01
Another example is action unit 4.
It's the brow furrow.
47
181300
2654
03:03
It's when you draw your eyebrows together
48
183954
2238
당신이 두 눈썹을 함께 모을 때
이런 느낌과 주름살이 생깁니다.
03:06
and you create all
these textures and wrinkles.
49
186192
2267
우리가 별로 좋아하지 않죠.
03:08
We don't like them, but it's
a strong indicator of a negative emotion.
50
188459
4295
그건 부정적 감정의 강한 지표입니다.
03:12
So we have about 45 of these action units,
51
192754
2206
약 45개의 활동 단위가 있어요.
03:14
and they combine to express
hundreds of emotions.
52
194960
3390
조합해서 수백개의 감정표현이 생깁니다.
03:18
Teaching a computer to read
these facial emotions is hard,
53
198350
3901
이런 표정을 읽도록 컴퓨터를
가르치는 것은 힘듭니다.
03:22
because these action units,
they can be fast, they're subtle,
54
202251
2972
활동 단위들은 빠를 수도 있고,
미묘할 수 도 있으며
03:25
and they combine in many different ways.
55
205223
2554
수 많은 방법으로 조합되기 때문입니다.
03:27
So take, for example,
the smile and the smirk.
56
207777
3738
예로 웃음과 억지웃음을 들어봅시다.
03:31
They look somewhat similar,
but they mean very different things.
57
211515
3753
그것들은 다소 비슷해 보이죠.
그러나 매우 의미가 다릅니다.
03:35
(Laughter)
58
215268
1718
(웃음)
03:36
So the smile is positive,
59
216986
3004
웃음은 긍정적이고,
03:39
a smirk is often negative.
60
219990
1270
억지웃음은 보통은 부정적입니다.
03:41
Sometimes a smirk
can make you become famous.
61
221260
3876
가끔 억지웃음으로
유명해질 수 있어요.
03:45
But seriously, it's important
for a computer to be able
62
225136
2824
농담이 아니라 컴퓨터가 두 표정의 차이를
구별하는 것은 중요합니다.
03:47
to tell the difference
between the two expressions.
63
227960
2855
03:50
So how do we do that?
64
230815
1812
그래서 저희는 어떻게 했을까요?
03:52
We give our algorithms
65
232627
1787
저희는 컴퓨터 알고리즘에
03:54
tens of thousands of examples
of people we know to be smiling,
66
234414
4110
십만개의 웃는 사람들
예시를 입력했습니다.
03:58
from different ethnicities, ages, genders,
67
238524
3065
인종, 나이, 성별이 다양합니다.
04:01
and we do the same for smirks.
68
241589
2811
억지웃음도 그렇게 했습니다.
04:04
And then, using deep learning,
69
244400
1554
딥 러닝 인공지능을 사용해서
04:05
the algorithm looks for all these
textures and wrinkles
70
245954
2856
알고리즘이 느낌과 주름살,
얼굴의 형태 변화를 찾습니다.
04:08
and shape changes on our face,
71
248810
2580
04:11
and basically learns that all smiles
have common characteristics,
72
251390
3202
모든 웃는 얼굴에 공통적 특징이
있다는 것을 학습하게 됩니다.
04:14
all smirks have subtly
different characteristics.
73
254592
3181
모든 억지웃음은 미묘하게
다른 특징을 가지고 있어요.
04:17
And the next time it sees a new face,
74
257773
2368
그리고나서 이것은
새로운 얼굴을 관찰합니다.
04:20
it essentially learns that
75
260141
2299
이 얼굴이 웃음과 같은
특징을 가진다는 것을 알고
04:22
this face has the same
characteristics of a smile,
76
262440
3033
04:25
and it says, "Aha, I recognize this.
This is a smile expression."
77
265473
4278
말합니다."아하, 알겠습니다.
이건 웃는 표정입니다."
04:30
So the best way to demonstrate
how this technology works
78
270381
2800
이 기술이 어떻게 작동하는지
보여주는 가장 좋은 방법은
04:33
is to try a live demo,
79
273181
2136
실제 시연을 시도하는 것이죠.
04:35
so I need a volunteer,
preferably somebody with a face.
80
275317
3913
저는 지원자 한 분이 필요해요.
얼굴을 가진 분을 선호합니다.
04:39
(Laughter)
81
279230
2334
(웃음)
04:41
Cloe's going to be our volunteer today.
82
281564
2771
클로이가 오늘 지원해줄 겁니다.
04:45
So over the past five years, we've moved
from being a research project at MIT
83
285325
4458
지난 5년 동안,
우리는 MIT에서 연구로 시작해
한 회사를 설립했습니다.
04:49
to a company,
84
289783
1156
04:50
where my team has worked really hard
to make this technology work,
85
290939
3192
저희 팀이 이 기술을
실현하려고 노력하는 곳이죠.
04:54
as we like to say, in the wild.
86
294131
2409
저희는 야생의 상태라고 불러요.
04:56
And we've also shrunk it so that
the core emotion engine
87
296540
2670
그리고 우리는 기술을 소형화해서
핵심 감정 엔진이 아이패드처럼 카메라달린
이동식 장치에도 쓸 수 있게 했습니다.
04:59
works on any mobile device
with a camera, like this iPad.
88
299210
3320
05:02
So let's give this a try.
89
302530
2786
자, 시도해봅시다.
05:06
As you can see, the algorithm
has essentially found Cloe's face,
90
306756
3924
여러분이 보듯이,
이것은 클로이의 얼굴을
감지하고 있습니다.
05:10
so it's this white bounding box,
91
310680
1692
여기 하얀 테두리가 있죠.
05:12
and it's tracking the main
feature points on her face,
92
312372
2571
이것은 그녀의 얼굴의
눈썹, 눈, 입과 코와 같은
05:14
so her eyebrows, her eyes,
her mouth and her nose.
93
314943
2856
주요 특정 부분을 추적하고 있습니다.
05:17
The question is,
can it recognize her expression?
94
317799
2987
궁금한것은 이게 그녀의 표정을
인식할 수 있을까요?
05:20
So we're going to test the machine.
95
320786
1671
그래서 이 기계를 시험해볼거예요.
05:22
So first of all, give me your poker face.
Yep, awesome. (Laughter)
96
322457
4186
먼저 무표정을 해주세요.
좋아요, 멋지네요. (웃음)
05:26
And then as she smiles,
this is a genuine smile, it's great.
97
326643
2813
순수한 웃음이죠, 멋져요.
05:29
So you can see the green bar
go up as she smiles.
98
329456
2300
웃을 때 녹색 막대가
증가하는 것을 볼 수 있죠.
05:31
Now that was a big smile.
99
331756
1222
함박웃음이었어요.
미묘한 웃음을 해보시겠어요?
05:32
Can you try a subtle smile
to see if the computer can recognize?
100
332978
3043
컴퓨터가 인식하는지 보려고요.
미묘한 웃음도 인식합니다.
05:36
It does recognize subtle smiles as well.
101
336021
2331
이것을 만들려고 정말 노력했어요.
05:38
We've worked really hard
to make that happen.
102
338352
2125
눈썹이 올라가면 놀람의 표시이죠.
05:40
And then eyebrow raised,
indicator of surprise.
103
340477
2962
05:43
Brow furrow, which is
an indicator of confusion.
104
343439
4249
이마의 주름살은 혼란의 표시입니다.
05:47
Frown. Yes, perfect.
105
347688
4007
찡그려주세요.
네, 완벽하네요.
05:51
So these are all the different
action units. There's many more of them.
106
351695
3493
이것은 각각 다른 활동단위이고
더 많이 있습니다.
이건 몇가지만 보여드린 겁니다.
05:55
This is just a slimmed-down demo.
107
355188
2032
05:57
But we call each reading
an emotion data point,
108
357220
3148
저희는 각각의 인식을
감정 정보점이라고 합니다.
06:00
and then they can fire together
to portray different emotions.
109
360368
2969
이것이 함께 여러가지
감정을 나타나게 합니다.
06:03
So on the right side of the demo --
look like you're happy.
110
363337
4653
오른쪽에는 당신이 행복해 보입니다.
06:07
So that's joy. Joy fires up.
111
367990
1454
이것은 기쁨입니다.
기쁨 기능이 작동하죠.
06:09
And then give me a disgust face.
112
369444
1927
혐오하는 표정을 지어주세요.
06:11
Try to remember what it was like
when Zayn left One Direction.
113
371371
4272
자인이 One Direction을
탈퇴했다고 생각해보세요.
06:15
(Laughter)
114
375643
1510
(웃음)
네, 코에 주름을 잡아보세요. 좋아요.
06:17
Yeah, wrinkle your nose. Awesome.
115
377153
4342
06:21
And the valence is actually quite
negative, so you must have been a big fan.
116
381495
3731
유의성이 부정적이네요,
그러니까 진짜 팬이었나보네요.
06:25
So valence is how positive
or negative an experience is,
117
385226
2700
유의성은 한 경험이 얼마나
긍정적 또는 부정적인지 나타냅니다.
06:27
and engagement is how
expressive she is as well.
118
387926
2786
참여도는 얼마나 표현력이
있느냐를 보여줍니다.
06:30
So imagine if Cloe had access
to this real-time emotion stream,
119
390712
3414
클로이가 실시간 감정 변화에
접근할 수 있다고 상상해 보세요.
06:34
and she could share it
with anybody she wanted to.
120
394126
2809
그녀는 이것을 원하는 사람과
공유할 수 있겠죠.
06:36
Thank you.
121
396935
2923
감사합니다.
(박수)
06:39
(Applause)
122
399858
4621
06:45
So, so far, we have amassed
12 billion of these emotion data points.
123
405749
5270
지금까지 120억개의
감정 정보점을 수집했습니다.
06:51
It's the largest emotion
database in the world.
124
411019
2611
세상에서 가장 큰 감정 데이터베이스죠.
06:53
We've collected it
from 2.9 million face videos,
125
413630
2963
2,900만개의
얼굴 영상에서 모았습니다.
06:56
people who have agreed
to share their emotions with us,
126
416593
2600
감정 공유에 동의한 분들이고
06:59
and from 75 countries around the world.
127
419193
3205
세계의 75개국에서 모았습니다.
07:02
It's growing every day.
128
422398
1715
이것은 매일 늘어나고 있습니다.
07:04
It blows my mind away
129
424603
2067
저는 이것이 놀랍습니다.
07:06
that we can now quantify something
as personal as our emotions,
130
426670
3195
지금 우리는 감정과 같은
개인적인 것을 수량화 할 수 있는거죠.
07:09
and we can do it at this scale.
131
429865
2235
그리고 이런 규모로 할 수 있습니다.
07:12
So what have we learned to date?
132
432100
2177
최근까지 연구한 것은 무엇일까요?
07:15
Gender.
133
435057
2331
성별입니다.
07:17
Our data confirms something
that you might suspect.
134
437388
3646
저희 정보가 여러분이
설마하는 것을 확인시켜 줄 겁니다.
07:21
Women are more expressive than men.
135
441034
1857
여자가 남자보다 표현력이 있습니다.
07:22
Not only do they smile more,
their smiles last longer,
136
442891
2683
더 많이 웃고 더 오래 웃어요.
07:25
and we can now really quantify
what it is that men and women
137
445574
2904
우리는 수량화할 수 있어요.
여성과 남성이 다르게 반응하는 것을요.
07:28
respond to differently.
138
448478
2136
07:30
Let's do culture: So in the United States,
139
450614
2290
문화적으로는 미국에서 여성들이
남성보다 40% 더 표현력이 좋아요.
07:32
women are 40 percent
more expressive than men,
140
452904
3204
07:36
but curiously, we don't see any difference
in the U.K. between men and women.
141
456108
3645
그런데 신기하게도
영국에서는 차이가 없네요.
07:39
(Laughter)
142
459753
2506
(웃음)
07:43
Age: People who are 50 years and older
143
463296
4027
나이는요.
50대 혹은 그 이상의 사람들이
젊은 사람들보다 25% 더 감정적입니다.
07:47
are 25 percent more emotive
than younger people.
144
467323
3436
07:51
Women in their 20s smile a lot more
than men the same age,
145
471899
3852
20대 여성들은 또래 남성보다
25% 더 많이 웃습니다.
07:55
perhaps a necessity for dating.
146
475751
3839
아마 데이트를 위해 필요한 것이겠죠.
07:59
But perhaps what surprised us
the most about this data
147
479590
2617
하지만 이 자료에서 놀라운 점은
08:02
is that we happen
to be expressive all the time,
148
482207
3203
우리가 언제나 표현력이
있다는 것입니다.
08:05
even when we are sitting
in front of our devices alone,
149
485410
2833
혼자 기계 앞에 앉아 있을때도요.
08:08
and it's not just when we're watching
cat videos on Facebook.
150
488243
3274
페이스북의 고양이 영상을
볼 때 뿐만 아니라
메일을 보낼 때, 문자를 할 때,
그리고 온라인 쇼핑을 하거나
08:12
We are expressive when we're emailing,
texting, shopping online,
151
492217
3010
08:15
or even doing our taxes.
152
495227
2300
심지어 세금을 지불할 때도 표현합니다.
08:17
Where is this data used today?
153
497527
2392
오늘날 이 자료가 어디에 사용될까요?
08:19
In understanding how we engage with media,
154
499919
2763
우리가 매체와 소통하는 방법과
08:22
so understanding virality
and voting behavior;
155
502682
2484
대박영상 특징이나
투표 성향을 이해하고
08:25
and also empowering
or emotion-enabling technology,
156
505166
2740
그리고 자율권을 주거나
감정 기능 기술을 이해하는 겁니다.
08:27
and I want to share some examples
that are especially close to my heart.
157
507906
4621
제 마음에 가장 와닿는
예를 보여드리고 싶습니다.
08:33
Emotion-enabled wearable glasses
can help individuals
158
513197
3068
이 감정 기능 안경은
사람들을 돕습니다.
08:36
who are visually impaired
read the faces of others,
159
516265
3228
시각기능이 약화된 사람들이
다른 이들의 감정을 읽게 해줍니다.
08:39
and it can help individuals
on the autism spectrum interpret emotion,
160
519493
4187
또한 자폐증이 있는 사람이
감정을 해석하게 해줍니다.
08:43
something that they really struggle with.
161
523680
2778
정말로 힘들어 하는 것이지요.
08:47
In education, imagine
if your learning apps
162
527918
2859
교육에서 학습프로그램이 당신이
혼란스럽고 지쳐간다는 것을 감지하거나
08:50
sense that you're confused and slow down,
163
530777
2810
08:53
or that you're bored, so it's sped up,
164
533587
1857
또는 지루하거나, 흥분하는 것을
감지하는 걸 상상해 보세요.
08:55
just like a great teacher
would in a classroom.
165
535444
2969
교실에서 정말 좋은 선생님이
그러는 것처럼요.
08:59
What if your wristwatch tracked your mood,
166
539043
2601
손목시계가 감정을 감지한다면 어떨까요.
09:01
or your car sensed that you're tired,
167
541644
2693
자동차가 여러분이
피곤하다는 것을 안다면요.
09:04
or perhaps your fridge
knows that you're stressed,
168
544337
2548
아니면 냉장고가 당신이
스트레스를 받았다는 것을 알아서
09:06
so it auto-locks to prevent you
from binge eating. (Laughter)
169
546885
6066
냉장고가 자동으로 잠궈서
폭식을 막아 준다면요. (웃음)
전 좋을거 같아요.
09:12
I would like that, yeah.
170
552951
2717
09:15
What if, when I was in Cambridge,
171
555668
1927
제가 캠프리지에 있었을때,
09:17
I had access to my real-time
emotion stream,
172
557595
2313
이 실시간 감정 흐름에
접근할 수 있었다면 어땠을까요.
09:19
and I could share that with my family
back home in a very natural way,
173
559908
3529
고향에 가족과 공유할 수 있었을겁니다.
매우 자연스럽게
모두 같은 방에 있는 것처럼요.
09:23
just like I would've if we were all
in the same room together?
174
563437
3971
09:27
I think five years down the line,
175
567408
3142
제 생각에 5년 후에는
09:30
all our devices are going
to have an emotion chip,
176
570550
2337
모든 기계들이 감정칩을 가질겁니다.
09:32
and we won't remember what it was like
when we couldn't just frown at our device
177
572887
4064
이렇게 반응하는 기기가
어땠는지 기억도 못할 겁니다.
09:36
and our device would say, "Hmm,
you didn't like that, did you?"
178
576951
4249
기기앞에서 그저 찌푸리지만 않고
"별로 안좋으신가봐요, 그렇죠?" 하는 겁니다.
09:41
Our biggest challenge is that there are
so many applications of this technology,
179
581200
3761
가장 큰 과제는 이 기술에
많은 응용이 있다는 것입니다.
09:44
my team and I realize that we can't
build them all ourselves,
180
584961
2903
저희 팀원들은 우리가 모든 것을
만들 수 없다는 걸 깨달았습니다.
09:47
so we've made this technology available
so that other developers
181
587864
3496
그래서 다른 개발자들이 함께
이 기술을 사용할 수 있게 했습니다.
09:51
can get building and get creative.
182
591360
2114
09:53
We recognize that
there are potential risks
183
593474
4086
저희는 잠재적인 위험성과
악용의 가능성이 있음을 압니다.
09:57
and potential for abuse,
184
597560
2067
09:59
but personally, having spent
many years doing this,
185
599627
2949
그러나 개인적으로 이 일에
수년을 보낸 사람으로서
10:02
I believe that the benefits to humanity
186
602576
2972
감정 지능 기술이 인류에게 줄 혜택이
10:05
from having emotionally
intelligent technology
187
605548
2275
10:07
far outweigh the potential for misuse.
188
607823
3576
악용의 가능성보다
훨씬 크다고 믿습니다.
10:11
And I invite you all to be
part of the conversation.
189
611399
2531
여러분이 이 대화의 부분으로
참여하도록 초대했어요.
10:13
The more people who know
about this technology,
190
613930
2554
더 많은 사람들이 이 기술을 알수록
10:16
the more we can all have a voice
in how it's being used.
191
616484
3177
어떻게 사용되는지
더 많은 의견을 들을 수 있어요.
10:21
So as more and more
of our lives become digital,
192
621081
4574
점점 더 우리의 삶이 디지털화 되면서
10:25
we are fighting a losing battle
trying to curb our usage of devices
193
625655
3498
우리 감정을 되찾고자 기기사용을 억제하는
승산없는 싸움을 하고 있습니다.
10:29
in order to reclaim our emotions.
194
629153
2229
10:32
So what I'm trying to do instead
is to bring emotions into our technology
195
632622
3914
대신에 제가 시도하는 것은
감정들을 기술로 가져오는 것이에요.
10:36
and make our technologies more responsive.
196
636536
2229
기술이 보다 반응할 수 있도록 만들죠.
10:38
So I want those devices
that have separated us
197
638765
2670
우리를 갈라놓은 기계들이
10:41
to bring us back together.
198
641435
2462
우리를 재화합할 수 있게 하고 싶어요.
10:43
And by humanizing technology,
we have this golden opportunity
199
643897
4588
기술을 인간적이게 만들어서
우리는 최고의 기회를 얻었죠.
10:48
to reimagine how we
connect with machines,
200
648485
3297
어떻게 우리가 기계들과
소통하는지 재고하는 겁니다.
10:51
and therefore, how we, as human beings,
201
651782
4481
따라서 우리 인간이 다른 이들과
소통하는 방법도 재고하는 겁니다.
10:56
connect with one another.
202
656263
1904
10:58
Thank you.
203
658167
2160
감사합니다.
(박수)
11:00
(Applause)
204
660327
3313
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.