How we can teach computers to make sense of our emotions | Raphael Arar

64,579 views ・ 2018-04-24

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
번역: Sojeong KIM 검토: JY Kang
00:13
I consider myself one part artist and one part designer.
1
13760
4680
저는 저 자신을 예술가이자
디자이너라고 생각합니다.
00:18
And I work at an artificial intelligence research lab.
2
18480
3160
전 인공지능 연구소에서 일합니다.
00:22
We're trying to create technology
3
22720
1696
우리가 개발 중인 기술은
00:24
that you'll want to interact with in the far future.
4
24440
3296
먼 미래에 인간과 상호작용할 수 있는 AI입니다.
00:27
Not just six months from now, but try years and decades from now.
5
27760
4640
현재로부터 6개월이 아닌
수년, 수십 년 후를 준비하고 있습니다.
00:33
And we're taking a moonshot
6
33120
1616
우리의 획기적이고 야심 찬 목표는
00:34
that we'll want to be interacting with computers
7
34760
2456
깊이 있는 감정교류가 가능한
00:37
in deeply emotional ways.
8
37240
2120
인공지능 개발에 있습니다.
00:40
So in order to do that,
9
40280
1456
이를 위해서
00:41
the technology has to be just as much human as it is artificial.
10
41760
4480
인공지능에 인간성이 필요합니다.
00:46
It has to get you.
11
46920
2256
인간의 감정을 이해해야 하죠.
00:49
You know, like that inside joke that'll have you and your best friend
12
49200
3336
친한 친구와 배꼽이 빠지도록 웃을 수 있는
00:52
on the floor, cracking up.
13
52560
1936
둘만의 은밀한 농담도 이해하고
00:54
Or that look of disappointment that you can just smell from miles away.
14
54520
4560
상대방의 실망감을
멀리서 전해지는 분위기 만으로 눈치챌 수 있어야 합니다.
01:00
I view art as the gateway to help us bridge this gap between human and machine:
15
60560
6040
제가 보기에 예술이야말로
인간과 기계의 간극을 좁혀주는 관문입니다.
01:07
to figure out what it means to get each other
16
67280
3136
이를 통해 서로를 이해하고
01:10
so that we can train AI to get us.
17
70440
2760
AI가 인간을 제대로 이해하도록 훈련할 수 있습니다.
01:13
See, to me, art is a way to put tangible experiences
18
73920
3816
무형의 생각과 느낌, 감정에
01:17
to intangible ideas, feelings and emotions.
19
77760
3240
유형의 경험을 선사하는 방법이 예술이라고 생각합니다.
01:21
And I think it's one of the most human things about us.
20
81800
2600
감정은 사람을 가장 인간적이게 하죠.
01:25
See, we're a complicated and complex bunch.
21
85480
2936
인간은 복합적인 존재입니다.
01:28
We have what feels like an infinite range of emotions,
22
88440
3136
인간의 감정은 무한하고
01:31
and to top it off, we're all different.
23
91600
2496
무엇보다도 모든 사람이 다릅니다.
01:34
We have different family backgrounds,
24
94120
2296
개개인의 가정환경이 다르고,
01:36
different experiences and different psychologies.
25
96440
3080
경험과 심리상태도 다릅니다.
01:40
And this is what makes life really interesting.
26
100240
2720
삶이 흥미로운 이유도 이 때문입니다.
01:43
But this is also what makes working on intelligent technology
27
103440
3496
반면, 바로 이 점이 인공지능 기술 개발을
01:46
extremely difficult.
28
106960
1600
매우 어렵게 만듭니다.
01:49
And right now, AI research, well,
29
109640
3456
현재 AI 연구는
01:53
it's a bit lopsided on the tech side.
30
113120
2016
기술 측면으로 치우친 편입니다.
01:55
And that makes a lot of sense.
31
115160
2136
물론 타당한 이유가 있습니다.
01:57
See, for every qualitative thing about us --
32
117320
2456
그러니까 인간의 질적인 면모인
01:59
you know, those parts of us that are emotional, dynamic and subjective --
33
119800
4456
감정적, 역동적이며 주관적인 자질을
02:04
we have to convert it to a quantitative metric:
34
124280
3136
측정 가능한 형태로 변환해야 하기 때문입니다.
02:07
something that can be represented with facts, figures and computer code.
35
127440
4360
실체화, 수치화하거나 프로그래밍 언어로 구현해야 하죠.
02:13
The issue is, there are many qualitative things
36
133000
3376
그런데 문제는
도무지 손댈 수 없는 정성적 요소가 많다는 것이죠.
02:16
that we just can't put our finger on.
37
136400
1960
02:20
So, think about hearing your favorite song for the first time.
38
140400
3200
좋아하는 노래를 처음 들었던 순간을 떠올려봅시다.
02:25
What were you doing?
39
145200
1200
무엇을 하고 있었나요?
02:28
How did you feel?
40
148000
1200
기분이 어땠나요?
02:30
Did you get goosebumps?
41
150720
1360
닭살이 돋았나요?
02:33
Or did you get fired up?
42
153240
1640
감정이 북받쳤나요?
02:36
Hard to describe, right?
43
156400
1200
형언하기 어렵지 않나요?
02:38
See, parts of us feel so simple,
44
158800
2096
단순한 감정이라 할지라도
02:40
but under the surface, there's really a ton of complexity.
45
160920
3656
그 이면에는 굉장히 복합적인 감정이 깔려습니다.
02:44
And translating that complexity to machines
46
164600
2936
그 복합성을 기계로 옮기는 작업은
02:47
is what makes them modern-day moonshots.
47
167560
2856
현대의 꿈같은 계획일 수밖에 없습니다.
02:50
And I'm not convinced that we can answer these deeper questions
48
170440
4176
솔직히 저는 이 심오한 질문에 대해
0과 1로 대답할 수 있을지 확신이 들지 않아요.
02:54
with just ones and zeros alone.
49
174640
1480
02:57
So, in the lab, I've been creating art
50
177120
1936
그래서 저는
더 나은 경험을 선사하는 최첨단 기술을 설계하기 위해
02:59
as a way to help me design better experiences
51
179080
2456
03:01
for bleeding-edge technology.
52
181560
2096
예술 창작을 연구해왔습니다.
03:03
And it's been serving as a catalyst
53
183680
1736
예술은 기술과 인간을 잇는 촉매제로서
03:05
to beef up the more human ways that computers can relate to us.
54
185440
3840
컴퓨터의 인간적 면모를 채워주는 역할을 했습니다.
03:10
Through art, we're tacking some of the hardest questions,
55
190000
2696
예술을 통해 가장 어려운 질문에 다가갈 수 있습니다.
03:12
like what does it really mean to feel?
56
192720
2360
느낌이란 무엇을 뜻하는가?
03:16
Or how do we engage and know how to be present with each other?
57
196120
4080
관계를 맺고 서로를 위해 어떻게 존재할 수 있을까?
03:20
And how does intuition affect the way that we interact?
58
200800
4000
그리고..
직감은 상호작용에 어떤 영향을 줄까?
03:26
So, take for example human emotion.
59
206440
2056
인간의 감정을 예를 들어봅시다.
03:28
Right now, computers can make sense of our most basic ones,
60
208520
3256
현재 인공지능은 인간의 기초적 감정이라 할 수 있는
03:31
like joy, sadness, anger, fear and disgust,
61
211800
3696
기쁨, 슬픔, 화, 두려움, 혐오를
03:35
by converting those characteristics to math.
62
215520
3000
수학적으로 변환하여 이해합니다.
03:39
But what about the more complex emotions?
63
219400
2536
더 복잡미묘한 감정은 어떨까요?
03:41
You know, those emotions
64
221960
1216
말로 설명하기 어려운 감정들 말이지요.
03:43
that we have a hard time describing to each other?
65
223200
2376
03:45
Like nostalgia.
66
225600
1440
예를 들어, '그리움' 같은 거죠.
03:47
So, to explore this, I created a piece of art, an experience,
67
227640
3936
'그리움'의 감정을 살펴보기 위해 저희는 예술 작품 하나를 만들고
03:51
that asked people to share a memory,
68
231600
2096
사람들이 어떤 기억을 떠올리는지 물었습니다.
03:53
and I teamed up with some data scientists
69
233720
2136
몇몇 데이터 과학자들과 팀을 이루어
03:55
to figure out how to take an emotion that's so highly subjective
70
235880
3576
매우 주관적인 그리움의 감정을
03:59
and convert it into something mathematically precise.
71
239480
3200
수학적으로 정확하게 변환할 방법을 알아냈습니다.
04:03
So, we created what we call a nostalgia score
72
243840
2136
우리는 예술장치의 핵심인 '그리움 점수'를 만들었습니다.
04:06
and it's the heart of this installation.
73
246000
2216
04:08
To do that, the installation asks you to share a story,
74
248240
3056
예술장치가 당신에게 추억 이야기를 들려달라고 청합니다.
04:11
the computer then analyzes it for its simpler emotions,
75
251320
3256
컴퓨터는 이야기를 분석하여 더 간단한 감정으로 정리하고
04:14
it checks for your tendency to use past-tense wording
76
254600
2656
당신이 과거시제를 사용하는 경향을 확인합니다.
04:17
and also looks for words that we tend to associate with nostalgia,
77
257280
3336
'그리움'을 떠올릴 때 함께 쓰는
04:20
like "home," "childhood" and "the past."
78
260640
3040
"집", "어린 시절", "과거" 등의 연관 단어도 확인하지요.
04:24
It then creates a nostalgia score
79
264760
2056
그 후 그리움 점수가 나타납니다.
04:26
to indicate how nostalgic your story is.
80
266840
2736
이렇게 과거를 그리워하는 정도를 파악할 수 있죠.
04:29
And that score is the driving force behind these light-based sculptures
81
269600
4136
빛을 소재로 한 이 작품은 그 점수에 따라 만들어집니다.
04:33
that serve as physical embodiments of your contribution.
82
273760
3896
여러분의 참여로 감정이 물리적으로 구현되는 것이죠.
04:37
And the higher the score, the rosier the hue.
83
277680
3216
그리움 점수가 높을수록 더욱 장밋빛 색조를 띄게 됩니다.
04:40
You know, like looking at the world through rose-colored glasses.
84
280920
3936
장밋빛 안경으로 세상을 바라보듯 말이죠.
04:44
So, when you see your score
85
284880
2616
그리움 점수와 함께
04:47
and the physical representation of it,
86
287520
2656
물리적으로 표현된 결과를 보며
04:50
sometimes you'd agree and sometimes you wouldn't.
87
290200
2936
우리는 때로는 동의하고 때로는 동의하지 않습니다.
04:53
It's as if it really understood how that experience made you feel.
88
293160
3480
우리의 감정을 정말 이해한 듯 보일 때도 있습니다.
04:57
But other times it gets tripped up
89
297400
2216
그러나 헛다리를 짚고
04:59
and has you thinking it doesn't understand you at all.
90
299640
2560
당신을 전혀 이해하지 못할 때도 있습니다.
05:02
But the piece really serves to show
91
302680
1896
이 작품이 우리에게 말하는 것은
05:04
that if we have a hard time explaining the emotions that we have to each other,
92
304600
4056
우리도 설명하기 어려운 감정들을
05:08
how can we teach a computer to make sense of them?
93
308680
2360
어떻게 컴퓨터가 이해할 수 있도록 가르치냐의 문제입니다.
05:12
So, even the more objective parts about being human are hard to describe.
94
312360
3576
객관적인 영역도 설명하기 어렵긴 마찬가지입니다.
05:15
Like, conversation.
95
315960
1240
예를 들어, 대화를 봅시다.
05:17
Have you ever really tried to break down the steps?
96
317880
2736
대화법을 분석해보신 적 있나요?
05:20
So think about sitting with your friend at a coffee shop
97
320640
2656
카페에서 친구와 수다를 떠는 상황을 생각해보세요.
05:23
and just having small talk.
98
323320
1320
05:25
How do you know when to take a turn?
99
325160
1720
자신이 말할 차례를 어떻게 아시나요?
05:27
How do you know when to shift topics?
100
327440
1840
주제를 바꿔야 할 타이밍은요?
05:29
And how do you even know what topics to discuss?
101
329960
2720
어떤 주제로 이야기할지는 어떻게 알죠?
05:33
See, most of us don't really think about it,
102
333560
2096
대다수 사람들은 이런 걸 생각하지 않습니다.
05:35
because it's almost second nature.
103
335680
1656
제2의 천성에 가깝기 때문이죠.
05:37
And when we get to know someone, we learn more about what makes them tick,
104
337360
3496
우리는 누군가를 만나면 상대방의 행동을 살핍니다.
05:40
and then we learn what topics we can discuss.
105
340880
2376
그리고 토론할만한 주제가 무엇인지 파악합니다.
05:43
But when it comes to teaching AI systems how to interact with people,
106
343280
3656
그러나 인공지능을 상대로 인간과 교감하는 법을 가르칠 때는
05:46
we have to teach them step by step what to do.
107
346960
2856
해야 할 일을 단계적으로 가르쳐야 해요.
05:49
And right now, it feels clunky.
108
349840
3496
현재 AI는 투박한 감이 있어요.
05:53
If you've ever tried to talk with Alexa, Siri or Google Assistant,
109
353360
4136
알렉사, 시리, 구글 어시스턴트와 대화해본 적 있으시다면
05:57
you can tell that it or they can still sound cold.
110
357520
4200
차갑다는 인상을 받으셨을 겁니다.
06:02
And have you ever gotten annoyed
111
362440
1656
AI에 음악 재생을 명령했는데
06:04
when they didn't understand what you were saying
112
364120
2256
말을 못 알아듣는 탓에
06:06
and you had to rephrase what you wanted 20 times just to play a song?
113
366400
3840
20번이나 다시 말하여 짜증 났던 기억이 있으신가요?
06:11
Alright, to the credit of the designers, realistic communication is really hard.
114
371440
4896
디자이너를 대변하자면, 현실적인 의사소통 구현은 정말 어렵습니다.
06:16
And there's a whole branch of sociology,
115
376360
2136
실제로 사회학 분야의 하나인 대화 분석 분야에서는
06:18
called conversation analysis,
116
378520
1936
06:20
that tries to make blueprints for different types of conversation.
117
380480
3136
다양한 대화 유형의 구조를 청사진으로 보여줍니다.
06:23
Types like customer service or counseling, teaching and others.
118
383640
4080
고객 서비스, 상담, 교육 등의 대화 유형을 분석하죠.
06:28
I've been collaborating with a conversation analyst at the lab
119
388880
2936
저는 저희 연구실의 대화 분석가와 협업하며
06:31
to try to help our AI systems hold more human-sounding conversations.
120
391840
4696
인간에 가깝게 대화할 수 있는 AI를 개발하고 있습니다.
06:36
This way, when you have an interaction with a chatbot on your phone
121
396560
3176
스마트폰의 챗봇을 이용하거나
06:39
or a voice-based system in the car,
122
399760
1856
차량의 음성기반 시스템과 대화할 때
06:41
it sounds a little more human and less cold and disjointed.
123
401640
3320
좀 더 인간에 가깝게 일관성 있고, 덜 차갑게 말하도록 하려는 것입니다.
06:46
So I created a piece of art
124
406360
1336
따라서 저는 AI의 기계적이고 투박한 면을 부각시킨 작품을 만들어서
06:47
that tries to highlight the robotic, clunky interaction
125
407720
2816
06:50
to help us understand, as designers,
126
410560
1976
AI의 말이 부자연스러운 이유를 디자이너의 관점에서 이해하고
06:52
why it doesn't sound human yet and, well, what we can do about it.
127
412560
4576
개선 방안을 생각해보고자 했습니다.
06:57
The piece is called Bot to Bot
128
417160
1456
이 작품은 봇투봇(Bot to Bot)입니다.
06:58
and it puts one conversational system against another
129
418640
2936
두 개의 대화 시스템이 서로 대화하도록 하고
07:01
and then exposes it to the general public.
130
421600
2536
이 과정을 일반 대중에게 공개합니다.
07:04
And what ends up happening is that you get something
131
424160
2496
결국, 여기서 확인할 수 있는 것은
07:06
that tries to mimic human conversation,
132
426680
1896
인간의 대화를 모방하고 있지만
07:08
but falls short.
133
428600
1896
어디인지 미흡한 대화입니다.
07:10
Sometimes it works and sometimes it gets into these, well,
134
430520
2736
때에 따라 자연스러울 때도 있지만
07:13
loops of misunderstanding.
135
433280
1536
오해의 늪에 빠지기도 합니다.
07:14
So even though the machine-to-machine conversation can make sense,
136
434840
3096
기계 대 기계의 대화는
07:17
grammatically and colloquially,
137
437960
2016
문법, 회화적인 측면에서 자연스러워도
07:20
it can still end up feeling cold and robotic.
138
440000
3216
여전히 기계적이고 차가울 수 있습니다.
07:23
And despite checking all the boxes, the dialogue lacks soul
139
443240
4016
이론적으로 성립되어도
대화에는 여전히 영혼이 없고
07:27
and those one-off quirks that make each of us who we are.
140
447280
3136
인간만이 가지는 유일한 특징이 빠져 있죠.
07:30
So while it might be grammatically correct
141
450440
2056
따라서 문법적으로 정확하고
07:32
and uses all the right hashtags and emojis,
142
452520
2656
정확한 해시 태그와 이모티콘을 사용해도
07:35
it can end up sounding mechanical and, well, a little creepy.
143
455200
4136
여전히 기계적이고, 심지어 오싹하게 들리기도 합니다.
07:39
And we call this the uncanny valley.
144
459360
2336
이를 '불쾌한 골짜기'라고 부릅니다.
07:41
You know, that creepiness factor of tech
145
461720
1936
인간과 매우 유사하지만 약간의 차이로 인해서 느껴지는
07:43
where it's close to human but just slightly off.
146
463680
2856
오싹한 거부감을 의미하죠.
07:46
And the piece will start being
147
466560
1456
이 작품을 통해서 대화 속의 인간성을 체험하고
07:48
one way that we test for the humanness of a conversation
148
468040
3216
07:51
and the parts that get lost in translation.
149
471280
2160
통역할 수 없는 비언어적 요소를 알 수 있습니다.
07:54
So there are other things that get lost in translation, too,
150
474560
2856
통역할 수 없는 부분이 또 있습니다.
07:57
like human intuition.
151
477440
1616
인간의 직관력이죠.
07:59
Right now, computers are gaining more autonomy.
152
479080
2776
현재 컴퓨터는 더 큰 자율권을 갖습니다.
08:01
They can take care of things for us,
153
481880
1736
인간을 위해 자체적으로 판단을 내리기도 해요.
08:03
like change the temperature of our houses based on our preferences
154
483640
3176
평소 선호도를 파악하여 집 안 온도를 바꾸거나
08:06
and even help us drive on the freeway.
155
486840
2160
고속도로 주행을 돕기도 합니다.
08:09
But there are things that you and I do in person
156
489560
2496
그러나 사람 사이에 일대일로 이루어지는 행위는
08:12
that are really difficult to translate to AI.
157
492080
2760
AI에게 가르치기가 어렵습니다.
08:15
So think about the last time that you saw an old classmate or coworker.
158
495440
4360
동창과 옛 동료를 마지막으로 만났을 때를 떠올려보세요.
08:21
Did you give them a hug or go in for a handshake?
159
501080
2480
그들과 포옹을 했나요? 아니면 악수를 했나요?
08:24
You probably didn't think twice
160
504800
1496
두 번 생각하지 않으셨을 겁니다.
08:26
because you've had so many built up experiences
161
506320
2336
이미 축적된 경험이 있기 때문에
08:28
that had you do one or the other.
162
508680
2000
자연스럽게 둘 중 하나를 선택했을 테니까요.
08:31
And as an artist, I feel that access to one's intuition,
163
511440
3456
예술가의 입장에서 볼 때
인간의 직감을 이용하고 무의식적 자각의 영역에 접근하는 것이
08:34
your unconscious knowing,
164
514920
1416
08:36
is what helps us create amazing things.
165
516360
3056
놀라운 창조를 이끈다고 생각합니다.
08:39
Big ideas, from that abstract, nonlinear place in our consciousness
166
519440
4056
모든 경험의 총집합인 비선형 세계의 추상성에서
08:43
that is the culmination of all of our experiences.
167
523520
2960
위대한 발상들이 출발합니다.
08:47
And if we want computers to relate to us and help amplify our creative abilities,
168
527840
4656
컴퓨터와 인간을 연계하여 창의력을 확장하고 싶다면
08:52
I feel that we'll need to start thinking about how to make computers be intuitive.
169
532520
3896
직관적인 컴퓨터를 개발할 방법을 고안해야 합니다.
08:56
So I wanted to explore how something like human intuition
170
536440
3096
저는 직감과 같은 인간의 특징이
08:59
could be directly translated to artificial intelligence.
171
539560
3456
어떻게 직접 인공지능에 반영되는지 알고 싶었습니다.
09:03
And I created a piece that explores computer-based intuition
172
543040
3216
그래서 실제 공간에서 컴퓨터 직관을 탐구할 수 있는
09:06
in a physical space.
173
546280
1320
작품을 만들었습니다.
09:08
The piece is called Wayfinding,
174
548480
1696
웨이파인딩(Wayfinding)입니다.
09:10
and it's set up as a symbolic compass that has four kinetic sculptures.
175
550200
3936
움직이는 4개의 조각상으로 된 상징적 나침반인데요.
09:14
Each one represents a direction,
176
554160
2056
각각의 조각은 동서남북의 일정한 방향을 나타냅니다.
09:16
north, east, south and west.
177
556240
2120
09:19
And there are sensors set up on the top of each sculpture
178
559080
2696
조각 상단에는 감지 센서가 탑재되어 있어
09:21
that capture how far away you are from them.
179
561800
2256
사람이 떨어져 있는 거리를 파악합니다.
09:24
And the data that gets collected
180
564080
1816
자료가 수집되면
09:25
ends up changing the way that sculptures move
181
565920
2136
조각이 움직이는 방향이 바뀌고
09:28
and the direction of the compass.
182
568080
2040
결국 나침반의 방향도 달라집니다.
09:31
The thing is, the piece doesn't work like the automatic door sensor
183
571360
3656
이 설치물의 각각의 조각은 사람이 걸어들어올 때 열리는
09:35
that just opens when you walk in front of it.
184
575040
2656
자동문 센서처럼 작동하지 않습니다.
09:37
See, your contribution is only a part of its collection of lived experiences.
185
577720
5056
여러분의 참여는 총체적 체험의 일부입니다.
09:42
And all of those experiences affect the way that it moves.
186
582800
4056
축적된 모든 경험이 방향 결정에 영향을 줍니다.
09:46
So when you walk in front of it,
187
586880
1736
그래서 누군가 그 앞을 지나가면
09:48
it starts to use all of the data
188
588640
1976
전시 기간 동안 축적된 모든 데이터를 이용하거나
09:50
that it's captured throughout its exhibition history --
189
590640
2616
09:53
or its intuition --
190
593280
1816
직감을 발휘하여
09:55
to mechanically respond to you based on what it's learned from others.
191
595120
3560
그동안 습득한 체험에 바탕을 둔 기계적 반응을 보이게 되죠.
09:59
And what ends up happening is that as participants
192
599480
2536
이 체험에 참여한 사람들은
10:02
we start to learn the level of detail that we need
193
602040
2816
예측을 관리하기 위해
정밀한 과정이 필요하다는 점을 이해하게 됩니다.
10:04
in order to manage expectations
194
604880
2016
10:06
from both humans and machines.
195
606920
2776
인간과 기계 모두에 해당하죠.
10:09
We can almost see our intuition being played out on the computer,
196
609720
3616
컴퓨터가 인간의 직관을 실행하고 있음을 확인하고
10:13
picturing all of that data being processed in our mind's eye.
197
613360
3600
마음속에서 모든 데이터가 처리되고 있음을 알 수 있습니다.
10:17
My hope is that this type of art
198
617560
1656
저는 이런 유형의 예술을 접함으로써 우리가 직관에 대해 다르게 생각하고
10:19
will help us think differently about intuition
199
619240
2416
10:21
and how to apply that to AI in the future.
200
621680
2280
이를 미래의 AI에 적용하기를 바랍니다.
10:24
So these are just a few examples of how I'm using art to feed into my work
201
624480
3936
인공지능 디자이너이자 연구원으로
예술을 활용한 연구 사례 몇 가지를 말씀드렸습니다.
10:28
as a designer and researcher of artificial intelligence.
202
628440
3096
10:31
And I see it as a crucial way to move innovation forward.
203
631560
3496
저는 이 방법이 혁신으로 나아가는 중요한 길이라 믿습니다.
현재 AI에 대한 극단적인 생각들이 많이 자리 잡고 있죠.
10:35
Because right now, there are a lot of extremes when it comes to AI.
204
635080
4376
10:39
Popular movies show it as this destructive force
205
639480
2816
인기 영화는 AI의 파괴력을 강조하고
10:42
while commercials are showing it as a savior
206
642320
3056
광고는 AI가 마치 구세주라도 된 듯
10:45
to solve some of the world's most complex problems.
207
645400
2936
세계의 복잡한 문제를 해결할 것이라 말합니다.
10:48
But regardless of where you stand,
208
648360
2536
하지만 우리가 어디에 있든
10:50
it's hard to deny that we're living in a world
209
650920
2176
매 순간 더욱 디지털화하는
세상 속에 살고 있음을 부정하기는 어렵습니다.
10:53
that's becoming more and more digital by the second.
210
653120
2576
10:55
Our lives revolve around our devices, smart appliances and more.
211
655720
4600
기계, 스마트 기기를 중심으로 삶이 돌아가고 있습니다.
11:01
And I don't think this will let up any time soon.
212
661400
2320
당분간 이 추세가 누그러질 것 같지 않고요.
11:04
So, I'm trying to embed more humanness from the start.
213
664400
3736
저는 시작 단계에서부터 더 많은 인간성을 부여하고자 합니다.
11:08
And I have a hunch that bringing art into an AI research process
214
668160
5136
그리고 예술을 통한 AI 연구가
이 목표를 실현할 방법이라는 예감이 듭니다.
11:13
is a way to do just that.
215
673320
1896
11:15
Thank you.
216
675240
1216
감사합니다.
11:16
(Applause)
217
676480
2280
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7