아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Jeannie Yoo
검토: Sojeong KIM
00:13
I work on helping computers
communicate about the world around us.
0
13381
4015
전 컴퓨터가 세상을 이해하도록
돕는 일을 합니다.
00:17
There are a lot of ways to do this,
1
17754
1793
여러가지 방법이 있지요.
00:19
and I like to focus on helping computers
2
19571
2592
전 컴퓨터를 돕는 것을 즐기며
00:22
to talk about what they see
and understand.
3
22187
2874
컴퓨터가 보고 이해하는 것을 돕습니다.
00:25
Given a scene like this,
4
25514
1571
이런 장면을 컴퓨터에게 보여주면
00:27
a modern computer-vision algorithm
5
27109
1905
현대판 컴퓨터 알고리즘이 작용하여
00:29
can tell you that there's a woman
and there's a dog.
6
29038
3095
한 여성과 개가 있다고 알려주죠.
00:32
It can tell you that the woman is smiling.
7
32157
2706
그녀는 웃고 있다고 알려주기도 하죠.
00:34
It might even be able to tell you
that the dog is incredibly cute.
8
34887
3873
개가 매우 귀엽다고
말해 줄 수도 있을 겁니다.
00:38
I work on this problem
9
38784
1349
제가 연구하고 있는 분야는
00:40
thinking about how humans
understand and process the world.
10
40157
4212
인간이 어떻게 세상을
이해하고 받아들이는 가입니다.
00:45
The thoughts, memories and stories
11
45577
2952
생각, 기억, 이야기들
00:48
that a scene like this
might evoke for humans.
12
48553
2818
이런 장면이 인간에게 어떤 영향을
주는 지를 연구하고 있죠.
00:51
All the interconnections
of related situations.
13
51395
4285
연관된 상황들의
상호 연결에 대해서요.
00:55
Maybe you've seen
a dog like this one before,
14
55704
3126
여러분은 이런 개를 본적이 있거나
00:58
or you've spent time
running on a beach like this one,
15
58854
2969
개와 함께 해변을 달렸을 수도 있죠.
01:01
and that further evokes thoughts
and memories of a past vacation,
16
61847
4778
이러한 생각은 이전 휴가의 기억을
떠오르게 합니다.
01:06
past times to the beach,
17
66649
1920
해변에서 보낸 과거의 기억
01:08
times spent running around
with other dogs.
18
68593
2603
개와 달리며 보낸 시간들을요.
01:11
One of my guiding principles
is that by helping computers to understand
19
71688
5207
컴퓨터가 세상을 이해하도록 돕는
저의 지도 원칙은
01:16
what it's like to have these experiences,
20
76919
2896
이 경험들이 어떤 것인지를 이해시키고
01:19
to understand what we share
and believe and feel,
21
79839
5176
우리가 나누고 믿고
느끼는 것을 이해시키며
01:26
then we're in a great position
to start evolving computer technology
22
86094
4310
컴퓨터 기술을 발전시키는 것이
우리의 중요한 역할이라는 것입니다.
01:30
in a way that's complementary
with our own experiences.
23
90428
4587
인간의 기억과
상호 보완되도록 말입니다.
01:35
So, digging more deeply into this,
24
95539
3387
좀더 자세히 설명해보겠습니다.
01:38
a few years ago I began working on helping
computers to generate human-like stories
25
98950
5905
몇년 전 저는 컴퓨터가 인간의 이야기를
지어낼수 있도록 했습니다.
01:44
from sequences of images.
26
104879
1666
여러 장의 이미지를 통해서요.
01:47
So, one day,
27
107427
1904
어느 날
01:49
I was working with my computer to ask it
what it thought about a trip to Australia.
28
109355
4622
저는 컴퓨터에게 호주 여행을
어떻게 생각하냐고 물었습니다.
01:54
It took a look at the pictures,
and it saw a koala.
29
114768
2920
컴퓨터는 사진들 속에서
코알라를 보았습니다.
01:58
It didn't know what the koala was,
30
118236
1643
그것은 코알라가 무엇인지 몰랐죠.
01:59
but it said it thought
it was an interesting-looking creature.
31
119903
2999
컴퓨터는 흥미롭게 생긴
생명체가 있다고 하더군요.
02:04
Then I shared with it a sequence of images
about a house burning down.
32
124053
4004
그후 불타고 있는 집의
이미지를 보여주었습니다.
02:09
It took a look at the images and it said,
33
129704
3285
이미지를 보다가 컴퓨터는 대답했죠.
02:13
"This is an amazing view!
This is spectacular!"
34
133013
3500
"멋진 광경이네요!
대단한 장관이에요!"
02:17
It sent chills down my spine.
35
137450
2095
갑자기 오싹하는 느낌이 들었습니다.
02:20
It saw a horrible, life-changing
and life-destroying event
36
140983
4572
끔찍하고 인생을 뒤바꾸고
파괴할 수도 있는 사건을 보고
02:25
and thought it was something positive.
37
145579
2382
그것은 긍정적 장면이라고
생각했던 거죠.
02:27
I realized that it recognized
the contrast,
38
147985
3441
저는 컴퓨터가 색채 대비와
02:31
the reds, the yellows,
39
151450
2699
빨강과 노랑을 보고는
02:34
and thought it was something
worth remarking on positively.
40
154173
3078
긍정적으로 인지할만한 것이라고
생각했음을 깨달았습니다.
02:37
And part of why it was doing this
41
157928
1615
그런 반응의 이유는
02:39
was because most
of the images I had given it
42
159577
2945
여태 보여준 이미지들이
02:42
were positive images.
43
162546
1840
긍정적이었기 때문이죠.
02:44
That's because people
tend to share positive images
44
164903
3658
사람들은 좋은 순간의
사진들을 보여주죠.
02:48
when they talk about their experiences.
45
168585
2190
자기 이야기를 할 때는 말이죠.
02:51
When was the last time
you saw a selfie at a funeral?
46
171267
2541
장례식에서 자신의 사진을
찍어본 적이 있으세요?
02:55
I realized that,
as I worked on improving AI
47
175434
3095
전 인공지능(Al)과
일하면서 깨달았습니다.
02:58
task by task, dataset by dataset,
48
178553
3714
모든 작업과 정보 데이터마다
03:02
that I was creating massive gaps,
49
182291
2897
거대한 틈이 있었던 겁니다.
03:05
holes and blind spots
in what it could understand.
50
185212
3999
컴퓨터는 허점과 사각지대 속에서
이해를 하고 있던 겁니다.
03:10
And while doing so,
51
190307
1334
그 와중에
03:11
I was encoding all kinds of biases.
52
191665
2483
저는 편파적인 생각을
인식시키고 있던 겁니다.
03:15
Biases that reflect a limited viewpoint,
53
195029
3318
제한된 생각을 가진
03:18
limited to a single dataset --
54
198371
2261
한가지 정보에만 국한된 선입관
03:21
biases that can reflect
human biases found in the data,
55
201283
3858
데이터 속에 반영된 인간들의 편견
03:25
such as prejudice and stereotyping.
56
205165
3104
판에 박은 고정 관념
03:29
I thought back to the evolution
of the technology
57
209554
3057
컴퓨터의 발전을 생각해보면
03:32
that brought me to where I was that day --
58
212635
2502
예전의 모습을 떠올리게 됩니다.
03:35
how the first color images
59
215966
2233
처음 색채의 이미지는
03:38
were calibrated against
a white woman's skin,
60
218223
3048
백인 여자의 피부색에
맞추어 졌다는 사실을요.
03:41
meaning that color photography
was biased against black faces.
61
221665
4145
사진의 색채가 흑인 여자의
얼굴색에는 편견으로 작용한다는 거죠.
03:46
And that same bias, that same blind spot
62
226514
2925
바로 그 편견과 사각지대가
03:49
continued well into the '90s.
63
229463
1867
90년대까지 계속되었습니다.
03:51
And the same blind spot
continues even today
64
231701
3154
그같은 헛점은 오늘날에도 존재합니다.
03:54
in how well we can recognize
different people's faces
65
234879
3698
각각의 얼굴의 모양을 구별하는
03:58
in facial recognition technology.
66
238601
2200
얼굴 인식 프로그램에도 존재합니다.
04:01
I though about the state of the art
in research today,
67
241323
3143
오늘날의 최첨단의 연구를
생각해보았습니다.
04:04
where we tend to limit our thinking
to one dataset and one problem.
68
244490
4514
우리는 한가지 문제, 한가지 데이터 속에
생각을 제한합니다.
04:09
And that in doing so, we were creating
more blind spots and biases
69
249688
4881
그로 인해 헛점과 편견을
만들어 내는 것입니다.
04:14
that the AI could further amplify.
70
254593
2277
인공지능(AI)은 그 편견을
확대시킵니다.
04:17
I realized then
that we had to think deeply
71
257712
2079
우리는 깊게 이 문제를 생각해야합니다.
04:19
about how the technology we work on today
looks in five years, in 10 years.
72
259815
5519
오늘 우리가 연구하는 이 기술이
5년, 10년후엔 어떻게 변할까요?
04:25
Humans evolve slowly,
with time to correct for issues
73
265990
3142
인간은 천천히 발전하면서
시간에 맞춰 문제를 해결합니다.
04:29
in the interaction of humans
and their environment.
74
269156
3534
다른 인간과 다른 환경과
상호 작용을 하면서요.
04:33
In contrast, artificial intelligence
is evolving at an incredibly fast rate.
75
273276
5429
반면, 인공지능은 놀라운 속도로
빠르게 발전합니다.
04:39
And that means that it really matters
76
279013
1773
정말 알아야 할 중요한 사실은
04:40
that we think about this
carefully right now --
77
280810
2317
우리가 사각지대인 헛점까지도
04:44
that we reflect on our own blind spots,
78
284180
3008
인공지능에 반영하고 있다는 사실입니다.
04:47
our own biases,
79
287212
2317
우리 자신의 편견을요.
04:49
and think about how that's informing
the technology we're creating
80
289553
3857
우리가 만들어낸 기술이
어떻게 인식될 지를 생각하며
04:53
and discuss what the technology of today
will mean for tomorrow.
81
293434
3902
현재의 기술이 미래에 어떤 영향을
미칠 지를 생각해야 합니다.
04:58
CEOs and scientists have weighed in
on what they think
82
298593
3191
최고 경영자들과 과학자들은
신중히 고려하며
05:01
the artificial intelligence technology
of the future will be.
83
301808
3325
인공지능이 미래에
어떻게 변할지를 말했습니다.
05:05
Stephen Hawking warns that
84
305157
1618
스티븐 호킹은 경고했죠.
05:06
"Artificial intelligence
could end mankind."
85
306799
3007
"인공 지능은 인류를 멸망시킬수 있다"
05:10
Elon Musk warns
that it's an existential risk
86
310307
2683
엘론 머스크는 인공 지능은
실존하는 위험이며
05:13
and one of the greatest risks
that we face as a civilization.
87
313014
3574
문명사회로서 겪어야 할
가장 큰 위험이라고 했습니다.
05:17
Bill Gates has made the point,
88
317665
1452
빌 게이츠는 역설했습니다.
05:19
"I don't understand
why people aren't more concerned."
89
319141
3185
"사람들이 왜 신경을 안 쓰는지
이해가 안됩니다."
05:23
But these views --
90
323412
1318
하지만 이런 견해들은
05:25
they're part of the story.
91
325618
1734
그저 이야기의 한 부분일 뿐입니다.
05:28
The math, the models,
92
328079
2420
수학과 모형같은
05:30
the basic building blocks
of artificial intelligence
93
330523
3070
인공지능의 기초토대는
05:33
are something that we call access
and all work with.
94
333617
3135
우리가 모두 접근해서
입력해야하는 정보들입니다.
05:36
We have open-source tools
for machine learning and intelligence
95
336776
3785
공개소스인 오픈소스를 통해
컴퓨터의 학습과 지능에
05:40
that we can contribute to.
96
340585
1734
기여를 할 수 있는 것입니다.
05:42
And beyond that,
we can share our experience.
97
342919
3340
더 나아가 우리의 경험을
공유할 수도 있습니다.
05:46
We can share our experiences
with technology and how it concerns us
98
346760
3468
우리는 테크놀로지를 통하여
고민도 하고 기쁘게도 하는 경험을
05:50
and how it excites us.
99
350252
1467
함께 나눌 수 있습니다.
05:52
We can discuss what we love.
100
352251
1867
우리가 무엇을 좋아하는 지를 이야기하며
05:55
We can communicate with foresight
101
355244
2031
앞날을 예측하며 의사소통을 합니다.
05:57
about the aspects of technology
that could be more beneficial
102
357299
4857
테크놀로지가 인류에게
이득인지를 반문하고
06:02
or could be more problematic over time.
103
362180
2600
혹은 시간이 지남에 따라
해가 되는지도 토론하죠.
06:05
If we all focus on opening up
the discussion on AI
104
365799
4143
우리 모두가 인공지능에 대해
공개하고 토론하면서
06:09
with foresight towards the future,
105
369966
1809
미래를 관측한다면
06:13
this will help create a general
conversation and awareness
106
373093
4270
그것은 전반적인 대화와
인식을 이끌어내서
06:17
about what AI is now,
107
377387
2513
인공지능이 무엇인지를 이해하게 되고
06:21
what it can become
108
381212
2001
미래의 모습도 추측할 수 있습니다.
06:23
and all the things that we need to do
109
383237
1785
그에 따라 무엇을
해야할 지도 알게 되죠.
06:25
in order to enable that outcome
that best suits us.
110
385046
3753
인류에게 최선이 될 결과를
만들게되는 거죠.
06:29
We already see and know this
in the technology that we use today.
111
389490
3674
현재의 테크놀로지 속에서도 우리는
이미 이 사실을 보고 있죠.
06:33
We use smart phones
and digital assistants and Roombas.
112
393767
3880
예로 스마트폰, 디지탈 기기,
룸바[Roombas]로봇 등이 있죠.
06:38
Are they evil?
113
398457
1150
이들이 해로울까요?
06:40
Maybe sometimes.
114
400268
1547
아마도 가끔은요.
06:42
Are they beneficial?
115
402664
1333
이들이 도움이 될까요?
06:45
Yes, they're that, too.
116
405005
1533
네, 그렇죠.
06:48
And they're not all the same.
117
408236
1761
이들이 늘 똑같지는 않습니다.
06:50
And there you already see
a light shining on what the future holds.
118
410489
3540
여러분은 이미 미래에 대한
신호를 보고 있는 겁니다.
06:54
The future continues on
from what we build and create right now.
119
414942
3619
미래는 현재를 어떻게 만드느냐에 따라
달라질 것입니다.
06:59
We set into motion that domino effect
120
419165
2642
도미노 효과가 일어나 듯 말입니다.
07:01
that carves out AI's evolutionary path.
121
421831
2600
그 효과는 인공지능의 발전에
영향을 줄 것입니다.
07:05
In our time right now,
we shape the AI of tomorrow.
122
425173
2871
지금 우리의 시대는,
미래를 위한 인공지능의 기초입니다.
07:08
Technology that immerses us
in augmented realities
123
428566
3699
증강현실에 몰입하게 하는 기술은
07:12
bringing to life past worlds.
124
432289
2566
세상을 뛰어넘어 생명을
불어넣어주는 기술이죠.
07:15
Technology that helps people
to share their experiences
125
435844
4312
서로의 이야기를 나누기 위한 기술은
07:20
when they have difficulty communicating.
126
440180
2262
의사소통의 어려움을 해결해주죠.
07:23
Technology built on understanding
the streaming visual worlds
127
443323
4532
스트리밍으로 전송되는 영상세계를
만드는 기술은
07:27
used as technology for self-driving cars.
128
447879
3079
자동운전 테크놀리지에 이용되죠.
07:32
Technology built on understanding images
and generating language,
129
452490
3413
이미지와 언어생성을 목적으로
만들어진 기술은
07:35
evolving into technology that helps people
who are visually impaired
130
455927
4063
시각장애인들을 돕는
테크놀로지로 발전했죠.
07:40
be better able to access the visual world.
131
460014
2800
그들이 시각적으로 세상에
더 가까이 다가갈 수 있도록요.
07:42
And we also see how technology
can lead to problems.
132
462838
3261
하지만 테크놀로지는 문제를
야기하기도 합니다.
07:46
We have technology today
133
466885
1428
오늘날 우리의 테크놀로지는
07:48
that analyzes physical
characteristics we're born with --
134
468337
3835
우리의 선천적
신체적 특징을 분석합니다.
07:52
such as the color of our skin
or the look of our face --
135
472196
3272
피부색이나 얼굴의 표정 등을요.
07:55
in order to determine whether or not
we might be criminals or terrorists.
136
475492
3804
범죄자인지 테러리스트인지를
구별할 수 있도록 하기 위해서죠.
07:59
We have technology
that crunches through our data,
137
479688
2905
우리는 정보 데이터를 통하여
수집하는 기술을 가지고 있습니다.
08:02
even data relating
to our gender or our race,
138
482617
2896
성별 또는 인종과 관련되는 데이터는
08:05
in order to determine whether or not
we might get a loan.
139
485537
2865
빚을 지고 있는지 아닌지를
결정하는 기술이 되지도 하지요.
08:09
All that we see now
140
489494
1579
지금 보고 있는 모든 것은
08:11
is a snapshot in the evolution
of artificial intelligence.
141
491097
3617
인공지능의 단편일 뿐입니다.
08:15
Because where we are right now,
142
495763
1778
왜냐하면 우리는 지금
08:17
is within a moment of that evolution.
143
497565
2238
인공지능의 발전의 한 순간에
존재하고 있으니까요.
08:20
That means that what we do now
will affect what happens down the line
144
500690
3802
즉 지금 우리가 무엇을 하는 가는
전적으로 영향을 끼칠테니까요.
08:24
and in the future.
145
504516
1200
우리의 미래에요.
08:26
If we want AI to evolve
in a way that helps humans,
146
506063
3951
인공지능이 인류를 도와주는
방향으로 발전시키고 싶다면
08:30
then we need to define
the goals and strategies
147
510038
2801
우리는 목적과 계획을
규정해야합니다.
08:32
that enable that path now.
148
512863
1733
그런 방향으로 갈 수 있도록요.
08:35
What I'd like to see is something
that fits well with humans,
149
515680
3738
인간에게 적합한 기술이기를 바랍니다.
08:39
with our culture and with the environment.
150
519442
2800
문화와 환경이 담긴 기술.
08:43
Technology that aids and assists
those of us with neurological conditions
151
523435
4484
신경질환을 가진 사람들에게
도움이 되는 테크놀로지.
08:47
or other disabilities
152
527943
1721
다른 신체 장애인들도
08:49
in order to make life
equally challenging for everyone.
153
529688
3216
일반인처럼 동등하게
하루를 살아갈 수 있도록하는 기술.
08:54
Technology that works
154
534097
1421
테크놀로지가
08:55
regardless of your demographics
or the color of your skin.
155
535542
3933
인구통계나 피부색과 관련없이
실행되기를 바랍니다.
09:00
And so today, what I focus on
is the technology for tomorrow
156
540383
4742
제가 지금 연구하고 있는 일은
미래를 위한 테크놀로지입니다.
09:05
and for 10 years from now.
157
545149
1733
지금부터 십년 후를 위한 거죠.
09:08
AI can turn out in many different ways.
158
548530
2634
인공지능은 여러모습으로
만들어 질수 있습니다.
09:11
But in this case,
159
551688
1225
하지만 지금은
09:12
it isn't a self-driving car
without any destination.
160
552937
3328
목적없이 스스로 작동하고 있는
위험한 자동차입니다.
09:16
This is the car that we are driving.
161
556884
2400
이 차는 우리가
운전해야 하는데 말입니다.
09:19
We choose when to speed up
and when to slow down.
162
559953
3595
언제 속도를 내고 언제 속도를 줄일지는
우리가 정해야 합니다.
09:23
We choose if we need to make a turn.
163
563572
2400
차의 진행 방향도
우리가 정해야 합니다.
09:26
We choose what the AI
of the future will be.
164
566868
3000
우리는 인공지능의 미래의 모습을
정해야 합니다.
09:31
There's a vast playing field
165
571186
1337
거대한 컴퓨터의 장이
09:32
of all the things that artificial
intelligence can become.
166
572547
2965
인공지능의 변화를 기다리고 있습니다.
09:36
It will become many things.
167
576064
1800
인공지능은 여러 모습이 될것이고
09:39
And it's up to us now,
168
579694
1732
그것은 우리 모두에게 달려있습니다.
09:41
in order to figure out
what we need to put in place
169
581450
3061
무엇이 적절히 실행되어야 하는지를 알고
09:44
to make sure the outcomes
of artificial intelligence
170
584535
3807
인공지능 발전의 결과를
확실히 하는 것은
09:48
are the ones that will be
better for all of us.
171
588366
3066
우리 모두에게 최상이 될 것입니다.
09:51
Thank you.
172
591456
1150
감사합니다.
09:52
(Applause)
173
592630
2187
(박수)
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.