아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
00:00
Translator: Ivana Korom
Reviewer: Joanna Pietrulewicz
0
0
7000
번역: Minji Kim
검토: Jihyeon J. Kim
00:12
How many decisions
have been made about you today,
1
12875
3768
여러분은 인공지능의 도움을 받아서
00:16
or this week or this year,
2
16667
2601
오늘이나 이번 주 혹은 올해
00:19
by artificial intelligence?
3
19292
1958
얼마나 많은 결정을 내리셨나요?
00:22
I build AI for a living
4
22958
1685
제 직업은 인공지능을
구축하는 것입니다.
00:24
so, full disclosure, I'm kind of a nerd.
5
24667
3017
그러니까 밝히자면 좀 범생이에요.
00:27
And because I'm kind of a nerd,
6
27708
2393
제가 범생이라서
00:30
wherever some new news story comes out
7
30125
2351
새로운 뉴스에서 인공지능이
일자리를 뺏는다거나
00:32
about artificial intelligence
stealing all our jobs,
8
32500
3434
00:35
or robots getting citizenship
of an actual country,
9
35958
4185
실제 국가의 시민권을 획득한다거나 하는
00:40
I'm the person my friends
and followers message
10
40167
3142
뉴스가 나오면 친구들과 주변인들이
00:43
freaking out about the future.
11
43333
1542
그렇게 될까 봐 기겁해서
저에게 메시지를 보내요.
00:45
We see this everywhere.
12
45833
2101
로봇 과다 현상이 세상을 점령한다는
00:47
This media panic that
our robot overlords are taking over.
13
47958
4893
미디어 공포 현상은
여기저기에 만연해 있어요.
00:52
We could blame Hollywood for that.
14
52875
1917
할리우드로 비난의 화살을
돌리기도 합니다.
00:56
But in reality, that's not the problem
we should be focusing on.
15
56125
4125
하지만 현실은 그걸
걱정할 때가 아닙니다.
01:01
There is a more pressing danger,
a bigger risk with AI,
16
61250
3643
인공지능에는 더 큰
위험이 도사리고 있는데
01:04
that we need to fix first.
17
64917
1583
이것부터 고쳐야 합니다.
01:07
So we are back to this question:
18
67417
2309
이 질문으로 돌아가 볼게요.
01:09
How many decisions
have been made about you today by AI?
19
69750
4708
여러분은 오늘 인공지능 도움으로
얼마나 많은 결정을 내렸나요?
01:15
And how many of these
20
75792
1976
얼마나 많은 결정이
01:17
were based on your gender,
your race or your background?
21
77792
4500
성별, 인종, 배경에 기반해서
이루어졌나요?
01:24
Algorithms are being used all the time
22
84500
2768
알고리즘은 항상 우리가 누구이고
01:27
to make decisions about who we are
and what we want.
23
87292
3833
무엇을 원하는지 결정을
내리는데 이용됩니다.
01:32
Some of the women in this room
will know what I'm talking about
24
92208
3643
여기 계신 몇몇 여성분들은
무슨 말인지 아실 거예요.
01:35
if you've been made to sit through
those pregnancy test adverts on YouTube
25
95875
3768
유튜브로 임신 테스트를
01:39
like 1,000 times.
26
99667
2059
한 1,000번 정도 했는지
01:41
Or you've scrolled past adverts
of fertility clinics
27
101750
2851
또는 페이스북에서
가임 클리닉 광고를 보고
01:44
on your Facebook feed.
28
104625
2042
스크롤을 내리며 지나쳤는지와
같은 것들 말입니다.
01:47
Or in my case, Indian marriage bureaus.
29
107625
2393
아니면 제 경우에는
인도 결혼 상담소가 있어요.
01:50
(Laughter)
30
110042
1267
(웃음)
01:51
But AI isn't just being used
to make decisions
31
111333
2976
인공지능은 단지 무엇을 살지 또는
01:54
about what products we want to buy
32
114333
2601
무슨 티브이 프로그램을
돌려가며 볼지에 대해
결정을 내리는 데에만
활용되는 것이 아닙니다.
01:56
or which show we want to binge watch next.
33
116958
2500
누가 이런 생각을 한다면
어떨지 한 번 생각해보세요.
02:01
I wonder how you'd feel about someone
who thought things like this:
34
121042
5184
"흑인이나 라틴계 사람이
02:06
"A black or Latino person
35
126250
1934
02:08
is less likely than a white person
to pay off their loan on time."
36
128208
4125
백인보다 대출금을
제때 잘 갚지 않는다."
"존이라는 사람이 메리라는 사람보다
02:13
"A person called John
makes a better programmer
37
133542
2809
더 나은 프로그래머다."
02:16
than a person called Mary."
38
136375
1667
"흑인 남성은 백인 남성보다
더 자주 범죄를 되풀이한다."
02:19
"A black man is more likely to be
a repeat offender than a white man."
39
139250
5083
02:26
You're probably thinking,
40
146958
1268
그러면 여러분은 아마
이렇게 생각하실 겁니다.
02:28
"Wow, that sounds like a pretty sexist,
racist person," right?
41
148250
3750
"와, 그건 성차별적이고
인종차별적인 발언이야."라고요.
02:33
These are some real decisions
that AI has made very recently,
42
153000
4851
최근에 인공지능이 내린
결정 중에서는
02:37
based on the biases
it has learned from us,
43
157875
2934
우리 인간에게 배운 편향에
02:40
from the humans.
44
160833
1250
의한 것이었습니다.
인공지능은 구직 면접을 받을지 여부와
02:43
AI is being used to help decide
whether or not you get that job interview;
45
163750
4809
자동차 보험에 얼마를 지불할지,
02:48
how much you pay for your car insurance;
46
168583
2393
신용 점수는 얼마나 좋은지
02:51
how good your credit score is;
47
171000
1893
02:52
and even what rating you get
in your annual performance review.
48
172917
3125
심지어 연례 실적 평가로 몇 점을
주어야 할 지도 결정합니다.
하지만 이러한 결정들이
우리의 정체성, 인종, 성별, 나이에
02:57
But these decisions
are all being filtered through
49
177083
3143
03:00
its assumptions about our identity,
our race, our gender, our age.
50
180250
5875
근거한 추측을 거쳐서 만들어집니다.
어떻게 이런 일이 일어나는 걸까요?
03:08
How is that happening?
51
188250
2268
이제 한 채용 담당자가
회사의 차기 기술 선도자를
03:10
Now, imagine an AI is helping
a hiring manager
52
190542
3517
03:14
find the next tech leader in the company.
53
194083
2851
뽑는데 인공지능이
관여한다고 상상해보세요.
03:16
So far, the manager
has been hiring mostly men.
54
196958
3101
지금까지 채용 담당자는
대부분 남자였습니다.
03:20
So the AI learns men are more likely
to be programmers than women.
55
200083
4750
그래서 인공지능은 프로그래머가
대부분 여자가 아닌 남자라고 배웁니다.
03:25
And it's a very short leap from there to:
56
205542
2892
여기서 매우 짧은 도약으로 인공지능은
03:28
men make better programmers than women.
57
208458
2042
남자가 여자보다 더 나은
프로그래머라는 결정을 내립니다.
03:31
We have reinforced
our own bias into the AI.
58
211417
3726
우리의 편향을 인공지능에
보강하고 있었던 겁니다.
03:35
And now, it's screening out
female candidates.
59
215167
3625
이제, 여성 후보자들을 선별합니다.
03:40
Hang on, if a human
hiring manager did that,
60
220917
3017
잠시만요, 만약
인간 채용 담당자가 그랬다면
03:43
we'd be outraged, we wouldn't allow it.
61
223958
2351
우리는 분노하며
허용하지 않을 것입니다.
03:46
This kind of gender
discrimination is not OK.
62
226333
3476
이러한 성차별은 옳지 않습니다.
히지만 어쩐 일인지 인공지능이
법 우위에 서게 되었습니다.
03:49
And yet somehow,
AI has become above the law,
63
229833
4518
03:54
because a machine made the decision.
64
234375
2083
왜냐하면 기계가 결정을 내리니까요.
이게 다가 아닙니다.
03:57
That's not it.
65
237833
1518
우리는 또한 인공지능과 상호 작용
하는데 편향을 강화하고 있습니다.
03:59
We are also reinforcing our bias
in how we interact with AI.
66
239375
4875
04:04
How often do you use a voice assistant
like Siri, Alexa or even Cortana?
67
244917
5976
시리, 알렉사, 코타나와 같은
음성 비서를 얼마나 자주 사용하나요?
04:10
They all have two things in common:
68
250917
2559
이러한 음성 보조 장치에는
전부 두 가지 공통점이 있습니다.
04:13
one, they can never get my name right,
69
253500
3101
첫째, 내 이름을 전혀 올바르게
발음하지 못합니다.
04:16
and second, they are all female.
70
256625
2667
둘째, 모두 여자입니다.
우리에게 순종하는 하인이
되도록 설계되어
04:20
They are designed to be
our obedient servants,
71
260417
2767
명령에 따라 전등을 켜고 끄고,
장을 대신 보기도 합니다.
04:23
turning your lights on and off,
ordering your shopping.
72
263208
3250
남성 인공지능도 있지만
더 책임이 막중한 일을 맡습니다.
04:27
You get male AIs too,
but they tend to be more high-powered,
73
267125
3309
04:30
like IBM Watson,
making business decisions,
74
270458
3059
IBM 왓슨처럼
사업 의사 결정을 내리거나
04:33
Salesforce Einstein
or ROSS, the robot lawyer.
75
273541
3792
판매 담당자 아인슈타인이나
로봇 변호사 로스가 됩니다.
불쌍한 로봇들, 직장에서도
성차별로 고통받는군요.
04:38
So poor robots, even they suffer
from sexism in the workplace.
76
278208
4060
(웃음)
04:42
(Laughter)
77
282292
1125
이 두 가지가 결합해서
인공지능이 존재하는 오늘날
04:44
Think about how these two things combine
78
284542
2851
04:47
and affect a kid growing up
in today's world around AI.
79
287417
5309
자라나는 어린이에게
어떤 영향을 미칠지 생각해보세요.
04:52
So they're doing some research
for a school project
80
292750
2934
아이들은 학교 프로젝트를 위해
조사를 합니다.
04:55
and they Google images of CEO.
81
295708
3018
최고경영자 이미지를 구글링합니다.
04:58
The algorithm shows them
results of mostly men.
82
298750
2893
알고리즘은 대부분 남성을 보여줍니다.
05:01
And now, they Google personal assistant.
83
301667
2559
그리고 이제 아이들은
개인 비서를 구글링합니다.
예상하신 대로
대부분 여성을 보여줍니다.
05:04
As you can guess,
it shows them mostly females.
84
304250
3434
그리고 아이들은 음악도 넣고
음식도 주문하고 싶을 거예요.
05:07
And then they want to put on some music,
and maybe order some food,
85
307708
3601
순종적인 여성 음성 비서에게
아이들은 소리쳐 주문합니다.
05:11
and now, they are barking orders
at an obedient female voice assistant.
86
311333
6584
05:19
Some of our brightest minds
are creating this technology today.
87
319542
5309
몇몇의 뛰어난 지성인들이
오늘날 이 기술을 창조합니다.
05:24
Technology that they could have created
in any way they wanted.
88
324875
4184
그들이 원하는 대로
기술을 창조할 수 있습니다.
05:29
And yet, they have chosen to create it
in the style of 1950s "Mad Man" secretary.
89
329083
5685
그런데도 굳이 1950년대 "매드 맨"
비서 스타일로 만들기로 선택했네요.
05:34
Yay!
90
334792
1500
만세!
05:36
But OK, don't worry,
91
336958
1310
하지만 괜찮아요, 걱정 마세요
제가 말씀드리려는 것은
이게 끝이 아닙니다.
05:38
this is not going to end
with me telling you
92
338292
2059
05:40
that we are all heading towards
sexist, racist machines running the world.
93
340375
3477
성차별적이고 인종차별적인 기계가
세상을 움직인다고 말씀드렸지만
05:44
The good news about AI
is that it is entirely within our control.
94
344792
5791
인공지능에 대한 좋은 소식은 우리가
전적으로 통제할 수 있다는 것입니다.
05:51
We get to teach the right values,
the right ethics to AI.
95
351333
4000
인공지능에게 올바른 가치와 윤리관을
가르칠 수 있습니다.
05:56
So there are three things we can do.
96
356167
2184
여기에 우리가 할 수 있는
세 가지가 있습니다.
05:58
One, we can be aware of our own biases
97
358375
3351
첫째, 우리 고유의 편향을 인지하고
06:01
and the bias in machines around us.
98
361750
2726
우리 주변에 있는 기계가 가진
편향을 인지할 수 있습니다.
06:04
Two, we can make sure that diverse teams
are building this technology.
99
364500
4518
둘째, 다양한 팀이 이러한 기술을
구축하도록 할 수 있습니다.
06:09
And three, we have to give it
diverse experiences to learn from.
100
369042
4916
셋째, 기계가 배울 수 있도록
다양한 경험을 제공해야 합니다.
06:14
I can talk about the first two
from personal experience.
101
374875
3309
제 개인적인 경험을 통해
첫 번째와 두 번째에 대해 말씀드릴게요.
06:18
When you work in technology
102
378208
1435
기술 분야에서 일을 할 때
06:19
and you don't look like
a Mark Zuckerberg or Elon Musk,
103
379667
3392
여러분은 마크 주커버그나
엘론 머스크처럼 생기지 않았다면
삶은 조금 더 어렵고
능력도 의심받습니다.
06:23
your life is a little bit difficult,
your ability gets questioned.
104
383083
3750
06:27
Here's just one example.
105
387875
1393
하나의 예를 들어볼게요.
06:29
Like most developers,
I often join online tech forums
106
389292
3726
대부분의 개발자처럼 저도
온라인 기술 포럼에 참여해서
06:33
and share my knowledge to help others.
107
393042
3226
타인을 돕기 위해 지식을 공유합니다.
06:36
And I've found,
108
396292
1309
그리고 제가 발견한 것은
06:37
when I log on as myself,
with my own photo, my own name,
109
397625
3976
제 사진과 이름을 공개하고
로그인할 때
06:41
I tend to get questions
or comments like this:
110
401625
4601
다음과 같은 질문이나
말을 듣는다는 것입니다.
"어떻게 당신이 인공지능에 대해
말할 자격이 있다고 생각하는 거죠?"
06:46
"What makes you think
you're qualified to talk about AI?"
111
406250
3000
06:50
"What makes you think
you know about machine learning?"
112
410458
3476
"어떻게 당신이 기계 학습에 대해
안다고 생각하는 거죠?"
06:53
So, as you do, I made a new profile,
113
413958
3435
그래서 여러분처럼 저도
새로운 프로필을 만들었습니다.
06:57
and this time, instead of my own picture,
I chose a cat with a jet pack on it.
114
417417
4851
이번에는 제 사진 대신 제트 팩을
메고 있는 고양이 사진을 선택했어요.
07:02
And I chose a name
that did not reveal my gender.
115
422292
2458
그리고 제 성별을 알 수 없는
이름을 선택했어요.
07:05
You can probably guess
where this is going, right?
116
425917
2726
무슨 일이 벌어질지 예상되시죠?
07:08
So, this time, I didn't get any of those
patronizing comments about my ability
117
428667
6392
이번에는 제 능력을 깔보는 말을
하는 사람이 없었어요.
07:15
and I was able to actually
get some work done.
118
435083
3334
그리고 실제로 몇 가지 일도
완수할 수 있었고요.
07:19
And it sucks, guys.
119
439500
1851
이건 정말 짜증 나는 일이에요.
07:21
I've been building robots since I was 15,
120
441375
2476
전 15살 때부터 로봇을 만들어 왔고
07:23
I have a few degrees in computer science,
121
443875
2268
컴퓨터 과학 분야에
학위도 몇 개 갖고 있어요.
07:26
and yet, I had to hide my gender
122
446167
2434
그럼에도 제 성별을 숨겨야만 했어요.
07:28
in order for my work
to be taken seriously.
123
448625
2250
그래야 제 일이 진지하게
받아들여지니까요.
07:31
So, what's going on here?
124
451875
1893
여기에 무슨 일이
일어나고 있는 건가요?
07:33
Are men just better
at technology than women?
125
453792
3208
기술 면에서 남자가 여자보다
더 뛰어나나요?
07:37
Another study found
126
457917
1559
다른 연구에서 발견한 사실은
07:39
that when women coders on one platform
hid their gender, like myself,
127
459500
4934
플랫폼에서 여성 프로그래머들이
저처럼 자기 성별을 숨길 때
07:44
their code was accepted
four percent more than men.
128
464458
3250
코딩이 남자보다 4%
더 많이 받아들여졌어요.
07:48
So this is not about the talent.
129
468542
2916
그러니까 이건 재능에
관한 게 아니에요.
07:51
This is about an elitism in AI
130
471958
2893
이것은 인공지능에 있는
엘리트 의식에 관한 거예요.
07:54
that says a programmer
needs to look like a certain person.
131
474875
2792
그건 프로그래머가 특정한 사람처럼
보여야 한다는 것을 의미하죠.
07:59
What we really need to do
to make AI better
132
479375
3101
더 나은 인공지능을 만들기 위해
우리가 해야 할 일은
08:02
is bring people
from all kinds of backgrounds.
133
482500
3042
각기 다른 배경에서 자란
모든 사람들을 데려오는 겁니다.
08:06
We need people who can
write and tell stories
134
486542
2559
인공지능의 개성을 만들도록 도와줄
글을 쓰고 이야기를 할 수 있는
사람을 필요로 합니다.
08:09
to help us create personalities of AI.
135
489125
2167
문제를 해결할 수 있는
사람을 필요로 합니다.
08:12
We need people who can solve problems.
136
492208
2042
다른 도전을 마주하고
08:15
We need people
who face different challenges
137
495125
3768
08:18
and we need people who can tell us
what are the real issues that need fixing
138
498917
5351
고쳐야 하는 진짜 문제에 대해
말해줄 수 있고,
08:24
and help us find ways
that technology can actually fix it.
139
504292
3041
그걸 고칠 수 있는 기술을 찾도록
도와줄 사람을 필요로 합니다.
08:29
Because, when people
from diverse backgrounds come together,
140
509833
3726
왜냐하면 다양한 배경을 가진
사람들이 모일 때,
08:33
when we build things in the right way,
141
513583
2143
우리가 올바른 것들을
만들 수 있을 때,
08:35
the possibilities are limitless.
142
515750
2042
가능성은 무궁무진하기 때문입니다.
08:38
And that's what I want to end
by talking to you about.
143
518750
3309
이것이 여러분에게 말씀드리며
끝맺고 싶은 이야기입니다.
08:42
Less racist robots, less machines
that are going to take our jobs --
144
522083
4225
덜 인종차별적인 로봇,
우리 일자리를 덜 빼앗아 갈 기계
08:46
and more about what technology
can actually achieve.
145
526332
3125
그리고 우리가 실제로 성취할 수 있는
더 많은 기술에 대한 것입니다.
맞아요, 인공지능의 세계와
기술의 세계에서
08:50
So, yes, some of the energy
in the world of AI,
146
530292
3434
일부 에너지는
08:53
in the world of technology
147
533750
1393
여러분이 스트림에서 볼 수 있는
광고에 쓰일 것입니다.
08:55
is going to be about
what ads you see on your stream.
148
535167
4267
08:59
But a lot of it is going towards
making the world so much better.
149
539458
5209
하지만 그중 많은 에너지는
더 나은 세상을 만드는데 쓰입니다.
09:05
Think about a pregnant woman
in the Democratic Republic of Congo,
150
545500
3768
콩고 민주 공화국에 있는
임산부를 생각해보세요.
09:09
who has to walk 17 hours
to her nearest rural prenatal clinic
151
549292
4184
가장 가까운 시골 산전 클리닉에
가려면 17시간을 걸어야 합니다.
09:13
to get a checkup.
152
553500
1851
검진받기 위해서요.
09:15
What if she could get diagnosis
on her phone, instead?
153
555375
2917
만약 임산부가 그 대신 전화로
진단받을 수 있다면 어떨까요?
09:19
Or think about what AI could do
154
559750
1809
아니면 인공지능이 할 수 있는
일을 생각해 보세요.
09:21
for those one in three women
in South Africa
155
561583
2726
남아프리카 여성 3명 중 1명은
09:24
who face domestic violence.
156
564333
2125
가정 폭력에 노출되어 있습니다.
09:27
If it wasn't safe to talk out loud,
157
567083
2726
만약 크게 소리 내어 말하는 것이
안전하지 않다면
09:29
they could get an AI service
to raise alarm,
158
569833
2476
인공지능 서비스를 이용해 경보를 울려
재정과 법률 상담을 받을 수 있습니다.
09:32
get financial and legal advice.
159
572333
2459
이것은 현재 저를 포함해
사람들이 인공지능을 이용해
09:35
These are all real examples of projects
that people, including myself,
160
575958
5018
작업하고 있는
프로젝트의 실제 사례입니다.
09:41
are working on right now, using AI.
161
581000
2500
09:45
So, I'm sure in the next couple of days
there will be yet another news story
162
585542
3601
며칠 뒤에 또 다른 보도 기사가
있을 거라 확신합니다.
09:49
about the existential risk,
163
589167
2684
로봇이 여러분의 일자리를
점령하러 오는 것에 대한
09:51
robots taking over
and coming for your jobs.
164
591875
2434
실존적인 위험에 대해서요.
09:54
(Laughter)
165
594333
1018
(웃음)
09:55
And when something like that happens,
166
595375
2309
그런 일이 일어날 때,
09:57
I know I'll get the same messages
worrying about the future.
167
597708
3601
미래에 대해 걱정하는 똑같은
메시지를 받게 될 것도 압니다.
하지만 저는 이 기술에 대해
매우 긍정적입니다.
10:01
But I feel incredibly positive
about this technology.
168
601333
3667
이것이야말로 세상을 더 평등한
곳으로 만들 기회입니다.
10:07
This is our chance to remake the world
into a much more equal place.
169
607458
5959
10:14
But to do that, we need to build it
the right way from the get go.
170
614458
4000
하지만 그러기 위해서는 처음부터
올바른 방법으로 만들어야 합니다.
10:19
We need people of different genders,
races, sexualities and backgrounds.
171
619667
5083
다른 성별, 인종, 성적 취향, 배경
출신의 사람들을 필요로 합니다.
10:26
We need women to be the makers
172
626458
2476
여성이 제작자가 되어야 합니다.
10:28
and not just the machines
who do the makers' bidding.
173
628958
3000
단지 제작자 입찰을 하는
기계뿐만이 아니라 말이죠.
10:33
We need to think very carefully
what we teach machines,
174
633875
3768
우리는 기계에게 무엇을 가르치고
어떤 데이터를 제공할지에 대해
10:37
what data we give them,
175
637667
1642
매우 신중하게 생각해야 합니다.
10:39
so they don't just repeat
our own past mistakes.
176
639333
3125
과거와 같은 실수를
하지 않기 위해서 말이죠.
10:44
So I hope I leave you
thinking about two things.
177
644125
3542
여러분에게 생각할 거리
두 가지를 드릴게요.
10:48
First, I hope you leave
thinking about bias today.
178
648542
4559
첫째, 오늘날 편향에 대해
생각해보시길 바랍니다.
10:53
And that the next time
you scroll past an advert
179
653125
3184
그리고 다음번에 여러분이
관심 있어 할 거라 가정하는
10:56
that assumes you are interested
in fertility clinics
180
656333
2810
불임 클리닉 광고나
10:59
or online betting websites,
181
659167
2851
온라인 도박 웹사이트 광고를
스크롤 하며 지나칠 때
11:02
that you think and remember
182
662042
2017
생각하고 기억해주세요.
11:04
that the same technology is assuming
that a black man will reoffend.
183
664083
4625
같은 기술이 흑인은 다시 법을
위반할 것이라고 가정한다는 것을,
11:09
Or that a woman is more likely
to be a personal assistant than a CEO.
184
669833
4167
또는 최고경영자의 개인 비서는 여성일
가능성이 많다고 가정한다는 것을요.
11:14
And I hope that reminds you
that we need to do something about it.
185
674958
3709
이것에 대해 우리는 무언가를
해야 한다는 것도 기억해주세요.
11:20
And second,
186
680917
1851
두 번째로,
11:22
I hope you think about the fact
187
682792
1892
다음과 같은 사실을
기억해 주시길 바랍니다.
11:24
that you don't need to look a certain way
188
684708
1976
여러분은 어떤 특정한
사람처럼 보여야 하거나
11:26
or have a certain background
in engineering or technology
189
686708
3851
특정한 공학이나 기술 배경을 가져야만
11:30
to create AI,
190
690583
1268
미래를 위한 놀랄 만한
세력이 될 인공지능을
11:31
which is going to be
a phenomenal force for our future.
191
691875
2875
만들 수 있는 것이
아니라는 것을 말입니다.
마크 주커버그처럼 생기지 않아도 되고
11:36
You don't need to look
like a Mark Zuckerberg,
192
696166
2143
11:38
you can look like me.
193
698333
1250
그냥 저처럼 생겨도 됩니다.
이 공간에 있는 모두에게 달렸습니다.
11:41
And it is up to all of us in this room
194
701250
2893
정부와 기업을 설득해서
11:44
to convince the governments
and the corporations
195
704167
2726
11:46
to build AI technology for everyone,
196
706917
2892
모두를 위한 인공지능 기술을
구축하도록 하는 것 말입니다.
11:49
including the edge cases.
197
709833
2393
엣지 케이스를 포함해서요.
11:52
And for us all to get education
198
712250
2059
그리고 우리는 이런 놀라운
미래 기술에 대해 교육받아야 합니다.
11:54
about this phenomenal
technology in the future.
199
714333
2375
왜냐하면 우리가
그렇게 할 경우, 그것은
11:58
Because if we do that,
200
718167
2017
12:00
then we've only just scratched the surface
of what we can achieve with AI.
201
720208
4893
우리가 인공지능으로 성취할 수
있는 것에 대한 시작이기 때문입니다.
12:05
Thank you.
202
725125
1268
감사합니다.
12:06
(Applause)
203
726417
2708
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.