아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: HASTSanggyu Lee
검토: Gichung Lee
00:12
Hello, I'm Joy, a poet of code,
0
12861
3134
안녕하세요.
코드의 시인, 조이입니다.
00:16
on a mission to stop
an unseen force that's rising,
1
16019
4993
저는 보이지 않는 힘이 일어나는 것을
막기 위한 사명을 띠고 있어요.
00:21
a force that I called "the coded gaze,"
2
21036
2856
제가 '코드화된 시선'이라
부르는 힘인데요.
00:23
my term for algorithmic bias.
3
23916
3309
다른 사람은
알고리즘의 편견이라 부르죠.
00:27
Algorithmic bias, like human bias,
results in unfairness.
4
27249
4300
알고리즘의 편견은 인간의 편견처럼
불평등을 초래하지만
00:31
However, algorithms, like viruses,
can spread bias on a massive scale
5
31573
6022
알고리즘은 바이러스처럼 대규모의
편견을 빠른 속도로 퍼뜨릴 수 있어요.
00:37
at a rapid pace.
6
37619
1582
00:39
Algorithmic bias can also lead
to exclusionary experiences
7
39763
4387
또한, 알고리즘의 편견은
자신이 배제되는 경험이나
차별적인 대우로 이어질 수 있어요.
00:44
and discriminatory practices.
8
44174
2128
00:46
Let me show you what I mean.
9
46326
2061
자세히 설명해 드리죠.
00:48
(Video) Joy Buolamwini: Hi, camera.
I've got a face.
10
48800
2436
(비디오) 안녕, 카메라야.
이게 내 얼굴이야.
00:51
Can you see my face?
11
51982
1864
내 얼굴이 보이니?
00:53
No-glasses face?
12
53871
1625
안경을 벗으면 보이니?
00:55
You can see her face.
13
55521
2214
이 친구의 얼굴은 보이잖아.
00:58
What about my face?
14
58057
2245
내 얼굴은 보여?
01:03
I've got a mask. Can you see my mask?
15
63710
3750
그럼 가면을 쓸게.
내 가면이 보이니?
01:08
Joy Buolamwini: So how did this happen?
16
68294
2365
이런 일이 왜 일어난 걸까요?
01:10
Why am I sitting in front of a computer
17
70683
3141
제가 왜 컴퓨터 앞에 앉아서
01:13
in a white mask,
18
73848
1424
하얀 가면을 쓰고
01:15
trying to be detected by a cheap webcam?
19
75296
3650
싸구려 웹캠에 인식이 되도록
노력하고 있을까요?
01:18
Well, when I'm not fighting the coded gaze
20
78970
2291
제가 코드의 시인으로서
'코드화된 시선'과 싸우기 전에
01:21
as a poet of code,
21
81285
1520
01:22
I'm a graduate student
at the MIT Media Lab,
22
82829
3272
저는 MIT 미디어랩의
대학원생이었어요.
01:26
and there I have the opportunity to work
on all sorts of whimsical projects,
23
86125
4917
그곳에서 많은 기발한 프로젝트에
참여할 수 있었는데
01:31
including the Aspire Mirror,
24
91066
2027
염원의 거울도 있었습니다.
01:33
a project I did so I could project
digital masks onto my reflection.
25
93117
5134
제가 참여한 프로젝트로, 거울에 비친 제
모습에 디지털 가면을 씌우는 것이죠.
01:38
So in the morning, if I wanted
to feel powerful,
26
98275
2350
아침에 힘찬 느낌을 원하면
01:40
I could put on a lion.
27
100649
1434
사자 가면을 씌울 수 있고
01:42
If I wanted to be uplifted,
I might have a quote.
28
102107
3496
희망찬 느낌을 받고 싶다면
명언을 띄울 수 있었죠.
01:45
So I used generic
facial recognition software
29
105627
2989
저는 일반적인 얼굴 인식
소프트웨어를 사용하여
01:48
to build the system,
30
108640
1351
시스템을 만들었지만
01:50
but found it was really hard to test it
unless I wore a white mask.
31
110015
5103
제가 흰 가면을 쓰지 않으면
굉장히 테스트하기 어려웠어요.
01:56
Unfortunately, I've run
into this issue before.
32
116102
4346
불행하게도, 저는 전에도
이런 문제에 부딪힌 적이 있어요.
02:00
When I was an undergraduate
at Georgia Tech studying computer science,
33
120472
4303
제가 조지아 공대에서
컴퓨터 공학 전공생이었을 때
02:04
I used to work on social robots,
34
124799
2055
저는 사회적 로봇을 연구했어요.
02:06
and one of my tasks was to get a robot
to play peek-a-boo,
35
126878
3777
과제들 중 하나는 까꿍놀이하는
로봇을 만들기였죠.
02:10
a simple turn-taking game
36
130679
1683
간단한 순서 교대 게임으로,
02:12
where partners cover their face
and then uncover it saying, "Peek-a-boo!"
37
132386
4321
얼굴을 가렸다가 보이며
"까꿍!"이라고 말하는 게임이죠.
02:16
The problem is, peek-a-boo
doesn't really work if I can't see you,
38
136731
4429
문제는, 까꿍 놀이는 제가 여러분의
얼굴을 볼 수 있어야 하는데
02:21
and my robot couldn't see me.
39
141184
2499
로봇이 저를 보지 못했어요.
02:23
But I borrowed my roommate's face
to get the project done,
40
143707
3950
하지만 저는 룸메이트의 얼굴을
빌려서 프로젝트를 끝냈고
02:27
submitted the assignment,
41
147681
1380
과제를 제출한 다음
02:29
and figured, you know what,
somebody else will solve this problem.
42
149085
3753
다른 누군가가 이 문제를 해결하겠지
라고 생각했어요.
02:33
Not too long after,
43
153489
2003
그로부터 오래 지나지 않아
02:35
I was in Hong Kong
for an entrepreneurship competition.
44
155516
4159
창업 대회 참가를 위해 홍콩에 갔어요.
02:40
The organizers decided
to take participants
45
160159
2694
주최 측은 참여자들이
02:42
on a tour of local start-ups.
46
162877
2372
그 지역의 스타트업 기업들을
방문하도록 했어요.
02:45
One of the start-ups had a social robot,
47
165273
2715
한 스타트업에 사회적 로봇이 있었고
02:48
and they decided to do a demo.
48
168012
1912
시범을 보여주기로 했어요.
02:49
The demo worked on everybody
until it got to me,
49
169948
2980
로봇은 모두에게 잘 작동했죠.
저만 빼고요.
02:52
and you can probably guess it.
50
172952
1923
아마 짐작하셨을 거예요.
02:54
It couldn't detect my face.
51
174899
2965
제 얼굴을 인식하지 못했어요.
02:57
I asked the developers what was going on,
52
177888
2511
저는 개발자들에게
무슨 일이냐고 물었고
03:00
and it turned out we had used the same
generic facial recognition software.
53
180423
5533
제가 썼던 그 얼굴 인식
소프트웨어를 쓴 게 문제였어요.
03:05
Halfway around the world,
54
185980
1650
지구 반대편에서
03:07
I learned that algorithmic bias
can travel as quickly
55
187654
3852
저는 알고리즘의 편견이 인터넷에서
파일을 다운로드받는 것처럼
03:11
as it takes to download
some files off of the internet.
56
191530
3170
빠르게 퍼질 수
있다는 걸 알았어요.
03:15
So what's going on?
Why isn't my face being detected?
57
195565
3076
어떻게 된 걸까요?
왜 제 얼굴은 인식되지 않죠?
03:18
Well, we have to look
at how we give machines sight.
58
198665
3356
자, 우리가 어떻게 기계가 볼 수
있게 하는지 알아보세요.
03:22
Computer vision uses
machine learning techniques
59
202045
3409
컴퓨터의 시야는
머신 러닝 기술을 사용해
03:25
to do facial recognition.
60
205478
1880
얼굴을 인식해요.
03:27
So how this works is, you create
a training set with examples of faces.
61
207382
3897
우리는 여러 예시 얼굴들로 이루어진
연습 세트를 만들어 놓죠.
03:31
This is a face. This is a face.
This is not a face.
62
211303
2818
이건 얼굴이다. 이건 얼굴이다.
이건 얼굴이 아니다.
03:34
And over time, you can teach a computer
how to recognize other faces.
63
214145
4519
그리고 시간이 지나면, 컴퓨터에게
얼굴 인식을 가르칠 수 있어요.
03:38
However, if the training sets
aren't really that diverse,
64
218688
3989
하지만, 연습 세트가
그렇게 다양하지 않다면
03:42
any face that deviates too much
from the established norm
65
222701
3349
규정된 표준에서 너무 벗어나는 얼굴들은
03:46
will be harder to detect,
66
226074
1649
인식하기 어려울 거예요.
03:47
which is what was happening to me.
67
227747
1963
저한테 일어났던 일과 같죠.
03:49
But don't worry -- there's some good news.
68
229734
2382
하지만 걱정하지 마세요.
좋은 소식도 있어요.
03:52
Training sets don't just
materialize out of nowhere.
69
232140
2771
연습 세트는 하늘에서
뚝 떨어지지 않아요.
03:54
We actually can create them.
70
234935
1788
우리가 직접 만들 수 있죠.
03:56
So there's an opportunity to create
full-spectrum training sets
71
236747
4176
따라서 전 영역을 아울러
다양한 인류의 얼굴을 반영하는
04:00
that reflect a richer
portrait of humanity.
72
240947
3824
연습 세트를 만들 기회가 있어요.
04:04
Now you've seen in my examples
73
244795
2221
여러분은 방금
04:07
how social robots
74
247040
1768
사회적 로봇이 어떤지
04:08
was how I found out about exclusion
with algorithmic bias.
75
248832
4611
제가 어떻게 알고리즘의 편견에 의한
배제에 대해 알게되었는지 보셨어요.
04:13
But algorithmic bias can also lead
to discriminatory practices.
76
253467
4815
하지만 알고리즘의 편견은 차별적
관행으로 이어질 수도 있습니다.
04:19
Across the US,
77
259257
1453
미국 전역에서
04:20
police departments are starting to use
facial recognition software
78
260734
4198
경찰서들이 범죄 근절의 무기로
04:24
in their crime-fighting arsenal.
79
264956
2459
얼굴 인식 소프트웨어를
사용하기 시작했어요.
04:27
Georgetown Law published a report
80
267439
2013
조지타운대 법학센터에 따르면
04:29
showing that one in two adults
in the US -- that's 117 million people --
81
269476
6763
총 1억1천7백만명에 달하는
미국 성인 둘 중 한 명의 얼굴이
04:36
have their faces
in facial recognition networks.
82
276263
3534
얼굴 인식 네트워크에
올려져 있어요.
04:39
Police departments can currently look
at these networks unregulated,
83
279821
4552
경찰은 현재 이 네트워크를
제한 없이 살펴볼 수 있어요.
04:44
using algorithms that have not
been audited for accuracy.
84
284397
4286
정확성이 검증되지 않은
알고리즘을 사용하면서요.
04:48
Yet we know facial recognition
is not fail proof,
85
288707
3864
우리는 얼굴 인식이 잘못될 수
있다는 것을 알고 있고
04:52
and labeling faces consistently
remains a challenge.
86
292595
4179
얼굴을 일관되게 표시하는 것은
과제로 남아있어요.
04:56
You might have seen this on Facebook.
87
296798
1762
아마 페이스북에서 보셨을 거예요.
04:58
My friends and I laugh all the time
when we see other people
88
298584
2988
저와 제 친구들은 다른 사람의 이름이
05:01
mislabeled in our photos.
89
301596
2458
우리 사진에 표시된 것을
보고 매번 웃어요.
05:04
But misidentifying a suspected criminal
is no laughing matter,
90
304078
5591
하지만 범죄 용의자를
잘못 파악하는 것은
웃을 일이 아니며
시민의 자유를 침해하죠.
05:09
nor is breaching civil liberties.
91
309693
2827
05:12
Machine learning is being used
for facial recognition,
92
312544
3205
머신러닝은 현재
얼굴인식에 사용되지만
05:15
but it's also extending beyond the realm
of computer vision.
93
315773
4505
컴퓨터 시각을 넘어선 곳까지
확장되고 있어요.
05:21
In her book, "Weapons
of Math Destruction,"
94
321086
4016
'대량살상무기 (WMD)'라는 책에서
05:25
data scientist Cathy O'Neil
talks about the rising new WMDs --
95
325126
6681
데이터 과학자 캐시 오닐은
새로운 대량살상무기에 대해서 말해요.
05:31
widespread, mysterious
and destructive algorithms
96
331831
4353
널리 퍼진, 알 수 없는
파괴적인 알고리즘이죠.
05:36
that are increasingly being used
to make decisions
97
336208
2964
이들은 우리 삶에
큰 영향을 미치는 선택에
05:39
that impact more aspects of our lives.
98
339196
3177
점점 많이 사용되고 있어요.
05:42
So who gets hired or fired?
99
342397
1870
누가 고용되고 누가 해고되는가?
05:44
Do you get that loan?
Do you get insurance?
100
344291
2112
빚을 질까?
보험에 가입할까?
05:46
Are you admitted into the college
you wanted to get into?
101
346427
3503
원하는 대학에 합격하는가?
05:49
Do you and I pay the same price
for the same product
102
349954
3509
여러분과 당신이 같은 상품에 대해서
05:53
purchased on the same platform?
103
353487
2442
같은 가격을 지불하는가?
05:55
Law enforcement is also starting
to use machine learning
104
355953
3759
법 집행에서도 예방적 치안을 위해
05:59
for predictive policing.
105
359736
2289
머신 러닝 사용을 시작했어요.
06:02
Some judges use machine-generated
risk scores to determine
106
362049
3494
몇몇 판사들은 기계가 만든
위험 점수를 사용하여
06:05
how long an individual
is going to spend in prison.
107
365567
4402
사람들의 형량을 결정하기도 해요.
06:09
So we really have to think
about these decisions.
108
369993
2454
그래서 우린 이런 선택에
대해 생각해 봐야 해요.
06:12
Are they fair?
109
372471
1182
이 선택이 공정한가?
06:13
And we've seen that algorithmic bias
110
373677
2890
게다가 우리는 알고리즘의 선택이
06:16
doesn't necessarily always
lead to fair outcomes.
111
376591
3374
매번 공정하지는 않다는 걸 봤어요.
06:19
So what can we do about it?
112
379989
1964
그럼 어떻게 해야 할까요?
06:21
Well, we can start thinking about
how we create more inclusive code
113
381977
3680
우리는 포괄적인 코드를 만들고
06:25
and employ inclusive coding practices.
114
385681
2990
포괄적인 코딩 선례를 도입해야 해요.
06:28
It really starts with people.
115
388695
2309
이것은 사람들로부터 시작됩니다.
06:31
So who codes matters.
116
391528
1961
따라서, 누가 코딩을
하는지가 중요하죠.
06:33
Are we creating full-spectrum teams
with diverse individuals
117
393513
4119
우리는 지금 다양한 개인들로 이루어져
서로의 맹점을 볼 수 있는
팀을 만들고 있나요?
06:37
who can check each other's blind spots?
118
397656
2411
06:40
On the technical side,
how we code matters.
119
400091
3545
기술적인 면에서 우리가 어떻게
코딩을 하는지가 중요해요.
06:43
Are we factoring in fairness
as we're developing systems?
120
403660
3651
지금 우리는 시스템을 개발하면서
공정함을 염두에 두고 있나요?
06:47
And finally, why we code matters.
121
407335
2913
마지막으로, 우리가 왜 코딩을
하는지가 중요해요.
06:50
We've used tools of computational creation
to unlock immense wealth.
122
410605
5083
우리는 엄청난 부를 위하여
컴퓨터를 도구로 사용했어요.
06:55
We now have the opportunity
to unlock even greater equality
123
415712
4447
이제 우리에겐 더 큰 평등을
얻을 기회가 있어요.
07:00
if we make social change a priority
124
420183
2930
우리가 사회적 변화를 미루지 않고
07:03
and not an afterthought.
125
423137
2170
우선순위에 둔다면요.
07:05
And so these are the three tenets
that will make up the "incoding" movement.
126
425828
4522
이 세 가지 요소가
'인코딩' 운동을 구성합니다.
07:10
Who codes matters,
127
430374
1652
누가 코딩을 하는지
07:12
how we code matters
128
432050
1543
어떻게 코딩을 하는지
07:13
and why we code matters.
129
433617
2023
왜 코딩을 하는지가 중요해요.
07:15
So to go towards incoding,
we can start thinking about
130
435664
3099
그리고 인코딩을 향해 가며
우리는 편견을 분별하는 플랫폼을
07:18
building platforms that can identify bias
131
438787
3164
구축할 수 있어요.
07:21
by collecting people's experiences
like the ones I shared,
132
441975
3078
제가 공유한 것과 같은
다른 사람들의 경험을 모으고
07:25
but also auditing existing software.
133
445077
3070
현존하는 소프트웨어를
검사하면서 말이죠.
07:28
We can also start to create
more inclusive training sets.
134
448171
3765
우리는 또한 더욱 포용적인 연습 세트를
만들기 시작할 수 있어요.
07:31
Imagine a "Selfies for Inclusion" campaign
135
451960
2803
"포괄적인 셀카" 캠페인을
상상해 보세요.
07:34
where you and I can help
developers test and create
136
454787
3655
여러분과 제가 더욱 포용적인
연습 세트를 만드는 데
07:38
more inclusive training sets.
137
458466
2093
셀카를 보내면서
도움을 줄 수 있는 거예요.
07:41
And we can also start thinking
more conscientiously
138
461122
2828
그리고 우리가 개발하는 기술의
사회적 영향에 대해
07:43
about the social impact
of the technology that we're developing.
139
463974
5391
보다 양심적으로 생각할 수 있어요.
07:49
To get the incoding movement started,
140
469389
2393
인코딩 운동을 시작하기 위해서
07:51
I've launched the Algorithmic
Justice League,
141
471806
2847
저는 알고리즘 정의 연합을 창설했어요.
07:54
where anyone who cares about fairness
can help fight the coded gaze.
142
474677
5872
공정함을 중요시 여기는 사람 누구든
'코딩된 시선'에 맞서 싸우는 걸 도와줍니다.
08:00
On codedgaze.com, you can report bias,
143
480573
3296
codedgaze.com에서
편견을 보고하거나
08:03
request audits, become a tester
144
483893
2445
검사를 요청하거나
테스터가 될 수 있으며
08:06
and join the ongoing conversation,
145
486362
2771
진행되는 대화에 참여할 수도 있어요.
08:09
#codedgaze.
146
489157
2287
해시태그 codedgaze입니다.
08:12
So I invite you to join me
147
492562
2487
그래서 저는 여러분이 저와 함께
08:15
in creating a world where technology
works for all of us,
148
495073
3719
기술이 일부만이 아닌
모두를 위해 쓰이는 세상을
08:18
not just some of us,
149
498816
1897
08:20
a world where we value inclusion
and center social change.
150
500737
4588
포용성을 중요시여기고 사회적 변화를
중시하는 세상을 만드는데 동참하셨으면 합니다.
08:25
Thank you.
151
505349
1175
감사합니다.
08:26
(Applause)
152
506548
4271
(박수)
08:32
But I have one question:
153
512693
2854
하지만 여러분에게 질문이 하나 있어요.
08:35
Will you join me in the fight?
154
515571
2059
여러분은 이 싸움에 동참하실 건가요?
08:37
(Laughter)
155
517654
1285
(웃음)
08:38
(Applause)
156
518963
3687
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.