The era of blind faith in big data must end | Cathy O'Neil

241,832 views ・ 2017-09-07

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: SeungGyu Min 검토: Tae-Hoon Chung
00:12
Algorithms are everywhere.
0
12795
1596
알고리즘은 어디나 있죠.
00:15
They sort and separate the winners from the losers.
1
15931
3125
그걸로 승자와 패자가 갈리고 나뉘어
00:19
The winners get the job
2
19839
2264
승자는 직장을 구하거나
00:22
or a good credit card offer.
3
22127
1743
신용카드 조건도 좋아지지만
00:23
The losers don't even get an interview
4
23894
2651
패자는 면접기회조차 없거나
00:27
or they pay more for insurance.
5
27410
1777
보험료도 더 부담하죠.
00:30
We're being scored with secret formulas that we don't understand
6
30017
3549
이해도 못하는 은밀한 공식으로 점수 매겨지지만
00:34
that often don't have systems of appeal.
7
34495
3217
보통은 거기에 이견을 제시할 기회조차 없습니다.
00:39
That begs the question:
8
39060
1296
이러면 질문이 생깁니다:
00:40
What if the algorithms are wrong?
9
40380
2913
알고리즘이 잘못됐다면 어떤 일이 발생할까요?
00:44
To build an algorithm you need two things:
10
44920
2040
알고리즘 개발엔 두 가지가 필요합니다.
00:46
you need data, what happened in the past,
11
46984
1981
과거에 있었던 일에 대한 자료와
00:48
and a definition of success,
12
48989
1561
우리가 찾고 종종 원하는
00:50
the thing you're looking for and often hoping for.
13
50574
2457
성공이란 것에 대한 정의죠.
00:53
You train an algorithm by looking, figuring out.
14
53055
5037
저희는 이걸 들여다보고 분석해서 알고리듬을 훈련시킵니다
00:58
The algorithm figures out what is associated with success.
15
58116
3419
알고리즘은 성공과 관련된 게 뭔지 알아내죠.
01:01
What situation leads to success?
16
61559
2463
어떤 상황이면 성공하게 될까요?
01:04
Actually, everyone uses algorithms.
17
64701
1762
실제 우리 모두는 알고리즘을 사용합니다.
01:06
They just don't formalize them in written code.
18
66487
2718
그저 이걸 코드로 형식화하지 않았을 뿐인데
01:09
Let me give you an example.
19
69229
1348
예를 들어 볼게요.
01:10
I use an algorithm every day to make a meal for my family.
20
70601
3316
저는 매일 가족들의 식사를 준비할 때 알고리즘을 이용합니다.
01:13
The data I use
21
73941
1476
제가 이용하는 자료는
01:16
is the ingredients in my kitchen,
22
76214
1659
주방에 있는 재료
01:17
the time I have,
23
77897
1527
제게 주어진 시간
01:19
the ambition I have,
24
79448
1233
하고 싶은 요리 등으로
01:20
and I curate that data.
25
80705
1709
제가 직접 관리하는 것들이죠.
01:22
I don't count those little packages of ramen noodles as food.
26
82438
4251
개인적으로 저는 라면같은 즉석 식품은 요리로 치지 않습니다.
01:26
(Laughter)
27
86713
1869
(웃음)
01:28
My definition of success is:
28
88606
1845
제가 정의하는 성공은 이겁니다.
01:30
a meal is successful if my kids eat vegetables.
29
90475
2659
아이들이 채소를 먹는다면 성공한 식사가 되는 건데
01:34
It's very different from if my youngest son were in charge.
30
94001
2854
제 막내 아들이 차렸다면 생각했을 성공과는 아주 다르죠.
01:36
He'd say success is if he gets to eat lots of Nutella.
31
96879
2788
막내는 누텔라 초코잼만 듬뿍 먹어도 성공이라 했을 테니까요.
01:40
But I get to choose success.
32
100999
2226
하지만 성공은 제가 선택하는 겁니다.
01:43
I am in charge. My opinion matters.
33
103249
2707
제가 차리는 거니까요. 제 의견이 중요한 거죠.
01:45
That's the first rule of algorithms.
34
105980
2675
이것이 알고리즘의 첫 번째 규칙입니다.
01:48
Algorithms are opinions embedded in code.
35
108679
3180
알고리즘이란 코드에 담긴 의견입니다.
01:53
It's really different from what you think most people think of algorithms.
36
113382
3663
여러분과 대부분의 사람들이 생각하는 알고리즘과는 매우 다르죠.
01:57
They think algorithms are objective and true and scientific.
37
117069
4504
사람들은 알고리즘이 객관적이며 사실이고 과학적이라고 생각하지만
02:02
That's a marketing trick.
38
122207
1699
이건 마케팅 상술일 뿐입니다.
02:05
It's also a marketing trick
39
125089
2125
이것은 또한 그 알고리즘으로
02:07
to intimidate you with algorithms,
40
127238
3154
여러분을 위협하고 여러분이 알고리즘을
02:10
to make you trust and fear algorithms
41
130416
3661
신뢰하고 두려워하게 만들려는 마케팅 상술인데
02:14
because you trust and fear mathematics.
42
134101
2018
왜냐하면 여러분들이 수학을 믿고 두려워하니까요.
02:17
A lot can go wrong when we put blind faith in big data.
43
137387
4830
빅 데이터를 맹신하면 많은 것이 잘못될 수 있습니다.
02:23
This is Kiri Soares. She's a high school principal in Brooklyn.
44
143504
3373
이분은 브룩클린의 어느 고등학교 교장인 키리 소어스 씨인데
02:26
In 2011, she told me her teachers were being scored
45
146901
2586
2011년에 저에게 교사들의 인사 고과 평가에
02:29
with a complex, secret algorithm
46
149511
2727
복잡하고 비밀스런 알고리즘인
02:32
called the "value-added model."
47
152262
1489
"가치-부가 모델"을 쓴다고 했죠.
02:34
I told her, "Well, figure out what the formula is, show it to me.
48
154325
3092
제가 그랬죠. "음, 공식이 뭔지 파악하고 보여주세요.
제가 설명해 드릴게요."
02:37
I'm going to explain it to you."
49
157441
1541
02:39
She said, "Well, I tried to get the formula,
50
159006
2141
그랬더니 "음, 공식을 구하려고 했지만
교육부 담당자가 그러는데 그건 수학이라
02:41
but my Department of Education contact told me it was math
51
161171
2772
02:43
and I wouldn't understand it."
52
163967
1546
제가 봐도 모를 겁니다"라고 했대요.
02:47
It gets worse.
53
167086
1338
설상가상인 건
02:48
The New York Post filed a Freedom of Information Act request,
54
168448
3530
뉴욕포스트지에서 정보자유법에 따라 정보공개를 신청한 후
02:52
got all the teachers' names and all their scores
55
172002
2959
모든 선생님의 이름과 점수를 입수해서
02:54
and they published them as an act of teacher-shaming.
56
174985
2782
일종의 선생님 망신 주기로 기사화 했어요.
02:58
When I tried to get the formulas, the source code, through the same means,
57
178904
3860
제가 같은 방법으로 이 공식과 소스코드를 찾으려고 했더니
03:02
I was told I couldn't.
58
182788
2149
허가할 수 없다고 하더라고요.
03:04
I was denied.
59
184961
1236
거부 당한 겁니다.
그 후 알게된 건데
03:06
I later found out
60
186221
1174
03:07
that nobody in New York City had access to that formula.
61
187419
2866
뉴욕의 어느 누구도 그 공식은 접근할 수 없었어요.
03:10
No one understood it.
62
190309
1305
아는 사람도 없었죠.
03:13
Then someone really smart got involved, Gary Rubinstein.
63
193749
3224
그러다 게리 루빈스타인이라는 아주 똑똑한 사람이 여기 관여하게 됩니다.
03:16
He found 665 teachers from that New York Post data
64
196997
3621
그가 뉴욕 포스트 자료에서 665명의 선생님을 찾아내 봤더니
03:20
that actually had two scores.
65
200642
1866
점수가 두 가지였어요.
03:22
That could happen if they were teaching
66
202532
1881
한 분이 7학년 수학과 8학년 수학을
03:24
seventh grade math and eighth grade math.
67
204437
2439
함께 가르치면 생기는 일입니다.
03:26
He decided to plot them.
68
206900
1538
게리가 이걸로 그림을 그려봤어요.
03:28
Each dot represents a teacher.
69
208462
1993
점 하나 하나가 선생님 한 분입니다.
03:30
(Laughter)
70
210924
2379
(웃음)
03:33
What is that?
71
213327
1521
저건 뭡니까?
03:34
(Laughter)
72
214872
1277
(웃음)
03:36
That should never have been used for individual assessment.
73
216173
3446
개인 인사 고과에 정말 이용하지 말았어야 할 프로그램이었던 겁니다.
03:39
It's almost a random number generator.
74
219643
1926
거의 난수 생성기네요.
03:41
(Applause)
75
221593
2946
(박수)
03:44
But it was.
76
224563
1162
하지만 실제로 활용됐습니다.
03:45
This is Sarah Wysocki.
77
225749
1176
이분은 사라 와이사키 선생님입니다.
03:46
She got fired, along with 205 other teachers,
78
226949
2175
다른 205명의 선생님과 함께
워싱턴 DC 학군에서 해직되셨죠.
03:49
from the Washington, DC school district,
79
229148
2662
03:51
even though she had great recommendations from her principal
80
231834
2909
교장이나 학생들 학부모로부터 높은 평가를 받았음에도
03:54
and the parents of her kids.
81
234767
1428
어쩔 수 없었어요.
03:57
I know what a lot of you guys are thinking,
82
237210
2032
여러분들, 특히 여기 데이터 과학자, 인공지능 과학자분들이
03:59
especially the data scientists, the AI experts here.
83
239266
2487
무슨 생각들 하시는지 압니다. 이렇게 생각하시겠죠.
04:01
You're thinking, "Well, I would never make an algorithm that inconsistent."
84
241777
4226
"음, 난 저런 일관성 없는 알고리즘은 절대 안 만들어."
04:06
But algorithms can go wrong,
85
246673
1683
하지만 알고리즘도 잘못될 수 있고
04:08
even have deeply destructive effects with good intentions.
86
248380
4598
좋은 의도에도 심각히 파괴적인 결과로 이끌 수 있습니다.
04:14
And whereas an airplane that's designed badly
87
254351
2379
설계가 잘못된 비행기는
04:16
crashes to the earth and everyone sees it,
88
256754
2001
땅으로 추락하고 그러면 모두가 알 수 있지만
04:18
an algorithm designed badly
89
258779
1850
설계가 잘못된 알고리즘은
04:22
can go on for a long time, silently wreaking havoc.
90
262065
3865
오랜 시간에 걸쳐 조용히 우리를 파멸시킵니다.
04:27
This is Roger Ailes.
91
267568
1570
이분은 로저 에일즈씨입니다.
04:29
(Laughter)
92
269162
2000
(웃음)
04:32
He founded Fox News in 1996.
93
272344
2388
1996년 폭스 뉴스를 세웠죠.
04:35
More than 20 women complained about sexual harassment.
94
275256
2581
20명 이상의 여성들이 성희롱을 당했다고 했습니다.
04:37
They said they weren't allowed to succeed at Fox News.
95
277861
3235
그들에 따르면 여자들은 폭스 뉴스에서 성공할 수 없었다고 해요.
04:41
He was ousted last year, but we've seen recently
96
281120
2520
그는 작년에 쫓겨 났지만 우리는 최근에도
04:43
that the problems have persisted.
97
283664
2670
그 문제가 여전하다는 걸 접하고 있습니다.
04:47
That begs the question:
98
287474
1400
여기서 의문이 떠오릅니다.
04:48
What should Fox News do to turn over another leaf?
99
288898
2884
분위기를 쇄신하려면 폭스 뉴스는 뭘 해야 할까요?
04:53
Well, what if they replaced their hiring process
100
293065
3041
음, 거기 고용 절차를
04:56
with a machine-learning algorithm?
101
296130
1654
기계 학습 알고리즘으로 바꾸면 어떨까요?
04:57
That sounds good, right?
102
297808
1595
괜찮은 생각이죠? 안 그래요?
04:59
Think about it.
103
299427
1300
생각해 보세요.
05:00
The data, what would the data be?
104
300751
2105
자료, 자료는 어떤 거면 될까요?
05:02
A reasonable choice would be the last 21 years of applications to Fox News.
105
302880
4947
지난 21년간 팍스 뉴스 지원자의 자료면 합당하겠죠.
05:07
Reasonable.
106
307851
1502
합리적입니다.
05:09
What about the definition of success?
107
309377
1938
성공에 대한 정의는 어떨까요?
05:11
Reasonable choice would be,
108
311741
1324
합리적인 선택이라면
05:13
well, who is successful at Fox News?
109
313089
1778
음, 폭스 뉴스에서 성공한 사람 정도면 어때요?
05:14
I guess someone who, say, stayed there for four years
110
314891
3580
제 생각에 예를 들어 4년 정도 근무하면서
05:18
and was promoted at least once.
111
318495
1654
적어도 한 번쯤 승진한 거면 될 듯한데.
05:20
Sounds reasonable.
112
320636
1561
그럴 듯합니다.
05:22
And then the algorithm would be trained.
113
322221
2354
이제 알고리즘은 학습할 수 있습니다.
05:24
It would be trained to look for people to learn what led to success,
114
324599
3877
무엇이 성공의 원인인가를 학습해 이 정의에 따라
과거에 어떤 지원자가 성공했는지 찾아내도록 훈련한
05:29
what kind of applications historically led to success
115
329039
4318
05:33
by that definition.
116
333381
1294
알고리즘이 생기겠죠.
05:36
Now think about what would happen
117
336020
1775
이제 그걸 지금의 지원자들에게 적용하면
05:37
if we applied that to a current pool of applicants.
118
337819
2555
어떤 일이 발생할지 생각해 봅시다.
05:40
It would filter out women
119
340939
1629
여성은 배제될 겁니다.
05:43
because they do not look like people who were successful in the past.
120
343483
3930
과거에 성공한 경력이 있을 것 같지 않기 때문이죠.
05:51
Algorithms don't make things fair
121
351572
2537
아무 생각 없이 맹목적으로 이용한다고
알고리즘으로 세상이 공평해지진 않습니다.
05:54
if you just blithely, blindly apply algorithms.
122
354133
2694
05:56
They don't make things fair.
123
356851
1482
그걸로 세상이 공정해지진 않아요.
05:58
They repeat our past practices,
124
358357
2128
단지 과거의 관행과 우리 행동의 유형을 따라할 뿐입니다.
06:00
our patterns.
125
360509
1183
06:01
They automate the status quo.
126
361716
1939
현상태를 자동화하는 거죠.
06:04
That would be great if we had a perfect world,
127
364538
2389
우리의 현재가 완벽하다면 훌륭한 알고리즘이겠지만
06:07
but we don't.
128
367725
1312
현실은 완벽하지 않습니다.
06:09
And I'll add that most companies don't have embarrassing lawsuits,
129
369061
4102
그리고 여기에 대부분의 기업이 난처한 소송에 휘말리진 않아도
06:14
but the data scientists in those companies
130
374266
2588
그런 기업의 데이터 과학자들은
06:16
are told to follow the data,
131
376878
2189
그 데이터에 따라 일하도록
06:19
to focus on accuracy.
132
379091
2143
정확성에 집중하도록 요구받고 있습니다.
06:22
Think about what that means.
133
382093
1381
무슨 뜻일지 생각해 보세요.
06:23
Because we all have bias, it means they could be codifying sexism
134
383498
4027
우리는 모두 편견이 있기 때문에 성차별이나 다른 어떤 편견을
06:27
or any other kind of bigotry.
135
387549
1836
코드에 넣을 수 있습니다.
06:31
Thought experiment,
136
391308
1421
사고 실험 해봅시다.
06:32
because I like them:
137
392753
1509
제가 좋아하니까
06:35
an entirely segregated society --
138
395394
2975
완벽하게 분리된 사회
06:40
racially segregated, all towns, all neighborhoods
139
400067
3328
인종으로도 분리되고, 각 도시도 이웃도 분리되고
06:43
and where we send the police only to the minority neighborhoods
140
403419
3037
사회적 약자의 거주지역에만 경찰을 보내 범죄를 조사한다고 해보죠.
06:46
to look for crime.
141
406480
1193
06:48
The arrest data would be very biased.
142
408271
2219
그 검거율 자료는 아주 편향되었을 겁니다.
06:51
What if, on top of that, we found the data scientists
143
411671
2575
거기에, 만약 데이터 과학자들과 고용된 데이터 분석가들에게
06:54
and paid the data scientists to predict where the next crime would occur?
144
414270
4161
다음 번엔 어디서 범죄가 생길지 예측하게 한다면 어떻게 될까요?
06:59
Minority neighborhood.
145
419095
1487
사회적 약자의 거주 지역일 겁니다.
혹은 다음 번 범죄자가 누구일지 예측케 한다면 누가 될까요?
07:01
Or to predict who the next criminal would be?
146
421105
3125
07:04
A minority.
147
424708
1395
사회적 약자겠죠.
07:07
The data scientists would brag about how great and how accurate
148
427769
3541
그 데이터 과학자는 자신의 모델이 얼마나 대단하고 정확한지
07:11
their model would be,
149
431334
1297
자랑할 것이고
07:12
and they'd be right.
150
432655
1299
그게 맞겠죠.
07:15
Now, reality isn't that drastic, but we do have severe segregations
151
435771
4615
지금 현실은 저렇게 극단적이진 않아도 우리는 많은 도시와 마을에서
심각한 인종차별이 있고
07:20
in many cities and towns,
152
440410
1287
07:21
and we have plenty of evidence
153
441721
1893
차별적인 경찰 활동과 법 집행에 대한 증거는 차고 넘칩니다.
07:23
of biased policing and justice system data.
154
443638
2688
07:27
And we actually do predict hotspots,
155
447452
2815
그리고 우범지역, 바로 범죄가 발생할 것 같은 장소를
07:30
places where crimes will occur.
156
450291
1530
실제로도 예측합니다.
07:32
And we do predict, in fact, the individual criminality,
157
452221
3866
또한 우리는 실제로 개인의 범죄 가능성을 예측하죠.
07:36
the criminality of individuals.
158
456111
1770
개인적 범죄성이라고 합니다.
07:38
The news organization ProPublica recently looked into
159
458792
3963
뉴스 조직인 프로 퍼블리카는 최근
07:42
one of those "recidivism risk" algorithms,
160
462779
2024
어느 "재범 위험성 평가" 알고리즘을 살펴 봤습니다.
07:44
as they're called,
161
464827
1163
전문가들은 그렇게 부르더군요.
플로리다주에서 판사가 형을 선고하는 동안 사용하고 있죠.
07:46
being used in Florida during sentencing by judges.
162
466014
3194
07:50
Bernard, on the left, the black man, was scored a 10 out of 10.
163
470231
3585
왼쪽의 흑인 버너드는 10점 만점에 10점을 받았습니다.
07:54
Dylan, on the right, 3 out of 10.
164
474999
2007
오른쪽 딜런은 10점 만점에 3점을 받았고요.
07:57
10 out of 10, high risk. 3 out of 10, low risk.
165
477030
2501
10점 만점에 10점, 고위험군. 10점 만점에 3점, 저위험군.
08:00
They were both brought in for drug possession.
166
480418
2385
둘 다 불법약물 소지혐의로 재판 중이었습니다.
08:02
They both had records,
167
482827
1154
둘 다 전과가 있었지만
딜런은 중범죄 전과자였고
08:04
but Dylan had a felony
168
484005
2806
08:06
but Bernard didn't.
169
486835
1176
버너드는 그렇지 않았죠.
08:09
This matters, because the higher score you are,
170
489638
3066
이게 중요한데 왜냐하면 점수가 높으면 높을수록
08:12
the more likely you're being given a longer sentence.
171
492728
3473
더 긴 형기를 선고받을 수 있기 때문입니다.
08:18
What's going on?
172
498114
1294
도대체 무슨 일이 벌어지고 있죠?
08:20
Data laundering.
173
500346
1332
데이터 세탁이죠.
08:22
It's a process by which technologists hide ugly truths
174
502750
4427
바로 기술자들이 추악한 진실을
블랙 박스 알고리즘 속에 숨겨버리고
08:27
inside black box algorithms
175
507201
1821
그것을 객관적이라 능력주의적이라
08:29
and call them objective;
176
509046
1290
08:31
call them meritocratic.
177
511140
1568
부르는 과정입니다.
08:34
When they're secret, important and destructive,
178
514938
2385
그 알고리즘이 비밀이고, 중요하면서 파괴적이기 때문에
08:37
I've coined a term for these algorithms:
179
517347
2487
저는 이런 알고리즘에 새 이름을 지었습니다.
08:39
"weapons of math destruction."
180
519858
1999
"대량 수학 살상 무기."
08:41
(Laughter)
181
521881
1564
(웃음)
(박수)
08:43
(Applause)
182
523469
3054
08:46
They're everywhere, and it's not a mistake.
183
526547
2354
어느 곳에나 퍼져 있고 그게 실수가 아닙니다.
08:49
These are private companies building private algorithms
184
529515
3723
이들이 자신들의 목적을 위해 자신들만의 알고리즘을 만든 사기업입니다.
08:53
for private ends.
185
533262
1392
08:55
Even the ones I talked about for teachers and the public police,
186
535034
3214
심지어 제가 언급한 교직원이나 경찰관 고과평가 프로그램도
08:58
those were built by private companies
187
538272
1869
개인 기업이 만들고
정부가 돈을 들여 산 겁니다.
09:00
and sold to the government institutions.
188
540165
2231
09:02
They call it their "secret sauce" --
189
542420
1873
그들은 이 알고리즘을 "비법"이라고 하고
09:04
that's why they can't tell us about it.
190
544317
2128
그래서 공개 못한다는 건데
09:06
It's also private power.
191
546469
2220
그게 사기업의 힘이죠.
09:09
They are profiting for wielding the authority of the inscrutable.
192
549744
4695
그들은 "불가해"라는 권력을 휘둘러 이익을 챙기고 있죠.
09:16
Now you might think, since all this stuff is private
193
556934
2934
여러분들 중에는 이 모든 게 사적인 문제이고
09:19
and there's competition,
194
559892
1158
경쟁이 있으니까
자유 시장이 다 해결할 거라고 생각하실 수도 있습니다.
09:21
maybe the free market will solve this problem.
195
561074
2306
09:23
It won't.
196
563404
1249
절대로 그렇지 않습니다.
09:24
There's a lot of money to be made in unfairness.
197
564677
3120
불공정한 세상에서는 많은 돈을 벌 수 있습니다.
09:28
Also, we're not economic rational agents.
198
568947
3369
또한 우리는 경제적으로 이성적 참여자가 아닙니다.
09:32
We all are biased.
199
572851
1292
우리에겐 편견이 있죠.
09:34
We're all racist and bigoted in ways that we wish we weren't,
200
574780
3377
우리는 원하지 않고 심지어 알지도 못하는 방식으로
모두 인종차별주의자이고 편견에 사로잡혀 있습니다.
09:38
in ways that we don't even know.
201
578181
2019
09:41
We know this, though, in aggregate,
202
581172
3081
전체적으로 우리는 전부 이걸 알고 있습니다.
09:44
because sociologists have consistently demonstrated this
203
584277
3220
왜냐하면 많은 사회학자들이 자신들만의 실험으로
09:47
with these experiments they build,
204
587521
1665
끊임없이 이걸 증명했기 때문이죠.
09:49
where they send a bunch of applications to jobs out,
205
589210
2568
자격은 똑같았지만 백인일 것 같은 이름을 적은 지원서와
09:51
equally qualified but some have white-sounding names
206
591802
2501
흑인일 것 같은 이름을 적은 지원서를 여러 장 기업에 제출했는데
09:54
and some have black-sounding names,
207
594327
1706
언제나 실망적이었습니다. 결과는, 늘 그랬어요.
09:56
and it's always disappointing, the results -- always.
208
596057
2694
09:59
So we are the ones that are biased,
209
599330
1771
그래서 우리는 편견을 가진 동물이라는 겁니다.
10:01
and we are injecting those biases into the algorithms
210
601125
3429
그리고 우리는 이런 편견을 알고리즘에 투영합니다.
10:04
by choosing what data to collect,
211
604578
1812
예를 들면 라면을 배제하기로 한다던지 하는 식으로
10:06
like I chose not to think about ramen noodles --
212
606414
2743
수집할 자료를 선별하고
10:09
I decided it was irrelevant.
213
609181
1625
저는 이것이 전혀 관계가 없다고 생각했죠.
10:10
But by trusting the data that's actually picking up on past practices
214
610830
5684
하지만 실제로 생긴 과거의 사례에서 수집된 자료를 신뢰하거나
10:16
and by choosing the definition of success,
215
616538
2014
성공의 정의를 선택할 때
10:18
how can we expect the algorithms to emerge unscathed?
216
618576
3983
어떻게 알고리즘이 아무탈 없기를 기대하겠습니까?
10:22
We can't. We have to check them.
217
622583
2356
불가능합니다. 그들의 유효성을 검증해야 합니다.
10:25
We have to check them for fairness.
218
625985
1709
공정성을 위해 반드시 검증이 필요합니다.
10:27
The good news is, we can check them for fairness.
219
627718
2711
좋은 소식은 우리가 공정성을 검증할 수 있다는 것입니다.
10:30
Algorithms can be interrogated,
220
630453
3352
알고리즘은 조사할 수 있고
10:33
and they will tell us the truth every time.
221
633829
2034
그러면 알고리즘은 매번 우리에게 진실을 말해 줄 겁니다.
10:35
And we can fix them. We can make them better.
222
635887
2493
그러면 우리는 수정할 수 있죠. 알고리즘을 개선할 수 있습니다.
10:38
I call this an algorithmic audit,
223
638404
2375
저는 이걸 알고리즘 감사라고 합니다.
10:40
and I'll walk you through it.
224
640803
1679
어떻게 하는지 알려드리죠.
10:42
First, data integrity check.
225
642506
2196
첫 번째는 자료 진실성 검사입니다.
10:45
For the recidivism risk algorithm I talked about,
226
645952
2657
제가 말씀드린 재범 위험도 알고리즘에서
10:49
a data integrity check would mean we'd have to come to terms with the fact
227
649402
3573
자료 진실성 확인은 미국에서 흑인과 백인 모두 같은 비율로
10:52
that in the US, whites and blacks smoke pot at the same rate
228
652999
3526
대마초를 피우고 있지만 체포율은 흑인이 훨씬 높음을
10:56
but blacks are far more likely to be arrested --
229
656549
2485
인정해야 한다는 겁니다.
10:59
four or five times more likely, depending on the area.
230
659058
3184
지역마다 다르지만 세 배에서 네 배까지 높죠.
11:03
What is that bias looking like in other crime categories,
231
663137
2826
다른 범죄에서는 이런 편견이 과연 어떨까요?
11:05
and how do we account for it?
232
665987
1451
또 이걸 어떻게 반영해야 할까요?
11:07
Second, we should think about the definition of success,
233
667982
3039
두 번째, 우리는 성공에 대한 정의를 다시 생각하고 따져봐야 합니다.
11:11
audit that.
234
671045
1381
11:12
Remember -- with the hiring algorithm? We talked about it.
235
672450
2752
고용문제 알고리즘 기억하세요? 아까 얘기했는데요.
11:15
Someone who stays for four years and is promoted once?
236
675226
3165
4년 근무하면 1번 승진을 한 사람을 찾는 알고리즘 말입니다.
11:18
Well, that is a successful employee,
237
678415
1769
이건 성공한 직장인이긴 합니다만
11:20
but it's also an employee that is supported by their culture.
238
680208
3079
또한 그 문화에 잘 동화된 직원이기도 합니다.
11:23
That said, also it can be quite biased.
239
683909
1926
이렇게 말하면 이 알고리즘 또한 너무 한쪽으로 치우져 있죠.
11:25
We need to separate those two things.
240
685859
2065
우리는 이 둘을 분리할 필요가 있습니다.
11:27
We should look to the blind orchestra audition
241
687948
2426
예로 블라인드 오케스트라 오디션을 참고할 필요가 있습니다.
11:30
as an example.
242
690398
1196
11:31
That's where the people auditioning are behind a sheet.
243
691618
2756
심사자들이 커튼 뒤에 있는 거죠.
11:34
What I want to think about there
244
694766
1931
제가 여기서 찾는 것은
11:36
is the people who are listening have decided what's important
245
696721
3417
무엇이 중요한지를 결정을 하고
또 덜 중요한가를 결정하는 게 듣는 사람이라는 거죠
11:40
and they've decided what's not important,
246
700162
2029
11:42
and they're not getting distracted by that.
247
702215
2059
그 어떤 것에도 간섭받지 않는 거죠.
11:44
When the blind orchestra auditions started,
248
704781
2749
블라인드 오케스트라 오디션이 시작되면서
11:47
the number of women in orchestras went up by a factor of five.
249
707554
3444
오케스트라의 여성 단원 수가 5배 정도 증가했습니다.
11:52
Next, we have to consider accuracy.
250
712073
2015
다음으로 정확성도 생각해봐야 합니다.
11:55
This is where the value-added model for teachers would fail immediately.
251
715053
3734
바로 여기서 선생님들에게 적용한 가치 증강 모델이 금방 탈락합니다.
11:59
No algorithm is perfect, of course,
252
719398
2162
물론 어느 알고리즘도 완벽하지 않습니다.
12:02
so we have to consider the errors of every algorithm.
253
722440
3605
그래서 모든 알고리즘의 오류를 고려해야 합니다.
12:06
How often are there errors, and for whom does this model fail?
254
726656
4359
얼마나 자주 오류가 발생하고 이 모델이 안 맞는 사람은 누군가요?
12:11
What is the cost of that failure?
255
731670
1718
그 오류의 댓가는 얼마나 되나요?
12:14
And finally, we have to consider
256
734254
2207
그리고 마지막으로 반드시 고려해야 하는 것은
12:17
the long-term effects of algorithms,
257
737793
2186
알고리즘의 장기적 영향과
12:20
the feedback loops that are engendering.
258
740686
2207
여기서 생겨나는 피드백 고리죠.
12:23
That sounds abstract,
259
743406
1236
구체적으로 와닿진 않겠지만
12:24
but imagine if Facebook engineers had considered that
260
744666
2664
페이스북 엔지니어가 친구들이 올린 글만 보여주도록 결정하기 전에
12:28
before they decided to show us only things that our friends had posted.
261
748090
4855
이 점을 먼저 생각해 봤다면 과연 어땠을까요?
12:33
I have two more messages, one for the data scientists out there.
262
753581
3234
제가 드릴 메세지가 둘 있는데 하나는 데이터 과학자분들 겁니다.
12:37
Data scientists: we should not be the arbiters of truth.
263
757270
3409
데이터 과학자 여러분, 우리는 진실의 결정권자가 아닙니다.
12:41
We should be translators of ethical discussions that happen
264
761340
3783
우리는 더 큰 사회에서 벌어지는 윤리적 토론을 번역하는 사람에 불과합니다.
12:45
in larger society.
265
765147
1294
12:47
(Applause)
266
767399
2133
(박수)
12:49
And the rest of you,
267
769556
1556
나머지 비데이터 과학자
12:51
the non-data scientists:
268
771831
1396
여러분
12:53
this is not a math test.
269
773251
1498
이 문제는 수학 시험이 아닙니다.
12:55
This is a political fight.
270
775452
1348
이것은 정치적 투쟁입니다.
12:58
We need to demand accountability for our algorithmic overlords.
271
778407
3907
알고리즘을 지배하는 이들에게 책임을 요구할 필요가 있습니다.
13:03
(Applause)
272
783938
1499
(박수)
13:05
The era of blind faith in big data must end.
273
785461
4225
빅 데이터에 대한 맹신의 시기는 반드시 끝나야 합니다.
13:09
Thank you very much.
274
789710
1167
대단히 감사합니다
13:10
(Applause)
275
790901
5303
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7