Machine intelligence makes human morals more important | Zeynep Tufekci

180,336 views ・ 2016-11-11

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Jeongmin Kim 검토: JY Kang
00:12
So, I started my first job as a computer programmer
0
12739
4122
저는 제 첫 번째 직업인 컴퓨터 프로그래머 일을
00:16
in my very first year of college --
1
16885
1956
대학 1학년 때 시작했습니다.
00:18
basically, as a teenager.
2
18865
1507
아직 십대였죠.
00:20
Soon after I started working,
3
20889
1732
일을 시작한 지 얼마 안 되어
00:22
writing software in a company,
4
22645
1610
회사에서 프로그래밍을 하고 있는데
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
회사의 한 관리자 제 자리로 와서는
00:28
and he whispered to me,
6
28458
1268
저한테 속삭였어요.
00:30
"Can he tell if I'm lying?"
7
30229
2861
"내가 거짓말하면 쟤가 알아챌까요?"
00:33
There was nobody else in the room.
8
33806
2077
하지만 방에는 둘밖에 없었어요.
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
"누가 알아챈다는 거죠? 아무도 없는데 왜 속삭이시는 거예요?"
00:42
The manager pointed at the computer in the room.
10
42266
3107
매니저는 방에 있는 컴퓨터를 가리켰어요.
00:45
"Can he tell if I'm lying?"
11
45397
3096
"저놈이 알아챌 수 있을까요?"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
그 매니저는 회사 접수계 직원과 바람을 피우고 있었죠.
00:53
(Laughter)
13
53999
1112
(웃음)
00:55
And I was still a teenager.
14
55135
1766
전 아직 십대였기에
00:57
So I whisper-shouted back to him,
15
57447
2019
그 사람 귀에 대고 소리쳤죠.
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"네, 저 컴퓨터는 당신 부정을 알 수 있을 거예요."
01:03
(Laughter)
17
63138
1806
(웃음)
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
전 웃고 말았지만, 결국 제가 어리석었죠.
01:07
Nowadays, there are computational systems
19
67915
3268
요즘 컴퓨터 시스템은
01:11
that can suss out emotional states and even lying
20
71207
3548
감정 상태나, 심지어 거짓말까지
01:14
from processing human faces.
21
74779
2044
인간 표정으로 알아낼 수 있거든요.
01:17
Advertisers and even governments are very interested.
22
77248
4153
광고 업체와 정부까지도 이 기술에 관심을 기울이고 있죠.
01:22
I had become a computer programmer
23
82319
1862
저는 어릴 때 수학과 과학을 매우 좋아해서
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
자연스레 프로그래머가 되었습니다.
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
그런데 언젠가 핵무기를 알게 되었을 때
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
저는 과학 윤리에 대해 괌심이 많아졌습니다.
01:34
I was troubled.
27
94050
1204
고민을 많이 했죠.
01:35
However, because of family circumstances,
28
95278
2641
하지만 집안 사정 때문에
01:37
I also needed to start working as soon as possible.
29
97943
3298
최대한 빨리 일을 해야 했죠.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
그래서 과학기술 분야 중에서
01:44
where I can get a job easily
31
104588
1796
직업을 쉽게 가질 수 있으면서도
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
복잡한 윤리적 고민을 할 필요가 없는 일을 고르기로 했습니다.
01:51
So I picked computers.
33
111022
1529
그래서 컴퓨터 관련된 일을 골랐죠.
01:52
(Laughter)
34
112575
1104
(웃음)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
하하하! 그런데 또 어리석은 생각이었네요.
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
요즘 컴퓨터 과학자들이 만드는 플랫폼은
01:59
that control what a billion people see every day.
37
119915
4209
십억 명이 매일 접하게 되는 시스템을 통제합니다.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
누굴 치게 될지도 모를 차를 개발하고
02:09
They're even building machines, weapons,
39
129707
3213
전쟁에서 사람을 죽일 수 있는
02:12
that might kill human beings in war.
40
132944
2285
기계나 무기도 설계하고 있죠.
02:15
It's ethics all the way down.
41
135253
2771
모두 윤리에 관한 거죠.
02:19
Machine intelligence is here.
42
139183
2058
인공지능의 시대입니다.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
컴퓨터는 점점 다양한 의사결정에 사용되고 있고
02:25
but also new kinds of decisions.
44
145321
1886
그 중엔 새로운 것도 있죠.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
주관적이고 가치 판단이 필요한
정답이 없는 열린 질문까지도 컴퓨터에게 묻고 있습니다.
02:32
that are subjective
46
152427
1202
02:33
and open-ended and value-laden.
47
153653
2325
02:36
We're asking questions like,
48
156002
1758
이를테면 이런 질문들이죠.
02:37
"Who should the company hire?"
49
157784
1650
"누굴 채용해야 할까요?"
02:40
"Which update from which friend should you be shown?"
50
160096
2759
"어느 친구의 어떤 소식을 업데이트해야 할까요?
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
"어느 재소자가 재범 가능성이 더 높을까요?"
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
"어떤 뉴스 기사나 영화를 추천 목록에 넣을까요?"
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
인간은 컴퓨터를 꽤 오래 사용했지만
02:51
but this is different.
54
171988
1517
이건 좀 다른 문제죠.
02:53
This is a historical twist,
55
173529
2067
역사적 반전입니다.
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
왜냐하면 그런 주관적인 결정까지 컴퓨터에 의지할 수는 없거든요.
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
비행기 조종이나 다리를 짓거나 달에 가는 것과 다르죠.
03:06
going to the moon.
58
186425
1259
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
비행기가 안전할 것인가. 다리가 흔들리고 무너질 것인가.
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
이런 문제는 명확하고 모두가 동의할 만한 기준이 있고
03:16
and we have laws of nature to guide us.
61
196254
2239
자연법칙에 따라 판단하면 되죠.
03:18
We have no such anchors and benchmarks
62
198517
3394
하지만 인간 사회의 일을 판단하는 데에는
03:21
for decisions in messy human affairs.
63
201935
3963
그런 기준이 존재하지 않습니다.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
더욱이 요즘 소프트웨어는 점점 더 강력해지고 있지만
03:30
but it's also getting less transparent and more complex.
65
210183
3773
동시에 더욱 불투명해지고 이해하기 힘들어지고 있습니다.
03:34
Recently, in the past decade,
66
214542
2040
지난 십 년 동안
03:36
complex algorithms have made great strides.
67
216606
2729
복합 알고리즘에는 굉장한 진전이 있었죠.
03:39
They can recognize human faces.
68
219359
1990
사람 얼굴을 인식할 수 있고
03:41
They can decipher handwriting.
69
221985
2055
손글씨도 읽어내며
03:44
They can detect credit card fraud
70
224436
2066
신용카드 사기를 간파하고
03:46
and block spam
71
226526
1189
스팸을 막고
03:47
and they can translate between languages.
72
227739
2037
번역도 할 수 있어요.
03:49
They can detect tumors in medical imaging.
73
229800
2574
영상 의료 사진에서 종양을 식별할 수 있고
03:52
They can beat humans in chess and Go.
74
232398
2205
인간과 체스나 바둑을 두어 이길 수 있습니다.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
이 진전에는 '기계 학습'이라는 기법의 공이 큽니다.
04:00
Machine learning is different than traditional programming,
76
240175
3187
기계 학습은 기존의 프로그래밍과는 다릅니다.
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
기존에는 컴퓨터에게 명확하고 자세한 지시를 내려야 했죠.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
이제는 시스템을 만든 뒤에 대량의 데이터를 입력합니다.
04:11
including unstructured data,
79
251584
1656
우리의 디지털 시대에 생성된
04:13
like the kind we generate in our digital lives.
80
253264
2278
구조화되지 않은 데이터들까지 포함해서 말이죠.
04:15
And the system learns by churning through this data.
81
255566
2730
시스템은 이 데이터를 헤쳐나가면서 학습합니다.
04:18
And also, crucially,
82
258669
1526
또 중요한 사실이 있는데
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
이 시스템은 정답을 단정짓는 논리로 작동하지 않습니다.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
확정적인 정답을 내기보다는 확률적 결론을 내리죠.
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"이게 당신이 찾던 결과일 가능성이 높습니다."라고요.
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
장점은 이 방식이 정말 강력하다는 겁니다.
04:35
The head of Google's AI systems called it,
87
275117
2076
구글의 인공지능 시스템 책임자는 이를 두고
'정보의 과잉 효율성'이라고 표현했죠.
04:37
"the unreasonable effectiveness of data."
88
277217
2197
04:39
The downside is,
89
279791
1353
단점은
04:41
we don't really understand what the system learned.
90
281738
3071
그 시스템이 무엇을 배웠는지 우리는 알 수 없다는 겁니다.
04:44
In fact, that's its power.
91
284833
1587
사실 장점이기도 하죠.
04:46
This is less like giving instructions to a computer;
92
286946
3798
컴퓨터에 명령을 내린다기 보다
04:51
it's more like training a puppy-machine-creature
93
291200
4064
우리가 이해하거나 통제하지 못하는 강아지 같은 기계를
04:55
we don't really understand or control.
94
295288
2371
훈련시키는 거라고 할 수 있죠.
04:58
So this is our problem.
95
298362
1551
그런데 문제가 있어요.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
이 인공지능이 잘못된 것을 학습할 때 문제가 발생하죠.
05:04
It's also a problem when it gets things right,
97
304713
3540
그리고 잘 학습했어도 문제가 됩니다.
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
왜냐하면 주관적인 문제에서는 뭐가 뭔지도 모르니까요.
05:11
We don't know what this thing is thinking.
99
311929
2339
무슨 생각으로 이런 판단을 했는지 알 수가 없는 거죠.
05:15
So, consider a hiring algorithm --
100
315493
3683
채용 알고리즘을 생각해 보세요.
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
사람을 가려내는 기계 학습 시스템입니다.
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
이런 시스템은 이전 직원들 데이터를 바탕으로 훈련되었을 것이고
05:28
and instructed to find and hire
103
328655
2591
성과가 좋을 만한 직원들을
05:31
people like the existing high performers in the company.
104
331270
3038
미리 찾아서 고용하려고 하겠죠.
05:34
Sounds good.
105
334814
1153
괜찮아 보입니다.
05:35
I once attended a conference
106
335991
1999
저는 인사부와 임원들
05:38
that brought together human resources managers and executives,
107
338014
3125
회사 고위직들이 한데 모인 그런 채용 시스템 도입을
05:41
high-level people,
108
341163
1206
주제로 한 컨퍼런스에 참석한 적이 있습니다.
05:42
using such systems in hiring.
109
342393
1559
05:43
They were super excited.
110
343976
1646
그 분들은 정말 들떠 있었죠.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
그들은 이 시스템이 편파적이지 않고 객관적인 채용을 가능케 하고
05:50
and give women and minorities a better shot
112
350323
3000
편견을 가진 인간 관리자보다 여성과 소수자에게
05:53
against biased human managers.
113
353347
2188
더 많은 기회를 주리라 기대했습니다.
05:55
And look -- human hiring is biased.
114
355559
2843
사람에 의한 고용은 편향됐죠.
05:59
I know.
115
359099
1185
저도 알아요.
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
프로그래머로서의 제 초기 직장 중 하나에서
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
제 직속 상사는 가끔 제가 아침 일찍부터
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
밤 늦게까지 일하던 자리로 와서
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
"제이넵, 점심 먹으러 갑시다" 라고 말했었어요.
06:14
I'd be puzzled by the weird timing.
120
374724
2167
시계를 보고 의아해했죠.
06:16
It's 4pm. Lunch?
121
376915
2129
오후 4시에 점심이라니?
06:19
I was broke, so free lunch. I always went.
122
379068
3094
전 돈이 없었으니 점심 사 준다니까 항상 갔죠.
06:22
I later realized what was happening.
123
382618
2067
나중에 무슨 이유인지 알게 되었어요.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
제 직속 상사는 그녀가 고용한 프로그래머가
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
청바지에 운동화를 신고 일터에 오는 십대 학생이란 걸
06:32
who wore jeans and sneakers to work.
126
392416
3930
말하지 않았던 거죠.
06:37
I was doing a good job, I just looked wrong
127
397174
2202
일은 잘 하고 있었지만 입은 옷과 나이와 성별이
06:39
and was the wrong age and gender.
128
399400
1699
'적절치 않았던' 거죠.
06:41
So hiring in a gender- and race-blind way
129
401123
3346
그래서 나이와 인종을 가리지 않은 채용은
06:44
certainly sounds good to me.
130
404493
1865
저에게는 좋아 보입니다.
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
하지만 이 시스템이 양날의 칼인 이유는 따로 있죠.
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
현재 이런 시스템은 여러분이 공개하지 않은 개인 정보도
06:56
from your digital crumbs,
133
416783
1872
여러분이 남긴 정보 부스러기에서 추론할 수 있기 때문입니다.
06:58
even if you have not disclosed those things.
134
418679
2333
07:01
They can infer your sexual orientation,
135
421506
2927
여러분의 성적 취향을 추측할 수 있고
07:04
your personality traits,
136
424994
1306
성격 특성과
07:06
your political leanings.
137
426859
1373
정치 성향까지 추측하죠.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
상당히 높은 수준의 적중률로요.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
공개하지도 않은 정보를 알아냅니다.
07:15
This is inference.
140
435964
1591
추론한 것이죠.
07:17
I have a friend who developed such computational systems
141
437579
3261
제 친구 하나가 SNS 자료를 통해
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
질병이나 산후 우울증 가능성을 예측하는 시스템을 개발했습니다.
07:24
from social media data.
143
444529
1416
07:26
The results are impressive.
144
446676
1427
결과는 인상적이었습니다.
07:28
Her system can predict the likelihood of depression
145
448492
3357
그녀가 만든 시스템은 증상이 시작되기 몇 달 전에
07:31
months before the onset of any symptoms --
146
451873
3903
우울증 발생 가능성을 예측할 수 있었어요.
07:35
months before.
147
455800
1373
몇 달 전에요.
07:37
No symptoms, there's prediction.
148
457197
2246
증상도 없이 예측한 것이죠.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
그녀는 이게 우울증 예방에 사용될 거라 생각했어요. 좋은 일이죠?
07:44
But now put this in the context of hiring.
150
464911
2040
하지만 지금 그 기술은 채용 시스템에 적용되었습니다.
07:48
So at this human resources managers conference,
151
468027
3046
저는 인사 담당자들이 모인 아까 그 학회에서
07:51
I approached a high-level manager in a very large company,
152
471097
4709
대기업의 고위직 관리자에게 다가가서 이렇게 말했습니다.
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
"당신이 모르는 사이에 프로그램이
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
우울증 발병 가능성이 높은 사람들을 가려내고 있다면 어떻게 될까요?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
지금은 우울증이 없지만, 미래에 위험 가능성이 있죠.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
지금은 임신하지 않았지만
1,2년 내에 출산 휴가를 낼 만한 여성들을 미리 가려내고 있다면요?
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
직장 문화에 적합하다는 이유로 공격적인 사람만을 고용한다면요?"
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
이건 남녀 성비만으로는 판단할 수 없어요.
08:27
Those may be balanced.
160
507888
1502
성비는 이미 균형잡혀 있겠죠.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
그리고 전통적인 프로그래밍 방식이 아닌 기계 학습이기 때문에
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
'우울증 위험성 높음'이라는 변수명은 존재하지 않아요.
08:37
"higher risk of pregnancy,"
163
517926
1833
'임신 가능성 높음'
08:39
"aggressive guy scale."
164
519783
1734
'남성 공격성 척도'도 없죠.
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
시스템이 어떤 기준으로 선택하는지 모르는 것은 물론
08:45
you don't even know where to begin to look.
166
525698
2323
어디부터 봐야 할지조차 모르는 거죠.
08:48
It's a black box.
167
528045
1246
블랙박스입니다.
08:49
It has predictive power, but you don't understand it.
168
529315
2807
그 예측 능력을 우리는 알지 못하죠.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
그래서 제가 물었죠.
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
"블랙박스가 뭔가 이상한 짓을 못하도록 어떤 안전 장치를 마련하시겠어요?"
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
제가 엄청난 사건을 일으킨 것처럼 쳐다보더라고요.
09:04
(Laughter)
172
544765
1248
(웃음)
09:06
She stared at me and she said,
173
546037
2041
저를 빤히 쳐다보곤 이렇게 말하더군요.
09:08
"I don't want to hear another word about this."
174
548556
4333
"이것에 대해서는 더 이상 듣고 싶지 않네요."
09:13
And she turned around and walked away.
175
553458
2034
그리고 돌아서서 가 버렸어요.
09:16
Mind you -- she wasn't rude.
176
556064
1486
그렇다고 무례했던 건 아니에요.
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
자기가 모르는 건 자기 문제가 아니니 신경쓰게 하지 말라는 경고였죠.
09:23
(Laughter)
178
563906
1246
(웃음)
09:25
Look, such a system may even be less biased
179
565862
3839
시스템은 인간 관리자와 달리 편견이 없을 수도 있어요.
09:29
than human managers in some ways.
180
569725
2103
09:31
And it could make monetary sense.
181
571852
2146
인사 업무에 돈도 덜 써도 되겠죠.
09:34
But it could also lead
182
574573
1650
하지만 이 시스템은 지속적이고 암묵적으로
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
우울증 위험이 높은 사람들의 고용 기회를 박탈할 수 있습니다.
09:41
of people with higher risk of depression.
184
581019
2293
09:43
Is this the kind of society we want to build,
185
583753
2596
이해하지도 못하는 기계에게 의사결정을 맡기면서
09:46
without even knowing we've done this,
186
586373
2285
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
우리 모르게 기회를 박탈하는 게 바람직한 사회인가요?
09:53
Another problem is this:
188
593265
1458
또 다른 문제도 있습니다.
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
이 시스템은 우리 인간의 행동방식이 만들어 낸 정보들로 학습을 합니다.
09:59
human imprints.
190
599790
1816
인간이 남긴 흔적들이죠.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
그러면 우리의 편견을 그대로 반영하게 되고
10:06
and these systems could be picking up on our biases
192
606020
3593
시스템은 그 편견을 익히고 확대시켜 우리에게 결과로 보여주게 됩니다.
10:09
and amplifying them
193
609637
1313
10:10
and showing them back to us,
194
610974
1418
10:12
while we're telling ourselves,
195
612416
1462
우리는 그걸 합리화하죠.
10:13
"We're just doing objective, neutral computation."
196
613902
3117
"지금 객관적이고 공정한 계산 결과를 뽑는 중이야~" 라면서요.
10:18
Researchers found that on Google,
197
618314
2677
연구 결과에 따르면 구글 검색의 경우에는
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
여성은 남성보다 고소득 구인 광고에 덜 노출된다고 합니다.
10:28
And searching for African-American names
199
628463
2530
그리고 흑인계 이름으로 검색해 보면
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
범죄 전과를 시사하는 광고가 더 많이 나온다고 해요.
10:35
even when there is none.
201
635747
1567
전과가 없는데도 말이죠.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
이런 암묵적 편견과 블랙박스 속 알고리즘은
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
연구자들이 모두 밝혀낼 수 없어 우리도 모르는 사이에
10:46
can have life-altering consequences.
204
646263
2661
개인의 삶에 영향을 미칠 수 있죠.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
위스콘신에서는 어느 피고인이 경찰 수사를 거부한 죄로
10:54
for evading the police.
206
654141
1355
6년형을 선고받았습니다.
10:56
You may not know this,
207
656824
1186
알고 계실지 모르겠지만
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
알고리즘이 가석방과 형량 판결에 점점 더 많이 사용되고 있습니다.
11:02
He wanted to know: How is this score calculated?
209
662056
2955
그는 대체 그런 결정이 어떻게 나오는지 알고 싶었죠.
11:05
It's a commercial black box.
210
665795
1665
그건 상업적인 블랙박스였고
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
개발사는 알고리즘이 법정에서 심판받는 것을 거부했죠.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
하지만 ProPublica라는 비영리 수사 기구가
각종 데이터로 그 알고리즘을 검사했고
11:17
with what public data they could find,
213
677952
2016
11:19
and found that its outcomes were biased
214
679992
2316
밝혀진 사실은 그 알고리즘 예측 성능이 우연과 별다르지 않은 수준이었으며
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
흑인 피고를 잠재적 범죄자로 낙인찍는 확률이
11:30
at twice the rate of white defendants.
217
690425
3895
백인 피고에 비해 두 배나 높다는 것이었습니다.
11:35
So, consider this case:
218
695891
1564
다른 경우도 살펴 볼까요.
11:38
This woman was late picking up her godsister
219
698103
3852
오른쪽 여성은 플로리다 브로워드 카운티의 학교에 다니는
11:41
from a school in Broward County, Florida,
220
701979
2075
교회 동생을 데리러 갈 약속에 늦는 바람에
11:44
running down the street with a friend of hers.
221
704757
2356
친구와 함께 뛰어가고 있었죠.
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
그러다 어느 집 현관에 있던 자전거와 스쿠터를 발견하고는
11:51
and foolishly jumped on it.
223
711260
1632
어리석게도 그걸 집어 탔어요.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
그들이 속도를 내며 달아날 때 한 여자가 뛰어나와 소리쳤죠.
11:55
"Hey! That's my kid's bike!"
225
715539
2205
"우리 애 자전거로 뭐 하는 거야!"
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
그들은 자전거를 버리고 걸어서 달아났지만 체포되었습니다.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
그들이 잘못했고, 어리석긴 했어요. 그런데 겨우 열여덟 살이었죠.
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
그녀는 청소년 범죄 전과가 몇 건 있었죠.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
한편, 이 남성은 마트에서 85달러어치 좀도둑질을 하다가 체포되었습니다.
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
비슷한 범죄죠.
12:16
But he had two prior armed robbery convictions.
231
736766
4559
하지만 그에게는 두 번의 무장강도 전과가 있었어요.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
그런데 알고리즘은 남자가 아니라 여자를 고위험군으로 분류했죠.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
2년 뒤에
ProPublica가 조사해보니 여성은 재범하지 않았습니다.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
전과가 있었기에 취직이 어렵긴 했죠.
12:33
He, on the other hand, did reoffend
235
753218
2076
반면 남자는 재범하였고
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
그 이후 저지른 범죄로 현재 8년을 복역 중입니다.
12:40
Clearly, we need to audit our black boxes
237
760088
3369
우리는 블랙박스를 잘 검수해서
12:43
and not have them have this kind of unchecked power.
238
763481
2615
엉뚱한 권한을 갖지 않도록 분명히 해야 합니다.
12:46
(Applause)
239
766120
2879
(박수)
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
검수는 중요하고 또 유효하지만 모든 문제를 해결하진 못합니다.
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
페이스북의 강력한 뉴스 피드 알고리즘을 살펴 보죠.
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
모든 것을 순위대로 나열하고
팔로우하는 모든 친구와 페이지에서 무엇을 보여 줄지를 결정하죠.
13:01
from all the friends and pages you follow.
243
781992
2284
13:04
Should you be shown another baby picture?
244
784898
2275
아기 사진을 또 봐야 할까요?
13:07
(Laughter)
245
787197
1196
(웃음)
13:08
A sullen note from an acquaintance?
246
788417
2596
아니면 지인의 삐진 듯한 글?
13:11
An important but difficult news item?
247
791449
1856
어렵지만 중요한 뉴스 기사?
13:13
There's no right answer.
248
793329
1482
정답은 없습니다.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
알고리즘은 페이스북 활동에 최적화되어 있습니다.
13:17
likes, shares, comments.
250
797518
1415
좋아요, 공유, 댓글이죠.
13:20
In August of 2014,
251
800168
2696
2014년 8월에
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
백인 경찰관이 범행이 불확실한 상황에서
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
십대 흑인에게 발포하여 살해한 사건 후, 미주리 주 퍼거슨에서
13:30
under murky circumstances.
254
810015
1570
시위가 일어났습니다.
13:31
The news of the protests was all over
255
811974
2007
시위 뉴스는 알고리즘 필터가 없는
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
트위터 글목록에는 나타났지만
13:36
but nowhere on my Facebook.
257
816714
1950
페이스북에는 흔적이 없었습니다.
13:39
Was it my Facebook friends?
258
819182
1734
페이스북 친구 때문인가 생각하고 알고리즘을 해제해 보았습니다.
13:40
I disabled Facebook's algorithm,
259
820940
2032
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
페이스북은 계속 알고리즘이 추천하는 글을 보여주려고 해서 좀 까다로웠죠.
13:46
come under the algorithm's control,
261
826344
2036
13:48
and saw that my friends were talking about it.
262
828404
2238
친구들이 시위 이야기를 하지 않던 게 아니었습니다.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
알고리즘이 전달을 막고 있었던 겁니다.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
전 이걸 조사하고는 광범위한 문제임을 알았습니다.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
퍼거슨 사건은 알고리즘이 선호할 만한 게 아니죠.
14:00
It's not "likable."
266
840102
1171
좋아요가 적습니다.
14:01
Who's going to click on "like?"
267
841297
1552
댓글 남기기도 껄끄러운데
14:03
It's not even easy to comment on.
268
843500
2206
누가 좋아요를 누르겠어요?
14:05
Without likes and comments,
269
845730
1371
좋아요와 댓글이 적어서
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
알고리즘이 더 보여주고 싶지 않아했고
14:10
so we didn't get to see this.
271
850441
1542
결국 우리가 보지 못한 겁니다.
14:12
Instead, that week,
272
852946
1228
대신 그 주에 페이스북 알고리즘이 선호한 것은
14:14
Facebook's algorithm highlighted this,
273
854198
2298
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
루게릭 병 모금을 위한 아이스 버킷 챌린지였습니다.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
얼음물 세례를 맞고 기부를 한다는 취지 자체는 괜찮죠.
14:22
But it was super algorithm-friendly.
276
862536
1904
하지만 알고리즘이 과하게 좋아할 만한 것이었습니다.
14:25
The machine made this decision for us.
277
865219
2613
기계가 결정을 내려 버린 거죠.
14:27
A very important but difficult conversation
278
867856
3497
페이스북이 유일한 소통 창구였다면
14:31
might have been smothered,
279
871377
1555
중요하지만 까다로운 쟁점이 묻힐 뻔했습니다.
14:32
had Facebook been the only channel.
280
872956
2696
14:36
Now, finally, these systems can also be wrong
281
876117
3797
마지막으로, 이 시스템은 인간과는 다른 방식으로
14:39
in ways that don't resemble human systems.
282
879938
2736
오류를 범할 수 있습니다.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
퀴즈 프로그램에서 인간 참가자를 누르고 우승을 차지한
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
IBM의 인공지능 왓슨을 기억하시나요?
14:49
It was a great player.
285
889131
1428
대단한 실력이었죠.
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
하지만 왓슨이 맞이한 마지막 문제를 보시면
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
"이 도시 최대 공항 이름은 2차 대전 영웅을,
14:57
its second-largest for a World War II battle."
288
897615
2252
두 번째로 큰 공항은 2차 대전 전투를 따서 지어졌다.
14:59
(Hums Final Jeopardy music)
289
899891
1378
(Jeopardy 대기 음악)
15:01
Chicago.
290
901582
1182
답은 시카고죠.
15:02
The two humans got it right.
291
902788
1370
인간 참가자는 모두 맞췄습니다.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
하지만 왓슨은 '토론토'라고 썼죠.
15:09
for a US city category!
293
909069
1818
주제가 미국 도시였는데도 말이죠.
15:11
The impressive system also made an error
294
911596
2901
또한 이 뛰어난 시스템은
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
초등학교 2학년생도 하지 않을 실수를 저질렀죠.
15:18
Our machine intelligence can fail
296
918823
3109
인공지능은 인간의 오류와는 다른 방식으로 오작동할 수 있고
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
15:25
in ways we won't expect and be prepared for.
298
925080
2950
그래서 우리가 예상하거나 대비하기 어렵습니다.
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
능력에 맞는 직업을 갖지 못한다면 기분 나쁠 거예요.
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
그런데 그 이유가 프로그램 함수의 과부하 오류 때문이라면
15:35
in some subroutine.
301
935467
1432
몇 배는 더 기분 나쁘겠죠.
15:36
(Laughter)
302
936923
1579
(웃음)
15:38
In May of 2010,
303
938526
2786
2010년 5월에
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
월가의 매도 알고리즘의 피드백 반복문 오류로 주가가 폭락했고
15:45
in Wall Street's "sell" algorithm
305
945404
3028
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
36분 만에 1조 달러어치의 가치가 사라진 일이 있었죠.
15:53
I don't even want to think what "error" means
307
953722
2187
살상 무기의 경우에 '오류'가 일어나면 어떻게 될지
15:55
in the context of lethal autonomous weapons.
308
955933
3589
생각하고 싶지도 않습니다.
16:01
So yes, humans have always made biases.
309
961894
3790
인간의 결정에는 결함이 많죠.
16:05
Decision makers and gatekeepers,
310
965708
2176
의사결정과 보안
16:07
in courts, in news, in war ...
311
967908
3493
법정, 언론, 전쟁에서
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
모두 실수가 일어나지만 저는 그래야 한다고 생각합니다.
16:14
We cannot escape these difficult questions.
313
974487
3521
우리는 어려운 문제를 피할 수 없습니다.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
기계에게 책임을 떠넘겨서는 안 됩니다.
16:22
(Applause)
315
982676
4208
(박수)
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
인공지능이 '윤리적 문제의 면죄부'를 주지는 않습니다.
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
데이터 과학자인 프레드 베넨슨은 이를 두고 '논리 세탁'이라 표현했죠.
16:38
We need the opposite.
318
998147
1389
정반대 태도가 필요합니다.
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
알고리즘을 의심하고 조사하고 검수하는 능력을 길러야 합니다.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
알고리즘에 대한 회계와 감사 그리고 투명성 제고 방법을
16:48
auditing and meaningful transparency.
321
1008602
2445
구축해야 합니다.
16:51
We need to accept that bringing math and computation
322
1011380
3234
인간 사회의 가치 판단 문제에 수학과 컴퓨터를 도입한다고 해서
16:54
to messy, value-laden human affairs
323
1014638
2970
객관적인 일이 되지는 않는다는 걸
16:57
does not bring objectivity;
324
1017632
2384
받아들여야 합니다.
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
오히려 인간 문제의 복잡성이 알고리즘을 주관적으로 만들죠.
17:04
Yes, we can and we should use computation
326
1024148
3487
물론 더 나은 의사결정을 위해서라면 컴퓨터를 이용할 수도 있을 겁니다.
17:07
to help us make better decisions.
327
1027659
2014
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
하지만 우리 판단의 도덕적 책임은 우리 스스로가 짊어져야 합니다.
17:15
and use algorithms within that framework,
329
1035053
2818
알고리즘은 그 틀 안에서만 이용되어야 할 뿐이고
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
우리의 도덕적 책임을 다른 쪽에 전가하는 수단이 되어서는 안되죠.
17:22
to one another as human to human.
331
1042854
2454
17:25
Machine intelligence is here.
332
1045807
2609
인공지능의 시대에는
17:28
That means we must hold on ever tighter
333
1048440
3421
인간 가치와 윤리가
17:31
to human values and human ethics.
334
1051885
2147
더욱더 중요합니다.
17:34
Thank you.
335
1054056
1154
감사합니다.
17:35
(Applause)
336
1055234
5020
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7