How humans and AI can work together to create better businesses | Sylvain Duranton

29,531 views ・ 2020-02-14

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
번역: Keun Jeong Mo 검토: Theo Kim
00:12
Let me share a paradox.
1
12865
2127
역설을 하나 공유해 볼게요.
00:16
For the last 10 years,
2
16429
1467
지난 10년 간
00:17
many companies have been trying to become less bureaucratic,
3
17920
3848
많은 회사들은 관료주의,
00:21
to have fewer central rules and procedures,
4
21792
2833
중심적인 규칙, 절차에서 벗어나고
00:24
more autonomy for their local teams to be more agile.
5
24649
3245
각 부서가 더욱 민첩하게끔 자율적으로 만들고 있습니다.
00:28
And now they are pushing artificial intelligence, AI,
6
28204
4586
그리고 회사들이 강조하는 대단한 기술인 AI가
00:32
unaware that cool technology
7
32814
2445
그 어느 때 보다도 사람들을 더욱 관료적으로
00:35
might make them more bureaucratic than ever.
8
35283
3602
만드는지 인지하지 못하고 있습니다.
00:39
Why?
9
39378
1151
왜죠?
00:40
Because AI operates just like bureaucracies.
10
40553
3492
바로 AI가 관료주의처럼 작동하기 때문입니다.
00:44
The essence of bureaucracy
11
44403
2412
관료주의의 본질은
00:46
is to favor rules and procedures over human judgment.
12
46839
4444
인간의 판단보다 규칙과 절차를 선호합니다.
00:51
And AI decides solely based on rules.
13
51887
3841
그리고 AI는 오직 규칙들에 기반해 결정합니다.
00:56
Many rules inferred from past data
14
56062
2833
많은 규칙들을 과거 데이터에서 추론해왔습니다.
00:58
but only rules.
15
58919
1904
하지만 규칙만 추론했습니다.
01:01
And if human judgment is not kept in the loop,
16
61204
3730
만약 인간의 판단이 의사결정 과정에 없다면
01:04
AI will bring a terrifying form of new bureaucracy --
17
64958
4556
AI는 무시무시한 형태의 새로운 관료주의를 가져올 것입니다.
01:09
I call it "algocracy" --
18
69538
2999
저는 이걸 '알고크라시 (알고리즘에 의한 지배)'라고 부릅니다.
01:12
where AI will take more and more critical decisions by the rules
19
72561
4500
AI가 인간의 통제를 벗어나 규칙을 이용해
점점 더 많은 비판적인 결정을 내릴 것입니다.
01:17
outside of any human control.
20
77085
2317
01:20
Is there a real risk?
21
80427
1674
이게 진짜 위험할까요?
01:22
Yes.
22
82514
1150
01:23
I'm leading a team of 800 AI specialists.
23
83688
3006
저는 AI 전문가 800명을 이끌고 있습니다.
01:26
We have deployed over 100 customized AI solutions
24
86718
3857
저희는 맞춤화된 AI 솔루션을 100개 이상
01:30
for large companies around the world.
25
90599
2467
전세계 대형 회사들에 배치했습니다.
01:33
And I see too many corporate executives behaving like bureaucrats from the past.
26
93417
5819
그리고 저는 너무나 많은 경영진이 옛날 관료처럼 행동하는 것을 봤습니다.
01:39
They want to take costly, old-fashioned humans out of the loop
27
99784
4912
그들은 돈 많이 드는, 유행 지난 사람들을 의사결정 과정에서 내보내고
01:44
and rely only upon AI to take decisions.
28
104720
3865
오로지 AI에 의지해 결정을 내리고 싶어합니다.
01:49
I call this the "human-zero mindset."
29
109244
4253
저는 이걸 '인간제로 사고방식'이라 부릅니다.
01:54
And why is it so tempting?
30
114260
2118
이게 왜 그렇게 솔깃하게 들릴까요?
01:56
Because the other route, "Human plus AI," is long,
31
116879
5404
왜냐하면 다른 방식인 "인간 플러스 AI"는 소요 시간이 길고
02:02
costly and difficult.
32
122307
2609
비싸고 실행하기 어렵기 때문입니다.
02:04
Business teams, tech teams, data-science teams
33
124940
3293
비즈니스 팀, 기술 팀, 데이터 과학자 팀들은
02:08
have to iterate for months
34
128257
2079
몇 개월 동안 반복 작업을 통해
02:10
to craft exactly how humans and AI can best work together.
35
130360
5268
인간과 AI가 어떻게 최고의 협업을 할 수 있는지 정확히 만들어야 합니다.
02:16
Long, costly and difficult.
36
136160
3428
오래 걸리고, 비싸고, 어렵죠.
02:19
But the reward is huge.
37
139891
2070
하지만 성과는 거대합니다.
02:22
A recent survey from BCG and MIT
38
142343
3306
최근 BCG와 MIT의 조사에 따르면
02:25
shows that 18 percent of companies in the world
39
145673
4507
전세계 18퍼센트의 회사는
02:30
are pioneering AI,
40
150204
2214
AI를 일찍이 도입하고
02:32
making money with it.
41
152442
2301
이를 통해 수익을 얻습니다.
02:35
Those companies focus 80 percent of their AI initiatives
42
155157
5590
이 회사들은 AI 계획 중 80퍼센트를
02:40
on effectiveness and growth,
43
160771
1953
효율성과 발전,
02:42
taking better decisions --
44
162748
2170
더 나은 결정을 위해 집중하지만
02:44
not replacing humans with AI to save costs.
45
164942
3538
비용 절약을 위해 AI로 인간을 대체하지 않습니다.
02:50
Why is it important to keep humans in the loop?
46
170159
3200
인간을 의사결정 과정에 두는 것이 왜 중요할까요?
02:54
Simply because, left alone, AI can do very dumb things.
47
174032
4847
쉽게 말해, AI를 혼자 두면 아주 멍청한 행동을 할 수 있습니다.
02:59
Sometimes with no consequences, like in this tweet.
48
179363
3373
가끔 이 트윗처럼 답이 없습니다.
03:03
"Dear Amazon,
49
183212
1564
"아마존에게
03:04
I bought a toilet seat.
50
184800
1386
전 변기를 하나 샀어요.
03:06
Necessity, not desire.
51
186210
1661
변기가 필요 했을 뿐, 욕구 충족이 아니죠.
03:07
I do not collect them,
52
187895
1452
저는 변기를 수집하지 않아요.
03:09
I'm not a toilet-seat addict.
53
189371
2238
저는 변기 중독자가 아니라고요.
03:11
No matter how temptingly you email me,
54
191633
2206
여러분이 어떤 솔깃한 이메일을 보내더라도
03:13
I am not going to think, 'Oh, go on, then,
55
193863
2349
저는 절대로 '오, 좋아, 그럼
03:16
one more toilet seat, I'll treat myself.' "
56
196236
2140
변기 하나를 더 구매해서 나에게 선물해야지' 생각하지 않을 것입니다.
03:18
(Laughter)
57
198400
1344
(웃음)
03:19
Sometimes, with more consequence, like in this other tweet.
58
199768
4618
어떤 때에는 또 이 트윗처럼 더 심각한 결과를 가져옵니다.
03:24
"Had the same situation
59
204903
1787
"저의 어머니의 유골함 때와
03:26
with my mother's burial urn."
60
206714
2459
비슷한 상황에 처한 적이 있어요."
03:29
(Laughter)
61
209197
1008
(웃음)
03:30
"For months after her death,
62
210229
1365
"어머니가 돌아가신 후
03:31
I got messages from Amazon, saying, 'If you liked that ...' "
63
211618
3548
아마존에서
'만약 귀하의 마음에 들었다면...' 이라는 문자를 받았어요.
03:35
(Laughter)
64
215190
2015
(웃음)
03:37
Sometimes with worse consequences.
65
217229
2528
어떤 때에는 더 심각한 결과를 가져옵니다.
03:39
Take an AI engine rejecting a student application for university.
66
219781
4730
AI가 어떤 학생의 대학교 지원을 거부할 수 있습니다.
03:44
Why?
67
224535
1150
왜죠?
03:45
Because it has "learned," on past data,
68
225709
2670
왜냐하면 과거 데이터를 통해
03:48
characteristics of students that will pass and fail.
69
228403
3182
합격, 불합격 학생들의 특징을 배우기 때문입니다
03:51
Some are obvious, like GPAs.
70
231609
2103
GPA 같은 건 명확할 겁니다.
03:54
But if, in the past, all students from a given postal code have failed,
71
234069
5109
그러나 만약에 특정 우편번호를 사용한 학생들이 모두 탈락했다면
03:59
it is very likely that AI will make this a rule
72
239202
3532
AI는 이를 규칙으로 만들 가능성이 매우 높고
04:02
and will reject every student with this postal code,
73
242758
3770
이 우편번호를 사용한 모든 학생들을 탈락시킬 것이며
04:06
not giving anyone the opportunity to prove the rule wrong.
74
246552
4813
누구에게도 이 잘못된 규칙을 증명할 기회를 주지 않을 것입니다.
04:11
And no one can check all the rules,
75
251857
2516
그리고 아무도 이 모든 규칙을 검사할 수 없죠.
04:14
because advanced AI is constantly learning.
76
254397
3452
뛰어난 AI는 끊임없이 배우니까요.
04:18
And if humans are kept out of the room,
77
258307
2326
만약 인간이 이 틀을 벗어나고자 한다면
04:20
there comes the algocratic nightmare.
78
260657
3277
이는 알고크라시 악몽이 될 것입니다.
04:24
Who is accountable for rejecting the student?
79
264466
2857
입학 거부에 대해 누가 책임을 지나요?
04:27
No one, AI did.
80
267347
1643
아무도 없습니다. AI가 한 것입니다.
04:29
Is it fair? Yes.
81
269014
1674
공평한가요? 네.
04:30
The same set of objective rules has been applied to everyone.
82
270712
3242
왜냐하면 객관적인 평가가 모든 사람에게 똑같이 적용되었기 때문입니다.
04:34
Could we reconsider for this bright kid with the wrong postal code?
83
274367
3902
잘못된 우편번호를 사용한 똑똑한 아이에게 다른 기회를 줄 수 있을까요?
04:38
No, algos don't change their mind.
84
278899
3111
안됩니다. 알고리즘은 결정을 번복하지 않습니다.
04:42
We have a choice here.
85
282974
2016
그러나 우리는 지금 한 가지 선택권이 있습니다.
04:45
Carry on with algocracy
86
285756
2524
알고크라시로 계속 가시든지
04:48
or decide to go to "Human plus AI."
87
288304
2865
아니면 '인간 플러스 AI'로 결정할 수가 있습니다.
04:51
And to do this,
88
291193
1333
이를 위해서
04:52
we need to stop thinking tech first,
89
292550
3440
우리는 기술에 대한 생각을 먼저 멈추고
04:56
and we need to start applying the secret formula.
90
296014
3650
은밀한 공식을 적용시켜야 합니다.
05:00
To deploy "Human plus AI,"
91
300601
2103
"인간 플러스 AI"를 적용하기 위해
05:02
10 percent of the effort is to code algos;
92
302728
2921
알고리즘 코드 제작에 10% 노력을 쏟고
05:05
20 percent to build tech around the algos,
93
305673
3531
20퍼센트는 알고리즘 관련 기술을 만들고
05:09
collecting data, building UI, integrating into legacy systems;
94
309228
4106
데이터 수집, UI 제작, 기존 시스템과의 통합이 이루어집니다.
05:13
But 70 percent, the bulk of the effort,
95
313358
2904
그러나 70%에 달하는 많은 노력은
05:16
is about weaving together AI with people and processes
96
316286
4476
AI에 인간과 프로세스를 함께 엮음으로서
05:20
to maximize real outcome.
97
320786
2374
최대의 성과를 얻게끔 하는 것입니다.
05:24
AI fails when cutting short on the 70 percent.
98
324136
4634
AI는 이 70%에 미치지 못하면 실패합니다.
05:28
The price tag for that can be small,
99
328794
3159
이를 위한 비용은 줄어들 수도 있겠지만
05:31
wasting many, many millions of dollars on useless technology.
100
331977
3985
수백만 달러를 쓸모없는 기술에 낭비하게 되겠죠.
05:35
Anyone cares?
101
335986
1150
누가 신경이나 쓸까요?
05:38
Or real tragedies:
102
338153
2325
혹은 이러한 비극이 있죠.
05:41
346 casualties in the recent crashes of two B-737 aircrafts
103
341137
7515
346명의 사상자를 낸 최근 2번의 B-737기 사고 이유는
05:48
when pilots could not interact properly
104
348776
3261
파일럿이 컴퓨터화된 명령 시스템과
05:52
with a computerized command system.
105
352061
2467
적절히 상호작용을 하지 못했기 때문입니다
05:55
For a successful 70 percent,
106
355974
1794
성공적인 70%를 위해서
05:57
the first step is to make sure that algos are coded by data scientists
107
357792
5095
첫 번째 단계는 알고리즘이 데이터 과학자와 특정 분야 전문가에 의해
06:02
and domain experts together.
108
362911
2118
코드로 짜여져야 합니다.
06:05
Take health care for example.
109
365427
2198
건강 관리를 예로 들어봅시다.
06:07
One of our teams worked on a new drug with a slight problem.
110
367649
4817
저희 팀 하나가 작은 문제가 있는 신약에 관해 작업했습니다.
06:12
When taking their first dose,
111
372784
1499
신약 첫 복용시
06:14
some patients, very few, have heart attacks.
112
374307
3484
아주 소수의 환자들에게 심장마비가 옵니다.
06:18
So, all patients, when taking their first dose,
113
378117
3135
그리하여 첫 복용을 하는 모든 환자들은
06:21
have to spend one day in hospital,
114
381276
2682
반드시 병원에서 하루를 지내며
06:23
for monitoring, just in case.
115
383982
2071
만약을 대비해 경과를 지켜봅니다.
06:26
Our objective was to identify patients who were at zero risk of heart attacks,
116
386613
5556
저희의 목적은 심장마비의 위험이 전혀 없는 환자를 가려내서
06:32
who could skip the day in hospital.
117
392193
2333
병원에서 경과를 지켜보는 일을 없애는 것이었죠.
06:34
We used AI to analyze data from clinical trials,
118
394962
4079
저희는 AI를 통해 임상 실험 환자 데이터를 분석해
06:40
to correlate ECG signal, blood composition, biomarkers,
119
400145
4368
ECG신호, 혈액 성분, 생체지표와
06:44
with the risk of heart attack.
120
404537
2000
심장마비 가능성을 연관지었습니다.
06:47
In one month,
121
407232
1274
한 달 후,
06:48
our model could flag 62 percent of patients at zero risk.
122
408530
6031
저희 모델에서 62%의 환자는 위험성이 전혀 없을 수도 있었습니다.
06:54
They could skip the day in hospital.
123
414887
2222
이들은 병원에서 경과를 지켜볼 필요가 없죠.
06:57
Would you be comfortable staying at home for your first dose
124
417863
3492
그런데 여러분은 알고리즘이 말한대로 신약 첫 복용 후
07:01
if the algo said so?
125
421379
1524
집에서 편히 계실 수 있나요?
07:02
(Laughter)
126
422927
1015
(웃음)
07:03
Doctors were not.
127
423966
1650
의사들은 아니었습니다.
07:05
What if we had false negatives,
128
425966
2302
만약 우리가 거짓 부정 판단을 했다면,
07:08
meaning people who are told by AI they can stay at home, and die?
129
428292
5229
AI가 첫 복용 후 바로 귀가해도 된다던 사람들이 죽으면 어떻게 되나요?
07:13
(Laughter)
130
433545
1365
(웃음)
07:14
There started our 70 percent.
131
434934
2452
여기서 저희의 70%가 시작됐습니다.
07:17
We worked with a team of doctors
132
437410
1992
저희는 의사들과 협력해
07:19
to check the medical logic of each variable in our model.
133
439426
3799
현재 모델에서 각 변수의 의학 논리를 체크하기로 했습니다.
07:23
For instance, we were using the concentration of a liver enzyme
134
443537
4569
예를 들면, 저희는 간 효소를
예측 변수로 사용했는데
07:28
as a predictor,
135
448130
1273
07:29
for which the medical logic was not obvious.
136
449427
3698
의학 논리가 명확하지 않았습니다.
07:33
The statistical signal was quite strong.
137
453149
2666
통계 신호는 상당히 강했습니다.
07:36
But what if it was a bias in our sample?
138
456300
2833
그러나 만약 이것이 저희 샘플의 편향이면요?
07:39
That predictor was taken out of the model.
139
459157
2800
그래서 이 예측 변수는 저희 모델에서 제외되었습니다.
07:42
We also took out predictors for which experts told us
140
462307
3445
또한 전문가들이 언급한,
실생활에서 의사들이 정밀하게 측정할 수 없는 예측 변수를 제외시켰습니다.
07:45
they cannot be rigorously measured by doctors in real life.
141
465776
3936
07:50
After four months,
142
470371
1690
4개월 후,
07:52
we had a model and a medical protocol.
143
472085
3071
저희는 새로운 모델과 의학 지침을 만들었습니다.
07:55
They both got approved
144
475514
1666
모두 작년 봄, 미국의 권위있는 의학 전문가들에게
07:57
my medical authorities in the US last spring,
145
477204
3222
08:00
resulting in far less stress for half of the patients
146
480450
3706
새로운 모델이 절반 이상의 환자들에게
훨씬 적은 스트레스와 더 나은 생활을 가져다 준다는
08:04
and better quality of life.
147
484180
1800
결과를 인정받게 되었습니다.
08:06
And an expected upside on sales over 100 million for that drug.
148
486355
4269
그리고 신약 매출이 1억이 넘을 것이라고 예상했습니다.
08:11
Seventy percent weaving AI with team and processes
149
491668
4198
70퍼센트나 팀과 프로세스를 통해 AI와 결합한다는 것은
08:15
also means building powerful interfaces
150
495890
3571
인간과 AI가 가장 어려운 문제를 함께 풀 수 있도록
08:19
for humans and AI to solve the most difficult problems together.
151
499485
5309
강력한 접점을 만들었다는 것도 의미하죠.
08:25
Once, we got challenged by a fashion retailer.
152
505286
4635
언젠가 저희는 의류 업체의 도전장을 받았습니다.
08:31
"We have the best buyers in the world.
153
511143
2498
"저희에게는 세계 최고의 구매자가 있습니다.
08:33
Could you build an AI engine that would beat them at forecasting sales?
154
513665
5111
혹시 구매자들의 예상 판매량을 이길 AI 엔진을 제작할 수 있나요?
08:38
At telling how many high-end, light-green, men XL shirts
155
518800
4166
저희가 얼마나 많은 하이엔드,
밝은 초록색 남자 XL사이즈 셔츠를 내년을 위해 구입해야 할까요?
08:42
we need to buy for next year?
156
522990
2047
08:45
At predicting better what will sell or not
157
525061
2810
어떤 제품이 더 팔릴지 저희 디자이너들보다
08:47
than our designers."
158
527895
1960
좀 더 정확히 예측해 주세요."
08:50
Our team trained a model in a few weeks, on past sales data,
159
530434
3976
저희 팀은 과거 판매 데이터를 기반으로 AI 모델을 몇 주간 훈련시켰고
08:54
and the competition was organized with human buyers.
160
534434
3533
대결은 인간 구매자들과 이루어졌습니다.
08:58
Result?
161
538347
1150
결과는?
09:00
AI wins, reducing forecasting errors by 25 percent.
162
540061
4682
AI가 이겼습니다. 예측 오류를 25%나 줄였죠.
09:05
Human-zero champions could have tried to implement this initial model
163
545903
4833
인간제로 챔피언이 이 최초의 모델을 도입하고
09:10
and create a fight with all human buyers.
164
550760
2754
모든 인간 구매자와 싸움을 일으킬 수도 있었을 겁니다.
09:13
Have fun.
165
553538
1150
재밌겠죠.
09:15
But we knew that human buyers had insights on fashion trends
166
555205
5126
하지만 우리는 인간 구매자가 갖는 패션 트렌드에 대한 안목을
09:20
that could not be found in past data.
167
560355
2845
과거 데이터에서 찾을 수 없을지도 모른다는걸 압니다.
09:23
There started our 70 percent.
168
563701
2857
바로 거기에서 저희 70%가 시작했습니다.
09:26
We went for a second test,
169
566582
1944
그리하여 저는 두 번째 실험을 진행했습니다.
09:28
where human buyers were reviewing quantities
170
568550
3103
인간 구매자들은 AI가 추천하는 수량을
09:31
suggested by AI
171
571677
1662
검토할 수 있고
09:33
and could correct them if needed.
172
573363
2325
필요하다면 이를 수정할 수도 있게끔 말이죠.
09:36
Result?
173
576180
1150
결과는?
09:37
Humans using AI ...
174
577704
2117
인간이 AI를 이용한 결과
09:39
lose.
175
579845
1407
졌습니다.
09:41
Seventy-five percent of the corrections made by a human
176
581795
4151
인간이 수정한 75%는
09:45
were reducing accuracy.
177
585970
2055
정확도를 떨어트렸기 때문입니다.
09:49
Was it time to get rid of human buyers?
178
589002
3174
인간 구매자를 없애야 했나요?
09:52
No.
179
592200
1158
아니요.
09:53
It was time to recreate a model
180
593382
2617
이는 인간이 언제 AI가 틀렸다는 것을 맞추는 것이 아닌
09:56
where humans would not try to guess when AI is wrong,
181
596023
5071
AI가 인간 구매자에게서 현실적인 입력 값을 받도록
10:01
but where AI would take real input from human buyers.
182
601118
4542
모델을 다시 만들어야 할 때였습니다.
10:06
We fully rebuilt the model
183
606962
1611
저희는 모델을 완전히 다시 만들었고
10:08
and went away from our initial interface, which was, more or less,
184
608597
5964
저희 최초의 접점과 멀어져 버려서 거의 이랬습니다.
10:14
"Hey, human! This is what I forecast,
185
614585
2437
"인간아! 이건 내가 예측한건데
10:17
correct whatever you want,"
186
617046
1761
수정하고 싶은 건 다 수정해."
10:18
and moved to a much richer one, more like,
187
618831
3636
그러나 더 정교한 모델은, 좀 더 이랬죠.
10:22
"Hey, humans!
188
622491
1976
"인간아!
10:24
I don't know the trends for next year.
189
624491
1825
나는 내년의 트랜드를 모르겠어.
10:26
Could you share with me your top creative bets?"
190
626340
2956
그러니 너의 창의적인 안목을 함께 공유 하겠니?"
10:30
"Hey, humans!
191
630063
1476
"인간아!
10:31
Could you help me quantify those few big items?
192
631563
2719
이 큰 제품들 수량화 좀 도와주겠니?
10:34
I cannot find any good comparables in the past for them."
193
634306
3317
예전 데이터에서 좋은 비교치를 찾지 못했어."
10:38
Result?
194
638401
1150
결과는?
10:40
"Human plus AI" wins,
195
640195
2000
"인간 플러스 AI"의 승리이고
10:42
reducing forecast errors by 50 percent.
196
642219
3919
예측 오류를 50%나 줄였답니다.
10:47
It took one year to finalize the tool.
197
647770
2828
이 도구를 완성하는데 1년이나 걸렸죠.
10:51
Long, costly and difficult.
198
651073
3317
오래 걸리고, 돈이 많이 들고, 어려웠습니다.
10:55
But profits and benefits
199
655046
2206
그러나 이익과 혜택을 통해
10:57
were in excess of 100 million of savings per year for that retailer.
200
657276
5396
해당 의류 업체는 매년 1억 달러를 이상 절약했습니다.
11:03
Seventy percent on very sensitive topics
201
663459
2936
70%를 민감한 주제에 대해 다룬다는 건
11:06
also means human have to decide what is right or wrong
202
666419
3778
인간이 옳고 그름을 결정하고
11:10
and define rules for what AI can do or not,
203
670221
4086
AI가 할 수 있는 일과 없는 일을 규정하는 겁니다.
11:14
like setting caps on prices to prevent pricing engines
204
674331
3484
말하자면 가격 상한선을 정해서, 가격 설정 엔진이 터무니없이 높은 가격을
11:17
[from charging] outrageously high prices to uneducated customers
205
677839
4524
아무것도 모르는 고객에게 제시해 그걸 수용하는 일을
11:22
who would accept them.
206
682387
1466
예방하는 것처럼 말이죠.
11:24
Only humans can define those boundaries --
207
684538
2563
그리고 오직 인간만이 이 경계값을 설정할 수 있습니다.
11:27
there is no way AI can find them in past data.
208
687125
3621
AI가 과거 데이터에서 이 경계값을 찾지 못합니다.
11:31
Some situations are in the gray zone.
209
691230
2467
회색 지대에 있는 상황들도 있죠.
11:34
We worked with a health insurer.
210
694135
2745
저희는 건강보험사와 일한 적이 있습니다.
11:36
He developed an AI engine to identify, among his clients,
211
696904
4713
보험사는 AI 엔진 개발을 통해 고객들 중
11:41
people who are just about to go to hospital
212
701641
2548
곧 병원에 가야하는 고객을 식별해
11:44
to sell them premium services.
213
704213
2269
프리미엄 서비스를 판매하고자 했습니다.
11:46
And the problem is,
214
706506
1515
그러나 문제는 바로,
11:48
some prospects were called by the commercial team
215
708045
2969
광고팀 전화를 받은 목표 고객 중 일부는
11:51
while they did not know yet
216
711038
2697
아직 자신들이 그렇게나 일찍
11:53
they would have to go to hospital very soon.
217
713759
2818
병원에 가야 한다는 것을 모르는 상태였습니다.
11:57
You are the CEO of this company.
218
717720
2317
만약 당신이 이 회사의 CEO라면,
12:00
Do you stop that program?
219
720061
1667
그 프로그램을 그만 사용할 것인가요?
12:02
Not an easy question.
220
722577
1913
이는 쉬운 문제는 아닙니다.
12:04
And to tackle this question, some companies are building teams,
221
724514
3563
이 문제를 처리하기 위해 어떤 회사들은 팀을 조직하고,
12:08
defining ethical rules and standards to help business and tech teams set limits
222
728101
5793
윤리적 규칙과 표준을 설정해, 비즈니스와 기술팀이
12:13
between personalization and manipulation,
223
733918
3596
개인화와 조작,
12:17
customization of offers and discrimination,
224
737538
2969
요청의 맞춤화와 차별화,
12:20
targeting and intrusion.
225
740531
2023
목표 설정, 침범 사이에 한계를 정하도록 돕습니다.
12:24
I am convinced that in every company,
226
744562
3674
저는 모든 회사들이 정말로 중요한 곳에
12:28
applying AI where it really matters has massive payback.
227
748260
4650
AI를 적용한다면 어마무시한 이익을 얻을 수 있다고 확신합니다.
12:33
Business leaders need to be bold
228
753474
2151
비즈니스 리더는 과감하게
12:35
and select a few topics,
229
755649
1976
몇 가지 사업 주제를 선정해
12:37
and for each of them, mobilize 10, 20, 30 people from their best teams --
230
757649
4936
매 주제마다 10, 20, 30명씩 최고의 팀에서 온 사람들로
12:42
tech, AI, data science, ethics --
231
762609
3333
기술, AI, 데이터 과학, 윤리 등에서 동원하여
12:45
and go through the full 10-, 20-, 70-percent cycle
232
765966
4421
10%, 20%, 70% 주기의
"인간 플러스 AI"의 그 모든 과정을 거쳐야 합니다.
12:50
of "Human plus AI,"
233
770411
1722
12:52
if they want to land AI effectively in their teams and processes.
234
772157
4340
만약 AI를 효과적으로 팀과 프로세스에 정착시키려 한다면 말이죠.
12:57
There is no other way.
235
777006
1889
다른 방법은 없습니다.
12:58
Citizens in developed economies already fear algocracy.
236
778919
4724
선진국 시민들은 이미 알고크라시를 두려워하고 있습니다.
13:04
Seven thousand were interviewed in a recent survey.
237
784196
3571
최근 조사에서 7천 명을 인터뷰 했는데
13:08
More than 75 percent expressed real concerns
238
788157
3555
그 중 75퍼센트가 넘는 사람들은 심각하게 걱정합니다.
13:11
on the impact of AI on the workforce, on privacy,
239
791736
3937
AI가 일자리, 사생활
13:15
on the risk of a dehumanized society.
240
795697
3436
비인간적인 사회로의 위험성에 미치는 영향에 대해서요.
13:19
Pushing algocracy creates a real risk of severe backlash against AI
241
799157
5380
알고크라시를 밀어붙이면, AI에 엄청나게 반발하는 실질적인 위험이
13:24
within companies or in society at large.
242
804561
4103
기업이나 사회 안에서 엄청나게 생겨날 것입니다.
13:29
"Human plus AI" is our only option
243
809014
3285
"인간 플러스 AI" 야말로 우리의 유일한 옵션으로
13:32
to bring the benefits of AI to the real world.
244
812323
3134
AI의 혜택을 현실 세계로 가져오게 할 것입니다.
13:36
And in the end,
245
816038
1158
그리고 결국엔
13:37
winning organizations will invest in human knowledge,
246
817220
4134
성공한 기업들은 인류의 지식에 투자할 것입니다.
13:41
not just AI and data.
247
821378
2325
AI와 데이터에만 투자하는 것이 아니라요.
13:44
Recruiting, training, rewarding human experts.
248
824792
3328
전문가를 모집하고, 훈련하고, 보상하세요.
13:48
Data is said to be the new oil,
249
828800
3142
모두들 데이터를 새로운 기름이 될 거라고 하지만
13:51
but believe me, human knowledge will make the difference,
250
831966
4071
절 믿으세요. 인류가 갖고 있는 지식은 차이를 만들어낼 것입니다.
13:56
because it is the only derrick available
251
836061
3588
왜냐하면, 인간이야말로 유일하게
13:59
to pump the oil hidden in the data.
252
839673
3674
그 데이터에 숨겨진 기름을 뽑아낼 기중기니까요.
14:04
Thank you.
253
844633
1153
감사합니다.
14:05
(Applause)
254
845810
3904
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7