3 myths about the future of work (and why they're not true) | Daniel Susskind

169,353 views

2018-04-05 ・ TED


New videos

3 myths about the future of work (and why they're not true) | Daniel Susskind

169,353 views ・ 2018-04-05

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: YounJae Lee 검토: JY Kang
00:12
Automation anxiety has been spreading lately,
0
12760
3376
최근들어 자동화에 대한 우려의 목소리가 커지고 있습니다.
00:16
a fear that in the future,
1
16160
2656
미래에 대한 두려움이죠.
00:18
many jobs will be performed by machines
2
18840
2456
많은 직업 분야에서 로봇이 인간을 대체하게 될 것이고
00:21
rather than human beings,
3
21320
1336
00:22
given the remarkable advances that are unfolding
4
22680
2936
그것은 인공지능과 로봇 기술의 엄청난 발전 때문이라는 것입니다.
00:25
in artificial intelligence and robotics.
5
25640
2776
00:28
What's clear is that there will be significant change.
6
28440
2816
엄청난 변화가 있을 것은 분명합니다.
00:31
What's less clear is what that change will look like.
7
31280
3616
다만 그 변화의 모습이 어떨지는 분명하지 않죠.
00:34
My research suggests that the future is both troubling and exciting.
8
34920
4936
제 연구에 따르면 미래는 힘들지만 흥미로울 것입니다.
00:39
The threat of technological unemployment is real,
9
39880
3736
기술 발전으로 인해 직장을 잃을 위험은 있지만,
00:43
and yet it's a good problem to have.
10
43640
2056
이 문제는 우리에게 즐거운 일입니다.
00:45
And to explain how I came to that conclusion,
11
45720
3216
어떻게 이런 결론을 얻었는지 말씀드리기 위해서
00:48
I want to confront three myths
12
48960
2536
세 가지 미신을 반박하고자 합니다.
00:51
that I think are currently obscuring our vision of this automated future.
13
51520
4280
자동화의 미래를 이해하는 데에 걸림돌이 되는 미신들이죠.
00:56
A picture that we see on our television screens,
14
56880
2336
책이나 영화, 텔레비전 방송에서 쉽게 볼 수 있는 장면이 하나 있죠.
00:59
in books, in films, in everyday commentary
15
59240
2216
01:01
is one where an army of robots descends on the workplace
16
61480
3696
한 무리의 로봇이 작업장에 몰려듭니다.
01:05
with one goal in mind:
17
65200
1376
그들에겐 한 가지 목표가 있죠.
01:06
to displace human beings from their work.
18
66600
2496
그것은 바로 인간의 일자리를 빼앗겠다는 것입니다.
01:09
And I call this the Terminator myth.
19
69120
2696
이런 잘못된 생각을 저는 터미네이터 미신이라고 부릅니다.
01:11
Yes, machines displace human beings from particular tasks,
20
71840
3976
물론, 특정 업무는 기계가 인간을 대체할 것입니다.
01:15
but they don't just substitute for human beings.
21
75840
2256
하지만 완전히 인간을 대신할 순 없죠.
01:18
They also complement them in other tasks,
22
78120
1976
일부분 서로 보완함으로써
01:20
making that work more valuable and more important.
23
80120
3616
보다 가치있고 중요한 일을 할 수 있을 것입니다.
01:23
Sometimes they complement human beings directly,
24
83760
3336
우선 로봇은 직접적인 방식으로 인간을 도울 수 있습니다.
01:27
making them more productive or more efficient at a particular task.
25
87120
4016
더 생산적이고 효과적으로 일할 수 있도록 말이죠.
01:31
So a taxi driver can use a satnav system to navigate on unfamiliar roads.
26
91160
4616
택시 운전사는 위성항법의 도움으로 낯선 도로에서 길을 찾을 수 있습니다.
01:35
An architect can use computer-assisted design software
27
95800
3336
건축가는 컴퓨터 디자인 프로그램을 이용해
01:39
to design bigger, more complicated buildings.
28
99160
3096
더 크고 복잡한 건물을 디자인할 수 있습니다.
01:42
But technological progress doesn't just complement human beings directly.
29
102280
3696
하지만 기술의 진보가 직접적 방식으로만 인간을 돕는 것은 아닙니다.
01:46
It also complements them indirectly, and it does this in two ways.
30
106000
3336
간접적 방식으로 도울 수도 있죠. 여기엔 두 가지 방식이 있습니다.
01:49
The first is if we think of the economy as a pie,
31
109360
3336
첫 번째로, 경제를 파이에 비유해보면
01:52
technological progress makes the pie bigger.
32
112720
2896
기술의 진보는 파이를 더 크게 만듭니다.
01:55
As productivity increases, incomes rise and demand grows.
33
115640
3856
생산성이 커지면서 소득과 수요가 증가하죠.
01:59
The British pie, for instance,
34
119520
1776
영국의 경제를 예로 들면
02:01
is more than a hundred times the size it was 300 years ago.
35
121320
3960
3백년 전보다 100배 넘게 성장했습니다.
02:05
And so people displaced from tasks in the old pie
36
125920
3216
그래서 예전 파이에서 일자리를 잃은 사람들은
02:09
could find tasks to do in the new pie instead.
37
129160
2720
새로운 파이에서 일거리를 새로 찾을 수 있었죠.
02:12
But technological progress doesn't just make the pie bigger.
38
132800
3936
하지만 기술의 진보는 단순히 파이를 크게만 하지 않습니다.
02:16
It also changes the ingredients in the pie.
39
136760
2856
파이의 성분 또한 바꿔 놓습니다.
02:19
As time passes, people spend their income in different ways,
40
139640
3456
시간이 흐르면서 사람들의 소비 방식이 변화했습니다.
02:23
changing how they spread it across existing goods,
41
143120
2816
기존 상품에 지출하는 금액을 조절하고,
02:25
and developing tastes for entirely new goods, too.
42
145960
3216
새롭게 등장한 상품에 빠지기 시작했죠.
02:29
New industries are created,
43
149200
1776
새로운 산업이 등장하고, 새로운 업무가 생겼습니다.
02:31
new tasks have to be done
44
151000
1816
02:32
and that means often new roles have to be filled.
45
152840
2536
결국 새로운 일자리가 만들어진다는 것이죠.
02:35
So again, the British pie:
46
155400
1496
다시 영국 경제를 예로 들면,
02:36
300 years ago, most people worked on farms,
47
156920
2976
3백년 전에는 대부분 농장에서 일했습니다.
02:39
150 years ago, in factories,
48
159920
2336
150년 전에는 공장에서 일했죠.
02:42
and today, most people work in offices.
49
162280
2856
하지만 지금은 대부분이 사무실에서 일합니다.
02:45
And once again, people displaced from tasks in the old bit of pie
50
165160
4056
역시 마찬가지로, 예전 파이에서 일거리를 잃은 사람들은
02:49
could tumble into tasks in the new bit of pie instead.
51
169240
2800
새로운 파이에서 대신할 만한 일거리를 쉽게 찾을 수 있었죠.
02:52
Economists call these effects complementarities,
52
172720
3336
경제학자들은 이를 '상보성 효과'라고 부릅니다.
02:56
but really that's just a fancy word to capture the different way
53
176080
3256
뭔가 있어보이는 표현이지만, 이 용어에 담긴 뜻은
02:59
that technological progress helps human beings.
54
179360
3136
기술의 진보가 인간을 돕는다는 걸 말합니다.
03:02
Resolving this Terminator myth
55
182520
2096
터미네이터 미신을 들여다보면
03:04
shows us that there are two forces at play:
56
184640
2336
거기에 작용하는 두 가지 힘을 발견하게 됩니다.
03:07
one, machine substitution that harms workers,
57
187000
3536
하나는, 기계가 인간을 대신하려 위협하는 힘이고
03:10
but also these complementarities that do the opposite.
58
190560
2880
다른 하나는 상보성 효과로 새로운 일자리를 만드는 힘입니다.
03:13
Now the second myth,
59
193960
1376
이제 두 번째 미신을 살펴보죠. 바로, 지능에 관한 미신입니다.
03:15
what I call the intelligence myth.
60
195360
2280
03:18
What do the tasks of driving a car, making a medical diagnosis
61
198440
4896
차를 운전하거나 의학 진단을 내리는 일,
03:23
and identifying a bird at a fleeting glimpse have in common?
62
203360
2920
새의 종류를 한 눈에 식별하는 일, 이들의 공통점이 뭘까요?
03:27
Well, these are all tasks that until very recently,
63
207280
2976
네, 이들은 모두 최근까지도 쉽게 자동화될 수 없을 거라고
03:30
leading economists thought couldn't readily be automated.
64
210280
3336
저명한 경제학자들이 생각한 일들입니다.
03:33
And yet today, all of these tasks can be automated.
65
213640
3176
하지만 지금은 모두 자동화되었죠.
03:36
You know, all major car manufacturers have driverless car programs.
66
216840
3496
주요 자동차 회사들이 무인자동차를 개발하고 있고,
03:40
There's countless systems out there that can diagnose medical problems.
67
220360
3976
질병을 진단해주는 다양한 시스템이 이미 널려있습니다.
03:44
And there's even an app that can identify a bird
68
224360
2416
심지어는 한번에 새의 종류를 식별해주는 앱도 있습니다.
03:46
at a fleeting glimpse.
69
226800
1200
03:48
Now, this wasn't simply a case of bad luck on the part of economists.
70
228920
4376
경제학자들이 단순히 운이 나빠 예측이 틀린 것이 아닙니다.
03:53
They were wrong,
71
233320
1296
오판했던 것이죠.
03:54
and the reason why they were wrong is very important.
72
234640
2496
여기서 중요한 건 그들이 오판하게 된 이유입니다.
03:57
They've fallen for the intelligence myth,
73
237160
2256
그들은 지능에 관한 미신에 빠져 있었습니다.
03:59
the belief that machines have to copy the way
74
239440
2896
기계가 인간의 사고방식을 모방해야 인간을 능가할 거라고 믿었던 거죠.
04:02
that human beings think and reason
75
242360
2056
04:04
in order to outperform them.
76
244440
1776
04:06
When these economists were trying to figure out
77
246240
2216
경제학자들은 기계가 할 수 없는 일들을 예측하는 과정에서
04:08
what tasks machines could not do,
78
248480
1856
04:10
they imagined the only way to automate a task
79
250360
2136
자동화를 이렇게 상상했습니다.
04:12
was to sit down with a human being,
80
252520
1816
인간이 기계를 책상에 앉혀놓고 일의 작동방식을 설명해줍니다.
04:14
get them to explain to you how it was they performed a task,
81
254360
3536
04:17
and then try and capture that explanation
82
257920
2656
기계가 따라 할 수 있도록 단계별로 차근차근 말이죠.
04:20
in a set of instructions for a machine to follow.
83
260600
2776
기계는 그 설명을 이해하려 애씁니다.
04:23
This view was popular in artificial intelligence at one point, too.
84
263400
4176
이런 방식은 인공지능 연구에서도 한 때 유행했었습니다.
04:27
I know this because Richard Susskind,
85
267600
2176
제 아버지이자, 공동저자이기도 한 리처드 서스킨드도 이렇게 생각했죠.
04:29
who is my dad and my coauthor,
86
269800
2856
04:32
wrote his doctorate in the 1980s on artificial intelligence and the law
87
272680
4056
아버지는 1980년대에 옥스포드대에서 인공지능과 법에 관한
04:36
at Oxford University,
88
276760
1416
박사학위 논문을 썼습니다.
04:38
and he was part of the vanguard.
89
278200
1576
당시에는 선구적인 연구였죠.
04:39
And with a professor called Phillip Capper
90
279800
2256
그 후 필립 캐퍼 교수, 그리고 법 전문 출판사 버터워쓰와 함께
04:42
and a legal publisher called Butterworths,
91
282080
2096
04:44
they produced the world's first commercially available
92
284200
5896
법 분야에서는 최초로 상용화된 인공지능 시스템을 개발했습니다.
04:50
artificial intelligence system in the law.
93
290120
2776
04:52
This was the home screen design.
94
292920
2616
이것이 그 시스템의 첫 메인 화면인데요.
04:55
He assures me this was a cool screen design at the time.
95
295560
2696
아버지 말이, 당시에는 끝내주는 디자인이었다고 하시더군요.
04:58
(Laughter)
96
298280
1016
(웃음)
04:59
I've never been entirely convinced.
97
299320
1696
저도 그 말을 믿지는 않았습니다.
05:01
He published it in the form of two floppy disks,
98
301040
2616
프로그램은 두 장의 플로피 디스크에 담겨 출시되었는데
05:03
at a time where floppy disks genuinely were floppy,
99
303680
3536
당시 플로피 디스크는 정말 느렸죠.
05:07
and his approach was the same as the economists':
100
307240
2336
아버지의 접근방식은 경제학자들과 똑같았습니다.
05:09
sit down with a lawyer,
101
309600
1256
법률가와 마주 앉아서, 법률 문제의 해결 과정에 관한 설명을 듣는 겁니다.
05:10
get her to explain to you how it was she solved a legal problem,
102
310880
3176
05:14
and then try and capture that explanation in a set of rules for a machine to follow.
103
314080
5376
그러면서 기계가 따라할 수 있도록 일련의 규칙으로 정리하였습니다.
05:19
In economics, if human beings could explain themselves in this way,
104
319480
3616
경제학에서는 이렇게 설명할 수 있는 인간의 업무를 '루틴'이라고 합니다.
05:23
the tasks are called routine, and they could be automated.
105
323120
3296
루틴은 자동화할 수 있죠.
05:26
But if human beings can't explain themselves,
106
326440
2336
반면에 이런 방식으로 설명이 안되면 '논루틴'이라고 합니다.
05:28
the tasks are called non-routine, and they're thought to be out reach.
107
328800
4256
자동화할 수 없다고 여겨지는 것들이죠.
05:33
Today, that routine-nonroutine distinction is widespread.
108
333080
3296
오늘날, 루틴과 논루틴으로 구별하는 방식은 널리 퍼져있습니다.
05:36
Think how often you hear people say to you
109
336400
2056
이런 얘기 자주 들어보셨을 거예요.
05:38
machines can only perform tasks that are predictable or repetitive,
110
338480
3256
기계는 규칙에 따라 정해진, 잘 정리된 반복 작업만 할 수 있다고들 말합니다.
05:41
rules-based or well-defined.
111
341760
1896
05:43
Those are all just different words for routine.
112
343680
2936
이런 말들은 루틴을 그저 달리 표현한 것일 뿐입니다.
05:46
And go back to those three cases that I mentioned at the start.
113
346640
3976
제가 처음에 말했던 세 가지 일로 돌아가보죠.
05:50
Those are all classic cases of nonroutine tasks.
114
350640
2896
세 가지 일 모두 전형적인 논루틴 업무에 속합니다.
05:53
Ask a doctor, for instance, how she makes a medical diagnosis,
115
353560
2976
예를 들어, 의사에게 어떻게 진찰을 하냐고 묻는다면
05:56
and she might be able to give you a few rules of thumb,
116
356560
2656
경험에 따른 몇 가지 규칙을 어림잡아 말할 수는 있겠지만
05:59
but ultimately she'd struggle.
117
359240
1656
명확하게 말하기는 힘들 겁니다.
06:00
She'd say it requires things like creativity and judgment and intuition.
118
360920
4816
창의성이나 직관적인 판단력이 필요한 일이라고 말하겠죠.
06:05
And these things are very difficult to articulate,
119
365760
2376
그런 일을 명확하게 설명하기 어렵다보니 자동화도 힘들 거라고 생각했을 겁니다.
06:08
and so it was thought these tasks would be very hard to automate.
120
368160
3096
06:11
If a human being can't explain themselves,
121
371280
2536
인간이 자신에게도 설명하지 못하는데
06:13
where on earth do we begin in writing a set of instructions
122
373840
2896
기계가 따라 할 수 있는 일련의 규칙을 만드는 것이 가능할 리가 있을까요?
06:16
for a machine to follow?
123
376760
1200
06:18
Thirty years ago, this view was right,
124
378640
2576
30년 전만 해도 이런 생각은 옳았습니다.
06:21
but today it's looking shaky,
125
381240
2136
하지만 오늘날에는 조금 흔들리고 있고, 미래에는 완전히 틀린 얘기가 될 겁니다.
06:23
and in the future it's simply going to be wrong.
126
383400
2256
06:25
Advances in processing power, in data storage capability
127
385680
3256
데이터 처리 능력과 저장 능력, 알고리즘 설계의 발전에 힘입어
06:28
and in algorithm design
128
388960
1656
06:30
mean that this routine-nonroutine distinction
129
390640
2496
루틴과 논루틴의 구별은 점차 의미를 잃어가고 있습니다.
06:33
is diminishingly useful.
130
393160
1736
06:34
To see this, go back to the case of making a medical diagnosis.
131
394920
3256
의료 진료의 경우를 다시 보면서 이를 살펴보겠습니다.
06:38
Earlier in the year,
132
398200
1376
올해 초,
06:39
a team of researchers at Stanford announced they'd developed a system
133
399600
3296
스탠포드 대학의 한 연구진이 어떤 시스템을 개발했다고 발표했습니다.
06:42
which can tell you whether or not a freckle is cancerous
134
402920
3056
주근깨가 피부암인지 아닌지 판단해주는 시스템이었죠.
06:46
as accurately as leading dermatologists.
135
406000
2680
일류 피부과 의사 만큼 정확하게 말이죠.
06:49
How does it work?
136
409280
1256
이런 일이 어떻게 가능할까요?
06:50
It's not trying to copy the judgment or the intuition of a doctor.
137
410560
5296
의사의 판단이나 직관을 모방한 것은 아닙니다.
06:55
It knows or understands nothing about medicine at all.
138
415880
3136
시스템은 의학이라고는 하나도 모릅니다.
06:59
Instead, it's running a pattern recognition algorithm
139
419040
2576
대신 패턴 인식 알고리즘을 이용해
07:01
through 129,450 past cases,
140
421640
4656
129,450 개의 진료 기록으로부터 유사성을 찾으며 검토하고
07:06
hunting for similarities between those cases
141
426320
3096
07:09
and the particular lesion in question.
142
429440
2080
특정 피부 손상을 찾아냅니다.
07:12
It's performing these tasks in an unhuman way,
143
432080
3216
시스템은 이처럼 인간과는 다른 방식으로 일을 합니다.
07:15
based on the analysis of more possible cases
144
435320
2336
인간이라면 평생 검토해도 불가능한 양의 진료기록을 순식간에 분석해서 말이죠.
07:17
than any doctor could hope to review in their lifetime.
145
437680
2616
07:20
It didn't matter that that human being,
146
440320
1896
인간이 어떻게 의료적 판단을 하는지 설명하지 못해도 이제 문제가 안됩니다.
07:22
that doctor, couldn't explain how she'd performed the task.
147
442240
2800
07:25
Now, there are those who dwell upon that the fact
148
445640
2336
기계가 인간을 모방할 필요가 없다는 사실을 보여주는 사례는 또 있습니다.
07:28
that these machines aren't built in our image.
149
448000
2296
07:30
As an example, take IBM's Watson,
150
450320
2056
IBM의 왓슨을 예로들면
07:32
the supercomputer that went on the US quiz show "Jeopardy!" in 2011,
151
452400
4856
슈퍼 컴퓨터 왓슨은 2011년 퀴즈쇼 "제퍼디!"에 출연했습니다.
07:37
and it beat the two human champions at "Jeopardy!"
152
457280
3016
거기서 인간 우승자 두 명을 상대로 승리했죠.
07:40
The day after it won,
153
460320
1696
승리한 다음 날에
07:42
The Wall Street Journal ran a piece by the philosopher John Searle
154
462040
3296
철학자 존 설이 쓴 짧은 기사 하나가 월 스트리트 저널에 실렸습니다.
07:45
with the title "Watson Doesn't Know It Won on 'Jeopardy!'"
155
465360
3376
제목은 이렇습니다. "왓슨은 자신이 '제퍼디!'에서 승리한 줄도 모른다."
07:48
Right, and it's brilliant, and it's true.
156
468760
1976
맞아요. 재치있게 사실을 잘 말했죠.
07:50
You know, Watson didn't let out a cry of excitement.
157
470760
2456
왓슨은 기쁨의 함성을 지르지 않았습니다.
자신의 업적에 뿌듯해하며 부모님을 부르지도 않았고,
07:53
It didn't call up its parents to say what a good job it had done.
158
473240
3096
축하주를 마시기 위해 술집에도 가지 않았습니다.
07:56
It didn't go down to the pub for a drink.
159
476360
2336
07:58
This system wasn't trying to copy the way that those human contestants played,
160
478720
4456
왓슨은 인간 경쟁자들이 문제를 푸는 방식을 모방하지 않았습니다.
08:03
but it didn't matter.
161
483200
1256
전혀 불필요했거든요.
08:04
It still outperformed them.
162
484480
1976
그럼에도 왓슨은 인간을 이겼습니다.
08:06
Resolving the intelligence myth
163
486480
1576
지능 미신을 반박하다 보면
08:08
shows us that our limited understanding about human intelligence,
164
488080
3376
인간의 사고와 추론 방식 등의 인간 지능에 대한 이해 부족이
08:11
about how we think and reason,
165
491480
1896
08:13
is far less of a constraint on automation than it was in the past.
166
493400
3456
예전처럼 자동화의 걸림돌이 되지 않는다는 것을 알 수 있습니다.
08:16
What's more, as we've seen,
167
496880
1496
게다가, 이미 보았듯이
08:18
when these machines perform tasks differently to human beings,
168
498400
3416
기계는 인간과 다른 방식으로 일을 처리하기 때문에
08:21
there's no reason to think
169
501840
1256
현재 인간이 가진 능력을
08:23
that what human beings are currently capable of doing
170
503120
2536
08:25
represents any sort of summit
171
505680
1456
미래에 기계가 넘지 못할 거라고 보기도 어렵습니다.
08:27
in what these machines might be capable of doing in the future.
172
507160
3000
08:31
Now the third myth,
173
511040
1256
이제 세 번째 미신입니다.
08:32
what I call the superiority myth.
174
512320
2456
우월성에 관한 미신인데요.
08:34
It's often said that those who forget
175
514800
2216
상보성 원리에 따른 기술 진보의 긍정적 측면을 간과하는 사람들은
08:37
about the helpful side of technological progress,
176
517040
2456
08:39
those complementarities from before,
177
519520
2496
한 가지 실수를 저지르곤 합니다.
08:42
are committing something known as the lump of labor fallacy.
178
522040
3040
노동 총량의 오류라고 알려진 실수죠.
08:45
Now, the problem is the lump of labor fallacy
179
525840
2295
문제는 노동 총량의 오류라는 개념 자체에도 오류가 있다는 겁니다.
08:48
is itself a fallacy,
180
528159
1496
08:49
and I call this the lump of labor fallacy fallacy,
181
529679
2937
그래서 저는 이걸 '노동 총량의 오류에 관한 오류'라고 합니다.
08:52
or LOLFF, for short.
182
532640
2320
줄인 용어로 'LOLFF' 라고 하죠.
08:56
Let me explain.
183
536000
1416
설명해드리죠.
08:57
The lump of labor fallacy is a very old idea.
184
537440
2136
노동 총량의 오류는 굉장히 오래된 개념입니다.
08:59
It was a British economist, David Schloss, who gave it this name in 1892.
185
539600
4216
1892년에 데이빗 스콜로스라는 영국 경제학자가 만든 개념이죠.
09:03
He was puzzled to come across a dock worker
186
543840
2816
그는 부두 노동자들에게서 당혹감을 느낀 적이 있습니다.
09:06
who had begun to use a machine to make washers,
187
546680
2336
당시 부두 노동자들은 기계로 와셔를 만들기 시작했는데요.
09:09
the small metal discs that fasten on the end of screws.
188
549040
3320
그건 나사를 단단히 조이도록 해주는 원판 모양의 작은 금속입니다.
09:13
And this dock worker felt guilty for being more productive.
189
553000
3760
노동자들은 생산성이 높아진 것에 죄책감을 느끼고 있었습니다.
09:17
Now, most of the time, we expect the opposite,
190
557560
2176
현재 우리는 정반대죠.
09:19
that people feel guilty for being unproductive,
191
559760
2216
사람들은 생산성이 낮으면 죄책감을 느낍니다.
페이스북이나 트위터에 너무 많은 시간을 낭비했다고 말이죠.
09:22
you know, a little too much time on Facebook or Twitter at work.
192
562000
3016
하지만 부두 노동자들은 생산성이 높아지는 것에 죄책감을 느꼈습니다.
09:25
But this worker felt guilty for being more productive,
193
565040
2536
이유를 묻자 이렇게 말했습니다.
09:27
and asked why, he said, "I know I'm doing wrong.
194
567600
2296
"저는 잘못하고 있어요. 다른 사람 일거리를 뺏고 있잖아요."
09:29
I'm taking away the work of another man."
195
569920
2040
09:32
In his mind, there was some fixed lump of work
196
572760
2976
그는 일종의 정해진 노동량이 있다고 생각했던 겁니다.
09:35
to be divided up between him and his pals,
197
575760
2136
그와 그의 친구들이 나눠서 할 일 말이죠.
09:37
so that if he used this machine to do more,
198
577920
2056
그래서 자신이 기계로 더 많은 일을 하면
09:40
there'd be less left for his pals to do.
199
580000
2016
자기 친구의 일거리가 줄어든다고 생각한 겁니다.
09:42
Schloss saw the mistake.
200
582040
1856
스콜로스는 여기에서 오류를 찾았습니다. 노동의 총량은 정해져 있지 않거든요.
09:43
The lump of work wasn't fixed.
201
583920
1856
09:45
As this worker used the machine and became more productive,
202
585800
2816
노동자가 기계를 사용해서 점점 생산성이 높아질수록
09:48
the price of washers would fall, demand for washers would rise,
203
588640
2976
나사받이의 가격은 낮아질 것이고 수요는 증가할 것입니다.
09:51
more washers would have to be made,
204
591640
1696
따라서 더 많은 나사받이가 필요하고 그의 친구가 할 일도 생길 것입니다.
09:53
and there'd be more work for his pals to do.
205
593360
2096
09:55
The lump of work would get bigger.
206
595480
1696
노동 총량은 점점 커질겁니다.
09:57
Schloss called this "the lump of labor fallacy."
207
597200
2680
스콜로스는 이를 '노동 총량의 오류'라고 했습니다.
10:00
And today you hear people talk about the lump of labor fallacy
208
600560
2936
오늘날 모든 직업의 미래를 전망할 때 노동 총량의 오류를 이야기하곤 합니다.
10:03
to think about the future of all types of work.
209
603520
2216
기계와 인간이 서로 나누어서 해야 할 일의 총량은 정해져 있지 않다고 하죠.
10:05
There's no fixed lump of work out there to be divided up
210
605760
2656
10:08
between people and machines.
211
608440
1376
10:09
Yes, machines substitute for human beings, making the original lump of work smaller,
212
609840
4656
네, 기계가 인간을 대체하면서 기존에 하던 일의 양은 줄었습니다.
10:14
but they also complement human beings,
213
614520
1856
하지만 기계가 인간을 보완해주면서
10:16
and the lump of work gets bigger and changes.
214
616400
2096
일의 총량은 점차 커지고 변화하고 있습니다.
10:19
But LOLFF.
215
619760
1616
그런데 바로 여기에 오류가 있어요.
10:21
Here's the mistake:
216
621400
1376
뭐가 틀렸는지 말씀드리죠.
10:22
it's right to think that technological progress
217
622800
2216
기술의 진보로 일의 총량이 커진다는 생각은 맞습니다.
10:25
makes the lump of work to be done bigger.
218
625040
1976
몇몇 직업은 더 중요해지고, 새로운 직업도 생기겠죠.
10:27
Some tasks become more valuable. New tasks have to be done.
219
627040
3016
10:30
But it's wrong to think that necessarily,
220
630080
2536
하지만 잘못된 생각이 하나 있습니다.
10:32
human beings will be best placed to perform those tasks.
221
632640
3256
인간이 바뀐 작업환경에 당연히 잘 적응할 거라고 생각하는 거죠.
10:35
And this is the superiority myth.
222
635920
1616
이것이 바로 우월성 미신입니다.
10:37
Yes, the lump of work might get bigger and change,
223
637560
3416
네. 일의 총량은 점점 커지고 변화하게 될 것입니다.
10:41
but as machines become more capable,
224
641000
1976
하지만 기계의 능력이 점차 발전하면서
10:43
it's likely that they'll take on the extra lump of work themselves.
225
643000
3896
그 여분의 일마저 기계가 차지할 가능성이 높습니다.
10:46
Technological progress, rather than complement human beings,
226
646920
3256
기술의 진보는 인간을 보완하기보다는 기계를 대신 보완해줄 것입니다.
10:50
complements machines instead.
227
650200
1880
10:52
To see this, go back to the task of driving a car.
228
652920
3016
자동차 운전의 경우를 다시 살펴보죠.
10:55
Today, satnav systems directly complement human beings.
229
655960
4096
오늘날 위성항법 시스템은 인간을 직접적으로 도와줍니다.
11:00
They make some human beings better drivers.
230
660080
2280
사람이 운전을 더 잘할 수 있게 해주죠.
11:02
But in the future,
231
662920
1256
하지만 미래에는 소프트웨어가 운전석의 사람을 대체할 것입니다.
11:04
software is going to displace human beings from the driving seat,
232
664200
3096
11:07
and these satnav systems, rather than complement human beings,
233
667320
2936
그리고 위성항법 시스템은 더 이상 사람을 돕지 않고
대신 기계를 도우면서 무인 자동차의 효율성을 더욱 높이게 될 것입니다.
11:10
will simply make these driverless cars more efficient,
234
670280
2536
11:12
helping the machines instead.
235
672840
1536
11:14
Or go to those indirect complementarities that I mentioned as well.
236
674400
4056
이미 말씀드렸던 간접적 방식의 상보성 사례도 살펴볼까요.
11:18
The economic pie may get larger,
237
678480
1776
경제 파이의 크기는 커지겠지만
11:20
but as machines become more capable,
238
680280
1736
기계의 능력이 발전함에 따라
11:22
it's possible that any new demand will fall on goods that machines,
239
682040
3143
새롭게 생기는 수요들도 모두 사람보다는 기계가 감당할 가능성이 높습니다.
11:25
rather than human beings, are best placed to produce.
240
685207
2649
11:27
The economic pie may change,
241
687880
1896
경제 파이는 변화하지만
11:29
but as machines become more capable,
242
689800
1896
기계의 능력이 발전함에 따라
11:31
it's possible that they'll be best placed to do the new tasks that have to be done.
243
691720
4856
새로운 일거리도 기계가 모두 차지할 가능성이 높습니다.
11:36
In short, demand for tasks isn't demand for human labor.
244
696600
3696
한 마디로, 일에 대한 수요는 인간 노동에 대한 수요가 아닙니다.
11:40
Human beings only stand to benefit
245
700320
1936
상보성 원리로 인간이 혜택을 보려면 인간이 주도권을 가지고 있어야 합니다.
11:42
if they retain the upper hand in all these complemented tasks,
246
702280
3816
11:46
but as machines become more capable, that becomes less likely.
247
706120
3720
하지만 기계가 점점 유능해지면서 그럴 가능성은 적어 보입니다.
11:50
So what do these three myths tell us then?
248
710760
2016
그럼 이 세 가지 미신이 의미하는 바는 뭘까요?
11:52
Well, resolving the Terminator myth
249
712800
1696
터미네이터 미신을 통해
11:54
shows us that the future of work depends upon this balance between two forces:
250
714520
3696
우리는 일의 미래가 두 힘의 균형에 따라 달라짐을 알았습니다.
11:58
one, machine substitution that harms workers
251
718240
3136
하나는 기계가 인간을 대체하며 일자리를 빼앗는 힘이고
12:01
but also those complementarities that do the opposite.
252
721400
2576
다른 하나는 인간을 도우며 일자리를 만드는 힘입니다.
12:04
And until now, this balance has fallen in favor of human beings.
253
724000
4040
지금까지는 인간에게 도움이 되는 쪽으로 균형이 맞았습니다.
12:09
But resolving the intelligence myth
254
729120
1736
하지만 지능 미신을 통해
12:10
shows us that that first force, machine substitution,
255
730880
2496
우리는 기계가 인간을 대신하려는 힘이 점차 강해지고 있음을 알았습니다.
12:13
is gathering strength.
256
733400
1296
12:14
Machines, of course, can't do everything,
257
734720
1976
물론, 기계가 모든 걸 할 순 없죠. 하지만 더 많은 일을 할 것입니다.
12:16
but they can do far more,
258
736720
1256
12:18
encroaching ever deeper into the realm of tasks performed by human beings.
259
738000
4576
인간만이 할 수 있다고 여겼던 영역까지 침범하면서 말이죠.
12:22
What's more, there's no reason to think
260
742600
1896
더군다나 현재 인간의 능력 정도가 기계의 한계라고 장담할 수도 없습니다.
12:24
that what human beings are currently capable of
261
744520
2216
12:26
represents any sort of finishing line,
262
746760
1856
일단 기계가 우리만큼 유능해지면 인간의 한계를 뛰어넘게 될 테니까요.
12:28
that machines are going to draw to a polite stop
263
748640
2256
12:30
once they're as capable as us.
264
750920
1816
12:32
Now, none of this matters
265
752760
1536
물론, 큰 문제는 아닐 수 있습니다.
12:34
so long as those helpful winds of complementarity
266
754320
2816
상보성 원리의 긍정적 바람이 강하게만 분다면 말이죠.
12:37
blow firmly enough,
267
757160
1736
12:38
but resolving the superiority myth
268
758920
1936
하지만 우월성 미신을 통해
12:40
shows us that that process of task encroachment
269
760880
3096
기계가 인간의 영역을 침해하는 과정에서
12:44
not only strengthens the force of machine substitution,
270
764000
3936
인간을 대체하는 힘은 커지지만
12:47
but it wears down those helpful complementarities too.
271
767960
3336
긍정적 상보성 원리는 약화되는 것을 알게 됐습니다.
12:51
Bring these three myths together
272
771320
1936
이들 세 가지 미신을 동시에 놓고 보면
12:53
and I think we can capture a glimpse of that troubling future.
273
773280
2936
미래의 문제를 조금이나마 엿볼 수 있습니다.
기계는 점점 유능해질 것입니다.
12:56
Machines continue to become more capable,
274
776240
2016
12:58
encroaching ever deeper on tasks performed by human beings,
275
778280
3656
인간이 했던 일을 점차 대신하게 될 것입니다.
13:01
strengthening the force of machine substitution,
276
781960
2576
기계가 인간을 대체하는 힘은 커지고
13:04
weakening the force of machine complementarity.
277
784560
3616
상보성 원리는 힘을 잃을 것입니다.
13:08
And at some point, that balance falls in favor of machines
278
788200
4296
그러다 어느 순간, 균형의 추가 사람에서 기계로 기울 것입니다.
13:12
rather than human beings.
279
792520
2056
13:14
This is the path we're currently on.
280
794600
1736
이것이 현재 우리가 가고 있는 길입니다.
13:16
I say "path" deliberately, because I don't think we're there yet,
281
796360
3176
"길"이라는 용어를 쓴 이유는 아직 도달하지는 않았지만
13:19
but it is hard to avoid the conclusion that this is our direction of travel.
282
799560
3640
여정이 이대로 흘러갈 거라는 사실을 부인하기 힘들기 때문입니다.
13:24
That's the troubling part.
283
804640
1456
문제는 바로 이런 것들입니다.
13:26
Let me say now why I think actually this is a good problem to have.
284
806120
3520
하지만 이 문제는 우리에게 즐거운 일입니다. 그 이유를 말해드리죠.
13:30
For most of human history, one economic problem has dominated:
285
810520
3536
인류 역사를 볼 때, 경제 측면에서 늘 따라다니는 문제 하나가 있습니다.
13:34
how to make the economic pie large enough for everyone to live on.
286
814080
4056
우리 모두가 살만큼 경제파이의 크기를 어떻게 키울 것인가 하는 것입니다.
13:38
Go back to the turn of the first century AD,
287
818160
2176
기원후 1세기 무렵을 생각해보죠.
13:40
and if you took the global economic pie
288
820360
2096
그 시대의 경제 파이를
13:42
and divided it up into equal slices for everyone in the world,
289
822480
3296
그 때 살았던 모두에게 공평하게 나누어준다면
13:45
everyone would get a few hundred dollars.
290
825800
2136
각자 몇백 달러 정도 받을 겁니다.
13:47
Almost everyone lived on or around the poverty line.
291
827960
2760
거의 모두가 최저 생계를 유지하는 정도죠.
13:51
And if you roll forward a thousand years,
292
831320
2176
그로부터 1000년 후에도 사정은 거의 같았습니다.
13:53
roughly the same is true.
293
833520
1240
13:55
But in the last few hundred years, economic growth has taken off.
294
835680
3576
하지만 최근 수백 년 동안 경제는 급격히 성장했습니다.
13:59
Those economic pies have exploded in size.
295
839280
2376
폭발적인 규모로 성장했죠.
14:01
Global GDP per head,
296
841680
2056
전 세계의 1인당 GDP,
14:03
the value of those individual slices of the pie today,
297
843760
3376
쉽게 말해 오늘날 각자가 가지는 파이 한 조각은
14:07
they're about 10,150 dollars.
298
847160
2816
약 10,150 달러입니다.
14:10
If economic growth continues at two percent,
299
850000
2696
앞으로 경제성장이 2%씩 지속된다면
14:12
our children will be twice as rich as us.
300
852720
2056
우리 아이들은 우리보다 두 배 정도 부유해질 것입니다.
14:14
If it continues at a more measly one percent,
301
854800
2296
경제가 1%씩 성장한다고 쳐도
14:17
our grandchildren will be twice as rich as us.
302
857120
2656
우리 손자들은 우리보다 두 배 정도 부유해질 것입니다.
14:19
By and large, we've solved that traditional economic problem.
303
859800
3680
우리는 전통적 경제문제를 비교적 잘 해결해왔습니다.
14:24
Now, technological unemployment, if it does happen,
304
864200
3016
기술 진보로 실업 문제가 생기더라도
14:27
in a strange way will be a symptom of that success,
305
867240
3216
어떻게든 성공적으로 해결할지 모릅니다.
14:30
will have solved one problem -- how to make the pie bigger --
306
870480
3856
파이를 키우는 문제가 해결되더라도
14:34
but replaced it with another --
307
874360
1816
또 다른 문제가 생길 거예요.
14:36
how to make sure that everyone gets a slice.
308
876200
2760
어떻게 하면 모두가 파이를 나눠 가질 수 있느냐는 것입니다.
14:39
As other economists have noted, solving this problem won't be easy.
309
879840
3496
경제학자들의 지적한 대로 이 문제는 해결이 쉽지 않을 겁니다.
14:43
Today, for most people,
310
883360
1656
오늘날, 대부분의 사람들은
14:45
their job is their seat at the economic dinner table,
311
885040
2496
직업을 가짐으로써 경제 안에서 자신의 몫을 얻고 있습니다.
14:47
and in a world with less work or even without work,
312
887560
2416
하지만 일이 적어지거나 심지어는 없는 세상에서
14:50
it won't be clear how they get their slice.
313
890000
2056
어떻게 제 몫을 얻을 수 있을지가 의문입니다.
14:52
There's a great deal of discussion, for instance,
314
892080
2336
지금 많이 논의되고 있는 것은
14:54
about various forms of universal basic income
315
894440
2696
해결 방안의 하나로서 다양한 형태의 기본소득을 두는 방법입니다.
14:57
as one possible approach,
316
897160
1216
14:58
and there's trials underway
317
898400
1616
기본소득에 대한 시도가
15:00
in the United States and in Finland and in Kenya.
318
900040
2400
미국과 핀란드, 케냐에서 진행중에 있기도 하죠.
15:03
And this is the collective challenge that's right in front of us,
319
903000
3176
이것이 우리 모두에게 주어진 당면 과제입니다.
15:06
to figure out how this material prosperity generated by our economic system
320
906200
5056
새로운 경제 시스템이 가져올 물질적 풍요를
15:11
can be enjoyed by everyone
321
911280
1976
모두가 누리는 방법을 찾아야 하죠.
15:13
in a world in which our traditional mechanism
322
913280
2416
파이를 나누는 기존 방식이 더 이상 통하지 않고
15:15
for slicing up the pie,
323
915720
1856
15:17
the work that people do,
324
917600
1936
인간이 할 일이 점자 줄어들어
15:19
withers away and perhaps disappears.
325
919560
2160
완전히 사라진 세상에서 말입니다.
15:22
Solving this problem is going to require us to think in very different ways.
326
922280
4360
이 문제를 해결하려면 완전히 다른 방식으로 생각해야 합니다.
15:27
There's going to be a lot of disagreement about what ought to be done,
327
927400
4176
해결 방안에 대한 반발도 많을 것입니다.
15:31
but it's important to remember that this is a far better problem to have
328
931600
3416
하지만 중요한 사실은 이 문제는 즐거운 일이라는 겁니다.
15:35
than the one that haunted our ancestors for centuries:
329
935040
2816
어떻게 하면 파이를 충분히 키울 수 있을까 하고
15:37
how to make that pie big enough in the first place.
330
937880
3376
수세기 동안 고민했던 선조들에 비해서 말이죠.
15:41
Thank you very much.
331
941280
1256
감사합니다.
15:42
(Applause)
332
942560
3840
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7