How we'll earn money in a future without jobs | Martin Ford

1,604,689 views ・ 2017-11-16

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Eunsue Oh 검토: Changkyun Ahn
00:12
I'm going to begin with a scary question:
0
12787
2848
섬뜩한 질문으로 시작을 해보겠습니다.
00:15
Are we headed toward a future without jobs?
1
15659
2750
앞으로 다가오는 미래에는 직업이 사라질까요?
00:18
The remarkable progress that we're seeing
2
18987
2069
과학분야에서 우리가 목도한 엄청난 진전은,
00:21
in technologies like self-driving cars
3
21080
1861
무인 자동차를 예로 들 수 있는데,
00:22
has led to an explosion of interest in this question,
4
22965
3065
이런 질문을 할만큼 큰 흥미를 유발했습니다.
00:26
but because it's something that's been asked
5
26054
2150
과거에도 수차례나 제기됐던
00:28
so many times in the past,
6
28228
1256
똑같은 질문이라서가 아닙니다.
00:29
maybe what we should really be asking
7
29508
1840
우리가 진정 던져야할 질문은
00:31
is whether this time is really different.
8
31372
2900
이번에는 '이전과는 정말 다를 것인가?' 입니다.
00:35
The fear that automation might displace workers
9
35252
2961
자동화가 인간의 일자리를 대신할 것이며
00:38
and potentially lead to lots of unemployment
10
38237
2117
이로 인해 수많은 실업자가 생길 것이라는 두려움은
00:40
goes back at a minimum 200 years to the Luddite revolts in England.
11
40378
3888
최소 200년 전 영국의 러다이트 운동 때로 거슬러 올라갑니다.
00:44
And since then, this concern has come up again and again.
12
44290
3196
그 후에도 이런 두려움은 계속해서 대두되어 왔습니다.
00:47
I'm going to guess
13
47510
1161
짐작건대 여러분 대다수는
00:48
that most of you have probably never heard of the Triple Revolution report,
14
48695
4466
"트리플 레볼루션 리포트" 에 대해 들어본 적 없으실 겁니다.
00:53
but this was a very prominent report.
15
53185
2293
하지만 아주 저명한 리포트 입니다.
00:55
It was put together by a brilliant group of people --
16
55502
2531
우수한 사람들이 함께 작업한 리포트로
00:58
it actually included two Nobel laureates --
17
58057
3057
노벨상 수상자도 2명이나 함께 했습니다.
01:01
and this report was presented to the President of the United States,
18
61138
3223
이 리포트는 미국 대통령에게 보고됐고
01:04
and it argued that the US was on the brink of economic and social upheaval
19
64385
5494
미국이 사회 경제적 격변 직전에 처했다는 내용을 담고 있었습니다.
01:09
because industrial automation was going to put millions of people
20
69903
3102
그 이유는 산업의 자동화로 수백만명의 노동자들이
01:13
out of work.
21
73029
1152
일자리를 잃을 것이었기 때문입니다.
01:14
Now, that report was delivered to President Lyndon Johnson
22
74205
3657
이 리포트는 린든 존슨 대통령에게 전달 되었습니다.
01:17
in March of 1964.
23
77886
1801
1964년 3월 이었습니다.
01:19
So that's now over 50 years,
24
79711
2216
자, 이제 50년이 넘었는데
01:21
and, of course, that hasn't really happened.
25
81951
2058
물론 그런 일은 일어나지 않았습니다.
01:24
And that's been the story again and again.
26
84033
2144
그리고 이런 이야기는 반복 되었습니다.
01:26
This alarm has been raised repeatedly,
27
86201
2109
이와 같은 경고가 계속 제기되었는데
01:28
but it's always been a false alarm.
28
88334
2013
항상 허위 경고가 되었습니다.
01:30
And because it's been a false alarm,
29
90371
1809
항상 허위 경고가 계속 되었기에
01:32
it's led to a very conventional way of thinking about this.
30
92204
2807
산업의 자동화에 대한 관습적인 생각이 생겨났습니다.
01:35
And that says essentially that yes,
31
95035
2532
그 사고방식의 기본적인 골자는
과학이 산업 전체를 황폐화 시킨다는 내용 입니다.
01:37
technology may devastate entire industries.
32
97591
2548
01:40
It may wipe out whole occupations and types of work.
33
100163
3732
모든 직업과 직종을 없애 버릴 수도 있습니다.
01:43
But at the same time, of course,
34
103919
1608
하지만 이와 동시에
01:45
progress is going to lead to entirely new things.
35
105551
2351
발전 과정에서 전적으로 새로운 것들이 생격날 것입니다.
01:47
So there will be new industries that will arise in the future,
36
107926
2962
미래에는 새로운 산업이 생겨날 것이고
01:50
and those industries, of course, will have to hire people.
37
110912
2858
물론 이 새로운 분야에서 고용이 생겨날 것입니다.
01:53
There'll be new kinds of work that will appear,
38
113794
2238
새로 생겨난 일들도 있겠죠.
01:56
and those might be things that today we can't really even imagine.
39
116056
3210
그리고 그 일들은 지금의 우리는 상상조차 불가능할 것입니다.
01:59
And that has been the story so far,
40
119290
1747
여기까지가 지금까지의 이야기였고
02:01
and it's been a positive story.
41
121061
1494
낙관적인 이야기 였습니다.
02:03
It turns out that the new jobs that have been created
42
123095
3325
새로 생겨난 직업들은
이전 직업들보다 대체로 훨씬 좋았습니다.
02:06
have generally been a lot better than the old ones.
43
126444
2470
02:08
They have, for example, been more engaging.
44
128938
2656
더 많은 고용이 있었고
02:11
They've been in safer, more comfortable work environments,
45
131618
3429
더욱 안전 했으며 근무 환경도 더 좋았습니다.
02:15
and, of course, they've paid more.
46
135071
1680
물론 봉급도 더 높았죠.
02:16
So it has been a positive story.
47
136775
1865
낙관적인 이야기 였죠.
02:18
That's the way things have played out so far.
48
138664
2208
산업 자동화는 이런 식으로 진행이 되었습니다.
02:21
But there is one particular class of worker
49
141292
2948
하지만 특정 직업군은
02:24
for whom the story has been quite different.
50
144264
2252
상황이 매우 달랐습니다.
02:27
For these workers,
51
147938
1150
이 직종의 종사자들은
02:29
technology has completely decimated their work,
52
149112
3021
과학기술로 인해 직업이 완전히 사라져 버렸고
02:32
and it really hasn't created any new opportunities at all.
53
152157
3214
어떠한 새로운 기회도 주어지지 않았습니다.
02:35
And these workers, of course,
54
155395
2195
이 직종의 종사들은 바로
02:37
are horses.
55
157614
1288
말(馬) 입니다.
02:38
(Laughter)
56
158926
1443
(웃음)
02:40
So I can ask a very provocative question:
57
160393
2750
그럼 제가 아주 도전적인 질문을 하나 하겠습니다.
02:43
Is it possible that at some point in the future,
58
163167
3435
다가오는 미래의 어느 순간에
02:46
a significant fraction of the human workforce is going to be made redundant
59
166626
4628
인간 노동력의 상당 부분이 필요 없어질까요?
02:51
in the way that horses were?
60
171278
1702
말(馬)이 필요 없어진 것처럼요?
02:53
Now, you might have a very visceral, reflexive reaction to that.
61
173485
3000
아마도 이런 질문에는 당연히 반감이 일어나겠죠.
02:56
You might say, "That's absurd.
62
176509
1647
"말도 안 돼요" 라고 하면서요.
02:58
How can you possibly compare human beings to horses?"
63
178180
3669
어떻게 사람을 말(馬)에 비교 하나요?
03:02
Horses, of course, are very limited,
64
182437
1769
물론 말(馬)은 그 수가 제한적이고
03:04
and when cars and trucks and tractors came along,
65
184230
2893
자동차나 트럭, 트랙터가 등장하자
03:07
horses really had nowhere else to turn.
66
187147
2045
말(馬)은 달리 쓰임이 없어졌습니다.
03:09
People, on the other hand, are intelligent;
67
189844
2360
하지만 인간은 지능적입니다.
03:12
we can learn, we can adapt.
68
192228
1785
학습 능력이 있고 적응할 수 있습니다.
03:14
And in theory,
69
194037
1164
그 덕분에 이론상으로
03:15
that ought to mean that we can always find something new to do,
70
195225
3127
인간은 언제나 새로운 직업을 찾을 수 있으며
03:18
and that we can always remain relevant to the future economy.
71
198376
3306
미래의 경제에서도 생산자로 존재할 수 있을 것입니다.
03:21
But here's the really critical thing to understand.
72
201706
2437
하지만 정말 중요한 것이 있습니다.
03:24
The machines that will threaten workers in the future
73
204790
2865
미래에 인간의 일자리를 위협할 기계들은
03:27
are really nothing like those cars and trucks and tractors
74
207679
3234
말(馬)을 대신하게 된 자동차나 트럭, 트랙터와
03:30
that displaced horses.
75
210937
1616
전혀 다릅니다.
03:32
The future is going to be full of thinking, learning, adapting machines.
76
212577
4839
미래에는 생각, 학습, 적응력을 가진 기계들로 가득찰 것입니다 .
03:37
And what that really means
77
217440
1408
이것이 진정 의미하는 바는
03:38
is that technology is finally beginning to encroach
78
218872
2834
과학기술이 마침내 인간의 기본적인 능력을
03:41
on that fundamental human capability --
79
221730
2849
침해하기 시작했다는 뜻입니다.
03:44
the thing that makes us so different from horses,
80
224603
2803
이런 능력이 있기에 인간은 말(馬)과는 전혀 달랐고
03:47
and the very thing that, so far,
81
227430
2234
이제껏 이 능력 덕분에
03:49
has allowed us to stay ahead of the march of progress
82
229688
2647
발전의 선두에 위치할 수 있었고
미래 경제와 연관성을 지닐 수 있었습니다.
03:52
and remain relevant,
83
232359
1189
03:53
and, in fact, indispensable to the economy.
84
233572
3067
그리고 미래 경제에서 반드시 필요한 존재로 남아 있었습니다.
03:58
So what is it that is really so different
85
238407
2495
그렇다면 오늘의 정보과학기술이
04:00
about today's information technology
86
240926
2043
과거에 우리가 목격했던 것과
04:02
relative to what we've seen in the past?
87
242993
1947
무엇이 그토록 다를까요?
04:04
I would point to three fundamental things.
88
244964
2653
가장 근본적인 세 가지 요인을 들어보겠습니다.
04:07
The first thing is that we have seen this ongoing process
89
247641
4409
첫째로 우리는 기하급수적으로
발전하는 진행과정을 직접 보았습니다.
04:12
of exponential acceleration.
90
252074
1888
04:14
I know you all know about Moore's law,
91
254420
2095
여러분 모두 '무어의 법칙'을 알고 계실텐데요,
04:16
but in fact, it's more broad-based than that;
92
256539
2296
사실 무어의 법칙은 훨씬 광범위하게 적용 됩니다.
04:18
it extends in many cases, for example, to software,
93
258859
3150
예를 들어, 소프트웨어에 적용되고
04:22
it extends to communications, bandwidth and so forth.
94
262033
3000
정보통신, 대역폭 등등에도 적용됩니다.
04:25
But the really key thing to understand
95
265057
1984
하지만 정말 중요한 사실은
04:27
is that this acceleration has now been going on for a really long time.
96
267065
3871
이런 급진적인 발전이 아주 오랫동안 지속되어 왔다는 것입니다.
04:30
In fact, it's been going on for decades.
97
270960
1925
사실 수십 년 동안 계속되어 왔습니다.
04:32
If you measure from the late 1950s,
98
272909
2756
최초의 집적회로가 개발된
04:35
when the first integrated circuits were fabricated,
99
275689
2425
1950년대 후반부터 계산을 한다면
04:38
we've seen something on the order of 30 doublings in computational power
100
278138
4785
우리는 당시 컴퓨터 능력의 대략 2의 30제곱 배 정도 뛰어난 것을
04:42
since then.
101
282947
1156
보고 있습니다.
04:44
That's just an extraordinary number of times to double any quantity,
102
284127
3688
거기서 또 두배가 되는 것은 실로 어마어마한 숫자인 것입니다.
04:47
and what it really means
103
287839
1240
이것이 진정 의미하는 바는
04:49
is that we're now at a point where we're going to see
104
289103
2524
현재 우리가 처한 상황에서 앞으로 보게 될 것이
04:51
just an extraordinary amount of absolute progress,
105
291651
2411
어마어마한 수의 절대 양적 진보라는 것입니다.
04:54
and, of course, things are going to continue to also accelerate
106
294086
2975
물론 그 진전의 시점부터 계속해서 여러가지가
04:57
from this point.
107
297085
1159
가속화될 것입니다.
04:58
So as we look forward to the coming years and decades,
108
298268
2540
우리는 다가올 미래를 기대하고 있지만
05:00
I think that means that we're going to see things
109
300832
2338
제 생각에 인류가 앞으로 보게될 미래는
05:03
that we're really not prepared for.
110
303194
1673
전혀 대비되지 못한 것들일 겁니다.
05:04
We're going to see things that astonish us.
111
304891
2077
우리를 놀라게 할 것들을 보게 될 것입니다.
05:06
The second key thing
112
306992
1266
두 번째로 중요한 것은
05:08
is that the machines are, in a limited sense, beginning to think.
113
308282
3906
제한적이긴 하지만 기계가 생각을 하기 시작했습니다.
05:12
And by this, I don't mean human-level AI,
114
312212
2457
인간의 사고능력에 준하는 인공지능이나,
05:14
or science fiction artificial intelligence;
115
314693
2936
공상과학의 인공지능을 말하는 게 아닙니다.
05:17
I simply mean that machines and algorithms are making decisions.
116
317653
4462
판단력을 갖춘 기계와 인공지능을 보게 될 것입니다.
05:22
They're solving problems, and most importantly, they're learning.
117
322139
3860
이들은 문제해결능력이 있으며, 결정적으로 학습능력까지 있습니다.
05:26
In fact, if there's one technology that is truly central to this
118
326023
3303
기계와 알고리즘 학습능력의 중심이 되고
실제 원동력이 된 과학기술은
05:29
and has really become the driving force behind this,
119
329350
3077
05:32
it's machine learning,
120
332451
1172
바로 "머신 러닝" 입니다.
05:33
which is just becoming this incredibly powerful,
121
333647
2720
머신 러닝은 놀라울 정도로 막강하며,
05:36
disruptive, scalable technology.
122
336391
2638
획기적이고 쓰임이 자유로운 기술 입니다.
05:39
One of the best examples I've seen of that recently
123
339561
2469
최근에 제가 본 가장 확실한 예는
05:42
was what Google's DeepMind division was able to do
124
342054
2751
구글 딥마인드에서 개발한
05:44
with its AlphaGo system.
125
344829
1553
알파고(AlphaGo) 입니다.
05:46
Now, this is the system that was able to beat the best player in the world
126
346406
4300
알파고는 세계 최강의 바둑기사를 이긴
05:50
at the ancient game of Go.
127
350730
1979
인공지능 바둑 프로그램 입니다.
05:52
Now, at least to me,
128
352733
1150
제가 봤을 때
05:53
there are two things that really stand out about the game of Go.
129
353907
3117
알파고가 뛰어난 점이 두 가지가 있습니다.
05:57
One is that as you're playing the game,
130
357048
2296
우선, 바둑을 둘 때
05:59
the number of configurations that the board can be in
131
359368
2866
바둑판에 등장할 수 있는 경우의 수는
06:02
is essentially infinite.
132
362258
1411
본질적으로 무한 합니다.
06:03
There are actually more possibilities than there are atoms in the universe.
133
363693
3833
실제로 은하계에 존재하는 원자수 보다 더 많은 국면의 수가 생성 됩니다.
06:07
So what that means is,
134
367980
1184
이것이 의미하는 것은
06:09
you're never going to be able to build a computer to win at the game of Go
135
369188
3597
바둑을 둘 때 컴퓨터가 이길 수 있게 프로그램을 짤 수가 없습니다.
06:12
the way chess was approached, for example,
136
372809
2180
예를 들면, 컴퓨터와 체스를 둘 때 처럼
06:15
which is basically to throw brute-force computational power at it.
137
375013
4526
컴퓨터가 무차별 대입을 통해 국면의 수를 제한할 수 없습니다.
06:19
So clearly, a much more sophisticated, thinking-like approach is needed.
138
379563
4177
따라서 보다 정교한 사고력을 가지고 대국에 임해야 합니다.
06:24
The second thing that really stands out is that,
139
384368
3271
다음으로 눈여겨 보아야할 점은
06:27
if you talk to one of the championship Go players,
140
387663
2647
프로 바둑기사와 대화를 해본다면
06:30
this person cannot necessarily even really articulate what exactly it is
141
390334
4485
바둑기사조차 자신들이 바둑을 두면서 무슨 생각으로 수를 두게 되었는지를
06:34
they're thinking about as they play the game.
142
394843
2215
정확히 설명하지 못한다는 것을 알게 될 것입니다.
06:37
It's often something that's very intuitive,
143
397082
2193
바둑을 둘 때 직관에 따를 때가 많습니다.
06:39
it's almost just like a feeling about which move they should make.
144
399299
3322
마치 어떤 수를 두어야 하는지 느낌으로 아는 겁니다.
06:42
So given those two qualities,
145
402645
1407
이 두 가지를 고려했을 때
06:44
I would say that playing Go at a world champion level
146
404076
3937
세계 챔피언 수준의 바둑을 두는 것은
06:48
really ought to be something that's safe from automation,
147
408037
3238
자동화의 침해를 받지 않는 영역이 되어야 하는데
06:51
and the fact that it isn't should really raise a cautionary flag for us.
148
411299
4446
그렇지 않다는 것은 인간에게 빨간불이 들어왔다는 겁니다.
06:55
And the reason is that we tend to draw a very distinct line,
149
415769
3917
그 이유는 인간은 매우 분명한 선을 긋는 경향이 있는데
06:59
and on one side of that line are all the jobs and tasks
150
419710
3509
그 선을 경계로 한 쪽에는 우리가 인지하기에 근본적으로
07:03
that we perceive as being on some level fundamentally routine and repetitive
151
423243
4748
단순하고 반복적이며 예측가능한 유형의 모든 직업들과 업무들이
07:08
and predictable.
152
428015
1350
놓여있습니다.
07:09
And we know that these jobs might be in different industries,
153
429389
2858
그리고 이 영역의 직종들은 각기 다른 산업유형에 속하고
07:12
they might be in different occupations and at different skill levels,
154
432271
3373
다른 직종과 다른 숙련도를 요하는 직업일 수는 있겠지만
07:15
but because they are innately predictable,
155
435668
2210
이 직업들은 본질적으로 예측가능하다는 점 때문에
07:17
we know they're probably at some point going to be susceptible
156
437902
3127
아마도 언젠가는 머신 러닝에 의해 침식당하게 될 것을
07:21
to machine learning,
157
441053
1177
우리는 알고 있습니다.
07:22
and therefore, to automation.
158
442254
1419
즉, 자동화의 영향을 받게 되는거죠.
07:23
And make no mistake -- that's a lot of jobs.
159
443697
2097
그리고 확실한 건 아주 많은 직업들이 그렇게 될 겁니다.
07:25
That's probably something on the order of roughly half
160
445818
2679
미국 경제의 대략 절반의 직업이
07:28
the jobs in the economy.
161
448521
1567
자동화의 영향을 받을 것입니다.
07:30
But then on the other side of that line,
162
450112
2159
하지만 그 선 반대편에는
07:32
we have all the jobs that require some capability
163
452295
4071
우리가 보기에 인간 고유의 것이라 여겨온 능력이 요구되는
07:36
that we perceive as being uniquely human,
164
456390
2372
모든 직업이 있으며,
07:38
and these are the jobs that we think are safe.
165
458786
2223
이 직업들만큼은 안전하다고 생각합니다.
07:41
Now, based on what I know about the game of Go,
166
461033
2265
바둑에 기반을 두고 보았을 때,
07:43
I would've guessed that it really ought to be on the safe side of that line.
167
463322
3703
바둑만큼은 그 선을 경계로 진정 안전한 쪽일 것이라 여겨왔습니다.
07:47
But the fact that it isn't, and that Google solved this problem,
168
467049
3178
하지만 실상은 그렇지 않았고, 구글은 그 문제를 풀었습니다.
07:50
suggests that that line is going to be very dynamic.
169
470251
2432
그리고 그 선은 매우 역동적일 것입니다.
07:52
It's going to shift,
170
472707
1179
판도가 바뀔 것이고
07:53
and it's going to shift in a way that consumes more and more jobs and tasks
171
473910
4135
우리가 현재 자동화로부터 안전하리라 여기는 직업과 업무들이
07:58
that we currently perceive as being safe from automation.
172
478069
3017
점점 더 안전하지 않은 쪽으로 잠식되어 갈 것입니다.
08:01
The other key thing to understand
173
481921
1657
또 다른 중요한 점은
08:03
is that this is by no means just about low-wage jobs or blue-collar jobs,
174
483602
5138
이런 현상이 저임금직의 단순노동직이나 상대적으로 교육수준이 낮은
08:08
or jobs and tasks done by people
175
488764
1875
직업과 업무에 국한된 것이
08:10
that have relatively low levels of education.
176
490663
2104
결코 아니란 점입니다.
08:12
There's lots of evidence to show
177
492791
1524
많은 증거들로 보건데
08:14
that these technologies are rapidly climbing the skills ladder.
178
494339
3160
인공지능 과학기술은 급속히 직업 계층 사다리를 오르고 있습니다.
08:17
So we already see an impact on professional jobs --
179
497523
3616
우리는 이미 전문직에 닥친 여파를 보았습니다.
08:21
tasks done by people like accountants,
180
501163
4435
이미 많은 전문직들의 직무, 예컨대 회계사, 금융 전문가, 언론인,
08:25
financial analysts,
181
505622
1317
08:26
journalists,
182
506963
1296
변호사와 방사선 전문의 등등, 자동화의 영향을 받았습니다.
08:28
lawyers, radiologists and so forth.
183
508283
2377
08:30
So a lot of the assumptions that we make
184
510684
1938
다가올 미래에 자동화에 의해
08:32
about the kind of occupations and tasks and jobs
185
512646
3220
위협을 받을 것이라 예측되는 직종과 직업들에 대해
08:35
that are going to be threatened by automation in the future
186
515890
2819
내놓았던 수많은 가정들이
08:38
are very likely to be challenged going forward.
187
518733
2198
계속해서 시험대에 오를 것입니다.
08:40
So as we put these trends together,
188
520955
1700
이런 경향들을 종합해 봤을 때,
08:42
I think what it shows is that we could very well end up in a future
189
522679
3292
제가 생각하기에 미래의 우리 인류는 결국
08:45
with significant unemployment.
190
525995
1507
심각한 실업난을 겪게 될 겁니다.
08:48
Or at a minimum,
191
528254
1152
아니면 적어도,
08:49
we could face lots of underemployment or stagnant wages,
192
529430
3781
높은 실업률이나 정체된 임금,
08:53
maybe even declining wages.
193
533235
2097
심지어 임금 삭감까지 겪게 될 겁니다.
08:56
And, of course, soaring levels of inequality.
194
536142
2810
물론 걷잡을 수 없는 불균등도 겪을 겁니다.
08:58
All of that, of course, is going to put a terrific amount of stress
195
538976
4033
물론 이 모든 현상은 사회 구조에
엄청난 스트레스를 가져올 겁니다.
09:03
on the fabric of society.
196
543033
1917
09:04
But beyond that, there's also a fundamental economic problem,
197
544974
3059
그러나 이런 문제를 제쳐두고서 근본적인 경제 문제가 발생할 겁니다.
09:08
and that arises because jobs are currently the primary mechanism
198
548057
5195
그 이유는 직업은 소득을 분배하는 가장 기본적인 매커니즘이며
09:13
that distributes income, and therefore purchasing power,
199
553276
3545
따라서 우리가 생산하는 재화와 서비스를 구매하는
09:16
to all the consumers that buy the products and services we're producing.
200
556845
5132
소비자의 구매력도 마찬가지이기 때문입니다.
09:22
In order to have a vibrant market economy,
201
562831
2515
활성화된 시장 경제를 형성하기 위해서는
09:25
you've got to have lots and lots of consumers
202
565370
2120
수많은 소비자가 있어야 하는데
09:27
that are really capable of buying the products and services
203
567514
3029
이 소비자들이 생산되는
09:30
that are being produced.
204
570567
1151
재화와 서비스를 구매해야 합니다.
09:31
If you don't have that, then you run the risk
205
571742
2386
소비자가 없다면 경제침체라는
09:34
of economic stagnation,
206
574152
1415
위험을 맞이하게 되며,
09:35
or maybe even a declining economic spiral,
207
575591
3669
심한 경우, 경기 하락을 겪게 됩니다.
09:39
as there simply aren't enough customers out there
208
579284
2314
생산된 재화와 서비스를 구매할
09:41
to buy the products and services being produced.
209
581622
2459
소비자가 부족하기 때문입니다.
09:44
It's really important to realize
210
584105
1928
모두가 개개인으로서 성공을 위해
09:46
that all of us as individuals rely on access to that market economy
211
586057
6014
시장경제의 접근성에 의존하고 있음을
깨닫는 것이 매우 중요합니다.
09:52
in order to be successful.
212
592095
1729
09:53
You can visualize that by thinking in terms of one really exceptional person.
213
593848
4436
아주 특출난 사람 한 명을 떠올려 보겠습니다.
09:58
Imagine for a moment you take, say, Steve Jobs,
214
598308
2988
그 사람이 스티브 잡스 라는 상상을 해보겠습니다.
10:01
and you drop him on an island all by himself.
215
601320
2581
잡스를 무인도에 혼자 던져두는 겁니다.
10:03
On that island, he's going to be running around,
216
603925
2294
무인도에서 잡스는 여기저기 배회하다가
10:06
gathering coconuts just like anyone else.
217
606243
2538
보통 사람들처럼 코코넛이나 따러 다니겠죠.
10:08
He's really not going to be anything special,
218
608805
2188
잡스도 특별할 것 없는 사람이 될 것이며,
10:11
and the reason, of course, is that there is no market
219
611017
3172
그 이유는 바로 무인도에는 잡스가 그의 탁월한 능력을
10:14
for him to scale his incredible talents across.
220
614213
2786
발휘할 시장이 없기 때문입니다.
10:17
So access to this market is really critical to us as individuals,
221
617023
3470
따라서 이런 시장의 접근성은 개개인에게 아주 중요합니다.
10:20
and also to the entire system in terms of it being sustainable.
222
620517
4022
그리고 그 시장이란 체계가 지속되기 위해서도 접근성이 중요합니다.
10:25
So the question then becomes: What exactly could we do about this?
223
625063
3844
그렇다면 이제 질문은 '우리가 정확히 무엇을 해야하나?' 입니다.
10:29
And I think you can view this through a very utopian framework.
224
629285
3232
여러분은 이 상황을 유토피아적 관점으로 바라볼 수 있습니다.
10:32
You can imagine a future where we all have to work less,
225
632541
2643
미래에는 우리 모두 더 적게 일하고,
10:35
we have more time for leisure,
226
635208
3001
더 많은 여가 시간을 갖고,
10:38
more time to spend with our families,
227
638233
1928
가족과 더 많은 시간을 함께 하고
10:40
more time to do things that we find genuinely rewarding
228
640185
3255
진정 가치있는 일을 할 시간이
10:43
and so forth.
229
643464
1157
더 많다는 상상을 해봅시다.
10:44
And I think that's a terrific vision.
230
644645
1855
아주 멋진 상상이죠.
10:46
That's something that we should absolutely strive to move toward.
231
646524
3629
이것이야말로 우리가 절대적으로 추구할 수 있는 것들 입니다.
10:50
But at the same time, I think we have to be realistic,
232
650177
2676
하지만 이와 동시에 우리는 현실적인
10:52
and we have to realize
233
652877
1393
상황을 깨달아야 합니다.
10:54
that we're very likely to face a significant income distribution problem.
234
654294
4860
우리는 심각한 소득 불균형 문제를 마주하게 될 것입니다.
10:59
A lot of people are likely to be left behind.
235
659178
2967
아주 많은 사람들이
11:03
And I think that in order to solve that problem,
236
663186
2404
이 문제를 해결하기 위해서
11:05
we're ultimately going to have to find a way
237
665614
2098
궁극적으로 본연의 일과 수입을 분리시키는
11:07
to decouple incomes from traditional work.
238
667736
2606
방법을 찾아야 할 것입니다.
11:10
And the best, more straightforward way I know to do that
239
670366
2866
이를 위한 보다 직접적이고 최선의 방법은
11:13
is some kind of a guaranteed income or universal basic income.
240
673256
3568
보장된 수입 혹은 보편적인 기본 수입을 주는 겁니다.
11:16
Now, basic income is becoming a very important idea.
241
676848
2488
기본 수입이 아주 중요한 개념이 되었습니다.
11:19
It's getting a lot of traction and attention,
242
679360
2139
많은 사람들이 관심을 갖기 시작했으며,
11:21
there are a lot of important pilot projects
243
681523
2273
전 세계적으로 시험삼아 진행 중인 프로젝트와
11:23
and experiments going on throughout the world.
244
683820
2175
실험이 진행되고 있습니다.
11:26
My own view is that a basic income is not a panacea;
245
686628
3200
기본 수입이 모든 것을 해결해 주지는 못 합니다.
11:29
it's not necessarily a plug-and-play solution,
246
689852
2532
당장에 바로 적용가능한 그런 해결책이라기 보다는
11:32
but rather, it's a place to start.
247
692408
1635
문제 해결을 위한 좋은 시작점이라고 할 수 있습니다
11:34
It's an idea that we can build on and refine.
248
694067
2782
우리가 계속해서 다듬어 가고 정비할 수 있는 개념입니다.
11:36
For example, one thing that I have written quite a lot about
249
696873
2817
예를 들어, 제가 글에서 많이 언급했던 주제는
11:39
is the possibility of incorporating explicit incentives into a basic income.
250
699714
4592
확실한 장려금을 기본 수입 형태로 만들 수 있는지에 대한 가능성입니다.
11:44
To illustrate that,
251
704930
1169
자세히 설명을 하자면,
11:46
imagine that you are a struggling high school student.
252
706123
2768
힘든 시기를 보내고 있는 고등학생이라고 생각해 봅시다.
11:48
Imagine that you are at risk of dropping out of school.
253
708915
2834
자퇴할 위기에 놓여 있다고 가정을 하는 겁니다.
11:52
And yet, suppose you know that at some point in the future,
254
712289
3378
하지만 미래의 어느 시점에는
11:55
no matter what,
255
715691
1224
무슨 일이든 상관없이
11:56
you're going to get the same basic income as everyone else.
256
716939
3697
다른 사람들과 똑같은 기본 수입을 받는다는 상상을 해보죠.
12:00
Now, to my mind, that creates a very perverse incentive
257
720660
3042
제가 봤을 때 이런 상황은 비뚤어진 생각을 심어주고
12:03
for you to simply give up and drop out of school.
258
723726
2497
금방 포기하고 학교를 중퇴하게 만들 겁니다.
12:06
So I would say, let's not structure things that way.
259
726247
2505
그런 상황까지는 가지 않게 해야합니다.
12:08
Instead, let's pay people who graduate from high school somewhat more
260
728776
5316
대신에 중퇴자들보다 졸업자들에게
더 많은 것을 주는 겁니다.
12:14
than those who simply drop out.
261
734116
1696
12:16
And we can take that idea of building incentives into a basic income,
262
736329
3478
기본 수입에 관한 장려책을 만들자는 아이디어를 받아들이고
12:19
and maybe extend it to other areas.
263
739831
1667
다른 영역으로 확대해보는 겁니다.
12:21
For example, we might create an incentive to work in the community
264
741522
3577
예를 들어 지역사회에서 타인을 도우면 생기는 장려금이나,
12:25
to help others,
265
745123
1158
12:26
or perhaps to do positive things for the environment,
266
746305
3064
혹은 환경을 위해 긍정적인 일을 하도록 장려하는 등
12:29
and so forth.
267
749393
1170
그 밖에 여러가지가 있을 겁니다.
12:30
So by incorporating incentives into a basic income,
268
750587
3011
기본 수입에 장려책을 도입함으로써,
12:33
we might actually improve it,
269
753622
1629
제도를 개선할 수 있을 겁니다.
12:35
and also, perhaps, take at least a couple of steps
270
755275
2626
그리고 몇 가지 방법을 더 취해서
12:37
towards solving another problem
271
757925
2425
다른 문제를 해결할 수 있는데
12:40
that I think we're quite possibly going to face in the future,
272
760374
2944
이 문제는 미래에 우리가 마주할 가능성이 높은 문제입니다.
12:43
and that is, how do we all find meaning and fulfillment,
273
763342
3752
그것은 우리 모두가 '미래에는 어떤 식으로 성취감을 찾고,
12:47
and how do we occupy our time
274
767118
2318
의미있게 시간을 보낼까?' 입니다.
12:49
in a world where perhaps there's less demand for traditional work?
275
769460
4349
그것도 전통적인 노동에 대한 수요가 줄어든 세상 속에서 말입니다.
12:54
So by extending and refining a basic income,
276
774201
2805
따라서 기본 수입 제도를 확대하고 정비함으로써
12:57
I think we can make it look better,
277
777030
2336
더 좋게 만들 수 있고,
12:59
and we can also, perhaps, make it more politically and socially acceptable
278
779390
5298
정치, 사회적으로 더 잘 수용되도록 할 수 있으며, 실현 가능하게끔
만들 수 있습니다.
13:04
and feasible --
279
784712
1164
13:05
and, of course, by doing that,
280
785900
1474
물론 이 모든 것들을 통해,
13:07
we increase the odds that it will actually come to be.
281
787398
3450
실제로 일어날 수 있도록 가능성을 높이는 겁니다.
13:11
I think one of the most fundamental,
282
791731
2270
많은 사람들이 가장 근본적으로
13:14
almost instinctive objections
283
794025
2168
거의 본능적인 거부감을
13:16
that many of us have to the idea of a basic income,
284
796217
3453
기본 수입과 어떤 형태로든 사회적 안전망이 커지는 것에 대해
13:19
or really to any significant expansion of the safety net,
285
799694
3732
가지고 있는 주된 이유는
바로 너무 많은 사람들이 경제 수레에 올라타고
13:23
is this fear that we're going to end up with too many people
286
803450
3760
그 수레를 끌어줄 사람이
13:27
riding in the economic cart,
287
807234
1738
13:28
and not enough people pulling that cart.
288
808996
2047
부족한 상황에 대한 두려움에서 기인한 겁니다.
13:31
And yet, really, the whole point I'm making here, of course,
289
811067
2834
하지만 제가 진정 하고자 하는 말은,
13:33
is that in the future,
290
813925
1361
미래에는
13:35
machines are increasingly going to be capable of pulling that cart for us.
291
815310
3826
우리를 위해 그 수레를 끌어줄 기계의 능력이 증가할 것입니다.
13:39
That should give us more options
292
819160
1990
덕분에 더 많은 선택지가 부여되고
13:41
for the way we structure our society and our economy,
293
821174
3811
사회와 경제를 만드는데 더 많은 선택을 할 수 있을 겁니다.
13:45
And I think eventually, it's going to go beyond simply being an option,
294
825009
3442
그리고 결국 기본 수입은 단순한 선택지를 넘어서서
13:48
and it's going to become an imperative.
295
828475
1901
아주 중요한 사안이 될 겁니다.
13:50
The reason, of course, is that all of this is going to put
296
830400
2822
이유는 이 모든 상황이 우리 사회에
13:53
such a degree of stress on our society,
297
833246
2014
그만큼의 압력으로 작용하기 때문입니다.
13:55
and also because jobs are that mechanism
298
835284
2514
현재는 직업이라는 매커니즘이
13:57
that gets purchasing power to consumers
299
837822
1965
소비자에게 구매력을 주고
13:59
so they can then drive the economy.
300
839811
2516
소비자들이 경제를 이끌어가는데요.
14:02
If, in fact, that mechanism begins to erode in the future,
301
842351
3547
만약 미래에는 직업이 갖는 매커니즘이 무너진다면
14:05
then we're going to need to replace it with something else
302
845922
2815
다른 것으로 대신하거나
14:08
or we're going to face the risk
303
848761
1563
우리의 전체 시스템이 지속 불가능한
14:10
that our whole system simply may not be sustainable.
304
850348
2567
위험을 마주하게 될 겁니다.
14:12
But the bottom line here is that I really think
305
852939
2382
하지만 중요한 것은
14:15
that solving these problems,
306
855345
2436
이런 문제들을 해결하고,
14:17
and especially finding a way to build a future economy
307
857805
3400
우리 사회의 모든 단계에서
모두에게 적합한
14:21
that works for everyone,
308
861229
2013
미래 경제를 건설할 방법을 찾는 것이
14:23
at every level of our society,
309
863266
1861
14:25
is going to be one of the most important challenges that we all face
310
865151
3540
앞으로 다가올 미래에 우리가 직면할 가장 중요한
14:28
in the coming years and decades.
311
868715
2043
과제라는 점입니다.
14:30
Thank you very much.
312
870782
1248
감사합니다.
14:32
(Applause)
313
872054
1860
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7