아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Eunsue Oh
검토: Changkyun Ahn
00:12
I'm going to begin with a scary question:
0
12787
2848
섬뜩한 질문으로 시작을
해보겠습니다.
00:15
Are we headed toward
a future without jobs?
1
15659
2750
앞으로 다가오는 미래에는
직업이 사라질까요?
00:18
The remarkable progress that we're seeing
2
18987
2069
과학분야에서 우리가 목도한
엄청난 진전은,
00:21
in technologies like self-driving cars
3
21080
1861
무인 자동차를 예로 들 수 있는데,
00:22
has led to an explosion
of interest in this question,
4
22965
3065
이런 질문을 할만큼
큰 흥미를 유발했습니다.
00:26
but because it's something
that's been asked
5
26054
2150
과거에도 수차례나 제기됐던
00:28
so many times in the past,
6
28228
1256
똑같은 질문이라서가 아닙니다.
00:29
maybe what we should really be asking
7
29508
1840
우리가 진정 던져야할 질문은
00:31
is whether this time is really different.
8
31372
2900
이번에는 '이전과는 정말
다를 것인가?' 입니다.
00:35
The fear that automation
might displace workers
9
35252
2961
자동화가 인간의 일자리를 대신할 것이며
00:38
and potentially lead
to lots of unemployment
10
38237
2117
이로 인해 수많은 실업자가
생길 것이라는 두려움은
00:40
goes back at a minimum 200 years
to the Luddite revolts in England.
11
40378
3888
최소 200년 전 영국의 러다이트 운동
때로 거슬러 올라갑니다.
00:44
And since then, this concern
has come up again and again.
12
44290
3196
그 후에도 이런 두려움은 계속해서
대두되어 왔습니다.
00:47
I'm going to guess
13
47510
1161
짐작건대 여러분 대다수는
00:48
that most of you have probably never
heard of the Triple Revolution report,
14
48695
4466
"트리플 레볼루션 리포트" 에 대해
들어본 적 없으실 겁니다.
00:53
but this was a very prominent report.
15
53185
2293
하지만 아주 저명한 리포트 입니다.
00:55
It was put together
by a brilliant group of people --
16
55502
2531
우수한 사람들이 함께 작업한 리포트로
00:58
it actually included
two Nobel laureates --
17
58057
3057
노벨상 수상자도 2명이나 함께 했습니다.
01:01
and this report was presented
to the President of the United States,
18
61138
3223
이 리포트는 미국 대통령에게 보고됐고
01:04
and it argued that the US was on the brink
of economic and social upheaval
19
64385
5494
미국이 사회 경제적 격변 직전에
처했다는 내용을 담고 있었습니다.
01:09
because industrial automation
was going to put millions of people
20
69903
3102
그 이유는 산업의 자동화로
수백만명의 노동자들이
01:13
out of work.
21
73029
1152
일자리를 잃을 것이었기 때문입니다.
01:14
Now, that report was delivered
to President Lyndon Johnson
22
74205
3657
이 리포트는 린든 존슨 대통령에게
전달 되었습니다.
01:17
in March of 1964.
23
77886
1801
1964년 3월 이었습니다.
01:19
So that's now over 50 years,
24
79711
2216
자, 이제 50년이 넘었는데
01:21
and, of course, that
hasn't really happened.
25
81951
2058
물론 그런 일은 일어나지 않았습니다.
01:24
And that's been the story again and again.
26
84033
2144
그리고 이런 이야기는 반복 되었습니다.
01:26
This alarm has been raised repeatedly,
27
86201
2109
이와 같은 경고가 계속 제기되었는데
01:28
but it's always been a false alarm.
28
88334
2013
항상 허위 경고가 되었습니다.
01:30
And because it's been a false alarm,
29
90371
1809
항상 허위 경고가 계속 되었기에
01:32
it's led to a very conventional way
of thinking about this.
30
92204
2807
산업의 자동화에 대한
관습적인 생각이 생겨났습니다.
01:35
And that says essentially that yes,
31
95035
2532
그 사고방식의 기본적인 골자는
과학이 산업 전체를 황폐화
시킨다는 내용 입니다.
01:37
technology may devastate
entire industries.
32
97591
2548
01:40
It may wipe out whole occupations
and types of work.
33
100163
3732
모든 직업과 직종을 없애
버릴 수도 있습니다.
01:43
But at the same time, of course,
34
103919
1608
하지만 이와 동시에
01:45
progress is going to lead
to entirely new things.
35
105551
2351
발전 과정에서 전적으로
새로운 것들이 생격날 것입니다.
01:47
So there will be new industries
that will arise in the future,
36
107926
2962
미래에는 새로운 산업이
생겨날 것이고
01:50
and those industries, of course,
will have to hire people.
37
110912
2858
물론 이 새로운 분야에서
고용이 생겨날 것입니다.
01:53
There'll be new kinds of work
that will appear,
38
113794
2238
새로 생겨난 일들도 있겠죠.
01:56
and those might be things that today
we can't really even imagine.
39
116056
3210
그리고 그 일들은 지금의 우리는
상상조차 불가능할 것입니다.
01:59
And that has been the story so far,
40
119290
1747
여기까지가 지금까지의 이야기였고
02:01
and it's been a positive story.
41
121061
1494
낙관적인 이야기 였습니다.
02:03
It turns out that the new jobs
that have been created
42
123095
3325
새로 생겨난 직업들은
이전 직업들보다 대체로
훨씬 좋았습니다.
02:06
have generally been
a lot better than the old ones.
43
126444
2470
02:08
They have, for example,
been more engaging.
44
128938
2656
더 많은 고용이 있었고
02:11
They've been in safer,
more comfortable work environments,
45
131618
3429
더욱 안전 했으며
근무 환경도 더 좋았습니다.
02:15
and, of course, they've paid more.
46
135071
1680
물론 봉급도 더 높았죠.
02:16
So it has been a positive story.
47
136775
1865
낙관적인 이야기 였죠.
02:18
That's the way things
have played out so far.
48
138664
2208
산업 자동화는 이런 식으로
진행이 되었습니다.
02:21
But there is one particular
class of worker
49
141292
2948
하지만 특정 직업군은
02:24
for whom the story
has been quite different.
50
144264
2252
상황이 매우 달랐습니다.
02:27
For these workers,
51
147938
1150
이 직종의 종사자들은
02:29
technology has completely
decimated their work,
52
149112
3021
과학기술로 인해 직업이
완전히 사라져 버렸고
02:32
and it really hasn't created
any new opportunities at all.
53
152157
3214
어떠한 새로운 기회도
주어지지 않았습니다.
02:35
And these workers, of course,
54
155395
2195
이 직종의 종사들은 바로
02:37
are horses.
55
157614
1288
말(馬) 입니다.
02:38
(Laughter)
56
158926
1443
(웃음)
02:40
So I can ask a very provocative question:
57
160393
2750
그럼 제가 아주 도전적인 질문을
하나 하겠습니다.
02:43
Is it possible that at some
point in the future,
58
163167
3435
다가오는 미래의 어느 순간에
02:46
a significant fraction of the human
workforce is going to be made redundant
59
166626
4628
인간 노동력의 상당 부분이
필요 없어질까요?
02:51
in the way that horses were?
60
171278
1702
말(馬)이 필요 없어진 것처럼요?
02:53
Now, you might have a very visceral,
reflexive reaction to that.
61
173485
3000
아마도 이런 질문에는 당연히
반감이 일어나겠죠.
02:56
You might say, "That's absurd.
62
176509
1647
"말도 안 돼요" 라고 하면서요.
02:58
How can you possibly compare
human beings to horses?"
63
178180
3669
어떻게 사람을 말(馬)에 비교 하나요?
03:02
Horses, of course, are very limited,
64
182437
1769
물론 말(馬)은 그 수가 제한적이고
03:04
and when cars and trucks
and tractors came along,
65
184230
2893
자동차나 트럭, 트랙터가 등장하자
03:07
horses really had nowhere else to turn.
66
187147
2045
말(馬)은 달리 쓰임이 없어졌습니다.
03:09
People, on the other hand,
are intelligent;
67
189844
2360
하지만 인간은 지능적입니다.
03:12
we can learn, we can adapt.
68
192228
1785
학습 능력이 있고 적응할 수 있습니다.
03:14
And in theory,
69
194037
1164
그 덕분에 이론상으로
03:15
that ought to mean that we can
always find something new to do,
70
195225
3127
인간은 언제나 새로운
직업을 찾을 수 있으며
03:18
and that we can always remain
relevant to the future economy.
71
198376
3306
미래의 경제에서도 생산자로
존재할 수 있을 것입니다.
03:21
But here's the really
critical thing to understand.
72
201706
2437
하지만 정말 중요한 것이 있습니다.
03:24
The machines that will threaten
workers in the future
73
204790
2865
미래에 인간의 일자리를 위협할 기계들은
03:27
are really nothing like those cars
and trucks and tractors
74
207679
3234
말(馬)을 대신하게 된
자동차나 트럭, 트랙터와
03:30
that displaced horses.
75
210937
1616
전혀 다릅니다.
03:32
The future is going to be full
of thinking, learning, adapting machines.
76
212577
4839
미래에는 생각, 학습, 적응력을 가진
기계들로 가득찰 것입니다 .
03:37
And what that really means
77
217440
1408
이것이 진정 의미하는 바는
03:38
is that technology is finally
beginning to encroach
78
218872
2834
과학기술이 마침내 인간의 기본적인 능력을
03:41
on that fundamental human capability --
79
221730
2849
침해하기 시작했다는 뜻입니다.
03:44
the thing that makes us
so different from horses,
80
224603
2803
이런 능력이 있기에 인간은
말(馬)과는 전혀 달랐고
03:47
and the very thing that, so far,
81
227430
2234
이제껏 이 능력 덕분에
03:49
has allowed us to stay ahead
of the march of progress
82
229688
2647
발전의 선두에 위치할 수 있었고
미래 경제와 연관성을
지닐 수 있었습니다.
03:52
and remain relevant,
83
232359
1189
03:53
and, in fact, indispensable
to the economy.
84
233572
3067
그리고 미래 경제에서 반드시
필요한 존재로 남아 있었습니다.
03:58
So what is it that is really so different
85
238407
2495
그렇다면 오늘의 정보과학기술이
04:00
about today's information technology
86
240926
2043
과거에 우리가 목격했던 것과
04:02
relative to what we've seen in the past?
87
242993
1947
무엇이 그토록 다를까요?
04:04
I would point to three fundamental things.
88
244964
2653
가장 근본적인 세 가지 요인을
들어보겠습니다.
04:07
The first thing is that we have seen
this ongoing process
89
247641
4409
첫째로 우리는 기하급수적으로
발전하는 진행과정을 직접 보았습니다.
04:12
of exponential acceleration.
90
252074
1888
04:14
I know you all know about Moore's law,
91
254420
2095
여러분 모두 '무어의 법칙'을
알고 계실텐데요,
04:16
but in fact, it's more
broad-based than that;
92
256539
2296
사실 무어의 법칙은 훨씬
광범위하게 적용 됩니다.
04:18
it extends in many cases,
for example, to software,
93
258859
3150
예를 들어, 소프트웨어에 적용되고
04:22
it extends to communications,
bandwidth and so forth.
94
262033
3000
정보통신, 대역폭 등등에도 적용됩니다.
04:25
But the really key thing to understand
95
265057
1984
하지만 정말 중요한 사실은
04:27
is that this acceleration has now
been going on for a really long time.
96
267065
3871
이런 급진적인 발전이 아주 오랫동안
지속되어 왔다는 것입니다.
04:30
In fact, it's been going on for decades.
97
270960
1925
사실 수십 년 동안
계속되어 왔습니다.
04:32
If you measure from the late 1950s,
98
272909
2756
최초의 집적회로가 개발된
04:35
when the first integrated
circuits were fabricated,
99
275689
2425
1950년대 후반부터 계산을 한다면
04:38
we've seen something on the order
of 30 doublings in computational power
100
278138
4785
우리는 당시 컴퓨터 능력의 대략
2의 30제곱 배 정도 뛰어난 것을
04:42
since then.
101
282947
1156
보고 있습니다.
04:44
That's just an extraordinary number
of times to double any quantity,
102
284127
3688
거기서 또 두배가 되는 것은 실로
어마어마한 숫자인 것입니다.
04:47
and what it really means
103
287839
1240
이것이 진정 의미하는 바는
04:49
is that we're now at a point
where we're going to see
104
289103
2524
현재 우리가 처한 상황에서
앞으로 보게 될 것이
04:51
just an extraordinary amount
of absolute progress,
105
291651
2411
어마어마한 수의 절대 양적
진보라는 것입니다.
04:54
and, of course, things are going
to continue to also accelerate
106
294086
2975
물론 그 진전의 시점부터
계속해서 여러가지가
04:57
from this point.
107
297085
1159
가속화될 것입니다.
04:58
So as we look forward
to the coming years and decades,
108
298268
2540
우리는 다가올 미래를 기대하고 있지만
05:00
I think that means
that we're going to see things
109
300832
2338
제 생각에 인류가
앞으로 보게될 미래는
05:03
that we're really not prepared for.
110
303194
1673
전혀 대비되지 못한 것들일 겁니다.
05:04
We're going to see things
that astonish us.
111
304891
2077
우리를 놀라게 할 것들을
보게 될 것입니다.
05:06
The second key thing
112
306992
1266
두 번째로 중요한 것은
05:08
is that the machines are,
in a limited sense, beginning to think.
113
308282
3906
제한적이긴 하지만
기계가 생각을 하기 시작했습니다.
05:12
And by this, I don't mean human-level AI,
114
312212
2457
인간의 사고능력에 준하는 인공지능이나,
05:14
or science fiction
artificial intelligence;
115
314693
2936
공상과학의 인공지능을
말하는 게 아닙니다.
05:17
I simply mean that machines and algorithms
are making decisions.
116
317653
4462
판단력을 갖춘 기계와
인공지능을 보게 될 것입니다.
05:22
They're solving problems,
and most importantly, they're learning.
117
322139
3860
이들은 문제해결능력이 있으며,
결정적으로 학습능력까지 있습니다.
05:26
In fact, if there's one technology
that is truly central to this
118
326023
3303
기계와 알고리즘
학습능력의 중심이 되고
실제 원동력이 된 과학기술은
05:29
and has really become
the driving force behind this,
119
329350
3077
05:32
it's machine learning,
120
332451
1172
바로 "머신 러닝" 입니다.
05:33
which is just becoming
this incredibly powerful,
121
333647
2720
머신 러닝은 놀라울 정도로 막강하며,
05:36
disruptive, scalable technology.
122
336391
2638
획기적이고 쓰임이 자유로운 기술 입니다.
05:39
One of the best examples
I've seen of that recently
123
339561
2469
최근에 제가 본 가장 확실한 예는
05:42
was what Google's DeepMind
division was able to do
124
342054
2751
구글 딥마인드에서 개발한
05:44
with its AlphaGo system.
125
344829
1553
알파고(AlphaGo) 입니다.
05:46
Now, this is the system that was able
to beat the best player in the world
126
346406
4300
알파고는 세계 최강의 바둑기사를 이긴
05:50
at the ancient game of Go.
127
350730
1979
인공지능 바둑 프로그램 입니다.
05:52
Now, at least to me,
128
352733
1150
제가 봤을 때
05:53
there are two things that really
stand out about the game of Go.
129
353907
3117
알파고가 뛰어난 점이
두 가지가 있습니다.
05:57
One is that as you're playing the game,
130
357048
2296
우선, 바둑을 둘 때
05:59
the number of configurations
that the board can be in
131
359368
2866
바둑판에 등장할 수 있는 경우의 수는
06:02
is essentially infinite.
132
362258
1411
본질적으로 무한 합니다.
06:03
There are actually more possibilities
than there are atoms in the universe.
133
363693
3833
실제로 은하계에 존재하는 원자수 보다
더 많은 국면의 수가 생성 됩니다.
06:07
So what that means is,
134
367980
1184
이것이 의미하는 것은
06:09
you're never going to be able to build
a computer to win at the game of Go
135
369188
3597
바둑을 둘 때 컴퓨터가 이길 수 있게
프로그램을 짤 수가 없습니다.
06:12
the way chess was approached, for example,
136
372809
2180
예를 들면, 컴퓨터와
체스를 둘 때 처럼
06:15
which is basically to throw
brute-force computational power at it.
137
375013
4526
컴퓨터가 무차별 대입을 통해 국면의
수를 제한할 수 없습니다.
06:19
So clearly, a much more sophisticated,
thinking-like approach is needed.
138
379563
4177
따라서 보다 정교한 사고력을 가지고
대국에 임해야 합니다.
06:24
The second thing
that really stands out is that,
139
384368
3271
다음으로 눈여겨 보아야할 점은
06:27
if you talk to one
of the championship Go players,
140
387663
2647
프로 바둑기사와 대화를 해본다면
06:30
this person cannot necessarily
even really articulate what exactly it is
141
390334
4485
바둑기사조차 자신들이 바둑을 두면서
무슨 생각으로 수를 두게 되었는지를
06:34
they're thinking about
as they play the game.
142
394843
2215
정확히 설명하지 못한다는 것을
알게 될 것입니다.
06:37
It's often something
that's very intuitive,
143
397082
2193
바둑을 둘 때 직관에
따를 때가 많습니다.
06:39
it's almost just like a feeling
about which move they should make.
144
399299
3322
마치 어떤 수를 두어야 하는지
느낌으로 아는 겁니다.
06:42
So given those two qualities,
145
402645
1407
이 두 가지를 고려했을 때
06:44
I would say that playing Go
at a world champion level
146
404076
3937
세계 챔피언 수준의 바둑을 두는 것은
06:48
really ought to be something
that's safe from automation,
147
408037
3238
자동화의 침해를 받지 않는
영역이 되어야 하는데
06:51
and the fact that it isn't should really
raise a cautionary flag for us.
148
411299
4446
그렇지 않다는 것은 인간에게
빨간불이 들어왔다는 겁니다.
06:55
And the reason is that we tend
to draw a very distinct line,
149
415769
3917
그 이유는 인간은 매우 분명한
선을 긋는 경향이 있는데
06:59
and on one side of that line
are all the jobs and tasks
150
419710
3509
그 선을 경계로 한 쪽에는
우리가 인지하기에 근본적으로
07:03
that we perceive as being on some level
fundamentally routine and repetitive
151
423243
4748
단순하고 반복적이며 예측가능한 유형의
모든 직업들과 업무들이
07:08
and predictable.
152
428015
1350
놓여있습니다.
07:09
And we know that these jobs
might be in different industries,
153
429389
2858
그리고 이 영역의 직종들은 각기
다른 산업유형에 속하고
07:12
they might be in different occupations
and at different skill levels,
154
432271
3373
다른 직종과 다른 숙련도를
요하는 직업일 수는 있겠지만
07:15
but because they are innately predictable,
155
435668
2210
이 직업들은 본질적으로
예측가능하다는 점 때문에
07:17
we know they're probably at some point
going to be susceptible
156
437902
3127
아마도 언젠가는 머신 러닝에 의해
침식당하게 될 것을
07:21
to machine learning,
157
441053
1177
우리는 알고 있습니다.
07:22
and therefore, to automation.
158
442254
1419
즉, 자동화의 영향을
받게 되는거죠.
07:23
And make no mistake --
that's a lot of jobs.
159
443697
2097
그리고 확실한 건
아주 많은 직업들이 그렇게 될 겁니다.
07:25
That's probably something
on the order of roughly half
160
445818
2679
미국 경제의 대략 절반의 직업이
07:28
the jobs in the economy.
161
448521
1567
자동화의 영향을 받을 것입니다.
07:30
But then on the other side of that line,
162
450112
2159
하지만 그 선 반대편에는
07:32
we have all the jobs
that require some capability
163
452295
4071
우리가 보기에 인간 고유의 것이라
여겨온 능력이 요구되는
07:36
that we perceive as being uniquely human,
164
456390
2372
모든 직업이 있으며,
07:38
and these are the jobs
that we think are safe.
165
458786
2223
이 직업들만큼은 안전하다고 생각합니다.
07:41
Now, based on what I know
about the game of Go,
166
461033
2265
바둑에 기반을 두고 보았을 때,
07:43
I would've guessed that it really ought
to be on the safe side of that line.
167
463322
3703
바둑만큼은 그 선을 경계로 진정
안전한 쪽일 것이라 여겨왔습니다.
07:47
But the fact that it isn't,
and that Google solved this problem,
168
467049
3178
하지만 실상은 그렇지 않았고,
구글은 그 문제를 풀었습니다.
07:50
suggests that that line is going
to be very dynamic.
169
470251
2432
그리고 그 선은 매우
역동적일 것입니다.
07:52
It's going to shift,
170
472707
1179
판도가 바뀔 것이고
07:53
and it's going to shift in a way
that consumes more and more jobs and tasks
171
473910
4135
우리가 현재 자동화로부터
안전하리라 여기는 직업과 업무들이
07:58
that we currently perceive
as being safe from automation.
172
478069
3017
점점 더 안전하지 않은 쪽으로
잠식되어 갈 것입니다.
08:01
The other key thing to understand
173
481921
1657
또 다른 중요한 점은
08:03
is that this is by no means just about
low-wage jobs or blue-collar jobs,
174
483602
5138
이런 현상이 저임금직의 단순노동직이나
상대적으로 교육수준이 낮은
08:08
or jobs and tasks done by people
175
488764
1875
직업과 업무에 국한된 것이
08:10
that have relatively
low levels of education.
176
490663
2104
결코 아니란 점입니다.
08:12
There's lots of evidence to show
177
492791
1524
많은 증거들로 보건데
08:14
that these technologies are rapidly
climbing the skills ladder.
178
494339
3160
인공지능 과학기술은 급속히
직업 계층 사다리를 오르고 있습니다.
08:17
So we already see an impact
on professional jobs --
179
497523
3616
우리는 이미 전문직에 닥친
여파를 보았습니다.
08:21
tasks done by people like accountants,
180
501163
4435
이미 많은 전문직들의 직무,
예컨대 회계사, 금융 전문가, 언론인,
08:25
financial analysts,
181
505622
1317
08:26
journalists,
182
506963
1296
변호사와 방사선 전문의 등등,
자동화의 영향을 받았습니다.
08:28
lawyers, radiologists and so forth.
183
508283
2377
08:30
So a lot of the assumptions that we make
184
510684
1938
다가올 미래에 자동화에 의해
08:32
about the kind of occupations
and tasks and jobs
185
512646
3220
위협을 받을 것이라 예측되는
직종과 직업들에 대해
08:35
that are going to be threatened
by automation in the future
186
515890
2819
내놓았던 수많은 가정들이
08:38
are very likely to be
challenged going forward.
187
518733
2198
계속해서 시험대에 오를 것입니다.
08:40
So as we put these trends together,
188
520955
1700
이런 경향들을 종합해 봤을 때,
08:42
I think what it shows is that we could
very well end up in a future
189
522679
3292
제가 생각하기에 미래의
우리 인류는 결국
08:45
with significant unemployment.
190
525995
1507
심각한 실업난을 겪게 될 겁니다.
08:48
Or at a minimum,
191
528254
1152
아니면 적어도,
08:49
we could face lots of underemployment
or stagnant wages,
192
529430
3781
높은 실업률이나 정체된 임금,
08:53
maybe even declining wages.
193
533235
2097
심지어 임금 삭감까지 겪게 될 겁니다.
08:56
And, of course, soaring levels
of inequality.
194
536142
2810
물론 걷잡을 수 없는
불균등도 겪을 겁니다.
08:58
All of that, of course, is going to put
a terrific amount of stress
195
538976
4033
물론 이 모든 현상은 사회 구조에
엄청난 스트레스를 가져올 겁니다.
09:03
on the fabric of society.
196
543033
1917
09:04
But beyond that, there's also
a fundamental economic problem,
197
544974
3059
그러나 이런 문제를 제쳐두고서
근본적인 경제 문제가 발생할 겁니다.
09:08
and that arises because jobs
are currently the primary mechanism
198
548057
5195
그 이유는 직업은 소득을 분배하는
가장 기본적인 매커니즘이며
09:13
that distributes income,
and therefore purchasing power,
199
553276
3545
따라서 우리가 생산하는 재화와
서비스를 구매하는
09:16
to all the consumers that buy the products
and services we're producing.
200
556845
5132
소비자의 구매력도
마찬가지이기 때문입니다.
09:22
In order to have a vibrant market economy,
201
562831
2515
활성화된 시장 경제를 형성하기 위해서는
09:25
you've got to have
lots and lots of consumers
202
565370
2120
수많은 소비자가 있어야 하는데
09:27
that are really capable of buying
the products and services
203
567514
3029
이 소비자들이 생산되는
09:30
that are being produced.
204
570567
1151
재화와 서비스를 구매해야 합니다.
09:31
If you don't have that,
then you run the risk
205
571742
2386
소비자가 없다면 경제침체라는
09:34
of economic stagnation,
206
574152
1415
위험을 맞이하게 되며,
09:35
or maybe even a declining economic spiral,
207
575591
3669
심한 경우, 경기 하락을 겪게 됩니다.
09:39
as there simply aren't enough
customers out there
208
579284
2314
생산된 재화와 서비스를 구매할
09:41
to buy the products
and services being produced.
209
581622
2459
소비자가 부족하기 때문입니다.
09:44
It's really important to realize
210
584105
1928
모두가 개개인으로서 성공을 위해
09:46
that all of us as individuals rely
on access to that market economy
211
586057
6014
시장경제의 접근성에 의존하고 있음을
깨닫는 것이 매우 중요합니다.
09:52
in order to be successful.
212
592095
1729
09:53
You can visualize that by thinking
in terms of one really exceptional person.
213
593848
4436
아주 특출난 사람 한 명을
떠올려 보겠습니다.
09:58
Imagine for a moment you take,
say, Steve Jobs,
214
598308
2988
그 사람이 스티브 잡스 라는
상상을 해보겠습니다.
10:01
and you drop him
on an island all by himself.
215
601320
2581
잡스를 무인도에 혼자 던져두는 겁니다.
10:03
On that island, he's going
to be running around,
216
603925
2294
무인도에서 잡스는 여기저기 배회하다가
10:06
gathering coconuts just like anyone else.
217
606243
2538
보통 사람들처럼 코코넛이나
따러 다니겠죠.
10:08
He's really not going to be
anything special,
218
608805
2188
잡스도 특별할 것 없는
사람이 될 것이며,
10:11
and the reason, of course,
is that there is no market
219
611017
3172
그 이유는 바로 무인도에는
잡스가 그의 탁월한 능력을
10:14
for him to scale
his incredible talents across.
220
614213
2786
발휘할 시장이 없기 때문입니다.
10:17
So access to this market
is really critical to us as individuals,
221
617023
3470
따라서 이런 시장의 접근성은
개개인에게 아주 중요합니다.
10:20
and also to the entire system
in terms of it being sustainable.
222
620517
4022
그리고 그 시장이란 체계가 지속되기
위해서도 접근성이 중요합니다.
10:25
So the question then becomes:
What exactly could we do about this?
223
625063
3844
그렇다면 이제 질문은 '우리가
정확히 무엇을 해야하나?' 입니다.
10:29
And I think you can view this
through a very utopian framework.
224
629285
3232
여러분은 이 상황을 유토피아적
관점으로 바라볼 수 있습니다.
10:32
You can imagine a future
where we all have to work less,
225
632541
2643
미래에는 우리 모두 더 적게 일하고,
10:35
we have more time for leisure,
226
635208
3001
더 많은 여가 시간을 갖고,
10:38
more time to spend with our families,
227
638233
1928
가족과 더 많은 시간을 함께 하고
10:40
more time to do things that we find
genuinely rewarding
228
640185
3255
진정 가치있는 일을 할 시간이
10:43
and so forth.
229
643464
1157
더 많다는 상상을 해봅시다.
10:44
And I think that's a terrific vision.
230
644645
1855
아주 멋진 상상이죠.
10:46
That's something that we should
absolutely strive to move toward.
231
646524
3629
이것이야말로 우리가 절대적으로
추구할 수 있는 것들 입니다.
10:50
But at the same time, I think
we have to be realistic,
232
650177
2676
하지만 이와 동시에 우리는 현실적인
10:52
and we have to realize
233
652877
1393
상황을 깨달아야 합니다.
10:54
that we're very likely to face
a significant income distribution problem.
234
654294
4860
우리는 심각한 소득 불균형 문제를
마주하게 될 것입니다.
10:59
A lot of people are likely
to be left behind.
235
659178
2967
아주 많은 사람들이
11:03
And I think that in order
to solve that problem,
236
663186
2404
이 문제를 해결하기 위해서
11:05
we're ultimately going
to have to find a way
237
665614
2098
궁극적으로 본연의 일과
수입을 분리시키는
11:07
to decouple incomes from traditional work.
238
667736
2606
방법을 찾아야 할 것입니다.
11:10
And the best, more straightforward
way I know to do that
239
670366
2866
이를 위한 보다 직접적이고
최선의 방법은
11:13
is some kind of a guaranteed income
or universal basic income.
240
673256
3568
보장된 수입 혹은 보편적인
기본 수입을 주는 겁니다.
11:16
Now, basic income is becoming
a very important idea.
241
676848
2488
기본 수입이 아주 중요한
개념이 되었습니다.
11:19
It's getting a lot
of traction and attention,
242
679360
2139
많은 사람들이 관심을 갖기 시작했으며,
11:21
there are a lot of important
pilot projects
243
681523
2273
전 세계적으로 시험삼아
진행 중인 프로젝트와
11:23
and experiments going on
throughout the world.
244
683820
2175
실험이 진행되고 있습니다.
11:26
My own view is that a basic income
is not a panacea;
245
686628
3200
기본 수입이 모든 것을
해결해 주지는 못 합니다.
11:29
it's not necessarily
a plug-and-play solution,
246
689852
2532
당장에 바로 적용가능한
그런 해결책이라기 보다는
11:32
but rather, it's a place to start.
247
692408
1635
문제 해결을 위한 좋은
시작점이라고 할 수 있습니다
11:34
It's an idea that we can
build on and refine.
248
694067
2782
우리가 계속해서 다듬어 가고
정비할 수 있는 개념입니다.
11:36
For example, one thing that I have
written quite a lot about
249
696873
2817
예를 들어, 제가 글에서 많이
언급했던 주제는
11:39
is the possibility of incorporating
explicit incentives into a basic income.
250
699714
4592
확실한 장려금을 기본 수입 형태로
만들 수 있는지에 대한 가능성입니다.
11:44
To illustrate that,
251
704930
1169
자세히 설명을 하자면,
11:46
imagine that you are a struggling
high school student.
252
706123
2768
힘든 시기를 보내고 있는
고등학생이라고 생각해 봅시다.
11:48
Imagine that you are at risk
of dropping out of school.
253
708915
2834
자퇴할 위기에 놓여 있다고
가정을 하는 겁니다.
11:52
And yet, suppose you know
that at some point in the future,
254
712289
3378
하지만 미래의 어느 시점에는
11:55
no matter what,
255
715691
1224
무슨 일이든 상관없이
11:56
you're going to get the same
basic income as everyone else.
256
716939
3697
다른 사람들과 똑같은 기본 수입을
받는다는 상상을 해보죠.
12:00
Now, to my mind, that creates
a very perverse incentive
257
720660
3042
제가 봤을 때 이런 상황은
비뚤어진 생각을 심어주고
12:03
for you to simply give up
and drop out of school.
258
723726
2497
금방 포기하고 학교를
중퇴하게 만들 겁니다.
12:06
So I would say, let's not
structure things that way.
259
726247
2505
그런 상황까지는
가지 않게 해야합니다.
12:08
Instead, let's pay people who graduate
from high school somewhat more
260
728776
5316
대신에 중퇴자들보다 졸업자들에게
더 많은 것을 주는 겁니다.
12:14
than those who simply drop out.
261
734116
1696
12:16
And we can take that idea of building
incentives into a basic income,
262
736329
3478
기본 수입에 관한 장려책을 만들자는
아이디어를 받아들이고
12:19
and maybe extend it to other areas.
263
739831
1667
다른 영역으로 확대해보는 겁니다.
12:21
For example, we might create
an incentive to work in the community
264
741522
3577
예를 들어 지역사회에서
타인을 도우면 생기는 장려금이나,
12:25
to help others,
265
745123
1158
12:26
or perhaps to do positive
things for the environment,
266
746305
3064
혹은 환경을 위해 긍정적인 일을
하도록 장려하는 등
12:29
and so forth.
267
749393
1170
그 밖에 여러가지가 있을 겁니다.
12:30
So by incorporating incentives
into a basic income,
268
750587
3011
기본 수입에 장려책을 도입함으로써,
12:33
we might actually improve it,
269
753622
1629
제도를 개선할 수 있을 겁니다.
12:35
and also, perhaps, take at least
a couple of steps
270
755275
2626
그리고 몇 가지 방법을 더 취해서
12:37
towards solving another problem
271
757925
2425
다른 문제를 해결할 수 있는데
12:40
that I think we're quite possibly
going to face in the future,
272
760374
2944
이 문제는 미래에 우리가 마주할
가능성이 높은 문제입니다.
12:43
and that is, how do we all find
meaning and fulfillment,
273
763342
3752
그것은 우리 모두가 '미래에는
어떤 식으로 성취감을 찾고,
12:47
and how do we occupy our time
274
767118
2318
의미있게 시간을 보낼까?' 입니다.
12:49
in a world where perhaps
there's less demand for traditional work?
275
769460
4349
그것도 전통적인 노동에 대한 수요가
줄어든 세상 속에서 말입니다.
12:54
So by extending and refining
a basic income,
276
774201
2805
따라서 기본 수입 제도를
확대하고 정비함으로써
12:57
I think we can make it look better,
277
777030
2336
더 좋게 만들 수 있고,
12:59
and we can also, perhaps, make it
more politically and socially acceptable
278
779390
5298
정치, 사회적으로 더 잘 수용되도록
할 수 있으며, 실현 가능하게끔
만들 수 있습니다.
13:04
and feasible --
279
784712
1164
13:05
and, of course, by doing that,
280
785900
1474
물론 이 모든 것들을 통해,
13:07
we increase the odds
that it will actually come to be.
281
787398
3450
실제로 일어날 수 있도록
가능성을 높이는 겁니다.
13:11
I think one of the most fundamental,
282
791731
2270
많은 사람들이 가장 근본적으로
13:14
almost instinctive objections
283
794025
2168
거의 본능적인 거부감을
13:16
that many of us have
to the idea of a basic income,
284
796217
3453
기본 수입과 어떤 형태로든
사회적 안전망이 커지는 것에 대해
13:19
or really to any significant
expansion of the safety net,
285
799694
3732
가지고 있는 주된 이유는
바로 너무 많은 사람들이
경제 수레에 올라타고
13:23
is this fear that we're going to end up
with too many people
286
803450
3760
그 수레를 끌어줄 사람이
13:27
riding in the economic cart,
287
807234
1738
13:28
and not enough people pulling that cart.
288
808996
2047
부족한 상황에 대한
두려움에서 기인한 겁니다.
13:31
And yet, really, the whole point
I'm making here, of course,
289
811067
2834
하지만 제가 진정 하고자 하는 말은,
13:33
is that in the future,
290
813925
1361
미래에는
13:35
machines are increasingly going
to be capable of pulling that cart for us.
291
815310
3826
우리를 위해 그 수레를 끌어줄
기계의 능력이 증가할 것입니다.
13:39
That should give us more options
292
819160
1990
덕분에 더 많은 선택지가 부여되고
13:41
for the way we structure
our society and our economy,
293
821174
3811
사회와 경제를 만드는데 더 많은
선택을 할 수 있을 겁니다.
13:45
And I think eventually, it's going to go
beyond simply being an option,
294
825009
3442
그리고 결국 기본 수입은 단순한
선택지를 넘어서서
13:48
and it's going to become an imperative.
295
828475
1901
아주 중요한 사안이 될 겁니다.
13:50
The reason, of course,
is that all of this is going to put
296
830400
2822
이유는 이 모든 상황이 우리 사회에
13:53
such a degree of stress on our society,
297
833246
2014
그만큼의 압력으로 작용하기 때문입니다.
13:55
and also because jobs are that mechanism
298
835284
2514
현재는 직업이라는 매커니즘이
13:57
that gets purchasing power to consumers
299
837822
1965
소비자에게 구매력을 주고
13:59
so they can then drive the economy.
300
839811
2516
소비자들이 경제를 이끌어가는데요.
14:02
If, in fact, that mechanism
begins to erode in the future,
301
842351
3547
만약 미래에는 직업이 갖는
매커니즘이 무너진다면
14:05
then we're going to need to replace
it with something else
302
845922
2815
다른 것으로 대신하거나
14:08
or we're going to face the risk
303
848761
1563
우리의 전체 시스템이 지속 불가능한
14:10
that our whole system simply
may not be sustainable.
304
850348
2567
위험을 마주하게 될 겁니다.
14:12
But the bottom line here
is that I really think
305
852939
2382
하지만 중요한 것은
14:15
that solving these problems,
306
855345
2436
이런 문제들을 해결하고,
14:17
and especially finding a way
to build a future economy
307
857805
3400
우리 사회의 모든 단계에서
모두에게 적합한
14:21
that works for everyone,
308
861229
2013
미래 경제를 건설할 방법을 찾는 것이
14:23
at every level of our society,
309
863266
1861
14:25
is going to be one of the most important
challenges that we all face
310
865151
3540
앞으로 다가올 미래에 우리가 직면할 가장 중요한
14:28
in the coming years and decades.
311
868715
2043
과제라는 점입니다.
14:30
Thank you very much.
312
870782
1248
감사합니다.
14:32
(Applause)
313
872054
1860
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.