3 myths about the future of work (and why they're not true) | Daniel Susskind

169,353 views ・ 2018-04-05

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Anna Pecot Редактор: Alena Chernykh
00:12
Automation anxiety has been spreading lately,
0
12760
3376
В последнее время в обществе растёт беспокойство
00:16
a fear that in the future,
1
16160
2656
по поводу автоматизации жизнедеятельности человека,
00:18
many jobs will be performed by machines
2
18840
2456
страх, что в будущем многие задачи, выполняемые сегодня человеком,
00:21
rather than human beings,
3
21320
1336
возьмут на себя машины, —
00:22
given the remarkable advances that are unfolding
4
22680
2936
это неудивительно, учитывая колоссальный прогресс
00:25
in artificial intelligence and robotics.
5
25640
2776
в области искусственного интеллекта и робототехники.
00:28
What's clear is that there will be significant change.
6
28440
2816
Уже ясно, что в будущем нас ждут значительные перемены.
00:31
What's less clear is what that change will look like.
7
31280
3616
Но менее ясным остаётся характер перемен.
00:34
My research suggests that the future is both troubling and exciting.
8
34920
4936
Мои исследования показывают, что нас ждёт тревожное и увлекательное будущее.
00:39
The threat of technological unemployment is real,
9
39880
3736
Угроза технологической безработицы существует на самом деле,
00:43
and yet it's a good problem to have.
10
43640
2056
но этой проблеме нам стоило бы радоваться.
00:45
And to explain how I came to that conclusion,
11
45720
3216
А чтобы объяснить вам, как я пришёл к этому выводу,
00:48
I want to confront three myths
12
48960
2536
я хотел бы развеять три мифа,
00:51
that I think are currently obscuring our vision of this automated future.
13
51520
4280
которые, я считаю, мешают нам трезво оценить это самое будущее.
00:56
A picture that we see on our television screens,
14
56880
2336
В книгах, кинофильмах и новостях
00:59
in books, in films, in everyday commentary
15
59240
2216
нам показывают,
01:01
is one where an army of robots descends on the workplace
16
61480
3696
как армия роботов вторгается в наше рабочее пространство
01:05
with one goal in mind:
17
65200
1376
с единственной целью:
01:06
to displace human beings from their work.
18
66600
2496
вытеснить человека с его рабочего места.
01:09
And I call this the Terminator myth.
19
69120
2696
Я называю это мифом Терминатора.
01:11
Yes, machines displace human beings from particular tasks,
20
71840
3976
Да, машины освободили человека от выполнения определённых задач.
01:15
but they don't just substitute for human beings.
21
75840
2256
Но они не столько сместили людей,
01:18
They also complement them in other tasks,
22
78120
1976
сколько дополнили наш труд,
01:20
making that work more valuable and more important.
23
80120
3616
делая его более ценным и важным.
01:23
Sometimes they complement human beings directly,
24
83760
3336
Зачастую машины напрямую дополняют деятельность человека,
01:27
making them more productive or more efficient at a particular task.
25
87120
4016
помогают нам достичь большей продуктивности и эффективности в работе.
01:31
So a taxi driver can use a satnav system to navigate on unfamiliar roads.
26
91160
4616
Так, в незнакомой местности таксист может воспользоваться спутниковой навигацией.
01:35
An architect can use computer-assisted design software
27
95800
3336
Благодаря системам автоматизированного проектирования архитектор может
01:39
to design bigger, more complicated buildings.
28
99160
3096
разработать более сложный и замысловатый дизайн сооружения.
01:42
But technological progress doesn't just complement human beings directly.
29
102280
3696
Но технологический прогресс дополняет человека не только напрямую.
01:46
It also complements them indirectly, and it does this in two ways.
30
106000
3336
Это может происходить косвенно двумя способами.
01:49
The first is if we think of the economy as a pie,
31
109360
3336
Для начала давайте представим экономику в качестве пирога.
01:52
technological progress makes the pie bigger.
32
112720
2896
Благодаря технологическому прогрессу этот пирог становится больше.
01:55
As productivity increases, incomes rise and demand grows.
33
115640
3856
По мере того как растёт продуктивность, повышаются доходы и спрос.
01:59
The British pie, for instance,
34
119520
1776
К примеру, пирог Великобритании
02:01
is more than a hundred times the size it was 300 years ago.
35
121320
3960
сегодня в более чем 100 раз крупнее своего аналога 300-летней давности.
02:05
And so people displaced from tasks in the old pie
36
125920
3216
А люди, потерявшие работу в экономике старого пирога,
02:09
could find tasks to do in the new pie instead.
37
129160
2720
могут трудоустроиться в рамках нового пирога.
02:12
But technological progress doesn't just make the pie bigger.
38
132800
3936
Но благодаря технологическому прогрессу пирог становится не только крупнее.
02:16
It also changes the ingredients in the pie.
39
136760
2856
Меняются и его ингредиенты.
02:19
As time passes, people spend their income in different ways,
40
139640
3456
Со временем люди начинают тратить свои доходы по-другому.
02:23
changing how they spread it across existing goods,
41
143120
2816
Меняется структура затрат на существующие товары,
02:25
and developing tastes for entirely new goods, too.
42
145960
3216
и появляется потребность в совершенно новых товарах.
02:29
New industries are created,
43
149200
1776
Появляются новые отрасли хозяйства,
02:31
new tasks have to be done
44
151000
1816
возникает потребность в новых профессиях,
02:32
and that means often new roles have to be filled.
45
152840
2536
а значит, открываются позиции, которые необходимо заполнить.
02:35
So again, the British pie:
46
155400
1496
И снова о пироге Великобритании:
02:36
300 years ago, most people worked on farms,
47
156920
2976
300 лет назад большинство британцев зарабатывали на жизнь на фермах,
02:39
150 years ago, in factories,
48
159920
2336
150 лет назад — на заводах,
02:42
and today, most people work in offices.
49
162280
2856
а сегодня большинство жителей трудятся в офисах.
02:45
And once again, people displaced from tasks in the old bit of pie
50
165160
4056
Опять же — те, кто потерял работу в старом пироге,
02:49
could tumble into tasks in the new bit of pie instead.
51
169240
2800
могут трудоустроиться в рамках нового пирога.
02:52
Economists call these effects complementarities,
52
172720
3336
Экономисты называют это явление комплементарностью.
02:56
but really that's just a fancy word to capture the different way
53
176080
3256
Но на самом деле это просто красивое слово для обозначения
02:59
that technological progress helps human beings.
54
179360
3136
технологического прогресса, находящегося на службе у человека.
03:02
Resolving this Terminator myth
55
182520
2096
Развенчивая миф Терминатора,
03:04
shows us that there are two forces at play:
56
184640
2336
мы понимаем, что тут противоборствуют две силы:
03:07
one, machine substitution that harms workers,
57
187000
3536
первая сила — замещение машинами, которое вредит человеку,
03:10
but also these complementarities that do the opposite.
58
190560
2880
вторая сила — комплементарность — оказывает положительный эффект.
03:13
Now the second myth,
59
193960
1376
Поговорим о втором мифе,
03:15
what I call the intelligence myth.
60
195360
2280
который я обозначил как интеллектуальный миф.
03:18
What do the tasks of driving a car, making a medical diagnosis
61
198440
4896
Вождение автомобиля, постановка диагноза
03:23
and identifying a bird at a fleeting glimpse have in common?
62
203360
2920
и распознавание птиц — что общего между всеми этими задачами?
03:27
Well, these are all tasks that until very recently,
63
207280
2976
Объединяет их то, что до недавнего времени
03:30
leading economists thought couldn't readily be automated.
64
210280
3336
их нельзя было автоматизировать, как полагали ведущие экономисты.
03:33
And yet today, all of these tasks can be automated.
65
213640
3176
И тем не менее сегодня все эти задачи могут быть автоматизированы.
03:36
You know, all major car manufacturers have driverless car programs.
66
216840
3496
Все ведущие производители автомобилей сегодня разрабатывают беспилотные авто.
03:40
There's countless systems out there that can diagnose medical problems.
67
220360
3976
Медики уже располагают множеством диагностических аппаратов.
03:44
And there's even an app that can identify a bird
68
224360
2416
Что же касается птиц, существует приложение,
03:46
at a fleeting glimpse.
69
226800
1200
позволяющее определять их на расстоянии.
03:48
Now, this wasn't simply a case of bad luck on the part of economists.
70
228920
4376
Не будем утверждать, что экономистам просто не повезло.
03:53
They were wrong,
71
233320
1296
Они оказались неправы,
03:54
and the reason why they were wrong is very important.
72
234640
2496
но причина, по которой они ошибались, имеет большое значение.
03:57
They've fallen for the intelligence myth,
73
237160
2256
Они стали жертвами интеллектуального мифа,
03:59
the belief that machines have to copy the way
74
239440
2896
считая, что машины должны имитировать
04:02
that human beings think and reason
75
242360
2056
людей в том, как мы мыслим и рассуждаем,
04:04
in order to outperform them.
76
244440
1776
если хотим, чтобы машины стали умнее нас.
04:06
When these economists were trying to figure out
77
246240
2216
Когда экономисты попытались разобраться,
04:08
what tasks machines could not do,
78
248480
1856
какие задачи машинам будут не под силу,
04:10
they imagined the only way to automate a task
79
250360
2136
они думали, что единственный способ автоматизировать задачу —
04:12
was to sit down with a human being,
80
252520
1816
организовать встречу специалистов с программистами,
04:14
get them to explain to you how it was they performed a task,
81
254360
3536
попросить специалистов описать алгоритм выполнения задачи,
04:17
and then try and capture that explanation
82
257920
2656
а затем попытаться формализовать этот алгоритм
04:20
in a set of instructions for a machine to follow.
83
260600
2776
в виде инструкций, которым машина будет следовать.
04:23
This view was popular in artificial intelligence at one point, too.
84
263400
4176
Одно время такой подход был популярен и в области искусственного интеллекта.
04:27
I know this because Richard Susskind,
85
267600
2176
Знаю я об этом потому, что Ричард Сюскинд —
04:29
who is my dad and my coauthor,
86
269800
2856
мой отец и соавтор книги, — будучи студентом Оксфорда,
04:32
wrote his doctorate in the 1980s on artificial intelligence and the law
87
272680
4056
в 1980-х написал докторскую диссертацию
04:36
at Oxford University,
88
276760
1416
на тему искусственного интеллекта и права,
04:38
and he was part of the vanguard.
89
278200
1576
а был он тогда в авангарде науки.
04:39
And with a professor called Phillip Capper
90
279800
2256
Вместе с профессором Филлипом Кэппером
04:42
and a legal publisher called Butterworths,
91
282080
2096
и издательством правовой литературы Butterworths
04:44
they produced the world's first commercially available
92
284200
5896
они выпустили в продажу первую в мире
04:50
artificial intelligence system in the law.
93
290120
2776
систему искусственного интеллекта в области права.
04:52
This was the home screen design.
94
292920
2616
Так выглядела заставка программы на компьютере.
04:55
He assures me this was a cool screen design at the time.
95
295560
2696
Отец говорит, что она считалась очень крутой по тем временам.
04:58
(Laughter)
96
298280
1016
(Смех)
04:59
I've never been entirely convinced.
97
299320
1696
Не очень-то верится.
05:01
He published it in the form of two floppy disks,
98
301040
2616
Опубликовали они эту программу на двух гибких дисках.
05:03
at a time where floppy disks genuinely were floppy,
99
303680
3536
В то время гибкие диски на самом деле были очень гибкими.
05:07
and his approach was the same as the economists':
100
307240
2336
Тогда они подошли к вопросу, как те самые экономисты:
05:09
sit down with a lawyer,
101
309600
1256
встретились с юристом,
05:10
get her to explain to you how it was she solved a legal problem,
102
310880
3176
попросили его описать алгоритм решения правовой проблемы
05:14
and then try and capture that explanation in a set of rules for a machine to follow.
103
314080
5376
и затем попытались написать программу для решения поставленной задачи.
05:19
In economics, if human beings could explain themselves in this way,
104
319480
3616
В экономике, если человек может описать задачу таким вот образом,
05:23
the tasks are called routine, and they could be automated.
105
323120
3296
задача считается рутинной и её можно автоматизировать.
05:26
But if human beings can't explain themselves,
106
326440
2336
Но если человек не может описать процесс,
05:28
the tasks are called non-routine, and they're thought to be out reach.
107
328800
4256
задача считается творческой, то есть нерутинной, и часто неразрешимой.
Сегодня классификация задач на рутинные и творческие встречается повсеместно.
05:33
Today, that routine-nonroutine distinction is widespread.
108
333080
3296
05:36
Think how often you hear people say to you
109
336400
2056
Вспомните, как часто вы слышите о том,
05:38
machines can only perform tasks that are predictable or repetitive,
110
338480
3256
что машины могут выполнять только предсказуемые и повторяющиеся задачи,
05:41
rules-based or well-defined.
111
341760
1896
те, что следуют правилам, и которые легко определить.
05:43
Those are all just different words for routine.
112
343680
2936
Всё это лишь синонимы рутинных задач.
05:46
And go back to those three cases that I mentioned at the start.
113
346640
3976
Давайте вернёмся к трём примерам, которые я привёл ранее.
05:50
Those are all classic cases of nonroutine tasks.
114
350640
2896
Все три являются классическими примерами творческих задач.
05:53
Ask a doctor, for instance, how she makes a medical diagnosis,
115
353560
2976
Задайте вопрос врачам, как, например, они ставят диагнозы.
05:56
and she might be able to give you a few rules of thumb,
116
356560
2656
Скорее всего, они приведут несколько общих правил,
05:59
but ultimately she'd struggle.
117
359240
1656
но в целом точного ответа не дадут.
06:00
She'd say it requires things like creativity and judgment and intuition.
118
360920
4816
Скажут, например, что постановка диагноза требует
творческого подхода, правильного суждения и интуиции.
06:05
And these things are very difficult to articulate,
119
365760
2376
Но такие вещи бывает очень трудно описать, поэтому считалось,
06:08
and so it was thought these tasks would be very hard to automate.
120
368160
3096
06:11
If a human being can't explain themselves,
121
371280
2536
что автоматизировать их также будет нелегко.
06:13
where on earth do we begin in writing a set of instructions
122
373840
2896
Если человек не может объяснить какой-то процесс, как он составит
06:16
for a machine to follow?
123
376760
1200
инструкции для машины?
06:18
Thirty years ago, this view was right,
124
378640
2576
Тридцать лет назад такое мнение считалось правильным,
06:21
but today it's looking shaky,
125
381240
2136
сегодня это утверждение можно подвергнуть сомнению,
06:23
and in the future it's simply going to be wrong.
126
383400
2256
а завтра оно окажется совершенно неправильным.
06:25
Advances in processing power, in data storage capability
127
385680
3256
Колоссальная вычислительная мощность, огромные хранилища данных
06:28
and in algorithm design
128
388960
1656
и усовершенствованные алгоритмы
06:30
mean that this routine-nonroutine distinction
129
390640
2496
являются показателем того, что граница между рутинными
06:33
is diminishingly useful.
130
393160
1736
и творческими задачами начинает стираться.
06:34
To see this, go back to the case of making a medical diagnosis.
131
394920
3256
Давайте вернёмся к примеру c постановкой диагноза.
06:38
Earlier in the year,
132
398200
1376
Несколько месяцев назад
06:39
a team of researchers at Stanford announced they'd developed a system
133
399600
3296
исследователи Стэнфордского университета объявили, что они разработали
06:42
which can tell you whether or not a freckle is cancerous
134
402920
3056
систему распознавания раковых клеток на веснушках человека
06:46
as accurately as leading dermatologists.
135
406000
2680
и что эта система ставит диагноз так же точно, как ведущие дерматологи.
06:49
How does it work?
136
409280
1256
Как им это удалось?
06:50
It's not trying to copy the judgment or the intuition of a doctor.
137
410560
5296
Машина не запрограммирована копировать ход суждения или интуицию врачей.
06:55
It knows or understands nothing about medicine at all.
138
415880
3136
Более того, машина вообще ничего не смыслит в медицине.
06:59
Instead, it's running a pattern recognition algorithm
139
419040
2576
На самом деле она следует алгоритму распознавания,
07:01
through 129,450 past cases,
140
421640
4656
выискивая среди 129 450 наборов данных
случаи, схожие с исследуемой патологией кожи.
07:06
hunting for similarities between those cases
141
426320
3096
07:09
and the particular lesion in question.
142
429440
2080
Делается это методом, на который не способен ни один человек.
07:12
It's performing these tasks in an unhuman way,
143
432080
3216
07:15
based on the analysis of more possible cases
144
435320
2336
Машина анализирует такое количество наборов данных,
07:17
than any doctor could hope to review in their lifetime.
145
437680
2616
которое ни один врач не сможет просмотреть за всю свою жизнь.
07:20
It didn't matter that that human being,
146
440320
1896
В данном случае машина ставит диагноз
07:22
that doctor, couldn't explain how she'd performed the task.
147
442240
2800
без учёта того, как к этому вопросу
подошёл бы врач-специалист.
07:25
Now, there are those who dwell upon that the fact
148
445640
2336
Многие, безусловно, согласятся с тем,
07:28
that these machines aren't built in our image.
149
448000
2296
что эти машины строились не по образу и подобию человека.
07:30
As an example, take IBM's Watson,
150
450320
2056
Например, Watson — суперкомпьютер компании IBM,
07:32
the supercomputer that went on the US quiz show "Jeopardy!" in 2011,
151
452400
4856
принявший в 2011 году участие в американской игре-викторине «Jeopardy!»
07:37
and it beat the two human champions at "Jeopardy!"
152
457280
3016
и одержавший победу над человеком — двумя сильнейшими соперниками.
07:40
The day after it won,
153
460320
1696
На следующий день после игры
07:42
The Wall Street Journal ran a piece by the philosopher John Searle
154
462040
3296
в газете Wall Street Journal появилась заметка философа Джона Сёрла,
07:45
with the title "Watson Doesn't Know It Won on 'Jeopardy!'"
155
465360
3376
озаглавленная «Watson понятия не имеет, что он победил в викторине "Jeopardy!"».
07:48
Right, and it's brilliant, and it's true.
156
468760
1976
Блестящее и очень верное замечание.
07:50
You know, Watson didn't let out a cry of excitement.
157
470760
2456
Watson ведь не закричал от радости.
07:53
It didn't call up its parents to say what a good job it had done.
158
473240
3096
Он не позвонил родителям, чтобы рассказать им о своей победе.
07:56
It didn't go down to the pub for a drink.
159
476360
2336
И он не отправился в паб, чтобы выпить стаканчик.
07:58
This system wasn't trying to copy the way that those human contestants played,
160
478720
4456
Эта машина не пыталась копировать соперников-людей,
08:03
but it didn't matter.
161
483200
1256
но это не имело значения.
08:04
It still outperformed them.
162
484480
1976
Машина всё равно их обыграла.
08:06
Resolving the intelligence myth
163
486480
1576
Развенчивая интеллектуальный миф,
08:08
shows us that our limited understanding about human intelligence,
164
488080
3376
мы видим, что несмотря на то, что наши знания о человеческом разуме,
08:11
about how we think and reason,
165
491480
1896
мышлении и суждении весьма ограничены,
08:13
is far less of a constraint on automation than it was in the past.
166
493400
3456
в наше время большого влияния на автоматизацию машин это не имеет.
08:16
What's more, as we've seen,
167
496880
1496
Более того, как мы отметили,
08:18
when these machines perform tasks differently to human beings,
168
498400
3416
когда эти машины выполняют задачи методом, отличным от методов человека,
08:21
there's no reason to think
169
501840
1256
не стóит полагать,
08:23
that what human beings are currently capable of doing
170
503120
2536
что возможности человека сегодня
08:25
represents any sort of summit
171
505680
1456
являются пределом того,
08:27
in what these machines might be capable of doing in the future.
172
507160
3000
на что будут способны автоматизированные машины в будущем.
08:31
Now the third myth,
173
511040
1256
И теперь третий миф,
08:32
what I call the superiority myth.
174
512320
2456
который я называю мифом о превосходстве человека.
08:34
It's often said that those who forget
175
514800
2216
Принято считать, что те, кто забывают
08:37
about the helpful side of technological progress,
176
517040
2456
о пользе технологического прогресса,
08:39
those complementarities from before,
177
519520
2496
о комплементарности человека и машины,
08:42
are committing something known as the lump of labor fallacy.
178
522040
3040
впадают в заблуждение о неизменном объёме работ.
08:45
Now, the problem is the lump of labor fallacy
179
525840
2295
Но проблема в том, что само заблуждение
08:48
is itself a fallacy,
180
528159
1496
о неизменном объёме работ
08:49
and I call this the lump of labor fallacy fallacy,
181
529679
2937
является ошибочным,
08:52
or LOLFF, for short.
182
532640
2320
и я называю это ошибкой заблуждения.
08:56
Let me explain.
183
536000
1416
Давайте я поясню.
08:57
The lump of labor fallacy is a very old idea.
184
537440
2136
Данное заблуждение — не новая концепция.
08:59
It was a British economist, David Schloss, who gave it this name in 1892.
185
539600
4216
Такое название в 1892 году ей дал британский экономист Дэвид Шлосс.
09:03
He was puzzled to come across a dock worker
186
543840
2816
Однажды он пришёл в недоумение, когда повстречал портового рабочего,
09:06
who had begun to use a machine to make washers,
187
546680
2336
который начал изготавливать на станке шайбы —
09:09
the small metal discs that fasten on the end of screws.
188
549040
3320
небольшие металлические пластины, которые крепятся под головку болта.
09:13
And this dock worker felt guilty for being more productive.
189
553000
3760
Этот рабочий испытывал угрызения совести, потому что стал более продуктивен.
09:17
Now, most of the time, we expect the opposite,
190
557560
2176
Как правило, происходит обратное —
09:19
that people feel guilty for being unproductive,
191
559760
2216
люди чувствуют свою вину, если работают не очень продуктивно.
09:22
you know, a little too much time on Facebook or Twitter at work.
192
562000
3016
Например, если на работе мы много времени проводим в Facebook или Twitter.
09:25
But this worker felt guilty for being more productive,
193
565040
2536
Но рабочий чувствовал вину потому, что был слишком продуктивен.
09:27
and asked why, he said, "I know I'm doing wrong.
194
567600
2296
09:29
I'm taking away the work of another man."
195
569920
2040
На вопрос Шлосса почему, он ответил: «Я знаю, что поступаю неправильно.
09:32
In his mind, there was some fixed lump of work
196
572760
2976
Я лишаю другого человека работы».
Рабочий полагал, что существует фиксированный объём работы,
09:35
to be divided up between him and his pals,
197
575760
2136
09:37
so that if he used this machine to do more,
198
577920
2056
который они делят между собой, и если он начнёт делать
шайбы на станке, то произведёт их больше,
09:40
there'd be less left for his pals to do.
199
580000
2016
а остальным не останется работы.
09:42
Schloss saw the mistake.
200
582040
1856
09:43
The lump of work wasn't fixed.
201
583920
1856
Шлосс понял, в чём ошибка.
Объём работы не был фиксированным.
09:45
As this worker used the machine and became more productive,
202
585800
2816
Если благодаря станку производительность увеличится,
09:48
the price of washers would fall, demand for washers would rise,
203
588640
2976
стоимость шайб снизится, а значит, увеличится спрос.
09:51
more washers would have to be made,
204
591640
1696
Рабочим надо будет вырезать больше шайб,
09:53
and there'd be more work for his pals to do.
205
593360
2096
и работы прибавится для всех.
09:55
The lump of work would get bigger.
206
595480
1696
То есть объём работы в целом увеличится.
09:57
Schloss called this "the lump of labor fallacy."
207
597200
2680
Шлосс назвал эту концепцию заблуждением о неизменном объёме работ.
10:00
And today you hear people talk about the lump of labor fallacy
208
600560
2936
Сегодня часто вспоминают об этой теории,
10:03
to think about the future of all types of work.
209
603520
2216
когда речь заходит о работе будущего.
10:05
There's no fixed lump of work out there to be divided up
210
605760
2656
Не существует какого-то определённого объёма работ,
10:08
between people and machines.
211
608440
1376
который человек делит с машиной.
10:09
Yes, machines substitute for human beings, making the original lump of work smaller,
212
609840
4656
Да, машины замещают человека,
уменьшая исходный объём работы,
10:14
but they also complement human beings,
213
614520
1856
10:16
and the lump of work gets bigger and changes.
214
616400
2096
но они также и дополняют нас, так что в целом объём работы увеличивается,
10:19
But LOLFF.
215
619760
1616
меняется специфика работы.
10:21
Here's the mistake:
216
621400
1376
Так в чём же ошибка заблуждения? А вот в чём.
10:22
it's right to think that technological progress
217
622800
2216
Верно, что благодаря технологическому прогрессу
10:25
makes the lump of work to be done bigger.
218
625040
1976
объём работы увеличивается.
10:27
Some tasks become more valuable. New tasks have to be done.
219
627040
3016
Некоторые специальности становятся более востребованными,
10:30
But it's wrong to think that necessarily,
220
630080
2536
появляется спрос и на новые специальности.
10:32
human beings will be best placed to perform those tasks.
221
632640
3256
Но неверно думать, что человек может выполнить какие-то задачи лучше машин.
10:35
And this is the superiority myth.
222
635920
1616
В этом суть мифа о превосходстве.
10:37
Yes, the lump of work might get bigger and change,
223
637560
3416
Да, объём работ может увеличиться и измениться,
но по мере того, как машины становятся умнее,
10:41
but as machines become more capable,
224
641000
1976
10:43
it's likely that they'll take on the extra lump of work themselves.
225
643000
3896
вероятнее всего, они возьмут на себя этот новый объём работы.
10:46
Technological progress, rather than complement human beings,
226
646920
3256
При технологическом прогрессе машины не столько дополняют человека,
10:50
complements machines instead.
227
650200
1880
сколько дополняют сами себя.
10:52
To see this, go back to the task of driving a car.
228
652920
3016
Чтобы убедиться в этом, возьмём для примера вождение автомобиля.
10:55
Today, satnav systems directly complement human beings.
229
655960
4096
Сегодня системы спутниковой навигации напрямую дополняют человека.
11:00
They make some human beings better drivers.
230
660080
2280
Благодаря им мы стали более эффективными и безопасными водителями.
11:02
But in the future,
231
662920
1256
В будущем, однако,
11:04
software is going to displace human beings from the driving seat,
232
664200
3096
усовершенствованные компьютерные программы вытеснят человека с водительского кресла,
11:07
and these satnav systems, rather than complement human beings,
233
667320
2936
а системы навигации, вместо того, чтобы дополнять человека,
11:10
will simply make these driverless cars more efficient,
234
670280
2536
сделают более эффективными беспилотные автомобили,
11:12
helping the machines instead.
235
672840
1536
тем самым помогая самим машинам.
11:14
Or go to those indirect complementarities that I mentioned as well.
236
674400
4056
Вспомним о примерах косвенной комплементарности, о которых я говорил.
11:18
The economic pie may get larger,
237
678480
1776
Экономический пирог может увеличиться,
11:20
but as machines become more capable,
238
680280
1736
но по мере того, как машины становятся умнее,
11:22
it's possible that any new demand will fall on goods that machines,
239
682040
3143
появившийся спрос, скорее всего,
11:25
rather than human beings, are best placed to produce.
240
685207
2649
эффективнее удовлетворят машины, а не человек.
11:27
The economic pie may change,
241
687880
1896
Ингредиенты пирога тоже могут измениться,
11:29
but as machines become more capable,
242
689800
1896
но по мере того, как машины будут приобретать новые навыки,
11:31
it's possible that they'll be best placed to do the new tasks that have to be done.
243
691720
4856
возможно, именно они и займут новые рабочие места.
11:36
In short, demand for tasks isn't demand for human labor.
244
696600
3696
Итак, спрос на рабочую силу — не обязательно спрос на человеческий труд.
11:40
Human beings only stand to benefit
245
700320
1936
Человек может выиграть от этих перемен,
11:42
if they retain the upper hand in all these complemented tasks,
246
702280
3816
но только если он будет контролировать комплементарные задачи.
11:46
but as machines become more capable, that becomes less likely.
247
706120
3720
Но поскольку машины станут умнее, то и это можно поставить под сомнение.
11:50
So what do these three myths tell us then?
248
710760
2016
Какие же выводы мы можем сделать из этого?
11:52
Well, resolving the Terminator myth
249
712800
1696
Развенчивая миф Терминатора,
11:54
shows us that the future of work depends upon this balance between two forces:
250
714520
3696
мы понимаем, что наше будущее зависит от взаимодействия двух сил:
11:58
one, machine substitution that harms workers
251
718240
3136
замещения машинами, которое вредит человеку,
12:01
but also those complementarities that do the opposite.
252
721400
2576
а также комплементарности, от которой человек только выигрывает.
12:04
And until now, this balance has fallen in favor of human beings.
253
724000
4040
Пока чаша весов всегда склонялась в пользу человека.
Развенчивая второй — интеллектуальный — миф,
12:09
But resolving the intelligence myth
254
729120
1736
12:10
shows us that that first force, machine substitution,
255
730880
2496
мы увидели, что первая сила — замещение машинами —
12:13
is gathering strength.
256
733400
1296
тем не менее набирает силу.
12:14
Machines, of course, can't do everything,
257
734720
1976
Машины, безусловно, не всемогущи,
12:16
but they can do far more,
258
736720
1256
но они способны на многое
12:18
encroaching ever deeper into the realm of tasks performed by human beings.
259
738000
4576
и уже активно перенимают те специальности, которые когда-то принадлежали людям.
12:22
What's more, there's no reason to think
260
742600
1896
У нас нет оснований полагать,
12:24
that what human beings are currently capable of
261
744520
2216
что то, на что способен человек,
12:26
represents any sort of finishing line,
262
746760
1856
представляет предел возможностей для машин
12:28
that machines are going to draw to a polite stop
263
748640
2256
и что машины учтиво остановятся на достигнутом,
12:30
once they're as capable as us.
264
750920
1816
как только сравняются с человеком.
12:32
Now, none of this matters
265
752760
1536
На самом деле всё это не так важно,
12:34
so long as those helpful winds of complementarity
266
754320
2816
если выгодные для нас ветра комплементарности
12:37
blow firmly enough,
267
757160
1736
продолжат дуть в нужном направлении.
12:38
but resolving the superiority myth
268
758920
1936
Но развенчивая миф о превосходстве,
12:40
shows us that that process of task encroachment
269
760880
3096
мы понимаем, что постепенное вторжение машин
в профессиональную деятельность человека
12:44
not only strengthens the force of machine substitution,
270
764000
3936
не только упрочивает позиции машин при замещении человека,
12:47
but it wears down those helpful complementarities too.
271
767960
3336
но и сводит на нет выгодные для нас силы комплементарности.
12:51
Bring these three myths together
272
771320
1936
Мы рассмотрели три мифа о будущем нашей работы,
12:53
and I think we can capture a glimpse of that troubling future.
273
773280
2936
и картина вырисовывается довольно мрачная.
12:56
Machines continue to become more capable,
274
776240
2016
Машины становятся более способными,
12:58
encroaching ever deeper on tasks performed by human beings,
275
778280
3656
всё глубже вторгаются в профессиональную деятельность человека,
13:01
strengthening the force of machine substitution,
276
781960
2576
обретают бóльшую силу при замещении человека
13:04
weakening the force of machine complementarity.
277
784560
3616
и ослабляют комплементарность.
13:08
And at some point, that balance falls in favor of machines
278
788200
4296
И в какой-то момент перевес окажется на стороне машин,
13:12
rather than human beings.
279
792520
2056
а не людей.
13:14
This is the path we're currently on.
280
794600
1736
Сейчас мы находимся на этом пути.
13:16
I say "path" deliberately, because I don't think we're there yet,
281
796360
3176
Я сказал «пути», потому что считаю, что мы ещё не дошли до финишной прямой.
13:19
but it is hard to avoid the conclusion that this is our direction of travel.
282
799560
3640
Но трудно не сделать вывод, что мы продолжаем двигаться в этом направлении.
13:24
That's the troubling part.
283
804640
1456
Это не может не беспокоить.
13:26
Let me say now why I think actually this is a good problem to have.
284
806120
3520
Теперь я расскажу, почему я считаю, что этой проблеме мы должны радоваться.
13:30
For most of human history, one economic problem has dominated:
285
810520
3536
На протяжении почти всей истории человечества
13:34
how to make the economic pie large enough for everyone to live on.
286
814080
4056
доминировала экономическая проблема:
13:38
Go back to the turn of the first century AD,
287
818160
2176
как увеличить экономический пирог, чтобы его хватило всем.
13:40
and if you took the global economic pie
288
820360
2096
На рубеже первого столетия нашей эры
13:42
and divided it up into equal slices for everyone in the world,
289
822480
3296
этого пирога хватило бы, чтобы каждому жителю планеты
13:45
everyone would get a few hundred dollars.
290
825800
2136
досталось ровно по несколько сотен долларов.
13:47
Almost everyone lived on or around the poverty line.
291
827960
2760
Почти все жили за чертой или около черты бедности.
13:51
And if you roll forward a thousand years,
292
831320
2176
Если перенестись на тысячу лет вперёд,
13:53
roughly the same is true.
293
833520
1240
вы увидите почти ту же картину.
13:55
But in the last few hundred years, economic growth has taken off.
294
835680
3576
Но именно в последние пару сотен лет стал наблюдаться устойчивый экономический рост.
13:59
Those economic pies have exploded in size.
295
839280
2376
Экономический пирог достиг небывалых размеров.
14:01
Global GDP per head,
296
841680
2056
В мировых масштабах ВВП на душу населения,
14:03
the value of those individual slices of the pie today,
297
843760
3376
то есть размер каждого отдельного кусочка пирога,
14:07
they're about 10,150 dollars.
298
847160
2816
сегодня составляет почти 10 150 долларов.
14:10
If economic growth continues at two percent,
299
850000
2696
Если рост мировой экономики продолжится на уровне 2%,
14:12
our children will be twice as rich as us.
300
852720
2056
наши дети станут в два раза богаче нас.
14:14
If it continues at a more measly one percent,
301
854800
2296
Если этот показатель составит всего 1%,
14:17
our grandchildren will be twice as rich as us.
302
857120
2656
наши внуки окажутся богаче нас вдвое.
14:19
By and large, we've solved that traditional economic problem.
303
859800
3680
То есть, по большому счёту, мы решили историческую проблему мировой экономики.
14:24
Now, technological unemployment, if it does happen,
304
864200
3016
Если технологическая безработица всё-таки станет реальностью,
14:27
in a strange way will be a symptom of that success,
305
867240
3216
как ни странно, она окажется симптомом этого экономического успеха.
14:30
will have solved one problem -- how to make the pie bigger --
306
870480
3856
Решив одну проблему: как сделать пирог больше,
14:34
but replaced it with another --
307
874360
1816
мы обзавелись новой проблемой:
14:36
how to make sure that everyone gets a slice.
308
876200
2760
как сделать так, чтобы все жители планеты получили по куску пирога.
14:39
As other economists have noted, solving this problem won't be easy.
309
879840
3496
Другие экономисты также заявили, что решить эту проблему будет непросто.
14:43
Today, for most people,
310
883360
1656
Сегодня, чтобы получить кусочек,
14:45
their job is their seat at the economic dinner table,
311
885040
2496
большинству населения надо лишь занять место за экономическим столом.
14:47
and in a world with less work or even without work,
312
887560
2416
Если работы для населения станет меньше или же её не будет совсем,
14:50
it won't be clear how they get their slice.
313
890000
2056
непонятно, как распределятся эти куски.
14:52
There's a great deal of discussion, for instance,
314
892080
2336
Уже обсуждаются
14:54
about various forms of universal basic income
315
894440
2696
различные формы безусловного основного дохода (БОД) —
14:57
as one possible approach,
316
897160
1216
это один возможный подход.
14:58
and there's trials underway
317
898400
1616
В США, Финляндии и Кении
15:00
in the United States and in Finland and in Kenya.
318
900040
2400
даже проводятся эксперименты с БОД.
Нам всем предстоит решить вопрос о том,
15:03
And this is the collective challenge that's right in front of us,
319
903000
3176
как распределить то материальное благосостояние,
15:06
to figure out how this material prosperity generated by our economic system
320
906200
5056
которое появится у нас в новой экономической системе,
чтобы его плодами могли насладиться все жители планеты.
15:11
can be enjoyed by everyone
321
911280
1976
15:13
in a world in which our traditional mechanism
322
913280
2416
В том новом мире наши традиционные механизмы
15:15
for slicing up the pie,
323
915720
1856
распределения пирога
15:17
the work that people do,
324
917600
1936
и распределения объёма работы для каждого человека
15:19
withers away and perhaps disappears.
325
919560
2160
станут неэффективны и, возможно, исчезнут совсем.
15:22
Solving this problem is going to require us to think in very different ways.
326
922280
4360
Чтобы решить эту проблему, нам придётся серьёзно подумать.
15:27
There's going to be a lot of disagreement about what ought to be done,
327
927400
4176
Будет много споров о том, как к этому подойти.
15:31
but it's important to remember that this is a far better problem to have
328
931600
3416
Но важно, чтобы мы помнили, что эта проблема — вовсе не проблема
15:35
than the one that haunted our ancestors for centuries:
329
935040
2816
по сравнению с той, которая преследовала наших предков тысячелетиями,
15:37
how to make that pie big enough in the first place.
330
937880
3376
а именно, как сделать экономический пирог больше.
15:41
Thank you very much.
331
941280
1256
Благодарю за внимание.
15:42
(Applause)
332
942560
3840
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7