3 myths about the future of work (and why they're not true) | Daniel Susskind

171,485 views ・ 2018-04-05

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Олена Васильєва Утверджено: Khrystyna Romashko
00:12
Automation anxiety has been spreading lately,
0
12760
3376
Останнім часом ми все більше переймаємось через автоматизацію,
00:16
a fear that in the future,
1
16160
2656
боїмося, що в майбутньому
00:18
many jobs will be performed by machines
2
18840
2456
роботу виконуватимуть машини,
00:21
rather than human beings,
3
21320
1336
а не люди,
00:22
given the remarkable advances that are unfolding
4
22680
2936
бо бачимо значні успіхи у сферах
00:25
in artificial intelligence and robotics.
5
25640
2776
штучного інтелекту та роботизації.
00:28
What's clear is that there will be significant change.
6
28440
2816
Зрозуміло, що на нас очікують значні зміни.
00:31
What's less clear is what that change will look like.
7
31280
3616
Але не дуже зрозуміло які.
00:34
My research suggests that the future is both troubling and exciting.
8
34920
4936
Мої розвідки показують, що зміни принесуть і турботи, і натхнення.
00:39
The threat of technological unemployment is real,
9
39880
3736
Загроза технологічного безробіття небезпідставна,
00:43
and yet it's a good problem to have.
10
43640
2056
але це корисна проблема.
00:45
And to explain how I came to that conclusion,
11
45720
3216
Щоб пояснити, як я дійшов цього висновку,
00:48
I want to confront three myths
12
48960
2536
хочу розібрати три міфи,
00:51
that I think are currently obscuring our vision of this automated future.
13
51520
4280
які, на мій погляд, викривляють наше розуміння роботизованого майбутнього.
00:56
A picture that we see on our television screens,
14
56880
2336
В уявленні, сформованому телебаченням,
00:59
in books, in films, in everyday commentary
15
59240
2216
книжками, фільмами, передачами,
01:01
is one where an army of robots descends on the workplace
16
61480
3696
армія роботів захоплює робочі місця
01:05
with one goal in mind:
17
65200
1376
з єдиною метою:
01:06
to displace human beings from their work.
18
66600
2496
позбавити людей роботи.
01:09
And I call this the Terminator myth.
19
69120
2696
Я називаю це міфом про Термінатора.
01:11
Yes, machines displace human beings from particular tasks,
20
71840
3976
Звичайно, якісь завдання виконуватимуть машини,
01:15
but they don't just substitute for human beings.
21
75840
2256
але вони не зможуть просто замінити людину.
01:18
They also complement them in other tasks,
22
78120
1976
Вони доповнять людину,
01:20
making that work more valuable and more important.
23
80120
3616
аби її робота стала ціннішою і важливішою.
01:23
Sometimes they complement human beings directly,
24
83760
3336
Іноді машини й люди працюватимуть разом,
01:27
making them more productive or more efficient at a particular task.
25
87120
4016
що зробить їх більш продуктивними і корисними для певних завдань.
01:31
So a taxi driver can use a satnav system to navigate on unfamiliar roads.
26
91160
4616
Так таксист може використати навігатор на невідомих дорогах.
01:35
An architect can use computer-assisted design software
27
95800
3336
Архітектор може залучити програмне забезпечення
01:39
to design bigger, more complicated buildings.
28
99160
3096
до проектування великих, складних споруд.
01:42
But technological progress doesn't just complement human beings directly.
29
102280
3696
Але технічний прогрес додає до людських можливостей не тільки безпосередньо,
01:46
It also complements them indirectly, and it does this in two ways.
30
106000
3336
але й опосередковано, причому двома способами.
01:49
The first is if we think of the economy as a pie,
31
109360
3336
По-перше, якщо уявити економіку як пиріг,
01:52
technological progress makes the pie bigger.
32
112720
2896
то технічний прогрес робить пиріг більшим.
01:55
As productivity increases, incomes rise and demand grows.
33
115640
3856
Оскільки продуктивність росте, ростуть прибуток і потреби.
01:59
The British pie, for instance,
34
119520
1776
Наприклад, британський пиріг
02:01
is more than a hundred times the size it was 300 years ago.
35
121320
3960
став у 100 разів більшим, ніж 300 років тому.
02:05
And so people displaced from tasks in the old pie
36
125920
3216
Тож ті, хто позбувся роботи у старому пирогу,
02:09
could find tasks to do in the new pie instead.
37
129160
2720
можуть знайти роботу в новому.
02:12
But technological progress doesn't just make the pie bigger.
38
132800
3936
Але технічний прогрес не просто робить пиріг більшим.
02:16
It also changes the ingredients in the pie.
39
136760
2856
Він змінює його інгредієнти.
02:19
As time passes, people spend their income in different ways,
40
139640
3456
З часом люди починають витрачати заробіток на різні речі,
02:23
changing how they spread it across existing goods,
41
143120
2816
змінюючи звички по відношенню до знайомих товарів
02:25
and developing tastes for entirely new goods, too.
42
145960
3216
і набуваючи смаку до зовсім нових.
02:29
New industries are created,
43
149200
1776
Зараз створюються нові виробництва,
02:31
new tasks have to be done
44
151000
1816
треба виконувати нові завдання,
02:32
and that means often new roles have to be filled.
45
152840
2536
і це часто вимагає заповнення нових вакансій.
02:35
So again, the British pie:
46
155400
1496
І знову британський пиріг:
02:36
300 years ago, most people worked on farms,
47
156920
2976
300 років тому більшість населення працювала на фермах,
02:39
150 years ago, in factories,
48
159920
2336
150 років тому – на фабриках,
02:42
and today, most people work in offices.
49
162280
2856
сьогодні більшість працює в офісах.
02:45
And once again, people displaced from tasks in the old bit of pie
50
165160
4056
І знову ті, чиї місця зникли у старому шматку пирога,
02:49
could tumble into tasks in the new bit of pie instead.
51
169240
2800
можуть раптово знайти місце в новому шматку.
02:52
Economists call these effects complementarities,
52
172720
3336
Економісти називають це принципом компліментарності,
02:56
but really that's just a fancy word to capture the different way
53
176080
3256
і, дійсно, у цьому чудернацькому слові схоплене те,
02:59
that technological progress helps human beings.
54
179360
3136
як іще технічний прогрес допомагає людям.
03:02
Resolving this Terminator myth
55
182520
2096
Спростування міфу про Термінатора
03:04
shows us that there are two forces at play:
56
184640
2336
демонструє, що тут є дві складові:
03:07
one, machine substitution that harms workers,
57
187000
3536
одна – заміна людей машинами, яка шкодить робітникам,
03:10
but also these complementarities that do the opposite.
58
190560
2880
інша – використання машин на додаток, що є корисним.
03:13
Now the second myth,
59
193960
1376
Тепер другий міф,
03:15
what I call the intelligence myth.
60
195360
2280
який я називаю міфом про інтелект.
03:18
What do the tasks of driving a car, making a medical diagnosis
61
198440
4896
Що спільного мають управління автомобілем, визначення діагнозу
03:23
and identifying a bird at a fleeting glimpse have in common?
62
203360
2920
і миттєве розпізнавання птаха?
03:27
Well, these are all tasks that until very recently,
63
207280
2976
Донедавна провідні економісти вважали,
03:30
leading economists thought couldn't readily be automated.
64
210280
3336
що ці речі не можна автоматизувати.
03:33
And yet today, all of these tasks can be automated.
65
213640
3176
Але сьогодні можна.
03:36
You know, all major car manufacturers have driverless car programs.
66
216840
3496
Усі провідні автомобілебудівники використовують програми автопілота.
03:40
There's countless systems out there that can diagnose medical problems.
67
220360
3976
Є безліч програм для діагностування проблем зі здоров'ям.
03:44
And there's even an app that can identify a bird
68
224360
2416
Навіть є програми миттєвого
03:46
at a fleeting glimpse.
69
226800
1200
розпізнавання пташок.
03:48
Now, this wasn't simply a case of bad luck on the part of economists.
70
228920
4376
Тож економісти не просто виявилися недалекоглядними.
03:53
They were wrong,
71
233320
1296
Вони помилились,
03:54
and the reason why they were wrong is very important.
72
234640
2496
І важливо, чому вони помилились.
03:57
They've fallen for the intelligence myth,
73
237160
2256
Вони опинились у тенетах міфу про інтелект –
03:59
the belief that machines have to copy the way
74
239440
2896
віри в те, що, аби випередити людину,
04:02
that human beings think and reason
75
242360
2056
машини мають копіювати
04:04
in order to outperform them.
76
244440
1776
людське мислення.
04:06
When these economists were trying to figure out
77
246240
2216
Коли економісти намагались з'ясувати,
04:08
what tasks machines could not do,
78
248480
1856
чого машина не могла б зробити,
04:10
they imagined the only way to automate a task
79
250360
2136
вони вважали, що єдиний шлях автоматизації
04:12
was to sit down with a human being,
80
252520
1816
полягав у тім, щоб людина
04:14
get them to explain to you how it was they performed a task,
81
254360
3536
пояснила, як вона виконує завдання,
04:17
and then try and capture that explanation
82
257920
2656
а потім ці пояснення лягли в основу
04:20
in a set of instructions for a machine to follow.
83
260600
2776
інструкцій для виконання машинами.
04:23
This view was popular in artificial intelligence at one point, too.
84
263400
4176
Колись цей погляд був популярним і в штучному інтелекті.
04:27
I know this because Richard Susskind,
85
267600
2176
Я це знаю, тому що Річард Сасскінд,
04:29
who is my dad and my coauthor,
86
269800
2856
мій батько і мій співавтор,
04:32
wrote his doctorate in the 1980s on artificial intelligence and the law
87
272680
4056
у 1980-х написав докторську дисертацію зі штучного інтелекту і права
04:36
at Oxford University,
88
276760
1416
в Оксфордському університеті.
04:38
and he was part of the vanguard.
89
278200
1576
Він був в авангарді.
04:39
And with a professor called Phillip Capper
90
279800
2256
З професором Філіпом Каппером
04:42
and a legal publisher called Butterworths,
91
282080
2096
і довідково-правовою системою «Butterworths»
04:44
they produced the world's first commercially available
92
284200
5896
він розробив першу в світі доступну на комерційній основі
04:50
artificial intelligence system in the law.
93
290120
2776
систему штучного інтелекту в юриспруденції.
04:52
This was the home screen design.
94
292920
2616
Таким був дизайн її заставки.
04:55
He assures me this was a cool screen design at the time.
95
295560
2696
Він запевняє, що тоді це був крутий дизайн.
04:58
(Laughter)
96
298280
1016
(Сміх)
04:59
I've never been entirely convinced.
97
299320
1696
Я ніколи не був упевненим повністю.
05:01
He published it in the form of two floppy disks,
98
301040
2616
Він видав систему на двох дискетах,
05:03
at a time where floppy disks genuinely were floppy,
99
303680
3536
гнучких магнітних дисках,
05:07
and his approach was the same as the economists':
100
307240
2336
і його підхід був такий самий, як у економістів:
05:09
sit down with a lawyer,
101
309600
1256
посади́ юриста поруч,
05:10
get her to explain to you how it was she solved a legal problem,
102
310880
3176
хай пояснить, яким чином можна вирішити правову проблему,
05:14
and then try and capture that explanation in a set of rules for a machine to follow.
103
314080
5376
а потім перетвори ці пояснення на алгоритм для машини.
05:19
In economics, if human beings could explain themselves in this way,
104
319480
3616
В економіці, якщо людина може щось пояснити у такий спосіб,
05:23
the tasks are called routine, and they could be automated.
105
323120
3296
завдання називають шаблонними, їх можна автоматизувати.
05:26
But if human beings can't explain themselves,
106
326440
2336
Але якщо вона чогось не може пояснити таким чином,
05:28
the tasks are called non-routine, and they're thought to be out reach.
107
328800
4256
завдання називають нешаблонними і вважають, що їх не можна автоматизувати.
05:33
Today, that routine-nonroutine distinction is widespread.
108
333080
3296
Наразі шаблонна-нешаблонна відмінність дуже розповсюджена.
05:36
Think how often you hear people say to you
109
336400
2056
Часто ми чуємо, що люди кажуть:
05:38
machines can only perform tasks that are predictable or repetitive,
110
338480
3256
машини можуть виконувати прогнозовані чи повторювані завдання,
05:41
rules-based or well-defined.
111
341760
1896
за правилом чи при чіткому формулюванні.
05:43
Those are all just different words for routine.
112
343680
2936
Це все шаблон, названий різними словами.
05:46
And go back to those three cases that I mentioned at the start.
113
346640
3976
А візьмемо три приклади, які я навів на початку.
05:50
Those are all classic cases of nonroutine tasks.
114
350640
2896
Усі вони є класичними прикладами нешаблонних завдань.
05:53
Ask a doctor, for instance, how she makes a medical diagnosis,
115
353560
2976
Запитайте, наприклад, лікаря, як він визначає діагнози,
05:56
and she might be able to give you a few rules of thumb,
116
356560
2656
можливо, з вами поділяться декількома правилами,
05:59
but ultimately she'd struggle.
117
359240
1656
але це точно буде нелегко.
06:00
She'd say it requires things like creativity and judgment and intuition.
118
360920
4816
Ви почуєте про щось на кшталт творчості, оцінки, інтуїції.
06:05
And these things are very difficult to articulate,
119
365760
2376
Ці речі дуже важко сформулювати,
06:08
and so it was thought these tasks would be very hard to automate.
120
368160
3096
і тому вважалося, що ці завдання буде важко автоматизувати.
06:11
If a human being can't explain themselves,
121
371280
2536
Якщо людині важко навіть висловитися,
06:13
where on earth do we begin in writing a set of instructions
122
373840
2896
звідки взагалі починати писати алгоритм
06:16
for a machine to follow?
123
376760
1200
для машини?
06:18
Thirty years ago, this view was right,
124
378640
2576
30 років тому цей погляд був вірним,
06:21
but today it's looking shaky,
125
381240
2136
сьогодні він справедливий, але не завжди,
06:23
and in the future it's simply going to be wrong.
126
383400
2256
у майбутньому він стане хибним.
06:25
Advances in processing power, in data storage capability
127
385680
3256
Прогрес у сферах обробки і зберігання даних,
06:28
and in algorithm design
128
388960
1656
а також розробки алгоритмів
06:30
mean that this routine-nonroutine distinction
129
390640
2496
означає, що шаблонна-нешаблонна відмінність
06:33
is diminishingly useful.
130
393160
1736
виявляється все менш корисною.
06:34
To see this, go back to the case of making a medical diagnosis.
131
394920
3256
Щоб переконатися, ще раз поглянемо, як медики визначають діагноз.
06:38
Earlier in the year,
132
398200
1376
У цьому році
06:39
a team of researchers at Stanford announced they'd developed a system
133
399600
3296
група вчених у Стенфорді заявила про розробку системи,
06:42
which can tell you whether or not a freckle is cancerous
134
402920
3056
яка визначає, чи є родимка злоякісною,
06:46
as accurately as leading dermatologists.
135
406000
2680
так само точно, як провідні дерматологи.
06:49
How does it work?
136
409280
1256
Як вона працює?
06:50
It's not trying to copy the judgment or the intuition of a doctor.
137
410560
5296
Вона не імітує спосіб мислення чи інтуїцію лікаря.
06:55
It knows or understands nothing about medicine at all.
138
415880
3136
Вона нічого не розуміє в медицині.
06:59
Instead, it's running a pattern recognition algorithm
139
419040
2576
Навпаки, вона виконує алгоритм розпізнавання патернів,
07:01
through 129,450 past cases,
140
421640
4656
обробляючи дані 129 450 випадків,
07:06
hunting for similarities between those cases
141
426320
3096
відшукуючи подібності між цими випадками
07:09
and the particular lesion in question.
142
429440
2080
і заданими порушеннями норми.
07:12
It's performing these tasks in an unhuman way,
143
432080
3216
Система виконує завдання не так, як людина,
07:15
based on the analysis of more possible cases
144
435320
2336
аналізуючи стільки випадків хвороби,
07:17
than any doctor could hope to review in their lifetime.
145
437680
2616
скільки лікар не може проаналізувати і за життя.
07:20
It didn't matter that that human being,
146
440320
1896
І не має значення, що людина,
07:22
that doctor, couldn't explain how she'd performed the task.
147
442240
2800
лікар, не зміг би пояснити, як він виконує це завдання.
07:25
Now, there are those who dwell upon that the fact
148
445640
2336
Дехто аналізує особливості того,
07:28
that these machines aren't built in our image.
149
448000
2296
що ці машини не побудовані за зразком людини.
07:30
As an example, take IBM's Watson,
150
450320
2056
Як приклад візьмемо IBM Watson,
07:32
the supercomputer that went on the US quiz show "Jeopardy!" in 2011,
151
452400
4856
суперкомп'ютер, що у 2011 взяв участь в американській вікторині «Jeopardy!»
07:37
and it beat the two human champions at "Jeopardy!"
152
457280
3016
і переміг двох її попередніх переможців-чоловіків.
07:40
The day after it won,
153
460320
1696
Наступного після тієї перемоги дня
07:42
The Wall Street Journal ran a piece by the philosopher John Searle
154
462040
3296
газета «Wall Street Journal» надрукувала статтю філософа Джона Серля
07:45
with the title "Watson Doesn't Know It Won on 'Jeopardy!'"
155
465360
3376
під назвою «Watson не знає, що виграв вікторину «Jeopardy!»».
07:48
Right, and it's brilliant, and it's true.
156
468760
1976
Так. І це чудово, і це правда.
07:50
You know, Watson didn't let out a cry of excitement.
157
470760
2456
І Watson не кричав від щастя, що переміг.
07:53
It didn't call up its parents to say what a good job it had done.
158
473240
3096
Він не зателефонував батькам, щоб похвалитися, який він розумник.
07:56
It didn't go down to the pub for a drink.
159
476360
2336
Він не пішов до пабу, щоб випити.
07:58
This system wasn't trying to copy the way that those human contestants played,
160
478720
4456
Ця система не намагалася копіювати своїх суперників,
08:03
but it didn't matter.
161
483200
1256
Але це не мало значення.
08:04
It still outperformed them.
162
484480
1976
Вона все одно в них виграла.
08:06
Resolving the intelligence myth
163
486480
1576
Спростовуючи міф про інтелект,
08:08
shows us that our limited understanding about human intelligence,
164
488080
3376
ми бачимо, що наше недостатнє розуміння людського інтелекту,
08:11
about how we think and reason,
165
491480
1896
нашої здатності думати й обмірковувати,
08:13
is far less of a constraint on automation than it was in the past.
166
493400
3456
є зараз набагато меншим обмеженням для автоматизації, аніж раніше.
08:16
What's more, as we've seen,
167
496880
1496
Крім того, як бачимо,
08:18
when these machines perform tasks differently to human beings,
168
498400
3416
коли машини діють, не як люди,
08:21
there's no reason to think
169
501840
1256
немає підстав думати,
08:23
that what human beings are currently capable of doing
170
503120
2536
що є такі людські здатності,
08:25
represents any sort of summit
171
505680
1456
які є планкою,
08:27
in what these machines might be capable of doing in the future.
172
507160
3000
яку машини не перестрибнуть у майбутньому.
08:31
Now the third myth,
173
511040
1256
Тепер третій міф,
08:32
what I call the superiority myth.
174
512320
2456
який я називаю міфом про вищість.
08:34
It's often said that those who forget
175
514800
2216
Часто кажуть, що ті, хто забуває про
08:37
about the helpful side of technological progress,
176
517040
2456
користь від технічного прогресу,
08:39
those complementarities from before,
177
519520
2496
того, що ним додається,
08:42
are committing something known as the lump of labor fallacy.
178
522040
3040
хибно впевнені у незмінності обсягу праці.
08:45
Now, the problem is the lump of labor fallacy
179
525840
2295
Але помилка щодо незмінності обсягу праці
08:48
is itself a fallacy,
180
528159
1496
є сама собою хибою.
08:49
and I call this the lump of labor fallacy fallacy,
181
529679
2937
Я називаю це хибною помилкою щодо незмінності обсягу праці.
08:52
or LOLFF, for short.
182
532640
2320
Коротко ХПЩНОП.
08:56
Let me explain.
183
536000
1416
Дайте поясню.
08:57
The lump of labor fallacy is a very old idea.
184
537440
2136
Помилка щодо незмінності обсягу праці стара.
08:59
It was a British economist, David Schloss, who gave it this name in 1892.
185
539600
4216
Їй дав ім'я британський економіст Девід Шлосс у 1892 році.
09:03
He was puzzled to come across a dock worker
186
543840
2816
Його спантеличило, що портовий робітник
09:06
who had begun to use a machine to make washers,
187
546680
2336
почав застосовувати пристрій, щоб робити шайби,
09:09
the small metal discs that fasten on the end of screws.
188
549040
3320
маленькі металеві диски, які одягають на гвинти.
09:13
And this dock worker felt guilty for being more productive.
189
553000
3760
І цей робітник відчув себе винним у тому, що продуктивність його праці зросла.
09:17
Now, most of the time, we expect the opposite,
190
557560
2176
Зараз ми у більшості чекаємо на протилежне,
09:19
that people feel guilty for being unproductive,
191
559760
2216
на почуття провини через меншу продуктивність,
09:22
you know, a little too much time on Facebook or Twitter at work.
192
562000
3016
коли хтось у робочий час пересидів у Фейсбуці чи Твіттері.
09:25
But this worker felt guilty for being more productive,
193
565040
2536
Але в того працівника продуктивність праці зросла,
09:27
and asked why, he said, "I know I'm doing wrong.
194
567600
2296
і на запитання чому, він сказав: «Я знаю, погано
09:29
I'm taking away the work of another man."
195
569920
2040
відбирати роботу в інших».
09:32
In his mind, there was some fixed lump of work
196
572760
2976
Він уважав, що є фіксований обсяг роботи,
09:35
to be divided up between him and his pals,
197
575760
2136
який ділиться між ним і його товаришами,
09:37
so that if he used this machine to do more,
198
577920
2056
тож якщо завдяки машині він зробив більше,
09:40
there'd be less left for his pals to do.
199
580000
2016
іншим залишиться менше.
09:42
Schloss saw the mistake.
200
582040
1856
Шлосс побачив помилку.
09:43
The lump of work wasn't fixed.
201
583920
1856
Обсяг праці не був сталим.
09:45
As this worker used the machine and became more productive,
202
585800
2816
Якщо з використанням машини зросла продуктивність,
09:48
the price of washers would fall, demand for washers would rise,
203
588640
2976
то ціна на шайби мала впасти, а попит на них зрости,
09:51
more washers would have to be made,
204
591640
1696
тож треба буде робити більше шайб,
09:53
and there'd be more work for his pals to do.
205
593360
2096
і буде більше роботи для товаришів.
09:55
The lump of work would get bigger.
206
595480
1696
Обсяг праці мав зрости.
09:57
Schloss called this "the lump of labor fallacy."
207
597200
2680
Шлосс назвав це помилкою щодо обсягу праці.
10:00
And today you hear people talk about the lump of labor fallacy
208
600560
2936
Сьогодні ми чуємо, що якщо ми дбаємо про майбутнє професій,
10:03
to think about the future of all types of work.
209
603520
2216
слід пам'ятати про помилку щодо обсягу праці.
10:05
There's no fixed lump of work out there to be divided up
210
605760
2656
Немає сталого обсягу праці, який слід поділити
10:08
between people and machines.
211
608440
1376
між людьми і машинами.
10:09
Yes, machines substitute for human beings, making the original lump of work smaller,
212
609840
4656
Так, машини заміщують людей і роблять початковий обсяг роботи меншим,
10:14
but they also complement human beings,
213
614520
1856
але вони ще й доповнюють людей,
10:16
and the lump of work gets bigger and changes.
214
616400
2096
то обсяг праці більшає і змінюється якісно.
10:19
But LOLFF.
215
619760
1616
Але ж ХПЩНОП.
10:21
Here's the mistake:
216
621400
1376
Ось де помилка:
10:22
it's right to think that technological progress
217
622800
2216
правильно думати, що технічний прогрес
10:25
makes the lump of work to be done bigger.
218
625040
1976
збільшує обсяг роботи.
10:27
Some tasks become more valuable. New tasks have to be done.
219
627040
3016
Якісь завдання стають ціннішими. Виникають нові завдання.
10:30
But it's wrong to think that necessarily,
220
630080
2536
Але помилкою є думати,
10:32
human beings will be best placed to perform those tasks.
221
632640
3256
що найкраще ці завдання можуть виконати люди.
10:35
And this is the superiority myth.
222
635920
1616
Це міф про вищість.
10:37
Yes, the lump of work might get bigger and change,
223
637560
3416
Так, обсяг роботи має збільшитись і якісно змінитися,
10:41
but as machines become more capable,
224
641000
1976
та в міру того, як машини досконалішають,
10:43
it's likely that they'll take on the extra lump of work themselves.
225
643000
3896
вони самі можуть виконувати більше роботи.
10:46
Technological progress, rather than complement human beings,
226
646920
3256
Технічний прогрес додає роботи не людям,
10:50
complements machines instead.
227
650200
1880
а машинам.
10:52
To see this, go back to the task of driving a car.
228
652920
3016
Погляньте на водіїв, наприклад.
10:55
Today, satnav systems directly complement human beings.
229
655960
4096
Сьогодні навігатори їм допомагають.
11:00
They make some human beings better drivers.
230
660080
2280
Вони роблять з них кращих водіїв.
11:02
But in the future,
231
662920
1256
Але в майбутньому
11:04
software is going to displace human beings from the driving seat,
232
664200
3096
комп'ютери викинуть людей з водійських місць,
11:07
and these satnav systems, rather than complement human beings,
233
667320
2936
і навігатори допомагатимуть не людям,
11:10
will simply make these driverless cars more efficient,
234
670280
2536
а, зробивши автомобілі без водіїв більш ефективними,
11:12
helping the machines instead.
235
672840
1536
допомагатимуть машинам.
11:14
Or go to those indirect complementarities that I mentioned as well.
236
674400
4056
Чи візьміть інші додаткові можливості, які я згадував.
11:18
The economic pie may get larger,
237
678480
1776
Економічний пиріг може стати більшим,
11:20
but as machines become more capable,
238
680280
1736
але машини стають досконалішими,
11:22
it's possible that any new demand will fall on goods that machines,
239
682040
3143
і наші нові потреби можуть стати пов'язаними з товарами,
11:25
rather than human beings, are best placed to produce.
240
685207
2649
які краще виготовляють машини, а не люди.
11:27
The economic pie may change,
241
687880
1896
Економічний пиріг може мінятися якісно,
11:29
but as machines become more capable,
242
689800
1896
але машини стають досконалішими,
11:31
it's possible that they'll be best placed to do the new tasks that have to be done.
243
691720
4856
і машини можуть виявитися кращими для виконання нових завдань.
11:36
In short, demand for tasks isn't demand for human labor.
244
696600
3696
Коротко кажучи, попит на завдання – не те саме, що попит на робочу силу.
11:40
Human beings only stand to benefit
245
700320
1936
Люди продовжують отримувати зиск,
11:42
if they retain the upper hand in all these complemented tasks,
246
702280
3816
лише залишаючись кращими у виконанні додаткових завдань,
11:46
but as machines become more capable, that becomes less likely.
247
706120
3720
але машини стають досконалішими, і бути кращими за них стає все важче.
11:50
So what do these three myths tell us then?
248
710760
2016
Тож про що ці три міфи?
11:52
Well, resolving the Terminator myth
249
712800
1696
Спростування міфу про Термінатора
11:54
shows us that the future of work depends upon this balance between two forces:
250
714520
3696
демонструє, що майбутнє праці залежить від співвідношення двох сил:
11:58
one, machine substitution that harms workers
251
718240
3136
одна – заміна людей машинами, яка шкодить робітникам,
12:01
but also those complementarities that do the opposite.
252
721400
2576
інша – використання допомоги машин, що є корисним.
12:04
And until now, this balance has fallen in favor of human beings.
253
724000
4040
Досі це співвідношення було на користь людей.
12:09
But resolving the intelligence myth
254
729120
1736
Але спростування міфу про інтелект
12:10
shows us that that first force, machine substitution,
255
730880
2496
показує, що перша сила, заміна людей машинами,
12:13
is gathering strength.
256
733400
1296
набирає потужності.
12:14
Machines, of course, can't do everything,
257
734720
1976
Звичайно, машини не можуть робити все,
12:16
but they can do far more,
258
736720
1256
вони можуть робити більше,
12:18
encroaching ever deeper into the realm of tasks performed by human beings.
259
738000
4576
втручаючись усе глибше у сфери завдань, що виконуються людьми.
12:22
What's more, there's no reason to think
260
742600
1896
Крім того, немає підстав уважати,
12:24
that what human beings are currently capable of
261
744520
2216
що виключно людські завдання –
12:26
represents any sort of finishing line,
262
746760
1856
це та межа,
12:28
that machines are going to draw to a polite stop
263
748640
2256
яку машини не переступлять з чемності,
12:30
once they're as capable as us.
264
750920
1816
коли стануть такими ж здатними, як ми.
12:32
Now, none of this matters
265
752760
1536
Нічого з цього не має значення,
12:34
so long as those helpful winds of complementarity
266
754320
2816
доки рятівні вітри компліментарності
12:37
blow firmly enough,
267
757160
1736
дмуть доволі сильно,
12:38
but resolving the superiority myth
268
758920
1936
але спростування міфу про вищість
12:40
shows us that that process of task encroachment
269
760880
3096
показує, що процес втручання у сфери людських завдань
12:44
not only strengthens the force of machine substitution,
270
764000
3936
не тільки посилює заміну людей машинами,
12:47
but it wears down those helpful complementarities too.
271
767960
3336
але вихолощує рятівну компліментарність.
12:51
Bring these three myths together
272
771320
1936
Зведіть докупи усі три міфи,
12:53
and I think we can capture a glimpse of that troubling future.
273
773280
2936
і ми зазирнемо у те майбутнє, що нас непокоїть.
12:56
Machines continue to become more capable,
274
776240
2016
Машини стають досконалішими,
12:58
encroaching ever deeper on tasks performed by human beings,
275
778280
3656
вони зазіхають на все більше завдань, які зараз виконують люди,
13:01
strengthening the force of machine substitution,
276
781960
2576
зміцнюючи потужність заміни людини машиною
13:04
weakening the force of machine complementarity.
277
784560
3616
і знесилюючи компліментарність людини й машини.
13:08
And at some point, that balance falls in favor of machines
278
788200
4296
І нарешті їх співвідношення зміщується на користь машин,
13:12
rather than human beings.
279
792520
2056
а не людей.
13:14
This is the path we're currently on.
280
794600
1736
Це той шлях, яким ми зараз ідемо.
13:16
I say "path" deliberately, because I don't think we're there yet,
281
796360
3176
Я кажу «шлях», бо вважаю, що ми ще не дійшли,
13:19
but it is hard to avoid the conclusion that this is our direction of travel.
282
799560
3640
але неважко побачити, куди ми йдемо.
13:24
That's the troubling part.
283
804640
1456
Це було про те, що нас турбує.
13:26
Let me say now why I think actually this is a good problem to have.
284
806120
3520
Тепер дозвольте пояснити, чому я кажу, що це корисна проблема.
13:30
For most of human history, one economic problem has dominated:
285
810520
3536
Майже всю історію людства домінувала одна економічна проблема:
13:34
how to make the economic pie large enough for everyone to live on.
286
814080
4056
як розтягнути економічний пиріг настільки, щоб вистачало всім.
13:38
Go back to the turn of the first century AD,
287
818160
2176
Наприкінці першого століття нашої ери
13:40
and if you took the global economic pie
288
820360
2096
економічний пиріг був таким,
13:42
and divided it up into equal slices for everyone in the world,
289
822480
3296
що на кожного у світі припадав шматочок
13:45
everyone would get a few hundred dollars.
290
825800
2136
у кількасот доларів.
13:47
Almost everyone lived on or around the poverty line.
291
827960
2760
Майже всі жили біля межі бідності.
13:51
And if you roll forward a thousand years,
292
831320
2176
І якщо ви просунетесь на тисячу років уперед,
13:53
roughly the same is true.
293
833520
1240
побачите майже те саме.
13:55
But in the last few hundred years, economic growth has taken off.
294
835680
3576
Але в останні кількасот років, набирає оберти економічний ріст.
13:59
Those economic pies have exploded in size.
295
839280
2376
Економічний пиріг миттєво збільшився.
14:01
Global GDP per head,
296
841680
2056
Світовий ВВП на душу населення,
14:03
the value of those individual slices of the pie today,
297
843760
3376
ваш особистий шматок пирога,
14:07
they're about 10,150 dollars.
298
847160
2816
став близько 10 150 доларів.
14:10
If economic growth continues at two percent,
299
850000
2696
Якщо економіка буде далі зростати на два відсотки,
14:12
our children will be twice as rich as us.
300
852720
2056
наші діти будуть удвічі багатшими за нас.
14:14
If it continues at a more measly one percent,
301
854800
2296
Якщо економіка буде рости лише на один відсоток,
14:17
our grandchildren will be twice as rich as us.
302
857120
2656
наші онуки будуть удвічі багатшими за нас.
14:19
By and large, we've solved that traditional economic problem.
303
859800
3680
У цілому, ми вирішили цю традиційну економічну проблему.
14:24
Now, technological unemployment, if it does happen,
304
864200
3016
Тепер технологічне безробіття, якщо воно дійсно трапиться,
14:27
in a strange way will be a symptom of that success,
305
867240
3216
буде показником успіху,
14:30
will have solved one problem -- how to make the pie bigger --
306
870480
3856
але вирішивши одну проблему – як зробити пиріг більшим –
14:34
but replaced it with another --
307
874360
1816
ми зіткнулися з іншою –
14:36
how to make sure that everyone gets a slice.
308
876200
2760
як упевнитися, що всі отримали по шматку.
14:39
As other economists have noted, solving this problem won't be easy.
309
879840
3496
Як зазначають економісти, вирішити цю проблему буде важко.
14:43
Today, for most people,
310
883360
1656
Зараз для більшості
14:45
their job is their seat at the economic dinner table,
311
885040
2496
їх робота – це місце за столом економіки.
14:47
and in a world with less work or even without work,
312
887560
2416
У світі з меншою кількістю робочих місць
14:50
it won't be clear how they get their slice.
313
890000
2056
не зрозуміло, як кожному дати по шматку.
14:52
There's a great deal of discussion, for instance,
314
892080
2336
Зараз точаться численні дискусії
14:54
about various forms of universal basic income
315
894440
2696
щодо різних форм безумовного базового доходу
14:57
as one possible approach,
316
897160
1216
як одного з рішень,
14:58
and there's trials underway
317
898400
1616
робляться спроби його запровадити
15:00
in the United States and in Finland and in Kenya.
318
900040
2400
у США, Фінляндії та Кенії.
15:03
And this is the collective challenge that's right in front of us,
319
903000
3176
Загальна проблема, яка постає перед нами, –
15:06
to figure out how this material prosperity generated by our economic system
320
906200
5056
з'ясувати, як матеріальні блага, що виробляються економічною системою,
15:11
can be enjoyed by everyone
321
911280
1976
можуть розподілятися між усіма
15:13
in a world in which our traditional mechanism
322
913280
2416
у світі, де звичний механізм
15:15
for slicing up the pie,
323
915720
1856
поділу пирога,
15:17
the work that people do,
324
917600
1936
тобто робота, яку ми виконуємо,
15:19
withers away and perhaps disappears.
325
919560
2160
втрачає силу і, можливо, щезає.
15:22
Solving this problem is going to require us to think in very different ways.
326
922280
4360
Вирішення цієї проблеми буде вимагати зміни нашого способу мислення.
15:27
There's going to be a lot of disagreement about what ought to be done,
327
927400
4176
Буде багато протилежних думок, про те, що слід робити,
15:31
but it's important to remember that this is a far better problem to have
328
931600
3416
але важливо пам'ятати, що набагато краще мати цю проблему,
15:35
than the one that haunted our ancestors for centuries:
329
935040
2816
ніж ту, яка століттями переслідувала наших предків:
15:37
how to make that pie big enough in the first place.
330
937880
3376
як спершу зробити пиріг достатньо великим.
15:41
Thank you very much.
331
941280
1256
Красно дякую.
15:42
(Applause)
332
942560
3840
(Оплески)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7