3 myths about the future of work (and why they're not true) | Daniel Susskind

171,485 views ・ 2018-04-05

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Rik Delaet Nagekeken door: Axel Saffran
00:12
Automation anxiety has been spreading lately,
0
12760
3376
Automatisatie-angst is de laatste tijd in opmars,
00:16
a fear that in the future,
1
16160
2656
de angst dat in de toekomst
00:18
many jobs will be performed by machines
2
18840
2456
veel banen door machines zullen worden gedaan
00:21
rather than human beings,
3
21320
1336
in plaats van door de mens,
00:22
given the remarkable advances that are unfolding
4
22680
2936
gezien de enorme vooruitgang
00:25
in artificial intelligence and robotics.
5
25640
2776
in kunstmatige intelligentie en robotica.
00:28
What's clear is that there will be significant change.
6
28440
2816
Duidelijk is dat er significante verandering zal zijn.
00:31
What's less clear is what that change will look like.
7
31280
3616
Minder duidelijk is hoe die verandering eruit zal zien.
00:34
My research suggests that the future is both troubling and exciting.
8
34920
4936
Mijn onderzoek suggereert dat de toekomst zowel verontrustend als spannend zal zijn.
00:39
The threat of technological unemployment is real,
9
39880
3736
De dreiging van technologische werkloosheid is reëel
00:43
and yet it's a good problem to have.
10
43640
2056
en toch is het een goed probleem om te hebben.
00:45
And to explain how I came to that conclusion,
11
45720
3216
Om uit te leggen hoe ik tot die conclusie kwam,
00:48
I want to confront three myths
12
48960
2536
wil ik drie mythen ontmaskeren
00:51
that I think are currently obscuring our vision of this automated future.
13
51520
4280
waarvan ik denk dat ze onze visie op deze geautomatiseerde toekomst vertroebelen.
00:56
A picture that we see on our television screens,
14
56880
2336
Het beeld dat we krijgen via televisieschermen,
00:59
in books, in films, in everyday commentary
15
59240
2216
boeken, films, berichtgeving
01:01
is one where an army of robots descends on the workplace
16
61480
3696
is dat een leger van robots de arbeidsmarkt binnenvalt
01:05
with one goal in mind:
17
65200
1376
met één doel voor ogen:
01:06
to displace human beings from their work.
18
66600
2496
mensen verdringen uit hun werk.
01:09
And I call this the Terminator myth.
19
69120
2696
Ik noem dat de Terminator-mythe.
01:11
Yes, machines displace human beings from particular tasks,
20
71840
3976
Ja, machines verdringen mensen van bepaalde taken,
01:15
but they don't just substitute for human beings.
21
75840
2256
maar ze nemen niet alleen hun plaats in,
01:18
They also complement them in other tasks,
22
78120
1976
ze vullen hen ook aan in andere taken,
01:20
making that work more valuable and more important.
23
80120
3616
en maken zo dat werk waardevoller en belangrijker.
01:23
Sometimes they complement human beings directly,
24
83760
3336
Soms vullen ze de mens rechtstreeks aan
01:27
making them more productive or more efficient at a particular task.
25
87120
4016
waardoor ze hem productiever en efficiënter maken voor een bepaalde taak.
01:31
So a taxi driver can use a satnav system to navigate on unfamiliar roads.
26
91160
4616
Een taxichauffeur kan met een gps-systeem navigeren op onbekende wegen.
01:35
An architect can use computer-assisted design software
27
95800
3336
Een architect kan gebruik maken van CAD-software
01:39
to design bigger, more complicated buildings.
28
99160
3096
om grotere, meer ingewikkelde gebouwen te ontwerpen.
01:42
But technological progress doesn't just complement human beings directly.
29
102280
3696
Technologische vooruitgang vult de mens niet alleen maar direct aan.
01:46
It also complements them indirectly, and it does this in two ways.
30
106000
3336
Het is ook een indirecte aanvulling en wel op twee manieren.
01:49
The first is if we think of the economy as a pie,
31
109360
3336
De eerste: als we de economie bekijken als een taart,
01:52
technological progress makes the pie bigger.
32
112720
2896
dan maakt technologische vooruitgang de taart groter.
01:55
As productivity increases, incomes rise and demand grows.
33
115640
3856
Als de productiviteit toeneemt, stijgen de inkomens en groeit de vraag.
01:59
The British pie, for instance,
34
119520
1776
Zo is de Britse taart, bijvoorbeeld,
02:01
is more than a hundred times the size it was 300 years ago.
35
121320
3960
meer dan honderd keer zo groot als 300 jaar geleden.
02:05
And so people displaced from tasks in the old pie
36
125920
3216
Mensen die taken verloren in de oude taart,
02:09
could find tasks to do in the new pie instead.
37
129160
2720
vonden andere taken in de nieuwe taart.
02:12
But technological progress doesn't just make the pie bigger.
38
132800
3936
Maar technologische vooruitgang maakt de taart niet alleen groter.
02:16
It also changes the ingredients in the pie.
39
136760
2856
Ze verandert ook de ingrediënten in de taart.
02:19
As time passes, people spend their income in different ways,
40
139640
3456
In de loop van de tijd gaan mensen hun inkomen anders besteden;
02:23
changing how they spread it across existing goods,
41
143120
2816
ze spreiden het anders over de bestaande producten
02:25
and developing tastes for entirely new goods, too.
42
145960
3216
en raken tevens geïnteresseerd in geheel nieuwe producten.
02:29
New industries are created,
43
149200
1776
Nieuwe industrieën worden gecreëerd,
02:31
new tasks have to be done
44
151000
1816
nieuwe taken moeten worden gedaan
02:32
and that means often new roles have to be filled.
45
152840
2536
en dat betekent dat vaak nieuwe rollen moeten worden ingevuld.
02:35
So again, the British pie:
46
155400
1496
Nogmaals de Britse taart:
02:36
300 years ago, most people worked on farms,
47
156920
2976
300 jaar geleden werkten de meeste mensen op boerderijen,
02:39
150 years ago, in factories,
48
159920
2336
150 jaar geleden in fabrieken
02:42
and today, most people work in offices.
49
162280
2856
en vandaag de dag werken de meeste mensen in kantoren.
02:45
And once again, people displaced from tasks in the old bit of pie
50
165160
4056
En nogmaals, mensen die taken verloren in het oude stukje taart
02:49
could tumble into tasks in the new bit of pie instead.
51
169240
2800
komen nu terecht in taken in het nieuwe stukje taart.
02:52
Economists call these effects complementarities,
52
172720
3336
Economen noemen deze effecten complementariteit,
02:56
but really that's just a fancy word to capture the different way
53
176080
3256
maar dat is gewoon een duur woord om te zeggen
02:59
that technological progress helps human beings.
54
179360
3136
dat technologische vooruitgang mensen helpt.
03:02
Resolving this Terminator myth
55
182520
2096
Het oplossen van de Terminator-mythe
03:04
shows us that there are two forces at play:
56
184640
2336
toont aan dat er twee krachten spelen:
03:07
one, machine substitution that harms workers,
57
187000
3536
ten eerste machinesubstitutie, die werknemers schaadt,
03:10
but also these complementarities that do the opposite.
58
190560
2880
maar ook die complementariteit, die het tegenovergestelde doet.
03:13
Now the second myth,
59
193960
1376
Nu de tweede mythe,
03:15
what I call the intelligence myth.
60
195360
2280
die ik de intelligentiemythe noem.
03:18
What do the tasks of driving a car, making a medical diagnosis
61
198440
4896
Wat hebben deze taken: een auto besturen, een medische diagnose stellen,
en razendsnel een vogel identificeren, met elkaar gemeen?
03:23
and identifying a bird at a fleeting glimpse have in common?
62
203360
2920
03:27
Well, these are all tasks that until very recently,
63
207280
2976
Het zijn allemaal taken waarvan tot voor kort
03:30
leading economists thought couldn't readily be automated.
64
210280
3336
topeconomen dachten dat ze niet gemakkelijk konden worden geautomatiseerd.
03:33
And yet today, all of these tasks can be automated.
65
213640
3176
Toch kunnen vandaag al deze taken worden geautomatiseerd.
03:36
You know, all major car manufacturers have driverless car programs.
66
216840
3496
Alle grote autofabrikanten werken aan zelfrijdende auto's.
03:40
There's countless systems out there that can diagnose medical problems.
67
220360
3976
Er bestaan talloze systemen die medische problemen kunnen diagnosticeren.
03:44
And there's even an app that can identify a bird
68
224360
2416
Er is zelfs een app die een vogel bliksemsnel kan identificeren.
03:46
at a fleeting glimpse.
69
226800
1200
03:48
Now, this wasn't simply a case of bad luck on the part of economists.
70
228920
4376
Dit was niet zomaar een geval van pech voor de economen.
03:53
They were wrong,
71
233320
1296
Ze hadden het mis
03:54
and the reason why they were wrong is very important.
72
234640
2496
en de reden waarom is erg belangrijk.
03:57
They've fallen for the intelligence myth,
73
237160
2256
Ze vielen voor de intelligentiemythe,
03:59
the belief that machines have to copy the way
74
239440
2896
de overtuiging dat machines moeten kopiëren
04:02
that human beings think and reason
75
242360
2056
hoe mensen denken en redeneren
04:04
in order to outperform them.
76
244440
1776
om hen te overtreffen.
04:06
When these economists were trying to figure out
77
246240
2216
Toen deze economen probeerden te achterhalen
04:08
what tasks machines could not do,
78
248480
1856
welke taken machines níet konden doen,
04:10
they imagined the only way to automate a task
79
250360
2136
dachten ze dat je alleen taken kon automatiseren
04:12
was to sit down with a human being,
80
252520
1816
door samen te gaan zitten met een mens,
04:14
get them to explain to you how it was they performed a task,
81
254360
3536
hem te laten uitleggen hoe hij het deed,
04:17
and then try and capture that explanation
82
257920
2656
en dan te proberen die uitleg vast te leggen
04:20
in a set of instructions for a machine to follow.
83
260600
2776
in een reeks instructies voor een machine.
04:23
This view was popular in artificial intelligence at one point, too.
84
263400
4176
Deze opvatting was ook ooit populair in de kunstmatige intelligentie.
04:27
I know this because Richard Susskind,
85
267600
2176
Ik weet dit omdat Richard Susskind,
04:29
who is my dad and my coauthor,
86
269800
2856
mijn vader en co-auteur,
04:32
wrote his doctorate in the 1980s on artificial intelligence and the law
87
272680
4056
in de jaren 80 zijn doctoraat schreef over kunstmatige intelligentie en de wet
04:36
at Oxford University,
88
276760
1416
aan de Universiteit van Oxford.
04:38
and he was part of the vanguard.
89
278200
1576
Hij was bij de eersten
04:39
And with a professor called Phillip Capper
90
279800
2256
en samen met professor Phillip Capper
04:42
and a legal publisher called Butterworths,
91
282080
2096
en de juridische uitgeverij Butterworths
04:44
they produced the world's first commercially available
92
284200
5896
produceerden ze 's werelds eerste commercieel verkrijgbare
04:50
artificial intelligence system in the law.
93
290120
2776
systeem van kunstmatige intelligentie voor de wet.
04:52
This was the home screen design.
94
292920
2616
Dit was het ontwerp van het startscherm.
04:55
He assures me this was a cool screen design at the time.
95
295560
2696
Hij verzekert me dat dit toen een cool ontwerp was.
04:58
(Laughter)
96
298280
1016
(Gelach)
04:59
I've never been entirely convinced.
97
299320
1696
Ik was nooit helemaal overtuigd.
05:01
He published it in the form of two floppy disks,
98
301040
2616
Hij publiceerde het in de vorm van twee floppy disks,
05:03
at a time where floppy disks genuinely were floppy,
99
303680
3536
toen die nog echt 'floppy' waren,
en zijn aanpak was dezelfde als die van de economen:
05:07
and his approach was the same as the economists':
100
307240
2336
05:09
sit down with a lawyer,
101
309600
1256
samenzitten met een advocaat,
05:10
get her to explain to you how it was she solved a legal problem,
102
310880
3176
haar laten uitleggen hoe zij een juridisch probleem oploste
05:14
and then try and capture that explanation in a set of rules for a machine to follow.
103
314080
5376
en dan die uitleg proberen te vangen in een set regels voor een machine.
05:19
In economics, if human beings could explain themselves in this way,
104
319480
3616
Als mensen in de economie hun werk op deze manier konden uitleggen,
05:23
the tasks are called routine, and they could be automated.
105
323120
3296
werden de taken routine genoemd en konden ze worden geautomatiseerd.
05:26
But if human beings can't explain themselves,
106
326440
2336
Maar als de mensen het zelf niet kunnen uitleggen,
05:28
the tasks are called non-routine, and they're thought to be out reach.
107
328800
4256
worden de taken niet-routine genoemd, en dachten ze dat het niet kon.
05:33
Today, that routine-nonroutine distinction is widespread.
108
333080
3296
Vandaag is dat onderscheid tussen routine en niet-routine wijdverbreid.
05:36
Think how often you hear people say to you
109
336400
2056
Hoe vaak hoor je mensen niet zeggen:
05:38
machines can only perform tasks that are predictable or repetitive,
110
338480
3256
machines kunnen alleen taken uitvoeren die voorspelbaar of repetitief zijn,
05:41
rules-based or well-defined.
111
341760
1896
op basis van regels of welomschreven.
05:43
Those are all just different words for routine.
112
343680
2936
Met andere woorden: routinematig.
05:46
And go back to those three cases that I mentioned at the start.
113
346640
3976
Even terug naar die drie zaken die ik aan het begin noemde:
05:50
Those are all classic cases of nonroutine tasks.
114
350640
2896
klassieke gevallen van niet-routinematige taken.
05:53
Ask a doctor, for instance, how she makes a medical diagnosis,
115
353560
2976
Vraag een arts hoe ze een medische diagnose stelt
05:56
and she might be able to give you a few rules of thumb,
116
356560
2656
en ze kan je een aantal vuistregels geven,
maar uiteindelijk zou ze er niet uitkomen.
05:59
but ultimately she'd struggle.
117
359240
1656
06:00
She'd say it requires things like creativity and judgment and intuition.
118
360920
4816
Ze zou dingen noemen als creativiteit, oordeel en intuïtie.
06:05
And these things are very difficult to articulate,
119
365760
2376
Deze dingen zijn erg moeilijk te verwoorden.
Daarom dacht men dat deze taken zeer moeilijk zouden zijn te automatiseren.
06:08
and so it was thought these tasks would be very hard to automate.
120
368160
3096
06:11
If a human being can't explain themselves,
121
371280
2536
Als een mens het al niet kan uitleggen,
06:13
where on earth do we begin in writing a set of instructions
122
373840
2896
hoe zouden we dan een reeks instructies kunnen schrijven voor een machine?
06:16
for a machine to follow?
123
376760
1200
06:18
Thirty years ago, this view was right,
124
378640
2576
Dertig jaar geleden was deze opvatting terecht,
06:21
but today it's looking shaky,
125
381240
2136
maar vandaag staat ze op losse schroeven
06:23
and in the future it's simply going to be wrong.
126
383400
2256
en in de toekomst gaat ze gewoon fout zijn.
06:25
Advances in processing power, in data storage capability
127
385680
3256
Vooruitgang in rekenkracht,
in gegevensopslag en algoritmeontwerp
06:28
and in algorithm design
128
388960
1656
06:30
mean that this routine-nonroutine distinction
129
390640
2496
betekenen dat dit onderscheid tussen routine en niet-routine
06:33
is diminishingly useful.
130
393160
1736
steeds minder nuttig wordt.
06:34
To see this, go back to the case of making a medical diagnosis.
131
394920
3256
Denk even aan die medische diagnose.
Eerder dit jaar kondigde een team van onderzoekers
06:38
Earlier in the year,
132
398200
1376
06:39
a team of researchers at Stanford announced they'd developed a system
133
399600
3296
van Stanford aan dat ze een systeem hadden ontwikkeld
06:42
which can tell you whether or not a freckle is cancerous
134
402920
3056
dat je kan vertellen of een sproet al dan niet kwaadaardig is.
06:46
as accurately as leading dermatologists.
135
406000
2680
Even goed als vooraanstaande dermatologen.
06:49
How does it work?
136
409280
1256
Hoe werkt het?
06:50
It's not trying to copy the judgment or the intuition of a doctor.
137
410560
5296
Het probeert niet om het oordeel of de intuïtie van een arts te kopiëren.
06:55
It knows or understands nothing about medicine at all.
138
415880
3136
Het weet of begrijpt helemaal niets van geneeskunde.
06:59
Instead, it's running a pattern recognition algorithm
139
419040
2576
In plaats daarvan gebruikt het een algoritme voor patroonherkenning
07:01
through 129,450 past cases,
140
421640
4656
aan de hand van 129.450 eerdere gevallen.
07:06
hunting for similarities between those cases
141
426320
3096
Het zoekt naar gelijkenissen tussen die gevallen
07:09
and the particular lesion in question.
142
429440
2080
en de specifieke laesie in kwestie.
07:12
It's performing these tasks in an unhuman way,
143
432080
3216
Het voert deze taken uit op een niet-menselijke manier,
07:15
based on the analysis of more possible cases
144
435320
2336
gebaseerd op de analyse van meer mogelijke gevallen
07:17
than any doctor could hope to review in their lifetime.
145
437680
2616
dan enige dokter kan hopen te beoordelen tijdens haar leven.
07:20
It didn't matter that that human being,
146
440320
1896
Het maakte niet uit dat die mens,
07:22
that doctor, couldn't explain how she'd performed the task.
147
442240
2800
die dokter, niet kon uitleggen hoe ze de taak had uitgevoerd.
07:25
Now, there are those who dwell upon that the fact
148
445640
2336
Nu zijn er mensen die zich blindstaren op het feit
07:28
that these machines aren't built in our image.
149
448000
2296
dat deze machines niet op ons lijken.
07:30
As an example, take IBM's Watson,
150
450320
2056
Neem als voorbeeld IBM's Watson,
07:32
the supercomputer that went on the US quiz show "Jeopardy!" in 2011,
151
452400
4856
de supercomputer die in 2011 meedeed aan de Amerikaanse quiz 'Jeopardy!',
07:37
and it beat the two human champions at "Jeopardy!"
152
457280
3016
en hem won van de twee menselijke kampioenen van 'Jeopardy!'
07:40
The day after it won,
153
460320
1696
De dag erna stond er in The Wall Street Journal
07:42
The Wall Street Journal ran a piece by the philosopher John Searle
154
462040
3296
een stuk van de filosoof John Searle
07:45
with the title "Watson Doesn't Know It Won on 'Jeopardy!'"
155
465360
3376
met als titel "Watson Weet Niet Dat Hij Bij 'Jeopardy!' Heeft Gewonnen."
07:48
Right, and it's brilliant, and it's true.
156
468760
1976
Klopt, het is briljant en het is waar.
07:50
You know, Watson didn't let out a cry of excitement.
157
470760
2456
Watson slaakte geen kreet van vreugde.
Hij belde zijn ouders niet om te zeggen wat hij gepresteerd had.
07:53
It didn't call up its parents to say what a good job it had done.
158
473240
3096
07:56
It didn't go down to the pub for a drink.
159
476360
2336
Hij liep niet naar de kroeg voor een drankje.
07:58
This system wasn't trying to copy the way that those human contestants played,
160
478720
4456
Dit systeem probeerde niet de manier van menselijke spelers te kopiëren,
maar dat deed er niet toe.
08:03
but it didn't matter.
161
483200
1256
08:04
It still outperformed them.
162
484480
1976
Het presteerde toch beter dan zij.
08:06
Resolving the intelligence myth
163
486480
1576
Het oplossen van de intelligentiemythe
08:08
shows us that our limited understanding about human intelligence,
164
488080
3376
toont aan dat ons beperkte begrip van menselijke intelligentie,
08:11
about how we think and reason,
165
491480
1896
van hoe wij denken en redeneren,
08:13
is far less of a constraint on automation than it was in the past.
166
493400
3456
veel minder een beperking is voor de automatisering dan in het verleden.
08:16
What's more, as we've seen,
167
496880
1496
En we zagen: als deze machines taken anders uitvoeren dan de mens,
08:18
when these machines perform tasks differently to human beings,
168
498400
3416
08:21
there's no reason to think
169
501840
1256
is er geen reden om te denken
08:23
that what human beings are currently capable of doing
170
503120
2536
dat menselijke prestaties van nu
08:25
represents any sort of summit
171
505680
1456
de limiet tonen van wat deze machines in de toekomst zouden kunnen doen.
08:27
in what these machines might be capable of doing in the future.
172
507160
3000
08:31
Now the third myth,
173
511040
1256
Nu de derde mythe,
08:32
what I call the superiority myth.
174
512320
2456
die ik de superioriteitsmythe noem.
08:34
It's often said that those who forget
175
514800
2216
Vaak wordt gezegd:
wie de weldadige kant vergeet van de technologische vooruitgang,
08:37
about the helpful side of technological progress,
176
517040
2456
08:39
those complementarities from before,
177
519520
2496
die complementariteit van daarstraks,
08:42
are committing something known as the lump of labor fallacy.
178
522040
3040
maakt de 'denkfout van werkhoeveelheid'.
08:45
Now, the problem is the lump of labor fallacy
179
525840
2295
Het probleem is dat de denkfout van werkhoeveelheid
08:48
is itself a fallacy,
180
528159
1496
ook weer een denkfout is.
08:49
and I call this the lump of labor fallacy fallacy,
181
529679
2937
Ik noem dat de denkfout van werkhoeveelheid-denkfout,
08:52
or LOLFF, for short.
182
532640
2320
of DVWD afgekort.
Laat het me uitleggen.
08:56
Let me explain.
183
536000
1416
08:57
The lump of labor fallacy is a very old idea.
184
537440
2136
De denkfout van werkhoeveelheid is een zeer oud idee.
08:59
It was a British economist, David Schloss, who gave it this name in 1892.
185
539600
4216
De Britse econoom David Schloss, bedacht de naam in 1892.
09:03
He was puzzled to come across a dock worker
186
543840
2816
Een dokwerker verbaasde hem.
09:06
who had begun to use a machine to make washers,
187
546680
2336
Die ging een machine gebruiken om sluitringen te maken
09:09
the small metal discs that fasten on the end of screws.
188
549040
3320
-- die metalen afdichtschijfjes die je vastzet met schroeven --
09:13
And this dock worker felt guilty for being more productive.
189
553000
3760
en hij voelde zich schuldig omdat hij productiever werd.
09:17
Now, most of the time, we expect the opposite,
190
557560
2176
Je verwacht het tegengestelde:
mensen voelen zich schuldig omdat ze onproductief zijn
09:19
that people feel guilty for being unproductive,
191
559760
2216
door op het werk te veel tijd te Facebooken of Twitteren.
09:22
you know, a little too much time on Facebook or Twitter at work.
192
562000
3016
Hij voelde zich schuldig omdat hij productiever was.
09:25
But this worker felt guilty for being more productive,
193
565040
2536
Gevraagd waarom, zei hij: "Ik weet dat ik fout ben.
09:27
and asked why, he said, "I know I'm doing wrong.
194
567600
2296
09:29
I'm taking away the work of another man."
195
569920
2040
Ik neem een ander zijn werk af."
09:32
In his mind, there was some fixed lump of work
196
572760
2976
In zijn gedachtegang was er een vaste hoeveelheid werk
09:35
to be divided up between him and his pals,
197
575760
2136
om te verdelen tussen hem en zijn vrienden.
09:37
so that if he used this machine to do more,
198
577920
2056
Als hij deze machine gebruikte,
was er minder werk over voor zijn vrienden.
09:40
there'd be less left for his pals to do.
199
580000
2016
09:42
Schloss saw the mistake.
200
582040
1856
Schloss zag de fout.
09:43
The lump of work wasn't fixed.
201
583920
1856
Werkhoeveelheid was geen vast gegeven.
09:45
As this worker used the machine and became more productive,
202
585800
2816
Naarmate de werknemer met de machine productiever werd,
09:48
the price of washers would fall, demand for washers would rise,
203
588640
2976
zou de prijs van de sluitringen zakken en de vraag ernaar stijgen,
09:51
more washers would have to be made,
204
591640
1696
meer ringen zouden nodig zijn
09:53
and there'd be more work for his pals to do.
205
593360
2096
en dus meer werk voor zijn vrienden.
09:55
The lump of work would get bigger.
206
595480
1696
De werkhoeveelheid zou toenemen.
09:57
Schloss called this "the lump of labor fallacy."
207
597200
2680
Schloss noemde dit ‘de werkhoeveelheidsdenkfout’.
10:00
And today you hear people talk about the lump of labor fallacy
208
600560
2936
Vandaag praten mensen over die werkhoeveelheid-denkfout
10:03
to think about the future of all types of work.
209
603520
2216
in verband met de toekomst van alle soorten werk.
10:05
There's no fixed lump of work out there to be divided up
210
605760
2656
Er is geen vaste werkhoeveelheid te verdelen tussen mensen en machines.
10:08
between people and machines.
211
608440
1376
10:09
Yes, machines substitute for human beings, making the original lump of work smaller,
212
609840
4656
Machines vervangen weliswaar mensen, waardoor de werkhoeveelheid afneemt,
10:14
but they also complement human beings,
213
614520
1856
maar ze vullen de mens ook aan,
10:16
and the lump of work gets bigger and changes.
214
616400
2096
zodat de werkhoeveelheid groter wordt en verandert.
10:19
But LOLFF.
215
619760
1616
Maar DVWD.
10:21
Here's the mistake:
216
621400
1376
Hier is de fout:
10:22
it's right to think that technological progress
217
622800
2216
technologische vooruitgang vergroot inderdaad
de hoeveelheid werk die gedaan moet worden.
10:25
makes the lump of work to be done bigger.
218
625040
1976
Sommige taken worden meer waard. Nieuwe taken moeten worden gedaan.
10:27
Some tasks become more valuable. New tasks have to be done.
219
627040
3016
10:30
But it's wrong to think that necessarily,
220
630080
2536
Maar het is verkeerd om te denken dat
10:32
human beings will be best placed to perform those tasks.
221
632640
3256
de mens per se de beste keuze zal zijn om deze taken uit te voeren.
10:35
And this is the superiority myth.
222
635920
1616
En dat is de superioriteitsmythe.
10:37
Yes, the lump of work might get bigger and change,
223
637560
3416
Ja, de werkhoeveelheid kan groter worden en veranderen,
10:41
but as machines become more capable,
224
641000
1976
maar als machines vaardiger worden,
10:43
it's likely that they'll take on the extra lump of work themselves.
225
643000
3896
is het waarschijnlijk dat ze
de extra werkhoeveelheid zelf zullen gaan overnemen.
10:46
Technological progress, rather than complement human beings,
226
646920
3256
Technologische vooruitgang gaat in plaats van de mens aan te vullen,
10:50
complements machines instead.
227
650200
1880
machines aanvullen.
10:52
To see this, go back to the task of driving a car.
228
652920
3016
Denk aan de taak van het besturen van een auto.
10:55
Today, satnav systems directly complement human beings.
229
655960
4096
Vandaag de dag staan navigatiesystemen de mens bij.
11:00
They make some human beings better drivers.
230
660080
2280
Ze maken sommige mensen tot betere chauffeurs.
11:02
But in the future,
231
662920
1256
Maar in de toekomst gaat software mensen verdringen uit de bestuurdersstoel
11:04
software is going to displace human beings from the driving seat,
232
664200
3096
en gaan deze navigatiesystemen niet zozeer mensen aanvullen,
11:07
and these satnav systems, rather than complement human beings,
233
667320
2936
maar eerder die zelfrijdende auto's efficiënter maken
11:10
will simply make these driverless cars more efficient,
234
670280
2536
11:12
helping the machines instead.
235
672840
1536
en dus de machines helpen.
11:14
Or go to those indirect complementarities that I mentioned as well.
236
674400
4056
Of denk ook aan de indirecte complementariteit die ik noemde.
11:18
The economic pie may get larger,
237
678480
1776
De economische taart kan groeien,
11:20
but as machines become more capable,
238
680280
1736
maar als machines vaardiger worden,
11:22
it's possible that any new demand will fall on goods that machines,
239
682040
3143
kan elke nieuwe vraag gaan om goederen die machines
11:25
rather than human beings, are best placed to produce.
240
685207
2649
beter kunnen produceren dan mensen.
11:27
The economic pie may change,
241
687880
1896
De economische taart kan veranderen,
11:29
but as machines become more capable,
242
689800
1896
maar als machines vaardiger worden,
11:31
it's possible that they'll be best placed to do the new tasks that have to be done.
243
691720
4856
is het mogelijk dat zij het best die nieuwe taken zullen kunnen uitvoeren.
11:36
In short, demand for tasks isn't demand for human labor.
244
696600
3696
Kortom, de vraag naar taken is niet hetzelfde als de vraag naar mensenwerk.
11:40
Human beings only stand to benefit
245
700320
1936
De mensen zullen alleen gebaat zijn
11:42
if they retain the upper hand in all these complemented tasks,
246
702280
3816
als zij de overhand houden in al deze aanvullende taken,
11:46
but as machines become more capable, that becomes less likely.
247
706120
3720
maar naarmate machines vaardiger worden, wordt dat minder waarschijnlijk.
11:50
So what do these three myths tell us then?
248
710760
2016
Wat vertellen deze drie mythen ons dan?
11:52
Well, resolving the Terminator myth
249
712800
1696
Het oplossen van de Terminator-mythe
11:54
shows us that the future of work depends upon this balance between two forces:
250
714520
3696
toont dat de toekomst van werk
afhangt van dit evenwicht tussen twee krachten:
11:58
one, machine substitution that harms workers
251
718240
3136
machinesubstitutie die werknemers schaadt,
maar ook de complementariteit die net het tegengestelde doet.
12:01
but also those complementarities that do the opposite.
252
721400
2576
12:04
And until now, this balance has fallen in favor of human beings.
253
724000
4040
Tot nu toe draaide dit evenwicht uit in het voordeel van de mens.
12:09
But resolving the intelligence myth
254
729120
1736
Maar het oplossen van de intelligentiemythe
12:10
shows us that that first force, machine substitution,
255
730880
2496
leert ons dat de eerste kracht, machinesubstitutie, sterker wordt.
12:13
is gathering strength.
256
733400
1296
12:14
Machines, of course, can't do everything,
257
734720
1976
Machines kunnen natuurlijk niet alles,
12:16
but they can do far more,
258
736720
1256
maar ze kunnen veel meer,
12:18
encroaching ever deeper into the realm of tasks performed by human beings.
259
738000
4576
en rukken steeds verder op in het rijk van door de mens uitgevoerde taken.
12:22
What's more, there's no reason to think
260
742600
1896
Ook is er geen reden te denken
12:24
that what human beings are currently capable of
261
744520
2216
dat wat de mens momenteel kan
12:26
represents any sort of finishing line,
262
746760
1856
het eindpunt gaat zijn,
dat machines zich beleefd gaan inhouden
12:28
that machines are going to draw to a polite stop
263
748640
2256
12:30
once they're as capable as us.
264
750920
1816
zodra ze ons niveau hebben bereikt.
12:32
Now, none of this matters
265
752760
1536
Dit is allemaal niet erg
12:34
so long as those helpful winds of complementarity
266
754320
2816
zolang de nuttige winden van de complementariteit
12:37
blow firmly enough,
267
757160
1736
stevig genoeg blijven waaien,
12:38
but resolving the superiority myth
268
758920
1936
maar het oplossen van de superioriteitsmythe
12:40
shows us that that process of task encroachment
269
760880
3096
toont ons dat dat proces van taakaantasting
12:44
not only strengthens the force of machine substitution,
270
764000
3936
niet alleen de kracht van machinesubstitutie versterkt,
12:47
but it wears down those helpful complementarities too.
271
767960
3336
maar ook die behulpzame complementariteit aantast.
12:51
Bring these three myths together
272
771320
1936
Breng deze drie mythen samen
12:53
and I think we can capture a glimpse of that troubling future.
273
773280
2936
en ik denk dat we een glimp van die verontrustende toekomst kunnen opvangen.
12:56
Machines continue to become more capable,
274
776240
2016
Machines worden steeds vaardiger,
12:58
encroaching ever deeper on tasks performed by human beings,
275
778280
3656
rukken steeds verder op in de taken van de mens,
13:01
strengthening the force of machine substitution,
276
781960
2576
versterken de kracht van machinesubstitutie
13:04
weakening the force of machine complementarity.
277
784560
3616
en verzwakken de kracht van machinecomplementariteit.
13:08
And at some point, that balance falls in favor of machines
278
788200
4296
Ooit draait dat evenwicht uit in het voordeel van machines
13:12
rather than human beings.
279
792520
2056
in plaats van de mens.
13:14
This is the path we're currently on.
280
794600
1736
Die weg zijn we ingeslagen.
13:16
I say "path" deliberately, because I don't think we're there yet,
281
796360
3176
Opzettelijk zeg ik ‘weg’, want ik denk niet dat we er al zijn,
13:19
but it is hard to avoid the conclusion that this is our direction of travel.
282
799560
3640
maar het is moeilijk om de conclusie te vermijden dat dit onze rijrichting is.
13:24
That's the troubling part.
283
804640
1456
Dat is het verontrustende deel.
13:26
Let me say now why I think actually this is a good problem to have.
284
806120
3520
Ik leg nu uit waarom ik denk dat dit een goed probleem is om te hebben.
13:30
For most of human history, one economic problem has dominated:
285
810520
3536
Eén economisch probleem domineerde bijna de hele menselijke geschiedenis:
13:34
how to make the economic pie large enough for everyone to live on.
286
814080
4056
hoe de economische koek voor iedereen groot genoeg maken om van te leven.
13:38
Go back to the turn of the first century AD,
287
818160
2176
Als je in de eerste eeuw na Christus
13:40
and if you took the global economic pie
288
820360
2096
de mondiale economische taart
13:42
and divided it up into equal slices for everyone in the world,
289
822480
3296
voor iedereen in gelijke plakjes verdeelde,
13:45
everyone would get a few hundred dollars.
290
825800
2136
kreeg iedereen een paar honderd dollar.
13:47
Almost everyone lived on or around the poverty line.
291
827960
2760
Bijna iedereen leefde op of nabij de armoedegrens.
13:51
And if you roll forward a thousand years,
292
831320
2176
Ga duizend jaar vooruit
13:53
roughly the same is true.
293
833520
1240
en je vindt ruwweg hetzelfde.
13:55
But in the last few hundred years, economic growth has taken off.
294
835680
3576
Maar in de laatste paar honderd jaar kwam de economische groei op gang.
13:59
Those economic pies have exploded in size.
295
839280
2376
De economische taarten zijn buitenmaats gegroeid.
14:01
Global GDP per head,
296
841680
2056
Het mondiale bbp per hoofd,
14:03
the value of those individual slices of the pie today,
297
843760
3376
de huidige waarde van die persoonlijke stukken taart,
14:07
they're about 10,150 dollars.
298
847160
2816
is nu ongeveer 10.150 dollar.
14:10
If economic growth continues at two percent,
299
850000
2696
Als de economische groei op twee procent blijft,
14:12
our children will be twice as rich as us.
300
852720
2056
zullen onze kinderen twee keer zo rijk zijn als wij.
14:14
If it continues at a more measly one percent,
301
854800
2296
Groeit het met een miezerige één procent,
14:17
our grandchildren will be twice as rich as us.
302
857120
2656
zullen onze kleinkinderen twee keer zo rijk zijn als wij.
14:19
By and large, we've solved that traditional economic problem.
303
859800
3680
In grote lijnen hebben we dat traditionele economisch probleem opgelost.
14:24
Now, technological unemployment, if it does happen,
304
864200
3016
Als die technologische werkloosheid zich zal voordoen,
14:27
in a strange way will be a symptom of that success,
305
867240
3216
zal ze op een vreemde manier een symptoom zijn van dat succes:
14:30
will have solved one problem -- how to make the pie bigger --
306
870480
3856
zal ze een probleem hebben opgelost, -- hoe de taart groter te maken --
14:34
but replaced it with another --
307
874360
1816
maar vervangen door een ander:
14:36
how to make sure that everyone gets a slice.
308
876200
2760
hoe ervoor te zorgen dat iedereen een stuk krijgt.
14:39
As other economists have noted, solving this problem won't be easy.
309
879840
3496
Ook andere economen zagen
dat het moeilijk zal zijn dit probleem op te lossen .
14:43
Today, for most people,
310
883360
1656
Vandaag geldt voor de meeste mensen,
14:45
their job is their seat at the economic dinner table,
311
885040
2496
dat hun werk hun plaats aan de economische tafel is.
14:47
and in a world with less work or even without work,
312
887560
2416
In een wereld met minder of zelfs zonder werk
is niet duidelijk hoe zij aan hun stuk gaan geraken.
14:50
it won't be clear how they get their slice.
313
890000
2056
14:52
There's a great deal of discussion, for instance,
314
892080
2336
Veel discussie gaat over
de verschillende vormen van universeel basisinkomen
14:54
about various forms of universal basic income
315
894440
2696
als één mogelijke benadering
14:57
as one possible approach,
316
897160
1216
14:58
and there's trials underway
317
898400
1616
en er is onderzoek aan de gang
15:00
in the United States and in Finland and in Kenya.
318
900040
2400
in de Verenigde Staten, Finland en Kenia.
15:03
And this is the collective challenge that's right in front of us,
319
903000
3176
Die collectieve uitdaging staat ons te wachten,
15:06
to figure out how this material prosperity generated by our economic system
320
906200
5056
om te weten hoe de door ons systeem gegenereerde welvaart
15:11
can be enjoyed by everyone
321
911280
1976
door iedereen kan worden genoten
15:13
in a world in which our traditional mechanism
322
913280
2416
in een wereld waarin ons traditionele mechanisme
15:15
for slicing up the pie,
323
915720
1856
om de taart te verdelen,
15:17
the work that people do,
324
917600
1936
het werk dat mensen doen,
15:19
withers away and perhaps disappears.
325
919560
2160
afkalft en misschien wel verdwijnt.
15:22
Solving this problem is going to require us to think in very different ways.
326
922280
4360
Om dit probleem op te lossen, zullen we heel anders moeten gaan denken.
15:27
There's going to be a lot of disagreement about what ought to be done,
327
927400
4176
Er gaat heel wat onenigheid zijn over wat er gedaan moet worden,
maar hou voor ogen dat dit een veel beter probleem is om te hebben
15:31
but it's important to remember that this is a far better problem to have
328
931600
3416
dan wat onze voorouders eeuwenlang kopzorgen gaf:
15:35
than the one that haunted our ancestors for centuries:
329
935040
2816
15:37
how to make that pie big enough in the first place.
330
937880
3376
hoe maak je in de eerste plaats die taart groot genoeg.
15:41
Thank you very much.
331
941280
1256
Veel dank.
15:42
(Applause)
332
942560
3840
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7