How we'll earn money in a future without jobs | Martin Ford

1,604,217 views ・ 2017-11-16

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Boukeline Arnold Nagekeken door: Peter van de Ven
00:12
I'm going to begin with a scary question:
0
12787
2848
Ik ga beginnen met een prangende vraag:
00:15
Are we headed toward a future without jobs?
1
15659
2750
Gaan we een toekomst zonder banen tegemoet?
00:18
The remarkable progress that we're seeing
2
18987
2069
De opmerkelijke vooruitgang die we zien bij technologieën als zelfrijdende auto's,
00:21
in technologies like self-driving cars
3
21080
1861
00:22
has led to an explosion of interest in this question,
4
22965
3065
heeft de interesse voor deze vraag explosief doen toenemen,
00:26
but because it's something that's been asked
5
26054
2150
maar omdat ze in het verleden al zo vaak is gesteld,
00:28
so many times in the past,
6
28228
1256
00:29
maybe what we should really be asking
7
29508
1840
zouden we ons misschien eigenlijk moeten afvragen
00:31
is whether this time is really different.
8
31372
2900
of de situatie deze keer soms anders is.
00:35
The fear that automation might displace workers
9
35252
2961
De angst dat automatisering arbeiders van hun werk berooft
00:38
and potentially lead to lots of unemployment
10
38237
2117
en tot heel veel werkloosheid zou kunnen leiden,
00:40
goes back at a minimum 200 years to the Luddite revolts in England.
11
40378
3888
gaat minstens 200 jaar terug, tot de opstand van de Engelse luddieten.
00:44
And since then, this concern has come up again and again.
12
44290
3196
Sindsdien is hij keer op keer opgekomen.
00:47
I'm going to guess
13
47510
1161
Ik denk dat de meesten van jullie nog nooit gehoord hebben
00:48
that most of you have probably never heard of the Triple Revolution report,
14
48695
4466
van het rapport Triple Revolution, een zeer toonaangevend rapport.
00:53
but this was a very prominent report.
15
53185
2293
00:55
It was put together by a brilliant group of people --
16
55502
2531
Het is opgesteld door een aantal briljante mensen --
00:58
it actually included two Nobel laureates --
17
58057
3057
onder wie twee Nobelprijswinnaars --
01:01
and this report was presented to the President of the United States,
18
61138
3223
en aangeboden aan de president van de VS,
01:04
and it argued that the US was on the brink of economic and social upheaval
19
64385
5494
en stelde dat de VS op korte termijn
met economische en sociale onrust te maken zouden krijgen,
01:09
because industrial automation was going to put millions of people
20
69903
3102
omdat door de industriële automatisering miljoenen hun baan kwijt zouden raken.
01:13
out of work.
21
73029
1152
01:14
Now, that report was delivered to President Lyndon Johnson
22
74205
3657
Dat rapport werd in maart 1964 aan president Lyndon Johnson aangeboden.
01:17
in March of 1964.
23
77886
1801
01:19
So that's now over 50 years,
24
79711
2216
Dat is nu meer dan 50 jaar geleden
01:21
and, of course, that hasn't really happened.
25
81951
2058
en het is uiteindelijk nooit uitgekomen.
Dat is keer op keer het geval geweest.
01:24
And that's been the story again and again.
26
84033
2144
De alarmbel heeft meermaals geklonken, maar het was altijd vals alarm.
01:26
This alarm has been raised repeatedly,
27
86201
2109
01:28
but it's always been a false alarm.
28
88334
2013
01:30
And because it's been a false alarm,
29
90371
1809
En omdat het vals alarm was,
01:32
it's led to a very conventional way of thinking about this.
30
92204
2807
is men hier op een zeer conventionele manier over gaan denken.
01:35
And that says essentially that yes,
31
95035
2532
Die komt erop neer dat, inderdaad,
01:37
technology may devastate entire industries.
32
97591
2548
technologie hele industrieën zou kunnen vernietigen.
01:40
It may wipe out whole occupations and types of work.
33
100163
3732
Ze kan het einde betekenen van hele beroepsgroepen en soorten werk.
01:43
But at the same time, of course,
34
103919
1608
Maar tegelijkertijd zal vooruitgang natuurlijk ook tot veel nieuws leiden.
01:45
progress is going to lead to entirely new things.
35
105551
2351
01:47
So there will be new industries that will arise in the future,
36
107926
2962
Dus zullen er nieuwe industrieën opkomen, die natuurlijk mensen nodig hebben.
01:50
and those industries, of course, will have to hire people.
37
110912
2858
01:53
There'll be new kinds of work that will appear,
38
113794
2238
Er zullen nieuwe soorten werk ontstaan
01:56
and those might be things that today we can't really even imagine.
39
116056
3210
waarvan we onszelf vandaag de dag nog geen voorstelling kunnen maken.
01:59
And that has been the story so far,
40
119290
1747
Dat is tot dusver het verhaal geweest en het is een positief verhaal.
02:01
and it's been a positive story.
41
121061
1494
02:03
It turns out that the new jobs that have been created
42
123095
3325
De nieuwe banen die zijn ontstaan
02:06
have generally been a lot better than the old ones.
43
126444
2470
waren vaak een stuk beter dan de oude.
02:08
They have, for example, been more engaging.
44
128938
2656
Ze waren interessanter, bijvoorbeeld.
02:11
They've been in safer, more comfortable work environments,
45
131618
3429
De werkomgeving was veiliger en prettiger
02:15
and, of course, they've paid more.
46
135071
1680
en ze betaalden natuurlijk beter.
02:16
So it has been a positive story.
47
136775
1865
Dus het was een positief verhaal.
02:18
That's the way things have played out so far.
48
138664
2208
Zo is het tot op heden gegaan.
02:21
But there is one particular class of worker
49
141292
2948
Maar er is één bepaald type arbeider
02:24
for whom the story has been quite different.
50
144264
2252
voor wie dit verhaal heel anders is verlopen.
02:27
For these workers,
51
147938
1150
Voor deze arbeiders heeft technologie het werk bijna helemaal doen verdwijnen
02:29
technology has completely decimated their work,
52
149112
3021
02:32
and it really hasn't created any new opportunities at all.
53
152157
3214
en helemaal geen nieuwe mogelijkheden gebracht.
02:35
And these workers, of course,
54
155395
2195
Natuurlijk heb ik het dan over paarden.
02:37
are horses.
55
157614
1288
02:38
(Laughter)
56
158926
1443
(Gelach)
02:40
So I can ask a very provocative question:
57
160393
2750
Dus ik stel een nogal provocerende vraag:
02:43
Is it possible that at some point in the future,
58
163167
3435
kan het zijn dat op een bepaald moment
02:46
a significant fraction of the human workforce is going to be made redundant
59
166626
4628
een flink deel van de menselijke arbeidskrachten overbodig wordt,
02:51
in the way that horses were?
60
171278
1702
net zoals dat met paarden is gebeurd?
02:53
Now, you might have a very visceral, reflexive reaction to that.
61
173485
3000
Jullie reactie hierop is misschien vrij instinctief en intuïtief.
02:56
You might say, "That's absurd.
62
176509
1647
Wie weet zeggen jullie: "Dat is absurd.
02:58
How can you possibly compare human beings to horses?"
63
178180
3669
Hoe kun je nu in vredesnaam mensen met paarden vergelijken?"
03:02
Horses, of course, are very limited,
64
182437
1769
Paarden zijn natuurlijk vrij beperkt
03:04
and when cars and trucks and tractors came along,
65
184230
2893
en toen auto's en trucks ten tonele verschenen,
03:07
horses really had nowhere else to turn.
66
187147
2045
was er voor paarden eigenlijk geen plaats meer.
03:09
People, on the other hand, are intelligent;
67
189844
2360
Mensen daarentegen, zijn intelligent;
03:12
we can learn, we can adapt.
68
192228
1785
we kunnen leren, we kunnen ons aanpassen.
03:14
And in theory,
69
194037
1164
En in theorie betekent dat
03:15
that ought to mean that we can always find something new to do,
70
195225
3127
dat we altijd wel iets anders te doen kunnen vinden
en dat we altijd van belang zullen zijn voor de economie van de toekomst.
03:18
and that we can always remain relevant to the future economy.
71
198376
3306
03:21
But here's the really critical thing to understand.
72
201706
2437
Maar het volgende moeten we goed begrijpen.
03:24
The machines that will threaten workers in the future
73
204790
2865
De machines die in de toekomst een bedreiging vormen voor ons werk,
03:27
are really nothing like those cars and trucks and tractors
74
207679
3234
lijken in de verste verte niet op de auto's en trucks en tractors
03:30
that displaced horses.
75
210937
1616
die de plaats van paarden hebben ingenomen.
03:32
The future is going to be full of thinking, learning, adapting machines.
76
212577
4839
De machines van de toekomst kunnen denken, leren en zich aanpassen.
03:37
And what that really means
77
217440
1408
En dat betekent feitelijk
03:38
is that technology is finally beginning to encroach
78
218872
2834
dat technologie eindelijk een vermogen begint te ontwikkelen
03:41
on that fundamental human capability --
79
221730
2849
dat altijd aan de mens leek te zijn voorbehouden --
03:44
the thing that makes us so different from horses,
80
224603
2803
datgene wat ons zo anders maakt dan paarden
03:47
and the very thing that, so far,
81
227430
2234
en wat ervoor gezorgd heeft dat we, tot nu toe,
03:49
has allowed us to stay ahead of the march of progress
82
229688
2647
de vooruitgang een stapje voor hebben kunnen blijven
03:52
and remain relevant,
83
232359
1189
en van belang zijn gebleven, onmisbaar in feite, voor de economie.
03:53
and, in fact, indispensable to the economy.
84
233572
3067
03:58
So what is it that is really so different
85
238407
2495
Wat is er zo anders aan de huidige informatietechnologie
04:00
about today's information technology
86
240926
2043
04:02
relative to what we've seen in the past?
87
242993
1947
in vergelijking met wat we hiervóór hebben gezien?
04:04
I would point to three fundamental things.
88
244964
2653
Ik wil op drie fundamentele zaken wijzen.
04:07
The first thing is that we have seen this ongoing process
89
247641
4409
De eerste is dat we continu een exponentiële versnelling hebben gezien.
04:12
of exponential acceleration.
90
252074
1888
04:14
I know you all know about Moore's law,
91
254420
2095
Ik weet dat jullie allemaal de wet van Moore kennen,
04:16
but in fact, it's more broad-based than that;
92
256539
2296
maar eigenlijk is het nog wat ruimer;
04:18
it extends in many cases, for example, to software,
93
258859
3150
zo is het ook vaak van toepassing op software, communicatie, bandbreedte,
04:22
it extends to communications, bandwidth and so forth.
94
262033
3000
enzovoort.
Maar wat we goed moeten begrijpen,
04:25
But the really key thing to understand
95
265057
1984
04:27
is that this acceleration has now been going on for a really long time.
96
267065
3871
is dat deze versnelling nu al een hele tijd aan de gang is.
04:30
In fact, it's been going on for decades.
97
270960
1925
Al tientallen jaren eigenlijk.
04:32
If you measure from the late 1950s,
98
272909
2756
Als je rekent vanaf eind jaren vijftig van de vorige eeuw,
04:35
when the first integrated circuits were fabricated,
99
275689
2425
de tijd van de eerste geïntegreerde schakelingen,
04:38
we've seen something on the order of 30 doublings in computational power
100
278138
4785
dan hebben we zo'n 30 verdubbelingen van computerkracht gezien in die periode.
04:42
since then.
101
282947
1156
Dat is een fenomenaal getal voor een verdubbeling van wat dan ook,
04:44
That's just an extraordinary number of times to double any quantity,
102
284127
3688
04:47
and what it really means
103
287839
1240
en wat het betekent, is dat we nu op een punt zijn
04:49
is that we're now at a point where we're going to see
104
289103
2524
waarop we een enorme, absolute vooruitgang gaan zien,
04:51
just an extraordinary amount of absolute progress,
105
291651
2411
en natuurlijk zal de versnelling zelf ook blijven toenemen vanaf dit punt.
04:54
and, of course, things are going to continue to also accelerate
106
294086
2975
04:57
from this point.
107
297085
1159
Als we vooruitblikken op de komende jaren en decennia,
04:58
So as we look forward to the coming years and decades,
108
298268
2540
05:00
I think that means that we're going to see things
109
300832
2338
denk ik dat het betekent dat we dingen gaan meemaken
waar we niet op voorbereid zijn.
05:03
that we're really not prepared for.
110
303194
1673
05:04
We're going to see things that astonish us.
111
304891
2077
We gaan dingen meemaken die ons met stomheid slaan.
05:06
The second key thing
112
306992
1266
Het tweede dat we moeten beseffen,
05:08
is that the machines are, in a limited sense, beginning to think.
113
308282
3906
is dat machines op beperkte schaal zelf beginnen te denken.
05:12
And by this, I don't mean human-level AI,
114
312212
2457
En daarmee bedoel ik niet AI op menselijk niveau
05:14
or science fiction artificial intelligence;
115
314693
2936
of science-fictionachtige kunstmatige intelligentie;
05:17
I simply mean that machines and algorithms are making decisions.
116
317653
4462
ik bedoel alleen dat machines en algoritmes beslissingen nemen.
05:22
They're solving problems, and most importantly, they're learning.
117
322139
3860
Ze lossen problemen op en, het belangrijkste, ze leren.
05:26
In fact, if there's one technology that is truly central to this
118
326023
3303
Als er één technologie is die hierbij centraal staat
05:29
and has really become the driving force behind this,
119
329350
3077
en echt de drijvende kracht hierachter is geworden,
05:32
it's machine learning,
120
332451
1172
dan is dat zelflerende technologie, die zich aan het ontwikkelen is
05:33
which is just becoming this incredibly powerful,
121
333647
2720
tot een ongelooflijk krachtige, disruptieve, opschaalbare technologie.
05:36
disruptive, scalable technology.
122
336391
2638
05:39
One of the best examples I've seen of that recently
123
339561
2469
Een van de beste voorbeelden die ik onlangs op dat vlak heb gezien,
05:42
was what Google's DeepMind division was able to do
124
342054
2751
is wat Google's DeepMind-afdeling heeft gepresteerd met het AlphaGo-systeem.
05:44
with its AlphaGo system.
125
344829
1553
05:46
Now, this is the system that was able to beat the best player in the world
126
346406
4300
Dit systeem heeft de beste speler ter wereld verslagen bij het oude Go-spel.
05:50
at the ancient game of Go.
127
350730
1979
05:52
Now, at least to me,
128
352733
1150
05:53
there are two things that really stand out about the game of Go.
129
353907
3117
Er zitten, voor mij althans, twee bijzondere aspecten aan het Go-spel.
Het eerste is dat bij Go
05:57
One is that as you're playing the game,
130
357048
2296
05:59
the number of configurations that the board can be in
131
359368
2866
het aantal spelconfiguraties dat het bord kan hebben eigenlijk oneindig is.
06:02
is essentially infinite.
132
362258
1411
06:03
There are actually more possibilities than there are atoms in the universe.
133
363693
3833
Het kent meer mogelijkheden dan er atomen zijn in het heelal.
06:07
So what that means is,
134
367980
1184
Dat betekent dat je nooit een computer kunt bouwen die wint met Go,
06:09
you're never going to be able to build a computer to win at the game of Go
135
369188
3597
06:12
the way chess was approached, for example,
136
372809
2180
als we dat net zo doen als voor schaken --
zeg maar door gewoon brute computerkracht te gebruiken.
06:15
which is basically to throw brute-force computational power at it.
137
375013
4526
06:19
So clearly, a much more sophisticated, thinking-like approach is needed.
138
379563
4177
Hier is duidelijk een geavanceerdere, meer denk-achtige aanpak nodig.
06:24
The second thing that really stands out is that,
139
384368
3271
Wat in de tweede plaats echt opvalt,
06:27
if you talk to one of the championship Go players,
140
387663
2647
is dat als je met een van de Go-kampioenen praat,
06:30
this person cannot necessarily even really articulate what exactly it is
141
390334
4485
deze niet eens altijd goed kan verwoorden hoe hij denkt als hij speelt.
06:34
they're thinking about as they play the game.
142
394843
2215
06:37
It's often something that's very intuitive,
143
397082
2193
Vaak is het meer iets intuïtiefs,
06:39
it's almost just like a feeling about which move they should make.
144
399299
3322
bijna meer een gevoel dat hij heeft over wat de volgende zet moet zijn.
06:42
So given those two qualities,
145
402645
1407
Gezien deze twee karakteristieken
06:44
I would say that playing Go at a world champion level
146
404076
3937
zou ik denken dat op topniveau Go spelen nooit geautomatiseerd zal worden,
06:48
really ought to be something that's safe from automation,
147
408037
3238
06:51
and the fact that it isn't should really raise a cautionary flag for us.
148
411299
4446
en het feit dat dat niet klopt, zou alarmbellen moeten doen rinkelen.
06:55
And the reason is that we tend to draw a very distinct line,
149
415769
3917
De reden is dat we de neiging hebben een scherpe lijn te trekken
06:59
and on one side of that line are all the jobs and tasks
150
419710
3509
met aan één kant daarvan alle banen en werkzaamheden
07:03
that we perceive as being on some level fundamentally routine and repetitive
151
423243
4748
die we in zekere zin beschouwen als routinematig, repetitief en voorspelbaar.
07:08
and predictable.
152
428015
1350
07:09
And we know that these jobs might be in different industries,
153
429389
2858
We weten dat deze banen verdeeld zijn
07:12
they might be in different occupations and at different skill levels,
154
432271
3373
over verschillende bedrijfstakken, beroepsgroepen en vaardigheidsniveaus,
07:15
but because they are innately predictable,
155
435668
2210
maar omdat ze van nature voorspelbaar zijn,
07:17
we know they're probably at some point going to be susceptible
156
437902
3127
weten we dat hun werk ooit overgenomen kan worden door zelflerende machines
07:21
to machine learning,
157
441053
1177
en dus geautomatiseerd.
07:22
and therefore, to automation.
158
442254
1419
En vergis je niet, dat gaat om heel veel banen --
07:23
And make no mistake -- that's a lot of jobs.
159
443697
2097
07:25
That's probably something on the order of roughly half
160
445818
2679
waarschijnlijk zoiets als ruwweg de helft van het aantal banen in de economie.
07:28
the jobs in the economy.
161
448521
1567
Aan de andere kant van die lijn bevinden zich alle banen
07:30
But then on the other side of that line,
162
450112
2159
07:32
we have all the jobs that require some capability
163
452295
4071
die een bepaalde vaardigheid vereisen die we beschouwen als uniek menselijk
07:36
that we perceive as being uniquely human,
164
456390
2372
07:38
and these are the jobs that we think are safe.
165
458786
2223
en dat zijn de banen waarvan we denken dat ze onaantastbaar zijn.
07:41
Now, based on what I know about the game of Go,
166
461033
2265
Afgaande op wat ik weet over Go
zou ik hebben gedacht dat dit zich aan de veilige kant van die lijn zou bevinden.
07:43
I would've guessed that it really ought to be on the safe side of that line.
167
463322
3703
Maar het feit dat dat niet zo is, dat Google dit probleem heeft opgelost,
07:47
But the fact that it isn't, and that Google solved this problem,
168
467049
3178
07:50
suggests that that line is going to be very dynamic.
169
470251
2432
doet vermoeden dat die lijn vrij dynamisch zal zijn.
07:52
It's going to shift,
170
472707
1179
Hij zal zo gaan verschuiven
07:53
and it's going to shift in a way that consumes more and more jobs and tasks
171
473910
4135
dat er meer en meer banen en werkzaamheden zullen komen te vervallen
07:58
that we currently perceive as being safe from automation.
172
478069
3017
die we op dit moment nog beschouwen als niet te automatiseren.
08:01
The other key thing to understand
173
481921
1657
Iets anders wat we goed moeten begrijpen
08:03
is that this is by no means just about low-wage jobs or blue-collar jobs,
174
483602
5138
is dat dit echt niet alleen geldt voor slechtbetaalde werkers of handarbeiders,
08:08
or jobs and tasks done by people
175
488764
1875
of voor banen en werkzaamheden van mensen die relatief laag zijn opgeleid.
08:10
that have relatively low levels of education.
176
490663
2104
08:12
There's lots of evidence to show
177
492791
1524
Er is op veel manieren bewezen dat deze technologieën
08:14
that these technologies are rapidly climbing the skills ladder.
178
494339
3160
zich snel omhoogwerken op de competentieladder.
08:17
So we already see an impact on professional jobs --
179
497523
3616
We zien al dat het gevolgen heeft voor professioneel werk --
08:21
tasks done by people like accountants,
180
501163
4435
voor werkzaamheden die worden uitgevoerd
door mensen als accountants, financieel analisten,
08:25
financial analysts,
181
505622
1317
08:26
journalists,
182
506963
1296
journalisten, advocaten, radiologen, enzovoort.
08:28
lawyers, radiologists and so forth.
183
508283
2377
08:30
So a lot of the assumptions that we make
184
510684
1938
Veel van onze veronderstellingen
08:32
about the kind of occupations and tasks and jobs
185
512646
3220
omtrent het type beroepen, werkzaamheden en banen
08:35
that are going to be threatened by automation in the future
186
515890
2819
dat op termijn bedreigd zal worden door automatisering,
zullen waarschijnlijk ook onder vuur komen te liggen.
08:38
are very likely to be challenged going forward.
187
518733
2198
08:40
So as we put these trends together,
188
520955
1700
Als we deze trends samenvoegen,
denk ik dat daaruit blijkt dat we in de toekomst
08:42
I think what it shows is that we could very well end up in a future
189
522679
3292
08:45
with significant unemployment.
190
525995
1507
best eens met aanzienlijke werkloosheid te maken kunnen krijgen,
08:48
Or at a minimum,
191
528254
1152
of op zijn minst met een ernstig tekort aan werkgelegenheid,
08:49
we could face lots of underemployment or stagnant wages,
192
529430
3781
of stagnerende lonen, of misschien zelfs met dalende lonen.
08:53
maybe even declining wages.
193
533235
2097
08:56
And, of course, soaring levels of inequality.
194
536142
2810
En natuurlijk met een enorme ongelijkheid.
08:58
All of that, of course, is going to put a terrific amount of stress
195
538976
4033
Dat allemaal zorgt natuurlijk voor een enorme druk op de samenleving.
09:03
on the fabric of society.
196
543033
1917
09:04
But beyond that, there's also a fundamental economic problem,
197
544974
3059
Maar afgezien daarvan is er ook een fundamenteel economisch probleem,
09:08
and that arises because jobs are currently the primary mechanism
198
548057
5195
omdat banen op dit moment het belangrijkste mechanisme zijn
09:13
that distributes income, and therefore purchasing power,
199
553276
3545
om inkomen te verdelen, en daarmee koopkracht,
09:16
to all the consumers that buy the products and services we're producing.
200
556845
5132
over alle consumenten die de producten en diensten kopen die we voortbrengen.
09:22
In order to have a vibrant market economy,
201
562831
2515
Voor een krachtige markteconomie
09:25
you've got to have lots and lots of consumers
202
565370
2120
heb je grote aantallen consumenten nodig
09:27
that are really capable of buying the products and services
203
567514
3029
die ook echt in staat moeten zijn om de producten en diensten te kopen
09:30
that are being produced.
204
570567
1151
die er worden voortgebracht.
09:31
If you don't have that, then you run the risk
205
571742
2386
Zijn die er niet, dan is er het risico dat de economie stagneert,
09:34
of economic stagnation,
206
574152
1415
09:35
or maybe even a declining economic spiral,
207
575591
3669
of misschien zelfs in een neerwaartse spiraal terechtkomt,
omdat er gewoon niet genoeg klanten zijn
09:39
as there simply aren't enough customers out there
208
579284
2314
09:41
to buy the products and services being produced.
209
581622
2459
om de producten en diensten te kopen die er worden voortgebracht.
09:44
It's really important to realize
210
584105
1928
Het is belangrijk om je te realiseren
09:46
that all of us as individuals rely on access to that market economy
211
586057
6014
dat we als individuen allemaal vertrouwen op toegang tot die markteconomie
09:52
in order to be successful.
212
592095
1729
om succesvol te kunnen zijn.
09:53
You can visualize that by thinking in terms of one really exceptional person.
213
593848
4436
Denk maar eens aan één buitengewoon bijzonder persoon.
09:58
Imagine for a moment you take, say, Steve Jobs,
214
598308
2988
Neem Steve Jobs bijvoorbeeld eventjes en zet hem helemaal alleen op een eiland.
10:01
and you drop him on an island all by himself.
215
601320
2581
10:03
On that island, he's going to be running around,
216
603925
2294
Dat eiland zal hij gaan afstruinen op zoek naar kokosnoten,
10:06
gathering coconuts just like anyone else.
217
606243
2538
net als ieder ander.
10:08
He's really not going to be anything special,
218
608805
2188
Hij zal niks bijzonders zijn
10:11
and the reason, of course, is that there is no market
219
611017
3172
en dat komt natuurlijk omdat er geen markt is
10:14
for him to scale his incredible talents across.
220
614213
2786
voor zijn ongelooflijke talent.
10:17
So access to this market is really critical to us as individuals,
221
617023
3470
Toegang tot die markt is dus cruciaal voor ons als individuen,
10:20
and also to the entire system in terms of it being sustainable.
222
620517
4022
maar ook voor de continuïteit van het systeem als geheel.
10:25
So the question then becomes: What exactly could we do about this?
223
625063
3844
De vraag wordt dan ook: wat kunnen we hier eigenlijk aan doen?
10:29
And I think you can view this through a very utopian framework.
224
629285
3232
Ik denk dat je hiernaar kunt kijken op een nogal utopische manier.
10:32
You can imagine a future where we all have to work less,
225
632541
2643
We kunnen ons een toekomst voorstellen waarin we minder hoeven te werken,
10:35
we have more time for leisure,
226
635208
3001
meer vrije tijd hebben,
10:38
more time to spend with our families,
227
638233
1928
meer tijd voor ons gezin,
10:40
more time to do things that we find genuinely rewarding
228
640185
3255
meer tijd om de dingen te doen die ons echt voldoening geven, enzovoort.
10:43
and so forth.
229
643464
1157
10:44
And I think that's a terrific vision.
230
644645
1855
En dat vind ik een fantastisch vooruitzicht.
10:46
That's something that we should absolutely strive to move toward.
231
646524
3629
Dat is iets waar we absoluut naar zouden moeten streven.
Maar tegelijkertijd denk ik dat we realistisch moeten zijn
10:50
But at the same time, I think we have to be realistic,
232
650177
2676
10:52
and we have to realize
233
652877
1393
en moeten beseffen dat we zeer waarschijnlijk te maken gaan krijgen
10:54
that we're very likely to face a significant income distribution problem.
234
654294
4860
met een aanzienlijk probleem rondom de verdeling van inkomen.
10:59
A lot of people are likely to be left behind.
235
659178
2967
Er zullen waarschijnlijk veel mensen zijn die niet mee kunnen komen.
En ik denk dat we, om dat probleem op te lossen,
11:03
And I think that in order to solve that problem,
236
663186
2404
11:05
we're ultimately going to have to find a way
237
665614
2098
uiteindelijk een manier zullen moeten vinden
11:07
to decouple incomes from traditional work.
238
667736
2606
om inkomen los te koppelen van traditioneel werk.
11:10
And the best, more straightforward way I know to do that
239
670366
2866
En de beste, meest eenvoudige manier die ik daarvoor ken,
11:13
is some kind of a guaranteed income or universal basic income.
240
673256
3568
is in enige vorm van gegarandeerd inkomen of algemeen basisinkomen.
11:16
Now, basic income is becoming a very important idea.
241
676848
2488
Het idee van een basisinkomen is flink aan het opkomen.
11:19
It's getting a lot of traction and attention,
242
679360
2139
Het staat sterk in de belangstelling,
11:21
there are a lot of important pilot projects
243
681523
2273
er lopen veel grote pilotprojecten en experimenten, over de hele wereld.
11:23
and experiments going on throughout the world.
244
683820
2175
11:26
My own view is that a basic income is not a panacea;
245
686628
3200
Naar mijn mening is een basisinkomen geen haarlemmerolie;
11:29
it's not necessarily a plug-and-play solution,
246
689852
2532
het is niet direct een plug-and-play-oplossing,
11:32
but rather, it's a place to start.
247
692408
1635
maar eerder een startpunt.
Een idee waarop we kunnen voortborduren en dat we kunnen verfijnen.
11:34
It's an idea that we can build on and refine.
248
694067
2782
11:36
For example, one thing that I have written quite a lot about
249
696873
2817
Zo is er één onderwerp waarover ik vrij veel heb geschreven
11:39
is the possibility of incorporating explicit incentives into a basic income.
250
699714
4592
en dat is over het inbouwen van specifieke prikkels in het basisinkomen.
11:44
To illustrate that,
251
704930
1169
Om te illustreren hoe dat werkt,
11:46
imagine that you are a struggling high school student.
252
706123
2768
stel je even voor dat je een ploeterende middelbare scholier bent.
11:48
Imagine that you are at risk of dropping out of school.
253
708915
2834
Er is een kans dat je stopt met school.
Ga er dan eens even vanuit dat je weet dat op een bepaald moment in de toekomst,
11:52
And yet, suppose you know that at some point in the future,
254
712289
3378
11:55
no matter what,
255
715691
1224
wat er verder ook gebeurt,
11:56
you're going to get the same basic income as everyone else.
256
716939
3697
jij hetzelfde basisinkomen zult krijgen als ieder ander.
12:00
Now, to my mind, that creates a very perverse incentive
257
720660
3042
Zoiets vormt in mijn optiek een nogal perverse prikkel voor jou
12:03
for you to simply give up and drop out of school.
258
723726
2497
om het gewoon op te geven en van school te gaan.
Dus, zou ik zeggen, laten we het niet op die manier doen.
12:06
So I would say, let's not structure things that way.
259
726247
2505
12:08
Instead, let's pay people who graduate from high school somewhat more
260
728776
5316
Laten we in plaats daarvan degenen die hun middelbare school afmaken
iets meer betalen dan degenen die er gewoon mee ophouden.
12:14
than those who simply drop out.
261
734116
1696
En dat idee van prikkels inbouwen in het basisinkomen
12:16
And we can take that idea of building incentives into a basic income,
262
736329
3478
12:19
and maybe extend it to other areas.
263
739831
1667
kunnen we misschien uitbreiden naar andere terreinen.
12:21
For example, we might create an incentive to work in the community
264
741522
3577
Zo kunnen we een prikkel inbouwen
zodat je gemeenschapswerk gaat doen, anderen gaat helpen,
12:25
to help others,
265
745123
1158
12:26
or perhaps to do positive things for the environment,
266
746305
3064
of misschien positieve dingen voor het milieu gaat doen, enzovoort.
12:29
and so forth.
267
749393
1170
12:30
So by incorporating incentives into a basic income,
268
750587
3011
Dus door prikkels in te bouwen in een basisinkomen
12:33
we might actually improve it,
269
753622
1629
verbeteren we het systeem misschien,
12:35
and also, perhaps, take at least a couple of steps
270
755275
2626
en zetten we ook, wellicht, op zijn minst een aantal stappen
12:37
towards solving another problem
271
757925
2425
in de richting van de oplossing van een ander probleem,
12:40
that I think we're quite possibly going to face in the future,
272
760374
2944
waar we denk ik waarschijnlijk tegenaan zullen lopen in de toekomst,
12:43
and that is, how do we all find meaning and fulfillment,
273
763342
3752
en dat is: hoe vinden we met z'n allen zin en voldoening
12:47
and how do we occupy our time
274
767118
2318
en hoe besteden we onze tijd
12:49
in a world where perhaps there's less demand for traditional work?
275
769460
4349
in een wereld waarin er misschien minder vraag is naar traditioneel werk?
12:54
So by extending and refining a basic income,
276
774201
2805
Door het idee van een basisinkomen uit te breiden en te verfijnen,
12:57
I think we can make it look better,
277
777030
2336
wordt het er beter op, denk ik,
12:59
and we can also, perhaps, make it more politically and socially acceptable
278
779390
5298
en maken we het misschien ook politiek en sociaal meer aanvaardbaar en haalbaar --
13:04
and feasible --
279
784712
1164
13:05
and, of course, by doing that,
280
785900
1474
en daardoor vergroten we natuurlijk ook de kans dat het er uiteindelijk komt.
13:07
we increase the odds that it will actually come to be.
281
787398
3450
13:11
I think one of the most fundamental,
282
791731
2270
Ik denk dat een van de meest fundamentele, bijna instinctieve bezwaren
13:14
almost instinctive objections
283
794025
2168
13:16
that many of us have to the idea of a basic income,
284
796217
3453
die veel van ons hebben tegen het idee van een basisinkomen,
13:19
or really to any significant expansion of the safety net,
285
799694
3732
of eigenlijk tegen elke substantiële uitbreiding van het sociale vangnet,
13:23
is this fear that we're going to end up with too many people
286
803450
3760
de angst is dat er te veel mensen gaan meerijden op de economische kar,
13:27
riding in the economic cart,
287
807234
1738
13:28
and not enough people pulling that cart.
288
808996
2047
en dat er te weinig mensen zijn om die kar te trekken.
13:31
And yet, really, the whole point I'm making here, of course,
289
811067
2834
Toch is het hele punt dat ik hier eigenlijk maak natuurlijk,
13:33
is that in the future,
290
813925
1361
dat in de toekomst machines hoe langer hoe meer in staat zullen zijn
13:35
machines are increasingly going to be capable of pulling that cart for us.
291
815310
3826
die kar voor ons te trekken.
Dat zou ons meer mogelijkheden moeten geven
13:39
That should give us more options
292
819160
1990
13:41
for the way we structure our society and our economy,
293
821174
3811
voor de manier waarop we onze maatschappij en onze economie inrichten.
13:45
And I think eventually, it's going to go beyond simply being an option,
294
825009
3442
En ik denk dat het uiteindelijk gewoon geen keuze meer zal zijn,
13:48
and it's going to become an imperative.
295
828475
1901
maar een noodzaak.
De reden is natuurlijk dat dit alles onze maatschappij onder druk zal zetten
13:50
The reason, of course, is that all of this is going to put
296
830400
2822
13:53
such a degree of stress on our society,
297
833246
2014
en omdat banen het mechanisme zijn dat consumenten de koopkracht verschaft
13:55
and also because jobs are that mechanism
298
835284
2514
13:57
that gets purchasing power to consumers
299
837822
1965
13:59
so they can then drive the economy.
300
839811
2516
om de economie aan te drijven.
14:02
If, in fact, that mechanism begins to erode in the future,
301
842351
3547
Als dat mechanisme in de toekomst begint te haperen,
14:05
then we're going to need to replace it with something else
302
845922
2815
dan zullen we het moeten vervangen door iets anders
14:08
or we're going to face the risk
303
848761
1563
of het risico onder ogen moeten zien
dat ons hele systeem misschien niet meer houdbaar is.
14:10
that our whole system simply may not be sustainable.
304
850348
2567
14:12
But the bottom line here is that I really think
305
852939
2382
De conclusie is dat ik echt denk dat deze problemen oplossen,
14:15
that solving these problems,
306
855345
2436
14:17
and especially finding a way to build a future economy
307
857805
3400
en met name een manier proberen te vinden om aan een toekomstige economie te bouwen
14:21
that works for everyone,
308
861229
2013
die voor iedereen werkt, in alle lagen van onze maatschappij,
14:23
at every level of our society,
309
863266
1861
14:25
is going to be one of the most important challenges that we all face
310
865151
3540
een van de belangrijkste uitdagingen is waarvoor we met z'n allen staan
14:28
in the coming years and decades.
311
868715
2043
in de jaren en decennia die komen.
14:30
Thank you very much.
312
870782
1248
Dank jullie wel.
14:32
(Applause)
313
872054
1860
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7