3 myths about the future of work (and why they're not true) | Daniel Susskind

169,353 views

2018-04-05 ・ TED


New videos

3 myths about the future of work (and why they're not true) | Daniel Susskind

169,353 views ・ 2018-04-05

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Morgane Quilfen Relecteur: Emmanuel Parfond
00:12
Automation anxiety has been spreading lately,
0
12760
3376
L’anxiété au sujet de l’automatisation s’est récemment répandue,
00:16
a fear that in the future,
1
16160
2656
une peur qu’à l’avenir
00:18
many jobs will be performed by machines
2
18840
2456
de nombreuses tâches soient faites par des machines
00:21
rather than human beings,
3
21320
1336
plutôt que des êtres humains,
00:22
given the remarkable advances that are unfolding
4
22680
2936
étant données les remarquables avancées qui se produisent
00:25
in artificial intelligence and robotics.
5
25640
2776
en intelligence artificielle et en robotique.
00:28
What's clear is that there will be significant change.
6
28440
2816
Ce qui est clair, c’est qu’il y aura d’importants changements.
00:31
What's less clear is what that change will look like.
7
31280
3616
Ce qui est moins clair, c’est à quoi ces changements ressembleront.
00:34
My research suggests that the future is both troubling and exciting.
8
34920
4936
Mes recherches suggèrent que l’avenir est à la fois inquiétant et prometteur.
00:39
The threat of technological unemployment is real,
9
39880
3736
La menace du chômage technologique est réelle,
00:43
and yet it's a good problem to have.
10
43640
2056
mais c’est un bon problème à avoir.
00:45
And to explain how I came to that conclusion,
11
45720
3216
Pour expliquer comment j’en suis venu à cette conclusion,
00:48
I want to confront three myths
12
48960
2536
je veux confronter trois mythes
00:51
that I think are currently obscuring our vision of this automated future.
13
51520
4280
qui, à mon avis, obscurcissent notre vision de cet avenir automatisé.
00:56
A picture that we see on our television screens,
14
56880
2336
Une image que nous voyons sur nos écrans de télé,
00:59
in books, in films, in everyday commentary
15
59240
2216
dans les livres, les films, les commentaires
01:01
is one where an army of robots descends on the workplace
16
61480
3696
est celle d’une armée de robots envahissant le monde du travail
01:05
with one goal in mind:
17
65200
1376
avec un objectif en tête :
01:06
to displace human beings from their work.
18
66600
2496
remplacer les êtres humains dans leur travail.
01:09
And I call this the Terminator myth.
19
69120
2696
J’appelle cela le mythe de Terminator.
01:11
Yes, machines displace human beings from particular tasks,
20
71840
3976
Oui, les machines remplacent les humains dans des tâches particulières,
01:15
but they don't just substitute for human beings.
21
75840
2256
mais elles ne remplacent pas les êtres humains.
01:18
They also complement them in other tasks,
22
78120
1976
Elles les complètent dans d’autres tâches,
01:20
making that work more valuable and more important.
23
80120
3616
augmentant la valeur et l’importance de ce travail.
01:23
Sometimes they complement human beings directly,
24
83760
3336
Parfois, elles complètent les êtres humains directement,
01:27
making them more productive or more efficient at a particular task.
25
87120
4016
en les rendant plus productifs, plus efficaces pour une tâche en particulier.
01:31
So a taxi driver can use a satnav system to navigate on unfamiliar roads.
26
91160
4616
Un chauffeur de taxi peut utiliser le système de navigation satellite
sur des routes inconnues.
01:35
An architect can use computer-assisted design software
27
95800
3336
Un architecte peut utiliser un logiciel de conception assistée
01:39
to design bigger, more complicated buildings.
28
99160
3096
pour concevoir des bâtiments plus grands et plus compliqués.
01:42
But technological progress doesn't just complement human beings directly.
29
102280
3696
Le progrès technologique ne complémente pas toujours
les humains de façon directe.
01:46
It also complements them indirectly, and it does this in two ways.
30
106000
3336
Il les complémente indirectement et le fait de deux façons.
01:49
The first is if we think of the economy as a pie,
31
109360
3336
Si nous voyons l’économie comme un gâteau,
01:52
technological progress makes the pie bigger.
32
112720
2896
le progrès technologique agrandit le gâteau.
01:55
As productivity increases, incomes rise and demand grows.
33
115640
3856
Quand la productivité augmente, les revenus et la demande augmentent.
01:59
The British pie, for instance,
34
119520
1776
Le gâteau britannique, par exemple,
02:01
is more than a hundred times the size it was 300 years ago.
35
121320
3960
est plus de 100 fois plus gros qu’il y a 300 ans.
02:05
And so people displaced from tasks in the old pie
36
125920
3216
Les gens évincés de tâches dans l’ancien gâteau
02:09
could find tasks to do in the new pie instead.
37
129160
2720
peuvent trouver des tâches dans le nouveau gâteau.
02:12
But technological progress doesn't just make the pie bigger.
38
132800
3936
Mais le progrès technologique ne fait pas qu’agrandir le gâteau.
02:16
It also changes the ingredients in the pie.
39
136760
2856
Il en change aussi les ingrédients.
02:19
As time passes, people spend their income in different ways,
40
139640
3456
Le temps passant, les gens dépensent leurs revenus différemment,
02:23
changing how they spread it across existing goods,
41
143120
2816
changeant leur dispersion parmi les produits existants
02:25
and developing tastes for entirely new goods, too.
42
145960
3216
et développant des goûts pour de nouveaux produits.
02:29
New industries are created,
43
149200
1776
De nouvelles industries sont créées,
02:31
new tasks have to be done
44
151000
1816
de nouvelles tâches doivent être réalisées
02:32
and that means often new roles have to be filled.
45
152840
2536
et souvent, de nouveaux rôles doivent être remplis.
02:35
So again, the British pie:
46
155400
1496
Le gâteau britannique :
02:36
300 years ago, most people worked on farms,
47
156920
2976
il y a 300 ans, les gens travaillaient surtout dans des fermes ;
02:39
150 years ago, in factories,
48
159920
2336
il y a 150 ans, dans des usines ;
02:42
and today, most people work in offices.
49
162280
2856
aujourd’hui, la plupart des gens travaillent dans des bureaux.
02:45
And once again, people displaced from tasks in the old bit of pie
50
165160
4056
Les gens évincés de tâches dans l’ancien gâteau
02:49
could tumble into tasks in the new bit of pie instead.
51
169240
2800
pouvaient tomber sur des tâches dans le nouveau.
02:52
Economists call these effects complementarities,
52
172720
3336
Les économistes appellent ces effets des complémentarités,
02:56
but really that's just a fancy word to capture the different way
53
176080
3256
mais ce n’est qu’un mot raffiné pour capturer la façon différente
02:59
that technological progress helps human beings.
54
179360
3136
dont le progrès technologique aide les êtres humains.
03:02
Resolving this Terminator myth
55
182520
2096
Résoudre ce mythe de Terminator
03:04
shows us that there are two forces at play:
56
184640
2336
nous montre qu’il y a deux forces en jeu :
03:07
one, machine substitution that harms workers,
57
187000
3536
la substitution par les machines qui nuit aux travailleurs,
03:10
but also these complementarities that do the opposite.
58
190560
2880
mais aussi ces complémentarités qui font le contraire.
03:13
Now the second myth,
59
193960
1376
Le second mythe
03:15
what I call the intelligence myth.
60
195360
2280
que j’appelle le mythe de l’intelligence.
03:18
What do the tasks of driving a car, making a medical diagnosis
61
198440
4896
Qu’ont en commun les tâches de conduite d’une voiture,
d’établissement d’un diagnostic et d’identification éclair d’un oiseau ?
03:23
and identifying a bird at a fleeting glimpse have in common?
62
203360
2920
03:27
Well, these are all tasks that until very recently,
63
207280
2976
Ce sont des tâches que, jusqu’à très récemment,
03:30
leading economists thought couldn't readily be automated.
64
210280
3336
d’éminents économiques pensaient ne pas être facilement automatisables.
03:33
And yet today, all of these tasks can be automated.
65
213640
3176
Pourtant, aujourd’hui, toutes ces tâches peuvent être automatisées.
03:36
You know, all major car manufacturers have driverless car programs.
66
216840
3496
Les grands constructeurs automobiles ont des programmes de voitures autonomes.
03:40
There's countless systems out there that can diagnose medical problems.
67
220360
3976
Il y a d’innombrables systèmes pouvant diagnostiquer des problèmes médicaux.
03:44
And there's even an app that can identify a bird
68
224360
2416
Il y a même une application qui peut identifier un oiseau
03:46
at a fleeting glimpse.
69
226800
1200
en un éclair.
03:48
Now, this wasn't simply a case of bad luck on the part of economists.
70
228920
4376
Ce n’était pas de la malchance de la part des économistes.
03:53
They were wrong,
71
233320
1296
Ils avaient tort
03:54
and the reason why they were wrong is very important.
72
234640
2496
et la raison à cela est très importante.
03:57
They've fallen for the intelligence myth,
73
237160
2256
Ils ont cru au mythe de l’intelligence,
03:59
the belief that machines have to copy the way
74
239440
2896
la croyance selon laquelle les machines doivent copier la façon
04:02
that human beings think and reason
75
242360
2056
de penser et de raisonner des êtres humains
04:04
in order to outperform them.
76
244440
1776
afin de les surpasser.
04:06
When these economists were trying to figure out
77
246240
2216
Quand ces économistes essayaient de déterminer
04:08
what tasks machines could not do,
78
248480
1856
quelle tâche les machines ne savaient pas faire,
04:10
they imagined the only way to automate a task
79
250360
2136
ils pensaient que pour automatiser une tâche,
04:12
was to sit down with a human being,
80
252520
1816
il fallait prendre un être humain,
04:14
get them to explain to you how it was they performed a task,
81
254360
3536
qu’il vous explique comment il effectuait une tâche
04:17
and then try and capture that explanation
82
257920
2656
puis essayer de refléter cette explication
04:20
in a set of instructions for a machine to follow.
83
260600
2776
dans un jeu d’instructions qu’une machine suivrait.
04:23
This view was popular in artificial intelligence at one point, too.
84
263400
4176
Cette vision a aussi été populaire en intelligence artificielle.
04:27
I know this because Richard Susskind,
85
267600
2176
Je le sais car Richard Susskind,
04:29
who is my dad and my coauthor,
86
269800
2856
qui est mon père et mon coauteur,
04:32
wrote his doctorate in the 1980s on artificial intelligence and the law
87
272680
4056
a eu son doctorat dans les années 80
sur le sujet de l’intelligence artificielle et la loi
04:36
at Oxford University,
88
276760
1416
à l’université d’Oxford
04:38
and he was part of the vanguard.
89
278200
1576
et était un avant-gardiste.
04:39
And with a professor called Phillip Capper
90
279800
2256
Avec un professeur, Phillip Capper,
04:42
and a legal publisher called Butterworths,
91
282080
2096
et un éditeur juridique, Butterworths,
04:44
they produced the world's first commercially available
92
284200
5896
ils ont créé la première intelligence artificielle en droit
04:50
artificial intelligence system in the law.
93
290120
2776
disponible sur le marché.
04:52
This was the home screen design.
94
292920
2616
C’était le design de la page d’accueil.
04:55
He assures me this was a cool screen design at the time.
95
295560
2696
Il m’a assuré que c’était un design cool à l’époque.
04:58
(Laughter)
96
298280
1016
(Rires)
04:59
I've never been entirely convinced.
97
299320
1696
Il ne m'a jamais convaincu.
05:01
He published it in the form of two floppy disks,
98
301040
2616
Il l’a publié sous la forme de deux disquettes,
05:03
at a time where floppy disks genuinely were floppy,
99
303680
3536
à l’époque où les disquettes étaient molles,
05:07
and his approach was the same as the economists':
100
307240
2336
et il avait la même approche que les économistes :
05:09
sit down with a lawyer,
101
309600
1256
prenez un avocat,
05:10
get her to explain to you how it was she solved a legal problem,
102
310880
3176
demandez-lui de vous expliquer comment résoudre un problème légal
05:14
and then try and capture that explanation in a set of rules for a machine to follow.
103
314080
5376
et essayez de refléter cette explication dans un jeu de règles que la machine suit.
05:19
In economics, if human beings could explain themselves in this way,
104
319480
3616
En économie, si les êtres humains savent s’expliquer ainsi,
05:23
the tasks are called routine, and they could be automated.
105
323120
3296
les tâches sont appelées des routines et peuvent être automatisées.
05:26
But if human beings can't explain themselves,
106
326440
2336
Mais si les êtres humains ne savent pas s’expliquer,
05:28
the tasks are called non-routine, and they're thought to be out reach.
107
328800
4256
les tâches sont des non routines et sont vues comme hors d’atteinte.
05:33
Today, that routine-nonroutine distinction is widespread.
108
333080
3296
Aujourd’hui, cette distinction entre routine et non routine est répandue.
05:36
Think how often you hear people say to you
109
336400
2056
Pensez à combien vous entendez des gens dire
05:38
machines can only perform tasks that are predictable or repetitive,
110
338480
3256
que les machines effectuent juste des tâches prévisibles ou répétitives,
05:41
rules-based or well-defined.
111
341760
1896
suivant des règles ou bien définies.
05:43
Those are all just different words for routine.
112
343680
2936
Ce ne sont que des mots différents pour désigner une routine.
05:46
And go back to those three cases that I mentioned at the start.
113
346640
3976
Ce sont des cas classiques de tâches de non routine.
05:50
Those are all classic cases of nonroutine tasks.
114
350640
2896
Revenons-en à ces trois cas que j’ai évoqués au début.
05:53
Ask a doctor, for instance, how she makes a medical diagnosis,
115
353560
2976
Demandez à un médecin comment il établit un diagnostic médical
05:56
and she might be able to give you a few rules of thumb,
116
356560
2656
et il pourra vous donner quelques règles de bon sens,
05:59
but ultimately she'd struggle.
117
359240
1656
mais il aura du mal.
06:00
She'd say it requires things like creativity and judgment and intuition.
118
360920
4816
Il dira que cela requiert créativité, jugement et intuition.
06:05
And these things are very difficult to articulate,
119
365760
2376
Ce sont des choses difficiles à formuler
06:08
and so it was thought these tasks would be very hard to automate.
120
368160
3096
alors nous pensions que ces tâches seraient difficiles à automatiser.
06:11
If a human being can't explain themselves,
121
371280
2536
Si un être humain ne sait pas l’expliquer,
06:13
where on earth do we begin in writing a set of instructions
122
373840
2896
où commencer pour écrire un jeu d’instructions
06:16
for a machine to follow?
123
376760
1200
que la machine puisse suivre ?
06:18
Thirty years ago, this view was right,
124
378640
2576
Il y a 30 ans, cette perspective était correcte,
06:21
but today it's looking shaky,
125
381240
2136
mais aujourd’hui, elle semble douteuse
06:23
and in the future it's simply going to be wrong.
126
383400
2256
et à l’avenir, elle sera fausse.
06:25
Advances in processing power, in data storage capability
127
385680
3256
Les progrès en puissance de traitement, en capacité de stockage de données
06:28
and in algorithm design
128
388960
1656
et en conception algorithmique
06:30
mean that this routine-nonroutine distinction
129
390640
2496
rendent cette distinction entre routine et non routine
06:33
is diminishingly useful.
130
393160
1736
de moins en moins utile.
06:34
To see this, go back to the case of making a medical diagnosis.
131
394920
3256
Pour voir cela, revenez-en à l’établissement d’un diagnostic médial.
06:38
Earlier in the year,
132
398200
1376
Cette année,
06:39
a team of researchers at Stanford announced they'd developed a system
133
399600
3296
une équipe de chercheurs à Stanford a annoncé avoir développé un système
06:42
which can tell you whether or not a freckle is cancerous
134
402920
3056
qui peut vous dire si une tache de rousseur est cancéreuse
06:46
as accurately as leading dermatologists.
135
406000
2680
avec la même exactitude que les meilleurs dermatologues.
06:49
How does it work?
136
409280
1256
Comment cela marche-t-il ?
06:50
It's not trying to copy the judgment or the intuition of a doctor.
137
410560
5296
Il n’essaye pas de copier le jugement ou l’intuition d’un docteur.
06:55
It knows or understands nothing about medicine at all.
138
415880
3136
Il ne connaît ni ne comprend rien du tout à la médecine.
06:59
Instead, it's running a pattern recognition algorithm
139
419040
2576
Il exécute un algorithme de reconnaissance de formes,
07:01
through 129,450 past cases,
140
421640
4656
parcourant 129 450 cas déjà traités
07:06
hunting for similarities between those cases
141
426320
3096
à la recherche de similarités entre ces cas-là
07:09
and the particular lesion in question.
142
429440
2080
et la lésion en question.
07:12
It's performing these tasks in an unhuman way,
143
432080
3216
Il effectue ces tâches de façon non humaine,
07:15
based on the analysis of more possible cases
144
435320
2336
en se reposant sur l’analyse de plus de cas possibles
07:17
than any doctor could hope to review in their lifetime.
145
437680
2616
qu’un docteur ne peut espérer examiner durant sa vie.
07:20
It didn't matter that that human being,
146
440320
1896
Peu importe que cet être humain,
07:22
that doctor, couldn't explain how she'd performed the task.
147
442240
2800
ce docteur, n’ait pas su expliquer comment il a effectué la tâche.
07:25
Now, there are those who dwell upon that the fact
148
445640
2336
Il y a ceux qui s’attardent sur le fait
07:28
that these machines aren't built in our image.
149
448000
2296
que ces machines ne sont pas conçues à notre image.
07:30
As an example, take IBM's Watson,
150
450320
2056
Par exemple, prenez Watson d’IBM,
07:32
the supercomputer that went on the US quiz show "Jeopardy!" in 2011,
151
452400
4856
le superordinateur qui a participé à un jeu télévisé américain en 2011
07:37
and it beat the two human champions at "Jeopardy!"
152
457280
3016
et a battu deux champions humains du jeu.
07:40
The day after it won,
153
460320
1696
Le jour après sa victoire,
07:42
The Wall Street Journal ran a piece by the philosopher John Searle
154
462040
3296
le Wall Street Journal a publié un article du philosophe John Searle
07:45
with the title "Watson Doesn't Know It Won on 'Jeopardy!'"
155
465360
3376
ayant pour titre « Watson ignore qu’il a gagné à Jeopardy »
07:48
Right, and it's brilliant, and it's true.
156
468760
1976
C’est brillant et c’est vrai.
07:50
You know, Watson didn't let out a cry of excitement.
157
470760
2456
Watson n’a pas crié de joie.
07:53
It didn't call up its parents to say what a good job it had done.
158
473240
3096
Il n’a pas appelé ses parents pour dire ce qu’il avait accompli.
07:56
It didn't go down to the pub for a drink.
159
476360
2336
Il n’est pas allé boire un verre dans un bar.
07:58
This system wasn't trying to copy the way that those human contestants played,
160
478720
4456
Ce système n’essayait pas d’imiter la manière de jouer des humains,
08:03
but it didn't matter.
161
483200
1256
mais peu importe.
08:04
It still outperformed them.
162
484480
1976
Il les a quand même battus.
08:06
Resolving the intelligence myth
163
486480
1576
Résoudre le mythe de l’intelligence
08:08
shows us that our limited understanding about human intelligence,
164
488080
3376
montre que notre compréhension limitée de l’intelligence humaine,
08:11
about how we think and reason,
165
491480
1896
de notre façon de penser et raisonner,
08:13
is far less of a constraint on automation than it was in the past.
166
493400
3456
est moins une contrainte en automatisation qu’elle ne l’était auparavant.
08:16
What's more, as we've seen,
167
496880
1496
De plus, nous l’avons vu,
08:18
when these machines perform tasks differently to human beings,
168
498400
3416
quand ces machines réalisent des tâches différemment des êtres humains,
08:21
there's no reason to think
169
501840
1256
il n’y a pas de raison de penser
08:23
that what human beings are currently capable of doing
170
503120
2536
que ce que les êtres humains sont capables de faire
08:25
represents any sort of summit
171
505680
1456
représente le sommet
08:27
in what these machines might be capable of doing in the future.
172
507160
3000
de ce que ces machines pourraient être capables de faire à l’avenir.
08:31
Now the third myth,
173
511040
1256
Le troisième mythe
08:32
what I call the superiority myth.
174
512320
2456
est ce que j’appelle le mythe de la supériorité.
08:34
It's often said that those who forget
175
514800
2216
On dit souvent que ceux qui oublient
08:37
about the helpful side of technological progress,
176
517040
2456
le côté utile du progrès technologique,
08:39
those complementarities from before,
177
519520
2496
ces complémentarités mentionnées auparavant,
08:42
are committing something known as the lump of labor fallacy.
178
522040
3040
se prêtent au sophisme de la masse fixe de travail.
08:45
Now, the problem is the lump of labor fallacy
179
525840
2295
Le sophisme de la masse fixe de travail
08:48
is itself a fallacy,
180
528159
1496
est lui-même un sophisme
08:49
and I call this the lump of labor fallacy fallacy,
181
529679
2937
que j’appelle le sophisme du sophisme de la masse fixe de travail,
08:52
or LOLFF, for short.
182
532640
2320
ou SSMFT, pour faire court.
08:56
Let me explain.
183
536000
1416
Laissez-moi expliquer.
08:57
The lump of labor fallacy is a very old idea.
184
537440
2136
Ce sophisme est une idée très ancienne.
08:59
It was a British economist, David Schloss, who gave it this name in 1892.
185
539600
4216
C’est un économiste britannique, David Schloss,
qui lui a donné son nom en 1892.
09:03
He was puzzled to come across a dock worker
186
543840
2816
Il était perplexe d’avoir rencontré un docker
09:06
who had begun to use a machine to make washers,
187
546680
2336
qui utilisait une machine pour faire des rondelles,
09:09
the small metal discs that fasten on the end of screws.
188
549040
3320
les petits disques en métal se plaçant au bout des vis.
09:13
And this dock worker felt guilty for being more productive.
189
553000
3760
Ce docker se sentait coupable d’être plus productif.
09:17
Now, most of the time, we expect the opposite,
190
557560
2176
La plupart du temps, on s’attend au contraire,
09:19
that people feel guilty for being unproductive,
191
559760
2216
se sentir coupable de ne pas être productif,
09:22
you know, a little too much time on Facebook or Twitter at work.
192
562000
3016
un peu trop de temps passé sur Facebook ou Twitter au travail.
09:25
But this worker felt guilty for being more productive,
193
565040
2536
Mais ce docker se sentait coupable d’être plus productif
09:27
and asked why, he said, "I know I'm doing wrong.
194
567600
2296
et quant au pourquoi, il a dit : « J’agis mal.
09:29
I'm taking away the work of another man."
195
569920
2040
Je prends le travail d’un autre homme. »
09:32
In his mind, there was some fixed lump of work
196
572760
2976
Dans son esprit, il y avait une masse de travail fixe
09:35
to be divided up between him and his pals,
197
575760
2136
à diviser entre lui et ses camarades
09:37
so that if he used this machine to do more,
198
577920
2056
et en utilisant la machine pour faire plus,
09:40
there'd be less left for his pals to do.
199
580000
2016
ses camarades auraient moins à faire.
09:42
Schloss saw the mistake.
200
582040
1856
Schloss a vu l’erreur.
09:43
The lump of work wasn't fixed.
201
583920
1856
La masse de travail n’était pas fixe.
09:45
As this worker used the machine and became more productive,
202
585800
2816
Ce docker utilisant la machine et devenant plus productif,
09:48
the price of washers would fall, demand for washers would rise,
203
588640
2976
le prix des rondelles chuterait, la demande augmenterait,
09:51
more washers would have to be made,
204
591640
1696
il faudrait faire plus de rondelles
09:53
and there'd be more work for his pals to do.
205
593360
2096
et ses camarades auraient plus de travail.
09:55
The lump of work would get bigger.
206
595480
1696
La masse de travail augmenterait.
09:57
Schloss called this "the lump of labor fallacy."
207
597200
2680
Schloss a appelé cela « le sophisme de la masse fixe de travail ».
10:00
And today you hear people talk about the lump of labor fallacy
208
600560
2936
Les gens parlent du sophisme de la masse fixe de travail
10:03
to think about the future of all types of work.
209
603520
2216
pour l’avenir de tous types de travaux.
10:05
There's no fixed lump of work out there to be divided up
210
605760
2656
Il n’y a pas de masse fixe de travail à diviser
10:08
between people and machines.
211
608440
1376
entre les gens et les machines.
10:09
Yes, machines substitute for human beings, making the original lump of work smaller,
212
609840
4656
Oui, les machines substituent les humains, diminuant la masse de travail initiale,
10:14
but they also complement human beings,
213
614520
1856
mais elles complémentent les humains
10:16
and the lump of work gets bigger and changes.
214
616400
2096
et la masse de travail augmente et change.
10:19
But LOLFF.
215
619760
1616
Mais SSMFT.
10:21
Here's the mistake:
216
621400
1376
Voici l’erreur :
10:22
it's right to think that technological progress
217
622800
2216
le progrès technologique
10:25
makes the lump of work to be done bigger.
218
625040
1976
n’augmente pas la masse de travail.
10:27
Some tasks become more valuable. New tasks have to be done.
219
627040
3016
Certaines tâches ont plus de valeur, de nouvelles tâches émergent.
10:30
But it's wrong to think that necessarily,
220
630080
2536
Il est faux de penser
que les humains seront nécessairement mieux placés pour réaliser ces tâches.
10:32
human beings will be best placed to perform those tasks.
221
632640
3256
10:35
And this is the superiority myth.
222
635920
1616
C’est le mythe de la supériorité.
10:37
Yes, the lump of work might get bigger and change,
223
637560
3416
Oui, la masse de travail peut augmenter et changer,
10:41
but as machines become more capable,
224
641000
1976
mais les machines devenant plus compétentes,
10:43
it's likely that they'll take on the extra lump of work themselves.
225
643000
3896
il est probable qu’elles assument cette masse de travail supplémentaire.
10:46
Technological progress, rather than complement human beings,
226
646920
3256
Le progrès technologique, au lieu de complémenter les humains,
10:50
complements machines instead.
227
650200
1880
complémente les machines.
10:52
To see this, go back to the task of driving a car.
228
652920
3016
Pour l’observer, revenez-en au fait de conduire une voiture.
10:55
Today, satnav systems directly complement human beings.
229
655960
4096
Les systèmes de navigation par satellite complémentent les êtres humains.
11:00
They make some human beings better drivers.
230
660080
2280
Ils font de certains humains de meilleurs conducteurs.
11:02
But in the future,
231
662920
1256
Mais à l’avenir,
11:04
software is going to displace human beings from the driving seat,
232
664200
3096
le logiciel va remplacer les êtres humains sur le siège conducteur
11:07
and these satnav systems, rather than complement human beings,
233
667320
2936
ces systèmes de navigation ne complémenteront pas les humains,
11:10
will simply make these driverless cars more efficient,
234
670280
2536
mais amélioreront les voitures sans conducteur,
11:12
helping the machines instead.
235
672840
1536
aidant plutôt les machines.
11:14
Or go to those indirect complementarities that I mentioned as well.
236
674400
4056
Revenez-en à ces complémentarités indirectes également mentionnées.
11:18
The economic pie may get larger,
237
678480
1776
Le gâteau économique s’agrandira,
11:20
but as machines become more capable,
238
680280
1736
mais les machines s’améliorant,
11:22
it's possible that any new demand will fall on goods that machines,
239
682040
3143
les nouvelles demandes pourront être des biens que les machines,
11:25
rather than human beings, are best placed to produce.
240
685207
2649
et non les humains, seront les mieux placées pour produire.
11:27
The economic pie may change,
241
687880
1896
Le gâteau pourrait changer,
11:29
but as machines become more capable,
242
689800
1896
mais, les machines s’améliorant,
11:31
it's possible that they'll be best placed to do the new tasks that have to be done.
243
691720
4856
elles pourraient être mieux placées pour réaliser les tâches nécessaires.
11:36
In short, demand for tasks isn't demand for human labor.
244
696600
3696
En bref, la demande pour des tâches
n’est pas la demande pour du travail humain.
11:40
Human beings only stand to benefit
245
700320
1936
Les humains n’en bénéficieront
11:42
if they retain the upper hand in all these complemented tasks,
246
702280
3816
que s’ils gardent la main sur ces tâches complémentées,
11:46
but as machines become more capable, that becomes less likely.
247
706120
3720
mais les machines s’améliorant, cette probabilité diminue.
11:50
So what do these three myths tell us then?
248
710760
2016
Que nous disent ces trois mythes ?
11:52
Well, resolving the Terminator myth
249
712800
1696
Résoudre le mythe de Terminator
11:54
shows us that the future of work depends upon this balance between two forces:
250
714520
3696
nous montre que l’avenir du travail dépend de cet équilibre entre deux forces :
11:58
one, machine substitution that harms workers
251
718240
3136
la substitution par les machines nuisant aux travailleurs,
12:01
but also those complementarities that do the opposite.
252
721400
2576
mais aussi ces complémentarités qui font le contraire.
12:04
And until now, this balance has fallen in favor of human beings.
253
724000
4040
Jusqu’à maintenant, cet équilibre est en faveur des êtres humains.
12:09
But resolving the intelligence myth
254
729120
1736
Résoudre le mythe de l’intelligence
12:10
shows us that that first force, machine substitution,
255
730880
2496
montre que la substitution par les machines,
12:13
is gathering strength.
256
733400
1296
monte en puissance.
12:14
Machines, of course, can't do everything,
257
734720
1976
Les machines ne savent pas tout faire,
12:16
but they can do far more,
258
736720
1256
mais elles peuvent faire plus,
12:18
encroaching ever deeper into the realm of tasks performed by human beings.
259
738000
4576
empiétant plus sur le royaume des tâches réalisées par des êtres humains.
12:22
What's more, there's no reason to think
260
742600
1896
Il n’y a pas de raison de penser que
12:24
that what human beings are currently capable of
261
744520
2216
ce que les humains peuvent faire actuellement
12:26
represents any sort of finishing line,
262
746760
1856
représente une ligne d’arrivée,
12:28
that machines are going to draw to a polite stop
263
748640
2256
que les machines s’arrêteront poliment
12:30
once they're as capable as us.
264
750920
1816
une fois aussi compétentes que nous.
12:32
Now, none of this matters
265
752760
1536
Rien de tout cela n’importe
12:34
so long as those helpful winds of complementarity
266
754320
2816
tant que ces vents bénéfiques de la complémentarité
12:37
blow firmly enough,
267
757160
1736
soufflent assez fort,
12:38
but resolving the superiority myth
268
758920
1936
mais résoudre le mythe de la supériorité
12:40
shows us that that process of task encroachment
269
760880
3096
montre que ce processus d’empiétement sur les tâches
12:44
not only strengthens the force of machine substitution,
270
764000
3936
ne fait pas que renforcer la force de substitution par les machines,
12:47
but it wears down those helpful complementarities too.
271
767960
3336
mais use également ces complémentarités bénéfiques.
12:51
Bring these three myths together
272
771320
1936
Réunissez ces trois mythes
12:53
and I think we can capture a glimpse of that troubling future.
273
773280
2936
et nous aurons un aperçu de cet avenir inquiétant.
12:56
Machines continue to become more capable,
274
776240
2016
Les machines continuent de s’améliorer,
12:58
encroaching ever deeper on tasks performed by human beings,
275
778280
3656
empiétant de plus en plus sur les tâches réalisées par les êtres humains,
13:01
strengthening the force of machine substitution,
276
781960
2576
augmentant la force de substitution par les machines,
13:04
weakening the force of machine complementarity.
277
784560
3616
amenuisant la force de la complémentarité avec les machines.
13:08
And at some point, that balance falls in favor of machines
278
788200
4296
À un moment donné, cet équilibre sera en saveur des machines
13:12
rather than human beings.
279
792520
2056
plutôt que des êtres humains.
13:14
This is the path we're currently on.
280
794600
1736
C’est le chemin que nous suivons.
13:16
I say "path" deliberately, because I don't think we're there yet,
281
796360
3176
Je dis « chemin » délibérément car nous n’y sommes pas encore,
13:19
but it is hard to avoid the conclusion that this is our direction of travel.
282
799560
3640
mais il est dur d’éviter de conclure que c’est la direction que nous prenons.
13:24
That's the troubling part.
283
804640
1456
C’est la partie inquiétante.
13:26
Let me say now why I think actually this is a good problem to have.
284
806120
3520
Laissez-moi vous dire pourquoi je crois que c’est un bon problème à avoir.
13:30
For most of human history, one economic problem has dominated:
285
810520
3536
Durant la plupart de l’histoire humaine, un problème économique a dominé :
13:34
how to make the economic pie large enough for everyone to live on.
286
814080
4056
comment agrandir assez le gâteau économique pour que tout le monde en vive.
13:38
Go back to the turn of the first century AD,
287
818160
2176
Au début du premier siècle après J.C.,
13:40
and if you took the global economic pie
288
820360
2096
en prenant le gâteau économique mondial
13:42
and divided it up into equal slices for everyone in the world,
289
822480
3296
et en le divisant en parts égales,
13:45
everyone would get a few hundred dollars.
290
825800
2136
chacun aurait quelques centaines de dollars.
13:47
Almost everyone lived on or around the poverty line.
291
827960
2760
Presque tout le monde vivait sous ou autour du seuil de pauvreté.
13:51
And if you roll forward a thousand years,
292
831320
2176
En avançant de 1 000 ans,
13:53
roughly the same is true.
293
833520
1240
c’est toujours à peu près vrai.
13:55
But in the last few hundred years, economic growth has taken off.
294
835680
3576
Mais durant les derniers siècles, la croissance économique a décollé.
13:59
Those economic pies have exploded in size.
295
839280
2376
La taille de ces gâteaux économiques a explosé.
14:01
Global GDP per head,
296
841680
2056
Le PIB mondial par habitant,
14:03
the value of those individual slices of the pie today,
297
843760
3376
la valeur de ces parts individuelles du gâteau d’aujourd’hui
14:07
they're about 10,150 dollars.
298
847160
2816
est d’environ 10 150 dollars.
14:10
If economic growth continues at two percent,
299
850000
2696
Si la croissance économique continue à 2 %,
14:12
our children will be twice as rich as us.
300
852720
2056
nos enfants auront deux fois nos richesses.
14:14
If it continues at a more measly one percent,
301
854800
2296
Si elle continue au rythme d’un pour cent,
14:17
our grandchildren will be twice as rich as us.
302
857120
2656
nos petits-enfants auront deux fois nos richesses.
14:19
By and large, we've solved that traditional economic problem.
303
859800
3680
Nous avons résolu le problème économique traditionnel.
14:24
Now, technological unemployment, if it does happen,
304
864200
3016
Le chômage technologique, s’il se produit,
14:27
in a strange way will be a symptom of that success,
305
867240
3216
sera un symptôme de ce succès.
14:30
will have solved one problem -- how to make the pie bigger --
306
870480
3856
Nous aurons résolu un problème, agrandir le gâteau,
14:34
but replaced it with another --
307
874360
1816
mais l’aurons remplacé par un autre,
14:36
how to make sure that everyone gets a slice.
308
876200
2760
comment s’assurer que chacun ait une part.
14:39
As other economists have noted, solving this problem won't be easy.
309
879840
3496
D’autres économistes ont remarqué
que résoudre ce problème ne sera pas simple.
14:43
Today, for most people,
310
883360
1656
Pour la plupart des gens,
14:45
their job is their seat at the economic dinner table,
311
885040
2496
leur emploi est leur place à la table économique
14:47
and in a world with less work or even without work,
312
887560
2416
et, dans un monde avec moins ou pas de travail,
14:50
it won't be clear how they get their slice.
313
890000
2056
il ne sera pas clair comment obtenir sa part.
14:52
There's a great deal of discussion, for instance,
314
892080
2336
Il y a par exemple beaucoup de discussions
14:54
about various forms of universal basic income
315
894440
2696
sur diverses formes de revenu de base universel
14:57
as one possible approach,
316
897160
1216
en tant qu’approche possible
14:58
and there's trials underway
317
898400
1616
et il y a des essais en cours
15:00
in the United States and in Finland and in Kenya.
318
900040
2400
aux États-Unis, en Finlande et au Kenya.
15:03
And this is the collective challenge that's right in front of us,
319
903000
3176
C’est le défi collectif auquel nous faisons face :
15:06
to figure out how this material prosperity generated by our economic system
320
906200
5056
découvrir comment cette prospérité matérielle
générée par notre système économique
15:11
can be enjoyed by everyone
321
911280
1976
peut bénéficier à tous
15:13
in a world in which our traditional mechanism
322
913280
2416
dans un monde où notre mécanisme traditionnel
15:15
for slicing up the pie,
323
915720
1856
pour partager le gâteau,
15:17
the work that people do,
324
917600
1936
le travail effectué par les gens,
15:19
withers away and perhaps disappears.
325
919560
2160
s’étiole voire disparaît.
15:22
Solving this problem is going to require us to think in very different ways.
326
922280
4360
Résoudre ce problème va nécessiter que nous pensions différemment.
15:27
There's going to be a lot of disagreement about what ought to be done,
327
927400
4176
Il y aura beaucoup de désaccords sur ce qu’il faut faire,
15:31
but it's important to remember that this is a far better problem to have
328
931600
3416
mais nous devons nous souvenir que c’est un meilleur problème à avoir
15:35
than the one that haunted our ancestors for centuries:
329
935040
2816
que celui qui a hanté nos ancêtres durant des siècles :
15:37
how to make that pie big enough in the first place.
330
937880
3376
comment faire grossir ce gâteau ?
15:41
Thank you very much.
331
941280
1256
Merci beaucoup.
15:42
(Applause)
332
942560
3840
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7