3 myths about the future of work (and why they're not true) | Daniel Susskind

171,485 views ・ 2018-04-05

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Elisa Teneggi Revisore: Stefania Manunza
00:12
Automation anxiety has been spreading lately,
0
12760
3376
Ultimamente si è diffusa un'ansia da automatizzazione,
00:16
a fear that in the future,
1
16160
2656
la paura che nel futuro
00:18
many jobs will be performed by machines
2
18840
2456
molti lavori li faranno le macchine
00:21
rather than human beings,
3
21320
1336
invece che gli esseri umani,
00:22
given the remarkable advances that are unfolding
4
22680
2936
dati i progressi considerevoli nei campi
00:25
in artificial intelligence and robotics.
5
25640
2776
dell'intelligenza artificiale e della robotica.
00:28
What's clear is that there will be significant change.
6
28440
2816
Ciò che è chiaro è che ci sarà un cambiamento significativo.
00:31
What's less clear is what that change will look like.
7
31280
3616
Quello che è meno chiaro è come sarà questo cambiamento.
00:34
My research suggests that the future is both troubling and exciting.
8
34920
4936
Le mie ricerche indicano che il futuro è sia problematico sia entusiasmante.
00:39
The threat of technological unemployment is real,
9
39880
3736
La minaccia della disoccupazione tecnologica è reale,
00:43
and yet it's a good problem to have.
10
43640
2056
eppure è un problema positivo.
00:45
And to explain how I came to that conclusion,
11
45720
3216
Per spiegare come sono giunto a questa conclusione
00:48
I want to confront three myths
12
48960
2536
voglio affrontare tre miti
00:51
that I think are currently obscuring our vision of this automated future.
13
51520
4280
che penso oscurino la nostra visione di questo futuro automatizzato.
00:56
A picture that we see on our television screens,
14
56880
2336
Un'immagine che vediamo in televisione,
00:59
in books, in films, in everyday commentary
15
59240
2216
nei libri, nei film, nei notiziari
01:01
is one where an army of robots descends on the workplace
16
61480
3696
è quella in cui un esercito di robot scende sul luogo di lavoro
01:05
with one goal in mind:
17
65200
1376
con un obiettivo in mente:
01:06
to displace human beings from their work.
18
66600
2496
rubare il lavoro agli umani.
01:09
And I call this the Terminator myth.
19
69120
2696
Questo lo chiamo il mito Terminator.
01:11
Yes, machines displace human beings from particular tasks,
20
71840
3976
Sì, le macchine rubano agli umani alcune attività specifiche,
01:15
but they don't just substitute for human beings.
21
75840
2256
ma non si limitano a sostituirsi a loro.
01:18
They also complement them in other tasks,
22
78120
1976
Li completano anche in altri compiti,
01:20
making that work more valuable and more important.
23
80120
3616
rendendo quel lavoro più produttivo e più importante.
01:23
Sometimes they complement human beings directly,
24
83760
3336
A volte completano gli umani direttamente,
01:27
making them more productive or more efficient at a particular task.
25
87120
4016
rendendoli più produttivi o efficienti in una particolare attività.
01:31
So a taxi driver can use a satnav system to navigate on unfamiliar roads.
26
91160
4616
Così un tassista può usare un sistema GPS per navigare su strade che non conosce.
01:35
An architect can use computer-assisted design software
27
95800
3336
Un architetto può usare software di disegno assistito
01:39
to design bigger, more complicated buildings.
28
99160
3096
per progettare edifici più grandi e complicati.
01:42
But technological progress doesn't just complement human beings directly.
29
102280
3696
Ma il progresso tecnologico non si limita a completare gli umani in modo diretto.
01:46
It also complements them indirectly, and it does this in two ways.
30
106000
3336
Li completa anche indirettamente, e in due modi.
01:49
The first is if we think of the economy as a pie,
31
109360
3336
Il primo, se pensiamo l'economia come una torta, è questo:
01:52
technological progress makes the pie bigger.
32
112720
2896
il progresso tecnologico rende la torta più grande.
01:55
As productivity increases, incomes rise and demand grows.
33
115640
3856
Quando la produttività cresce, crescono il guadagno e la domanda.
01:59
The British pie, for instance,
34
119520
1776
La torta degli inglesi, per esempio,
02:01
is more than a hundred times the size it was 300 years ago.
35
121320
3960
è oltre cento volte più grande di quanto lo era 300 anni fa.
02:05
And so people displaced from tasks in the old pie
36
125920
3216
E le persone private del loro ruolo rispetto alla vecchia torta
02:09
could find tasks to do in the new pie instead.
37
129160
2720
hanno trovato nuove attività da svolgere.
02:12
But technological progress doesn't just make the pie bigger.
38
132800
3936
Ma il progresso tecnologico non rende solo la torta più grossa.
02:16
It also changes the ingredients in the pie.
39
136760
2856
Ne cambia anche gli ingredienti.
02:19
As time passes, people spend their income in different ways,
40
139640
3456
Col passare del tempo si spendono i propri guadagni in modi diversi,
02:23
changing how they spread it across existing goods,
41
143120
2816
modificandone la ripartizione tra i beni esistenti
02:25
and developing tastes for entirely new goods, too.
42
145960
3216
e sviluppando anche gusti rispetto a beni del tutto nuovi.
02:29
New industries are created,
43
149200
1776
Si creano nuove industrie,
02:31
new tasks have to be done
44
151000
1816
nuovi compiti da svolgere,
02:32
and that means often new roles have to be filled.
45
152840
2536
e ciò spesso significa nuovi ruoli da assegnare.
02:35
So again, the British pie:
46
155400
1496
Di nuovo la torta inglese:
02:36
300 years ago, most people worked on farms,
47
156920
2976
300 anni fa la maggioranza delle persone lavorava i campi,
02:39
150 years ago, in factories,
48
159920
2336
150 anni fa lavorava in fabbrica,
02:42
and today, most people work in offices.
49
162280
2856
e oggi si lavora soprattutto in ufficio.
02:45
And once again, people displaced from tasks in the old bit of pie
50
165160
4056
E, ancora una volta, chi era stato rimosso da compiti nella vecchia torta
02:49
could tumble into tasks in the new bit of pie instead.
51
169240
2800
poté trovarsi altri ruoli nel nuovo pezzo della torta.
02:52
Economists call these effects complementarities,
52
172720
3336
Gli economisti chiamano questi effetti "complementarietà",
02:56
but really that's just a fancy word to capture the different way
53
176080
3256
ma in realtà è solo una parola elaborata per rendere i diversi modi
02:59
that technological progress helps human beings.
54
179360
3136
in cui il progresso tecnologico aiuta gli esseri umani.
03:02
Resolving this Terminator myth
55
182520
2096
Risolvere il mito Terminator
03:04
shows us that there are two forces at play:
56
184640
2336
ci mostra che ci sono due forze attive:
03:07
one, machine substitution that harms workers,
57
187000
3536
la sostituzione meccanica che danneggia i lavoratori,
03:10
but also these complementarities that do the opposite.
58
190560
2880
ma anche le complementarietà che agiscono all'opposto.
03:13
Now the second myth,
59
193960
1376
Ora il secondo mito,
03:15
what I call the intelligence myth.
60
195360
2280
che io chiamo mito dell'intelligenza.
03:18
What do the tasks of driving a car, making a medical diagnosis
61
198440
4896
Cosa hanno in comune attività come guidare una macchina,
03:23
and identifying a bird at a fleeting glimpse have in common?
62
203360
2920
fare una diagnosi medica o identificare al volo un uccello?
03:27
Well, these are all tasks that until very recently,
63
207280
2976
Sono tutte attività che, fino a non molto tempo fa,
03:30
leading economists thought couldn't readily be automated.
64
210280
3336
i principali economisti pensavano non potessero essere automatizzate.
03:33
And yet today, all of these tasks can be automated.
65
213640
3176
E invece, oggi, possono esserlo tutte.
03:36
You know, all major car manufacturers have driverless car programs.
66
216840
3496
I maggiori produttori di auto hanno programmi di guida automatica.
03:40
There's countless systems out there that can diagnose medical problems.
67
220360
3976
Ci sono in giro innumerevoli sistemi che possono diagnosticare problemi medici.
03:44
And there's even an app that can identify a bird
68
224360
2416
C'è perfino un'app che può identificare un uccello
03:46
at a fleeting glimpse.
69
226800
1200
con un solo sguardo.
03:48
Now, this wasn't simply a case of bad luck on the part of economists.
70
228920
4376
Questo non è stato semplicemente un colpo di sfortuna per gli economisti.
03:53
They were wrong,
71
233320
1296
Si sbagliavano,
03:54
and the reason why they were wrong is very important.
72
234640
2496
e per un motivo davvero importante.
03:57
They've fallen for the intelligence myth,
73
237160
2256
Erano ammaliati dal mito dell'intelligenza,
03:59
the belief that machines have to copy the way
74
239440
2896
dalla convinzione che le macchine debbano copiare il modo
04:02
that human beings think and reason
75
242360
2056
in cui gli umani pensano e ragionano
04:04
in order to outperform them.
76
244440
1776
così da poterli superare.
04:06
When these economists were trying to figure out
77
246240
2216
Mentre questi economisti provavano a capire
04:08
what tasks machines could not do,
78
248480
1856
cosa le macchine non sapessero fare,
04:10
they imagined the only way to automate a task
79
250360
2136
pensavano che il solo modo di automatizzare un'attività
04:12
was to sit down with a human being,
80
252520
1816
fosse sedersi con un umano,
04:14
get them to explain to you how it was they performed a task,
81
254360
3536
farsi spiegare da lui come svolge,
04:17
and then try and capture that explanation
82
257920
2656
e quindi provare a restituire quella spiegazione
04:20
in a set of instructions for a machine to follow.
83
260600
2776
in un set di istruzioni che una macchina potesse seguire.
04:23
This view was popular in artificial intelligence at one point, too.
84
263400
4176
Era una visione in parte diffusa anche per l'intelligenza artificiale.
04:27
I know this because Richard Susskind,
85
267600
2176
Lo so perché Richard Susskind,
04:29
who is my dad and my coauthor,
86
269800
2856
che è mio padre e il mio co-autore,
04:32
wrote his doctorate in the 1980s on artificial intelligence and the law
87
272680
4056
prese un dottorato negli anni '80 su intelligenza artificiale e giurisprudenza
04:36
at Oxford University,
88
276760
1416
all'università di Oxford,
04:38
and he was part of the vanguard.
89
278200
1576
e faceva parte dell'avanguardia.
04:39
And with a professor called Phillip Capper
90
279800
2256
Insieme a un professore di nome Philip Capper
04:42
and a legal publisher called Butterworths,
91
282080
2096
e all'editore di testi giuridici Butterworths
04:44
they produced the world's first commercially available
92
284200
5896
misero in commercio
04:50
artificial intelligence system in the law.
93
290120
2776
il primo sistema giuridico di intelligenza artificiale.
04:52
This was the home screen design.
94
292920
2616
Questa è la schermata della versione per PC.
04:55
He assures me this was a cool screen design at the time.
95
295560
2696
Lui sostiene che per quei tempi era un aspetto accattivante.
04:58
(Laughter)
96
298280
1016
(Risate)
04:59
I've never been entirely convinced.
97
299320
1696
Non mi ha mai convinto del tutto.
05:01
He published it in the form of two floppy disks,
98
301040
2616
Lo pubblicò su due floppy disk,
05:03
at a time where floppy disks genuinely were floppy,
99
303680
3536
in anni in cui i floppy disk erano davvero flessibili,
05:07
and his approach was the same as the economists':
100
307240
2336
e il suo approccio era lo stesso degli economisti:
05:09
sit down with a lawyer,
101
309600
1256
sedersi con un avvocato,
05:10
get her to explain to you how it was she solved a legal problem,
102
310880
3176
farsi spiegare come avrebbe risolto un problema legale
05:14
and then try and capture that explanation in a set of rules for a machine to follow.
103
314080
5376
e cercare di trasformare la spiegazione in un insieme di regole per la macchina.
05:19
In economics, if human beings could explain themselves in this way,
104
319480
3616
In economia, se gli umani potessero spiegarsi in questo modo,
05:23
the tasks are called routine, and they could be automated.
105
323120
3296
le attività si chiamerebbero routine, e potrebbero essere automatizzate.
05:26
But if human beings can't explain themselves,
106
326440
2336
Ma se gli esseri umani non riescono a spiegarsi
05:28
the tasks are called non-routine, and they're thought to be out reach.
107
328800
4256
le attività non sono considerate routine, e non possono quindi essere riprodotte.
05:33
Today, that routine-nonroutine distinction is widespread.
108
333080
3296
Oggi, questa distinzione tra routine e non routine è molto diffusa.
05:36
Think how often you hear people say to you
109
336400
2056
Pensate a quanto spesso vi sentite dire
05:38
machines can only perform tasks that are predictable or repetitive,
110
338480
3256
che le macchine possono fare solo attività prevedibili o ripetitive,
05:41
rules-based or well-defined.
111
341760
1896
basate su regole o ben definite.
05:43
Those are all just different words for routine.
112
343680
2936
Sono solo diversi modi di dire routine.
05:46
And go back to those three cases that I mentioned at the start.
113
346640
3976
Tornando così ai tre casi che ho citato all'inizio,
05:50
Those are all classic cases of nonroutine tasks.
114
350640
2896
sono tutti classici casi di attività non-routine.
05:53
Ask a doctor, for instance, how she makes a medical diagnosis,
115
353560
2976
Se, ad esempio, chiedeste a una dottoressa come fa una diagnosi:
05:56
and she might be able to give you a few rules of thumb,
116
356560
2656
vi darebbe qualche regola generale,
05:59
but ultimately she'd struggle.
117
359240
1656
ma a ben vedere farebbe fatica.
06:00
She'd say it requires things like creativity and judgment and intuition.
118
360920
4816
Direbbe che servono cose come creatività, giudizio e intuizione.
06:05
And these things are very difficult to articulate,
119
365760
2376
E queste cose sono molto difficili da articolare,
06:08
and so it was thought these tasks would be very hard to automate.
120
368160
3096
così si pensava che sarebbero state automatizzate male.
06:11
If a human being can't explain themselves,
121
371280
2536
Se un essere umano non riesce a spiegarsi
06:13
where on earth do we begin in writing a set of instructions
122
373840
2896
da dove dovremmo iniziare a scrivere l'insieme di istruzioni
06:16
for a machine to follow?
123
376760
1200
per la macchina?
06:18
Thirty years ago, this view was right,
124
378640
2576
Trent'anni fa questa idea era giusta,
06:21
but today it's looking shaky,
125
381240
2136
ma oggi inizia a traballare
06:23
and in the future it's simply going to be wrong.
126
383400
2256
e in futuro sarà semplicemente errata.
06:25
Advances in processing power, in data storage capability
127
385680
3256
I progressi nella capacità di calcolo, nello stoccaggio dati
06:28
and in algorithm design
128
388960
1656
e nella scrittura di algoritmi
06:30
mean that this routine-nonroutine distinction
129
390640
2496
fanno sì che la distinzione routine / non routine
06:33
is diminishingly useful.
130
393160
1736
sia sempre meno utile.
06:34
To see this, go back to the case of making a medical diagnosis.
131
394920
3256
Per averne prova, torniamo al caso della diagnosi medica.
06:38
Earlier in the year,
132
398200
1376
Quest'anno
06:39
a team of researchers at Stanford announced they'd developed a system
133
399600
3296
un team di ricerca di Stanford ha annunciato lo sviluppo di un sistema
06:42
which can tell you whether or not a freckle is cancerous
134
402920
3056
che ci può dire se un'efelide è cancerosa o no
06:46
as accurately as leading dermatologists.
135
406000
2680
con la stessa accuratezza dei migliori dermatologi.
06:49
How does it work?
136
409280
1256
Come funziona?
06:50
It's not trying to copy the judgment or the intuition of a doctor.
137
410560
5296
Non cercando di copiare il giudizio o l'intuizione di un medico -
06:55
It knows or understands nothing about medicine at all.
138
415880
3136
non sa né capisce nulla di medicina -
06:59
Instead, it's running a pattern recognition algorithm
139
419040
2576
ma funziona con un algoritmo che riconosce un modello
07:01
through 129,450 past cases,
140
421640
4656
sulla base di 129.450 casi precendenti
07:06
hunting for similarities between those cases
141
426320
3096
e cerca le somiglianze tra quei casi
07:09
and the particular lesion in question.
142
429440
2080
e la particolare lesione in questione.
07:12
It's performing these tasks in an unhuman way,
143
432080
3216
Svolge l'attività in un modo non umano,
07:15
based on the analysis of more possible cases
144
435320
2336
basato sull'analisi di più casi possibili
07:17
than any doctor could hope to review in their lifetime.
145
437680
2616
di quanti qualsiasi medico potrebbe mai sperare di esaminare.
07:20
It didn't matter that that human being,
146
440320
1896
Non contava nulla che quell'essere umano,
07:22
that doctor, couldn't explain how she'd performed the task.
147
442240
2800
quel medico, non sapesse spiegare come aveva agito.
07:25
Now, there are those who dwell upon that the fact
148
445640
2336
Ora, c'è chi insiste sul fatto
che queste macchine non sono fatte a nostra immagine.
07:28
that these machines aren't built in our image.
149
448000
2296
07:30
As an example, take IBM's Watson,
150
450320
2056
Per esempio, prendete il Watson dell'IBM,
07:32
the supercomputer that went on the US quiz show "Jeopardy!" in 2011,
151
452400
4856
il supercomputer che nel 2011 partecipò al telequiz "Rischiatutto" americano
07:37
and it beat the two human champions at "Jeopardy!"
152
457280
3016
sconfiggendo i due campioni umani.
07:40
The day after it won,
153
460320
1696
Il giorno seguente
07:42
The Wall Street Journal ran a piece by the philosopher John Searle
154
462040
3296
il Wall Street Journal pubblicò un pezzo del filosofo John Searle
07:45
with the title "Watson Doesn't Know It Won on 'Jeopardy!'"
155
465360
3376
dal titolo "Watson non sa di aver vinto a Rischiatutto".
07:48
Right, and it's brilliant, and it's true.
156
468760
1976
È giusto, ed è brillante, ed è vero.
07:50
You know, Watson didn't let out a cry of excitement.
157
470760
2456
Watson non ha emesso nemmeno un grido di giubilo.
07:53
It didn't call up its parents to say what a good job it had done.
158
473240
3096
Non ha chiamato i genitori per dire loro che aveva giocato bene.
07:56
It didn't go down to the pub for a drink.
159
476360
2336
Non è andato al pub a bere una birra.
07:58
This system wasn't trying to copy the way that those human contestants played,
160
478720
4456
Questo sistema non cercava di copiare il gioco dei concorrenti umani,
08:03
but it didn't matter.
161
483200
1256
ma non importava.
08:04
It still outperformed them.
162
484480
1976
Li ha battuti lo stesso.
08:06
Resolving the intelligence myth
163
486480
1576
Sfatare il mito dell'intelligenza
08:08
shows us that our limited understanding about human intelligence,
164
488080
3376
ci mostra che la nostra limitata conoscenza dell'intelligenza umana,
08:11
about how we think and reason,
165
491480
1896
come ragioniamo e pensiamo,
08:13
is far less of a constraint on automation than it was in the past.
166
493400
3456
non è un grande limite per l'automazione come si pensava nel passato.
08:16
What's more, as we've seen,
167
496880
1496
Soprattutto, come avete visto,
08:18
when these machines perform tasks differently to human beings,
168
498400
3416
quando queste macchine agiscono diversamente dagli umani
08:21
there's no reason to think
169
501840
1256
non c'è motivo di pensare
08:23
that what human beings are currently capable of doing
170
503120
2536
che quello che gli umani sono in grado di fare oggi
08:25
represents any sort of summit
171
505680
1456
rappresenti il limite massimo
08:27
in what these machines might be capable of doing in the future.
172
507160
3000
a cui le macchine potrebbero arrivare nel futuro.
08:31
Now the third myth,
173
511040
1256
Ora, il terzo mito,
08:32
what I call the superiority myth.
174
512320
2456
che io chiamo il mito della superiorità.
08:34
It's often said that those who forget
175
514800
2216
Si dice spesso che chi si dimentica
08:37
about the helpful side of technological progress,
176
517040
2456
del lato utile del progresso tecnologico,
08:39
those complementarities from before,
177
519520
2496
le complementarietà di prima,
08:42
are committing something known as the lump of labor fallacy.
178
522040
3040
cade nella fallacia della quantità di lavoro.
08:45
Now, the problem is the lump of labor fallacy
179
525840
2295
Ma il problema è che questa fallacia
08:48
is itself a fallacy,
180
528159
1496
è essa stessa una fallacia,
08:49
and I call this the lump of labor fallacy fallacy,
181
529679
2937
e io la chiamo la doppia fallacia della quantità di lavoro,
08:52
or LOLFF, for short.
182
532640
2320
o, abbreviando, DFQL.
08:56
Let me explain.
183
536000
1416
Lasciatemi spiegare.
08:57
The lump of labor fallacy is a very old idea.
184
537440
2136
Questa fallacia è un'idea vecchissima.
08:59
It was a British economist, David Schloss, who gave it this name in 1892.
185
539600
4216
Fu l'economista britannico David Schloss a coniare questo nome nel 1892.
09:03
He was puzzled to come across a dock worker
186
543840
2816
Si sorprese nell'incontrare per caso un lavoratore portuale
09:06
who had begun to use a machine to make washers,
187
546680
2336
che usava una macchina per produrre rondelle,
09:09
the small metal discs that fasten on the end of screws.
188
549040
3320
i piccoli dischi metallici che chiudono la fine delle viti,
09:13
And this dock worker felt guilty for being more productive.
189
553000
3760
e si sentiva in colpa perché era più produttivo.
09:17
Now, most of the time, we expect the opposite,
190
557560
2176
Di solito ci si aspetta il contrario,
09:19
that people feel guilty for being unproductive,
191
559760
2216
che ci si senta in colpa per l'improduttività,
come per il troppo tempo passato su Facebook o Twitter al lavoro.
09:22
you know, a little too much time on Facebook or Twitter at work.
192
562000
3016
09:25
But this worker felt guilty for being more productive,
193
565040
2536
Lui si sentiva in colpa perché era più produttivo
09:27
and asked why, he said, "I know I'm doing wrong.
194
567600
2296
e se gli si chiedeva perché diceva: "So di sbagliare.
09:29
I'm taking away the work of another man."
195
569920
2040
Sto rubando il lavoro di qualcun altro".
09:32
In his mind, there was some fixed lump of work
196
572760
2976
Nella sua testa c'era una quantità fissa di lavoro
09:35
to be divided up between him and his pals,
197
575760
2136
da dividere tra lui e i suoi compagni,
09:37
so that if he used this machine to do more,
198
577920
2056
perciò se usava la macchina per farne di più
09:40
there'd be less left for his pals to do.
199
580000
2016
ce ne sarebbe stato meno per gli altri.
09:42
Schloss saw the mistake.
200
582040
1856
Schloss vide l'errore.
09:43
The lump of work wasn't fixed.
201
583920
1856
La quantità di lavoro non era fissa.
09:45
As this worker used the machine and became more productive,
202
585800
2816
Visto che il lavoratore usava la macchina producendo di più,
09:48
the price of washers would fall, demand for washers would rise,
203
588640
2976
il prezzo delle rondelle sarebbe crollato, la domanda cresciuta,
09:51
more washers would have to be made,
204
591640
1696
se ne sarebbero prodotte di più,
09:53
and there'd be more work for his pals to do.
205
593360
2096
ci sarebbe stato più lavoro per i compagni.
09:55
The lump of work would get bigger.
206
595480
1696
La quantità sarebbe cresciuta.
09:57
Schloss called this "the lump of labor fallacy."
207
597200
2680
Schloss la chiamò "la fallacia della quantità di lavoro".
10:00
And today you hear people talk about the lump of labor fallacy
208
600560
2936
Oggi si sente parlare di questa fallacia
10:03
to think about the future of all types of work.
209
603520
2216
per riferirsi al futuro di ogni tipo di lavoro.
10:05
There's no fixed lump of work out there to be divided up
210
605760
2656
Non c'è nessuna quantità fissa di lavoro da spartire
10:08
between people and machines.
211
608440
1376
tra persone e macchine.
10:09
Yes, machines substitute for human beings, making the original lump of work smaller,
212
609840
4656
Sì, le macchine sostituiscono gli umani, riducendo la quantità originaria di lavoro
10:14
but they also complement human beings,
213
614520
1856
ma completando anche gli umani,
10:16
and the lump of work gets bigger and changes.
214
616400
2096
così la quantità di lavoro aumenta e cambia.
10:19
But LOLFF.
215
619760
1616
Ma la doppia fallacia.
10:21
Here's the mistake:
216
621400
1376
Qui sta l'errore:
10:22
it's right to think that technological progress
217
622800
2216
è giusto pensare che il progresso tecnologico
10:25
makes the lump of work to be done bigger.
218
625040
1976
aumenti la quantità di lavoro da fare.
10:27
Some tasks become more valuable. New tasks have to be done.
219
627040
3016
Alcune attività prendono valore. Ne nascono di nuove.
10:30
But it's wrong to think that necessarily,
220
630080
2536
Ma è sbagliato pensare che, necessariamente,
10:32
human beings will be best placed to perform those tasks.
221
632640
3256
gli umani le svolgeranno meglio.
10:35
And this is the superiority myth.
222
635920
1616
E questo è il mito della superiorità.
10:37
Yes, the lump of work might get bigger and change,
223
637560
3416
Sì, la quantità di lavoro potrà aumentare e cambiare,
10:41
but as machines become more capable,
224
641000
1976
ma, con le macchine sempre più abili,
10:43
it's likely that they'll take on the extra lump of work themselves.
225
643000
3896
è probabile che siano loro stesse a svolgere il lavoro in più.
10:46
Technological progress, rather than complement human beings,
226
646920
3256
Il progresso tecnologico, più che completare gli umani,
10:50
complements machines instead.
227
650200
1880
completa le macchine stesse.
10:52
To see this, go back to the task of driving a car.
228
652920
3016
Vediamone un esempio tornando all'attività di guidare un'auto.
10:55
Today, satnav systems directly complement human beings.
229
655960
4096
Oggi, i sistemi GPS completano direttamente gli esseri umani.
11:00
They make some human beings better drivers.
230
660080
2280
Rendono alcuni esseri umani dei piloti migliori.
11:02
But in the future,
231
662920
1256
Ma nel futuro
11:04
software is going to displace human beings from the driving seat,
232
664200
3096
i software spodesteranno gli umani dal sedile del guidatore
11:07
and these satnav systems, rather than complement human beings,
233
667320
2936
e questi sistemi GPS, invece che completarci,
11:10
will simply make these driverless cars more efficient,
234
670280
2536
renderanno più efficienti le auto senza pilota
11:12
helping the machines instead.
235
672840
1536
aiutando così le macchine.
11:14
Or go to those indirect complementarities that I mentioned as well.
236
674400
4056
O torniamo alle complementarietà indirette che ho menzionato.
11:18
The economic pie may get larger,
237
678480
1776
La torta dell'economia può crescere,
11:20
but as machines become more capable,
238
680280
1736
ma con le macchine sempre più abili
11:22
it's possible that any new demand will fall on goods that machines,
239
682040
3143
i nuovi bisogni saranno legati a beni che le macchine,
11:25
rather than human beings, are best placed to produce.
240
685207
2649
invece che gli umani, sapranno produrre meglio.
11:27
The economic pie may change,
241
687880
1896
La torta economica potrebbe cambiare,
11:29
but as machines become more capable,
242
689800
1896
ma con le macchine sempre più abili
11:31
it's possible that they'll be best placed to do the new tasks that have to be done.
243
691720
4856
è possibile che riescano a fare meglio le nuove attività che ci saranno.
11:36
In short, demand for tasks isn't demand for human labor.
244
696600
3696
In poche parole, la domanda di attività non è domanda di lavoro umano.
11:40
Human beings only stand to benefit
245
700320
1936
Gli umani possono beneficiarne solo
11:42
if they retain the upper hand in all these complemented tasks,
246
702280
3816
se mantengono il controllo di tutte queste attività integrate,
11:46
but as machines become more capable, that becomes less likely.
247
706120
3720
ma, con le macchine sempre più abili, ciò diventa meno probabile.
11:50
So what do these three myths tell us then?
248
710760
2016
Quindi che cosa ci dicono questi tre miti?
11:52
Well, resolving the Terminator myth
249
712800
1696
Sfatare il mito Terminator
11:54
shows us that the future of work depends upon this balance between two forces:
250
714520
3696
ci mostra che in futuro il lavoro dipenderà dall'equilibrio di due forze:
11:58
one, machine substitution that harms workers
251
718240
3136
la sostituzione meccanica che danneggerà i lavoratori,
12:01
but also those complementarities that do the opposite.
252
721400
2576
ma anche le complementarietà che faranno l'opposto.
12:04
And until now, this balance has fallen in favor of human beings.
253
724000
4040
E finora l'equilibrio è stato in favore degli umani.
12:09
But resolving the intelligence myth
254
729120
1736
Ma sfatare il mito dell'intelligenza
12:10
shows us that that first force, machine substitution,
255
730880
2496
ci mostra che la forza della sostituzione meccanica
12:13
is gathering strength.
256
733400
1296
si sta rafforzando.
12:14
Machines, of course, can't do everything,
257
734720
1976
Ovvio, le macchine non possono fare tutto,
12:16
but they can do far more,
258
736720
1256
ma possono fare di più,
12:18
encroaching ever deeper into the realm of tasks performed by human beings.
259
738000
4576
invadendo sempre più il campo delle attività fatte dagli umani.
12:22
What's more, there's no reason to think
260
742600
1896
Soprattutto, non c'è motivo di pensare
12:24
that what human beings are currently capable of
261
744520
2216
che ciò di cui oggi gli umani sono capaci
12:26
represents any sort of finishing line,
262
746760
1856
rappresenti una linea di confine
12:28
that machines are going to draw to a polite stop
263
748640
2256
davanti a cui le macchine si fermeranno educatamente
12:30
once they're as capable as us.
264
750920
1816
una volta diventate abili quanto noi.
12:32
Now, none of this matters
265
752760
1536
Ma nulla di tutto ciò importa
12:34
so long as those helpful winds of complementarity
266
754320
2816
finché quei venti propizi di complementarietà
12:37
blow firmly enough,
267
757160
1736
soffieranno abbastanza costanti;
12:38
but resolving the superiority myth
268
758920
1936
ma sfatare il mito di superiorità
12:40
shows us that that process of task encroachment
269
760880
3096
ci mostra che il processo di invasione
12:44
not only strengthens the force of machine substitution,
270
764000
3936
non solo potenzia la forza della sostituzione meccanica,
12:47
but it wears down those helpful complementarities too.
271
767960
3336
ma indebolisce anche le complementarietà favorevoli.
12:51
Bring these three myths together
272
771320
1936
Mettete insieme questi tre miti
12:53
and I think we can capture a glimpse of that troubling future.
273
773280
2936
e penso si possa scorgere un futuro problematico.
12:56
Machines continue to become more capable,
274
776240
2016
Le macchine diventano sempre più abili,
12:58
encroaching ever deeper on tasks performed by human beings,
275
778280
3656
sconfinando sempre più a fondo nelle attività degli umani,
13:01
strengthening the force of machine substitution,
276
781960
2576
potenziando la forza della sostituzione meccanica,
13:04
weakening the force of machine complementarity.
277
784560
3616
fiaccando la forza della complementarietà delle macchine.
13:08
And at some point, that balance falls in favor of machines
278
788200
4296
E a un certo punto, l'equilibrio sarà in favore delle macchine
13:12
rather than human beings.
279
792520
2056
invece che degli umani.
13:14
This is the path we're currently on.
280
794600
1736
Questo è il sentiero su cui siamo.
13:16
I say "path" deliberately, because I don't think we're there yet,
281
796360
3176
Dico "sentiero" apposta, perché non penso che siamo già arrivati,
13:19
but it is hard to avoid the conclusion that this is our direction of travel.
282
799560
3640
ma è difficile evitare di concludere che sia la direzione del nostro viaggio.
13:24
That's the troubling part.
283
804640
1456
Questo è il problema.
13:26
Let me say now why I think actually this is a good problem to have.
284
806120
3520
E vi dirò perché penso che sia un buon problema.
13:30
For most of human history, one economic problem has dominated:
285
810520
3536
Gran parte della storia umana è stata dominata da un solo problema economico:
13:34
how to make the economic pie large enough for everyone to live on.
286
814080
4056
rendere la torta economica grande abbastanza per tutti.
13:38
Go back to the turn of the first century AD,
287
818160
2176
Tornate all'inizio del primo secolo d.c.:
13:40
and if you took the global economic pie
288
820360
2096
se prendeste la torta economica mondiale
13:42
and divided it up into equal slices for everyone in the world,
289
822480
3296
dividendola in fette uguali per ogni persona nel mondo,
13:45
everyone would get a few hundred dollars.
290
825800
2136
ognuno avrebbe poche centinaia di dollari.
13:47
Almost everyone lived on or around the poverty line.
291
827960
2760
Quasi tutti vivevano più o meno vicini alla linea di povertà.
13:51
And if you roll forward a thousand years,
292
831320
2176
E se avanziamo di mille anni,
13:53
roughly the same is true.
293
833520
1240
la situazione è molto simile.
13:55
But in the last few hundred years, economic growth has taken off.
294
835680
3576
Ma negli ultimi secoli la crescita economica è decollata.
13:59
Those economic pies have exploded in size.
295
839280
2376
Le torte economiche sono esplose.
14:01
Global GDP per head,
296
841680
2056
Il PIL pro capite mondiale,
14:03
the value of those individual slices of the pie today,
297
843760
3376
il valore oggi delle singole fette di torta,
14:07
they're about 10,150 dollars.
298
847160
2816
è di circa 10.150 dollari.
14:10
If economic growth continues at two percent,
299
850000
2696
Se la crescita economica continua al 2%,
14:12
our children will be twice as rich as us.
300
852720
2056
i nostri figli saranno ricchi il doppio di noi.
14:14
If it continues at a more measly one percent,
301
854800
2296
Se continua a un più misero 1%,
14:17
our grandchildren will be twice as rich as us.
302
857120
2656
i nostri nipoti saranno due volte più ricchi di noi.
14:19
By and large, we've solved that traditional economic problem.
303
859800
3680
In linea di massima, abbiamo risolto il tradizionale problema economico.
14:24
Now, technological unemployment, if it does happen,
304
864200
3016
Perciò, la disoccupazione tecnologica, se davvero sopraggiungerà,
14:27
in a strange way will be a symptom of that success,
305
867240
3216
sarà stranamente sintomo di quel successo,
14:30
will have solved one problem -- how to make the pie bigger --
306
870480
3856
avrà risolto un problema - come allargare la torta -
14:34
but replaced it with another --
307
874360
1816
ma l'avrà rimpiazzato con un'altro -
14:36
how to make sure that everyone gets a slice.
308
876200
2760
come essere sicuri che tutti ne ricevano una fetta.
14:39
As other economists have noted, solving this problem won't be easy.
309
879840
3496
Come hanno notato altri economisti, risolvere il problema non sarà facile.
14:43
Today, for most people,
310
883360
1656
Oggi, per molti,
il lavoro rappresenta il loro posto al tavolo dell'economia,
14:45
their job is their seat at the economic dinner table,
311
885040
2496
14:47
and in a world with less work or even without work,
312
887560
2416
e in un mondo con meno lavoro, o addirittura senza,
non è chiaro come potranno averne una fetta.
14:50
it won't be clear how they get their slice.
313
890000
2056
14:52
There's a great deal of discussion, for instance,
314
892080
2336
Si discute molto, per esempio,
14:54
about various forms of universal basic income
315
894440
2696
delle varie forme del reddito minimo garantito
14:57
as one possible approach,
316
897160
1216
come possibile intervento,
14:58
and there's trials underway
317
898400
1616
e ci sono esperimenti in corso
15:00
in the United States and in Finland and in Kenya.
318
900040
2400
negli USA, in Finlandia e in Kenya.
15:03
And this is the collective challenge that's right in front of us,
319
903000
3176
Questa è la sfida collettiva che abbiamo davanti,
15:06
to figure out how this material prosperity generated by our economic system
320
906200
5056
capire come questo benessere materiale generato dal sistema economico
15:11
can be enjoyed by everyone
321
911280
1976
possa essere a disposizione di tutti
15:13
in a world in which our traditional mechanism
322
913280
2416
in un mondo in cui il meccanismo tradizionale
15:15
for slicing up the pie,
323
915720
1856
per dividere la torta,
15:17
the work that people do,
324
917600
1936
il lavoro che le persone svolgono,
15:19
withers away and perhaps disappears.
325
919560
2160
avvizzisce e a volte svanisce.
15:22
Solving this problem is going to require us to think in very different ways.
326
922280
4360
Per risolvere questo problema dovremo pensare in molti modi diversi.
15:27
There's going to be a lot of disagreement about what ought to be done,
327
927400
4176
Ci sarà grande dissenso sul da farsi,
15:31
but it's important to remember that this is a far better problem to have
328
931600
3416
ma è importante ricordare che questo è davvero un problema migliore
15:35
than the one that haunted our ancestors for centuries:
329
935040
2816
di quello che ha assillato i nostri antenati per secoli:
15:37
how to make that pie big enough in the first place.
330
937880
3376
come rendere, innanzitutto, la torta più grande.
15:41
Thank you very much.
331
941280
1256
Grazie mille.
15:42
(Applause)
332
942560
3840
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7