3 myths about the future of work (and why they're not true) | Daniel Susskind

169,353 views ・ 2018-04-05

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Claudia Sander Revisor: Custodio Marcelino
00:12
Automation anxiety has been spreading lately,
0
12760
3376
A ansiedade com a automação tem se espalhado ultimamente,
00:16
a fear that in the future,
1
16160
2656
um medo de que, no futuro,
00:18
many jobs will be performed by machines
2
18840
2456
muitos trabalhos serão executados por máquinas
00:21
rather than human beings,
3
21320
1336
em vez de seres humanos,
00:22
given the remarkable advances that are unfolding
4
22680
2936
dado aos notáveis avanços
00:25
in artificial intelligence and robotics.
5
25640
2776
da inteligência artificial e da robótica.
00:28
What's clear is that there will be significant change.
6
28440
2816
O que está claro é que haverá mudanças significativas.
00:31
What's less clear is what that change will look like.
7
31280
3616
O que não está tão claro é como será essa mudança.
00:34
My research suggests that the future is both troubling and exciting.
8
34920
4936
Minha pesquisa indica que o futuro será preocupante e excitante.
00:39
The threat of technological unemployment is real,
9
39880
3736
A ameaça do desemprego tecnológico é real,
00:43
and yet it's a good problem to have.
10
43640
2056
e, ainda assim, é um bom problema para se ter.
00:45
And to explain how I came to that conclusion,
11
45720
3216
E para explicar como cheguei a essa conclusão,
00:48
I want to confront three myths
12
48960
2536
quero confrontar três mitos
00:51
that I think are currently obscuring our vision of this automated future.
13
51520
4280
que acho que estão obscurecendo nossa visão desse futuro automatizado.
00:56
A picture that we see on our television screens,
14
56880
2336
Uma imagem que vemos na televisão,
00:59
in books, in films, in everyday commentary
15
59240
2216
em livros, filmes e em comentários cotidianos
01:01
is one where an army of robots descends on the workplace
16
61480
3696
é aquela em que um exército de robôs invade um local de trabalho
01:05
with one goal in mind:
17
65200
1376
com um objetivo:
01:06
to displace human beings from their work.
18
66600
2496
substituir os humanos em seu trabalho.
01:09
And I call this the Terminator myth.
19
69120
2696
Eu chamo isso de "o mito do exterminador".
01:11
Yes, machines displace human beings from particular tasks,
20
71840
3976
Sim, as máquinas substituem os humanos em tarefas específicas,
01:15
but they don't just substitute for human beings.
21
75840
2256
mas não apenas substituem os seres humanos.
01:18
They also complement them in other tasks,
22
78120
1976
Elas também os complementam em outras tarefas,
01:20
making that work more valuable and more important.
23
80120
3616
tornando aquele trabalho mais valioso e importante.
01:23
Sometimes they complement human beings directly,
24
83760
3336
Às vezes elas complementam o ser humano diretamente,
01:27
making them more productive or more efficient at a particular task.
25
87120
4016
tornando-o mais produtivo ou eficiente em determinada tarefa.
01:31
So a taxi driver can use a satnav system to navigate on unfamiliar roads.
26
91160
4616
Então um taxista pode usar um sistema de navegação por GPS
para andar por estradas desconhecidas.
01:35
An architect can use computer-assisted design software
27
95800
3336
Um arquiteto pode usar software de projeto assistido por computador
01:39
to design bigger, more complicated buildings.
28
99160
3096
para projetar prédios maiores e mais complicados.
01:42
But technological progress doesn't just complement human beings directly.
29
102280
3696
Mas o progresso tecnológico complementa os seres humanos não só diretamente.
01:46
It also complements them indirectly, and it does this in two ways.
30
106000
3336
Ele também os complementa indiretamente, de duas formas.
01:49
The first is if we think of the economy as a pie,
31
109360
3336
A primeira é que, se pensarmos na economia como uma torta,
01:52
technological progress makes the pie bigger.
32
112720
2896
o progresso tecnológico aumenta a torta.
01:55
As productivity increases, incomes rise and demand grows.
33
115640
3856
Com o aumento da produtividade, a renda e a demanda aumentam.
01:59
The British pie, for instance,
34
119520
1776
A torta britânica, por exemplo,
02:01
is more than a hundred times the size it was 300 years ago.
35
121320
3960
é 100 vezes maior do que era há 300 anos.
02:05
And so people displaced from tasks in the old pie
36
125920
3216
E as pessoas que perderam as tarefas que executavam na torta antiga,
02:09
could find tasks to do in the new pie instead.
37
129160
2720
podem encontrar novas tarefas na nova torta.
02:12
But technological progress doesn't just make the pie bigger.
38
132800
3936
Mas o progresso tecnológico não só aumenta a torta.
02:16
It also changes the ingredients in the pie.
39
136760
2856
Ele também muda seus ingredientes.
02:19
As time passes, people spend their income in different ways,
40
139640
3456
Com o passar do tempo, as pessoas gastam sua renda de formas diferentes,
02:23
changing how they spread it across existing goods,
41
143120
2816
mudando a forma como a distribuem em bens existentes,
02:25
and developing tastes for entirely new goods, too.
42
145960
3216
e desenvolvendo gosto por bens totalmente novos.
02:29
New industries are created,
43
149200
1776
Novas indústrias são criadas,
02:31
new tasks have to be done
44
151000
1816
novas tarefas precisam ser executadas
02:32
and that means often new roles have to be filled.
45
152840
2536
e isso significa que novos papéis devem ser preenchidos.
02:35
So again, the British pie:
46
155400
1496
De novo, a torta britânica:
02:36
300 years ago, most people worked on farms,
47
156920
2976
há 300 anos, a maioria das pessoas trabalhava em fazendas,
02:39
150 years ago, in factories,
48
159920
2336
150 anos atrás, em fábricas,
02:42
and today, most people work in offices.
49
162280
2856
e hoje, a maioria trabalha em escritórios.
02:45
And once again, people displaced from tasks in the old bit of pie
50
165160
4056
E de novo, as pessoas que perderam suas tarefas na torta antiga
02:49
could tumble into tasks in the new bit of pie instead.
51
169240
2800
podem acabar executando tarefas na torta nova.
02:52
Economists call these effects complementarities,
52
172720
3336
Os economistas chamam esses efeitos de complementaridades,
02:56
but really that's just a fancy word to capture the different way
53
176080
3256
mas essa é só uma palavra chique para capturar a forma diferente
02:59
that technological progress helps human beings.
54
179360
3136
com que o progresso tecnológico ajuda os seres humanos.
03:02
Resolving this Terminator myth
55
182520
2096
Solucionar esse mito do exterminador
03:04
shows us that there are two forces at play:
56
184640
2336
nos mostra que há duas forças em jogo:
03:07
one, machine substitution that harms workers,
57
187000
3536
uma, a substituição pelas máquinas, que prejudica os trabalhadores,
03:10
but also these complementarities that do the opposite.
58
190560
2880
mas também essas complementaridades, que fazem o oposto.
03:13
Now the second myth,
59
193960
1376
Agora o segundo mito,
03:15
what I call the intelligence myth.
60
195360
2280
que eu chamo de mito da inteligência.
03:18
What do the tasks of driving a car, making a medical diagnosis
61
198440
4896
O que as tarefas de dirigir um carro, fazer um diagnóstico médico
03:23
and identifying a bird at a fleeting glimpse have in common?
62
203360
2920
e identificar um pássaro numa rápida olhada têm em comum?
03:27
Well, these are all tasks that until very recently,
63
207280
2976
Bem, são tarefas que, até recentemente,
03:30
leading economists thought couldn't readily be automated.
64
210280
3336
de acordo com os economistas, não poderiam ser facilmente automatizadas.
03:33
And yet today, all of these tasks can be automated.
65
213640
3176
Mas, ainda assim, hoje, todas elas podem ser automatizadas.
03:36
You know, all major car manufacturers have driverless car programs.
66
216840
3496
Os principais fabricantes de automóvel têm programas de carros autônomos.
03:40
There's countless systems out there that can diagnose medical problems.
67
220360
3976
Há inúmeros sistemas por aí que diagnosticam problemas médicos.
03:44
And there's even an app that can identify a bird
68
224360
2416
E existe até um aplicativo que identifica um pássaro numa rápida olhada.
03:46
at a fleeting glimpse.
69
226800
1200
03:48
Now, this wasn't simply a case of bad luck on the part of economists.
70
228920
4376
Isso não é só falta de sorte dos economistas.
03:53
They were wrong,
71
233320
1296
Eles estavam errados,
03:54
and the reason why they were wrong is very important.
72
234640
2496
e a razão de eles estarem errados é muito importante.
03:57
They've fallen for the intelligence myth,
73
237160
2256
Eles caíram no mito da inteligência,
03:59
the belief that machines have to copy the way
74
239440
2896
a crença de que máquinas precisam copiar a forma
04:02
that human beings think and reason
75
242360
2056
como os humanos pensam e raciocinam
04:04
in order to outperform them.
76
244440
1776
para poder substituí-los.
04:06
When these economists were trying to figure out
77
246240
2216
Quando os economistas imaginaram quais tarefas as máquinas não poderiam fazer,
04:08
what tasks machines could not do,
78
248480
1856
04:10
they imagined the only way to automate a task
79
250360
2136
imaginaram que, para automatizar uma tarefa,
04:12
was to sit down with a human being,
80
252520
1816
a única forma seria sentar com uma pessoa,
04:14
get them to explain to you how it was they performed a task,
81
254360
3536
pedir que ela explicasse como executava uma tarefa,
04:17
and then try and capture that explanation
82
257920
2656
e então tentar capturar essa explicação
04:20
in a set of instructions for a machine to follow.
83
260600
2776
em um conjunto de instruções para uma máquina seguir.
04:23
This view was popular in artificial intelligence at one point, too.
84
263400
4176
Até certo momento essa visão também foi popular na inteligência artificial.
04:27
I know this because Richard Susskind,
85
267600
2176
Sei disso porque Richard Susskind,
04:29
who is my dad and my coauthor,
86
269800
2856
que é meu pai e meu coautor,
04:32
wrote his doctorate in the 1980s on artificial intelligence and the law
87
272680
4056
escreveu seu doutorado na década de 1980 sobre inteligência artificial e direito
04:36
at Oxford University,
88
276760
1416
na Oxford University.
04:38
and he was part of the vanguard.
89
278200
1576
Ele era da vanguarda
04:39
And with a professor called Phillip Capper
90
279800
2256
e, com um professor chamado Phillip Capper
04:42
and a legal publisher called Butterworths,
91
282080
2096
e um editor jurídico chamado Butterworths,
04:44
they produced the world's first commercially available
92
284200
5896
eles produziram o primeiro sistema, disponível comercialmente,
04:50
artificial intelligence system in the law.
93
290120
2776
de inteligência artificial em direito.
04:52
This was the home screen design.
94
292920
2616
Esta era a tela inicial.
04:55
He assures me this was a cool screen design at the time.
95
295560
2696
Ele me garante que essa tela era bonita na época.
04:58
(Laughter)
96
298280
1016
(Risos)
04:59
I've never been entirely convinced.
97
299320
1696
Eu nunca me convenci totalmente.
05:01
He published it in the form of two floppy disks,
98
301040
2616
Ele foi publicado no formato de dois discos flexíveis,
05:03
at a time where floppy disks genuinely were floppy,
99
303680
3536
numa época em que discos flexíveis eram realmente flexíveis,
05:07
and his approach was the same as the economists':
100
307240
2336
e a abordagem dele era a mesma dos economistas: sente-se com um advogado,
05:09
sit down with a lawyer,
101
309600
1256
05:10
get her to explain to you how it was she solved a legal problem,
102
310880
3176
faça com que ele explique como resolveu um problema jurídico,
05:14
and then try and capture that explanation in a set of rules for a machine to follow.
103
314080
5376
e então tente capturar essa explicação
em um conjunto de instruções que uma máquina possa seguir.
05:19
In economics, if human beings could explain themselves in this way,
104
319480
3616
Na economia, se seres humanos conseguem se explicar dessa forma,
05:23
the tasks are called routine, and they could be automated.
105
323120
3296
as tarefas são chamadas de rotineiras e podem ser automatizadas.
05:26
But if human beings can't explain themselves,
106
326440
2336
Mas, se os seres humanos não conseguem se explicar,
05:28
the tasks are called non-routine, and they're thought to be out reach.
107
328800
4256
as tarefas são chamadas de não rotineiras, e são vistas como fora do alcance.
05:33
Today, that routine-nonroutine distinction is widespread.
108
333080
3296
Hoje essa distinção entre rotineira e não rotineira está muito difundida.
05:36
Think how often you hear people say to you
109
336400
2056
Pensem com que frequência ouvimos dizer
05:38
machines can only perform tasks that are predictable or repetitive,
110
338480
3256
que as máquinas só podem executar tarefas previsíveis, repetitivas,
05:41
rules-based or well-defined.
111
341760
1896
baseadas em regras ou bem definidas.
05:43
Those are all just different words for routine.
112
343680
2936
Essas são apenas outras formas de dizer "rotineira".
05:46
And go back to those three cases that I mentioned at the start.
113
346640
3976
Voltando aos três casos que mencionei no início
05:50
Those are all classic cases of nonroutine tasks.
114
350640
2896
são todos casos clássicos de tarefas não rotineiras.
05:53
Ask a doctor, for instance, how she makes a medical diagnosis,
115
353560
2976
Pergunte a uma médica, por exemplo, como ela faz um diagnóstico,
05:56
and she might be able to give you a few rules of thumb,
116
356560
2656
e ela vai lhe dar algumas regras práticas,
05:59
but ultimately she'd struggle.
117
359240
1656
mas, por fim, ela teria dificuldades.
06:00
She'd say it requires things like creativity and judgment and intuition.
118
360920
4816
Ela diria que requer coisas como criatividade, julgamento e intuição.
06:05
And these things are very difficult to articulate,
119
365760
2376
E essas coisas são difíceis de articular,
06:08
and so it was thought these tasks would be very hard to automate.
120
368160
3096
então se acha que são tarefas muito difíceis de automatizar.
06:11
If a human being can't explain themselves,
121
371280
2536
Se um ser humano não consegue se explicar,
06:13
where on earth do we begin in writing a set of instructions
122
373840
2896
como diabos vamos começar a escrever um conjunto de instruções
06:16
for a machine to follow?
123
376760
1200
para uma máquina seguir?
06:18
Thirty years ago, this view was right,
124
378640
2576
Há 30 anos, essa ideia estava correta,
06:21
but today it's looking shaky,
125
381240
2136
mas hoje parece incerta
06:23
and in the future it's simply going to be wrong.
126
383400
2256
e no futuro simplesmente estará errada.
06:25
Advances in processing power, in data storage capability
127
385680
3256
Avanços no poder de processamento, na capacidade de armazenamento de dados
06:28
and in algorithm design
128
388960
1656
e no projeto de algoritmos
06:30
mean that this routine-nonroutine distinction
129
390640
2496
significam que a distinção entre rotineira e não rotineira está perdendo a utilidade.
06:33
is diminishingly useful.
130
393160
1736
06:34
To see this, go back to the case of making a medical diagnosis.
131
394920
3256
Vamos voltar ao caso do diagnóstico médico.
06:38
Earlier in the year,
132
398200
1376
Mais cedo neste ano,
06:39
a team of researchers at Stanford announced they'd developed a system
133
399600
3296
pesquisadores de Stanford anunciaram ter desenvolvido um sistema
06:42
which can tell you whether or not a freckle is cancerous
134
402920
3056
que pode dizer se uma mancha na pele é cancerosa ou não
06:46
as accurately as leading dermatologists.
135
406000
2680
com tanta precisão quanto um dermatologista experiente.
06:49
How does it work?
136
409280
1256
Como ele funciona?
06:50
It's not trying to copy the judgment or the intuition of a doctor.
137
410560
5296
Ele não está tentando copiar o julgamento ou a intuição de um médico.
06:55
It knows or understands nothing about medicine at all.
138
415880
3136
Ele não sabe nem entende nada sobre medicina.
06:59
Instead, it's running a pattern recognition algorithm
139
419040
2576
Em vez disso, ele executa um algoritmo de reconhecimento de padrões
07:01
through 129,450 past cases,
140
421640
4656
em 129.450 casos anteriores,
07:06
hunting for similarities between those cases
141
426320
3096
buscando por similaridades entre esses casos
07:09
and the particular lesion in question.
142
429440
2080
e a lesão em questão.
07:12
It's performing these tasks in an unhuman way,
143
432080
3216
Ele executa essa tarefa de forma não humana,
07:15
based on the analysis of more possible cases
144
435320
2336
baseado na análise de mais casos
07:17
than any doctor could hope to review in their lifetime.
145
437680
2616
do que qualquer médico poderia examinar em toda a vida.
07:20
It didn't matter that that human being,
146
440320
1896
Não importa que essa pessoa,
07:22
that doctor, couldn't explain how she'd performed the task.
147
442240
2800
esse médico, não consiga explicar como executaria essa tarefa.
07:25
Now, there are those who dwell upon that the fact
148
445640
2336
Há pessoas que se incomodam com o fato de essas máquinas
07:28
that these machines aren't built in our image.
149
448000
2296
não serem construídas à nossa imagem.
07:30
As an example, take IBM's Watson,
150
450320
2056
Como um exemplo, peguem o Watson da IBM,
07:32
the supercomputer that went on the US quiz show "Jeopardy!" in 2011,
151
452400
4856
o supercomputador que em 2011 foi no show de perguntas dos EUA, "Jeopardy!"
07:37
and it beat the two human champions at "Jeopardy!"
152
457280
3016
e derrotou os dois campeões humanos do programa.
07:40
The day after it won,
153
460320
1696
Um dia depois de ele ganhar,
07:42
The Wall Street Journal ran a piece by the philosopher John Searle
154
462040
3296
The Wall Street Journal publicou um artigo do filósofo John Searle
07:45
with the title "Watson Doesn't Know It Won on 'Jeopardy!'"
155
465360
3376
com o título: "Watson não sabe que ganhou o 'Jeopardy!'"
07:48
Right, and it's brilliant, and it's true.
156
468760
1976
Certo, brilhante e verdadeiro.
07:50
You know, Watson didn't let out a cry of excitement.
157
470760
2456
Watson não deixou escapar um gritinho de contentamento.
Não ligou para os pais para receber parabéns.
07:53
It didn't call up its parents to say what a good job it had done.
158
473240
3096
07:56
It didn't go down to the pub for a drink.
159
476360
2336
Não foi para um bar comemorar.
07:58
This system wasn't trying to copy the way that those human contestants played,
160
478720
4456
Esse sistema não estava tentando copiar o jeito dos competidores humanos jogarem,
08:03
but it didn't matter.
161
483200
1256
mas isso não importa.
08:04
It still outperformed them.
162
484480
1976
Ainda assim ele os superou.
08:06
Resolving the intelligence myth
163
486480
1576
Resolver o mito da inteligência
08:08
shows us that our limited understanding about human intelligence,
164
488080
3376
nos mostra que nosso entendimento limitado sobre a inteligência humana,
08:11
about how we think and reason,
165
491480
1896
sobre como pensamos e raciocinamos,
08:13
is far less of a constraint on automation than it was in the past.
166
493400
3456
é um limitador para a automação bem menor do que já foi no passado.
08:16
What's more, as we've seen,
167
496880
1496
E mais, como vimos,
08:18
when these machines perform tasks differently to human beings,
168
498400
3416
quando as máquinas executam tarefas de forma diferente dos seres humanos,
08:21
there's no reason to think
169
501840
1256
não há razão para pensar que aquilo que os humanos conseguem fazer atualmente
08:23
that what human beings are currently capable of doing
170
503120
2536
08:25
represents any sort of summit
171
505680
1456
representa algum tipo de limitador
08:27
in what these machines might be capable of doing in the future.
172
507160
3000
para o que essas máquinas poderão fazer no futuro.
08:31
Now the third myth,
173
511040
1256
O terceiro mito
08:32
what I call the superiority myth.
174
512320
2456
é o que chamo de mito da superioridade.
08:34
It's often said that those who forget
175
514800
2216
Dizem que as pessoas que esquecem do lado útil do progresso tecnológico,
08:37
about the helpful side of technological progress,
176
517040
2456
08:39
those complementarities from before,
177
519520
2496
as complementaridades sobre as quais falei antes,
08:42
are committing something known as the lump of labor fallacy.
178
522040
3040
cometem algo conhecido por falácia do bolo de trabalho.
08:45
Now, the problem is the lump of labor fallacy
179
525840
2295
O problema é que a falácia do bolo de trabalho
08:48
is itself a fallacy,
180
528159
1496
é uma falácia em si,
08:49
and I call this the lump of labor fallacy fallacy,
181
529679
2937
e chamo a isso de a falácia da falácia do bolo de trabalho,
08:52
or LOLFF, for short.
182
532640
2320
or FFBT, pra encurtar.
08:56
Let me explain.
183
536000
1416
Explico. A falácia do bolo de trabalho é uma ideia muito antiga.
08:57
The lump of labor fallacy is a very old idea.
184
537440
2136
08:59
It was a British economist, David Schloss, who gave it this name in 1892.
185
539600
4216
Um economista britânico, David Schloss, deu-lhe este nome em 1892.
09:03
He was puzzled to come across a dock worker
186
543840
2816
Ele ficou intrigado ao deparar-se com um estivador
09:06
who had begun to use a machine to make washers,
187
546680
2336
que começou a usar uma máquina para fazer arruelas,
09:09
the small metal discs that fasten on the end of screws.
188
549040
3320
esses pequenos discos de metal que se usa nos parafusos.
09:13
And this dock worker felt guilty for being more productive.
189
553000
3760
E esse estivador se sentia culpado por ser mais produtivo.
09:17
Now, most of the time, we expect the opposite,
190
557560
2176
Em geral espera-se o contrário,
09:19
that people feel guilty for being unproductive,
191
559760
2216
que as pessoas se sintam culpadas por não produzirem,
por passarem muito tempo no Facebook ou Twitter no trabalho.
09:22
you know, a little too much time on Facebook or Twitter at work.
192
562000
3016
Mas esse trabalhador se sentia culpado por ser mais produtivo.
09:25
But this worker felt guilty for being more productive,
193
565040
2536
09:27
and asked why, he said, "I know I'm doing wrong.
194
567600
2296
Ao ser perguntado por que, disse: "Sei que não está certo.
09:29
I'm taking away the work of another man."
195
569920
2040
Estou tirando o trabalho de outra pessoa".
09:32
In his mind, there was some fixed lump of work
196
572760
2976
Na sua cabeça, havia um bolo fixo de trabalho
09:35
to be divided up between him and his pals,
197
575760
2136
a ser dividido entre ele e seus colegas,
09:37
so that if he used this machine to do more,
198
577920
2056
então, se ele usasse a máquina para fazer mais,
09:40
there'd be less left for his pals to do.
199
580000
2016
sobraria menos para seus colegas fazerem.
09:42
Schloss saw the mistake.
200
582040
1856
Schloss viu o erro.
09:43
The lump of work wasn't fixed.
201
583920
1856
O bolo de trabalho não era fixo.
09:45
As this worker used the machine and became more productive,
202
585800
2816
À medida que o trabalhador usasse a máquina e produzisse mais,
09:48
the price of washers would fall, demand for washers would rise,
203
588640
2976
o preço das arruelas cairia, a demanda aumentaria,
09:51
more washers would have to be made,
204
591640
1696
mais arruelas teriam que ser produzidas, e haveria mais trabalho para seus colegas.
09:53
and there'd be more work for his pals to do.
205
593360
2096
09:55
The lump of work would get bigger.
206
595480
1696
O bolo de trabalho cresceria.
09:57
Schloss called this "the lump of labor fallacy."
207
597200
2680
Schloss chamou isso de "a falácia do bolo de trabalho".
10:00
And today you hear people talk about the lump of labor fallacy
208
600560
2936
E hoje se ouve falar na falácia do bolo de trabalho
para pensar o futuro de todo tipo de trabalho.
10:03
to think about the future of all types of work.
209
603520
2216
10:05
There's no fixed lump of work out there to be divided up
210
605760
2656
Não há um bolo fixo de trabalho
para ser dividido entre pessoas e máquinas.
10:08
between people and machines.
211
608440
1376
Sim, as máquinas substituem os seres humanos,
10:09
Yes, machines substitute for human beings, making the original lump of work smaller,
212
609840
4656
reduzindo o bolo de trabalho original,
10:14
but they also complement human beings,
213
614520
1856
mas elas também complementam os seres humanos,
10:16
and the lump of work gets bigger and changes.
214
616400
2096
e o bolo de trabalho cresce e se modifica.
10:19
But LOLFF.
215
619760
1616
Mas a FFBT.
10:21
Here's the mistake:
216
621400
1376
Aqui está o erro:
10:22
it's right to think that technological progress
217
622800
2216
está correto pensar que o progresso tecnológico
10:25
makes the lump of work to be done bigger.
218
625040
1976
aumenta o bolo de trabalho a ser feito.
Algumas tarefas passam a ter mais valor. Novas tarefas precisam ser feitas.
10:27
Some tasks become more valuable. New tasks have to be done.
219
627040
3016
10:30
But it's wrong to think that necessarily,
220
630080
2536
Mas é errado pensar que necessariamente
10:32
human beings will be best placed to perform those tasks.
221
632640
3256
os seres humanos serão os mais indicados para essas tarefas.
10:35
And this is the superiority myth.
222
635920
1616
E esse é o mito da superioridade.
10:37
Yes, the lump of work might get bigger and change,
223
637560
3416
Sim, o bolo de trabalho pode crescer e mudar,
10:41
but as machines become more capable,
224
641000
1976
mas à medida que as máquinas ficam mais capazes,
10:43
it's likely that they'll take on the extra lump of work themselves.
225
643000
3896
elas mesmas assumem o bolo de trabalho extra.
10:46
Technological progress, rather than complement human beings,
226
646920
3256
O progresso tecnológico, em vez de complementar o ser humano,
10:50
complements machines instead.
227
650200
1880
complementa as máquinas.
10:52
To see this, go back to the task of driving a car.
228
652920
3016
Para ver isso, vamos voltar à tarefa de dirigir um carro.
10:55
Today, satnav systems directly complement human beings.
229
655960
4096
Hoje sistemas de navegação por satélite complementam diretamente os seres humanos.
11:00
They make some human beings better drivers.
230
660080
2280
Eles tornam algumas pessoas melhores motoristas.
11:02
But in the future,
231
662920
1256
Mas, no futuro, o software vai retirar o ser humano do assento do motorista,
11:04
software is going to displace human beings from the driving seat,
232
664200
3096
11:07
and these satnav systems, rather than complement human beings,
233
667320
2936
e esses sistemas de navegação, em vez de complementarem as pessoas,
11:10
will simply make these driverless cars more efficient,
234
670280
2536
vão tornar os carros autônomos mais eficientes,
11:12
helping the machines instead.
235
672840
1536
ajudando as máquinas e não as pessoas.
11:14
Or go to those indirect complementarities that I mentioned as well.
236
674400
4056
Ou pensem nas complementaridades indiretas que mencionei.
11:18
The economic pie may get larger,
237
678480
1776
A torta econômica pode crescer,
11:20
but as machines become more capable,
238
680280
1736
mas, à medida que as máquinas ficarem mais capazes,
11:22
it's possible that any new demand will fall on goods that machines,
239
682040
3143
é possível que toda nova demanda recaia para as máquinas e não para as pessoas.
11:25
rather than human beings, are best placed to produce.
240
685207
2649
11:27
The economic pie may change,
241
687880
1896
A torta econômica pode mudar,
11:29
but as machines become more capable,
242
689800
1896
mas, quando as máquinas ficarem mais capazes,
11:31
it's possible that they'll be best placed to do the new tasks that have to be done.
243
691720
4856
elas podem estar melhor posicionadas para realizar as tarefas necessárias.
11:36
In short, demand for tasks isn't demand for human labor.
244
696600
3696
Resumindo, a demanda por tarefas não é demanda por trabalho humano.
11:40
Human beings only stand to benefit
245
700320
1936
Os seres humanos só se beneficiarão
11:42
if they retain the upper hand in all these complemented tasks,
246
702280
3816
se estiverem à frente em todas as tarefas complementadas,
11:46
but as machines become more capable, that becomes less likely.
247
706120
3720
mas à medida que as máquinas se tornam mais capazes, isso fica mais improvável.
11:50
So what do these three myths tell us then?
248
710760
2016
Então o que esses três mitos nos dizem?
11:52
Well, resolving the Terminator myth
249
712800
1696
Bem, resolver o mito do exterminador
11:54
shows us that the future of work depends upon this balance between two forces:
250
714520
3696
nos mostra que o futuro do trabalho depende do equilíbrio entre duas forças:
11:58
one, machine substitution that harms workers
251
718240
3136
uma, a substituição pelas máquinas que prejudica os trabalhadores,
12:01
but also those complementarities that do the opposite.
252
721400
2576
mas também essas complementaridades, que fazem o oposto.
12:04
And until now, this balance has fallen in favor of human beings.
253
724000
4040
E até agora, esse equilíbrio tem sido a favor dos seres humanos.
12:09
But resolving the intelligence myth
254
729120
1736
Mas resolver o mito da inteligência nos mostra que a primeira força,
12:10
shows us that that first force, machine substitution,
255
730880
2496
a substituição pelas máquinas, está se fortalecendo.
12:13
is gathering strength.
256
733400
1296
12:14
Machines, of course, can't do everything,
257
734720
1976
As máquinas, claro, não podem fazer tudo,
12:16
but they can do far more,
258
736720
1256
mas pode fazer muito mais,
12:18
encroaching ever deeper into the realm of tasks performed by human beings.
259
738000
4576
invadindo cada vez mais o reino das tarefas executadas por seres humanos.
12:22
What's more, there's no reason to think
260
742600
1896
E não há razão para pensar que aquilo que os humanos são capazes atualmente
12:24
that what human beings are currently capable of
261
744520
2216
12:26
represents any sort of finishing line,
262
746760
1856
representa uma espécie de linha de chegada,
12:28
that machines are going to draw to a polite stop
263
748640
2256
que as máquinas vão parar educadamente quando ficarem tão capazes quanto nós.
12:30
once they're as capable as us.
264
750920
1816
12:32
Now, none of this matters
265
752760
1536
Mas nada disso importa
12:34
so long as those helpful winds of complementarity
266
754320
2816
a não ser que esses ventos da complementaridade
12:37
blow firmly enough,
267
757160
1736
soprem com força suficiente,
12:38
but resolving the superiority myth
268
758920
1936
mas resolver o mito da superioridade
12:40
shows us that that process of task encroachment
269
760880
3096
nos mostra que esse processo de invasão de tarefas
12:44
not only strengthens the force of machine substitution,
270
764000
3936
não só aumenta a força da substituição pelas máquinas,
12:47
but it wears down those helpful complementarities too.
271
767960
3336
mas também enfraquece essas complementaridades úteis.
12:51
Bring these three myths together
272
771320
1936
Juntem esses três mitos
12:53
and I think we can capture a glimpse of that troubling future.
273
773280
2936
e acho que podemos vislumbrar um futuro preocupante.
As máquinas continuarão a se tornar mais capazes,
12:56
Machines continue to become more capable,
274
776240
2016
12:58
encroaching ever deeper on tasks performed by human beings,
275
778280
3656
invadindo cada vez mais as tarefas executadas por seres humanos,
13:01
strengthening the force of machine substitution,
276
781960
2576
reforçando a substituição por máquinas
13:04
weakening the force of machine complementarity.
277
784560
3616
e enfraquecendo a complementaridade das máquinas.
13:08
And at some point, that balance falls in favor of machines
278
788200
4296
E em algum momento esse equilíbrio penderá mais para o lado das máquinas
13:12
rather than human beings.
279
792520
2056
do que dos seres humanos.
13:14
This is the path we're currently on.
280
794600
1736
Esse é o caminho que estamos trilhando.
13:16
I say "path" deliberately, because I don't think we're there yet,
281
796360
3176
Digo "caminho" deliberadamente, porque acho que ainda não chegamos lá,
13:19
but it is hard to avoid the conclusion that this is our direction of travel.
282
799560
3640
mas é difícil evitar a conclusão de que estamos indo nessa direção.
13:24
That's the troubling part.
283
804640
1456
Essa é a parte perturbadora.
13:26
Let me say now why I think actually this is a good problem to have.
284
806120
3520
Deixem-me dizer por que eu realmente acho que esse é um problema bom para se ter.
13:30
For most of human history, one economic problem has dominated:
285
810520
3536
Na maior parte da história do homem, um problema econômico dominou:
13:34
how to make the economic pie large enough for everyone to live on.
286
814080
4056
como fazer com que a torta econômica seja grande o suficiente para todos.
13:38
Go back to the turn of the first century AD,
287
818160
2176
No primeiro século depois de Cristo,
13:40
and if you took the global economic pie
288
820360
2096
se pegássemos a torta econômica global
13:42
and divided it up into equal slices for everyone in the world,
289
822480
3296
e a dividíssemos em fatias iguais para todas as pessoas do mundo,
13:45
everyone would get a few hundred dollars.
290
825800
2136
cada uma ganharia algumas centenas de dólares.
13:47
Almost everyone lived on or around the poverty line.
291
827960
2760
Quase todas viveriam próximos à linha da pobreza.
13:51
And if you roll forward a thousand years,
292
831320
2176
E se avançarmos mil anos,
13:53
roughly the same is true.
293
833520
1240
de modo geral ocorreria a mesma coisa.
13:55
But in the last few hundred years, economic growth has taken off.
294
835680
3576
Mas nos últimos séculos, o crescimento econômico decolou.
13:59
Those economic pies have exploded in size.
295
839280
2376
Essas tortas econômicas explodiram de tamanho.
14:01
Global GDP per head,
296
841680
2056
O PIB global por pessoa,
14:03
the value of those individual slices of the pie today,
297
843760
3376
o valor dessas fatias individuais hoje,
14:07
they're about 10,150 dollars.
298
847160
2816
seria em torno de US$ 10.150.
14:10
If economic growth continues at two percent,
299
850000
2696
Se a economia seguir crescendo à taxa de 2%,
14:12
our children will be twice as rich as us.
300
852720
2056
nossos filhos serão duas vezes mais ricos que nós.
14:14
If it continues at a more measly one percent,
301
854800
2296
Se continuar a uma taxa mais modesta, de 1%,
14:17
our grandchildren will be twice as rich as us.
302
857120
2656
nossos netos serão duas vezes mais ricos do que nós.
14:19
By and large, we've solved that traditional economic problem.
303
859800
3680
Considerando tudo isso, solucionamos esse problema econômico tradicional.
14:24
Now, technological unemployment, if it does happen,
304
864200
3016
Agora, se ocorrer o desemprego tecnológico,
14:27
in a strange way will be a symptom of that success,
305
867240
3216
de uma forma estranha ele será um sintoma desse sucesso,
14:30
will have solved one problem -- how to make the pie bigger --
306
870480
3856
terá resolvido um problema: como aumentar a torta;
14:34
but replaced it with another --
307
874360
1816
mas substituído por outro:
14:36
how to make sure that everyone gets a slice.
308
876200
2760
como garantir que todos recebam uma fatia.
14:39
As other economists have noted, solving this problem won't be easy.
309
879840
3496
Como outro economista registrou, resolver esse problema não será fácil.
14:43
Today, for most people,
310
883360
1656
Hoje, para a maioria das pessoas,
14:45
their job is their seat at the economic dinner table,
311
885040
2496
o emprego é seu assento na mesa da economia,
14:47
and in a world with less work or even without work,
312
887560
2416
e em um mundo com menos ou mesmo sem trabalho,
não estará claro como fazer para ganhar sua fatia.
14:50
it won't be clear how they get their slice.
313
890000
2056
14:52
There's a great deal of discussion, for instance,
314
892080
2336
Muito se tem falado, por exemplo,
14:54
about various forms of universal basic income
315
894440
2696
em várias formas de renda básica universal como uma abordagem possível,
14:57
as one possible approach,
316
897160
1216
14:58
and there's trials underway
317
898400
1616
e várias experiências estão sendo feitas nos EUA, na Finlândia e no Quênia.
15:00
in the United States and in Finland and in Kenya.
318
900040
2400
15:03
And this is the collective challenge that's right in front of us,
319
903000
3176
E este é o desafio coletivo que está à nossa frente:
15:06
to figure out how this material prosperity generated by our economic system
320
906200
5056
descobrir como essa prosperidade material gerada por nosso sistema econômico
15:11
can be enjoyed by everyone
321
911280
1976
pode ser desfrutada por todos
15:13
in a world in which our traditional mechanism
322
913280
2416
em um mundo em que nosso mecanismo tradicional de dividir a torta,
15:15
for slicing up the pie,
323
915720
1856
15:17
the work that people do,
324
917600
1936
o trabalho das pessoas,
15:19
withers away and perhaps disappears.
325
919560
2160
diminua e talvez desapareça.
15:22
Solving this problem is going to require us to think in very different ways.
326
922280
4360
Resolver esse problema requer que pensemos de maneiras diferentes.
15:27
There's going to be a lot of disagreement about what ought to be done,
327
927400
4176
Haverá muita discordância sobre o que deve ser feito,
15:31
but it's important to remember that this is a far better problem to have
328
931600
3416
mas é importante lembrar que esse é um problema bem melhor de se ter
15:35
than the one that haunted our ancestors for centuries:
329
935040
2816
do que aquele que assombrou nossos antepassados por séculos:
15:37
how to make that pie big enough in the first place.
330
937880
3376
como aumentar a torta o suficiente.
15:41
Thank you very much.
331
941280
1256
Muito obrigado.
15:42
(Applause)
332
942560
3840
(Aplausos)
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7