3 myths about the future of work (and why they're not true) | Daniel Susskind

169,353 views

2018-04-05 ・ TED


New videos

3 myths about the future of work (and why they're not true) | Daniel Susskind

169,353 views ・ 2018-04-05

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Paula Motter Revisor: Sebastian Betti
00:12
Automation anxiety has been spreading lately,
0
12760
3376
Un fenómeno que últimamente se está difundiendo
es la ansiedad por la automatización,
00:16
a fear that in the future,
1
16160
2656
el miedo de que en un futuro
00:18
many jobs will be performed by machines
2
18840
2456
muchas tareas sean realizadas por máquinas
00:21
rather than human beings,
3
21320
1336
y no por seres humanos,
00:22
given the remarkable advances that are unfolding
4
22680
2936
a juzgar por los grandes avances que se están logrando
00:25
in artificial intelligence and robotics.
5
25640
2776
en el campo de la inteligencia artificial y de la robótica.
00:28
What's clear is that there will be significant change.
6
28440
2816
Lo cierto es que habrá cambios importantes.
00:31
What's less clear is what that change will look like.
7
31280
3616
Lo que no está tan claro es cómo serán esos cambios.
00:34
My research suggests that the future is both troubling and exciting.
8
34920
4936
La investigación que hice sugiere que el futuro
es inquietante e interesante.
00:39
The threat of technological unemployment is real,
9
39880
3736
La amenaza del desempleo tecnológico es real,
00:43
and yet it's a good problem to have.
10
43640
2056
pero aun así es un problema con ventajas.
00:45
And to explain how I came to that conclusion,
11
45720
3216
Y para explicar cómo llegué a esta conclusión,
00:48
I want to confront three myths
12
48960
2536
quiero hablar de tres mitos
00:51
that I think are currently obscuring our vision of this automated future.
13
51520
4280
que en mi opinión hoy impiden tener un claro panorama
de este futuro automatizado.
00:56
A picture that we see on our television screens,
14
56880
2336
Una imagen que solemos ver en las pantallas de TV,
00:59
in books, in films, in everyday commentary
15
59240
2216
en libros, en películas, en las crónicas diarias,
01:01
is one where an army of robots descends on the workplace
16
61480
3696
es la de un ejército de robots que llega a nuestro lugar de trabajo
01:05
with one goal in mind:
17
65200
1376
con un solo objetivo:
01:06
to displace human beings from their work.
18
66600
2496
desplazar a los seres humanos de sus trabajos.
01:09
And I call this the Terminator myth.
19
69120
2696
A esto le llamo el "mito del Exterminador".
01:11
Yes, machines displace human beings from particular tasks,
20
71840
3976
Es verdad, las máquinas desplazan a los humanos en tareas específicas.
01:15
but they don't just substitute for human beings.
21
75840
2256
Pero no solo los reemplazan,
01:18
They also complement them in other tasks,
22
78120
1976
también los complementan en otras tareas,
01:20
making that work more valuable and more important.
23
80120
3616
haciendo que ese trabajo sea más valioso e importante.
01:23
Sometimes they complement human beings directly,
24
83760
3336
A veces las máquinas complementan a los humanos de manera directa,
01:27
making them more productive or more efficient at a particular task.
25
87120
4016
aumentando la productividad y la eficiencia en una tarea particular.
01:31
So a taxi driver can use a satnav system to navigate on unfamiliar roads.
26
91160
4616
Un taxista, por ejemplo, puede usar un GPS para orientarse en sitios desconocidos.
01:35
An architect can use computer-assisted design software
27
95800
3336
Un arquitecto puede usar un software específico
01:39
to design bigger, more complicated buildings.
28
99160
3096
para diseñar edificios más grandes y complejos.
01:42
But technological progress doesn't just complement human beings directly.
29
102280
3696
Pero el progreso tecnológico
no solo complementa al ser humano de manera directa.
01:46
It also complements them indirectly, and it does this in two ways.
30
106000
3336
También lo hace indirectamente, de dos maneras.
01:49
The first is if we think of the economy as a pie,
31
109360
3336
La primera es la siguiente: si concebimos la economía como una tarta,
01:52
technological progress makes the pie bigger.
32
112720
2896
el progreso tecnológico aumenta el tamaño de esa tarta.
01:55
As productivity increases, incomes rise and demand grows.
33
115640
3856
A medida que la productividad aumenta, el ingreso sube y la demanda crece.
01:59
The British pie, for instance,
34
119520
1776
La tarta de Gran Bretaña, por ejemplo,
02:01
is more than a hundred times the size it was 300 years ago.
35
121320
3960
es más de 100 veces mayor que hace 300 años.
02:05
And so people displaced from tasks in the old pie
36
125920
3216
Así, quienes fueron desplazados de sus tareas en la viejo tarta
02:09
could find tasks to do in the new pie instead.
37
129160
2720
encontraron en la nueva tarta otras tareas para hacer.
02:12
But technological progress doesn't just make the pie bigger.
38
132800
3936
Pero el progreso tecnológico no solo agranda la tarta,
02:16
It also changes the ingredients in the pie.
39
136760
2856
sino que también cambia sus ingredientes.
02:19
As time passes, people spend their income in different ways,
40
139640
3456
Con el tiempo, la gente va cambiando la forma en que gasta su ingreso,
02:23
changing how they spread it across existing goods,
41
143120
2816
distribuyéndolo de otra manera entre los productos disponibles,
02:25
and developing tastes for entirely new goods, too.
42
145960
3216
y desarrollando gustos por nuevos productos también.
02:29
New industries are created,
43
149200
1776
Se crean nuevas industrias,
02:31
new tasks have to be done
44
151000
1816
surgen nuevas tareas que realizar
02:32
and that means often new roles have to be filled.
45
152840
2536
y por lo tanto habrá nuevas funciones que cumplir.
02:35
So again, the British pie:
46
155400
1496
Volvamos a la tarta de Gran Bretaña:
02:36
300 years ago, most people worked on farms,
47
156920
2976
hace 300 años, la mayoría de la gente trabajaba en granjas;
02:39
150 years ago, in factories,
48
159920
2336
hace 150 años, en fábricas;
02:42
and today, most people work in offices.
49
162280
2856
y hoy, en oficinas.
02:45
And once again, people displaced from tasks in the old bit of pie
50
165160
4056
De nuevo, quienes fueron desplazados de sus tareas en la vieja tarta
02:49
could tumble into tasks in the new bit of pie instead.
51
169240
2800
pudieron asumir tareas en la porción de la nueva tarta.
02:52
Economists call these effects complementarities,
52
172720
3336
Los economistas llaman a estos efectos "complementariedades",
02:56
but really that's just a fancy word to capture the different way
53
176080
3256
que es en realidad un término elegante para expresar la forma diferente
02:59
that technological progress helps human beings.
54
179360
3136
en que el progreso tecnológico puede ayudar a los humanos.
03:02
Resolving this Terminator myth
55
182520
2096
Resolver este mito del Exterminador
03:04
shows us that there are two forces at play:
56
184640
2336
nos demostrará que hay dos fuerzas en juego:
por un lado, el reemplazo de mano de obra por máquinas,
03:07
one, machine substitution that harms workers,
57
187000
3536
que perjudica al trabajador,
03:10
but also these complementarities that do the opposite.
58
190560
2880
y por el otro estas complementariedades, que hacen lo contrario.
03:13
Now the second myth,
59
193960
1376
Veamos el segundo mito,
03:15
what I call the intelligence myth.
60
195360
2280
que yo llamo "el mito de la inteligencia".
03:18
What do the tasks of driving a car, making a medical diagnosis
61
198440
4896
¿Qué tienen en común las siguientes tareas:
conducir un automóvil, hacer un diagnóstico médico
03:23
and identifying a bird at a fleeting glimpse have in common?
62
203360
2920
e identificar un pájaro con un rápido vistazo?
03:27
Well, these are all tasks that until very recently,
63
207280
2976
Pues bien, hasta hace muy poco los economistas expertos
03:30
leading economists thought couldn't readily be automated.
64
210280
3336
consideraban que estas tareas no podían ser fácilmente automatizadas.
03:33
And yet today, all of these tasks can be automated.
65
213640
3176
Sin embargo, hoy en día todas pueden automatizarse.
03:36
You know, all major car manufacturers have driverless car programs.
66
216840
3496
De hecho, las principales empresas automotrices
cuentan con programas de conducción autónoma.
03:40
There's countless systems out there that can diagnose medical problems.
67
220360
3976
Hay una infinidad de sistemas que pueden diagnosticar problemas médicos.
03:44
And there's even an app that can identify a bird
68
224360
2416
Y hasta hay una aplicación que puede identificar un pájaro
03:46
at a fleeting glimpse.
69
226800
1200
de un rápido vistazo.
03:48
Now, this wasn't simply a case of bad luck on the part of economists.
70
228920
4376
Ahora bien, no es que los economistas hayan tenido mala suerte y nada más.
03:53
They were wrong,
71
233320
1296
Se equivocaron,
03:54
and the reason why they were wrong is very important.
72
234640
2496
y lo importante es por qué se equivocaron.
03:57
They've fallen for the intelligence myth,
73
237160
2256
Se dejaron engañar por el mito de la inteligencia,
03:59
the belief that machines have to copy the way
74
239440
2896
por creer que las máquinas debían copiar la manera
04:02
that human beings think and reason
75
242360
2056
en que pensamos y razonamos para superarnos en rendimiento.
04:04
in order to outperform them.
76
244440
1776
04:06
When these economists were trying to figure out
77
246240
2216
Cuando estos economistas decidieron averiguar
04:08
what tasks machines could not do,
78
248480
1856
cuáles eran las tareas que las máquinas no podían hacer,
04:10
they imagined the only way to automate a task
79
250360
2136
imaginaron que la única forma de automatizar un trabajo
04:12
was to sit down with a human being,
80
252520
1816
era sentarse con un ser humano,
04:14
get them to explain to you how it was they performed a task,
81
254360
3536
pedir que les expliquen cómo hacían el trabajo,
04:17
and then try and capture that explanation
82
257920
2656
y luego tratar de plasmar esa explicación
04:20
in a set of instructions for a machine to follow.
83
260600
2776
en una serie de instrucciones que la máquina debía seguir.
04:23
This view was popular in artificial intelligence at one point, too.
84
263400
4176
En un punto, también se creía esto en el campo de la inteligencia artificial.
04:27
I know this because Richard Susskind,
85
267600
2176
Lo sé porque Richard Susskind,
04:29
who is my dad and my coauthor,
86
269800
2856
que es mi padre y mi coautor,
04:32
wrote his doctorate in the 1980s on artificial intelligence and the law
87
272680
4056
hizo su doctorado en la década de 1980
en la Universidad de Oxford,
04:36
at Oxford University,
88
276760
1416
sobre la inteligencia artificial en el derecho
04:38
and he was part of the vanguard.
89
278200
1576
y formó parte de la vanguardia.
04:39
And with a professor called Phillip Capper
90
279800
2256
Junto con el profesor Phillip Capper
04:42
and a legal publisher called Butterworths,
91
282080
2096
y el editor de textos jurídicos Butterworths
04:44
they produced the world's first commercially available
92
284200
5896
desarrollaron un sistema de inteligencia artificial para juristas,
el primero disponible en el circuito comercial
04:50
artificial intelligence system in the law.
93
290120
2776
a nivel mundial.
04:52
This was the home screen design.
94
292920
2616
Este era el diseño de la pantalla de inicio.
04:55
He assures me this was a cool screen design at the time.
95
295560
2696
Según él, un diseño muy atractivo para la época.
04:58
(Laughter)
96
298280
1016
(Risas)
04:59
I've never been entirely convinced.
97
299320
1696
Nunca me convenció del todo.
05:01
He published it in the form of two floppy disks,
98
301040
2616
Lo publicó en forma de dos discos flexibles,
05:03
at a time where floppy disks genuinely were floppy,
99
303680
3536
en la época en que los discos flexibles eran flexibles en serio.
05:07
and his approach was the same as the economists':
100
307240
2336
Y usó la misma técnica que los economistas:
05:09
sit down with a lawyer,
101
309600
1256
sentarse con la abogada,
05:10
get her to explain to you how it was she solved a legal problem,
102
310880
3176
pedirle que explique cómo resolvía un problema legal,
05:14
and then try and capture that explanation in a set of rules for a machine to follow.
103
314080
5376
y luego tratar de plasmar la explicación en una serie de reglas
que la máquina debía seguir.
05:19
In economics, if human beings could explain themselves in this way,
104
319480
3616
En economía, si los seres humanos se pueden explicar de esta manera,
05:23
the tasks are called routine, and they could be automated.
105
323120
3296
los trabajos se llaman rutinarios, y pueden ser automatizados.
05:26
But if human beings can't explain themselves,
106
326440
2336
Pero si las personas no se saben explicar,
05:28
the tasks are called non-routine, and they're thought to be out reach.
107
328800
4256
los trabajos se llaman no rutinarios, y se los considera inviables.
Actualmente, esa distinción
05:33
Today, that routine-nonroutine distinction is widespread.
108
333080
3296
entre trabajo rutinario y no rutinario está muy difundida.
05:36
Think how often you hear people say to you
109
336400
2056
Pensemos cuántas veces escuchamos
05:38
machines can only perform tasks that are predictable or repetitive,
110
338480
3256
que las máquinas solo pueden hacer tareas predecibles o repetitivas,
05:41
rules-based or well-defined.
111
341760
1896
basadas en reglas o con pautas bien definidas.
05:43
Those are all just different words for routine.
112
343680
2936
Son todos términos distintos para referirse a tareas rutinarias.
05:46
And go back to those three cases that I mentioned at the start.
113
346640
3976
Recordemos los tres casos que mencioné al principio.
05:50
Those are all classic cases of nonroutine tasks.
114
350640
2896
Son todos típicos casos de tareas no rutinarias.
05:53
Ask a doctor, for instance, how she makes a medical diagnosis,
115
353560
2976
Si preguntamos a una médica, por ejemplo, cómo hace un diagnóstico
05:56
and she might be able to give you a few rules of thumb,
116
356560
2656
nos dirá que se basa en algunas reglas intuitivas,
05:59
but ultimately she'd struggle.
117
359240
1656
pero en definitiva le costaría.
06:00
She'd say it requires things like creativity and judgment and intuition.
118
360920
4816
Dirá que ese proceso requiere de creatividad, criterio e intuición.
06:05
And these things are very difficult to articulate,
119
365760
2376
Pero no es fácil articular todo esto
06:08
and so it was thought these tasks would be very hard to automate.
120
368160
3096
y por eso se creía que era muy difícil automatizar estas tareas.
06:11
If a human being can't explain themselves,
121
371280
2536
Si un ser humano no sabe explicarse,
06:13
where on earth do we begin in writing a set of instructions
122
373840
2896
¿cómo diablos empezamos a escribir las instrucciones
06:16
for a machine to follow?
123
376760
1200
para que una máquina las siga?
06:18
Thirty years ago, this view was right,
124
378640
2576
Hace 30 años, esta visión era correcta
06:21
but today it's looking shaky,
125
381240
2136
pero hoy en día es cuestionable
06:23
and in the future it's simply going to be wrong.
126
383400
2256
y en el futuro perderá todo sustento.
06:25
Advances in processing power, in data storage capability
127
385680
3256
Los avances en la capacidad de procesamiento y almacenamiento de datos
06:28
and in algorithm design
128
388960
1656
y en el diseño de algoritmos
06:30
mean that this routine-nonroutine distinction
129
390640
2496
indican que esta distinción entre lo rutinario y lo no rutinario
06:33
is diminishingly useful.
130
393160
1736
06:34
To see this, go back to the case of making a medical diagnosis.
131
394920
3256
será cada vez menos útil.
Para ilustrarlo, volvamos al caso del médico que hace un diagnóstico.
06:38
Earlier in the year,
132
398200
1376
A principio de año,
06:39
a team of researchers at Stanford announced they'd developed a system
133
399600
3296
un equipo de investigadores de Stanford anunció el desarrollo de un sistema
06:42
which can tell you whether or not a freckle is cancerous
134
402920
3056
que puede identificar si una mancha en la piel es cancerígena o no
06:46
as accurately as leading dermatologists.
135
406000
2680
con la misma precisión del diagnóstico de dermatólogos de prestigio.
06:49
How does it work?
136
409280
1256
¿Cómo funciona?
06:50
It's not trying to copy the judgment or the intuition of a doctor.
137
410560
5296
No intenta imitar el criterio ni la intuición de un médico.
06:55
It knows or understands nothing about medicine at all.
138
415880
3136
No sabe ni entiende de medicina.
06:59
Instead, it's running a pattern recognition algorithm
139
419040
2576
En cambio, ejecuta un algoritmo de reconocimiento de patrones
07:01
through 129,450 past cases,
140
421640
4656
que recorre 129 450 casos previos,
07:06
hunting for similarities between those cases
141
426320
3096
y busca similitudes entre esos casos y la lesión específica en cuestión.
07:09
and the particular lesion in question.
142
429440
2080
07:12
It's performing these tasks in an unhuman way,
143
432080
3216
Realiza estas tareas de una manera no humana,
07:15
based on the analysis of more possible cases
144
435320
2336
analizando los casos más probables,
07:17
than any doctor could hope to review in their lifetime.
145
437680
2616
que serían imposibles de revisar para cualquier médico en toda su vida.
07:20
It didn't matter that that human being,
146
440320
1896
No importó si ese ser humano,
07:22
that doctor, couldn't explain how she'd performed the task.
147
442240
2800
si esa médica, no pudo explicar cómo había hecho la tarea.
07:25
Now, there are those who dwell upon that the fact
148
445640
2336
Ahora bien, hay quienes tienen sus reparos
07:28
that these machines aren't built in our image.
149
448000
2296
porque estas máquinas no están hechas a semejanza de un humano.
07:30
As an example, take IBM's Watson,
150
450320
2056
Como ejemplo, tomemos a Watson, la supercomputadora de IBM
07:32
the supercomputer that went on the US quiz show "Jeopardy!" in 2011,
151
452400
4856
que participó de un concurso en "Jeopardy!" en EE.UU. en 2011
07:37
and it beat the two human champions at "Jeopardy!"
152
457280
3016
y le ganó a dos campeones humanos en el programa.
07:40
The day after it won,
153
460320
1696
Al día siguiente,
07:42
The Wall Street Journal ran a piece by the philosopher John Searle
154
462040
3296
el periódico Wall Street Journal publicó un artículo del filósofo John Searle
07:45
with the title "Watson Doesn't Know It Won on 'Jeopardy!'"
155
465360
3376
titulado "Watson no sabe que ganó en 'Jeopardy!'"
07:48
Right, and it's brilliant, and it's true.
156
468760
1976
Brillante y cierto.
07:50
You know, Watson didn't let out a cry of excitement.
157
470760
2456
Watson no gritó de felicidad.
No llamó a sus padres para contarles de su logro.
07:53
It didn't call up its parents to say what a good job it had done.
158
473240
3096
07:56
It didn't go down to the pub for a drink.
159
476360
2336
No fue al bar a tomar un trago.
07:58
This system wasn't trying to copy the way that those human contestants played,
160
478720
4456
El sistema no pretendía copiar la forma en que jugaban los participantes humanos,
08:03
but it didn't matter.
161
483200
1256
pero no tenía importancia.
08:04
It still outperformed them.
162
484480
1976
Aun así, les ganó.
08:06
Resolving the intelligence myth
163
486480
1576
Al resolver el mito de la inteligencia,
08:08
shows us that our limited understanding about human intelligence,
164
488080
3376
podemos ver que nuestro limitado conocimiento de la inteligencia humana,
08:11
about how we think and reason,
165
491480
1896
de la manera en que pensamos y razonamos,
08:13
is far less of a constraint on automation than it was in the past.
166
493400
3456
ya no es una limitación para la automatización
08:16
What's more, as we've seen,
167
496880
1496
como lo era en el pasado.
Más aun, hemos visto que cuando estas máquinas
08:18
when these machines perform tasks differently to human beings,
168
498400
3416
hacen tareas de un modo distinto al de los seres humanos,
08:21
there's no reason to think
169
501840
1256
no hay motivo para pensar
08:23
that what human beings are currently capable of doing
170
503120
2536
que lo que nosotros podemos hacer
08:25
represents any sort of summit
171
505680
1456
sería una especie de punto máximo
08:27
in what these machines might be capable of doing in the future.
172
507160
3000
de lo que estas máquinas llegarían a hacer en el futuro.
08:31
Now the third myth,
173
511040
1256
Veamos el tercer mito,
08:32
what I call the superiority myth.
174
512320
2456
que yo llamo "el mito de la superioridad".
08:34
It's often said that those who forget
175
514800
2216
Suele decirse que quienes olvidan el lado útil del progreso tecnológico,
08:37
about the helpful side of technological progress,
176
517040
2456
08:39
those complementarities from before,
177
519520
2496
las complementariedades que mencioné,
08:42
are committing something known as the lump of labor fallacy.
178
522040
3040
están cayendo en lo que se denomina la falacia de la cantidad fija de trabajo.
08:45
Now, the problem is the lump of labor fallacy
179
525840
2295
Pues bien, el problema es que esta falacia es una falacia en sí misma;
08:48
is itself a fallacy,
180
528159
1496
08:49
and I call this the lump of labor fallacy fallacy,
181
529679
2937
por eso la llamo
la falacia de la falacia de la cantidad fija de trabajo.
08:52
or LOLFF, for short.
182
532640
2320
08:56
Let me explain.
183
536000
1416
Paso a explicarla.
08:57
The lump of labor fallacy is a very old idea.
184
537440
2136
La falacia de la cantidad fija de trabajo es un viejo concepto.
08:59
It was a British economist, David Schloss, who gave it this name in 1892.
185
539600
4216
Un economista británico, David Schloss, le dio este nombre en 1892.
09:03
He was puzzled to come across a dock worker
186
543840
2816
Quedó asombrado cuando una vez vio a un estibador
09:06
who had begun to use a machine to make washers,
187
546680
2336
que había empezado a usar una máquina para hacer arandelas,
09:09
the small metal discs that fasten on the end of screws.
188
549040
3320
esos pequeños discos metálicos que mantienen apretados los tornillos.
09:13
And this dock worker felt guilty for being more productive.
189
553000
3760
Este estibador sentía culpa por aumentar su productividad.
09:17
Now, most of the time, we expect the opposite,
190
557560
2176
Claro que casi siempre ocurre lo contrario:
09:19
that people feel guilty for being unproductive,
191
559760
2216
sentimos culpa por no ser productivos,
por pasar demasiado tiempo en Facebook o Twitter en el trabajo.
09:22
you know, a little too much time on Facebook or Twitter at work.
192
562000
3016
Pero esta persona sentía culpa por ser más productiva,
09:25
But this worker felt guilty for being more productive,
193
565040
2536
y lo explicó diciendo: "Sé que estoy haciendo lo incorrecto;
09:27
and asked why, he said, "I know I'm doing wrong.
194
567600
2296
09:29
I'm taking away the work of another man."
195
569920
2040
le estoy quitando trabajo a otra persona".
09:32
In his mind, there was some fixed lump of work
196
572760
2976
En su visión, había una cantidad fija de trabajo
09:35
to be divided up between him and his pals,
197
575760
2136
que debía dividirse entre él y sus compañeros,
09:37
so that if he used this machine to do more,
198
577920
2056
y al usar una máquina para aumentar la producción
09:40
there'd be less left for his pals to do.
199
580000
2016
habría menos trabajo para sus compañeros.
09:42
Schloss saw the mistake.
200
582040
1856
Schloss vio el error.
09:43
The lump of work wasn't fixed.
201
583920
1856
La cantidad de trabajo no era fija.
09:45
As this worker used the machine and became more productive,
202
585800
2816
Cuando este trabajador usara la máquina y aumentara su producción,
09:48
the price of washers would fall, demand for washers would rise,
203
588640
2976
el precio de las arandelas caería, la demanda crecería,
09:51
more washers would have to be made,
204
591640
1696
surgiría la necesidad de hacer más arandelas,
09:53
and there'd be more work for his pals to do.
205
593360
2096
y habría más trabajo para sus compañeros.
09:55
The lump of work would get bigger.
206
595480
1696
La cantidad de trabajo aumentaría.
09:57
Schloss called this "the lump of labor fallacy."
207
597200
2680
Schloss le llamó a esto "la falacia de la cantidad fija de trabajo".
10:00
And today you hear people talk about the lump of labor fallacy
208
600560
2936
Actualmente se habla de esta falacia
para referirse al futuro de todos los trabajos.
10:03
to think about the future of all types of work.
209
603520
2216
10:05
There's no fixed lump of work out there to be divided up
210
605760
2656
No hay una cantidad fija de trabajo que deba dividirse
entre las personas y las máquinas.
10:08
between people and machines.
211
608440
1376
10:09
Yes, machines substitute for human beings, making the original lump of work smaller,
212
609840
4656
Sí, es cierto que las máquinas sustituyen a los humanos
y así disminuye la cantidad de trabajo,
10:14
but they also complement human beings,
213
614520
1856
pero también los complementan
10:16
and the lump of work gets bigger and changes.
214
616400
2096
y la cantidad de trabajo aumenta y cambia.
10:19
But LOLFF.
215
619760
1616
Pero la falacia de esta falacia entraña un error:
10:21
Here's the mistake:
216
621400
1376
10:22
it's right to think that technological progress
217
622800
2216
es correcto pensar que el progreso tecnológico
10:25
makes the lump of work to be done bigger.
218
625040
1976
aumenta la cantidad de trabajo.
10:27
Some tasks become more valuable. New tasks have to be done.
219
627040
3016
Algunas tareas se valorizan, nuevas tareas aparecen.
10:30
But it's wrong to think that necessarily,
220
630080
2536
Pero es incorrecto pensar que necesariamente los humanos
10:32
human beings will be best placed to perform those tasks.
221
632640
3256
estaremos en mejores condiciones de hacer esas tareas.
10:35
And this is the superiority myth.
222
635920
1616
Y este es "el mito de la superioridad".
10:37
Yes, the lump of work might get bigger and change,
223
637560
3416
Efectivamente, la cantidad de trabajo puede ser mayor y cambiar,
pero a medida que las máquinas se hacen más capaces,
10:41
but as machines become more capable,
224
641000
1976
10:43
it's likely that they'll take on the extra lump of work themselves.
225
643000
3896
es posible que asuman esa cantidad extra de trabajo.
10:46
Technological progress, rather than complement human beings,
226
646920
3256
El progreso tecnológico, más que complementar a los humanos,
10:50
complements machines instead.
227
650200
1880
complementa a las máquinas.
10:52
To see this, go back to the task of driving a car.
228
652920
3016
Para entenderlo, volvamos a la tarea de conducir un automóvil.
10:55
Today, satnav systems directly complement human beings.
229
655960
4096
Hoy en día, los sistemas de GPS
nos complementan a los humanos de forma directa.
11:00
They make some human beings better drivers.
230
660080
2280
Nos hacen mejores conductores.
11:02
But in the future,
231
662920
1256
Pero en el futuro
11:04
software is going to displace human beings from the driving seat,
232
664200
3096
el software desplazará a los humanos del asiento del conductor,
11:07
and these satnav systems, rather than complement human beings,
233
667320
2936
y estos sistemas de GPS, en lugar de complementar a los humanos,
11:10
will simply make these driverless cars more efficient,
234
670280
2536
simplemente harán que los vehículos sin piloto sean más eficientes,
11:12
helping the machines instead.
235
672840
1536
y ayudarán a las máquinas.
11:14
Or go to those indirect complementarities that I mentioned as well.
236
674400
4056
O vayamos a las complementariedades indirectas que mencioné antes.
11:18
The economic pie may get larger,
237
678480
1776
La tarta de la economía puede agrandarse,
11:20
but as machines become more capable,
238
680280
1736
pero a medida que las máquinas se hagan más eficientes,
11:22
it's possible that any new demand will fall on goods that machines,
239
682040
3143
es posible que haya mayor demanda de productos fabricados por máquinas
11:25
rather than human beings, are best placed to produce.
240
685207
2649
y no por humanos.
11:27
The economic pie may change,
241
687880
1896
La tarta de la economía puede cambiar,
11:29
but as machines become more capable,
242
689800
1896
pero a medida que las máquinas se hagan más capaces,
11:31
it's possible that they'll be best placed to do the new tasks that have to be done.
243
691720
4856
es posible que estén mejor posicionadas para realizar las nuevas tareas.
11:36
In short, demand for tasks isn't demand for human labor.
244
696600
3696
En definitiva, la demanda de tareas no implica demanda de trabajo humano.
11:40
Human beings only stand to benefit
245
700320
1936
Los seres humanos se benefician únicamente
11:42
if they retain the upper hand in all these complemented tasks,
246
702280
3816
si se mantienen a la delantera en todas estas tareas complementadas,
11:46
but as machines become more capable, that becomes less likely.
247
706120
3720
pero a medida que las máquinas se hacen más capaces,
esas posibilidades se reducen.
11:50
So what do these three myths tell us then?
248
710760
2016
Ahora bien, ¿qué nos enseñan estos tres mitos?
11:52
Well, resolving the Terminator myth
249
712800
1696
Resolver el mito del Exterminador
11:54
shows us that the future of work depends upon this balance between two forces:
250
714520
3696
muestra que el futuro del trabajo depende del equilibrio entre dos fuerzas:
11:58
one, machine substitution that harms workers
251
718240
3136
una, la sustitución de mano de obra por máquinas
--que perjudica al trabajador--
12:01
but also those complementarities that do the opposite.
252
721400
2576
y la otra, las complementariedades
12:04
And until now, this balance has fallen in favor of human beings.
253
724000
4040
que hacen lo opuesto.
Y, hasta ahora, esta balanza se ha inclinado a favor de los humanos.
Resolver el mito de la inteligencia
12:09
But resolving the intelligence myth
254
729120
1736
12:10
shows us that that first force, machine substitution,
255
730880
2496
muestra que esa primera fuerza, el reemplazo del trabajo por máquinas,
12:13
is gathering strength.
256
733400
1296
se está imponiendo.
12:14
Machines, of course, can't do everything,
257
734720
1976
Está claro que las máquinas no pueden hacer todo,
12:16
but they can do far more,
258
736720
1256
pero sí mucho más,
12:18
encroaching ever deeper into the realm of tasks performed by human beings.
259
738000
4576
penetrando más aún en el terreno de las tareas hechas por nosotros.
12:22
What's more, there's no reason to think
260
742600
1896
Además, no hay motivo para pensar
12:24
that what human beings are currently capable of
261
744520
2216
que lo que los humanos podemos hacer hoy sería una especie de línea de llegada
12:26
represents any sort of finishing line,
262
746760
1856
12:28
that machines are going to draw to a polite stop
263
748640
2256
y que las máquinas se detendrán tranquilamente en su avance
12:30
once they're as capable as us.
264
750920
1816
una vez que igualen la capacidad humana.
12:32
Now, none of this matters
265
752760
1536
Ahora bien, nada de esto tiene importancia
12:34
so long as those helpful winds of complementarity
266
754320
2816
mientras esos vientos favorables de la complementariedad
12:37
blow firmly enough,
267
757160
1736
12:38
but resolving the superiority myth
268
758920
1936
soplen con suficiente fuerza.
Pero resolver el mito de la superioridad
12:40
shows us that that process of task encroachment
269
760880
3096
nos muestra que ese proceso de invasión de tareas
12:44
not only strengthens the force of machine substitution,
270
764000
3936
no solo robustece la fuerza de la sustitución del trabajo por máquinas
12:47
but it wears down those helpful complementarities too.
271
767960
3336
sino que también debilita esas útiles complementariedades.
12:51
Bring these three myths together
272
771320
1936
Si reunimos estos tres mitos
12:53
and I think we can capture a glimpse of that troubling future.
273
773280
2936
podremos tener una idea de ese inquietante futuro.
Las máquinas siguen siendo cada vez más capaces,
12:56
Machines continue to become more capable,
274
776240
2016
12:58
encroaching ever deeper on tasks performed by human beings,
275
778280
3656
invadiendo cada vez más las tareas realizadas por seres humanos,
13:01
strengthening the force of machine substitution,
276
781960
2576
robusteciendo la fuerza de la sustitución del trabajo por máquinas
13:04
weakening the force of machine complementarity.
277
784560
3616
y debilitando la fuerza de las complementariedades.
13:08
And at some point, that balance falls in favor of machines
278
788200
4296
Y en un punto, la balanza se inclina a favor de las máquinas
13:12
rather than human beings.
279
792520
2056
más que de los seres humanos.
13:14
This is the path we're currently on.
280
794600
1736
Este es el camino que hoy estamos transitando.
13:16
I say "path" deliberately, because I don't think we're there yet,
281
796360
3176
Y digo "camino" a propósito porque no creo que hayamos llegado,
13:19
but it is hard to avoid the conclusion that this is our direction of travel.
282
799560
3640
pero no podemos negar que vamos en esa dirección.
13:24
That's the troubling part.
283
804640
1456
Esto es lo inquietante.
13:26
Let me say now why I think actually this is a good problem to have.
284
806120
3520
Les diré ahora por qué considero que este es un problema con ventajas.
13:30
For most of human history, one economic problem has dominated:
285
810520
3536
En casi toda la historia de la humanidad, el problema económico dominante ha sido
13:34
how to make the economic pie large enough for everyone to live on.
286
814080
4056
cómo hacer para que la tarta de la economía alcance para todos.
Vayamos a comienzos del primer siglo de nuestra era,
13:38
Go back to the turn of the first century AD,
287
818160
2176
13:40
and if you took the global economic pie
288
820360
2096
y veremos que si la tarta de la economía global
13:42
and divided it up into equal slices for everyone in the world,
289
822480
3296
se dividiera en porciones iguales para todas las personas del mundo,
13:45
everyone would get a few hundred dollars.
290
825800
2136
cada uno recibiría unos cientos de dólares.
13:47
Almost everyone lived on or around the poverty line.
291
827960
2760
Casi todas las personas vivían al borde de la línea de pobreza, o cerca.
13:51
And if you roll forward a thousand years,
292
831320
2176
Y si nos adelantamos mil años,
13:53
roughly the same is true.
293
833520
1240
sigue siendo igual, en líneas generales.
13:55
But in the last few hundred years, economic growth has taken off.
294
835680
3576
Pero en los últimos cien años, la economía ha tomado vuelo.
13:59
Those economic pies have exploded in size.
295
839280
2376
Esas tartas de la economía se han disparado en tamaño.
14:01
Global GDP per head,
296
841680
2056
El PIB mundial per cápita,
14:03
the value of those individual slices of the pie today,
297
843760
3376
el valor actual de esas porciones individuales de la tarta,
14:07
they're about 10,150 dollars.
298
847160
2816
es de unos USD 10 150.
14:10
If economic growth continues at two percent,
299
850000
2696
Si la economía sigue creciendo al ritmo del 2 %,
14:12
our children will be twice as rich as us.
300
852720
2056
nuestros hijos serán el doble de ricos que nosotros.
14:14
If it continues at a more measly one percent,
301
854800
2296
Y si continúa su crecimiento en un modesto 1 %,
14:17
our grandchildren will be twice as rich as us.
302
857120
2656
nuestro nietos serán el doble de ricos que nosotros.
14:19
By and large, we've solved that traditional economic problem.
303
859800
3680
En líneas generales, hemos resuelto ese tradicional problema económico.
14:24
Now, technological unemployment, if it does happen,
304
864200
3016
Ahora bien, si se produce el desempleo tecnológico,
14:27
in a strange way will be a symptom of that success,
305
867240
3216
será, curiosamente, un síntoma de ese éxito.
14:30
will have solved one problem -- how to make the pie bigger --
306
870480
3856
Habrá resuelto el problema de cómo agrandar la tarta,
14:34
but replaced it with another --
307
874360
1816
pero creará otro:
14:36
how to make sure that everyone gets a slice.
308
876200
2760
cómo asegurarse de que todos reciban una porción.
14:39
As other economists have noted, solving this problem won't be easy.
309
879840
3496
Tal y como piensan otros economistas, resolver este problema no será fácil.
14:43
Today, for most people,
310
883360
1656
Actualmente, para la mayoría,
14:45
their job is their seat at the economic dinner table,
311
885040
2496
el trabajo es nuestro asiento a la mesa de la economía,
14:47
and in a world with less work or even without work,
312
887560
2416
y en un mundo con menos trabajo o incluso sin trabajo,
14:50
it won't be clear how they get their slice.
313
890000
2056
no está claro cómo obtendrán su porción.
14:52
There's a great deal of discussion, for instance,
314
892080
2336
Mucho se ha debatido, por ejemplo,
14:54
about various forms of universal basic income
315
894440
2696
sobre las distintas formas de ingreso básico universal
14:57
as one possible approach,
316
897160
1216
como una medida posible,
14:58
and there's trials underway
317
898400
1616
y se están realizando ensayos
15:00
in the United States and in Finland and in Kenya.
318
900040
2400
en Estados Unidos, Finlandia y Kenia.
15:03
And this is the collective challenge that's right in front of us,
319
903000
3176
Este es el desafío colectivo que debemos enfrentar,
15:06
to figure out how this material prosperity generated by our economic system
320
906200
5056
cómo hacer que esta prosperidad material generada por nuestro sistema económico
15:11
can be enjoyed by everyone
321
911280
1976
sea disfrutado por todos,
15:13
in a world in which our traditional mechanism
322
913280
2416
en un mundo donde el mecanismo tradicional de distribuir
15:15
for slicing up the pie,
323
915720
1856
las porciones de la tarta,
15:17
the work that people do,
324
917600
1936
el trabajo que hace la gente,
15:19
withers away and perhaps disappears.
325
919560
2160
se debilita y quizá desaparezca.
15:22
Solving this problem is going to require us to think in very different ways.
326
922280
4360
Resolver este problema nos obligará a pensar de otras maneras.
15:27
There's going to be a lot of disagreement about what ought to be done,
327
927400
4176
Habrá grandes desacuerdos sobre el camino a seguir,
15:31
but it's important to remember that this is a far better problem to have
328
931600
3416
pero es importante recordar que es mejor tener este problema
15:35
than the one that haunted our ancestors for centuries:
329
935040
2816
que el que acechó a nuestros ancestros durante siglos:
15:37
how to make that pie big enough in the first place.
330
937880
3376
cómo hacer que esa tarta sea lo suficientemente grande.
15:41
Thank you very much.
331
941280
1256
Muchas gracias.
15:42
(Applause)
332
942560
3840
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7