Leaders and machines

14,145 views ・ 2022-03-15

BBC Learning English


Haga doble clic en los subtítulos en inglés para reproducir el vídeo. Los subtítulos traducidos se traducen automáticamente.

00:01
Robots might be on the factory floor now,
0
1520
3200
Los robots pueden estar en la planta de producción ahora,
00:04
but could they one day be your boss?
1
4720
2360
pero ¿podrían algún día ser su jefe?
00:07
Robots are not perfect and they are not perfect for everything,
2
7080
4520
Los robots no son perfectos y no son perfectos para todo,
00:11
but they do have a capability to do some things
3
11600
3640
pero tienen la capacidad de hacer algunas cosas
00:15
that humans can only dream of doing.
4
15240
2720
que los humanos solo pueden soñar con hacer.
00:17
We are going to look at leadership in a future working alongside robots,
5
17960
4840
Vamos a analizar el liderazgo en un futuro trabajando junto con robots
00:22
and what this could mean for you.
6
22800
3160
y lo que esto podría significar para usted.
00:27
A global tech giant, Alibaba rivals Amazon
7
27760
4000
Un gigante tecnológico global, Alibaba rivaliza con Amazon
00:31
for the title of world's largest online retailer.
8
31760
3920
por el título de minorista en línea más grande del mundo.
00:35
It has some 800 million users.
9
35680
3000
Tiene unos 800 millones de usuarios.
00:38
It doesn't just help you shop;
10
38680
2160
No solo te ayuda a comprar;
00:40
it can also bank your money and store your data.
11
40840
4160
también puede depositar su dinero y almacenar sus datos.
00:45
Alibaba has got so big,
12
45000
1840
Alibaba se ha vuelto tan grande que
00:46
the Chinese government wants new rules to curb its power.
13
46840
3880
el gobierno chino quiere nuevas reglas para frenar su poder.
00:50
The company has long embraced artificial intelligence, or AI.
14
50720
5440
La compañía ha adoptado durante mucho tiempo la inteligencia artificial o IA.
00:56
It uses algorithms to provide a personalised service for its customers
15
56160
4480
Utiliza algoritmos para brindar un servicio personalizado a sus clientes
01:00
and robots to process and pack goods in its warehouses.
16
60640
4160
y robots para procesar y empacar mercancías en sus almacenes.
01:04
Jack Ma, who founded the firm,
17
64800
2160
Jack Ma, quien fundó la empresa,
01:06
believes robots could one day run companies.
18
66960
2880
cree que algún día los robots podrían dirigir empresas.
01:09
He says, 'In 30 years,
19
69840
2000
Él dice: 'En 30 años,
01:11
a robot will likely be on the cover of Time magazine
20
71840
2920
un robot probablemente estará en la portada de la revista Time
01:14
as the best CEO.'
21
74760
2800
como el mejor director ejecutivo'.
01:17
However, another pioneer of the tech world,
22
77560
2800
Sin embargo, otro pionero del mundo tecnológico,
01:20
the American Elon Musk, is more worried.
23
80360
3080
el estadounidense Elon Musk, está más preocupado.
01:23
He fears robots could one day get rid of us entirely.
24
83440
3240
Teme que algún día los robots puedan deshacerse de nosotros por completo.
01:26
So, how will leadership look in a world of AI?
25
86680
5120
Entonces, ¿cómo se verá el liderazgo en un mundo de IA?
01:31
So, a big advantage for human beings,
26
91800
2600
Entonces, una gran ventaja para los seres humanos,
01:34
  in having more robots and AI in the workplace,
27
94400
3280
al tener más robots e inteligencia artificial en el lugar de trabajo,
01:37
are clearly that... that these technologies
28
97680
2080
es claramente que... que estas
01:39
can perhaps in the future do a lot of the dirty work for us,
29
99760
3200
tecnologías tal vez en el futuro puedan hacer gran parte del trabajo sucio por nosotros,
01:42
and by dirty work, I think I mean things like
30
102960
2840
y con el trabajo sucio, creo. Me refiero a cosas como
01:45
heavy lifting, cleaning, moving goods from A to B,
31
105800
4120
levantar objetos pesados, limpiar, mover productos de A a B,
01:49
but it can also mean repetitive, computer-based tasks
32
109920
2640
pero también puede significar tareas repetitivas basadas en computadora
01:52
and it's not very healthy for human beings
33
112560
1680
y no es muy saludable para los seres humanos
01:54
to be in front of a computer for extended periods of time.
34
114240
3280
estar frente a una computadora por largos períodos de tiempo.
01:57
And that can free up human beings to do a lot more thinking:
35
117520
3200
Y eso puede liberar a los seres humanos para pensar mucho más
02:00
to think about – big thoughts about the future,
36
120720
2680
: pensar en grandes pensamientos sobre el futuro,
02:03
about what a carbon-neutral planet looks like,
37
123400
3880
sobre cómo se ve un planeta neutral en carbono ,
02:07
about the kinds of communities we want to develop.
38
127280
4320
sobre los tipos de comunidades que queremos desarrollar.
02:11
So, robots and AI could free us
39
131600
2400
Entonces, los robots y la IA podrían liberarnos
02:14
from the dull, repetitive work we don't want to do.
40
134000
3640
del trabajo aburrido y repetitivo que no queremos hacer.
02:17
But aren't there dangers with that?
41
137640
2640
¿Pero no hay peligros con eso?
02:20
So, the big danger essentially is that,
42
140280
2240
Entonces, el gran peligro esencialmente es que,
02:22
if our workplace has become more automated
43
142520
3200
si nuestro lugar de trabajo se ha vuelto más automatizado
02:25
and busier with robotics,
44
145720
2880
y más ocupado con la robótica,
02:28
that we'll have to have something to do,
45
148600
1440
tendremos que hacer algo,
02:30
and governments will have to find solutions
46
150040
3640
y los gobiernos tendrán que encontrar soluciones
02:33
to ever greater numbers of people, who might not be out of work,
47
153680
4080
para un número cada vez mayor de personas, que podrían no estar sin trabajo,
02:37
but sort-of hopping from one insecure temporary job to another.
48
157760
3400
pero saltando de un trabajo temporal inseguro a otro.
02:41
And that presents really big, actually, social challenges.
49
161160
3680
Y eso presenta desafíos sociales realmente grandes.
02:44
Giving more jobs to robots and AI
50
164840
2640
Dar más trabajos a los robots y la
02:47
is going to present huge social challenges to humans.
51
167480
3800
IA presentará enormes desafíos sociales para los humanos.
02:51
Where does leadership fit into this?
52
171280
3000
¿Dónde encaja el liderazgo en esto?
02:54
A key part of leadership, as opposed to management,
53
174280
3280
Una parte clave del liderazgo, a diferencia de la gestión,
02:57
is how central care is to leadership:
54
177560
3160
es cuán central es el cuidado para el liderazgo:
03:00
care, understanding and empathy.
55
180720
2000
cuidado, comprensión y empatía.
03:02
And so, in its most obvious guises, we can think of caring for others,
56
182720
4200
Y así, en sus formas más obvias, podemos pensar en cuidar a los demás,
03:06
the people who are more vulnerable than ourselves –
57
186920
2000
las personas que son más vulnerables que nosotros,
03:08
and this is just really something that robots, no matter how sophisticated,
58
188920
3600
y esto es realmente algo que los robots, sin importar cuán sofisticados sean,
03:12
can't be replaced by human beings.
59
192520
1920
no pueden ser reemplazados por seres humanos.
03:14
But the central task of leadership, which is walking with people,
60
194440
3320
Pero la tarea central del liderazgo, que es caminar con la gente,
03:17
responding to their needs, caring for them –
61
197760
2320
responder a sus necesidades, preocuparse por ellos, tanto
03:20
on the big issues as well as the small issues –
62
200080
2440
en los grandes como en los pequeños,
03:22
is something that robots will probably never be able to compensate for.
63
202520
5120
es algo que los robots probablemente nunca podrán compensar.
03:27
So, qualities such as empathy, care
64
207640
2560
Por lo tanto, cualidades como la empatía, el cuidado
03:30
and understanding in leadership will be very important –
65
210200
3480
y la comprensión en el liderazgo serán muy importantes:
03:33
human skills that robots will probably never acquire.
66
213680
3960
habilidades humanas que los robots probablemente nunca adquirirán.
03:37
There are loads of ethical responsibilities
67
217640
1800
Hay un montón de responsabilidades éticas
03:39
for people who are creating AI,
68
219440
1680
para las personas que están creando IA,
03:41
but also people who are in charge of implementing it
69
221120
3000
pero también para las personas que están a cargo de implementarla
03:44
and seeing how it progresses through organisations and society.
70
224120
3920
y ver cómo progresa a través de las organizaciones y la sociedad. Creo que
03:48
The main ethical issue, I think, here is that AI,
71
228040
2960
el principal problema ético aquí es que la IA,
03:51
in some senses, is a kind of automation of a human will,
72
231000
4920
en algunos sentidos, es una especie de automatización de la voluntad humana,
03:55
which can unfortunately include lots of human prejudices.
73
235920
2800
que lamentablemente puede incluir muchos prejuicios humanos.
03:58
So, for example, there have been problems with policing algorithms,
74
238720
4280
Entonces, por ejemplo, ha habido problemas con los algoritmos policiales,
04:03
in the sense that they have reflected, maybe, some underlying racial biases
75
243000
4120
en el sentido de que han reflejado, quizás, algunos prejuicios raciales subyacentes
04:07
of certain police forces, in terms of where they deploy resources.
76
247120
3560
de ciertas fuerzas policiales, en términos de dónde despliegan los recursos.
04:10
So, we have to keep a really close eye
77
250680
1760
Por lo tanto, tenemos que vigilar muy de cerca
04:12
and it's a really big, ethical leadership responsibility
78
252440
3000
y es una gran responsabilidad de liderazgo ético
04:15
to keep a close eye on how artificial intelligence is deployed –
79
255440
4160
vigilar de cerca cómo se implementa la inteligencia artificial,
04:19
that it doesn't get out of hand and doesn't actually automate
80
259600
3160
que no se salga de control y en realidad no automatice
04:22
really serious ethical problems.
81
262760
2840
problemas éticos realmente serios. .
04:25
We need our leaders to be ethical and responsible when implementing AI,
82
265600
4840
Necesitamos que nuestros líderes sean éticos y responsables al implementar la IA,
04:30
so that we don't automate and repeat our own human prejudices.
83
270440
5560
para que no automaticemos y repitamos nuestros propios prejuicios humanos.
04:40
Could you one day have a boss like this?
84
280120
3000
¿Algún día podrías tener un jefe así?
04:43
Meet Ai-Da, the first human-like robot artist.
85
283120
4880
Conoce a Ai-Da, la primera artista robótica parecida a un humano.
04:48
Ai-Da can draw and recite poetry.
86
288000
3480
Ai-Da puede dibujar y recitar poesía.
04:51
The eerie sounds, which echoed throughout
87
291480
4640
Los sonidos espeluznantes, que resonaron por todas partes
04:56
with the weight of the world itself.
88
296120
3800
con el peso del mundo mismo.
04:59
But what her creators really want her to do
89
299920
2920
Pero lo que sus creadores realmente quieren que haga
05:02
  is to get people thinking about a world with AI,
90
302840
4200
es que la gente piense en un mundo con IA,
05:07
and that includes thinking about the impact it will have on leadership.
91
307040
4760
y eso incluye pensar en el impacto que tendrá en el liderazgo.
05:13
Robots are great, but not human.
92
313120
3200
Los robots son geniales, pero no humanos.
05:16
They are not perfect and they are not perfect for everything,
93
316320
4040
No son perfectos y no son perfectos para todo,
05:20
but they do have a capability to do some things
94
320360
3680
pero tienen la capacidad de hacer algunas cosas
05:24
that humans can only dream of doing.
95
324040
3800
que los humanos solo pueden soñar con hacer.
05:27
More challenging is how to direct this capability
96
327840
3600
Más desafiante es cómo dirigir esta capacidad
05:31
for a sustainable environment and our future.
97
331440
3800
para un medio ambiente sostenible y nuestro futuro.
05:35
This is difficult.
98
335240
2560
Esto es difícil.
05:37
Robots will bring opportunities and challenges.
99
337800
3360
Los robots traerán oportunidades y desafíos.
05:41
Would robots make better leaders than humans?
100
341160
3520
¿Serían los robots mejores líderes que los humanos?
05:44
They work together.
101
344680
2000
Trabajan juntos.
05:46
At the end of the day, the state of the game
102
346680
2920
Al final del día, el estado del juego
05:49
is up to how we design and use technology/robots.
103
349600
5440
depende de cómo diseñemos y usemos tecnología/robots.
05:55
So, humans need to be more conscious
104
355040
2160
Por lo tanto, los humanos deben ser más conscientes
05:57
of how much we are doing and what we are doing,
105
357200
2640
de cuánto estamos haciendo y qué estamos haciendo,
05:59
when we create and use new technology.
106
359840
3760
cuando creamos y usamos nuevas tecnologías.
06:03
So we, as humans, and robots need to work together.
107
363600
4200
Entonces, nosotros, como humanos, y los robots debemos trabajar juntos.
06:07
We should understand the power of new technologies.
108
367800
3680
Debemos entender el poder de las nuevas tecnologías.
06:11
In order to truly appreciate
109
371480
2080
Para apreciar verdaderamente
06:13
the opportunities that are emerging,
110
373560
3240
las oportunidades que están surgiendo,
06:16
we need to first understand the past.
111
376800
3440
primero debemos comprender el pasado.
06:20
With this, we can be more aware and flexible
112
380240
3240
Con esto, podemos ser más conscientes y flexibles
06:23
to deal with an unpredictable future.
113
383480
4000
para hacer frente a un futuro impredecible.
06:27
The world is changing.
114
387480
2280
El mundo esta cambiando.
06:29
The future is not what we consider it to be.
115
389760
3640
El futuro no es lo que consideramos que es.
06:33
It is requiring from us
116
393400
2000
Requiere de nosotros la
06:35
a willingness to give up our comfort zone.
117
395400
4040
voluntad de abandonar nuestra zona de confort.
06:39
Giving up your comfort zone means opening yourself up
118
399440
3400
Renunciar a tu zona de confort significa abrirte
06:42
to new possibilities.
119
402840
2000
a nuevas posibilidades.
06:44
To do this, it helps to understand the past.
120
404840
3280
Para ello, ayuda a entender el pasado.
06:48
So, what does Ai-Da think is a key quality for leadership?
121
408120
4680
Entonces, ¿cuál cree Ai-Da que es una cualidad clave para el liderazgo?
06:52
Humility: we are to be humble in every action
122
412800
4440
Humildad: debemos ser humildes en cada acción
06:57
and this includes what we are willing to do
123
417240
2720
y esto incluye lo que estamos dispuestos a hacer
06:59
and say to help others.
124
419960
2280
y decir para ayudar a los demás.
07:02
Leadership is not the same thing as success or failure.
125
422240
4240
Liderazgo no es lo mismo que éxito o fracaso.
07:06
We have all failed,
126
426480
1880
Todos hemos fallado,
07:08
but we can recognise the mistakes that we made
127
428360
2560
pero podemos reconocer los errores que cometimos
07:10
and learn from them.
128
430920
2040
y aprender de ellos.
07:12
Humility is when you put yourself in someone else's shoes.
129
432960
4520
La humildad es cuando te pones en los zapatos de otra persona.
07:17
Showing humility, recognising mistakes and learning from them,
130
437480
4640
Mostrar humildad, reconocer los errores y aprender de ellos,
07:22
are qualities this robot wants to see in leaders.
131
442120
5360
son cualidades que este robot quiere ver en los líderes.
07:31
It's hard to know exactly how leadership will look in the future,
132
451040
3960
Es difícil saber exactamente cómo será el liderazgo en el futuro,
07:35
but it is clear that human qualities of care and empathy will be vital.
133
455000
4640
pero está claro que las cualidades humanas de cuidado y empatía serán vitales.
07:39
Having a detailed knowledge of the technology
134
459640
2200
Tener un conocimiento detallado de la tecnología
07:41
and its potential is important,
135
461840
1960
y su potencial es importante, así
07:43
as is being ethical and responsible in how we use it.
136
463800
4920
como ser ético y responsable en la forma en que la usamos.

Original video on YouTube.com
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7