BOX SET: 6 Minute English - 'Artificial intelligence' English mega-class! 30 minutes of new vocab!

6,365 views ・ 2025-01-19

BBC Learning English


Haga doble clic en los subtítulos en inglés para reproducir el vídeo. Los subtítulos traducidos se traducen automáticamente.

00:00
6 Minute English.
0
760
1720
6 minutos en inglés.
00:02
From BBC Learning English.
1
2600
2640
De BBC Aprendiendo Inglés.
00:05
Hello. This is 6 Minute English from BBC Learning English. I'm Neil.
2
5840
3920
Hola. Este es 6 Minute English de BBC Learning English. Soy Neil.
00:09
And I'm Rob.
3
9880
1200
Y yo soy Rob.
00:11
Now, I'm sure most of us have interacted with a chatbot.
4
11200
4360
Ahora, estoy seguro de que la mayoría de nosotros hemos interactuado con un chatbot.
00:15
These are bits of computer technology
5
15680
2320
Son piezas de tecnología informática
00:18
that respond to text with text or respond to your voice.
6
18120
4600
que responden al texto con texto o responden a su voz. Le
00:22
You ask it a question and usually it comes up with an answer.
7
22840
3960
haces una pregunta y generalmente obtiene una respuesta.
00:26
Yes, it's almost like talking to another human, but of course it's not,
8
26920
4480
Sí, es casi como hablar con otro ser humano, pero claro que no lo es,
00:31
it's just a clever piece of technology.
9
31520
2560
es sólo una inteligente pieza de tecnología. Se está
00:34
It is becoming more 'sophisticated' — more 'advanced and complex' —
10
34200
3640
volviendo más “sofisticado”, más “avanzado y complejo”,
00:37
but could they replace real human interaction altogether?
11
37960
3200
pero ¿podría reemplazar por completo la interacción humana real?
00:41
We'll discuss that more in a moment
12
41280
2040
Discutiremos esto más en detalle en un momento
00:43
and find out if chatbots really think for themselves.
13
43440
3680
y descubriremos si los chatbots realmente piensan por sí mismos.
00:47
But first I have a question for you, Rob.
14
47240
2440
Pero primero tengo una pregunta para ti, Rob.
00:49
The first computer program that allowed some kind of plausible conversation
15
49800
4440
El primer programa de ordenador que permitió algún tipo de conversación plausible
00:54
between humans and machines was invented in 1966, but what was it called?
16
54360
6440
entre humanos y máquinas se inventó en 1966, pero ¿cómo se llamaba? ¿
01:00
Was it a) Alexa? b) ELIZA? Or c) PARRY?
17
60920
6120
Fue a) Alexa? b)¿ELIZA? O c)PARRY?
01:07
Ah, well, it's not Alexa, that's too new, so I'll guess c) PARRY.
18
67160
4280
Ah, bueno, no es Alexa, es demasiado nuevo, así que supongo que c) PARRY.
01:11
I'll reveal the answer at the end of the programme.
19
71560
3200
Revelaré la respuesta al final del programa.
01:14
Now, the old chatbots of the 1960s and '70s were quite basic,
20
74880
5440
Ahora bien, los viejos chatbots de los años 60 y 70 eran bastante básicos,
01:20
but more recently, the technology is able to predict the next word
21
80440
4640
pero más recientemente, la tecnología es capaz de predecir la siguiente palabra
01:25
that is likely to be used in a sentence,
22
85200
2200
que probablemente se usará en una oración,
01:27
and it learns words and sentence structures.
23
87520
2840
y aprende palabras y estructuras de oraciones.
01:30
Mm, it's clever stuff.
24
90480
1480
Mm, es algo inteligente.
01:32
I've experienced using them when talking to my bank,
25
92080
2800
He tenido la experiencia de usarlos cuando hablo con mi banco
01:35
or when I have problems trying to book a ticket on a website.
26
95000
3080
o cuando tengo problemas al intentar reservar un billete en un sitio web. Ya
01:38
I no longer phone a human, I speak to a virtual assistant instead.
27
98200
5160
no llamo a un humano, hablo con un asistente virtual.
01:43
Probably the most well-known chatbot at the moment is ChatGPT..
28
103480
4560
Probablemente el chatbot más conocido en este momento es ChatGPT.
01:48
It is. The claim is that it's able to answer anything you ask it.
29
108160
4400
Lo es. La afirmación es que es capaz de responder cualquier cosa que le preguntes.
01:52
This includes writing students' essays.
30
112680
2760
Esto incluye la redacción de ensayos de los estudiantes.
01:55
Now, this is something that was discussed
31
115560
1760
Ahora bien, esto es algo que se discutió
01:57
on the BBC Radio 4 programme, Word of Mouth.
32
117440
3040
en el programa de BBC Radio 4, Word of Mouth.
02:00
Emily M Bender, Professor of Computational Linguistics
33
120600
4280
Emily M Bender, profesora de Lingüística Computacional
02:05
at the University of Washington,
34
125000
1680
en la Universidad de Washington,
02:06
explained why it's dangerous to always trust what a chatbot is telling us.
35
126800
4720
explicó por qué es peligroso confiar siempre en lo que nos dice un chatbot.
02:11
We tend to react to grammatical, fluent, coherent-seeming text
36
131640
5120
Tenemos tendencia a reaccionar ante un texto gramatical, fluido y aparentemente coherente
02:16
as authoritative and reliable and valuable and we need to be on guard against that,
37
136880
6040
como si fuera autoritario, confiable y valioso, y debemos estar en guardia contra eso,
02:23
because what's coming out of ChatGPT is none of that.
38
143040
2520
porque lo que surge de ChatGPT no es nada de eso.
02:25
So, Professor Bender says that well-written text that is 'coherent' —
39
145680
4200
Así, el profesor Bender dice que un texto bien escrito que es "coherente",
02:30
that means it's 'clear, carefully considered and sensible' —
40
150000
3440
es decir, "claro, cuidadosamente pensado y sensato",
02:33
makes us think what we are reading is reliable and 'authoritative'.
41
153560
4040
nos hace pensar que lo que estamos leyendo es confiable y "autorizado".
02:37
So it's 'respected, accurate and important sounding'.
42
157720
3440
Así que suena 'respetado, preciso e importante'.
02:41
Yes, chatbots might appear to write in this way,
43
161280
3000
Sí, los chatbots pueden parecer que escriben de esta manera,
02:44
but really, they are just predicting one word after another,
44
164400
3560
pero en realidad solo predicen una palabra tras otra,
02:48
based on what they have learnt.
45
168080
2040
basándose en lo que han aprendido.
02:50
We should, therefore, be 'on guard' — be 'careful and alert' —
46
170240
3720
Deberíamos, por lo tanto, estar “en guardia” —ser “cuidadosos y alertas”—
02:54
about the accuracy of what we are being told.
47
174080
3000
respecto de la exactitud de lo que nos dicen.
02:57
One concern is that chatbots — a form of artificial intelligence —
48
177200
4240
Una preocupación es que los chatbots, una forma de inteligencia artificial,
03:01
work a bit like a human brain in the way it can learn and process information.
49
181560
4920
funcionan un poco como un cerebro humano en la forma en que pueden aprender y procesar información.
03:06
They are able to learn from experience, something called deep learning.
50
186600
4360
Son capaces de aprender de la experiencia, algo llamado aprendizaje profundo.
03:11
A cognitive psychologist and computer scientist called Geoffrey Hinton
51
191080
4200
Un psicólogo cognitivo y científico informático llamado Geoffrey Hinton
03:15
recently said he feared that chatbots could soon overtake
52
195400
3680
dijo recientemente que temía que los chatbots pronto pudieran superar
03:19
the level of information that a human brain holds.
53
199200
3400
el nivel de información que contiene el cerebro humano.
03:22
That's a bit scary, isn't it?
54
202720
1440
Eso da un poco de miedo ¿no?
03:24
Mm, but for now, chatbots can be useful for practical information,
55
204280
4360
Mm, pero por ahora los chatbots pueden ser útiles para obtener información práctica,
03:28
but sometimes we start to believe they are human
56
208760
2680
pero a veces empezamos a creer que son humanos
03:31
and we interact with them in a human-like way.
57
211560
2680
e interactuamos con ellos de forma humana.
03:34
This can make us believe them even more.
58
214360
2400
Esto puede hacer que les creamos aún más. La
03:36
Professor Emma Bender, speaking on the BBC's Word of Mouth programme,
59
216880
3520
profesora Emma Bender, hablando en el programa Word of Mouth de la BBC,
03:40
explains why we might feel like that.
60
220520
2760
explica por qué podemos sentirnos así.
03:43
I think what's going on there is the kinds of answers you get
61
223400
4160
Creo que lo que está pasando ahí es que el tipo de respuestas que obtienes
03:47
depend on the questions you put in,
62
227680
2040
depende de las preguntas que hagas,
03:49
because it's doing likely next word, likely next word,
63
229840
2520
porque probablemente esté haciendo la siguiente palabra, probablemente la siguiente palabra,
03:52
and so if, as the human interacting with this machine,
64
232480
3280
y entonces, si, como humano que interactúa con esta máquina,
03:55
you start asking it questions about how do you feel, you know, Chatbot?
65
235880
4280
comienzas a hacerle preguntas sobre... ¿ Cómo te sientes, ya sabes, Chatbot?
04:00
And "What do you think of this?" And, "What are your goals?"
66
240280
2840
Y ¿Qué opinas de esto? Y, ¿cuáles son tus objetivos?
04:03
You can provoke it to say things
67
243240
1720
Puedes provocarlo para que diga cosas
04:05
that sound like what a sentient entity would say.
68
245080
2960
que suenen como las que diría una entidad sensible.
04:08
We are really primed to imagine a mind behind language
69
248160
3320
Realmente estamos preparados para imaginar una mente detrás del lenguaje
04:11
whenever we encounter language
70
251600
1600
cada vez que nos encontramos con el lenguaje
04:13
and so we really have to account for that when we're making decisions about these.
71
253320
3680
y por eso realmente tenemos que tenerlo en cuenta cuando tomamos decisiones al respecto.
04:17
So, although a chatbot might sound human,
72
257840
2560
Entonces, aunque un chatbot puede parecer humano, en
04:20
we really just ask it things to get a reaction — we 'provoke' it —
73
260520
3840
realidad solo le preguntamos cosas para obtener una reacción —lo “provocamos”—
04:24
and it answers only with words it's learned to use before,
74
264480
4040
y responde solo con palabras que ha aprendido a usar antes,
04:28
not because it has come up with a clever answer.
75
268640
2720
no porque haya encontrado una respuesta inteligente.
04:31
But it does sound like a sentient entity —
76
271480
2600
Pero suena como una entidad sensible:
04:34
'sentient' describes 'a living thing that experiences feelings'.
77
274200
4440
"sensible" describe "un ser vivo que experimenta sentimientos".
04:38
As Professor Bender says,
78
278760
1640
Como dice el profesor Bender,
04:40
we imagine that when something speaks, there is a mind behind it.
79
280520
4080
imaginamos que cuando algo habla, hay una mente detrás.
04:44
But sorry, Neil, they are not your friend, they're just machines!
80
284720
4000
Pero lo siento, Neil, no son tus amigos, ¡ son solo máquinas!
04:48
Yes, it's strange then that we sometimes give chatbots names.
81
288840
3240
Sí, resulta extraño entonces que a veces le demos nombres a los chatbots.
04:52
Alexa, Siri, and earlier I asked you what the name was for the first ever chatbot.
82
292200
5920
Alexa, Siri y antes les pregunté cuál era el nombre del primer chatbot de la historia.
04:58
And I guessed it was PARRY. Was I right?
83
298240
2880
Y supuse que era PARRY. ¿Tenía razón?
05:01
You guessed wrong, I'm afraid.
84
301240
2040
Temo que adivinaste mal.
05:03
PARRY was an early form of chatbot from 1972, but the correct answer was ELIZA.
85
303400
6400
PARRY fue una de las primeras formas de chatbot de 1972, pero la respuesta correcta era ELIZA.
05:09
It was considered to be the first 'chatterbot' — as it was called then —
86
309920
4000
Se consideró el primer «chatterbot» (como se le llamaba entonces)
05:14
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
87
314040
5640
y fue desarrollado por Joseph Weizenbaum en el Instituto Tecnológico de Massachusetts.
05:19
Fascinating stuff.
88
319800
1040
Cosas fascinantes.
05:20
OK, now let's recap some of the vocabulary we highlighted in this programme.
89
320960
4360
Bien, ahora repasemos parte del vocabulario que destacamos en este programa.
05:25
Starting with 'sophisticated',
90
325440
2000
Comenzando con “sofisticado”,
05:27
which can describe technology that is 'advanced and complex'.
91
327560
3880
que puede describir una tecnología que es “avanzada y compleja”.
05:31
Something that is 'coherent' is 'clear, carefully considered and sensible'.
92
331560
4320
Algo que es “coherente” es “claro, cuidadosamente considerado y sensato”.
05:36
'Authoritative' means 'respected, accurate and important sounding'.
93
336000
4480
'Autoritario' significa 'que suena respetado, preciso e importante'.
05:40
When you are 'on guard' you must be 'careful and alert' about something —
94
340600
3760
Cuando estás "en guardia" debes ser "cuidadoso y estar alerta" acerca de algo:
05:44
it could be accuracy of what you see or hear,
95
344480
3320
puede ser la precisión de lo que ves o escuchas,
05:47
or just being aware of the dangers around you.
96
347920
2640
o simplemente estar consciente de los peligros que te rodean.
05:50
To 'provoke' means to 'do something that causes a reaction from someone'.
97
350680
4160
Provocar significa hacer algo que provoque una reacción en alguien.
05:54
'Sentient' describes 'something that experiences feelings' —
98
354960
3680
«Sintiente» describe «algo que experimenta sentimientos»,
05:58
so it's 'something that is living'.
99
358760
2120
es decir, «algo que está vivo».
06:01
Once again, our six minutes are up. Goodbye.
100
361000
2640
Una vez más, nuestros seis minutos se acabaron. Adiós.
06:03
Bye for now.
101
363760
1000
Adios por ahora.
06:05
6 Minute English.
102
365680
1520
6 minutos en inglés.
06:07
From BBC Learning English.
103
367320
2400
De BBC Aprendiendo Inglés.
06:10
Hello. This is 6 Minute English from BBC Learning English.
104
370600
3240
Hola. Este es 6 Minute English de BBC Learning English.
06:13
— I'm Sam. — And I'm Neil.
105
373960
1240
—Soy Sam. —Y yo soy Neil.
06:15
In the autumn of 2021, something strange happened
106
375320
3640
En otoño de 2021 ocurrió algo extraño
06:19
at the Google headquarters in California's Silicon Valley.
107
379080
3440
en la sede de Google en Silicon Valley, California.
06:22
A software engineer called Blake Lemoine
108
382640
2720
Un ingeniero de software llamado Blake Lemoine
06:25
was working on the artificial intelligence project
109
385480
2840
estaba trabajando en el proyecto de inteligencia artificial
06:28
Language Models for Dialogue Applications, or LaMDA for short.
110
388440
5080
Modelos de lenguaje para aplicaciones de diálogo, o LaMDA para abreviar.
06:33
LaMDA is a 'chatbot' — a 'computer programme
111
393640
2880
LaMDA es un «chatbot», un «programa informático
06:36
'designed to have conversations with humans over the internet'.
112
396640
3360
diseñado para mantener conversaciones con humanos a través de Internet».
06:40
After months talking with LaMDA
113
400120
2280
Después de meses de hablar con LaMDA
06:42
on topics ranging from movies to the meaning of life,
114
402520
3360
sobre temas que iban desde películas hasta el significado de la vida,
06:46
Blake came to a surprising conclusion —
115
406000
2640
Blake llegó a una conclusión sorprendente:
06:48
the chatbot was an intelligent person
116
408760
2720
el chatbot era una persona inteligente
06:51
with wishes and rights that should be respected.
117
411600
3040
con deseos y derechos que debían respetarse.
06:54
For Blake, LaMDA was a Google employee, not a machine.
118
414760
3960
Para Blake, LaMDA era un empleado de Google, no una máquina.
06:58
He also called it his friend.
119
418840
1880
También lo llamó su amigo.
07:00
Google quickly reassigned Blake from the project,
120
420840
2880
Google rápidamente reasignó a Blake del proyecto,
07:03
announcing that his ideas were not supported by the evidence.
121
423840
3760
anunciando que sus ideas no estaban respaldadas por la evidencia. ¿
07:07
But what exactly was going on?
122
427720
2440
Pero qué estaba pasando exactamente?
07:10
In this programme, we'll be discussing whether artificial intelligence
123
430280
3720
En este programa discutiremos si la inteligencia artificial
07:14
is capable of consciousness.
124
434120
2160
es capaz de tener conciencia.
07:16
We'll hear from one expert
125
436400
1480
Escucharemos a un experto
07:18
who thinks AI is not as intelligent as we sometimes think
126
438000
3600
que piensa que la IA no es tan inteligente como a veces pensamos
07:21
and, as usual, we'll be learning some new vocabulary as well.
127
441720
3800
y, como es habitual, también aprenderemos vocabulario nuevo.
07:25
But before that, I have a question for you, Neil.
128
445640
2480
Pero antes de eso, tengo una pregunta para ti, Neil.
07:28
What happened to Blake Lemoine
129
448240
1400
Lo que le pasó a Blake Lemoine
07:29
is strangely similar to the 2013 Hollywood movie, Her,
130
449760
4200
es extrañamente similar a la película de Hollywood de 2013, Her,
07:34
starring Joaquin Phoenix as a lonely writer who talks with his computer,
131
454080
4400
protagonizada por Joaquin Phoenix como un escritor solitario que habla con su computadora,
07:38
voiced by Scarlett Johansson.
132
458600
1840
con la voz de Scarlett Johansson. ¿
07:40
But what happens at the end of the movie?
133
460560
2280
Pero qué pasa al final de la película?
07:42
Is it a) The computer comes to life?
134
462960
2520
a) ¿La computadora cobra vida?
07:45
b) The computer dreams about the writer?
135
465600
2480
b) ¿La computadora sueña con el escritor?
07:48
Or c) The writer falls in love with the computer?
136
468200
2800
O c) ¿El escritor se enamora de la computadora?
07:51
C) The writer falls in love with the computer.
137
471120
3240
C) El escritor se enamora de la computadora.
07:54
OK, Neil, I'll reveal the answer at the end of the programme.
138
474480
3360
Bien, Neil, revelaré la respuesta al final del programa.
07:57
Although Hollywood is full of movies about robots coming to life,
139
477960
3760
Aunque Hollywood está lleno de películas sobre robots que cobran vida,
08:01
Emily Bender, Professor of Linguistics and Computing at the University of Washington,
140
481840
5440
Emily Bender, profesora de Lingüística y Computación en la Universidad de Washington,
08:07
thinks AI isn't that smart.
141
487400
2640
cree que la IA no es tan inteligente.
08:10
She thinks the words we use to talk about technology —
142
490160
3240
Ella cree que las palabras que usamos para hablar de tecnología —frases
08:13
phrases like 'machine learning' —
143
493520
2120
como "aprendizaje automático"—
08:15
give a false impression about what computers can and can't do.
144
495760
4440
dan una falsa impresión sobre lo que las computadoras pueden y no pueden hacer.
08:20
Here is Professor Bender discussing another misleading phrase —
145
500320
3520
Aquí está el profesor Bender discutiendo otra frase engañosa -
08:23
'speech recognition' — with BBC World Service programme The Inquiry.
146
503960
5120
"reconocimiento de voz" - con el programa The Inquiry del Servicio Mundial de la BBC.
08:29
If you talk about 'automatic speech recognition',
147
509200
3000
Si hablamos de “reconocimiento automático de voz”,
08:32
the term 'recognition' suggests that there's something cognitive going on,
148
512320
4680
el término “reconocimiento” sugiere que hay algo cognitivo en juego,
08:37
where I think a better term would be automatic transcription.
149
517120
2840
donde creo que un término mejor sería transcripción automática.
08:40
That just describes the input-output relation,
150
520080
2400
Eso simplemente describe la relación entrada-salida,
08:42
and not any theory or wishful thinking
151
522600
3480
y no ninguna teoría o ilusión
08:46
about what the computer is doing to be able to achieve that.
152
526200
3360
sobre lo que hace la computadora para poder lograrlo.
08:49
Using words like 'recognition' in relation to computers
153
529680
3720
El uso de palabras como "reconocimiento" en relación con las computadoras
08:53
gives the idea that something 'cognitive' is happening —
154
533520
3160
da la idea de que está sucediendo algo "cognitivo",
08:56
something 'related to the mental processes
155
536800
2680
algo "relacionado con los procesos mentales
08:59
'of thinking, knowing, learning and understanding'.
156
539600
3120
de pensar, saber, aprender y comprender".
09:02
But thinking and knowing are human, not machine, activities.
157
542840
4480
Pero pensar y conocer son actividades humanas, no de máquinas.
09:07
Professor Benders says that talking about them in connection with computers
158
547440
4160
El profesor Benders dice que hablar de ellos en relación con las computadoras
09:11
is 'wishful thinking' — 'something which is unlikely to happen'.
159
551720
4720
es "una ilusión", "algo que es poco probable que suceda".
09:16
The problem with using words in this way
160
556560
2120
El problema de usar las palabras de esta manera
09:18
is that it reinforces what Professor Bender calls 'technical bias' —
161
558800
4760
es que refuerza lo que el profesor Bender llama “sesgo técnico”:
09:23
'the assumption that the computer is always right'.
162
563680
2920
“la suposición de que la computadora siempre tiene razón”.
09:26
When we encounter language that sounds natural, but is coming from a computer,
163
566720
4120
Cuando nos encontramos con un lenguaje que suena natural, pero proviene de una computadora,
09:30
humans can't help but imagine a mind behind the language,
164
570960
3760
los humanos no podemos evitar imaginar una mente detrás de ese lenguaje,
09:34
even when there isn't one.
165
574840
1520
incluso cuando no la hay.
09:36
In other words, we 'anthropomorphise' computers —
166
576480
2960
En otras palabras, “antropomorfizamos” las computadoras: “
09:39
we 'treat them as if they were human'.
167
579560
2320
las tratamos como si fueran humanas”.
09:42
Here's Professor Bender again, discussing this idea with Charmaine Cozier,
168
582000
4600
Aquí está el profesor Bender nuevamente, discutiendo esta idea con Charmaine Cozier,
09:46
the presenter of BBC World Service's The Inquiry.
169
586720
3520
la presentadora de The Inquiry del Servicio Mundial de la BBC.
09:50
So 'ism' means system, 'anthro' or 'anthropo' means human,
170
590360
4800
Entonces, "ismo" significa sistema, "antro" o "antropo" significa humano
09:55
and 'morph' means shape.
171
595280
1800
y "morfo" significa forma.
09:57
And so this is a system that puts the shape of a human on something,
172
597200
4760
Y este es un sistema que pone la forma de un humano en algo,
10:02
and, in this case, the something is a computer.
173
602080
1680
y, en este caso, ese algo es una computadora.
10:03
We anthropomorphise animals all the time,
174
603880
2920
Antropomorfizamos animales todo el tiempo,
10:06
but we also anthropomorphise action figures, or dolls,
175
606920
3840
pero también antropomorfizamos figuras de acción, o muñecos,
10:10
or companies when we talk about companies having intentions and so on.
176
610880
3880
o empresas cuando hablamos de empresas que tienen intenciones, etc.
10:14
We very much are in the habit of seeing ourselves in the world around us.
177
614880
4480
Tenemos la costumbre de vernos a nosotros mismos en el mundo que nos rodea.
10:19
And while we're busy seeing ourselves
178
619480
1920
Y mientras estamos ocupados viéndonos a nosotros mismos
10:21
by assigning human traits to things that are not, we risk being blindsided.
179
621520
4760
asignando rasgos humanos a cosas que no lo son, corremos el riesgo de ser sorprendidos.
10:26
The more fluent that text is, the more different topics it can converse on,
180
626400
3880
Cuanto más fluido sea un texto, cuantos más temas diferentes pueda tratar,
10:30
the more chances there are to get taken in.
181
630400
2720
más posibilidades hay de ser engañado.
10:34
If we treat computers as if they could think,
182
634040
2600
Si tratamos a las computadoras como si pudieran pensar,
10:36
we might get 'blindsided', or 'unpleasantly surprised'.
183
636760
4160
podríamos quedar "desconcertados" o "desagradablemente sorprendidos". La
10:41
Artificial intelligence works by finding patterns in massive amounts of data,
184
641040
4560
inteligencia artificial funciona encontrando patrones en cantidades masivas de datos,
10:45
so it can seem like we're talking with a human,
185
645720
2520
por lo que puede parecer como si estuviéramos hablando con un humano,
10:48
instead of a machine doing data analysis.
186
648360
3000
en lugar de una máquina que realiza análisis de datos.
10:51
As a result, we 'get taken in' — we're 'tricked or deceived'
187
651480
4240
Como resultado, “nos dejamos engañar”; somos “engañados”
10:55
into thinking we're dealing with a human, or with something intelligent.
188
655840
3640
haciéndonos creer que estamos tratando con un ser humano o con algo inteligente. La
10:59
Powerful AI can make machines appear conscious,
189
659600
3760
poderosa IA puede hacer que las máquinas parezcan conscientes,
11:03
but even tech giants like Google
190
663480
2320
pero incluso gigantes tecnológicos como Google
11:05
are years away from building computers that can dream or fall in love.
191
665920
4480
están a años de construir computadoras que puedan soñar o enamorarse.
11:10
Speaking of which, Sam, what was the answer to your question?
192
670520
3160
Hablando de eso, Sam, ¿ cuál fue la respuesta a tu pregunta?
11:13
I asked what happened in the 2013 movie, Her.
193
673800
3240
Pregunté qué pasó en la película de 2013, Her.
11:17
Neil thought that the main character falls in love with his computer,
194
677160
3080
Neil pensó que el personaje principal se enamora de su computadora, ¡
11:20
— which was the correct answer! — OK.
195
680360
2760
lo cual era la respuesta correcta! - DE ACUERDO.
11:23
Right, it's time to recap the vocabulary we've learned from this programme
196
683240
3640
Bien, es hora de repasar el vocabulario que hemos aprendido en este programa
11:27
about AI, including 'chatbots' —
197
687000
2720
sobre IA, incluidos los “chatbots”, “
11:29
'computer programmes designed to interact with humans over the internet'.
198
689840
4080
programas informáticos diseñados para interactuar con humanos a través de Internet”.
11:34
The adjective 'cognitive' describes anything connected
199
694040
3440
El adjetivo "cognitivo" describe todo lo relacionado
11:37
with 'the mental processes of knowing, learning and understanding'.
200
697600
3680
con "los procesos mentales de conocimiento, aprendizaje y comprensión".
11:41
'Wishful thinking' means 'thinking that something which is very unlikely to happen
201
701400
4720
'Pensar con ilusión' significa 'pensar que algo que es muy poco probable que suceda
11:46
'might happen one day in the future'.
202
706240
2040
podría suceder algún día en el futuro'.
11:48
To 'anthropomorphise' an object
203
708400
1440
Antropomorfizar un objeto
11:49
means 'to treat it as if it were human, even though it's not'.
204
709960
3440
significa tratarlo como si fuera humano, aunque no lo sea.
11:53
When you're 'blindsided', you're 'surprised in a negative way'.
205
713520
3640
Cuando te toman por sorpresa, te sorprenden de forma negativa.
11:57
And finally, to 'get taken in' by someone means to be 'deceived or tricked' by them.
206
717280
4760
Y finalmente, 'dejarse engañar' por alguien significa ser 'engañado o estafado' por ellos. ¡
12:02
My computer tells me that our six minutes are up!
207
722160
2920
Mi computadora me dice que nuestros seis minutos se acabaron!
12:05
Join us again soon, for now it's goodbye from us.
208
725200
2960
Únase a nosotros nuevamente pronto, por ahora nos despedimos. ¡
12:08
Bye!
209
728280
1360
Adiós!
12:09
6 Minute English.
210
729760
1560
6 minutos en inglés.
12:11
From BBC Learning English.
211
731440
2400
De BBC Aprendiendo Inglés.
12:14
Hello, I'm Rob. Welcome to 6 Minute English and with me in the studio is Neil.
212
734640
4520
Hola, soy Rob. Bienvenidos a 6 Minute English y conmigo en el estudio está Neil.
12:19
— Hello, Rob. — Hello.
213
739280
1720
—Hola, Rob. - Hola. ¿Te
12:21
Feeling clever today, Neil?
214
741120
1520
sientes inteligente hoy, Neil? ¡
12:22
I am feeling quite bright and clever, yes!
215
742760
2240
Me siento bastante brillante e inteligente, sí! Me
12:25
That's good to hear.
216
745120
1000
alegra oír eso.
12:26
Well, 'you'll need your wits about you' —
217
746240
1640
Bueno, "necesitarás estar alerta", es
12:28
meaning 'you'll need to think very quickly' in this programme,
218
748000
2760
decir, "necesitarás pensar muy rápido" en este programa,
12:30
because we're talking about intelligence,
219
750880
2480
porque estamos hablando de inteligencia,
12:33
or to be more accurate, artificial intelligence,
220
753480
3280
o para ser más precisos, inteligencia artificial,
12:36
and we'll learn some vocabulary related to the topic,
221
756880
3040
y aprenderemos Un poco de vocabulario relacionado con el tema,
12:40
so that you can have your own discussion about it.
222
760040
2720
para que puedas tener tu propia discusión al respecto.
12:42
Neil, now, you know who Professor Stephen Hawking is, right?
223
762880
3120
Neil, ahora sabes quién es el profesor Stephen Hawking, ¿verdad? ¡
12:46
Well, of course! Yes.
224
766120
1240
Pues claro que sí! Sí.
12:47
Many people say that he's a 'genius' —
225
767480
2320
Mucha gente dice que es un «genio»,
12:49
in other words, he is 'very, very intelligent'.
226
769920
3080
es decir, que es «muy, muy inteligente». El
12:53
Professor Hawking is one of the most famous scientists in the world
227
773120
3480
profesor Hawking es uno de los científicos más famosos del mundo
12:56
and people remember him for his brilliance
228
776720
1960
y la gente lo recuerda por su brillantez
12:58
and also because he communicates using a synthetic voice generated by a computer —
229
778800
5560
y también porque se comunica utilizando una voz sintética generada por una computadora;
13:04
'synthetic' means it's 'made from something non-natural'.
230
784480
3120
"sintético" significa "hecho de algo no natural".
13:07
'Artificial' is similar in meaning —
231
787720
2040
«Artificial» tiene un significado similar:
13:09
we use it when something is 'man-made to look or behave like something natural'.
232
789880
4720
lo usamos cuando algo «está hecho por el hombre para lucir o comportarse como algo natural».
13:14
Well, Professor Hawking has said recently
233
794720
2360
Bueno, el profesor Hawking ha dicho recientemente
13:17
that efforts to create thinking machines are a threat to our existence.
234
797200
4440
que los esfuerzos por crear máquinas pensantes son una amenaza para nuestra existencia.
13:21
A 'threat' means 'something which can put us in danger'.
235
801760
3240
Una "amenaza" significa "algo que puede ponernos en peligro".
13:25
Now, can you imagine that, Neil?!
236
805120
1360
¡¿Puedes imaginarte eso, Neil?!
13:26
Well, there's no denying that good things
237
806600
2080
Bueno, no se puede negar que
13:28
can come from the creation of artificial intelligence.
238
808800
2640
pueden surgir cosas buenas de la creación de inteligencia artificial.
13:31
Computers which can think for themselves
239
811560
1920
Las computadoras que pueden pensar por sí mismas
13:33
might be able to find solutions to problems we haven't been able to solve.
240
813600
4320
podrían ser capaces de encontrar soluciones a problemas que no hemos podido resolver.
13:38
But technology is developing quickly and maybe we should consider the consequences.
241
818040
4680
Pero la tecnología se está desarrollando rápidamente y tal vez deberíamos considerar las consecuencias.
13:42
Some of these very clever robots are already surpassing us, Rob.
242
822840
4440
Algunos de estos robots tan inteligentes ya nos están superando, Rob.
13:47
'To surpass' means 'to have abilities superior to our own'.
243
827400
4000
'Superar' significa 'tener capacidades superiores a las nuestras'.
13:51
Yes. Maybe you can remember the headlines when a supercomputer
244
831520
3280
Sí. Quizás puedas recordar los titulares cuando una supercomputadora
13:54
defeated the World Chess Champion, Gary Kasparov, to everyone's astonishment.
245
834920
4960
derrotó al campeón mundial de ajedrez, Gary Kasparov, para asombro de todos.
14:00
It was in 1997. What was the computer called though, Neil?
246
840000
3440
Fue en 1997. ¿ Pero cómo se llamaba la computadora, Neil? ¿
14:03
Was it a) Red Menace? b) Deep Blue? Or c) Silver Surfer?
247
843560
6040
Fue una) Amenaza Roja? b) ¿Azul profundo? ¿O c) Silver Surfer?
14:09
Erm, I don't know.
248
849720
2200
Eh, no lo sé.
14:12
I think c) is probably not right. Erm...
249
852040
2360
Pienso que c) probablemente no sea correcto. Eh...
14:16
I think Deep Blue. That's b) Deep Blue.
250
856000
2160
creo que Deep Blue. Eso es b) Deep Blue.
14:18
OK. Well, you'll know if you got the answer right at the end of the programme.
251
858280
3680
DE ACUERDO. Bueno, sabrás si tienes la respuesta correcta al final del programa.
14:22
Well, our theme is artificial intelligence
252
862080
2240
Bueno, nuestro tema es la inteligencia artificial
14:24
and when we talk about this, we have to mention the movies.
253
864440
2840
y cuando hablamos de esto, tenemos que mencionar las películas.
14:27
Mm, many science fiction movies have explored the idea
254
867400
3240
Mm, muchas películas de ciencia ficción han explorado la idea
14:30
of bad computers who want to harm us.
255
870760
2440
de computadoras malas que quieren hacernos daño.
14:33
One example is 2001: A Space Odyssey.
256
873320
3440
Un ejemplo es 2001: Una odisea del espacio.
14:36
Yes, a good film.
257
876880
1000
Sí, una buena película.
14:38
And another is The Terminator, a movie in which actor Arnold Schwarzenegger
258
878000
4000
Y otra es Terminator, una película en la que el actor Arnold Schwarzenegger
14:42
played an android from the future.
259
882120
2240
interpretó a un androide del futuro.
14:44
An 'android' is 'a robot that looks like a human'. Have you watched that one, Neil?
260
884480
3640
Un 'androide' es 'un robot que parece un humano'. ¿Has visto esa, Neil?
14:48
Yes, I have and that android is not very friendly.
261
888240
3480
Si, lo tengo y ese android no es muy amigable. ¡
14:51
No, it's not!
262
891840
1000
No, no lo es!
14:52
In many movies and books about robots that think,
263
892960
2920
En muchas películas y libros sobre robots que piensan,
14:56
the robots end up rebelling against their creators.
264
896000
3200
los robots terminan rebelándose contra sus creadores.
14:59
But some experts say the risk posed by artificial intelligence
265
899320
3480
Pero algunos expertos dicen que el riesgo que plantea la inteligencia artificial
15:02
is not that computers attack us because they hate us.
266
902920
3320
no es que las computadoras nos ataquen porque nos odian.
15:06
Their problem is related to their efficiency.
267
906360
2800
Su problema está relacionado con su eficiencia. ¿
15:09
What do you mean?
268
909280
1000
Qué quieres decir?
15:10
Well, let's listen to what philosopher Nick Bostrom has to say.
269
910400
3920
Bueno, escuchemos lo que tiene que decir el filósofo Nick Bostrom.
15:14
He's the founder of the Future of Humanity Institute at Oxford University.
270
914440
4880
Es el fundador del Instituto del Futuro de la Humanidad en la Universidad de Oxford.
15:19
He uses three words when describing what's inside the mind of a thinking computer.
271
919440
5800
Utiliza tres palabras para describir lo que hay dentro de la mente de una computadora pensante.
15:25
This phrase means 'to meet their objectives'. What's the phrase he uses?
272
925360
4640
Esta frase significa "cumplir sus objetivos". ¿Cual es la frase que usa?
15:30
The bulk of the risk is not in machines being evil or hating humans,
273
930680
5120
La mayor parte del riesgo no está en que las máquinas sean malvadas u odien a los humanos,
15:35
but rather that they are indifferent to humans
274
935920
2320
sino en que sean indiferentes a ellos
15:38
and that, in pursuit of their own goals, we humans would suffer as a side effect.
275
938360
4360
y que, en la búsqueda de sus propios objetivos, nosotros, los humanos, suframos como efecto secundario.
15:42
Suppose you had a super intelligent AI
276
942840
1800
Imagina que tuvieras una IA súper inteligente
15:44
whose only goal was to make as many paperclips as possible.
277
944760
3240
cuyo único objetivo fuera fabricar tantos clips como fuera posible. Los
15:48
Human bodies consist of atoms
278
948120
2280
cuerpos humanos están formados por átomos
15:50
and those atoms could be used to make a lot of really nice paperclips.
279
950520
4360
y esos átomos podrían usarse para fabricar un montón de clips de papel realmente bonitos.
15:55
If you want paperclips, it turns out that in the pursuit of this,
280
955000
3080
Si quieres clips, resulta que para conseguirlos
15:58
you would have instrumental reasons to do things that would be harmful to humanity.
281
958200
3320
tendrías razones instrumentales para hacer cosas que serían perjudiciales para la humanidad.
16:02
A world in which humans become paperclips — wow, that's scary!
282
962360
4640
Un mundo en el que los humanos se convierten en clips de papel: ¡vaya, eso da miedo!
16:07
But the phrase which means 'meet their objectives' is to 'pursue their goals'.
283
967120
4520
Pero la frase que significa "cumplir sus objetivos" es "perseguir sus metas".
16:11
Yes, it is.
284
971760
1000
Sí, lo es.
16:12
So the academic explains that if you're a computer
285
972880
3280
Así lo explica el académico, si eres una computadora
16:16
responsible for producing paperclips, you will pursue your objective at any cost.
286
976280
5800
encargada de producir clips, perseguirás tu objetivo a cualquier precio. ¡
16:22
And even use atoms from human bodies to turn them into paperclips!
287
982200
4440
Y hasta usan átomos de cuerpos humanos para convertirlos en clips!
16:26
— Now that's a horror story, Rob. — Mm.
288
986760
2040
—Esa sí que es una historia de terror, Rob. —Mmm.
16:28
If Stephen Hawking is worried, I think I might be too!
289
988920
3120
Si Stephen Hawking está preocupado, ¡ creo que yo también lo estoy! ¿
16:32
How can we be sure that artificial intelligence —
290
992160
2880
Cómo podemos estar seguros de que la inteligencia artificial (
16:35
be either a device or software — will have a moral compass?
291
995160
4000
ya sea un dispositivo o un software) tendrá una brújula moral?
16:39
Ah, a good expression — a 'moral compass' —
292
999280
2000
Ah, una buena expresión: una “brújula moral”,
16:41
in other words, 'an understanding of what is right and what is wrong'.
293
1001400
3960
en otras palabras, “una comprensión de lo que está bien y lo que está mal”. La
16:45
Artificial intelligence is an interesting topic, Rob.
294
1005480
2560
inteligencia artificial es un tema interesante, Rob.
16:48
I hope we can chat about it again in the future.
295
1008160
2400
Espero que podamos hablar de ello nuevamente en el futuro.
16:50
But now I'm looking at the clock and we're running out of time, I'm afraid,
296
1010680
2880
Pero ahora estoy mirando el reloj y nos estamos quedando sin tiempo, tengo miedo,
16:53
and I'd like to know if I got the answer to the quiz question right?
297
1013680
3320
y me gustaría saber si obtuve la respuesta correcta a la pregunta del cuestionario.
16:57
Well, my question was about a supercomputer
298
1017120
3000
Bueno, mi pregunta era sobre una supercomputadora
17:00
which defeated the World Chess Champion, Gary Kasparov, in 1997.
299
1020240
4320
que derrotó al campeón mundial de ajedrez, Gary Kasparov, en 1997. ¿
17:04
What was the machine's name? Was it Red Menace, Deep Blue or Silver Surfer?
300
1024680
4920
Cómo se llamaba la máquina? ¿Fue Red Menace, Deep Blue o Silver Surfer?
17:09
And I think it's Deep Blue.
301
1029720
2880
Y creo que es Deep Blue.
17:12
Well, it sounds like you are more intelligent than a computer,
302
1032720
2880
Bueno, parece que eres más inteligente que una computadora,
17:15
because you got the answer right.
303
1035720
1800
porque tienes la respuesta correcta.
17:17
Yes, it was Deep Blue.
304
1037640
1240
Sí, era Deep Blue.
17:19
The 1997 match was actually the second one between Kasparov and Deep Blue,
305
1039000
4680
La partida de 1997 fue en realidad la segunda entre Kasparov y Deep Blue,
17:23
a supercomputer designed by the company IBM
306
1043800
3000
un superordenador diseñado por la empresa IBM
17:26
and it was specialised in chess-playing.
307
1046920
2400
y especializado en el juego de ajedrez.
17:29
Well, I think I might challenge Deep Blue to a game!
308
1049440
2840
Bueno, ¡creo que podría desafiar a Deep Blue a un juego!
17:32
Obviously, I'm a bit, I'm a bit of a genius myself.
309
1052400
2600
Obviamente, soy un poco... yo mismo soy un poco genio. ¡
17:35
Very good! Good to hear!
310
1055120
1600
Muy bien! ¡Me alegra saberlo!
17:36
Anyway, we've just got time to remember
311
1056840
1600
De todos modos, sólo tenemos tiempo para recordar
17:38
some of the words and expressions that we've used today. Neil?
312
1058560
3080
algunas de las palabras y expresiones que hemos usado hoy. ¿No?
17:41
They were...
313
1061760
1000
Eran...
17:42
you'll need your wits about you,
314
1062880
3680
necesitarás tu ingenio,
17:46
artificial,
315
1066680
2560
artificiales,
17:49
genius,
316
1069360
2600
genios,
17:52
synthetic,
317
1072080
2040
sintéticos,
17:54
threat,
318
1074240
1760
amenaza,
17:56
to surpass,
319
1076120
2600
para superar,
17:58
to pursue their goals,
320
1078840
3120
para perseguir sus objetivos,
18:02
moral compass.
321
1082080
1320
brújula moral.
18:03
Thank you. Well, that's it for this programme.
322
1083520
2280
Gracias. Bueno eso es todo por este programa.
18:05
Do visit BBC Learning English dot com to find more 6 Minute English programmes.
323
1085920
4720
Visita BBC Learning English dot com para encontrar más programas de 6 Minute English.
18:10
— Until next time, goodbye! — Goodbye!
324
1090760
1880
— ¡Hasta la próxima, adiós! - ¡Adiós!
18:13
6 Minute English.
325
1093640
1440
6 minutos en inglés.
18:15
From BBC Learning English.
326
1095200
2280
De BBC Aprendiendo Inglés.
18:18
Hello. This is 6 Minute English. I'm Rob. And joining me to do this is Sam.
327
1098600
4480
Hola. Esto es 6 minutos en inglés. Soy Rob. Y para ello me acompaña Sam.
18:23
Hello.
328
1103200
1000
Hola.
18:24
In this programme, we're talking about robots.
329
1104320
3040
En este programa hablamos de robots.
18:27
Robots can perform many tasks,
330
1107480
2000
Los robots pueden realizar muchas tareas,
18:29
but they're now being introduced in social care to operate as carers,
331
1109600
4560
pero ahora se están introduciendo en la asistencia social para que funcionen como cuidadores,
18:34
to look after the sick and elderly.
332
1114280
2120
para cuidar a los enfermos y a los ancianos.
18:36
We'll be discussing the positive and negative issues around this,
333
1116520
3680
Discutiremos los aspectos positivos y negativos de esto,
18:40
but first, let's set you a question to answer, Sam. Are you ready for this?
334
1120320
3720
pero primero, vamos a plantearte una pregunta para que la respondas, Sam. ¿Estás listo para esto? ¡
18:44
Fire away!
335
1124160
1120
Dispara! ¿
18:45
Do you know in which year was the first commercial robot built?
336
1125400
3880
Sabes en qué año se construyó el primer robot comercial? ¿
18:49
Was it in a) 1944? b) 1954? Or c) 1964?
337
1129400
7280
Fue en a) 1944? b)1954? ¿O c) 1964?
18:56
They're not a brand-new invention, so I'll go for 1954.
338
1136800
5440
No son un invento nuevo, así que me quedo con el año 1954.
19:02
OK, well, I'll tell you if you're right or wrong at the end of the programme.
339
1142360
4520
Bueno, os diré si tenéis razón o no al final del programa.
19:07
So, let's talk more about robots,
340
1147000
1920
Entonces, hablemos más sobre los robots,
19:09
and specifically ones that are designed to care for people.
341
1149040
3720
y específicamente sobre aquellos que están diseñados para cuidar a las personas.
19:12
Traditionally, it's humans working as nurses or carers
342
1152880
3480
Tradicionalmente, son los humanos que trabajan como enfermeras o cuidadores
19:16
who take care of elderly people —
343
1156480
2200
quienes se ocupan de las personas mayores,
19:18
those people who are too old or too unwell to look after themselves.
344
1158800
3800
aquellas personas que son demasiado mayores o están demasiado enfermas para cuidar de sí mismas.
19:22
But finding enough carers to look after people is a problem —
345
1162720
4360
Pero encontrar suficientes cuidadores para atender a las personas es un problema:
19:27
there are more people needing care than there are people who can help.
346
1167200
4120
hay más personas que necesitan cuidados que personas que pueden ayudar.
19:31
And recently in the UK, the government announced a £34 million fund
347
1171440
5560
Y recientemente, en el Reino Unido, el gobierno anunció un fondo de 34 millones de libras
19:37
to help develop robots to look after us in our later years.
348
1177120
4520
para ayudar a desarrollar robots que nos cuiden en nuestros últimos años.
19:41
Well, robot carers are being developed,
349
1181760
2440
Bien, se están desarrollando cuidadores robots,
19:44
but can they really learn enough empathy to take care of the elderly and unwell?
350
1184320
4560
pero ¿pueden realmente aprender suficiente empatía para cuidar a los ancianos y a los enfermos? La
19:49
'Empathy' is 'the ability to understand how someone feels
351
1189000
3680
'empatía' es 'la capacidad de comprender cómo se siente alguien
19:52
'by imagining what it would be like to be in that person's situation'.
352
1192800
4240
imaginando cómo sería estar en la situación de esa persona'.
19:57
Well, let's hear about one of those new robots now, called Pepper.
353
1197160
4680
Bueno, ahora escuchemos acerca de uno de esos nuevos robots, llamado Pepper.
20:01
Abbey Hearn-Nagaf is a research assistant at the University of Bedfordshire.
354
1201960
5080
Abbey Hearn-Nagaf es asistente de investigación en la Universidad de Bedfordshire.
20:07
She spoke to BBC Radio 4's You and Yours programme
355
1207160
3880
Ella habló con el programa You and Yours de BBC Radio 4
20:11
and explained how Pepper is first introduced to someone in a care home.
356
1211160
4600
y explicó cómo Pepper conoce por primera vez a alguien en un hogar de ancianos.
20:15
We just bring the robot to their room
357
1215880
2200
Simplemente llevamos el robot a su habitación
20:18
and we talk about what Pepper can't do, which is important,
358
1218200
2640
y hablamos sobre lo que Pepper no puede hacer, lo cual es importante,
20:20
so it can't provide physical assistance in any way.
359
1220960
2720
por lo que no puede proporcionar asistencia física de ninguna manera.
20:23
It does have hands, it can wave.
360
1223800
2160
Tiene manos, puede saludar.
20:26
When you ask for privacy, it does turn around
361
1226080
2000
Cuando le pides privacidad, se da la vuelta
20:28
and sort of cover its eyes with its hands, but that's the most it does.
362
1228200
3000
y se cubre los ojos con las manos, pero eso es lo máximo que hace.
20:31
It doesn't grip anything, it doesn't move anything,
363
1231320
2160
No agarra nada, no mueve nada,
20:33
because we're more interested to see how it works as a companion,
364
1233600
3480
porque estamos más interesados ​​en ver cómo funciona como compañero,
20:37
having something there to talk to, to converse with, to interact with.
365
1237200
4080
teniendo algo ahí con lo que hablar, con lo que conversar, con lo que interactuar.
20:41
So, Abbey described how the robot is introduced to someone.
366
1241400
4240
Entonces, Abbey describió cómo se le presenta el robot a alguien.
20:45
She was keen to point out that this robot has 'limitations' — 'things it can't do'.
367
1245760
6120
Ella quiso señalar que este robot tiene "limitaciones", "cosas que no puede hacer".
20:52
It can wave or turn round when a person needs 'privacy' — 'to be private' —
368
1252000
5040
Puede saludar o darse la vuelta cuando una persona necesita “privacidad” —“estar privado”—,
20:57
but it can't provide 'physical assistance'.
369
1257160
3280
pero no puede proporcionar “asistencia física”.
21:00
This means it can't help someone by 'touching or feeling' them.
370
1260560
4440
Esto significa que no puede ayudar a alguien "tocándolo o sintiéndolo".
21:05
But that's OK, Abbey says.
371
1265120
1680
Pero eso está bien, dice Abbey.
21:06
This robot is designed to be a 'companion' —
372
1266920
3080
Este robot está diseñado para ser un «compañero» —«
21:10
'someone who is with you to keep you company' —
373
1270120
2320
alguien que está contigo para hacerte compañía»—,
21:12
a friend, in other words, that you can converse or talk with.
374
1272560
3480
un amigo, en otras palabras, con quien puedes conversar o hablar.
21:16
Well, having a companion is a good way to stop people getting lonely,
375
1276160
4400
Bueno, tener un compañero es una buena manera de evitar que las personas se sientan solas,
21:20
but surely a human is better for that?
376
1280680
2960
pero ¿seguramente un humano es mejor para eso? ¿
21:23
Surely they understand you better than a robot ever can?
377
1283760
3680
Seguramente te entienden mejor de lo que un robot podría hacerlo?
21:27
Well, innovation means that robots are becoming cleverer all the time.
378
1287560
4640
Bueno, la innovación significa que los robots se vuelven cada vez más inteligentes.
21:32
And, as we've mentioned, in the UK alone there is a growing elderly population
379
1292320
4720
Y, como hemos mencionado, sólo en el Reino Unido hay una población de edad avanzada en crecimiento
21:37
and more than 100,000 care assistant vacancies.
380
1297160
3360
y más de 100.000 vacantes de asistentes de cuidado. ¿
21:40
Who's going to do all the work?
381
1300640
1800
Quién va a hacer todo el trabajo?
21:42
I think we should hear from Dr Sarah Woodin,
382
1302560
2640
Creo que deberíamos escuchar a la Dra. Sarah Woodin,
21:45
a health researcher in independent living from Leeds University,
383
1305320
4040
investigadora de salud en vida independiente de la Universidad de Leeds,
21:49
who also spoke to the BBC's You and Yours programme.
384
1309480
3960
quien también habló en el programa You and Yours de la BBC.
21:53
She seems more realistic about the introduction of robot carers.
385
1313560
5120
Parece más realista sobre la introducción de cuidadores robot.
21:59
I think there are problems if we consider robots as replacement for people.
386
1319200
4600
Creo que hay problemas si consideramos a los robots como reemplazo de las personas.
22:03
We know that money is tight — if robots become mass-produced,
387
1323920
4680
Sabemos que el dinero escasea: si los robots se producen en masa,
22:08
there could be large institutions where people might be housed
388
1328720
4200
podría haber grandes instituciones donde se alojaría a personas
22:13
and abandoned to robots.
389
1333040
2800
y se las abandonaría a los robots.
22:15
I do think questions of ethics
390
1335960
1480
Creo que las cuestiones éticas también
22:17
need to come into the growth and jobs agenda as well,
391
1337560
3600
deben incluirse en la agenda del crecimiento y el empleo ,
22:21
because, sometimes, they're treated very separately.
392
1341280
2440
porque a veces se tratan de forma muy separada.
22:23
OK, so Sarah Woodin suggests that when money is 'tight' —
393
1343840
3440
Bien, Sarah Woodin sugiere que cuando el dinero es "escaso" —lo
22:27
meaning there is 'only just enough' —
394
1347400
1680
que significa que "solo hay lo suficiente"—
22:29
making robots in large quantities — or mass-produced —
395
1349200
3320
fabricar robots en grandes cantidades —o producirlos en masa—
22:32
might be a cheaper option than using humans.
396
1352640
2720
podría ser una opción más barata que utilizar humanos.
22:35
And she says people might be abandoned to robots.
397
1355480
3160
Y ella dice que la gente podría ser abandonada a los robots.
22:38
Yes, 'abandoned' means 'left alone in a place, usually forever'.
398
1358760
5840
Sí, 'abandonado' significa 'dejado solo en un lugar, generalmente para siempre'.
22:44
So she says it might be possible that someone ends up being forgotten
399
1364720
4360
Entonces ella dice que podría ser posible que alguien termine siendo olvidado
22:49
and only having a robot to care for them. So is this right, ethically?
400
1369200
5640
y solo tenga un robot que lo cuide. Entonces, ¿es esto correcto desde el punto de vista ético?
22:54
Yes, well, she mentions 'ethics' — that's 'what is morally right' —
401
1374960
3920
Sí, bueno, ella menciona la “ética”, es decir, “lo que es moralmente correcto”,
22:59
and that needs to be considered as part of the jobs agenda.
402
1379000
3440
y eso debe considerarse como parte de la agenda de empleo.
23:02
So, we shouldn't just consider what job vacancies need filling,
403
1382560
3160
Por lo tanto, no deberíamos considerar sólo qué puestos de trabajo deben cubrirse,
23:05
but who and how it should be done.
404
1385840
2360
sino quién debe hacerlo y cómo.
23:08
And earlier I asked you, Sam,
405
1388320
1400
Y antes te pregunté, Sam, ¿
23:09
did you know in which year was the first commercial robot built? And you said?
406
1389840
4440
sabías en qué año se construyó el primer robot comercial? ¿Y dijiste?
23:14
I said 1954.
407
1394400
1640
Dije 1954.
23:16
Well, you didn't need a robot to help you there because you are right.
408
1396160
3320
Bueno, no necesitabas un robot que te ayudara ahí porque tienes razón.
23:19
— Ah, yay! — Well done!
409
1399600
1760
— ¡Ah, sí! - ¡Bien hecho!
23:21
Now let's do something a robot can't do yet,
410
1401480
2720
Ahora hagamos algo que un robot aún no puede hacer:
23:24
and that's recap the vocabulary we've highlighted today, starting with empathy.
411
1404320
5280
recapitular el vocabulario que hemos destacado hoy, empezando por la empatía. La
23:29
'Empathy' is 'the ability to understand how someone feels
412
1409720
3440
'empatía' es 'la capacidad de comprender cómo se siente alguien
23:33
by imagining what it would be like to be in that person's situation'.
413
1413280
3920
imaginando cómo sería estar en la situación de esa persona'.
23:37
'Physical assistance' describes 'helping someone by touching them'.
414
1417320
4280
'Asistencia física' describe 'ayudar a alguien tocándolo'.
23:41
We also mentioned a 'companion' —
415
1421720
1920
También mencionamos a un “compañero”,
23:43
that's 'someone who is with you and keeps you company'.
416
1423760
2680
es decir, “alguien que está contigo y te hace compañía”.
23:46
Our next word was 'tight' — in the context of money,
417
1426560
3280
Nuestra siguiente palabra fue "escaso"; en el contexto del dinero,
23:49
when money is tight, it means there's 'not enough'.
418
1429960
3120
cuando el dinero es escaso significa que "no hay suficiente".
23:53
'Abandoned' means 'left alone in a place, usually forever'.
419
1433200
3400
'Abandonado' significa 'dejado solo en un lugar, generalmente para siempre'.
23:56
And finally, we discussed the word 'ethics' —
420
1436720
2440
Y finalmente, discutimos la palabra “ética” —escuchamos
23:59
we hear a lot about business ethics or medical ethics —
421
1439280
3760
mucho hablar de ética empresarial o ética médica—
24:03
and it means 'the study of what is morally right'.
422
1443160
3280
y significa “ el estudio de lo que es moralmente correcto”.
24:06
OK, thank you, Sam.
423
1446560
1560
Está bien, gracias, Sam.
24:08
Well, we've managed to get through 6 Minute English without the aid of a robot.
424
1448240
4520
Bueno, hemos logrado superar 6 Minute English sin la ayuda de un robot.
24:12
That's all for now, but please join us again soon. Goodbye!
425
1452880
2920
Eso es todo por ahora, pero únete a nosotros nuevamente pronto. ¡Adiós! ¡
24:15
Bye-bye, everyone!
426
1455920
1000
Adiós a todos!
24:17
6 Minute English.
427
1457720
1680
6 minutos en inglés.
24:19
From BBC Learning English.
428
1459520
2480
De BBC Aprendiendo Inglés.
24:22
Hello. This is 6 Minute English from BBC Learning English. I'm Phil.
429
1462840
3800
Hola. Este es 6 Minute English de BBC Learning English. Yo soy Phil.
24:26
And I'm Georgie.
430
1466760
1240
Y yo soy Georgie.
24:28
Animal testing is when living animals are used in scientific research
431
1468120
4320
La experimentación con animales es cuando se utilizan animales vivos en investigaciones científicas
24:32
to find out how effective a new medicine is, or how safe a product is for humans.
432
1472560
5880
para descubrir qué tan efectivo es un nuevo medicamento o qué tan seguro es un producto para los humanos.
24:38
Scientists in favour of it argue that animal testing
433
1478560
3360
Los científicos que están a favor argumentan que las pruebas con animales
24:42
shows whether medicines are safe or dangerous for humans,
434
1482040
3840
demuestran si los medicamentos son seguros o peligrosos para los humanos
24:46
and has saved many lives.
435
1486000
1760
y han salvado muchas vidas.
24:47
But animal rights campaigners say it's cruel,
436
1487880
2720
Pero los defensores de los derechos de los animales dicen que es cruel
24:50
and also ineffective because animals and humans are so different.
437
1490720
4800
y también ineficaz porque los animales y los humanos son muy diferentes.
24:55
Under British law, medicines must be tested on two different types of animals,
438
1495640
5800
Según la legislación británica, los medicamentos deben probarse en dos tipos diferentes de animales,
25:01
usually starting with rats, mice or guinea pigs.
439
1501560
4280
empezando normalmente por ratas, ratones o conejillos de indias.
25:05
And in everyday English, the term 'human guinea pig'
440
1505960
3680
Y en el inglés cotidiano, el término "conejillo de indias humano"
25:09
can be used to mean 'the first people to have something tested on them'.
441
1509760
4600
puede usarse para significar "las primeras personas en quienes se probó algo".
25:14
But now, groups both for and against animal testing are thinking again,
442
1514480
4960
Pero ahora, los grupos tanto a favor como en contra de la experimentación con animales están reconsiderando su postura,
25:19
thanks to a recent development in the debate — AI.
443
1519560
3640
gracias a un avance reciente en el debate: la IA.
25:23
In this programme, we'll be hearing how artificial intelligence
444
1523320
3160
En este programa, escucharemos cómo la inteligencia artificial
25:26
could help reduce the need for scientific testing on animals.
445
1526600
3960
podría ayudar a reducir la necesidad de realizar pruebas científicas en animales.
25:30
But first, I have a question for you, Georgie.
446
1530680
3400
Pero primero, tengo una pregunta para ti, Georgie.
25:34
There's one commonly used medicine in particular
447
1534200
2880
Hay un medicamento en particular de uso común
25:37
which is harmful for animals but safe for humans, but what?
448
1537200
5040
que es dañino para los animales pero seguro para los humanos, pero ¿cuál?
25:43
Is it a) Antibiotics?
449
1543240
3280
a) ¿Antibióticos?
25:46
b) Aspirin?
450
1546640
2080
b) ¿Aspirina?
25:48
Or c) Paracetamol?
451
1548840
2480
¿O c) Paracetamol?
25:51
Hmm, I guess it's aspirin.
452
1551440
2880
Hmm, supongo que es aspirina.
25:54
OK, Georgie, I'll reveal the answer at the end of the programme.
453
1554440
4080
Está bien, Georgie, revelaré la respuesta al final del programa.
25:58
Christine Ro is a science journalist who's interested in the animal testing debate.
454
1558640
5360
Christine Ro es una periodista científica interesada en el debate sobre la experimentación con animales.
26:04
Here, she explains to BBC World Service programme Tech Life
455
1564120
4600
Aquí, explica al programa Tech Life del Servicio Mundial de la BBC
26:08
some of the limitations of testing medicines on animals.
456
1568840
3640
algunas de las limitaciones de probar medicamentos en animales.
26:12
Of course, you can't necessarily predict from a mouse or a dog
457
1572600
2640
Por supuesto, no se puede predecir necesariamente a partir de un ratón o un perro
26:15
what's going to happen in a human, and there have been a number of cases
458
1575360
3760
lo que va a pasar en un ser humano, y ha habido varios casos
26:19
where substances that have proven to be toxic in animals
459
1579240
3320
en los que sustancias que han demostrado ser tóxicas en animales
26:22
have been proven to be safe in humans, and vice versa.
460
1582680
3200
han demostrado ser seguras en humanos. y viceversa.
26:27
There are also, of course, animal welfare limitations to animal testing.
461
1587200
4040
También existen, por supuesto, limitaciones a la experimentación con animales en materia de bienestar animal.
26:31
Most people, I think, if they had the choice,
462
1591360
2280
Creo que la mayoría de las personas, si tuvieran la opción,
26:33
would want their substances to be used on as few animals or no animals as possible,
463
1593760
5160
querrían que sus sustancias se utilizaran en la menor cantidad posible de animales o en ninguno,
26:39
while still ensuring safety.
464
1599040
1840
pero garantizando al mismo tiempo la seguridad.
26:41
Now, that's been a really difficult needle to thread,
465
1601000
2280
Ahora bien, ha sido realmente difícil resolver este problema,
26:43
but AI might help to make that more possible.
466
1603400
2440
pero la IA podría ayudar a hacerlo más posible.
26:45
Christine says that medicines which are safe for animals
467
1605960
3280
Christine dice que los medicamentos que son seguros para los animales
26:49
might not be safe for humans.
468
1609360
2320
podrían no serlo para los humanos.
26:51
But the opposite is also true —
469
1611800
1760
Pero lo opuesto también es cierto:
26:53
what's safe for humans might not be safe for animals.
470
1613680
3760
lo que es seguro para los humanos puede no serlo para los animales.
26:57
Christine uses the phrase 'vice versa'
471
1617560
2600
Christine usa la frase “viceversa”
27:00
to show that 'the opposite' of what she says is also true.
472
1620280
3920
para mostrar que “lo opuesto” de lo que dice también es cierto.
27:05
Christine also uses the idiom to 'thread the needle'
473
1625320
3200
Christine también utiliza la expresión "enhebrar la aguja"
27:08
to describe 'a task which requires a lot of skill and precision,
474
1628640
3800
para describir "una tarea que requiere mucha habilidad y precisión,
27:12
'especially one involving a conflict'.
475
1632560
3480
especialmente una que implica un conflicto".
27:16
Yes, medical animal testing may save human lives,
476
1636160
4400
Sí, la experimentación médica con animales puede salvar vidas humanas,
27:20
but many people see it as cruel and distressing for the animal —
477
1640680
3920
pero muchas personas la consideran cruel y angustiante para el animal:
27:24
it's a difficult needle to thread.
478
1644720
2840
es una aguja difícil de sortear.
27:27
But now, the challenge of threading that needle has got a little easier
479
1647680
3760
Pero ahora, el desafío de encontrar esa aguja se ha vuelto un poco más fácil
27:31
because of artificial intelligence.
480
1651560
2080
gracias a la inteligencia artificial.
27:33
Predicting how likely a new medicine is to harm humans
481
1653760
3680
Predecir la probabilidad de que un nuevo medicamento cause daños a los humanos
27:37
involves analysing the results of thousands of experiments.
482
1657560
3960
implica analizar los resultados de miles de experimentos.
27:41
And one thing AI is really good at is analysing mountains and mountains of data.
483
1661640
6280
Y una cosa en la que la IA es realmente buena es en analizar montañas y montañas de datos.
27:48
Here's Christine Ro again, speaking with BBC World Service's Tech Life.
484
1668040
4440
Aquí está Christine Ro nuevamente, hablando con Tech Life de BBC World Service.
27:52
So, AI isn't the whole picture, of course,
485
1672600
1880
Por lo tanto, la IA no es el panorama completo, por supuesto,
27:54
but it's an increasingly important part of the picture and one reason for that
486
1674600
4240
pero es una parte cada vez más importante del panorama y una de las razones para ello
27:58
is that there is a huge amount of toxicology data to wade through
487
1678960
3320
es que hay una enorme cantidad de datos toxicológicos que analizar
28:02
when it comes to determining chemical safety, and, on top of that,
488
1682400
3720
cuando se trata de determinar la seguridad química y, Además de eso,
28:06
there's the staggering number of chemicals being invented all of the time.
489
1686240
4120
está la asombrosa cantidad de productos químicos que se inventan todo el tiempo.
28:10
AI helps scientists wade through huge amounts of data.
490
1690480
4280
La IA ayuda a los científicos a analizar enormes cantidades de datos.
28:14
If you 'wade through' something,
491
1694880
2200
Si "avanzas a través" de algo, "
28:17
you 'spend a lot of time and effort doing something boring or difficult,
492
1697200
4920
pasas mucho tiempo y esfuerzo haciendo algo aburrido o difícil",
28:22
'especially reading a lot of information'.
493
1702240
2960
especialmente leyendo mucha información. La
28:25
AI can process huge amounts of data,
494
1705320
2600
IA puede procesar enormes cantidades de datos
28:28
and what's more, that amount keeps growing as new chemicals are invented.
495
1708040
5360
y, lo que es aún mejor, esa cantidad sigue creciendo a medida que se inventan nuevos productos químicos.
28:33
Christine uses the phrase 'on top of that', meaning 'in addition to something'.
496
1713520
4960
Christine usa la frase 'on top of that', que significa 'además de algo'.
28:38
Often this extra thing is negative.
497
1718600
2440
A menudo, este elemento extra es negativo.
28:41
She means there's already so much data to understand
498
1721160
3360
Quiere decir que ya hay muchos datos por comprender
28:44
and additionally, there's even more to be understood about these new chemicals.
499
1724640
5000
y, además, hay aún más por comprender acerca de estos nuevos productos químicos.
28:49
Of course, the good news is that with AI, testing on animals could one day stop,
500
1729760
6160
Por supuesto, la buena noticia es que con la IA, las pruebas con animales podrían detenerse algún día,
28:56
although Christine warns that AI is not the 'whole picture',
501
1736040
3840
aunque Christine advierte que la IA no es "la imagen completa",
29:00
it's not 'a complete description of something
502
1740000
2120
no es "una descripción completa de algo
29:02
'which includes all the relevant information'.
503
1742240
2920
que incluya toda la información relevante".
29:05
Nevertheless, the news is a step forward
504
1745280
2640
Sin embargo, la noticia supone un paso adelante
29:08
for both animal welfare and for modern medicine.
505
1748040
4040
tanto para el bienestar animal como para la medicina moderna.
29:12
Speaking of which, what was the answer to your question, Phil?
506
1752200
3720
Hablando de eso, ¿cuál fue la respuesta a tu pregunta, Phil? ¿
29:16
What is a commonly used medicine which is safe for humans, but harmful to animals?
507
1756040
5200
Cuál es un medicamento de uso común que es seguro para los humanos, pero dañino para los animales?
29:21
I guessed it was aspirin.
508
1761360
1920
Supuse que era aspirina. ¿
29:23
Which was the correct answer!
509
1763400
3080
Cual fue la respuesta correcta?
29:26
Right, let's recap the vocabulary we've discussed,
510
1766600
3640
Bien, recapitulemos el vocabulario que hemos discutido,
29:30
starting with 'human guinea pigs'
511
1770360
2600
empezando con "conejillos de indias humanos", que
29:33
meaning 'the first people to have something new tested on them'.
512
1773080
3880
significa "las primeras personas en quienes se prueba algo nuevo".
29:37
The phrase 'vice versa' is used to indicate
513
1777080
2560
La frase "viceversa" se utiliza para indicar
29:39
that 'the opposite of what you have just said is also true'.
514
1779760
4280
que "lo opuesto a lo que acabas de decir también es cierto".
29:44
To 'thread the needle'
515
1784160
1320
'Enhebrar la aguja'
29:45
describes 'a task which requires extreme skill and precision to do successfully'.
516
1785600
6120
describe 'una tarea que requiere extrema habilidad y precisión para realizarla con éxito'.
29:51
The 'whole picture' means 'a complete description of something
517
1791840
3360
La "imagen completa" significa "una descripción completa de algo
29:55
'which includes all the relevant information and opinions about it'.
518
1795320
4440
que incluye toda la información y opiniones relevantes sobre ello".
29:59
If you 'wade through' something,
519
1799880
2000
Si "avanzas a través" de algo, "
30:02
you 'spend a lot of time and effort doing something boring or difficult,
520
1802000
4840
pasas mucho tiempo y esfuerzo haciendo algo aburrido o difícil",
30:06
'especially reading a lot of information'.
521
1806960
2800
especialmente leyendo mucha información.
30:09
And finally, the phrase 'on top of something'
522
1809880
2960
Y finalmente, la frase 'encima de algo'
30:12
means 'in addition to something', and that extra thing is often negative.
523
1812960
5000
significa 'además de algo', y esa cosa extra es a menudo negativa.
30:18
That's all for this week. Goodbye for now!
524
1818080
2080
Eso es todo por esta semana. ¡Adiós por ahora! ¡
30:20
Bye!
525
1820280
1360
Adiós!
30:21
6 Minute English.
526
1821760
1320
6 minutos en inglés.
30:23
From BBC Learning English.
527
1823200
2800
De BBC Aprendiendo Inglés.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7