Should we fear chatbots? ⏲️ 6 Minute English

130,813 views ・ 2023-07-06

BBC Learning English


Haga doble clic en los subtítulos en inglés para reproducir el vídeo. Los subtítulos traducidos se traducen automáticamente.

00:07
Hello. This is 6 Minute English
0
7680
1600
Hola. Esto es 6 minutos de inglés
00:09
from BBC Learning English.
1
9280
1720
de BBC Learning English.
00:11
I'm Neil.
2
11000
760
00:11
And I'm Rob.
3
11760
1720
soy neil
Y yo soy Rob.
00:13
Now, I'm sure most of us have interacted with a chatbot.
4
13480
4160
Ahora, estoy seguro de que la mayoría de nosotros hemos interactuado con un chatbot.
00:17
These are bits of computer technology that respond to text with text
5
17640
4920
Estos son fragmentos de tecnología informática que responden a texto con texto
00:22
or respond to your voice.
6
22560
2040
o responden a su voz. Le
00:24
You ask it a question and usually it comes up
7
24600
3400
haces una pregunta y normalmente te da
00:28
with an answer.
8
28000
1200
una respuesta.
00:29
Yes, it's almost like talking to another human.
9
29200
2480
Sí, es casi como hablar con otro ser humano.
00:31
But of course, it's not.
10
31680
1760
Pero por supuesto, no lo es.
00:33
It's just a clever piece of technology.
11
33440
2640
Es solo una pieza inteligente de tecnología.
00:36
It's becoming more sophisticated, more advanced and complex,
12
36080
3720
Se está volviendo más sofisticado, más avanzado y complejo,
00:39
but could they replace real human interaction altogether?
13
39800
3200
pero ¿podrían reemplazar por completo la interacción humana real?
00:43
We'll discuss that more in a moment and find out if chatbots
14
43000
3560
Discutiremos eso más en un momento y descubriremos si los chatbots
00:46
really think for themselves. But first,
15
46560
3120
realmente piensan por sí mismos. Pero primero,
00:49
I have a question for you, Rob. The first computer program that allowed
16
49680
4000
tengo una pregunta para ti, Rob. El primer programa informático que permitió
00:53
some kind of plausible conversation between humans and machines
17
53680
4400
algún tipo de conversación plausible entre humanos y máquinas
00:58
was invented in 1966.
18
58080
2840
se inventó en 1966.
01:00
But what was it called?
19
60920
1760
Pero, ¿cómo se llamaba? ¿
01:02
Was it a) Alexa.
20
62680
2360
Fue a) Alexa.
01:05
b) Eliza, or c) Parry? Well, it's not Alexa,
21
65040
5040
b) Eliza, o c) Parry? Bueno, no es Alexa,
01:10
that's too new, so I'll guess
22
70080
2080
eso es demasiado nuevo, así que supongo que
01:12
c) Parry.
23
72160
1160
c) Parry.
01:13
I'll reveal the answer at the end of the programme.
24
73320
3480
Revelaré la respuesta al final del programa.
01:16
Now, the old chatbots of the 1960s and 70s were quite basic.
25
76800
5400
Ahora, los viejos chatbots de los años 60 y 70 eran bastante básicos.
01:22
But more recently, the technology is able to predict the next word that is
26
82200
5600
Pero más recientemente, la tecnología puede predecir la siguiente palabra que
01:27
likely to be used in a sentence and it learns words and sentence structures.
27
87800
4800
probablemente se usará en una oración y aprende palabras y estructuras de oraciones.
01:32
It's clever stuff.
28
92600
1360
Es algo inteligente.
01:33
I've experienced using them when talking to my bank
29
93960
2760
He experimentado su uso cuando hablo con mi banco
01:36
or when I have problems trying to book a ticket on a website.
30
96720
3320
o cuando tengo problemas al intentar reservar un billete en un sitio web.
01:40
I no longer phone a human,
31
100040
2480
Ya no llamo a un humano,
01:42
I speak to a virtual assistant instead.
32
102520
2840
hablo con un asistente virtual.
01:45
Probably the most well known chatbot at the moment
33
105360
2880
Probablemente el chatbot más conocido en este momento
01:48
is ChatGTP.
34
108240
1640
es ChatGTP.
01:49
It is. The claim is that it's able to answer
35
109880
2920
Es. La afirmación es que es capaz de responder
01:52
anything you ask it.
36
112800
1680
cualquier cosa que le preguntes.
01:54
This includes writing
37
114480
1280
Esto incluye escribir los
01:55
students' essays.
38
115760
1680
ensayos de los estudiantes.
01:57
Now, this is something that was discussed on the BBC
39
117440
2600
Ahora bien, esto es algo que se discutió en el
02:00
Radio 4 programme, Word of Mouth.
40
120040
2520
programa Word of Mouth de BBC Radio 4.
02:02
Emily M Bender,
41
122560
1640
Emily M Bender,
02:04
Professor of Computational Linguistics at the University
42
124200
3320
profesora de lingüística computacional en la Universidad
02:07
of Washington, explained why it's dangerous to always trust
43
127520
3760
de Washington, explicó por qué es peligroso confiar siempre en
02:11
what a chatbot is telling us.
44
131280
2160
lo que nos dice un chatbot.
02:13
We tend to react to grammatical, fluent, coherent seeming text
45
133440
5280
Tendemos a reaccionar ante un texto gramatical, fluido y aparentemente coherente
02:18
as authoritative and reliable and valuable and
46
138720
4720
como autorizado, confiable y valioso, y
02:23
we need to be on guard against that because what is coming out of ChatGTP
47
143440
2680
debemos estar en guardia contra eso porque lo que sale de ChatGTP no
02:26
is none of that.
48
146120
1400
es nada de eso.
02:27
So, Professor Bender says that well written text, that is coherent -
49
147520
4320
Entonces, el profesor Bender dice que un texto bien escrito, que es coherente,
02:31
that means it's clear, carefully considered and sensible -
50
151840
3440
es decir, que es claro, cuidadosamente considerado y sensato,
02:35
makes us think what we are reading is reliable and authoritative.
51
155280
4240
nos hace pensar que lo que estamos leyendo es confiable y autorizado.
02:39
So it's respected, accurate and important sounding.
52
159520
3600
Por lo tanto, es un sonido respetado, preciso e importante.
02:43
Yes, chatbots might appear to write in this way. But really,
53
163120
3920
Sí, puede parecer que los chatbots escriben de esta manera. Pero en realidad,
02:47
they are just predicting one word after another based on what they have learnt.
54
167040
5040
solo están prediciendo una palabra tras otra en función de lo que han aprendido.
02:52
We should therefore be on guard - be careful
55
172080
3040
Por lo tanto, debemos estar en guardia: ser cuidadosos
02:55
and alert about the accuracy of what we are being told.
56
175120
3880
y estar alerta sobre la precisión de lo que se nos dice.
02:59
One concern is that chatbots - a form of artificial intelligence - work
57
179000
4800
Una preocupación es que los chatbots, una forma de inteligencia artificial, funcionan
03:03
a bit like a human brain in the way it can learn and process information.
58
183800
4640
un poco como un cerebro humano en la forma en que pueden aprender y procesar información.
03:08
They are able to learn from experience. Something called deep learning.
59
188440
4680
Son capaces de aprender de la experiencia. Algo llamado aprendizaje profundo.
03:13
A cognitive psychologist and computer scientist called Geoffrey Hinton,
60
193120
4120
Un psicólogo cognitivo y científico informático llamado Geoffrey Hinton
03:17
recently said he feared that chatbots could soon overtake the level
61
197240
4120
dijo recientemente que temía que los chatbots pudieran superar pronto el nivel
03:21
of information that a human brain holds. That is a bit scary isn't it?
62
201360
5160
de información que contiene el cerebro humano . Eso da un poco de miedo ¿no?
03:26
But for now, chatbots can be useful for practical information,
63
206560
4000
Pero por ahora, los chatbots pueden ser útiles para obtener información práctica,
03:30
but sometimes we start to believe they are human
64
210560
2680
pero a veces empezamos a creer que son humanos
03:33
and we interact with them in a human like way.
65
213240
2920
e interactuamos con ellos de manera humana.
03:36
This can make us believe them even more.
66
216160
2520
Esto puede hacer que les creamos aún más.
03:38
Professor Emma Bender,
67
218680
1160
La profesora Emma Bender,
03:39
speaking on the BBC's Word of Mouth
68
219840
1880
hablando en el programa Word of Mouth de la BBC
03:41
programme, explains why we might feel like that.
69
221720
3560
, explica por qué podemos sentirnos así.
03:45
I think what's going on there is, the kinds of answers
70
225280
3160
Creo que lo que está pasando ahí es que los tipos de respuestas que
03:48
you get depend on the questions
71
228440
2360
obtienes dependen de las preguntas que
03:50
you put in, because it's doing likely next word, likely next word.
72
230800
3360
hagas, porque es probablemente la siguiente palabra, probablemente la siguiente palabra.
03:54
And so, if as the human interacting with this machine
73
234160
3360
Entonces, si como humano interactuando con esta máquina
03:57
and you start asking questions about how do you feel, you know, chatbot?
74
237520
4120
y comienzas a hacer preguntas sobre cómo te sientes, ¿sabes, chatbot?
04:01
And, what do you think of this?
75
241640
2120
Y, ¿qué piensas de esto? ¿
04:03
What are your goals?
76
243760
1200
Cuáles son tus metas?
04:04
You can provoke it to say things that sound like what a sentient
77
244960
3400
Puedes provocarlo para que diga cosas que suenen como lo que
04:08
entity would say. We are really primed to imagine a mind behind language
78
248360
4960
diría una entidad sensible. Estamos realmente preparados para imaginar una mente detrás del lenguaje
04:13
whenever we encounter language.
79
253320
1840
cada vez que nos encontramos con un lenguaje.
04:15
And so we really have to account for that when
80
255160
1880
Entonces, realmente tenemos que dar cuenta de eso cuando
04:17
we're making decisions about these.
81
257040
2240
tomamos decisiones sobre esto.
04:19
So, although a chatbot might sound human,
82
259480
2960
Entonces, aunque un chatbot puede parecer humano, en realidad
04:22
we really just ask it
83
262440
1280
solo le preguntamos
04:23
things to get a reaction. We provoke it.
84
263720
2720
cosas para obtener una reacción. Lo provocamos.
04:26
And it answers only with words
85
266440
1800
Y responde solo con palabras
04:28
it has learned to use before.
86
268240
2080
que ha aprendido a usar antes.
04:30
Not because it has come up with a clever answer,
87
270320
2960
No porque se le haya ocurrido una respuesta inteligente,
04:33
but it does sound like a sentient entity. Sentient describes a living  
88
273280
5000
pero suena como una entidad sensible. Sintiente describe un
04:38
thing that experiences feelings. As Professor Bender says we imagine  
89
278280
4880
ser vivo que experimenta sentimientos. Como dice el profesor Bender, imaginamos
04:43
that when something speaks there is a mind behind it. But sorry Neil,
90
283160
4760
que cuando algo habla hay una mente detrás. Pero lo siento Neil,
04:47
they are not your friend.
91
287920
1280
no son tus amigos.
04:49
They're just machines.
92
289200
1160
Son solo máquinas.
04:50
Yes, it's strange then
93
290360
1240
Sí, entonces es extraño
04:51
that we sometimes give chatbots names. Alexa, Siri, and earlier
94
291600
4920
que a veces le demos nombres a los chatbots. Alexa, Siri y antes
04:56
I asked you what the name was for their first ever chatbot?
95
296520
3840
te pregunté cuál era el nombre de su primer chatbot.
05:00
And I guessed it was Parry. Was I right?
96
300360
2760
Y supuse que era Parry. ¿Tenía razón?
05:03
You guessed wrong, I'm afraid.
97
303120
2000
Adivinaste mal, me temo.
05:05
Parry was an early form of chatbot from 1972.
98
305120
3840
Parry fue una de las primeras formas de chatbot de 1972.
05:08
But the correct answer was Eliza.
99
308960
2960
Pero la respuesta correcta fue Eliza.
05:11
It was considered to be the first chatterbot, as it was called then,
100
311920
3960
Fue considerado el primer chatterbot, como se llamaba entonces,
05:15
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
101
315880
5480
y fue desarrollado por Joseph Weizenbaum en el Instituto Tecnológico de Massachusetts.
05:21
Fascinating stuff.
102
321360
1320
Cosas fascinantes.
05:22
OK, now let's recap some of the vocabulary
103
322680
2480
Bien, ahora recapitulemos parte del vocabulario que
05:25
we highlighted in this programme, starting with sophisticated,
104
325160
4080
destacamos en este programa, comenzando con sofisticado,
05:29
which can describe technology that is advanced and complex.
105
329240
4120
que puede describir tecnología avanzada y compleja.
05:33
Something that is coherent, is clear carefully considered and sensible.
106
333360
4520
Algo que es coherente, es claro cuidadosamente considerado y sensato.
05:37
Authoritative means respected accurate and important sounding.
107
337880
4600
Autoritario significa sondeo preciso e importante respetado.
05:42
When you are on guard
108
342480
1400
Cuando estás en guardia
05:43
you must be careful and alert about something.
109
343880
2400
debes estar atento y alerta sobre algo.
05:46
It could be the accuracy of what you see or hear or just being aware
110
346280
4560
Podría ser la precisión de lo que ve o escucha o simplemente ser consciente
05:50
of the dangers around you. To provoke means to do something
111
350840
3560
de los peligros que lo rodean. Provocar significa hacer algo
05:54
that causes a reaction from someone.
112
354400
2480
que provoca una reacción en alguien.
05:56
Sentient describes something that experiences feelings.
113
356880
3840
Sentient describe algo que experimenta sentimientos.
06:00
So it's something that is living. Once again
114
360720
2680
Entonces es algo que está vivo. Una vez más
06:03
our six minutes are up. Goodbye.
115
363400
2320
nuestros seis minutos han terminado. Adiós.
06:05
Bye bye for now.
116
365720
1520
Adiós por ahora.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7