Can AI have a mind of its own? ⏲️ 6 Minute English

249,203 views ・ 2023-01-26

BBC Learning English


Haga doble clic en los subtítulos en inglés para reproducir el vídeo. Los subtítulos traducidos se traducen automáticamente.

00:08
Hello. This is 6 Minute English from
0
8520
2220
Hola. Esto es 6 minutos de inglés de
00:10
BBC Learning English. I’m Sam.
1
10740
1680
BBC Learning English. Soy Sam.
00:12
And I’m Neil.
2
12420
840
Y yo soy Neil.
00:13
In the autumn of 2021, something
3
13260
2520
En el otoño de 2021, algo
00:15
strange happened at the Google
4
15780
1920
extraño sucedió en la
00:17
headquarters in California’s Silicon
5
17700
2460
sede de Google en Silicon
00:20
Valley. A software engineer called,
6
20160
2100
Valley, California. Un ingeniero de software llamado
00:22
Blake Lemoine, was working on the
7
22260
2460
Blake Lemoine estaba trabajando en el
00:24
artificial intelligence project, ‘Language
8
24720
2340
proyecto de inteligencia artificial, '
00:27
Models for Dialogue Applications’, or
9
27060
2700
Modelos de lenguaje para aplicaciones de diálogo', o
00:29
LaMDA for short. LaMDA is a
10
29760
2940
LaMDA para abreviar. LaMDA es un
00:32
chatbot – a computer programme
11
32700
1860
chatbot, un programa informático
00:34
designed to have conversations with
12
34560
2040
diseñado para tener conversaciones con
00:36
humans over the internet.
13
36600
1080
humanos a través de Internet.
00:37
After months talking with LaMDA
14
37680
2820
Después de meses hablando con LaMDA
00:40
on topics ranging from movies to
15
40500
2280
sobre temas que van desde películas hasta
00:42
the meaning of life, Blake came to
16
42780
2220
el sentido de la vida, Blake llegó a
00:45
a surprising conclusion: the chatbot
17
45000
2700
una conclusión sorprendente: el chatbot
00:47
was an intelligent person with wishes
18
47700
2640
era una persona inteligente con deseos
00:50
and rights that should be respected.
19
50340
2160
y derechos que debían respetarse.
00:52
For Blake, LaMDA was a Google
20
52500
2640
Para Blake, LaMDA era un
00:55
employee, not a machine.
21
55140
1380
empleado de Google, no una máquina.
00:56
He also called it his ‘friend’.
22
56520
2160
También lo llamó su 'amigo'.
00:58
Google quickly reassigned Blake from
23
58680
2580
Google reasignó rápidamente a Blake
01:01
the project, announcing that his ideas
24
61260
1860
del proyecto y anunció que sus ideas
01:03
were not supported by the evidence.
25
63120
2220
no estaban respaldadas por la evidencia.
01:05
But what exactly was going on?
26
65340
2700
Pero, ¿qué estaba pasando exactamente?
01:08
In this programme, we’ll be
27
68040
1860
En este programa,
01:09
discussing whether artificial intelligence
28
69900
2160
discutiremos si la inteligencia artificial
01:12
is capable of consciousness. We’ll hear
29
72060
3000
es capaz de tener conciencia. Escucharemos
01:15
from one expert who thinks AI is not as
30
75060
3000
a un experto que piensa que la IA no es tan
01:18
intelligent as we sometimes think,
31
78060
1560
inteligente como a veces pensamos
01:19
and as usual, we’ll be learning some
32
79620
2460
y, como de costumbre, también aprenderemos
01:22
new vocabulary as well.
33
82080
1320
vocabulario nuevo.
01:23
But before that, I have a question for
34
83400
2100
Pero antes de eso, tengo una pregunta para
01:25
you, Neil. What happened to Blake Lemoine
35
85500
2280
ti, Neil. Lo que le sucedió a Blake Lemoine
01:27
is strangely similar to the 2013 Hollywood
36
87780
2940
es extrañamente similar a la película de Hollywood de 2013
01:30
movie, Her, starring Joaquin Phoenix as
37
90720
3420
, Her, protagonizada por Joaquin Phoenix como
01:34
a lonely writer who talks with his
38
94140
1860
un escritor solitario que habla con su
01:36
computer, voiced by Scarlett Johansson.
39
96000
2280
computadora, con la voz de Scarlett Johansson.
01:38
But what happens at the end
40
98280
1860
Pero, ¿qué sucede al final
01:40
of the movie? Is it:
41
100140
1380
de la película? Es:
01:41
a) the computer comes to life?
42
101520
1860
a) ¿la computadora cobra vida?
01:43
b) the computer dreams about the writer? or,
43
103380
3360
b) la computadora sueña con el escritor? o,
01:46
c) the writer falls in love with the computer?
44
106740
2040
c) el escritor se enamora de la computadora?
01:48
... c) the writer falls in love with the computer.
45
108780
3420
... c) el escritor se enamora de la computadora.
01:52
OK, Neil, I’ll reveal the answer at the end
46
112200
2700
Bien, Neil, revelaré la respuesta al final
01:54
of the programme. Although Hollywood is
47
114900
2460
del programa. Aunque Hollywood está
01:57
full of movies about robots coming to life,
48
117360
2340
lleno de películas sobre robots que cobran vida,
01:59
Emily Bender, a professor of linguistics and
49
119700
3240
Emily Bender, profesora de lingüística y
02:02
computing at the University of Washington,
50
122940
2100
computación en la Universidad de Washington,
02:05
thinks AI isn’t that smart. She thinks the
51
125040
4440
cree que la IA no es tan inteligente. Ella piensa que las
02:09
words we use to talk about technology,
52
129480
1800
palabras que usamos para hablar de tecnología,
02:11
phrases like ‘machine learning’, give a
53
131280
3300
frases como "aprendizaje automático", dan una
02:14
false impression about what
54
134580
1620
impresión falsa sobre lo que las
02:16
computers can and can’t do.
55
136200
1740
computadoras pueden y no pueden hacer.
02:17
Here is Professor Bender discussing
56
137940
2400
Aquí está el profesor Bender discutiendo
02:20
another misleading phrase, ‘speech
57
140340
2340
otra frase engañosa, '
02:22
recognition’, with BBC World Service
58
142680
2460
reconocimiento de voz', con el programa del Servicio Mundial de la
02:25
programme, The Inquiry:
59
145140
1440
BBC, The Inquiry:
02:27
If you talk about ‘automatic speech
60
147360
2220
Si habla de '
02:29
recognition’, the term ‘recognition’
61
149580
1920
reconocimiento de voz automático', el término 'reconocimiento'
02:31
suggests that there's something
62
151500
2100
sugiere que está
02:33
cognitive going on, where I think a
63
153600
2160
ocurriendo algo cognitivo, donde creo que un
02:35
better term would be automatic transcription.
64
155760
2100
mejor término sería transcripción automática.
02:37
That just describes the input-output
65
157860
1980
Eso solo describe la relación de entrada-
02:39
relation, and not any theory or wishful
66
159840
3660
salida, y no cualquier teoría o
02:43
thinking about what the computer is
67
163500
2280
ilusión sobre lo que está haciendo la computadora
02:45
doing to be able to achieve that.
68
165780
1440
para poder lograr eso.
02:47
Using words like ‘recognition’ in relation
69
167220
3360
El uso de palabras como "reconocimiento" en relación
02:50
to computers gives the idea that
70
170580
2100
con las computadoras da la idea de que
02:52
something cognitive is happening – something
71
172680
2760
algo cognitivo está sucediendo, algo
02:55
related to the mental processes of
72
175440
2340
relacionado con los procesos mentales de
02:57
thinking, knowing, learning and understanding.
73
177780
2760
pensar, conocer, aprender y comprender.
03:00
But thinking and knowing are human,
74
180540
2700
Pero pensar y conocer son actividades humanas
03:03
not machine, activities. Professor Benders
75
183240
3060
, no mecánicas. El profesor Benders
03:06
says that talking about them in connection
76
186300
2040
dice que hablar de ellos en relación
03:08
with computers is wishful thinking -
77
188340
3570
con las computadoras es una ilusión,
03:11
something which is unlikely to happen.
78
191910
2310
algo que es poco probable que suceda.
03:14
The problem with using words in this
79
194220
2220
El problema de usar palabras de esta
03:16
way is that it reinforces what
80
196440
2100
manera es que refuerza lo que el
03:18
Professor Bender calls, technical
81
198540
2160
profesor Bender llama
03:20
bias – the assumption that the computer
82
200700
2520
sesgo técnico: la suposición de que la
03:23
is always right. When we encounter
83
203220
2520
computadora siempre tiene la razón. Cuando nos encontramos con un
03:25
language that sounds natural, but is
84
205740
1680
lenguaje que suena natural, pero que
03:27
coming from a computer, humans
85
207420
2280
proviene de una computadora, los humanos
03:29
can’t help but imagine a mind behind
86
209700
2460
no pueden evitar imaginar una mente detrás
03:32
the language, even when there isn’t one.
87
212160
2220
del lenguaje, incluso cuando no la hay.
03:34
In other words, we anthropomorphise
88
214380
2160
En otras palabras, antropomorfizamos las
03:36
computers – we treat them as if they
89
216540
2520
computadoras, las tratamos como si
03:39
were human. Here’s Professor Bender
90
219060
2220
fueran humanos. Aquí está el profesor Bender
03:41
again, discussing this idea with
91
221280
2220
nuevamente, discutiendo esta idea con
03:43
Charmaine Cozier, presenter of BBC
92
223500
2700
Charmaine Cozier, presentadora
03:46
World Service’s, the Inquiry.
93
226200
1620
de la Investigación del Servicio Mundial de la BBC.
03:48
So ‘ism’ means system, ‘anthro’ or ‘anthropo’
94
228420
3660
Entonces 'ismo' significa sistema, 'anthro' o 'anthropo'
03:52
means human, and ‘morph’ means shape...
95
232080
3000
significa humano, y 'morph' significa forma...
03:55
And so this is a system that puts the
96
235080
3000
Y entonces este es un sistema que pone la
03:58
shape of a human on something, and
97
238080
2160
forma de un ser humano en algo, y
04:00
in this case the something is a computer.
98
240240
1260
en este caso ese algo es un computadora.
04:01
We anthropomorphise animals all the time,
99
241500
3180
Siempre antropomorfizamos animales,
04:04
but we also anthropomorphise action figures,
100
244680
3060
pero también antropomorfizamos figuras de acción,
04:07
or dolls, or companies when we talk about
101
247740
2880
muñecos o empresas cuando hablamos de
04:10
companies having intentions and so on.
102
250620
2040
empresas que tienen intenciones, etc.
04:12
We very much are in the habit of seeing
103
252660
2880
Estamos muy acostumbrados a vernos a
04:15
ourselves in the world around us.
104
255540
1620
nosotros mismos en el mundo que nos rodea.
04:17
And while we’re busy seeing ourselves
105
257160
2220
Y mientras estamos ocupados viéndonos a nosotros mismos
04:19
by assigning human traits to things that
106
259380
2100
asignando rasgos humanos a cosas
04:21
are not, we risk being blindsided.
107
261480
2520
que no lo son, corremos el riesgo de ser sorprendidos.
04:24
The more fluent that text is, the more
108
264000
2400
Cuanto más fluido sea el texto, más
04:26
different topics it can converse on, the
109
266400
2700
temas diferentes sobre los que se puede conversar,
04:29
more chances there are to get taken in.
110
269100
1920
más posibilidades hay de que
04:31
If we treat computers as if they could think,
111
271860
2760
nos engañen. Si tratamos a las computadoras como si pudieran pensar,
04:34
we might get blindsided, or
112
274620
2520
es posible que nos tomen por sorpresa o nos
04:37
unpleasantly surprised. Artificial intelligence
113
277140
3180
sorprendan desagradablemente. La inteligencia artificial
04:40
works by finding patterns in massive
114
280320
2220
funciona al encontrar patrones en
04:42
amounts of data, so it can seem like
115
282540
2520
cantidades masivas de datos, por lo que puede parecer
04:45
we’re talking with a human, instead
116
285060
1860
que estamos hablando con un humano, en lugar
04:46
of a machine doing data analysis.
117
286920
2220
de una máquina que realiza el análisis de datos.
04:49
As a result, we get taken in – we’re tricked
118
289140
4020
Como resultado, nos
04:53
or deceived into thinking we’re dealing
119
293160
1920
engañan: nos engañan o engañan para que pensemos que estamos tratando
04:55
with a human, or with something intelligent.
120
295080
3003
con un ser humano o con algo inteligente.
04:58
Powerful AI can make machines appear conscious,
121
298083
3318
La poderosa IA puede hacer que las máquinas parezcan conscientes,
05:01
but even tech giants like Google are years
122
301401
2945
pero incluso los gigantes tecnológicos como Google están a
05:04
away from building computers that can
123
304346
2407
años de construir computadoras que puedan
05:06
dream or fall in love. Speaking of which,
124
306753
2355
soñar o enamorarse. Hablando de eso,
05:09
Sam, what was the answer to your question?
125
309108
2671
Sam, ¿cuál fue la respuesta a tu pregunta?
05:11
I asked what happened in the 2013 movie, Her.
126
311779
2752
Pregunté qué pasó en la película de 2013, Her.
05:14
Neil thought that the main character
127
314531
1900
Neil pensó que el personaje principal
05:16
falls in love with his computer, which
128
316431
2248
se enamora de su computadora, ¡que
05:18
was the correct answer!
129
318679
1361
era la respuesta correcta!
05:20
OK. Right, it’s time to recap the vocabulary
130
320880
2640
ESTÁ BIEN. Correcto, es hora de recapitular el vocabulario
05:23
we’ve learned from this programme about AI,
131
323520
2340
que hemos aprendido de este programa sobre IA,
05:25
including chatbots - computer programmes
132
325860
3180
incluidos los chatbots, programas informáticos
05:29
designed to interact with
133
329040
1380
diseñados para interactuar con
05:30
humans over the internet.
134
330420
1560
humanos a través de Internet.
05:31
The adjective cognitive describes
135
331980
2640
El adjetivo cognitivo describe
05:34
anything connected with the mental
136
334620
1860
todo lo relacionado con los
05:36
processes of knowing,
137
336480
1320
procesos mentales de conocer,
05:37
learning and understanding.
138
337800
1380
aprender y comprender.
05:39
Wishful thinking means thinking that
139
339180
2640
Las ilusiones significan pensar que
05:41
something which is very unlikely to happen
140
341820
2100
algo que es muy poco probable que suceda
05:43
might happen one day in the future.
141
343920
2040
podría suceder algún día en el futuro.
05:45
To anthropomorphise an object means
142
345960
2400
Antropomorfizar un objeto
05:48
to treat it as if it were human,
143
348360
1500
significa tratarlo como si fuera humano,
05:49
even though it’s not.
144
349860
1200
aunque no lo sea.
05:51
When you’re blindsided, you’re
145
351060
2520
Cuando te sorprenden, te
05:53
surprised in a negative way.
146
353580
1500
sorprendes de manera negativa.
05:55
And finally, to get taken in by someone means
147
355080
2880
Y finalmente, dejarse engañar por alguien
05:57
to be deceived or tricked by them.
148
357960
1860
significa ser engañado o engañado por ellos.
05:59
My computer tells me that our six minutes
149
359820
2640
¡Mi computadora me dice que nuestros seis
06:02
are up! Join us again soon, for now
150
362460
2580
minutos terminaron! Vuelva a unirse a nosotros pronto, por
06:05
it’s goodbye from us.
151
365040
1140
ahora es nuestro adiós.
06:06
Bye!
152
366180
500
¡Adiós!
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7