Talking to machines - 6 Minute English

72,438 views ・ 2018-06-07

BBC Learning English


Haga doble clic en los subtítulos en inglés para reproducir el vídeo. Los subtítulos traducidos se traducen automáticamente.

00:07
Rob: Hello and welcome to 6 Minute
0
7880
2340
Rob: Hola y bienvenido a 6 Minute
00:10
English. I'm Rob.
1
10220
1040
English. soy roberto
00:11
Dan: And I'm Dan.
2
11260
1460
Dan: Y yo soy Dan.
00:12
Rob: Hey Dan. What’s the time?
3
12720
2020
roberto: hola dan. ¿Que hora es?
00:14
Dan: Time you got a new watch?
4
14740
2500
Dan: ¿Es hora de que tengas un reloj nuevo?
00:17
Rob: Now I didn’t ask you that just for a
5
17240
2153
Rob: Ahora, no te pregunté eso solo por una
00:19
joke or a sarcastic comment now did I?
6
19393
2067
broma o un comentario sarcástico, ¿o sí?
00:21
Dan: Well no, but look there’s a clock over
7
21460
2380
Dan: Bueno, no, pero mira, hay un reloj
00:23
there, and you are wearing a watch, you
8
23840
1940
allí, y llevas puesto un reloj,
00:25
have a smartphone and a computer,
9
25780
2400
tienes un teléfono inteligente y una computadora,
00:28
all of which show the time.
10
28180
1660
todos los cuales muestran la hora.
00:29
So why are you asking me?
11
29840
1970
Entonces, ¿por qué me preguntas?
00:31
Rob: Dan! I was trying to introduce today’s
12
31810
2530
roberto: dan! Estaba tratando de presentar el tema de hoy,
00:34
topic which is all about virtual assistants
13
34340
3100
que tiene que ver con los asistentes virtuales
00:37
or bots.
14
37440
1020
o bots.
00:38
You seemed to have forgotten the script.
15
38460
2040
Parecías haber olvidado el guión.
00:40
Dan: Oh yes, sorry. We’re talking about
16
40500
2820
Dan: Oh, sí, lo siento. Estamos hablando de un
00:43
software that you talk to and that can talk
17
43320
2680
software con el que hablas y que puede responderte
00:46
back to you. Like Apple’s Siri, Google’s
18
46000
2840
. Como Siri de Apple, Asistente de Google
00:48
Assistant, Amazon’s Alexa and
19
48840
2500
, Alexa de Amazon y
00:51
Microsoft’s Cortana.
20
51340
2000
Cortana de Microsoft.
00:53
It might be on your phone or computer or
21
53340
2680
Puede estar en su teléfono o computadora o
00:56
even a speaker in your house.
22
56020
2420
incluso en un altavoz en su casa.
00:58
Rob: Now before we hear more about this
23
58440
2374
Rob: Ahora, antes de escuchar más sobre este
01:00
topic, here is today’s quiz question:
24
60814
2445
tema, aquí está la pregunta del cuestionario de hoy:
01:03
Do you know when was the first computer
25
63260
3080
¿Sabes cuándo se lanzó la primera computadora
01:06
which could recognise speech, launched?
26
66340
2560
que podía reconocer el habla?
01:08
Was it in a) 1951 b) 1961, or c) 1971.
27
68900
6240
Fue en a) 1951 b) 1961, o c) 1971.
01:15
Dan: I have found my script, so I’ve seen
28
75140
3080
Dan: Encontré mi guión, así que vi
01:18
the answer but I have to say I was
29
78220
2720
la respuesta, pero debo decir que me
01:20
surprised.
30
80940
940
sorprendió.
01:21
Rob: Don't tell anybody Dan, OK. We’ll give
31
81940
1460
Rob: No le digas a nadie Dan, está bien. Daremos
01:23
the answer for the listeners at the end of
32
83400
2380
la respuesta a los oyentes al final
01:25
the programme. We’re going to hear now
33
85780
2600
del programa. Ahora vamos a escuchar
01:28
from Tom Hewitson, who is a
34
88380
2120
a Tom Hewitson, que es un
01:30
conversation designer, working in the field
35
90500
2400
diseñador de conversación, que trabaja en el campo
01:32
of virtual assistants, talking on BBC Radio
36
92900
3660
de los asistentes virtuales, hablando en el programa
01:36
4's Word of Mouth programme.
37
96560
2000
Word of Mouth de BBC Radio 4.
01:38
He talks about the whole idea of virtual
38
98560
2780
Habla sobre la idea general de los
01:41
assistants and how they are changing the
39
101340
2460
asistentes virtuales y cómo están cambiando la
01:43
way we interact with technology.
40
103800
2396
forma en que interactuamos con la tecnología.
01:46
How does he describe our existing
41
106200
1980
¿Cómo describe nuestra
01:48
relationship with computers?
42
108180
2480
relación existente con las computadoras?
01:50
Tom Hewitson: It changes the way that
43
110660
2160
Tom Hewitson: Cambia la forma en que
01:52
we think about computers.
44
112832
1987
pensamos acerca de las computadoras.
01:54
To date we’ve thought of them largely as
45
114819
2036
Hasta la fecha, los hemos considerado en gran medida como
01:56
tools. They’re just an advanced version
46
116855
1985
herramientas. Son solo una versión avanzada
01:58
of a calculator. They’re something you
47
118840
2541
de una calculadora. Son algo que
02:01
kind of use to get a specific thing done,
48
121381
2560
usas para hacer algo específico,
02:03
whereas this is kind of changing them
49
123941
2268
mientras que esto los
02:06
more into like an agent. They’re an active
50
126209
1851
convierte más en un agente. Son un
02:08
participant in the kind of interaction and in
51
128060
3280
participante activo en el tipo de interacción y
02:11
guiding you to make the right decision.
52
131340
2660
te guían para que tomes la decisión correcta.
02:14
Rob: How did he describe our existing
53
134000
1956
Rob: ¿Cómo describió entonces nuestra
02:15
relationship with computers then?
54
135956
1634
relación existente con las computadoras?
02:17
Dan: He said that to date, which is an
55
137590
1836
Dan: Dijo que hasta la fecha, que es una
02:19
expression which means 'up until this
56
139426
1767
expresión que significa 'hasta este
02:21
point in time', we have thought of them
57
141193
1892
momento', las hemos considerado
02:23
as advanced calculators.
58
143085
1555
como calculadoras avanzadas.
02:24
Rob: Yes, that’s right, we use them as a
59
144640
2220
Rob: Sí, así es, los usamos como una
02:26
tool to get things done. But he says that
60
146860
2840
herramienta para hacer las cosas. Pero dice que
02:29
modern technology is turning them into
61
149700
2280
la tecnología moderna los está convirtiendo en
02:31
an agent.
62
151980
1350
un agente.
02:33
This doesn’t mean a secret agent, like
63
153330
1530
¡Esto no significa un agente secreto, como
02:34
James Bond! In this sense an agent is
64
154860
3120
James Bond! En este sentido, un agente es
02:37
something that has agency and that
65
157980
2380
algo que tiene agencia y eso
02:40
means it has the ability to act individually
66
160360
2500
significa que tiene la capacidad de actuar individualmente
02:42
and make its own decisions.
67
162860
2060
y tomar sus propias decisiones.
02:44
Dan: I’m not sure I’d like my phone to have
68
164920
1820
Dan: No estoy seguro de querer que mi teléfono tenga
02:46
agency. It probably wouldn’t like being
69
166750
2399
agencia. Probablemente no le gustaría estar
02:49
in my pocket all day.
70
169149
1291
en mi bolsillo todo el día.
02:50
Rob: Who would Dan? But I’m not sure
71
170440
2160
Rob: ¿Quién sería Dan? Pero no estoy seguro de que
02:52
Hewitson is suggesting our devices would
72
172600
2360
Hewitson esté sugiriendo que nuestros dispositivos se
02:54
become that clever but he did say they
73
174960
2620
volverían tan inteligentes, pero sí dijo que
02:57
could become more active in our lives.
74
177580
2700
podrían volverse más activos en nuestras vidas.
03:00
Dan: Maybe. I imagine, for example,
75
180290
3041
dan: tal vez Me imagino, por ejemplo,
03:03
telling us if we are spending too much
76
183340
2080
diciéndonos si estamos pasando demasiado
03:05
time in fast food restaurants?
77
185420
1780
tiempo en restaurantes de comida rápida.
03:07
Rob: Maybe in your case Dan. Mine would
78
187209
2150
Rob: Tal vez en tu caso, Dan. ¡El
03:09
be telling me I spend too much time in the gym!
79
189359
2992
mío me diría que paso demasiado tiempo en el gimnasio!
03:12
Hewitson goes on to explain how
80
192351
2621
Hewitson continúa explicando cómo se desarrollará
03:14
the way we will talk to our virtual
81
194972
2034
la forma en que hablaremos con nuestros
03:17
assistants will develop.
82
197006
1418
asistentes virtuales.
03:18
What does he say we don’t need to do?
83
198424
2916
¿Qué dice él que no tenemos que hacer?
03:21
Tom Hewitson: We will develop our own
84
201340
1500
Tom Hewitson: Desarrollaremos nuestro propio
03:22
kind of vernacular for speaking with
85
202840
2060
tipo de lengua vernácula para hablar con
03:24
machines that will be subtly
86
204900
1200
máquinas que será sutilmente
03:26
different from how we speak to other
87
206100
1860
diferente de la forma en que hablamos con otras
03:27
people because as you rightly point out
88
207960
2220
personas porque, como usted señala correctamente
03:30
you don’t need to make the machine like
89
210180
1580
, no necesita hacer que la máquina
03:31
you don’t need to kind of make random
90
211760
2900
no necesite ordenar de hacer una
03:34
chit-chat that’s just filling the time. It can
91
214660
2593
charla al azar que solo está llenando el tiempo. Puede
03:37
be much more brusque and to the point.
92
217253
2177
ser mucho más brusco y directo.
03:39
Dan: A lot of what we say in human
93
219430
2177
Dan: Mucho de lo que decimos en la
03:41
communication is to do with our
94
221607
1653
comunicación humana tiene que ver con nuestra
03:43
relationship with the person we’re talking to.
95
223260
2330
relación con la persona con la que estamos hablando.
03:45
Rob: We say things and talk about things
96
225590
2370
Rob: Decimos cosas y hablamos de cosas
03:47
that are maybe not directly relevant to our
97
227960
1800
que tal vez no sean directamente relevantes para nuestro
03:49
point. With a digital virtual assistant, we
98
229760
3680
punto. Con un asistente virtual digital,
03:53
don’t need to do that, so we don’t need to
99
233440
2340
no necesitamos hacer eso, por lo que no necesitamos
03:55
make the machine like us.
100
235780
1599
hacer que la máquina sea como nosotros.
03:57
Dan: Hewitson said that we will develop
101
237380
2140
Dan: Hewitson dijo que desarrollaremos
03:59
our own vernacular, this is a general word
102
239520
2480
nuestra propia lengua vernácula, esta es una palabra general
04:02
for a native language. This vernacular will
103
242000
2900
para un idioma nativo. Esta lengua vernácula
04:04
be a little bit different from our everyday
104
244900
2700
será un poco diferente de nuestra
04:07
vernacular because, as we said, we don’t
105
247600
2500
lengua vernácula cotidiana porque, como dijimos, no
04:10
need to maintain a social relationship
106
250100
2080
necesitamos mantener una relación social
04:12
with the artificial assistant.
107
252180
1840
con el asistente artificial.
04:14
Rob: This means that we won’t need
108
254020
1360
Rob: Esto significa que no necesitaremos
04:15
chit-chat. Chit-chat is another expression
109
255380
2640
charlar. Chit-chat es otra expresión
04:18
for small talk: conversation topics which
110
258020
2680
para una pequeña charla: temas de conversación que
04:20
aren’t important but are part of everyday
111
260700
2718
no son importantes pero que son parte de la
04:23
social communication, like talking about
112
263418
2355
comunicación social cotidiana, como hablar sobre
04:25
the weather.
113
265773
707
el clima.
04:26
Dan: And because we don’t need to be
114
266480
1520
Dan: Y como no necesitamos ser
04:28
friends with our virtual assistants, we can
115
268000
2180
amigos de nuestros asistentes virtuales, podemos
04:30
be brusque and to the point. Both of these
116
270180
2720
ser bruscos y directos. Ambos
04:32
mean being very direct and not very
117
272900
2260
significan ser muy directo y no muy
04:35
polite.
118
275160
1050
cortés.
04:36
Rob: Well Dan, I don’t mean to be brusque but
119
276210
2010
Rob: Bueno, Dan, no quiero ser brusco,
04:38
it is time for the answer to this week’s
120
278220
2236
pero es hora de responder la pregunta del cuestionario de esta semana
04:40
quiz question. Earlier I asked when was
121
280460
2460
. Anteriormente pregunté cuándo se lanzó
04:42
the first computer which could recognise
122
282920
1580
la primera computadora que podía reconocer el
04:44
speech, launched. The options were:
123
284500
2560
habla. Las opciones eran:
04:47
a) 1951, b) 1961, or c) 1971.
124
287060
5260
a) 1951, b) 1961 o c) 1971.
04:52
Well actually the first computer which
125
292320
2060
Bueno, en realidad, la primera computadora que
04:54
could recognise speech was launched in 1961.
126
294380
3700
podía reconocer el habla se lanzó en 1961.
04:58
Dan: Yep! It was called the IBM Shoebox and
127
298080
3020
Dan: ¡Sí! Se llamaba IBM Shoebox y
05:01
could recognise 16 words and the
128
301100
2580
podía reconocer 16 palabras y los
05:03
numbers zero to nine. That’s nearly as
129
303680
2878
números del cero al nueve. ¡Eso es casi
05:06
many as you!
130
306558
1282
tanto como tú!
05:07
Rob: Cheeky! Right enough of this
131
307840
2431
Rob: Descarado! Lo suficiente de este
05:10
chat-chat. Let’s recap today’s vocabulary.
132
310271
2648
chat-chat. Recapitulemos el vocabulario de hoy.
05:12
Dan: Well chit-chat was one of today’s
133
312919
2288
Dan: Bueno, la charla fue una de las expresiones de hoy
05:15
expressions. Meaning 'small talk', but we
134
315207
2273
. Significa 'pequeña charla', pero
05:17
also had the expression to date. That
135
317480
2779
también teníamos la expresión hasta la fecha. Eso
05:20
means ‘up until this moment in time’.
136
320259
2291
significa "hasta este momento en el tiempo".
05:22
Rob: Then we had the noun agent. This
137
322550
2490
Rob: Luego tuvimos el sustantivo agente. Esto se
05:25
refers to something that has agency. And
138
325040
2420
refiere a algo que tiene agencia. Y
05:27
that is the ability to think, make decisions
139
327520
3080
esa es la capacidad de pensar, tomar decisiones
05:30
and act independently.
140
330600
1640
y actuar de manera independiente.
05:32
Dan: The next word is vernacular, another
141
332340
1420
Dan: La siguiente palabra es vernáculo, otra
05:33
word for language, particularly when
142
333760
2740
palabra para lenguaje, particularmente cuando se
05:36
talking about a native language.
143
336500
1690
habla de un idioma nativo.
05:38
Rob: And finally there was brusque
144
338190
2365
Rob: Y finalmente estaba brusco que
05:40
meaning 'direct and not polite' and to the
145
340560
2680
significa 'directo y no cortés' y al
05:43
point, which also means 'direct and without
146
343240
2880
grano, que también significa 'directo y sin
05:46
unnecessary information'.
147
346120
1280
información innecesaria'.
05:47
Dan: Hey Rob
148
347400
1040
Dan: Hola Rob
05:48
Rob: Yes, what can I do for you Dan?
149
348440
2270
Rob: Sí, ¿qué puedo hacer por ti, Dan?
05:50
Dan: End the programme.
150
350710
1590
Dan: Termine el programa.
05:52
Rob: Certainly Dan. Well that’s all from us
151
352300
2500
Rob: Ciertamente Dan. Bueno, eso es todo de nosotros
05:54
today, be sure to check us out on all the
152
354800
2320
hoy, asegúrese de visitarnos en todos los
05:57
usual places: Facebook, Twitter, Instagram
153
357120
2632
lugares habituales: Facebook, Twitter, Instagram
05:59
and YouTube, and of course please don't
154
359760
2180
y YouTube, y por supuesto, no
06:01
forget our website
155
361940
1100
olvide nuestro sitio web
06:03
bbclearningenglish.co m. Bye for now!
156
363040
2380
bbclearningenglish.co m. ¡Adiós por ahora!
06:05
Dan: Bye!
157
365420
840
dan: adios!
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7