BOX SET: 6 Minute English - Internet and Technology English mega-class! One hour of new vocabulary!

1,179,729 views

2020-12-12 ・ BBC Learning English


New videos

BOX SET: 6 Minute English - Internet and Technology English mega-class! One hour of new vocabulary!

1,179,729 views ・ 2020-12-12

BBC Learning English


Haga doble clic en los subtítulos en inglés para reproducir el vídeo. Los subtítulos traducidos se traducen automáticamente.

00:06
Hello and welcome to 6 Minute English. I'm  Dan and joining me today is Neil. Hey Neil.
0
6720
4640
Hola y bienvenidos a 6 Minute English. Soy Dan y hoy me acompaña Neil. Hola Neil.
00:11
Hello Dan. What’s on the agenda today?
1
11360
2160
Hola Dan. ¿Qué hay en la agenda hoy?
00:13
Well, I’ll give you a clue. It’s something that  makes the world go round, but it doesn’t really  
2
13520
4880
Bueno, te daré una pista. Es algo que hace que el mundo gire, pero en realidad no
00:18
exist. In fact, if we all stopped believing in  it, it would have no use at all! What is it?
3
18400
6800
existe. De hecho, si todos dejáramos de creer en él, ¡no serviría de nada! ¿Qué es?
00:25
I haven’t got a clue!
4
25200
1120
¡No tengo ni idea!
00:27
Ok...how about this?
5
27280
2560
Bien... ¿Qué tal esto?
00:31
Money!
6
31600
960
¡Dinero!
00:32
Yep! And not just any money, we’re  talking about crypto-currency.
7
32560
4960
¡Sí! Y no cualquier dinero, estamos hablando de criptomonedas.
00:37
Currency is the money that’s being used  in a given country at a certain time.  
8
37520
4560
La moneda es el dinero que se usa en un país determinado en un momento determinado.
00:42
But what about the cryptopart?
9
42080
2000
Pero, ¿qué pasa con la criptoparte?
00:44
Well, crypto is a prefix meaning hidden  or secret – it comes from the word cryptic  
10
44080
5520
Bueno, crypto es un prefijo que significa oculto o secreto; proviene de la palabra críptico,
00:49
which means mysterious or difficult to understand.  
11
49600
3440
que significa misterioso o difícil de entender.
00:53
You may have heard about the most popular  crypto-currency at the moment, the Bitcoin.
12
53040
5040
Es posible que haya oído hablar de la criptomoneda más popular en este momento, el Bitcoin.
00:58
Well, I’ve certainly heard the name,  but I can’t say I know what it is.
13
58080
3680
Bueno, ciertamente he escuchado el nombre, pero no puedo decir que sepa lo que es.
01:01
First our quiz question. When was the  Bitcoin crypto-currency first created?
14
61760
5920
Primero nuestra pregunta de prueba. ¿Cuándo se creó por primera vez la criptomoneda Bitcoin?
01:07
a) 2004
15
67680
1600
a) 2004
01:09
b) 2009
16
69280
1600
b) 2009
01:10
c) 2013
17
70880
1920
c) 2013
01:12
Well, I think 2004 may have been  a little early, and I think 2013  
18
72800
5040
Bueno, creo que 2004 puede haber sido un poco temprano, y creo que 2013
01:17
could be a little late, so  the smart money’s on 2009.
19
77840
3840
podría ser un poco tarde, por lo que el dinero inteligente está en 2009.
01:21
We’ll see if you’re right later on in the  show. So…Bitcoin, what do you know about it?
20
81680
5680
Veremos si tiene razón más adelante. el espectáculo. Entonces… Bitcoin, ¿qué sabes al respecto?
01:27
Well, I know it’s a digital currency…so  presumably, you can use it online to buy things?
21
87360
5040
Bueno, sé que es una moneda digital... así que presumiblemente, ¿puedes usarla en línea para comprar cosas?
01:32
You are right on the money,  which means correct, both times.  
22
92400
3760
Tienes razón en el dinero, lo que significa correcto, en ambas ocasiones.
01:36
Bitcoin is just like any other  currency except for two things.  
23
96800
4320
Bitcoin es como cualquier otra moneda excepto por dos cosas.
01:41
First, it’s not printed by governments or  banks, which means that it’s not legal tender.
24
101120
6320
Primero, no está impreso por gobiernos o bancos, lo que significa que no es moneda de curso legal.
01:47
Legal tender means the official money  that can be used within a country.  
25
107440
4240
Moneda de curso legal significa el dinero oficial que se puede utilizar dentro de un país.
01:51
So that means we can’t use it to  pay taxes or settle debts, right?
26
111680
3520
Eso significa que no podemos usarlo para pagar impuestos o liquidar deudas, ¿verdad?
01:55
Exactly. Governments won’t recognise it as an  official currency, although it acts just like  
27
115200
6080
Exactamente. Los gobiernos no lo reconocerán como moneda oficial, aunque actúa como tal
02:01
one. You can use it to buy items from anyone  who will accept it, and its value fluctuates.
28
121280
6240
. Puede usarlo para comprar artículos de cualquier persona que lo acepte, y su valor fluctúa.
02:07
Fluctuates means changes in level or  amount. And what’s the second thing?
29
127520
4960
Fluctúa significa cambios en el nivel o la cantidad. ¿Y cuál es la segunda cosa?
02:12
Ah, the second thing is that bitcoin is a digital  currency, meaning that with the exception of a few  
30
132480
6480
Ah, lo segundo es que bitcoin es una moneda digital, lo que significa que, con la excepción de unos pocos
02:18
tokens, it largely exists online only. You can’t  carry a load of bitcoins around in your pocket!
31
138960
7680
tokens, existe en gran medida solo en línea. ¡No puedes llevar un montón de bitcoins en el bolsillo!
02:26
Well, that makes a nice… change!
32
146640
2720
Bueno, eso hace un buen... ¡cambio!
02:29
Oh dear, Neil. Was that a money pun? Terrible!
33
149360
3360
Dios mío, Neil. ¿Fue un juego de palabras con dinero? ¡Horrible!
02:33
So if it’s a digital only currency,  where do new ones come from?  
34
153360
4400
Entonces, si es una moneda solo digital, ¿de dónde vienen las nuevas?
02:37
Can’t I just say that I’ve got a  million of them and make myself rich!?
35
157760
3280
¡¿No puedo simplemente decir que tengo un millón de ellos y hacerme rico?!
02:41
Well, no. You see, even though Bitcoin  is not regulated by a bank or government,  
36
161040
5200
Bueno no. Verá, a pesar de que Bitcoin no está regulado por un banco o gobierno
02:46
it still has a process that stops people from  cheating. There are only two ways to get bitcoins.  
37
166240
6080
, todavía tiene un proceso que evita que las personas hagan trampa. Solo hay dos formas de obtener bitcoins.
02:52
You either trade them from  someone, or you go mining.
38
172320
3280
O los intercambias con alguien, o vas a minar.
02:55
Oh wait, I've heard about this. This is when  you use your computer to run calculations which  
39
175600
5680
Oh, espera, he oído hablar de esto. Esto es cuando usa su computadora para ejecutar cálculos que
03:01
verify other Bitcoin transactions. You get  rewarded for this ‘work’ by earning bitcoins.
40
181280
5920
verifican otras transacciones de Bitcoin. Recibes una recompensa por este "trabajo" al ganar bitcoins.
03:07
Yep! It’s money for old rope, which  means it’s an easy way to earn money.
41
187200
4640
¡Sí! Es dinero para cuerda vieja, lo que significa que es una manera fácil de ganar dinero.
03:11
Wow! I’m going to start mining immediately!
42
191840
2400
¡Guau! ¡Voy a empezar a minar inmediatamente!
03:14
Well, you wouldn’t be the only one!  
43
194240
1600
Bueno, ¡no serías el único!
03:16
Bitcoin’s value has recently gone up quite a lot  and this has caused a lot of interest. In fact,  
44
196640
6720
El valor de Bitcoin ha subido bastante recientemente y esto ha causado mucho interés. De hecho,
03:23
one stock exchange in Chicago has begun  trading in Bitcoin futures contracts.
45
203360
5600
una bolsa de valores en Chicago ha comenzado a negociar contratos de futuros de Bitcoin.
03:28
A futures contract? What’s that?
46
208960
2080
¿Un contrato de futuros? ¿Que es eso?
03:31
I’ll let BBC correspondent  Rory Cellan-Jones explain that.
47
211040
4480
Dejaré que el corresponsal de la BBC, Rory Cellan-Jones, lo explique.
03:35
A futures contract, a bet on where  the currency will be a month from now,  
48
215520
4320
Un contrato de futuros, una apuesta sobre dónde estará la moneda dentro de un mes, se
03:39
soared above 18,000 dollars. That means that  investors believe Bitcoin, which started the  
49
219840
5360
disparó por encima de los 18.000 dólares. Eso significa que los inversores creen que Bitcoin, que comenzó el
03:45
year worth under 1000 dollars will continue  to rise in value, albeit at a slower rate.  
50
225200
6560
año con un valor inferior a 1000 dólares, seguirá aumentando de valor, aunque a un ritmo más lento.
03:51
But at the big banks there’s still  plenty of scepticism about the currency.
51
231760
4080
Pero en los grandes bancos todavía hay mucho escepticismo sobre la moneda.
03:56
Soared in this context means  increased very quickly. So,  
52
236960
3680
En este contexto, disparado significa que aumentó muy rápidamente. Entonces,
04:00
now big investors are betting on  the value of Bitcoin in the future.
53
240640
3920
ahora los grandes inversores están apostando por el valor de Bitcoin en el futuro.
04:04
Yes. But he also mentioned that the banks  have a lot of scepticism. That's a doubt  
54
244560
4960
Sí. Pero también mencionó que los bancos tienen mucho escepticismo. Esa es una duda de
04:09
that something is real or true. In this  case, whether Bitcoin is reliable or not.
55
249520
5200
que algo es real o verdadero. En este caso, si Bitcoin es confiable o no.
04:14
Maybe it’s best I don’t get involved then.  After all, a fool and his money are soon parted.
56
254720
5200
Tal vez sea mejor que no me involucre entonces. Después de todo, un tonto y su dinero pronto se separan.
04:19
Well, you don’t have to be sceptical  about the answer to our quiz.  
57
259920
3040
Bueno, no tienes que ser escéptico sobre la respuesta a nuestro cuestionario.
04:22
We know that for a fact. I asked you when the  Bitcoin crypto-currency was first created.
58
262960
5360
Lo sabemos a ciencia cierta. Te pregunté cuándo se creó por primera vez la criptomoneda Bitcoin.
04:28
a) 2004
59
268320
1200
a) 2004
04:29
b) 2009
60
269520
1360
b) 2009
04:30
c) 2013
61
270880
1520
c) 2013
04:32
And I said 2009.
62
272400
1760
Y dije 2009. ¡
04:34
And you were right! Well done. Shall  we go over the vocabulary again?
63
274160
3920
Y tenías razón! Bien hecho. ¿Repasamos el vocabulario de nuevo?
04:38
First, we had currency. That’s the money being  used in a given country at a certain time.  
64
278080
5200
Primero, teníamos moneda. Ese es el dinero que se usa en un país determinado en un momento determinado.
04:43
Name three currencies and their countries, Dan.
65
283280
2480
Nombre tres monedas y sus países, Dan.
04:45
Ok. Baht for Thailand. Rupee for India and  my favourite, Metical for Mozambique. Next  
66
285760
7200
Está bien. Baht para Tailandia. Rupia para India y mi favorito, Metical para Mozambique. A continuación
04:52
we had cryptic. Something which is cryptic  is mysterious or difficult to understand.  
67
292960
5120
, tuvimos críptico. Algo que es críptico es misterioso o difícil de entender.
04:58
For example, what do rich people need, poor  people have and if you eat it, you die?
68
298080
5520
Por ejemplo, ¿qué necesitan los ricos, los pobres tienen y si te lo comes te mueres?
05:04
A cryptic riddle indeed! I’ll  have to think about that.  
69
304400
2560
¡Un acertijo críptico de hecho! Tendré que pensar en eso.
05:07
Then we had legal tender, that’s the official  money that can be used within a country.  
70
307600
4560
Luego tuvimos moneda de curso legal, ese es el dinero oficial que se puede usar dentro de un país.
05:12
The Euro is legal tender within Spain,  but what was the legal tender before that?
71
312160
5600
El euro es moneda de curso legal dentro de España, pero ¿cuál era la moneda de curso legal antes de eso?
05:17
Wasn’t it the Peseta? Then we had  fluctuates. If something fluctuates,  
72
317760
5600
¿No era la Peseta? Luego tuvimos fluctuaciones. Si algo fluctúa
05:23
it changes in amount or level.  The stock market fluctuates.
73
323360
4000
,  cambia en cantidad o nivel. El mercado de valores fluctúa.
05:27
But my love for my family never does. Then we  had soared, which means increased very quickly.  
74
327360
6560
Pero mi amor por mi familia nunca lo hace. Luego nos habíamos disparado, lo que significa que aumentó muy rápidamente.
05:33
It’s used with this meaning in the  context of money, prices and statistics.
75
333920
4320
Se usa con este significado en el contexto de dinero, precios y estadísticas.
05:38
Finally, we had scepticism. Scepticism is doubt  
76
338240
3600
Finalmente, teníamos escepticismo. El escepticismo es la duda de
05:41
that something is real or true. What sort  of things are people sceptical about, Neil?
77
341840
5120
que algo sea real o verdadero. ¿Sobre qué tipo de cosas se muestra escéptica la gente, Neil?
05:47
Some people think that human activity hasn’t  caused climate change. They are sceptical.
78
347520
6240
Algunas personas piensan que la actividad humana no ha causado el cambio climático. Son escépticos.
05:53
And that brings us to the end of today’s 6 Minute  English. Don’t forget to check out our Youtube,  
79
353760
5120
Y eso nos lleva al final de los 6 minutos de inglés de hoy . No olvide visitar nuestras
05:58
Facebook, Twitter and Instagram pages,  and we’ll see you next time. Goodbye.
80
358880
4640
páginas de Youtube,   Facebook, Twitter e Instagram, y nos vemos la próxima vez. Adiós.
06:03
Goodbye
81
363520
2320
Adiós,
06:12
Hello and welcome to 6 Minute English. I'm Rob.
82
372240
3360
hola y bienvenidos a 6 Minute English. soy roberto
06:15
And I'm Dan.
83
375600
1280
Y yo soy Dan.
06:16
Hey Dan. What’s the time?
84
376880
2000
hola dan ¿Que hora es?
06:19
Time you got a new watch?
85
379680
1520
¿Es hora de que tengas un reloj nuevo?
06:21
Now I didn’t ask you that just for a  joke or a sarcastic comment now did I?
86
381840
4000
Ahora no te pregunté eso solo por una broma o un comentario sarcástico, ¿o sí?
06:25
Well no, but look there’s a clock  over there, you are wearing a watch,  
87
385840
4240
Bueno, no, pero mira, hay un reloj allí, llevas un reloj,
06:30
you have a smartphone and a computer, all of  which show the time. So why are you asking me?
88
390080
5840
tienes un teléfono inteligente y una computadora, todos muestran la hora. Entonces, ¿por qué me preguntas?
06:36
Dan! I was trying to introduce today’s topic  which is all about virtual assistants or bots.  
89
396480
6400
¡Dan! Estaba tratando de presentar el tema de hoy, que tiene que ver con los asistentes virtuales o bots.
06:42
You seemed to have forgotten the script.
90
402880
1760
Parecías haber olvidado el guión.
06:44
Oh yes, sorry. We’re talking  about software that you talk to  
91
404640
4800
Ah, sí, lo siento. Estamos hablando de un software con el
06:49
and that can talk back to you. Like Apple’s  Siri, Google’s Assistant, Amazon’s Alexa  
92
409440
6160
que hablas y que puede responderte. Como Siri de Apple , el Asistente de Google, Alexa de Amazon
06:55
and Microsoft’s Cortana. It might be on your  phone or computer or even a speaker in your house.
93
415600
6800
y Cortana de Microsoft. Puede estar en su teléfono o computadora o incluso en un altavoz en su casa.
07:03
Now before we hear more about this  topic, here is today’s quiz question:  
94
423120
4160
Ahora, antes de escuchar más sobre este tema, aquí está la pregunta del cuestionario de hoy:
07:08
Do you know when was the first computer which  could recognise speech, launched? Was it in
95
428000
6080
¿Sabes cuándo se lanzó la primera computadora que podía reconocer el habla? Fue en
07:14
a) 1951
96
434080
1840
a) 1951
07:15
b) 1961
97
435920
1520
b) 1961
07:17
c) 1971
98
437440
1600
c) 1971
07:20
I have found my script, so I’ve seen the  answer but I have to say I was surprised.
99
440400
5680
Encontré mi guión, así que vi la respuesta, pero debo decir que me sorprendió.
07:26
Don't tell anybody, Dan, OK. We’ll give the answer  for the listeners at the end of the programme.  
100
446080
4800
No le digas a nadie, Dan, está bien. Daremos la respuesta a los oyentes al final del programa.
07:31
We’re going to hear now from Tom Hewitson, who  is a conversation designer, working in the field  
101
451760
5760
Ahora vamos a escuchar a Tom Hewitson, que es un diseñador de conversación que trabaja en el campo
07:37
of virtual assistants, talking on BBC Radio  4's Word of Mouth programme. He talks about  
102
457520
6480
de los asistentes virtuales, hablando en el programa Word of Mouth de BBC Radio 4. Habla sobre
07:44
the whole idea of virtual assistants and how they  are changing the way we interact with technology.  
103
464000
5920
la idea general de los asistentes virtuales y cómo están cambiando la forma en que interactuamos con la tecnología.
07:50
How does he describe our existing  relationship with computers?
104
470640
3920
¿Cómo describe nuestra relación existente con las computadoras?
07:55
It changes the way that we think about computers.  To date we’ve thought of them largely as  
105
475360
6000
Cambia la forma en que pensamos acerca de las computadoras. Hasta la fecha, los hemos considerado en gran medida como
08:01
tools. They’re just an advanced version of a  calculator. They’re something you kind of use  
106
481360
4640
herramientas. Son solo una versión avanzada de una calculadora. Son algo que usas
08:06
to get a specific thing done, whereas this is  kind of changing them more into like an agent.  
107
486000
5120
para hacer algo específico, mientras que esto los convierte más en un agente.
08:11
They’re an active participant in the interaction  and in guiding you to make the right decision.
108
491120
6960
Participan activamente en la interacción y te guían para que tomes la decisión correcta.
08:18
How did he describe our existing  relationship with computers then?
109
498720
3280
¿Cómo describió entonces nuestra relación existente con las computadoras?
08:22
He said that to date, which is an expression  which means 'up until this point in time',  
110
502000
4560
Dijo que hasta la fecha, que es una expresión que significa 'hasta este momento',
08:26
we have thought of them as advanced calculators.
111
506560
2480
hemos pensado en ellos como calculadoras avanzadas.
08:29
Yes, that’s right, we use them  as a tool to get things done.  
112
509040
4080
Sí, así es, los usamos como una herramienta para hacer las cosas.
08:33
But he says that modern technology is turning them  into an agent. This doesn’t mean a secret agent,  
113
513120
5920
Pero dice que la tecnología moderna los está convirtiendo en un agente. ¡Esto no significa un agente secreto,
08:39
like James Bond! In this sense an  agent is something that has agency  
114
519040
5120
como James Bond! En este sentido, un agente es algo que tiene agencia
08:44
and that means it has the ability to act  individually and make its own decisions.
115
524160
5040
y eso significa que tiene la capacidad de actuar individualmente y tomar sus propias decisiones.
08:49
I’m not sure I’d like my phone to have agency. It  probably wouldn’t like being in my pocket all day.
116
529200
5600
No estoy seguro de querer que mi teléfono tenga agencia. Probablemente no le gustaría estar en mi bolsillo todo el día.
08:54
Who would Dan? But I’m not sure Hewitson  is suggesting our devices would become  
117
534800
4800
¿Quién sería Dan? Pero no estoy seguro de que Hewitson esté sugiriendo que nuestros dispositivos se volverían
08:59
that clever but he did say they could  become more active in our lives.
118
539600
4560
tan inteligentes, pero sí dijo que podrían volverse más activos en nuestras vidas.
09:05
Maybe. I imagine, for example,  
119
545120
2880
Quizás. Me imagino, por ejemplo,
09:08
telling us if we are spending too  much time in fast food restaurants?
120
548000
3760
decirnos si estamos pasando demasiado tiempo en restaurantes de comida rápida.
09:11
Maybe in your case Dan. Mine would be  telling me I spend too much time in the gym!  
121
551760
5200
Tal vez en tu caso Dan. ¡El mío me diría que paso demasiado tiempo en el gimnasio!
09:16
Hewitson goes on to explain how the way we will  talk to our virtual assistants will develop.  
122
556960
4880
Hewitson continúa explicando cómo se desarrollará la forma en que hablaremos con nuestros asistentes virtuales.
09:22
What does he say we don’t need to do?
123
562720
2240
¿Qué dice él que no tenemos que hacer?
09:25
We will develop our own kind of vernacular  for speaking with machines that will be  
124
565520
4800
Desarrollaremos nuestro propio tipo de lengua vernácula para hablar con máquinas que será
09:30
subtly different from how we  speak to other people because  
125
570320
2960
sutilmente diferente de la forma en que hablamos con otras personas porque,
09:33
as you rightly point out you don’t need to make  the machine like you don’t need to kind of make  
126
573280
5120
como usted bien señala, no necesita hacer que la máquina sea como si no tuviera que hacer algo al
09:38
random chit-chat that’s just filling the time.  It can be much more brusque and to the point.
127
578400
5840
azar. charla que solo está llenando el tiempo. Puede ser mucho más brusco y directo.
09:44
A lot of what we say in human communication  
128
584240
2560
Mucho de lo que decimos en la comunicación humana
09:46
is to do with our relationship  with the person we’re talking to.
129
586800
3200
tiene que ver con nuestra relación con la persona con la que estamos hablando.
09:50
We say things and talk about things that are maybe  not directly relevant to our point. With a digital  
130
590000
6480
Decimos cosas y hablamos de cosas que tal vez no sean directamente relevantes para nuestro punto. Con un
09:56
virtual assistant, we don’t need to do that,  so we don’t need to make the machine like us.
131
596480
5440
asistente virtual digital, no necesitamos hacer eso, por lo que no necesitamos hacer que la máquina sea como nosotros.
10:01
Hewitson said that we will develop our own  vernacular, this is a general word for a native  
132
601920
5280
Hewitson dijo que desarrollaremos nuestra propia lengua vernácula, esta es una palabra general para un
10:07
language. This vernacular will be a little bit  different from our everyday vernacular because,  
133
607200
5680
idioma nativo. Esta lengua vernácula será un poco diferente de nuestra lengua vernácula cotidiana porque,
10:12
as we said, we don’t need to maintain a social  relationship with the artificial assistant.
134
612880
5440
como dijimos, no necesitamos mantener una relación social con el asistente artificial.
10:18
This means that we won’t need chit-chat.  Chit-chat is another expression for small talk:  
135
618320
5280
Esto significa que no necesitaremos charlar. Chit-chat es otra expresión para una pequeña charla:
10:23
conversation topics which aren’t important  but are part of everyday social communication,  
136
623600
5840
temas de conversación que no son importantes pero que son parte de la comunicación social cotidiana,
10:29
like talking about the weather.
137
629440
1600
como hablar sobre el clima.
10:31
And because we don’t need to be  friends with our virtual assistants,  
138
631040
3120
Y como no necesitamos ser amigos de nuestros asistentes virtuales,
10:34
we can be brusque and to the point. Both of  these mean being very direct and not very polite.
139
634160
6160
podemos ser bruscos y directos. Ambos significan ser muy directo y no muy cortés.
10:40
Well, Dan, I don’t mean to be brusque but it is  time for the answer to this week’s quiz question.  
140
640960
4640
Bueno, Dan, no quiero ser brusco, pero es hora de responder la pregunta del cuestionario de esta semana.
10:45
Earlier I asked when was the first  computer which could recognise speech,  
141
645600
4160
Anteriormente pregunté cuándo se lanzó la primera computadora que podía reconocer el habla
10:49
launched. The options were:
142
649760
1600
. Las opciones eran:
10:51
a) 1951
143
651360
1520
a) 1951
10:52
b) 1961
144
652880
1680
b) 1961
10:54
c) 1971
145
654560
2080
c) 1971
10:56
Well actually the first computer which  could recognise speech was launched in 1961.
146
656640
5520
Bueno, en realidad, la primera computadora que podía reconocer el habla se lanzó en 1961.
11:03
It was called the IBM Shoebox and could  recognise 16 words and the numbers zero  
147
663040
6640
Se llamaba IBM Shoebox y podía reconocer 16 palabras y los números del cero
11:09
to nine. That’s nearly as many as you!
148
669680
2480
al nueve. ¡Eso es casi tanto como tú!
11:12
Cheeky! Right enough of this chit-chat.  Let’s recap today’s vocabulary.
149
672160
5360
¡Fresco! Bastante bien de esta cháchara. Recapitulemos el vocabulario de hoy.
11:17
Well, chit-chat was one of today’s  expressions. Meaning 'small talk',  
150
677520
3840
Bueno, la cháchara era una de las expresiones de hoy . Significa 'pequeña charla',
11:21
but we also had the expression to date.  That means ‘up until this moment in time’.
151
681360
5840
pero también teníamos la expresión hasta la fecha. Eso significa "hasta este momento en el tiempo".
11:27
Then we had the noun agent. This  refers to something that has agency.  
152
687200
4960
Luego tuvimos el sustantivo agente. Esto se refiere a algo que tiene agencia.
11:32
And that is the ability to think,  make decisions and act independently.
153
692160
4480
Y esa es la capacidad de pensar, tomar decisiones y actuar de forma independiente.
11:36
The next word is vernacular,  another word for language,  
154
696640
3200
La siguiente palabra es vernácula, otra palabra para idioma,
11:39
particularly when talking about a native language.
155
699840
2960
especialmente cuando se habla de un idioma nativo.
11:42
And finally, there was brusque meaning  'direct and not polite' and to the point,  
156
702800
5680
Y, por último, brusco que significa 'directo y no cortés' y al grano,
11:48
which also means 'direct and  without unnecessary information'.
157
708480
3200
que también significa 'directo y sin información innecesaria'.
11:52
Hey Rob
158
712240
960
Hola Rob
11:53
Yes, what can I do for you Dan?
159
713200
2240
Sí, ¿qué puedo hacer por ti, Dan?
11:55
End the programme.
160
715440
1120
Finaliza el programa.
11:56
Certainly Dan. Well that’s all from us today,  be sure to check us out on all the usual places:  
161
716560
5920
Seguro Dan. Bueno, eso es todo de nosotros hoy , asegúrese de consultarnos en todos los lugares habituales:
12:02
Facebook, Twitter, Instagram and YouTube,  
162
722480
2560
Facebook, Twitter, Instagram y YouTube
12:05
and of course please don't forget our  website bbclearningenglish.com. Bye for now!
163
725040
4880
y, por supuesto, no olvide nuestro sitio web bbclearningenglish.com. ¡Adiós por ahora!
12:09
Bye!
164
729920
200
¡Adiós!
12:18
Hello. This is 6 Minute English  from BBC Learning English. I’m Neil.
165
738160
4000
Hola. Esto es 6 minutos de inglés de BBC Learning English. Soy Neil.
12:22
And I’m Sam. What’s the  matter, Neil? You sound upset.
166
742160
3440
Y yo soy Sam. ¿Qué pasa, Neil? Suenas molesto.
12:26
Well, I am, Sam - I just spent  an hour working on my computer  
167
746240
3760
Bueno, lo soy, Sam. Acabo de pasar una hora trabajando en mi computadora
12:30
when it suddenly froze. I lost everything  and had to start all over again!
168
750000
4400
cuando de repente se congeló. ¡Perdí todo y tuve que empezar de nuevo!
12:34
Agghh, that’s so frustrating - like pop-up  internet ads and buffering videos that never play!
169
754400
5680
Agghh, eso es tan frustrante, como los anuncios emergentes de Internet y los videos almacenados en búfer que nunca se reproducen.
12:40
Modern computers and the internet have  revolutionised the way we live today,  
170
760800
4160
Las computadoras modernas e Internet han revolucionado la forma en que vivimos hoy,
12:44
bringing us the world with a click of a button.  
171
764960
2640
brindándonos el mundo con solo hacer clic en un botón.
12:47
But not everyone feels happy about  these technological developments.
172
767600
3280
Pero no todos se sienten felices con estos desarrollos tecnológicos.
12:51
While potentially acting as a  force for good and progress,  
173
771600
4080
Aunque potencialmente actúa como una fuerza para el bien y el progreso
12:55
the internet also provides a way of spreading  hate and misinformation. And for some people,  
174
775680
5920
, Internet también proporciona una forma de difundir el odio y la información errónea. Y para algunas personas,
13:01
the World Wide Web remains a  mysterious and confusing place.
175
781600
4240
la World Wide Web sigue siendo un lugar misterioso y confuso.
13:06
In this programme, we’ll hear about  a new academic subject called Web  
176
786560
4000
En este programa, escucharemos sobre una nueva materia académica llamada
13:10
Science. Web Science studies the  technology behind the internet.
177
790560
4480
Ciencias de la Web. Web Science estudia la tecnología detrás de Internet.
13:15
But from the human side, it’s  also interested in how people  
178
795040
3200
Pero desde el lado humano, también está interesado en cómo las personas
13:18
interact with each other online. So we’ll  be asking whether studying Web Science  
179
798240
4880
interactúan entre sí en línea. Entonces, nos preguntaremos si estudiar Ciencias de la Web
13:23
could make the internet better  for humanity in the future.
180
803120
3200
podría mejorar Internet para la humanidad en el futuro.
13:26
But first it’s time for our quiz question. I  wonder what the pioneers of the internet would  
181
806880
4800
Pero primero es hora de nuestra pregunta de prueba. Me pregunto qué pensarían los pioneros de Internet
13:31
think about how it is used today. So the question  is, who invented the World Wide Web? Was it: 
182
811680
5520
sobre cómo se usa hoy. Entonces la pregunta es, ¿quién inventó la World Wide Web? Fue:
13:37
a) Bill Gates, 
183
817200
1760
a) Bill Gates,
13:38
b) Tim Berners-Lee, or c) Steve Jobs
184
818960
2960
b) Tim Berners-Lee, o c) Steve Jobs
13:42
Well, Bill Gates and Steve Jobs were the  brains behind Microsoft and Apple Mac,  
185
822640
4640
Bueno, Bill Gates y Steve Jobs fueron los cerebros detrás de Microsoft y Apple Mac,
13:47
so I’m going to say c) Tim Berners-Lee.
186
827280
2960
así que voy a decir c) Tim Berners-Lee.
13:50
OK, Sam, we’ll find out later. Now,  because of coronavirus the annual Web  
187
830240
4880
Bien, Sam, lo averiguaremos más tarde. Ahora, debido al coronavirus, la conferencia anual de
13:55
Science conference was held online this year.  Its theme was ‘making the web human-centric’.
188
835120
5520
ciencia web se llevó a cabo en línea este año. Su tema era "hacer que la web esté centrada en el ser humano".
14:01
One of the conference’s key speakers, and  co-founder of the new discipline of Web Science,  
189
841280
5600
Uno de los principales oradores de la conferencia y cofundador de la nueva disciplina de la ciencia web
14:06
was Dame Wendy Hall. Here she is speaking  to BBC World Service’s Digital Planet:
190
846880
5360
fue Dame Wendy Hall. Aquí ella está hablando con Digital Planet de BBC World Service: La
14:13
People think about the web as a technology  but actually it’s co-createdby society.  
191
853440
4800
gente piensa en la web como una tecnología, pero en realidad es una creación conjunta de la sociedad.
14:18
We put the content on, we interact with the  technology, with the platforms, with the social  
192
858240
4640
Ponemos el contenido, interactuamos con la tecnología, con las plataformas, con las
14:22
media networks to create it. What we study is how  that works as an ecosystem,this coming together  
193
862880
6240
redes sociales para crearlo. Lo que estudiamos es cómo funciona como un ecosistema, esta unión
14:29
of people and technology, and it’s very  interdisciplinary, very socio-technical,  
194
869120
4480
de personas y tecnología, y es muy interdisciplinario, muy sociotécnico y,
14:33
and of course these days a  lot of it is powered by AI.
195
873600
3280
por supuesto, en estos días, gran parte está impulsado por IA.
14:38
Web Science is not only interested in  the technology side of the internet.  
196
878240
4080
Web Science no solo está interesada en el lado tecnológico de Internet.
14:42
As a subject it’s very interdisciplinary  - involving two or more academic subjects  
197
882320
5600
Como materia, es muy interdisciplinaria : involucra dos o más materias académicas
14:47
or areas of knowledge. Web Science  combines digital technology with  
198
887920
4480
o áreas de conocimiento. Web Science combina la tecnología digital con
14:52
subjects ranging from psychology and  robotics to economics and sociology.
199
892400
4320
materias que van desde la psicología y la robótica hasta la economía y la sociología.
14:57
Exchanges between humans and the internet can  be seen in social media networks - websites,  
200
897360
5440
Los intercambios entre humanos e Internet se pueden ver en las redes sociales: sitios web,
15:02
apps and computer programmes,  like Facebook and Instagram,  
201
902800
3200
aplicaciones y programas informáticos, como Facebook e Instagram,
15:06
which allow people to use electronic devices  to communicate and share information.
202
906000
5360
que permiten a las personas usar dispositivos electrónicos para comunicarse y compartir información.
15:11
This view of technology sees the internet as an  ecosystem – a complex pattern of relationships  
203
911360
6000
Esta visión de la tecnología ve a Internet como un ecosistema: un patrón complejo de relaciones
15:17
and mutual influences that exists between  all living things and their environment.
204
917360
5360
e influencias mutuas que existe entre todos los seres vivos y su entorno.
15:22
One ongoing and topical example of  websites helpfully interacting with humans  
205
922720
5360
Un ejemplo actual y actual de sitios web que interactúan de manera útil con humanos
15:28
is the Covid contact tracing app.
206
928080
2880
es la aplicación de rastreo de contactos de Covid.
15:30
You might think the mobile phone app, which  tracks movements and contact between people  
207
930960
4240
Se podría pensar que la aplicación para teléfonos móviles, que rastrea los movimientos y el contacto entre personas
15:35
to combat coronavirus, would be a useful  practical application of internet technology.
208
935200
4640
para combatir el coronavirus, sería una aplicación práctica útil de la tecnología de Internet.
15:40
But as Carly Kind, Director of the  Ada Lovelace Institute in Cambridge,  
209
940480
4800
Pero como Carly Kind, directora del Instituto Ada Lovelace en Cambridge,
15:45
explained to BBC World Service’s Digital  Planet, things are never that straightforward:
210
945280
5120
explicó a Digital Planet de BBC World Service , las cosas nunca son tan sencillas: en
15:52
Actually, there’s a lot of more fundamental  questions that haven’t been answered yet such as:  
211
952000
3840
realidad, hay muchas preguntas más fundamentales que aún no han sido respondidas, como:
15:56
is Bluetooth even an adequate mechanism for  doing what it says on the tin, which is detecting  
212
956400
5120
¿Bluetooth es parejo? un mecanismo adecuado para hacer lo que dice en la lata, que es detectar el
16:01
contact between two people? The trails so far  show that it’s not actually that great and so,  
213
961520
5760
contacto entre dos personas? Los resultados hasta ahora muestran que en realidad no es tan bueno y, por lo tanto,
16:07
do we know for sure that these apps work  and they work in the way we want them to?  
214
967280
3600
¿estamos seguros de que estas aplicaciones funcionan y funcionan de la manera que queremos?
16:11
Do we get the public health  information that we need?
215
971520
3040
¿Obtenemos la información de salud pública que necesitamos?
16:16
Apps like this are designed to  support public health - services  
216
976240
3840
Las aplicaciones como esta están diseñadas para apoyar los servicios de salud pública
16:20
to improve the standard of health  of a country’s general population.
217
980080
3840
para mejorar el nivel de salud de la población general de un país.
16:23
But Carly thinks the mechanisms used must be  suitable and adequate – they must actually work or  
218
983920
6640
Pero Carly cree que los mecanismos utilizados deben ser adecuados y adecuados: deben funcionar realmente o
16:31
do what it says on the tin – an informal idiom  meaning work exactly as it is intended to.
219
991120
7680
hacer lo que dice en la lata, una expresión informal que significa que funcionan exactamente como deben.
16:38
To find this out, trials - tests  to discover how effective or  
220
998800
4160
Para averiguarlo, se realizan ensayos, pruebas para descubrir qué tan efectivo o
16:42
suitable something is - are  carried out over a period of time.
221
1002960
3680
adecuado es algo , durante un período de tiempo.
16:46
The kind of trials which were carried out during  
222
1006640
2400
El tipo de pruebas que se llevaron a cabo durante
16:49
the invention of the internet  in the first place, right, Neil?
223
1009040
3440
la invención de Internet en primer lugar, ¿verdad, Neil?
16:54
Ah yes, the invention of the internet – or  to be more accurate, the World Wide Web. In  
224
1014000
5040
Ah, sí, la invención de Internet o, para ser más precisos, la World Wide Web. En
16:59
our quiz question I asked you who invented  the World Wide Web? What did you say, Sam?
225
1019040
4800
nuestra pregunta de prueba, le pregunté quién inventó la World Wide Web. ¿Qué dijiste Sam?
17:04
I said b) Tim Berners-Lee.
226
1024960
2080
Dije b) Tim Berners-Lee.
17:08
Well, you’re a first class web scientist,  Sam, because that’s the correct answer!
227
1028560
4560
Bueno, eres un científico web de primera, Sam, ¡porque esa es la respuesta correcta!
17:14
Great! In this programme, we’ve been hearing about  Web Science, a new interdisciplinary subject,  
228
1034480
6240
¡Gran! En este programa, hemos estado escuchando sobre Web Science, un nuevo tema interdisciplinario, que
17:21
combining several areas of study, which  investigates the ecosystem of the internet – the  
229
1041280
5520
combina varias áreas de estudio, que investiga el ecosistema de Internet: el
17:26
complex pattern of interconnections  between humans and their environment.
230
1046800
5040
patrón complejo de interconexiones entre los humanos y su entorno.
17:32
Social media networks –websites and apps,  like Facebook, which let people use electronic  
231
1052400
5120
Las redes de medios sociales (sitios web y aplicaciones, como Facebook, que permiten a las personas usar
17:37
devices to communicate on the internet – show how  humans and technology can successfully interact.
232
1057520
5600
dispositivos electrónicos para comunicarse en Internet) muestran cómo los humanos y la tecnología pueden interactuar con éxito.
17:43
A new Covid contact tracing app is currently  undergoing trials – tests to see if it works  
233
1063840
6000
Una nueva aplicación de seguimiento de contactos de Covid se encuentra actualmente en pruebas: pruebas para ver si funciona de manera
17:49
effectively. This will discover if it does what  it says on the tin – works as it’s supposed to.
234
1069840
6800
efectiva. Esto descubrirá si hace lo que dice en la lata: funciona como se supone que debe hacerlo.
17:57
If successful, by alerting people to  coronavirus risks the app will support  
235
1077200
5120
Si tiene éxito, al alertar a las personas sobre los riesgos del coronavirus, la aplicación respaldará los
18:02
public health – services aimed at improving  the health of the general population.
236
1082320
5200
servicios de salud pública destinados a mejorar la salud de la población en general.
18:07
And that’s all from us for now.
237
1087520
1920
Y eso es todo de nosotros por ahora.
18:09
And we hope you’ll join us again soon  for more topical English vocabulary  
238
1089440
3840
Y esperamos que vuelva a unirse a nosotros pronto para obtener más vocabulario de actualidad en inglés
18:13
here at 6 Minute English. Bye for now!
239
1093280
2160
aquí en 6 Minute English. ¡Adiós por ahora!
18:15
Bye bye!
240
1095440
480
¡Adiós!
18:23
Hello and welcome to 6 Minute  English. I'm Catherine.
241
1103040
3360
Hola y bienvenidos a 6 minutos de inglés. soy catalina
18:26
And hello, I'm Rob.
242
1106400
1200
Y hola, soy Rob.
18:27
Today we have another technology topic.
243
1107600
2560
Hoy tenemos otro tema de tecnología.
18:30
Oh good! I love technology. It makes things  easier, it’s fast and means I can have gadgets.
244
1110160
5840
¡Oh Dios! Amo la tecnología. Hace las cosas más fáciles, es rápido y significa que puedo tener dispositivos.
18:36
Do you think that technology can  actually do things better than humans?
245
1116000
4320
¿Crees que la tecnología realmente puede hacer las cosas mejor que los humanos?
18:40
For some things, yes. I think cars that drive  themselves will be safer than humans but that  
246
1120320
5680
Para algunas cosas, sí. Creo que los autos que se conducen solos serán más seguros que los humanos, pero eso
18:46
will take away some of the pleasure of driving.  So I guess it depends on what you mean by better.
247
1126000
5520
quitará parte del placer de conducir. Así que supongo que depende de lo que entiendas por mejor.
18:51
Good point, Rob. And that actually  ties in very closely with today’s topic  
248
1131520
4880
Buen punto, Rob. Y eso en realidad está muy relacionado con el tema de hoy,
18:56
which is technochauvinism.
249
1136400
2160
que es el tecnochovinismo.
18:59
What’s that?
250
1139120
960
¿Que es eso?
19:00
We’ll find out shortly, Rob, but before we do,  today’s quiz question. Artificial Intelligence,  
251
1140080
6080
Lo averiguaremos en breve, Rob, pero antes de hacerlo, la pregunta del cuestionario de hoy. La inteligencia artificial,
19:06
or A.I., is an area of computer science that  develops the ability of computers to learn  
252
1146160
5760
o A.I., es un área de la informática que desarrolla la capacidad de las computadoras para aprender
19:11
to do things like solve problems or drive cars  without crashing. But in what decade was the term  
253
1151920
7360
a hacer cosas como resolver problemas o conducir automóviles sin chocar. Pero, ¿en qué década se acuñó el término
19:19
'Artificial Intelligence' coined? Was it: a) the 1940s, 
254
1159280
4800
'Inteligencia Artificial'? ¿Fue: a) la década de 1940,
19:24
b) the 1950s or c) the 1960s?
255
1164080
3520
b) la década de 1950 o c) la década de 1960?
19:28
I think it's quite a new expression  so I'll go for c) the 1960s.
256
1168240
4880
Creo que es una expresión bastante nueva, así que optaré por c) la década de 1960.
19:33
Good luck with that, Rob, and we’ll give  you the answer later in the programme.  
257
1173120
3360
Buena suerte con eso, Rob, y te daremos la respuesta más adelante en el programa.
19:37
Now, let's get back to our  topic of technochauvinism.
258
1177120
3680
Ahora, volvamos a nuestro tema del tecnochovinismo.
19:40
I know what a chauvinist is. It’s someone  who thinks that their country or race or sex  
259
1180800
5360
Sé lo que es un chovinista. Es alguien que piensa que su país o raza o sexo
19:46
is better than others. But how  does this relate to technology?
260
1186160
3520
es mejor que otros. Pero, ¿cómo se relaciona esto con la tecnología?
19:49
We’re about to find out. Meredith Broussard is  Professor of Journalism at New York University  
261
1189680
6160
Estamos a punto de averiguarlo. Meredith Broussard es profesora de periodismo en la Universidad de Nueva York
19:55
and she’s written a book called  Artificial Unintelligence.  
262
1195840
4160
y ha escrito un libro titulado Falta de inteligencia artificial.
20:00
She appeared on the BBC Radio 4  programme More or Less to talk about it.  
263
1200000
4800
Apareció en el programa More or Less de BBC Radio 4 para hablar al respecto.
20:04
Listen carefully and find out her  definition of technochauvinism.
264
1204800
4080
Escuche atentamente y descubra su definición de tecnochovinismo.
20:09
Technochauvinism is the idea that technology is  always the highest and best solution. So somehow  
265
1209600
7040
El tecnochovinismo es la idea de que la tecnología es siempre la mejor y más alta solución. Entonces, de alguna manera,
20:16
over the past couple of decades we got into the  habit of thinking that doing something with a  
266
1216640
7040
durante las últimas dos décadas, nos acostumbramos a pensar que hacer algo con una
20:23
computer is always the best and most objective  way to do something and that’s simply not true.  
267
1223680
7200
computadora es siempre la mejor y más objetiva forma de hacer algo y eso simplemente no es cierto.
20:30
Computers are not objective, they are  proxies for the people who make them.
268
1230880
4960
Las computadoras no son objetivas, son representantes de las personas que las fabrican.
20:36
What is Meredith Broussard's  definition of technochauvinism?
269
1236640
4160
¿Cuál es la definición de tecnochovinismo de Meredith Broussard?
20:40
It's this idea that using technology  is better than not using technology.
270
1240800
5040
Es esta idea de que usar la tecnología es mejor que no usarla.
20:45
She says that we have this idea that a computer is  objective. Something that is objective is neutral,  
271
1245840
6800
Ella dice que tenemos esta idea de que una computadora es objetiva. Algo que es objetivo es neutral
20:52
it doesn’t have an opinion, it’s  fair and it's unbiased – so it’s  
272
1252640
3920
, no tiene una opinión, es justo e imparcial, por lo que es
20:56
the opposite of being a chauvinist. But  Meredith Broussard says this is not true.
273
1256560
6000
lo opuesto a ser chovinista. Pero Meredith Broussard dice que esto no es cierto.
21:02
She argues that computers are not objective.  They are proxies for the people that make them.  
274
1262560
6480
Ella argumenta que las computadoras no son objetivas. Son representantes de las personas que los hacen.
21:09
You might know the word proxy when you  are using your computer in one country  
275
1269040
4160
Es posible que conozca la palabra proxy cuando utilice su computadora en un país
21:13
and want to look at something that is  only available in a different country.  
276
1273200
3680
y quiera ver algo que solo está disponible en otro país.
21:16
You can use a piece of software  called a proxy to do that.
277
1276880
3440
Puede usar una pieza de software llamada proxy para hacer eso.
21:20
But a proxy is also a person or a thing that  carries out your wishes and your instructions  
278
1280320
6560
Pero un apoderado es también una persona o una cosa que lleva a cabo sus deseos y sus instrucciones
21:26
for you. So computers are only as smart or as  objective as the people that programme them.  
279
1286880
7120
para usted. Por lo tanto, las computadoras son tan inteligentes u objetivas como las personas que las programan.
21:34
Computers are proxies for their programmers.  Broussard says that believing too much in  
280
1294720
6240
Las computadoras son representantes de sus programadores. Broussard dice que creer demasiado en
21:40
Artificial Intelligence can make the  world worse. Let’s hear a bit more.  
281
1300960
4720
la inteligencia artificial puede empeorar el mundo. Escuchemos un poco más.
21:45
This time find out what serious problems in  society does she think may be reflected in AI?
282
1305680
7520
Esta vez, averigüe qué problemas graves de la sociedad cree que se pueden reflejar en la IA.
21:54
It’s a nuanced problem. What we  have is data on the world as it is  
283
1314160
4960
Es un problema matizado. Lo que tenemos son datos sobre el mundo tal como es
21:59
and we have serious problems with  racism, sexism, classism, ageism,  
284
1319120
5680
y tenemos serios problemas con el racismo, el sexismo, el clasismo, la discriminación por edad
22:04
in the world right now so there is no such thing  as perfect data. We also have a problem inside the  
285
1324800
6720
en el mundo en este momento, por lo que no existen datos perfectos. También tenemos un problema dentro del
22:11
tech world where the creators of algorithms do  not have sufficient awareness of social issues  
286
1331520
8640
mundo de la tecnología donde los creadores de algoritmos no tienen suficiente conciencia de los problemas
22:20
such that they can make good technology that  gets us closer to a world as it should be.
287
1340160
6400
sociales para que puedan hacer una buena tecnología que nos acerque a un mundo como debería ser.
22:27
She said that society has problems with  racism, sexism, classism and ageism.
288
1347680
6000
Dijo que la sociedad tiene problemas con el racismo, el sexismo, el clasismo y la discriminación por edad.
22:33
And she says it’s a nuanced problem. A nuanced  problem is not simple, but it does have small  
289
1353680
6800
Y ella dice que es un problema matizado. Un problema matizado no es simple, pero tiene
22:40
and important areas which may be hard  to spot, but they need to be considered.
290
1360480
5040
áreas pequeñas e importantes que pueden ser difíciles de detectar, pero deben tenerse en cuenta.
22:45
And she also talked about algorithms used  to program these technological systems.  
291
1365520
5280
Y también habló de los algoritmos que se utilizan para programar estos sistemas tecnológicos.
22:50
An algorithm is a set of instructions  that computers use to perform their tasks.  
292
1370800
4880
Un algoritmo es un conjunto de instrucciones que usan las computadoras para realizar sus tareas.
22:55
Essentially it’s the rules that they use  to come up with their answers and Broussard  
293
1375680
4640
Esencialmente, son las reglas que usan para llegar a sus respuestas y Broussard
23:00
believes that technology will reflect the  views of those who create the algorithms.
294
1380320
4640
cree que la tecnología reflejará las opiniones de quienes crean los algoritmos.
23:04
Next time you're using a piece of software or your  favourite app you might find yourself wondering if  
295
1384960
5120
La próxima vez que utilice una pieza de software o su aplicación favorita, es posible que se pregunte
23:10
it's a useful tool or does it contain these little  nuances that reflect the views of the developer.
296
1390080
7120
si es una herramienta útil o si contiene estos pequeños matices que reflejan las opiniones del desarrollador.
23:17
Right, Catherine. How about the  answer to this week's question then?
297
1397200
3280
Correcto, Catalina. Entonces, ¿qué tal la respuesta a la pregunta de esta semana?
23:20
I asked in which decade was the term  'Artificial Intelligence' coined.  
298
1400480
4480
Pregunté en qué década se acuñó el término "inteligencia artificial".
23:24
Was it the 40s, the 50s or the 60s?
299
1404960
2720
¿Fueron los años 40, 50 o 60?
23:27
And I said the 60s.
300
1407680
1200
Y dije los años 60.
23:28
But it was actually the 1950s. Never mind,  Rob. Let’s review today’s vocabulary.
301
1408880
5840
Pero en realidad era la década de 1950. No importa, Rob. Repasemos el vocabulario de hoy.
23:34
Well, we had a chauvinist – that's  someone who believes their country,  
302
1414720
4320
Bueno, teníamos un chovinista: alguien que cree que su país,
23:39
race or sex is better than any others.
303
1419040
2480
raza o sexo es mejor que cualquier otro.
23:41
And this gives us technochauvinism,  
304
1421520
2800
Y esto nos da el tecnochovinismo,
23:44
the belief that a technological solution  is always a better solution to a problem.
305
1424320
5040
la creencia de que una solución tecnológica siempre es una mejor solución a un problema.
23:49
Next - someone or something that is  objective is neutral, fair and balanced.
306
1429360
5680
A continuación, alguien o algo que es objetivo es neutral, justo y equilibrado.
23:55
A proxy is a piece of software but also someone  who does something for you, on your behalf.  
307
1435040
6800
Un proxy es una pieza de software, pero también alguien que hace algo por ti, en tu nombre.
24:01
A nuanced problem is a subtle one, it’s  not a simple case of right or wrong,  
308
1441840
5520
Un problema matizado es sutil, no es un caso simple de correcto o incorrecto,
24:07
in a nuanced problem there are small but  important things that you need to consider.
309
1447360
5360
en un problema matizado hay cosas pequeñas pero importantes que debes considerar.
24:12
And an algorithm is a set of software  instructions for a computer system.
310
1452720
4320
Y un algoritmo es un conjunto de instrucciones de software para un sistema informático.
24:17
Well, that’s all we have time  for today. Goodbye for now.
311
1457040
3360
Bueno, eso es todo lo que tenemos tiempo para hoy. Adiós por ahora.
24:20
Bye bye!
312
1460400
400
¡Adiós!
24:28
Hello, welcome to 6 Minute English. I'm Rob.
313
1468720
2720
Hola, bienvenido a 6 Minute English. soy roberto
24:31
And I'm Catherine.
314
1471440
1280
Y yo soy Catalina.
24:32
So, Catherine, how long do  you spend on your smartphone?
315
1472720
3520
Entonces, Catherine, ¿cuánto tiempo pasas en tu teléfono inteligente?
24:36
My smartphone? Not that long  really, only about 18 or 19 hours.
316
1476240
5600
¿Mi teléfono inteligente? No mucho , en realidad, solo unas 18 o 19 horas.
24:42
No, sorry, I meant in a day, not in a week.
317
1482400
2720
No, lo siento, quise decir en un día, no en una semana.
24:45
Er, that's what I meant too, Rob – a day.
318
1485120
2320
Er, eso es lo que quise decir también, Rob – un día.
24:48
Oh wow, so you’ve even got it right here…
319
1488080
3360
Oh, guau, así que incluso lo tienes aquí...
24:51
…yep, got it now, Rob. Yes, I should  tell you that I suffer from FOMO.
320
1491440
4560
...sí, lo tengo ahora, Rob. Sí, debo decirte que sufro de FOMO.
24:56
FOMO?
321
1496800
1040
¿FOMO?
24:57
FOMO - Fear of Missing Out. Something cool or  interesting might be happening somewhere, Rob,  
322
1497840
5600
FOMO - Miedo a perderse algo. Algo genial o interesante podría estar sucediendo en alguna parte, Rob,
25:03
and I want to be sure I catch it,  so I have to keep checking my phone,  
323
1503440
3920
y quiero asegurarme de captarlo, así que tengo que seguir revisando mi teléfono
25:07
to make sure, you know, I  don’t miss out on anything.
324
1507360
2880
para asegurarme de que no me pierdo nada.
25:10
So we could call you a phubber… Hello… I said,  
325
1510880
4240
Así que podríamos llamarte phubber... Hola... Dije,   ¿
25:15
so you’re a phubber? Someone who ignores other  people because you’d rather look at your phone.
326
1515120
5200
entonces eres phubber? Alguien que ignora a otras personas porque prefieres mirar tu teléfono.
25:21
Oh, yeah, that's right.
327
1521360
960
Oh, sí, eso es correcto.
25:22
It sounds like you have a bit of a problem  there, Catherine. But you’re not the only one.  
328
1522880
5120
Parece que tienes un pequeño problema ahí, Catherine. Pero no eres el único.
25:28
According to one recent survey, half of teenagers  in the USA feel like they are addicted to their  
329
1528000
5680
Según una encuesta reciente, la mitad de los adolescentes en los EE. UU. sienten que son adictos a sus
25:33
mobile phones. If you are addicted to something,  you have a physical or mental need to keep on  
330
1533680
5520
teléfonos móviles. Si eres adicto a algo, tienes una necesidad física o mental de seguir
25:39
doing it. You can’t stop doing it. You often hear  about people being addicted to drugs or alcohol,  
331
1539200
6320
haciéndolo. No puedes dejar de hacerlo. A menudo escuchas sobre personas que son adictas a las drogas o al alcohol,
25:45
but you can be addicted to other things too,  like mobile phones. So, Catherine, do you  
332
1545520
5680
pero también puedes ser adicto a otras cosas, como los teléfonos móviles. Entonces, Catherine, ¿
25:51
think you’re addicted to your phone? How long  could you go without it? Catherine? Catherine!
333
1551200
5520
crees que eres adicta a tu teléfono? ¿Cuánto tiempo podrías estar sin él? Catalina? Catalina!
25:58
Sorry, Rob, yes, well I think  if I went more than a minute,  
334
1558800
3760
Lo siento, Rob, sí, bueno, creo que si durara más de un minuto
26:02
I'd probably get sort of sweaty palms and  I think I'd start feeling a bit panicky.
335
1562560
3760
, probablemente tendría las palmas de las manos sudorosas y creo que comenzaría a sentir un poco de pánico.
26:06
Oh dear! Well, if I can  distract you for a few minutes,  
336
1566320
5280
¡Oh querido! Bueno, si puedo distraerte unos minutos,
26:11
can we look at this topic in more detail  please? Let's start with a quiz question  
337
1571600
4160
¿podemos analizar este tema con más detalle, por favor? Sin embargo, primero comencemos con una pregunta de prueba
26:15
first though. In what year did the term  ‘smartphone’ first appear in print? Was it:
338
1575760
5440
. ¿En qué año apareció impreso por primera vez el término "teléfono inteligente"? Fue:
26:21
a) 1995 
339
1581200
1680
a) 1995
26:22
b) 2000 c) 2005
340
1582880
3200
b) 2000 c) 2005
26:26
What do you think?
341
1586080
880
26:26
OK, you've got my full attention  now, Rob, and I think it’s 2000,  
342
1586960
3840
¿Qué opinas?
Está bien, ahora tienes toda mi atención, Rob, y creo que es el año 2000,
26:30
but actually can I just have a quick  look on my phone to check the answer?
343
1590800
3120
pero ¿puedo echar un vistazo rápido a mi teléfono para comprobar la respuesta?
26:33
No, no, that would be cheating – for  you – maybe not for the listeners.
344
1593920
3600
No, no, eso sería hacer trampa, para ti, tal vez no para los oyentes.
26:37
Spoilsport.
345
1597520
800
Aguafiestas.
26:39
Right, Jean Twenge is a psychologist who  has written about the damage she feels  
346
1599280
5680
Correcto, Jean Twenge es una psicóloga que ha escrito sobre el daño que siente que los
26:44
smartphones are doing to society. She has  written that smartphones have probably led  
347
1604960
5200
teléfonos inteligentes están causando a la sociedad. Ella ha escrito que los teléfonos inteligentes probablemente han llevado
26:50
to an increase in mental health problems for  teenagers. We’re going to hear from her now,  
348
1610160
4880
a un aumento de los problemas de salud mental en los adolescentes. Vamos a saber de ella ahora,
26:55
speaking to the BBC. What does she say is  one of the dangers of using our phones?
349
1615040
4800
hablando con la BBC. ¿Cuál dice ella que es uno de los peligros de usar nuestros teléfonos?
27:00
I think everybody’s had that experience  of reading their news feed too much,  
350
1620480
4320
Creo que todo el mundo ha tenido esa experiencia de leer demasiado sus noticias,
27:05
compulsively checking your phone if you’re  waiting for a text or getting really into  
351
1625360
5600
revisar compulsivamente su teléfono si está esperando un mensaje de texto o meterse realmente en
27:10
social media then kind of, looking up  and realising that an hour has passed.
352
1630960
4320
las redes sociales y luego mirar hacia arriba y darse cuenta de que ha pasado una hora.
27:16
So what danger does she mention?
353
1636720
2400
Entonces, ¿qué peligro menciona ella?
27:19
Well, she said that we can get so involved in  our phones that we don’t notice the time passing  
354
1639120
5360
Bueno, dijo que podemos involucrarnos tanto en nuestros teléfonos que no notamos el paso del tiempo
27:24
and when we finally look up, we  realise that maybe an hour has gone.  
355
1644480
4160
y cuando finalmente levantamos la vista, nos damos cuenta de que tal vez ha pasado una hora.
27:29
And I must say, I find that to be true for me,  especially when I'm watching videos online. They  
356
1649360
5040
Y debo decir que creo que eso es cierto para mí, especialmente cuando veo videos en línea. Te
27:34
pull you in with more and more videos and I’ve  spent ages just getting lost in video after video.
357
1654400
5280
atraen con más y más videos y he pasado mucho tiempo perdiéndome en un video tras otro.
27:39
Well that's not a problem if  you're looking at our YouTube site,  
358
1659680
2480
Bueno, eso no es un problema si está mirando nuestro sitio de YouTube,
27:42
of course - there's lots to see there.
359
1662160
1520
por supuesto, hay mucho que ver allí.
27:43
Yes, BBC Learning English, no problem.  You can watch as many as you like.
360
1663680
3280
Sí, BBC Learning English, no hay problema. Puedes ver tantos como quieras.
27:47
Well, she talks about checking our phones  compulsively. If you do something compulsively you  
361
1667760
6000
Bueno, ella habla de revisar nuestros teléfonos compulsivamente. Si haces algo compulsivamente,
27:53
can’t really control it - it’s a feature of being  addicted to something, you feel you have to do it  
362
1673760
4960
realmente no puedes controlarlo; es una característica de ser adicto a algo, sientes que tienes que hacerlo
27:58
again and again. Some tech companies, though, are  now looking at building in timers to apps which  
363
1678720
6080
una y otra vez. Sin embargo, algunas empresas de tecnología ahora están considerando incorporar temporizadores a las aplicaciones que
28:04
will warn us when we have spent too long on them.  Does Jean Twenge think this will be a good idea?
364
1684800
5200
nos avisarán cuando hayamos dedicado demasiado tiempo a ellas. ¿Piensa Jean Twenge que esto será una buena idea?
28:10
It might mean that people look  at social media less frequently  
365
1690960
2640
Puede significar que las personas miran las redes sociales con menos frecuencia
28:14
and that they do what it really should be used  for, which is to keep in touch with people but  
366
1694240
6000
y que hacen para lo que realmente deberían usarse, que es mantenerse en contacto con las personas, pero
28:20
then put it away and go see some of those  people in person or give them a phone call.
367
1700240
5040
luego lo guardan y van a ver a algunas de esas personas en persona o darles un teléfono. llamada.
28:25
So, does she think it’s a good idea?
368
1705840
2320
Entonces, ¿piensa ella que es una buena idea?
28:28
Well, she doesn’t say so directly, but we  can guess from her answer that she does,  
369
1708880
4720
Bueno, ella no lo dice directamente, pero podemos adivinar por su respuesta que sí,
28:33
because she says these timers will make people  spend more time in face-to-face interaction,  
370
1713600
6000
porque dice que estos temporizadores harán que las personas pasen más tiempo interactuando cara a cara, lo
28:39
which a lot of people think would be a good thing.
371
1719600
2240
que mucha gente piensa que sería una buena cosa.
28:41
Yes, she said we should be using it for keeping in  touch with people - which means contacting people,  
372
1721840
6160
Sí, dijo que deberíamos usarlo para mantenernos en contacto con la gente, lo que significa contactar a la gente,
28:48
communicating with them and also encouraging  us to do that communication in person. If you  
373
1728000
5440
comunicarnos con ellos y también animarnos a hacer esa comunicación en persona. Si
28:53
do something in person then you physically do it –  you go somewhere yourself or see someone yourself,  
374
1733440
5840
haces algo en persona, entonces lo haces físicamente: vas a algún lugar tú mismo o ves a alguien tú mismo,
28:59
you don’t do it online or through your smartphone,  which nicely brings us back to our quiz question.  
375
1739280
5840
no lo haces en línea o a través de tu teléfono inteligente, lo que nos lleva de vuelta a nuestra pregunta del cuestionario.
29:05
When was the term smartphone first used in print  - 1995, 2000 or 2005? What did you say, Catherine?
376
1745120
8160
¿Cuándo se utilizó por primera vez en forma impresa el término teléfono inteligente : 1995, 2000 o 2005? ¿Qué dijiste, Catalina?
29:13
I think I said 2005, without  looking it up on my phone, Rob!
377
1753280
4720
¡Creo que dije 2005, sin buscarlo en mi teléfono, Rob!
29:18
That's good to know, but maybe looking at your  phone would have helped because the answer was  
378
1758000
4000
Es bueno saberlo, pero tal vez mirar tu teléfono hubiera ayudado porque la respuesta era
29:22
1995. But well done to anybody who did know that.
379
1762000
4240
1995. Pero bien hecho para cualquiera que lo supiera.
29:26
Or well done to anyone who looked it up  on their phone and got the right answer.
380
1766240
3200
O bien hecho a cualquiera que lo buscó en su teléfono y obtuvo la respuesta correcta.
29:29
Mmm, right, before logging off  let’s review today’s vocabulary.
381
1769440
4480
Mmm, cierto, antes de desconectarnos , repasemos el vocabulario de hoy.
29:33
OK, we had FOMO, an acronym that means 'Fear of  Missing Out'. Something that I get quite a lot.
382
1773920
6400
Bien, teníamos FOMO, un acrónimo que significa "Miedo a perderse algo ". Algo que me sale bastante.
29:40
And that makes you also a phubber - people  who ignore the real people around them  
383
1780320
4640
Y eso también te convierte en un phubber: personas que ignoran a las personas reales que los rodean
29:44
because they are concentrating on their phones.
384
1784960
2240
porque se concentran en sus teléfonos.
29:47
Yes, I do think I’m probably  addicted to my phone. I have a  
385
1787200
3600
Sí, creo que probablemente soy adicto a mi teléfono. Tengo una
29:50
psychological and physical need to  have it. My smartphone is my drug.
386
1790800
4640
necesidad psicológica y física de tenerlo. Mi smartphone es mi droga.
29:55
Wow, and you look at it compulsively.  You can’t stop looking at it,  
387
1795440
3360
Vaya, y lo miras compulsivamente. No puedes dejar de mirarlo,
29:58
you do it again and again, don't you?
388
1798800
1840
lo haces una y otra vez, ¿no?
30:00
It's sadly true, Rob. To  keep in touch with someone  
389
1800640
3280
Es tristemente cierto, Rob. Mantenerse en contacto con alguien
30:03
is to contact them and share your news regularly.
390
1803920
3280
es contactarlo y compartir sus noticias regularmente.
30:07
And if you do that yourself  by actually meeting them,  
391
1807200
3040
Y si lo haces tú mismo al conocerlos,
30:10
then you are doing it in person. And that  brings us to the end of today’s programme.  
392
1810240
4640
entonces lo estás haciendo en persona. Y eso nos lleva al final del programa de hoy.
30:14
Don’t forget you can find us on the usual  social media platforms – Facebook, Twitter,  
393
1814880
4800
No olvide que puede encontrarnos en las plataformas de redes sociales habituales (Facebook, Twitter,
30:19
Instagram and YouTube - and on our website  at bbclearningenglish.com. Bye for now.
394
1819680
5600
Instagram y YouTube) y en nuestro sitio web en bbclearningenglish.com. Adiós por ahora.
30:25
Bye!
395
1825280
320
¡Adiós!
30:33
Hello. This is 6 Minute English  from BBC Learning English. I’m Neil.
396
1833280
4160
Hola. Esto es 6 minutos de inglés de BBC Learning English. Soy Neil.
30:37
And I’m Georgina.
397
1837440
1280
Y yo soy Georgina.
30:38
Now, Georgina, what do you know about AC DC?
398
1838720
3760
Ahora, Georgina, ¿qué sabes sobre AC DC?
30:42
You mean the Australian rock’n’roll band?  
399
1842480
2640
¿Te refieres a la banda de rock and roll australiana?
30:45
Well, their 1979 hit ‘Highway to  Hell’ stayed at No.1 for eleven weeks…
400
1845120
5520
Bueno, su éxito de 1979 'Highway to Hell' permaneció en el número 1 durante once semanas...
30:51
No, no, no - not that AC DC, Georgina!  I’m not talking rock music here,  
401
1851200
4880
No, no, no, ¡no ese AC DC, Georgina! No estoy hablando de música rock aquí,
30:56
I’m talking electrical currents  – alternating current - AC,  
402
1856080
4560
estoy hablando de corrientes eléctricas, corriente alterna, CA,
31:00
and direct current - DC, the two  ways in which electricity flows.
403
1860640
4800
y corriente continua, CC, las dos formas en que fluye la electricidad.
31:05
Oh, I see. No, I don’t know  anything about that ACDC!
404
1865440
4560
Ah, claro. ¡No, no sé nada sobre ese ACDC!
31:10
Well, don’t worry because in  today’s programme we’ll be  
405
1870000
2720
Bueno, no te preocupes porque en el programa de hoy
31:12
finding out some quirky facts about  electricity - how it differs across  
406
1872720
4640
descubriremos algunos datos peculiares sobre la electricidad: cómo difiere en todo
31:17
the world and why some countries have more  complicated electrical systems than others.
407
1877360
4920
el mundo y por qué algunos países tienen sistemas eléctricos más complicados que otros.
31:22
Hmmm, I have noticed that when I  travel to another country I need a  
408
1882280
4280
Hmmm, he notado que cuando viajo a otro país necesito un
31:26
converter plug to connect my laptop.  Is that something to do with AC DC?
409
1886560
5440
enchufe convertidor para conectar mi computadora portátil. ¿Tiene algo que ver con AC DC?
31:32
Yes, it could be. Of course, electricity  itself doesn’t change from country to country.
410
1892000
5200
Sí, podría ser. Por supuesto, la electricidad en sí misma no cambia de un país a otro.
31:37
No. It’s an invisible, natural force  at work in everything from lightning  
411
1897200
4080
No. Es una fuerza natural e invisible que actúa en todo, desde las
31:41
storms to the electrical sparks firing our brains.
412
1901280
3680
tormentas eléctricas hasta las chispas eléctricas que encienden nuestros cerebros.
31:44
But although it happens naturally, one scientist  was credited with discovering electricity.  
413
1904960
5680
Pero aunque sucede naturalmente, a un científico se le atribuye el descubrimiento de la electricidad.
31:50
Who? That’s my quiz question – who  discovered electricity? Was it: 
414
1910640
4640
¿Quién? Esa es mi pregunta de prueba: ¿quién descubrió la electricidad? ¿Fue:
31:55
a) Thomas Edison 
415
1915280
1840
a) Thomas Edison
31:57
b) Alexander Graham Bell, or c) Benjamin Franklin
416
1917120
4080
b) Alexander Graham Bell, o c) Benjamin Franklin
32:02
I’m not a qualified electrician myself,  Neil, but I’ll say c) Benjamin Franklin.
417
1922000
5600
Yo no soy un electricista calificado, Neil, pero diré c) Benjamin Franklin.
32:07
OK. Well one person who definitely is a qualified  electrician is BBC presenter Gareth Mitchell. So  
418
1927600
7280
ESTÁ BIEN. Bueno, una persona que definitivamente es un electricista calificado es el presentador de la BBC Gareth Mitchell. Entonces,
32:14
when BBC Radio 4’s ‘Science Stories’ sent  him to meet electricity expert Keith Bell,  
419
1934880
5440
cuando ‘Science Stories’ de BBC Radio 4 lo envió a conocer al experto en electricidad Keith Bell,
32:20
the conversation was, shall we say, sparky.
420
1940320
2960
la conversación fue, digamos, chispeante.
32:24
Standard frequency in the US is 60 hertz,  actually I think in the US on the mainland  
421
1944480
4320
La frecuencia estándar en los EE. UU. es de 60 hercios, en realidad creo que en los EE. UU. en el continente
32:28
US, main continent, there are  three different synchronous areas.  
422
1948800
2960
, EE. UU., continente principal, hay tres áreas sincrónicas diferentes.
32:32
So although it’s around 60 hertz, at any moment in  time these three different areas, because they’re  
423
1952400
4160
Entonces, aunque son alrededor de 60 hercios, en cualquier momento estas tres áreas diferentes, debido a que no están
32:36
not connected to each other, will be going at a  slightly different frequency. There are bigger  
424
1956560
4320
conectadas entre sí, tendrán una frecuencia ligeramente diferente. Hay diferencias más grandes en
32:40
differences elsewhere. So in Japan for example, I  think one of the main islands is at 60 hertz and  
425
1960880
6000
otros lugares. Entonces, en Japón, por ejemplo, creo que una de las islas principales está a 60 hercios y
32:46
the other half of Japan is at 50 hertz. That’s a bit of a pickle!
426
1966880
3040
la otra mitad de Japón está a 50 hercios. ¡Eso es un pepinillo!
32:51
Generally speaking, frequency  means how often something repeats.  
427
1971360
4320
En términos generales, la frecuencia significa con qué frecuencia se repite algo.
32:55
In the case of electrical currents, frequency is  
428
1975680
2880
En el caso de las corrientes eléctricas, la frecuencia es
32:58
the number of times an electrical wave  repeats a positive-to-negative cycle.
429
1978560
5040
la cantidad de veces que una onda eléctrica repite un ciclo de positivo a negativo.
33:03
It’s measured in hertz (Hz). In the US power is  at 60 hertz and in the UK it’s around 50 hertz.
430
1983600
7520
Se mide en hercios (Hz). En los EE. UU., el poder es de 60 hercios y en el Reino Unido es de alrededor de 50 hercios.
33:11
So the US and UK are not in the same synchronous  
431
1991120
3520
Por lo tanto, EE. UU. y el Reino Unido no se encuentran en la misma
33:14
area – not occurring together at the same  time and rate, or in this case, frequency.
432
1994640
5680
área sincrónica, ya que no ocurren juntos al mismo tiempo y velocidad, o en este caso, frecuencia.
33:20
Which means that to safely use a  British electrical device in America,  
433
2000320
4320
Lo que significa que para usar de forma segura un dispositivo eléctrico británico en Estados Unidos,
33:25
I need to convert the power supply. If not  it won’t work or even worse, it could break.
434
2005200
5760
necesito convertir la fuente de alimentación. Si no, no funcionará o, peor aún, podría romperse.
33:30
And a broken laptop could leave you  in a bit of a pickle – an informal  
435
2010960
4080
Y una computadora portátil rota podría dejarlo en un pequeño lío: una
33:35
expression meaning a difficult situation with no  
436
2015040
3040
expresión informal que significa una situación difícil sin
33:38
obvious answer. Here’s Gareth and Keith  again talking about more differences.
437
2018080
4960
una respuesta obvia. Aquí están Gareth y Keith de nuevo hablando de más diferencias.
33:44
I’m pretty sure when I go to the United States,  my electric toothbrush doesn’t charge up  
438
2024560
6560
Estoy bastante seguro de que cuando voy a los Estados Unidos, mi cepillo de dientes eléctrico no se carga
33:51
at 60 hertz - 110 volts, but my laptop  still works. Maybe you have no comment,  
439
2031120
5360
a 60 hercios (110 voltios), pero mi computadora portátil aún funciona. Tal vez no tengas comentarios,
33:56
Keith, but I’m just saying…one of these  anomalies that I seem to have found.
440
2036480
4000
Keith, pero solo digo... una de estas anomalías que parece haber encontrado.
34:00
So, I’m not sure about the electric toothbrush  but I know a lot of our power supplies for  
441
2040480
3920
Entonces, no estoy seguro sobre el cepillo de dientes eléctrico, pero sé que muchas de nuestras fuentes de alimentación para
34:04
laptops and stuff are solid state, you know  - they’ve got electronics in that do all the  
442
2044400
5200
computadoras portátiles y otras cosas son de estado sólido, ya sabes , tienen componentes electrónicos que hacen toda la
34:09
conversion for you, so basically it ends up with  a DC supply into the machine itself. So there’s  
443
2049600
5360
conversión por ti, así que básicamente termina con un suministro de CC en la propia máquina. Entonces, hay
34:14
a little converter in there and it’s designed so  it doesn’t care what frequency the AC input is.
444
2054960
4880
un pequeño convertidor allí y está diseñado para que no le importe qué frecuencia sea la entrada de CA.
34:21
Gareth noticed that in the United  States his toothbrush doesn’t always  
445
2061280
3840
Gareth notó que en los Estados Unidos su cepillo de dientes no siempre
34:25
fully charge up – get the  power needed to make it work.
446
2065120
4000
se carga por completo, obtiene la potencia necesaria para que funcione.
34:29
Electric toothbrushes which don’t fully charge  and differences between electrical frequencies  
447
2069120
5600
Los cepillos de dientes eléctricos que no se cargan por completo y las diferencias entre las frecuencias eléctricas
34:34
are good examples of anomalies – things which  are different from what is usual or expected.
448
2074720
5920
son buenos ejemplos de anomalías, cosas que son diferentes de lo habitual o esperado.
34:40
But with modern technology these  anomalies are becoming less and less  
449
2080640
4400
Pero con la tecnología moderna, estas anomalías son cada vez menos
34:45
commonplace. For example, computer  companies have started making laptops with  
450
2085040
5120
comunes. Por ejemplo, las empresas de computadoras han comenzado a fabricar computadoras portátiles con
34:50
solid state electronics – electronics using  semiconductors which have no moving parts  
451
2090160
6000
dispositivos electrónicos de estado sólido: dispositivos electrónicos que utilizan semiconductores que no tienen partes móviles
34:56
and can automatically convert  different electrical currents.
452
2096160
3520
y pueden convertir automáticamente diferentes corrientes eléctricas.
34:59
Meaning I can use my laptop to google  the answer to your quiz question!
453
2099680
4160
¡Lo que significa que puedo usar mi computadora portátil para buscar en Google la respuesta a su pregunta de prueba!
35:03
Ah, yes. I asked you which scientist was credited  with discovering electricity. And you said?
454
2103840
5840
Ah, sí. Te pregunté a qué científico se le atribuye el descubrimiento de la electricidad. ¿Y tú dijiste?
35:09
c) Benjamin Franklin – and I already know  I’m right because I googled it on my solid  
455
2109680
5200
c) Benjamin Franklin, ¡y ya sé que tengo razón porque lo busqué en Google en mi
35:14
state laptop! To show that lightning was  electricity, Franklin attached a metal key  
456
2114880
5840
computadora portátil de estado sólido! Para demostrar que los relámpagos eran electricidad, Franklin colocó una llave de metal
35:20
to a kite and flew it during a thunderstorm. The  key conducted electricity and gave him a shock!
457
2120720
6240
en una cometa y la hizo volar durante una tormenta eléctrica. ¡La llave condujo electricidad y le dio un shock!
35:26
Hmm, not an experiment I recommend trying  at home! Today we’ve been talking about  
458
2126960
5760
¡Hmm, no es un experimento que recomiendo probar en casa! Hoy hemos estado hablando de
35:32
anomalies – or unexpected differences in  electrical currents between countries.
459
2132720
4560
anomalías o diferencias inesperadas en las corrientes eléctricas entre países.
35:38
Electrical currents are measured in  frequencies – the number of times  
460
2138000
4000
Las corrientes eléctricas se miden en frecuencias: el número de veces que
35:42
a wave repeats a positive-to-negative cycle.  These can be different if two countries are  
461
2142000
5520
una onda repite un ciclo de positivo a negativo. Estos pueden ser diferentes si dos países
35:47
not synchronous – occurring at the same rate,  for example Britain and the United States.
462
2147520
5760
no son sincrónicos, ocurriendo al mismo ritmo, por ejemplo, Gran Bretaña y Estados Unidos.
35:53
Different frequencies may mean your  electrical devices like your laptop,  
463
2153920
4400
Las diferentes frecuencias pueden significar que sus dispositivos eléctricos, como su computadora portátil, su
35:58
phone and toothbrush won’t properly charge up –  get the power to function, in other countries.
464
2158320
5120
teléfono y su cepillo de dientes, no se carguen correctamente; obtenga la energía para funcionar en otros países.
36:04
And having a phone with no power could leave you  in a bit of a pickle - a difficult situation.
465
2164160
5680
Y tener un teléfono sin energía podría dejarte en un pequeño lío, una situación difícil.
36:09
Fortunately many modern devices use  solid state electronics – non-moving  
466
2169840
5120
Afortunadamente, muchos dispositivos modernos utilizan electrónica de estado sólido:
36:14
semiconductors inside the machine which  automatically convert the electrical current.
467
2174960
5200
semiconductores inmóviles dentro de la máquina que convierten automáticamente la corriente eléctrica.
36:20
So you’ll never miss another  edition of 6 Minute English again!
468
2180160
3840
¡Así que nunca más te perderás otra edición de 6 Minute English!
36:24
That’s all for today. See you soon at BBC Learning  
469
2184000
2560
Eso es todo por hoy. Nos vemos pronto en BBC Learning
36:26
English for more interesting topics  and related vocabulary. Bye for now!
470
2186560
7960
English para temas más interesantes y vocabulario relacionado. ¡Adiós por ahora!
36:34
Bye!
471
2194520
360
¡Adiós!
36:39
Hello I'm Rob and this is 6 Minute  English – a programme that brings you  
472
2199040
4480
Hola, soy Rob y esto es 6 Minute English: un programa que te ofrece
36:43
an interesting topic, authentic listening practice  
473
2203520
3120
un tema interesante, práctica auditiva auténtica
36:46
and some vocabulary to help you improve your  language skills. Joining me today is Neil.
474
2206640
5280
y algo de vocabulario para ayudarte a mejorar tus habilidades lingüísticas. Unirse a mí hoy es Neil.
36:51
Hello. And today we're discussing those pilotless  
475
2211920
2880
Hola. Y hoy estamos discutiendo esos aviones sin piloto sobre los
36:54
aircraft that we seem to be hearing  and reading a lot about at the moment.
476
2214800
3760
que parece que estamos escuchando y leyendo mucho en este momento.
36:58
You mean drones. And yes, they are in the  news quite often for good and bad reasons.  
477
2218560
4880
Te refieres a los drones. Y sí, aparecen en las noticias con bastante frecuencia por buenas y malas razones.
37:04
They've been used for many things from smuggling  drugs, detecting water leaks and surveillance.
478
2224160
5600
Se han utilizado para muchas cosas, desde contrabando de drogas, detección de fugas de agua y vigilancia.
37:09
And surveillance – that means ‘the  act of carefully watching someone or  
479
2229760
4320
Y vigilancia, eso significa "el acto de observar cuidadosamente a alguien o
37:14
something’ – perhaps a criminal – but also  it means spying, maybe on me and you Rob?  
480
2234080
5760
algo", tal vez un criminal, pero también significa espiar, ¿quizás a mí y a ti, Rob?
37:19
So should we be welcoming the  rise of the use of drones?
481
2239840
3360
Entonces, ¿deberíamos dar la bienvenida al aumento del uso de drones?
37:23
Well, before our discussion  about that 'takes off',  
482
2243200
2720
Bueno, antes de nuestra discusión sobre ese 'despegue'
37:25
we need to set today's question  for you to answer, Neil.
483
2245920
2640
, necesitamos establecer la pregunta de hoy para que la respondas, Neil.
37:29
What are you droning on about Rob? And by  that I don't mean ‘flying a drone’ – I mean  
484
2249120
4800
¿Qué estás hablando sobre Rob? Y con eso no me refiero a 'volar un dron', me refiero a
37:33
‘talking too much in a very boring way’!
485
2253920
2800
'hablar demasiado de una manera muy aburrida'.
37:36
Thanks Neil. Now just answer this, will you?  
486
2256720
2560
Gracias Neil. Ahora solo responde esto, ¿quieres?
37:39
Drones are sometimes also referred to as  UAVs. So, what does UAV stand for? Is it…
487
2259280
7600
Los drones a veces también se conocen como UAV. Entonces, ¿qué significa UAV? ¿Es…
37:46
a) Unidentified aerial vehicle 
488
2266880
3360
a) Vehículo aéreo no identificado
37:50
b) Unmanned aerial vehicle c) Unaided aircraft vehicle
489
2270240
5840
b) Vehículo aéreo no tripulado c) Vehículo aéreo sin ayuda
37:56
Well, I'm going to go for  b) unmanned aerial vehicle.
490
2276080
3680
Bueno, voy a optar por b) Vehículo aéreo no tripulado.
37:59
Ok well, we'll see if you're right later  on. Now let's talk more about drones,  
491
2279760
5120
Vale, veremos si tienes razón más adelante. Ahora hablemos más sobre los drones,
38:04
which, apparently, seem to be everywhere now.
492
2284880
2800
que, aparentemente, ahora parecen estar en todas partes.
38:08
But are they safe and are they  necessary? I've heard about them  
493
2288240
3840
Pero, ¿son seguros y son necesarios? Escuché que
38:12
being a hazard to aircraft because  they've been flown close to airports.
494
2292080
3840
son un peligro para los aviones porque han volado cerca de los aeropuertos.
38:15
Well, figures in 2016 showed that in the UK  there were 70 near misses involving drones.  
495
2295920
6720
Bueno, las cifras de 2016 mostraron que en el Reino Unido hubo 70 cuasi accidentes con drones.
38:22
And that's more than double the year  before. So that is a little worrying.
496
2302640
3920
Y eso es más del doble que el año anterior. Eso es un poco preocupante.
38:27
Yes. And there's the potential  risk of people's privacy being  
497
2307120
3120
Sí. Y existe el riesgo potencial de que la privacidad de las personas sea
38:30
invaded when a drone is flown over their  property with a camera attached to it.
498
2310240
4160
invadida cuando un dron vuela sobre su propiedad con una cámara conectada.
38:34
Ah, but those cameras are also  good at capturing some great  
499
2314400
3440
Ah, pero esas cámaras también son buenas para capturar excelentes
38:37
aerial footage – that's the film recording  of the view from the above the ground. So  
500
2317840
5040
imágenes aéreas: esa es la grabación de la película de la vista desde arriba del suelo. Así
38:42
they're not all bad. And Dr Yoge Patel would  agree. She is CEO of Blue Bear, which supplies  
501
2322880
6560
que no son del todo malos. Y el Dr. Yoge Patel estaría de acuerdo. Es directora ejecutiva de Blue Bear, que suministra
38:49
unmanned planes and drones. Here she is speaking  about drones on the BBC's Woman's Hour programme…
502
2329440
6080
aviones y drones no tripulados. Aquí ella está hablando sobre drones en el programa Woman's Hour de la BBC...
38:55
They have the potential to be dangerous,  agreed. They also have though, on the flip side,  
503
2335520
5120
Tienen el potencial de ser peligrosos, estuvo de acuerdo. Sin embargo, también tienen, por otro lado,
39:00
the ability to be a game changer in  both domestic use and in military use.  
504
2340640
6240
la capacidad de cambiar las reglas del juego tanto en el uso doméstico como en el militar.
39:06
So, some of our drones are being used for aircraft  inspections. We've put our drones into Fukushima.
505
2346880
4560
Por lo tanto, algunos de nuestros drones se utilizan para inspecciones de aeronaves. Hemos puesto nuestros drones en Fukushima.
39:12
So there you go Neil. There are  many useful things drones can do,  
506
2352080
4240
Así que ahí tienes, Neil. Hay muchas cosas útiles que los drones pueden hacer,
39:16
and Dr Patel said they have the  ability to be a game changer.
507
2356320
4000
y el Dr. Patel dijo que tienen la capacidad de cambiar las reglas del juego.
39:20
And by that you mean ‘something that completely  
508
2360320
2080
Y con eso te refieres a "algo que
39:22
changes the way something  is done or thought about’.
509
2362400
2800
cambia por completo la forma en que se hace o se piensa".
39:25
Yes. Her company has used drones to  inspect the inside of the damaged  
510
2365200
4400
Sí. Su empresa ha utilizado drones para inspeccionar el interior de la
39:29
Fukushima nuclear power station in Japan.  And another example of drones being a game  
511
2369600
5280
central nuclear dañada de Fukushima en Japón. Y otro ejemplo de los drones que cambian las reglas del juego
39:34
changer is UNICEF and the Malawian government  testing drones for carrying medical supplies.  
512
2374880
5760
es UNICEF y el gobierno de Malawi probando drones para transportar suministros médicos.
39:40
This could help save lives in remote places. And I have read that in Australia,  
513
2380640
4400
Esto podría ayudar a salvar vidas en lugares remotos. Y he leído que en Australia, los
39:45
lifeguards are using drones to help rescue  swimmers who get in trouble in the sea.
514
2385040
4560
salvavidas están usando drones para ayudar a rescatar a los nadadores que tienen problemas en el mar.
39:49
And have you heard about a Japanese firm that's  planning to use a drone to force employees  
515
2389600
5280
¿Y ha oído hablar de una empresa japonesa que está planeando usar un dron para obligar a los empleados a
39:54
out of their offices by playing music at  them if they stay to work evening overtime.
516
2394880
5120
salir de sus oficinas poniéndoles música si se quedan a trabajar horas extra por la noche?
40:00
I haven't, but you've convinced me – it seems  like the sky's the limit for the uses of drones!  
517
2400000
5120
No lo he hecho, pero me has convencido: ¡parece que el cielo es el límite para los usos de los drones!
40:05
I mean there's no limit to what they can do. But I  
518
2405120
3040
Quiero decir que no hay límite para lo que pueden hacer. Pero
40:08
am a little concerned about how  they are regulated or controlled.
519
2408160
3520
me preocupa un poco cómo se regulan o controlan.
40:11
Well Dr Yoge Patel says  because the technology is new,  
520
2411680
3760
Bueno, el Dr. Yoge Patel dice que debido a que la tecnología es nueva, las
40:15
regulations – or legal controls  - are developing all the time…
521
2415440
4000
regulaciones, o controles legales , se desarrollan todo el tiempo...
40:20
As technology progresses, regulation  and operational use needs to then be  
522
2420400
4800
A medida que la tecnología avanza, la regulación y el uso operativo deben
40:25
harmonised with it. And we are, as a community,  going through that whole process of saying  
523
2425200
5040
armonizarse con ella. Y nosotros, como comunidad, estamos pasando por todo ese proceso de decir
40:30
what is proportionate and appropriate  regulation to go with different uses of drones.
524
2430240
6480
cuál es la regulación proporcionada y apropiada para los diferentes usos de los drones.
40:36
So she talked about regulations being  harmonised as technology progresses.
525
2436720
4480
Entonces habló sobre la armonización de las regulaciones a medida que avanza la tecnología.
40:41
So I think she means ‘making regulations  suitable and appropriate for what the drones  
526
2441200
4800
Así que creo que quiere decir "hacer regulaciones adecuadas y apropiadas para el uso de los
40:46
are being used for’. So they need some control,  but not so they can't be useful and effective.
527
2446000
5600
drones". Por lo tanto, necesitan algo de control, pero no para que no puedan ser útiles y efectivos.
40:51
Like flying drones to stop you working late!  
528
2451600
2400
¡Como drones voladores para evitar que trabajes hasta tarde!
40:54
Now Rob, I'm dying to know what  the other name for a drone is.
529
2454560
2880
Rob, me muero por saber cuál es el otro nombre para un dron.
40:57
OK, let me tell you. So earlier I  asked what does UAV stand for? Was it…
530
2457440
5360
OK, dejame decirte. Entonces, antes pregunté qué significa UAV. ¿Fue...
41:02
a) Unidentified aerial vehicle 
531
2462800
2720
a) Vehículo aéreo no identificado
41:05
b) Unmanned aerial vehicle c) Unaided aircraft vehicle
532
2465520
5040
b) Vehículo aéreo no tripulado c) Vehículo aéreo sin ayuda
41:11
And I said b) – was that correct?
533
2471120
2240
Y dije b) - ¿Era correcto?
41:13
Yes Neil, you know your drones – that's correct.  Well done. UAVs or drones have been around for  
534
2473920
6320
Sí, Neil, conoces tus drones, eso es correcto. Bien hecho. Los UAV o drones han existido durante
41:20
quite a while in different forms.  It's thought they were first used  
535
2480240
3840
bastante tiempo en diferentes formas. Se cree que se usaron por primera vez
41:24
for providing practice targets for  training military personnel. OK Neil,  
536
2484080
4720
para proporcionar objetivos de práctica para entrenar al personal militar. Bien, Neil,
41:28
let's quickly go over some of the vocabulary we  have mentioned today, starting with surveillance.
537
2488800
5040
repasemos rápidamente parte del vocabulario que hemos mencionado hoy, comenzando con la vigilancia.
41:34
"The police kept the jewellery shop  under surveillance because they had  
538
2494480
3520
"La policía mantuvo la joyería bajo vigilancia porque tenían
41:38
a tip-off about a robbery." So that means  ‘carefully watching someone or something,  
539
2498000
4640
un soplo sobre un robo". Entonces eso significa "observar cuidadosamente a alguien o algo,
41:42
usually to try to stop something illegal’.
540
2502640
2720
generalmente para tratar de detener algo ilegal".
41:46
Then we mentioned aerial footage –  that's film recording made from the sky.  
541
2506160
4240
Luego mencionamos imágenes aéreas, que son grabaciones de películas hechas desde el cielo.
41:50
"The aerial footage on TV of the  dolphins swimming was spectacular."
542
2510960
4080
"Las imágenes aéreas en la televisión de los delfines nadando fueron espectaculares".
41:55
Yes, drones have been a game changer  for wildlife programmes on TV.  
543
2515040
4480
Sí, los drones han cambiado las reglas del juego para los programas de vida silvestre en la televisión.
41:59
That means ‘something that completely changes  the way something is done or thought about’.
544
2519520
4800
Eso significa "algo que cambia por completo la forma en que se hace o se piensa algo".
42:04
We also mentioned the phrase 'the sky's  the limit', meaning ‘there's no limit  
545
2524320
3920
También mencionamos la frase "el cielo es el límite", que significa "no hay límite
42:08
to something’. "The sky is the limit to what  professional footballers can earn these days."
546
2528240
4800
para algo". "El cielo es el límite de lo que pueden ganar los futbolistas profesionales en estos días".
42:13
Then we discussed harmonised – that describes  two things being suitable for each other to  
547
2533040
4800
Luego discutimos armonizado, que describe dos cosas que son adecuadas entre sí para
42:17
allow them to work properly. "The garden has been  designed to harmonise with the natural landscape."
548
2537840
5600
permitir que funcionen correctamente. "El jardín ha sido diseñado para armonizar con el paisaje natural".
42:24
Very useful vocabulary, Neil. But let's  stop droning on – and that means ‘talking  
549
2544560
4640
Vocabulario muy útil, Neil. Pero dejemos de parlotear, y eso significa "hablar
42:29
too much in a boring way’ - and remind  everyone to check out our You Tube,  
550
2549200
4160
demasiado de una manera aburrida", y recordemos a todos que visiten nuestras páginas de YouTube,
42:33
Facebook, Twitter and Instagram  pages – and of course, our website  
551
2553360
3840
Facebook, Twitter e Instagram y, por supuesto, nuestro sitio web
42:37
at bbclearningenglish.com.  See you next time. Goodbye.
552
2557200
3600
en bbclearningenglish.com. Nos vemos la próxima vez. Adiós.
42:40
Goodbye
553
2560800
480
Adios
42:49
Hello. This is 6 Minute English, I'm Neil.
554
2569360
2560
Hola. Esto es 6 Minute English, soy Neil.
42:51
And I'm Sam.
555
2571920
800
Y yo soy Sam.
42:52
It’s good to see you again, Sam.
556
2572720
1760
Es bueno verte de nuevo, Sam.
42:54
Really?
557
2574480
880
¿En serio?
42:55
Yes, of course, can’t you  tell by the way I’m smiling?
558
2575360
2960
Sí, por supuesto, ¿no te das cuenta por la forma en que estoy sonriendo?
42:58
Ah well, I find it difficult to tell if someone  is really smiling or if it’s a fake smile.
559
2578960
5760
Ah, bueno, me resulta difícil saber si alguien está sonriendo de verdad o si es una sonrisa falsa.
43:04
Well, that’s a coincidence because today’s  programme is all about how computers may  
560
2584720
4560
Bueno, eso es una coincidencia porque el programa de hoy se trata de cómo las computadoras
43:09
be able tell real smiles from fake smiles better  than humans can. Before we get in to that though,  
561
2589280
6400
pueden distinguir las sonrisas reales de las sonrisas falsas mejor que los humanos. Sin embargo, antes de entrar en eso,
43:15
a question. The expressions we can make  with our face are controlled by muscles.  
562
2595680
5040
una pregunta. Las expresiones que podemos hacer con nuestra cara están controladas por los músculos.
43:20
How many muscles do we have in our face? Is it:
563
2600720
2960
¿Cuántos músculos tenemos en la cara? Es:
43:23
A: 26 
564
2603680
1680
A: 26
43:25
B: 43 C: 62
565
2605360
2800
B: 43 C: 62
43:28
What do you think, Sam?
566
2608160
880
¿Qué opinas, Sam?
43:29
No idea! But a lot, I’d  guess, so I’m going with 62.
567
2609600
4880
¡Ni idea! Pero mucho, supongo, así que voy con 62.
43:34
OK. Well, we’ll see if you’ll be smiling or  crying later in the programme. Hassan Ugail is a  
568
2614480
5600
Está bien. Bueno, veremos si sonríes o lloras más adelante en el programa. Hassan Ugail es
43:40
professor of visual computing at the University of  Bradford. He’s been working on getting computers  
569
2620080
5680
profesor de computación visual en la Universidad de Bradford. Ha estado trabajando para que las
43:45
to be able to recognise human emotions from the  expressions on our face. Here he is speaking on  
570
2625760
6480
computadoras sean capaces de reconocer las emociones humanas a partir de las expresiones de nuestro rostro. Aquí está hablando en
43:52
the BBC Inside Science radio programme –  how successful does he say they have been?
571
2632240
5600
el programa de radio BBC Inside Science: ¿cuán exitoso dice que han sido?
43:57
We've been working quite a lot on  the human emotions, so the idea is  
572
2637840
3680
Hemos estado trabajando mucho en las emociones humanas, por lo que la idea es
44:01
how the facial muscle movement,  which is reflected on the face,  
573
2641520
4720
cómo el movimiento de los músculos faciales, que se refleja en la cara,
44:06
through obviously a computer through video  frames and trying to understand how these  
574
2646240
4080
obviamente a través de una computadora a través de cuadros de video y tratando de entender cómo estos
44:10
muscle movements actually relate to facial  expressions and then from facial expressions  
575
2650320
5120
movimientos musculares realmente se relacionan con las expresiones faciales. y luego de las expresiones faciales
44:15
trying to understand the emotions or to infer the  emotions. And they have been quite successful in  
576
2655440
5200
tratando de entender las emociones o inferir las emociones. Y han tenido bastante éxito al
44:20
doing that. We have software that can actually  look at somebody's face in real time and then  
577
2660640
5680
hacerlo. Tenemos un software que realmente puede mirar la cara de alguien en tiempo real y luego
44:26
identify the series of emotions that  person is expressing in real time as well.
578
2666880
4960
identificar la serie de emociones que esa persona está expresando también en tiempo real.
44:32
So, have they been successful in  getting computers to identify emotions?
579
2672480
4800
Entonces, ¿han tenido éxito en hacer que las computadoras identifiquen emociones?
44:37
Yes, he says they’ve been quite successful,  and what’s interesting is that he says that  
580
2677280
4880
Sí, dice que han tenido bastante éxito, y lo interesante es que dice que
44:42
the computers can do it in real time. This means  that there’s no delay. They don’t have to stop and  
581
2682160
7520
las computadoras pueden hacerlo en tiempo real. Esto significa que no hay demora. No es necesario que se detengan y
44:49
analyse the data, or crunch the numbers,  they can do it as the person is talking.
582
2689680
5520
analicen los datos o procesen los números , pueden hacerlo mientras la persona habla.
44:55
The system uses video to analyse a person’s  expressions and can then infer the emotions.  
583
2695200
6080
El sistema usa video para analizar las expresiones de una persona y luego puede inferir las emociones.
45:01
To infer something means to get an understanding  of something without actually being told directly.  
584
2701280
5680
Inferir algo significa obtener una comprensión de algo sin que se lo digan directamente.
45:06
So, you look at available information and use your  
585
2706960
2560
Por lo tanto, observa la información disponible y utiliza su
45:09
understanding and knowledge  to work out the meaning.
586
2709520
2400
comprensión y conocimiento para determinar el significado.
45:12
It’s a bit like being a detective,  isn’t it? You look at the clues  
587
2712480
3680
Es un poco como ser un detective, ¿no? Miras las pistas
45:16
and infer what happened even if  you don’t have all the details.
588
2716160
3920
e infiere lo que sucedió incluso si no tienes todos los detalles.
45:20
Yes, and in this case the computer looks  at how the movement of muscles in the face  
589
2720080
4320
Sí, y en este caso la computadora mira cómo el movimiento de los músculos en la cara
45:24
or facial muscles, show different  emotions. Here’s Professor Ugail again.
590
2724400
4560
o los músculos faciales muestran diferentes emociones. Aquí está el profesor Ugail de nuevo.
45:29
We've been working quite a lot on the human  emotions so the idea is how the facial muscle  
591
2729520
5520
Hemos estado trabajando mucho en las emociones humanas, por lo que la idea es cómo el
45:35
movement, which is reflected on the face,  through obviously a computer through video  
592
2735040
4800
movimiento de los músculos faciales, que se refleja en la cara, obviamente a través de una computadora a través de
45:39
frames and trying to understand how these muscle  movements actually relate to facial expressions  
593
2739840
5680
cuadros de video y tratando de entender cómo estos movimientos musculares realmente se relacionan con las expresiones faciales
45:45
and then from facial expressions trying to  understand the emotions or to infer the emotions.  
594
2745520
4720
y luego de las expresiones faciales tratando de comprender las emociones o de inferir las emociones.
45:50
And they have been quite successful in doing  that. We have software that can actually  
595
2750800
4480
Y han tenido bastante éxito al hacerlo. Tenemos un software que realmente puede
45:55
look at somebody's face in real time and then  identify the series of emotions that person is  
596
2755280
6320
mirar la cara de alguien en tiempo real y luego identificar la serie de emociones que esa persona está
46:01
expressing in real time as well. So, how do the computers know  
597
2761600
4560
expresando también en tiempo real. Entonces, ¿cómo saben las computadoras
46:06
what is a real or a fake smile? The  computers have to learn that first.  
598
2766160
4560
qué es una sonrisa real o falsa? Las computadoras tienen que aprender eso primero.
46:11
Here’s Professor Ugail again  talking about how they do that.
599
2771680
3840
Aquí está el profesor Ugail hablando de nuevo sobre cómo lo hacen.
46:15
We have a data set of real smiles and  we have a data set of fake smiles.  
600
2775520
4240
Tenemos un conjunto de datos de sonrisas reales y tenemos un conjunto de datos de sonrisas falsas.
46:19
These real smiles are induced smiles in a lab.  So, you put somebody on a chair and then show  
601
2779760
5120
Estas sonrisas reales son sonrisas inducidas en un laboratorio. Entonces, pones a alguien en una silla y luego muestras
46:24
some funny movies and we expect  the smiles are genuine smiles.  
602
2784880
4320
algunas películas divertidas y esperamos que las sonrisas sean sonrisas genuinas.
46:29
And similarly we ask them to pretend to smile.  So, these are what you'd call fake smiles. So,  
603
2789200
5040
Y del mismo modo les pedimos que finjan sonreír. Entonces, estas son lo que llamarías sonrisas falsas. Entonces,
46:34
what we do is we throw these into the machine  and then the machine figures out what are the  
604
2794240
5360
lo que hacemos es arrojarlos a la máquina y luego la máquina descubre cuáles son las
46:39
characteristics of a real smile and what  are the characteristics of a fake smile.
605
2799600
4240
características de una sonrisa real y cuáles son las características de una sonrisa falsa.
46:44
So, how do they get the data that  the computers use to see if your  
606
2804560
3920
Entonces, ¿cómo obtienen los datos que usan las computadoras para ver si su
46:48
smile is fake or genuine – which  is another word which means real?
607
2808480
3680
sonrisa es falsa o genuina, que es otra palabra que significa real?
46:52
They induce real smiles in the lab by showing  people funny films. This means that they make  
608
2812800
6320
Inducen sonrisas reales en el laboratorio al mostrarle a la gente películas divertidas. Esto significa que hacen que
46:59
the smiles come naturally. They assume that the  smiles while watching the funny films are genuine.
609
2819120
6320
las sonrisas surjan de forma natural. Asumen que las sonrisas mientras ven las películas divertidas son genuinas.
47:05
And then they ask the people to pretend to  smile and the computer programme now has a  
610
2825440
4240
Y luego les piden a las personas que pretendan sonreír y el programa de computadora ahora tiene una
47:09
database of real and fake smiles and  is able to figure out which is which. 
611
2829680
4240
base de datos de sonrisas reales y falsas y puede descubrir cuál es cuál.
47:14
Figure out means to calculate  and come to an answer
612
2834640
3360
Averiguar los medios para calcular y llegar a una respuesta
47:18
Yes, and apparently the system  gets it right 90% of the time,  
613
2838000
3520
Sí, y aparentemente el sistema acierta el 90% de las veces,
47:21
which is much higher than we humans can. Right,  well before we remind ourselves of our vocabulary,  
614
2841520
6000
que es mucho más de lo que podemos los humanos. Bien, mucho antes de recordar nuestro vocabulario
47:27
let’s get the answer to the question. How  many muscles do we have in our face? Is it:
615
2847520
5040
, obtengamos la respuesta a la pregunta. ¿ Cuántos músculos tenemos en la cara? Es:
47:32
A: 26 
616
2852560
1200
A: 26
47:33
B: 43 C: 62
617
2853760
2960
B: 43 C: 62
47:36
Sam, are you going to be  smiling? What did you say?
618
2856720
2000
Sam, ¿vas a estar sonriendo? ¿Qué dijiste?
47:39
So I thought 62! Am I smiling, Neil?
619
2859440
2640
Así que pensé 62! ¿Estoy sonriendo, Neil?
47:42
Sadly you are not, you are using different  muscles for that sort of sad look!  
620
2862080
5520
Lamentablemente no lo eres, ¡estás usando diferentes músculos para ese tipo de mirada triste!
47:48
Actually the answer is 43. Congratulations to  anyone who got that right. Now our vocabulary.
621
2868800
5840
En realidad, la respuesta es 43. Felicitaciones a cualquiera que haya acertado. Ahora nuestro vocabulario.
47:54
Yes – facial is the adjective relating to face.
622
2874640
3760
Sí, facial es el adjetivo relacionado con la cara.
47:58
Then we had infer. This verb  means to understand something  
623
2878400
4160
Entonces tuvimos inferir. Este verbo significa entender algo
48:02
even when you don’t have all the information,  and you come to this understanding based  
624
2882560
4160
incluso cuando no tienes toda la información, y llegas a este entendimiento basado
48:06
on your experience and knowledge, or in  the case of a computer, the programming.
625
2886720
4240
en tu experiencia y conocimiento, o en el caso de una computadora, la programación.
48:11
And these computers work in real time,  which means that there’s no delay  
626
2891600
4320
Y estas computadoras funcionan en tiempo real, lo que significa que no hay demora
48:16
and they can tell a fake smile from a genuine one,  which means a real one, as the person is speaking.
627
2896480
5520
y pueden distinguir una sonrisa falsa de una genuina, lo que significa que es real, mientras la persona está hablando.
48:22
They made people smile, or as the Professor  said, they induced smiles by showing funny films.
628
2902560
5760
Hicieron sonreír a la gente, o como dijo el profesor , indujeron sonrisas mostrando películas divertidas.
48:28
And the computer is able to figure out or  calculate whether the smile is fake or genuine.
629
2908320
6240
Y la computadora puede descubrir o calcular si la sonrisa es falsa o genuina.
48:34
OK, thank you, Sam. That’s all  from 6 Minute English today.  
630
2914560
3040
Bien, gracias, Sam. Eso es todo de 6 Minute English hoy.
48:37
We look forward to your company next  time and if you can’t wait you can find  
631
2917600
3280
Esperamos su empresa la próxima vez y, si no puede esperar, puede encontrar
48:40
lots more from bbclearningenglish online,  on social media and on our app. Goodbye!
632
2920880
4720
mucho más de bbclearningenglish en línea, en las redes sociales y en nuestra aplicación. ¡Adiós!
48:48
Bye!
633
2928080
480
¡Adiós!
48:53
Welcome to 6 Minute English, where we  bring you an intelligent topic and six  
634
2933680
3680
Bienvenido a 6 minutos de inglés, donde te traemos un tema inteligente y seis
48:57
related items of vocabulary. I’m Neil.
635
2937360
2640
elementos de vocabulario relacionados. Soy Neil.
49:00
And I’m Tim. And today we’re talking  about AI – or Artificial Intelligence.
636
2940000
6320
Y yo soy Tim. Y hoy estamos hablando de IA, o Inteligencia Artificial.
49:06
Artificial Intelligence is the ability  of machines to copy human intelligent  
637
2946320
5040
La inteligencia artificial es la capacidad de las máquinas para copiar el comportamiento humano inteligente
49:11
behaviour – for example, an intelligent  machine can learn from its own mistakes,  
638
2951360
4560
; por ejemplo, una máquina inteligente puede aprender de sus propios errores
49:15
and make decisions based on  what’s happened in the past.
639
2955920
3280
y tomar decisiones basadas en lo que sucedió en el pasado.
49:19
There’s a lot of talk about AI these days, Neil,  but it’s still just science fiction, isn’t it?
640
2959200
5520
Se habla mucho sobre la IA en estos días, Neil, pero sigue siendo solo ciencia ficción, ¿no es así?
49:24
That’s not true – AI is everywhere.  Machine thinking is in our homes,  
641
2964720
4720
Eso no es cierto: la IA está en todas partes. El pensamiento automático está en nuestros hogares,
49:29
offices, schools and hospitals. Computer  algorithms are helping us drive our cars.  
642
2969440
5760
oficinas, escuelas y hospitales. Los algoritmos informáticos nos ayudan a conducir nuestros automóviles.
49:35
They’re diagnosing what’s  wrong with us in hospitals.  
643
2975200
3200
Están diagnosticando lo que nos pasa en los hospitales.
49:38
They’re marking student essays… They’re  telling us what to read on our smartphones…
644
2978400
4320
Están corrigiendo los ensayos de los estudiantes... Nos están diciendo qué leer en nuestros teléfonos inteligentes...
49:42
Well, that really does sound like science fiction  – but it’s happening already, you say, Neil?
645
2982720
5280
Bueno, eso realmente suena como ciencia ficción , pero ¿ya está sucediendo, dices, Neil?
49:48
It’s definitely happening, Tim. And an algorithm,  by the way, is a set of steps a computer follows  
646
2988000
6000
Definitivamente está sucediendo, Tim. Y un algoritmo, por cierto, es un conjunto de pasos que sigue una computadora
49:54
in order to solve a problem. So can you tell  me what was the name of the computer which  
647
2994000
5680
para resolver un problema. Entonces, ¿puedes decirme cuál era el nombre de la computadora que
49:59
famously beat world chess champion Garry  Kasparov using algorithms in 1997? Was it… 
648
2999680
6400
derrotó al famoso campeón mundial de ajedrez Garry Kasparov usando algoritmos en 1997? ¿Era...
50:06
a) Hal, 
649
3006080
640
a) Hal,
50:07
b) Alpha 60 or c) Deep Blue?
650
3007360
3680
b) Alpha 60 o c) Deep Blue?
50:11
I’ll say Deep Blue. Although I’m just guessing.
651
3011040
4000
Diré Deep Blue. Aunque solo estoy suponiendo.
50:15
Was it an educated guess, Tim?
652
3015040
1920
¿Fue una conjetura educada, Tim?
50:16
I know a bit about chess…
653
3016960
1520
Sé un poco de ajedrez...
50:18
An educated guess is based on knowledge and  experience and is therefore likely to be correct.  
654
3018480
5600
Una suposición fundamentada se basa en el conocimiento y la experiencia y, por lo tanto, es probable que sea correcta.
50:24
Well, we’ll find out later on how  educated your guess was in this case, Tim!
655
3024080
4080
¡Bueno, más adelante descubriremos qué tan acertada fue tu suposición en este caso, Tim!
50:28
Indeed. But getting back to AI and  what machines can do – are they  
656
3028160
5360
En efecto. Pero volviendo a la IA y lo que pueden hacer las máquinas, ¿
50:33
any good at solving real-life problems?  Computers think in zeros and ones don’t  
657
3033520
5520
son buenas para resolver problemas de la vida real? Las computadoras piensan en ceros y unos, ¿
50:39
they? That sounds like a pretty limited  language when it comes to life experience!
658
3039040
4000
no? ¡Eso suena como un lenguaje bastante limitado cuando se trata de la experiencia de la vida!
50:43
You would be surprised to what  those zeroes and ones can do, Tim.  
659
3043600
3680
Te sorprendería lo que pueden hacer esos ceros y unos, Tim.
50:47
Although you’re right that AI does  have its limitations at the moment.  
660
3047280
3840
Aunque tienes razón en que la IA tiene sus limitaciones en este momento.
50:51
And if something has limitations there’s a  limit on what it can do or how good it can be.
661
3051120
4960
Y si algo tiene limitaciones, hay un límite en lo que puede hacer o en lo bueno que puede ser.
50:56
OK – well now might be a good time to listen  to Zoubin Bharhramani, Professor of Information  
662
3056080
6080
Bien, ahora podría ser un buen momento para escuchar a Zoubin Bharhramani, profesor de Ingeniería de la Información
51:02
Engineering at the University of Cambridge  and deputy director of the Leverhulme Centre  
663
3062160
5760
en la Universidad de Cambridge y subdirector del Centro Leverhulme
51:07
for the Future of Intelligence. He’s talking  about what limitations AI has at the moment.
664
3067920
5840
para el Futuro de la Inteligencia. Está hablando de las limitaciones que tiene la IA en este momento.
51:15
I think it’s very interesting how many of the  things that we take for granted – we humans take  
665
3075680
5840
Creo que es muy interesante cuántas de las cosas que damos por sentado (los humanos damos
51:21
for granted – as being sort of things we don’t  even think about like how do we walk, how do we  
666
3081520
4720
por sentado) como cosas en las que ni siquiera pensamos, como cómo caminamos,
51:26
reach, how do we recognize our mother. You know,  all these things. When you start to think how  
667
3086240
6800
cómo alcanzamos, cómo reconocemos nuestro madre. Ya sabes, todas estas cosas. Cuando comienzas a pensar
51:33
to implement them on a computer, you realize that  it’s those things that are incredibly difficult to  
668
3093040
7280
cómo implementarlos en una computadora, te das cuenta de que son esas cosas que son increíblemente difíciles de
51:41
get computers to do, and that’s where  the current cutting edge of research is.
669
3101440
5360
lograr que las computadoras hagan, y ahí es donde está la vanguardia actual de la investigación.
51:48
If we take something for granted we  don’t realise how important something is.
670
3108720
3840
Si damos algo por sentado, no nos damos cuenta de lo importante que es algo.
51:52
You sometimes take me for granted, I think, Neil.
671
3112560
2560
A veces me das por sentado, creo, Neil.
51:55
No – I never take you for granted,  Tim! You’re far too important for that!
672
3115840
3520
No, ¡nunca te doy por sentado, Tim! ¡Eres demasiado importante para eso!
52:00
Good to hear! So things we take for granted  are doing every day tasks like walking,  
673
3120080
6720
¡Es bueno escuchar! Entonces, las cosas que damos por sentado son hacer tareas cotidianas como caminar
52:06
picking something up, or recognizing somebody.  We implement – or perform – these things without  
674
3126800
6800
, recoger algo o reconocer a alguien. Implementamos, o realizamos, estas cosas sin
52:13
thinking – Whereas it’s cutting edge research  to try and program a machine to do them.
675
3133600
5600
pensar, mientras que es una investigación de vanguardia intentar programar una máquina para que las haga.
52:19
Cutting edge means very new and  advanced. It’s interesting isn't it,  
676
3139200
3840
Innovador significa muy nuevo y avanzado. Es interesante, ¿no?,
52:23
that over ten years ago a computer  beat a chess grand master – but the  
677
3143040
4000
que hace más de diez años una computadora venció a un gran maestro de ajedrez, pero a la
52:27
same computer would find it incredibly  difficult to pick up a chess piece.
678
3147040
4240
misma computadora le resultaría increíblemente difícil recoger una pieza de ajedrez.
52:31
I know. It’s very strange. But now you’ve reminded  me that we need the answer to today’s question.
679
3151280
5520
Lo sé. Es muy extraño. Pero ahora me has recordado que necesitamos la respuesta a la pregunta de hoy.
52:37
Which was: What was the name of the  computer which famously beat world chess  
680
3157360
4560
Que era: ¿Cuál era el nombre de la computadora que derrotó al famoso campeón mundial de ajedrez
52:41
champion Garry Kasparov in 1997? Now, you said  Deep Blue, Tim, and … that was the right answer!
681
3161920
6960
Garry Kasparov en 1997? Ahora, dijiste Deep Blue, Tim, y... ¡esa fue la respuesta correcta!
52:48
You see, my educated guess was  based on knowledge and experience!
682
3168880
4480
Verá, mi suposición educada se basó en el conocimiento y la experiencia.
52:53
Or maybe you were just lucky. So, the IBM  
683
3173360
4320
O tal vez solo tuviste suerte. Entonces, la
52:57
supercomputer Deep Blue played against US  world chess champion Garry Kasparov in two  
684
3177680
5040
supercomputadora de IBM Deep Blue jugó contra el campeón mundial de ajedrez estadounidense Garry Kasparov en dos
53:02
chess matches. The first match was played in  Philadelphia in 1996 and was won by Kasparov.  
685
3182720
5920
partidas de ajedrez. El primer partido se jugó en Filadelfia en 1996 y lo ganó Kasparov.
53:08
The second was played in New York City in 1997  and won by Deep Blue. The 1997 match was the  
686
3188640
6720
El segundo se jugó en la ciudad de Nueva York en 1997 y lo ganó Deep Blue. El partido de 1997 fue la
53:15
first defeat of a reigning world chess champion  by a computer under tournament conditions.
687
3195360
4960
primera derrota de un actual campeón mundial de ajedrez por una computadora en condiciones de torneo.
53:20
Let’s go through the words we  learned today. First up was  
688
3200960
3840
Repasemos las palabras que aprendimos hoy. Primero fue la
53:24
‘artificial intelligence’ or AI – the ability  of machines to copy human intelligent behaviour.
689
3204800
6880
"inteligencia artificial" o IA: la capacidad de las máquinas para copiar el comportamiento inteligente humano.
53:31
“There are AI programs that can write poetry.”
690
3211680
3040
“Hay programas de IA que pueden escribir poesía”.
53:34
Do you have any examples you can recite?
691
3214720
2640
¿Tienes algún ejemplo que puedas recitar?
53:37
Afraid I don’t! Number two – an algorithm is  a set of steps a computer follows in order to  
692
3217360
5440
¡Me temo que no! Número dos: un algoritmo es un conjunto de pasos que sigue una computadora para
53:42
solve a problem. For example, “Google changes its  search algorithm hundreds of times every year.”
693
3222800
6080
resolver un problema. Por ejemplo, "Google cambia su algoritmo de búsqueda cientos de veces al año".
53:48
The adjective is algorithmic – for example,  “Google has made many algorithmic changes.”
694
3228880
6480
El adjetivo es algorítmico; por ejemplo, "Google ha realizado muchos cambios algorítmicos".
53:55
Number three – if something has ‘limitations’  – there’s a limit on what it can do or how good  
695
3235360
5200
Número tres: si algo tiene "limitaciones" , hay un límite en lo que puede hacer o en lo bueno
54:00
it can be. “Our show has certain limitations  – for example, it’s only six minutes long!”
696
3240560
5920
que puede ser. “Nuestro programa tiene ciertas limitaciones , por ejemplo, ¡solo dura seis minutos!”
54:06
That’s right – there’s only time to present  six vocabulary items. Short but sweet!
697
3246480
5280
Así es, solo hay tiempo para presentar seis elementos de vocabulario. ¡Corto pero dulce!
54:11
And very intelligent, too.  OK, the next item is ‘take  
698
3251760
3840
Y muy inteligente, además. Bien, el siguiente elemento es "dar
54:15
something for granted’ – which is when we  don’t realise how important something is.
699
3255600
4160
algo por sentado", que es cuando no nos damos cuenta de lo importante que es algo.
54:19
“We take our smart phones for granted these  days – but before 1995 hardly anyone owned one.”
700
3259760
6880
"Damos por sentado nuestros teléfonos inteligentes en estos días, pero antes de 1995 casi nadie tenía uno".
54:26
Number five – ‘to implement’ – means  to perform a task, or take action.
701
3266640
4560
El número cinco, "implementar", significa realizar una tarea o emprender una acción.
54:31
“Neil implemented some changes to the show.”
702
3271200
2640
“Neil implementó algunos cambios en el programa”.
54:33
The final item is ‘cutting edge’ – new and  advanced – “This software is cutting edge.”
703
3273840
5360
El elemento final es "vanguardista", nuevo y avanzado: "Este software es vanguardista".
54:39
“The software uses cutting edge technology.”
704
3279200
2640
“El software utiliza tecnología de punta”.
54:42
OK – that’s all we have time  for on today’s cutting edge  
705
3282480
3200
OK, eso es todo para lo que tenemos tiempo en el
54:45
show. But please check out our Instagram,  Twitter, Facebook and YouTube pages.
706
3285680
4960
programa de vanguardia de hoy. Pero consulte nuestras páginas de Instagram, Twitter, Facebook y YouTube.
54:50
Bye-bye!
707
3290640
560
¡Adiós!
54:51
Goodbye!
708
3291200
640
¡Adiós!
54:58
Hello and welcome to 6 Minute English. I'm Neil.
709
3298880
2800
Hola y bienvenidos a 6 Minute English. soy neil
55:01
And I'm Catherine. Hello!
710
3301680
1440
Y yo soy Catalina. ¡Hola!
55:03
Now, Catherine, say cheese.
711
3303120
2160
Ahora, Catherine, di queso.
55:05
Cheeeese. Thank you, a little souvenir of our time together.
712
3305280
5200
Queso. Gracias, un pequeño recuerdo de nuestro tiempo juntos.
55:10
Let's have a look… Hang on a minute. You just  took a selfie, I wasn't even in the picture.
713
3310480
5280
Echemos un vistazo... Espera un minuto. Acabas de tomarte una selfie, yo ni siquiera estaba en la foto.
55:15
Ah, well, that's the magic of the smartphone,  two cameras! You know, that's not something  
714
3315760
5520
Ah, bueno, esa es la magia del teléfono inteligente, ¡ dos cámaras! Ya sabes, eso no es algo
55:21
you can do with a traditional camera. I mean,  do you even have a separate camera these days?
715
3321280
5280
que puedas hacer con una cámara tradicional. Quiero decir, ¿tienes una cámara separada en estos días?
55:26
I do actually. It's in a  cupboard somewhere at home. 
716
3326560
3120
De hecho sí lo hago. Está en un armario en algún lugar de casa.
55:29
Well, that is the topic of this programme. Have  traditional cameras been completely replaced by  
717
3329680
5920
Bueno, ese es el tema de este programa. ¿Han sido reemplazadas por completo las cámaras tradicionales por los
55:35
smartphones, or to put it another way, have  cameras been made obsolete by the smartphone?
718
3335600
5600
teléfonos inteligentes o, dicho de otro modo, los teléfonos inteligentes han vuelto obsoletas las cámaras?
55:41
Interesting question. But before we get into this  topic, how about a question for our listeners?
719
3341200
6240
Interesante pregunta. Pero antes de entrar en este tema, ¿qué tal una pregunta para nuestros oyentes?
55:47
Of course. We are certainly in the  digital age of photography but when  
720
3347440
4320
Por supuesto. Ciertamente estamos en la era digital de la fotografía, pero ¿cuándo
55:51
was the first digital camera  phone released? Was it: 
721
3351760
3520
se lanzó el primer teléfono con cámara digital? ¿Fue:
55:55
a) 2000 b) 2004 or 
722
3355280
2880
a) 2000 b) 2004 o
55:58
c) 2007? What do you think?
723
3358160
2400
c) 2007? ¿Qué piensas?
56:01
Well, I actually know this one, so I'm  going to be fair and keep it to myself.
724
3361120
4720
Bueno, en realidad conozco este, así que voy a ser justo y me lo guardaré para mí.
56:06
OK, well, listen out for the  answer at the end of the programme.  
725
3366480
3120
OK, bueno, escucha la respuesta al final del programa.
56:10
There are different kinds of cameras  available today. There are compact cameras,  
726
3370240
4160
Hay diferentes tipos de cámaras disponibles en la actualidad. Hay cámaras compactas,
56:14
which are small and mostly automatic  and usually come with a fixed lens.
727
3374400
4720
que son pequeñas y en su mayoría automáticas y generalmente vienen con una lente fija.
56:19
That's right. And then there are  SLRs and DSLRs which are bigger,  
728
3379120
5280
Así es. Y luego están las SLR y las DSLR que son más grandes,
56:24
and you can change the lenses on these cameras  and they allow for a lot of manual control.
729
3384400
5440
y puedes cambiar las lentes de estas cámaras y permiten una gran cantidad de control manual.
56:30
And there are also mirrorless cameras, which are a  cross between compact cameras and DSLRs. They are  
730
3390640
6480
Y también hay cámaras sin espejo, que son un cruce entre las cámaras compactas y las DSLR. Son
56:37
small like a compact camera but you can also use  the same lenses on them that you can use on DSLRs.
731
3397120
6320
pequeños como una cámara compacta, pero también puedes usar los mismos lentes que puedes usar en las DSLR.
56:43
And of course, there are  the cameras on smartphones,  
732
3403440
3040
Y, por supuesto, están las cámaras de los teléfonos inteligentes
56:46
and these are convenient and they're  becoming increasingly sophisticated.
733
3406480
4880
, que son prácticas y cada vez más sofisticadas.
56:51
Phil Hall is the editor of Tech Radar  magazine. He was asked on the BBC programme  
734
3411360
5360
Phil Hall es el editor de la revista Tech Radar . En el programa de la BBC,
56:56
You and Yours if he thought smartphones would  make other cameras obsolete. What is his opinion?
735
3416720
6480
You and Yours, se le preguntó si pensaba que los teléfonos inteligentes dejarían obsoletas a otras cámaras. ¿Cuál es su opinión?
57:05
I don't think so. I think while compact camera  sales have really sort of dropped off a cliff,  
736
3425280
6000
No me parece. Creo que, si bien las ventas de cámaras compactas realmente se han
57:11
it's the lower end, cheap compacts where  people have opted for a smartphone and I think  
737
3431280
6640
desplomado, son las compactas baratas de gama baja donde la gente ha optado por un teléfono inteligente y creo que los
57:17
manufacturers are looking at the more higher end  premium cameras, high-end compacts, DSLRs, which  
738
3437920
6480
fabricantes están buscando cámaras premium de gama más alta, compactas de gama alta, DSLR, cuáles
57:24
are the ones you can attach lenses to, mirrorless  cameras. So, the market's changing. And I don't  
739
3444400
4640
son a las que puedes acoplar lentes, cámaras sin espejo . Entonces, el mercado está cambiando. Y
57:29
think there'll be a time soon, yet, that… the  smartphone will take over the camera completely.
740
3449040
6560
no creo que haya un tiempo pronto, todavía, que... el teléfono inteligente se hará cargo de la cámara por completo.
57:37
So does Phil think smartphones  will kill the camera?
741
3457280
3520
Entonces, ¿Phil cree que los teléfonos inteligentes acabarán con la cámara?
57:40
In a word, no. He does say that sales of cheap  compact cameras have dropped off a cliff.  
742
3460800
6560
En una palabra, no. Dice que las ventas de cámaras compactas baratas se han desplomado.
57:48
This rather dramatic expression  describes a very big fall in sales.
743
3468080
5040
Esta expresión bastante dramática describe una caída muy grande en las ventas.
57:53
This is because the kind of consumers  
744
3473120
2080
Esto se debe a que el tipo de consumidores
57:55
who would choose a compact camera are now  opting for the camera on their smartphone.  
745
3475200
4720
que elegiría una cámara compacta ahora opta por la cámara en su teléfono inteligente.
57:59
When you opt for something you  choose it rather than something else.
746
3479920
3520
Cuando optas por algo, lo eliges en lugar de otra cosa.
58:04
For people who want a quick, easy  to use and convenient way to take  
747
3484160
4400
Para las personas que desean una forma rápida, fácil de usar y conveniente de tomar
58:08
reasonable quality photos, compact cameras used  to be the best choice – but now it's a smartphone.
748
3488560
7520
fotos de calidad razonable, las cámaras compactas solían ser la mejor opción, pero ahora es un teléfono inteligente.
58:16
So camera makers are now moving to the more  high-end market, the DSLRs and mirrorless cameras.  
749
3496080
6240
Por lo tanto, los fabricantes de cámaras ahora se están moviendo hacia el mercado de gama más alta, las DSLR y las cámaras sin espejo.
58:22
So who is still buying these more  expensive cameras? Here's Phil Hall again.
750
3502960
4560
Entonces, ¿quién sigue comprando estas cámaras más caras? Aquí está Phil Hall de nuevo.
58:28
I think it's... some of it is people who  are picking up a smartphone and sort of  
751
3508640
4640
Creo que es... algunos de ellos son personas que toman un teléfono inteligente y se
58:33
getting into photography that way and that's  a really great first step into photography  
752
3513280
5760
involucran en la fotografía de esa manera y ese es un gran primer paso en la fotografía
58:39
and I think people are probably, sometimes,  getting a bit frustrated with the quality  
753
3519040
3040
y creo que las personas probablemente, a veces, se sientan un poco frustradas con la calidad.
58:43
once they sort of start pushing their creative  skills and then looking to see what's the next  
754
3523280
5520
una vez que comienzan a impulsar sus habilidades creativas y luego buscan ver cuál es el siguiente
58:48
rung up so it's people wanting to  broaden their creative skills a bit.
755
3528800
4080
peldaño, las personas quieren ampliar un poco sus habilidades creativas.
58:54
Who does he say might be buying cameras?
756
3534000
2640
¿Quién dice que podría estar comprando cámaras?
58:56
He says that people who are getting into  
757
3536640
2080
Él dice que las personas que se están iniciando en la
58:58
photography might get frustrated  with the quality of smartphones.
758
3538720
4160
fotografía pueden sentirse frustradas con la calidad de los teléfonos inteligentes.
59:02
Getting into something means  becoming very interested in it.
759
3542880
3520
Meterse en algo significa interesarse mucho por ello.
59:06
And if you are frustrated with something it  
760
3546400
2400
Y si estás frustrado con algo,
59:08
means you are disappointed with  it. You are not happy with it.
761
3548800
3120
significa que estás decepcionado. No estás contento con eso.
59:11
So people who have got into  photography with a smartphone  
762
3551920
3040
Entonces, las personas que se han metido en la fotografía con un teléfono inteligente
59:14
but are frustrated with its limitations  and want to be more creative are going  
763
3554960
4720
pero están frustrados con sus limitaciones y quieren ser más creativos van
59:19
to the next level. They are moving up, they  are, as Phil said 'taking the next rung up'.
764
3559680
6000
al siguiente nivel. Están subiendo, están, como dijo Phil, 'tomando el siguiente peldaño'.
59:25
Now, a rung is the horizontal step of a ladder,  
765
3565680
4000
Ahora, un peldaño es el peldaño horizontal de una escalera,
59:29
so the expression taking the next rung up is a  way to describe doing something at a higher level.
766
3569680
6960
por lo que la expresión tomar el siguiente peldaño es una forma de describir hacer algo en un nivel superior.
59:37
Now, talking of higher levels, did you get this  week's quiz question right? The question was:  
767
3577440
5680
Ahora, hablando de niveles más altos, ¿ respondió correctamente la pregunta del cuestionario de esta semana? La pregunta era:   ¿
59:43
When was the first phone with a digital  camera released? Was it 2000, 2004 or 2007?  
768
3583120
7440
Cuándo se lanzó el primer teléfono con cámara digital ? ¿Fue en 2000, 2004 o 2007?
59:51
The first phone with a digital  camera was released in 2000.  
769
3591680
3200
El primer teléfono con cámara digital se lanzó en 2000.
59:55
Now, to take us up to the end of the  programme, let's look at the vocabulary again.
770
3595440
4400
Ahora, para llevarnos al final del programa, echemos un vistazo al vocabulario nuevamente.
60:00
First, we had the adjective obsolete  which describes something that has  
771
3600720
3920
Primero, teníamos el adjetivo obsoleto que describe algo que ha
60:04
been replaced and is no longer the first choice.
772
3604640
2880
sido reemplazado y ya no es la primera opción.
60:08
When the expression to drop off a  cliff is used about, for example,  
773
3608080
3760
Cuando la expresión caer por un precipicio se usa, por ejemplo, sobre
60:11
sales numbers, it means sales have fallen  significantly over a short period of time.
774
3611840
5120
los números de ventas, significa que las ventas han caído significativamente en un corto período de tiempo.
60:16
To opt for something means to choose something  
775
3616960
3120
Optar por algo significa elegir algo
60:20
and when you become very interested in an  activity you can say that you get into it.
776
3620640
6720
y cuando te interesa mucho una actividad puedes decir que te involucras en ella.
60:27
If you are trying to do something and you  can't do it because you don't have the skill  
777
3627360
3920
Si está tratando de hacer algo y no puede hacerlo porque no tiene la habilidad
60:31
or the equipment you are using is not right  or not good enough, you can become frustrated.
778
3631280
5280
o el equipo que está usando no es correcto o no es lo suficientemente bueno, puede sentirse frustrado.
60:36
And developing your skills to a higher level  can be described as taking the next rung up.
779
3636560
6960
Y desarrollar sus habilidades a un nivel superior puede describirse como subir al siguiente peldaño.
60:43
Right, that's all from us from us in this  programme. Do join us again next time and  
780
3643520
3440
Correcto, eso es todo de nosotros de nosotros en este programa. Vuelva a unirse a nosotros la próxima vez y
60:46
don't forget that in the meantime you can  find us on Instagram, Facebook, Twitter,  
781
3646960
4160
no olvide que, mientras tanto, puede encontrarnos en Instagram, Facebook, Twitter,
60:51
YouTube and of course our website  bbclearningenglish.com. See you soon. Goodbye.
782
3651120
5440
YouTube y, por supuesto, en nuestro sitio web bbclearningenglish.com. Te veo pronto. Adiós.
60:59
Bye!
783
3659120
5040
¡Adiós!
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7