BOX SET: 6 Minute English - 'Technology and lifestyle' English mega-class! 30 minutes of vocabulary!

280,378 views ・ 2023-05-21

BBC Learning English


Haga doble clic en los subtítulos en inglés para reproducir el vídeo. Los subtítulos traducidos se traducen automáticamente.

00:05
Hello and welcome to
0
5920
1040
Hola y bienvenidos a
00:06
6 Minute English. I'm Dan.
1
6960
1760
6 Minute English. soy Dan
00:08
And I'm Rob. So, Dan, what's that…
2
8720
2720
Y yo soy Rob. Entonces, Dan, ¿qué es eso?
00:11
Oh, sorry. Oh, it's my wife.
3
11440
4960
Oh, lo siento. Oh, es mi esposa.
00:16
Err… hang on…
4
16400
1920
Err… espera… ¡
00:18
You didn't answer!
5
18320
1276
No respondiste!
00:19
Well, don't take this personally, Dan,
6
19596
2404
Bueno, no te lo tomes como algo personal, Dan,
00:22
but I'm not exactly crazy about
7
22000
2080
pero no estoy exactamente loco porque
00:24
someone eavesdropping on my
8
24080
1200
alguien escuche mi
00:25
phone call. If you eavesdrop on
9
25280
1920
llamada telefónica. Si escuchas algo a escondidas
00:27
something, you secretly listen to
10
27200
1680
, escuchas en secreto la
00:28
someone's conversation.
11
28880
1360
conversación de alguien.
00:30
Some things are private, you know?
12
30240
1280
Algunas cosas son privadas, ¿sabes? ¡
00:31
Oh! Of course! I totally understand.
13
31520
2882
Oh! ¡Por supuesto! Entiendo perfectamente.
00:34
One quick question for you though…
14
34402
2478
Sin embargo, una pregunta rápida para ti... ¿
00:36
do you have a smart speaker?
15
36880
1680
tienes un altavoz inteligente? Ya
00:38
You know, like the Google Assistant,
16
38560
1840
sabes, como el Asistente de Google,
00:40
Amazon's Alexa or Apple's Siri.
17
40400
2800
Alexa de Amazon o Siri de Apple. ¡
00:43
Oh sure, yes, I've got one! It's great!
18
43200
2320
Oh claro, sí, tengo uno! ¡Es genial!
00:45
I can ask it all sorts of questions, it
19
45520
2320
Puedo hacerle todo tipo de preguntas,
00:47
tells me about the news and weather,
20
47840
1600
me informa sobre las noticias y el clima,
00:49
it plays music when I want… it does
21
49440
2080
reproduce música cuando quiero... ¡lo hace
00:51
all sorts! You just give it a voice
22
51520
1840
todo! ¡Solo le das un
00:53
command and it does what you want!
23
53360
2240
comando de voz y hace lo que quieres!
00:55
So it can hear you, can it?
24
55600
1520
Entonces puede oírte, ¿verdad? ¡
00:57
Of course! How else can you give
25
57120
1840
Por supuesto! ¿De qué otra manera puedes
00:58
it a voice command?
26
58960
1200
darle un comando de voz? ¿
01:00
All the time?
27
60160
880
Todo el tiempo?
01:01
Well, I assume so.
28
61040
1280
Bueno, supongo que sí.
01:02
So how do you know it's not
29
62320
1200
Entonces, ¿cómo sabes que no
01:03
eavesdropping on you?
30
63520
1760
te está espiando?
01:05
Well, I… oh… I see. I hadn't thought
31
65280
3280
Bueno, yo... oh... ya veo. No había pensado
01:08
of that.
32
68560
821
en eso.
01:09
That's our topic for this
33
69381
1419
Ese es nuestro tema para este
01:10
6 Minute English.
34
70800
1200
inglés de 6 minutos. ¿
01:12
How safe is your smart speaker?
35
72000
2400
Qué tan seguro es su altavoz inteligente?
01:14
However, before that, here is our
36
74400
2080
Sin embargo, antes de eso, aquí está nuestra
01:16
quiz question. By what percentage
37
76480
1880
pregunta de prueba. ¿En qué porcentaje aumentó
01:18
has the number of smart speakers
38
78360
1560
la cantidad de parlantes inteligentes
01:19
used in US households increased
39
79920
2320
utilizados en los hogares de EE. UU.
01:22
from December 2017 to December
40
82240
2320
de diciembre de 2017 a diciembre de
01:24
2018? Is it…
41
84560
1360
2018? ¿Es…
01:25
a) around 40%
42
85920
1680
a) alrededor del 40 %
01:27
b) around 60%, or
43
87600
1920
b) alrededor del 60 % o
01:29
c) around 80%?
44
89520
2080
c) alrededor del 80 %?
01:31
Oh, well, I know they are very
45
91600
2000
Oh, bueno, sé que son muy
01:33
popular even in my household.
46
93600
1760
populares incluso en mi casa.
01:35
So I'm going to go for c) around 80%.
47
95360
3017
Así que voy a ir por c) alrededor del 80%.
01:38
Well, we'll find out if you're right later
48
98377
2183
Bueno, averiguaremos si tienes razón más adelante
01:40
in the programme. So, smart
49
100560
2320
en el programa. Entonces, ¡
01:42
speakers and privacy! Florian Schaub
50
102880
2720
altavoces inteligentes y privacidad! Florian Schaub
01:45
is an assistant professor at the
51
105600
1440
es profesor asistente en la
01:47
University of Michigan School
52
107040
1600
Escuela de Información de la Universidad de Michigan
01:48
of Information. Here he is speaking
53
108640
2400
. Aquí está hablando
01:51
on the BBC World Service programme
54
111040
1840
en el programa de BBC World Service
01:52
The Why Factor about smart
55
112880
1760
The Why Factor sobre
01:54
speakers. What does he say people
56
114640
2320
altavoces inteligentes. ¿Qué dice que la gente
01:56
are introducing into their homes?
57
116960
2828
está introduciendo en sus hogares?
02:00
You're basically introducing...
58
120480
1600
Básicamente estás introduciendo... el
02:02
listening bug in your home, in your
59
122080
1920
[ __ ] de la escucha en tu casa, en tu
02:04
most intimate space. While the
60
124000
1760
espacio más íntimo. Si bien las
02:05
companies say they are only actively
61
125760
2400
empresas dicen que solo
02:08
listening to what's going on in your
62
128160
1120
escuchan activamente lo que sucede en su
02:09
home when they hear the keyword,
63
129280
1920
hogar cuando escuchan la palabra clave,
02:11
the microphone is still on the whole
64
131200
1440
el micrófono aún está encendido todo el
02:12
time in order to be able to detect
65
132640
1760
tiempo para poder detectar
02:14
that keyword. We don't know to
66
134400
1360
esa palabra clave. No sabemos hasta
02:15
what extent companies are
67
135760
1360
qué punto las empresas están
02:17
co-operating with the government
68
137120
1440
cooperando con el gobierno
02:18
or to what extent the government
69
138560
1280
o hasta qué punto el gobierno
02:19
might try to circumvent company
70
139840
2480
podría intentar eludir los
02:22
security mechanisms in order to
71
142320
2160
mecanismos de seguridad de la empresa para
02:24
then be able to listen to what
72
144480
1360
poder escuchar lo que
02:25
you're doing.
73
145840
1298
estás haciendo.
02:28
So, what did he say people are
74
148064
1536
Entonces, ¿qué dijo que está presentando la gente
02:29
introducing, Rob?
75
149600
1280
, Rob?
02:30
He basically said we're introducing
76
150880
2400
Básicamente dijo que estamos introduciendo
02:33
a listening bug. Now, a bug is a
77
153280
2640
un error de escucha. Ahora, un error es un
02:35
small electronic device used for
78
155920
1600
pequeño dispositivo electrónico que se utiliza para
02:37
secretly listening to conversations.
79
157520
2000
escuchar conversaciones en secreto. Al
02:39
Much like a spy would use.
80
159520
1840
igual que lo usaría un espía. ¡
02:41
Yes, and he mentioned it was in
81
161360
1920
Sí, y mencionó que fue en
02:43
our most intimate space! 'Intimate'
82
163280
2800
nuestro espacio más íntimo! 'Íntimo'
02:46
means 'private and personal'.
83
166080
2187
significa 'privado y personal'.
02:48
Well, I can't think of anywhere
84
168267
1333
Bueno, no puedo pensar en un lugar
02:49
more intimate than my home.
85
169600
2160
más íntimo que mi hogar. ¡
02:51
Indeed! He also said that the
86
171760
2400
En efecto! También dijo que el
02:54
smart speaker's microphone is
87
174160
1680
micrófono del altavoz inteligente está
02:55
on the whole time – even though
88
175840
1760
encendido todo el tiempo, aunque
02:57
the companies insist that they're
89
177600
1520
las empresas insisten en que
02:59
only actively listening when the
90
179120
1760
solo escuchan activamente cuando
03:00
keyword is said.
91
180880
1280
se dice la palabra clave.
03:02
Yes, he suggested that we can't
92
182160
1440
Sí, sugirió que no podemos
03:03
know how far a company might
93
183600
1440
saber hasta qué punto una empresa podría
03:05
be co-operating with a government
94
185040
1680
estar cooperando con un gobierno
03:06
to eavesdrop on people.
95
186720
1520
para espiar a la gente. ¡
03:08
Or whether a government might
96
188240
1200
O si un gobierno podría
03:09
be circumventing a smart speaker's
97
189440
2080
estar eludiendo la seguridad de un altavoz inteligente
03:11
security and listening in anyway
98
191520
2800
y escuchando de todos modos
03:14
without the company's or owner's
99
194320
1760
sin el permiso de la empresa o del propietario
03:16
permission!
100
196080
1120
!
03:17
'Circumvent' means 'cleverly bypass
101
197200
2560
'Eludir' significa 'eludir inteligentemente
03:19
or go around'. So, if all this
102
199760
2400
o dar la vuelta'. Entonces, si todo este
03:22
eavesdropping is possible, why are
103
202160
2320
espionaje es posible, ¿por qué los
03:24
smart speakers so popular?
104
204480
2240
altavoces inteligentes son tan populares? ¡
03:26
Good question! And here's Florian
105
206720
2160
Buena pregunta! Y aquí está Florian
03:28
Schaub again with an answer. He
106
208880
2000
Schaub de nuevo con una respuesta.
03:30
conducted a study on people's
107
210880
1920
Realizó un estudio sobre las actitudes de las personas
03:32
attitudes to privacy when it comes
108
212800
1760
hacia la privacidad cuando se trata
03:34
to smart speakers. How do people
109
214560
2320
de altavoces inteligentes. ¿Cómo se siente la gente
03:36
feel about having a smart speaker
110
216880
1760
acerca de tener un altavoz inteligente
03:38
that could eavesdrop on them?
111
218640
1865
que pueda escucharlos a escondidas?
03:40
What we often saw is people just
112
220880
2080
Lo que a menudo vimos es que las personas simplemente
03:42
being resigned to 'this is the
113
222960
2000
se resignan a 'este es el
03:44
trade-off they have to make' if
114
224960
1360
compromiso que tienen que hacer' si
03:46
they want to enjoy the convenience
115
226320
1920
quieren disfrutar de la comodidad
03:48
that a smart speaker provides to them.
116
228240
2192
que les brinda un altavoz inteligente.
03:50
He said that people are resigned
117
230960
2320
Dijo que la gente está resignada
03:53
to the privacy trade-off. If you are
118
233280
2480
al intercambio de privacidad. Si te
03:55
resigned to something, you
119
235760
1360
resignas a algo,
03:57
accept something unpleasant that
120
237120
1760
aceptas algo desagradable que
03:58
can't be changed.
121
238880
1120
no se puede cambiar.
04:00
Yes and a trade-off is a compromise.
122
240000
2560
Sí, y una compensación es un compromiso.
04:02
You accept something bad to also
123
242560
2080
Aceptas algo malo para
04:04
receive something good.
124
244640
1360
recibir también algo bueno.
04:06
So people accept that a smart
125
246000
1600
Entonces, ¿la gente acepta que un
04:07
speaker gives them advantages,
126
247600
2240
altavoz inteligente les da ventajas,
04:09
even though there could be
127
249840
1440
aunque podría tener
04:11
downsides?
128
251280
800
inconvenientes?
04:12
Yes. In the grand scheme of things,
129
252080
2080
Sí. En el gran esquema de las cosas,
04:14
the data that these devices hear
130
254160
2000
los datos que escuchan estos dispositivos
04:16
is probably not that significant
131
256160
2080
probablemente no sean tan significativos
04:18
considering all the data companies
132
258240
1760
considerando todos los datos que las compañías
04:20
have about us already anyway!
133
260000
2279
ya tienen sobre nosotros de todos modos.
04:22
So, can I have the answer to the
134
262857
1543
Entonces, ¿puedo tener la respuesta al
04:24
quiz then?
135
264400
640
cuestionario entonces? ¡
04:25
Of course! Earlier I asked by what
136
265040
2880
Por supuesto! Anteriormente pregunté en qué
04:27
percentage the number of smart
137
267920
1440
porcentaje aumentó la cantidad de
04:29
speakers used in US households
138
269360
2080
altavoces inteligentes utilizados en los hogares de EE. UU.
04:31
increased from December 2017
139
271440
2240
de diciembre de 2017
04:33
to December 2018? Was it…
140
273680
2080
a diciembre de 2018. ¿Fue…
04:35
a) around 40%
141
275760
1680
a) alrededor del 40 %
04:37
b) around 60%, or
142
277440
1760
b) alrededor del 60 % o
04:39
c) around 80%?
143
279200
1760
c) alrededor del 80 %? ¿
04:40
What did you say, Rob?
144
280960
1040
Qué dijiste Rob?
04:42
I said c) around 80%.
145
282000
2080
Dije c) alrededor del 80%.
04:44
And you are right. The answer
146
284080
2720
Y tienes razón. La respuesta
04:46
is around 80% - from 66 million
147
286800
2720
es alrededor del 80%: de 66 millones
04:49
in December 2017 to 118 million
148
289520
3760
en diciembre de 2017 a 118 millones
04:53
in December 2018, and around
149
293280
2800
en diciembre de 2018, ¡y alrededor de
04:56
ten million people in the UK now
150
296080
2080
diez millones de personas en el Reino Unido ahora
04:58
use one too! I guess they're
151
298160
2080
también usan uno! Supongo que
05:00
really not worried about
152
300240
720
05:00
eavesdropping.
153
300960
896
en realidad no les preocupa escuchar
a escondidas.
05:01
Nice slide into the vocabulary
154
301856
2464
Buen deslizamiento en el vocabulario
05:04
there, Dan. If someone eavesdrops
155
304320
2320
allí, Dan. Si alguien te escucha a escondidas
05:06
on you, it means they secretly
156
306640
1600
, significa que
05:08
listen to your conversation.
157
308240
1440
escuchan en secreto tu conversación.
05:09
They could be eavesdropping on
158
309680
1360
Podrían estar espiándote
05:11
you through a bug, which is a small
159
311040
2240
a través de un error, que es un pequeño
05:13
electronic device used to secretly
160
313280
2080
dispositivo electrónico que se usa para
05:15
listen to conversations.
161
315360
1840
escuchar conversaciones en secreto.
05:17
Yes, they may have bugged your
162
317200
1520
Sí, es posible que hayan puesto micrófonos ocultos en tus espacios
05:18
most intimate, or private and
163
318720
1840
más íntimos o privados y
05:20
personal, spaces.
164
320560
1440
personales. A
05:22
Next we had circumvent. If you
165
322000
2160
continuación tuvimos eludir. Si
05:24
circumvent something, such as
166
324160
1440
eludes algo, como la
05:25
security, you cleverly or bypass
167
325600
2240
seguridad, lo haces inteligentemente o lo pasas por alto
05:27
it or go around it.
168
327840
1920
o lo esquivas.
05:29
Then we had resigned. If you are
169
329760
2080
Entonces habíamos renunciado. Si estás
05:31
resigned to something, it means
170
331840
1840
resignado a algo, significa que
05:33
you accept something unpleasant
171
333680
2000
aceptas algo desagradable
05:35
that can't be changed.
172
335680
1440
que no se puede cambiar.
05:37
And lastly, we had trade-off.
173
337120
2320
Y, por último, tuvimos una compensación.
05:39
A trade-off is a compromise.
174
339440
1760
Una compensación es un compromiso.
05:41
You get something good, but you
175
341200
1840
Obtienes algo bueno, pero
05:43
also get something bad.
176
343040
1920
también obtienes algo malo.
05:44
Right - like 6 Minute English!
177
344960
1920
Correcto, ¡como 6 minutos de inglés!
05:46
A great discussion and vocabulary,
178
346880
2320
Una gran discusión y vocabulario, ¡
05:49
but the trade-off is it only lasts
179
349200
2240
pero la compensación es que solo dura
05:51
six minutes!
180
351440
1120
seis minutos!
05:52
Which is just about now,
181
352560
1440
Que es casi ahora, en
05:54
actually - time to go. So until next
182
354000
2240
realidad, es hora de irse. Así que hasta la próxima
05:56
time, find us all over the place
183
356240
1583
, encuéntranos por todas partes
05:57
online and on social media.
184
357823
2402
en línea y en las redes sociales.
06:00
Just search for BBC Learning English.
185
360225
2335
Simplemente busque BBC Learning English.
06:02
Bye for now.
186
362560
720
Adiós por ahora. ¡
06:03
Goodbye!
187
363280
841
Adiós!
06:09
Hello. This is 6 Minute English
188
369680
1600
Hola. Esto es 6 minutos de inglés
06:11
from BBC Learning English.
189
371280
1440
de BBC Learning English.
06:12
I’m Neil.
190
372720
880
Soy Neil.
06:13
And I’m Sam.
191
373600
960
Y yo soy Sam.
06:14
People collect all kinds of things
192
374560
1760
La gente colecciona todo tipo de cosas
06:16
for a hobby, from stamps and coins
193
376320
1840
como pasatiempo, desde sellos y monedas
06:18
to comics and football stickers.
194
378160
2000
hasta cómics y calcomanías de fútbol. ¿
06:20
Do you collect anything, Sam?
195
380160
1920
Coleccionas algo, Sam?
06:22
I used to have a big collection
196
382080
1680
Solía ​​tener una gran colección
06:23
of Pokémon cards but I have no
197
383760
2080
de cartas de Pokémon, pero no tengo ni
06:25
idea where they are now.
198
385840
1600
idea de dónde están ahora.
06:27
Well, maybe you should start
199
387440
1280
Bueno, tal vez deberías comenzar a
06:28
looking for them because all
200
388720
1360
buscarlos porque todo
06:30
kinds of collectables – that’s
201
390080
2000
tipo de coleccionables, es decir,
06:32
objects that people want to
202
392080
1280
objetos que la gente quiere
06:33
collect – are selling for big
203
393360
1680
coleccionar, se venden por mucho
06:35
money on the internet. It’s
204
395040
1680
dinero en Internet.
06:36
all part of a new tech craze
205
396720
1680
Todo es parte de una nueva locura tecnológica
06:38
called non-fungible tokens,
206
398400
2000
llamada tokens no fungibles,
06:40
or NFTs for short.
207
400400
1760
o NFT para abreviar. ¿
06:42
Non-fungible tokens?
208
402160
1760
Fichas no fungibles?
06:43
Basically, NTFs are unique,
209
403920
2160
Básicamente, los NTF son
06:46
one-of-kind items that can
210
406080
1600
artículos únicos que se pueden
06:47
be bought and sold like any
211
407680
1600
comprar y vender como cualquier
06:49
physical object but only exist
212
409280
2320
objeto físico, pero solo existen
06:51
in the digital world. ‘Tokens’
213
411600
2320
en el mundo digital. Los 'tokens' se
06:53
can be thought of as certificates
214
413920
1680
pueden considerar como certificados
06:55
of ownership for these virtual
215
415600
1840
de propiedad de estas
06:57
possessions.
216
417440
600
posesiones virtuales.
06:58
Hmmm, OK. I understand the
217
418040
2920
Hmmmm está bien. Entiendo la
07:00
‘token’ part but what does
218
420960
2000
parte de "token", pero ¿qué
07:02
‘non-fungible’ mean?
219
422960
1600
significa "no fungible"?
07:04
If something is ‘fungible’ it can
220
424560
1760
Si algo es ‘fungible’ se puede
07:06
be interchanged, like money,
221
426320
2000
intercambiar, como el dinero,
07:08
for example. With money you
222
428320
1680
por ejemplo. Con dinero
07:10
can swap a £10 note for two
223
430000
1920
puedes cambiar un billete de 10€ por dos
07:11
£5 notes and it will have the
224
431920
1600
billetes de 5€ y tendrá el
07:13
same value.
225
433520
1086
mismo valor.
07:14
So, something non-fungible
226
434606
2194
Entonces, algo no fungible
07:16
cannot be interchanged with
227
436800
1520
no se puede intercambiar con
07:18
something else. Is that because
228
438320
1680
otra cosa. ¿Es porque
07:20
it has special features that
229
440000
1760
tiene características especiales que
07:21
make it unique?
230
441760
1360
lo hacen único?
07:23
Exactly. Imagine something
231
443120
1680
Exactamente. Imagina algo
07:24
totally unique like the Mona Lisa.
232
444800
2080
totalmente único como la Mona Lisa.
07:26
You can take a photo of the
233
446880
1280
Puede tomar una foto de la
07:28
painting or buy a copy of it, but
234
448160
2080
pintura o comprar una copia, pero
07:30
there will only ever be the one
235
450240
1840
solo habrá una
07:32
original painting.
236
452080
1200
pintura original.
07:33
I can see that the Mona Lisa is
237
453280
2320
Puedo ver que la Mona Lisa es
07:35
one-of-a-kind and extremely
238
455600
1920
única y extremadamente
07:37
valuable, but it’s not for sale
239
457520
2000
valiosa, ¡pero no está a la venta
07:39
on the internet!
240
459520
1040
en Internet!
07:40
True, but lots of other things
241
460560
1520
Cierto, pero muchas otras cosas lo
07:42
are, from signed celebrity
242
462080
1440
son, desde
07:43
artwork to virtual football
243
463520
1760
obras de arte firmadas por celebridades hasta cromos de fútbol virtuales
07:45
cards. NFTs are like autographed
244
465280
2640
. Los NFT son como
07:47
photos – collectors want something
245
467920
2080
fotos autografiadas: los coleccionistas quieren algo que
07:50
no-one else has, even though
246
470000
1600
nadie más tiene, aunque no
07:51
there’s nothing physical they
247
471600
1440
hay nada físico que
07:53
actually own and keep.
248
473040
1440
realmente posean y conserven. ¿
07:54
And the value of NFTs is going
249
474480
2480
Y el valor de los NFT está
07:56
up and up?
250
476960
1040
subiendo y subiendo?
07:58
Massively. A digital sticker of
251
478000
2240
Macizamente. ¡Una calcomanía digital del
08:00
French footballer, Kylian Mbappé,
252
480240
1760
futbolista francés, Kylian Mbappé, se
08:02
recently sold for £25,000! Which
253
482000
3680
vendió recientemente por £ 25,000! Lo que
08:05
reminds me of my quiz
254
485680
1040
me recuerda mi
08:06
question, Sam.
255
486720
1200
pregunta del examen, Sam.
08:07
In June 2021, Sir Tim Berners-Lee
256
487920
2960
En junio de 2021, Sir Tim Berners-Lee
08:10
sold the original source code he
257
490880
1760
vendió el código fuente original que
08:12
used to invent the World Wide
258
492640
1520
usó para inventar la World Wide
08:14
Web as an NFT at a charity auction.
259
494160
3040
Web como NFT en una subasta benéfica.
08:17
The sale started at $1000 but
260
497200
2080
La venta comenzó en $ 1000, pero ¿por
08:19
how much did the source code
261
499280
1600
cuánto se vendió finalmente el código fuente
08:20
eventually sell for? Was it:
262
500880
1760
? ¿Fueron:
08:22
a) 5.4 thousand dollars?
263
502640
2480
a) 5.4 mil dólares?
08:25
b) 5.4 million dollars? or
264
505120
2400
b) 5,4 millones de dólares?
08:27
c) 5.4 billion dollars?
265
507520
3065
oc) ¿5.400 millones de dólares?
08:30
If you’re asking me how much
266
510585
2055
Si me preguntas a cuánto se
08:32
the internet sold for, I’d say
267
512640
2640
vendió Internet, diría
08:35
c) 5.4 billion dollars.
268
515280
3120
c) 5.400 millones de dólares.
08:38
OK, Sam, we’ll find out later
269
518400
1600
Bien, Sam, lo averiguaremos más tarde
08:40
if that’s right.
270
520000
960
08:40
Sir Tim Berners-Lee famously
271
520960
1760
si eso es correcto. Es
bien sabido que Sir Tim Berners-Lee
08:42
never made any money from the
272
522720
1840
nunca ganó dinero con la
08:44
World Wide Web, insisting that
273
524560
2000
World Wide Web e insistió en que
08:46
his invention should be free
274
526560
1680
su invento debería ser gratuito
08:48
for everyone. But the world of
275
528240
1600
para todos. Pero el mundo de las
08:49
NFTs is controversial and not
276
529840
2560
NFT es controvertido y no
08:52
everyone thinks Sir Tim should
277
532400
1680
todos creen que Sir Tim debería
08:54
be getting involved.
278
534080
1360
involucrarse.
08:55
That’s certainly the view of
279
535440
1280
Esa es sin duda la opinión de
08:56
Shona Ghosh, technology
280
536720
1520
Shona Ghosh,
08:58
editor at the ‘The Insider’ website,
281
538240
2000
editora de tecnología del sitio web 'The Insider',
09:00
as she told BBC World Service
282
540240
1840
como le dijo al
09:02
programme, Tech Tent:
283
542080
1280
programa Tech Tent de BBC World Service:
09:03
I think there’s a balance to be
284
543360
1120
Creo que se debe lograr un equilibrio
09:04
struck between exploring new
285
544480
1840
entre la exploración de nuevas
09:06
technologies and
286
546320
1760
tecnologías y
09:08
Sir Tim Berners-Lee is an
287
548080
2000
Sir Tim Berners-Lee es un
09:10
amazing figure but NFTs are
288
550080
2480
increíble figura, pero los NFT son
09:12
a Wild West. Not everything
289
552560
2960
un salvaje oeste. No todo lo
09:15
associated with NFTs are
290
555520
1840
relacionado con los NFT es
09:17
rogue, but these so-called digital
291
557360
2320
deshonesto, pero estos llamados
09:19
collectables are going for
292
559680
1040
coleccionables digitales cuestan
09:20
lots of money.
293
560720
1360
mucho dinero. Los
09:22
Internet NFTs are very new and
294
562080
2480
NFT de Internet son muy nuevos y
09:24
there are no rules controlling what
295
564560
2080
no hay reglas que controlen qué se
09:26
can be sold and for how much, so
296
566640
2640
puede vender y por cuánto, por lo que
09:29
Shona describes them as a 'Wild West'.
297
569280
3360
Shona los describe como un 'Salvaje Oeste'.
09:32
The Wild West means a situation
298
572640
2080
El salvaje oeste significa una situación en la
09:34
where people can do whatever
299
574720
1280
que las personas pueden hacer lo que
09:36
they want because there are no
300
576000
1440
quieran porque no hay
09:37
laws or controls, like the early
301
577440
1760
leyes ni controles, como la
09:39
history of the western part of
302
579200
1600
historia temprana de la parte occidental de
09:40
the United States.
303
580800
1120
los Estados Unidos.
09:41
She also calls some things about
304
581920
1600
También llama a algunas cosas sobre los
09:43
NFTs rogue - behaving differently
305
583520
3440
NFT deshonestos: se comportan de manera diferente
09:46
from what’s normal or expected,
306
586960
2320
a lo normal o esperado,
09:49
often in a way that causes damage.
307
589280
2880
a menudo de una manera que causa daño.
09:52
Love them or hate them, there are
308
592160
1440
Ámenlos u ódienlos, hay
09:53
strong opinions on both sides of
309
593600
1760
fuertes opiniones en ambos lados del
09:55
the NFT debate, as
310
595360
1440
debate de NFT, como explica
09:56
Rory Cellan-Jones, presenter
311
596800
1920
Rory Cellan-Jones, presentador
09:58
of BBC World Service’s
312
598720
1600
de Tech Tent de BBC World Service
10:00
Tech Tent, explains:
313
600320
1440
:
10:01
To some NFTs are a brilliant
314
601760
2480
Para algunos NFT son una
10:04
innovation which has promised
315
604240
1200
innovación brillante que ha prometido
10:05
to put a value on digital artefacts.
316
605440
2880
poner un valor en lo digital. artefactos
10:08
To others they’re little more than
317
608320
1600
Para otros, son poco más que
10:09
a dubious pyramid scheme with a
318
609920
2080
un esquema piramidal dudoso con un
10:12
damaging impact on the environment
319
612000
1920
impacto dañino en el medio ambiente
10:13
because of the way the tokens
320
613920
1440
debido a la forma en que
10:15
are created.
321
615360
1120
se crean los tokens.
10:16
Some people are suspicious of
322
616480
1680
Algunas personas sospechan de
10:18
the large amounts of money
323
618160
1280
las grandes cantidades de dinero que los
10:19
collectors are willing to pay,
324
619440
2000
cobradores están dispuestos a pagar, y
10:21
comparing NFTs to pyramid
325
621440
2160
comparan las NFT con los
10:23
schemes - business tricks or
326
623600
2320
esquemas piramidales: trucos comerciales o
10:25
scams where money is
327
625920
1520
estafas en las que el dinero se
10:27
obtained dishonestly.
328
627440
1840
obtiene de manera deshonesta.
10:29
But for others NFTs are a
329
629280
1760
Pero para otros, las NFT son una
10:31
legitimate and useful way
330
631040
1520
forma legítima y útil
10:32
to put a price on rare digital
331
632560
1840
de poner precio a artefactos digitales raros
10:34
artefacts – items, such as
332
634400
1840
: elementos, como
10:36
images, videos and music,
333
636240
1920
imágenes, videos y música,
10:38
that are produced and stored
334
638160
1360
que se producen y almacenan
10:39
as electronic versions.
335
639520
1680
como versiones electrónicas.
10:41
Items like, for example, the
336
641200
2080
Elementos como, por ejemplo, el
10:43
original source code for the
337
643280
1440
código fuente original de
10:44
internet. So, how much money
338
644720
1520
Internet. Entonces, ¿cuánto dinero
10:46
did Sir Tim Berners-Lee raise for
339
646240
1840
recaudó Sir Tim Berners-Lee para
10:48
charity when he sold it off, Neil?
340
648080
2160
caridad cuando lo vendió, Neil?
10:50
In my quiz question, I asked
341
650240
1440
En mi pregunta del cuestionario, le pregunté a
10:51
Sam how much the NFT for
342
651680
1920
Sam cuánto se vendió en una subasta el NFT del código
10:53
the original internet source
343
653600
1360
fuente original de Internet
10:54
code sold for at auction.
344
654960
2240
.
10:57
I said c) 5.4 billion dollars.
345
657200
3120
Dije c) 5.400 millones de dólares. ¡Te
11:00
You were… wrong! In fact, it
346
660320
2160
equivocaste! De hecho,
11:02
was less - 5.4 million dollars –
347
662480
2320
era menos, 5,4 millones de dólares,
11:04
but still far too expensive
348
664800
1360
pero aún así era demasiado caro
11:06
for me to collect.
349
666160
800
11:06
Hmmm, now I’m wondering
350
666960
960
para mí.
Hmmm, ahora me pregunto por
11:07
how much my Pokémon card
351
667920
1440
cuánto se vendería mi colección de cartas Pokémon
11:09
collection would sell for. If only
352
669360
1680
. ¡Si
11:11
I could find it!
353
671040
1360
pudiera encontrarlo!
11:12
Well, while you look for your
354
672400
1120
Bueno, mientras buscas tu
11:13
collection, Sam, let’s recap
355
673520
1520
colección, Sam, recapitulemos
11:15
the vocabulary from this
356
675040
1200
el vocabulario de este
11:16
programme all about NFTs
357
676240
2000
programa sobre NFT,
11:18
which are digital artefacts or
358
678240
2080
que son artefactos digitales o
11:20
items that are produced and
359
680320
1440
elementos que se producen y
11:21
stored as electronic versions.
360
681760
2080
almacenan como versiones electrónicas. Los
11:23
NFTs are virtual collectables –
361
683840
2640
NFT son coleccionables virtuales:
11:26
desirable objects that people
362
686480
1680
objetos deseables que las personas
11:28
search for and collect.
363
688160
1840
buscan y coleccionan.
11:30
And they are non-fungible
364
690000
1680
Y no son fungibles, lo que
11:31
meaning they have special and
365
691680
1360
significa que tienen características especiales y
11:33
unique characteristics that
366
693040
1360
únicas que
11:34
cannot be interchanged
367
694400
1280
no se pueden intercambiar
11:35
with anything else.
368
695680
1040
con nada más.
11:36
If something is rogue it behaves
369
696720
2000
Si algo es deshonesto, se comporta
11:38
in a different way from what’s
370
698720
1600
de manera diferente a lo
11:40
normal or expected, often
371
700320
2000
normal o esperado, y a menudo
11:42
causing damage.
372
702320
1440
causa daños.
11:43
The Wild West describes a
373
703760
1440
El Salvaje Oeste describe una
11:45
chaotic situation without
374
705200
1600
situación caótica sin
11:46
laws or controls.
375
706800
1360
leyes ni controles.
11:48
And finally, a pyramid scheme
376
708160
2000
Y, por último, un esquema piramidal
11:50
is a business scam where
377
710160
1600
es una estafa comercial en la que
11:51
money is gained dishonestly.
378
711760
2160
se gana dinero de manera deshonesta.
11:53
If you’d like to know more
379
713920
1280
Si desea obtener más información
11:55
about non-fungible tokens, bitcoin
380
715200
1920
sobre tokens no fungibles, bitcoin
11:57
and other trending internet topics
381
717120
1680
y otros temas de actualidad en Internet,
11:58
there’s plenty to find on the
382
718800
1360
hay mucho que encontrar en el
12:00
BBC website.
383
720160
1040
sitio web de la BBC.
12:01
And for more interesting
384
721200
960
Y para una conversación más interesante
12:02
conversation and useful
385
722160
1360
y un
12:03
vocabulary, remember to join us
386
723520
1920
vocabulario útil, recuerda volver a unirte a nosotros
12:05
again soon here at 6 Minute
387
725440
1920
pronto aquí en 6 Minute
12:07
English. Bye for now!
388
727360
1600
English. ¡Adiós por ahora! ¡
12:08
Bye!
389
728960
880
Adiós!
12:15
Welcome to 6 Minute English,
390
735520
1760
Bienvenido a 6 Minute English,
12:17
the programme where we
391
737280
1200
el programa en el que
12:18
explore an interesting topic
392
738480
1680
exploramos un tema interesante
12:20
and bring you six items of
393
740160
1680
y te traemos seis elementos de
12:21
useful vocabulary. I'm Catherine.
394
741840
2400
vocabulario útil. soy catalina
12:24
And I'm Rob.
395
744240
960
Y yo soy Rob.
12:25
I have a question for you, Rob:
396
745200
2000
Tengo una pregunta para ti, Rob: ¿
12:27
how would you feel about
397
747200
1600
cómo te sentirías si
12:28
having therapy from a robot?
398
748800
3120
tuvieras terapia con un robot?
12:31
I'm not too sure about that – you'll
399
751920
1600
No estoy muy seguro de eso, ¡
12:33
need to tell me more! But first
400
753520
1680
tendrás que contarme más! Pero
12:35
things first, the word 'therapy'
401
755200
2480
lo primero es lo primero, la palabra 'terapia'
12:37
refers to a kind of treatment
402
757680
1920
se refiere a un tipo de tratamiento
12:39
that helps someone feel better –
403
759600
1920
que ayuda a alguien a sentirse mejor,
12:41
including treatment for mental
404
761520
1360
incluido el tratamiento de
12:42
health issues. Someone who
405
762880
1520
problemas de salud mental. Alguien que
12:44
delivers therapy is called a therapist.
406
764400
2640
brinda terapia se llama terapeuta.
12:47
We'll find out more about this
407
767040
1760
Descubriremos más sobre este
12:48
robot therapist in just a moment,
408
768800
2320
robot terapeuta en un momento,
12:51
but first, Rob, I've got a question for
409
771120
2480
pero primero, Rob, tengo una pregunta para
12:53
you about the scale of mental
410
773600
2080
ti sobre la escala de los
12:55
health issues globally. So, roughly
411
775680
3280
problemas de salud mental a nivel mundial. Entonces, aproximadamente, ¿
12:58
how many people do you think
412
778960
1760
cuántas personas cree que
13:00
experience mental health issues
413
780720
2320
experimentan problemas de salud mental
13:03
at some point during their lifetime?
414
783040
2880
en algún momento de su vida? ¿Es
13:05
Is it…
415
785920
800
13:06
a) one in ten people,
416
786720
2400
a) una de cada diez personas,
13:09
b) one in four, or
417
789120
2400
b) una de cada cuatro,
13:11
c) one in three?
418
791520
1600
oc) una de cada tres?
13:13
I'll go for one in four, but I know
419
793120
1840
Iré por uno de cada cuatro, pero sé
13:14
whichever answer is right – it's a
420
794960
2160
cuál es la respuesta correcta, es un
13:17
big issue. How might a
421
797120
1360
gran problema. ¿Cómo podría
13:18
robot therapist help?
422
798480
1440
ayudar un robot terapeuta?
13:19
We're not talking about a robot
423
799920
1920
No estamos hablando de un robot
13:21
in the Star Wars sense – so, there's
424
801840
2240
en el sentido de Star Wars, ¡así que
13:24
no flashing lights and mechanical
425
804080
1680
no hay luces intermitentes ni
13:25
arms, Rob! It's actually an app in
426
805760
2400
brazos mecánicos, Rob! En realidad, es una aplicación en
13:28
your smartphone that talks to you –
427
808160
2880
su teléfono inteligente que le habla,
13:31
and it's called Woebot.
428
811040
3120
y se llama Woebot.
13:34
So – it has a sense of humour.
429
814160
2000
Entonces, tiene sentido del humor.
13:36
'Woe' means 'sadness'; so this
430
816160
2160
'Ay' significa 'tristeza'; así que este
13:38
is a 'woe' bot, not a robot.
431
818320
2640
es un bot 'ay', no un robot.
13:40
And it was developed by
432
820960
1520
Y fue desarrollado por la
13:42
psychologist Dr Alison Darcy
433
822480
2480
psicóloga Dra. Alison Darcy
13:44
from Stanford University in the
434
824960
1840
de la Universidad de Stanford en los
13:46
US. Here she is, talking to the BBC
435
826800
2880
Estados Unidos. Aquí está, hablando con el
13:49
radio programme All in the Mind.
436
829680
2480
programa de radio de la BBC All in the Mind.
13:52
Well, after you start an initial
437
832160
2240
Bueno, después de iniciar una
13:54
conversation with the Woebot, and
438
834400
960
conversación inicial con el Woebot, y
13:55
he'll take you through sort of what
439
835360
1120
él te explicará lo que
13:56
he can do and what he can't do, he'll
440
836480
1680
puede hacer y lo que no puede hacer,
13:58
just essentially check in with you
441
838160
1120
esencialmente se comunicará contigo
13:59
every day and just give you a sort
442
839280
1840
todos los días y te dará una especie de
14:01
of figurative tap on the shoulder
443
841120
1440
de toque figurativo en el hombro
14:02
and say: "Hey Claudia, how are
444
842560
1600
y decir: "Hola Claudia, ¿cómo
14:04
you doing? What's going on in your
445
844160
1600
estás? ¿Qué está pasando en tu
14:05
day? How do you feel?" So if you
446
845760
1520
día? ¿Cómo te sientes?" Entonces, si
14:07
say, like "I'm really, really stressed out",
447
847280
2320
dices, como "Estoy muy, muy estresado",
14:09
Woebot might offer to help talk
448
849600
2640
Woebot podría ofrecerte para ayudarte a hablar
14:12
you through something.
449
852240
1488
sobre algo.
14:14
Woebot checks in with you every
450
854101
2139
Woebot se comunica contigo todos los
14:16
day and asks you how you are.
451
856240
2080
días y te pregunta cómo estás.
14:18
So here, to check in with someone
452
858320
2240
Entonces aquí, registrarse con alguien
14:20
doesn't mean to register at a hotel
453
860560
1760
no significa registrarse en un hotel
14:22
with that person! It's an informal
454
862320
2000
con esa persona. Es una
14:24
way of saying you talk to someone
455
864320
1760
forma informal de decir que hablas con alguien
14:26
in order to report or find out information.
456
866080
2640
para informar o averiguar información.
14:28
And this usage is more common
457
868720
1760
Y este uso es más común
14:30
in the United States. So, for
458
870480
1920
en los Estados Unidos. Entonces, por
14:32
example: "I can't meet you today, Rob,
459
872400
2240
ejemplo: "No puedo reunirme contigo hoy, Rob,
14:34
but I'll check in with you tomorrow
460
874640
1520
pero me comunicaré contigo mañana
14:36
to see how the project is getting on."
461
876160
2160
para ver cómo va el proyecto".
14:38
So, this robot checks in with you
462
878320
2160
Entonces, este robot se comunica contigo
14:40
every day. It tracks your mood and
463
880480
2160
todos los días. Realiza un seguimiento de su estado de ánimo y
14:42
talks to you about your emotions, using
464
882640
2080
le habla sobre sus emociones, utilizando
14:44
a technique called cognitive
465
884720
1760
una técnica llamada
14:46
behavioural therapy.
466
886480
1520
terapia cognitiva conductual. La
14:48
Cognitive behavioural therapy is a
467
888000
2800
terapia cognitiva conductual es una
14:50
common therapeutic technique that
468
890800
2160
técnica terapéutica común que
14:52
helps people deal with problems by
469
892960
2320
ayuda a las personas a lidiar con los problemas
14:55
changing the way they think.
470
895280
1680
cambiando su forma de pensar.
14:56
That all sounds great, but does
471
896960
1600
Todo eso suena genial, pero ¿
14:58
Woebot actually work?
472
898560
1920
Woebot realmente funciona?
15:00
They've done some trials which
473
900480
1360
Han realizado algunos ensayos que
15:01
show it can be more effective than
474
901840
2160
muestran que puede ser más efectivo que
15:04
simply reading information about
475
904000
1840
simplemente leer información sobre
15:05
mental health. But they haven't
476
905840
2240
salud mental. Pero no han
15:08
compared Woebot to a real therapist
477
908080
2880
comparado a Woebot con un terapeuta real
15:10
due to ethical concerns.
478
910960
2080
debido a preocupaciones éticas.
15:13
Yes, it could be unethical to deny
479
913040
2160
Sí, podría ser poco ético negarle a
15:15
a real patient access to a human
480
915200
2000
un paciente real el acceso a un
15:17
therapist for the sake of a trial.
481
917200
2400
terapeuta humano por el bien de un ensayo.
15:19
'Ethical' basically means 'morally right'.
482
919600
2720
'Ético' básicamente significa 'moralmente correcto'.
15:22
And another concern is privacy.
483
922320
2720
Y otra preocupación es la privacidad.
15:25
People who use apps like this are
484
925040
2240
Las personas que usan aplicaciones como esta
15:27
not protected by strong privacy laws.
485
927280
2880
no están protegidas por estrictas leyes de privacidad.
15:30
Despite these fears, digital therapy is
486
930160
2560
A pesar de estos temores, la terapia digital está
15:32
booming – and Woebot is just one of
487
932720
2160
en auge, y Woebot es solo uno de
15:34
an increasing number of electronic
488
934880
1840
un número cada vez mayor de
15:36
services. One reason for this could
489
936720
2160
servicios electrónicos. Una razón para esto podría
15:38
be using an app carries less stigma
490
938880
2240
ser que usar una aplicación conlleva menos estigma
15:41
than maybe seeing a human therapist.
491
941120
2240
que tal vez ver a un terapeuta humano.
15:43
And stigma refers to the negative
492
943360
2080
Y el estigma se refiere a las
15:45
associations that people have
493
945440
1760
asociaciones negativas que las personas tienen
15:47
about something, especially when
494
947200
1760
sobre algo, especialmente cuando
15:48
these associations are not fair. Even
495
948960
3120
estas asociaciones no son justas. A
15:52
though mental health is now being
496
952080
1680
pesar de que ahora se habla de salud mental
15:53
talked about more openly than before,
497
953760
2800
más abiertamente que antes,
15:56
some people do still see mental
498
956560
2400
algunas personas todavía ven los
15:58
health issues and therapy negatively.
499
958960
2800
problemas de salud mental y la terapia de manera negativa.
16:01
Whatever you think of robot therapy,
500
961760
2400
Independientemente de lo que piense sobre la terapia con robots, el
16:04
Dr Darcy believes that in the modern
501
964160
1920
Dr. Darcy cree que en el
16:06
world people need to self-reflect more –
502
966080
2720
mundo moderno las personas necesitan reflexionar más
16:08
which means thinking deeply about
503
968800
1760
sobre sí mismas, lo que significa pensar profundamente en
16:10
yourself, in order to understand the
504
970560
1840
sí mismas para comprender las
16:12
reasons behind your feelings.
505
972400
1920
razones detrás de sus sentimientos.
16:14
The world that we live in right now
506
974320
1280
El mundo en el que vivimos ahora mismo
16:15
is very noisy. Particularly digitally. You
507
975600
2960
es muy ruidoso. Particularmente digitalmente. Ya
16:18
know, since we've had these little
508
978560
2080
sabes, dado que hemos tenido estas pequeñas
16:20
computers in our pockets with us
509
980640
1840
computadoras en nuestros bolsillos con nosotros
16:22
everywhere we go, there aren't that
510
982480
1840
dondequiera que vayamos, no hay
16:24
many opportunities for real silence
511
984320
2400
muchas oportunidades para el silencio real
16:26
or self-reflection. You know, even a
512
986720
2080
o la autorreflexión. Ya sabes, incluso un
16:28
commute on the tube might have
513
988800
1360
viaje en el metro podría haber
16:30
been a moment to just take a second
514
990160
2640
sido un momento para tomarte un segundo
16:32
to yourself, but now that void can be
515
992800
2240
, pero ahora ese vacío se puede
16:35
filled always with super-engaging
516
995040
2160
llenar siempre con contenido súper atractivo
16:37
content by looking at your phone.
517
997200
2240
al mirar tu teléfono.
16:39
Darcy believes that we don't have
518
999440
1760
Darcy cree que no tenemos
16:41
much time for self-reflection because
519
1001200
2080
mucho tiempo para la autorreflexión porque
16:43
there are so many distractions in
520
1003280
1680
hay muchas distracciones en
16:44
life – especially smartphones!
521
1004960
2560
la vida, ¡especialmente los teléfonos inteligentes!
16:47
After discussing all this – would
522
1007520
1440
Después de discutir todo esto, ¿
16:48
you actually try a therapy app
523
1008960
1920
realmente probarías una aplicación de terapia
16:50
like this?
524
1010880
960
como esta?
16:51
Yes I would, actually – I think it
525
1011840
1280
Sí, lo haría, en realidad, creo que
16:53
might be quite helpful.
526
1013120
1360
podría ser bastante útil.
16:54
And how about the question
527
1014480
960
Y qué hay de la pregunta que
16:55
you asked me at the beginning
528
1015440
880
me hiciste al comienzo
16:56
of the programme: how many
529
1016320
1440
del programa: ¿cuántas
16:57
people experience mental
530
1017760
1680
personas experimentan
16:59
health issues?
531
1019440
1040
problemas de salud mental?
17:00
The answer was: one in four,
532
1020480
2240
La respuesta fue: uno de cada cuatro,
17:02
according the World Health
533
1022720
1520
según la Organización Mundial de la Salud
17:04
Organisation and the World
534
1024240
1680
y la
17:05
Federation for Mental Health.
535
1025920
2000
Federación Mundial de Salud Mental.
17:07
But the WHO say that as many
536
1027920
2400
Pero la OMS dice que hasta
17:10
as two-thirds of people never seek
537
1030320
2320
dos tercios de las personas nunca buscan
17:12
help from a health professional –
538
1032640
1760
ayuda de un profesional de la salud,
17:14
with stigma being one of the
539
1034400
1920
siendo el estigma una de las
17:16
main reasons.
540
1036320
1280
principales razones.
17:17
And just there we had stigma
541
1037600
1920
Y ahí mismo volvimos a tener el estigma
17:19
again; let's now run through the
542
1039520
1680
; repasemos ahora las
17:21
other words we learned today.
543
1041200
1520
otras palabras que aprendimos hoy.
17:22
So we had 'woe' - meaning 'sadness'.
544
1042720
3120
Así que teníamos 'ay', que significa 'tristeza'.
17:25
I'm full of woe. Woe is me!
545
1045840
3440
Estoy lleno de aflicción. ¡Ay de mí!
17:29
Maybe you need some therapy –
546
1049280
1600
Tal vez necesite alguna terapia;
17:30
that's the process of receiving
547
1050880
1520
ese es el proceso de recibir
17:32
treatment for a particular health
548
1052400
1760
tratamiento para un problema de salud en particular
17:34
issue, especially mental
549
1054160
1440
, especialmente una
17:35
health illness.
550
1055600
880
enfermedad de salud mental.
17:36
And we had – to check in
551
1056480
1600
Y teníamos que consultar
17:38
with someone. After we finish
552
1058080
1840
con alguien. Después de que terminemos
17:39
this programme, I need to check
553
1059920
1680
este programa, necesito
17:41
in with the boss about my
554
1061600
1440
hablar con el jefe sobre mi
17:43
new project.
555
1063040
880
17:43
We also had self-reflection – that's
556
1063920
2160
nuevo proyecto.
También tuvimos autorreflexión: ese es
17:46
the process of thinking deeply
557
1066080
1520
el proceso de pensar profundamente
17:47
about yourself.
558
1067600
1600
en uno mismo.
17:49
And finally, we had 'ethical'. If you
559
1069200
2880
Y finalmente, teníamos 'ético'. Si
17:52
describe something as ethical, you
560
1072080
2080
describe algo como ético, quiere
17:54
mean it's morally right.
561
1074160
1840
decir que es moralmente correcto.
17:56
So woe, stigma, therapy, check
562
1076000
3040
Entonces, ay, estigma, terapia,
17:59
in with, self-reflection and ethical.
563
1079040
2960
control, autorreflexión y ética.
18:02
That's it for this edition of
564
1082000
1120
Eso es todo por esta edición de
18:03
6 Minute English. We'll leave you to
565
1083120
2000
6 Minute English. Lo dejaremos para que
18:05
self-reflect – and after you've done
566
1085120
1760
reflexione sobre sí mismo y, una vez que lo haya hecho
18:06
that, do visit our Facebook, Twitter,
567
1086880
2160
, visite nuestras páginas de Facebook, Twitter,
18:09
Instagram and YouTube pages, and
568
1089040
2080
Instagram y YouTube y,
18:11
of course our website!
569
1091120
1120
por supuesto, ¡nuestro sitio web!
18:12
Bye for now.
570
1092240
800
Adiós por ahora. ¡
18:13
Bye bye!
571
1093040
800
Adiós!
18:19
Hello. Welcome to 6 Minute
572
1099440
1680
Hola. Bienvenido a 6 minutos de
18:21
English. I'm Rob.
573
1101120
1040
inglés. soy roberto
18:22
And I'm Neil.
574
1102160
1166
Y yo soy Neil.
18:23
Now, Neil, can you remember the first time
575
1103326
2274
Ahora, Neil, ¿puedes recordar la primera vez que
18:25
you ever used the World Wide Web
576
1105600
2400
usaste la World Wide Web
18:28
or as we often call it, the internet, and
577
1108000
2480
o, como solemos llamarla, Internet, y para
18:30
what you used it for?
578
1110480
1280
qué la usaste?
18:31
Oh, that's a good question. I do
579
1111760
2000
Oh, esa es una buena pregunta. Me
18:33
remember. And... well, nothing really
580
1113760
3360
acuerdo. Y... bueno, nada
18:37
changes does it? Because I looked up
581
1117120
1920
cambia realmente, ¿verdad? ¡Porque busqué
18:39
pictures of cats!
582
1119040
1422
fotos de gatos!
18:40
Cats! Very useful, anyway do you
583
1120462
3298
gatos! Muy útil, de todos modos, ¿
18:43
think the internet has generally
584
1123760
1200
piensas que internet en general ha
18:44
been positive or negative for
585
1124960
1760
sido positivo o negativo para
18:46
the world?
586
1126720
800
el mundo? ¡
18:47
Wow! Now, that's a big question. A huge
587
1127520
3200
Guau! Ahora, esa es una gran pregunta. Una gran
18:50
question. I don't know if I can
588
1130720
1789
pregunta. No sé si puedo
18:52
answer that.
589
1132509
560
responder eso.
18:53
Well, one person who perhaps
590
1133069
2211
Bueno, una persona que quizás
18:55
can answer it, is the man who
591
1135280
1760
pueda responderla es el hombre que
18:57
invented it: British computer scientist
592
1137040
2560
la inventó: el informático británico
18:59
Tim Berners-Lee. We'll find out what
593
1139600
2240
Tim Berners-Lee. Descubriremos qué
19:01
he thinks has become of his 'child'
594
1141840
1840
cree que ha sido de su 'niño'
19:03
shortly but before that, a question
595
1143680
2240
en breve, pero antes de eso, una pregunta
19:05
for you all. When did Berners-Lee
596
1145920
2320
para todos ustedes. ¿Cuándo sugirió Berners-Lee
19:08
first suggest the idea for what
597
1148240
1760
por primera vez la idea de lo que
19:10
would become the World Wide Web?
598
1150000
2560
se convertiría en la World Wide Web? ¿
19:12
Was it in...
599
1152560
560
Fue en...
19:13
a) 1985,
600
1153120
1680
a) 1985,
19:14
b) 1989,
601
1154800
1494
b) 1989,
19:16
or, c) 1991?
602
1156294
2585
o, c) 1991?
19:18
Tricky, but I think it's earlier than
603
1158879
4081
Difícil, pero creo que es antes de lo que
19:22
people think so I'm going to go
604
1162960
2240
la gente piensa, así que voy a ir
19:25
for 1985.
605
1165200
2160
por 1985.
19:27
Well, that was a long time ago but
606
1167360
1520
Bueno, eso fue hace mucho tiempo, pero
19:28
we'll reveal the answer a little later
607
1168880
1840
revelaremos la respuesta un poco más adelante
19:30
in the programme. I think it's true to
608
1170720
2320
en el programa. Creo que es cierto
19:33
say that the internet has been one of,
609
1173040
2240
decir que Internet ha sido uno de los
19:35
if not the most important
610
1175280
1520
19:36
technological developments perhaps
611
1176800
2080
desarrollos tecnológicos más importantes
19:38
of all time. Would you agree, Neil?
612
1178880
1840
de todos los tiempos, si no el más importante. ¿Estás de acuerdo, Neil?
19:40
Well, it's hard to imagine living
613
1180720
1520
Bueno, es difícil imaginar vivir
19:42
without it. Not impossible, but not
614
1182240
2560
sin él. No es imposible, pero no
19:44
nearly as convenient.
615
1184800
1520
tan conveniente. En
19:46
These days we take the internet
616
1186320
1680
estos días damos
19:48
for granted. We share our lives on
617
1188000
2000
por sentado Internet. Compartimos nuestras vidas en las
19:50
social media and not just with
618
1190000
1920
redes sociales y no solo con
19:51
friends and family. And that isn't
619
1191920
2080
amigos y familiares. Y eso no
19:54
always a positive thing, according
620
1194000
2080
siempre es algo positivo, según
19:56
to the father of the internet,
621
1196080
1680
el padre de Internet,
19:57
Tim Berners-Lee. In a recent
622
1197760
2080
Tim Berners-Lee. En un
19:59
BBC Tech Tent programme, he
623
1199840
2240
programa reciente de BBC Tech Tent,
20:02
talked about his concerns with
624
1202080
1440
habló sobre sus preocupaciones con
20:03
the internet and particularly the
625
1203520
1840
Internet y, en particular, con las
20:05
companies that control its information.
626
1205360
2480
empresas que controlan su información.
20:07
Companies which he calls
627
1207840
1760
Empresas a las que llama
20:09
'internet giants'. What does he say
628
1209600
2240
'gigantes de Internet'. ¿Qué dice que
20:11
he thought these companies
629
1211840
1280
pensó que estas empresas
20:13
had to do?
630
1213120
1280
tenían que hacer?
20:14
Initially, I felt the main thing an
631
1214400
2720
Inicialmente, sentí que lo principal que
20:17
internet giant had to do was
632
1217120
1520
tenía que hacer un gigante de Internet era
20:18
just to be neutral, just be a platform
633
1218640
2320
ser neutral, ser solo una plataforma
20:20
and humanity, once connected by
634
1220960
1920
y la humanidad, una vez conectada por la
20:22
technology, will do wonderful
635
1222880
1200
tecnología, hará
20:24
things. And, clearly, it doesn't
636
1224080
2400
cosas maravillosas. Y, claramente, no
20:26
work like that. If you connect
637
1226480
1520
funciona así. Si conectas a
20:28
humanity via Wikipedia then
638
1228000
3040
la humanidad a través de Wikipedia, entonces
20:31
they do produce, in general,
639
1231040
1360
producen, en general,
20:32
wonderful things. If you connect
640
1232400
1920
cosas maravillosas. Si conecta a
20:34
people by social network where
641
1234320
3040
las personas por una red social donde
20:37
they have anonymity, then it can
642
1237360
1840
tienen anonimato, entonces puede
20:39
bring out the very nastiest of people.
643
1239200
1840
sacar a la luz a las personas más desagradables.
20:41
So, what did he say he thought these
644
1241040
1680
Entonces, ¿qué dijo que pensaba que
20:42
internet giants had to do?
645
1242720
1840
tenían que hacer estos gigantes de Internet?
20:44
He said that he thought initially, that
646
1244560
2080
Dijo que inicialmente pensó que
20:46
they just had to be neutral. 'Initially'
647
1246640
2560
solo tenían que ser neutrales. 'Inicialmente'
20:49
means 'at first', 'in the beginning' and
648
1249200
2400
significa 'al principio', 'en el principio' y
20:51
it also suggests that later he
649
1251600
1840
también sugiere que más tarde
20:53
changed his mind. Anyway, he said
650
1253440
2800
cambió de opinión. De todos modos, dijo
20:56
that he thought they just had to
651
1256240
1440
que pensaba que solo tenían que
20:57
be neutral. 'Neutral' here means
652
1257680
2160
ser neutrales. 'Neutral' aquí significa
20:59
that they didn't need to do anything,
653
1259840
1600
que no necesitaban hacer nada,
21:01
they didn't need to control the
654
1261440
1200
no necesitaban controlar
21:02
internet or information. He thought
655
1262640
1920
Internet o la información. Pensó que
21:04
it would be a tool to connect
656
1264560
1440
sería una herramienta para conectar
21:06
people and ideas and information
657
1266000
1840
personas, ideas e información,
21:07
and it would be wonderful.
658
1267840
1486
y sería maravilloso.
21:09
But it's not all good, is it?
659
1269326
1874
Pero no todo es bueno, ¿verdad?
21:11
No. He does say that giving
660
1271200
1840
No. Sí dice que dar
21:13
people access to sources of
661
1273040
1440
acceso a las personas a las fuentes de
21:14
information is generally a good
662
1274480
1680
información generalmente es
21:16
thing but that when it comes to
663
1276160
1680
algo bueno, pero que cuando se trata de
21:17
social networks, social media,
664
1277840
2160
redes sociales, las
21:20
people have anonymity.
665
1280000
2000
personas tienen anonimato. ¿
21:22
Anonymity?
666
1282000
960
21:22
Yes. It means that on the internet
667
1282960
2000
Anonimato?
Sí. Significa que en Internet las
21:24
people can hide their true identity
668
1284960
2000
personas pueden ocultar su verdadera identidad
21:26
or personality. Some people write
669
1286960
2320
o personalidad. Algunas personas escriben
21:29
things that they would never say to
670
1289280
1520
cosas que nunca le dirían a
21:30
someone in person because they
671
1290800
1520
alguien en persona porque
21:32
think there will be no consequences.
672
1292320
2119
creen que no habrá consecuencias.
21:34
Berners-Lee says anonymity can
673
1294439
2121
Berners-Lee dice que el anonimato puede
21:36
bring out the nastiest side of people.
674
1296560
2640
sacar el lado más desagradable de las personas.
21:39
People saying horrible and terrible
675
1299200
1760
La gente se dice cosas horribles y terribles
21:40
things to each other.
676
1300960
1200
.
21:42
Berners-Lee does have some
677
1302160
1600
Berners-Lee tiene algunas
21:43
suggestions for how this could
678
1303760
1600
sugerencias sobre cómo se podría
21:45
be changed. And it's based on the
679
1305360
1920
cambiar esto. Y se basa en la
21:47
idea of likes and shares, which he
680
1307280
2480
idea de me gusta y compartir, lo que él
21:49
calls kudos. What's his suggestion?
681
1309760
2880
llama felicitaciones. ¿Cuál es su sugerencia?
21:52
The different social networks and
682
1312640
1040
Las diferentes redes sociales y las
21:53
different platforms are in different
683
1313680
1840
diferentes plataformas están en
21:55
situations and, in some cases, they
684
1315520
2320
situaciones diferentes y, en algunos casos,
21:57
have acknowledged there is an issue.
685
1317840
2080
han reconocido que hay un problema.
21:59
I think they realise that the issue
686
1319920
2400
Creo que se dan cuenta de que el problema
22:02
could be hugely ameliorated by
687
1322320
2320
podría mejorarse enormemente
22:04
tweaking the way the thing works
688
1324640
2080
ajustando la forma en que funciona
22:06
by changing the way retweets are
689
1326720
2400
cambiando la forma en que se
22:09
propagated or changing the way
690
1329120
2400
propagan los retweets o cambiando la forma en que
22:11
people get kudos - give them more
691
1331520
2000
las personas obtienen felicitaciones, por ejemplo, darles más
22:13
kudos for being constructive,
692
1333520
1680
felicitaciones por ser constructivas
22:15
for example.
693
1335200
800
.
22:16
So, how does he think companies
694
1336000
1600
Entonces, ¿cómo cree que las empresas
22:17
could address the problem?
695
1337600
1600
podrían abordar el problema?
22:19
Well, he says that some of the
696
1339200
1440
Pues dice que algunas de las
22:20
social networks have agreed
697
1340640
1280
redes sociales han coincidido en
22:21
that there is a problem and they
698
1341920
1600
que hay un problema y
22:23
know what could improve it.
699
1343520
1760
saben qué podría mejorarlo. Sin embargo,
22:25
He didn't use the word 'improve'
700
1345280
1520
no usó la palabra 'mejorar'
22:26
though, did he?
701
1346800
960
, ¿verdad?
22:27
No, he actually used the rather
702
1347760
1840
No, en realidad usó el
22:29
formal verb 'ameliorate', which
703
1349600
2000
verbo bastante formal 'mejorar', que
22:31
means 'to improve or make
704
1351600
1280
significa 'mejorar o hacer
22:32
something better'.
705
1352880
1280
algo mejor'.
22:34
So, how does he suggest the
706
1354160
1360
Entonces, ¿cómo sugiere que se
22:35
problem could be ameliorated?
707
1355520
2240
podría mejorar el problema?
22:37
By tweaking the way in which
708
1357760
1520
Ajustando la forma en que las
22:39
people give or receive kudos.
709
1359280
2320
personas dan o reciben felicitaciones.
22:41
'Tweaking' means 'making a small
710
1361600
1760
'Tweaking' significa 'hacer un pequeño
22:43
change to the way something
711
1363360
1200
cambio en la forma en que
22:44
works'. Much of what happens on
712
1364560
1920
funciona algo'. Gran parte de lo que sucede en
22:46
the internet is driven by our desire
713
1366480
2000
Internet está impulsado por nuestro deseo
22:48
to get likes and shares – this is
714
1368480
2240
de obtener Me gusta y compartir: este es
22:50
the kudos that Berners-Lee talks
715
1370720
1920
el elogio del que habla Berners-Lee
22:52
about. He feels that tweaking this
716
1372640
2160
. Él siente que ajustar esto
22:54
could lead to a better experience.
717
1374800
2080
podría conducir a una mejor experiencia.
22:56
For example, getting more kudos
718
1376880
1760
Por ejemplo, obtener más elogios
22:58
for constructive or positive actions.
719
1378640
1920
por acciones constructivas o positivas.
23:00
Mmm, interesting – but I wonder
720
1380560
2480
Mmm, interesante, pero me pregunto
23:03
who would decide if something
721
1383040
1280
quién decidiría si algo
23:04
is constructive?
722
1384320
1280
es constructivo.
23:05
Well, that's another big question
723
1385600
1840
Bueno, esa es otra gran pregunta
23:07
for another day, I guess.
724
1387440
1520
para otro día, supongo. Sin
23:08
For now though, let's have the
725
1388960
1440
embargo, por ahora, tengamos la
23:10
answer to our small question. In
726
1390400
2080
respuesta a nuestra pequeña pregunta. ¿En
23:12
what year did Berners-Lee present
727
1392480
1840
qué año presentó Berners-Lee
23:14
the idea for what would become the
728
1394320
2240
la idea de lo que se convertiría en la
23:16
World Wide Web? The options were
729
1396560
2560
World Wide Web? Las opciones eran
23:19
a) 1985, b)1989, or c) 1991.
730
1399120
4960
a) 1985, b) 1989 o c) 1991.
23:24
It was, in fact, 1989.
731
1404080
2713
De hecho, era 1989.
23:26
Now, before we go,
732
1406793
1207
Ahora, antes de irnos,
23:28
let's have a quick recap of
733
1408000
1766
hagamos un resumen rápido del
23:29
today's vocabulary.
734
1409766
1354
vocabulario de hoy.
23:31
'Initially' – means 'at first - in
735
1411120
2240
'Inicialmente' - significa 'al principio - en
23:33
the beginning'. Then we
736
1413360
1307
el principio'. Luego
23:34
had 'neutral'.
737
1414667
1514
tuvimos 'neutral'.
23:36
In this case, it meant 'not controlling'
738
1416181
2219
En este caso, significaba 'no controlar'
23:38
or 'not taking any action to control'.
739
1418400
2880
o 'no realizar ninguna acción para controlar'.
23:41
Then, there was the noun 'anonymity'
740
1421280
2320
Luego, estaba el sustantivo 'anonimato',
23:43
which is the state of having a
741
1423600
1520
que es el estado de tener una
23:45
hidden identity or personality.
742
1425120
2160
identidad o personalidad oculta.
23:47
Next, to 'ameliorate' a situation is
743
1427280
2640
Luego, 'mejorar' una situación es
23:49
to make it better.
744
1429920
1200
hacerla mejor.
23:51
To 'tweak' something is to 'make
745
1431120
1680
'Modificar' algo es 'hacer
23:52
a small change to the way
746
1432800
1680
un pequeño cambio en la forma en que
23:54
something works'.
747
1434480
1120
algo funciona'.
23:55
And then we had, of course, 'kudos'.
748
1435600
1680
Y luego tuvimos, por supuesto, 'felicitaciones'.
23:57
'Kudos' is praise and appreciation
749
1437280
1920
'Felicitaciones' es elogio y aprecio
23:59
for something you've done.
750
1439200
1120
por algo que has hecho.
24:00
Well, kudos to you, Rob, for
751
1440320
1520
Bueno, felicitaciones a ti, Rob, por el
24:01
today's programme.
752
1441840
800
programa de hoy.
24:02
Thank you very much.
753
1442640
1040
Muchas gracias.
24:03
Well, thank you, Neil, and
754
1443680
1200
Bueno, gracias, Neil, y
24:04
thank you everyone for listening.
755
1444880
1280
gracias a todos por escuchar.
24:06
That's all we have today, but you
756
1446160
2400
Eso es todo lo que tenemos hoy, pero
24:08
can, find us on Facebook, Twitter,
757
1448560
1680
puede encontrarnos en Facebook, Twitter,
24:10
Instagram and YouTube and, of
758
1450240
1440
Instagram y YouTube y, por
24:11
course, our website
759
1451680
1280
supuesto, ¡nuestro sitio web
24:12
bbclearningenglish.com!
760
1452960
2400
bbclearningenglish.com!
24:15
Bye for now.
761
1455360
720
Adiós por ahora.
24:16
Thanks for joining us
762
1456080
800
24:16
and goodbye.
763
1456880
960
Gracias por acompañarnos
y adiós.
24:23
Hello. This is 6 Minute English
764
1463440
2160
Hola. Esto es 6 Minute English
24:25
and I'm Rob.
765
1465600
800
y soy Rob.
24:26
And I'm Neil.
766
1466400
1040
Y yo soy Neil.
24:27
Today we’re talking about buttons.
767
1467440
2720
Hoy hablamos de botones.
24:30
Yes, buttons. Buttons are what
768
1470160
2320
Sí, botones. Los botones son lo que
24:32
we have on our clothes to fasten
769
1472480
1680
tenemos en nuestra ropa para
24:34
them but the word is also used
770
1474160
1840
abrocharlos, pero la palabra también se usa
24:36
for things that we push to make
771
1476000
1760
para las cosas que presionamos para que
24:37
things happen.
772
1477760
960
las cosas sucedan.
24:38
Things like your bedside alarm,
773
1478720
2160
Cosas como la alarma de la mesita de noche, la
24:40
radio, toaster, kettle. We press
774
1480880
2560
radio, la tostadora, la tetera. Presionamos
24:43
hundreds of buttons every week
775
1483440
1680
cientos de botones cada semana
24:45
without thinking about it. Not everyone
776
1485120
2400
sin pensar en ello. Sin embargo, no a todo el mundo le
24:47
likes buttons though, particularly
777
1487520
2080
gustan los botones, especialmente
24:49
the ones we have on our clothes.
778
1489600
2480
los que tenemos en la ropa.
24:52
It’s a recognised phobia.
779
1492080
1760
Es una fobia reconocida. ¿
24:53
What is this fear called? Is it:
780
1493840
2640
Cómo se llama este miedo? ¿Es:
24:56
A: buttonophobia,
781
1496480
2278
A: botonofobia,
24:58
B: koumpounophobia,
782
1498758
3036
B: koumpounofobia,
25:01
or, C: coulrophobia?
783
1501794
2366
o C: coulrofobia? ¿
25:04
Any ideas Neil?
784
1504160
1280
Alguna idea Neil?
25:05
Er – I think I’ve got a fear of
785
1505440
1440
Er – ¡Creo que tengo miedo de
25:06
pronouncing these words!
786
1506880
1622
pronunciar estas palabras!
25:08
I've got no idea what the answer is, I
787
1508502
2378
No tengo idea de cuál es la respuesta,
25:10
think buttonophobia is much
788
1510880
1520
creo que la botofobia es
25:12
too obvious – so it’s one of the
789
1512400
1760
demasiado obvia, así que es una de las
25:14
others – or is it? It’s a hard one.
790
1514160
3093
otras, ¿o no? Es difícil.
25:17
Well, I'll have the answer later in
791
1517253
2027
Bueno, tendré la respuesta más adelante en
25:19
the programme. Thinking Allowed
792
1519280
2320
el programa. Thinking Allowed
25:21
is a BBC Radio 4 programme
793
1521600
1680
es un programa de BBC Radio 4
25:23
which covers a range of interesting
794
1523280
1760
que cubre una variedad de
25:25
topics. Recently, they featured a
795
1525040
2080
temas interesantes. Recientemente, presentaron una
25:27
discussion about buttons and
796
1527120
1840
discusión sobre los botones y
25:28
how important they are to
797
1528960
1280
lo importantes que son para la
25:30
everyday life. Steven Connor,
798
1530240
2320
vida cotidiana. Steven Connor,
25:32
Professor of English at the
799
1532560
1440
profesor de inglés en la
25:34
University of Cambridge, was on
800
1534000
1600
Universidad de Cambridge, estuvo en
25:35
the programme and he talked
801
1535600
1440
el programa y habló
25:37
about appeal of buttons. What does
802
1537040
2960
sobre el atractivo de los botones. ¿Qué
25:40
say about children and buttons?
803
1540000
2160
dice sobre los niños y los botones?
25:42
We do love buttons and I think the
804
1542160
2080
Nos encantan los botones y creo que el
25:44
pleasure and the temptation of
805
1544240
2240
placer y la tentación de los
25:46
buttons… this temptation and
806
1546480
1920
botones… esta tentación y
25:48
everyone feels it, which is why
807
1548400
2320
todos la sienten, por eso los
25:50
buttons have to be very convenient.
808
1550720
1920
botones tienen que ser muy convenientes.
25:52
On the other hand, they have to
809
1552640
1040
Por otro lado, deben
25:53
be kept away from children, so
810
1553680
1280
mantenerse alejados de los niños, por lo que
25:54
they've got to be put high up
811
1554960
1760
deben colocarse en lo alto de
25:56
on the wall, and buttons that
812
1556720
2320
la pared, y los botones que
25:59
really matter have to be made
813
1559040
1600
realmente importan deben ser
26:00
quite hard to push – like put
814
1560640
1520
bastante difíciles de presionar, como colocarlos
26:02
behind glass or something.
815
1562160
1909
detrás de un vidrio o algo así.
26:04
OK. What does he say about
816
1564069
1771
DE ACUERDO. ¿Qué dice sobre los
26:05
children and buttons?
817
1565840
1360
niños y los botones? ¡
26:07
That they have to be kept away
818
1567200
1680
Que hay que mantenerlos alejados
26:08
from them! As I said before, I
819
1568880
2080
de ellos! Como dije antes, me
26:10
loved pressing buttons as a child.
820
1570960
1840
encantaba presionar botones cuando era niño.
26:12
I would press any that I saw, so
821
1572800
1920
Presionaría cualquiera que viera, así que
26:14
important ones did have to be
822
1574720
1760
los importantes tenían que estar
26:16
out of my reach.
823
1576480
960
fuera de mi alcance.
26:17
Yes, he said buttons are a
824
1577440
2240
Sí, dijo que los botones son una
26:19
temptation. A temptation is
825
1579680
2160
tentación. Una tentación es
26:21
something that makes you want
826
1581840
1280
algo que te hace querer
26:23
to do something and it’s often
827
1583120
1840
hacer algo y a menudo se
26:24
used when it’s something you
828
1584960
1120
usa cuando es algo que
26:26
shouldn’t really do. So, buttons
829
1586080
2160
realmente no deberías hacer. Por lo tanto, los botones
26:28
that lead to potentially dangerous
830
1588240
2000
que conducen a consecuencias potencialmente peligrosas
26:30
or serious consequences, like a
831
1590240
2240
o graves, como una
26:32
fire alarm, need to be protected,
832
1592480
2320
alarma contra incendios, deben protegerse,
26:34
maybe behind glass, so temptation
833
1594800
2400
tal vez detrás de un vidrio, para que la tentación
26:37
doesn’t get the better of us.
834
1597200
1600
no nos supere.
26:38
But many buttons have a useful,
835
1598800
1840
Pero muchos botones tienen un
26:40
practical purpose in everyday life,
836
1600640
1840
propósito útil y práctico en la vida cotidiana,
26:42
like calling a lift - so, these buttons
837
1602480
2080
como llamar a un ascensor, por lo que estos botones
26:44
have to be easy to use without
838
1604560
1680
deben ser fáciles de usar sin
26:46
difficulty. The adjective for this
839
1606240
2160
dificultad. El adjetivo para esto
26:48
is 'convenient'. These everyday
840
1608400
2320
es 'conveniente'. Estos
26:50
buttons have to be convenient.
841
1610720
2000
botones cotidianos tienen que ser convenientes.
26:52
Professor Connor goes on to
842
1612720
1600
El profesor Connor continúa
26:54
say a bit more about why
843
1614320
1680
diciendo un poco más sobre por qué los
26:56
buttons are so appealing.
844
1616000
2240
botones son tan atractivos. ¿
26:58
What’s his opinion?
845
1618240
1440
Cuál es su opinión? ¿
26:59
You know what I think? I think
846
1619680
1040
Sabes lo que pienso? Creo que se
27:00
it's down to the fidgeting
847
1620720
2240
debe al
27:02
instinct of very digital or
848
1622960
3280
instinto inquieto de las criaturas muy digitales o
27:06
manual creatures. I think we
849
1626240
1680
manuales. Creo que
27:07
want to fidget with things and
850
1627920
2080
queremos jugar con las cosas y
27:10
adjust them, we want to make
851
1630000
1280
ajustarlas, queremos
27:11
them slightly better… I guess it's
852
1631280
2320
mejorarlas un poco... Supongo que es
27:13
the grooming instinct in apes.
853
1633600
2000
el instinto de acicalamiento de los simios.
27:15
So then, why can’t we resist buttons?
854
1635600
2320
Entonces, ¿por qué no podemos resistirnos a los botones?
27:17
Because as humans we have a
855
1637920
2240
Porque como humanos tenemos un
27:20
fidgeting instinct. We can’t stay still
856
1640160
2800
instinto inquieto. No podemos quedarnos quietos
27:22
for very long, we need to move
857
1642960
1440
por mucho tiempo, necesitamos
27:24
around a lot because we are
858
1644400
1520
movernos mucho porque somos
27:25
very digital creatures.
859
1645920
1840
criaturas muy digitales.
27:27
The use of digital though, is nothing
860
1647760
1920
Sin embargo, el uso de lo digital no tiene nada
27:29
to do with modern online
861
1649680
1600
que ver con la tecnología moderna en línea
27:31
technology, is it?
862
1651280
1200
, ¿verdad?
27:32
No, a 'digit' is a finger or toe. So, we
863
1652480
2720
No, un 'dígito' es un dedo de la mano o del pie. Entonces,
27:35
are digital creatures – we have
864
1655200
1840
somos criaturas digitales: tenemos
27:37
fingers and we like to use them.
865
1657040
2160
dedos y nos gusta usarlos.
27:39
And one thing other digital
866
1659200
1520
Y una cosa que
27:40
creatures do, creatures like apes,
867
1660720
1840
hacen otras criaturas digitales, criaturas como los simios,
27:42
is grooming. That is they use their
868
1662560
2480
es acicalarse. Es decir, usan sus
27:45
hands to clean the body hair of
869
1665040
2080
manos para limpiar el vello corporal de
27:47
other apes. They look through
870
1667120
1520
otros simios. Miran a través
27:48
the hair for insects and bugs and
871
1668640
1840
del cabello en busca de insectos y bichos,
27:50
pull them out and eat them.
872
1670480
1680
los sacan y se los comen.
27:52
But we can also use the word
873
1672160
1360
Pero también podemos usar la palabra
27:53
grooming for humans, someone
874
1673520
2160
arreglarse para humanos, alguien
27:55
who is well-groomed for example
875
1675680
1760
que está bien arreglado, por ejemplo,
27:57
is neat and tidy, clean and well
876
1677440
2240
es limpio y ordenado, limpio y bien
27:59
presented. Here’s Professor
877
1679680
1360
presentado. Aquí está el profesor
28:01
Connor again.
878
1681040
880
28:01
You know what I think? I think it's
879
1681920
1440
Connor de nuevo. ¿
Sabes lo que pienso? Creo que se
28:03
down to the fidgeting instinct of
880
1683360
3040
debe al instinto inquieto de las
28:06
very digital or manual creatures.
881
1686400
3040
criaturas muy digitales o manuales.
28:09
I think we want to fidget with things
882
1689440
2560
Creo que queremos jugar con las cosas
28:12
and adjust them, we want to make
883
1692000
1440
y ajustarlas, queremos
28:13
them slightly better… I guess it's
884
1693440
2400
mejorarlas un poco... Supongo que es
28:15
the grooming instinct in apes.
885
1695840
2240
el instinto de acicalamiento de los simios.
28:18
Before we wrap up, time to get the
886
1698080
1920
Antes de terminar, es hora de obtener la
28:20
answer to this week’s question.
887
1700000
2160
respuesta a la pregunta de esta semana.
28:22
Some people have a fear of
888
1702160
1360
Algunas personas tienen miedo a los
28:23
buttons, it’s a recognised phobia, but
889
1703520
2560
botones, es una fobia reconocida, pero ¿
28:26
what’s it called? Is it
890
1706080
1920
cómo se llama? ¿Es
28:28
A: buttonophobia
891
1708000
2000
A: buttonophobia
28:30
B: koumpounophobia, or
892
1710000
2400
B: koumpounophobia, o
28:32
C: coulrophobia?
893
1712400
1680
C: coulrophobia?
28:34
And, Neil, you said?
894
1714080
1399
Y, Neil, ¿dijiste?
28:35
Well, I didn’t, but I don’t think it
895
1715479
2041
Bueno, no lo hice, pero no creo que
28:37
can be ‘buttonophobia’, that would be
896
1717520
1840
pueda ser 'botonofobia', eso sería
28:39
too easy. And I think coulrophobia
897
1719360
2960
demasiado fácil. Y creo que la coulrofobia
28:42
is a fear of clowns, so I’m going
898
1722320
4000
es el miedo a los payasos, así que voy
28:46
for the other one -
899
1726320
2800
por el otro: la
28:49
koumpounophobia.
900
1729120
1600
koumpounofobia.
28:50
That it right. Buttonophobia is a
901
1730720
2320
Eso es correcto. Buttonophobia es una
28:53
made up word, and as you said,
902
1733040
1920
palabra inventada, y como dijiste,
28:54
coulrophobia is a fear of clowns.
903
1734960
2800
coulrophobia es un miedo a los payasos.
28:57
Right, now let’s review
904
1737760
1280
Bien, ahora repasemos el
28:59
today’s vocabulary.
905
1739040
1120
vocabulario de hoy.
29:00
We’ve been talking about buttons.
906
1740160
1920
Hemos estado hablando de botones.
29:02
These can be small round things
907
1742080
1520
Estas pueden ser pequeñas cosas redondas que
29:03
we use to fasten our clothes, or
908
1743600
2000
usamos para abrocharnos la ropa, o
29:05
the things that we push to make
909
1745600
1840
las cosas que empujamos para que
29:07
something happen.
910
1747440
1120
algo suceda. Los
29:08
Buttons can be a temptation.
911
1748560
2080
botones pueden ser una tentación.
29:10
We see one, we want to push it.
912
1750640
1920
Vemos uno, queremos empujarlo.
29:12
So, a 'temptation' is something
913
1752560
1680
Entonces, una 'tentación' es algo
29:14
that makes us want to do
914
1754240
1120
que nos hace querer hacer
29:15
something we know we shouldn’t.
915
1755360
2000
algo que sabemos que no debemos hacer.
29:17
And then we had the adjective
916
1757360
1840
Y luego teníamos el adjetivo
29:19
'convenient'. Something that is
917
1759200
1440
'conveniente'. Algo que es
29:20
convenient is easy to use without
918
1760640
1920
conveniente es fácil de usar sin
29:22
difficulty. For example, the buttons
919
1762560
2080
dificultad. Por ejemplo, los botones
29:24
to call a lift are at a very convenient
920
1764640
2240
para llamar a un ascensor están a una altura muy conveniente
29:26
height, they can be reached easily.
921
1766880
2480
, se pueden alcanzar fácilmente. El
29:29
Professor Connor went on to talk
922
1769360
1680
profesor Connor pasó a hablar
29:31
about our fidgeting instinct.
923
1771040
2640
sobre nuestro instinto inquieto.
29:33
As humans we love to fidget, we like
924
1773680
2320
Como seres humanos, nos encanta estar inquietos, nos gusta
29:36
to keep moving around, we can’t
925
1776000
1520
seguir moviéndonos, no podemos
29:37
stay still for very long and we love
926
1777520
1840
quedarnos quietos por mucho tiempo y nos encanta
29:39
to do stuff with our hands.
927
1779360
1600
hacer cosas con las manos.
29:40
The professor talked about us being
928
1780960
2000
El profesor habló de que somos
29:42
digital creatures, which means
929
1782960
1520
criaturas digitales, lo que significa
29:44
creatures with fingers – a digit is
930
1784480
2240
criaturas con dedos: un dígito es
29:46
another word for a finger or toe.
931
1786720
2240
otra palabra para un dedo de la mano o del pie.
29:48
And finally, we had grooming.
932
1788960
2240
Y finalmente, tuvimos el aseo.
29:51
This is the habit of making ourselves
933
1791200
1840
Este es el hábito de hacernos
29:53
look nice by cleaning, washing and
934
1793040
2000
lucir bien limpiando, lavando y
29:55
doing our hair. It’s something some
935
1795040
1840
arreglando nuestro cabello. Es algo que algunos
29:56
animals, such as apes, do for
936
1796880
1600
animales, como los simios, hacen unos por
29:58
each other.
937
1798480
960
otros.
29:59
Well, the button here in the studio
938
1799440
1760
Bueno, el botón aquí en el estudio
30:01
is flashing, which tells me it’s time
939
1801200
1680
está parpadeando, lo que me dice que es hora
30:02
to wrap up for today. Do join us
940
1802880
2000
de terminar por hoy. Únase a nosotros la
30:04
next time and if you can’t wait, you
941
1804880
1680
próxima vez y, si no puede esperar,
30:06
can always find us on Instagram,
942
1806560
1840
siempre puede encontrarnos en Instagram,
30:08
Facebook, Twitter, YouTube our app
943
1808400
2400
Facebook, Twitter, YouTube, nuestra aplicación
30:10
and, of course, on our website
944
1810800
1760
y, por supuesto, en nuestro sitio web
30:12
bbclearningenglish.com.
945
1812560
1840
bbclearningenglish.com.
30:14
Bye bye for now.

946
1814400
1120
Adiós por ahora. ¡
30:15
Bye!
947
1815520
937
Adiós!
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7