Will robots out-think humans? 6 Minute English

79,217 views ・ 2018-01-25

BBC Learning English


Haga doble clic en los subtítulos en inglés para reproducir el vídeo. Los subtítulos traducidos se traducen automáticamente.

00:07
Dan: Hello and welcome to 6 Minute English.
0
7300
1640
Dan: Hola y bienvenidos a 6 Minute English.
00:08
I'm Dan and joining me today is Neil. Hi Neil.
1
8940
2519
Soy Dan y hoy me acompaña Neil. Hola Neil.
00:11
Neil: Hi Dan. What’s with the protective
2
11459
2321
Neil: Hola Dan. ¿Qué pasa con el
00:13
gear and helmet?
3
13780
929
equipo de protección y el casco?
00:14
Dan: I’m just getting ready for the inevitable
4
14709
2676
Dan: Me estoy preparando para el inevitable
00:17
rise of the machines. That’s the takeover
5
17385
2385
ascenso de las máquinas. Esa es la conquista
00:19
of the world by artificial intelligence, or
6
19770
3486
del mundo por parte de la inteligencia artificial, o
00:23
AI, which some people predict will happen.
7
23256
3404
IA, que algunas personas predicen que sucederá.
00:26
Neil: Inevitable means cannot be avoided or
8
26660
2615
Neil: Los medios inevitables no se pueden evitar ni
00:29
stopped. Rise of the machines? What do you mean?
9
29275
3555
detener. ¿Rebelión de las máquinas? ¿Qué quieres decir?
00:32
Dan: It’s our topic in this 6 Minute English.
10
32830
2138
Dan: Es nuestro tema en este inglés de 6 minutos.
00:34
We’ll be talking about that, giving you
11
34968
1852
Hablaremos de eso, brindándole
00:36
six related pieces of vocabulary and, of course,
12
36820
3055
seis piezas de vocabulario relacionadas y, por supuesto,
00:39
our regular quiz question.
13
39875
1655
nuestra pregunta de prueba habitual.
00:41
Neil: That’s the first thing you’ve said
14
41530
1907
Neil: Eso es lo primero que has dicho
00:43
that makes any sense. What’s the question?
15
43437
2003
que tiene sentido. ¿Cuál es la pregunta?
00:45
Dan: The word ‘robot’ as we use it today
16
45440
3218
Dan: La palabra 'robot', tal como la usamos hoy en día,
00:48
was first used in a 1920’s Czech play ‘Rossum’s
17
48658
3782
se utilizó por primera vez en una obra de teatro checa de 1920, 'Rossum's
00:52
Universal Robots’. But before this, what
18
52440
3356
Universal Robots'. Pero antes de esto, ¿cuál
00:55
was its original meaning? a) forced labour
19
55796
3524
era su significado original? a) trabajo forzado
00:59
b) metal man c) heartless thing
20
59320
3640
b) hombre de metal c) cosa sin corazón
01:02
Neil: I will go for a) forced labour
21
62960
3250
Neil: Iré por a) trabajo forzado
01:06
Dan: We’ll find out if you were right or
22
66210
2335
Dan: Descubriremos si tenías razón o
01:08
not later in the show.
23
68545
1285
no más adelante en el programa.
01:09
Neil: OK Dan. Tell me what’s going on.
24
69830
2310
Neil: Está bien Dan. Dime qué está pasando.
01:12
Dan: I saw a news article written by BBC technology
25
72140
3431
Dan: Vi un artículo de noticias escrito por el corresponsal de tecnología de la BBC,
01:15
correspondent Rory Cellan-Jones about the
26
75571
2759
Rory Cellan-Jones, sobre la
01:18
recent CES technology show in Las Vegas. He
27
78330
3865
reciente feria de tecnología CES en Las Vegas.
01:22
interviewed David Hanson, founder of Hanson
28
82195
3865
Entrevistó a David Hanson, fundador de Hanson
01:26
Robotics, who said it was his ambition to
29
86060
3660
Robotics, quien dijo que su ambición era
01:29
achieve an AI that can beat humans at any
30
89720
3660
lograr una IA que pudiera vencer a los humanos en cualquier
01:33
intellectual task.
31
93380
1500
tarea intelectual.
01:34
Neil: Surely it’s a good thing! Better AI
32
94880
2655
Neil: ¡Seguro que es algo bueno! Una mejor IA
01:37
and robotics could take over many of the jobs
33
97535
2915
y robótica podrían hacerse cargo de muchos de los trabajos
01:40
that we don’t want to do, or that are so
34
100450
2466
que no queremos hacer, o que son tan
01:42
important to get 100% right… like air traffic
35
102916
2774
importantes para hacerlo 100 % bien... como el
01:45
control. We’d never have another plane crash.
36
105690
2566
control del tráfico aéreo. Nunca tendríamos otro accidente de avión.
01:48
It would be infallible because it would be
37
108256
2394
Sería infalible porque sería
01:50
so clever.
38
110650
1190
muy inteligente.
01:51
Dan: Infallible means never failing. And that’s
39
111840
2767
Dan: Infalible significa nunca fallar. Y eso es
01:54
what bothers me. What happens when its intelligence
40
114607
3003
lo que me molesta. ¿Qué sucede cuando su inteligencia
01:57
surpasses ours? Why should it do what
41
117610
2774
supera a la nuestra? ¿Por qué debería hacer lo
02:00
we want it to do?
42
120384
1275
que queremos que haga?
02:01
Neil: To surpass something is to do or be
43
121659
2076
Neil: Superar algo es hacer o ser
02:03
better than it. Dan, you’ve been watching
44
123735
2075
mejor que eso. Dan, has estado viendo
02:05
too many movies. Robots fighting humanity
45
125810
2971
demasiadas películas. Los robots que luchan contra la humanidad
02:08
is a popular theme. Guess what… humanity
46
128781
2899
es un tema popular. Adivina qué... la humanidad a
02:11
often wins. And besides, we would programme
47
131680
2498
menudo gana. Y además, programaríamos
02:14
the computer to be benevolent.
48
134178
1742
la computadora para ser benevolente.
02:15
Dan: Benevolent means kind and helpful. But
49
135920
2805
Dan: Benevolente significa amable y servicial. Pero
02:18
that’s just it, once the intelligence becomes
50
138725
2935
eso es todo, una vez que la inteligencia se vuelve
02:21
sentient, or able to think for itself, who
51
141660
2781
sensible, o capaz de pensar por sí misma, quién
02:24
knows what it will do. We humans are not exactly
52
144441
3179
sabe qué hará. Los humanos no somos exactamente
02:27
perfect, you know. What happens if it decides
53
147620
2602
perfectos, ya sabes. ¿Qué pasa si decide
02:30
that it is better than us and wants us out
54
150222
2428
que es mejor que nosotros y quiere quitarnos
02:32
of the way?
55
152650
1000
de en medio?
02:33
Neil: Don’t worry. Asimov thought of that.
56
153650
2524
neil: no te preocupes Asimov pensó en eso.
02:36
Isaac Asimov was an American science fiction
57
156174
2645
Isaac Asimov fue un escritor estadounidense de ciencia
02:38
writer who, among other things, wrote about
58
158819
2747
ficción que, entre otras cosas, escribió sobre
02:41
robots. He came up with three laws that every
59
161566
2874
robots. Se le ocurrieron tres leyes que todo
02:44
robot would have to follow to stop it from
60
164440
2624
robot tendría que seguir para evitar que
02:47
acting against humanity. So we’re safe!
61
167064
2436
actúe contra la humanidad. ¡Así que estamos a salvo!
02:49
Dan: I’m not so sure. A sentient robot could
62
169500
2933
Dan: No estoy tan seguro. Un robot sensible podría
02:52
make up its own mind about how to interpret
63
172433
2867
decidir por sí mismo cómo interpretar
02:55
the laws. For example, imagine if we created
64
175300
3284
las leyes. Por ejemplo, imagina si creamos
02:58
an AI system to protect all of humanity.
65
178584
2985
un sistema de IA para proteger a toda la humanidad.
03:01
Neil: Well, that’s great! No more war. No
66
181569
2195
Neil: ¡Bueno, eso es genial! No más guerra. No
03:03
more murder. No more fighting.
67
183764
1606
más asesinatos. No más peleas.
03:05
Dan: Do you really think that humans can stop
68
185370
2694
Dan: ¿De verdad crees que los humanos pueden dejar de
03:08
fighting? What if the AI decides that the
69
188064
2455
pelear? ¿Qué pasa si la IA decide que la
03:10
only way to stop us from hurting ourselves
70
190519
3286
única forma de evitar que nos hagamos daño a nosotros mismos
03:13
and each other is to control everything we
71
193805
3285
y a los demás es controlar todo lo que
03:17
do, so it takes over to protect us. Then we
72
197090
3507
hacemos, por lo que toma el control para protegernos? ¡Entonces
03:20
would lose our freedom to a thing that we
73
200597
3343
perderíamos nuestra libertad ante una cosa que
03:23
created that is infallible and more intelligent
74
203940
3377
creamos que es infalible y más inteligente
03:27
than we are! That’s the end, Neil!
75
207317
2443
que nosotros! ¡Ese es el final, Neil!
03:29
Neil: I think that’s a little far-fetched,
76
209760
2216
Neil: Creo que es un poco exagerado, lo
03:31
which means difficult to believe. I’m sure
77
211976
2215
que significa que es difícil de creer. Estoy seguro de que
03:34
others don’t think that way.
78
214191
1539
otros no piensan de esa manera.
03:35
Dan: OK. Let’s hear what the Learning English
79
215730
2523
Dan: está bien. Escuchemos lo
03:38
team say when I ask them if they are worried
80
218253
2467
que dice el equipo de Learning English cuando les pregunto si les preocupa
03:40
that AI and robots could take over the world.
81
220720
3519
que la IA y los robots puedan dominar el mundo.
03:44
Phil: Well, it’s possible, but unlikely.
82
224240
3580
Phil: Bueno, es posible, pero poco probable.
03:47
There will come a point where our technology
83
227820
1880
Llegará un punto en el que nuestra tecnología
03:49
will be limited – probably before real AI
84
229700
3125
será limitada, probablemente antes de que se logre la IA real
03:52
is achieved.
85
232825
1935
.
03:54
Sam: Never in a million years. First of all
86
234760
2360
Sam: Ni en un millón de años. En primer
03:57
we’d programme them so that they couldn’t,
87
237124
3306
lugar, los programaríamos para que no pudieran y, en
04:00
and secondly we’d beat them anyway. Haven’t
88
240430
3632
segundo lugar, los venceríamos de todos modos. ¿
04:04
you ever seen a movie?
89
244062
1858
Nunca has visto una película?
04:05
Kee: I totally think it could happen. We
90
245920
2371
Kee: Creo totalmente que podría suceder.
04:08
only have to make a robot that’s smart enough
91
248291
2668
Solo tenemos que hacer un robot que sea lo suficientemente inteligente como
04:10
to start thinking for itself. After that,
92
250959
2605
para empezar a pensar por sí mismo. Después de eso,
04:13
who knows what it might do.
93
253564
2796
quién sabe lo que podría hacer.
04:16
Neil: A mixed bag of opinions there, Dan.
94
256360
1796
Neil: Hay una mezcla de opiniones, Dan.
04:18
It seems you aren’t alone.
95
258156
1823
Parece que no estás solo.
04:19
Dan: Nope. But I don’t exactly have an army
96
259979
2459
Dan: No. Pero tampoco tengo exactamente un ejército
04:22
of support either. I guess we’ll just have
97
262438
2402
de apoyo. Supongo que tendremos
04:24
to wait and see.
98
264840
1000
que esperar y ver.
04:25
Neil: Speak for yourself. I’ve waited long
99
265840
1949
Neil: Habla por ti mismo. He esperado lo
04:27
enough – for our quiz question that is.
100
267789
1810
suficiente, por nuestra pregunta del cuestionario.
04:29
Dan: Oh yeah! I asked you what the original
101
269599
2496
Dan: ¡Ah, sí! Le pregunté cuál era el
04:32
meaning of the word ‘robot’ was before
102
272095
2205
significado original de la palabra "robot" antes de
04:34
it was used in its modern form. a) forced
103
274300
3633
que se usara en su forma moderna. a)
04:37
labour b) metal man c) heartless thing
104
277933
3367
trabajo forzado b) hombre de metal c) cosa sin corazón
04:41
Neil: And I said a) forced labour
105
281300
1709
Neil: Y dije a) trabajo forzado
04:43
Dan: And you were… right!
106
283009
1971
Dan: Y tenías... ¡cierto!
04:44
Neil: Shall we take a look at the vocabulary then?
107
284980
2580
Neil: ¿Entonces echamos un vistazo al vocabulario?
04:47
Dan: OK. First we had inevitable. If something
108
287569
3450
Dan: está bien. Primero tuvimos inevitable. Si algo
04:51
is inevitable then it cannot be avoided or
109
291019
3150
es inevitable, entonces no se puede evitar ni
04:54
stopped. Can you think of something inevitable, Neil?
110
294169
2571
detener. ¿Puedes pensar en algo inevitable, Neil?
04:56
Neil: It is inevitable that one day the Sun
111
296749
3005
Neil: Es inevitable que un día el
04:59
will stop burning. Then we had infallible,
112
299754
2936
Sol deje de arder. Luego tuvimos infalible, lo
05:02
which means never failing. Give us an example, Dan.
113
302690
3050
que significa nunca fallar. Danos un ejemplo, Dan.
05:05
Dan: The vaccine for small pox is infallible.
114
305740
2332
Dan: La vacuna contra la viruela es infalible.
05:08
The natural spread of that disease has been
115
308072
2228
La propagación natural de esa enfermedad se ha
05:10
completely stopped. After that was surpasses.
116
310300
3470
detenido por completo. Después de eso fue superado.
05:13
If something surpasses something else then
117
313770
3239
Si algo supera a otra cosa, entonces
05:17
it becomes better than it.
118
317009
1711
se vuelve mejor que eso.
05:18
Neil: Many parents across the world hope that
119
318720
2275
Neil: Muchos padres en todo el mundo esperan que
05:20
their children will surpass them in wealth,
120
320995
2174
sus hijos los superen en riqueza,
05:23
status or achievement. After that we heard
121
323169
2662
estatus o logros. Después de eso escuchamos
05:25
benevolent, which means kind and helpful.
122
325831
2599
benévolo, que significa amable y servicial.
05:28
Name a person famous for being benevolent, Dan.
123
328430
3019
Nombra a una persona famosa por ser benevolente, Dan.
05:31
Dan: Father Christmas is a benevolent character.
124
331449
3216
Dan: Papá Noel es un personaje benévolo.
05:34
After that we heard sentient. If something
125
334665
2814
Después de eso escuchamos consciente. Si algo
05:37
is sentient, it is able to think for itself.
126
337479
2720
es sensible, es capaz de pensar por sí mismo.
05:40
Neil: Indeed. Many people wonder about the
127
340200
2340
Neil: Efectivamente. Mucha gente se pregunta acerca de la
05:42
possibility of sentient life on other planets.
128
342620
3060
posibilidad de vida inteligente en otros planetas.
05:45
Finally we heard far-fetched, which means
129
345680
2176
Finalmente escuchamos descabellado, lo que significa
05:47
difficult to believe. Like that far-fetched
130
347856
2283
difícil de creer. Como esa
05:50
story you told me the other day about being
131
350139
1932
historia descabellada que me contaste el otro día sobre llegar
05:52
late because of a dragon, Dan.
132
352071
1348
tarde a causa de un dragón, Dan.
05:53
Dan: I swear it was real! It had big sharp
133
353419
2480
Dan: ¡Juro que fue real! ¡Tenía dientes grandes y
05:55
teeth and everything!
134
355899
1240
afilados y todo!
05:57
Neil: Yeah, yeah, yeah. And that’s the end
135
357139
1938
neil: sí, sí, sí. Y ese es el final
05:59
of this 6 Minute English. Don’t forget to
136
359077
1892
de este inglés de 6 minutos. No
06:00
check out our Facebook, Twitter, and YouTube
137
360969
2171
olvide visitar nuestras páginas de Facebook, Twitter y YouTube
06:03
pages. See you next time!
138
363140
1640
. ¡Hasta la próxima!
06:04
Dan: Bye!
139
364780
640
dan: adios!
06:05
Neil: Bye.
140
365420
860
Neil: Adiós.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7