Are computers always right? 6 Minute English

255,743 views ・ 2018-07-19

BBC Learning English


Haga doble clic en los subtítulos en inglés para reproducir el vídeo. Los subtítulos traducidos se traducen automáticamente.

00:06
Catherine: Hello and welcome to 6 Minute
0
6480
2280
Catherine: Hola y bienvenidos a 6 Minute
00:08
English. I'm Catherine.
1
8760
1420
English. soy catalina
00:10
Rob: And hello, I'm Rob.
2
10180
1400
Rob: Y hola, soy Rob.
00:11
Catherine: Today we have another
3
11580
1389
Catherine: Hoy tenemos otro
00:12
technology topic.
4
12969
761
tema de tecnología.
00:13
Rob: Oh good! I love technology. It makes
5
13730
2470
Rob: ¡Qué bueno! Amo la tecnología. Hace las
00:16
things easier, it's fast and means I can
6
16240
2160
cosas más fáciles, es rápido y significa que puedo
00:18
have gadgets.
7
18400
1400
tener dispositivos.
00:19
Catherine: Do you think that technology
8
19800
1760
Catherine: ¿Crees que la tecnología
00:21
can actually do things better than humans?
9
21560
2200
realmente puede hacer las cosas mejor que los humanos?
00:23
Rob: For some things, yes. I think cars
10
23760
2640
Rob: Para algunas cosas, sí. Creo que los coches
00:26
that drive themselves will be safer than
11
26400
1600
que se conducen solos serán más seguros que los
00:28
humans but that will take away some of
12
28000
3180
humanos, pero eso quitará parte
00:31
the pleasure of driving. So I guess it
13
31180
2180
del placer de conducir. Así que supongo que
00:33
depends on what you mean by better.
14
33360
1940
depende de lo que entiendas por mejor.
00:35
Catherine: Good point, Rob. And that
15
35300
1680
Catherine: Buen punto, Rob. Y eso en
00:36
actually ties in very closely with today's
16
36980
2420
realidad se relaciona muy de cerca con el tema de hoy
00:39
topic which is technochauvinism.
17
39400
3200
que es el tecnochovinismo.
00:42
Rob: What's that?
18
42600
1480
Rob: ¿Qué es eso?
00:44
Catherine: We'll find out shortly, Rob, but
19
44080
1520
Catherine: Lo averiguaremos en breve, Rob, pero
00:45
before we do, today's quiz question.
20
45600
3200
antes, la pregunta del cuestionario de hoy.
00:48
Artificial Intelligence, or A.I., is an area of
21
48800
3260
La inteligencia artificial, o I.A., es un área de la
00:52
computer science that develops the
22
52060
2040
informática que desarrolla la
00:54
ability of computers to learn to do things
23
54100
2540
capacidad de las computadoras para aprender a hacer cosas
00:56
like solve problems or drive cars without
24
56640
2495
como resolver problemas o conducir automóviles sin
00:59
crashing. But in what decade was the
25
59140
2800
chocar. Pero, ¿en qué década se
01:01
term 'Artificial Intelligence'
26
61940
2640
acuñó el término 'Inteligencia Artificial'
01:04
coined? Was it: a) the 1940s, b) the 1950s
27
64589
4901
? ¿Fue: a) la década de 1940, b) la década de 1950
01:09
or c) the 1960s?
28
69490
2070
oc) la década de 1960?
01:11
Rob: I think it's quite a new expression so
29
71560
3000
Rob: Creo que es una expresión bastante nueva, así
01:14
I'll go for c) the 1960s.
30
74560
2380
que optaré por c) la década de 1960.
01:16
Catherine: Good luck with that, Rob, and
31
76940
1420
Catherine: Buena suerte con eso, Rob, y
01:18
we'll give you the answer later in the
32
78360
1300
te daremos la respuesta más adelante en el
01:19
programme. Now, let's get back to our
33
79660
2940
programa. Ahora, volvamos a nuestro
01:22
topic of technochauvinism.
34
82600
2040
tema del tecnochovinismo.
01:24
Rob: I know what a chauvinist is. It's
35
84640
1920
Rob: Sé lo que es un chovinista. Es
01:26
someone who thinks that their country or
36
86580
2380
alguien que piensa que su país o
01:28
race or sex is better than others. But how
37
88960
3140
raza o sexo es mejor que otros. Pero, ¿cómo se
01:32
does this relate to technology?
38
92100
1340
relaciona esto con la tecnología?
01:33
Catherine: We're about to find out.
39
93440
1891
Catherine: Estamos a punto de averiguarlo.
01:35
Meredith Broussard is Professor of
40
95340
1984
Meredith Broussard es profesora de
01:37
Journalism at New York University and
41
97324
2236
periodismo en la Universidad de Nueva York
01:39
she's written a book called
42
99560
1660
y ha escrito un libro llamado
01:41
Artificial Unintelligence. She appeared on
43
101220
3420
Desinteligencia artificial. Apareció en
01:44
the BBC Radio 4 programme More or Less
44
104640
2580
el programa More or Less de BBC Radio 4
01:47
to talk about it. Listen carefully and find
45
107220
2620
para hablar al respecto. Escuche atentamente y
01:49
out her definition of technochauvinism.
46
109840
3320
descubra su definición de tecnochovinismo.
01:53
Meredith Broussard: Technochauvinism is
47
113160
1811
Meredith Broussard: El tecnochauvinismo es
01:54
the idea that technology is always the
48
114980
2540
la idea de que la tecnología es siempre la
01:57
highest and best solution. So somehow
49
117520
3120
mejor y más elevada solución. Así que, de alguna manera,
02:00
over the past couple of decades we got
50
120640
2260
en las últimas dos décadas nos hemos
02:02
into the habit of
51
122900
1360
acostumbrado a
02:04
thinking that doing something with a
52
124270
3410
pensar que hacer algo con una
02:07
computer is always the best and most
53
127680
3480
computadora es siempre la mejor y más
02:11
objective way to do something and
54
131180
2060
objetiva manera de hacer algo y
02:13
that's simply not true.
55
133240
1540
eso simplemente no es cierto.
02:14
Computers are not objective, they are
56
134780
3000
Las computadoras no son objetivas, son
02:17
proxies for the people who make them.
57
137780
2300
representantes de las personas que las fabrican.
02:20
Catherine: What is Meredith Broussard's
58
140080
2200
Catherine: ¿Cuál es la
02:22
definition of technochauvinism?
59
142300
2280
definición de tecnochovinismo de Meredith Broussard?
02:24
Rob: It's this idea that using technology
60
144580
2250
Rob: Es esta idea de que usar la tecnología
02:26
is better than not using technology.
61
146830
2450
es mejor que no usarla.
02:29
Catherine: She says that we have this idea
62
149280
2360
Catherine: Ella dice que tenemos esta idea de
02:31
that a computer is objective. Something
63
151640
2800
que una computadora es objetiva. Algo
02:34
that is objective is neutral, it doesn't have
64
154440
2500
que es objetivo es neutral, no tiene
02:36
an opinion, it's fair and it's unbiased - so
65
156940
3160
una opinión, es justo e imparcial, por
02:40
it's the opposite of being a chauvinist. But
66
160100
3080
lo que es lo opuesto a ser chovinista. Pero
02:43
Meredith Broussard says this is not true.
67
163180
2860
Meredith Broussard dice que esto no es cierto.
02:46
Rob: She argues that computers are not
68
166040
2635
Rob: Ella argumenta que las computadoras no son
02:48
objective. They are proxies for the people
69
168680
2880
objetivas. Son representantes de las personas
02:51
that make them. You might know the
70
171560
1800
que los hacen. Es posible que conozca la
02:53
word proxy when you are using your
71
173360
1735
palabra proxy cuando está usando su
02:55
computer in one country and want to look
72
175095
2235
computadora en un país y quiere
02:57
at something that is only available
73
177330
1871
ver algo que solo está disponible
02:59
in a different country. You can use a piece
74
179201
2298
en un país diferente. Puede usar una pieza
03:01
of software called a proxy to do that.
75
181500
2640
de software llamada proxy para hacer eso.
03:04
Catherine: But a proxy is also a person or
76
184140
2840
Catherine: Pero un apoderado es también una persona o
03:06
a thing that carries out your wishes and
77
186980
2660
una cosa que lleva a cabo tus deseos y
03:09
your instructions for you.
78
189640
2000
tus instrucciones por ti.
03:11
So computers are only as smart or as
79
191640
2860
Entonces, las computadoras son tan inteligentes u
03:14
objective as the people that
80
194500
2560
objetivas como las personas que las
03:17
programme them. Computers are proxies
81
197060
3060
programan. Las computadoras son representantes
03:20
for their programmers. Broussard says
82
200120
2620
de sus programadores. Broussard dice
03:22
that believing too much in Artificial
83
202740
2400
que creer demasiado en la
03:25
Intelligence can make the world worse.
84
205140
2820
Inteligencia Artificial puede empeorar el mundo.
03:27
Let's hear a bit more. This time find out
85
207960
2920
Escuchemos un poco más. Esta vez, averigüe
03:30
what serious problems in society
86
210880
2820
qué problemas graves de la
03:33
does she think may be reflected in AI?
87
213700
3900
sociedad cree que se pueden reflejar en la IA.
03:37
Meredith Broussard: It's a nuanced
88
217600
1400
Meredith Broussard: Es un
03:39
problem. What we have is data on the
89
219000
2700
problema matizado. Lo que tenemos son datos sobre el
03:41
world as it is and we have serious
90
221700
3100
mundo tal como es y tenemos serios
03:44
problems with racism, sexism, classism,
91
224800
2920
problemas con el racismo, el sexismo, el clasismo, la
03:47
ageism, in the world right now so there is
92
227720
2300
discriminación por edad en el mundo en este momento, por
03:50
no such thing as perfect data. We also
93
230020
3760
lo que no existen los datos perfectos. También
03:53
have a problem inside the tech world
94
233780
2379
tenemos un problema dentro del mundo de la tecnología
03:56
where the creators of algorithms do not
95
236160
3080
donde los creadores de algoritmos no
03:59
have sufficient awareness of social
96
239240
3960
tienen suficiente conciencia de los
04:03
issues such that they can make good
97
243200
2680
problemas sociales para que puedan hacer una buena
04:05
technology that gets us closer to a world
98
245880
3800
tecnología que nos acerque a un mundo
04:09
as it should be.
99
249680
1660
como debería ser.
04:11
Rob: She said that society has problems
100
251340
2640
Rob: Dijo que la sociedad tiene problemas
04:13
with racism, sexism, classism and ageism.
101
253984
3296
con el racismo, el sexismo, el clasismo y la discriminación por edad.
04:17
Catherine: And she says it's a nuanced
102
257280
2531
Catherine: Y ella dice que es un
04:19
problem. A nuanced problem is not
103
259820
2231
problema matizado. Un problema matizado no es
04:22
simple, but it does have small and
104
262060
1960
simple, pero tiene áreas pequeñas e
04:24
important areas which may be
105
264020
2200
importantes que pueden ser
04:26
hard to spot, but they need to be considered.
106
266220
3020
difíciles de detectar, pero que deben tenerse en cuenta.
04:29
Rob: And she also talked about
107
269240
1800
Rob: Y también habló sobre los
04:31
algorithms used to program these
108
271053
2220
algoritmos que se utilizan para programar estos
04:33
technological systems.
109
273273
1527
sistemas tecnológicos.
04:34
An algorithm is a set of instructions that
110
274800
2497
Un algoritmo es un conjunto de instrucciones que
04:37
computers use to perform their tasks.
111
277300
2240
utilizan las computadoras para realizar sus tareas.
04:39
Essentially it's the rules that they use
112
279540
1680
Esencialmente son las reglas que usan
04:41
to come up with their answers and
113
281220
2220
para llegar a sus respuestas y
04:43
Broussard believes that technology will
114
283440
2560
Broussard cree que la tecnología
04:46
reflect the views of those who create the algorithms.
115
286000
2680
reflejará las opiniones de quienes crean los algoritmos.
04:48
Catherine: Next time you're using a piece
116
288680
1640
Catherine: La próxima vez que utilice una pieza
04:50
of software or your favourite app, you
117
290320
2120
de software o su aplicación favorita, es
04:52
might find yourself wondering if it's a
118
292440
2040
posible que se pregunte si es una
04:54
useful tool or does it contain these little
119
294480
3020
herramienta útil o si contiene estos pequeños
04:57
nuances that
120
297500
1100
matices que
04:58
reflect the views of the developer.
121
298600
2220
reflejan las opiniones del desarrollador.
05:00
Rob: Right, Catherine. How about the
122
300830
1735
Rob: Correcto, Catalina. Entonces, ¿qué hay de la
05:02
answer to this week's question then?
123
302565
1735
respuesta a la pregunta de esta semana?
05:04
Catherine: I asked in which decade was
124
304300
2160
Catherine: Pregunté en qué década se
05:06
the term 'Artificial Intelligence' coined.
125
306460
2300
acuñó el término 'Inteligencia Artificial'.
05:08
Was it the 40s, the 50s or the 60s?
126
308760
2740
¿Fueron los años 40, 50 o 60?
05:11
Rob: And I said the 60s.
127
311500
1060
Rob: Y dije los años 60.
05:12
Catherine: But it was actually the 1950s.
128
312560
2500
Catherine: Pero en realidad fue en la década de 1950.
05:15
Never mind, Rob. Let's review today's vocabulary.
129
315060
3520
No importa, Rob. Repasemos el vocabulario de hoy.
05:18
Rob: Well, we had a chauvinist - that's
130
318580
2100
Rob: Bueno, teníamos un chauvinista:
05:20
someone who believes their country, race
131
320700
2460
alguien que cree que su país, raza
05:23
or sex is better than any others.
132
323160
2000
o sexo es mejor que cualquier otro.
05:25
Catherine: And this gives us
133
325160
1540
Catherine: Y esto nos da el
05:26
technochauvinism,
134
326700
1380
tecnochauvinismo,
05:28
the belief that a technological solution is
135
328080
2809
la creencia de que una solución tecnológica es
05:30
always a better solution to a problem.
136
330889
2180
siempre una mejor solución a un problema.
05:33
Rob: Next - someone or something that is
137
333069
2776
Rob: A continuación, alguien o algo que es
05:35
objective is neutral, fair and balanced.
138
335845
2775
objetivo es neutral, justo y equilibrado.
05:38
Catherine: A proxy is a piece of software
139
338620
2760
Catherine: Un proxy es una pieza de software
05:41
but also someone who does something
140
341380
1660
pero también alguien que hace algo
05:43
for you, on your behalf.
141
343040
2340
por ti, en tu nombre.
05:45
A nuanced problem is a subtle
142
345380
2220
Un problema matizado es
05:47
one, it's not a simple case of right or
143
347600
3000
sutil, no es un caso simple de correcto o
05:50
wrong, in a nuanced problem there are
144
350600
2740
incorrecto, en un problema matizado hay
05:53
small but important things that you need
145
353340
2140
cosas pequeñas pero importantes que
05:55
to consider.
146
355480
800
debes considerar.
05:56
Rob: And an algorithm is a set of software
147
356280
2560
Rob: Y un algoritmo es un conjunto de instrucciones de software
05:58
instructions for a computer system.
148
358842
2128
para un sistema informático.
06:00
Catherine: Well, that's all we have time for
149
360970
1430
Catherine: Bueno, eso es todo para lo que tenemos tiempo
06:02
today. Goodbye for now.
150
362400
1780
hoy. Adiós por ahora.
06:04
Rob: Bye bye!
151
364180
700
roberto: adiós!
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7