Are computers always right? 6 Minute English

255,743 views ・ 2018-07-19

BBC Learning English


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo. As legendas traduzidas são traduzidas automaticamente.

00:06
Catherine: Hello and welcome to 6 Minute
0
6480
2280
Catherine: Olá e bem-vindo ao 6 Minute
00:08
English. I'm Catherine.
1
8760
1420
English. Eu sou Catarina.
00:10
Rob: And hello, I'm Rob.
2
10180
1400
Rob: E olá, eu sou Rob.
00:11
Catherine: Today we have another
3
11580
1389
Catherine: Hoje temos outro
00:12
technology topic.
4
12969
761
tópico de tecnologia.
00:13
Rob: Oh good! I love technology. It makes
5
13730
2470
Rob: Que bom! Eu amo tecnologia.
00:16
things easier, it's fast and means I can
6
16240
2160
Facilita as coisas, é rápido e significa que posso
00:18
have gadgets.
7
18400
1400
ter gadgets.
00:19
Catherine: Do you think that technology
8
19800
1760
Catherine: Você acha que a tecnologia
00:21
can actually do things better than humans?
9
21560
2200
pode realmente fazer as coisas melhor do que os humanos?
00:23
Rob: For some things, yes. I think cars
10
23760
2640
Rob: Para algumas coisas, sim. Acho que os carros
00:26
that drive themselves will be safer than
11
26400
1600
que dirigem sozinhos serão mais seguros do que os
00:28
humans but that will take away some of
12
28000
3180
humanos, mas isso tirará um pouco
00:31
the pleasure of driving. So I guess it
13
31180
2180
do prazer de dirigir. Então eu acho que
00:33
depends on what you mean by better.
14
33360
1940
depende do que você quer dizer com melhor.
00:35
Catherine: Good point, Rob. And that
15
35300
1680
Catherine: Bom ponto, Rob. E isso está
00:36
actually ties in very closely with today's
16
36980
2420
intimamente ligado ao tópico de hoje,
00:39
topic which is technochauvinism.
17
39400
3200
que é o tecnochauvinismo.
00:42
Rob: What's that?
18
42600
1480
Rob: O que é isso?
00:44
Catherine: We'll find out shortly, Rob, but
19
44080
1520
Catherine: Descobriremos em breve, Rob, mas
00:45
before we do, today's quiz question.
20
45600
3200
antes, a pergunta do quiz de hoje.
00:48
Artificial Intelligence, or A.I., is an area of
21
48800
3260
Inteligência Artificial, ou IA, é uma área da
00:52
computer science that develops the
22
52060
2040
ciência da computação que desenvolve a
00:54
ability of computers to learn to do things
23
54100
2540
capacidade dos computadores de aprender a fazer coisas
00:56
like solve problems or drive cars without
24
56640
2495
como resolver problemas ou dirigir carros sem
00:59
crashing. But in what decade was the
25
59140
2800
bater. Mas em que década foi cunhado o
01:01
term 'Artificial Intelligence'
26
61940
2640
termo 'Inteligência Artificial'
01:04
coined? Was it: a) the 1940s, b) the 1950s
27
64589
4901
? Foi: a) década de 1940, b) década de 1950
01:09
or c) the 1960s?
28
69490
2070
ou c) década de 1960?
01:11
Rob: I think it's quite a new expression so
29
71560
3000
Rob: Acho que é uma expressão bastante nova, então
01:14
I'll go for c) the 1960s.
30
74560
2380
vou para c) os anos 1960.
01:16
Catherine: Good luck with that, Rob, and
31
76940
1420
Catherine: Boa sorte com isso, Rob, e
01:18
we'll give you the answer later in the
32
78360
1300
daremos a resposta mais adiante no
01:19
programme. Now, let's get back to our
33
79660
2940
programa. Agora, vamos voltar ao nosso
01:22
topic of technochauvinism.
34
82600
2040
tópico de tecnochauvinismo.
01:24
Rob: I know what a chauvinist is. It's
35
84640
1920
Rob: Eu sei o que é um chauvinista. É
01:26
someone who thinks that their country or
36
86580
2380
alguém que pensa que seu país,
01:28
race or sex is better than others. But how
37
88960
3140
raça ou sexo é melhor que os outros. Mas como
01:32
does this relate to technology?
38
92100
1340
isso se relaciona com a tecnologia?
01:33
Catherine: We're about to find out.
39
93440
1891
Catherine: Estamos prestes a descobrir.
01:35
Meredith Broussard is Professor of
40
95340
1984
Meredith Broussard é professora de
01:37
Journalism at New York University and
41
97324
2236
jornalismo na Universidade de Nova York e
01:39
she's written a book called
42
99560
1660
escreveu um livro chamado
01:41
Artificial Unintelligence. She appeared on
43
101220
3420
Artificial Unintelligence. Ela apareceu
01:44
the BBC Radio 4 programme More or Less
44
104640
2580
no programa More or Less da BBC Radio 4
01:47
to talk about it. Listen carefully and find
45
107220
2620
para falar sobre isso. Ouça com atenção e
01:49
out her definition of technochauvinism.
46
109840
3320
descubra sua definição de tecnochauvinismo.
01:53
Meredith Broussard: Technochauvinism is
47
113160
1811
Meredith Broussard: O tecnochauvinismo é
01:54
the idea that technology is always the
48
114980
2540
a ideia de que a tecnologia é sempre a
01:57
highest and best solution. So somehow
49
117520
3120
melhor e mais elevada solução. Então, de alguma forma,
02:00
over the past couple of decades we got
50
120640
2260
nas últimas duas décadas,
02:02
into the habit of
51
122900
1360
adquirimos o hábito de
02:04
thinking that doing something with a
52
124270
3410
pensar que fazer algo com um
02:07
computer is always the best and most
53
127680
3480
computador é sempre a melhor e mais
02:11
objective way to do something and
54
131180
2060
objetiva maneira de fazer algo e
02:13
that's simply not true.
55
133240
1540
isso simplesmente não é verdade.
02:14
Computers are not objective, they are
56
134780
3000
Computadores não são objetivos, eles são
02:17
proxies for the people who make them.
57
137780
2300
proxies para as pessoas que os fazem.
02:20
Catherine: What is Meredith Broussard's
58
140080
2200
Catherine: Qual é a
02:22
definition of technochauvinism?
59
142300
2280
definição de tecnochauvinismo de Meredith Broussard?
02:24
Rob: It's this idea that using technology
60
144580
2250
Rob: É a ideia de que usar tecnologia
02:26
is better than not using technology.
61
146830
2450
é melhor do que não usar tecnologia.
02:29
Catherine: She says that we have this idea
62
149280
2360
Catherine: Ela diz que temos essa ideia de
02:31
that a computer is objective. Something
63
151640
2800
que um computador é objetivo. Algo
02:34
that is objective is neutral, it doesn't have
64
154440
2500
que é objetivo é neutro, não tem
02:36
an opinion, it's fair and it's unbiased - so
65
156940
3160
opinião, é justo e imparcial - então é
02:40
it's the opposite of being a chauvinist. But
66
160100
3080
o oposto de ser machista. Mas
02:43
Meredith Broussard says this is not true.
67
163180
2860
Meredith Broussard diz que isso não é verdade.
02:46
Rob: She argues that computers are not
68
166040
2635
Rob: Ela argumenta que os computadores não são
02:48
objective. They are proxies for the people
69
168680
2880
objetivos. Eles são procuradores para as pessoas
02:51
that make them. You might know the
70
171560
1800
que os fazem. Você pode conhecer a
02:53
word proxy when you are using your
71
173360
1735
palavra proxy quando estiver usando seu
02:55
computer in one country and want to look
72
175095
2235
computador em um país e quiser ver
02:57
at something that is only available
73
177330
1871
algo que está disponível apenas
02:59
in a different country. You can use a piece
74
179201
2298
em um país diferente. Você pode usar um
03:01
of software called a proxy to do that.
75
181500
2640
software chamado proxy para fazer isso.
03:04
Catherine: But a proxy is also a person or
76
184140
2840
Catherine: Mas um procurador também é uma pessoa ou
03:06
a thing that carries out your wishes and
77
186980
2660
coisa que realiza seus desejos e
03:09
your instructions for you.
78
189640
2000
suas instruções para você.
03:11
So computers are only as smart or as
79
191640
2860
Portanto, os computadores são tão inteligentes ou
03:14
objective as the people that
80
194500
2560
objetivos quanto as pessoas que
03:17
programme them. Computers are proxies
81
197060
3060
os programam. Os computadores são proxies
03:20
for their programmers. Broussard says
82
200120
2620
para seus programadores. Broussard diz
03:22
that believing too much in Artificial
83
202740
2400
que acreditar demais na
03:25
Intelligence can make the world worse.
84
205140
2820
Inteligência Artificial pode tornar o mundo pior.
03:27
Let's hear a bit more. This time find out
85
207960
2920
Vamos ouvir um pouco mais. Desta vez, descubra
03:30
what serious problems in society
86
210880
2820
quais problemas sérios na sociedade
03:33
does she think may be reflected in AI?
87
213700
3900
ela acha que podem ser refletidos na IA?
03:37
Meredith Broussard: It's a nuanced
88
217600
1400
Meredith Broussard: É um
03:39
problem. What we have is data on the
89
219000
2700
problema matizado. O que temos são dados sobre o
03:41
world as it is and we have serious
90
221700
3100
mundo como ele é e temos sérios
03:44
problems with racism, sexism, classism,
91
224800
2920
problemas com racismo, sexismo, classismo,
03:47
ageism, in the world right now so there is
92
227720
2300
preconceito de idade, no mundo agora, então
03:50
no such thing as perfect data. We also
93
230020
3760
não existem dados perfeitos. Também
03:53
have a problem inside the tech world
94
233780
2379
temos um problema dentro do mundo da tecnologia,
03:56
where the creators of algorithms do not
95
236160
3080
onde os criadores de algoritmos não
03:59
have sufficient awareness of social
96
239240
3960
têm consciência suficiente das
04:03
issues such that they can make good
97
243200
2680
questões sociais para que possam fazer uma boa
04:05
technology that gets us closer to a world
98
245880
3800
tecnologia que nos aproxime de um mundo
04:09
as it should be.
99
249680
1660
como deveria ser.
04:11
Rob: She said that society has problems
100
251340
2640
Rob: Ela disse que a sociedade tem problemas
04:13
with racism, sexism, classism and ageism.
101
253984
3296
com racismo, sexismo, classismo e preconceito de idade.
04:17
Catherine: And she says it's a nuanced
102
257280
2531
Catherine: E ela diz que é um
04:19
problem. A nuanced problem is not
103
259820
2231
problema sutil. Um problema com nuances não é
04:22
simple, but it does have small and
104
262060
1960
simples, mas tem áreas pequenas e
04:24
important areas which may be
105
264020
2200
importantes que podem ser
04:26
hard to spot, but they need to be considered.
106
266220
3020
difíceis de detectar, mas precisam ser consideradas.
04:29
Rob: And she also talked about
107
269240
1800
Rob: E ela também falou sobre
04:31
algorithms used to program these
108
271053
2220
algoritmos usados ​​para programar esses
04:33
technological systems.
109
273273
1527
sistemas tecnológicos.
04:34
An algorithm is a set of instructions that
110
274800
2497
Um algoritmo é um conjunto de instruções que os
04:37
computers use to perform their tasks.
111
277300
2240
computadores usam para executar suas tarefas.
04:39
Essentially it's the rules that they use
112
279540
1680
Essencialmente, são as regras que eles usam
04:41
to come up with their answers and
113
281220
2220
para chegar a suas respostas e
04:43
Broussard believes that technology will
114
283440
2560
Broussard acredita que a tecnologia
04:46
reflect the views of those who create the algorithms.
115
286000
2680
refletirá as opiniões daqueles que criam os algoritmos.
04:48
Catherine: Next time you're using a piece
116
288680
1640
Catherine: Da próxima vez que você estiver usando um
04:50
of software or your favourite app, you
117
290320
2120
software ou seu aplicativo favorito,
04:52
might find yourself wondering if it's a
118
292440
2040
poderá se perguntar se é uma
04:54
useful tool or does it contain these little
119
294480
3020
ferramenta útil ou se contém essas pequenas
04:57
nuances that
120
297500
1100
nuances que
04:58
reflect the views of the developer.
121
298600
2220
refletem as opiniões do desenvolvedor.
05:00
Rob: Right, Catherine. How about the
122
300830
1735
Rob: Certo, Catherine. Que tal a
05:02
answer to this week's question then?
123
302565
1735
resposta para a pergunta desta semana?
05:04
Catherine: I asked in which decade was
124
304300
2160
Catherine: Eu perguntei em que década foi
05:06
the term 'Artificial Intelligence' coined.
125
306460
2300
cunhado o termo 'Inteligência Artificial'.
05:08
Was it the 40s, the 50s or the 60s?
126
308760
2740
Foi nos anos 40, 50 ou 60?
05:11
Rob: And I said the 60s.
127
311500
1060
Rob: E eu disse os anos 60.
05:12
Catherine: But it was actually the 1950s.
128
312560
2500
Catherine: Mas na verdade foi na década de 1950.
05:15
Never mind, Rob. Let's review today's vocabulary.
129
315060
3520
Não importa, Rob. Vamos rever o vocabulário de hoje.
05:18
Rob: Well, we had a chauvinist - that's
130
318580
2100
Rob: Bem, nós tínhamos um chauvinista -
05:20
someone who believes their country, race
131
320700
2460
alguém que acredita que seu país, raça
05:23
or sex is better than any others.
132
323160
2000
ou sexo é melhor do que qualquer outro.
05:25
Catherine: And this gives us
133
325160
1540
Catherine: E isso nos dá
05:26
technochauvinism,
134
326700
1380
tecnochauvinismo,
05:28
the belief that a technological solution is
135
328080
2809
a crença de que uma solução tecnológica é
05:30
always a better solution to a problem.
136
330889
2180
sempre uma solução melhor para um problema.
05:33
Rob: Next - someone or something that is
137
333069
2776
Rob: Próximo - alguém ou algo que é
05:35
objective is neutral, fair and balanced.
138
335845
2775
objetivo é neutro, justo e equilibrado.
05:38
Catherine: A proxy is a piece of software
139
338620
2760
Catherine: Um proxy é um software,
05:41
but also someone who does something
140
341380
1660
mas também alguém que faz algo
05:43
for you, on your behalf.
141
343040
2340
por você, em seu nome.
05:45
A nuanced problem is a subtle
142
345380
2220
Um problema com nuances é sutil
05:47
one, it's not a simple case of right or
143
347600
3000
, não é um caso simples de certo ou
05:50
wrong, in a nuanced problem there are
144
350600
2740
errado, em um problema com nuances há
05:53
small but important things that you need
145
353340
2140
coisas pequenas, mas importantes, que você precisa
05:55
to consider.
146
355480
800
considerar.
05:56
Rob: And an algorithm is a set of software
147
356280
2560
Rob: E um algoritmo é um conjunto de
05:58
instructions for a computer system.
148
358842
2128
instruções de software para um sistema de computador.
06:00
Catherine: Well, that's all we have time for
149
360970
1430
Catherine: Bem, isso é tudo que temos tempo para
06:02
today. Goodbye for now.
150
362400
1780
hoje. Até logo.
06:04
Rob: Bye bye!
151
364180
700
Rob: Tchau tchau!
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7