Will robots out-think humans? 6 Minute English

79,217 views ・ 2018-01-25

BBC Learning English


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo. As legendas traduzidas são traduzidas automaticamente.

00:07
Dan: Hello and welcome to 6 Minute English.
0
7300
1640
Dan: Olá e bem-vindo ao 6 Minute English.
00:08
I'm Dan and joining me today is Neil. Hi Neil.
1
8940
2519
Eu sou Dan e se juntando a mim hoje é Neil. Olá Ney.
00:11
Neil: Hi Dan. What’s with the protective
2
11459
2321
Neil: Oi Dan. O que há com o
00:13
gear and helmet?
3
13780
929
equipamento de proteção e o capacete?
00:14
Dan: I’m just getting ready for the inevitable
4
14709
2676
Dan: Estou apenas me preparando para o inevitável
00:17
rise of the machines. That’s the takeover
5
17385
2385
surgimento das máquinas. Essa é a aquisição
00:19
of the world by artificial intelligence, or
6
19770
3486
do mundo pela inteligência artificial, ou
00:23
AI, which some people predict will happen.
7
23256
3404
IA, que algumas pessoas preveem que acontecerá.
00:26
Neil: Inevitable means cannot be avoided or
8
26660
2615
Neil: Meios inevitáveis ​​não podem ser evitados ou
00:29
stopped. Rise of the machines? What do you mean?
9
29275
3555
interrompidos. Ascensão das máquinas? O que você quer dizer?
00:32
Dan: It’s our topic in this 6 Minute English.
10
32830
2138
Dan: É o nosso tópico neste 6 Minute English.
00:34
We’ll be talking about that, giving you
11
34968
1852
Estaremos falando sobre isso, dando a você
00:36
six related pieces of vocabulary and, of course,
12
36820
3055
seis vocabulários relacionados e, é claro,
00:39
our regular quiz question.
13
39875
1655
nossa pergunta regular do questionário.
00:41
Neil: That’s the first thing you’ve said
14
41530
1907
Neil: Essa é a primeira coisa que você disse
00:43
that makes any sense. What’s the question?
15
43437
2003
que faz sentido. Qual é a questão?
00:45
Dan: The word ‘robot’ as we use it today
16
45440
3218
Dan: A palavra 'robô' como a usamos hoje
00:48
was first used in a 1920’s Czech play ‘Rossum’s
17
48658
3782
foi usada pela primeira vez em uma peça tcheca de 1920, 'Rossum's
00:52
Universal Robots’. But before this, what
18
52440
3356
Universal Robots'. Mas antes disso, qual
00:55
was its original meaning? a) forced labour
19
55796
3524
era o seu significado original? a) trabalho forçado
00:59
b) metal man c) heartless thing
20
59320
3640
b) homem do metal c) coisa sem coração
01:02
Neil: I will go for a) forced labour
21
62960
3250
Neil: Vou fazer a) trabalho forçado
01:06
Dan: We’ll find out if you were right or
22
66210
2335
Dan: Descobriremos se você estava certo ou
01:08
not later in the show.
23
68545
1285
não mais tarde no show.
01:09
Neil: OK Dan. Tell me what’s going on.
24
69830
2310
Neil: OK Dan. Diz-me o que se passa.
01:12
Dan: I saw a news article written by BBC technology
25
72140
3431
Dan: Eu vi um artigo escrito pelo correspondente de tecnologia da BBC,
01:15
correspondent Rory Cellan-Jones about the
26
75571
2759
Rory Cellan-Jones, sobre o
01:18
recent CES technology show in Las Vegas. He
27
78330
3865
recente show de tecnologia da CES em Las Vegas. Ele
01:22
interviewed David Hanson, founder of Hanson
28
82195
3865
entrevistou David Hanson, fundador da Hanson
01:26
Robotics, who said it was his ambition to
29
86060
3660
Robotics, que disse que era sua ambição
01:29
achieve an AI that can beat humans at any
30
89720
3660
alcançar uma IA que pudesse vencer os humanos em qualquer
01:33
intellectual task.
31
93380
1500
tarefa intelectual.
01:34
Neil: Surely it’s a good thing! Better AI
32
94880
2655
Neil: Certamente é uma coisa boa! Melhor IA
01:37
and robotics could take over many of the jobs
33
97535
2915
e robótica podem assumir muitos dos trabalhos
01:40
that we don’t want to do, or that are so
34
100450
2466
que não queremos fazer, ou que são tão
01:42
important to get 100% right… like air traffic
35
102916
2774
importantes para acertar 100%... como controle de tráfego aéreo
01:45
control. We’d never have another plane crash.
36
105690
2566
. Nunca teríamos outro acidente de avião.
01:48
It would be infallible because it would be
37
108256
2394
Seria infalível porque seria
01:50
so clever.
38
110650
1190
muito inteligente.
01:51
Dan: Infallible means never failing. And that’s
39
111840
2767
Dan: Infalível significa nunca falhar. E é isso
01:54
what bothers me. What happens when its intelligence
40
114607
3003
que me incomoda. O que acontece quando sua inteligência
01:57
surpasses ours? Why should it do what
41
117610
2774
supera a nossa? Por que ele deveria fazer o que
02:00
we want it to do?
42
120384
1275
queremos que ele faça?
02:01
Neil: To surpass something is to do or be
43
121659
2076
Neil: Superar algo é fazer ou ser
02:03
better than it. Dan, you’ve been watching
44
123735
2075
melhor do que isso. Dan, você tem assistido
02:05
too many movies. Robots fighting humanity
45
125810
2971
muitos filmes. Robôs lutando contra a humanidade
02:08
is a popular theme. Guess what… humanity
46
128781
2899
é um tema popular. Adivinhe... a humanidade
02:11
often wins. And besides, we would programme
47
131680
2498
geralmente vence. Além disso, programaríamos
02:14
the computer to be benevolent.
48
134178
1742
o computador para ser benevolente.
02:15
Dan: Benevolent means kind and helpful. But
49
135920
2805
Dan: Benevolente significa gentil e prestativo. Mas
02:18
that’s just it, once the intelligence becomes
50
138725
2935
é só isso, uma vez que a inteligência se torna
02:21
sentient, or able to think for itself, who
51
141660
2781
senciente, ou capaz de pensar por si mesma, quem
02:24
knows what it will do. We humans are not exactly
52
144441
3179
sabe o que ela fará. Nós humanos não somos exatamente
02:27
perfect, you know. What happens if it decides
53
147620
2602
perfeitos, você sabe. O que acontece se decidir
02:30
that it is better than us and wants us out
54
150222
2428
que é melhor do que nós e nos quer fora
02:32
of the way?
55
152650
1000
do caminho?
02:33
Neil: Don’t worry. Asimov thought of that.
56
153650
2524
Ney: Não se preocupe. Asimov pensou nisso.
02:36
Isaac Asimov was an American science fiction
57
156174
2645
Isaac Asimov foi um escritor americano de ficção científica
02:38
writer who, among other things, wrote about
58
158819
2747
que, entre outras coisas, escreveu sobre
02:41
robots. He came up with three laws that every
59
161566
2874
robôs. Ele criou três leis que todo
02:44
robot would have to follow to stop it from
60
164440
2624
robô deveria seguir para impedi-lo de
02:47
acting against humanity. So we’re safe!
61
167064
2436
agir contra a humanidade. Então estamos seguros!
02:49
Dan: I’m not so sure. A sentient robot could
62
169500
2933
Dan: Não tenho tanta certeza. Um robô senciente poderia
02:52
make up its own mind about how to interpret
63
172433
2867
decidir por si mesmo sobre como interpretar
02:55
the laws. For example, imagine if we created
64
175300
3284
as leis. Por exemplo, imagine se criássemos
02:58
an AI system to protect all of humanity.
65
178584
2985
um sistema de IA para proteger toda a humanidade.
03:01
Neil: Well, that’s great! No more war. No
66
181569
2195
Neil: Bem, isso é ótimo! Não há mais guerra. Chega de
03:03
more murder. No more fighting.
67
183764
1606
assassinato. Chega de brigas.
03:05
Dan: Do you really think that humans can stop
68
185370
2694
Dan: Você realmente acha que os humanos podem parar de
03:08
fighting? What if the AI decides that the
69
188064
2455
lutar? E se a IA decidir que a
03:10
only way to stop us from hurting ourselves
70
190519
3286
única maneira de impedir que nos machuquemos
03:13
and each other is to control everything we
71
193805
3285
e uns aos outros é controlar tudo o que
03:17
do, so it takes over to protect us. Then we
72
197090
3507
fazemos, para que ela assuma o controle para nos proteger? Então
03:20
would lose our freedom to a thing that we
73
200597
3343
perderíamos nossa liberdade para uma coisa que
03:23
created that is infallible and more intelligent
74
203940
3377
criamos que é infalível e mais inteligente
03:27
than we are! That’s the end, Neil!
75
207317
2443
do que nós! É o fim, Neil!
03:29
Neil: I think that’s a little far-fetched,
76
209760
2216
Neil: Eu acho que é um pouco forçado,
03:31
which means difficult to believe. I’m sure
77
211976
2215
o que significa difícil de acreditar. Tenho certeza que
03:34
others don’t think that way.
78
214191
1539
os outros não pensam assim.
03:35
Dan: OK. Let’s hear what the Learning English
79
215730
2523
Dan: OK. Vamos ouvir o que a equipe do Learning English
03:38
team say when I ask them if they are worried
80
218253
2467
diz quando pergunto se eles estão preocupados
03:40
that AI and robots could take over the world.
81
220720
3519
que a IA e os robôs possam dominar o mundo.
03:44
Phil: Well, it’s possible, but unlikely.
82
224240
3580
Phil: Bem, é possível, mas improvável.
03:47
There will come a point where our technology
83
227820
1880
Chegará um ponto em que nossa tecnologia
03:49
will be limited – probably before real AI
84
229700
3125
será limitada – provavelmente antes que a IA real
03:52
is achieved.
85
232825
1935
seja alcançada.
03:54
Sam: Never in a million years. First of all
86
234760
2360
Sam: Nunca em um milhão de anos. Em primeiro lugar,
03:57
we’d programme them so that they couldn’t,
87
237124
3306
nós os programaríamos para que não pudessem
04:00
and secondly we’d beat them anyway. Haven’t
88
240430
3632
e, em segundo lugar, nós os venceríamos de qualquer maneira.
04:04
you ever seen a movie?
89
244062
1858
Você nunca viu um filme?
04:05
Kee: I totally think it could happen. We
90
245920
2371
Kee: Eu totalmente acho que isso poderia acontecer.
04:08
only have to make a robot that’s smart enough
91
248291
2668
Só precisamos fazer um robô inteligente o suficiente
04:10
to start thinking for itself. After that,
92
250959
2605
para começar a pensar por si mesmo. Depois disso,
04:13
who knows what it might do.
93
253564
2796
quem sabe o que pode fazer.
04:16
Neil: A mixed bag of opinions there, Dan.
94
256360
1796
Neil: Uma mistura de opiniões, Dan.
04:18
It seems you aren’t alone.
95
258156
1823
Parece que você não está sozinho.
04:19
Dan: Nope. But I don’t exactly have an army
96
259979
2459
Dan: Não. Mas também não tenho exatamente um exército
04:22
of support either. I guess we’ll just have
97
262438
2402
de apoio. Acho que teremos
04:24
to wait and see.
98
264840
1000
que esperar para ver.
04:25
Neil: Speak for yourself. I’ve waited long
99
265840
1949
Neil: Fale por você. Já esperei o
04:27
enough – for our quiz question that is.
100
267789
1810
suficiente - pela nossa pergunta do questionário.
04:29
Dan: Oh yeah! I asked you what the original
101
269599
2496
Dan: Ah sim! Perguntei qual
04:32
meaning of the word ‘robot’ was before
102
272095
2205
era o significado original da palavra 'robô' antes de ser
04:34
it was used in its modern form. a) forced
103
274300
3633
usada em sua forma moderna. a)
04:37
labour b) metal man c) heartless thing
104
277933
3367
trabalho forçado b) homem do metal c) coisa sem coração
04:41
Neil: And I said a) forced labour
105
281300
1709
Neil: E eu disse a) trabalho forçado
04:43
Dan: And you were… right!
106
283009
1971
Dan: E você estava... certo!
04:44
Neil: Shall we take a look at the vocabulary then?
107
284980
2580
Neil: Vamos dar uma olhada no vocabulário então?
04:47
Dan: OK. First we had inevitable. If something
108
287569
3450
Dan: OK. Primeiro tivemos inevitável. Se algo
04:51
is inevitable then it cannot be avoided or
109
291019
3150
é inevitável, então não pode ser evitado ou
04:54
stopped. Can you think of something inevitable, Neil?
110
294169
2571
parado. Você consegue pensar em algo inevitável, Neil?
04:56
Neil: It is inevitable that one day the Sun
111
296749
3005
Neil: É inevitável que um dia o Sol
04:59
will stop burning. Then we had infallible,
112
299754
2936
pare de queimar. Então tivemos infalível,
05:02
which means never failing. Give us an example, Dan.
113
302690
3050
o que significa nunca falhar. Dê-nos um exemplo, Dan.
05:05
Dan: The vaccine for small pox is infallible.
114
305740
2332
Dan: A vacina para varíola é infalível.
05:08
The natural spread of that disease has been
115
308072
2228
A propagação natural dessa doença foi
05:10
completely stopped. After that was surpasses.
116
310300
3470
completamente interrompida. Depois disso foi superado.
05:13
If something surpasses something else then
117
313770
3239
Se algo supera outra coisa,
05:17
it becomes better than it.
118
317009
1711
torna-se melhor do que isso.
05:18
Neil: Many parents across the world hope that
119
318720
2275
Neil: Muitos pais em todo o mundo esperam que
05:20
their children will surpass them in wealth,
120
320995
2174
seus filhos os superem em riqueza,
05:23
status or achievement. After that we heard
121
323169
2662
status ou realizações. Depois disso, ouvimos
05:25
benevolent, which means kind and helpful.
122
325831
2599
benevolente, que significa gentil e prestativo.
05:28
Name a person famous for being benevolent, Dan.
123
328430
3019
Cite uma pessoa famosa por ser benevolente, Dan.
05:31
Dan: Father Christmas is a benevolent character.
124
331449
3216
Dan: Papai Noel é um personagem benevolente.
05:34
After that we heard sentient. If something
125
334665
2814
Depois disso, ouvimos sencientes. Se algo
05:37
is sentient, it is able to think for itself.
126
337479
2720
é senciente, é capaz de pensar por si mesmo.
05:40
Neil: Indeed. Many people wonder about the
127
340200
2340
Neil: De fato. Muitas pessoas se perguntam sobre a
05:42
possibility of sentient life on other planets.
128
342620
3060
possibilidade de vida senciente em outros planetas.
05:45
Finally we heard far-fetched, which means
129
345680
2176
Finalmente ouvimos rebuscado, o que significa
05:47
difficult to believe. Like that far-fetched
130
347856
2283
difícil de acreditar. Como aquela
05:50
story you told me the other day about being
131
350139
1932
história absurda que você me contou outro dia sobre estar
05:52
late because of a dragon, Dan.
132
352071
1348
atrasado por causa de um dragão, Dan.
05:53
Dan: I swear it was real! It had big sharp
133
353419
2480
Dan: Eu juro que foi real! Tinha
05:55
teeth and everything!
134
355899
1240
dentes grandes e afiados e tudo!
05:57
Neil: Yeah, yeah, yeah. And that’s the end
135
357139
1938
Neil: Sim, sim, sim. E esse é o fim
05:59
of this 6 Minute English. Don’t forget to
136
359077
1892
deste inglês de 6 minutos. Não se esqueça de
06:00
check out our Facebook, Twitter, and YouTube
137
360969
2171
conferir nossas páginas no Facebook, Twitter e YouTube
06:03
pages. See you next time!
138
363140
1640
. Vejo você na próxima vez!
06:04
Dan: Bye!
139
364780
640
Dan: Tchau!
06:05
Neil: Bye.
140
365420
860
Neil: Tchau.
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7