BOX SET: 6 Minute English - 'Artificial intelligence' English mega-class! 30 minutes of new vocab!

6,365 views

2025-01-19 ・ BBC Learning English


New videos

BOX SET: 6 Minute English - 'Artificial intelligence' English mega-class! 30 minutes of new vocab!

6,365 views ・ 2025-01-19

BBC Learning English


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo. As legendas traduzidas são traduzidas automaticamente.

00:00
6 Minute English.
0
760
1720
Inglês em 6 minutos.
00:02
From BBC Learning English.
1
2600
2640
Da BBC Learning English.
00:05
Hello. This is 6 Minute English from BBC Learning English. I'm Neil.
2
5840
3920
Olá. Este é o 6 Minute English da BBC Learning English. Eu sou o Neil.
00:09
And I'm Rob.
3
9880
1200
E eu sou o Rob.
00:11
Now, I'm sure most of us have interacted with a chatbot.
4
11200
4360
Agora, tenho certeza de que a maioria de nós já interagiu com um chatbot.
00:15
These are bits of computer technology
5
15680
2320
São bits de tecnologia de computador
00:18
that respond to text with text or respond to your voice.
6
18120
4600
que respondem a texto com texto ou respondem à sua voz.
00:22
You ask it a question and usually it comes up with an answer.
7
22840
3960
Você faz uma pergunta e geralmente ele vem com uma resposta.
00:26
Yes, it's almost like talking to another human, but of course it's not,
8
26920
4480
Sim, é quase como falar com outro ser humano, mas é claro que não é,
00:31
it's just a clever piece of technology.
9
31520
2560
é apenas uma tecnologia inteligente.
00:34
It is becoming more 'sophisticated' — more 'advanced and complex' —
10
34200
3640
Está se tornando mais "sofisticado" — mais "avançado e complexo" —
00:37
but could they replace real human interaction altogether?
11
37960
3200
mas será que eles poderiam substituir completamente a interação humana real?
00:41
We'll discuss that more in a moment
12
41280
2040
Falaremos mais sobre isso em breve
00:43
and find out if chatbots really think for themselves.
13
43440
3680
e descobriremos se os chatbots realmente pensam por si mesmos.
00:47
But first I have a question for you, Rob.
14
47240
2440
Mas primeiro tenho uma pergunta para você, Rob.
00:49
The first computer program that allowed some kind of plausible conversation
15
49800
4440
O primeiro programa de computador que permitiu algum tipo de conversa plausível
00:54
between humans and machines was invented in 1966, but what was it called?
16
54360
6440
entre humanos e máquinas foi inventado em 1966, mas como ele era chamado?
01:00
Was it a) Alexa? b) ELIZA? Or c) PARRY?
17
60920
6120
Foi a) Alexa? b) ELIZA? Ou c) PARRY?
01:07
Ah, well, it's not Alexa, that's too new, so I'll guess c) PARRY.
18
67160
4280
Ah, bem, não é Alexa, isso é muito novo, então vou chutar c) PARRY.
01:11
I'll reveal the answer at the end of the programme.
19
71560
3200
Revelarei a resposta no final do programa.
01:14
Now, the old chatbots of the 1960s and '70s were quite basic,
20
74880
5440
Os antigos chatbots dos anos 1960 e 1970 eram bem básicos,
01:20
but more recently, the technology is able to predict the next word
21
80440
4640
mas, mais recentemente, a tecnologia é capaz de prever a próxima palavra
01:25
that is likely to be used in a sentence,
22
85200
2200
que provavelmente será usada em uma frase
01:27
and it learns words and sentence structures.
23
87520
2840
e aprende palavras e estruturas de frases.
01:30
Mm, it's clever stuff.
24
90480
1480
Hum, é algo inteligente.
01:32
I've experienced using them when talking to my bank,
25
92080
2800
Eu já os utilizei ao falar com meu banco
01:35
or when I have problems trying to book a ticket on a website.
26
95000
3080
ou quando tive problemas ao tentar reservar uma passagem em um site.
01:38
I no longer phone a human, I speak to a virtual assistant instead.
27
98200
5160
Não ligo mais para um humano, falo com um assistente virtual.
01:43
Probably the most well-known chatbot at the moment is ChatGPT..
28
103480
4560
Provavelmente o chatbot mais conhecido no momento é o ChatGPT. É
01:48
It is. The claim is that it's able to answer anything you ask it.
29
108160
4400
ele. A alegação é que ele é capaz de responder a qualquer coisa que você perguntar.
01:52
This includes writing students' essays.
30
112680
2760
Isso inclui escrever redações dos alunos.
01:55
Now, this is something that was discussed
31
115560
1760
Agora, isso é algo que foi discutido
01:57
on the BBC Radio 4 programme, Word of Mouth.
32
117440
3040
no programa Word of Mouth, da BBC Radio 4 .
02:00
Emily M Bender, Professor of Computational Linguistics
33
120600
4280
Emily M Bender, professora de Linguística Computacional
02:05
at the University of Washington,
34
125000
1680
na Universidade de Washington,
02:06
explained why it's dangerous to always trust what a chatbot is telling us.
35
126800
4720
explicou por que é perigoso confiar sempre no que um chatbot está nos dizendo.
02:11
We tend to react to grammatical, fluent, coherent-seeming text
36
131640
5120
Temos a tendência de reagir a textos gramaticais, fluentes e aparentemente coerentes
02:16
as authoritative and reliable and valuable and we need to be on guard against that,
37
136880
6040
como se fossem autoritativos, confiáveis ​​e valiosos, e precisamos estar atentos a isso,
02:23
because what's coming out of ChatGPT is none of that.
38
143040
2520
porque o que sai do ChatGPT não é nada disso.
02:25
So, Professor Bender says that well-written text that is 'coherent' —
39
145680
4200
Então, o professor Bender diz que um texto bem escrito que é "coerente" — ou
02:30
that means it's 'clear, carefully considered and sensible' —
40
150000
3440
seja, "claro, cuidadosamente considerado e sensato" —
02:33
makes us think what we are reading is reliable and 'authoritative'.
41
153560
4040
nos faz pensar que o que estamos lendo é confiável e "autoritário".
02:37
So it's 'respected, accurate and important sounding'.
42
157720
3440
Então é "respeitado, preciso e soa importante".
02:41
Yes, chatbots might appear to write in this way,
43
161280
3000
Sim, os chatbots podem parecer escrever dessa maneira,
02:44
but really, they are just predicting one word after another,
44
164400
3560
mas, na verdade, eles estão apenas prevendo uma palavra após a outra,
02:48
based on what they have learnt.
45
168080
2040
com base no que aprenderam.
02:50
We should, therefore, be 'on guard' — be 'careful and alert' —
46
170240
3720
Devemos, portanto, estar "em guarda" — ser "cuidadosos e alertas" —
02:54
about the accuracy of what we are being told.
47
174080
3000
sobre a exatidão do que nos está sendo dito.
02:57
One concern is that chatbots — a form of artificial intelligence —
48
177200
4240
Uma preocupação é que os chatbots — uma forma de inteligência artificial —
03:01
work a bit like a human brain in the way it can learn and process information.
49
181560
4920
funcionam um pouco como o cérebro humano na forma como conseguem aprender e processar informações.
03:06
They are able to learn from experience, something called deep learning.
50
186600
4360
Eles são capazes de aprender com a experiência, algo chamado aprendizado profundo.
03:11
A cognitive psychologist and computer scientist called Geoffrey Hinton
51
191080
4200
Um psicólogo cognitivo e cientista da computação chamado Geoffrey Hinton
03:15
recently said he feared that chatbots could soon overtake
52
195400
3680
disse recentemente que temia que os chatbots pudessem em breve ultrapassar
03:19
the level of information that a human brain holds.
53
199200
3400
o nível de informação que o cérebro humano contém.
03:22
That's a bit scary, isn't it?
54
202720
1440
Isso é um pouco assustador, não é?
03:24
Mm, but for now, chatbots can be useful for practical information,
55
204280
4360
Hum, mas por enquanto, os chatbots podem ser úteis para informações práticas,
03:28
but sometimes we start to believe they are human
56
208760
2680
mas às vezes começamos a acreditar que eles são humanos
03:31
and we interact with them in a human-like way.
57
211560
2680
e interagimos com eles de uma forma humana.
03:34
This can make us believe them even more.
58
214360
2400
Isso pode nos fazer acreditar ainda mais neles. A
03:36
Professor Emma Bender, speaking on the BBC's Word of Mouth programme,
59
216880
3520
professora Emma Bender, falando no programa Word of Mouth da BBC,
03:40
explains why we might feel like that.
60
220520
2760
explica por que podemos nos sentir assim.
03:43
I think what's going on there is the kinds of answers you get
61
223400
4160
Acho que o que está acontecendo aí é que os tipos de respostas que você obtém
03:47
depend on the questions you put in,
62
227680
2040
dependem das perguntas que você faz,
03:49
because it's doing likely next word, likely next word,
63
229840
2520
porque é provável que a próxima palavra, provável que a próxima palavra,
03:52
and so if, as the human interacting with this machine,
64
232480
3280
e então se, como o humano interagindo com esta máquina,
03:55
you start asking it questions about how do you feel, you know, Chatbot?
65
235880
4280
você começa a fazer perguntas sobre como você se sente, sabe, Chatbot?
04:00
And "What do you think of this?" And, "What are your goals?"
66
240280
2840
E "O que você acha disso?" E "Quais são seus objetivos?"
04:03
You can provoke it to say things
67
243240
1720
Você pode provocá-lo a dizer coisas
04:05
that sound like what a sentient entity would say.
68
245080
2960
que soem como o que uma entidade senciente diria.
04:08
We are really primed to imagine a mind behind language
69
248160
3320
Somos realmente preparados para imaginar uma mente por trás da linguagem
04:11
whenever we encounter language
70
251600
1600
sempre que nos deparamos com ela,
04:13
and so we really have to account for that when we're making decisions about these.
71
253320
3680
então realmente temos que levar isso em conta quando tomamos decisões sobre elas.
04:17
So, although a chatbot might sound human,
72
257840
2560
Então, embora um chatbot possa parecer humano,
04:20
we really just ask it things to get a reaction — we 'provoke' it —
73
260520
3840
nós realmente apenas perguntamos coisas para obter uma reação — nós o "provocamos" —
04:24
and it answers only with words it's learned to use before,
74
264480
4040
e ele responde apenas com palavras que aprendeu a usar antes,
04:28
not because it has come up with a clever answer.
75
268640
2720
não porque tenha encontrado uma resposta inteligente.
04:31
But it does sound like a sentient entity —
76
271480
2600
Mas soa como uma entidade senciente —
04:34
'sentient' describes 'a living thing that experiences feelings'.
77
274200
4440
"senciente" descreve "um ser vivo que experimenta sentimentos".
04:38
As Professor Bender says,
78
278760
1640
Como diz o professor Bender,
04:40
we imagine that when something speaks, there is a mind behind it.
79
280520
4080
imaginamos que quando algo fala, há uma mente por trás disso.
04:44
But sorry, Neil, they are not your friend, they're just machines!
80
284720
4000
Mas desculpe, Neil, eles não são seus amigos, são apenas máquinas!
04:48
Yes, it's strange then that we sometimes give chatbots names.
81
288840
3240
Sim, é estranho que às vezes demos nomes aos chatbots.
04:52
Alexa, Siri, and earlier I asked you what the name was for the first ever chatbot.
82
292200
5920
Alexa, Siri e eu já perguntei qual era o nome do primeiro chatbot.
04:58
And I guessed it was PARRY. Was I right?
83
298240
2880
E eu imaginei que fosse PARRY. Eu estava certo?
05:01
You guessed wrong, I'm afraid.
84
301240
2040
Receio que você tenha adivinhado errado.
05:03
PARRY was an early form of chatbot from 1972, but the correct answer was ELIZA.
85
303400
6400
PARRY foi uma das primeiras formas de chatbot de 1972, mas a resposta correta era ELIZA.
05:09
It was considered to be the first 'chatterbot' — as it was called then —
86
309920
4000
Ele foi considerado o primeiro "chatterbot" — como era chamado na época —
05:14
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
87
314040
5640
e foi desenvolvido por Joseph Weizenbaum no Instituto de Tecnologia de Massachusetts.
05:19
Fascinating stuff.
88
319800
1040
Coisas fascinantes.
05:20
OK, now let's recap some of the vocabulary we highlighted in this programme.
89
320960
4360
OK, agora vamos recapitular um pouco do vocabulário que destacamos neste programa.
05:25
Starting with 'sophisticated',
90
325440
2000
Começando com "sofisticado",
05:27
which can describe technology that is 'advanced and complex'.
91
327560
3880
que pode descrever uma tecnologia "avançada e complexa".
05:31
Something that is 'coherent' is 'clear, carefully considered and sensible'.
92
331560
4320
Algo que é "coerente" é "claro, cuidadosamente considerado e sensato".
05:36
'Authoritative' means 'respected, accurate and important sounding'.
93
336000
4480
"Autoritário" significa "respeitado, preciso e que soa importante".
05:40
When you are 'on guard' you must be 'careful and alert' about something —
94
340600
3760
Quando você está "em guarda", você deve ser "cuidadoso e alerta" sobre algo —
05:44
it could be accuracy of what you see or hear,
95
344480
3320
pode ser a precisão do que você vê ou ouve,
05:47
or just being aware of the dangers around you.
96
347920
2640
ou apenas estar ciente dos perigos ao seu redor.
05:50
To 'provoke' means to 'do something that causes a reaction from someone'.
97
350680
4160
"Provocar" significa "fazer algo que cause uma reação em alguém".
05:54
'Sentient' describes 'something that experiences feelings' —
98
354960
3680
"Sentiente" descreve "algo que experimenta sentimentos" —
05:58
so it's 'something that is living'.
99
358760
2120
então é "algo que é vivo".
06:01
Once again, our six minutes are up. Goodbye.
100
361000
2640
Mais uma vez, nossos seis minutos acabaram. Adeus.
06:03
Bye for now.
101
363760
1000
Adeus por agora.
06:05
6 Minute English.
102
365680
1520
Inglês em 6 minutos.
06:07
From BBC Learning English.
103
367320
2400
Da BBC Learning English.
06:10
Hello. This is 6 Minute English from BBC Learning English.
104
370600
3240
Olá. Este é o 6 Minute English da BBC Learning English.
06:13
— I'm Sam. — And I'm Neil.
105
373960
1240
— Eu sou o Sam. — E eu sou o Neil.
06:15
In the autumn of 2021, something strange happened
106
375320
3640
No outono de 2021, algo estranho aconteceu
06:19
at the Google headquarters in California's Silicon Valley.
107
379080
3440
na sede do Google no Vale do Silício, na Califórnia.
06:22
A software engineer called Blake Lemoine
108
382640
2720
Um engenheiro de software chamado Blake Lemoine
06:25
was working on the artificial intelligence project
109
385480
2840
estava trabalhando no projeto de inteligência artificial
06:28
Language Models for Dialogue Applications, or LaMDA for short.
110
388440
5080
Language Models for Dialogue Applications, ou LaMDA, para abreviar.
06:33
LaMDA is a 'chatbot' — a 'computer programme
111
393640
2880
LaMDA é um 'chatbot' — um 'programa de computador
06:36
'designed to have conversations with humans over the internet'.
112
396640
3360
' projetado para conversar com humanos pela internet'.
06:40
After months talking with LaMDA
113
400120
2280
Depois de meses conversando com LaMDA
06:42
on topics ranging from movies to the meaning of life,
114
402520
3360
sobre tópicos que iam de filmes ao significado da vida,
06:46
Blake came to a surprising conclusion —
115
406000
2640
Blake chegou a uma conclusão surpreendente:
06:48
the chatbot was an intelligent person
116
408760
2720
o chatbot era uma pessoa inteligente
06:51
with wishes and rights that should be respected.
117
411600
3040
com desejos e direitos que deveriam ser respeitados.
06:54
For Blake, LaMDA was a Google employee, not a machine.
118
414760
3960
Para Blake, LaMDA era um funcionário do Google, não uma máquina.
06:58
He also called it his friend.
119
418840
1880
Ele também o chamou de amigo.
07:00
Google quickly reassigned Blake from the project,
120
420840
2880
O Google rapidamente transferiu Blake do projeto,
07:03
announcing that his ideas were not supported by the evidence.
121
423840
3760
anunciando que suas ideias não eram apoiadas por evidências.
07:07
But what exactly was going on?
122
427720
2440
Mas o que exatamente estava acontecendo?
07:10
In this programme, we'll be discussing whether artificial intelligence
123
430280
3720
Neste programa, discutiremos se a inteligência artificial
07:14
is capable of consciousness.
124
434120
2160
é capaz de consciência.
07:16
We'll hear from one expert
125
436400
1480
Ouviremos um especialista
07:18
who thinks AI is not as intelligent as we sometimes think
126
438000
3600
que acha que a IA não é tão inteligente quanto às vezes pensamos
07:21
and, as usual, we'll be learning some new vocabulary as well.
127
441720
3800
e, como de costume, também aprenderemos um novo vocabulário.
07:25
But before that, I have a question for you, Neil.
128
445640
2480
Mas antes disso, tenho uma pergunta para você, Neil.
07:28
What happened to Blake Lemoine
129
448240
1400
O que aconteceu com Blake Lemoine
07:29
is strangely similar to the 2013 Hollywood movie, Her,
130
449760
4200
é estranhamente semelhante ao filme de Hollywood de 2013, Ela,
07:34
starring Joaquin Phoenix as a lonely writer who talks with his computer,
131
454080
4400
estrelado por Joaquin Phoenix como um escritor solitário que conversa com seu computador,
07:38
voiced by Scarlett Johansson.
132
458600
1840
dublado por Scarlett Johansson.
07:40
But what happens at the end of the movie?
133
460560
2280
Mas o que acontece no final do filme?
07:42
Is it a) The computer comes to life?
134
462960
2520
a) O computador ganha vida?
07:45
b) The computer dreams about the writer?
135
465600
2480
b) O computador sonha com o escritor?
07:48
Or c) The writer falls in love with the computer?
136
468200
2800
Ou c) O escritor se apaixona pelo computador?
07:51
C) The writer falls in love with the computer.
137
471120
3240
C) O escritor se apaixona pelo computador.
07:54
OK, Neil, I'll reveal the answer at the end of the programme.
138
474480
3360
OK, Neil, revelarei a resposta no final do programa.
07:57
Although Hollywood is full of movies about robots coming to life,
139
477960
3760
Embora Hollywood esteja cheia de filmes sobre robôs ganhando vida,
08:01
Emily Bender, Professor of Linguistics and Computing at the University of Washington,
140
481840
5440
Emily Bender, professora de Linguística e Computação na Universidade de Washington,
08:07
thinks AI isn't that smart.
141
487400
2640
acha que a IA não é tão inteligente assim.
08:10
She thinks the words we use to talk about technology —
142
490160
3240
Ela acha que as palavras que usamos para falar sobre tecnologia —
08:13
phrases like 'machine learning' —
143
493520
2120
frases como "aprendizado de máquina" —
08:15
give a false impression about what computers can and can't do.
144
495760
4440
dão uma falsa impressão sobre o que os computadores podem ou não fazer.
08:20
Here is Professor Bender discussing another misleading phrase —
145
500320
3520
Aqui está o professor Bender discutindo outra frase enganosa —
08:23
'speech recognition' — with BBC World Service programme The Inquiry.
146
503960
5120
"reconhecimento de fala" — com o programa The Inquiry do Serviço Mundial da BBC.
08:29
If you talk about 'automatic speech recognition',
147
509200
3000
Se falamos sobre "reconhecimento automático de fala",
08:32
the term 'recognition' suggests that there's something cognitive going on,
148
512320
4680
o termo "reconhecimento" sugere que há algo cognitivo acontecendo,
08:37
where I think a better term would be automatic transcription.
149
517120
2840
onde acho que um termo melhor seria transcrição automática.
08:40
That just describes the input-output relation,
150
520080
2400
Isso apenas descreve a relação de entrada-saída,
08:42
and not any theory or wishful thinking
151
522600
3480
e não qualquer teoria ou pensamento positivo
08:46
about what the computer is doing to be able to achieve that.
152
526200
3360
sobre o que o computador está fazendo para conseguir isso.
08:49
Using words like 'recognition' in relation to computers
153
529680
3720
Usar palavras como "reconhecimento" em relação a computadores
08:53
gives the idea that something 'cognitive' is happening —
154
533520
3160
dá a ideia de que algo "cognitivo" está acontecendo —
08:56
something 'related to the mental processes
155
536800
2680
algo "relacionado aos processos mentais
08:59
'of thinking, knowing, learning and understanding'.
156
539600
3120
de pensar, conhecer, aprender e compreender".
09:02
But thinking and knowing are human, not machine, activities.
157
542840
4480
Mas pensar e conhecer são atividades humanas, não de máquinas. O
09:07
Professor Benders says that talking about them in connection with computers
158
547440
4160
professor Benders diz que falar sobre eles em conexão com computadores
09:11
is 'wishful thinking' — 'something which is unlikely to happen'.
159
551720
4720
é "pensamento positivo" — "algo que é improvável que aconteça".
09:16
The problem with using words in this way
160
556560
2120
O problema de usar palavras dessa maneira
09:18
is that it reinforces what Professor Bender calls 'technical bias' —
161
558800
4760
é que isso reforça o que o professor Bender chama de "viés técnico" —
09:23
'the assumption that the computer is always right'.
162
563680
2920
"a suposição de que o computador está sempre certo".
09:26
When we encounter language that sounds natural, but is coming from a computer,
163
566720
4120
Quando nos deparamos com uma linguagem que parece natural, mas vem de um computador, os
09:30
humans can't help but imagine a mind behind the language,
164
570960
3760
humanos não conseguem deixar de imaginar uma mente por trás da linguagem,
09:34
even when there isn't one.
165
574840
1520
mesmo quando não há nenhuma.
09:36
In other words, we 'anthropomorphise' computers —
166
576480
2960
Em outras palavras, nós 'antropomorfizamos' os computadores —
09:39
we 'treat them as if they were human'.
167
579560
2320
nós 'os tratamos como se fossem humanos'.
09:42
Here's Professor Bender again, discussing this idea with Charmaine Cozier,
168
582000
4600
Aqui está o Professor Bender novamente, discutindo essa ideia com Charmaine Cozier,
09:46
the presenter of BBC World Service's The Inquiry.
169
586720
3520
apresentadora do programa The Inquiry, do BBC World Service.
09:50
So 'ism' means system, 'anthro' or 'anthropo' means human,
170
590360
4800
Então, "ismo" significa sistema, "antropo" ou "antropo" significa humano
09:55
and 'morph' means shape.
171
595280
1800
e "metamorfose" significa forma.
09:57
And so this is a system that puts the shape of a human on something,
172
597200
4760
E então este é um sistema que coloca a forma de um humano em algo
10:02
and, in this case, the something is a computer.
173
602080
1680
e, neste caso, esse algo é um computador.
10:03
We anthropomorphise animals all the time,
174
603880
2920
Nós antropomorfizamos animais o tempo todo,
10:06
but we also anthropomorphise action figures, or dolls,
175
606920
3840
mas também antropomorfizamos bonecos de ação,
10:10
or companies when we talk about companies having intentions and so on.
176
610880
3880
ou empresas, quando falamos sobre empresas que têm intenções e assim por diante.
10:14
We very much are in the habit of seeing ourselves in the world around us.
177
614880
4480
Temos o hábito de nos ver no mundo ao nosso redor.
10:19
And while we're busy seeing ourselves
178
619480
1920
E enquanto estamos ocupados nos enxergando,
10:21
by assigning human traits to things that are not, we risk being blindsided.
179
621520
4760
atribuindo características humanas a coisas que não são, corremos o risco de sermos pegos de surpresa.
10:26
The more fluent that text is, the more different topics it can converse on,
180
626400
3880
Quanto mais fluente for o texto, quanto mais tópicos diferentes ele puder abordar,
10:30
the more chances there are to get taken in.
181
630400
2720
maiores serão as chances de sermos enganados.
10:34
If we treat computers as if they could think,
182
634040
2600
Se tratarmos os computadores como se eles pudessem pensar,
10:36
we might get 'blindsided', or 'unpleasantly surprised'.
183
636760
4160
podemos ser "pegos de surpresa" ou "desagradavelmente surpreendidos". A
10:41
Artificial intelligence works by finding patterns in massive amounts of data,
184
641040
4560
inteligência artificial funciona encontrando padrões em grandes quantidades de dados,
10:45
so it can seem like we're talking with a human,
185
645720
2520
então pode parecer que estamos falando com um humano,
10:48
instead of a machine doing data analysis.
186
648360
3000
em vez de uma máquina fazendo análise de dados.
10:51
As a result, we 'get taken in' — we're 'tricked or deceived'
187
651480
4240
Como resultado, somos "enganados" — somos "enganados ou iludidos"
10:55
into thinking we're dealing with a human, or with something intelligent.
188
655840
3640
a pensar que estamos lidando com um humano ou com algo inteligente. Uma
10:59
Powerful AI can make machines appear conscious,
189
659600
3760
IA poderosa pode fazer com que as máquinas pareçam conscientes,
11:03
but even tech giants like Google
190
663480
2320
mas mesmo gigantes da tecnologia como o Google
11:05
are years away from building computers that can dream or fall in love.
191
665920
4480
estão a anos de distância de construir computadores capazes de sonhar ou se apaixonar.
11:10
Speaking of which, Sam, what was the answer to your question?
192
670520
3160
Falando nisso, Sam, qual foi a resposta para sua pergunta?
11:13
I asked what happened in the 2013 movie, Her.
193
673800
3240
Perguntei o que aconteceu no filme Ela, de 2013 .
11:17
Neil thought that the main character falls in love with his computer,
194
677160
3080
Neil pensou que o personagem principal se apaixona por seu computador
11:20
— which was the correct answer! — OK.
195
680360
2760
— o que era a resposta correta! - OK.
11:23
Right, it's time to recap the vocabulary we've learned from this programme
196
683240
3640
Certo, é hora de recapitular o vocabulário que aprendemos neste programa
11:27
about AI, including 'chatbots' —
197
687000
2720
sobre IA, incluindo 'chatbots' — '
11:29
'computer programmes designed to interact with humans over the internet'.
198
689840
4080
programas de computador projetados para interagir com humanos pela internet'.
11:34
The adjective 'cognitive' describes anything connected
199
694040
3440
O adjetivo "cognitivo" descreve qualquer coisa conectada
11:37
with 'the mental processes of knowing, learning and understanding'.
200
697600
3680
com "os processos mentais de conhecer, aprender e compreender".
11:41
'Wishful thinking' means 'thinking that something which is very unlikely to happen
201
701400
4720
"Pensamento positivo" significa "pensar que algo que é muito improvável de acontecer
11:46
'might happen one day in the future'.
202
706240
2040
pode acontecer um dia no futuro".
11:48
To 'anthropomorphise' an object
203
708400
1440
'Antropomorfizar' um objeto
11:49
means 'to treat it as if it were human, even though it's not'.
204
709960
3440
significa 'tratá-lo como se fosse humano, mesmo que não seja'.
11:53
When you're 'blindsided', you're 'surprised in a negative way'.
205
713520
3640
Quando você é "pego de surpresa", você é "surpreendido de forma negativa".
11:57
And finally, to 'get taken in' by someone means to be 'deceived or tricked' by them.
206
717280
4760
E, finalmente, "ser enganado" por alguém significa ser "enganado ou ludibriado" por essa pessoa.
12:02
My computer tells me that our six minutes are up!
207
722160
2920
Meu computador me diz que nossos seis minutos acabaram!
12:05
Join us again soon, for now it's goodbye from us.
208
725200
2960
Junte-se a nós novamente em breve, por enquanto é adeus.
12:08
Bye!
209
728280
1360
Tchau!
12:09
6 Minute English.
210
729760
1560
Inglês em 6 minutos.
12:11
From BBC Learning English.
211
731440
2400
Da BBC Learning English.
12:14
Hello, I'm Rob. Welcome to 6 Minute English and with me in the studio is Neil.
212
734640
4520
Olá, sou Rob. Bem-vindos ao 6 Minute English e comigo no estúdio está Neil.
12:19
— Hello, Rob. — Hello.
213
739280
1720
— Olá, Rob. - Olá.
12:21
Feeling clever today, Neil?
214
741120
1520
Está se sentindo inteligente hoje, Neil?
12:22
I am feeling quite bright and clever, yes!
215
742760
2240
Estou me sentindo muito inteligente e brilhante, sim!
12:25
That's good to hear.
216
745120
1000
Que bom ouvir isso.
12:26
Well, 'you'll need your wits about you' —
217
746240
1640
Bem, "você precisará de sua inteligência sobre você" —
12:28
meaning 'you'll need to think very quickly' in this programme,
218
748000
2760
significando "você precisará pensar muito rápido" neste programa,
12:30
because we're talking about intelligence,
219
750880
2480
porque estamos falando sobre inteligência,
12:33
or to be more accurate, artificial intelligence,
220
753480
3280
ou para ser mais preciso, inteligência artificial,
12:36
and we'll learn some vocabulary related to the topic,
221
756880
3040
e aprenderemos algum vocabulário relacionado ao tópico,
12:40
so that you can have your own discussion about it.
222
760040
2720
para que você possa ter sua própria discussão sobre ele.
12:42
Neil, now, you know who Professor Stephen Hawking is, right?
223
762880
3120
Neil, agora você sabe quem é o Professor Stephen Hawking, certo?
12:46
Well, of course! Yes.
224
766120
1240
Bem, é claro! Sim.
12:47
Many people say that he's a 'genius' —
225
767480
2320
Muitas pessoas dizem que ele é um "gênio" —
12:49
in other words, he is 'very, very intelligent'.
226
769920
3080
em outras palavras, ele é "muito, muito inteligente". O
12:53
Professor Hawking is one of the most famous scientists in the world
227
773120
3480
professor Hawking é um dos cientistas mais famosos do mundo
12:56
and people remember him for his brilliance
228
776720
1960
e as pessoas se lembram dele por sua genialidade
12:58
and also because he communicates using a synthetic voice generated by a computer —
229
778800
5560
e também porque ele se comunica usando uma voz sintética gerada por um computador —
13:04
'synthetic' means it's 'made from something non-natural'.
230
784480
3120
"sintética" significa "feita de algo não natural".
13:07
'Artificial' is similar in meaning —
231
787720
2040
"Artificial" tem um significado semelhante —
13:09
we use it when something is 'man-made to look or behave like something natural'.
232
789880
4720
usamos quando algo é "feito pelo homem para parecer ou se comportar como algo natural".
13:14
Well, Professor Hawking has said recently
233
794720
2360
Bem, o Professor Hawking disse recentemente
13:17
that efforts to create thinking machines are a threat to our existence.
234
797200
4440
que os esforços para criar máquinas pensantes são uma ameaça à nossa existência.
13:21
A 'threat' means 'something which can put us in danger'.
235
801760
3240
Uma "ameaça" significa "algo que pode nos colocar em perigo".
13:25
Now, can you imagine that, Neil?!
236
805120
1360
Agora, você consegue imaginar isso, Neil?!
13:26
Well, there's no denying that good things
237
806600
2080
Bem, não há como negar que coisas boas
13:28
can come from the creation of artificial intelligence.
238
808800
2640
podem surgir da criação de inteligência artificial.
13:31
Computers which can think for themselves
239
811560
1920
Computadores que conseguem pensar por si mesmos
13:33
might be able to find solutions to problems we haven't been able to solve.
240
813600
4320
podem encontrar soluções para problemas que não conseguimos resolver.
13:38
But technology is developing quickly and maybe we should consider the consequences.
241
818040
4680
Mas a tecnologia está se desenvolvendo rapidamente e talvez devêssemos considerar as consequências.
13:42
Some of these very clever robots are already surpassing us, Rob.
242
822840
4440
Alguns desses robôs muito inteligentes já estão nos superando, Rob.
13:47
'To surpass' means 'to have abilities superior to our own'.
243
827400
4000
"Superar" significa "ter habilidades superiores às nossas".
13:51
Yes. Maybe you can remember the headlines when a supercomputer
244
831520
3280
Sim. Talvez você se lembre das manchetes quando um supercomputador
13:54
defeated the World Chess Champion, Gary Kasparov, to everyone's astonishment.
245
834920
4960
derrotou o campeão mundial de xadrez, Gary Kasparov, para espanto de todos.
14:00
It was in 1997. What was the computer called though, Neil?
246
840000
3440
Foi em 1997. Mas como era o nome do computador, Neil?
14:03
Was it a) Red Menace? b) Deep Blue? Or c) Silver Surfer?
247
843560
6040
Foi a) Ameaça Vermelha? b) Azul profundo? Ou c) Surfista Prateado?
14:09
Erm, I don't know.
248
849720
2200
Hum, não sei.
14:12
I think c) is probably not right. Erm...
249
852040
2360
Acho que c) provavelmente não está certa. Hum...
14:16
I think Deep Blue. That's b) Deep Blue.
250
856000
2160
Acho que Deep Blue. Isso é b) Deep Blue.
14:18
OK. Well, you'll know if you got the answer right at the end of the programme.
251
858280
3680
OK. Bem, você saberá se acertou a resposta no final do programa.
14:22
Well, our theme is artificial intelligence
252
862080
2240
Bom, nosso tema é inteligência artificial
14:24
and when we talk about this, we have to mention the movies.
253
864440
2840
e quando falamos sobre isso, temos que mencionar os filmes.
14:27
Mm, many science fiction movies have explored the idea
254
867400
3240
Hum, muitos filmes de ficção científica exploraram a ideia
14:30
of bad computers who want to harm us.
255
870760
2440
de computadores ruins que querem nos prejudicar.
14:33
One example is 2001: A Space Odyssey.
256
873320
3440
Um exemplo é 2001: Uma Odisseia no Espaço.
14:36
Yes, a good film.
257
876880
1000
Sim, um bom filme.
14:38
And another is The Terminator, a movie in which actor Arnold Schwarzenegger
258
878000
4000
E outro é O Exterminador do Futuro, um filme em que o ator Arnold Schwarzenegger
14:42
played an android from the future.
259
882120
2240
interpretou um androide do futuro.
14:44
An 'android' is 'a robot that looks like a human'. Have you watched that one, Neil?
260
884480
3640
Um "androide" é "um robô que se parece com um humano". Você assistiu a esse, Neil?
14:48
Yes, I have and that android is not very friendly.
261
888240
3480
Sim, eu tenho, e esse andróide não é muito amigável.
14:51
No, it's not!
262
891840
1000
Não, não é!
14:52
In many movies and books about robots that think,
263
892960
2920
Em muitos filmes e livros sobre robôs que pensam,
14:56
the robots end up rebelling against their creators.
264
896000
3200
os robôs acabam se rebelando contra seus criadores.
14:59
But some experts say the risk posed by artificial intelligence
265
899320
3480
Mas alguns especialistas dizem que o risco representado pela inteligência artificial
15:02
is not that computers attack us because they hate us.
266
902920
3320
não é que os computadores nos ataquem porque nos odeiam. O
15:06
Their problem is related to their efficiency.
267
906360
2800
problema deles está relacionado à eficiência.
15:09
What do you mean?
268
909280
1000
O que você quer dizer?
15:10
Well, let's listen to what philosopher Nick Bostrom has to say.
269
910400
3920
Bem, vamos ouvir o que o filósofo Nick Bostrom tem a dizer.
15:14
He's the founder of the Future of Humanity Institute at Oxford University.
270
914440
4880
Ele é o fundador do Instituto do Futuro da Humanidade na Universidade de Oxford.
15:19
He uses three words when describing what's inside the mind of a thinking computer.
271
919440
5800
Ele usa três palavras para descrever o que está dentro da mente de um computador pensante.
15:25
This phrase means 'to meet their objectives'. What's the phrase he uses?
272
925360
4640
Esta frase significa "atingir seus objetivos". Qual é a frase que ele usa?
15:30
The bulk of the risk is not in machines being evil or hating humans,
273
930680
5120
O maior risco não está nas máquinas serem más ou odiarem os humanos,
15:35
but rather that they are indifferent to humans
274
935920
2320
mas sim no fato de elas serem indiferentes aos humanos
15:38
and that, in pursuit of their own goals, we humans would suffer as a side effect.
275
938360
4360
e de que, na busca por seus próprios objetivos, nós, humanos, sofreríamos como efeito colateral.
15:42
Suppose you had a super intelligent AI
276
942840
1800
Suponha que você tivesse uma IA superinteligente
15:44
whose only goal was to make as many paperclips as possible.
277
944760
3240
cujo único objetivo fosse fazer o máximo de clipes de papel possível. Os
15:48
Human bodies consist of atoms
278
948120
2280
corpos humanos são feitos de átomos
15:50
and those atoms could be used to make a lot of really nice paperclips.
279
950520
4360
e esses átomos poderiam ser usados para fazer muitos clipes de papel muito legais.
15:55
If you want paperclips, it turns out that in the pursuit of this,
280
955000
3080
Se você quer clipes de papel, acontece que, ao buscá-los,
15:58
you would have instrumental reasons to do things that would be harmful to humanity.
281
958200
3320
você teria razões instrumentais para fazer coisas que seriam prejudiciais à humanidade.
16:02
A world in which humans become paperclips — wow, that's scary!
282
962360
4640
Um mundo em que os humanos se tornam clipes de papel — nossa, isso é assustador!
16:07
But the phrase which means 'meet their objectives' is to 'pursue their goals'.
283
967120
4520
Mas a frase que significa "atingir seus objetivos" é "perseguir suas metas".
16:11
Yes, it is.
284
971760
1000
É sim.
16:12
So the academic explains that if you're a computer
285
972880
3280
Então o acadêmico explica que se você for um computador
16:16
responsible for producing paperclips, you will pursue your objective at any cost.
286
976280
5800
responsável por produzir clipes de papel, você perseguirá seu objetivo a qualquer custo.
16:22
And even use atoms from human bodies to turn them into paperclips!
287
982200
4440
E até usar átomos de corpos humanos para transformá-los em clipes de papel!
16:26
— Now that's a horror story, Rob. — Mm.
288
986760
2040
— Essa sim é uma história de terror, Rob. — Milímetros.
16:28
If Stephen Hawking is worried, I think I might be too!
289
988920
3120
Se Stephen Hawking está preocupado, acho que eu também posso estar!
16:32
How can we be sure that artificial intelligence —
290
992160
2880
Como podemos ter certeza de que a inteligência artificial —
16:35
be either a device or software — will have a moral compass?
291
995160
4000
seja um dispositivo ou software — terá uma bússola moral?
16:39
Ah, a good expression — a 'moral compass' —
292
999280
2000
Ah, uma boa expressão — uma "bússola moral" —
16:41
in other words, 'an understanding of what is right and what is wrong'.
293
1001400
3960
em outras palavras, "uma compreensão do que é certo e do que é errado".
16:45
Artificial intelligence is an interesting topic, Rob.
294
1005480
2560
Inteligência artificial é um tópico interessante, Rob.
16:48
I hope we can chat about it again in the future.
295
1008160
2400
Espero que possamos conversar sobre isso novamente no futuro.
16:50
But now I'm looking at the clock and we're running out of time, I'm afraid,
296
1010680
2880
Mas agora estou olhando para o relógio e estou com medo de que estejamos ficando sem tempo,
16:53
and I'd like to know if I got the answer to the quiz question right?
297
1013680
3320
e gostaria de saber se acertei a resposta da pergunta do teste?
16:57
Well, my question was about a supercomputer
298
1017120
3000
Bem, minha pergunta era sobre um supercomputador
17:00
which defeated the World Chess Champion, Gary Kasparov, in 1997.
299
1020240
4320
que derrotou o campeão mundial de xadrez, Gary Kasparov, em 1997.
17:04
What was the machine's name? Was it Red Menace, Deep Blue or Silver Surfer?
300
1024680
4920
Qual era o nome da máquina? Foi Red Menace, Deep Blue ou Silver Surfer?
17:09
And I think it's Deep Blue.
301
1029720
2880
E eu acho que é Deep Blue.
17:12
Well, it sounds like you are more intelligent than a computer,
302
1032720
2880
Bem, parece que você é mais inteligente que um computador,
17:15
because you got the answer right.
303
1035720
1800
porque acertou a resposta.
17:17
Yes, it was Deep Blue.
304
1037640
1240
Sim, era Deep Blue.
17:19
The 1997 match was actually the second one between Kasparov and Deep Blue,
305
1039000
4680
A partida de 1997 foi na verdade a segunda entre Kasparov e o Deep Blue,
17:23
a supercomputer designed by the company IBM
306
1043800
3000
um supercomputador projetado pela empresa IBM
17:26
and it was specialised in chess-playing.
307
1046920
2400
e especializado em jogos de xadrez.
17:29
Well, I think I might challenge Deep Blue to a game!
308
1049440
2840
Bem, acho que vou desafiar o Deep Blue para uma partida!
17:32
Obviously, I'm a bit, I'm a bit of a genius myself.
309
1052400
2600
Obviamente, eu sou um pouco, eu sou um pouco gênio também.
17:35
Very good! Good to hear!
310
1055120
1600
Muito bom! Bom ouvir isso!
17:36
Anyway, we've just got time to remember
311
1056840
1600
De qualquer forma, temos tempo para lembrar
17:38
some of the words and expressions that we've used today. Neil?
312
1058560
3080
algumas palavras e expressões que usamos hoje. Olá!
17:41
They were...
313
1061760
1000
Eles eram...
17:42
you'll need your wits about you,
314
1062880
3680
você vai precisar de toda a sua inteligência,
17:46
artificial,
315
1066680
2560
artificial,
17:49
genius,
316
1069360
2600
genial,
17:52
synthetic,
317
1072080
2040
sintética,
17:54
threat,
318
1074240
1760
ameaçadora,
17:56
to surpass,
319
1076120
2600
para superar,
17:58
to pursue their goals,
320
1078840
3120
para perseguir seus objetivos,
18:02
moral compass.
321
1082080
1320
bússola moral.
18:03
Thank you. Well, that's it for this programme.
322
1083520
2280
Obrigado. Bom, é isso para este programa.
18:05
Do visit BBC Learning English dot com to find more 6 Minute English programmes.
323
1085920
4720
Visite BBC Learning English dot com para encontrar mais programas de inglês de 6 minutos.
18:10
— Until next time, goodbye! — Goodbye!
324
1090760
1880
— Até a próxima, adeus! - Adeus!
18:13
6 Minute English.
325
1093640
1440
Inglês em 6 minutos.
18:15
From BBC Learning English.
326
1095200
2280
Da BBC Learning English.
18:18
Hello. This is 6 Minute English. I'm Rob. And joining me to do this is Sam.
327
1098600
4480
Olá. Este é o 6 Minute English. Eu sou o Rob. E se juntando a mim para fazer isso está Sam.
18:23
Hello.
328
1103200
1000
Olá.
18:24
In this programme, we're talking about robots.
329
1104320
3040
Neste programa, falaremos sobre robôs. Os
18:27
Robots can perform many tasks,
330
1107480
2000
robôs podem executar muitas tarefas,
18:29
but they're now being introduced in social care to operate as carers,
331
1109600
4560
mas agora estão sendo introduzidos na assistência social para atuar como cuidadores,
18:34
to look after the sick and elderly.
332
1114280
2120
cuidando de doentes e idosos.
18:36
We'll be discussing the positive and negative issues around this,
333
1116520
3680
Discutiremos os pontos positivos e negativos em torno disso,
18:40
but first, let's set you a question to answer, Sam. Are you ready for this?
334
1120320
3720
mas primeiro, vamos fazer uma pergunta para você responder, Sam. Você está pronto para isso?
18:44
Fire away!
335
1124160
1120
Atire!
18:45
Do you know in which year was the first commercial robot built?
336
1125400
3880
Você sabe em que ano foi construído o primeiro robô comercial?
18:49
Was it in a) 1944? b) 1954? Or c) 1964?
337
1129400
7280
Foi em a) 1944? b) 1954? Ou c) 1964?
18:56
They're not a brand-new invention, so I'll go for 1954.
338
1136800
5440
Eles não são uma invenção nova, então vou escolher 1954.
19:02
OK, well, I'll tell you if you're right or wrong at the end of the programme.
339
1142360
4520
Certo, bem, eu direi se você está certo ou errado no final do programa.
19:07
So, let's talk more about robots,
340
1147000
1920
Então, vamos falar mais sobre robôs,
19:09
and specifically ones that are designed to care for people.
341
1149040
3720
e especificamente sobre aqueles que são projetados para cuidar de pessoas.
19:12
Traditionally, it's humans working as nurses or carers
342
1152880
3480
Tradicionalmente, são os humanos que trabalham como enfermeiros ou cuidadores
19:16
who take care of elderly people —
343
1156480
2200
que cuidam de idosos —
19:18
those people who are too old or too unwell to look after themselves.
344
1158800
3800
aquelas pessoas que são velhas demais ou doentes demais para cuidar de si mesmas.
19:22
But finding enough carers to look after people is a problem —
345
1162720
4360
Mas encontrar cuidadores suficientes para cuidar das pessoas é um problema —
19:27
there are more people needing care than there are people who can help.
346
1167200
4120
há mais pessoas precisando de cuidados do que pessoas que podem ajudar.
19:31
And recently in the UK, the government announced a £34 million fund
347
1171440
5560
E recentemente, no Reino Unido, o governo anunciou um fundo de £ 34 milhões
19:37
to help develop robots to look after us in our later years.
348
1177120
4520
para ajudar a desenvolver robôs que cuidarão de nós em nossos últimos anos.
19:41
Well, robot carers are being developed,
349
1181760
2440
Bem, robôs cuidadores estão sendo desenvolvidos,
19:44
but can they really learn enough empathy to take care of the elderly and unwell?
350
1184320
4560
mas eles realmente conseguem aprender empatia suficiente para cuidar de idosos e doentes?
19:49
'Empathy' is 'the ability to understand how someone feels
351
1189000
3680
'Empatia' é 'a capacidade de entender como alguém se sente
19:52
'by imagining what it would be like to be in that person's situation'.
352
1192800
4240
imaginando como seria estar na situação dessa pessoa'.
19:57
Well, let's hear about one of those new robots now, called Pepper.
353
1197160
4680
Bem, vamos ouvir sobre um desses novos robôs agora, chamado Pepper.
20:01
Abbey Hearn-Nagaf is a research assistant at the University of Bedfordshire.
354
1201960
5080
Abbey Hearn-Nagaf é assistente de pesquisa na Universidade de Bedfordshire.
20:07
She spoke to BBC Radio 4's You and Yours programme
355
1207160
3880
Ela falou ao programa You and Yours da BBC Radio 4
20:11
and explained how Pepper is first introduced to someone in a care home.
356
1211160
4600
e explicou como Pepper é apresentada a alguém em uma casa de repouso.
20:15
We just bring the robot to their room
357
1215880
2200
Nós apenas levamos o robô para o quarto deles
20:18
and we talk about what Pepper can't do, which is important,
358
1218200
2640
e conversamos sobre o que Pepper não pode fazer, o que é importante,
20:20
so it can't provide physical assistance in any way.
359
1220960
2720
para que ele não possa fornecer assistência física de forma alguma.
20:23
It does have hands, it can wave.
360
1223800
2160
Ele tem mãos e pode acenar.
20:26
When you ask for privacy, it does turn around
361
1226080
2000
Quando você pede privacidade, ele se vira
20:28
and sort of cover its eyes with its hands, but that's the most it does.
362
1228200
3000
e meio que cobre os olhos com as mãos, mas é só isso que ele faz.
20:31
It doesn't grip anything, it doesn't move anything,
363
1231320
2160
Ele não agarra nada, não move nada,
20:33
because we're more interested to see how it works as a companion,
364
1233600
3480
porque estamos mais interessados ​​em ver como ele funciona como um companheiro,
20:37
having something there to talk to, to converse with, to interact with.
365
1237200
4080
tendo algo ali para conversar, para interagir.
20:41
So, Abbey described how the robot is introduced to someone.
366
1241400
4240
Então, Abbey descreveu como o robô é apresentado a alguém.
20:45
She was keen to point out that this robot has 'limitations' — 'things it can't do'.
367
1245760
6120
Ela fez questão de salientar que esse robô tem "limitações" — "coisas que ele não pode fazer".
20:52
It can wave or turn round when a person needs 'privacy' — 'to be private' —
368
1252000
5040
Ele pode acenar ou se virar quando uma pessoa precisa de "privacidade" — "ter privacidade" —
20:57
but it can't provide 'physical assistance'.
369
1257160
3280
mas não pode fornecer "assistência física".
21:00
This means it can't help someone by 'touching or feeling' them.
370
1260560
4440
Isso significa que ele não pode ajudar alguém "tocando-o ou sentindo-o".
21:05
But that's OK, Abbey says.
371
1265120
1680
Mas tudo bem, diz Abbey.
21:06
This robot is designed to be a 'companion' —
372
1266920
3080
Este robô foi projetado para ser um "companheiro" —
21:10
'someone who is with you to keep you company' —
373
1270120
2320
"alguém que está com você para lhe fazer companhia" —
21:12
a friend, in other words, that you can converse or talk with.
374
1272560
3480
um amigo, em outras palavras, com quem você pode conversar ou conversar.
21:16
Well, having a companion is a good way to stop people getting lonely,
375
1276160
4400
Bem, ter um companheiro é uma boa maneira de evitar que as pessoas se sintam solitárias,
21:20
but surely a human is better for that?
376
1280680
2960
mas certamente um humano seria melhor para isso?
21:23
Surely they understand you better than a robot ever can?
377
1283760
3680
Certamente eles entendem você melhor do que um robô?
21:27
Well, innovation means that robots are becoming cleverer all the time.
378
1287560
4640
Bem, inovação significa que os robôs estão se tornando cada vez mais inteligentes.
21:32
And, as we've mentioned, in the UK alone there is a growing elderly population
379
1292320
4720
E, como mencionamos, somente no Reino Unido há uma população idosa crescente
21:37
and more than 100,000 care assistant vacancies.
380
1297160
3360
e mais de 100.000 vagas para assistentes de cuidados.
21:40
Who's going to do all the work?
381
1300640
1800
Quem vai fazer todo o trabalho?
21:42
I think we should hear from Dr Sarah Woodin,
382
1302560
2640
Acho que deveríamos ouvir a Dra. Sarah Woodin,
21:45
a health researcher in independent living from Leeds University,
383
1305320
4040
pesquisadora de saúde em vida independente da Universidade de Leeds,
21:49
who also spoke to the BBC's You and Yours programme.
384
1309480
3960
que também falou no programa You and Yours da BBC.
21:53
She seems more realistic about the introduction of robot carers.
385
1313560
5120
Ela parece mais realista sobre a introdução de cuidadores robôs.
21:59
I think there are problems if we consider robots as replacement for people.
386
1319200
4600
Acredito que há problemas se considerarmos os robôs como substitutos das pessoas.
22:03
We know that money is tight — if robots become mass-produced,
387
1323920
4680
Sabemos que o dinheiro está curto — se os robôs forem produzidos em massa,
22:08
there could be large institutions where people might be housed
388
1328720
4200
pode haver grandes instituições onde as pessoas podem ser alojadas
22:13
and abandoned to robots.
389
1333040
2800
e abandonadas aos robôs.
22:15
I do think questions of ethics
390
1335960
1480
Acredito que questões de ética também
22:17
need to come into the growth and jobs agenda as well,
391
1337560
3600
precisam entrar na agenda de crescimento e empregos ,
22:21
because, sometimes, they're treated very separately.
392
1341280
2440
porque, às vezes, elas são tratadas de forma muito separada.
22:23
OK, so Sarah Woodin suggests that when money is 'tight' —
393
1343840
3440
Certo, então Sarah Woodin sugere que quando o dinheiro está "apertado" — ou
22:27
meaning there is 'only just enough' —
394
1347400
1680
seja, quando há "apenas o suficiente" —
22:29
making robots in large quantities — or mass-produced —
395
1349200
3320
fazer robôs em grandes quantidades — ou produzidos em massa —
22:32
might be a cheaper option than using humans.
396
1352640
2720
pode ser uma opção mais barata do que usar humanos.
22:35
And she says people might be abandoned to robots.
397
1355480
3160
E ela diz que as pessoas podem ser abandonadas aos robôs.
22:38
Yes, 'abandoned' means 'left alone in a place, usually forever'.
398
1358760
5840
Sim, "abandonado" significa "deixado sozinho em um lugar, geralmente para sempre".
22:44
So she says it might be possible that someone ends up being forgotten
399
1364720
4360
Então ela diz que pode ser possível que alguém acabe sendo esquecido
22:49
and only having a robot to care for them. So is this right, ethically?
400
1369200
5640
e tenha apenas um robô para cuidar dele. Então isso é correto, eticamente?
22:54
Yes, well, she mentions 'ethics' — that's 'what is morally right' —
401
1374960
3920
Sim, bem, ela menciona "ética" — que é "o que é moralmente correto" —
22:59
and that needs to be considered as part of the jobs agenda.
402
1379000
3440
e isso precisa ser considerado como parte da agenda de empregos.
23:02
So, we shouldn't just consider what job vacancies need filling,
403
1382560
3160
Portanto, não devemos considerar apenas quais vagas de emprego precisam ser preenchidas,
23:05
but who and how it should be done.
404
1385840
2360
mas quem deve preencher e como isso deve ser feito.
23:08
And earlier I asked you, Sam,
405
1388320
1400
E antes eu perguntei a você, Sam,
23:09
did you know in which year was the first commercial robot built? And you said?
406
1389840
4440
você sabia em que ano o primeiro robô comercial foi construído? E você disse?
23:14
I said 1954.
407
1394400
1640
Eu disse 1954.
23:16
Well, you didn't need a robot to help you there because you are right.
408
1396160
3320
Bem, você não precisava de um robô para ajudá-lo lá porque você está certo.
23:19
— Ah, yay! — Well done!
409
1399600
1760
— Ah, oba! - Bom trabalho!
23:21
Now let's do something a robot can't do yet,
410
1401480
2720
Agora vamos fazer algo que um robô ainda não consegue fazer:
23:24
and that's recap the vocabulary we've highlighted today, starting with empathy.
411
1404320
5280
recapitular o vocabulário que destacamos hoje, começando pela empatia.
23:29
'Empathy' is 'the ability to understand how someone feels
412
1409720
3440
"Empatia" é "a capacidade de entender como alguém se sente
23:33
by imagining what it would be like to be in that person's situation'.
413
1413280
3920
imaginando como seria estar na situação dessa pessoa".
23:37
'Physical assistance' describes 'helping someone by touching them'.
414
1417320
4280
"Assistência física" descreve "ajudar alguém tocando-o".
23:41
We also mentioned a 'companion' —
415
1421720
1920
Também mencionamos um "companheiro" —
23:43
that's 'someone who is with you and keeps you company'.
416
1423760
2680
ou seja, "alguém que está com você e lhe faz companhia".
23:46
Our next word was 'tight' — in the context of money,
417
1426560
3280
Nossa próxima palavra foi "apertado" — no contexto de dinheiro,
23:49
when money is tight, it means there's 'not enough'.
418
1429960
3120
quando o dinheiro está apertado, significa que "não há o suficiente".
23:53
'Abandoned' means 'left alone in a place, usually forever'.
419
1433200
3400
"Abandonado" significa "deixado sozinho em um lugar, geralmente para sempre".
23:56
And finally, we discussed the word 'ethics' —
420
1436720
2440
E, finalmente, discutimos a palavra "ética" —
23:59
we hear a lot about business ethics or medical ethics —
421
1439280
3760
ouvimos muito sobre ética empresarial ou ética médica —
24:03
and it means 'the study of what is morally right'.
422
1443160
3280
e ela significa "o estudo do que é moralmente correto".
24:06
OK, thank you, Sam.
423
1446560
1560
OK, obrigado, Sam.
24:08
Well, we've managed to get through 6 Minute English without the aid of a robot.
424
1448240
4520
Bem, conseguimos passar pelo 6 Minute English sem a ajuda de um robô.
24:12
That's all for now, but please join us again soon. Goodbye!
425
1452880
2920
É tudo por enquanto, mas junte-se a nós novamente em breve. Adeus!
24:15
Bye-bye, everyone!
426
1455920
1000
Tchau, pessoal!
24:17
6 Minute English.
427
1457720
1680
Inglês em 6 minutos.
24:19
From BBC Learning English.
428
1459520
2480
Da BBC Learning English.
24:22
Hello. This is 6 Minute English from BBC Learning English. I'm Phil.
429
1462840
3800
Olá. Este é o 6 Minute English da BBC Learning English. Eu sou o Phil.
24:26
And I'm Georgie.
430
1466760
1240
E eu sou Georgie.
24:28
Animal testing is when living animals are used in scientific research
431
1468120
4320
Testes em animais ocorrem quando animais vivos são usados ​​em pesquisas científicas
24:32
to find out how effective a new medicine is, or how safe a product is for humans.
432
1472560
5880
para descobrir a eficácia de um novo medicamento ou a segurança de um produto para humanos.
24:38
Scientists in favour of it argue that animal testing
433
1478560
3360
Cientistas a favor argumentam que os testes em animais
24:42
shows whether medicines are safe or dangerous for humans,
434
1482040
3840
mostram se os medicamentos são seguros ou perigosos para os humanos
24:46
and has saved many lives.
435
1486000
1760
e salvaram muitas vidas.
24:47
But animal rights campaigners say it's cruel,
436
1487880
2720
Mas os defensores dos direitos dos animais dizem que isso é cruel
24:50
and also ineffective because animals and humans are so different.
437
1490720
4800
e também ineficaz porque animais e humanos são muito diferentes.
24:55
Under British law, medicines must be tested on two different types of animals,
438
1495640
5800
Pela lei britânica, os medicamentos devem ser testados em dois tipos diferentes de animais,
25:01
usually starting with rats, mice or guinea pigs.
439
1501560
4280
geralmente começando com ratos, camundongos ou porquinhos-da-índia.
25:05
And in everyday English, the term 'human guinea pig'
440
1505960
3680
E no inglês cotidiano, o termo "cobaia humana"
25:09
can be used to mean 'the first people to have something tested on them'.
441
1509760
4600
pode ser usado para significar "as primeiras pessoas a terem algo testado nelas".
25:14
But now, groups both for and against animal testing are thinking again,
442
1514480
4960
Mas agora, grupos a favor e contra os testes em animais estão pensando novamente,
25:19
thanks to a recent development in the debate — AI.
443
1519560
3640
graças a um desenvolvimento recente no debate: a IA.
25:23
In this programme, we'll be hearing how artificial intelligence
444
1523320
3160
Neste programa, ouviremos como a inteligência artificial
25:26
could help reduce the need for scientific testing on animals.
445
1526600
3960
pode ajudar a reduzir a necessidade de testes científicos em animais.
25:30
But first, I have a question for you, Georgie.
446
1530680
3400
Mas primeiro, tenho uma pergunta para você, Georgie.
25:34
There's one commonly used medicine in particular
447
1534200
2880
Há um medicamento em particular comumente usado
25:37
which is harmful for animals but safe for humans, but what?
448
1537200
5040
que é prejudicial para animais, mas seguro para humanos. Mas qual?
25:43
Is it a) Antibiotics?
449
1543240
3280
É a) Antibióticos?
25:46
b) Aspirin?
450
1546640
2080
b) Aspirina?
25:48
Or c) Paracetamol?
451
1548840
2480
Ou c) Paracetamol?
25:51
Hmm, I guess it's aspirin.
452
1551440
2880
Hum, acho que é aspirina.
25:54
OK, Georgie, I'll reveal the answer at the end of the programme.
453
1554440
4080
OK, Georgie, revelarei a resposta no final do programa.
25:58
Christine Ro is a science journalist who's interested in the animal testing debate.
454
1558640
5360
Christine Ro é uma jornalista científica interessada no debate sobre testes em animais.
26:04
Here, she explains to BBC World Service programme Tech Life
455
1564120
4600
Aqui, ela explica ao programa Tech Life da BBC World Service
26:08
some of the limitations of testing medicines on animals.
456
1568840
3640
algumas das limitações dos testes de medicamentos em animais.
26:12
Of course, you can't necessarily predict from a mouse or a dog
457
1572600
2640
Claro, você não pode necessariamente prever a partir de um rato ou de um cachorro
26:15
what's going to happen in a human, and there have been a number of cases
458
1575360
3760
o que vai acontecer em um ser humano, e houve uma série de casos
26:19
where substances that have proven to be toxic in animals
459
1579240
3320
em que substâncias que se mostraram tóxicas em animais se
26:22
have been proven to be safe in humans, and vice versa.
460
1582680
3200
mostraram seguras em humanos. e vice-versa. É
26:27
There are also, of course, animal welfare limitations to animal testing.
461
1587200
4040
claro que também há limitações de bem-estar animal nos testes em animais.
26:31
Most people, I think, if they had the choice,
462
1591360
2280
Acredito que a maioria das pessoas, se tivessem a opção,
26:33
would want their substances to be used on as few animals or no animals as possible,
463
1593760
5160
gostariam que suas substâncias fossem usadas no menor número possível de animais ou em nenhum animal,
26:39
while still ensuring safety.
464
1599040
1840
mas ainda garantindo a segurança.
26:41
Now, that's been a really difficult needle to thread,
465
1601000
2280
Agora, isso tem sido algo muito difícil de entender,
26:43
but AI might help to make that more possible.
466
1603400
2440
mas a IA pode ajudar a tornar isso mais possível.
26:45
Christine says that medicines which are safe for animals
467
1605960
3280
Christine diz que medicamentos que são seguros para animais
26:49
might not be safe for humans.
468
1609360
2320
podem não ser seguros para humanos.
26:51
But the opposite is also true —
469
1611800
1760
Mas o oposto também é verdadeiro:
26:53
what's safe for humans might not be safe for animals.
470
1613680
3760
o que é seguro para humanos pode não ser seguro para animais.
26:57
Christine uses the phrase 'vice versa'
471
1617560
2600
Christine usa a frase "vice-versa"
27:00
to show that 'the opposite' of what she says is also true.
472
1620280
3920
para mostrar que "o oposto" do que ela diz também é verdade.
27:05
Christine also uses the idiom to 'thread the needle'
473
1625320
3200
Christine também usa a expressão "enfiar a agulha"
27:08
to describe 'a task which requires a lot of skill and precision,
474
1628640
3800
para descrever "uma tarefa que exige muita habilidade e precisão
27:12
'especially one involving a conflict'.
475
1632560
3480
", especialmente uma que envolve um conflito.
27:16
Yes, medical animal testing may save human lives,
476
1636160
4400
Sim, testes médicos em animais podem salvar vidas humanas,
27:20
but many people see it as cruel and distressing for the animal —
477
1640680
3920
mas muitas pessoas os veem como cruéis e angustiantes para o animal —
27:24
it's a difficult needle to thread.
478
1644720
2840
é uma tarefa difícil de realizar.
27:27
But now, the challenge of threading that needle has got a little easier
479
1647680
3760
Mas agora, o desafio de enfiar a linha na agulha ficou um pouco mais fácil
27:31
because of artificial intelligence.
480
1651560
2080
por causa da inteligência artificial.
27:33
Predicting how likely a new medicine is to harm humans
481
1653760
3680
Prever a probabilidade de um novo medicamento causar danos aos seres humanos
27:37
involves analysing the results of thousands of experiments.
482
1657560
3960
envolve analisar os resultados de milhares de experimentos.
27:41
And one thing AI is really good at is analysing mountains and mountains of data.
483
1661640
6280
E uma coisa em que a IA é realmente boa é em analisar montanhas e montanhas de dados.
27:48
Here's Christine Ro again, speaking with BBC World Service's Tech Life.
484
1668040
4440
Aqui está Christine Ro novamente, falando com o Tech Life do BBC World Service.
27:52
So, AI isn't the whole picture, of course,
485
1672600
1880
Então, a IA não é o quadro completo, é claro,
27:54
but it's an increasingly important part of the picture and one reason for that
486
1674600
4240
mas é uma parte cada vez mais importante do quadro e uma das razões para isso
27:58
is that there is a huge amount of toxicology data to wade through
487
1678960
3320
é que há uma enorme quantidade de dados toxicológicos para analisar
28:02
when it comes to determining chemical safety, and, on top of that,
488
1682400
3720
quando se trata de determinar a segurança química e, além disso,
28:06
there's the staggering number of chemicals being invented all of the time.
489
1686240
4120
há o número impressionante de produtos químicos sendo inventados o tempo todo.
28:10
AI helps scientists wade through huge amounts of data.
490
1690480
4280
A IA ajuda cientistas a analisar grandes quantidades de dados.
28:14
If you 'wade through' something,
491
1694880
2200
Se você "vadeia" algo,
28:17
you 'spend a lot of time and effort doing something boring or difficult,
492
1697200
4920
você "gasta muito tempo e esforço fazendo algo chato ou difícil,
28:22
'especially reading a lot of information'.
493
1702240
2960
especialmente lendo muitas informações". A
28:25
AI can process huge amounts of data,
494
1705320
2600
IA pode processar enormes quantidades de dados
28:28
and what's more, that amount keeps growing as new chemicals are invented.
495
1708040
5360
e, além disso, essa quantidade continua crescendo à medida que novos produtos químicos são inventados.
28:33
Christine uses the phrase 'on top of that', meaning 'in addition to something'.
496
1713520
4960
Christine usa a frase "on top of that", que significa "além de algo".
28:38
Often this extra thing is negative.
497
1718600
2440
Muitas vezes esse algo extra é negativo.
28:41
She means there's already so much data to understand
498
1721160
3360
Ela quer dizer que já há muitos dados para entender
28:44
and additionally, there's even more to be understood about these new chemicals.
499
1724640
5000
e, além disso, há ainda mais a ser compreendido sobre esses novos produtos químicos.
28:49
Of course, the good news is that with AI, testing on animals could one day stop,
500
1729760
6160
Claro, a boa notícia é que, com a IA, os testes em animais podem um dia parar,
28:56
although Christine warns that AI is not the 'whole picture',
501
1736040
3840
embora Christine alerte que a IA não é o "quadro completo",
29:00
it's not 'a complete description of something
502
1740000
2120
não é "uma descrição completa de algo
29:02
'which includes all the relevant information'.
503
1742240
2920
" que inclui todas as informações relevantes.
29:05
Nevertheless, the news is a step forward
504
1745280
2640
No entanto, a notícia é um avanço
29:08
for both animal welfare and for modern medicine.
505
1748040
4040
tanto para o bem-estar animal quanto para a medicina moderna.
29:12
Speaking of which, what was the answer to your question, Phil?
506
1752200
3720
Falando nisso, qual foi a resposta para sua pergunta, Phil?
29:16
What is a commonly used medicine which is safe for humans, but harmful to animals?
507
1756040
5200
Qual é um medicamento comumente usado que é seguro para humanos, mas prejudicial para animais?
29:21
I guessed it was aspirin.
508
1761360
1920
Imaginei que fosse aspirina.
29:23
Which was the correct answer!
509
1763400
3080
Qual era a resposta correta!
29:26
Right, let's recap the vocabulary we've discussed,
510
1766600
3640
Certo, vamos recapitular o vocabulário que discutimos,
29:30
starting with 'human guinea pigs'
511
1770360
2600
começando com "cobaias humanas",
29:33
meaning 'the first people to have something new tested on them'.
512
1773080
3880
que significa "as primeiras pessoas a terem algo novo testado nelas".
29:37
The phrase 'vice versa' is used to indicate
513
1777080
2560
A frase "vice-versa" é usada para indicar
29:39
that 'the opposite of what you have just said is also true'.
514
1779760
4280
que "o oposto do que você acabou de dizer também é verdade".
29:44
To 'thread the needle'
515
1784160
1320
"Enfiar a linha na agulha"
29:45
describes 'a task which requires extreme skill and precision to do successfully'.
516
1785600
6120
descreve "uma tarefa que requer extrema habilidade e precisão para ser realizada com sucesso".
29:51
The 'whole picture' means 'a complete description of something
517
1791840
3360
O "quadro geral" significa "uma descrição completa de algo
29:55
'which includes all the relevant information and opinions about it'.
518
1795320
4440
", que inclui todas as informações e opiniões relevantes sobre ele.
29:59
If you 'wade through' something,
519
1799880
2000
Se você "vadeia" algo,
30:02
you 'spend a lot of time and effort doing something boring or difficult,
520
1802000
4840
você "gasta muito tempo e esforço fazendo algo chato ou difícil,
30:06
'especially reading a lot of information'.
521
1806960
2800
especialmente lendo muitas informações".
30:09
And finally, the phrase 'on top of something'
522
1809880
2960
E, finalmente, a frase "on top of something"
30:12
means 'in addition to something', and that extra thing is often negative.
523
1812960
5000
significa "além de algo", e essa coisa extra geralmente é negativa.
30:18
That's all for this week. Goodbye for now!
524
1818080
2080
É tudo por esta semana. Adeus por enquanto!
30:20
Bye!
525
1820280
1360
Tchau!
30:21
6 Minute English.
526
1821760
1320
Inglês em 6 minutos.
30:23
From BBC Learning English.
527
1823200
2800
Da BBC Learning English.
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7