Can AI have a mind of its own? ⏲️ 6 Minute English

249,203 views ・ 2023-01-26

BBC Learning English


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo. As legendas traduzidas são traduzidas automaticamente.

00:08
Hello. This is 6 Minute English from
0
8520
2220
Olá. Este é o 6 Minute English da
00:10
BBC Learning English. I’m Sam.
1
10740
1680
BBC Learning English. Eu sou Sam.
00:12
And I’m Neil.
2
12420
840
E eu sou Neil.
00:13
In the autumn of 2021, something
3
13260
2520
No outono de 2021, algo
00:15
strange happened at the Google
4
15780
1920
estranho aconteceu na sede do Google
00:17
headquarters in California’s Silicon
5
17700
2460
no Vale do Silício, na Califórnia
00:20
Valley. A software engineer called,
6
20160
2100
. Um engenheiro de software chamado
00:22
Blake Lemoine, was working on the
7
22260
2460
Blake Lemoine estava trabalhando no
00:24
artificial intelligence project, ‘Language
8
24720
2340
projeto de inteligência artificial, ‘Language
00:27
Models for Dialogue Applications’, or
9
27060
2700
Models for Dialogue Applications’, ou
00:29
LaMDA for short. LaMDA is a
10
29760
2940
LaMDA para abreviar. LaMDA é um
00:32
chatbot – a computer programme
11
32700
1860
chatbot – um programa de computador
00:34
designed to have conversations with
12
34560
2040
projetado para conversar com
00:36
humans over the internet.
13
36600
1080
humanos pela internet.
00:37
After months talking with LaMDA
14
37680
2820
Depois de meses conversando com o LaMDA
00:40
on topics ranging from movies to
15
40500
2280
sobre temas que vão desde filmes até
00:42
the meaning of life, Blake came to
16
42780
2220
o sentido da vida, Blake chegou a
00:45
a surprising conclusion: the chatbot
17
45000
2700
uma conclusão surpreendente: o chatbot
00:47
was an intelligent person with wishes
18
47700
2640
era uma pessoa inteligente com desejos
00:50
and rights that should be respected.
19
50340
2160
e direitos que deveriam ser respeitados.
00:52
For Blake, LaMDA was a Google
20
52500
2640
Para Blake, o LaMDA era um
00:55
employee, not a machine.
21
55140
1380
funcionário do Google, não uma máquina.
00:56
He also called it his ‘friend’.
22
56520
2160
Ele também o chamou de "amigo".
00:58
Google quickly reassigned Blake from
23
58680
2580
O Google rapidamente transferiu Blake
01:01
the project, announcing that his ideas
24
61260
1860
do projeto, anunciando que suas ideias
01:03
were not supported by the evidence.
25
63120
2220
não eram apoiadas por evidências.
01:05
But what exactly was going on?
26
65340
2700
Mas o que exatamente estava acontecendo?
01:08
In this programme, we’ll be
27
68040
1860
Neste programa,
01:09
discussing whether artificial intelligence
28
69900
2160
discutiremos se a inteligência artificial
01:12
is capable of consciousness. We’ll hear
29
72060
3000
é capaz de consciência.
01:15
from one expert who thinks AI is not as
30
75060
3000
Ouviremos um especialista que acha que a IA não é tão
01:18
intelligent as we sometimes think,
31
78060
1560
inteligente quanto às vezes pensamos
01:19
and as usual, we’ll be learning some
32
79620
2460
e, como sempre, também aprenderemos um
01:22
new vocabulary as well.
33
82080
1320
novo vocabulário.
01:23
But before that, I have a question for
34
83400
2100
Mas antes disso, tenho uma pergunta para
01:25
you, Neil. What happened to Blake Lemoine
35
85500
2280
você, Neil. O que aconteceu com Blake Lemoine
01:27
is strangely similar to the 2013 Hollywood
36
87780
2940
é estranhamente semelhante ao filme de Hollywood de 2013
01:30
movie, Her, starring Joaquin Phoenix as
37
90720
3420
, Ela, estrelado por Joaquin Phoenix como
01:34
a lonely writer who talks with his
38
94140
1860
um escritor solitário que fala com seu
01:36
computer, voiced by Scarlett Johansson.
39
96000
2280
computador, dublado por Scarlett Johansson.
01:38
But what happens at the end
40
98280
1860
Mas o que acontece no final
01:40
of the movie? Is it:
41
100140
1380
do filme? É:
01:41
a) the computer comes to life?
42
101520
1860
a) o computador ganha vida?
01:43
b) the computer dreams about the writer? or,
43
103380
3360
b) o computador sonha com o escritor? ou,
01:46
c) the writer falls in love with the computer?
44
106740
2040
c) o escritor se apaixona pelo computador?
01:48
... c) the writer falls in love with the computer.
45
108780
3420
... c) o escritor se apaixona pelo computador.
01:52
OK, Neil, I’ll reveal the answer at the end
46
112200
2700
OK, Neil, revelarei a resposta no final
01:54
of the programme. Although Hollywood is
47
114900
2460
do programa. Embora Hollywood esteja
01:57
full of movies about robots coming to life,
48
117360
2340
cheia de filmes sobre robôs ganhando vida,
01:59
Emily Bender, a professor of linguistics and
49
119700
3240
Emily Bender, professora de linguística e
02:02
computing at the University of Washington,
50
122940
2100
computação da Universidade de Washington,
02:05
thinks AI isn’t that smart. She thinks the
51
125040
4440
acha que a IA não é tão inteligente. Ela acha que as
02:09
words we use to talk about technology,
52
129480
1800
palavras que usamos para falar sobre tecnologia,
02:11
phrases like ‘machine learning’, give a
53
131280
3300
frases como ‘aprendizado de máquina’, dão uma
02:14
false impression about what
54
134580
1620
falsa impressão sobre o que os
02:16
computers can and can’t do.
55
136200
1740
computadores podem ou não fazer.
02:17
Here is Professor Bender discussing
56
137940
2400
Aqui está o professor Bender discutindo
02:20
another misleading phrase, ‘speech
57
140340
2340
outra frase enganosa, '
02:22
recognition’, with BBC World Service
58
142680
2460
reconhecimento de fala', com o programa da BBC World
02:25
programme, The Inquiry:
59
145140
1440
Service, The Inquiry:
02:27
If you talk about ‘automatic speech
60
147360
2220
Se você fala sobre 'reconhecimento automático de fala
02:29
recognition’, the term ‘recognition’
61
149580
1920
', o termo 'reconhecimento'
02:31
suggests that there's something
62
151500
2100
sugere que há algo
02:33
cognitive going on, where I think a
63
153600
2160
cognitivo acontecendo, onde eu acho que um
02:35
better term would be automatic transcription.
64
155760
2100
termo melhor seria transcrição automática.
02:37
That just describes the input-output
65
157860
1980
Isso apenas descreve a relação entrada-saída
02:39
relation, and not any theory or wishful
66
159840
3660
, e não qualquer teoria ou pensamento positivo
02:43
thinking about what the computer is
67
163500
2280
sobre o que o computador está
02:45
doing to be able to achieve that.
68
165780
1440
fazendo para conseguir isso.
02:47
Using words like ‘recognition’ in relation
69
167220
3360
Usar palavras como ‘reconhecimento’ em relação
02:50
to computers gives the idea that
70
170580
2100
a computadores dá a ideia de que
02:52
something cognitive is happening – something
71
172680
2760
algo cognitivo está acontecendo – algo
02:55
related to the mental processes of
72
175440
2340
relacionado aos processos mentais de
02:57
thinking, knowing, learning and understanding.
73
177780
2760
pensar, conhecer, aprender e compreender.
03:00
But thinking and knowing are human,
74
180540
2700
Mas pensar e conhecer são atividades humanas
03:03
not machine, activities. Professor Benders
75
183240
3060
, não máquinas. O professor Benders
03:06
says that talking about them in connection
76
186300
2040
diz que falar sobre eles em conexão
03:08
with computers is wishful thinking -
77
188340
3570
com computadores é uma ilusão -
03:11
something which is unlikely to happen.
78
191910
2310
algo que é improvável que aconteça.
03:14
The problem with using words in this
79
194220
2220
O problema de usar palavras dessa
03:16
way is that it reinforces what
80
196440
2100
maneira é que ela reforça o que o
03:18
Professor Bender calls, technical
81
198540
2160
professor Bender chama de
03:20
bias – the assumption that the computer
82
200700
2520
viés técnico – a suposição de que o computador
03:23
is always right. When we encounter
83
203220
2520
está sempre certo. Quando encontramos uma
03:25
language that sounds natural, but is
84
205740
1680
linguagem que soa natural, mas
03:27
coming from a computer, humans
85
207420
2280
vem de um computador, os humanos
03:29
can’t help but imagine a mind behind
86
209700
2460
não podem deixar de imaginar uma mente por trás
03:32
the language, even when there isn’t one.
87
212160
2220
da linguagem, mesmo quando não existe.
03:34
In other words, we anthropomorphise
88
214380
2160
Em outras palavras, nós antropomorfizamos os
03:36
computers – we treat them as if they
89
216540
2520
computadores – nós os tratamos como se
03:39
were human. Here’s Professor Bender
90
219060
2220
fossem humanos. Aqui está o professor Bender
03:41
again, discussing this idea with
91
221280
2220
novamente, discutindo essa ideia com
03:43
Charmaine Cozier, presenter of BBC
92
223500
2700
Charmaine Cozier, apresentadora do BBC
03:46
World Service’s, the Inquiry.
93
226200
1620
World Service, the Inquiry.
03:48
So ‘ism’ means system, ‘anthro’ or ‘anthropo’
94
228420
3660
Então, 'ismo' significa sistema, 'antro' ou 'antropo'
03:52
means human, and ‘morph’ means shape...
95
232080
3000
significa humano, e 'morfo' significa forma...
03:55
And so this is a system that puts the
96
235080
3000
E então este é um sistema que coloca a
03:58
shape of a human on something, and
97
238080
2160
forma de um humano em algo, e
04:00
in this case the something is a computer.
98
240240
1260
neste caso o algo é um computador.
04:01
We anthropomorphise animals all the time,
99
241500
3180
Antropomorfizamos animais o tempo todo,
04:04
but we also anthropomorphise action figures,
100
244680
3060
mas também antropomorfizamos figuras de ação,
04:07
or dolls, or companies when we talk about
101
247740
2880
ou bonecos, ou empresas quando falamos de
04:10
companies having intentions and so on.
102
250620
2040
empresas com intenções e assim por diante.
04:12
We very much are in the habit of seeing
103
252660
2880
Temos o hábito de
04:15
ourselves in the world around us.
104
255540
1620
nos ver no mundo ao nosso redor.
04:17
And while we’re busy seeing ourselves
105
257160
2220
E enquanto estamos ocupados vendo a nós
04:19
by assigning human traits to things that
106
259380
2100
mesmos atribuindo características humanas a coisas que
04:21
are not, we risk being blindsided.
107
261480
2520
não são, corremos o risco de ser pegos de surpresa.
04:24
The more fluent that text is, the more
108
264000
2400
Quanto mais fluente for o texto, quanto mais
04:26
different topics it can converse on, the
109
266400
2700
tópicos diferentes ele puder conversar,
04:29
more chances there are to get taken in.
110
269100
1920
mais chances haverá de ser enganado.
04:31
If we treat computers as if they could think,
111
271860
2760
Se tratarmos os computadores como se eles pudessem pensar,
04:34
we might get blindsided, or
112
274620
2520
podemos ser pegos de
04:37
unpleasantly surprised. Artificial intelligence
113
277140
3180
surpresa ou desagradavelmente surpreendidos. A inteligência artificial
04:40
works by finding patterns in massive
114
280320
2220
funciona encontrando padrões em grandes
04:42
amounts of data, so it can seem like
115
282540
2520
quantidades de dados, então pode parecer
04:45
we’re talking with a human, instead
116
285060
1860
que estamos conversando com um ser humano, em vez
04:46
of a machine doing data analysis.
117
286920
2220
de uma máquina fazendo análise de dados.
04:49
As a result, we get taken in – we’re tricked
118
289140
4020
Como resultado, somos enganados – somos enganados
04:53
or deceived into thinking we’re dealing
119
293160
1920
ou iludidos ao pensar que estamos lidando
04:55
with a human, or with something intelligent.
120
295080
3003
com um ser humano ou com algo inteligente.
04:58
Powerful AI can make machines appear conscious,
121
298083
3318
A IA poderosa pode fazer as máquinas parecerem conscientes,
05:01
but even tech giants like Google are years
122
301401
2945
mas mesmo gigantes da tecnologia como o Google estão a
05:04
away from building computers that can
123
304346
2407
anos de construir computadores que podem
05:06
dream or fall in love. Speaking of which,
124
306753
2355
sonhar ou se apaixonar. Falando nisso,
05:09
Sam, what was the answer to your question?
125
309108
2671
Sam, qual foi a resposta para sua pergunta?
05:11
I asked what happened in the 2013 movie, Her.
126
311779
2752
Eu perguntei o que aconteceu no filme de 2013, Her.
05:14
Neil thought that the main character
127
314531
1900
Neil pensou que o personagem principal
05:16
falls in love with his computer, which
128
316431
2248
se apaixonou por seu computador, o que
05:18
was the correct answer!
129
318679
1361
era a resposta correta!
05:20
OK. Right, it’s time to recap the vocabulary
130
320880
2640
OK. Certo, é hora de recapitular o vocabulário
05:23
we’ve learned from this programme about AI,
131
323520
2340
que aprendemos com este programa sobre IA,
05:25
including chatbots - computer programmes
132
325860
3180
incluindo chatbots - programas de computador
05:29
designed to interact with
133
329040
1380
projetados para interagir com
05:30
humans over the internet.
134
330420
1560
humanos pela internet.
05:31
The adjective cognitive describes
135
331980
2640
O adjetivo cognitivo descreve
05:34
anything connected with the mental
136
334620
1860
qualquer coisa relacionada com os
05:36
processes of knowing,
137
336480
1320
processos mentais de conhecimento,
05:37
learning and understanding.
138
337800
1380
aprendizagem e compreensão.
05:39
Wishful thinking means thinking that
139
339180
2640
Wishful thinking significa pensar que
05:41
something which is very unlikely to happen
140
341820
2100
algo que é muito improvável que aconteça
05:43
might happen one day in the future.
141
343920
2040
pode acontecer um dia no futuro.
05:45
To anthropomorphise an object means
142
345960
2400
Antropomorfizar um objeto
05:48
to treat it as if it were human,
143
348360
1500
significa tratá-lo como se fosse humano,
05:49
even though it’s not.
144
349860
1200
ainda que não o seja.
05:51
When you’re blindsided, you’re
145
351060
2520
Quando você é pego de surpresa, você é
05:53
surprised in a negative way.
146
353580
1500
surpreendido de uma forma negativa.
05:55
And finally, to get taken in by someone means
147
355080
2880
E, finalmente, ser enganado por alguém
05:57
to be deceived or tricked by them.
148
357960
1860
significa ser enganado ou enganado por eles.
05:59
My computer tells me that our six minutes
149
359820
2640
Meu computador me diz que nossos seis
06:02
are up! Join us again soon, for now
150
362460
2580
minutos acabaram! Junte-se a nós novamente em breve, por
06:05
it’s goodbye from us.
151
365040
1140
enquanto é um adeus nosso.
06:06
Bye!
152
366180
500
Tchau!
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7