Should we fear chatbots? ⏲️ 6 Minute English

136,787 views ・ 2023-07-06

BBC Learning English


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo. As legendas traduzidas são traduzidas automaticamente.

00:07
Hello. This is 6 Minute English
0
7680
1600
Olá. Este é o 6 Minute English
00:09
from BBC Learning English.
1
9280
1720
da BBC Learning English.
00:11
I'm Neil.
2
11000
760
00:11
And I'm Rob.
3
11760
1720
Eu sou Neil.
E eu sou Rob.
00:13
Now, I'm sure most of us have interacted with a chatbot.
4
13480
4160
Agora, tenho certeza que a maioria de nós já interagiu com um chatbot.
00:17
These are bits of computer technology that respond to text with text
5
17640
4920
Estes são bits de tecnologia de computador que respondem ao texto com texto
00:22
or respond to your voice.
6
22560
2040
ou respondem à sua voz.
00:24
You ask it a question and usually it comes up
7
24600
3400
Você faz uma pergunta e geralmente vem
00:28
with an answer.
8
28000
1200
com uma resposta.
00:29
Yes, it's almost like talking to another human.
9
29200
2480
Sim, é quase como falar com outro humano.
00:31
But of course, it's not.
10
31680
1760
Mas claro, não é.
00:33
It's just a clever piece of technology.
11
33440
2640
É apenas uma peça inteligente de tecnologia.
00:36
It's becoming more sophisticated, more advanced and complex,
12
36080
3720
Está se tornando mais sofisticado, mais avançado e complexo,
00:39
but could they replace real human interaction altogether?
13
39800
3200
mas eles poderiam substituir completamente a interação humana real?
00:43
We'll discuss that more in a moment and find out if chatbots
14
43000
3560
Discutiremos isso mais adiante e descobriremos se os chatbots
00:46
really think for themselves. But first,
15
46560
3120
realmente pensam por si mesmos. Mas primeiro,
00:49
I have a question for you, Rob. The first computer program that allowed
16
49680
4000
tenho uma pergunta para você, Rob. O primeiro programa de computador que permitia
00:53
some kind of plausible conversation between humans and machines
17
53680
4400
algum tipo de conversa plausível entre humanos e máquinas
00:58
was invented in 1966.
18
58080
2840
foi inventado em 1966.
01:00
But what was it called?
19
60920
1760
Mas como se chamava?
01:02
Was it a) Alexa.
20
62680
2360
Foi a) Alexa.
01:05
b) Eliza, or c) Parry? Well, it's not Alexa,
21
65040
5040
b) Eliza, ou c) Parry? Bem, não é Alexa,
01:10
that's too new, so I'll guess
22
70080
2080
isso é muito novo, então vou adivinhar
01:12
c) Parry.
23
72160
1160
c) Parry.
01:13
I'll reveal the answer at the end of the programme.
24
73320
3480
Vou revelar a resposta no final do programa.
01:16
Now, the old chatbots of the 1960s and 70s were quite basic.
25
76800
5400
Agora, os antigos chatbots dos anos 1960 e 70 eram bastante básicos.
01:22
But more recently, the technology is able to predict the next word that is
26
82200
5600
Mas, mais recentemente, a tecnologia é capaz de prever a próxima palavra que
01:27
likely to be used in a sentence and it learns words and sentence structures.
27
87800
4800
provavelmente será usada em uma frase e aprende palavras e estruturas de frases.
01:32
It's clever stuff.
28
92600
1360
É uma coisa inteligente. Já
01:33
I've experienced using them when talking to my bank
29
93960
2760
experimentei usá-los ao falar com meu banco
01:36
or when I have problems trying to book a ticket on a website.
30
96720
3320
ou quando tenho problemas ao tentar reservar uma passagem em um site.
01:40
I no longer phone a human,
31
100040
2480
Não telefono mais para um humano,
01:42
I speak to a virtual assistant instead.
32
102520
2840
falo com um assistente virtual.
01:45
Probably the most well known chatbot at the moment
33
105360
2880
Provavelmente o chatbot mais conhecido no momento
01:48
is ChatGTP.
34
108240
1640
é o ChatGTP.
01:49
It is. The claim is that it's able to answer
35
109880
2920
Isso é. A alegação é que ele é capaz de responder a
01:52
anything you ask it.
36
112800
1680
qualquer coisa que você perguntar.
01:54
This includes writing
37
114480
1280
Isso inclui redigir as
01:55
students' essays.
38
115760
1680
redações dos alunos.
01:57
Now, this is something that was discussed on the BBC
39
117440
2600
Agora, isso é algo que foi discutido no
02:00
Radio 4 programme, Word of Mouth.
40
120040
2520
programa da BBC Radio 4, Word of Mouth.
02:02
Emily M Bender,
41
122560
1640
Emily M Bender,
02:04
Professor of Computational Linguistics at the University
42
124200
3320
professora de Linguística Computacional da Universidade
02:07
of Washington, explained why it's dangerous to always trust
43
127520
3760
de Washington, explicou por que é perigoso sempre confiar no
02:11
what a chatbot is telling us.
44
131280
2160
que um chatbot está nos dizendo.
02:13
We tend to react to grammatical, fluent, coherent seeming text
45
133440
5280
Tendemos a reagir a um texto aparentemente gramatical, fluente e coerente
02:18
as authoritative and reliable and valuable and
46
138720
4720
como autoritário, confiável e valioso e
02:23
we need to be on guard against that because what is coming out of ChatGTP
47
143440
2680
precisamos estar atentos contra isso, porque o que está saindo do ChatGTP não
02:26
is none of that.
48
146120
1400
é nada disso.
02:27
So, Professor Bender says that well written text, that is coherent -
49
147520
4320
Então, o professor Bender diz que um texto bem escrito, que é coerente -
02:31
that means it's clear, carefully considered and sensible -
50
151840
3440
isso significa que é claro, cuidadosamente considerado e sensato -
02:35
makes us think what we are reading is reliable and authoritative.
51
155280
4240
nos faz pensar que o que estamos lendo é confiável e confiável.
02:39
So it's respected, accurate and important sounding.
52
159520
3600
Portanto, é um som respeitado, preciso e importante.
02:43
Yes, chatbots might appear to write in this way. But really,
53
163120
3920
Sim, os chatbots podem parecer escrever dessa maneira. Mas, na verdade,
02:47
they are just predicting one word after another based on what they have learnt.
54
167040
5040
eles estão apenas prevendo uma palavra após a outra com base no que aprenderam.
02:52
We should therefore be on guard - be careful
55
172080
3040
Devemos, portanto, estar atentos - ser cuidadosos
02:55
and alert about the accuracy of what we are being told.
56
175120
3880
e alertas sobre a exatidão do que nos é dito.
02:59
One concern is that chatbots - a form of artificial intelligence - work
57
179000
4800
Uma preocupação é que os chatbots – uma forma de inteligência artificial – funcionam
03:03
a bit like a human brain in the way it can learn and process information.
58
183800
4640
um pouco como o cérebro humano na maneira como podem aprender e processar informações.
03:08
They are able to learn from experience. Something called deep learning.
59
188440
4680
Eles são capazes de aprender com a experiência. Algo chamado aprendizado profundo.
03:13
A cognitive psychologist and computer scientist called Geoffrey Hinton,
60
193120
4120
Um psicólogo cognitivo e cientista da computação chamado Geoffrey Hinton
03:17
recently said he feared that chatbots could soon overtake the level
61
197240
4120
disse recentemente que temia que os chatbots pudessem em breve ultrapassar o nível
03:21
of information that a human brain holds. That is a bit scary isn't it?
62
201360
5160
de informação que o cérebro humano contém. Isso é um pouco assustador, não é?
03:26
But for now, chatbots can be useful for practical information,
63
206560
4000
Mas, por enquanto, os chatbots podem ser úteis para informações práticas,
03:30
but sometimes we start to believe they are human
64
210560
2680
mas às vezes começamos a acreditar que eles são humanos
03:33
and we interact with them in a human like way.
65
213240
2920
e interagimos com eles de maneira humana.
03:36
This can make us believe them even more.
66
216160
2520
Isso pode nos fazer acreditar ainda mais neles. A
03:38
Professor Emma Bender,
67
218680
1160
professora Emma Bender,
03:39
speaking on the BBC's Word of Mouth
68
219840
1880
falando no programa Word of Mouth da BBC
03:41
programme, explains why we might feel like that.
69
221720
3560
, explica por que podemos nos sentir assim.
03:45
I think what's going on there is, the kinds of answers
70
225280
3160
Eu acho que o que está acontecendo é que os tipos de respostas que
03:48
you get depend on the questions
71
228440
2360
você obtém dependem das perguntas que
03:50
you put in, because it's doing likely next word, likely next word.
72
230800
3360
você faz, porque provavelmente a próxima palavra, provavelmente a próxima palavra.
03:54
And so, if as the human interacting with this machine
73
234160
3360
E então, se como o humano interage com esta máquina
03:57
and you start asking questions about how do you feel, you know, chatbot?
74
237520
4120
e você começa a fazer perguntas sobre como você se sente, sabe, chatbot?
04:01
And, what do you think of this?
75
241640
2120
E, o que você acha disso?
04:03
What are your goals?
76
243760
1200
Quais são seus objetivos?
04:04
You can provoke it to say things that sound like what a sentient
77
244960
3400
Você pode provocá-lo para dizer coisas que soam como o que uma
04:08
entity would say. We are really primed to imagine a mind behind language
78
248360
4960
entidade senciente diria. Estamos realmente preparados para imaginar uma mente por trás da linguagem
04:13
whenever we encounter language.
79
253320
1840
sempre que a encontramos.
04:15
And so we really have to account for that when
80
255160
1880
E então realmente temos que levar isso em consideração quando
04:17
we're making decisions about these.
81
257040
2240
tomamos decisões sobre isso.
04:19
So, although a chatbot might sound human,
82
259480
2960
Portanto, embora um chatbot possa parecer humano, na verdade,
04:22
we really just ask it
83
262440
1280
apenas perguntamos
04:23
things to get a reaction. We provoke it.
84
263720
2720
coisas para obter uma reação. Nós o provocamos.
04:26
And it answers only with words
85
266440
1800
E responde apenas com palavras que
04:28
it has learned to use before.
86
268240
2080
aprendeu a usar antes.
04:30
Not because it has come up with a clever answer,
87
270320
2960
Não porque surgiu com uma resposta inteligente,
04:33
but it does sound like a sentient entity. Sentient describes a living  
88
273280
5000
mas soa como uma entidade senciente. Sentient descreve uma
04:38
thing that experiences feelings. As Professor Bender says we imagine  
89
278280
4880
coisa viva   que experimenta sentimentos. Como diz o professor Bender, imaginamos
04:43
that when something speaks there is a mind behind it. But sorry Neil,
90
283160
4760
que quando algo fala há uma mente por trás disso. Mas desculpe Neil,
04:47
they are not your friend.
91
287920
1280
eles não são seus amigos.
04:49
They're just machines.
92
289200
1160
São apenas máquinas.
04:50
Yes, it's strange then
93
290360
1240
Sim, é estranho
04:51
that we sometimes give chatbots names. Alexa, Siri, and earlier
94
291600
4920
que às vezes damos nomes a chatbots. Alexa, Siri e antes
04:56
I asked you what the name was for their first ever chatbot?
95
296520
3840
eu perguntei qual era o nome do primeiro chatbot deles?
05:00
And I guessed it was Parry. Was I right?
96
300360
2760
E imaginei que fosse Parry. Eu estava certo?
05:03
You guessed wrong, I'm afraid.
97
303120
2000
Você adivinhou errado, receio.
05:05
Parry was an early form of chatbot from 1972.
98
305120
3840
Parry foi uma forma inicial de chatbot de 1972.
05:08
But the correct answer was Eliza.
99
308960
2960
Mas a resposta correta era Eliza.
05:11
It was considered to be the first chatterbot, as it was called then,
100
311920
3960
Foi considerado o primeiro chatterbot, como era chamado então,
05:15
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
101
315880
5480
e foi desenvolvido por Joseph Weizenbaum no Instituto de Tecnologia de Massachusetts.
05:21
Fascinating stuff.
102
321360
1320
Coisas fascinantes.
05:22
OK, now let's recap some of the vocabulary
103
322680
2480
OK, agora vamos recapitular um pouco do vocabulário que
05:25
we highlighted in this programme, starting with sophisticated,
104
325160
4080
destacamos neste programa, começando com sofisticado,
05:29
which can describe technology that is advanced and complex.
105
329240
4120
que pode descrever uma tecnologia avançada e complexa.
05:33
Something that is coherent, is clear carefully considered and sensible.
106
333360
4520
Algo que seja coerente, claro, ponderado e sensato.
05:37
Authoritative means respected accurate and important sounding.
107
337880
4600
Autoritário significa respeitado som preciso e importante.
05:42
When you are on guard
108
342480
1400
Quando você está em guarda,
05:43
you must be careful and alert about something.
109
343880
2400
deve ser cuidadoso e alerta sobre alguma coisa.
05:46
It could be the accuracy of what you see or hear or just being aware
110
346280
4560
Pode ser a precisão do que você vê ou ouve ou apenas estar ciente
05:50
of the dangers around you. To provoke means to do something
111
350840
3560
dos perigos ao seu redor. Provocar significa fazer algo
05:54
that causes a reaction from someone.
112
354400
2480
que provoque uma reação em alguém.
05:56
Sentient describes something that experiences feelings.
113
356880
3840
Sentient descreve algo que experimenta sentimentos.
06:00
So it's something that is living. Once again
114
360720
2680
Então é algo que está vivo. Mais uma vez,
06:03
our six minutes are up. Goodbye.
115
363400
2320
nossos seis minutos terminaram. Adeus.
06:05
Bye bye for now.
116
365720
1520
Adeus por agora.
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7