Talking to machines - 6 Minute English

72,438 views ・ 2018-06-07

BBC Learning English


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo. As legendas traduzidas são traduzidas automaticamente.

00:07
Rob: Hello and welcome to 6 Minute
0
7880
2340
Rob: Olá e bem-vindo ao 6 Minute
00:10
English. I'm Rob.
1
10220
1040
English. Eu sou Rob.
00:11
Dan: And I'm Dan.
2
11260
1460
Dan: E eu sou o Dan.
00:12
Rob: Hey Dan. What’s the time?
3
12720
2020
Rob: Oi Dan. Que horas são?
00:14
Dan: Time you got a new watch?
4
14740
2500
Dan: Hora de comprar um relógio novo?
00:17
Rob: Now I didn’t ask you that just for a
5
17240
2153
Rob: Bem, eu não perguntei isso apenas para uma
00:19
joke or a sarcastic comment now did I?
6
19393
2067
piada ou um comentário sarcástico, perguntei?
00:21
Dan: Well no, but look there’s a clock over
7
21460
2380
Dan: Bem, não, mas olhe, há um relógio
00:23
there, and you are wearing a watch, you
8
23840
1940
ali, e você está usando um relógio, você
00:25
have a smartphone and a computer,
9
25780
2400
tem um smartphone e um computador,
00:28
all of which show the time.
10
28180
1660
todos mostrando as horas.
00:29
So why are you asking me?
11
29840
1970
Então por que você está me perguntando?
00:31
Rob: Dan! I was trying to introduce today’s
12
31810
2530
Rob: Dan! Eu estava tentando apresentar o
00:34
topic which is all about virtual assistants
13
34340
3100
tópico de hoje, que é sobre assistentes virtuais
00:37
or bots.
14
37440
1020
ou bots.
00:38
You seemed to have forgotten the script.
15
38460
2040
Você parecia ter esquecido o roteiro.
00:40
Dan: Oh yes, sorry. We’re talking about
16
40500
2820
Dan: Ah, sim, desculpe. Estamos falando de
00:43
software that you talk to and that can talk
17
43320
2680
software com o qual você fala e que pode
00:46
back to you. Like Apple’s Siri, Google’s
18
46000
2840
responder a você. Como a Siri da Apple, o Assistente do Google
00:48
Assistant, Amazon’s Alexa and
19
48840
2500
, a Alexa da Amazon e a
00:51
Microsoft’s Cortana.
20
51340
2000
Cortana da Microsoft.
00:53
It might be on your phone or computer or
21
53340
2680
Pode ser no seu telefone ou computador ou
00:56
even a speaker in your house.
22
56020
2420
até mesmo em um alto-falante em sua casa.
00:58
Rob: Now before we hear more about this
23
58440
2374
Rob: Agora, antes de ouvirmos mais sobre esse
01:00
topic, here is today’s quiz question:
24
60814
2445
tópico, aqui está a pergunta do questionário de hoje:
01:03
Do you know when was the first computer
25
63260
3080
você sabe quando foi lançado o primeiro computador
01:06
which could recognise speech, launched?
26
66340
2560
que podia reconhecer a fala?
01:08
Was it in a) 1951 b) 1961, or c) 1971.
27
68900
6240
Foi em a) 1951 b) 1961 ou c) 1971.
01:15
Dan: I have found my script, so I’ve seen
28
75140
3080
Dan: Encontrei meu roteiro, então vi
01:18
the answer but I have to say I was
29
78220
2720
a resposta, mas devo dizer que fiquei
01:20
surprised.
30
80940
940
surpreso.
01:21
Rob: Don't tell anybody Dan, OK. We’ll give
31
81940
1460
Rob: Não conte a ninguém Dan, ok. Daremos
01:23
the answer for the listeners at the end of
32
83400
2380
a resposta para os ouvintes no final
01:25
the programme. We’re going to hear now
33
85780
2600
do programa. Vamos ouvir agora
01:28
from Tom Hewitson, who is a
34
88380
2120
Tom Hewitson, que é um
01:30
conversation designer, working in the field
35
90500
2400
designer de conversação, trabalhando na área
01:32
of virtual assistants, talking on BBC Radio
36
92900
3660
de assistentes virtuais, falando no
01:36
4's Word of Mouth programme.
37
96560
2000
programa Word of Mouth da BBC Radio 4.
01:38
He talks about the whole idea of virtual
38
98560
2780
Ele fala sobre toda a ideia de
01:41
assistants and how they are changing the
39
101340
2460
assistentes virtuais e como eles estão mudando a
01:43
way we interact with technology.
40
103800
2396
forma como interagimos com a tecnologia.
01:46
How does he describe our existing
41
106200
1980
Como ele descreve nosso
01:48
relationship with computers?
42
108180
2480
relacionamento existente com os computadores?
01:50
Tom Hewitson: It changes the way that
43
110660
2160
Tom Hewitson: Isso muda a maneira como
01:52
we think about computers.
44
112832
1987
pensamos sobre computadores.
01:54
To date we’ve thought of them largely as
45
114819
2036
Até o momento, pensamos neles principalmente como
01:56
tools. They’re just an advanced version
46
116855
1985
ferramentas. Eles são apenas uma versão avançada
01:58
of a calculator. They’re something you
47
118840
2541
de uma calculadora. Eles são algo que você
02:01
kind of use to get a specific thing done,
48
121381
2560
usa para fazer uma coisa específica,
02:03
whereas this is kind of changing them
49
123941
2268
enquanto isso os transforma
02:06
more into like an agent. They’re an active
50
126209
1851
mais em agentes. Eles são
02:08
participant in the kind of interaction and in
51
128060
3280
participantes ativos no tipo de interação e
02:11
guiding you to make the right decision.
52
131340
2660
orientam você a tomar a decisão certa.
02:14
Rob: How did he describe our existing
53
134000
1956
Rob: Como ele descreveu nosso
02:15
relationship with computers then?
54
135956
1634
relacionamento existente com os computadores?
02:17
Dan: He said that to date, which is an
55
137590
1836
Dan: Ele disse que até agora, que é uma
02:19
expression which means 'up until this
56
139426
1767
expressão que significa 'até este
02:21
point in time', we have thought of them
57
141193
1892
ponto no tempo', nós os consideramos
02:23
as advanced calculators.
58
143085
1555
calculadoras avançadas.
02:24
Rob: Yes, that’s right, we use them as a
59
144640
2220
Rob: Sim, isso mesmo, nós os usamos como uma
02:26
tool to get things done. But he says that
60
146860
2840
ferramenta para fazer as coisas. Mas ele diz que a
02:29
modern technology is turning them into
61
149700
2280
tecnologia moderna os está transformando em
02:31
an agent.
62
151980
1350
agentes.
02:33
This doesn’t mean a secret agent, like
63
153330
1530
Isso não significa um agente secreto, como
02:34
James Bond! In this sense an agent is
64
154860
3120
James Bond! Nesse sentido, um agente é
02:37
something that has agency and that
65
157980
2380
algo que tem agência e isso
02:40
means it has the ability to act individually
66
160360
2500
significa que ele tem a capacidade de agir individualmente
02:42
and make its own decisions.
67
162860
2060
e tomar suas próprias decisões.
02:44
Dan: I’m not sure I’d like my phone to have
68
164920
1820
Dan: Não tenho certeza se gostaria que meu telefone tivesse
02:46
agency. It probably wouldn’t like being
69
166750
2399
agência. Provavelmente não gostaria de ficar
02:49
in my pocket all day.
70
169149
1291
no meu bolso o dia todo.
02:50
Rob: Who would Dan? But I’m not sure
71
170440
2160
Rob: Quem seria Dan? Mas não tenho certeza se
02:52
Hewitson is suggesting our devices would
72
172600
2360
Hewitson está sugerindo que nossos dispositivos se
02:54
become that clever but he did say they
73
174960
2620
tornariam tão inteligentes, mas ele disse que eles
02:57
could become more active in our lives.
74
177580
2700
poderiam se tornar mais ativos em nossas vidas.
03:00
Dan: Maybe. I imagine, for example,
75
180290
3041
Dan: Talvez. Imagino, por exemplo,
03:03
telling us if we are spending too much
76
183340
2080
nos dizer se estamos gastando muito
03:05
time in fast food restaurants?
77
185420
1780
tempo em restaurantes de fast food?
03:07
Rob: Maybe in your case Dan. Mine would
78
187209
2150
Rob: Talvez no seu caso, Dan. O meu
03:09
be telling me I spend too much time in the gym!
79
189359
2992
estaria me dizendo que passo muito tempo na academia!
03:12
Hewitson goes on to explain how
80
192351
2621
Hewitson continua explicando como se desenvolverá
03:14
the way we will talk to our virtual
81
194972
2034
a maneira como falaremos com nossos
03:17
assistants will develop.
82
197006
1418
assistentes virtuais.
03:18
What does he say we don’t need to do?
83
198424
2916
O que ele diz que não precisamos fazer?
03:21
Tom Hewitson: We will develop our own
84
201340
1500
Tom Hewitson: Desenvolveremos nosso próprio
03:22
kind of vernacular for speaking with
85
202840
2060
tipo de vernáculo para falar com
03:24
machines that will be subtly
86
204900
1200
máquinas, que será sutilmente
03:26
different from how we speak to other
87
206100
1860
diferente de como falamos com outras
03:27
people because as you rightly point out
88
207960
2220
pessoas, porque, como você observou com razão,
03:30
you don’t need to make the machine like
89
210180
1580
você não precisa fazer a máquina como
03:31
you don’t need to kind of make random
90
211760
2900
você não precisa digitar de fazer
03:34
chit-chat that’s just filling the time. It can
91
214660
2593
bate-papo aleatório que está apenas preenchendo o tempo. Pode
03:37
be much more brusque and to the point.
92
217253
2177
ser muito mais brusco e direto ao ponto.
03:39
Dan: A lot of what we say in human
93
219430
2177
Dan: Muito do que dizemos na
03:41
communication is to do with our
94
221607
1653
comunicação humana tem a ver com nosso
03:43
relationship with the person we’re talking to.
95
223260
2330
relacionamento com a pessoa com quem estamos falando.
03:45
Rob: We say things and talk about things
96
225590
2370
Rob: Dizemos coisas e falamos sobre coisas
03:47
that are maybe not directly relevant to our
97
227960
1800
que talvez não sejam diretamente relevantes para o nosso
03:49
point. With a digital virtual assistant, we
98
229760
3680
ponto. Com um assistente virtual digital,
03:53
don’t need to do that, so we don’t need to
99
233440
2340
não precisamos fazer isso, então não precisamos
03:55
make the machine like us.
100
235780
1599
fazer a máquina gostar de nós.
03:57
Dan: Hewitson said that we will develop
101
237380
2140
Dan: Hewitson disse que desenvolveremos
03:59
our own vernacular, this is a general word
102
239520
2480
nosso próprio vernáculo, esta é uma palavra geral
04:02
for a native language. This vernacular will
103
242000
2900
para um idioma nativo. Este vernáculo
04:04
be a little bit different from our everyday
104
244900
2700
será um pouco diferente do nosso
04:07
vernacular because, as we said, we don’t
105
247600
2500
vernáculo cotidiano porque, como dissemos, não
04:10
need to maintain a social relationship
106
250100
2080
precisamos manter uma relação social
04:12
with the artificial assistant.
107
252180
1840
com o assistente artificial.
04:14
Rob: This means that we won’t need
108
254020
1360
Rob: Isso significa que não precisaremos de
04:15
chit-chat. Chit-chat is another expression
109
255380
2640
bate-papo. Chit-chat é outra expressão
04:18
for small talk: conversation topics which
110
258020
2680
para conversa fiada: tópicos de conversa que
04:20
aren’t important but are part of everyday
111
260700
2718
não são importantes, mas fazem parte da
04:23
social communication, like talking about
112
263418
2355
comunicação social cotidiana, como falar sobre
04:25
the weather.
113
265773
707
o tempo.
04:26
Dan: And because we don’t need to be
114
266480
1520
Dan: E como não precisamos ser
04:28
friends with our virtual assistants, we can
115
268000
2180
amigos de nossos assistentes virtuais, podemos
04:30
be brusque and to the point. Both of these
116
270180
2720
ser bruscos e direto ao ponto. Ambos
04:32
mean being very direct and not very
117
272900
2260
significam ser muito diretos e não muito
04:35
polite.
118
275160
1050
educados.
04:36
Rob: Well Dan, I don’t mean to be brusque but
119
276210
2010
Rob: Bem, Dan, não quero ser brusco, mas
04:38
it is time for the answer to this week’s
120
278220
2236
é hora da resposta para a
04:40
quiz question. Earlier I asked when was
121
280460
2460
pergunta do questionário desta semana. Anteriormente, perguntei quando foi lançado
04:42
the first computer which could recognise
122
282920
1580
o primeiro computador capaz de reconhecer a
04:44
speech, launched. The options were:
123
284500
2560
fala. As opções eram:
04:47
a) 1951, b) 1961, or c) 1971.
124
287060
5260
a) 1951, b) 1961 ou c) 1971.
04:52
Well actually the first computer which
125
292320
2060
Bem, na verdade, o primeiro computador
04:54
could recognise speech was launched in 1961.
126
294380
3700
capaz de reconhecer a fala foi lançado em 1961.
04:58
Dan: Yep! It was called the IBM Shoebox and
127
298080
3020
Dan: Sim! Chamava-se IBM Shoebox e
05:01
could recognise 16 words and the
128
301100
2580
podia reconhecer 16 palavras e os
05:03
numbers zero to nine. That’s nearly as
129
303680
2878
números de zero a nove. Isso é quase tanto
05:06
many as you!
130
306558
1282
quanto você!
05:07
Rob: Cheeky! Right enough of this
131
307840
2431
Rob: Atrevido! Certo o suficiente deste
05:10
chat-chat. Let’s recap today’s vocabulary.
132
310271
2648
bate-papo. Vamos recapitular o vocabulário de hoje.
05:12
Dan: Well chit-chat was one of today’s
133
312919
2288
Dan: Bem, bate-papo foi uma das expressões de hoje
05:15
expressions. Meaning 'small talk', but we
134
315207
2273
. Significa 'conversa fiada', mas
05:17
also had the expression to date. That
135
317480
2779
também tínhamos a expressão até hoje. Isso
05:20
means ‘up until this moment in time’.
136
320259
2291
significa "até este momento no tempo".
05:22
Rob: Then we had the noun agent. This
137
322550
2490
Rob: Então nós tivemos o agente substantivo. Isso
05:25
refers to something that has agency. And
138
325040
2420
se refere a algo que tem arbítrio. E
05:27
that is the ability to think, make decisions
139
327520
3080
essa é a capacidade de pensar, tomar decisões
05:30
and act independently.
140
330600
1640
e agir de forma independente.
05:32
Dan: The next word is vernacular, another
141
332340
1420
Dan: A próxima palavra é vernáculo, outra
05:33
word for language, particularly when
142
333760
2740
palavra para idioma, principalmente quando se
05:36
talking about a native language.
143
336500
1690
fala de um idioma nativo.
05:38
Rob: And finally there was brusque
144
338190
2365
Rob: E finalmente havia brusco
05:40
meaning 'direct and not polite' and to the
145
340560
2680
significando 'direto e não educado' e direto ao
05:43
point, which also means 'direct and without
146
343240
2880
ponto, que também significa 'direto e sem
05:46
unnecessary information'.
147
346120
1280
informações desnecessárias'.
05:47
Dan: Hey Rob
148
347400
1040
Dan: Ei Rob
05:48
Rob: Yes, what can I do for you Dan?
149
348440
2270
Rob: Sim, o que posso fazer por você Dan?
05:50
Dan: End the programme.
150
350710
1590
Dan: Termine o programa.
05:52
Rob: Certainly Dan. Well that’s all from us
151
352300
2500
Rob: Certamente Dan. Bem, isso é tudo de nós
05:54
today, be sure to check us out on all the
152
354800
2320
hoje, certifique-se de nos visitar em todos os
05:57
usual places: Facebook, Twitter, Instagram
153
357120
2632
lugares habituais: Facebook, Twitter, Instagram
05:59
and YouTube, and of course please don't
154
359760
2180
e YouTube e, claro, não se
06:01
forget our website
155
361940
1100
esqueça do nosso site
06:03
bbclearningenglish.co m. Bye for now!
156
363040
2380
bbclearningenglish.co m. Adeus por agora!
06:05
Dan: Bye!
157
365420
840
Dan: Tchau!
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7