Why we have an emotional connection to robots | Kate Darling

131,451 views ・ 2018-11-06

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Tradutor: Maurício Kakuei Tanaka Revisor: Leonardo Silva
00:13
There was a day, about 10 years ago,
1
13047
2508
Certo dia, há cerca de dez anos,
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
pedi a um amigo para segurar um dinossauro robô bebê de cabeça para baixo.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
Era um brinquedo chamado Pleo, que eu havia encomendado.
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
Eu estava muito animada com ele, porque sempre adorei robôs.
00:29
And this one has really cool technical features.
5
29784
2279
Esse tinha funções técnicas muito legais:
motores, sensores de toque
00:32
It had motors and touch sensors
6
32087
2119
00:34
and it had an infrared camera.
7
34230
2244
e uma câmera infravermelha.
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
Tinha também um sensor de inclinação
00:39
so it knew what direction it was facing.
9
39285
2318
para saber para qual sentido ele estava voltado.
00:42
And when you held it upside down,
10
42095
2134
Quando o segurávamos de cabeça para baixo,
00:44
it would start to cry.
11
44253
1572
ele começava a chorar.
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
Achei aquilo muito legal, mostrei a meu amigo e disse:
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
"Segure-o pela cauda. Veja o que ele faz".
00:55
So we're watching the theatrics of this robot
14
55268
3625
Estávamos vendo a teatralidade desse robô
00:58
struggle and cry out.
15
58917
2199
enquanto lutava e chorava.
01:02
And after a few seconds,
16
62767
2047
Depois de alguns segundos,
01:04
it starts to bother me a little,
17
64838
1972
aquilo começa a me incomodar um pouco,
01:07
and I said, "OK, that's enough now.
18
67744
3424
e digo: "Está bem, agora chega.
01:11
Let's put him back down."
19
71930
2305
Vamos colocá-lo de volta no chão".
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
Depois, acaricio o robô para ele parar de chorar.
01:18
And that was kind of a weird experience for me.
21
78973
2452
Foi uma experiência estranha para mim.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
Eu não era a pessoa mais maternal no momento.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
Apesar de ser mãe, há nove meses,
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
aprendi que os bebês também se contorcem quando são segurados de cabeça para baixo.
01:32
(Laughter)
25
92889
1563
(Risos)
Mas minha reação ao robô também foi interessante,
01:35
But my response to this robot was also interesting
26
95023
2358
01:37
because I knew exactly how this machine worked,
27
97405
4101
porque eu sabia exatamente como aquela máquina funcionava
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
e, mesmo assim, eu me senti obrigada a ser gentil com ele.
01:46
And that observation sparked a curiosity
29
106450
2707
Essa observação estimulou uma curiosidade
01:49
that I've spent the past decade pursuing.
30
109181
2832
à qual me dediquei nos últimos dez anos.
01:52
Why did I comfort this robot?
31
112911
1793
Por que consolei aquele robô?
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
Descobri que minha maneira de tratar aquela máquina
01:59
was more than just an awkward moment in my living room,
33
119831
3701
foi mais do que apenas um momento delicado em minha sala de estar.
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
Num mundo em que estamos cada vez mais integrando robôs em nossa vida,
02:09
an instinct like that might actually have consequences,
35
129000
3126
um instinto como aquele pode ter consequências,
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
porque a primeira coisa que descobri é que não sou a única.
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
Em 2007, o Washington Post informou que as Forças Armadas dos EUA
02:24
was testing this robot that defused land mines.
38
144075
3230
estavam testando um robô que desativava minas terrestres.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
Ele tinha o formato semelhante a um bicho-pau
02:30
and it would walk around a minefield on its legs,
40
150265
2651
e andava ao redor de um campo minado sobre suas pernas.
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
Cada vez que pisava em uma mina, uma de suas pernas explodia,
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
e ele continuava sobre as outras pernas para explodir mais minas.
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
O coronel encarregado desse exercício de teste
02:43
ends up calling it off,
44
163061
2118
acabou cancelando-o,
02:45
because, he says, it's too inhumane
45
165203
2435
porque, segundo ele, era desumano demais
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
ver aquele robô danificado se arrastando pelo campo minado.
02:54
Now, what would cause a hardened military officer
47
174978
3897
O que levaria um oficial militar inveterado
02:58
and someone like myself
48
178899
2043
e alguém como eu
03:00
to have this response to robots?
49
180966
1857
a ter esse tipo de reação a robôs?
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
Claro que somos preparados pela ficção científica e cultura popular
03:06
to really want to personify these things,
51
186871
2579
para querer personificar essas coisas,
03:09
but it goes a little bit deeper than that.
52
189474
2789
mas é um pouco mais profundo do que isso.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
Acontece que estamos programados mentalmente para projetar intenção e vida
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
em qualquer movimento de nosso espaço físico que nos pareça autônomo.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
Assim, as pessoas tratam todos os tipos de robôs como se tivessem vida.
03:26
These bomb-disposal units get names.
56
206703
2683
Essas unidades de desativação de bombas têm nomes.
03:29
They get medals of honor.
57
209410
1682
Recebem medalhas de honra.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
Têm funerais com salvas de tiros.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
Os estudos mostram que fazemos isso até com os robôs domésticos mais simples,
03:38
like the Roomba vacuum cleaner.
60
218237
2135
como o aspirador Roomba.
03:40
(Laughter)
61
220396
1291
(Risos)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
É apenas um disco que anda pelo chão para limpá-lo,
03:44
but just the fact it's moving around on its own
63
224824
2306
mas só o fato de estar se movendo sozinho leva as pessoas a chamarem-no de Roomba
03:47
will cause people to name the Roomba
64
227154
2167
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
e a se sentirem mal quando ele fica preso embaixo do sofá.
03:52
(Laughter)
66
232551
1865
(Risos)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
Podemos projetar robôs para provocarem essa reação,
03:57
using eyes and faces or movements
68
237804
3461
usando olhos e rostos ou movimentos
04:01
that people automatically, subconsciously associate
69
241289
3259
que as pessoas associam de forma automática e subconsciente
04:04
with states of mind.
70
244572
2020
a estados de espírito.
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
Há uma área de estudo completa chamada interação homem-robô,
04:09
that really shows how well this works.
72
249933
1826
que mostra o quanto isso funciona bem.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
Por exemplo, pesquisadores da Universidade Stanford
04:14
that it makes people really uncomfortable
74
254933
2001
descobriram que as pessoas ficam desconfortáveis
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
quando lhes pedem para tocar as partes íntimas de um robô.
04:19
(Laughter)
76
259454
2120
(Risos)
04:21
So from this, but from many other studies,
77
261598
2023
Por esse e muitos outros estudos,
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
sabemos que as pessoas reagem a sinais dados a elas por essas máquinas realistas,
04:27
by these lifelike machines,
79
267892
2022
04:29
even if they know that they're not real.
80
269938
2017
mesmo sabendo que não são reais.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
Estamos caminhando para um mundo em que há robôs por toda a parte.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
A tecnologia robótica está deixando as fábricas
04:40
It's entering workplaces, households.
83
280823
3013
e entrando nos locais de trabalho e nas casas.
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
À medida que essas máquinas que podem sentir, tomar decisões e aprender
04:50
enter into these shared spaces,
85
290093
2552
entram nesses espaços compartilhados,
04:52
I think that maybe the best analogy we have for this
86
292669
2496
creio que nossa melhor analogia para essa situação
04:55
is our relationship with animals.
87
295189
1935
possa ser nossa relação com os animais.
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
Há milhares de anos, começamos a domesticar os animais,
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
e os treinamos para o trabalho, a defesa e a companhia.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
Ao longo da história, tratamos alguns animais como ferramentas ou produtos
05:10
and other animals, we've treated with kindness
91
310513
2174
e outros com bondade
05:12
and we've given a place in society as our companions.
92
312711
3078
e demos a eles um lugar na sociedade como nossos companheiros.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
Considero plausível começarmos a integrar robôs de forma semelhante.
05:21
And sure, animals are alive.
94
321484
3096
Certamente, os animais estão vivos.
05:24
Robots are not.
95
324604
1150
Os robôs não.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
Posso dizer, por meu trabalho com especialistas em robótica,
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
que estamos muito longe de desenvolver robôs que possam sentir qualquer coisa.
05:35
But we feel for them,
98
335072
1460
Mas nós sentimos por eles,
05:37
and that matters,
99
337835
1207
e isso é importante,
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
porque, se estamos tentando integrar robôs a esses espaços compartilhados,
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
precisamos entender
que as pessoas irão tratá-los de forma diferente de outras máquinas,
05:47
and that in some cases,
102
347369
1844
e que, em alguns casos,
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
por exemplo, o de um soldado que fica emocionalmente apegado
05:52
to the robot that they work with,
104
352433
2047
ao robô com que trabalha,
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
isso pode ser ineficaz ou mesmo perigoso.
05:58
But in other cases, it can actually be useful
106
358551
2138
Mas, em outros casos, pode até ser útil
06:00
to foster this emotional connection to robots.
107
360713
2623
cultivar essa relação sentimental com os robôs.
06:04
We're already seeing some great use cases,
108
364184
2134
Já estamos vendo alguns ótimos exemplos,
06:06
for example, robots working with autistic children
109
366342
2604
como robôs trabalhando com crianças autistas
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
para envolverem-nas de maneira nunca vista,
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
ou robôs trabalhando com professores
para envolverem as crianças na aprendizagem com novos resultados.
06:17
And it's not just for kids.
112
377433
1381
Mas não são só as crianças.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
Estudos recentes mostram que os robôs podem ajudar médicos e pacientes
06:22
in health care settings.
114
382997
1427
em clínicas.
06:25
This is the PARO baby seal robot.
115
385535
1810
Esta é a foca robô bebê PARO.
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
É usada em lares de idosos e com pacientes com demência.
06:30
It's been around for a while.
117
390678
1570
Já existe há algum tempo.
06:32
And I remember, years ago, being at a party
118
392272
3325
Lembro-me de, há alguns anos, estar em uma festa
06:35
and telling someone about this robot,
119
395621
2571
e falar com alguém sobre esse robô.
06:38
and her response was,
120
398216
2126
A reação dela foi:
06:40
"Oh my gosh.
121
400366
1262
"Ah, meu Deus.
06:42
That's horrible.
122
402508
1188
Isso é horrível.
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
Não acredito que estamos oferecendo robôs às pessoas em vez de cuidados humanos".
06:50
And this is a really common response,
124
410540
1875
Essa é uma reação muito comum,
06:52
and I think it's absolutely correct,
125
412439
2499
e acho que está completamente certa,
06:54
because that would be terrible.
126
414962
2040
porque isso seria terrível.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
Mas, nesse caso, não é isso o que o robô substitui.
07:00
What this robot replaces is animal therapy
128
420858
3120
Ele substitui a terapia com animais
07:04
in contexts where we can't use real animals
129
424002
3198
nos casos em que não podemos usar animais de verdade,
07:07
but we can use robots,
130
427224
1168
mas podemos usar robôs,
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
porque as pessoas irão tratá-los mais como animais do que como máquinas.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
Reconhecer essa relação sentimental com os robôs
07:17
can also help us anticipate challenges
133
437906
1969
também pode nos ajudar a prever desafios
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
à medida que essas máquinas entram em áreas mais íntimas da vida das pessoas.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
Por exemplo, está tudo bem se o robô ursinho de pelúcia de seus filhos
07:27
records private conversations?
136
447539
2237
gravar conversas particulares?
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
E se seu robô sexual fizer compras irresistíveis pelo aplicativo?
07:33
(Laughter)
138
453887
1396
(Risos)
07:35
Because robots plus capitalism
139
455307
2501
Porque robôs mais capitalismo
07:37
equals questions around consumer protection and privacy.
140
457832
3705
equivale a questões relacionadas à proteção do consumidor e à privacidade.
07:42
And those aren't the only reasons
141
462549
1612
Mas não é só por isso
que nosso comportamento em relação a essas máquinas pode ser importante.
07:44
that our behavior around these machines could matter.
142
464185
2570
07:48
A few years after that first initial experience I had
143
468747
3270
Alguns anos após essa primeira experiência com o dinossauro robô bebê,
07:52
with this baby dinosaur robot,
144
472041
2311
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
fiz um workshop com meu amigo Hannes Gassert.
07:56
And we took five of these baby dinosaur robots
146
476901
2897
Pegamos cinco desses dinossauros robôs bebês
07:59
and we gave them to five teams of people.
147
479822
2453
e os demos a cinco equipes de pessoas.
08:02
And we had them name them
148
482299
1697
Pedimos que dessem nomes aos robôs,
08:04
and play with them and interact with them for about an hour.
149
484020
3809
brincassem e interagissem com eles durante cerca de uma hora.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
Depois, mostramos um martelo e uma machadinha
08:10
and we told them to torture and kill the robots.
151
490937
2278
e dissemos às equipes para torturarem e matarem os robôs.
08:13
(Laughter)
152
493239
3007
(Risos)
08:16
And this turned out to be a little more dramatic
153
496857
2294
A situação ficou um pouco mais dramática do que esperávamos,
08:19
than we expected it to be,
154
499175
1278
08:20
because none of the participants would even so much as strike
155
500477
3072
porque nenhum dos participantes nem mesmo bateria nos dinossauros robôs bebês.
08:23
these baby dinosaur robots,
156
503573
1307
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
Então, tivemos que improvisar um pouco, e, a certa altura, dissemos:
"Está bem,
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
podem salvar o robô de sua equipe se destruírem o da outra equipe".
08:34
(Laughter)
159
514539
1855
(Risos)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
Nem mesmo isso funcionou; eles não conseguiram.
Então, por fim, dissemos:
08:39
So finally, we said,
161
519058
1151
08:40
"We're going to destroy all of the robots
162
520233
2032
"Vamos destruir todos os robôs
a não ser que alguém use a machadinha em um deles".
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
Um homem se levantou e pegou a machadinha.
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
Todo mundo se encolheu
quando ele desceu a machadinha no pescoço do robô.
08:51
on the robot's neck,
166
531919
1780
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
Houve um momento meio jocoso e meio sério de silêncio na sala,
09:00
for this fallen robot.
168
540085
1698
em nome daquele robô abatido.
09:01
(Laughter)
169
541807
1406
(Risos)
09:03
So that was a really interesting experience.
170
543237
3694
Foi uma experiência muito interessante.
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
Não foi um estudo controlado, obviamente,
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
mas conduziu a uma pesquisa que fiz mais tarde no MIT
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
com Palash Nandy e Cynthia Breazeal,
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
em que vinham pessoas ao laboratório e esmagavam os HEXBUGs,
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
que se movem de uma maneira muito realista, como insetos.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
Em vez de escolhermos algo bonitinho que atraísse as pessoas,
09:24
we chose something more basic,
177
564484
2093
escolhemos algo mais básico.
09:26
and what we found was that high-empathy people
178
566601
3480
Descobrimos que as pessoas com mais empatia
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
hesitavam mais em atingir os HEXBUGs.
09:33
Now this is just a little study,
180
573575
1564
Esse é apenas um pequeno estudo,
09:35
but it's part of a larger body of research
181
575163
2389
mas faz parte de uma pesquisa maior
09:37
that is starting to indicate that there may be a connection
182
577576
2944
que começa a indicar que pode haver uma relação
09:40
between people's tendencies for empathy
183
580544
2373
entre as tendências de empatia das pessoas
09:42
and their behavior around robots.
184
582941
1976
e o comportamento delas em relação aos robôs.
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
Mas minha pergunta para o futuro da interação entre humanos e robôs
09:49
is not: "Do we empathize with robots?"
186
589372
3055
não é: "Sentimos empatia com os robôs?",
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
mas sim: "Os robôs podem mudar a empatia dos humanos?"
09:57
Is there reason to, for example,
188
597489
2287
Haverá uma razão, por exemplo,
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
para impedir uma criança de chutar um cão robô,
10:03
not just out of respect for property,
190
603228
2914
não só por respeito material,
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
mas porque pode ser mais provável que a criança chute um cão de verdade?
10:10
And again, it's not just kids.
192
610507
1883
Novamente, não são só as crianças.
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
Essa é a pergunta dos videogames violentos, mas a um nível totalmente novo
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
devido a esse aspecto físico instintivo ao qual reagimos mais intensamente
10:22
than to images on a screen.
195
622428
1547
do que a imagens em uma tela.
10:25
When we behave violently towards robots,
196
625674
2578
Quando somos violentos com os robôs,
10:28
specifically robots that are designed to mimic life,
197
628276
3120
especificamente os robôs projetados para imitar a vida,
10:31
is that a healthy outlet for violent behavior
198
631420
3892
será um meio saudável de nos libertarmos de comportamentos violentos
10:35
or is that training our cruelty muscles?
199
635336
2544
ou será um treinamento para nossos músculos da crueldade?
10:39
We don't know ...
200
639511
1150
Não sabemos...
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
Mas a resposta a essa pergunta pode ter impacto no comportamento humano,
10:46
it has the potential to impact social norms,
202
646591
2768
nas normas sociais,
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
pode inspirar regras sobre o que podemos ou não fazer com determinados robôs,
10:53
with certain robots,
204
653256
1151
10:54
similar to our animal cruelty laws.
205
654431
1848
semelhantes às leis sobre crueldade animal.
10:57
Because even if robots can't feel,
206
657228
2864
Porque, mesmo que os robôs não tenham sentimento,
11:00
our behavior towards them might matter for us.
207
660116
3080
nosso comportamento em relação a eles pode ser importante para nós.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
Independentemente de mudarmos ou não nossas regras,
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
os robôs podem nos ajudar a ter uma nova compreensão de nós mesmos.
11:14
Most of what I've learned over the past 10 years
210
674276
2316
A maior parte do que aprendi nos últimos dez anos
11:16
has not been about technology at all.
211
676616
2238
não foi, de forma alguma, sobre tecnologia.
11:18
It's been about human psychology
212
678878
2503
Foi sobre psicologia humana,
11:21
and empathy and how we relate to others.
213
681405
2603
empatia e a forma como nos relacionamos com os outros.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
Porque, quando uma criança é gentil com um Roomba,
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
quando um soldado tenta salvar um robô no campo de batalha,
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
ou quando um grupo de pessoas se recusa a ferir um dinossauro robô bebê,
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
esses robôs não são só motores, engrenagens e algoritmos.
11:42
They're reflections of our own humanity.
218
702501
1905
São o reflexo de nossa própria humanidade.
11:45
Thank you.
219
705523
1151
Obrigada.
11:46
(Applause)
220
706698
3397
(Aplausos)
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7