AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED

1,167,750 views ・ 2023-11-06

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Margarida Ferreira Revisora: Eliana Santos
00:04
So I've been an AI researcher for over a decade.
0
4292
3504
Sou investigadora da IA há mais de 10 anos.
00:07
And a couple of months ago, I got the weirdest email of my career.
1
7796
3503
Há uns meses, recebi o e-mail mais estranho da minha carreira.
00:11
A random stranger wrote to me
2
11925
1668
Um desconhecido qualquer escreveu-me a dizer
00:13
saying that my work in AI is going to end humanity.
3
13635
3420
que o meu trabalho na IA vai acabar com a Humanidade.
00:18
Now I get it, AI, it's so hot right now.
4
18598
3754
Agora percebo, a IA está na berlinda, neste momento.
00:22
(Laughter)
5
22352
1627
(Risos)
Aparece nos títulos dos jornais quase todos os dias,
00:24
It's in the headlines pretty much every day,
6
24020
2086
00:26
sometimes because of really cool things
7
26106
1918
por vezes por causa de coisas muito fixes
00:28
like discovering new molecules for medicine
8
28066
2169
como descobrir novas moléculas para a medicina
00:30
or that dope Pope in the white puffer coat.
9
30235
2252
ou aquele Papa janota de casaco branco.
00:33
But other times the headlines have been really dark,
10
33446
2461
Mas outras vezes os cabeçalhos têm sido muito sombrios,
00:35
like that chatbot telling that guy that he should divorce his wife
11
35907
3671
como aquele chatbot a dizer àquele tipo que devia divorciar-se da mulher
00:39
or that AI meal planner app proposing a crowd pleasing recipe
12
39619
4088
ou a aplicação de planeamento de refeições
em que a IA propõe uma receita que agrade a todos, com cloro.
00:43
featuring chlorine gas.
13
43707
2002
00:46
And in the background,
14
46376
1418
E, em segundo plano,
00:47
we've heard a lot of talk about doomsday scenarios,
15
47836
2419
ouvimos falar muito sobre cenários do dia do Juízo Final,
00:50
existential risk and the singularity,
16
50255
1918
risco existencial e singularidade.
00:52
with letters being written and events being organized
17
52215
2503
Escrevem-se cartas e organizam-se eventos
00:54
to make sure that doesn't happen.
18
54718
2002
para garantir que isso não acontece.
00:57
Now I'm a researcher who studies AI's impacts on society,
19
57637
4630
Eu sou uma investigadora que estuda os impactos da IA na sociedade,
01:02
and I don't know what's going to happen in 10 or 20 years,
20
62267
2836
e não sei o que vai acontecer daqui a 10 ou 20 anos,
01:05
and nobody really does.
21
65145
2461
e, na verdade, ninguém sabe.
01:07
But what I do know is that there's some pretty nasty things going on right now,
22
67981
4546
Mas o que sei é que estão a acontecer coisas muito desagradáveis neste momento,
01:12
because AI doesn't exist in a vacuum.
23
72527
2878
porque a IA não existe no vácuo.
01:15
It is part of society, and it has impacts on people and the planet.
24
75447
3920
Faz parte da sociedade, e tem impacto nas pessoas e no planeta.
Os modelos da IA podem contribuir para a alteração climática.
01:20
AI models can contribute to climate change.
25
80160
2502
01:22
Their training data uses art and books created by artists
26
82704
3462
Os dados para a sua formação utilizam arte e livros
criados por artistas e autores sem o consentimento deles.
01:26
and authors without their consent.
27
86207
1710
01:27
And its deployment can discriminate against entire communities.
28
87959
3837
E a sua implantação pode discriminar comunidades inteiras.
01:32
But we need to start tracking its impacts.
29
92797
2127
Precisamos de começar a acompanhar os seus impactos.
01:34
We need to start being transparent and disclosing them and creating tools
30
94966
3587
Precisamos de começar a ser transparentes, a divulgá-los e a criar instrumentos
01:38
so that people understand AI better,
31
98595
2419
para as pessoas compreenderem melhor a IA,
01:41
so that hopefully future generations of AI models
32
101056
2335
para que as futuras gerações de modelos da IA
01:43
are going to be more trustworthy, sustainable,
33
103433
2836
sejam mais fiáveis, mais sustentáveis,
01:46
maybe less likely to kill us, if that's what you're into.
34
106269
2836
talvez menos propensas a matar-nos, se é isso que vos preocupa.
Mas comecemos pela sustentabilidade,
01:50
But let's start with sustainability,
35
110148
1752
01:51
because that cloud that AI models live on is actually made out of metal, plastic,
36
111900
5756
porque a nuvem em que vivem os modelos da IA é feita de metal, de plástico
01:57
and powered by vast amounts of energy.
37
117656
2460
e é alimentada por grandes quantidades de energia.
02:00
And each time you query an AI model, it comes with a cost to the planet.
38
120116
4463
Cada vez que consultamos um modelo de IA, isso tem um custo para o planeta.
02:05
Last year, I was part of the BigScience initiative,
39
125789
3044
No ano passado, fiz parte da iniciativa BigScience,
02:08
which brought together a thousand researchers
40
128833
2127
que juntou mil investigadores de todo o mundo
02:10
from all over the world to create Bloom,
41
130960
2503
para criar o Bloom,
02:13
the first open large language model, like ChatGPT,
42
133505
4337
o primeiro modelo linguístico aberto de grande dimensão, como o ChatGPT,
02:17
but with an emphasis on ethics, transparency and consent.
43
137842
3546
mas com ênfase na ética, na transparência e no consentimento.
02:21
And the study I led that looked at Bloom's environmental impacts
44
141721
3253
O estudo que eu liderei e que analisou os impactos ambientais do Bloom
02:25
found that just training it used as much energy
45
145016
3253
concluiu que só para o treinar consumia tanta energia
02:28
as 30 homes in a whole year
46
148311
2211
como 30 lares durante um ano inteiro
02:30
and emitted 25 tons of carbon dioxide,
47
150563
2419
e emitia 25 toneladas de dióxido de carbono,
o mesmo que dar cinco voltas ao planeta, de carro,
02:33
which is like driving your car five times around the planet
48
153024
3253
02:36
just so somebody can use this model to tell a knock-knock joke.
49
156319
3170
só para uma pessoa poder usar esse modelo para contar uma piada idiota.
02:39
And this might not seem like a lot,
50
159489
2169
Isto pode não parecer muito importante,
02:41
but other similar large language models,
51
161700
2460
mas outros modelos linguísticos semelhantes de grande dimensão,
02:44
like GPT-3,
52
164202
1126
como o GPT-3,
02:45
emit 20 times more carbon.
53
165370
2544
emitem 20 vezes mais carbono.
02:47
But the thing is, tech companies aren't measuring this stuff.
54
167956
2878
Mas a questão é que as empresas de tecnologia não estão a medir isto,
02:50
They're not disclosing it.
55
170875
1252
não estão a divulgar isto.
02:52
And so this is probably only the tip of the iceberg,
56
172168
2461
Provavelmente, isto é apenas a ponta do icebergue,
02:54
even if it is a melting one.
57
174629
1418
mesmo que ele esteja a derreter-se.
02:56
And in recent years we've seen AI models balloon in size
58
176798
3629
Nos últimos anos temos visto os modelos de IA aumentarem de tamanho
03:00
because the current trend in AI is "bigger is better."
59
180468
3462
porque a tendência atual na IA é “quanto maior melhor”.
03:04
But please don't get me started on why that's the case.
60
184305
2795
Mas não me façam começar a falar da razão por que é assim.
03:07
In any case, we've seen large language models in particular
61
187100
3003
Em todo o caso, temos visto grandes modelos linguísticos
03:10
grow 2,000 times in size over the last five years.
62
190103
3211
aumentarem 2000 vezes de tamanho nos últimos cinco anos.
03:13
And of course, their environmental costs are rising as well.
63
193314
3045
É claro que os custos ambientais também estão a aumentar.
03:16
The most recent work I led, found that switching out a smaller,
64
196401
3795
O trabalho mais recente que liderei concluiu
que a substituição de um modelo mais pequeno e mais eficaz
03:20
more efficient model for a larger language model
65
200238
3337
por um modelo de linguagem maior
03:23
emits 14 times more carbon for the same task.
66
203616
3754
emite 14 vezes mais carbono para a mesma tarefa.
03:27
Like telling that knock-knock joke.
67
207412
1877
É como contar aquela piada idiota.
03:29
And as we're putting in these models into cell phones and search engines
68
209289
3462
À medida que colocamos estes modelos nos telemóveis, nos motores de busca,
03:32
and smart fridges and speakers,
69
212792
2836
nos frigoríficos e altifalantes inteligentes,
03:35
the environmental costs are really piling up quickly.
70
215628
2628
os custos ambientais vão-se acumulando rapidamente.
03:38
So instead of focusing on some future existential risks,
71
218840
3754
Então, em vez de nos concentrarmos em alguns riscos existenciais futuros,
03:42
let's talk about current tangible impacts
72
222635
2753
é melhor falarmos dos atuais impactos tangíveis
03:45
and tools we can create to measure and mitigate these impacts.
73
225388
3629
e das ferramentas que podemos criar para medir e mitigar esses impactos.
03:49
I helped create CodeCarbon,
74
229893
1668
Eu ajudei a criar o CodeCarbon,
03:51
a tool that runs in parallel to AI training code
75
231603
2961
um instrumento que funciona em paralelo com o código de treino da IA
03:54
that estimates the amount of energy it consumes
76
234564
2211
que calcula a quantidade de energia que isso consome
03:56
and the amount of carbon it emits.
77
236775
1668
e a quantidade de carbono que emite.
03:58
And using a tool like this can help us make informed choices,
78
238485
2877
Usar um instrumento como este
pode ajudar-nos a fazer escolhas,
04:01
like choosing one model over the other because it's more sustainable,
79
241404
3253
como escolher um modelo em vez de outro, por ser mais sustentável,
04:04
or deploying AI models on renewable energy,
80
244657
2920
ou implementar modelos de IA com energias renováveis,
04:07
which can drastically reduce their emissions.
81
247619
2544
o que pode reduzir drasticamente as suas emissões.
04:10
But let's talk about other things
82
250163
2085
Mas falemos de outras coisas
04:12
because there's other impacts of AI apart from sustainability.
83
252290
2961
porque há outros impactos da IA para além da sustentabilidade.
04:15
For example, it's been really hard for artists and authors
84
255627
3128
Por exemplo, tem sido muito difícil os artistas e autores provarem
04:18
to prove that their life's work has been used for training AI models
85
258797
4212
que o trabalho da sua vida tem sido usado para treinar modelos de IA
04:23
without their consent.
86
263051
1209
sem o consentimento deles.
04:24
And if you want to sue someone, you tend to need proof, right?
87
264302
3170
Se quiserem processar alguém, têm de precisar de provas, não é?
04:27
So Spawning.ai, an organization that was founded by artists,
88
267806
3920
Então, a Spawning.ai, uma organização fundada por artistas,
04:31
created this really cool tool called “Have I Been Trained?”
89
271726
3337
criou um instrumento muito fixe chamado “Já fui treinado?”
04:35
And it lets you search these massive data sets
90
275104
2461
que permite pesquisar conjuntos enormes de dados
04:37
to see what they have on you.
91
277607
2085
para verem o que sabem sobre vocês.
04:39
Now, I admit it, I was curious.
92
279734
1668
Confesso que fiquei curiosa.
04:41
I searched LAION-5B,
93
281444
1627
Pesquisei o LAION-5B,
que é um conjunto enorme de dados de imagens e textos,
04:43
which is this huge data set of images and text,
94
283112
2461
04:45
to see if any images of me were in there.
95
285615
2711
para ver se lá havia algumas imagens minhas.
04:49
Now those two first images,
96
289285
1585
Ora bem, nestas duas primeiras imagens,
04:50
that's me from events I've spoken at.
97
290870
2169
sou eu, em eventos em que falei.
Mas, quanto ao resto das imagens, em nenhuma delas sou eu.
04:53
But the rest of the images, none of those are me.
98
293081
2753
04:55
They're probably of other women named Sasha
99
295875
2002
Provavelmente, são de outras mulheres chamadas Sasha
04:57
who put photographs of themselves up on the internet.
100
297919
2628
que puseram fotografias de si mesmas na Internet.
Isto pode explicar porquê,
05:01
And this can probably explain why,
101
301047
1627
05:02
when I query an image generation model
102
302715
1836
quando consulto um modelo de geração de imagens
05:04
to generate a photograph of a woman named Sasha,
103
304551
2294
para gerar uma fotografia de uma mulher chamada Sasha,
05:06
more often than not I get images of bikini models.
104
306886
2753
muitas vezes obtenho imagens de modelos em biquíni.
05:09
Sometimes they have two arms,
105
309681
1626
Por vezes têm dois braços,
05:11
sometimes they have three arms,
106
311349
2294
por vezes têm três braços,
(Risos)
05:13
but they rarely have any clothes on.
107
313685
2043
mas raramente têm roupas vestidas.
05:16
And while it can be interesting for people like you and me
108
316563
2794
Embora possa ser interessante para pessoas como vocês e como eu
05:19
to search these data sets,
109
319357
2127
pesquisar estes conjuntos de dados,
05:21
for artists like Karla Ortiz,
110
321526
2044
para artistas como Karla Ortiz,
05:23
this provides crucial evidence that her life's work, her artwork,
111
323570
3753
isto fornece provas cruciais de que as obras de arte dela,
foram usadas para treinar modelos de IA sem autorização,
05:27
was used for training AI models without her consent,
112
327365
2961
e ela e dois artistas usaram isso como prova
05:30
and she and two artists used this as evidence
113
330326
2336
05:32
to file a class action lawsuit against AI companies
114
332704
2794
para apresentar um processo judicial contra empresas de IA
05:35
for copyright infringement.
115
335540
1960
por violação dos direitos de autor.
05:37
And most recently --
116
337542
1168
E mais recentemente...
05:38
(Applause)
117
338710
3378
(Aplausos)
E, mais recentemente, a Spawning.ai associou-se à Hugging Face,
05:42
And most recently Spawning.ai partnered up with Hugging Face,
118
342130
3044
05:45
the company where I work at,
119
345216
1585
a empresa onde trabalho,
05:46
to create opt-in and opt-out mechanisms for creating these data sets.
120
346801
4922
para criar mecanismos de inclusão e de exclusão
para criar esses conjuntos de dados.
Porque as obras de arte criadas pelos seres humanos
05:52
Because artwork created by humans shouldn’t be an all-you-can-eat buffet
121
352098
3587
não devem ser um bufete à discrição
05:55
for training AI language models.
122
355727
1793
para treinar modelos linguísticos de IA.
05:58
(Applause)
123
358313
4254
(Aplausos)
06:02
The very last thing I want to talk about is bias.
124
362567
2336
A última coisa de que quero falar é de preconceito.
06:04
You probably hear about this a lot.
125
364944
1919
Provavelmente, ouvem falar disso muitas vezes.
06:07
Formally speaking, it's when AI models encode patterns and beliefs
126
367196
3713
Formalmente falando, é quando os modelos de IA codificam padrões e crenças
06:10
that can represent stereotypes or racism and sexism.
127
370950
3128
que podem representar estereótipos ou racismo e sexismo.
06:14
One of my heroes, Dr. Joy Buolamwini, experienced this firsthand
128
374412
3212
Uma das minhas heroínas, a Dra. Joy Buolamwini,
sentiu isto pessoalmente,
06:17
when she realized that AI systems wouldn't even detect her face
129
377665
3045
quando percebeu que os sistemas de IA só detetavam o rosto dela
06:20
unless she was wearing a white-colored mask.
130
380752
2169
se ela usasse uma máscara branca.
06:22
Digging deeper, she found that common facial recognition systems
131
382962
3754
Ao aprofundar isso, ela descobriu
que os sistemas comuns de reconhecimento facial
06:26
were vastly worse for women of color compared to white men.
132
386758
3253
eram muito piores para as mulheres de cor
do que para os homens brancos.
06:30
And when biased models like this are deployed in law enforcement settings,
133
390428
5297
Quando modelos preconceituosos como este são utilizados na aplicação da lei,
06:35
this can result in false accusations, even wrongful imprisonment,
134
395767
4296
isso pode resultar em falsas acusações, e até em prisões injustas,
06:40
which we've seen happen to multiple people in recent months.
135
400063
3920
como vimos acontecer a várias pessoas nos últimos meses.
Por exemplo, Porcha Woodruff foi acusada injustamente de roubo de automóvel
06:44
For example, Porcha Woodruff was wrongfully accused of carjacking
136
404025
3086
06:47
at eight months pregnant
137
407111
1252
quando estava grávida de oito meses,
06:48
because an AI system wrongfully identified her.
138
408363
2961
porque um sistema de IA a identificou erradamente.
06:52
But sadly, these systems are black boxes,
139
412325
2002
Infelizmente, estes sistemas são caixas negras,
06:54
and even their creators can't say exactly why they work the way they do.
140
414369
5964
e nem sequer os seus criadores conseguem dizer exatamente
porque é que funcionam dessa maneira.
07:00
And for example, for image generation systems,
141
420917
3462
Por exemplo, para os sistemas de geração de imagens,
07:04
if they're used in contexts like generating a forensic sketch
142
424379
4129
se forem usados em contextos como gerar um esboço forense
07:08
based on a description of a perpetrator,
143
428549
2711
com base na descrição de um criminoso,
07:11
they take all those biases and they spit them back out
144
431260
3587
pegam em todos esses preconceitos e dão-nos resultados
07:14
for terms like dangerous criminal, terrorists or gang member,
145
434889
3462
como criminoso perigoso, terrorista ou membros de um gangue,
07:18
which of course is super dangerous
146
438393
2168
o que, claro, é muito perigoso
07:20
when these tools are deployed in society.
147
440603
4421
quando estes instrumentos são utilizados na sociedade.
07:25
And so in order to understand these tools better,
148
445566
2294
Para melhor compreender estes instrumentos,
07:27
I created this tool called the Stable Bias Explorer,
149
447902
3212
criei este instrumento chamado Explorador de Preconceitos Estáveis,
07:31
which lets you explore the bias of image generation models
150
451155
3379
que permite explorar o preconceito dos modelos de geração de imagens
07:34
through the lens of professions.
151
454575
1669
através das lentes de profissões.
07:37
So try to picture a scientist in your mind.
152
457370
3045
Assim, tentem imaginar um cientista,
07:40
Don't look at me.
153
460456
1168
mas não olhem para mim.
07:41
What do you see?
154
461666
1335
O que é que veem?
07:43
A lot of the same thing, right?
155
463835
1501
Muito do mesmo, não é?
07:45
Men in glasses and lab coats.
156
465378
2377
Homens de óculos e batas de laboratório.
07:47
And none of them look like me.
157
467797
1710
Nenhum deles se parece comigo.
A questão é que olhámos
07:50
And the thing is,
158
470174
1460
07:51
is that we looked at all these different image generation models
159
471676
3253
para todos estes diferentes modelos de geração de imagens
07:54
and found a lot of the same thing:
160
474929
1627
e encontrámos muito do mesmo:
07:56
significant representation of whiteness and masculinity
161
476597
2586
uma representação significativa da brancura e da masculinidade
07:59
across all 150 professions that we looked at,
162
479225
2127
nas 150 profissões que observámos.
08:01
even if compared to the real world,
163
481352
1794
Mesmo se comparados com o mundo real,
08:03
the US Labor Bureau of Statistics.
164
483187
1836
o Gabinete de Estatísticas do Trabalho dos EUA,
08:05
These models show lawyers as men,
165
485023
3044
estes modelos mostram os advogados como homens,
os diretores executivos como homens, quase 100% das vezes,
08:08
and CEOs as men, almost 100 percent of the time,
166
488109
3462
08:11
even though we all know not all of them are white and male.
167
491571
3170
apesar de todos sabermos que nem todos são brancos ou homens.
08:14
And sadly, my tool hasn't been used to write legislation yet.
168
494782
4380
Infelizmente, o meu instrumento ainda não foi usado para escrever legislação.
08:19
But I recently presented it at a UN event about gender bias
169
499203
3963
Mas apresentei-o recentemente num evento da ONU sobre preconceito de género,
como um exemplo de como podemos criar instrumentos
08:23
as an example of how we can make tools for people from all walks of life,
170
503166
3879
para que pessoas de todos os quadrantes,
08:27
even those who don't know how to code,
171
507086
2252
mesmo as que não sabem programar,
08:29
to engage with and better understand AI because we use professions,
172
509380
3253
se envolvam e compreendam melhor a IA porque usámos profissões,
08:32
but you can use any terms that are of interest to you.
173
512633
3087
mas vocês podem usar quaisquer termos que vos interessem.
08:36
And as these models are being deployed,
174
516596
2752
À medida que estes modelos estão a ser implementados,
08:39
are being woven into the very fabric of our societies,
175
519390
3128
estão a ser entrelaçados no tecido das nossas sociedades,
08:42
our cell phones, our social media feeds,
176
522518
2044
dos nossos telemóveis, das nossas redes sociais
08:44
even our justice systems and our economies have AI in them.
177
524604
3211
e até dos nossos sistemas de justiça e das nossas economias contêm IA.
08:47
And it's really important that AI stays accessible
178
527815
3879
E é muito importante que a IA permaneça acessível
08:51
so that we know both how it works and when it doesn't work.
179
531736
4713
para sabermos como funciona e quando não funciona.
08:56
And there's no single solution for really complex things like bias
180
536908
4296
Não há uma solução única para coisas muito complexas,
como preconceitos, direitos de autor ou alteração climática.
09:01
or copyright or climate change.
181
541245
2419
09:03
But by creating tools to measure AI's impact,
182
543664
2711
Mas ao criar instrumentos para medir os impactos da IA,
09:06
we can start getting an idea of how bad they are
183
546375
3337
podemos começar a ter uma ideia de quão mau eles são
09:09
and start addressing them as we go.
184
549754
2502
e começar a resolvê-los à medida que vamos avançando,
09:12
Start creating guardrails to protect society and the planet.
185
552256
3337
começar a criar barreiras de proteção para a sociedade e o planeta.
Depois de termos estas informações,
09:16
And once we have this information,
186
556177
2336
09:18
companies can use it in order to say,
187
558513
1835
as empresas podem usá-la para dizer:
09:20
OK, we're going to choose this model because it's more sustainable,
188
560389
3170
“OK, vamos escolher este modelo porque é mais sustentável”
09:23
this model because it respects copyright.
189
563601
2044
ou “este modelo porque respeita os direitos de autor.”
09:25
Legislators who really need information to write laws,
190
565686
3087
Os legisladores que precisam de informações para escrever as leis
09:28
can use these tools to develop new regulation mechanisms
191
568773
3462
podem usar esses instrumentos
para desenvolver novos mecanismos de regulamentação
09:32
or governance for AI as it gets deployed into society.
192
572276
3796
ou de governação para a IA, à medida que ela é implementada na sociedade.
09:36
And users like you and me can use this information
193
576114
2377
Os utilizadores como vocês e eu podemos usar essas informações
09:38
to choose AI models that we can trust,
194
578491
3337
para escolher modelos de IA em que podemos confiar,
09:41
not to misrepresent us and not to misuse our data.
195
581869
2920
não para nos deturpar ou para usar indevidamente os nossos dados.
09:45
But what did I reply to that email
196
585790
1918
Mas o que é que eu respondi àquele e-mail
09:47
that said that my work is going to destroy humanity?
197
587750
2961
que dizia que o meu trabalho vai destruir a Humanidade?
09:50
I said that focusing on AI's future existential risks
198
590711
4046
Disse que focarmo-nos nos riscos existenciais futuros da IA
09:54
is a distraction from its current,
199
594799
2044
é uma distração dos seus impactos atuais, muito tangíveis
09:56
very tangible impacts
200
596843
1835
09:58
and the work we should be doing right now, or even yesterday,
201
598719
4004
e do trabalho que devíamos estar a fazer neste momento, ou mesmo ontem,
10:02
for reducing these impacts.
202
602723
1919
para reduzir esses impactos.
10:04
Because yes, AI is moving quickly, but it's not a done deal.
203
604684
4045
Porque a IA está a mover-se rapidamente, mas não é um assunto acabado.
10:08
We're building the road as we walk it,
204
608771
2503
Estamos a construir a estrada à medida que a percorremos,
10:11
and we can collectively decide what direction we want to go in together.
205
611274
3795
e podemos decidir coletivamente em que direção queremos seguir juntos.
Muito obrigada.
10:15
Thank you.
206
615069
1210
10:16
(Applause)
207
616279
2002
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7