Fake News: Fact & Fiction - Episode 5: Why do people share fake news?

37,442 views ・ 2023-10-10

BBC Learning English


Fare doppio clic sui sottotitoli in inglese per riprodurre il video. I sottotitoli tradotti sono tradotti automaticamente.

00:06
Hello and welcome to Fake News: Fact and Fiction, from BBC Learning English.
0
6809
3540
Ciao e benvenuto a Fake News: Fact and Fiction, da BBC Learning English.
00:10
I'm Hugo.
1
10439
791
Sono Ugo.
00:11
And I'm Sam.
2
11339
781
E io sono Sam.
00:12
In the programme today,
3
12619
791
Nel programma di oggi
00:13
we'll look at some of the reasons people share fake news.
4
13490
2659
esamineremo alcuni dei motivi per cui le persone condividono notizie false.
00:16
We'll hear from disinformation researcher Samantha Bradshaw.
5
16229
2901
Ascolteremo la ricercatrice Samantha Bradshaw.
00:20
One reason why people share fake news that they know is fake,
6
20039
3781
Uno dei motivi per cui le persone condividono notizie false che sanno essere false
00:24
has to do with this thing that we call identity signalling.
7
24179
4410
ha a che fare con quella cosa che chiamiamo segnalazione di identità.
00:28
Identity signalling. Have you heard of that Sam?
8
28949
2520
Segnalazione dell'identità. Ne hai sentito parlare, Sam?
00:31
Not until I saw the script for this programme actually.
9
31890
3780
Non finché non ho visto la sceneggiatura di questo programma in realtà.
00:35
Ah, so make sure you keep watching to find out what identity signalling is
10
35750
3530
Ah, quindi assicurati di continuare a guardare per scoprire cos'è la segnalazione di identità
00:40
and how it's a part of the spread of fake news.
11
40530
2939
e come fa parte della diffusione di notizie false.
00:43
Before we get to that, we have some key vocabulary which you're going to
12
43979
3271
Prima di arrivare a questo, abbiamo un po' di vocabolario chiave che
00:47
tell us about Sam.
13
47329
820
ci parlerai di Sam.
00:48
What do you have for us today?
14
48299
1091
Cos'hai per noi oggi?
00:49
Yes, so today I am talking about: agenda, actors and motives.
15
49649
5610
Sì, quindi oggi parlo di: agenda, attori e motivazioni.
00:59
If you have to go to meetings and who doesn't love a good meeting?
16
59189
4841
Se devi andare alle riunioni e chi non ama un buon incontro?
01:04
I hate them.
17
64700
1080
Li odio.
01:05
They're such a waste of time.
18
65859
2261
Sono una tale perdita di tempo.
01:08
You will probably be familiar with agendas.
19
68239
3410
Probabilmente avrai familiarità con gli ordini del giorno.
01:12
An agenda is a list of things that are going to be discussed
20
72120
4040
Un ordine del giorno è un elenco di cose che verranno discusse
01:16
at the meeting.
21
76370
1040
durante la riunione.
01:17
But there is another meaning of the word 'agenda' that is important
22
77659
4291
Ma c’è un altro significato della parola “agenda” che è importante
01:22
in the area of fake news.
23
82040
2450
nel campo delle fake news.
01:24
If an individual or organisation or a government 'has an agenda',
24
84590
5599
Se un individuo, un'organizzazione o un governo “ha un programma”,
01:30
it means that there is something they want to achieve.
25
90530
3179
significa che c'è qualcosa che vuole ottenere.
01:33
This could be clearly stated objectives.
26
93799
3151
Potrebbero essere obiettivi chiaramente definiti.
01:37
But having an agenda can also suggest a secret or hidden aim.
27
97030
5559
Ma avere un’agenda può anche suggerire uno scopo segreto o nascosto.
01:42
Let's park the word agenda for the moment because there is another word
28
102669
4031
Mettiamo da parte per il momento la parola agenda perché c'è un'altra parola di cui
01:46
I want to talk about that has a very well-known meaning but also
29
106780
4120
voglio parlare che ha un significato molto noto ma anche
01:51
another meaning which is perhaps not so well-known - actor.
30
111230
4340
un altro significato forse non così noto: attore.
01:56
It's probably a very familiar word.
31
116780
3030
Probabilmente è una parola molto familiare.
01:59
Somebody who performs on stage or in films is an actor.
32
119890
3869
Qualcuno che recita sul palco o nei film è un attore.
02:03
But the same word is used to describe a person, group or even
33
123879
4511
Ma la stessa parola è usata per descrivere una persona, un gruppo o anche
02:08
a state that has an agenda that's either politically or economically motivated
34
128470
6099
uno stato che ha un programma motivato politicamente o economicamente
02:15
and they have influence or power that they use
35
135020
2430
e ha influenza o potere che usa
02:17
to promote that agenda.
36
137530
2659
per promuovere tale programma.
02:20
In this context you can hear the phrases:
37
140389
2761
In questo contesto puoi sentire le frasi:
02:23
state actors, political actors, and even - bad actors.
38
143449
6180
attori statali, attori politici e persino cattivi attori. Gli
02:30
State actors are governments,
39
150360
3709
attori statali sono i governi, gli
02:34
political actors are those with, you guessed it, political power and agendas
40
154150
4359
attori politici sono quelli che, avete indovinato, hanno potere e programmi politici
02:38
and bad actors - well that doesn't mean people who aren't very good at acting.
41
158990
5250
e i cattivi attori - beh, questo non significa persone che non sono molto brave a recitare.
02:44
A bad actor uses power or influence in a dishonest way
42
164840
4949
Un cattivo attore usa il potere o l'influenza in modo disonesto
02:50
to push a hidden agenda.
43
170210
2500
per portare avanti un programma nascosto.
02:52
They're trying to achieve something but it's not clear what it is.
44
172909
3680
Stanno cercando di ottenere qualcosa ma non è chiaro di cosa si tratta.
02:56
And it's not clear who is doing it.
45
176719
2871
E non è chiaro chi lo stia facendo.
02:59
For example, if a government from one country wants to influence an
46
179670
4160
Ad esempio, se il governo di un paese vuole influenzare le
03:03
election in another country, they may spread fake news stories
47
183910
4180
elezioni in un altro paese, potrebbe diffondere notizie false
03:08
but hide the fact that they're doing it.
48
188180
2910
ma nascondere il fatto che lo sta facendo.
03:11
This could be described as the actions of a bad actor or
49
191170
4060
Ciò potrebbe essere descritto come le azioni di un cattivo attore o di
03:15
a bad state actor.
50
195620
1530
un cattivo attore statale.
03:18
People who spread disinformation online may not be doing it because
51
198169
4050
Le persone che diffondono disinformazione online potrebbero non farlo perché ci
03:22
they believe it but because it suits their agenda.
52
202300
4810
credono, ma perché si adatta ai loro programmi.
03:27
This spreading of disinformation can be very sophisticated and the
53
207190
4539
Questa diffusione della disinformazione può essere molto sofisticata e le
03:31
motives of those doing it are often not obvious.
54
211810
3490
motivazioni di coloro che la fanno spesso non sono ovvie.
03:36
Motive.
55
216259
1231
Motivo.
03:37
That's another useful word in this context.
56
217570
2770
Questa è un'altra parola utile in questo contesto.
03:41
If you like TV crime dramas, and who doesn't love a good crime drama?,
57
221240
4889
Se ti piacciono i film polizieschi televisivi, e chi non ama un buon film poliziesco?,
03:46
- me, I never really understand them -
58
226590
3934
- io non li capisco mai veramente -
03:50
you will often hear the word 'motive'.
59
230604
3835
sentirai spesso la parola "movente".
03:54
"He can't be guilty. He didn't have a motive."
60
234520
3749
"Non può essere colpevole. Non aveva un movente."
03:59
A motive is a reason for doing something and not everyone's motives
61
239060
4979
Un motivo è un motivo per fare qualcosa e non tutti i motivi
04:04
for what they post online are genuine.
62
244120
2519
per cui pubblicano online sono autentici.
04:07
But how can you tell?
63
247340
1169
Ma come puoi dirlo?
04:09
Let's go back to the studio to see if there are any more useful tips.
64
249349
4111
Torniamo in studio per vedere se ci sono altri consigli utili.
04:16
Thanks for that Sam.
65
256449
881
Grazie per questo, Sam.
04:17
Really interesting, I was really impressed with your acting there.
66
257410
3040
Davvero interessante, sono rimasto davvero colpito dalla tua recitazione lì.
04:20
Well, I may be a bad actor but I'm not a bad actor.
67
260990
5169
Beh, posso essere un cattivo attore, ma non sono un cattivo attore. Le
04:26
My motives are purely genuine.
68
266239
2290
mie motivazioni sono puramente autentiche.
04:28
Well that's an interesting point about fake news I think.
69
268609
2100
Beh, questo è un punto interessante riguardo alle fake news, credo.
04:31
We've heard that fake news is produced by people who may want to
70
271160
3210
Abbiamo sentito dire che le notizie false sono prodotte da persone che potrebbero voler
04:34
make money or have a political or social agenda.
71
274449
3391
fare soldi o avere un programma politico o sociale.
04:37
Those are their motives,
72
277920
1190
Queste sono le loro motivazioni,
04:39
but they can only be successful if we share those stories.
73
279189
3801
ma possono avere successo solo se condividiamo quelle storie.
04:44
Absolutely. But why do people share news, stories, images that are fake?
74
284120
5310
Assolutamente. Ma perché le persone condividono notizie, storie, immagini false?
04:49
Well researcher Samantha Bradshaw from the Oxford Internet Institute
75
289720
3820
Ebbene, la ricercatrice Samantha Bradshaw dell'Oxford Internet Institute
04:53
at Oxford University shared her observations with us earlier.
76
293620
3490
dell'Università di Oxford ha condiviso con noi le sue osservazioni in precedenza. Le
04:58
People share fake news for a variety of reasons.
77
298910
3380
persone condividono notizie false per una serie di motivi.
05:02
In many cases sometimes people don't even realise the stories
78
302449
3871
In molti casi a volte le persone non si rendono nemmeno conto che le storie
05:06
that they're sharing are fake.
79
306400
1819
che condividono sono false.
05:08
They might find the content funny or humorous or they might think that
80
308329
4110
Potrebbero trovare il contenuto divertente o divertente oppure potrebbero pensare che
05:12
people in their network such as their friends or family or broader
81
312519
3731
le persone nella loro rete come i loro amici, familiari o conoscenti più ampi
05:16
acquaintances might enjoy this content.
82
316329
3760
potrebbero apprezzare questo contenuto.
05:20
Another reason people might share fake news has to do with
83
320169
3520
Un altro motivo per cui le persone potrebbero condividere notizie false ha a che fare con
05:24
the emotional appeal of fake news because it tends to be very negative.
84
324050
5549
il fascino emotivo delle notizie false perché tendono ad essere molto negative.
05:29
It tends to also elicit a reaction from people and they might be angry
85
329679
4541
Tende anche a suscitare una reazione da parte delle persone che potrebbero arrabbiarsi
05:34
and they might type and share and discuss what is being talked about
86
334300
5649
e potrebbero scrivere, condividere e discutere ciò di cui si parla
05:40
in this article because they find it so outrageous that they need
87
340029
4151
in questo articolo perché lo trovano così scandaloso da dover
05:44
to share it.
88
344259
1620
condividerlo.
05:45
The third reason why people might share fake news has to do with what
89
345959
3650
Il terzo motivo per cui le persone potrebbero condividere notizie false ha a che fare con ciò che
05:49
we call 'identity signalling' where people know that the information
90
349689
4571
chiamiamo "segnalazione di identità", ovvero la gente sa che le informazioni
05:54
being shared in this story is false.
91
354340
2530
condivise in questa storia sono false.
05:56
But the purpose of sharing it is to signal to a broader community that
92
356949
4210
Ma lo scopo di condividerlo è segnalare a una comunità più ampia che
06:01
they share certain values that are reflected in that news story.
93
361239
4910
condivide determinati valori che si riflettono in quella notizia.
06:06
And so it gives people a sense of belonging and
94
366680
5130
E così dà alle persone un senso di appartenenza e di
06:12
fitting into a broader community of people.
95
372139
2671
inserimento in una comunità più ampia di persone.
06:14
Has much more to do with identity than the actual facts of the story.
96
374889
4241
Ha molto più a che fare con l'identità che con i fatti reali della storia.
06:20
So what do you make of that Sam?
97
380449
1330
Allora cosa ne pensi di quel Sam?
06:22
OK, well, I can definitely see how we might accidentally share
98
382790
4039
OK, beh, capisco sicuramente che potremmo accidentalmente condividere
06:26
things that aren't true for, for example I sometimes see some
99
386909
3800
cose che non sono vere, per esempio a volte vedo alcune
06:30
amazing photos that I find out later are actually photoshopped.
100
390789
3311
foto fantastiche che poi scopro che in realtà sono state ritoccate con Photoshop.
06:34
and things that might make me angry can make me reach for the share button.
101
394939
4230
e le cose che potrebbero farmi arrabbiare possono farmi raggiungere il pulsante di condivisione.
06:39
But what stood out for me was this idea of identity signalling.
102
399249
4361
Ma ciò che mi ha colpito è stata questa idea di segnalazione dell’identità.
06:44
We might want to show that we belong to a particular group.
103
404060
3040
Potremmo voler dimostrare che apparteniamo a un gruppo particolare.
06:47
We share some beliefs and opinions and that it really doesn't matter
104
407180
3930
Condividiamo alcune convinzioni e opinioni e non importa
06:51
whether the content is true or not.
105
411350
1729
se il contenuto è vero o no.
06:53
And this is something that the people who produce fake news know well
106
413399
3501
E questo è qualcosa che chi produce fake news sa bene
06:57
and they know how to make us share those stories.
107
417050
2669
e sa come farci condividere quelle storie.
06:59
Here's Samantha Bradshaw again.
108
419799
2090
Ecco di nuovo Samantha Bradshaw.
07:02
So the purveyors of fake news will use a variety of strategies to
109
422329
5731
Quindi i fornitori di notizie false utilizzeranno una varietà di strategie per
07:08
get people clicking and sharing their content.
110
428139
4000
convincere le persone a cliccare e condividere i loro contenuti.
07:12
One of these strategies has to do with just the style that fake news
111
432219
5410
Una di queste strategie ha a che fare proprio con lo stile in cui
07:17
stories are often written in.
112
437709
1781
vengono spesso scritte le notizie false.
07:19
They'll tend to use highly emotional language and content also that gets
113
439759
6750
Tenderanno a utilizzare un linguaggio e contenuti altamente emotivi che suscitano
07:26
people's emotions high.
114
446589
2090
forti emozioni nelle persone.
07:28
And this is because psychologically we also like to share
115
448759
4861
E questo perché anche a noi psicologicamente piace condividere
07:33
this kind of information.
116
453699
1490
questo tipo di informazioni.
07:35
And this kind of content, especially highly emotive content,
117
455360
4109
E questo tipo di contenuti, soprattutto quelli altamente emotivi,
07:39
will go much further because of the algorithms of the platforms.
118
459549
4561
andranno molto oltre grazie agli algoritmi delle piattaforme.
07:44
And we also know that emotions like anger, outrage, fear are
119
464189
5690
E sappiamo anche che emozioni come la rabbia, lo sdegno, la paura sono
07:49
much stronger emotions than things like happiness and joy.
120
469959
3340
emozioni molto più forti di cose come felicità e gioia.
07:53
And so that's why we see disinformation and fake news stories
121
473379
4031
Ed ecco perché vediamo la disinformazione e le notizie false
07:57
go viral compared to facts and the boring truth and the mundane truth
122
477490
6039
diventare virali rispetto ai fatti e alla noiosa verità e alla banale verità
08:03
behind our factual daily news briefs.
123
483609
5261
dietro le nostre notizie quotidiane basate sui fatti.
08:08
We of course still see our cat memes and cute animal videos going viral too
124
488949
5171
Ovviamente vediamo ancora i nostri meme sui gatti e i video di adorabili animali diventare virali
08:14
because joy and happiness is a strong emotion but it's not quite as strong
125
494199
5020
perché la gioia e la felicità sono emozioni forti ma non sono così forti
08:19
as things like anger and fear.
126
499299
2751
come cose come rabbia e paura.
08:22
Now we know that many fake news stories are very emotive.
127
502129
2880
Ora sappiamo che molte notizie false sono molto emotive.
08:25
They generate strong emotions; the sense that something's not fair
128
505089
4000
Generano forti emozioni; la sensazione che qualcosa non sia giusto
08:29
or people or organisations are doing things they shouldn't and that can
129
509269
3390
o che persone o organizzazioni stiano facendo cose che non dovrebbero e questo può
08:32
make us look for other content to support that feeling.
130
512740
2990
portarci a cercare altri contenuti per supportare quella sensazione.
08:36
Yeah but good to know the cute cat videos are being shared too.
131
516620
4430
Sì, ma è bello sapere che vengono condivisi anche i video dei gatti carini.
08:41
And dogs don't forget dogs!
132
521279
2951
E i cani non dimenticano i cani!
08:44
But she also talked about algorithms,
133
524899
2070
Ma ha parlato anche di algoritmi,
08:47
the algorithms that social media companies use.
134
527090
2969
gli algoritmi utilizzati dalle società di social media.
08:50
So Sam what is an algorithm?
135
530289
2291
Allora Sam, cos'è un algoritmo?
08:53
OK, thanks for that Hugo!
136
533090
1449
Ok, grazie per questo, Hugo!
08:55
I might get into trouble here from computer experts but let's have a go.
137
535190
5490
Potrei finire nei guai qui da parte di esperti di computer, ma proviamoci.
09:00
Have you ever lost a huge amount of time because, for example,
138
540760
4390
Ti è mai capitato di perdere molto tempo perché, ad esempio,
09:05
you've gone on YouTube to watch a video and then you see a list of
139
545230
4180
sei andato su YouTube per guardare un video e poi vedi un elenco di
09:09
suggested related videos which start playing automatically?
140
549490
4059
video correlati suggeriti che inizia la riproduzione automaticamente?
09:14
All the time, all the time. I think we've all done that.
141
554000
3009
Tutto il tempo, tutto il tempo. Penso che lo abbiamo fatto tutti.
09:17
Absolutely. So you click on one video and then another
142
557940
2420
Assolutamente. Quindi fai clic su un video e poi su un altro
09:20
and another and another and then it's been hours and hours and hours.
143
560629
4121
e un altro e un altro e poi sono passate ore, ore e ore.
09:25
Exactly. Yeah. OK. So what's this got to do with algorithms?
144
565169
3050
Esattamente. Sì. OK. Allora cosa c'entra questo con gli algoritmi?
09:28
Well an algorithm is a set of instructions a computer system
145
568299
4811
Ebbene, un algoritmo è un insieme di istruzioni che un sistema informatico
09:33
follows to complete a particular task.
146
573190
3329
segue per completare un compito particolare. Le
09:36
Social media companies use algorithms to make that list of
147
576600
4130
società di social media utilizzano algoritmi per creare quell'elenco di
09:40
related videos just for you.
148
580810
3370
video correlati solo per te.
09:44
These are personalised based on your behaviour online and
149
584260
4179
Questi sono personalizzati in base al tuo comportamento online e
09:48
they get us clicking.
150
588519
1500
ci fanno fare clic.
09:50
This is because the companies want to keep you on their platforms for
151
590100
3830
Questo perché le aziende vogliono mantenerti sulle loro piattaforme il
09:54
as long as possible. That's how they make their money.
152
594010
3389
più a lungo possibile. È così che guadagnano.
09:57
The longer you're on their site the more links you click the more
153
597529
3331
Più a lungo rimani sul loro sito, più link fai clic, più
10:00
advertisements you see and the more cash they collect.
154
600940
2889
pubblicità vedi e più denaro raccolgono.
10:04
And the more we click on a particular kind of story, the more
155
604720
3600
E più clicchiamo su un particolare tipo di storia, più
10:08
the algorithms give us similar content.
156
608400
2790
gli algoritmi ci forniscono contenuti simili.
10:11
Now there's nothing necessarily wrong with that because I guess
157
611270
3540
Ora non c'è niente di necessariamente sbagliato in questo perché immagino che
10:14
after all we're getting a free service which has to be paid for somehow.
158
614890
4840
dopo tutto stiamo ricevendo un servizio gratuito che in qualche modo deve essere pagato.
10:20
But it does mean that we usually don't see things that
159
620090
3150
Ma significa che di solito non vediamo cose che
10:23
we don't like, that we don't agree with.
160
623320
1859
non ci piacciono, con cui non siamo d'accordo.
10:25
And this can make us feel that our view, our opinion
161
625259
3680
E questo può farci sentire che il nostro punto di vista, la nostra opinione
10:29
is the right one which everyone shares.
162
629029
2120
è quella giusta e condivisa da tutti.
10:31
Which is why I think it's a good idea to try and look for different opinions.
163
631460
4189
Ecco perché penso che sia una buona idea provare a cercare opinioni diverse.
10:35
So we don't end up thinking that everyone thinks the way we do.
164
635730
4069
Quindi non finiamo per pensare che tutti la pensino come noi.
10:39
So does that mean after watching all your cat videos you search for dog videos,
165
639879
4821
Quindi questo significa che dopo aver visto tutti i video dei tuoi gatti cerchi video di cani,
10:44
for a bit of balance?
166
644780
1409
per un po' di equilibrio?
10:46
I love cats and dogs equally actually but that's not exactly what I was thinking.
167
646429
4551
Adoro cani e gatti allo stesso modo, in realtà, ma non è esattamente quello che pensavo.
10:51
I'm just putting your leg there.
168
651060
979
Ti metto solo la gamba.
10:52
Sam please remind us of today's vocabulary.
169
652549
2921
Sam, per favore, ricordaci il vocabolario di oggi.
10:55
Certainly Hugo.
170
655860
600
Certamente Ugo.
10:56
So we started with 'agenda' which is a plan of things to be done.
171
656540
3659
Quindi abbiamo iniziato con l'"agenda", ovvero un piano di cose da fare.
11:00
And it's a hidden, and if it's a hidden agenda, it means the reason
172
660679
3841
Ed è un programma nascosto, e se è un programma nascosto, significa che il motivo
11:04
for someone's actions might be secret or hidden.
173
664600
3779
delle azioni di qualcuno potrebbe essere segreto o nascosto.
11:08
Then there was the word 'actor'.
174
668480
1659
Poi c'era la parola "attore".
11:10
In the context of fake news an actor is someone with an agenda that uses
175
670549
4680
Nel contesto delle fake news un attore è qualcuno con un programma che usa il
11:15
power and influence to try and promote that agenda.
176
675309
3761
potere e l’influenza per cercare di promuovere tale programma.
11:20
A 'motive' is a reason for doing something.
177
680029
2770
Un "motivo" è una ragione per fare qualcosa.
11:22
And like hidden agendas sometimes the motives for a particular action
178
682990
4419
E come per i programmi nascosti, a volte i motivi di una particolare azione
11:27
on the Internet are not always clear and transparent.
179
687490
3979
su Internet non sono sempre chiari e trasparenti.
11:31
Samantha Bradshaw talked about identity signalling.
180
691549
3641
Samantha Bradshaw ha parlato della segnalazione dell'identità.
11:35
This is the description of behaviour online when people share things
181
695299
3691
Questa è la descrizione del comportamento online in cui le persone condividono cose
11:39
without being interested in whether they're true or not.
182
699320
2889
senza essere interessate a sapere se sono vere o no.
11:42
What's important is not how true it is but that it demonstrates that
183
702289
4110
Ciò che è importante non è quanto sia vero, ma che dimostri che
11:46
they think in the same way or share the same beliefs as the group.
184
706480
5149
pensano allo stesso modo o condividono le stesse convinzioni del gruppo.
11:51
And finally 'algorithm'.
185
711710
1380
E infine "algoritmo".
11:53
An algorithm is a set of software instructions that for example can
186
713600
3990
Un algoritmo è un insieme di istruzioni software che, ad esempio, possono
11:57
produce a personalised list of recommended videos based on what
187
717670
4089
produrre un elenco personalizzato di video consigliati in base a ciò che
12:01
an individual has searched for or watched in the past.
188
721840
3160
un individuo ha cercato o guardato in passato.
12:06
Thank you Sam. That was very comprehensive.
189
726250
2200
Grazie Sam. È stato molto completo.
12:08
That's all from us today. We look forward to your company again soon.
190
728530
3269
Questo è tutto per noi oggi. Attendiamo con ansia di nuovo presto la vostra azienda.
12:11
Goodbye. And stay safe.
191
731879
2260
Arrivederci. E stai al sicuro.
12:14
Bye bye!
192
734259
500
Ciao ciao!
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7