Fake News: Fact & Fiction - Episode 4: Covid-19: Fake news and conspiracy theories

76,230 views ・ 2020-09-03

BBC Learning English


Fare doppio clic sui sottotitoli in inglese per riprodurre il video. I sottotitoli tradotti sono tradotti automaticamente.

00:06
Hugo: Hello. This is Fake News, Fact and Fiction from BBC
0
6589
2805
Ugo: Ciao. Questa è una notizia falsa, realtà e finzione della BBC
00:09
Learning English. I'm Hugo.
1
9461
1328
Learning English. Sono Ugo.
00:11
Sam: And I'm Sam.
2
11019
850
Sam: E io sono Sam.
00:12
Hugo: And as you see we're not in the studio today. Like in
3
12019
2250
Hugo: E come vedi oggi non siamo in studio. Come in
00:14
many parts of the world we're practising social distancing
4
14336
3459
molte parti del mondo, stiamo praticando il distanziamento sociale
00:17
and working from home. How are you doing there, Sam?
5
17861
2173
e lavorando da casa. Come stai lì, Sam?
00:20
Sam: I'm doing OK. Thank you Hugo, but it is definitely
6
20820
2975
Sam: Sto bene. Grazie Hugo, ma è decisamente
00:23
a strange world that we're living in right now, isn't it?
7
23861
2642
un mondo strano quello in cui viviamo in questo momento, vero?
00:26
And I don't know if you remember but in our first
8
26690
3510
E non so se ti ricordi, ma nel nostro primo
00:30
programme we talked about stories going viral, so
9
30266
4063
programma abbiamo parlato di storie diventate virali, quindi
00:34
spreading around the internet really quickly and well now,
10
34396
4483
diffondendosi su Internet molto velocemente e bene ora,
00:38
what we have is a real virus that has gone viral.
11
38946
3853
quello che abbiamo è un vero virus che è diventato virale.
00:42
Hugo: Indeed. And that is going to be the focus of today's
12
42866
2813
Ugo: Infatti. E questo sarà il fulcro del programma di oggi
00:45
programme. This pandemic has seen a large amount of fake
13
45746
3683
. Questa pandemia ha visto ad essa allegata una grande quantità di fake
00:49
news attached to it. And as we sit at home browsing the
14
49496
3624
news. E mentre ce ne stiamo seduti a casa a navigare in
00:53
internet we may have come across many different stories
15
53186
3039
Internet, potremmo esserci imbattuti in molte storie
00:56
and theories of the causes of the virus or possible cures. So
16
56291
3548
e teorie diverse sulle cause del virus o sulle possibili cure. Quindi
00:59
today we're looking at fake news in the era of Covid-19.
17
59906
4023
oggi guardiamo alle fake news nell'era del Covid-19.
01:03
But before we get to that Sam, do you have some vocabulary for us?
18
63996
3730
Ma prima di arrivare a quel Sam, hai qualche vocabolario per noi?
01:07
19
67226
500
01:07
Sam: Yes I do. So today I'm focusing on some useful
20
67793
3521
Sam: Sì, lo so. Quindi oggi mi concentrerò su alcuni
01:11
vocabulary you might use if you think that what you've seen
21
71381
3774
vocaboli utili che potresti usare se pensi che ciò che hai visto
01:15
online is not true.
22
75221
1828
online non sia vero. Le
01:21
Red flags are often used as a warning sign. In fact in
23
81659
4906
bandiere rosse sono spesso utilizzate come segnale di avvertimento. Infatti in
01:26
Britain when motor cars were first used on the streets the
24
86631
3774
Gran Bretagna, quando le automobili sono state utilizzate per la prima volta per le strade, la
01:30
law said that you had to have someone walking in front of the
25
90471
3968
legge diceva che bisognava avere qualcuno che camminava davanti al
01:34
vehicle carrying a red flag to warn other road users. These
26
94506
5484
veicolo portando una bandiera rossa per avvertire gli altri utenti della strada. In questi
01:40
days if a piece of information or a social media post
27
100056
3999
giorni se un'informazione o un post sui social media
01:44
'raises a red flag' it means you are suspicious that it
28
104121
4419
"alza una bandiera rossa" significa che sospetti che
01:48
might be fake news.
29
108606
2183
possa trattarsi di notizie false.
01:50
There are many red flags to watch out for. For example a
30
110856
3204
Ci sono molte bandiere rosse a cui prestare attenzione. Ad esempio un
01:54
post that says something like 'the media doesn't want you to
31
114126
3729
post che dice qualcosa come "i media non vogliono che tu
01:57
know this' or maybe it's a meme or a quote that claims that a
32
117921
4628
lo sappia" o forse è un meme o una citazione che afferma che un
02:02
politician you don't like has said or done something
33
122616
3384
politico che non ti piace ha detto o fatto qualcosa di
02:06
terrible. These posts might be easy to share or they might
34
126066
4179
terribile. Questi post potrebbero essere facili da condividere o potrebbero
02:10
even say 'you must share this!' or 'share this if you agree'.
35
130311
5089
persino dire "devi condividerlo!" o "condividi se sei d'accordo".
02:15
Those are some examples of red flags that could make you doubt
36
135466
3223
Questi sono alcuni esempi di segnali d'allarme che potrebbero farti dubitare di
02:18
how true the information is.
37
138756
2394
quanto siano vere le informazioni. A
02:21
We all like to share things and we all like it when things we
38
141389
3661
tutti noi piace condividere le cose e a tutti piace quando le cose che
02:25
share are liked. But before you hit that share button it's a
39
145116
4823
condividiamo piacciono. Ma prima di premere quel pulsante di condivisione è una
02:30
good idea to fact-check the information the
40
150006
3563
buona idea verificare le informazioni: il
02:33
verb fact-check, first used in the 1970s, simply means to
41
153840
4755
verbo fact-check, usato per la prima volta negli anni '70, significa semplicemente
02:38
check the facts to confirm that the information is true.
42
158661
3968
controllare i fatti per confermare che le informazioni sono vere.
02:42
There are quite a few fact- checking websites which can
43
162696
3354
Esistono parecchi siti Web di verifica dei fatti che possono
02:46
help you to verify, prove, or debunk, disprove,
44
166116
5513
aiutarti a verificare, provare o sfatare, confutare
02:51
the information. Debunk, a verb from the 1920s, means to prove
45
171696
6368
le informazioni. Debunk, un verbo degli anni '20, significa provare
02:58
or demonstrate that something is not true that it is
46
178131
3019
o dimostrare che qualcosa non è vero che è
03:01
completely false. So fact- checking can help you to debunk
47
181216
4483
completamente falso. Quindi il controllo dei fatti può aiutarti a sfatare le
03:05
false claims made on social media.
48
185766
2934
false affermazioni fatte sui social media.
03:08
Now you might be wondering, as there is a word debunk, is
49
188766
4404
Ora ti starai chiedendo, dato che c'è una parola debunk, c'è
03:13
there a word bunk? Well yes there is but it's not a verb
50
193236
4553
una parola cuccetta? Ebbene si c'è ma non è un verbo
03:17
it's a noun. Bunk and also bunkum are words that mean
51
197856
4613
è un sostantivo. Bunk e anche bunkum sono parole che significano
03:22
nonsense. Interestingly they are political in origin and
52
202536
4869
sciocchezze. È interessante notare che sono di origine politica e
03:27
come from the county of Buncombe in the United States. This
53
207471
3999
provengono dalla contea di Buncombe negli Stati Uniti. Questa
03:31
county was represented by a politician who talked a lot
54
211536
4134
contea era rappresentata da un politico che parlava molto
03:35
without saying anything important. So he talked bunkum.
55
215759
4511
senza dire niente di importante. Quindi ha parlato di stupidaggini.
03:40
Now back to the studio.
56
220336
1063
Adesso torniamo in studio.
03:44
Hugo: Very interesting Sam, it certainly wasn't bunkum but
57
224879
2656
Hugo: Molto interessante Sam, di certo non era una stupidaggine ma
03:47
there was a piece of fake news there wasn't there? 'Back to
58
227601
2229
c'era una notizia falsa, non c'era? 'Ritorno in
03:49
the studio'?
59
229896
534
studio'?
03:50
Sam: Yes, well spotted. I did record that section before I
60
230639
3946
Sam: Sì, ben individuato. Ho registrato quella sezione prima di
03:54
knew that we would be filming from home for this episode so I
61
234651
3309
sapere che avremmo girato da casa per questo episodio, quindi spero che
03:58
hope you will forgive me for that.
62
238026
3124
mi perdonerai per questo.
04:01
Hugo: Of course, now this pandemic has been dominating
63
241216
2338
Hugo: Certo, ora questa pandemia domina
04:03
the news for a long time now and there are many legitimate
64
243621
2619
le notizie da molto tempo ormai e ci sono molte
04:06
areas of discussion to do with restrictions of movement,
65
246306
2724
aree di discussione legittime che hanno a che fare con le restrizioni di movimento, i
04:09
testing, treatments and the economy.
66
249096
4073
test, i trattamenti e l'economia.
04:13
Sam: But we've also seen a lot of different theories about the
67
253236
2483
Sam: Ma abbiamo anche visto molte teorie diverse sul
04:15
virus which are not supported by any evidence but which many
68
255786
4194
virus che non sono supportate da alcuna prova ma che molte
04:20
people have still shared . Some of these are what are known as
69
260046
4358
persone hanno comunque condiviso. Alcune di queste sono le cosiddette
04:24
conspiracy theories.
70
264471
1869
teorie del complotto.
04:26
Hugo: And examples of conspiracy theories are that
71
266406
2198
Hugo: Ed esempi di teorie del complotto sono che
04:28
the earth is flat or that the moon landings were fake and
72
268671
3383
la terra è piatta o che gli sbarchi sulla luna erano falsi e
04:32
even though these theories are comprehensively debunked some
73
272121
3219
anche se queste teorie sono state ampiamente smentite, alcune
04:35
people still strongly believe them. To find out more
74
275406
2603
persone ci credono ancora fermamente . Per saperne di più
04:38
about conspiracy theories we spoke to Professor Joe
75
278076
2974
sulle teorie del complotto abbiamo parlato con il professor Joe
04:41
Uscinski. He's an associate professor of political science
76
281116
3148
Uscinski. È professore associato di scienze politiche
04:44
at the University of Miami and the author of the book
77
284331
2664
all'Università di Miami e autore del libro
04:47
'Conspiracy Theories, a Primer'. We asked him first to
78
287061
3473
"Conspiracy Theories, a Primer". Gli abbiamo chiesto prima di
04:50
define the term conspiracy theory and why people
79
290601
2528
definire il termine teoria del complotto e perché le persone
04:53
believe them.
80
293196
500
ci credono.
04:58
A conspiracy theory is an allegation or an idea that a
81
298050
5790
Una teoria della cospirazione è un'accusa o un'idea secondo cui un
05:03
small group of powerful people are working in secret to effect
82
303906
5904
piccolo gruppo di persone potenti sta lavorando in segreto per effettuare
05:09
an event or circumstance in a way that benefits them and
83
309876
4868
un evento o una circostanza in un modo che li avvantaggia e
05:14
harms the common good. And further this theory hasn't been
84
314811
4238
danneggia il bene comune. E inoltre questa teoria non è stata
05:19
confirmed by the people we would look to to confirm such
85
319116
5363
confermata dalle persone a cui cercheremmo di confermare tali
05:24
events. There is nothing new about conspiracy theories and
86
324546
3473
eventi. Non c'è niente di nuovo nelle teorie del complotto e
05:28
you can find them if you look through almost any historical
87
328086
3594
puoi trovarle se guardi quasi tutti i
05:31
document.
88
331746
1268
documenti storici.
05:33
So for example the United States Declaration of
89
333081
2709
Così, per esempio, la Dichiarazione di Indipendenza degli Stati Uniti
05:35
Independence has a few paragraphs about politics. But
90
335856
4704
contiene alcuni paragrafi sulla politica. Ma
05:40
then once you read beneath that, it's largely a
91
340626
2468
poi una volta letto sotto, è in gran parte un
05:43
list of conspiracy theories about the king of England. So
92
343161
5103
elenco di teorie del complotto sul re d'Inghilterra. Quindi
05:48
they exist amongst all people at all times. They're very much
93
348331
4229
esistono tra tutte le persone in ogni momento. Sono davvero
05:52
a human constant. People like to have their ideas make sense
94
352626
4503
una costante umana. Alla gente piace che le proprie idee abbiano un senso
05:57
when in combination with each other. So in order for someone
95
357209
4351
quando sono combinate tra loro. Quindi, affinché qualcuno
06:01
to adopt a conspiracy theory that theory has to match with
96
361626
5258
adotti una teoria del complotto, quella teoria deve corrispondere a
06:06
what they already believe.
97
366951
2154
ciò in cui già crede.
06:09
So for example if you really like President Obama, you're
98
369171
2919
Quindi, ad esempio, se ti piace davvero il presidente Obama,
06:12
probably not going to think that he faked his birth
99
372156
2048
probabilmente non penserai che abbia falsificato il suo
06:14
certificate to illegally become president. If you really like
100
374271
4073
certificato di nascita per diventare presidente illegalmente. Se ti piace davvero il
06:18
President Bush, you're not going to buy the theory that he
101
378411
2528
presidente Bush, non crederai alla teoria secondo cui ha fatto
06:21
blew up the Twin Towers on 9/11.
102
381006
1923
saltare in aria le Torri Gemelle l'11 settembre.
06:23
So people's conspiracy theories have to match their underlying
103
383819
5325
Quindi le teorie del complotto delle persone devono corrispondere alle loro
06:29
world views that they already carry with them so that's why
104
389211
4513
visioni del mondo sottostanti che già portano con sé, ecco perché le
06:33
people's conspiracy theories tend to match their political
105
393791
3564
teorie del complotto delle persone tendono a corrispondere alla loro
06:37
persuasion whether they're liberal or conservative and
106
397421
3059
persuasione politica, sia che siano liberali o conservatrici, e
06:40
they have to match their other world views too.
107
400546
2259
devono anche corrispondere alle loro altre visioni del mondo.
06:43
So for that reason it's actually more difficult to
108
403399
2761
Quindi per questo motivo è in realtà più difficile
06:46
convince people of conspiracy theories than you might think.
109
406226
2673
convincere le persone delle teorie del complotto di quanto si possa pensare.
06:49
Hugo: So we only really buy into a conspiracy theory if
110
409459
3015
Hugo: Quindi accettiamo davvero una teoria del complotto solo se
06:52
it's in line with what we already think about the world.
111
412541
3324
è in linea con ciò che già pensiamo del mondo.
06:55
Sam: Yes and that ties in with a lot of the fake news research
112
415931
3549
Sam: Sì e questo si collega a molte delle ricerche sulle notizie false, vero
06:59
doesn't it? So people will share things they believe to be
113
419546
3504
? Quindi le persone condivideranno cose che credono essere
07:03
true or want to be true because the ideas match with their own
114
423116
4028
vere o che vogliono essere vere perché le idee corrispondono alle loro opinioni
07:07
political or ideological views.
115
427211
3593
politiche o ideologiche.
07:10
I'd also like to mention the phrase 'buy' or 'buy into'
116
430871
3749
Vorrei anche menzionare la frase "compra" o "acquista"
07:14
which he and you Hugo just used. So these both mean to
117
434686
4309
che tu e lui Hugo avete appena usato. Quindi entrambi significano
07:19
believe or accept that something is true and you can
118
439061
4568
credere o accettare che qualcosa sia vero e puoi
07:23
use the phrase 'I don't buy it' if you are not convinced that
119
443696
4463
usare la frase "Non lo compro" se non sei convinto che
07:28
something is true. So for example, I heard somewhere
120
448226
2994
qualcosa sia vero. Quindi, ad esempio, ho sentito da qualche parte
07:31
that eating lemons can cure coronavirus but I don't buy it.
121
451286
3913
che mangiare limoni può curare il coronavirus ma non lo compro.
07:35
Hugo: Absolutely. Now let's take a trip around the world.
122
455266
2664
Ugo: Assolutamente. Ora facciamo un giro del mondo. Abbiamo
07:37
We spoke to a number of our BBC colleagues across the globe to
123
457996
3453
parlato con un certo numero di nostri colleghi della BBC in tutto il mondo per
07:41
find out what kind of fake news and conspiracy theories related
124
461516
3503
scoprire che tipo di notizie false e teorie del complotto relative
07:45
to Covid-19 have been shared on different continents and
125
465086
3654
a Covid-19 sono state condivise in diversi continenti e
07:48
apologies in advance for the quality of the line in some cases
126
468889
3311
ci scusiamo in anticipo per la qualità della linea in alcuni casi
07:51
127
471506
694
07:55
Here in Afghanistan at the beginning of the Covid-19
128
475639
3430
Qui in Afghanistan all'inizio della crisi del Covid-19
07:59
crisis a mullah in the west off the country, in Herat,
129
479136
2598
un mullah nell'ovest del paese, a Herat,
08:03
compared the number of fatalities in Muslim countries
130
483959
2745
ha confrontato il numero di vittime nei paesi musulmani
08:06
with the number of deaths in Western countries and after
131
486771
3683
con il numero di morti nei paesi occidentali e
08:10
that said that these numbers showed us the Covid-19 and
132
490521
2923
successivamente ha detto che questi numeri ci hanno mostrato il Covid-19 e il
08:13
coronavirus does not kill Muslims. But he was absolutely
133
493511
5419
coronavirus non uccide i musulmani. Ma aveva assolutamente
08:18
wrong. Nowadays we see the number of deaths in Muslim
134
498996
5318
torto. Al giorno d'oggi vediamo il numero di morti nei
08:24
countries and here in Afghanistan is rising day by day.
135
504381
3662
paesi musulmani e qui in Afghanistan sta aumentando di giorno in giorno.
08:28
136
508045
1
08:33
We have received a video and some content with some links
137
513690
5269
Abbiamo ricevuto un video e alcuni contenuti con alcuni collegamenti
08:39
to internet, to some documents and so on, saying that the
138
519026
4628
a Internet, ad alcuni documenti e così via, in cui si afferma che il
08:43
virus has been created by U.S. scientists who have helped
139
523721
6079
virus è stato creato da scienziati statunitensi che hanno aiutato
08:51
Chinese scientists in Wuhan.
140
531470
2549
scienziati cinesi a Wuhan.
08:55
But, less than two weeks later we have received another video
141
535549
3811
Ma, meno di due settimane dopo, abbiamo ricevuto un altro video
08:59
and other video in the same line, on the same topic
142
539426
3218
e un altro video sulla stessa linea, sullo stesso argomento, in cui
09:04
saying that the virus has been created by Chinese helped by
143
544419
6206
si afferma che il virus è stato creato dai cinesi aiutati da
09:10
French scientists. But what was worse is that it's roughly the
144
550691
5124
scienziati francesi. Ma la cosa peggiore è che sono più o meno le
09:15
same images. The same images that they're giving as evidence
145
555881
4239
stesse immagini. Le stesse immagini che danno come prova
09:20
of the of fraud. This shows clearly that it's a fake.
146
560186
5504
della frode. Questo dimostra chiaramente che si tratta di un falso.
09:29
Here in Brazil there are a lot of messages on WhatsApp and
147
569519
3235
Qui in Brasile ci sono molti messaggi su WhatsApp e
09:32
other social media showing photos and videos of people
148
572821
4808
altri social media che mostrano foto e video di persone che
09:37
opening up coffins in cemeteries and showing them
149
577696
5063
aprono bare nei cimiteri e le mostrano
09:42
full of stones. And they use this to support the conspiracy
150
582826
6894
piene di pietre. E lo usano per supportare la
09:49
theory that people are like, increasing the number of deaths
151
589786
5513
teoria del complotto a cui assomigliano le persone, aumentando artificialmente il numero di morti
09:55
artificially just to create problems to our president,
152
595366
5004
solo per creare problemi al nostro presidente,
10:00
you know.
153
600436
500
sai.
10:01
There are a lot of these messages with these images to
154
601450
3119
Ci sono molti di questi messaggi con queste immagini per
10:04
support this idea that this situation is created to, to
155
604636
5723
supportare l'idea a cui è stata creata questa situazione, per
10:10
hurt him politically. But these images are from like a case two
156
610426
6564
ferirlo politicamente. Ma queste immagini provengono da un caso di due
10:17
years ago in a city in Sao Paulo state, in the country,
157
617056
5333
anni fa in una città nello stato di San Paolo, in campagna,
10:22
that was like, a fraud, to insurance you know, like two
158
622456
4328
che era come una frode, per un'assicurazione, sai, come due
10:26
years ago. So yeah this is one of the things that are
159
626851
3864
anni fa. Quindi sì, questa è una delle cose che stanno
10:30
happening here because of the pandemic.
160
630781
2754
accadendo qui a causa della pandemia.
10:36
Here in Hong Kong. I've heard many theories and you can
161
636940
3015
Qui a Hong Kong. Ho sentito molte teorie e puoi
10:40
always find the most confidential intelligence in my
162
640021
3368
sempre trovare le informazioni più riservate nel
10:43
mother's mobile phone. There was a time I received an urgent
163
643456
4013
cellulare di mia madre. C'è stato un momento in cui ho ricevuto una
10:47
call from her only to find that she started reading a WhatsApp
164
647536
3354
sua chiamata urgente solo per scoprire che ha iniziato a leggermi un
10:50
message to me that was about how the U.S. military smuggled
165
650956
4373
messaggio WhatsApp che parlava di come l'esercito americano ha contrabbandato il
10:55
coronavirus to Wuhan in order to destroy China's fast growing
166
655396
4313
coronavirus a Wuhan per distruggere l'economia in rapida crescita della Cina
10:59
economy. Of course that was absolutely groundless. However
167
659776
4493
. Ovviamente era assolutamente infondato. Tuttavia
11:04
the message was circulated widely in her social circle.
168
664336
4448
il messaggio è stato ampiamente diffuso nella sua cerchia sociale.
11:08
They are patriots who tend to believe any conspiracy theories
169
668851
3399
Sono patrioti che tendono a credere a qualsiasi teoria del complotto
11:12
targeted at the U.S. authority. So even if I could convince her
170
672316
5003
mirata all'autorità statunitense. Quindi, anche se riuscissi a convincerla
11:17
that the information was fake this time she would only send
171
677386
3368
che questa volta le informazioni erano false, la
11:20
me another one next time. It's just unstoppable.
172
680821
2979
prossima volta me ne manderebbe solo un'altra . È semplicemente inarrestabile.
11:28
Hugo: So we hear there some typical examples of fake news
173
688110
2505
Hugo: Quindi sentiamo alcuni esempi tipici di notizie false
11:30
such as real photographs being deliberately mis-described and
174
690690
4094
come fotografie reali deliberatamente descritte in modo errato ed
11:34
examples of the kind of belief in conspiracy theories
175
694851
2934
esempi del tipo di credenza nelle teorie del complotto di cui parlava
11:37
Professor Uscinski was talking about.
176
697851
1441
il professor Uscinski .
11:39
Sam: Yes and we hear that people want to share these
177
699419
2956
Sam: Sì e abbiamo sentito che le persone vogliono condividere queste
11:42
theories because they have a negative view of a particular
178
702441
3203
teorie perché hanno una visione negativa di un particolare
11:45
country and are happy to believe almost anything
179
705711
2858
paese e sono felici di credere a quasi tutto ciò che di
11:48
negative they hear about them.
180
708636
2018
negativo sentono su di loro.
11:50
I'd also like to pick out a particular word that Billy Chan
181
710721
3158
Vorrei anche scegliere una parola particolare usata da Billy Chan
11:53
used. He used the word 'groundless' to refer to
182
713946
4133
. Ha usato la parola "senza fondamento" per riferirsi ad
11:58
some claims. 'Groundless' means not based on any evidence.
183
718146
3954
alcune affermazioni. 'Infondato' significa non basato su alcuna prova.
12:02
There's no proof for it.
184
722166
1403
Non ci sono prove per questo.
12:04
Hugo: So there we had some insights from around the world.
185
724049
2311
Hugo: Quindi abbiamo avuto alcune intuizioni da tutto il mondo.
12:06
Let's look closer to home now we're joined by our BBC
186
726426
3113
Diamo un'occhiata più da vicino a casa ora che siamo raggiunti dalla nostra
12:09
colleague Marianna Spring. Thanks for being with us. So if
187
729606
3144
collega della BBC Marianna Spring. Grazie per essere stato con noi. Quindi, se prima
12:12
you can just explain the work you do here at the BBC first.
188
732816
3963
puoi spiegare il lavoro che fai qui alla BBC.
12:16
Marianna: Yes, so I am the specialist disinformation
189
736846
2744
Marianna: Sì, quindi sono la giornalista specializzata in disinformazione, il
12:19
reporter which means that me along with a team at BBC
190
739656
3863
che significa che insieme a un team di BBC
12:23
Trending who are part of the World Service and BBC
191
743586
3144
Trending che fa parte del World Service e BBC
12:26
Monitoring and BBC Reality Check. And so we investigate
192
746796
4164
Monitoring e BBC Reality Check. E così indaghiamo sui
12:31
misleading posts as well as looking to tell the stories of
193
751026
2843
post fuorvianti e cerchiamo di raccontare le storie delle
12:33
the people who fight and spread misinformation across the world.
194
753936
6086
persone che combattono e diffondono disinformazione in tutto il mondo.
12:40
195
760023
1
12:40
Hugo: So you must be really really busy. Is it your feeling
196
760091
2249
Hugo: Quindi devi essere davvero molto impegnato. Hai la sensazione
12:42
that from what you've seen that disinformation, conspiracy
197
762406
4394
che da quello che hai visto la disinformazione, le
12:46
theories about Covid-19 are very different around the world?
198
766866
3684
teorie del complotto sul Covid-19 siano molto diverse in tutto il mondo?
12:52
Marianna: I think this pandemic is particularly interesting because
199
772429
3595
Marianna: Penso che questa pandemia sia particolarmente interessante perché la
12:56
200
776025
1
12:56
most of the misleading stuff we've seen has actually been
201
776570
2489
maggior parte delle cose fuorvianti che abbiamo visto sono state
12:59
incredibly global. So there was one particularly viral case
202
779126
3294
incredibilmente globali. Quindi c'è stato un caso particolarmente virale
13:02
that we tracked, a list of dodgy medical myths and tips,
203
782486
3833
che abbiamo rintracciato, un elenco di falsi miti e suggerimenti medici,
13:06
and it hopped from the Facebook page of a man in the U.K. to
204
786386
6008
ed è saltato dalla pagina Facebook di un uomo nel Regno Unito ai
13:12
Facebook groups for Catholics living in India to the
205
792470
4559
gruppi Facebook per i cattolici che vivono in India
13:17
Instagram account of a Ghanaian television presenter. So this
206
797096
3264
all'account Instagram di un presentatore televisivo ghanese . Quindi questa
13:20
stuff really goes global and is attributed to a range of
207
800426
3143
roba diventa davvero globale ed è attribuita a una serie di
13:23
different people, to hospitals, professors doctors in the US,
208
803636
3944
persone diverse, a ospedali, professori medici negli Stati Uniti,
13:27
in Africa in Europe.
209
807646
1923
in Africa in Europa.
13:29
There's no limit to to who it can be who is alleged to have
210
809636
4008
Non c'è limite a chi può essere chi si presume abbia
13:33
started or spread the rumour. However. I do think there are
211
813711
4304
iniziato o diffuso la voce. Tuttavia. Penso che ci siano
13:38
also specific instances of conspiracy theories or
212
818081
2619
anche casi specifici di teorie del complotto o
13:40
misleading information that are specific to certain countries.
213
820766
3024
informazioni fuorvianti che sono specifiche di alcuni paesi.
13:43
In other places, for instance in the U.K. there's been a
214
823856
2993
In altri luoghi, ad esempio nel Regno Unito, c'è stata una
13:46
conspiracy theory relating to 5G suggesting that 5G
215
826916
3963
teoria del complotto relativa al 5G che suggerisce che la
13:50
technology could perhaps be linked to coronavirus and the
216
830946
3718
tecnologia 5G potrebbe forse essere collegata al coronavirus e alla
13:54
spread of it. Those claims are totally false. But I think
217
834731
2904
sua diffusione. Queste affermazioni sono totalmente false. Ma penso che,
13:57
because here in the U.K. we've been talking lots about 5G
218
837701
2919
poiché qui nel Regno Unito abbiamo parlato molto della
14:00
technology and how it will be rolled out they've felt relevant.
219
840686
3193
tecnologia 5G e di come verrà implementata, si siano sentiti rilevanti.
14:02
220
842756
1123
14:03
And then in other countries across the world there are
221
843946
2493
E poi in altri paesi del mondo ci sono
14:06
specific home remedies or suggestions, for instance in
222
846506
3364
specifici rimedi casalinghi o suggerimenti, ad esempio in
14:09
China or Vietnam, which have caused harm to people because
223
849936
4514
Cina o Vietnam, che hanno causato danni alle persone perché
14:14
they believed they would prevent or cure coronavirus.
224
854629
2851
credevano che avrebbero prevenuto o curato il coronavirus.
14:18
Hugo: And how can we in the mainstream media help
225
858019
3495
Hugo: E come possiamo aiutare i media mainstream in
14:21
particularly in a time when we're being attacked, we're not
226
861581
3999
particolare in un momento in cui siamo attaccati, non
14:25
always trusted by people?
227
865646
1314
sempre le persone si fidano di noi?
14:27
Marianna: I think there are two crucial things that we can do
228
867080
2609
Marianna: Penso che ci siano due cose cruciali che possiamo fare
14:30
to cover this area for different audiences. The first
229
870019
4216
per coprire quest'area per diversi tipi di pubblico. Il
14:34
one is not just to show our answers but to show the
230
874301
2588
primo non è solo per mostrare le nostre risposte, ma per mostrare il
14:36
workings. So when we reveal that something is false or
231
876956
3113
funzionamento. Quindi, quando riveliamo che qualcosa è falso o
14:40
misleading we don't just put that assertion out there. We
232
880136
3653
fuorviante, non ci limitiamo a esporre quell'affermazione.
14:43
also show how we reach that point. We show how we
233
883856
2753
Mostriamo anche come raggiungiamo quel punto. Mostriamo come abbiamo
14:46
investigated a specific post or specific claims and why they're
234
886676
4133
esaminato un post specifico o affermazioni specifiche e perché
14:50
untrue. And I think that's a really good way of letting
235
890876
3653
non sono vere. E penso che sia davvero un buon modo per far entrare
14:54
people into how we operate and actually gaining their trust.
236
894596
4269
le persone nel modo in cui operiamo e ottenere effettivamente la loro fiducia.
14:58
And secondly I think it's crucial to educate audiences in
237
898931
2799
E in secondo luogo penso che sia fondamentale educare il pubblico su
15:01
how they can both spot and stop misleading stuff spreading
238
901796
3384
come sia possibile individuare e fermare la diffusione di materiale fuorviante
15:05
online. So there are certain red flags that we look out for
239
905246
3784
online. Quindi ci sono alcune bandiere rosse che cerchiamo
15:09
when we see something online that makes me think "Oh that
240
909096
3394
quando vediamo qualcosa online che mi fa pensare "Oh,
15:12
looks a bit suspicious". One of them will be these
241
912556
2839
sembra un po' sospetto". Una di queste saranno queste
15:15
introductions I've mentioned where a friend's brother's
242
915461
3114
presentazioni che ho menzionato in cui lo zio del cugino del fratello
15:18
cousin's uncle who's a doctor in New York has said something
243
918641
4164
di un amico che è un medico a New York ha detto qualcosa
15:22
or other. If we see an introduction like that it's
244
922871
2619
o altro. Se vediamo un'introduzione del genere,
15:25
probably not right and you need to get to the bottom of who
245
925556
2648
probabilmente non è giusta e devi andare a fondo da chi
15:28
that information has come from.
246
928271
1643
proviene quell'informazione .
15:29
And also often posts will say 'you must read this - you must
247
929981
3488
E spesso anche i post diranno "devi leggere questo - devi
15:33
share it' in capital letters or mismatched fonts and that can
248
933536
4178
condividerlo" in lettere maiuscole o caratteri non corrispondenti e questo può
15:37
also be another sign that something might be misleading.
249
937781
2949
anche essere un altro segno che qualcosa potrebbe essere fuorviante.
15:40
Another key thing that we look out for are posts that play on
250
940796
4178
Un'altra cosa fondamentale che cerchiamo sono i post che giocano sulle
15:45
our emotions, often boring, often accurate information is
251
945041
4044
nostre emozioni, spesso noiosi, spesso le informazioni accurate sono
15:49
actually a bit more boring and it's the stuff that makes us
252
949151
2934
in realtà un po' più noiose e sono le cose che ci fanno
15:52
angry or or even happy that seems to give us answers we
253
952151
3519
arrabbiare o addirittura felici che sembrano darci le risposte che
15:55
were looking for that tends to be misleading.
254
955736
2468
stavamo cercando che tende ad essere fuorviante.
15:58
So that sort of leads around to to our top tips for stopping
255
958271
3294
Quindi questo ci porta ai nostri migliori consigli per fermare
16:01
the spread which which are essentially that we just need
256
961631
2093
la diffusione che sono essenzialmente che dobbiamo solo
16:03
to pause and think and reflect before we share anything and
257
963791
4843
fermarci, pensare e riflettere prima di condividere qualsiasi cosa e
16:08
repeating that message to audiences is incredibly
258
968701
3078
ripetere quel messaggio al pubblico è incredibilmente
16:11
important in terms of stopping
259
971846
2558
importante in termini di fermare
16:14
and tackling the spread of misleading stuff online.
260
974471
4318
e affrontare la diffusione di materiale fuorviante online.
16:18
Hugo: Fascinating. Marianna Spring. Thanks for
261
978856
2253
Ugo: Affascinante. Marianne Primavera. Grazie per
16:21
being with us.
262
981176
533
16:21
Marianna: Thank you.
263
981919
531
essere stato con noi.
Marianne: Grazie.
16:26
Hugo: So Sam, anything you'd like to pick up from what
264
986379
1855
Hugo: Allora Sam, qualcosa che vorresti raccogliere da quello che ha
16:28
Marianna just said?
265
988301
1269
appena detto Marianna?
16:29
Sam: Yes. She said lots and lots of interesting things but
266
989636
2753
Sam: Sì. Ha detto un sacco di cose interessanti, ma
16:32
I'll only focus on two. She used the word 'misleading' a
267
992456
4163
mi concentrerò solo su due. Ha usato la parola "fuorviante" un
16:36
couple of times. So 'misleading' is basically
268
996686
2873
paio di volte. Quindi "fuorviante" è fondamentalmente
16:39
something that is trying to make you think a certain way
269
999626
4403
qualcosa che sta cercando di farti pensare in un certo modo
16:44
but isn't telling you all of the facts. The other word she
270
1004096
3819
ma non ti sta dicendo tutti i fatti. L'altra parola che ha
16:47
used was 'dodgy'. So this is basically something that is
271
1007981
3428
usato è stata "ingannevole". Quindi questo è fondamentalmente qualcosa di
16:51
suspicious. You can't really trust it. It's quite an
272
1011476
4133
sospetto. Non puoi davvero fidarti. È una
16:55
informal word and it's an adjective.
273
1015676
3513
parola abbastanza informale ed è un aggettivo.
16:59
Hugo: Thanks Sam, well that's about all we have time for. But
274
1019256
2594
Hugo: Grazie Sam, beh, questo è tutto ciò per cui abbiamo tempo. Ma
17:01
before we go, Sam please remind us of today's key vocabulary.
275
1021916
4238
prima di andare, Sam ricordaci il vocabolario chiave di oggi.
17:06
Sam: Of course. So today we looked at the phrase 'to raise
276
1026309
4060
Sam: Certo. Quindi oggi abbiamo esaminato la frase "alzare
17:10
a red flag'. This is used when something about a post or a
277
1030436
4069
una bandiera rossa". Viene utilizzato quando qualcosa su un post, un
17:14
meme or an image for example makes you think that it might
278
1034571
3958
meme o un'immagine, ad esempio, ti fa pensare che potrebbe
17:18
not be true or that it might be fake news.
279
1038596
3699
non essere vero o che potrebbe essere una notizia falsa.
17:22
The verb 'to fact-check' is the process of checking the facts
280
1042361
5109
Il verbo "controllare i fatti" è il processo di verifica dei fatti,
17:27
so trying to find out if something is true or not.
281
1047536
4014
quindi cercando di scoprire se qualcosa è vero o no.
17:31
If you 'debunk' something you show that it's not true.
282
1051616
3798
Se 'sfati' qualcosa dimostri che non è vero.
17:35
And if you 'verify' something you show the opposite. So you
283
1055660
3044
E se "verifica" qualcosa dimostri il contrario. Quindi
17:38
show that it is true.
284
1058771
3078
dimostri che è vero.
17:41
If you 'buy' or 'buy into' something, it means that
285
1061916
2488
Se "acquisti" o " acquisti" qualcosa, significa che ci
17:44
you believe it. You think it's true.
286
1064471
3039
credi. Pensi che sia vero.
17:48
If something is 'groundless', it has no evidence to support
287
1068170
3330
Se qualcosa è "infondato", non ha prove per
17:51
it.
288
1071566
684
sostenerlo.
17:52
Then we looked at 'misleading' which is something that makes
289
1072316
2963
Poi abbiamo esaminato "fuorviante", che è qualcosa che
17:55
you think a certain way even though maybe it doesn't present
290
1075346
4014
ti fa pensare in un certo modo anche se forse non presenta
17:59
all of the facts.
291
1079426
1478
tutti i fatti.
18:01
And something 'dodgy' is something that is suspicious,
292
1081279
3540
E qualcosa di "sospetto" è qualcosa di sospetto,
18:04
maybe not trustworthy.
293
1084886
1973
forse non degno di fiducia.
18:07
Hugo: Thank you very much Sam and thank you for watching this
294
1087500
2940
Hugo: Grazie mille Sam e grazie per aver guardato questa
18:10
special at home version of Fake News, Fact and Fiction.
295
1090506
2424
speciale versione casalinga di Fake News, Fact and Fiction.
18:12
Until next time, goodbye and stay safe.
296
1092996
4029
Alla prossima volta, arrivederci e stai al sicuro.
18:17
Sam: Bye bye everyone.
297
1097091
1009
Sam: Ciao ciao a tutti.
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7