The Real-World Danger of Online Myths | Vidhya Ramalingam | TED

39,366 views ・ 2024-12-16

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Stefania Basset Revisore: Rosamaria Di Dedda
00:08
"You are a disgusting liar."
0
8556
3040
“Sei uno sporco bugiardo”.
00:12
"Someone, somewhere will hunt you down."
1
12916
3400
“Qualcuno, da qualche parte, ti darà la caccia”.
00:17
"I hope someone puts a bullet between your eyes."
2
17796
3680
“Spero che qualcuno ti spari in fronte”.
00:24
These are messages received by climate scientists.
3
24436
4440
Questi sono alcuni dei messaggi ricevuti dagli scienziati del clima.
00:29
According to a recent survey,
4
29396
2200
Secondo un recente sondaggio,
00:31
39 percent of climate scientists have faced online abuse.
5
31596
5320
il 39% dei climatologi ha ricevuto attacchi online.
00:37
18 percent of those are threats of physical violence.
6
37596
4320
Il 18% di questi messaggi sono minacce di violenza fisica.
00:44
"At the end of the day,
7
44116
1720
“Alla fin fine,
00:45
we're going to see just how much you believe
8
45876
2600
vedremo quanto credi
00:48
in your global warming
9
48516
2680
nel tuo riscaldamento globale
00:51
and whether you're willing to die for your so-called 'research.'"
10
51196
4400
e se sei disposto a morire per la tua cosiddetta ricerca“.
00:58
No scientist should have to fear for their lives.
11
58356
3240
Nessuno scienziato dovrebbe temere per la propria vita.
01:02
But this is just another day in the life of a climate scientist.
12
62196
4120
Ma per uno scienziato del clima, questo è purtroppo all’ordine del giorno.
01:08
I'm not a climate scientist.
13
68396
1800
Non sono una climatologa.
01:10
I'm not a climate change activist.
14
70236
2240
Non sono un’attivista contro il cambiamento climatico.
01:12
I'm a counterterrorism expert.
15
72996
2320
Sono un’esperta di controterrorismo.
01:15
I started my journey meeting with white supremacists
16
75796
2960
Ho iniziato questo percorso incontrando suprematisti bianchi
01:18
in basements in Sweden
17
78796
2480
nei seminterrati svedesi,
01:21
and went on to lead a global policy effort
18
81276
2920
e ho guidato uno sforzo politico globale
01:24
after Europe's first major terrorist attack
19
84236
2840
dopo il primo importante attacco terroristico in Europa
01:27
perpetrated by a white supremacist.
20
87076
2360
da parte di un suprematista bianco.
01:30
I went on to found Moonshot,
21
90316
1920
In seguito ho fondato Moonshot,
01:32
an organization that works to end violence online.
22
92236
4080
un’organizzazione che lotta per porre fine alla violenza online.
01:37
I care about climate change denial
23
97556
2920
Mi interesso di negazionismo del cambiamento climatico
01:40
because it's so often weaponized
24
100476
2400
perché è facile che venga usata come arma
01:42
to serve as a justification for violence.
25
102876
3040
per giustificare l’uso della violenza.
01:47
It would be easy to think
26
107276
1240
Sarebbe facile pensare che,
01:48
that if only we could get people to understand climate change is real,
27
108516
4200
se riuscissimo a far capire alla gente che il cambiamento climatico è reale,
01:52
we could put an end to this.
28
112716
1760
potremmo porre fine a tutto questo.
01:55
Unfortunately, it's not that simple.
29
115316
2720
Sfortunatamente, non è così semplice.
02:00
In 2019,
30
120236
1840
Nel 2019,
02:02
a gunman walked into a Walmart in El Paso, Texas.
31
122116
4080
un uomo armato entrò in un Walmart a El Paso, in Texas.
02:07
He killed 23 people,
32
127676
3400
Uccise 23 persone, molte delle quali immigrati.
02:11
many of immigrant background.
33
131076
2000
02:14
He called himself an “ecofascist.”
34
134756
3480
Si definiva un “ecofascista”.
02:18
He believed in climate change,
35
138676
2880
Credeva nel cambiamento climatico,
02:21
but he had bought into mis- and disinformation
36
141596
2800
ma era stato influenzato da mistificazioni e disinformazione:
02:24
that immigrants were the root cause of it,
37
144396
2680
gli immigrati erano la causa principale del problema
02:27
that sustainability would only be possible
38
147116
2520
e la sostenibilità sarebbe stata possibile
02:29
with the elimination of people of color.
39
149636
2800
solo eliminando le persone di colore.
02:34
Mis- and disinformation are so often weaponized
40
154076
3920
Misinformazione e disinformazione sono spesso usate come armi
per giustificare l’uso della violenza.
02:38
to serve as a justification for violence.
41
158036
3040
02:43
Although they're often used interchangeably,
42
163356
2800
Sebbene siano spesso usate in modo intercambiabile,
02:46
misinformation is information that's false or misleading.
43
166156
4400
la misinformazione è un’informazione falsa o fuorviante,
02:50
Disinformation is spread intentionally to cause harm.
44
170876
5000
mentre la disinformazione è diffusa intenzionalmente per nuocere.
02:56
It’s so powerful because it taps into your grievances,
45
176476
3880
È potente perché fa leva sui vostri rancori,
03:00
what makes you really angry,
46
180356
2480
su ciò che vi fa arrabbiare di più,
03:03
and it offers simplistic solutions.
47
183596
2320
e perché offre soluzioni semplicistiche.
03:05
There's typically a villain and a hero.
48
185956
2680
Ci sono sempre un cattivo e un eroe.
03:09
Over the last two years,
49
189916
1360
Negli ultimi due anni,
03:11
my team and I have been researching different kinds of manipulation tactics
50
191316
4040
io e il mio team abbiamo ricercato diverse tattiche di manipolazione
03:15
used all over the world to spread disinformation.
51
195396
3600
usate in tutto il mondo per diffondere disinformazione.
03:19
Two of the most common were decontextualization
52
199556
3640
Due delle più comuni sono la decontestualizzazione
03:23
and fearmongering.
53
203236
1520
e il far leva sulla paura.
03:25
Decontextualization is the practice of taking information
54
205836
3600
Decontestualizzare significa prendere un’informazione
03:29
out of its original context to deliberately mislead people.
55
209436
4120
fuori dal suo contesto originale per ingannare deliberatamente la gente.
03:33
For example, earlier this year,
56
213996
2280
Per esempio, quest’anno
03:36
Europe experienced a series of protests by farmers
57
216316
4160
ci sono state in Europa una serie di proteste degli agricoltori
03:40
against a range of proposed environmental regulations.
58
220516
4440
contro delle proposte di legge che riguardavano l’ambiente.
03:44
There were street blockades and protests,
59
224956
2320
Ci sono stati blocchi stradali e proteste,
03:47
demonstrations, occupations.
60
227276
2600
dimostrazioni e occupazioni.
03:50
Adding to an already tense moment,
61
230316
2880
Ad aggravare un momento già di per sé teso,
03:53
several inauthentic images circulated.
62
233196
3240
sono circolate alcune immagini false.
03:57
This one purported to show
63
237516
1920
Questa mostrava l’ambasciata ucraina a Parigi
03:59
the Ukrainian embassy in Paris getting pummeled with manure.
64
239476
4080
che veniva colpita con del letame.
04:04
This was actually footage taken months earlier
65
244596
3000
In realtà era un video fatto mesi prima
04:07
from an entirely different protest
66
247596
2360
durante una protesta completamente diversa
04:09
about an entirely different issue in Dijon,
67
249956
2920
per un’altra questione, e a Digione,
04:12
not even in Paris.
68
252916
1600
neanche a Parigi.
04:15
And this effort to mislead the public,
69
255396
2960
Questo tentativo di ingannare il pubblico
04:18
it wouldn't be complete without the use of new technology.
70
258396
3480
non sarebbe completo senza l’uso delle nuove tecnologie.
04:22
Here's an image showing the streets of Paris lined with bales of hay.
71
262916
4800
Ecco un’immagine che mostra le strade di Parigi fiancheggiate da balle di fieno.
04:27
It's a really striking image, isn't it?
72
267716
2560
È un immagine suggestiva, vero?
04:30
This never happened.
73
270836
1200
Peccato che non sia vera,
04:32
It was entirely generated by AI.
74
272076
3200
è stata interamente creata con l’intelligenza artificiale.
04:36
And this isn't just happening in Europe.
75
276876
3120
E non sta accadendo solo in Europa.
04:40
Last year,
76
280796
1480
Lo scorso anno, dopo gli incendi che hanno devastato le Hawaii,
04:42
after wildfires raged in Hawaii,
77
282316
3920
04:46
a disinformation network linked to the Chinese Communist Party
78
286236
4120
un canale di disinformazione legato al Partito Comunista Cinese
04:50
spread inauthentic images
79
290396
2240
ha diffuso immagini false,
04:52
purporting that the US government had intentionally spread the wildfires
80
292636
4760
sostenendo che il governo statunitense
aveva intenzionalmente provocato gli incendi
04:57
using a so-called “weather weapon.”
81
297436
2800
con una cosiddetta “arma meteorologica”.
05:01
Can you imagine?
82
301316
1280
Immaginate:
05:02
Over a hundred people died in those wildfires,
83
302916
4080
quegli incendi hanno causato la morte di più di 100 persone,
e il solo pensiero che fossero stati appiccati di proposito
05:07
and the idea that those fires were deliberately set
84
307036
2960
05:10
by their own government
85
310036
1640
dal governo contro i propri cittadini
05:11
against their own people?
86
311716
1840
05:13
It's terrifying.
87
313556
1520
è terrificante.
Queste teorie complottiste possono generare un senso di paura,
05:16
These kinds of conspiratorial narratives can spread widespread fear,
88
316036
6000
05:22
which takes us to the next powerful tactic of disinformation:
89
322076
4120
il che ci porta a un’altra potente tattica della disinformazione:
05:26
fearmongering:
90
326236
1480
far leva sulla paura,
05:27
deliberately exaggerating an issue
91
327716
2520
ovvero esagerare di proposito una questione
05:30
so that you can provoke fear and alarm.
92
330276
2600
con il fine di provocare paura e allarmismo.
05:33
We know that emotion-driven information processing
93
333356
4120
Si sa che l’elaborazione delle informazioni dettata dalle emozioni
05:37
can overtake evidence-based decision making,
94
337476
3400
può scavalcare il processo decisionale empirico,
05:40
which is what makes this form of disinformation so effective.
95
340916
4640
ed è questo che rende questa forma di disinformazione così efficace.
È per questa ragione che un recente studio del MIT
05:46
It's for these reasons that a recent MIT study found
96
346036
3680
05:49
a false story will travel six times quicker
97
349756
3720
ha scoperto che una storia falsa raggiunge 1.500 persone
05:53
to reach 1,500 people than a true story will.
98
353476
3640
sei volte più velocemente di una storia vera.
05:57
And we know Facebook fact-checkers take up to 72 hours
99
357836
4120
Sappiamo anche che i fact-checker di Facebook impiegano fino a 72 ore,
06:01
on average
100
361996
1160
in media,
06:03
to identify and remove this content.
101
363156
2920
per identificare e rimuovere questo tipo di contenuti.
06:06
By that time, most impressions have already been made.
102
366956
3560
Nel frattempo, la maggior parte delle visualizzazioni è già avvenuta.
06:11
Now I know we have all seen this online,
103
371316
2920
Tutti noi abbiamo visto questo genere di cose su internet
06:14
and when you see it happen,
104
374236
1320
e quando le vediamo,
06:15
it can be really tempting to respond with the facts.
105
375596
3280
è davvero forte la tentazione di rispondere con i fatti.
06:19
I get it.
106
379356
1160
Lo capisco.
06:20
We pride ourselves on logic and science.
107
380556
2840
Siamo fieri di usare la logica e la scienza.
06:23
The truth matters.
108
383396
1680
La verità è importante.
06:25
So when someone is so obviously spreading false information,
109
385116
4280
Perciò quando qualcuno diffonde informazioni palesemente false
06:29
just correct them, right?
110
389396
2200
ci viene spontaneo correggerlo, giusto?
06:32
Unfortunately, this doesn't always work.
111
392676
3280
Sfortunatamente, non sempre funziona.
06:36
Believe me, I spent the last two decades
112
396316
2320
Credetemi, ho passato gli ultimi 20 anni
06:38
learning how to have conversations with people buying into white supremacy.
113
398676
4240
cercando di parlare con gente che credeva alla supremazia dei bianchi.
06:42
That is disinformation at its worst.
114
402956
2800
È il peggior tipo di disinformazione.
06:46
Disinformation wins
115
406356
1560
La disinformazione vince a causa delle emozioni che suscita,
06:47
because of the emotions it inspires,
116
407956
3160
06:51
because of the way it makes people feel.
117
411156
3120
per come fa sentire le persone.
06:54
So if someone is so bought into disinformation,
118
414276
3480
Perciò, se una persona crede davvero a un’informazione errata,
06:57
getting into debates on the facts with them
119
417756
2040
cercare di argomentare sui fatti
06:59
can just risk pushing them even further into a corner,
120
419836
3360
rischia di renderla ancora più irremovibile,
07:03
backing them into a corner
121
423236
1480
facendola restare nella propria convinzione
07:04
so that they get really defensive.
122
424756
2280
e mettendola sulla difensiva.
07:07
OK, so if we can't debate the facts endlessly,
123
427796
2440
Quindi, se non possiamo ribadire i fatti all’infinito,
07:10
what can we do?
124
430276
1240
che cosa possiamo fare?
07:12
Last year, Moonshot partnered with Google
125
432436
2680
Lo scorso anno, Moonshot ha collaborato con Google
07:15
to test an approach known as “prebunking.”
126
435156
2960
per testare un approccio noto come “prebunking”.
07:18
Prebunking is a proven communication technique
127
438756
3040
Il prebunking è un tecnica di comunicazione comprovata
07:21
designed to help people spot and reject efforts
128
441836
3720
creata per aiutare le persone
a individuare e respingere tentativi di manipolazione.
07:25
to manipulate them in the future
129
445596
2520
07:28
by giving them forewarning
130
448156
2040
Fornendo avvertimenti e strumenti
07:30
and giving them tools to be able to reject a manipulative message,
131
450236
4280
per poter respingere un messaggio manipolatorio,
07:34
you lessen the likelihood that they will be misled.
132
454556
3240
si riducono le probabilità di essere ingannati in futuro.
07:38
This is not about telling people what is true or false
133
458276
3360
Ciò non significa dire alla gente cos’è vero o falso,
07:41
or right or wrong.
134
461676
1680
giusto o sbagliato.
07:43
It's about empowering people to protect themselves.
135
463396
3960
Significa dar loro la capacità di proteggersi.
07:47
We've tapped into the universal human desire not to be manipulated,
136
467756
5000
Questo fa leva sul desiderio diffuso di non essere manipolati,
07:52
and this method has been tried and tested for decades, since the 1960s.
137
472756
5240
ed è un metodo sperimentato e collaudato fin dagli anni ’60.
07:58
All prebunking messages contain three essential ingredients.
138
478516
4520
Tutti i messaggi di prebunking contengono tre elementi fondamentali.
08:03
One:
139
483396
1280
Numero uno: un avviso che tocca l’emotività.
08:04
an emotional warning.
140
484716
2120
08:06
You alert people that there are others out there
141
486876
2680
Avvisare che ci sono persone
08:09
who may be trying to mislead or manipulate them.
142
489596
3240
che potrebbero tentare di ingannarti e manipolarti.
08:13
Be aware, you may be targeted.
143
493156
2360
Fai attenzione, potresti essere preso di mira.
08:16
Two:
144
496956
1160
Numero due: lo stimolo.
08:18
stimulus.
145
498556
1320
08:20
You show people examples of manipulative messaging
146
500236
3800
Mostrare alla gente esempi di messaggi manipolatori,
08:24
so that they will be more likely
147
504076
2320
in modo che siano in grado
08:26
to be able to identify those in the future.
148
506436
2800
di identificarli più facilmente in futuro.
08:30
And three: refutation.
149
510956
3680
E numero tre: la confutazione.
08:35
You give people the tools
150
515236
1480
Dare alle persone gli strumenti
08:36
to be able to refute a message in real time.
151
516756
3200
per confutare un’informazione in tempo reale.
08:39
For example,
152
519996
1200
Per esempio,
08:41
if you see a headline that’s really sensational,
153
521196
3720
se vedete un titolo sensazionalistico
08:44
and it either seems too good to be true or it makes you really angry,
154
524956
5120
che vi sembra troppo bello per essere vero,
o vi fa davvero arrabbiare,
08:50
always Google around for other sources.
155
530076
2520
cercate sempre su Google altre informazioni.
08:52
Always Google around.
156
532636
1680
Fate sempre delle ricerche.
08:55
OK, so we knew the steps to take,
157
535196
3480
OK, sapevamo quale strada prendere,
08:58
but we also knew if we were going to really get at this problem
158
538716
3640
ma sapevamo anche che se volevamo davvero risolvere questo problema
09:02
around the world,
159
542396
1600
in tutto il mondo,
una soluzione uguale per tutti non avrebbe funzionato:
09:04
a one-size-fits-all approach wouldn't work.
160
544036
2200
09:06
We knew we needed to get local.
161
546276
2600
dovevamo intervenire a livello locale.
09:09
So we partnered with civil society organizations
162
549476
3240
Perciò abbiamo collaborato con delle OSC
09:12
in countries around the world,
163
552756
2160
un po’ in tutto il mondo,
09:14
from Germany to Indonesia to Ukraine.
164
554916
3200
dalla Germania all’Indonesia, fino all’Ucraina.
09:18
And we started first with the evidence.
165
558796
2640
E abbiamo cominciato con l’evidenza dei fatti.
09:21
We met with dozens of experts,
166
561836
2160
Abbiamo incontrato dozzine di esperti monitorando il panorama in rete,
09:24
we surveyed the online space,
167
564036
2320
09:26
and we identified the most common manipulation tactics
168
566396
3320
fino a identificare le tecniche di manipolazione più comuni
09:29
being used in each country.
169
569716
2280
usate in ogni Paese.
09:32
We then partnered with local filmmakers
170
572516
2400
Abbiamo poi lavorato con registi locali per creare video educativi
09:34
to create educational videos
171
574956
1880
09:36
that would teach people about those manipulation tactics
172
576836
3520
che illustrassero quali tecniche di manipolazione
09:40
that were being used in their home country.
173
580356
2800
venivano utilizzate in quel dato Paese.
09:44
In some contexts,
174
584356
1320
In alcuni contesti,
09:45
we found that people trust close peers and relatives the most.
175
585716
4320
abbiamo riscontrato che la gente si fida di più di amici, colleghi e parenti.
09:50
So in Germany,
176
590676
1480
Quindi in Germania
09:52
we filmed close friends chatting in a park.
177
592196
2800
abbiamo filmato degli amici al parco.
09:55
In Ukraine,
178
595796
1320
In Ucraina,
09:57
we filmed family dialogues around a kitchen table,
179
597156
3720
abbiamo filmato una famiglia che conversa a tavola,
10:00
a setting that's so familiar to so many of us,
180
600876
2640
una situazione che è familiare a molti di noi
10:03
where so many of us have had those difficult conversations.
181
603556
3440
e dove spesso sono avvenute conversazioni difficili.
10:07
We wanted to encourage people to have these kinds of conversations
182
607716
3840
Volevamo incoraggiare le persone a parlare di queste cose
10:11
within their own trusted circles,
183
611556
3040
con le persone a loro più vicine,
10:14
whether they're in El Salvador or Indonesia.
184
614636
3000
sia che si trovassero in El Salvador o in Indonesia.
E volevamo farlo prima di momenti cruciali, come le elezioni,
10:18
And to do so before pivotal moments
185
618036
2280
10:20
where online manipulation efforts intensify,
186
620316
3480
quando i tentativi di manipolazione online si intensificano.
10:23
like elections.
187
623836
2080
10:26
So as we prepared to head into the EU elections,
188
626956
3640
Perciò, mentre ci preparavamo per le elezioni europee,
10:30
we knew that distrust in climate science
189
630596
2920
sapevamo che la sfiducia nella scienza del clima
10:33
had already emerged as a critical misinformation theme.
190
633556
3960
era già emersa come uno dei temi principali di disinformazione.
10:38
Now one study had found that adults over the age of 45
191
638596
4200
Uno studio aveva evidenziato che gli adulti con più di 45 anni
10:42
are less likely to investigate false information
192
642836
3040
sono meno propensi a verificare le informazioni false
10:45
when they stumble across it online.
193
645916
2280
quando le trovano su internet.
10:48
Now we also know that adults over the age of 45
194
648636
3360
Sappiamo anche che gli adulti sopra i 45 anni
10:52
have higher voter turnout,
195
652036
2080
registrano una maggiore affluenza alle urne.
10:54
which means if it wins,
196
654116
2200
Ciò significa che, in caso di vincita,
10:56
disinformation can have a disproportionate impact
197
656316
3200
la disinformazione può avere un grosso impatto
10:59
on the outcomes of elections.
198
659516
2440
sull’esito delle elezioni.
11:02
So as we prepare to head into the EU elections,
199
662556
3240
Quindi, in vista delle elezioni europee,
11:05
we created content for every EU country,
200
665796
3800
abbiamo creato contenuti per ogni Paese dell’UE in 27 lingue,
11:09
in 27 languages,
201
669636
2680
11:12
aiming to empower Europeans to spot and reject
202
672356
3520
per dare la possibilità a tutti gli europei di identificare e respingere
11:15
efforts to manipulate them before the elections.
203
675916
3400
questi tentativi di manipolazione, prima del voto.
11:20
Over the last year,
204
680636
1200
Nell’ultimo anno,
11:21
we have reached millions of people around the globe
205
681876
2680
abbiamo raggiunto milioni di persone in tutto il mondo
11:24
with these videos.
206
684596
1440
con questi video.
11:26
In Germany alone, we reached 42 million people.
207
686516
4600
Solo in Germania, abbiamo raggiunto 42 milioni di persone,
11:31
That's half the German population.
208
691156
2560
ovvero metà della popolazione tedesca.
11:33
And we found on average,
209
693756
1800
E abbiamo riscontrato che, in media,
11:35
viewers of these videos were up to 10 percent more likely
210
695556
3640
chi aveva visto questi video aveva fino al 10% di probabilità in più
11:39
to be able to identify manipulation efforts
211
699236
2720
di riconoscere i tentativi di manipolazione
11:41
than those who hadn't seen those videos.
212
701956
2680
rispetto a chi non li aveva visti.
11:45
This is a winning formula.
213
705796
2600
Questa è una formula vincente.
11:48
The evidence shows us
214
708436
1720
L’evidenza ci dimostra
11:50
that prebunking is effective at building resistance to disinformation.
215
710156
5640
che il prebunking è efficace nel resistere alla disinformazione.
11:56
It begs the question,
216
716636
1640
Ma sorge spontanea una domanda:
11:58
how do we make that resistance last?
217
718276
2680
come possiamo far durare nel tempo questo tipo di resistenza?
12:01
How do we build long-term societal resilience
218
721276
3560
Come costruiamo, a livello di società, una resilienza a lungo termine
12:04
to disinformation efforts?
219
724836
1880
che contrasti i tentativi di disinformazione?
12:09
There is an ongoing effort to use disinformation
220
729156
3600
C’è un costante tentativo di usare la disinformazione
12:12
to undermine our democracies.
221
732796
2240
per minare le nostre democrazie.
12:16
Just last month,
222
736276
1200
Solo il mese scorso,
12:17
the US Justice Department seized 32 internet domains
223
737476
4240
il Dipartimento di Giustizia degli Stati Uniti
ha sequestrato 32 domini internet,
12:21
secretly deployed by the Russian government
224
741716
2560
creati in segreto dal governo russo
12:24
to spread disinformation across the US and Europe.
225
744316
3680
per diffondere disinformazione negli USA e in Europa.
12:29
This included deliberate efforts to exploit anxieties and fear
226
749076
4160
Tra questi, vi erano tentativi deliberati di sfruttare ansia e paura dei cittadini
12:33
across the public about the energy transition,
227
753236
3160
riguardo alla transizione energetica,
12:36
specifically to encourage violence.
228
756396
2800
proprio per incoraggiare l’uso della violenza.
12:40
Now it’s not just the Russian government that we need to be worried about.
229
760716
3880
Ma non è solo il governo russo a doverci preoccupare.
12:45
Easy access to generative AI tools
230
765276
2760
Il facile accesso agli strumenti di intelligenza artificiale
12:48
means that anyone,
231
768076
1720
comporta che chiunque,
12:49
not just those with resources, money and power,
232
769836
3840
non solo chi dispone di risorse, soldi e potere,
12:53
can create high-quality,
233
773676
2000
può creare disinformazione
12:55
effective, powerful disinformation content.
234
775676
3920
di alta qualità, efficace e potente.
13:00
And the sources of disinformation are varied.
235
780156
3160
E le fonti di disinformazione sono molteplici:
13:03
They can come from our elected officials
236
783356
2840
possono provenire da coloro che abbiamo votato alle elezioni,
13:06
all the way through to our neighbors down the road.
237
786196
2680
fino al vicino di casa in fondo alla strada.
13:09
Many of us don't need to look further than our own families.
238
789596
3720
Per molti di noi basta guardare in famiglia.
13:14
But so many of the tools we tested online
239
794236
3280
Ma molti degli strumenti online che abbiamo testato
13:17
are even more powerful
240
797556
1640
sono ancora più potenti
13:19
when they come directly from the people
241
799196
1920
quando arrivano direttamente da coloro di cui ti fidi
13:21
that you trust and love the most in real life, IRL.
242
801116
4200
e che ami di più nella vita reale.
13:25
So instead of endlessly debating the facts,
243
805716
3280
Quindi, invece di discutere i fatti all’infinito,
date ai vostri cari gli strumenti
13:29
give your loved ones the tools
244
809036
1600
13:30
that they need to protect themselves online.
245
810676
2840
per potersi proteggere in rete.
La manipolazione dell’informazione è purtroppo all’ordine del giorno.
13:35
Information manipulation is unfortunately the new norm.
246
815076
4760
13:40
But that doesn't mean we need to accept our loved ones being misled,
247
820916
4480
Ma ciò non vuol dire accettare che i nostri cari si facciano ingannare,
13:45
and we shouldn't accept our climate scientists living in fear.
248
825436
4480
e non dovremmo accettare che i climatologi vivano con la paura.
13:50
So if we can't fact-check our way out of this problem,
249
830516
3840
Quindi, se non possiamo risolvere questo problema con il fact-checking,
13:54
we need to beat disinformation at its own game
250
834396
3760
dobbiamo battere la disinformazione sul suo stesso campo,
13:58
by reaching people before disinformation does
251
838156
3360
raggiungendo le persone prima che lo faccia la disinformazione
14:01
and giving them all the tools that they need
252
841556
2560
e fornendo loro gli strumenti necessari
14:04
to protect themselves online.
253
844116
2200
per proteggersi in rete.
14:06
Thank you so much.
254
846876
1240
Grazie mille.
14:08
(Applause)
255
848116
3680
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7