The Real-World Danger of Online Myths | Vidhya Ramalingam | TED

39,208 views ・ 2024-12-16

TED


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

Översättare: Mia Olsson Granskare: Annika Bidner
00:08
"You are a disgusting liar."
0
8556
3040
“Du är en vidrig lögnare.”
00:12
"Someone, somewhere will hunt you down."
1
12916
3400
“Någon, någonstans kommer få tag i dig.”
00:17
"I hope someone puts a bullet between your eyes."
2
17796
3680
“Jag hoppas någon sätter en kula mellan ögonen på dig.”
00:24
These are messages received by climate scientists.
3
24436
4440
Detta är meddelanden som klimatforskare mottagit.
00:29
According to a recent survey,
4
29396
2200
Enligt en nyligen genomförd undersökning
00:31
39 percent of climate scientists have faced online abuse.
5
31596
5320
har 39 procent av alla klimatforskare utsatts för trakasserier på nätet.
00:37
18 percent of those are threats of physical violence.
6
37596
4320
18 procent av dessa har varit hot om fysiskt våld.
00:44
"At the end of the day,
7
44116
1720
“När allt kommer omkring
00:45
we're going to see just how much you believe
8
45876
2600
får vi se hur mycket du verkligen tror
00:48
in your global warming
9
48516
2680
på global uppvärmning,
00:51
and whether you're willing to die for your so-called 'research.'"
10
51196
4400
och om du är beredd på att dö för din så kallade forskning.”
00:58
No scientist should have to fear for their lives.
11
58356
3240
Ingen forskare ska behöva frukta för sitt liv.
01:02
But this is just another day in the life of a climate scientist.
12
62196
4120
Men det här är bara ännu en dag i en klimatforskares liv.
01:08
I'm not a climate scientist.
13
68396
1800
Jag är inte klimatforskare.
01:10
I'm not a climate change activist.
14
70236
2240
Jag är inte klimataktivist.
01:12
I'm a counterterrorism expert.
15
72996
2320
Jag är antiterroristexpert.
01:15
I started my journey meeting with white supremacists
16
75796
2960
Jag började min resa med att möta vit makt-anhängare
01:18
in basements in Sweden
17
78796
2480
i källare i Sverige
01:21
and went on to lead a global policy effort
18
81276
2920
och fortsatte därefter att leda en global politisk satsning,
01:24
after Europe's first major terrorist attack
19
84236
2840
efter Europas första stora terroristattack
01:27
perpetrated by a white supremacist.
20
87076
2360
som utfördes av en vit makt-anhängare.
01:30
I went on to found Moonshot,
21
90316
1920
Jag gick vidare och grundade Moonshot,
01:32
an organization that works to end violence online.
22
92236
4080
en organisation som arbetar med att stoppa våld på nätet.
01:37
I care about climate change denial
23
97556
2920
Jag bryr mig om förnekandet av klimatförändringar
01:40
because it's so often weaponized
24
100476
2400
eftersom det ofta används som ett vapen
01:42
to serve as a justification for violence.
25
102876
3040
för att berättiga våld.
01:47
It would be easy to think
26
107276
1240
Det är enkelt att tänka
01:48
that if only we could get people to understand climate change is real,
27
108516
4200
att om vi bara fick människor att förstå att klimatförändringar är på riktigt
01:52
we could put an end to this.
28
112716
1760
så skulle vi få ett slut på det här.
01:55
Unfortunately, it's not that simple.
29
115316
2720
Tyvärr är det inte så enkelt.
02:00
In 2019,
30
120236
1840
Under 2019
02:02
a gunman walked into a Walmart in El Paso, Texas.
31
122116
4080
gick en beväpnad man in på en Walmart i El Paso, Texas.
02:07
He killed 23 people,
32
127676
3400
Han dödade 23 personer,
02:11
many of immigrant background.
33
131076
2000
varav många hade invandrarbakgrund.
02:14
He called himself an “ecofascist.”
34
134756
3480
Han kallade sig själv för “ekofascist”.
02:18
He believed in climate change,
35
138676
2880
Han trodde på klimatförändringar,
02:21
but he had bought into mis- and disinformation
36
141596
2800
men hade gått på mis- och desinformation
02:24
that immigrants were the root cause of it,
37
144396
2680
om att invandrare var orsaken till det,
02:27
that sustainability would only be possible
38
147116
2520
och att hållbarhet endast var möjlig
02:29
with the elimination of people of color.
39
149636
2800
genom eliminering av färgade människor.
02:34
Mis- and disinformation are so often weaponized
40
154076
3920
Mis- och desinformation används ofta som ett vapen
02:38
to serve as a justification for violence.
41
158036
3040
för att berättiga våld.
02:43
Although they're often used interchangeably,
42
163356
2800
De används ofta synonymt,
02:46
misinformation is information that's false or misleading.
43
166156
4400
men misinformation betyder falsk eller vilseledande information.
02:50
Disinformation is spread intentionally to cause harm.
44
170876
5000
Desinformation sprids avsiktligt för att orsaka skada.
02:56
It’s so powerful because it taps into your grievances,
45
176476
3880
Den är väldigt kraftfull eftersom den utnyttjar ditt missnöje,
03:00
what makes you really angry,
46
180356
2480
sådant som gör dig riktigt arg,
03:03
and it offers simplistic solutions.
47
183596
2320
och erbjuder ofta enkla lösningar.
03:05
There's typically a villain and a hero.
48
185956
2680
Det finns ofta en bov och en hjälte.
03:09
Over the last two years,
49
189916
1360
Under de senaste två åren
03:11
my team and I have been researching different kinds of manipulation tactics
50
191316
4040
har mitt team och jag forskat på olika taktiker inom manipulation
03:15
used all over the world to spread disinformation.
51
195396
3600
som används globalt för att sprida desinformation.
03:19
Two of the most common were decontextualization
52
199556
3640
Två av de vanligaste var avkontextualisering
03:23
and fearmongering.
53
203236
1520
och skräckspridning.
03:25
Decontextualization is the practice of taking information
54
205836
3600
Avkontextualisering innebär att frigöra information
03:29
out of its original context to deliberately mislead people.
55
209436
4120
från sin ursprungliga kontext för att avsiktligt vilseleda människor.
03:33
For example, earlier this year,
56
213996
2280
Tidigare i år, till exempel,
03:36
Europe experienced a series of protests by farmers
57
216316
4160
drabbades Europa av en rad protester från bönder
03:40
against a range of proposed environmental regulations.
58
220516
4440
mot ett antal föreslagna miljölagstiftningar.
03:44
There were street blockades and protests,
59
224956
2320
Det förekom vägblockader och protester,
03:47
demonstrations, occupations.
60
227276
2600
demonstrationer, ockupationer.
03:50
Adding to an already tense moment,
61
230316
2880
Som tillägg till en redan spänd situation
03:53
several inauthentic images circulated.
62
233196
3240
cirkulerade flera oäkta bilder.
03:57
This one purported to show
63
237516
1920
Den här bilden utgav sig för att visa
03:59
the Ukrainian embassy in Paris getting pummeled with manure.
64
239476
4080
hur den Ukrainska ambassaden i Paris blir attackerad med gödsel.
04:04
This was actually footage taken months earlier
65
244596
3000
Detta var i själva verket bilder som tagits månader tidigare
04:07
from an entirely different protest
66
247596
2360
från en helt annan demonstration
04:09
about an entirely different issue in Dijon,
67
249956
2920
om en helt annan fråga, i Dijon,
04:12
not even in Paris.
68
252916
1600
inte ens i Paris.
04:15
And this effort to mislead the public,
69
255396
2960
Det här försöket till att vilseleda allmänheten
04:18
it wouldn't be complete without the use of new technology.
70
258396
3480
hade inte gått att genomföra utan ny teknik.
04:22
Here's an image showing the streets of Paris lined with bales of hay.
71
262916
4800
Här är en bild som visar hur Paris gator fylls med höbalar.
04:27
It's a really striking image, isn't it?
72
267716
2560
Visst är det en imponerande bild?
04:30
This never happened.
73
270836
1200
Detta har aldrig hänt.
04:32
It was entirely generated by AI.
74
272076
3200
Den skapades helt genom AI.
04:36
And this isn't just happening in Europe.
75
276876
3120
Detta händer inte bara i Europa.
04:40
Last year,
76
280796
1480
Förra året,
04:42
after wildfires raged in Hawaii,
77
282316
3920
efter skogsbränderna på Hawaii,
04:46
a disinformation network linked to the Chinese Communist Party
78
286236
4120
spred ett desinformationsnätverk kopplat till det kinesiska kommunistpartiet
04:50
spread inauthentic images
79
290396
2240
oäkta bilder,
04:52
purporting that the US government had intentionally spread the wildfires
80
292636
4760
som påstod att den amerikanska regeringen avsiktligt hade spridit skogsbränderna
04:57
using a so-called “weather weapon.”
81
297436
2800
genom att använda ett så kallat “vädervapen”.
05:01
Can you imagine?
82
301316
1280
Kan ni tänka er?
05:02
Over a hundred people died in those wildfires,
83
302916
4080
Över hundra människor dog i dessa skogsbränder,
05:07
and the idea that those fires were deliberately set
84
307036
2960
och tanken på att dessa bränder hade startats avsiktligt
05:10
by their own government
85
310036
1640
av deras egen regering
05:11
against their own people?
86
311716
1840
mot deras eget folk?
05:13
It's terrifying.
87
313556
1520
Det är skrämmande.
05:16
These kinds of conspiratorial narratives can spread widespread fear,
88
316036
6000
Den här typen av konspiratoriska skildringar kan sprida vidsträckt rädsla,
05:22
which takes us to the next powerful tactic of disinformation:
89
322076
4120
vilket för oss vidare till den andra kraftfulla taktiken inom desinformation:
05:26
fearmongering:
90
326236
1480
skräckspridning.
05:27
deliberately exaggerating an issue
91
327716
2520
Att avsiktligt överdriva en fråga
05:30
so that you can provoke fear and alarm.
92
330276
2600
för att framkalla rädsla och oro.
05:33
We know that emotion-driven information processing
93
333356
4120
Vi vet att känslostyrd informationsbehandling
05:37
can overtake evidence-based decision making,
94
337476
3400
kan ta över faktabaserat beslutsfattande,
05:40
which is what makes this form of disinformation so effective.
95
340916
4640
vilket gör den här typen av desinformation så effektiv.
05:46
It's for these reasons that a recent MIT study found
96
346036
3680
Med detta som bakgrund visar en nyligen genomförd studie av MIT
05:49
a false story will travel six times quicker
97
349756
3720
att en falsk berättelse färdas sex gånger snabbare
05:53
to reach 1,500 people than a true story will.
98
353476
3640
med att nå 1500 personer än vad en sann berättelse gör.
05:57
And we know Facebook fact-checkers take up to 72 hours
99
357836
4120
Vi vet också att det tar upp till 72 timmar för Facebooks faktagranskare
06:01
on average
100
361996
1160
i genomsnitt
06:03
to identify and remove this content.
101
363156
2920
att identifiera och ta bort detta innehåll.
06:06
By that time, most impressions have already been made.
102
366956
3560
Vid den tidpunkten har de flesta visningar redan skett.
06:11
Now I know we have all seen this online,
103
371316
2920
Jag vet att alla har sett detta på nätet,
06:14
and when you see it happen,
104
374236
1320
och när ni ser det hända
06:15
it can be really tempting to respond with the facts.
105
375596
3280
kan det vara väldigt lockande att svara med fakta.
06:19
I get it.
106
379356
1160
Jag förstår det.
06:20
We pride ourselves on logic and science.
107
380556
2840
Vi är stolta över logik och vetenskap.
06:23
The truth matters.
108
383396
1680
Sanningen spelar roll.
06:25
So when someone is so obviously spreading false information,
109
385116
4280
När någon så uppenbart sprider falsk information
06:29
just correct them, right?
110
389396
2200
så ska de tillrättavisas, eller hur?
06:32
Unfortunately, this doesn't always work.
111
392676
3280
Tyvärr fungerar inte alltid detta.
06:36
Believe me, I spent the last two decades
112
396316
2320
Tro mig, jag spenderade de senaste två årtiondena
06:38
learning how to have conversations with people buying into white supremacy.
113
398676
4240
med att lära mig hur man för ett samtal med vit makt-anhängare.
06:42
That is disinformation at its worst.
114
402956
2800
Det är desinformation när den är som värst.
06:46
Disinformation wins
115
406356
1560
Desinformation vinner
06:47
because of the emotions it inspires,
116
407956
3160
på grund av de känslor den ger upphov till,
06:51
because of the way it makes people feel.
117
411156
3120
på grund av hur den får människor att känna.
06:54
So if someone is so bought into disinformation,
118
414276
3480
Så när någon övertygats av desinformation
06:57
getting into debates on the facts with them
119
417756
2040
kan en faktabaserad debatt med dem
06:59
can just risk pushing them even further into a corner,
120
419836
3360
riskera att driva dem ännu längre bort,
07:03
backing them into a corner
121
423236
1480
tränga in dem i ett hörn
07:04
so that they get really defensive.
122
424756
2280
och göra dem väldigt defensiva.
07:07
OK, so if we can't debate the facts endlessly,
123
427796
2440
Om vi inte kan debattera fakta obegränsat,
07:10
what can we do?
124
430276
1240
vad kan vi göra?
07:12
Last year, Moonshot partnered with Google
125
432436
2680
Förra året samarbetade Moonshot och Google
07:15
to test an approach known as “prebunking.”
126
435156
2960
med att testa en strategi som kallas för “prebunking”.
07:18
Prebunking is a proven communication technique
127
438756
3040
Prebunking är en bevisad kommunikationsteknik,
07:21
designed to help people spot and reject efforts
128
441836
3720
utformad för att hjälpa folk att upptäcka och avfärda försök
07:25
to manipulate them in the future
129
445596
2520
till manipulation i framtiden.
07:28
by giving them forewarning
130
448156
2040
Genom att förvarna dem
07:30
and giving them tools to be able to reject a manipulative message,
131
450236
4280
och ge dem verktyg för att kunna avfärda manipulativa meddelanden,
07:34
you lessen the likelihood that they will be misled.
132
454556
3240
är det mindre sannolikt att de blir lurade.
07:38
This is not about telling people what is true or false
133
458276
3360
Det handlar inte om att berätta vad som är sant eller falskt,
07:41
or right or wrong.
134
461676
1680
rätt eller fel.
07:43
It's about empowering people to protect themselves.
135
463396
3960
Det handlar om att ge människor egenmakt så de kan skydda sig själva.
07:47
We've tapped into the universal human desire not to be manipulated,
136
467756
5000
Vi har utnyttjat den allmänmänskliga önskan om att inte bli manipulerad
07:52
and this method has been tried and tested for decades, since the 1960s.
137
472756
5240
och den här metoden har prövats och testats sedan 60-talet.
07:58
All prebunking messages contain three essential ingredients.
138
478516
4520
Alla prebunking-budskap innehåller tre grundläggande delar.
08:03
One:
139
483396
1280
Ett:
08:04
an emotional warning.
140
484716
2120
en känslomässig varning.
08:06
You alert people that there are others out there
141
486876
2680
Ni varnar människor om att det finns andra där ute
08:09
who may be trying to mislead or manipulate them.
142
489596
3240
som kanske försöker vilseleda eller manipulera dem.
08:13
Be aware, you may be targeted.
143
493156
2360
Se upp, du kan vara måltavlan.
08:16
Two:
144
496956
1160
Två:
08:18
stimulus.
145
498556
1320
stimuli.
08:20
You show people examples of manipulative messaging
146
500236
3800
Ni visar exempel på manipulativa budskap
08:24
so that they will be more likely
147
504076
2320
för att öka deras möjlighet
08:26
to be able to identify those in the future.
148
506436
2800
att kunna identifiera dem i framtiden.
08:30
And three: refutation.
149
510956
3680
Och tre: motargument.
08:35
You give people the tools
150
515236
1480
Ni ger människor verktyg
08:36
to be able to refute a message in real time.
151
516756
3200
för att kunna argumentera mot ett budskap i realtid.
08:39
For example,
152
519996
1200
Till exempel,
08:41
if you see a headline that’s really sensational,
153
521196
3720
om du ser en huvudrubrik som är väldigt uppseendeväckande
08:44
and it either seems too good to be true or it makes you really angry,
154
524956
5120
och det antingen verkar för bra för att vara sant, eller gör dig riktigt arg,
08:50
always Google around for other sources.
155
530076
2520
googla alltid för att hitta fler källor.
08:52
Always Google around.
156
532636
1680
Googla alltid.
08:55
OK, so we knew the steps to take,
157
535196
3480
Vi visste vilka steg vi skulle ta,
08:58
but we also knew if we were going to really get at this problem
158
538716
3640
men vi visste också att för att lösa detta problem
09:02
around the world,
159
542396
1600
runt om i världen,
09:04
a one-size-fits-all approach wouldn't work.
160
544036
2200
skulle inte en universallösning fungera.
09:06
We knew we needed to get local.
161
546276
2600
Vi visste att vi behövde engagera på en lokal nivå.
09:09
So we partnered with civil society organizations
162
549476
3240
Så vi samarbetade med civila samhällsorganisationer
09:12
in countries around the world,
163
552756
2160
i olika länder runt om i världen,
09:14
from Germany to Indonesia to Ukraine.
164
554916
3200
allt från Tyskland till Indonesien och Ukraina.
09:18
And we started first with the evidence.
165
558796
2640
Vi började med bevisen.
09:21
We met with dozens of experts,
166
561836
2160
Vi träffade dussintals experter,
09:24
we surveyed the online space,
167
564036
2320
vi kartlade utrymmet online,
09:26
and we identified the most common manipulation tactics
168
566396
3320
och vi identifierade de vanligaste manipulationsteknikerna
09:29
being used in each country.
169
569716
2280
som användes i varje land.
09:32
We then partnered with local filmmakers
170
572516
2400
Vi samarbetade med lokala filmproducenter
09:34
to create educational videos
171
574956
1880
för att skapa utbildningsfilmer
09:36
that would teach people about those manipulation tactics
172
576836
3520
som skulle lära människor om de manipulationstekniker
09:40
that were being used in their home country.
173
580356
2800
som användes i deras hemland.
09:44
In some contexts,
174
584356
1320
I vissa sammanhang
09:45
we found that people trust close peers and relatives the most.
175
585716
4320
upptäckte vi att människor främst litar på sina närmaste vänner och sin släkt.
09:50
So in Germany,
176
590676
1480
I Tyskland
09:52
we filmed close friends chatting in a park.
177
592196
2800
filmade vi några nära vänner som småpratade i en park.
09:55
In Ukraine,
178
595796
1320
I Ukraina
09:57
we filmed family dialogues around a kitchen table,
179
597156
3720
filmade vi familjedialoger vid ett middagsbord.
10:00
a setting that's so familiar to so many of us,
180
600876
2640
En välbekant miljö för många av oss,
10:03
where so many of us have had those difficult conversations.
181
603556
3440
där många har haft svåra konversationer.
10:07
We wanted to encourage people to have these kinds of conversations
182
607716
3840
Vi ville uppmuntra människor att ha den typen av konversationer
10:11
within their own trusted circles,
183
611556
3040
inom sin närmaste krets,
10:14
whether they're in El Salvador or Indonesia.
184
614636
3000
oavsett om de bodde i El Salvador eller Indonesien.
10:18
And to do so before pivotal moments
185
618036
2280
Och att göra det inför avgörande stunder
10:20
where online manipulation efforts intensify,
186
620316
3480
då försök till manipulation på nätet intensifieras,
10:23
like elections.
187
623836
2080
som vid val.
10:26
So as we prepared to head into the EU elections,
188
626956
3640
När vi förberedde oss inför EU-valet
10:30
we knew that distrust in climate science
189
630596
2920
visste vi att misstron mot klimatforskningen
10:33
had already emerged as a critical misinformation theme.
190
633556
3960
redan hade dykt upp som ett allvarligt misinformationstema.
10:38
Now one study had found that adults over the age of 45
191
638596
4200
En studie visade att vuxna personer över 45 år
10:42
are less likely to investigate false information
192
642836
3040
var mindre benägna att undersöka falsk information
10:45
when they stumble across it online.
193
645916
2280
som de kom över på nätet.
10:48
Now we also know that adults over the age of 45
194
648636
3360
Vi vet också att vuxna över 45 år
10:52
have higher voter turnout,
195
652036
2080
röstar i större utsträckning,
10:54
which means if it wins,
196
654116
2200
vilket innebär att om den vinner
10:56
disinformation can have a disproportionate impact
197
656316
3200
kan desinformation ha en oproportionerligt stor effekt
10:59
on the outcomes of elections.
198
659516
2440
på valresultaten.
11:02
So as we prepare to head into the EU elections,
199
662556
3240
När vi förberedde oss inför EU-valen
11:05
we created content for every EU country,
200
665796
3800
skapade vi innehåll för varje enskilt EU-land,
11:09
in 27 languages,
201
669636
2680
på 27 språk,
11:12
aiming to empower Europeans to spot and reject
202
672356
3520
med målet att göra det möjligt för européer att upptäcka och avfärda
11:15
efforts to manipulate them before the elections.
203
675916
3400
manipulationsförsök före valen.
11:20
Over the last year,
204
680636
1200
Det senaste året
11:21
we have reached millions of people around the globe
205
681876
2680
har vi nått miljontals människor runt hela världen
11:24
with these videos.
206
684596
1440
med dessa videor.
11:26
In Germany alone, we reached 42 million people.
207
686516
4600
Enbart i Tyskland nådde vi 42 miljoner människor.
11:31
That's half the German population.
208
691156
2560
Det är halva Tysklands befolkning.
11:33
And we found on average,
209
693756
1800
Vi upptäckte att i genomsnitt
11:35
viewers of these videos were up to 10 percent more likely
210
695556
3640
var 10 procent av de som sett dessa videor mer benägna
11:39
to be able to identify manipulation efforts
211
699236
2720
att kunna identifiera manipulationsförsök
11:41
than those who hadn't seen those videos.
212
701956
2680
än de som inte sett dem.
11:45
This is a winning formula.
213
705796
2600
Det här är ett vinnande koncept.
11:48
The evidence shows us
214
708436
1720
Bevisen visar att
11:50
that prebunking is effective at building resistance to disinformation.
215
710156
5640
prebunking är effektivt mot att bygga motståndskraft mot desinformation.
11:56
It begs the question,
216
716636
1640
Men frågan är,
11:58
how do we make that resistance last?
217
718276
2680
hur får vi motståndskraften att stanna kvar?
12:01
How do we build long-term societal resilience
218
721276
3560
Hur bygger vi långsiktig motståndskraft i samhället
12:04
to disinformation efforts?
219
724836
1880
mot desinformationsförsök?
12:09
There is an ongoing effort to use disinformation
220
729156
3600
Det finns pågående försök att använda desinformation
12:12
to undermine our democracies.
221
732796
2240
till att underminera våra demokratier.
12:16
Just last month,
222
736276
1200
Förra månaden
12:17
the US Justice Department seized 32 internet domains
223
737476
4240
beslagtog det amerikanska justitiedepartementet 32 domäner på nätet,
12:21
secretly deployed by the Russian government
224
741716
2560
utvecklade i hemlighet av Rysslands regering,
12:24
to spread disinformation across the US and Europe.
225
744316
3680
för att sprida desinformation i USA och Europa.
12:29
This included deliberate efforts to exploit anxieties and fear
226
749076
4160
Detta innefattar också avsiktliga insatser med att använda oro och rädsla
12:33
across the public about the energy transition,
227
753236
3160
bland allmänheten gällande energiomställningen,
12:36
specifically to encourage violence.
228
756396
2800
och framför allt att uppmuntra till våld.
12:40
Now it’s not just the Russian government that we need to be worried about.
229
760716
3880
Det är inte bara den ryska regeringen vi behöver oroa oss för.
12:45
Easy access to generative AI tools
230
765276
2760
Lättillgängligheten till generativa AI-verktyg
12:48
means that anyone,
231
768076
1720
innebär att vem som helst,
12:49
not just those with resources, money and power,
232
769836
3840
inte bara de med resurser, pengar och makt,
12:53
can create high-quality,
233
773676
2000
kan skapa högkvalitativt,
12:55
effective, powerful disinformation content.
234
775676
3920
effektivt och kraftfullt innehåll med desinformation.
13:00
And the sources of disinformation are varied.
235
780156
3160
Källorna med desinformation varierar.
13:03
They can come from our elected officials
236
783356
2840
Det kan komma från allt ifrån våra förtroendevalda
13:06
all the way through to our neighbors down the road.
237
786196
2680
till våra grannar längre ner på gatan.
13:09
Many of us don't need to look further than our own families.
238
789596
3720
Många av oss behöver inte leta längre bort än i sin egen familj.
13:14
But so many of the tools we tested online
239
794236
3280
Många av de verktyg vi provade online
13:17
are even more powerful
240
797556
1640
är ännu mer effektiva
13:19
when they come directly from the people
241
799196
1920
när de kommer direkt från personer
13:21
that you trust and love the most in real life, IRL.
242
801116
4200
som ni litar på och älskar mest av allt i det verkliga livet.
13:25
So instead of endlessly debating the facts,
243
805716
3280
Så istället för att debattera fakta,
13:29
give your loved ones the tools
244
809036
1600
ge era nära och kära de verktyg
13:30
that they need to protect themselves online.
245
810676
2840
de behöver för att skydda sig själva online.
13:35
Information manipulation is unfortunately the new norm.
246
815076
4760
Manipulation av information är tyvärr den nya normen.
13:40
But that doesn't mean we need to accept our loved ones being misled,
247
820916
4480
Det betyder inte att vi ska acceptera att våra nära och kära blir vilseledda
13:45
and we shouldn't accept our climate scientists living in fear.
248
825436
4480
och vi ska inte acceptera att klimatforskare lever i rädsla.
13:50
So if we can't fact-check our way out of this problem,
249
830516
3840
Om vi inte kan faktagranska oss ur detta problem,
13:54
we need to beat disinformation at its own game
250
834396
3760
behöver vi hinna före desinformationen
13:58
by reaching people before disinformation does
251
838156
3360
innan den når ut till människor
14:01
and giving them all the tools that they need
252
841556
2560
och ge dem de verktyg de behöver
14:04
to protect themselves online.
253
844116
2200
för att skydda sig online.
14:06
Thank you so much.
254
846876
1240
Tack så mycket.
14:08
(Applause)
255
848116
3680
(Applåder)
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7