How you can help transform the internet into a place of trust | Claire Wardle

53,671 views ・ 2019-11-15

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Kelly Brosens
00:13
No matter who you are or where you live,
0
13548
2516
Wie je ook bent of waar je ook woont,
00:16
I'm guessing that you have at least one relative
1
16088
2356
ik denk dat je tenminste één familielid hebt
00:18
that likes to forward those emails.
2
18468
2334
dat van die emails doorstuurt.
00:21
You know the ones I'm talking about --
3
21206
1900
Je weet dewelke ik bedoel,
00:23
the ones with dubious claims or conspiracy videos.
4
23130
2854
die met rare theorieën of complotvideo's.
00:26
And you've probably already muted them on Facebook
5
26315
2668
En je volgt hen waarschijnlijk al niet meer op Facebook
00:29
for sharing social posts like this one.
6
29007
2348
omdat ze dit soort berichten delen.
00:31
It's an image of a banana
7
31379
1404
Een foto van een banaan
00:32
with a strange red cross running through the center.
8
32807
2667
met een vreemd, rood kruis in het midden.
00:35
And the text around it is warning people
9
35498
2139
En de tekst erbij waarschuwt mensen
00:37
not to eat fruits that look like this,
10
37661
2158
om dit fruit niet te eten,
00:39
suggesting they've been injected with blood
11
39843
2028
omdat het geïnjecteerd zou zijn met bloed
00:41
contaminated with the HIV virus.
12
41895
2130
besmet met het hiv-virus.
00:44
And the social share message above it simply says,
13
44049
2603
En de gedeelde boodschap erboven zegt simpelweg:
00:46
"Please forward to save lives."
14
46676
2181
"Alsjeblieft delen om levens te redden."
00:49
Now, fact-checkers have been debunking this one for years,
15
49672
3294
Feitcheckers hebben deze al jaren geleden ontkracht,
00:52
but it's one of those rumors that just won't die.
16
52990
2809
maar het is zo'n roddel die maar niet wil uitdoven.
00:55
A zombie rumor.
17
55823
1271
Een zombieroddel.
00:57
And, of course, it's entirely false.
18
57513
2093
En het is natuurlijk helemaal niet waar.
01:00
It might be tempting to laugh at an example like this, to say,
19
60180
2959
Het is misschien verleidelijk hierom te lachen, om te zeggen:
01:03
"Well, who would believe this, anyway?"
20
63163
1884
"Wie gelooft er nu zoiets?"
01:05
But the reason it's a zombie rumor
21
65419
1626
Maar het is net een zombieroddel,
01:07
is because it taps into people's deepest fears about their own safety
22
67069
3889
omdat het spreekt tot de diepste angsten over mensen hun eigen veiligheid
01:10
and that of the people they love.
23
70982
2175
en die van de mensen waar ze van houden.
01:13
And if you spend as enough time as I have looking at misinformation,
24
73783
3273
En als je genoeg tijd spendeert aan kijken naar misinformatie,
01:17
you know that this is just one example of many
25
77080
2420
dan weet je dat dit een van de vele voorbeelden is
01:19
that taps into people's deepest fears and vulnerabilities.
26
79524
3047
dat mensen hun diepste angsten en zwaktes oproept.
01:23
Every day, across the world, we see scores of new memes on Instagram
27
83214
4369
Elke dag zien we wereldwijd een hoop nieuwe memes op Instagram
01:27
encouraging parents not to vaccinate their children.
28
87607
3039
die ouders aanmoedigen om hun kinderen niet te vaccineren.
01:30
We see new videos on YouTube explaining that climate change is a hoax.
29
90670
4532
We zien nieuwe video's op YouTube die klimaatverandering een hoax noemen.
01:35
And across all platforms, we see endless posts designed to demonize others
30
95226
4302
En over alle platformen heen zien we posts die anderen demoniseren
01:39
on the basis of their race, religion or sexuality.
31
99552
3501
op basis van hun kleur, religie of seksualiteit.
01:44
Welcome to one of the central challenges of our time.
32
104314
3030
Welkom bij een van de kernuitdagingen van onze tijd.
01:47
How can we maintain an internet with freedom of expression at the core,
33
107647
4025
Hoe kunnen we een internet behouden gebaseerd op vrijheid van meningsuiting,
01:51
while also ensuring that the content that's being disseminated
34
111696
3303
maar ook verzekeren dat de verspreide informatie
01:55
doesn't cause irreparable harms to our democracies, our communities
35
115023
3886
geen onomkeerbare schade toebrengt aan onze democratieën, gemeenschappen
01:58
and to our physical and mental well-being?
36
118933
2238
en aan ons fysiek en mentaal welzijn?
02:01
Because we live in the information age,
37
121998
2087
We leven wel in het informatietijdperk,
02:04
yet the central currency upon which we all depend -- information --
38
124109
3547
maar de belangrijkste munteenheid waar we van afhangen -- informatie --
02:07
is no longer deemed entirely trustworthy
39
127680
2357
blijkt niet meer helemaal betrouwbaar
02:10
and, at times, can appear downright dangerous.
40
130061
2328
en soms zelfs ronduit gevaarlijk.
02:12
This is thanks in part to the runaway growth of social sharing platforms
41
132811
3937
Dit is deels te danken aan de onstuitbare groei van social media,
02:16
that allow us to scroll through,
42
136772
1642
die ons er laten door scrollen,
02:18
where lies and facts sit side by side,
43
138438
2222
waar leugen en feit zij aan zij zitten,
02:20
but with none of the traditional signals of trustworthiness.
44
140684
3071
maar met geen enkel traditioneel kenmerk van betrouwbaarheid.
02:24
And goodness -- our language around this is horribly muddled.
45
144268
3619
En, o god, onze taal hierover is verschrikkelijk verwarrend.
02:27
People are still obsessed with the phrase "fake news,"
46
147911
3103
Mensen zijn nog steeds geobsedeerd met het begrip 'fake news',
02:31
despite the fact that it's extraordinarily unhelpful
47
151038
2531
hoewel het buitengewoon onbehulpzaam is
02:33
and used to describe a number of things that are actually very different:
48
153593
3460
en gebruikt wordt om eigenlijk totaal andere dingen te beschrijven:
02:37
lies, rumors, hoaxes, conspiracies, propaganda.
49
157077
3386
leugens, roddels, hoaxen, samenzweringen, propaganda.
02:40
And I really wish we could stop using a phrase
50
160911
2912
En ik zou willen dat we geen begrip meer zouden gebruiken
02:43
that's been co-opted by politicians right around the world,
51
163847
2862
dat ingelijfd is door politici wereldwijd,
02:46
from the left and the right,
52
166733
1471
zowel links als rechts,
02:48
used as a weapon to attack a free and independent press.
53
168228
3222
gebruikt als wapen om vrije, onafhankelijke pers aan te vallen.
02:52
(Applause)
54
172307
4702
(Applaus)
02:57
Because we need our professional news media now more than ever.
55
177033
3462
Want we hebben onze professionele nieuwsmedia meer dan ooit nodig.
03:00
And besides, most of this content doesn't even masquerade as news.
56
180882
3373
Het meeste van deze informatie vermomt zich zelfs niet als nieuws.
03:04
It's memes, videos, social posts.
57
184279
2642
Het zijn memes, video's, social-mediaberichten.
03:06
And most of it is not fake; it's misleading.
58
186945
3453
En het meeste is niet vals; het is misleidend.
03:10
We tend to fixate on what's true or false.
59
190422
3015
We fixeren vaker op waar of niet waar.
03:13
But the biggest concern is actually the weaponization of context.
60
193461
4032
Maar de grootste zorg is eigenlijk bewapening van de context.
03:18
Because the most effective disinformation
61
198855
1968
Want de meest effectieve desinformatie
03:20
has always been that which has a kernel of truth to it.
62
200847
3048
is altijd al datgene geweest waar een korrel waarheid in zit.
03:23
Let's take this example from London, from March 2017,
63
203919
3476
Neem nu dit voorbeeld van Londen, maart 2017,
03:27
a tweet that circulated widely
64
207419
1540
een tweet die overal circuleerde
03:28
in the aftermath of a terrorist incident on Westminster Bridge.
65
208983
3587
in de nasleep van een terreuraanslag op Westminster Bridge.
03:32
This is a genuine image, not fake.
66
212594
2428
Dit is een echte foto, niet vals.
03:35
The woman who appears in the photograph was interviewed afterwards,
67
215046
3169
De vrouw op de foto werd nadien geïnterviewd
03:38
and she explained that she was utterly traumatized.
68
218239
2409
en zij verklaarde erg getraumatiseerd te zijn.
03:40
She was on the phone to a loved one,
69
220672
1738
Zij was aan de lijn met een dierbare
03:42
and she wasn't looking at the victim out of respect.
70
222434
2618
en uit respect keek ze niet naar het slachtoffer.
03:45
But it still was circulated widely with this Islamophobic framing,
71
225076
3960
En toch werd het verspreid met deze islamofobe tekst,
03:49
with multiple hashtags, including: #BanIslam.
72
229060
3046
met meerdere hashtags, waaronder: #BanIslam.
03:52
Now, if you worked at Twitter, what would you do?
73
232425
2398
Moest jij bij Twitter werken, wat zou jij doen?
03:54
Would you take that down, or would you leave it up?
74
234847
2562
Zou je het weghalen of laten staan?
03:58
My gut reaction, my emotional reaction, is to take this down.
75
238553
3429
Mijn instinct, mijn emotionele reflex is dit verwijderen.
04:02
I hate the framing of this image.
76
242006
2142
Ik haat de suggestiviteit van deze foto.
04:04
But freedom of expression is a human right,
77
244585
2388
Maar vrije meningsuiting is een mensenrecht
04:06
and if we start taking down speech that makes us feel uncomfortable,
78
246997
3225
en als we meningen weghalen die ons ongemakkelijk doen voelen,
04:10
we're in trouble.
79
250246
1230
hebben we een probleem.
04:11
And this might look like a clear-cut case,
80
251500
2294
En al lijkt dit een duidelijke zaak,
04:13
but, actually, most speech isn't.
81
253818
1698
meestal is een mening dat niet.
04:15
These lines are incredibly difficult to draw.
82
255540
2436
Deze lijnen trekken is enorm moeilijk.
04:18
What's a well-meaning decision by one person
83
258000
2281
Wat voor de één een goedbedoelde beslissing is,
04:20
is outright censorship to the next.
84
260305
2077
is ronduit censuur voor de ander.
04:22
What we now know is that this account, Texas Lone Star,
85
262759
2929
Wat we wel weten is dat dit account, Texas Lone Star,
04:25
was part of a wider Russian disinformation campaign,
86
265712
3230
deel uitmaakte van een weidse, Russische desinformatie-campagne
04:28
one that has since been taken down.
87
268966
2151
en ondertussen verwijderd is.
04:31
Would that change your view?
88
271141
1563
Zou dat je mening veranderen?
04:33
It would mine,
89
273322
1159
De mijne wel,
04:34
because now it's a case of a coordinated campaign
90
274505
2301
want dan is het een georganiseerde campagne
04:36
to sow discord.
91
276830
1215
om verdeeldheid te zaaien.
04:38
And for those of you who'd like to think
92
278069
1961
En zij die zouden denken
04:40
that artificial intelligence will solve all of our problems,
93
280054
2831
dat artificiële intelligentie alle problemen zal oplossen,
04:42
I think we can agree that we're a long way away
94
282909
2225
zullen het met me eens zijn dat we veraf staan
04:45
from AI that's able to make sense of posts like this.
95
285158
2587
van AI die berichten als deze kan begrijpen.
04:48
So I'd like to explain three interlocking issues
96
288856
2507
Dus zou ik graag drie samenhangende problemen uitleggen
04:51
that make this so complex
97
291387
2373
die dit zo complex maken,
04:53
and then think about some ways we can consider these challenges.
98
293784
3122
om dan over manieren na te denken om ze op te lossen.
04:57
First, we just don't have a rational relationship to information,
99
297348
3890
Ten eerste hebben we gewoon geen rationele relatie met informatie,
05:01
we have an emotional one.
100
301262
1468
maar een emotionele.
05:02
It's just not true that more facts will make everything OK,
101
302754
3794
Het is niet waar dat meer feiten alles goed maken,
05:06
because the algorithms that determine what content we see,
102
306572
3100
want algoritmes die bepalen wat we zien,
05:09
well, they're designed to reward our emotional responses.
103
309696
3127
zijn ontworpen om onze emotionele reacties te belonen.
05:12
And when we're fearful,
104
312847
1381
En wanneer we angst hebben,
05:14
oversimplified narratives, conspiratorial explanations
105
314252
3174
zijn sterk vereenvoudigde verhalen, verklaringen met complotten
05:17
and language that demonizes others is far more effective.
106
317450
3418
en demoniserende taal over anderen veel effectiever.
05:21
And besides, many of these companies,
107
321538
1874
Bij veel van deze bedrijven
05:23
their business model is attached to attention,
108
323436
2546
is het businessmodel gelinkt aan aandacht,
05:26
which means these algorithms will always be skewed towards emotion.
109
326006
3690
wat betekent dat deze algoritmes altijd neigen naar emotie.
05:30
Second, most of the speech I'm talking about here is legal.
110
330371
4298
Ten tweede zijn de meeste berichten die ik hier vernoem legaal.
05:35
It would be a different matter
111
335081
1446
Het zou een andere zaak zijn
05:36
if I was talking about child sexual abuse imagery
112
336551
2341
als ik sprak over beelden van kindermisbruik
05:38
or content that incites violence.
113
338916
1927
of inhoud die tot geweld aanspoort.
05:40
It can be perfectly legal to post an outright lie.
114
340867
3270
Het kan perfect legaal zijn om een regelrechte leugen te posten.
05:45
But people keep talking about taking down "problematic" or "harmful" content,
115
345130
4034
Mensen praten over 'problematische' of 'schadelijke' informatie verwijderen
05:49
but with no clear definition of what they mean by that,
116
349188
2609
zonder duidelijke definitie van wat ze daarmee bedoelen,
05:51
including Mark Zuckerberg,
117
351821
1264
inclusief Mark Zuckerberg,
05:53
who recently called for global regulation to moderate speech.
118
353109
3412
die net nog opriep tot globale controle van meningsuiting.
05:56
And my concern is that we're seeing governments
119
356870
2215
En mijn zorg is dat we regeringen zien
05:59
right around the world
120
359109
1292
over de hele wereld
06:00
rolling out hasty policy decisions
121
360425
2676
die haastig een beleid invoeren
06:03
that might actually trigger much more serious consequences
122
363125
2746
wat eigenlijk veel ergere gevolgen kan veroorzaken
06:05
when it comes to our speech.
123
365895
1714
voor onze meningsuiting.
06:08
And even if we could decide which speech to take up or take down,
124
368006
3706
En ook al konden we beslissen welke meningen te houden of verwijderen,
06:11
we've never had so much speech.
125
371736
2174
we hebben nog nooit zoveel geuit.
06:13
Every second, millions of pieces of content
126
373934
2131
Elke seconde worden miljoenen meningen
06:16
are uploaded by people right around the world
127
376089
2107
geüpload door mensen over de hele wereld
06:18
in different languages,
128
378220
1168
in verschillende talen,
06:19
drawing on thousands of different cultural contexts.
129
379412
2768
gebaseerd op duizenden verschillende culturele contexten.
06:22
We've simply never had effective mechanisms
130
382204
2532
We hebben simpelweg nooit efficiënte mechanismes gehad
06:24
to moderate speech at this scale,
131
384760
1738
om taal te controleren op deze schaal,
06:26
whether powered by humans or by technology.
132
386522
2801
of het nu van mensen of van technologie komt.
06:30
And third, these companies -- Google, Twitter, Facebook, WhatsApp --
133
390284
3944
Ten derde zijn deze bedrijven -- Google, Twitter, Facebook, WhatsApp --
06:34
they're part of a wider information ecosystem.
134
394252
2841
deel van een breder informatie-ecosysteem.
06:37
We like to lay all the blame at their feet, but the truth is,
135
397117
3352
We geven hen graag alle schuld, maar de waarheid is
06:40
the mass media and elected officials can also play an equal role
136
400493
3830
dat massamedia en verkozen ambtenaren een even grote rol kunnen spelen
06:44
in amplifying rumors and conspiracies when they want to.
137
404347
2913
in het versterken van gerucht en complot, als ze dit willen.
06:47
As can we, when we mindlessly forward divisive or misleading content
138
407800
4944
En wij ook, als we hersenloos verdeelde of misleidende informatie delen
06:52
without trying.
139
412768
1285
zonder moeite te doen.
06:54
We're adding to the pollution.
140
414077
1800
We vervuilen het alleen maar meer.
06:57
I know we're all looking for an easy fix.
141
417236
2618
Ik weet dat we zoeken naar een makkelijke oplossing.
06:59
But there just isn't one.
142
419878
1667
Maar er is er geen.
07:01
Any solution will have to be rolled out at a massive scale, internet scale,
143
421950
4445
Elke oplossing zal uitgerold moeten worden op een gigantische schaal, internetschaal.
07:06
and yes, the platforms, they're used to operating at that level.
144
426419
3261
En ja, de platformen zijn gewend op dat niveau te opereren,
07:09
But can and should we allow them to fix these problems?
145
429704
3472
maar kunnen ze deze problemen oplossen en moeten we het toelaten?
07:13
They're certainly trying.
146
433668
1232
Proberen doen ze zeker.
07:14
But most of us would agree that, actually, we don't want global corporations
147
434924
4086
Maar de meesten zouden ermee akkoord gaan dat we geen globale ondernemingen willen
07:19
to be the guardians of truth and fairness online.
148
439034
2332
als bewakers van waarheid en eerlijkheid online.
07:21
And I also think the platforms would agree with that.
149
441390
2537
En ik denk dat ook de platformen dat vinden.
07:24
And at the moment, they're marking their own homework.
150
444257
2881
Momenteel beoordelen ze hun eigen huiswerk.
07:27
They like to tell us
151
447162
1198
Ze vertellen graag
07:28
that the interventions they're rolling out are working,
152
448384
2579
dat de maatregelen die ze nemen resultaat opleveren,
07:30
but because they write their own transparency reports,
153
450987
2540
maar omdat ze hun eigen transparantieverslag schrijven,
07:33
there's no way for us to independently verify what's actually happening.
154
453551
3618
kunnen we op geen enkele manier echt controleren wat er eigenlijk gebeurt.
07:38
(Applause)
155
458431
3342
(Applaus)
07:41
And let's also be clear that most of the changes we see
156
461797
2952
En laat het ook duidelijk zijn dat de meeste veranderingen enkel gebeuren
07:44
only happen after journalists undertake an investigation
157
464773
2994
nadat onderzoek van journalisten vooroordelen aan het licht brengen,
07:47
and find evidence of bias
158
467791
1611
07:49
or content that breaks their community guidelines.
159
469426
2829
of inhoud die de regels van de platformen breekt.
07:52
So yes, these companies have to play a really important role in this process,
160
472815
4595
Dus ja, deze bedrijven moeten een heel belangrijke rol spelen in dit proces,
07:57
but they can't control it.
161
477434
1560
maar je kunt het ze niet laten controleren.
07:59
So what about governments?
162
479855
1518
En hoe zit het met regeringen?
08:01
Many people believe that global regulation is our last hope
163
481863
3096
Velen geloven dat globale wetten onze laatste hoop zijn
08:04
in terms of cleaning up our information ecosystem.
164
484983
2880
als het gaat om de opkuis van ons informatie-ecosysteem.
08:07
But what I see are lawmakers who are struggling to keep up to date
165
487887
3166
Maar ik zie wetgevers die worstelen om bij te blijven
08:11
with the rapid changes in technology.
166
491077
2341
met de snel veranderende technologie.
08:13
And worse, they're working in the dark,
167
493442
1904
Nog erger, ze tasten in het duister,
08:15
because they don't have access to data
168
495370
1821
omdat ze geen toegang hebben tot data
08:17
to understand what's happening on these platforms.
169
497215
2650
om te begrijpen wat er gebeurt op deze platformen.
08:20
And anyway, which governments would we trust to do this?
170
500260
3071
Trouwens, welke regeringen zouden we hiermee vertrouwen?
08:23
We need a global response, not a national one.
171
503355
2770
We hebben een globaal antwoord nodig, geen nationaal.
08:27
So the missing link is us.
172
507419
2277
Dus zijn wij de ontbrekende schakel.
08:29
It's those people who use these technologies every day.
173
509720
3123
Het zijn de mensen die deze technologie elke dag gebruiken.
08:33
Can we design a new infrastructure to support quality information?
174
513260
4591
Kunnen we een nieuwe infrastructuur bouwen om kwaliteitsinformatie te bieden?
08:38
Well, I believe we can,
175
518371
1230
Wel, ik denk van wel,
08:39
and I've got a few ideas about what we might be able to actually do.
176
519625
3357
en ik heb enkele ideeën over wat we echt zouden kunnen doen.
08:43
So firstly, if we're serious about bringing the public into this,
177
523006
3103
Ten eerste, als we het grote publiek er echt bij willen betrekken,
08:46
can we take some inspiration from Wikipedia?
178
526133
2381
kunnen we dan inspiratie opdoen van Wikipedia?
08:48
They've shown us what's possible.
179
528538
1824
Zij hebben getoond wat mogelijk is.
08:50
Yes, it's not perfect,
180
530386
1151
Het is niet perfect,
08:51
but they've demonstrated that with the right structures,
181
531561
2634
maar ze hebben getoond dat met de juiste structuren,
08:54
with a global outlook and lots and lots of transparency,
182
534219
2635
met een globale aanpak en heel veel transparantie,
08:56
you can build something that will earn the trust of most people.
183
536878
3096
je iets kan bouwen dat het vertrouwen zal winnen van de meesten.
08:59
Because we have to find a way to tap into the collective wisdom
184
539998
3162
Want we moeten een manier vinden
om de collectieve wijsheid en ervaring van alle gebruikers in te zetten.
09:03
and experience of all users.
185
543184
2309
09:05
This is particularly the case for women, people of color
186
545517
2646
Dit is vooral het geval voor vrouwen, gekleurde mensen
09:08
and underrepresented groups.
187
548187
1346
en minderheden.
09:09
Because guess what?
188
549557
1166
Want weet je?
09:10
They are experts when it comes to hate and disinformation,
189
550747
2735
Zij zijn experten in haat en desinformatie,
09:13
because they have been the targets of these campaigns for so long.
190
553506
3516
omdat zij al zo lang het doelwit zijn van deze campagnes.
09:17
And over the years, they've been raising flags,
191
557046
2350
En door de jaren heen hebben ze vaak gewaarschuwd,
09:19
and they haven't been listened to.
192
559420
1665
maar er werd niet naar geluisterd.
09:21
This has got to change.
193
561109
1280
Dit moet veranderen.
09:22
So could we build a Wikipedia for trust?
194
562807
4326
Dus kunnen we een Wikipedia bouwen van vertrouwen?
09:27
Could we find a way that users can actually provide insights?
195
567157
4189
Kunnen we een manier vinden om gebruikers hun inzicht te laten geven?
09:31
They could offer insights around difficult content-moderation decisions.
196
571370
3697
Zij zouden inzicht kunnen bieden bij moeilijke beslissingen over inhoud.
09:35
They could provide feedback
197
575091
1463
Ze zouden feedback kunnen geven
09:36
when platforms decide they want to roll out new changes.
198
576578
3041
wanneer platformen beslissen om veranderingen door te voeren.
09:40
Second, people's experiences with the information is personalized.
199
580241
4162
Ten tweede zijn ervaringen met informatie gepersonaliseerd.
09:44
My Facebook news feed is very different to yours.
200
584427
2643
Mijn Facebook nieuwsoverzicht is anders dan het jouwe.
09:47
Your YouTube recommendations are very different to mine.
201
587094
2745
Jouw YouTube aanbevelingen zijn anders dan de mijne.
09:49
That makes it impossible for us to actually examine
202
589863
2492
Dat maakt het onmogelijk om echt te onderzoeken
09:52
what information people are seeing.
203
592379
2023
welke informatie mensen te zien krijgen.
09:54
So could we imagine
204
594815
1389
Dus kunnen we ons inbeelden
09:56
developing some kind of centralized open repository for anonymized data,
205
596228
4778
dat een gecentraliseerd, open geheugen voor anonieme data ontwikkeld wordt,
10:01
with privacy and ethical concerns built in?
206
601030
2864
met privacy en ethische bezwaren erin?
10:04
Because imagine what we would learn
207
604220
1778
Want stel je voor wat we zouden leren
10:06
if we built out a global network of concerned citizens
208
606022
3261
als we een globaal netwerk uitbouwden met betrokken burgers
10:09
who wanted to donate their social data to science.
209
609307
3294
die hun sociale data zouden doneren aan de wetenschap.
10:13
Because we actually know very little
210
613141
1722
Want we weten eigenlijk erg weinig
10:14
about the long-term consequences of hate and disinformation
211
614887
2881
over de gevolgen op lange termijn van haat en desinformatie
10:17
on people's attitudes and behaviors.
212
617792
1975
voor mensen hun houding en gedrag.
10:20
And what we do know,
213
620236
1167
En wat we wel weten,
10:21
most of that has been carried out in the US,
214
621427
2193
is dat dit het vaakst gebeurt in de VS,
10:23
despite the fact that this is a global problem.
215
623644
2381
ondanks het feit dat dit een globaal probleem is.
10:26
We need to work on that, too.
216
626049
1635
Daar moeten we ook aan werken.
10:28
And third,
217
628192
1150
En ten derde,
10:29
can we find a way to connect the dots?
218
629366
2310
kunnen we dan geen ketting maken?
10:31
No one sector, let alone nonprofit, start-up or government,
219
631700
3438
Niet één sector, laat staan nonprofit, start-up of regering
10:35
is going to solve this.
220
635162
1422
gaat dit oplossen.
10:36
But there are very smart people right around the world
221
636608
2564
Maar er zijn erg slimme mensen over de hele wereld
10:39
working on these challenges,
222
639196
1381
die de uitdaging aangaan,
10:40
from newsrooms, civil society, academia, activist groups.
223
640601
3576
bij nieuwsredacties, de burgers, academici, activisten.
10:44
And you can see some of them here.
224
644201
1898
En sommigen ervan zie je hier.
10:46
Some are building out indicators of content credibility.
225
646123
2927
Sommigen bouwen aan indicators van geloofwaardigheid.
10:49
Others are fact-checking,
226
649074
1246
Anderen checken de feiten,
10:50
so that false claims, videos and images can be down-ranked by the platforms.
227
650344
3591
zodat valse beweringen, video's en afbeeldingen verdwijnen van platformen.
10:53
A nonprofit I helped to found, First Draft,
228
653959
2213
Een nonprofit die ik geholpen heb, First Draft,
10:56
is working with normally competitive newsrooms around the world
229
656196
2968
werkt met competitieve nieuwsredacties wereldwijd
10:59
to help them build out investigative, collaborative programs.
230
659188
3503
om samen met hen onderzoekende samenwerkingsprogramma's te bouwen.
11:03
And Danny Hillis, a software architect,
231
663231
2309
En Danny Hillis, een software architect,
11:05
is designing a new system called The Underlay,
232
665564
2381
ontwerpt een nieuw systeem genaamd The Underlay,
11:07
which will be a record of all public statements of fact
233
667969
2775
wat een geheugen zal zijn van elke openbare verklaring van feiten,
11:10
connected to their sources,
234
670768
1329
verbonden aan hun bronnen,
11:12
so that people and algorithms can better judge what is credible.
235
672121
3654
zodat mensen en algoritmes beter kunnen oordelen over wat geloofwaardig is.
11:16
And educators around the world are testing different techniques
236
676800
3356
En opvoeders wereldwijd testen verschillende technieken
11:20
for finding ways to make people critical of the content they consume.
237
680180
3484
om mensen kritisch te laten kijken naar de informatie die ze opnemen.
11:24
All of these efforts are wonderful, but they're working in silos,
238
684633
3141
Al deze inspanningen zijn fantastisch, maar ze werken afgezonderd
11:27
and many of them are woefully underfunded.
239
687798
2680
en vele krijgen pijnlijk weinig financiering.
11:30
There are also hundreds of very smart people
240
690502
2053
Er zijn ook honderden erg slimme mensen
11:32
working inside these companies,
241
692579
1652
die in deze bedrijven werken,
11:34
but again, these efforts can feel disjointed,
242
694255
2325
maar deze inspanningen kunnen ontwricht voelen,
11:36
because they're actually developing different solutions to the same problems.
243
696604
3937
omdat ze verschillende oplossingen ontwikkelen voor dezelfde problemen.
11:41
How can we find a way to bring people together
244
701205
2269
Hoe zouden we mensen kunnen samenbrengen
11:43
in one physical location for days or weeks at a time,
245
703498
3278
op één fysieke locatie voor dagen of weken na elkaar,
11:46
so they can actually tackle these problems together
246
706800
2396
zodat ze deze problemen samen kunnen aanpakken
11:49
but from their different perspectives?
247
709220
1818
maar vanuit hun eigen perspectieven?
11:51
So can we do this?
248
711062
1340
Kunnen we dit?
11:52
Can we build out a coordinated, ambitious response,
249
712426
3239
Kunnen we een gecoördineerde, ambitieuze oplossing opzetten
11:55
one that matches the scale and the complexity of the problem?
250
715689
3709
van dezelfde schaal en complexiteit als het probleem zelf?
11:59
I really think we can.
251
719819
1373
Ik denk echt dat het kan.
12:01
Together, let's rebuild our information commons.
252
721216
2959
Laten we samen onze publieke bronnen heropbouwen.
12:04
Thank you.
253
724819
1190
Dankjewel.
12:06
(Applause)
254
726033
3728
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7