How we can protect truth in the age of misinformation | Sinan Aral

235,868 views ・ 2020-01-16

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Vertaald door: Ruth Compernol Nagekeken door: Peter van de Ven
00:13
So, on April 23 of 2013,
1
13468
5222
Op 23 april 2013
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
plaatste de Associated Press de volgende tweet op Twitter:
00:24
It said, "Breaking news:
3
24252
2397
"Breaking news:
00:26
Two explosions at the White House
4
26673
2571
Twee explosies in het Witte Huis
00:29
and Barack Obama has been injured."
5
29268
2333
en Barack Obama is gewond."
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
Deze tweet werd 4000 keer geretweet in minder dan vijf minuten
00:37
and it went viral thereafter.
7
37661
2217
en ging daarna viraal.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
De tweet was echter geen echt nieuws gepubliceerd door de Associated Press.
00:45
In fact it was false news, or fake news,
9
45134
3333
Het was nepnieuws, of 'fake news',
00:48
that was propagated by Syrian hackers
10
48491
2825
verspreid door Syrische hackers
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
die de Twitter-account van de Associated Press hadden geïnfiltreerd.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
Ze wilden de samenleving ontwrichten, maar ze ontwrichtten veel meer dan dat.
01:00
Because automated trading algorithms
13
60320
2476
Omdat geautomatiseerde tradingalgoritmes
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
meteen reageerden op het sentiment dat door deze tweet ontstond
01:06
and began trading based on the potential
15
66204
2968
en begonnen te traden op de mogelijkheid
01:09
that the president of the United States had been injured or killed
16
69196
3381
dat de Amerikaanse president was gewond of gedood
01:12
in this explosion.
17
72601
1200
bij de explosie.
01:14
And as they started tweeting,
18
74188
1992
En toen ze begonnen te tweeten,
01:16
they immediately sent the stock market crashing,
19
76204
3349
crashte de aandelenmarkt meteen,
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
waardoor 140 miljard dollar aan aandelenwaarde verloren ging in een dag.
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
Robert Mueller, speciaal procureur in de Verenigde Staten,
01:29
issued indictments against three Russian companies
22
89562
3892
klaagde drie Russische bedrijven aan
01:33
and 13 Russian individuals
23
93478
2619
en 13 Russische individuen
01:36
on a conspiracy to defraud the United States
24
96121
3167
voor een samenzwering om de Verenigde Staten schade te berokkenen
01:39
by meddling in the 2016 presidential election.
25
99312
3780
door inmenging in de presidentsverkiezingen van 2016.
01:43
And what this indictment tells as a story
26
103855
3564
Wat deze aanklacht ons vertelt,
01:47
is the story of the Internet Research Agency,
27
107443
3142
is het verhaal van het Internet Research Agency,
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
de schimmige arm van het Kremlin op sociale media.
01:54
During the presidential election alone,
29
114815
2777
Alleen al tijdens de presidentsverkiezingen
01:57
the Internet Agency's efforts
30
117616
1889
bereikte het Internet Research Agency
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
126 miljoen Facebook-leden in de Verenigde Staten,
02:04
issued three million individual tweets
32
124720
3277
publiceerde het drie miljoen individuele tweets
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
en 43 uur YouTube-materiaal.
02:11
All of which was fake --
34
131887
1652
Allemaal nepinformatie
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
bedoeld om onenigheid te zaaien in de Amerikaanse presidentsverkiezingen.
02:20
A recent study by Oxford University
36
140996
2650
Een recente studie van Oxford University
02:23
showed that in the recent Swedish elections,
37
143670
3270
toonde aan dat in de recente Zweedse verkiezingen
02:26
one third of all of the information spreading on social media
38
146964
4375
een derde van alle informatie die verspreid werd op sociale media
02:31
about the election
39
151363
1198
over de verkiezingen
02:32
was fake or misinformation.
40
152585
2087
nepnieuws of desinformatie was.
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
Bovendien kunnen dit soort misleidende campagnes op sociale media
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
ook zogenaamde 'genocidepropaganda' verspreiden,
02:44
for instance against the Rohingya in Burma,
43
164314
3111
zoals tegen de Rohingya in Burma,
02:47
triggering mob killings in India.
44
167449
2303
wat moordpartijen veroorzaakte in India.
02:49
We studied fake news
45
169776
1494
We begonnen nepnieuws te onderzoeken
02:51
and began studying it before it was a popular term.
46
171294
3219
voor het een populaire term werd.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
En onlangs publiceerden we het grootste longitudinaal onderzoek ooit
03:00
of the spread of fake news online
48
180094
2286
over de verspreiding van nepnieuws online
03:02
on the cover of "Science" in March of this year.
49
182404
3204
op de cover van Science in maart dit jaar.
03:06
We studied all of the verified true and false news stories
50
186523
4161
We onderzochten alle geverifieerde echte en onechte nieuwsverhalen
03:10
that ever spread on Twitter,
51
190708
1753
ooit verspreid via Twitter
03:12
from its inception in 2006 to 2017.
52
192485
3818
vanaf de oprichting in 2006, tot 2017.
03:16
And when we studied this information,
53
196612
2314
En toen we deze informatie onderzochten,
03:18
we studied verified news stories
54
198950
2876
bestudeerden we nieuwsverhalen
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
die geverifieerd waren door zes onafhankelijke fact-checkers.
03:25
So we knew which stories were true
56
205792
2762
Dus we wisten welke verhalen waar waren
03:28
and which stories were false.
57
208578
2126
en welke onwaar.
03:30
We can measure their diffusion,
58
210728
1873
We kunnen hun verspreiding meten,
03:32
the speed of their diffusion,
59
212625
1651
de snelheid van de verspreiding,
03:34
the depth and breadth of their diffusion,
60
214300
2095
alsook de diepte en breedte ervan,
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
hoeveel mensen betrokken raakten bij de informatiecascade, enzovoort.
03:40
And what we did in this paper
62
220942
1484
In onze paper
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
vergeleken we de verspreiding van echt nieuws met onecht nieuws.
03:46
And here's what we found.
64
226339
1683
Dit waren de resultaten.
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
We stelden vast dat nepnieuws zich verder, sneller, dieper
03:52
and more broadly than the truth
66
232049
1806
en breder verspreidt dan de waarheid
03:53
in every category of information that we studied,
67
233879
3003
in elke categorie van informatie die we bestudeerden,
03:56
sometimes by an order of magnitude.
68
236906
2499
soms met een grootteorde verschil.
03:59
And in fact, false political news was the most viral.
69
239842
3524
En politiek nepnieuws ging het meest viraal.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
Het verspreidde zich verder, sneller, dieper en breder
04:06
than any other type of false news.
71
246561
2802
dan eender welk ander type nepnieuws.
04:09
When we saw this,
72
249387
1293
Toen we dit zagen,
04:10
we were at once worried but also curious.
73
250704
2841
waren we ongerust, maar ook nieuwsgierig.
04:13
Why?
74
253569
1151
Waarom?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
Waarom verspreidt nepnieuws zich zoveel verder, sneller, dieper
04:18
and more broadly than the truth?
76
258141
1864
en breder dan de waarheid?
04:20
The first hypothesis that we came up with was,
77
260339
2961
Onze eerste hypothese was:
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
misschien hebben de verspreiders ervan meer volgers of volgen ze zelf meer mensen
04:28
or tweet more often,
79
268140
1557
of misschien tweeten ze vaker;
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
misschien zijn het vaker 'geverifieerde' Twitteraars, die geloofwaardiger zijn,
04:33
or maybe they've been on Twitter longer."
81
273871
2182
of misschien gebruiken ze Twitter al langer.
04:36
So we checked each one of these in turn.
82
276077
2298
Dus we gingen elk van deze hypotheses na.
04:38
And what we found was exactly the opposite.
83
278691
2920
En wat we ontdekten, was net het omgekeerde.
04:41
False-news spreaders had fewer followers,
84
281635
2436
Verspreiders van nepnieuws hadden minder volgers,
04:44
followed fewer people, were less active,
85
284095
2254
volgden minder anderen, waren minder actief,
04:46
less often "verified"
86
286373
1460
minder vaak 'geverifieerd'
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
en gebruikten Twitter nog niet zo lang.
04:50
And yet,
88
290841
1189
En toch
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
had nepnieuws 70 procent meer kans om geretweet te worden dan de waarheid,
04:57
controlling for all of these and many other factors.
90
297111
3363
na correctie voor al deze en nog veel andere factoren.
05:00
So we had to come up with other explanations.
91
300498
2690
Dus we moesten op zoek naar andere verklaringen.
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
En we bedachten de zogenaamde 'nieuwheidshypothese'.
05:07
So if you read the literature,
93
307038
1960
Als je de literatuur erop naleest,
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
weet je dat de menselijke aandacht wordt getrokken door al wat nieuw is,
05:12
things that are new in the environment.
95
312800
2519
nieuwe dingen in de omgeving.
05:15
And if you read the sociology literature,
96
315343
1985
Volg je de sociologische literatuur,
05:17
you know that we like to share novel information.
97
317352
4300
dan weet je dat we graag nieuwe informatie met elkaar delen.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
Zo krijgen anderen de indruk dat we toegang hebben tot inside-informatie,
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
en we krijgen meer status door dit soort informatie te delen.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
Dus we maten de nieuwheid van een binnenkomende echte of onechte tweet
05:36
compared to the corpus of what that individual had seen
101
336268
4055
en vergeleken die met alles wat die persoon had gezien
05:40
in the 60 days prior on Twitter.
102
340347
2952
de 60 dagen daarvoor op Twitter.
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
Maar dat volstond niet, want we dachten:
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
misschien is nepnieuws nieuwer in theoretisch opzicht,
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
maar dat betekent nog niet dat men het als nieuwer ervaart.
05:53
So to understand people's perceptions of false news,
106
353849
3927
Dus om mensen hun perceptie van nepnieuws te begrijpen,
05:57
we looked at the information and the sentiment
107
357800
3690
bekeken we de informatie en het sentiment
06:01
contained in the replies to true and false tweets.
108
361514
4206
die vervat zaten in de reacties op echte en onechte tweets.
06:06
And what we found
109
366022
1206
En we ontdekten
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
op het vlak van verschillende sentimenten,
06:11
surprise, disgust, fear, sadness,
111
371490
3301
zoals verrassing, walging, angst, verdriet,
06:14
anticipation, joy and trust --
112
374815
2484
anticipatie, vreugde en vertrouwen,
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
dat er aanzienlijk meer sprake was van verrassing en walging
06:23
in the replies to false tweets.
114
383204
2806
in de reacties op onechte tweets.
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
Terwijl er bij echt nieuws aanzienlijk meer anticipatie,
06:30
joy and trust
116
390205
1547
vreugde en vertrouwen
06:31
in reply to true tweets.
117
391776
2547
werden vastgesteld in de reacties op echte tweets.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
De verrassing bevestigt onze nieuwheidshypothese.
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
Dit is nieuw en verrassend, dus er is meer kans dat we het delen.
06:43
At the same time, there was congressional testimony
120
403092
2925
In diezelfde periode was er een getuigenis in het congres,
06:46
in front of both houses of Congress in the United States,
121
406041
3036
voor de beide kamers van het congres in de Verenigde Staten,
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
waarbij de rol van robots werd onderzocht in de verspreiding van desinformatie.
06:52
So we looked at this too --
123
412863
1354
Dus dat bekeken we ook.
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
We gebruikten verschillende verfijnde algoritmes voor robotdetectie
06:57
to find the bots in our data and to pull them out.
125
417863
3074
om de robots op te sporen en uit onze data te filteren.
07:01
So we pulled them out, we put them back in
126
421347
2659
Dus we filterden ze eruit, staken ze er opnieuw in
07:04
and we compared what happens to our measurement.
127
424030
3119
en vergeleken wat er gebeurde met onze metingen.
07:07
And what we found was that, yes indeed,
128
427173
2293
En we ontdekten dat, inderdaad,
07:09
bots were accelerating the spread of false news online,
129
429490
3682
robots voor een snellere verspreiding van online nepnieuws zorgden,
07:13
but they were accelerating the spread of true news
130
433196
2651
maar ook voor een snellere verspreiding van echt nieuws
07:15
at approximately the same rate.
131
435871
2405
tegen ongeveer dezelfde snelheid.
07:18
Which means bots are not responsible
132
438300
2858
Dat betekent dus dat robots niet verantwoordelijk zijn
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
voor het verschil in de verspreiding tussen waarheid en onwaarheid online.
07:25
We can't abdicate that responsibility,
134
445919
2849
Dus die verantwoordelijkheid kunnen we niet afwimpelen,
07:28
because we, humans, are responsible for that spread.
135
448792
4259
want het zijn wij, mensen, die er verantwoordelijk voor zijn.
07:34
Now, everything that I have told you so far,
136
454472
3334
Wat ik jullie tot nu toe heb verteld is,
07:37
unfortunately for all of us,
137
457830
1754
spijtig genoeg voor elk van ons,
07:39
is the good news.
138
459608
1261
het goede nieuws.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
Het wordt nog een pak erger.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
En twee specifieke technologieën zullen het erger maken.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
We zullen een grote golf van kunstmatige media meemaken.
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
Fake video's en fake audiomateriaal die heel overtuigend overkomen.
08:03
And this will powered by two technologies.
143
483458
2754
En dit zal aangedreven worden door twee technologieën.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
Ten eerste zijn er de 'generative adversarial networks'.
08:10
This is a machine-learning model with two networks:
145
490093
2563
Een model van 'machine learning' met twee netwerken:
08:12
a discriminator,
146
492680
1547
een discriminator,
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
wiens taak het is om te bepalen of iets waar of onwaar is,
08:18
and a generator,
148
498475
1167
en een generator,
08:19
whose job it is to generate synthetic media.
149
499666
3150
wiens taak het is om kunstmatige media te genereren.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
Dus de generator creëert kunstmatig video- of audiomateriaal
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
en de discriminator probeert te achterhalen: is dit echt of fake?
08:32
And in fact, it is the job of the generator
152
512665
2874
En in feite is het de taak van de generator
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
om de geloofwaardigheid zó op te drijven dat de discriminator erin trapt
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
en denkt dat het kunstmatig gecreëerde video- of audiomateriaal
08:43
is actually true.
155
523633
1730
inderdaad echt is.
08:45
Imagine a machine in a hyperloop,
156
525387
2373
Stel je een machine in een hyperloop voor,
08:47
trying to get better and better at fooling us.
157
527784
2803
die probeert om ons steeds beter te bedotten.
08:51
This, combined with the second technology,
158
531114
2500
Dit, in combinatie met een tweede technologie,
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
die hoofdzakelijk uit de democratisering van kunstmatige intelligentie bestaat,
08:59
the ability for anyone,
160
539384
2189
het feit dat iedereen de kans heeft
09:01
without any background in artificial intelligence
161
541597
2830
om zonder enige achtergrond in kunstmatige intelligentie
09:04
or machine learning,
162
544451
1182
of machine learning
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
dergelijke algoritmes te gebruiken om kunstmatige media te genereren,
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
maakt het zoveel gemakkelijker om video's te creëren.
09:14
The White House issued a false, doctored video
165
554355
4421
Het Witte Huis publiceerde een vervalste, gemanipuleerde video
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
van een journalist en een stagiair die zijn micro probeerde af te pakken.
09:23
They removed frames from this video
167
563427
1999
Er werden frames uit de video verwijderd,
09:25
in order to make his actions seem more punchy.
168
565450
3287
zodat zijn handelingen er bruusker zouden uitzien.
09:29
And when videographers and stuntmen and women
169
569157
3385
En toen cameramannen, stuntmannen en stuntvrouwen
09:32
were interviewed about this type of technique,
170
572566
2427
werden ondervraagd over deze techniek,
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
zeiden ze: "Natuurlijk, we gebruiken dit constant in films,
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
zodat de slagen en trappen er ruwer en agressiever uitzien."
09:44
They then put out this video
173
584268
1867
Daarna werd deze video gepubliceerd
09:46
and partly used it as justification
174
586159
2500
en deels gebruikt als rechtvaardiging
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
om de perskaart van journalist Jim Acosta te herroepen
09:52
from the White House.
176
592706
1339
voor het Witte Huis.
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
En CNN moest een proces aangaan om die perskaart terug te krijgen.
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
Er zijn ongeveer vijf verschillende richtingen die we kunnen uitgaan
10:06
to try and address some of these very difficult problems today.
179
606165
3739
om enkele van de moeilijke problemen van vandaag aan te pakken.
10:10
Each one of them has promise,
180
610379
1810
Elk daarvan heeft zijn voordelen,
10:12
but each one of them has its own challenges.
181
612213
2999
maar ook zijn nadelen.
10:15
The first one is labeling.
182
615236
2008
De eerste is die van het labelen.
10:17
Think about it this way:
183
617268
1357
Stel het je zo voor:
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
als je naar de winkel gaat om eten te kopen,
10:22
it's extensively labeled.
185
622284
1904
dan is alles uitgebreid gelabeld.
10:24
You know how many calories it has,
186
624212
1992
Je weet hoeveel calorieën iets bevat
10:26
how much fat it contains --
187
626228
1801
en hoeveel vet,
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
maar als we informatie consumeren,
moeten we het zonder dergelijke labels doen.
10:32
What is contained in this information?
189
632355
1928
Welke inhoud bevat deze informatie?
10:34
Is the source credible?
190
634307
1453
Is de bron geloofwaardig?
10:35
Where is this information gathered from?
191
635784
2317
Waar werd de informatie vandaan gehaald?
10:38
We have none of that information
192
638125
1825
Daarover weten we niets
10:39
when we are consuming information.
193
639974
2103
wanneer we informatie consumeren.
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
Dit is een mogelijke denkpiste, maar er zijn ook uitdagingen.
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
Bijvoorbeeld: wie in onze samenleving mag beslissen wat waar of onwaar is?
10:52
Is it the governments?
196
652387
1642
De overheid?
10:54
Is it Facebook?
197
654053
1150
Facebook?
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
Een onafhankelijk consortium van fact-checkers?
10:59
And who's checking the fact-checkers?
199
659387
2466
En wie controleert dan de fact-checkers?
11:02
Another potential avenue is incentives.
200
662427
3084
Een andere denkpiste zijn incentives.
11:05
We know that during the US presidential election
201
665535
2634
Tijdens de Amerikaanse presidentsverkiezingen
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
was er een stroom van desinformatie afkomstig uit Macedonië
11:11
that didn't have any political motive
203
671907
2337
waar geen politieke motieven achter zaten
11:14
but instead had an economic motive.
204
674268
2460
maar wel economische motieven.
11:16
And this economic motive existed,
205
676752
2148
En deze economische motieven bestonden
11:18
because false news travels so much farther, faster
206
678924
3524
omdat nepnieuws zich zoveel sneller, verder
11:22
and more deeply than the truth,
207
682472
2010
en dieper verspreidt dan de waarheid,
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
en je kan reclamedollars verdienen door kijkers en aandacht te trekken
11:29
with this type of information.
209
689490
1960
met dit soort informatie.
11:31
But if we can depress the spread of this information,
210
691474
3833
Maar als we de verspreiding ervan kunnen temperen,
11:35
perhaps it would reduce the economic incentive
211
695331
2897
zou dit misschien ook de economische motieven verminderen
11:38
to produce it at all in the first place.
212
698252
2690
om het in de eerste plaats te produceren.
11:40
Third, we can think about regulation,
213
700966
2500
Ten derde kunnen we nadenken over regelgeving
11:43
and certainly, we should think about this option.
214
703490
2325
en deze optie moeten we inderdaad overwegen.
11:45
In the United States, currently,
215
705839
1611
In de Verenigde Staten zijn we nu aan het onderzoeken
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
wat er kan gebeuren als Facebook en co gereguleerd worden.
11:52
While we should consider things like regulating political speech,
217
712346
3801
Ook al zouden we het reguleren van politieke uitspraken moeten overwegen,
11:56
labeling the fact that it's political speech,
218
716171
2508
en ze labelen als 'politieke uitspraken'
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
zodat buitenlandse actoren dit soort inhoud niet kunnen financieren,
12:02
it also has its own dangers.
220
722546
2547
dan nog is dit niet zonder risico's.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
Zo heeft Maleisië net een gevangenisstraf van zes jaar ingevoerd
12:10
for anyone found spreading misinformation.
222
730424
2734
voor iedereen die desinformatie verspreidt.
12:13
And in authoritarian regimes,
223
733696
2079
En autoritaire regimes
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
kunnen dit soort maatregelen gebruiken om minderheidsstandpunten de mond te snoeren
12:20
and to continue to extend repression.
225
740489
3508
en steeds repressiever op te treden.
12:24
The fourth possible option is transparency.
226
744680
3543
De vierde mogelijkheid is transparantie.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
We willen weten hoe de algoritmes van Facebook werken.
12:32
How does the data combine with the algorithms
228
752581
2880
Hoe wordt de data gecombineerd met algoritmes
12:35
to produce the outcomes that we see?
229
755485
2838
om tot de resultaten te komen die we te zien krijgen?
12:38
We want them to open the kimono
230
758347
2349
We willen dat ze hun kimono openen
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
en ons laten meekijken achter de schermen, zodat we weten hoe Facebook precies werkt.
12:44
And if we want to know social media's effect on society,
232
764958
2779
Om de maatschappelijke impact van sociale media te kennen,
12:47
we need scientists, researchers
233
767761
2086
moeten wetenschappers, onderzoekers
12:49
and others to have access to this kind of information.
234
769871
3143
en anderen toegang krijgen tot deze informatie.
12:53
But at the same time,
235
773038
1547
Maar tegelijkertijd
12:54
we are asking Facebook to lock everything down,
236
774609
3801
vragen we Facebook om alles hermetisch af te sluiten
12:58
to keep all of the data secure.
237
778434
2173
zodat alle data veilig wordt bewaard.
13:00
So, Facebook and the other social media platforms
238
780631
3159
Dus Facebook en andere socialemediaplatformen
13:03
are facing what I call a transparency paradox.
239
783814
3134
staan voor wat ik een transparantieparadox zou noemen.
13:07
We are asking them, at the same time,
240
787266
2674
We vragen hen tegelijkertijd
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
om open en transparant te zijn én om veilig te zijn.
13:14
This is a very difficult needle to thread,
242
794797
2691
Dit is een hele moeilijke oefening,
13:17
but they will need to thread this needle
243
797512
1913
maar ze zullen een oplossing moeten vinden
13:19
if we are to achieve the promise of social technologies
244
799449
3787
als we willen profiteren van de voordelen van sociale technologieën
13:23
while avoiding their peril.
245
803260
1642
zonder de risico's erbij te nemen.
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
Een laatste denkpiste, dat zijn algoritmes en machine learning:
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
technologie om nepnieuws uit te roeien, de verspreiding ervan te begrijpen,
13:34
and to try and dampen its flow.
248
814942
2331
en de creatie ervan aan banden te leggen.
13:37
Humans have to be in the loop of this technology,
249
817824
2897
Mensen moeten op de hoogte zijn van deze technologie,
13:40
because we can never escape
250
820745
2278
omdat we nooit kunnen ontsnappen aan het feit
13:43
that underlying any technological solution or approach
251
823047
4038
dat onder elke technologische oplossing of aanpak
13:47
is a fundamental ethical and philosophical question
252
827109
4047
een fundamenteel ethische en filosofische kwestie ligt
13:51
about how do we define truth and falsity,
253
831180
3270
over hoe we 'waarheid' en 'onwaarheid' definiëren,
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
aan wie we de macht geven om dit te definiëren,
13:57
and which opinions are legitimate,
255
837678
2460
en welke standpunten legitiem zijn,
14:00
which type of speech should be allowed and so on.
256
840162
3706
welke uitdrukkingsvormen moeten worden toegelaten, enzovoort.
14:03
Technology is not a solution for that.
257
843892
2328
Daarvoor biedt technologie geen oplossing.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
Ethiek en filosofie doen dat wel.
14:10
Nearly every theory of human decision making,
259
850950
3318
Bijna elke theorie over menselijke besluitvorming,
14:14
human cooperation and human coordination
260
854292
2761
menselijke samenwerking en coördinatie
14:17
has some sense of the truth at its core.
261
857077
3674
bevat in de kern een deel van de waarheid.
14:21
But with the rise of fake news,
262
861347
2056
Maar de toename van nepnieuws,
14:23
the rise of fake video,
263
863427
1443
nepvideo's
14:24
the rise of fake audio,
264
864894
1882
en audiomateriaal
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
doet ons wankelen op de rand van de werkelijkheid,
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
waar we niet meer in staat zijn om 'waar' van 'onwaar' te onderscheiden.
14:34
And that's potentially incredibly dangerous.
267
874661
3039
En dat kan heel gevaarlijk zijn.
14:38
We have to be vigilant in defending the truth
268
878931
3948
We moeten waakzaam zijn en de waarheid beschermen
14:42
against misinformation.
269
882903
1534
tegen desinformatie.
14:44
With our technologies, with our policies
270
884919
3436
Met onze technologieën, ons beleid,
14:48
and, perhaps most importantly,
271
888379
1920
en, misschien nog belangrijker,
14:50
with our own individual responsibilities,
272
890323
3214
met onze individuele verantwoordelijkheden,
14:53
decisions, behaviors and actions.
273
893561
3555
beslissingen, gedragingen en handelingen.
14:57
Thank you very much.
274
897553
1437
Bedankt.
14:59
(Applause)
275
899014
3517
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7