Dear Facebook, this is how you're breaking democracy | Yael Eisenstat

114,784 views ・ 2020-09-24

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Ruth Compernol Nagekeken door: Peter Van de Ven
00:13
Around five years ago,
0
13000
2018
Zo'n vijf jaar geleden
00:15
it struck me that I was losing the ability
1
15042
2392
merkte ik dat ik steeds minder in staat was
00:17
to engage with people who aren't like-minded.
2
17458
2500
met mensen om te gaan die andersgezind zijn.
00:20
The idea of discussing hot-button issues with my fellow Americans
3
20917
3642
Het bespreken van hete hangijzers met landgenoten
00:24
was starting to give me more heartburn
4
24583
2393
begon me moeilijker te vallen
00:27
than the times that I engaged with suspected extremists overseas.
5
27000
4125
dan mijn gesprekken met verdachte extremisten uit andere landen.
00:31
It was starting to leave me feeling more embittered and frustrated.
6
31750
3601
Ik voelde me steeds bitterder en gefrustreerder.
00:35
And so just like that,
7
35375
1434
En daarom verlegde ik mijn focus
00:36
I shifted my entire focus
8
36833
1810
00:38
from global national security threats
9
38667
2434
van bedreigingen voor de nationale veiligheid
00:41
to trying to understand what was causing this push
10
41125
3226
naar de vraag wat aan de basis lag
00:44
towards extreme polarization at home.
11
44375
3226
van de steeds extremere polarisatie in mijn thuisland.
00:47
As a former CIA officer and diplomat
12
47625
2351
Als voormalig CIA-officier en diplomaat
00:50
who spent years working on counterextremism issues,
13
50000
3434
die jarenlang extremisme hielp te bestrijden,
00:53
I started to fear that this was becoming a far greater threat to our democracy
14
53458
3851
vreesde ik dat dit onze democratie veel meer begon te bedreigen
00:57
than any foreign adversary.
15
57333
2518
dan eender welke buitenlandse tegenstander.
00:59
And so I started digging in,
16
59875
1809
Dus begon ik onderzoek te doen en mij uit te spreken,
01:01
and I started speaking out,
17
61708
1518
01:03
which eventually led me to being hired at Facebook
18
63250
2809
waardoor ik werd aangenomen door Facebook
01:06
and ultimately brought me here today
19
66083
2685
en hier vandaag voor jullie sta
01:08
to continue warning you about how these platforms
20
68792
2809
om jullie te waarschuwen over hoe deze platforms
01:11
are manipulating and radicalizing so many of us
21
71625
4018
velen van ons manipuleren en radicaliseren
01:15
and to talk about how to reclaim our public square.
22
75667
2958
en om te bespreken hoe we het publieke debat kunnen terugwinnen.
01:19
I was a foreign service officer in Kenya
23
79625
1976
Ik werkte als dienstofficier in Kenia
01:21
just a few years after the September 11 attacks,
24
81625
3059
een paar jaar na de aanslagen van 11 september
01:24
and I led what some call "hearts and minds" campaigns
25
84708
2560
en leidde de campagnes genaamd Hearts and Minds
01:27
along the Somalia border.
26
87292
1934
aan de grens van Somalië.
01:29
A big part of my job was to build trust with communities
27
89250
3309
Ik bouwde een vertrouwensrelatie op met de gemeenschappen
01:32
deemed the most susceptible to extremist messaging.
28
92583
2709
die het vatbaarst waren voor extremistische berichtgeving.
01:36
I spent hours drinking tea with outspoken anti-Western clerics
29
96125
4184
Ik heb urenlang thee gedronken met uitgesproken anti-westerse geestelijken
01:40
and even dialogued with some suspected terrorists,
30
100333
3226
en ging zelfs in dialoog met enkele verdachte terroristen,
01:43
and while many of these engagements began with mutual suspicion,
31
103583
3393
en hoewel veel van deze contacten begonnen met wederzijdse achterdocht,
01:47
I don't recall any of them resulting in shouting or insults,
32
107000
3809
herinner ik me niet dat dit ooit eindigde met geschreeuw of beledigingen,
01:50
and in some case we even worked together on areas of mutual interest.
33
110833
4084
en soms werkten we zelfs samen als er sprake was van wederzijds belang.
01:56
The most powerful tools we had were to simply listen, learn
34
116000
4143
Onze krachtigste instrumenten waren om gewoon te luisteren, te leren
02:00
and build empathy.
35
120167
1726
en empathie op te bouwen.
02:01
This is the essence of hearts and minds work,
36
121917
3059
Dit is de essentie van Hearts and Minds,
02:05
because what I found again and again is that what most people wanted
37
125000
3268
want wat ik steeds weer ondervond is dat de meeste mensen
02:08
was to feel heard, validated and respected.
38
128292
3767
gehoord, gevalideerd en gerespecteerd willen worden.
02:12
And I believe that's what most of us want.
39
132083
2643
En ik geloof dat de meesten van ons dat willen.
02:14
So what I see happening online today is especially heartbreaking
40
134750
3309
Dus wat ik vandaag online zie gebeuren is hartverscheurend
02:18
and a much harder problem to tackle.
41
138083
2084
en veel moeilijker aan te pakken.
02:20
We are being manipulated by the current information ecosystem
42
140917
3767
We worden gemanipuleerd door het huidige informatie-ecosysteem,
02:24
entrenching so many of us so far into absolutism
43
144708
3768
waardoor velen van ons ons zover ingraven in absolutisme
02:28
that compromise has become a dirty word.
44
148500
2976
dat compromis een vies woord is geworden.
02:31
Because right now,
45
151500
1309
Want momenteel profiteren social media als Facebook
02:32
social media companies like Facebook
46
152833
2143
02:35
profit off of segmenting us and feeding us personalized content
47
155000
3851
van de segmentatie van burgers door ons gepersonaliseerde inhoud te tonen
02:38
that both validates and exploits our biases.
48
158875
3851
die onze vooroordelen bevestigt en uitbuit.
02:42
Their bottom line depends on provoking a strong emotion
49
162750
3434
Hun doel is om een sterke emotie uit te lokken
02:46
to keep us engaged,
50
166208
1685
om onze aandacht vast te houden.
02:47
often incentivizing the most inflammatory and polarizing voices,
51
167917
4267
Daardoor krijgen de meest opruiende en polariserende stemmen de bovenhand,
02:52
to the point where finding common ground no longer feels possible.
52
172208
4435
tot het bijna onmogelijk wordt om nog raakvlakken te vinden.
02:56
And despite a growing chorus of people crying out for the platforms to change,
53
176667
4226
En ondanks de stijgende vraag naar een verandering van de platforms
03:00
it's clear they will not do enough on their own.
54
180917
3309
is het duidelijk dat ze in hun eentje niet genoeg zullen doen.
03:04
So governments must define the responsibility
55
184250
2893
Dus regeringen moeten de verantwoordelijkheid definiëren
03:07
for the real-world harms being caused by these business models
56
187167
3809
voor de reële schade die wordt veroorzaakt door deze bedrijfsmodellen
03:11
and impose real costs on the damaging effects
57
191000
2768
en kosten opleggen voor de schadelijke gevolgen
03:13
they're having to our public health, our public square and our democracy.
58
193792
5309
voor onze volksgezondheid, ons publieke debat en onze democratie.
03:19
But unfortunately, this won't happen in time for the US presidential election,
59
199125
4643
Helaas zal dit niet meer gebeuren voor de Amerikaanse presidentsverkiezingen
03:23
so I am continuing to raise this alarm,
60
203792
2767
dus blijf ik aan de alarmbel trekken,
03:26
because even if one day we do have strong rules in place,
61
206583
3060
want zelfs als we ooit een sterke regelgeving krijgen,
03:29
it will take all of us to fix this.
62
209667
2750
is de inzet van elk van ons nodig om dit op te lossen.
03:33
When I started shifting my focus from threats abroad
63
213417
2601
Toen ik mijn focus verlegde van buitenlandse dreigingen
03:36
to the breakdown in civil discourse at home,
64
216042
2142
naar de afbraak van ons eigen maatschappelijk debat,
03:38
I wondered if we could repurpose some of these hearts and minds campaigns
65
218208
4060
vroeg ik me af of we de campagnes van Hearts and Minds konden hergebruiken
03:42
to help heal our divides.
66
222292
2101
om iets aan onze verdeeldheid te doen.
03:44
Our more than 200-year experiment with democracy works
67
224417
3809
Ons democratische experiment van meer dan 200 jaar werkt grotendeels
03:48
in large part because we are able to openly and passionately
68
228250
3893
omdat we in staat zijn openlijk en gepassioneerd onze ideeën te bespreken,
03:52
debate our ideas for the best solutions.
69
232167
2809
op zoek naar de beste oplossing.
03:55
But while I still deeply believe
70
235000
1809
Maar hoewel ik nog steeds diep geloof
03:56
in the power of face-to-face civil discourse,
71
236833
2268
in de kracht van een respectvol debat,
03:59
it just cannot compete
72
239125
1643
kan het gewoon niet concurreren
04:00
with the polarizing effects and scale of social media right now.
73
240792
3809
met de polariserende effecten en de omvang van social media.
04:04
The people who are sucked down these rabbit holes
74
244625
2351
De mensen die worden meegezogen in de verontwaardiging op social media
04:07
of social media outrage
75
247000
1309
04:08
often feel far harder to break of their ideological mindsets
76
248333
3643
kunnen vaak veel moeilijker afstand doen van hun ideologieën
04:12
than those vulnerable communities I worked with ever were.
77
252000
3476
dan ooit het geval was bij de kwetsbare gemeenschappen waarmee ik werkte.
04:15
So when Facebook called me in 2018
78
255500
2309
Dus toen Facebook me in 2018 opbelde en me vroeg de leiding te nemen
04:17
and offered me this role
79
257833
1310
04:19
heading its elections integrity operations for political advertising,
80
259167
3976
over haar activiteiten inzake de integriteit van politieke advertenties,
04:23
I felt I had to say yes.
81
263167
2017
vond ik dat ik ja moest zeggen.
04:25
I had no illusions that I would fix it all,
82
265208
2726
Ik had geen illusies dat ik het allemaal zou oplossen,
04:27
but when offered the opportunity
83
267958
1643
maar als ik de mogelijkheid kreeg het schip in een betere richting te sturen
04:29
to help steer the ship in a better direction,
84
269625
2184
04:31
I had to at least try.
85
271833
1542
moest ik het op zijn minst proberen.
04:34
I didn't work directly on polarization,
86
274667
2267
Ik werkte niet direct rond polarisatie,
04:36
but I did look at which issues were the most divisive in our society
87
276958
4435
maar onderzocht wel welke kwesties de meeste sociale verdeeldheid zaaien
04:41
and therefore the most exploitable in elections interference efforts,
88
281417
3809
en dus makkelijk kunnen worden uitgebuit om de verkiezingen te beïnvloeden,
04:45
which was Russia's tactic ahead of 2016.
89
285250
2583
wat de tactiek van Rusland was in de aanloop naar 2016.
04:48
So I started by asking questions.
90
288583
2351
Dus begon ik vragen te stellen.
04:50
I wanted to understand the underlying systemic issues
91
290958
2893
Ik wou de onderliggende systemische problemen begrijpen
04:53
that were allowing all of this to happen,
92
293875
2434
die dit konden laten gebeuren en uitzoeken hoe dit te verhelpen.
04:56
in order to figure out how to fix it.
93
296333
2084
04:59
Now I still do believe in the power of the internet
94
299625
2559
Nu geloof ik nog steeds in de kracht van het internet
05:02
to bring more voices to the table,
95
302208
2518
om meer stemmen te laten horen,
05:04
but despite their stated goal of building community,
96
304750
3101
maar ondanks hun doel om een gemeenschap uit te bouwen,
05:07
the largest social media companies as currently constructed
97
307875
3309
zijn de grote socialemediabedrijven in hun huidige vorm
05:11
are antithetical to the concept of reasoned discourse.
98
311208
3601
onverzoenbaar met het idee van een redelijk discours.
05:14
There's no way to reward listening,
99
314833
2518
Het is onmogelijk om luisteren te belonen,
05:17
to encourage civil debate
100
317375
1601
een civiel debat aan te moedigen
05:19
and to protect people who sincerely want to ask questions
101
319000
3643
en mensen te beschermen die oprecht vragen willen stellen
05:22
in a business where optimizing engagement and user growth
102
322667
3351
in een sector waar meer betrokkenheid en meer gebruikers
05:26
are the two most important metrics for success.
103
326042
3226
de twee belangrijkste maatstaven voor succes zijn.
05:29
There's no incentive to help people slow down,
104
329292
3434
Er is geen stimulans om mensen te helpen vertragen,
05:32
to build in enough friction that people have to stop,
105
332750
3226
om genoeg frictie in te bouwen zodat mensen moeten stoppen,
05:36
recognize their emotional reaction to something,
106
336000
2601
zich bewust worden van hun emotionele reactie
05:38
and question their own assumptions before engaging.
107
338625
2667
en hun eigen aannames in vraag te stellen voor ze reageren.
05:42
The unfortunate reality is:
108
342625
1976
De ongelukkige realiteit is:
05:44
lies are more engaging online than truth,
109
344625
2893
online zijn leugens aanlokkelijker dan de waarheid,
05:47
and salaciousness beats out wonky, fact-based reasoning
110
347542
3726
en schunnigheid overtroeft een feitelijke redenering
05:51
in a world optimized for frictionless virality.
111
351292
3041
in een wereld die gericht is op frictieloze viraliteit.
05:55
As long as algorithms' goals are to keep us engaged,
112
355167
3434
Zolang algoritmes als doel hebben onze aandacht vast te houden,
05:58
they will continue to feed us the poison that plays to our worst instincts
113
358625
4059
zullen ze ons blijven vergiftigen door in te spelen op onze laagste instincten
06:02
and human weaknesses.
114
362708
1459
en menselijke zwakheden.
06:04
And yes, anger, mistrust,
115
364958
3018
En ja, woede, wantrouwen,
06:08
the culture of fear, hatred:
116
368000
1726
de cultuur van angst en haat:
06:09
none of this is new in America.
117
369750
2851
niets van dit alles is nieuw in Amerika.
06:12
But in recent years, social media has harnessed all of that
118
372625
3351
Maar de afgelopen jaren hebben social media dit allemaal verscherpt
06:16
and, as I see it, dramatically tipped the scales.
119
376000
3601
en, zoals ik het zie, de weegschaal dramatisch doen kantelen.
06:19
And Facebook knows it.
120
379625
2393
En Facebook weet het.
06:22
A recent "Wall Street Journal" article
121
382042
1892
Een artikel in de Wall Street Journal
06:23
exposed an internal Facebook presentation from 2018
122
383958
4143
bracht een interne Facebook-presentatie uit 2018 aan het licht
06:28
that specifically points to the companies' own algorithms
123
388125
3768
die de algoritmes van het bedrijf als oorzaak aanwijst
06:31
for growing extremist groups' presence on their platform
124
391917
3517
voor het stijgend aantal extremistische groeperingen op hun platform
06:35
and for polarizing their users.
125
395458
2167
en de polarisering van hun gebruikers.
06:38
But keeping us engaged is how they make their money.
126
398708
3685
Maar onze aandacht vasthouden is hoe ze geld verdienen.
06:42
The modern information environment is crystallized around profiling us
127
402417
4226
De moderne informatie-omgeving draait om de profilering van gebruikers
06:46
and then segmenting us into more and more narrow categories
128
406667
2976
om ons te segmenteren in steeds engere categorieën
06:49
to perfect this personalization process.
129
409667
3309
om dit proces van personalisering te perfectioneren.
06:53
We're then bombarded with information confirming our views,
130
413000
3809
Zo worden we gebombardeerd met informatie die onze standpunten bevestigt,
06:56
reinforcing our biases,
131
416833
1851
onze vooroordelen versterkt,
06:58
and making us feel like we belong to something.
132
418708
3518
en ons het gevoel geeft ergens bij te horen.
07:02
These are the same tactics we would see terrorist recruiters
133
422250
3393
Dezelfde tactieken worden gebruikt voor de rekrutering van terroristen
07:05
using on vulnerable youth,
134
425667
2184
waarbij men aast op kwetsbare jongeren,
07:07
albeit in smaller, more localized ways before social media,
135
427875
3851
zij het op kleinere, lokalere schaal voor de opkomst van social media,
07:11
with the ultimate goal of persuading their behavior.
136
431750
3268
met als uiteindelijk doel hun gedrag te beïnvloeden.
07:15
Unfortunately, I was never empowered by Facebook to have an actual impact.
137
435042
5267
Helaas heb ik van Facebook nooit de kans gekregen om reële impact te hebben.
07:20
In fact, on my second day, my title and job description were changed
138
440333
3768
Op mijn tweede werkdag werden mijn titel en functieomschrijving al veranderd
07:24
and I was cut out of decision-making meetings.
139
444125
2976
en werd ik geweerd uit comités die beslissingen konden nemen.
07:27
My biggest efforts,
140
447125
1309
Mijn grootste inspanningen,
07:28
trying to build plans
141
448458
1393
mijn plannen voor het bestrijden van desinformatie
07:29
to combat disinformation and voter suppression in political ads,
142
449875
3601
en misleiding van kiezers bij politieke advertenties
07:33
were rejected.
143
453500
1559
werden afgewezen.
07:35
And so I lasted just shy of six months.
144
455083
2500
En dus bleef ik amper zes maanden in dienst.
07:38
But here is my biggest takeaway from my time there.
145
458125
3601
Maar dit is mijn grootste les van mijn tijd in het bedrijf.
07:41
There are thousands of people at Facebook
146
461750
2476
Er zijn duizenden mensen bij Facebook
07:44
who are passionately working on a product
147
464250
2018
die vol passie aan een product werken
07:46
that they truly believe makes the world a better place,
148
466292
3684
waarvan ze echt geloven dat de wereld er beter van wordt,
07:50
but as long as the company continues to merely tinker around the margins
149
470000
3684
maar zolang het bedrijf zich enkel bezighoudt met wat gepriegel in de marge
07:53
of content policy and moderation,
150
473708
2726
van content policy en matiging,
07:56
as opposed to considering
151
476458
1310
in plaats van in te zien
07:57
how the entire machine is designed and monetized,
152
477792
3226
hoe de hele machine is ontworpen en gemonetiseerd,
08:01
they will never truly address how the platform is contributing
153
481042
3351
zullen ze nooit echt werk maken van hoe het platform bijdraagt
08:04
to hatred, division and radicalization.
154
484417
4184
aan haat, verdeeldheid en radicalisering.
08:08
And that's the one conversation I never heard happen during my time there,
155
488625
4268
En dat is het enige gesprek dat ik nooit heb weten voeren toen ik er werkte,
08:12
because that would require fundamentally accepting
156
492917
3059
omdat dat zou vereisen dat je principieel aanvaardt
08:16
that the thing you built might not be the best thing for society
157
496000
4143
dat wat je hebt gecreëerd
misschien toch niet zo goed is voor de maatschappij
08:20
and agreeing to alter the entire product and profit model.
158
500167
3125
en akkoord gaat om het hele product- en winstmodel te veranderen.
08:24
So what can we do about this?
159
504500
1833
Wat kunnen we hieraan doen?
08:27
I'm not saying that social media bears the sole responsibility
160
507042
3601
Ik zeg niet dat social media als enige verantwoordelijk zijn
08:30
for the state that we're in today.
161
510667
2142
voor de situatie waarin we ons bevinden.
08:32
Clearly, we have deep-seated societal issues that we need to solve.
162
512833
5435
We hebben duidelijk diepgewortelde sociale problemen die we moeten oplossen.
08:38
But Facebook's response, that it is just a mirror to society,
163
518292
4142
Maar Facebooks reactie dat het slechts een spiegel is van de maatschappij,
08:42
is a convenient attempt to deflect any responsibility
164
522458
3018
is een gemakkelijke poging elke verantwoordelijkheid af te schuiven
08:45
from the way their platform is amplifying harmful content
165
525500
4268
van de manier waarop hun platform schadelijke inhoud versterkt
08:49
and pushing some users towards extreme views.
166
529792
3041
en sommige gebruikers in de richting van extreme standpunten duwt.
08:53
And Facebook could, if they wanted to,
167
533583
2851
En Facebook kan, als het dat wil,
08:56
fix some of this.
168
536458
1851
een deel van de problemen oplossen.
08:58
They could stop amplifying and recommending the conspiracy theorists,
169
538333
3851
Ze zouden kunnen stoppen met het promoten van samenzweringstheorieën,
09:02
the hate groups, the purveyors of disinformation
170
542208
2685
haatgroepen, makers van desinformatie
09:04
and, yes, in some cases even our president.
171
544917
3851
en ja, in sommige gevallen zelfs onze president.
09:08
They could stop using the same personalization techniques
172
548792
3392
Ze kunnen stoppen dezelfde personalisatietechnieken te gebruiken
09:12
to deliver political rhetoric that they use to sell us sneakers.
173
552208
4226
voor politieke retoriek die ze gebruiken om schoenen te verkopen.
09:16
They could retrain their algorithms
174
556458
1726
Ze kunnen hun algoritmes zo aanpassen
09:18
to focus on a metric other than engagement,
175
558208
2185
dat ze op iets anders focussen dan betrokkenheid
09:20
and they could build in guardrails to stop certain content from going viral
176
560417
4309
en drempels inbouwen zodat bepaalde inhoud niet viraal kan gaan
09:24
before being reviewed.
177
564750
1667
voor hij wordt geëvalueerd.
09:26
And they could do all of this
178
566875
2268
Ze kunnen dit allemaal doen
09:29
without becoming what they call the arbiters of truth.
179
569167
4184
zonder 'de scheidsrechter van de waarheid' te worden, zoals ze zelf beweren.
09:33
But they've made it clear that they will not go far enough
180
573375
2809
Maar ze hebben duidelijk gemaakt dat ze niet ver genoeg willen gaan
09:36
to do the right thing without being forced to,
181
576208
2810
om het juiste te doen als ze niet worden gedwongen.
09:39
and, to be frank, why should they?
182
579042
2934
En waarom zouden ze ook?
09:42
The markets keep rewarding them, and they're not breaking the law.
183
582000
3934
De markten blijven hen belonen, en ze overtreden de wet niet.
09:45
Because as it stands,
184
585958
1310
Want momenteel
09:47
there are no US laws compelling Facebook, or any social media company,
185
587292
4892
zijn er geen wetten in de VS die Facebook of andere social media dwingen
09:52
to protect our public square,
186
592208
1768
het publieke debat te beschermen,
09:54
our democracy
187
594000
1309
evenals onze democratie
09:55
and even our elections.
188
595333
2435
en zelfs onze verkiezingen.
09:57
We have ceded the decision-making on what rules to write and what to enforce
189
597792
4101
De vraag welke regels gerespecteerd en afgedwongen moeten worden,
10:01
to the CEOs of for-profit internet companies.
190
601917
3083
laten we over aan de CEO's van commerciële internetbedrijven.
10:05
Is this what we want?
191
605750
2018
Is dit wat we willen?
10:07
A post-truth world where toxicity and tribalism
192
607792
3226
Een wereld zonder waarheid, waar toxiciteit en tribalisme
10:11
trump bridge-building and consensus-seeking?
193
611042
2625
onze zoektocht naar consensus onmogelijk maken?
10:14
I do remain optimistic that we still have more in common with each other
194
614667
4101
Ik blijf geloven dat we nog steeds meer met elkaar gemeen hebben
10:18
than the current media and online environment portray,
195
618792
3642
dan de huidige media en online-omgeving ons willen doen geloven.
10:22
and I do believe that having more perspective surface
196
622458
3101
Ik geloof ook dat meer perspectieven
10:25
makes for a more robust and inclusive democracy.
197
625583
3601
zorgen voor een meer robuuste en inclusieve democratie.
10:29
But not the way it's happening right now.
198
629208
2810
Maar dat is niet wat momenteel gebeurt.
10:32
And it bears emphasizing, I do not want to kill off these companies.
199
632042
4226
En ik wil benadrukken dat ik deze bedrijven niet kapot wil maken.
10:36
I just want them held to a certain level of accountability,
200
636292
3226
Ik wil gewoon dat ze een zekere verantwoording moeten afleggen,
10:39
just like the rest of society.
201
639542
1916
net als de rest van de samenleving.
10:42
It is time for our governments to step up and do their jobs
202
642542
4351
Het is tijd dat onze regeringen wakker worden en hun werk doen
10:46
of protecting our citizenry.
203
646917
1642
om hun burgers te beschermen.
10:48
And while there isn't one magical piece of legislation
204
648583
3060
En hoewel er geen magische wetgeving is die dit alles zal oplossen,
10:51
that will fix this all,
205
651667
1476
10:53
I do believe that governments can and must find the balance
206
653167
4684
geloof ik wel dat regeringen een balans kunnen en moeten vinden
10:57
between protecting free speech
207
657875
2143
tussen de vrije meningsuiting beschermen
11:00
and holding these platforms accountable for their effects on society.
208
660042
4309
en deze platforms ter verantwoording roepen voor hun effect op de samenleving.
11:04
And they could do so in part by insisting on actual transparency
209
664375
4309
Ze zouden dat deels kunnen doen door aan te dringen op echte transparantie
11:08
around how these recommendation engines are working,
210
668708
3143
over hoe deze machines bepaalde inhoud promoten,
11:11
around how the curation, amplification and targeting are happening.
211
671875
4643
over hoe informatie wordt gecureerd, versterkt en afgevuurd op doelgroepen.
11:16
You see, I want these companies held accountable
212
676542
2434
Ik wil dat deze bedrijven verantwoording moeten afleggen
11:19
not for if an individual posts misinformation
213
679000
3101
niet voor individuen die desinformatie verspreiden
11:22
or extreme rhetoric,
214
682125
1476
of extreme uitspraken doen,
11:23
but for how their recommendation engines spread it,
215
683625
3851
maar voor de manier waarop hun machines bepaalde info verspreiden,
11:27
how their algorithms are steering people towards it,
216
687500
3226
hoe hun algoritmes bepaalde mensen naar die info leiden,
11:30
and how their tools are used to target people with it.
217
690750
3292
en hoe ze hun systemen gebruiken om bepaalde doelgroepen te viseren.
11:35
I tried to make change from within Facebook and failed,
218
695417
3684
Ik heb getracht om verandering te creëren van binnen Facebook, maar helaas.
11:39
and so I've been using my voice again for the past few years
219
699125
3143
Dus gebruik ik sinds een paar jaar weer mijn stem
11:42
to continue sounding this alarm
220
702292
2226
om dit onder de aandacht te brengen
11:44
and hopefully inspire more people to demand this accountability.
221
704542
4392
en hopelijk meer mensen te inspireren om verantwoording te eisen.
11:48
My message to you is simple:
222
708958
2643
Mijn boodschap aan jullie is eenvoudig:
11:51
pressure your government representatives
223
711625
2184
oefen druk uit op de overheid
11:53
to step up and stop ceding our public square to for-profit interests.
224
713833
5435
om te verhinderen dat ons publieke debat wordt gestuurd door commerciële belangen.
11:59
Help educate your friends and family
225
719292
1851
Help vrienden en familie inzien hoe ze online worden gemanipuleerd.
12:01
about how they're being manipulated online.
226
721167
3142
12:04
Push yourselves to engage with people who aren't like-minded.
227
724333
3518
Ga het gesprek aan met mensen die niet gelijkgezind zijn.
12:07
Make this issue a priority.
228
727875
2643
Maak van deze kwestie een prioriteit.
12:10
We need a whole-society approach to fix this.
229
730542
3416
We moeten dit probleem als samenleving aanpakken.
12:15
And my message to the leaders of my former employer Facebook is this:
230
735250
5559
En mijn boodschap aan de leiders van mijn vroegere werkgever Facebook is:
12:20
right now, people are using your tools exactly as they were designed
231
740833
5810
momenteel gebruiken mensen je systemen precies zoals die zijn ontworpen,
12:26
to sow hatred, division and distrust,
232
746667
2601
om haat, verdeeldheid en wantrouwen te zaaien,
12:29
and you're not just allowing it, you are enabling it.
233
749292
4142
en je laat het niet alleen toe, je houdt het zelf in stand.
12:33
And yes, there are lots of great stories
234
753458
2476
En ja, er zijn veel mooie verhalen
12:35
of positive things happening on your platform around the globe,
235
755958
3685
van positieve dingen die wereldwijd op je platform gebeuren,
12:39
but that doesn't make any of this OK.
236
759667
3226
maar dat maakt dit allemaal niet goed.
12:42
And it's only getting worse as we're heading into our election,
237
762917
2976
En het wordt nog erger met de verkiezingen in zicht
12:45
and even more concerning,
238
765917
1767
en zeker nu we de grootste crisis ooit riskeren
12:47
face our biggest potential crisis yet,
239
767708
2476
12:50
if the results aren't trusted, and if violence breaks out.
240
770208
4143
als de resultaten onbetrouwbaar zijn en er geweld uitbreekt.
12:54
So when in 2021 you once again say, "We know we have to do better,"
241
774375
5018
Dus als je in 2021 opnieuw zegt "We weten dat we het beter moeten doen",
12:59
I want you to remember this moment,
242
779417
2684
wil ik dat je aan dit moment terugdenkt,
want het gaat al lang niet meer om een paar buitenbeentjes.
13:02
because it's no longer just a few outlier voices.
243
782125
3226
13:05
Civil rights leaders, academics,
244
785375
2268
Burgerrechtenactivisten, academici,
13:07
journalists, advertisers, your own employees,
245
787667
2976
journalisten, adverteerders, je eigen personeel,
13:10
are shouting from the rooftops
246
790667
2059
ze schreeuwen allemaal van de daken
13:12
that your policies and your business practices
247
792750
2601
dat je beleid en bedrijfspraktijken schadelijk zijn voor mens en democratie.
13:15
are harming people and democracy.
248
795375
2417
13:18
You own your decisions,
249
798875
2351
Jij bent verantwoordelijk voor je beslissingen,
13:21
but you can no longer say that you couldn't have seen it coming.
250
801250
3667
maar kom achteraf niet zeggen dat je dit niet had zien aankomen.
13:26
Thank you.
251
806167
1250
Bedankt.
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7