Dear Facebook, this is how you're breaking democracy | Yael Eisenstat

114,784 views ・ 2020-09-24

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Lilja Orlandi Revisore: Silvia Monti
Circa cinque anni fa,
00:13
Around five years ago,
0
13000
2018
ho notato che stavo perdendo la capacità
00:15
it struck me that I was losing the ability
1
15042
2392
00:17
to engage with people who aren't like-minded.
2
17458
2500
di interagire con le persone che la pensavano in modo diverso.
00:20
The idea of discussing hot-button issues with my fellow Americans
3
20917
3642
L'idea di discutere su questioni scottanti con i miei concittadini americani
00:24
was starting to give me more heartburn
4
24583
2393
iniziava a darmi più bruciori di stomaco
delle volte in cui avevo avuto a che fare con sospetti estremisti all'estero.
00:27
than the times that I engaged with suspected extremists overseas.
5
27000
4125
00:31
It was starting to leave me feeling more embittered and frustrated.
6
31750
3601
Stava iniziando a farmi sentire più amareggiata e frustrata.
00:35
And so just like that,
7
35375
1434
E così,
00:36
I shifted my entire focus
8
36833
1810
ho spostato tutta la mia attenzione
00:38
from global national security threats
9
38667
2434
dalle minacce globali alla sicurezza nazionale
al cercare di capire cosa stesse causando questa spinta
00:41
to trying to understand what was causing this push
10
41125
3226
00:44
towards extreme polarization at home.
11
44375
3226
verso un'estrema polarizzazione nel mio Paese.
00:47
As a former CIA officer and diplomat
12
47625
2351
Come ex agente della CIA e diplomatica
che ha passato anni a lavorare su problematiche anti-estremiste,
00:50
who spent years working on counterextremism issues,
13
50000
3434
00:53
I started to fear that this was becoming a far greater threat to our democracy
14
53458
3851
ho iniziato a temere che questa stesse diventando
una minaccia assai più grande per la nostra democrazia
00:57
than any foreign adversary.
15
57333
2518
di qualsiasi nemico straniero.
00:59
And so I started digging in,
16
59875
1809
Perciò ho iniziato a fare ricerche
01:01
and I started speaking out,
17
61708
1518
e a parlarne apertamente,
01:03
which eventually led me to being hired at Facebook
18
63250
2809
cosa che mi ha portata a essere assunta da Facebook
e, infine, a essere qui oggi
01:06
and ultimately brought me here today
19
66083
2685
01:08
to continue warning you about how these platforms
20
68792
2809
per continuare a mettervi in guardia su come queste piattaforme
01:11
are manipulating and radicalizing so many of us
21
71625
4018
stiano manipolando e radicalizzando così tanti di noi,
01:15
and to talk about how to reclaim our public square.
22
75667
2958
e per parlare di come riappropriarci della nostra piazza pubblica.
01:19
I was a foreign service officer in Kenya
23
79625
1976
Sono stata un funzionario estero in Kenya
01:21
just a few years after the September 11 attacks,
24
81625
3059
qualche anno dopo l'attacco dell'11 settembre,
01:24
and I led what some call "hearts and minds" campaigns
25
84708
2560
e ho guidato quelle che alcuni chiamano campagne "dei cuori e delle menti"
01:27
along the Somalia border.
26
87292
1934
lungo il confine somalo.
01:29
A big part of my job was to build trust with communities
27
89250
3309
Gran parte del mio lavoro consisteva nel costruire un rapporto di fiducia
01:32
deemed the most susceptible to extremist messaging.
28
92583
2709
con le comunità ritenute più sensibili ai messaggi estremisti.
Ho passato ore a bere tè con dichiarati esponenti antioccidentali.
01:36
I spent hours drinking tea with outspoken anti-Western clerics
29
96125
4184
01:40
and even dialogued with some suspected terrorists,
30
100333
3226
Mi sono anche confrontata con dei sospetti terroristi.
01:43
and while many of these engagements began with mutual suspicion,
31
103583
3393
Sebbene molte di queste interazioni siano iniziate con sospetto reciproco,
non ricordo che nessuna di esse sia mai sfociata in urla o insulti.
01:47
I don't recall any of them resulting in shouting or insults,
32
107000
3809
01:50
and in some case we even worked together on areas of mutual interest.
33
110833
4084
In alcuni casi, abbiamo addirittura lavorato insieme
su aree di comune interesse.
L'arma più potente che avevamo
01:56
The most powerful tools we had were to simply listen, learn
34
116000
4143
era semplicemente ascoltare, imparare e creare empatia.
02:00
and build empathy.
35
120167
1726
02:01
This is the essence of hearts and minds work,
36
121917
3059
Questa è l'essenza del lavoro dei cuori e delle menti,
perché quello che ho riscontrato di continuo
02:05
because what I found again and again is that what most people wanted
37
125000
3268
è che ciò che la maggior parte delle persone voleva
02:08
was to feel heard, validated and respected.
38
128292
3767
era sentirsi ascoltata, approvata e rispettata.
E credo che sia anche ciò che molti di noi vogliono.
02:12
And I believe that's what most of us want.
39
132083
2643
02:14
So what I see happening online today is especially heartbreaking
40
134750
3309
Quello che vedo accadere oggi online è straziante
ed è un problema molto più difficile da affrontare.
02:18
and a much harder problem to tackle.
41
138083
2084
02:20
We are being manipulated by the current information ecosystem
42
140917
3767
Veniamo manipolati dall'attuale ecosistema dell'informazione,
02:24
entrenching so many of us so far into absolutism
43
144708
3768
il quale sta facendo trincerare molti di noi nell'assolutismo,
02:28
that compromise has become a dirty word.
44
148500
2976
al punto che "compromesso" è diventata una parolaccia.
02:31
Because right now,
45
151500
1309
Perché, ora come ora,
02:32
social media companies like Facebook
46
152833
2143
compagnie di social media come Facebook traggono profitto dal segmentarci,
02:35
profit off of segmenting us and feeding us personalized content
47
155000
3851
per poi fornirci dei contenuti personalizzati
02:38
that both validates and exploits our biases.
48
158875
3851
che confermano e allo stesso tempo sfruttano i nostri preconcetti.
02:42
Their bottom line depends on provoking a strong emotion
49
162750
3434
L'obiettivo principale è quello di provocare forti emozioni
02:46
to keep us engaged,
50
166208
1685
per tenerci impegnati,
02:47
often incentivizing the most inflammatory and polarizing voices,
51
167917
4267
spesso incentivando le voci più provocatorie e polarizzanti
02:52
to the point where finding common ground no longer feels possible.
52
172208
4435
fino al punto in cui trovare un punto d'incontro sembra impossibile.
02:56
And despite a growing chorus of people crying out for the platforms to change,
53
176667
4226
E nonostante un coro crescente di persone chieda alle piattaforme un cambiamento,
03:00
it's clear they will not do enough on their own.
54
180917
3309
è evidente che queste persone da sole non riusciranno a fare molto.
03:04
So governments must define the responsibility
55
184250
2893
Quindi i governi devono definire le responsabilità
per i danni reali che vengono causati da questi modelli di business
03:07
for the real-world harms being caused by these business models
56
187167
3809
e imporre dei costi reali sugli effetti dannosi che stanno avendo
03:11
and impose real costs on the damaging effects
57
191000
2768
03:13
they're having to our public health, our public square and our democracy.
58
193792
5309
sulla nostra sanità pubblica, sulla nostra piazza pubblica
e sulla nostra democrazia.
Purtroppo questo non avverrà in tempo per le elezioni presidenziali degli USA,
03:19
But unfortunately, this won't happen in time for the US presidential election,
59
199125
4643
03:23
so I am continuing to raise this alarm,
60
203792
2767
perciò continuerò a lanciare questo allarme,
03:26
because even if one day we do have strong rules in place,
61
206583
3060
perché anche se un giorno dovessimo avere forti norme in vigore,
03:29
it will take all of us to fix this.
62
209667
2750
ci sarà comunque bisogno dell'aiuto di tutti noi per sistemare le cose.
03:33
When I started shifting my focus from threats abroad
63
213417
2601
Quando ho iniziato a spostare la mia attenzione dalle minacce estere
03:36
to the breakdown in civil discourse at home,
64
216042
2142
alla disgregazione del dibattito civile nel mio Paese,
03:38
I wondered if we could repurpose some of these hearts and minds campaigns
65
218208
4060
mi sono chiesta se avessimo potuto riproporre
alcune di quelle campagne dei cuori e delle menti
03:42
to help heal our divides.
66
222292
2101
per risanare le nostre divergenze.
03:44
Our more than 200-year experiment with democracy works
67
224417
3809
Il nostro esperimento di oltre 200 anni con la democrazia funziona
03:48
in large part because we are able to openly and passionately
68
228250
3893
in buona parte perché siamo in grado di mettere in discussione le nostre idee,
apertamente e con passione, per trovare le soluzioni migliori.
03:52
debate our ideas for the best solutions.
69
232167
2809
Sebbene io creda profondamente
03:55
But while I still deeply believe
70
235000
1809
03:56
in the power of face-to-face civil discourse,
71
236833
2268
nel potere del dibattito civile faccia a faccia,
03:59
it just cannot compete
72
239125
1643
non può competere
04:00
with the polarizing effects and scale of social media right now.
73
240792
3809
con gli effetti polarizzanti e con la portata dei social media attuali.
04:04
The people who are sucked down these rabbit holes
74
244625
2351
Le persone che vengono risucchiate
da questo vortice di indignazione sui social media
04:07
of social media outrage
75
247000
1309
04:08
often feel far harder to break of their ideological mindsets
76
248333
3643
spesso sono più difficili da separare dalle loro mentalità ideologiche
di quanto lo siano mai state quelle comunità vulnerabili con cui ho lavorato.
04:12
than those vulnerable communities I worked with ever were.
77
252000
3476
04:15
So when Facebook called me in 2018
78
255500
2309
Perciò quando Facebook mi ha chiamata nel 2018
04:17
and offered me this role
79
257833
1310
e mi ha offerto l'incarico
di capo delle operazioni di integrità elettorale per la propaganda politica,
04:19
heading its elections integrity operations for political advertising,
80
259167
3976
04:23
I felt I had to say yes.
81
263167
2017
ho sentito che dovevo dire di sì.
04:25
I had no illusions that I would fix it all,
82
265208
2726
Sapevo che non sarei riuscita a sistemare tutto,
04:27
but when offered the opportunity
83
267958
1643
ma quando ti viene data la possibilità
04:29
to help steer the ship in a better direction,
84
269625
2184
di contribuire a guidare la nave verso una direzione migliore,
04:31
I had to at least try.
85
271833
1542
devi almeno provarci.
04:34
I didn't work directly on polarization,
86
274667
2267
Non ho lavorato direttamente sulla polarizzazione,
04:36
but I did look at which issues were the most divisive in our society
87
276958
4435
ma ho esaminato
quali sono stati i temi che hanno creato più divisione nella nostra società
04:41
and therefore the most exploitable in elections interference efforts,
88
281417
3809
e quindi i più sfruttabili nei tentativi di interferenza elettorale,
04:45
which was Russia's tactic ahead of 2016.
89
285250
2583
ovvero la tattica della Russia in vista del 2016.
04:48
So I started by asking questions.
90
288583
2351
Ho iniziato facendo delle domande.
04:50
I wanted to understand the underlying systemic issues
91
290958
2893
Volevo capire quale fosse il problema sistemico di fondo
04:53
that were allowing all of this to happen,
92
293875
2434
che stava permettendo a tutto ciò di accadere,
04:56
in order to figure out how to fix it.
93
296333
2084
in modo da pensare a come poterlo risolvere.
04:59
Now I still do believe in the power of the internet
94
299625
2559
Io credo ancora nel potere di internet,
nella sua capacità di dare spazio a più voci,
05:02
to bring more voices to the table,
95
302208
2518
05:04
but despite their stated goal of building community,
96
304750
3101
ma nonostante l'obiettivo dichiarato di costruire una comunità,
05:07
the largest social media companies as currently constructed
97
307875
3309
le più grandi compagnie di social media, per come sono fatte adesso,
05:11
are antithetical to the concept of reasoned discourse.
98
311208
3601
sono inconciliabili con il concetto di discorso ragionato.
05:14
There's no way to reward listening,
99
314833
2518
Non c'è modo di premiare l'ascolto,
05:17
to encourage civil debate
100
317375
1601
di incoraggiare un dibattito civile
e di proteggere le persone che vogliono fare delle domande in modo sincero
05:19
and to protect people who sincerely want to ask questions
101
319000
3643
05:22
in a business where optimizing engagement and user growth
102
322667
3351
in un business
in cui ottimizzare il coinvolgimento e la crescita degli utenti
05:26
are the two most important metrics for success.
103
326042
3226
sono i due parametri più importanti per il successo.
05:29
There's no incentive to help people slow down,
104
329292
3434
Non c'è nessun incentivo ad aiutare le persone a rallentare,
05:32
to build in enough friction that people have to stop,
105
332750
3226
a creare un attrito sufficiente a far sì che le persone si fermino,
riconoscano la loro reazione emotiva a qualcosa
05:36
recognize their emotional reaction to something,
106
336000
2601
05:38
and question their own assumptions before engaging.
107
338625
2667
e mettano in discussione le loro stesse ipotesi prima di partecipare.
05:42
The unfortunate reality is:
108
342625
1976
La triste realtà è
05:44
lies are more engaging online than truth,
109
344625
2893
che le bugie dette online attraggono di più della verità
05:47
and salaciousness beats out wonky, fact-based reasoning
110
347542
3726
e l'oscenità batte il traballante ragionamento basato sui fatti
05:51
in a world optimized for frictionless virality.
111
351292
3041
in un mondo ottimizzato per una viralità che non trova dissenso.
05:55
As long as algorithms' goals are to keep us engaged,
112
355167
3434
Finché gli algoritmi avranno lo scopo di attirare la nostra attenzione,
05:58
they will continue to feed us the poison that plays to our worst instincts
113
358625
4059
continueranno a nutrirci del veleno
che risveglia i nostri peggiori istinti e le debolezze umane.
06:02
and human weaknesses.
114
362708
1459
06:04
And yes, anger, mistrust,
115
364958
3018
E sì, la rabbia, la diffidenza,
la cultura della paura, il disprezzo...
06:08
the culture of fear, hatred:
116
368000
1726
06:09
none of this is new in America.
117
369750
2851
niente di tutto questo è nuovo in America.
06:12
But in recent years, social media has harnessed all of that
118
372625
3351
Ma negli ultimi anni, i social media hanno sfruttato tutto questo
e, per come la vedo io, hanno fatto inclinare la bilancia drasticamente.
06:16
and, as I see it, dramatically tipped the scales.
119
376000
3601
06:19
And Facebook knows it.
120
379625
2393
E Facebook lo sa.
Un recente articolo del "Wall Street Journal"
06:22
A recent "Wall Street Journal" article
121
382042
1892
06:23
exposed an internal Facebook presentation from 2018
122
383958
4143
ha denunciato una presentazione interna di Facebook del 2018
che evidenzia in modo particolare il ruolo degli algoritmi delle società stesse
06:28
that specifically points to the companies' own algorithms
123
388125
3768
06:31
for growing extremist groups' presence on their platform
124
391917
3517
nella crescente presenza di gruppi estremisti sulla loro piattaforma
06:35
and for polarizing their users.
125
395458
2167
e nella polarizzazione dei loro utenti.
06:38
But keeping us engaged is how they make their money.
126
398708
3685
Ma tenerci impegnati è il loro modo di guadagnare.
06:42
The modern information environment is crystallized around profiling us
127
402417
4226
L'ambiente dell'informazione moderno
è cristallizzato intorno alla nostra profilazione
06:46
and then segmenting us into more and more narrow categories
128
406667
2976
e alla nostra segmentazione
in un numero sempre maggiore di categorie più piccole
06:49
to perfect this personalization process.
129
409667
3309
per perfezionare il processo di personalizzazione.
Dopodiché, veniamo bombardati di informazioni
06:53
We're then bombarded with information confirming our views,
130
413000
3809
che confermano il nostro punto di vista, consolidano i nostri pregiudizi
06:56
reinforcing our biases,
131
416833
1851
06:58
and making us feel like we belong to something.
132
418708
3518
e ci fanno sentire come se appartenessimo a qualcosa.
07:02
These are the same tactics we would see terrorist recruiters
133
422250
3393
Queste sono le stesse tattiche che venivano usate
dai reclutatori di terroristi su giovani ragazzi vulnerabili,
07:05
using on vulnerable youth,
134
425667
2184
07:07
albeit in smaller, more localized ways before social media,
135
427875
3851
anche se in modo più piccolo e più localizzato,
prima dei social media,
07:11
with the ultimate goal of persuading their behavior.
136
431750
3268
con l'obiettivo finale di persuadere il loro comportamento.
Purtroppo non sono stata mai autorizzata da Facebook ad avere un impatto reale.
07:15
Unfortunately, I was never empowered by Facebook to have an actual impact.
137
435042
5267
07:20
In fact, on my second day, my title and job description were changed
138
440333
3768
Di fatto, il secondo giorno, il mio titolo e le mie mansioni sono stati cambiati
e sono stata tagliata fuori dalle riunioni decisionali.
07:24
and I was cut out of decision-making meetings.
139
444125
2976
07:27
My biggest efforts,
140
447125
1309
Tutti i miei sforzi per cercare di sviluppare piani
07:28
trying to build plans
141
448458
1393
07:29
to combat disinformation and voter suppression in political ads,
142
449875
3601
per combattere la disinformazione e la soppressione degli elettori
nelle inserzioni politiche
07:33
were rejected.
143
453500
1559
sono stati rigettati.
07:35
And so I lasted just shy of six months.
144
455083
2500
Sono durata poco meno di sei mesi.
Ma ecco cosa ho imparato durante il tempo trascorso lì:
07:38
But here is my biggest takeaway from my time there.
145
458125
3601
07:41
There are thousands of people at Facebook
146
461750
2476
ci sono migliaia di persone in Facebook
07:44
who are passionately working on a product
147
464250
2018
che stanno lavorando con passione su un prodotto
07:46
that they truly believe makes the world a better place,
148
466292
3684
che credono fermamente possa rendere il mondo un posto migliore,
ma fino a quando le società si limiteranno a rimanere sul vago
07:50
but as long as the company continues to merely tinker around the margins
149
470000
3684
07:53
of content policy and moderation,
150
473708
2726
riguardo alla politica dei contenuti e alla moderazione
07:56
as opposed to considering
151
476458
1310
invece di considerare com'è progettata e monetizzata l'intera macchina,
07:57
how the entire machine is designed and monetized,
152
477792
3226
non affronteranno mai il problema di come la piattaforma stia contribuendo
08:01
they will never truly address how the platform is contributing
153
481042
3351
08:04
to hatred, division and radicalization.
154
484417
4184
all'odio, alla divisione e alla radicalizzazione.
08:08
And that's the one conversation I never heard happen during my time there,
155
488625
4268
E questo è il tipo di conversazione che non è mai avvenuta mentre ero lì,
08:12
because that would require fundamentally accepting
156
492917
3059
perché ciò richiederebbe fondamentalmente accettare
che le cose che hanno creato
08:16
that the thing you built might not be the best thing for society
157
496000
4143
potrebbero non essere la scelta migliore per la società,
08:20
and agreeing to alter the entire product and profit model.
158
500167
3125
e anche accettare di modificare l'intero modello di prodotto e di profitto.
08:24
So what can we do about this?
159
504500
1833
Quindi cosa possiamo fare a riguardo?
Non sto dicendo che i social media sono gli unici responsabili
08:27
I'm not saying that social media bears the sole responsibility
160
507042
3601
08:30
for the state that we're in today.
161
510667
2142
dello stato in cui ci troviamo oggi.
08:32
Clearly, we have deep-seated societal issues that we need to solve.
162
512833
5435
Ci sono chiaramente questioni sociali radicate che dobbiamo risolvere.
08:38
But Facebook's response, that it is just a mirror to society,
163
518292
4142
Ma la risposta di Facebook, che è solo uno specchio della società,
08:42
is a convenient attempt to deflect any responsibility
164
522458
3018
è un tentativo conveniente di sviare ogni responsabilità
08:45
from the way their platform is amplifying harmful content
165
525500
4268
dal modo in cui la loro piattaforma amplifica i contenuti dannosi
08:49
and pushing some users towards extreme views.
166
529792
3041
e spinge alcuni utenti verso posizioni estreme.
08:53
And Facebook could, if they wanted to,
167
533583
2851
E Facebook potrebbe, se solo volesse,
08:56
fix some of this.
168
536458
1851
sistemare qualcosa.
08:58
They could stop amplifying and recommending the conspiracy theorists,
169
538333
3851
Potrebbe smetterla di amplificare e raccomandare teorici della cospirazione,
09:02
the hate groups, the purveyors of disinformation
170
542208
2685
gruppi d'odio, chi causa disinformazione
09:04
and, yes, in some cases even our president.
171
544917
3851
e sì, in alcuni casi anche il nostro Presidente.
09:08
They could stop using the same personalization techniques
172
548792
3392
Potrebbe smetterla di utilizzare le stesse tecniche di personalizzazione
09:12
to deliver political rhetoric that they use to sell us sneakers.
173
552208
4226
per trasmettere la stessa retorica politica
usata per venderci le scarpe da ginnastica.
09:16
They could retrain their algorithms
174
556458
1726
Potrebbero riconvertire i loro algoritmi
09:18
to focus on a metric other than engagement,
175
558208
2185
per concentrarsi su un parametro diverso dal tenerci impegnati,
09:20
and they could build in guardrails to stop certain content from going viral
176
560417
4309
e potrebbero costruire delle barriere
per impedire che certi contenuti diventino virali
09:24
before being reviewed.
177
564750
1667
prima di venire revisionati.
09:26
And they could do all of this
178
566875
2268
E potrebbero fare tutto questo
senza diventare quelli che loro chiamano "gli arbitri della verità".
09:29
without becoming what they call the arbiters of truth.
179
569167
4184
09:33
But they've made it clear that they will not go far enough
180
573375
2809
Ma hanno già chiarito che non si spingeranno
al punto da fare la cosa giusta senza essere costretti a farlo,
09:36
to do the right thing without being forced to,
181
576208
2810
e, a essere sinceri, perché dovrebbero?
09:39
and, to be frank, why should they?
182
579042
2934
I mercati continuano a premiarli e non stanno infrangendo la legge.
09:42
The markets keep rewarding them, and they're not breaking the law.
183
582000
3934
09:45
Because as it stands,
184
585958
1310
Perché allo stato attuale,
09:47
there are no US laws compelling Facebook, or any social media company,
185
587292
4892
non ci sono leggi statunitensi che obblighino Facebook
o qualsiasi altra società di social media a proteggere la nostra piazza pubblica,
09:52
to protect our public square,
186
592208
1768
la nostra democrazia
09:54
our democracy
187
594000
1309
09:55
and even our elections.
188
595333
2435
e perfino le nostre elezioni.
09:57
We have ceded the decision-making on what rules to write and what to enforce
189
597792
4101
Abbiamo ceduto il potere decisionale su quali norme scrivere e quali applicare
10:01
to the CEOs of for-profit internet companies.
190
601917
3083
agli amministratori delegati delle società internet a scopo di lucro.
10:05
Is this what we want?
191
605750
2018
È questo che vogliamo?
10:07
A post-truth world where toxicity and tribalism
192
607792
3226
Un mondo post-verità dove la tossicità e il tribalismo
prevalgono sulla costruzione di ponti e sulla ricerca del consenso?
10:11
trump bridge-building and consensus-seeking?
193
611042
2625
10:14
I do remain optimistic that we still have more in common with each other
194
614667
4101
Rimango ottimista sul fatto che abbiamo ancora più cose in comune l'un l'altro
10:18
than the current media and online environment portray,
195
618792
3642
rispetto a ciò che viene ritratto dai media e dall'ambiente online,
10:22
and I do believe that having more perspective surface
196
622458
3101
e credo che avere un'ottica più ampia
10:25
makes for a more robust and inclusive democracy.
197
625583
3601
renda la democrazia più solida e inclusiva,
10:29
But not the way it's happening right now.
198
629208
2810
ma non nel modo in cui sta accadendo ora.
E va sottolineato che non voglio distruggere queste società.
10:32
And it bears emphasizing, I do not want to kill off these companies.
199
632042
4226
10:36
I just want them held to a certain level of accountability,
200
636292
3226
Voglio solo che sia riconosciuto loro un certo livello di responsabilità,
10:39
just like the rest of society.
201
639542
1916
proprio come al resto della società.
10:42
It is time for our governments to step up and do their jobs
202
642542
4351
È tempo che i nostri governi si facciano avanti
e svolgano il loro lavoro per proteggere i propri cittadini.
10:46
of protecting our citizenry.
203
646917
1642
10:48
And while there isn't one magical piece of legislation
204
648583
3060
E anche se non esiste una magica legge in grado di risolvere tutto questo,
10:51
that will fix this all,
205
651667
1476
10:53
I do believe that governments can and must find the balance
206
653167
4684
credo che i governi possano e debbano trovare l'equilibrio
10:57
between protecting free speech
207
657875
2143
tra la tutela della libertà di parola
e il ritenere queste piattaforme responsabili
11:00
and holding these platforms accountable for their effects on society.
208
660042
4309
per i loro effetti sulla società.
11:04
And they could do so in part by insisting on actual transparency
209
664375
4309
E potrebbero farlo in parte insistendo su un'effettiva trasparenza
11:08
around how these recommendation engines are working,
210
668708
3143
sul modo in cui funzionano questi motori di raccomandazione,
11:11
around how the curation, amplification and targeting are happening.
211
671875
4643
su come avvengono la curation, l'amplificazione e il targeting.
11:16
You see, I want these companies held accountable
212
676542
2434
Vedete, voglio che queste società siano ritenute responsabili
11:19
not for if an individual posts misinformation
213
679000
3101
non per i post di disinformazione o la retorica estrema di un individuo,
11:22
or extreme rhetoric,
214
682125
1476
11:23
but for how their recommendation engines spread it,
215
683625
3851
ma per come i loro motori di raccomandazione li diffondono,
11:27
how their algorithms are steering people towards it,
216
687500
3226
per come i loro algoritmi orientano le persone verso di essi
11:30
and how their tools are used to target people with it.
217
690750
3292
e per come i loro strumenti li usano per bersagliare le persone.
11:35
I tried to make change from within Facebook and failed,
218
695417
3684
Ho provato a cambiare Facebook dall'interno e non ci sono riuscita.
Così, negli ultimi anni, ho usato di nuovo la mia voce
11:39
and so I've been using my voice again for the past few years
219
699125
3143
11:42
to continue sounding this alarm
220
702292
2226
per continuare a diffondere questo messaggio
11:44
and hopefully inspire more people to demand this accountability.
221
704542
4392
nella speranza di ispirare più persone a esigere questa responsabilità.
11:48
My message to you is simple:
222
708958
2643
Il mio messaggio per voi è semplice:
11:51
pressure your government representatives
223
711625
2184
fate pressione sui vostri rappresentanti governativi
11:53
to step up and stop ceding our public square to for-profit interests.
224
713833
5435
affinché si facciano avanti
e smettano di cedere la nostra piazza pubblica a interessi di lucro.
11:59
Help educate your friends and family
225
719292
1851
Aiutate la vostra famiglia e i vostri amici a informarsi
12:01
about how they're being manipulated online.
226
721167
3142
riguardo a come vengono manipolati online.
12:04
Push yourselves to engage with people who aren't like-minded.
227
724333
3518
Sforzatevi di interagire con persone che non la pensano come voi.
12:07
Make this issue a priority.
228
727875
2643
Fate di questo problema una priorità.
12:10
We need a whole-society approach to fix this.
229
730542
3416
Abbiamo bisogno dell'intera società per risolvere questo problema.
12:15
And my message to the leaders of my former employer Facebook is this:
230
735250
5559
E il mio messaggio ai dirigenti del mio ex datore di lavoro Facebook è questo:
12:20
right now, people are using your tools exactly as they were designed
231
740833
5810
in questo momento, le persone stanno usando i vostri strumenti
esattamente come sono stati progettati
12:26
to sow hatred, division and distrust,
232
746667
2601
per seminare odio, divisione e diffidenza,
12:29
and you're not just allowing it, you are enabling it.
233
749292
4142
e voi non lo state solo permettendo, state fornendo i mezzi.
12:33
And yes, there are lots of great stories
234
753458
2476
E sì, ci sono un sacco di storie positive di cose
12:35
of positive things happening on your platform around the globe,
235
755958
3685
che accadono sulla vostra piattaforma in tutto il mondo,
12:39
but that doesn't make any of this OK.
236
759667
3226
ma questo non rende nulla di tutto ciò accettabile.
12:42
And it's only getting worse as we're heading into our election,
237
762917
2976
E la situazione non fa che peggiorare man mano che ci avviciniamo alle elezioni,
12:45
and even more concerning,
238
765917
1767
e, cosa ancora più preoccupante,
12:47
face our biggest potential crisis yet,
239
767708
2476
affrontiamo la nostra più grande potenziale crisi finora,
12:50
if the results aren't trusted, and if violence breaks out.
240
770208
4143
se i risultati non sono attendibili e se scoppia la violenza.
12:54
So when in 2021 you once again say, "We know we have to do better,"
241
774375
5018
Così, quando nel 2021 direte ancora una volta:
"Sappiamo che dobbiamo fare di meglio",
12:59
I want you to remember this moment,
242
779417
2684
voglio che ricordiate questo momento,
perché non si tratta più solo di qualche voce solitaria.
13:02
because it's no longer just a few outlier voices.
243
782125
3226
13:05
Civil rights leaders, academics,
244
785375
2268
Leader dei diritti civili, accademici,
13:07
journalists, advertisers, your own employees,
245
787667
2976
giornalisti, pubblicitari, i vostri stessi dipendenti
13:10
are shouting from the rooftops
246
790667
2059
stanno gridando a tutto il mondo
13:12
that your policies and your business practices
247
792750
2601
che le vostre politiche e le vostre pratiche commerciali
13:15
are harming people and democracy.
248
795375
2417
stanno danneggiando le persone e la democrazia.
13:18
You own your decisions,
249
798875
2351
Siete voi a decidere,
13:21
but you can no longer say that you couldn't have seen it coming.
250
801250
3667
ma non potrete più dire che non potevate prevederlo.
13:26
Thank you.
251
806167
1250
Grazie.
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7