How you can help transform the internet into a place of trust | Claire Wardle

53,461 views ・ 2019-11-15

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Silvia Fornasiero Revisore: SILVIA ALLONE
00:13
No matter who you are or where you live,
0
13548
2516
Non importa chi siete o dove vivete,
00:16
I'm guessing that you have at least one relative
1
16088
2356
credo che voi abbiate almeno un parente
00:18
that likes to forward those emails.
2
18468
2334
a cui piace inoltrare quelle email.
00:21
You know the ones I'm talking about --
3
21206
1900
Sapete di quali mail sto parlando,
00:23
the ones with dubious claims or conspiracy videos.
4
23130
2854
quelle con dichiarazioni dubbie o video di complotti.
00:26
And you've probably already muted them on Facebook
5
26315
2668
Probabilmente li avete già silenziati su Facebook
proprio perché condividono post \come questo.
00:29
for sharing social posts like this one.
6
29007
2348
00:31
It's an image of a banana
7
31379
1404
È l'immagine di una banana
00:32
with a strange red cross running through the center.
8
32807
2667
con una strana croce rossa che attraversa il centro.
00:35
And the text around it is warning people
9
35498
2139
E il testo che l'accompagna avverte la gente
00:37
not to eat fruits that look like this,
10
37661
2158
di non mangiare la frutta con quell'aspetto,
00:39
suggesting they've been injected with blood
11
39843
2028
insinuando che vi abbiano iniettato del sangue
00:41
contaminated with the HIV virus.
12
41895
2130
contaminato con il virus dell'HIV.
Il messaggio da condividere sopra la foto dice solamente:
00:44
And the social share message above it simply says,
13
44049
2603
00:46
"Please forward to save lives."
14
46676
2181
"Per favore, inoltratelo per salvare delle vite."
00:49
Now, fact-checkers have been debunking this one for years,
15
49672
3294
Ora, chi effettua le verifiche l'ha smentito per anni,
00:52
but it's one of those rumors that just won't die.
16
52990
2809
ma è una di quelle dicerie che non vogliono proprio morire.
00:55
A zombie rumor.
17
55823
1271
La diceria zombi.
00:57
And, of course, it's entirely false.
18
57513
2093
E naturalmente, è assolutamente falsa.
01:00
It might be tempting to laugh at an example like this, to say,
19
60180
2959
Potremmo essere tentati di ridere per una cosa come questa e dire:
01:03
"Well, who would believe this, anyway?"
20
63163
1884
"Ma comunque, chi ci crederebbe?"
01:05
But the reason it's a zombie rumor
21
65419
1626
Ma la ragione per cui è una diceria zombi
01:07
is because it taps into people's deepest fears about their own safety
22
67069
3889
è che tocca le paure più profonde della gente sulla propria sicurezza
01:10
and that of the people they love.
23
70982
2175
e la sicurezza di quelli che amano.
01:13
And if you spend as enough time as I have looking at misinformation,
24
73783
3273
Se passate tanto tempo come me a guardare la cattiva informazione,
01:17
you know that this is just one example of many
25
77080
2420
sapete che questo è solo uno dei molti esempi
01:19
that taps into people's deepest fears and vulnerabilities.
26
79524
3047
che toccano le paure e le fragilità più profonde delle persone.
01:23
Every day, across the world, we see scores of new memes on Instagram
27
83214
4369
Ogni giorno in tutto il mondo, vediamo un sacco di meme su Instagram
01:27
encouraging parents not to vaccinate their children.
28
87607
3039
che incoraggiano i genitori a non vaccinare i loro bambini.
01:30
We see new videos on YouTube explaining that climate change is a hoax.
29
90670
4532
Sempre nuovi video su YouTube spiegano che il cambiamento climatico è una bufala.
01:35
And across all platforms, we see endless posts designed to demonize others
30
95226
4302
Su tutte le piattaforme vediamo fiumi di post che demonizzano gli altri
01:39
on the basis of their race, religion or sexuality.
31
99552
3501
sulla base della loro razza, religione o sessualità.
01:44
Welcome to one of the central challenges of our time.
32
104314
3030
Benvenuti in una delle sfide fondamentali dei nostri tempi.
01:47
How can we maintain an internet with freedom of expression at the core,
33
107647
4025
Come possiamo avere una rete con al centro la libertà di espressione,
01:51
while also ensuring that the content that's being disseminated
34
111696
3303
e assicurare allo stesso tempo che il contenuto che viene diffuso
01:55
doesn't cause irreparable harms to our democracies, our communities
35
115023
3886
non causerà danni irreparabili alle nostre democrazie, alle comunità
01:58
and to our physical and mental well-being?
36
118933
2238
e al nostro benessere fisico e mentale?
02:01
Because we live in the information age,
37
121998
2087
Perché viviamo nell'era dell'informazione,
02:04
yet the central currency upon which we all depend -- information --
38
124109
3547
ma la valuta fondamentale da cui tutti dipendiamo, l'informazione,
02:07
is no longer deemed entirely trustworthy
39
127680
2357
non è più ritenuta sempre affidabile
02:10
and, at times, can appear downright dangerous.
40
130061
2328
e, alle volte, può essere veramente pericolosa.
02:12
This is thanks in part to the runaway growth of social sharing platforms
41
132811
3937
In parte lo si deve alla rapida crescita di piattaforme di condivisione
02:16
that allow us to scroll through,
42
136772
1642
dove possiamo leggere velocemente,
02:18
where lies and facts sit side by side,
43
138438
2222
e dove bugie e fatti stanno fianco a fianco,
02:20
but with none of the traditional signals of trustworthiness.
44
140684
3071
ma senza nessuno dei tradizionali segnali di attendibilità.
02:24
And goodness -- our language around this is horribly muddled.
45
144268
3619
E mamma mia, la nostra lingua su questo è orribilmente confusa.
02:27
People are still obsessed with the phrase "fake news,"
46
147911
3103
La gente è ancora ossessionata dall'espressione "fake news",
02:31
despite the fact that it's extraordinarily unhelpful
47
151038
2531
nonostante il fatto che sia incredibilmente inutile
02:33
and used to describe a number of things that are actually very different:
48
153593
3460
e usata per descrivere cose che in realtà sono molto diverse:
02:37
lies, rumors, hoaxes, conspiracies, propaganda.
49
157077
3386
bugie, dicerie, bufale, complotti, propaganda.
02:40
And I really wish we could stop using a phrase
50
160911
2912
Vorrei davvero che la smettessimo di usare un'espressione
02:43
that's been co-opted by politicians right around the world,
51
163847
2862
che è stata cooptata dai politici di tutto il mondo,
02:46
from the left and the right,
52
166733
1471
sia di destra che di sinistra,
02:48
used as a weapon to attack a free and independent press.
53
168228
3222
usata come un'arma per attaccare la stampa libera e indipendente.
02:52
(Applause)
54
172307
4702
(Applausi)
02:57
Because we need our professional news media now more than ever.
55
177033
3462
Perché abbiamo bisogno dei nostri mezzi d'informazione, ora più che mai.
03:00
And besides, most of this content doesn't even masquerade as news.
56
180882
3373
Oltretutto, molti di questi contenuti non si travestono nemmeno da notizie.
03:04
It's memes, videos, social posts.
57
184279
2642
Sono meme, video, post sui social.
03:06
And most of it is not fake; it's misleading.
58
186945
3453
E la maggior parte non sono falsi; sono fuorvianti.
03:10
We tend to fixate on what's true or false.
59
190422
3015
Tendiamo a fissarci su ciò che è vero o falso.
03:13
But the biggest concern is actually the weaponization of context.
60
193461
4032
Ma la più grande preoccupazione è che il contesto si usa come un'arma.
03:18
Because the most effective disinformation
61
198855
1968
Perché la disinformazione più efficace
03:20
has always been that which has a kernel of truth to it.
62
200847
3048
è sempre stata quella che contiene un nucleo di verità.
03:23
Let's take this example from London, from March 2017,
63
203919
3476
Prendiamo come esempio Londra nel marzo del 2017,
03:27
a tweet that circulated widely
64
207419
1540
un tweet che è circolato molto
03:28
in the aftermath of a terrorist incident on Westminster Bridge.
65
208983
3587
dopo il disastroso attacco terroristico sul Westminster Bridge.
03:32
This is a genuine image, not fake.
66
212594
2428
Quest'immagine è vera, non è un falso.
03:35
The woman who appears in the photograph was interviewed afterwards,
67
215046
3169
La donna che appare nella foto è stata intervistata subito dopo
03:38
and she explained that she was utterly traumatized.
68
218239
2409
e ha spiegato che era assolutamente traumatizzata.
03:40
She was on the phone to a loved one,
69
220672
1738
Era al telefono con una persona cara,
03:42
and she wasn't looking at the victim out of respect.
70
222434
2618
e non stava guardando la vittima per un senso di rispetto.
03:45
But it still was circulated widely with this Islamophobic framing,
71
225076
3960
Ma continuava a circolare diffusamente con questa didascalia islamofobica,
03:49
with multiple hashtags, including: #BanIslam.
72
229060
3046
con vari hashtag, incluso: #BanIslam.
03:52
Now, if you worked at Twitter, what would you do?
73
232425
2398
Ora, se voi lavoraste per Twitter, cosa fareste?
03:54
Would you take that down, or would you leave it up?
74
234847
2562
La cancellereste o la lascereste?
03:58
My gut reaction, my emotional reaction, is to take this down.
75
238553
3429
La mia reazione istintiva, una reazione emotiva, sarebbe di cancellarla.
Odio la didascalia di quest'immagine.
04:02
I hate the framing of this image.
76
242006
2142
04:04
But freedom of expression is a human right,
77
244585
2388
Ma la libertà di espressione è un diritto umano,
04:06
and if we start taking down speech that makes us feel uncomfortable,
78
246997
3225
e se iniziamo a eliminare discorsi che ci fanno sentire a disagio,
04:10
we're in trouble.
79
250246
1230
siamo nei guai.
04:11
And this might look like a clear-cut case,
80
251500
2294
Questo potrebbe sembrare un caso evidente,
04:13
but, actually, most speech isn't.
81
253818
1698
ma molti discorsi non lo sono.
04:15
These lines are incredibly difficult to draw.
82
255540
2436
Lo spartiacque è molto difficile da individuare.
Una decisione con buone intenzioni per una persona
04:18
What's a well-meaning decision by one person
83
258000
2281
04:20
is outright censorship to the next.
84
260305
2077
è una censura assoluta per un'altra.
04:22
What we now know is that this account, Texas Lone Star,
85
262759
2929
Ora sappiamo che questo account, Texas Lone Star,
04:25
was part of a wider Russian disinformation campaign,
86
265712
3230
fa parte di una campagna russa di disinformazione più ampia,
04:28
one that has since been taken down.
87
268966
2151
una campagna che da allora è stata chiusa.
04:31
Would that change your view?
88
271141
1563
Questo vi farebbe cambiare idea?
04:33
It would mine,
89
273322
1159
A me si,
04:34
because now it's a case of a coordinated campaign
90
274505
2301
perché qui si tratta di una campagna concertata
04:36
to sow discord.
91
276830
1215
per seminare discordia.
E per tutti quelli a cui piacerebbe pensare
04:38
And for those of you who'd like to think
92
278069
1961
che l'intelligenza artificiale risolverà tutti i problemi,
04:40
that artificial intelligence will solve all of our problems,
93
280054
2831
04:42
I think we can agree that we're a long way away
94
282909
2225
penso siate d'accordo nel ritenere che siamo lontani
04:45
from AI that's able to make sense of posts like this.
95
285158
2587
da un'intelligenza artificiale capace di analizzare un post come questo.
04:48
So I'd like to explain three interlocking issues
96
288856
2507
Vorrei spiegarvi tre problematiche interconnesse
04:51
that make this so complex
97
291387
2373
che rendono il tutto molto complesso,
04:53
and then think about some ways we can consider these challenges.
98
293784
3122
e poi cercare dei modi per affrontare queste sfide.
04:57
First, we just don't have a rational relationship to information,
99
297348
3890
Primo, noi semplicemente non abbiamo un rapporto razionale con l'informazione,
05:01
we have an emotional one.
100
301262
1468
ne abbiamo uno emotivo.
05:02
It's just not true that more facts will make everything OK,
101
302754
3794
Semplicemente non è vero che più fatti metterebbero tutto a posto,
05:06
because the algorithms that determine what content we see,
102
306572
3100
perché gli algoritmi che determinano i contenuti che noi vediamo
05:09
well, they're designed to reward our emotional responses.
103
309696
3127
sono concepiti per premiare le nostre risposte emotive.
05:12
And when we're fearful,
104
312847
1381
E quando abbiamo paura,
05:14
oversimplified narratives, conspiratorial explanations
105
314252
3174
una narrativa semplificata, la cospirazione come spiegazione,
05:17
and language that demonizes others is far more effective.
106
317450
3418
e un linguaggio che demonizza gli altri sono molto più efficaci.
05:21
And besides, many of these companies,
107
321538
1874
Inoltre, molte di queste compagnie,
05:23
their business model is attached to attention,
108
323436
2546
il loro modello imprenditoriale richiede attenzione,
05:26
which means these algorithms will always be skewed towards emotion.
109
326006
3690
il che significa che questi logaritmi saranno sempre deviati verso l'emozione.
05:30
Second, most of the speech I'm talking about here is legal.
110
330371
4298
Secondo, la maggior parte di quello di cui sto parlando ora è legale.
05:35
It would be a different matter
111
335081
1446
Sarebbe tutta un'altra cosa
05:36
if I was talking about child sexual abuse imagery
112
336551
2341
se parlassi di immagini di violenza su minori
05:38
or content that incites violence.
113
338916
1927
o di contenuti che incitano alla violenza.
05:40
It can be perfectly legal to post an outright lie.
114
340867
3270
Può essere perfettamente legale pubblicare una palese bugia.
05:45
But people keep talking about taking down "problematic" or "harmful" content,
115
345130
4034
Ma si continua a parlare di oscurare i contenuti "problematici" o "dannosi",
05:49
but with no clear definition of what they mean by that,
116
349188
2609
senza una chiara definizione di ciò che si intende,
05:51
including Mark Zuckerberg,
117
351821
1264
incluso Mark Zuckerberg,
che di recente ha chiesto delle regole per la moderazione globale del linguaggio.
05:53
who recently called for global regulation to moderate speech.
118
353109
3412
05:56
And my concern is that we're seeing governments
119
356870
2215
La mia preoccupazione è che stiamo vedendo governi di tutto il mondo
05:59
right around the world
120
359109
1292
06:00
rolling out hasty policy decisions
121
360425
2676
presentare decisioni politiche frettolose
06:03
that might actually trigger much more serious consequences
122
363125
2746
che potrebbero innescare delle conseguenze molto più serie
06:05
when it comes to our speech.
123
365895
1714
relativamente al nostro discorso.
06:08
And even if we could decide which speech to take up or take down,
124
368006
3706
Anche se noi potessimo decidere quale discorso lasciare e quale oscurare,
06:11
we've never had so much speech.
125
371736
2174
non ci sono mai stati così tanti messaggi.
06:13
Every second, millions of pieces of content
126
373934
2131
Ogni secondo, milioni di contenuti vengono caricati nel mondo
06:16
are uploaded by people right around the world
127
376089
2107
in diverse lingue,
06:18
in different languages,
128
378220
1168
06:19
drawing on thousands of different cultural contexts.
129
379412
2768
e si riferiscono a migliaia di contesti culturali diversi.
06:22
We've simply never had effective mechanisms
130
382204
2532
Non abbiamo mai avuto dei meccanismi efficaci
06:24
to moderate speech at this scale,
131
384760
1738
per moderare interventi su questa scala,
06:26
whether powered by humans or by technology.
132
386522
2801
che siano alimentati dagli umani o dalla tecnologia.
06:30
And third, these companies -- Google, Twitter, Facebook, WhatsApp --
133
390284
3944
E terzo, queste compagnie, Google, Twitter, Facebook, WhatsApp,
06:34
they're part of a wider information ecosystem.
134
394252
2841
sono parte di un ecosistema più ampio.
06:37
We like to lay all the blame at their feet, but the truth is,
135
397117
3352
Ci piace dare tutta la colpa a loro, ma la verità è che
06:40
the mass media and elected officials can also play an equal role
136
400493
3830
i mass media e i politici possono giocare un ruolo ugualmente importante
06:44
in amplifying rumors and conspiracies when they want to.
137
404347
2913
nell'amplificare le dicerie e i complotti quando lo vogliono.
06:47
As can we, when we mindlessly forward divisive or misleading content
138
407800
4944
Come possiamo farlo noi, quando senza pensarci
inoltriamo messaggi divisivi o fuorvianti senza verificare.
06:52
without trying.
139
412768
1285
06:54
We're adding to the pollution.
140
414077
1800
Stiamo aumentando l'inquinamento.
06:57
I know we're all looking for an easy fix.
141
417236
2618
So che stiamo cercando tutti una facile soluzione.
06:59
But there just isn't one.
142
419878
1667
Ma semplicemente non ce n'è una.
07:01
Any solution will have to be rolled out at a massive scale, internet scale,
143
421950
4445
Qualsiasi soluzione dovrà essere lanciata su scala enorme, su scala internet,
07:06
and yes, the platforms, they're used to operating at that level.
144
426419
3261
e certo, le piattaforme sono abituate a operare a quei livelli.
07:09
But can and should we allow them to fix these problems?
145
429704
3472
Ma possiamo e dovremmo permettere che loro risolvano questi problemi?
07:13
They're certainly trying.
146
433668
1232
Sicuramente stanno provando.
07:14
But most of us would agree that, actually, we don't want global corporations
147
434924
4086
Ma molti di noi in realtà direbbero che non vogliono le corporazioni globali
07:19
to be the guardians of truth and fairness online.
148
439034
2332
a salvaguardia della verità e della correttezza in rete.
07:21
And I also think the platforms would agree with that.
149
441390
2537
Penso che anche le piattaforme sarebbero d'accordo.
07:24
And at the moment, they're marking their own homework.
150
444257
2881
Al momento, loro stanno facendo i loro compiti per casa.
07:27
They like to tell us
151
447162
1198
Amano dirci
07:28
that the interventions they're rolling out are working,
152
448384
2579
che gli interventi che operano stanno funzionando,
07:30
but because they write their own transparency reports,
153
450987
2540
ma dato che scrivono loro le relazioni sulla trasparenza,
07:33
there's no way for us to independently verify what's actually happening.
154
453551
3618
non c'è modo di verificare in modo indipendente cosa sta realmente accadendo.
07:38
(Applause)
155
458431
3342
(Applausi)
07:41
And let's also be clear that most of the changes we see
156
461797
2952
E chiariamo che molti dei cambiamenti che vediamo
07:44
only happen after journalists undertake an investigation
157
464773
2994
avvengono solo dopo che un indagine giornalistica
07:47
and find evidence of bias
158
467791
1611
trova le prove di faziosità
07:49
or content that breaks their community guidelines.
159
469426
2829
o di contenuti che vanno contro le linee guida della comunità.
07:52
So yes, these companies have to play a really important role in this process,
160
472815
4595
Quindi sì, queste compagnie devono giocare un ruolo importante in questo processo,
07:57
but they can't control it.
161
477434
1560
ma non possono controllarlo.
07:59
So what about governments?
162
479855
1518
E che dire dei governi?
08:01
Many people believe that global regulation is our last hope
163
481863
3096
Molte persone credono che delle regole globali siano l'ultima speranza
08:04
in terms of cleaning up our information ecosystem.
164
484983
2880
di pulire il nostro ecosistema dell'informazione.
08:07
But what I see are lawmakers who are struggling to keep up to date
165
487887
3166
Ma quello che vedo sono legislatori che faticano a tenersi al passo
08:11
with the rapid changes in technology.
166
491077
2341
con la rapida evoluzione tecnologica.
08:13
And worse, they're working in the dark,
167
493442
1904
Ancor peggio, stanno lavorando al buio,
08:15
because they don't have access to data
168
495370
1821
perché non hanno accesso ai dati
08:17
to understand what's happening on these platforms.
169
497215
2650
per capire cosa sta accadendo su queste piattaforme.
08:20
And anyway, which governments would we trust to do this?
170
500260
3071
E comunque, di quale governo ci fideremmo?
08:23
We need a global response, not a national one.
171
503355
2770
C'è bisogno di una risposta globale, non nazionale.
08:27
So the missing link is us.
172
507419
2277
Quindi, l'anello mancante siamo noi.
08:29
It's those people who use these technologies every day.
173
509720
3123
È la gente che usa questa tecnologia ogni giorno.
08:33
Can we design a new infrastructure to support quality information?
174
513260
4591
Possiamo progettare una nuova infrastruttura
per sostenere l'informazione di qualità?
08:38
Well, I believe we can,
175
518371
1230
08:39
and I've got a few ideas about what we might be able to actually do.
176
519625
3357
Io penso di si,
e ho delle idee su cosa potremmo veramente fare.
08:43
So firstly, if we're serious about bringing the public into this,
177
523006
3103
Per prima cosa, abbiamo intenzione di coinvolgere il pubblico,
08:46
can we take some inspiration from Wikipedia?
178
526133
2381
possiamo farci ispirare da Wikipedia?
08:48
They've shown us what's possible.
179
528538
1824
Ci hanno dimostrato che è possibile.
08:50
Yes, it's not perfect,
180
530386
1151
Certo, non è perfetta,
08:51
but they've demonstrated that with the right structures,
181
531561
2634
ma ci hanno dimostrato che con la struttura giusta,
una prospettiva globale e moltissima trasparenza,
08:54
with a global outlook and lots and lots of transparency,
182
534219
2635
08:56
you can build something that will earn the trust of most people.
183
536878
3096
si può costruire qualcosa che si guadagni la fiducia della gente.
08:59
Because we have to find a way to tap into the collective wisdom
184
539998
3162
Perché dobbiamo trovare il modo di attingere alla saggezza collettiva
09:03
and experience of all users.
185
543184
2309
e all'esperienza di tutti gli utenti.
09:05
This is particularly the case for women, people of color
186
545517
2646
E in modo particolare per le donne, la gente di colore
09:08
and underrepresented groups.
187
548187
1346
e i gruppi poco rappresentati.
09:09
Because guess what?
188
549557
1166
Perché sapete una cosa?
09:10
They are experts when it comes to hate and disinformation,
189
550747
2735
Loro sono esperti di odio e disinformazione,
09:13
because they have been the targets of these campaigns for so long.
190
553506
3516
perché sono stati per molto tempo il bersaglio di queste campagne.
09:17
And over the years, they've been raising flags,
191
557046
2350
Negli anni hanno lanciato l'allarme
09:19
and they haven't been listened to.
192
559420
1665
e non stati ascoltati.
09:21
This has got to change.
193
561109
1280
Questo deve cambiare.
09:22
So could we build a Wikipedia for trust?
194
562807
4326
Potremmo quindi costruire una Wikipedia per la fiducia?
09:27
Could we find a way that users can actually provide insights?
195
567157
4189
Potremmo trovare un modo in cui gli utenti possono fornire informazioni utili?
09:31
They could offer insights around difficult content-moderation decisions.
196
571370
3697
Potrebbero dare opinioni sulle difficili decisioni sulla moderazione del contenuto.
09:35
They could provide feedback
197
575091
1463
Potrebbero offrire un riscontro
09:36
when platforms decide they want to roll out new changes.
198
576578
3041
quando le piattaforme decidono di approntare dei cambiamenti.
09:40
Second, people's experiences with the information is personalized.
199
580241
4162
Secondo, l'esperienza della gente con l'informazione è personalizzata.
09:44
My Facebook news feed is very different to yours.
200
584427
2643
Le notizie che mi arrivano su Facebook sono diverse dalle vostre.
09:47
Your YouTube recommendations are very different to mine.
201
587094
2745
I vostri video consigliati su YouTube sono diversi dei miei.
09:49
That makes it impossible for us to actually examine
202
589863
2492
Questo ci rende veramente impossibile controllare
09:52
what information people are seeing.
203
592379
2023
che informazioni la gente vede.
09:54
So could we imagine
204
594815
1389
Quindi potremmo immaginare
09:56
developing some kind of centralized open repository for anonymized data,
205
596228
4778
di sviluppare una sorta di deposito aperto e centralizzato di dati resi anonimi,
10:01
with privacy and ethical concerns built in?
206
601030
2864
con attenzione alla privacy e all'etica.
10:04
Because imagine what we would learn
207
604220
1778
Perché immaginate cosa potremmo imparare
10:06
if we built out a global network of concerned citizens
208
606022
3261
se costruissimo una rete globale di cittadini preoccupati
10:09
who wanted to donate their social data to science.
209
609307
3294
che vogliono donare i loro dati social alla scienza.
Perché sappiamo veramente molto poco
10:13
Because we actually know very little
210
613141
1722
10:14
about the long-term consequences of hate and disinformation
211
614887
2881
delle conseguenze a lungo termine di odio e disinformazione
10:17
on people's attitudes and behaviors.
212
617792
1975
sulla mentalità e l'atteggiamento della gente.
10:20
And what we do know,
213
620236
1167
E quello che sappiamo
10:21
most of that has been carried out in the US,
214
621427
2193
viene quasi tutto dagli Stati Uniti,
10:23
despite the fact that this is a global problem.
215
623644
2381
anche se questo è un problema globale.
10:26
We need to work on that, too.
216
626049
1635
Dobbiamo lavorare anche su questo.
10:28
And third,
217
628192
1150
E terzo,
10:29
can we find a way to connect the dots?
218
629366
2310
possiamo trovare un modo di collegare i puntini?
10:31
No one sector, let alone nonprofit, start-up or government,
219
631700
3438
Nessun settore, men che meno nonprofit, start-up o un governo,
10:35
is going to solve this.
220
635162
1422
risolverà questo problema.
10:36
But there are very smart people right around the world
221
636608
2564
Ma si sono persone veramente in gamba nel mondo
che lavorano su questi cambiamenti,
10:39
working on these challenges,
222
639196
1381
10:40
from newsrooms, civil society, academia, activist groups.
223
640601
3576
dalle redazioni, alla società civile, l'università, i gruppi di attivisti.
10:44
And you can see some of them here.
224
644201
1898
Potete vederne alcuni qui.
10:46
Some are building out indicators of content credibility.
225
646123
2927
Alcuni costruiscono indicatori di credibilità del contenuto.
10:49
Others are fact-checking,
226
649074
1246
Altri controllano i fatti,
10:50
so that false claims, videos and images can be down-ranked by the platforms.
227
650344
3591
così che le false dichiarazioni, video e immagini
siano declassate dalle piattaforme.
10:53
A nonprofit I helped to found, First Draft,
228
653959
2213
Una non profit che ho aiutato a fondare, First Draft,
10:56
is working with normally competitive newsrooms around the world
229
656196
2968
lavora con redazioni competitive in tutto il mondo
10:59
to help them build out investigative, collaborative programs.
230
659188
3503
per aiutarle a costruire dei programmi investigativi e collaborativi.
11:03
And Danny Hillis, a software architect,
231
663231
2309
Danny Hillis, un architetto del software,
11:05
is designing a new system called The Underlay,
232
665564
2381
sta programmando un nuovo sistema chiamato The Underlay,
11:07
which will be a record of all public statements of fact
233
667969
2775
che sarà un registro di tutte le dichiarazioni
11:10
connected to their sources,
234
670768
1329
connesse alla loro fonte,
11:12
so that people and algorithms can better judge what is credible.
235
672121
3654
così che la gente e gli algoritmi possano giudicare meglio ciò che è credibile.
11:16
And educators around the world are testing different techniques
236
676800
3356
Gli educatori nel mondo stanno verificando diverse tecniche
11:20
for finding ways to make people critical of the content they consume.
237
680180
3484
per trovare dei modi per rendere la gente critica verso ciò che consumano.
11:24
All of these efforts are wonderful, but they're working in silos,
238
684633
3141
Tutti questi sforzi sono meravigliosi, ma si lavora in scomparti,
11:27
and many of them are woefully underfunded.
239
687798
2680
e tristemente molti di loro hanno pochi fondi.
11:30
There are also hundreds of very smart people
240
690502
2053
Inoltre, ci sono centinaia di persone in gamba
11:32
working inside these companies,
241
692579
1652
che lavorano in queste compagnie,
11:34
but again, these efforts can feel disjointed,
242
694255
2325
ma anche questi sforzi sembrano scollegati,
11:36
because they're actually developing different solutions to the same problems.
243
696604
3937
perché stanno sviluppando diverse soluzioni per lo stesso problema.
11:41
How can we find a way to bring people together
244
701205
2269
Come si può trovare il modo di riunire queste persone
11:43
in one physical location for days or weeks at a time,
245
703498
3278
in un unico luogo per giorni o settimane di seguito,
11:46
so they can actually tackle these problems together
246
706800
2396
di modo che affrontino questi problemi assieme,
11:49
but from their different perspectives?
247
709220
1818
ma dalle loro prospettive diverse?
11:51
So can we do this?
248
711062
1340
Siamo in grado di farlo?
11:52
Can we build out a coordinated, ambitious response,
249
712426
3239
Possiamo mettere insieme un'ambiziosa risposta coordinata,
11:55
one that matches the scale and the complexity of the problem?
250
715689
3709
che metta assieme la vastità e la complessità del problema?
11:59
I really think we can.
251
719819
1373
Penso veramente che si possa.
12:01
Together, let's rebuild our information commons.
252
721216
2959
Ricostruiranno assieme le basi comuni dell'informazione.
12:04
Thank you.
253
724819
1190
Grazie.
12:06
(Applause)
254
726033
3728
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7