We're building a dystopia just to make people click on ads | Zeynep Tufekci

738,629 views ・ 2017-11-17

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: antonio parlato Revisore: Anna Cristiana Minoli
00:12
So when people voice fears of artificial intelligence,
0
12760
3536
Quando la gente dà voce alle paure legate all'intelligenza artificiale,
00:16
very often, they invoke images of humanoid robots run amok.
1
16320
3976
molto spesso evoca immagini di robot umanoidi usciti fuori controllo.
00:20
You know? Terminator?
2
20320
1240
Avete presente Terminator?
00:22
You know, that might be something to consider,
3
22400
2336
Potrebbe essere una possibilità da considerare,
00:24
but that's a distant threat.
4
24760
1856
ma si tratta di una minaccia remota.
00:26
Or, we fret about digital surveillance
5
26640
3456
Oppure, ci agitiamo per il controllo digitale
00:30
with metaphors from the past.
6
30120
1776
usando metafore del passato.
00:31
"1984," George Orwell's "1984,"
7
31920
2656
"1984" di George Orwell
00:34
it's hitting the bestseller lists again.
8
34600
2280
è di nuovo tra i bestseller.
00:37
It's a great book,
9
37960
1416
È un gran libro,
00:39
but it's not the correct dystopia for the 21st century.
10
39400
3880
ma non è la corretta distopia da applicare al 21esimo secolo.
00:44
What we need to fear most
11
44080
1416
Ciò che dobbiamo temere
00:45
is not what artificial intelligence will do to us on its own,
12
45520
4776
non è cosa l'intelligenza artificiale possa fare di per sé,
00:50
but how the people in power will use artificial intelligence
13
50320
4736
ma come le persone di potere potranno utilizzarla
00:55
to control us and to manipulate us
14
55080
2816
per controllarci e manipolarci
00:57
in novel, sometimes hidden,
15
57920
3136
in modi nuovi, talvolta nascosti,
01:01
subtle and unexpected ways.
16
61080
3016
sottili e inaspettati.
01:04
Much of the technology
17
64120
1856
Gran parte della tecnologia
01:06
that threatens our freedom and our dignity in the near-term future
18
66000
4336
che mette a rischio la nostra libertà e dignità nel futuro imminente
01:10
is being developed by companies
19
70360
1856
viene sviluppato da aziende
01:12
in the business of capturing and selling our data and our attention
20
72240
4936
che guadagnano catturando e rivendendo i nostri dati e attenzione
01:17
to advertisers and others:
21
77200
2256
a inserzionisti e altre entità:
01:19
Facebook, Google, Amazon,
22
79480
3416
Facebook, Google, Amazon,
01:22
Alibaba, Tencent.
23
82920
1880
Alibaba, Tencent.
01:26
Now, artificial intelligence has started bolstering their business as well.
24
86040
5496
Ora l'intelligenza artificiale comincia a rafforzare il loro business.
01:31
And it may seem like artificial intelligence
25
91560
2096
E sembrerebbe che l'intelligenza artificiale
01:33
is just the next thing after online ads.
26
93680
2856
sia il passo successivo alla pubblicità online.
01:36
It's not.
27
96560
1216
Non lo è.
01:37
It's a jump in category.
28
97800
2456
È un salto di categoria.
01:40
It's a whole different world,
29
100280
2576
È un mondo totalmente differente,
01:42
and it has great potential.
30
102880
2616
con un grosso potenziale.
01:45
It could accelerate our understanding of many areas of study and research.
31
105520
6920
Potrebbe accelerare la nostra comprensione in molte aree di studio e di ricerca.
01:53
But to paraphrase a famous Hollywood philosopher,
32
113120
3496
Ma per parafrasare un famoso filosofo di Hollywood,
01:56
"With prodigious potential comes prodigious risk."
33
116640
3640
"Da un grande potenziale derivano grandi rischi"
02:01
Now let's look at a basic fact of our digital lives, online ads.
34
121120
3936
Guardiamo a un fatto semplice delle nostre vite digitali, la pubblicità.
02:05
Right? We kind of dismiss them.
35
125080
2896
Giusto? Tendiamo a ignorarle.
02:08
They seem crude, ineffective.
36
128000
1976
Sembrano rozze, di scarso effetto.
02:10
We've all had the experience of being followed on the web
37
130000
4256
Tutti abbiamo avuto la sensazione di essere inseguiti sul web
02:14
by an ad based on something we searched or read.
38
134280
2776
da pubblicità basate su cose che abbiamo cercato o letto.
02:17
You know, you look up a pair of boots
39
137080
1856
Lo sapete, cercate un paio di stivali
02:18
and for a week, those boots are following you around everywhere you go.
40
138960
3376
e per giorni, questi stivali vi seguiranno dovunque andiate.
02:22
Even after you succumb and buy them, they're still following you around.
41
142360
3656
Persino quando cedete e li acquistate, continueranno a seguirvi ancora.
02:26
We're kind of inured to that kind of basic, cheap manipulation.
42
146040
3016
Siamo quasi abituati a questo tipo di manipolazione grossolana.
02:29
We roll our eyes and we think, "You know what? These things don't work."
43
149080
3400
Alziamo gli occhi e pensiamo, "Sai? Queste cose non funzionano."
02:33
Except, online,
44
153720
2096
Tranne che, online,
02:35
the digital technologies are not just ads.
45
155840
3600
le tecnologie digitali non sono solo pubblicità.
02:40
Now, to understand that, let's think of a physical world example.
46
160240
3120
Per capire meglio, prendiamo un esempio del mondo fisico.
02:43
You know how, at the checkout counters at supermarkets, near the cashier,
47
163840
4656
Sapete che nei supermercati, proprio vicino alle casse
02:48
there's candy and gum at the eye level of kids?
48
168520
3480
trovate dolci e gomme ad altezza occhi di bambino?
02:52
That's designed to make them whine at their parents
49
172800
3496
È fatto apposta per farli piagnucolare
02:56
just as the parents are about to sort of check out.
50
176320
3080
proprio mentre i genitori stanno per pagare alla cassa.
03:00
Now, that's a persuasion architecture.
51
180040
2640
Questa è architettura persuasiva.
03:03
It's not nice, but it kind of works.
52
183160
3096
Non è bella, ma funziona.
03:06
That's why you see it in every supermarket.
53
186280
2040
E infatti la vedete in tutti i supermarket.
03:08
Now, in the physical world,
54
188720
1696
Nel mondo reale,
03:10
such persuasion architectures are kind of limited,
55
190440
2496
queste architetture persuasive sono un po' limitate,
03:12
because you can only put so many things by the cashier. Right?
56
192960
4816
perché si può caricare fino a un certo punto l'angolo della cassa.
03:17
And the candy and gum, it's the same for everyone,
57
197800
4296
Inoltre dolci e gomme, sono uguali per tutti,
03:22
even though it mostly works
58
202120
1456
anche se funziona di più
03:23
only for people who have whiny little humans beside them.
59
203600
4040
per le persone che hanno piccoli bimbi frignanti accanto.
03:29
In the physical world, we live with those limitations.
60
209160
3920
Nel mondo fisico, viviamo con queste limitazioni.
03:34
In the digital world, though,
61
214280
1936
Nel mondo digitale, invece,
03:36
persuasion architectures can be built at the scale of billions
62
216240
4320
le architetture persuasive possono essere costruite
su larghissima scala
03:41
and they can target, infer, understand
63
221840
3856
e possono colpire, dedurre, capire
03:45
and be deployed at individuals
64
225720
2896
essere su misura per singoli individui
03:48
one by one
65
228640
1216
uno per uno
03:49
by figuring out your weaknesses,
66
229880
2136
scoprendo le debolezze,
03:52
and they can be sent to everyone's phone private screen,
67
232040
5616
e possono essere inviate sugli schermi privati dei nostri telefoni,
03:57
so it's not visible to us.
68
237680
2256
così da non essere visibili.
03:59
And that's different.
69
239960
1256
E questo è differente.
04:01
And that's just one of the basic things that artificial intelligence can do.
70
241240
3576
Questa è una delle cose basilari che l'intelligenza artificiale può fare.
04:04
Now, let's take an example.
71
244840
1336
Facciamo un esempio.
04:06
Let's say you want to sell plane tickets to Vegas. Right?
72
246200
2696
Poniamo caso vogliate vendere voli verso Las Vegas, ok?
04:08
So in the old world, you could think of some demographics to target
73
248920
3496
Nel vecchio mondo, potreste pensare a un target demografico da colpire
04:12
based on experience and what you can guess.
74
252440
2520
basato sull'esperienza e su alcune supposizioni.
04:15
You might try to advertise to, oh,
75
255560
2816
Avreste diretto la pubblicità
04:18
men between the ages of 25 and 35,
76
258400
2496
a uomini tra i 25 e i 35,
04:20
or people who have a high limit on their credit card,
77
260920
3936
o persone con un plafond alto nelle carte di credito
04:24
or retired couples. Right?
78
264880
1376
o coppie in pensione.Giusto?
04:26
That's what you would do in the past.
79
266280
1816
Questo è ciò che avreste fatto ieri.
04:28
With big data and machine learning,
80
268120
2896
Grazie a Big Data e Machine Learning,
04:31
that's not how it works anymore.
81
271040
1524
non funziona più così.
04:33
So to imagine that,
82
273320
2176
Per aiutarvi a capire,
04:35
think of all the data that Facebook has on you:
83
275520
3856
pensate a tutti i dati che Facebook ha su di voi:
04:39
every status update you ever typed,
84
279400
2536
tutti gli aggiornamenti che avete scritto,
04:41
every Messenger conversation,
85
281960
2016
tutte le chat su Messenger,
04:44
every place you logged in from,
86
284000
1880
i posti da cui vi siete collegati,
04:48
all your photographs that you uploaded there.
87
288400
3176
tutte le foto che avete aggiunto.
04:51
If you start typing something and change your mind and delete it,
88
291600
3776
Se cominciate a scrivere qualcosa e poi ci ripensate e cancellate,
04:55
Facebook keeps those and analyzes them, too.
89
295400
3200
Facebook conserva e analizza anche quello.
04:59
Increasingly, it tries to match you with your offline data.
90
299160
3936
Prova sempre di più a collegarvi con i vostri dati offline.
05:03
It also purchases a lot of data from data brokers.
91
303120
3176
E compra pure dei dati da altri fornitori esterni.
05:06
It could be everything from your financial records
92
306320
3416
Dati di varia natura come movimenti finanziari
05:09
to a good chunk of your browsing history.
93
309760
2120
o la storia delle pagine che avete visitato.
05:12
Right? In the US, such data is routinely collected,
94
312360
5416
Negli Stati Uniti questi dati vengono raccolti con regolarità,
05:17
collated and sold.
95
317800
1960
esaminati e rivenduti.
05:20
In Europe, they have tougher rules.
96
320320
2440
In Europa le leggi sono più restrittive.
05:23
So what happens then is,
97
323680
2200
Quindi, ciò che accade
05:26
by churning through all that data, these machine-learning algorithms --
98
326920
4016
macinando tutti questi dati, gli algoritmi "machine learning"
05:30
that's why they're called learning algorithms --
99
330960
2896
proprio per questo sono chiamati algoritmi di "apprendimento"
05:33
they learn to understand the characteristics of people
100
333880
4096
apprendono come capire le caratteristiche della gente
05:38
who purchased tickets to Vegas before.
101
338000
2520
che ha comprato in precedenza biglietti per Las Vegas
05:41
When they learn this from existing data,
102
341760
3536
Così come imparano dai dati esistenti,
05:45
they also learn how to apply this to new people.
103
345320
3816
imparano anche come applicarlo a nuove persone.
05:49
So if they're presented with a new person,
104
349160
3056
Quindi quando si trovano davanti un nuovo soggetto
05:52
they can classify whether that person is likely to buy a ticket to Vegas or not.
105
352240
4640
possono classificarlo e dire se vorrebbe o meno un biglietto per Las Vegas
05:57
Fine. You're thinking, an offer to buy tickets to Vegas.
106
357720
5456
Bene. Starete pensando, un'offerta su un volo per Las Vegas.
06:03
I can ignore that.
107
363200
1456
Posso ignorarla.
06:04
But the problem isn't that.
108
364680
2216
Ma non è quello il problema.
06:06
The problem is,
109
366920
1576
Il problema è
06:08
we no longer really understand how these complex algorithms work.
110
368520
4136
che non riusciamo più a capire come funzionano questi algoritmi complessi
06:12
We don't understand how they're doing this categorization.
111
372680
3456
non capiamo come facciano questa categorizzazione.
06:16
It's giant matrices, thousands of rows and columns,
112
376160
4416
Sono matrici giganti, con migliaia di righe e colonne,
06:20
maybe millions of rows and columns,
113
380600
1960
forse milioni di righe e colonne,
06:23
and not the programmers
114
383320
2640
e né i programmatori
06:26
and not anybody who looks at it,
115
386760
1680
né nessuno di quelli che ha accesso,
06:29
even if you have all the data,
116
389440
1496
anche se possiede tutti i dati,
06:30
understands anymore how exactly it's operating
117
390960
4616
capisce più come stia funzionando esattamente
06:35
any more than you'd know what I was thinking right now
118
395600
3776
non più di quanto voi potreste capire a cosa sto pensando ora
06:39
if you were shown a cross section of my brain.
119
399400
3960
se vi fosse mostrata una sezione del mio cervello.
06:44
It's like we're not programming anymore,
120
404360
2576
È come se non programmassimo più,
06:46
we're growing intelligence that we don't truly understand.
121
406960
4400
ma accresciamo un'intelligenza che non riusciamo a capire davvero.
06:52
And these things only work if there's an enormous amount of data,
122
412520
3976
Tutto questo funziona solo attraverso un'enorme quantità di dati,
06:56
so they also encourage deep surveillance on all of us
123
416520
5096
cosicché viene favorito un controllo approfondito su tutti noi
07:01
so that the machine learning algorithms can work.
124
421640
2336
per far funzionare gli algoritmi di apprendimento
07:04
That's why Facebook wants to collect all the data it can about you.
125
424000
3176
Per questo Facebook vuole raccogliere tutti i vostri dati.
07:07
The algorithms work better.
126
427200
1576
L'algoritmo funziona meglio.
07:08
So let's push that Vegas example a bit.
127
428800
2696
Spingiamo ancora di più l'esempio di Las Vegas.
07:11
What if the system that we do not understand
128
431520
3680
E se questo sistema che non riusciamo a comprendere
07:16
was picking up that it's easier to sell Vegas tickets
129
436200
5136
avesse imparato che è più semplice vendere biglietti per Las Vegas
07:21
to people who are bipolar and about to enter the manic phase.
130
441360
3760
a persone bipolari e sul punto di entrare nella fase maniacale.
07:25
Such people tend to become overspenders, compulsive gamblers.
131
445640
4920
Queste persone tendono a spendere di più e a diventare scommettitori compulsivi.
07:31
They could do this, and you'd have no clue that's what they were picking up on.
132
451280
4456
Potrebbero pescare da quel bacino e nessuno potrebbe mai saperlo.
07:35
I gave this example to a bunch of computer scientists once
133
455760
3616
Ho fatto questo esempio a un gruppo di ingegneri, una volta
07:39
and afterwards, one of them came up to me.
134
459400
2056
e subito dopo, uno di loro è venuto da me.
07:41
He was troubled and he said, "That's why I couldn't publish it."
135
461480
3520
Era turbato e mi disse, "ecco perché non posso pubblicarlo"
07:45
I was like, "Couldn't publish what?"
136
465600
1715
E io, "Non pubblicare cosa?"
07:47
He had tried to see whether you can indeed figure out the onset of mania
137
467800
5856
Aveva provato a vedere se fosse possibile comprendere uno stato maniacale
07:53
from social media posts before clinical symptoms,
138
473680
3216
dai post sui social media prima dei sintomi clinici,
07:56
and it had worked,
139
476920
1776
e aveva funzionato,
07:58
and it had worked very well,
140
478720
2056
aveva funzionato benissimo,
08:00
and he had no idea how it worked or what it was picking up on.
141
480800
4880
e lui non aveva idea di come funzionasse e cosa stesse pescando.
08:06
Now, the problem isn't solved if he doesn't publish it,
142
486840
4416
Il problema non si risolve se lui non pubblica il software,
08:11
because there are already companies
143
491280
1896
perché ci sono già aziende
08:13
that are developing this kind of technology,
144
493200
2536
che stanno sviluppando questo tipo di tecnologia,
08:15
and a lot of the stuff is just off the shelf.
145
495760
2800
e una buona parte è già disponibile.
08:19
This is not very difficult anymore.
146
499240
2576
Non è più una cosa complicata.
08:21
Do you ever go on YouTube meaning to watch one video
147
501840
3456
Andate mai su YouTube con l'idea di guardare un video
08:25
and an hour later you've watched 27?
148
505320
2360
e un'ora dopo ne avete guardati 27?
08:28
You know how YouTube has this column on the right
149
508760
2496
Sapete che YouTube ha questa colonna sulla destra
08:31
that says, "Up next"
150
511280
2216
che dice "Prossimi video"
08:33
and it autoplays something?
151
513520
1816
e poi ne parte in automatico un altro?
08:35
It's an algorithm
152
515360
1216
È un algoritmo
08:36
picking what it thinks that you might be interested in
153
516600
3616
che sceglie qualcosa che pensa possa interessarvi
08:40
and maybe not find on your own.
154
520240
1536
che magari non trovate da soli.
08:41
It's not a human editor.
155
521800
1256
Non è un editor umano.
08:43
It's what algorithms do.
156
523080
1416
Lo fa un algoritmo.
08:44
It picks up on what you have watched and what people like you have watched,
157
524520
4736
Studia quello che avete guardato voi e le persone simili a voi
08:49
and infers that that must be what you're interested in,
158
529280
4216
e desume quello che potrebbe interessarvi,
08:53
what you want more of,
159
533520
1255
cosa vorreste di più,
08:54
and just shows you more.
160
534799
1336
e ve ne mostra di più.
08:56
It sounds like a benign and useful feature,
161
536159
2201
Sembra una funzionalità innocua e utile
08:59
except when it isn't.
162
539280
1200
tranne quando non lo è.
09:01
So in 2016, I attended rallies of then-candidate Donald Trump
163
541640
6960
Nel 2016, ho partecipato a raduni dell'allora candidato Donald Trump
09:09
to study as a scholar the movement supporting him.
164
549840
3336
per studiare accademicamente il movimento che lo supportava.
09:13
I study social movements, so I was studying it, too.
165
553200
3456
Studio movimenti sociali, così studiavo anche quello.
09:16
And then I wanted to write something about one of his rallies,
166
556680
3336
Volevo scrivere qualcosa su uno di quei raduni,
09:20
so I watched it a few times on YouTube.
167
560040
1960
e l'ho guardato qualche volta su YouTube.
09:23
YouTube started recommending to me
168
563240
3096
YouTube ha cominciato a raccomandarmi
09:26
and autoplaying to me white supremacist videos
169
566360
4256
e a far partire video sui suprematisti bianchi
09:30
in increasing order of extremism.
170
570640
2656
in crescente ordine di estremismo.
09:33
If I watched one,
171
573320
1816
Ne guardavo uno,
09:35
it served up one even more extreme
172
575160
2976
me ne proponeva uno ancora più estremo
09:38
and autoplayed that one, too.
173
578160
1424
che partiva in automatico.
09:40
If you watch Hillary Clinton or Bernie Sanders content,
174
580320
4536
Se guardi contenuti di Hillary Clinton o di Bernie Sanders
09:44
YouTube recommends and autoplays conspiracy left,
175
584880
4696
YouTube raccomanda e fa partire video cospirazionisti di sinistra,
09:49
and it goes downhill from there.
176
589600
1760
e da lì sempre più giù.
09:52
Well, you might be thinking, this is politics, but it's not.
177
592480
3056
Bene, potreste pensare, questa è politica. Ma non lo è.
09:55
This isn't about politics.
178
595560
1256
Non si tratta di politica.
09:56
This is just the algorithm figuring out human behavior.
179
596840
3096
Si tratta di un algoritmo che ha compreso la natura umana.
09:59
I once watched a video about vegetarianism on YouTube
180
599960
4776
Una volta ho guardato un video sul vegetarianismo su YouTube
10:04
and YouTube recommended and autoplayed a video about being vegan.
181
604760
4936
e YouTube mi ha consigliato un video sull'essere vegani.
10:09
It's like you're never hardcore enough for YouTube.
182
609720
3016
È come se non ci credete mai abbastanza per YouTube
10:12
(Laughter)
183
612760
1576
(Risate)
10:14
So what's going on?
184
614360
1560
Allora cosa succede?
10:16
Now, YouTube's algorithm is proprietary,
185
616520
3536
Anche se l'algoritmo di YouTube è proprietario
10:20
but here's what I think is going on.
186
620080
2360
ecco cosa penso stia accadendo.
10:23
The algorithm has figured out
187
623360
2096
L'algoritmo ha capito
10:25
that if you can entice people
188
625480
3696
che se puoi attrarre la gente
10:29
into thinking that you can show them something more hardcore,
189
629200
3736
a pensare che puoi mostrargli qualcosa di ancora più spinto,
10:32
they're more likely to stay on the site
190
632960
2416
la gente rimarrà sul sito con maggiore probabilità
10:35
watching video after video going down that rabbit hole
191
635400
4416
guardando video dopo video scendendo giù nella tana del coniglio
10:39
while Google serves them ads.
192
639840
1680
mentre Google mostra le pubblicità.
10:43
Now, with nobody minding the ethics of the store,
193
643760
3120
Mentre nessuno si accorge dei risvolti etici,
10:47
these sites can profile people
194
647720
4240
questi siti possono profilare persone
10:53
who are Jew haters,
195
653680
1920
che odiano gli ebrei,
10:56
who think that Jews are parasites
196
656360
2480
che pensano che gli ebrei siano parassiti
11:00
and who have such explicit anti-Semitic content,
197
660320
4920
e chi ha contenuti antisemiti così espliciti,
11:06
and let you target them with ads.
198
666080
2000
e vi consente
di usarli come bersaglio per le pubblicità.
11:09
They can also mobilize algorithms
199
669200
3536
Possono anche sguinzagliare gli algoritmi
11:12
to find for you look-alike audiences,
200
672760
3136
per trovare per voi gruppi di utenti simili,
11:15
people who do not have such explicit anti-Semitic content on their profile
201
675920
5576
gente che sebbene non mostri contenuti antisemiti così espliciti
11:21
but who the algorithm detects may be susceptible to such messages,
202
681520
6176
viene riconosciuta dall'algoritmo come sensibile a questo tipo di messaggi,
11:27
and lets you target them with ads, too.
203
687720
1920
e vi fa bersagliare anche loro.
11:30
Now, this may sound like an implausible example,
204
690680
2736
Questo potrebbe sembrare un esempio poco plausibile,
11:33
but this is real.
205
693440
1320
però è davvero reale.
11:35
ProPublica investigated this
206
695480
2136
ProPublica ha investigato
11:37
and found that you can indeed do this on Facebook,
207
697640
3616
e scoperto che è possibile farlo davvero su Facebook
11:41
and Facebook helpfully offered up suggestions
208
701280
2416
e che Facebook amichevolmente ha dato suggerimenti
11:43
on how to broaden that audience.
209
703720
1600
su come espandere quest'audience.
11:46
BuzzFeed tried it for Google, and very quickly they found,
210
706720
3016
BuzzFeed ha provato a farlo con Google, e ha subito scoperto
11:49
yep, you can do it on Google, too.
211
709760
1736
che sì, si può fare anche su Google.
11:51
And it wasn't even expensive.
212
711520
1696
E che non era nemmeno caro.
11:53
The ProPublica reporter spent about 30 dollars
213
713240
4416
Il giornalista di ProPublica ha speso circa 30 dollari
11:57
to target this category.
214
717680
2240
per colpire questa categoria.
12:02
So last year, Donald Trump's social media manager disclosed
215
722600
5296
Il Social Media Manager di Trump ha rivelato che l'anno scorso
12:07
that they were using Facebook dark posts to demobilize people,
216
727920
5336
hanno utilizzato i post nascosti di Facebook per smobilitare la gente,
12:13
not to persuade them,
217
733280
1376
non per persuaderla,
12:14
but to convince them not to vote at all.
218
734680
2800
ma per convincerla di non votare affatto.
12:18
And to do that, they targeted specifically,
219
738520
3576
E per farlo, hanno preso come target specifico
12:22
for example, African-American men in key cities like Philadelphia,
220
742120
3896
per esempio, uomini afroamericani in città chiave come Philadelphia
12:26
and I'm going to read exactly what he said.
221
746040
2456
e ora vi leggo esattamente quello che ha detto.
12:28
I'm quoting.
222
748520
1216
Sto citando.
12:29
They were using "nonpublic posts
223
749760
3016
Stavano utilizzando, "Post non pubblici
12:32
whose viewership the campaign controls
224
752800
2176
la cui audience è controllata nella campagna
12:35
so that only the people we want to see it see it.
225
755000
3776
in modo tale che solo gente che noi vogliamo che veda, vedrà.
12:38
We modeled this.
226
758800
1216
L'abbiamo costruita così.
12:40
It will dramatically affect her ability to turn these people out."
227
760040
4720
Questo aumenterà enormemente la capacità di spegnere queste persone."
12:45
What's in those dark posts?
228
765720
2280
Cosa c'era in questi post nascosti?
12:48
We have no idea.
229
768480
1656
Non ne abbiamo la minima idea.
12:50
Facebook won't tell us.
230
770160
1200
Facebook non ce lo dirà.
12:52
So Facebook also algorithmically arranges the posts
231
772480
4376
L'algoritmo di Facebook dispone i post
12:56
that your friends put on Facebook, or the pages you follow.
232
776880
3736
che i vostri amici o le pagine che seguite pubblicano.
13:00
It doesn't show you everything chronologically.
233
780640
2216
Non ve li mostra in ordine cronologico.
13:02
It puts the order in the way that the algorithm thinks will entice you
234
782880
4816
L'algoritmo li riordina in modo tale che vi inducano
13:07
to stay on the site longer.
235
787720
1840
a stare più a lungo sul sito.
13:11
Now, so this has a lot of consequences.
236
791040
3376
E questo ha molte conseguenze.
13:14
You may be thinking somebody is snubbing you on Facebook.
237
794440
3800
Potreste pensare che qualcuno vi stia ignorando su Facebook.
13:18
The algorithm may never be showing your post to them.
238
798800
3256
L'algoritmo potrebbe non mostrare mai i vostri post.
13:22
The algorithm is prioritizing some of them and burying the others.
239
802080
5960
L'algoritmo dà priorità ad alcuni di loro e seppellisce gli altri.
13:29
Experiments show
240
809320
1296
Esperimenti mostrano
13:30
that what the algorithm picks to show you can affect your emotions.
241
810640
4520
che ciò che l'algoritmo sceglie di mostrarvi può influenzare le vostre emozioni.
13:36
But that's not all.
242
816600
1200
E non è tutto.
13:38
It also affects political behavior.
243
818280
2360
Può influenzare il comportamento politico.
13:41
So in 2010, in the midterm elections,
244
821360
4656
Così nel 2010, durante le elezioni di metà mandato,
13:46
Facebook did an experiment on 61 million people in the US
245
826040
5896
Facebook ha fatto un esperimento su 61 milioni di americani
13:51
that was disclosed after the fact.
246
831960
1896
che è stato reso pubblico subito dopo.
13:53
So some people were shown, "Today is election day,"
247
833880
3416
Ad alcuni veniva mostrata "Oggi è il giorno delle elezioni",
13:57
the simpler one,
248
837320
1376
la più semplice,
13:58
and some people were shown the one with that tiny tweak
249
838720
3896
mentre ad altri veniva mostrata quella con una piccola variazione
14:02
with those little thumbnails
250
842640
2096
con le piccole foto
14:04
of your friends who clicked on "I voted."
251
844760
2840
degli amici che hanno cliccato su "Ho votato".
14:09
This simple tweak.
252
849000
1400
Questa semplice modifica.
14:11
OK? So the pictures were the only change,
253
851520
4296
Ok? Le foto erano l'unica modifica,
14:15
and that post shown just once
254
855840
3256
e quei post mostrati una volta sola
14:19
turned out an additional 340,000 voters
255
859120
6056
hanno portato altri 340 000 votanti
14:25
in that election,
256
865200
1696
in quella elezione,
14:26
according to this research
257
866920
1696
secondo questa ricerca,
14:28
as confirmed by the voter rolls.
258
868640
2520
come confermato dalle liste degli elettori.
14:32
A fluke? No.
259
872920
1656
Una coincidenza? No.
14:34
Because in 2012, they repeated the same experiment.
260
874600
5360
Perché nel 2012, hanno ripetuto lo stesso esperimento.
14:40
And that time,
261
880840
1736
E quella volta,
14:42
that civic message shown just once
262
882600
3296
quel messaggio civico mostrato una sola volta
14:45
turned out an additional 270,000 voters.
263
885920
4440
ha portato altri 270 000 votanti.
14:51
For reference, the 2016 US presidential election
264
891160
5216
Per la cronaca, nel 2016 le elezioni presidenziali negli USA
14:56
was decided by about 100,000 votes.
265
896400
3520
sono state decise da circa 100 000 voti.
15:01
Now, Facebook can also very easily infer what your politics are,
266
901360
4736
Facebook può anche dedurre le vostre inclinazioni politiche
15:06
even if you've never disclosed them on the site.
267
906120
2256
anche se non le avete mai esposte esplicitamente.
15:08
Right? These algorithms can do that quite easily.
268
908400
2520
Gli algoritmi possono farlo facilmente.
15:11
What if a platform with that kind of power
269
911960
3896
Cosa accade se una piattaforma con questo tipo di potere
15:15
decides to turn out supporters of one candidate over the other?
270
915880
5040
decide di "spegnere" i sostenitori di un candidato in favore dell'altro?
15:21
How would we even know about it?
271
921680
2440
Come potremmo mai accorgercene?
15:25
Now, we started from someplace seemingly innocuous --
272
925560
4136
Siamo partiti da qualcosa che sembrava innocuo -
15:29
online adds following us around --
273
929720
2216
le pubblicità che ci seguono dappertutto -
15:31
and we've landed someplace else.
274
931960
1840
e siamo arrivati a qualcos'altro.
15:35
As a public and as citizens,
275
935480
2456
Come pubblico e come cittadini,
15:37
we no longer know if we're seeing the same information
276
937960
3416
non sappiamo più se stiamo guardando le stesse informazioni
15:41
or what anybody else is seeing,
277
941400
1480
o cosa stiano vedendo gli altri
15:43
and without a common basis of information,
278
943680
2576
e senza una base comune d'informazione
15:46
little by little,
279
946280
1616
a poco a poco,
15:47
public debate is becoming impossible,
280
947920
3216
il dibattito pubblico sta diventando impossibile,
15:51
and we're just at the beginning stages of this.
281
951160
2976
e siamo appena agli stadi iniziali di tutto questo.
15:54
These algorithms can quite easily infer
282
954160
3456
Questi algoritmi possono facilmente dedurre
15:57
things like your people's ethnicity,
283
957640
3256
cose come l'etnia,
16:00
religious and political views, personality traits,
284
960920
2336
il pensiero politico e religioso, la personalità
16:03
intelligence, happiness, use of addictive substances,
285
963280
3376
l'intelligenza, la felicità, l'uso di sostanze che danno dipendenza
16:06
parental separation, age and genders,
286
966680
3136
le separazioni dei genitori, l'età e i sessi,
16:09
just from Facebook likes.
287
969840
1960
solo dai like messi su Facebook.
16:13
These algorithms can identify protesters
288
973440
4056
Questi algoritmi possono identificare i manifestanti
16:17
even if their faces are partially concealed.
289
977520
2760
anche se le loro facce sono parzialmente nascoste.
16:21
These algorithms may be able to detect people's sexual orientation
290
981720
6616
Questi algoritmi possono essere capaci di capire l'orientamento sessuale
16:28
just from their dating profile pictures.
291
988360
3200
solo dalla foto di profilo nei siti d'incontri.
16:33
Now, these are probabilistic guesses,
292
993560
2616
Certo, queste sono sempre deduzioni probabilistiche,
16:36
so they're not going to be 100 percent right,
293
996200
2896
quindi non arrivano a una precisione del 100 per cento
16:39
but I don't see the powerful resisting the temptation to use these technologies
294
999120
4896
ma non credo che chi ha potere resista alla tentazione di usare queste tecnologie
16:44
just because there are some false positives,
295
1004040
2176
solo perché esiste qualche falso positivo,
16:46
which will of course create a whole other layer of problems.
296
1006240
3256
cosa che produrrà un'altra serie di problemi.
16:49
Imagine what a state can do
297
1009520
2936
Immaginate cosa possa fare uno stato
16:52
with the immense amount of data it has on its citizens.
298
1012480
3560
con l'immensa quantità di dati che possiede sui propri cittadini.
16:56
China is already using face detection technology
299
1016680
4776
La Cina sta già utilizzando tecnologie di riconoscimento facciale
17:01
to identify and arrest people.
300
1021480
2880
per identificare e arrestare persone.
17:05
And here's the tragedy:
301
1025280
2136
Ed ecco la tragedia:
17:07
we're building this infrastructure of surveillance authoritarianism
302
1027440
5536
costruiamo questa infrastruttura di controllo autoritario
17:13
merely to get people to click on ads.
303
1033000
2960
solo per ottenere clic sulle pubblicità.
17:17
And this won't be Orwell's authoritarianism.
304
1037240
2576
E questo non sarà un autoritarismo alla Orwell.
17:19
This isn't "1984."
305
1039839
1897
Questo non è "1984".
17:21
Now, if authoritarianism is using overt fear to terrorize us,
306
1041760
4576
Se l'autoritarismo utilizza evidenti meccanismi del terrore per spaventarci,
17:26
we'll all be scared, but we'll know it,
307
1046359
2897
saremo spaventati, ma sapremo perché,
17:29
we'll hate it and we'll resist it.
308
1049280
2200
odieremo e resisteremo.
17:32
But if the people in power are using these algorithms
309
1052880
4416
Ma se le persone con potere usano questo algoritmi
17:37
to quietly watch us,
310
1057319
3377
per osservarci placidamente,
17:40
to judge us and to nudge us,
311
1060720
2080
per giudicarci e per spingerci,
17:43
to predict and identify the troublemakers and the rebels,
312
1063720
4176
per predire e identificare i piantagrane e i ribelli,
17:47
to deploy persuasion architectures at scale
313
1067920
3896
per costruire un'architettura della persuasione su larga scala
17:51
and to manipulate individuals one by one
314
1071840
4136
e per manipolare gli individui uno ad uno
17:56
using their personal, individual weaknesses and vulnerabilities,
315
1076000
5440
utilizzando le loro debolezze e vulnerabilità individuali,
18:02
and if they're doing it at scale
316
1082720
2200
e se lo fanno su larga scala
18:06
through our private screens
317
1086080
1736
attraverso i nostri schermi privati
18:07
so that we don't even know
318
1087840
1656
cosicché non sappiamo neppure
18:09
what our fellow citizens and neighbors are seeing,
319
1089520
2760
quello che i nostri concittadini e vicini stanno vedendo,
18:13
that authoritarianism will envelop us like a spider's web
320
1093560
4816
questo autoritarismo ci avvolgerà come tela di ragno
18:18
and we may not even know we're in it.
321
1098400
2480
senza che ce ne rendiamo conto.
18:22
So Facebook's market capitalization
322
1102440
2936
La capitalizzazione di borsa di Facebook
18:25
is approaching half a trillion dollars.
323
1105400
3296
sta raggiungendo il mezzo trilione di dollari.
18:28
It's because it works great as a persuasion architecture.
324
1108720
3120
È perché funziona benissimo come architettura persuasiva.
18:33
But the structure of that architecture
325
1113760
2816
Ma la struttura di questa architettura
18:36
is the same whether you're selling shoes
326
1116600
3216
è la stessa sia che voi vendiate scarpe
18:39
or whether you're selling politics.
327
1119840
2496
o che stiate vendendo politica.
18:42
The algorithms do not know the difference.
328
1122360
3120
L'algoritmo non ne conosce la differenza.
18:46
The same algorithms set loose upon us
329
1126240
3296
Questi stessi algoritmi che vengono scatenati su di noi
18:49
to make us more pliable for ads
330
1129560
3176
per renderci più malleabili alle pubblicità
18:52
are also organizing our political, personal and social information flows,
331
1132760
6736
organizzano i nostri flussi d'informazione politica, personale e sociale
18:59
and that's what's got to change.
332
1139520
1840
e questo è ciò che dovrebbe cambiare.
19:02
Now, don't get me wrong,
333
1142240
2296
Non mi fraintendete,
19:04
we use digital platforms because they provide us with great value.
334
1144560
3680
usiamo le piattaforme digitali perché ci forniscono grande valore.
19:09
I use Facebook to keep in touch with friends and family around the world.
335
1149120
3560
Uso Facebook per tenere contatti con amici e familiari in tutto il mondo.
19:14
I've written about how crucial social media is for social movements.
336
1154000
5776
Ho scritto di come siano importanti i social media per i movimenti sociali.
19:19
I have studied how these technologies can be used
337
1159800
3016
Ho studiato come queste tecnologie possono essere utilizzate
19:22
to circumvent censorship around the world.
338
1162840
2480
per aggirare la censura nel mondo.
19:27
But it's not that the people who run, you know, Facebook or Google
339
1167280
6416
Non credo che le persone che guidano Facebook e Google
19:33
are maliciously and deliberately trying
340
1173720
2696
stiano maliziosamente e deliberatamente tentando
19:36
to make the country or the world more polarized
341
1176440
4456
di rendere il paese o il mondo più polarizzati
19:40
and encourage extremism.
342
1180920
1680
incoraggiando gli estremismi.
19:43
I read the many well-intentioned statements
343
1183440
3976
Ho letto molte frasi piene di buone intenzioni
19:47
that these people put out.
344
1187440
3320
pronunciate da queste persone.
19:51
But it's not the intent or the statements people in technology make that matter,
345
1191600
6056
Ma non sono le intenzioni o le frasi di costoro a fare differenza,
19:57
it's the structures and business models they're building.
346
1197680
3560
ma le strutture e i modelli di business che costoro stanno costruendo.
20:02
And that's the core of the problem.
347
1202360
2096
E questo è il nocciolo del problema.
20:04
Either Facebook is a giant con of half a trillion dollars
348
1204480
4720
O Facebook è una truffa gigante da mezzo trilione di dollari
20:10
and ads don't work on the site,
349
1210200
1896
dove le pubblicità non funzionano
20:12
it doesn't work as a persuasion architecture,
350
1212120
2696
e non funziona come un'architettura persuasiva
20:14
or its power of influence is of great concern.
351
1214840
4120
o il suo potere d'influenza è fonte di grande preoccupazione.
20:20
It's either one or the other.
352
1220560
1776
O l'uno, o l'altro.
20:22
It's similar for Google, too.
353
1222360
1600
Per Google la storia è simile.
20:24
So what can we do?
354
1224880
2456
Quindi, cosa possiamo fare?
20:27
This needs to change.
355
1227360
1936
Serve un cambiamento.
20:29
Now, I can't offer a simple recipe,
356
1229320
2576
Quindi. Non posso offrire una ricetta semplice,
20:31
because we need to restructure
357
1231920
2256
perché dobbiamo ristrutturare per intero
20:34
the whole way our digital technology operates.
358
1234200
3016
il modo in cui opera la tecnologia digitale.
20:37
Everything from the way technology is developed
359
1237240
4096
Tutto: dal modo in cui la tecnologia viene sviluppata
20:41
to the way the incentives, economic and otherwise,
360
1241360
3856
alla maniera in cui gli incentivi, economici o di altro tipo,
20:45
are built into the system.
361
1245240
2280
sono costruiti dentro il sistema.
20:48
We have to face and try to deal with
362
1248480
3456
Dobbiamo confrontarci e occuparci
20:51
the lack of transparency created by the proprietary algorithms,
363
1251960
4656
della mancanza di trasparenza creata dagli algoritmi proprietari,
20:56
the structural challenge of machine learning's opacity,
364
1256640
3816
la sfida strutturale dell'opacità del "machine learning",
21:00
all this indiscriminate data that's being collected about us.
365
1260480
3400
tutti questi dati su di noi che vengono raccolti indiscriminatamente.
21:05
We have a big task in front of us.
366
1265000
2520
Abbiamo un grande compito di fronte a noi.
21:08
We have to mobilize our technology,
367
1268160
2680
Dobbiamo mobilitare la nostra tecnologia,
21:11
our creativity
368
1271760
1576
la nostra creatività
21:13
and yes, our politics
369
1273360
1880
e sì, la nostra politica
21:16
so that we can build artificial intelligence
370
1276240
2656
così da costruire un'intelligenza artificiale
21:18
that supports us in our human goals
371
1278920
3120
che ci supporti negli obiettivi umani
21:22
but that is also constrained by our human values.
372
1282800
3920
ma che sia anche vincolata dai nostri valori umani.
21:27
And I understand this won't be easy.
373
1287600
2160
Capisco che non sarà semplice.
21:30
We might not even easily agree on what those terms mean.
374
1290360
3600
Potremmo non accordarci facilmente sul significato di questi termini.
21:34
But if we take seriously
375
1294920
2400
Ma se prendiamo seriamente
21:38
how these systems that we depend on for so much operate,
376
1298240
5976
come operano questi sistemi da cui dipendiamo così tanto,
21:44
I don't see how we can postpone this conversation anymore.
377
1304240
4120
non vedo come possiamo rimandare ancora questa discussione.
21:49
These structures
378
1309200
2536
Queste strutture
21:51
are organizing how we function
379
1311760
4096
stanno organizzando il modo in cui funzioniamo
21:55
and they're controlling
380
1315880
2296
e stanno controllando
21:58
what we can and we cannot do.
381
1318200
2616
ciò che possiamo e non possiamo fare.
22:00
And many of these ad-financed platforms,
382
1320840
2456
Molte piattaforme
che si finanziano con pubblicità.
22:03
they boast that they're free.
383
1323320
1576
si vantano di essere gratuite.
22:04
In this context, it means that we are the product that's being sold.
384
1324920
4560
In questo contesto, significa che noi siamo i prodotti da vendere.
22:10
We need a digital economy
385
1330840
2736
Serve un'economia digitale
22:13
where our data and our attention
386
1333600
3496
dove i nostri dati e la nostra attenzione
22:17
is not for sale to the highest-bidding authoritarian or demagogue.
387
1337120
5080
non sono venduti al miglior offerente autoritario o demagogo.
22:23
(Applause)
388
1343160
3800
(Applausi)
22:30
So to go back to that Hollywood paraphrase,
389
1350480
3256
Così, tornando indietro a quella parafrasi di Hollywood,
22:33
we do want the prodigious potential
390
1353760
3736
noi vogliamo che il potenziale prodigioso
22:37
of artificial intelligence and digital technology to blossom,
391
1357520
3200
dell'intelligenza artificiale e della tecnologia digitale fiorisca,
22:41
but for that, we must face this prodigious menace,
392
1361400
4936
ma per farlo, dobbiamo affrontare questa grande minaccia,
22:46
open-eyed and now.
393
1366360
1936
con occhi aperti e ora.
22:48
Thank you.
394
1368320
1216
Grazie.
22:49
(Applause)
395
1369560
4640
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7