What will a future without secrets look like? | Alessandro Acquisti

202,332 views ・ 2013-10-18

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Alessandra Tadiotto Revisore: Anna Cristiana Minoli
00:12
I would like to tell you a story
0
12641
2354
Vorrei raccontarvi una storia
00:14
connecting the notorious privacy incident
1
14995
3176
che collega il famoso incidente sulla privacy
00:18
involving Adam and Eve,
2
18171
2769
di Adamo ed Eva
00:20
and the remarkable shift in the boundaries
3
20940
3446
e il notevole cambiamento nei confini
00:24
between public and private which has occurred
4
24386
2686
tra pubblico e privato
00:27
in the past 10 years.
5
27072
1770
avvenuto negli ultimi 10 anni.
00:28
You know the incident.
6
28842
1298
Conoscete i fatti.
00:30
Adam and Eve one day in the Garden of Eden
7
30140
3330
Un giorno nel giardino dell'Eden Adamo ed Eva
00:33
realize they are naked.
8
33470
1843
si accorgono di essere nudi.
00:35
They freak out.
9
35313
1500
Vanno fuori di testa.
00:36
And the rest is history.
10
36813
2757
E il resto è storia.
00:39
Nowadays, Adam and Eve
11
39570
2188
Oggi, Adamo ed Eva probabilmente
00:41
would probably act differently.
12
41758
2361
agirebbero in modo diverso
00:44
[@Adam Last nite was a blast! loved dat apple LOL]
13
44119
2268
[@Adam La scorsa notte è stato fantastico. Ho adorato quella mela LOL]
00:46
[@Eve yep.. babe, know what happened to my pants tho?]
14
46387
1873
[@Eva sì... tesoro, sai dove sono finiti i miei slip?]
00:48
We do reveal so much more information
15
48260
2636
Riveliamo più informazioni che mai
00:50
about ourselves online than ever before,
16
50896
3334
su noi stessi on-line,
00:54
and so much information about us
17
54230
1704
e queste informazioni su di noi
00:55
is being collected by organizations.
18
55934
2224
vengono raccolte da organizzazioni.
00:58
Now there is much to gain and benefit
19
58158
3282
C'è molto da guadagnarci e da fare profitto
01:01
from this massive analysis of personal information,
20
61440
2446
dall'analisi massiccia dei dati personali,
01:03
or big data,
21
63886
1946
o grandi dati,
01:05
but there are also complex tradeoffs that come
22
65832
2638
ma c'è anche una complessa rete di compromessi
01:08
from giving away our privacy.
23
68470
3098
che deriva dal rinunciare alla nostra privacy.
01:11
And my story is about these tradeoffs.
24
71568
4023
E la mia storia riguarda questi compromessi.
01:15
We start with an observation which, in my mind,
25
75591
2584
Cominciamo con un'osservazione che, a mio avviso,
01:18
has become clearer and clearer in the past few years,
26
78175
3327
è divenuta sempre più chiara negli ultimi anni,
01:21
that any personal information
27
81502
2097
e cioé che ogni singola informazione personale
01:23
can become sensitive information.
28
83599
2285
può diventare un dato sensibile.
01:25
Back in the year 2000, about 100 billion photos
29
85884
4125
Nel 2000, circa 100 miliardi di foto
01:30
were shot worldwide,
30
90009
1912
vennero scattate in tutto il mondo,
01:31
but only a minuscule proportion of them
31
91921
3065
ma solo una minuscola parte
01:34
were actually uploaded online.
32
94986
1883
venne di fatto caricata online.
01:36
In 2010, only on Facebook, in a single month,
33
96869
3361
Nel 2010, solo su Facebook, in un solo mese,
01:40
2.5 billion photos were uploaded,
34
100230
3270
ne sono state caricate 2,5 miliardi,
01:43
most of them identified.
35
103500
1882
e la maggior parte identificata.
01:45
In the same span of time,
36
105382
1880
Nello stesso arco di tempo,
01:47
computers' ability to recognize people in photos
37
107262
4870
la capacità dei computer di riconoscere le persone nelle foto
01:52
improved by three orders of magnitude.
38
112132
3608
si è triplicata.
01:55
What happens when you combine
39
115740
1882
Che cosa succede quando
01:57
these technologies together:
40
117622
1501
si mettono insieme tutte queste tecnologie?
01:59
increasing availability of facial data;
41
119123
2658
Un aumento della disponibilità di dati facciali,
02:01
improving facial recognizing ability by computers;
42
121781
3648
un miglioramento nella capacità dei computer di riconoscere i volti
02:05
but also cloud computing,
43
125429
2182
ma anche il cloud computing,
02:07
which gives anyone in this theater
44
127611
1888
che offre a chiunque qui presente
02:09
the kind of computational power
45
129499
1560
un potere di gestione della infrastruttura informatica
02:11
which a few years ago was only the domain
46
131059
1886
che qualche anno fa era appannaggio solo
02:12
of three-letter agencies;
47
132945
1782
delle agenzie di sicurezza:
02:14
and ubiquitous computing,
48
134727
1378
e l'onnipresenza dell'informatica,
02:16
which allows my phone, which is not a supercomputer,
49
136105
2892
che permette al mio telefono, che è anche un supercomputer,
02:18
to connect to the Internet
50
138997
1671
di connettersi a internet
02:20
and do there hundreds of thousands
51
140668
2334
ed eseguire centinaia di migliaia
02:23
of face metrics in a few seconds?
52
143002
2639
di analisi facciali in pochi secondi.
02:25
Well, we conjecture that the result
53
145641
2628
Riteniamo che il risultato di questa
02:28
of this combination of technologies
54
148269
2064
combinazione di tecnologie
02:30
will be a radical change in our very notions
55
150333
2888
porterà a un cambio radicale della nostra concezione
02:33
of privacy and anonymity.
56
153221
2257
di privacy e anonimato.
02:35
To test that, we did an experiment
57
155478
1993
Per verificarlo, abbiamo fatto un esperimento
02:37
on Carnegie Mellon University campus.
58
157471
2121
al campus della Carnegie Mellon University.
02:39
We asked students who were walking by
59
159592
2099
Abbiamo chiesto agli studenti che passavano di lì
02:41
to participate in a study,
60
161691
1779
di partecipare a uno studio.
02:43
and we took a shot with a webcam,
61
163470
2562
Abbiamo scattato una foto con la webcam,
02:46
and we asked them to fill out a survey on a laptop.
62
166032
2782
e abbiamo chiesto loro di compilare un questionario su un pc portatile.
02:48
While they were filling out the survey,
63
168814
1979
Mentre compilavano il questionario,
02:50
we uploaded their shot to a cloud-computing cluster,
64
170793
2797
abbiamo caricato le foto su un cluster di cloud-computing,
02:53
and we started using a facial recognizer
65
173590
1727
e abbiamo iniziato a utilizzare un riconoscitore facciale
02:55
to match that shot to a database
66
175317
2405
per incrociare quello scatto con un database
02:57
of some hundreds of thousands of images
67
177722
2393
contenente centinaia di migliaia di immagini
03:00
which we had downloaded from Facebook profiles.
68
180115
3596
che avevamo scaricato dai profili di Facebook.
03:03
By the time the subject reached the last page
69
183711
3259
Quando il soggetto aveva compilato l'ultima pagina del questionario
03:06
on the survey, the page had been dynamically updated
70
186970
3347
la pagina era già stata aggiornata dinamicamente
03:10
with the 10 best matching photos
71
190317
2313
con le 10 foto che meglio combaciavano
03:12
which the recognizer had found,
72
192630
2285
trovate dal sistema di riconoscimento facciale
03:14
and we asked the subjects to indicate
73
194915
1738
e abbiamo chiesto ai soggetti di indicare
03:16
whether he or she found themselves in the photo.
74
196653
4120
se si ritrovavano nella foto.
03:20
Do you see the subject?
75
200773
3699
Vedete il soggetto?
03:24
Well, the computer did, and in fact did so
76
204472
2845
Bene, il computer ci riusciva, riconosceva
03:27
for one out of three subjects.
77
207317
2149
un soggetto su tre.
03:29
So essentially, we can start from an anonymous face,
78
209466
3184
Quindi, in sintesi, partendo da un volto anonimo,
03:32
offline or online, and we can use facial recognition
79
212650
3484
offline o online, siamo in grado di usare il riconoscimento facciale
03:36
to give a name to that anonymous face
80
216134
2360
e dare un nome a quel volto anonimo
03:38
thanks to social media data.
81
218494
2108
grazie ai dati presenti sui social media.
03:40
But a few years back, we did something else.
82
220602
1872
Ma qualche anno fa, abbiamo fatto quacosa in più.
03:42
We started from social media data,
83
222474
1823
Partendo dai dati dei social media,
03:44
we combined it statistically with data
84
224297
3051
li abbiamo combinati statisticamente con i dati
03:47
from U.S. government social security,
85
227348
2102
del sistemi del sistame previdenziale americano,
03:49
and we ended up predicting social security numbers,
86
229450
3324
e siamo riusciti a prevedere i codici fiscali,
03:52
which in the United States
87
232774
1512
che negli Stati Uniti
03:54
are extremely sensitive information.
88
234286
2040
sono dati estremamente sensibili.
03:56
Do you see where I'm going with this?
89
236326
2093
Capite dove voglio arrivare?
03:58
So if you combine the two studies together,
90
238419
2922
Se uniamo i due studi,
04:01
then the question becomes,
91
241341
1512
allora la domanda è:
04:02
can you start from a face and,
92
242853
2720
è possibile partire da un volto e,
04:05
using facial recognition, find a name
93
245573
2311
usando il riconoscimento facciale, trovare un nome
04:07
and publicly available information
94
247884
2669
e altre informazioni disponibili pubblicamente
04:10
about that name and that person,
95
250553
1932
sul quel nome e su quella persona,
04:12
and from that publicly available information
96
252485
2248
e da tali informazioni pubbliche
04:14
infer non-publicly available information,
97
254733
2042
dedurre informazioni non disponibili pubblicamente,
04:16
much more sensitive ones
98
256775
1606
dati molto più sensibili
04:18
which you link back to the face?
99
258381
1492
riconducibili a quel volto?
04:19
And the answer is, yes, we can, and we did.
100
259873
1916
E la risposta è sì, possiamo farlo, e l'abbiamo fatto.
04:21
Of course, the accuracy keeps getting worse.
101
261789
2568
Naturalmente, il grado di accuratezza diminuisce.
04:24
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
102
264357
944
[abbiamo identificato il 27% delle prime 5 cifre del codice fiscale (con 4 tentativi)]
04:25
But in fact, we even decided to develop an iPhone app
103
265301
3827
Ma abbiamo anche deciso di sviluppare un'applicazione iPhone
04:29
which uses the phone's internal camera
104
269128
2715
che utilizza la fotocamera interna del telefono
04:31
to take a shot of a subject
105
271843
1600
scatta una foto del soggetto,
04:33
and then upload it to a cloud
106
273443
1487
la carica sul cloud
04:34
and then do what I just described to you in real time:
107
274930
2662
e poi fa in tempo reale esattamente quello che vi ho descritto:
04:37
looking for a match, finding public information,
108
277592
2088
cerca un raffronto, recupera informazioni pubbliche,
04:39
trying to infer sensitive information,
109
279680
1730
cerca di desumere dati sensibili,
04:41
and then sending back to the phone
110
281410
2591
e poi le rinvia al telefono
04:44
so that it is overlaid on the face of the subject,
111
284001
3609
così da sovrapporle al volto del soggetto:
04:47
an example of augmented reality,
112
287610
1901
È un esempio di realtà aumentata,
04:49
probably a creepy example of augmented reality.
113
289511
2451
probabilmente ne è un esempio raccapricciante.
04:51
In fact, we didn't develop the app to make it available,
114
291962
3339
Di fatto, non abbiamo sviluppato l'applicazione per renderla disponibile sul mercato,
04:55
just as a proof of concept.
115
295301
1922
ma solo come dimostrazione del concetto.
04:57
In fact, take these technologies
116
297223
2313
Infatti, prendete queste tecnologie
04:59
and push them to their logical extreme.
117
299536
1837
e portatele all'estremo.
05:01
Imagine a future in which strangers around you
118
301373
2719
Immaginate un futuro dove estranei attorno a voi
05:04
will look at you through their Google Glasses
119
304092
2311
vi guarderanno attraverso i loro occhiali Google
05:06
or, one day, their contact lenses,
120
306403
2307
o, un giorno, attraverso le loro lenti a contatto
05:08
and use seven or eight data points about you
121
308710
4020
e useranno sette od otto punti di infomazione su di voi
05:12
to infer anything else
122
312730
2582
per dedurre ulteriori informazioni
05:15
which may be known about you.
123
315312
2603
su di voi.
05:17
What will this future without secrets look like?
124
317915
4794
Come sarà questo futuro senza segreti?
05:22
And should we care?
125
322709
1964
E dovremmo preoccuparcene?
05:24
We may like to believe
126
324673
1891
Ci piacerebbe credere
05:26
that the future with so much wealth of data
127
326564
3040
che un futuro così, con un'enorme quantità di dati
05:29
would be a future with no more biases,
128
329604
2514
sarebbe un futuro senza pregiudizi,
05:32
but in fact, having so much information
129
332118
3583
ma in verità, essere in possesso di così tante informazioni
05:35
doesn't mean that we will make decisions
130
335701
2191
non significa prendere decisioni
05:37
which are more objective.
131
337892
1706
più obiettive.
05:39
In another experiment, we presented to our subjects
132
339598
2560
In un altro esperimento, abbiamo presentato ai nostri soggetti
05:42
information about a potential job candidate.
133
342158
2246
informazioni su un potenziale candidato per un lavoro.
05:44
We included in this information some references
134
344404
3178
Abbiamo incluso alcuni riferimenti
05:47
to some funny, absolutely legal,
135
347582
2646
ad alcune informazioni divertenti, assolutamente legali,
05:50
but perhaps slightly embarrassing information
136
350228
2465
ma forse leggermente imbarazzanti
05:52
that the subject had posted online.
137
352693
2020
che quel soggetto aveva pubblicato online
05:54
Now interestingly, among our subjects,
138
354713
2366
Stranamente, tra i nostri soggetti,
05:57
some had posted comparable information,
139
357079
3083
alcuni avevano pubblicato delle informazioni simili,
06:00
and some had not.
140
360162
2362
altri no.
06:02
Which group do you think
141
362524
1949
Quale gruppo pensate
06:04
was more likely to judge harshly our subject?
142
364473
4552
era più propenso a giudicare severamente il nostro soggetto?
06:09
Paradoxically, it was the group
143
369025
1957
Paradossalmente, il gruppo
06:10
who had posted similar information,
144
370982
1733
che aveva pubblicato informazioni simili:
06:12
an example of moral dissonance.
145
372715
2942
un esempio di dissonanza morale.
06:15
Now you may be thinking,
146
375657
1750
Forse starete pensando:
06:17
this does not apply to me,
147
377407
1702
questo non mi riguarda,
06:19
because I have nothing to hide.
148
379109
2162
perché io non ho nulla da nascondere.
06:21
But in fact, privacy is not about
149
381271
2482
Ma in realtà la privacy non riguarda
06:23
having something negative to hide.
150
383753
3676
qualcosa di negativo da nascondere.
06:27
Imagine that you are the H.R. director
151
387429
2354
Immaginate di essere il direttore delle risorse umane
06:29
of a certain organization, and you receive résumés,
152
389783
2947
di una certa organizzazione, ricevete dei CV,
06:32
and you decide to find more information about the candidates.
153
392730
2473
e decidete di trovare ulteriori informazioni sui candidati.
06:35
Therefore, you Google their names
154
395203
2460
Allora, digitate su Google i loro nomi,
06:37
and in a certain universe,
155
397663
2240
e in un certo universo,
06:39
you find this information.
156
399903
2008
trovate tali informazioni.
06:41
Or in a parallel universe, you find this information.
157
401911
4437
O in un universo parallelo, trovate queste informazioni.
06:46
Do you think that you would be equally likely
158
406348
2717
Credete davvero che sarete obiettivi
06:49
to call either candidate for an interview?
159
409065
2803
nel chiamare questo o quel candidato per un colloquio?
06:51
If you think so, then you are not
160
411868
2282
Se lo pensate, allora non siete
06:54
like the U.S. employers who are, in fact,
161
414150
2582
come i datori di lavoro statunitensi
06:56
part of our experiment, meaning we did exactly that.
162
416732
3307
che hanno partecipato al nostro esperimento. Abbiamo fatto proprio questo.
07:00
We created Facebook profiles, manipulating traits,
163
420039
3182
Abbiamo creato dei profili su facebook, manipolando le caratteristiche,
07:03
then we started sending out résumés to companies in the U.S.,
164
423221
2851
poi abbiamo inviato dei CV a delle aziende negli Stati Uniti,
07:06
and we detected, we monitored,
165
426072
1908
e abbiamo rilevato e monitorato
07:07
whether they were searching for our candidates,
166
427980
2393
eventuali ricerche sui nostri candidati,
07:10
and whether they were acting on the information
167
430373
1832
e se ciò avveniva sulla base delle informazioni
07:12
they found on social media. And they were.
168
432205
1938
che si potevano reperire sui social media. E accadeva proprio questo.
07:14
Discrimination was happening through social media
169
434143
2101
Candidati ugualmente dotati venivano discriminati
07:16
for equally skilled candidates.
170
436244
3073
attraverso i social media.
07:19
Now marketers like us to believe
171
439317
4575
Gli esperti di marketing amano farci credere
07:23
that all information about us will always
172
443892
2269
che tutte queste informazioni su di noi verrano sempre usate
07:26
be used in a manner which is in our favor.
173
446161
3273
in nostro favore.
07:29
But think again. Why should that be always the case?
174
449434
3715
Ma pensateci bene. Perché dovrebbe essere sempre così?
07:33
In a movie which came out a few years ago,
175
453149
2664
In un film uscito qualche anno fa,
07:35
"Minority Report," a famous scene
176
455813
2553
"Minority Report", c'è una scena famosa
07:38
had Tom Cruise walk in a mall
177
458366
2576
in cui Tom Cruise cammina in un centro commerciale
07:40
and holographic personalized advertising
178
460942
3776
e attorno a lui appaiono
07:44
would appear around him.
179
464718
1835
messagi pubblicitari personalizzati.
07:46
Now, that movie is set in 2054,
180
466553
3227
Quel film è ambientato nel 2054,
07:49
about 40 years from now,
181
469780
1642
fra circa 40 anni,
07:51
and as exciting as that technology looks,
182
471422
2908
e per quanto affascinante appaia quella tecnologia,
07:54
it already vastly underestimates
183
474330
2646
sottovaluta grandemente
07:56
the amount of information that organizations
184
476976
2140
la quantità di informazioni che le organizzazioni
07:59
can gather about you, and how they can use it
185
479116
2483
possono raccogliere su di noi, e come le possono usare
08:01
to influence you in a way that you will not even detect.
186
481599
3398
per influenzarci in modi di cui non siamo consapevoli.
08:04
So as an example, this is another experiment
187
484997
2103
Ne è un esempio l'esperimento
08:07
actually we are running, not yet completed.
188
487100
2273
che stiamo conducendo, non ancora portato a termine.
08:09
Imagine that an organization has access
189
489373
2319
Immaginate che un'organizzazione abbia accesso
08:11
to your list of Facebook friends,
190
491692
2056
alla lista dei vostri amici su Facebook,
08:13
and through some kind of algorithm
191
493748
1772
e che attraverso un algoritmo
08:15
they can detect the two friends that you like the most.
192
495520
3734
sia in grado di rilevare i due amici che amate di più.
08:19
And then they create, in real time,
193
499254
2280
Poi creano in tempo reale
08:21
a facial composite of these two friends.
194
501534
2842
un composito facciale di questi due amici.
08:24
Now studies prior to ours have shown that people
195
504376
3069
Studi precedenti hanno dimostrato che le persone
08:27
don't recognize any longer even themselves
196
507445
2885
non riconoscono nemmeno più se stesse
08:30
in facial composites, but they react
197
510330
2462
nei compositi facciali, ma che reagiscono
08:32
to those composites in a positive manner.
198
512792
2117
positivamente a quei compositi.
08:34
So next time you are looking for a certain product,
199
514909
3415
Così la prossima volta che cercate un prodotto
08:38
and there is an ad suggesting you to buy it,
200
518324
2559
e una pubblicità vi suggerisce di comprare quel prodotto,
08:40
it will not be just a standard spokesperson.
201
520883
2907
potrebbe non esserci un normale portavoce,
08:43
It will be one of your friends,
202
523790
2313
potrebbe essere uno dei vostri amici,
08:46
and you will not even know that this is happening.
203
526103
3303
e voi non ne sarete nemmeno consapevoli.
08:49
Now the problem is that
204
529406
2413
Il problema è che
08:51
the current policy mechanisms we have
205
531819
2519
attualmente i meccanismi normativi che abbiamo
08:54
to protect ourselves from the abuses of personal information
206
534338
3438
a disposizione per difenderci agli abusi di dati personali
08:57
are like bringing a knife to a gunfight.
207
537776
2984
sono totalmente inadeguati.
09:00
One of these mechanisms is transparency,
208
540760
2913
Uno di questi è la trasparenza,
09:03
telling people what you are going to do with their data.
209
543673
3200
ovvero comunicare alle persone come verrano usati i loro dati.
09:06
And in principle, that's a very good thing.
210
546873
2106
E in linea di principio, è una buona cosa.
09:08
It's necessary, but it is not sufficient.
211
548979
3667
È necessario, ma non sufficiente.
09:12
Transparency can be misdirected.
212
552646
3698
La trasparenza può essere manipolata.
09:16
You can tell people what you are going to do,
213
556344
2104
Potete dire alle persone cosa avete intenzione di fare,
09:18
and then you still nudge them to disclose
214
558448
2232
e in seguito spingerli a rivelare
09:20
arbitrary amounts of personal information.
215
560680
2623
una gran quantità di dati personali.
09:23
So in yet another experiment, this one with students,
216
563303
2886
Così, in un altro esperimento
09:26
we asked them to provide information
217
566189
3058
abbiamo chiesto a degli studenti di fornire informazioni
09:29
about their campus behavior,
218
569247
1813
inerenti il loro comportamento nel campus,
09:31
including pretty sensitive questions, such as this one.
219
571060
2940
comprese molte domande sensibili, come questa:
09:34
[Have you ever cheated in an exam?]
220
574000
621
09:34
Now to one group of subjects, we told them,
221
574621
2300
[Hai mai copiato ad un esame?]
A un gruppo di soggetti abbiamo detto
09:36
"Only other students will see your answers."
222
576921
2841
"Le tue risposte verrano viste solo da altri studenti."
09:39
To another group of subjects, we told them,
223
579762
1579
A un altro gruppo di soggetti, abbiamo detto,
09:41
"Students and faculty will see your answers."
224
581341
3561
"Gli studenti e la facoltà vedranno le tue risposte".
09:44
Transparency. Notification. And sure enough, this worked,
225
584902
2591
Trasparenza. Notifica. E certo, ha funzionato,
09:47
in the sense that the first group of subjects
226
587493
1407
nel senso che il primo gruppo
09:48
were much more likely to disclose than the second.
227
588900
2568
era molto più propenso a fornire dati sensibili rispetto al secondo gruppo.
09:51
It makes sense, right?
228
591468
1520
Ha senso, non è vero?
09:52
But then we added the misdirection.
229
592988
1490
Ma poi abbiamo aggiunto indicazioni fuorvianti.
09:54
We repeated the experiment with the same two groups,
230
594478
2760
Abbiamo ripetuto l'esperimento con gli stessi due gruppi,
09:57
this time adding a delay
231
597238
2427
questa volta facendo passare un lasso di tempo
09:59
between the time we told subjects
232
599665
2935
tra il momento in cui abbiamo detto agli studenti
10:02
how we would use their data
233
602600
2080
come avremmo usato i loro dati
10:04
and the time we actually started answering the questions.
234
604680
4388
e il momento in cui abbiamo cominciato effettivamente a raccogliere le risposte.
10:09
How long a delay do you think we had to add
235
609068
2561
Quanto deve durare l'intervallo di tempo
10:11
in order to nullify the inhibitory effect
236
611629
4613
affinché si annulli l'effetto inibitorio
10:16
of knowing that faculty would see your answers?
237
616242
3411
di sapere che la facoltà leggerà le vostre risposte?
10:19
Ten minutes?
238
619653
1780
Dieci minuti?
10:21
Five minutes?
239
621433
1791
Cinque minuti?
10:23
One minute?
240
623224
1776
Un minuto?
10:25
How about 15 seconds?
241
625000
2049
Che ne dite di 15 secondi?
10:27
Fifteen seconds were sufficient to have the two groups
242
627049
2668
Quindici secondi sono stati sufficienti per far sì che entrambi i gruppi
10:29
disclose the same amount of information,
243
629717
1568
fornissero le stesse informazioni,
10:31
as if the second group now no longer cares
244
631285
2746
come se ora al secondo gruppo non importasse più
10:34
for faculty reading their answers.
245
634031
2656
che la facoltà leggesse le loro risposte.
10:36
Now I have to admit that this talk so far
246
636687
3336
Devo ammettere che il mio intervento finora
10:40
may sound exceedingly gloomy,
247
640023
2480
può sembrare eccessivamente pessimista,
10:42
but that is not my point.
248
642503
1721
ma non è questo il punto.
10:44
In fact, I want to share with you the fact that
249
644224
2699
In realtà, voglio condividere con voi il fatto che
10:46
there are alternatives.
250
646923
1772
ci sono alternative.
10:48
The way we are doing things now is not the only way
251
648695
2499
Il modo in cui stiamo facendo le cose non è l'unico modo,
10:51
they can done, and certainly not the best way
252
651194
3037
e certo non è il modo migliore
10:54
they can be done.
253
654231
2027
con cui farle.
10:56
When someone tells you, "People don't care about privacy,"
254
656258
4171
Quando qualcuno vi dice, "Le persone non si preoccupano della privacy"
11:00
consider whether the game has been designed
255
660429
2642
considerate se il gioco è stato progettato
11:03
and rigged so that they cannot care about privacy,
256
663071
2724
e manipolato in modo che non possano preoccuparsi della privacy.
11:05
and coming to the realization that these manipulations occur
257
665795
3262
Comprendere che queste manipolazioni si verificano
11:09
is already halfway through the process
258
669057
1607
è già metà della strada da compiere
11:10
of being able to protect yourself.
259
670664
2258
per poter essere in grado di proteggersi.
11:12
When someone tells you that privacy is incompatible
260
672922
3710
Quando qualcuno vi dice che la riservatezza è incompatibile
11:16
with the benefits of big data,
261
676632
1849
con i vantaggi dei grandi dati,
11:18
consider that in the last 20 years,
262
678481
2473
considerate che negli ultimi 20 anni,
11:20
researchers have created technologies
263
680954
1917
i ricercatori hanno creato tecnologie
11:22
to allow virtually any electronic transactions
264
682871
3318
per far sì che qualsiasi transazione elettronica
11:26
to take place in a more privacy-preserving manner.
265
686189
3749
avvenga in modo da garantire maggiormente la privacy.
11:29
We can browse the Internet anonymously.
266
689938
2555
Possiamo navigare in Internet in modo anonimo.
11:32
We can send emails that can only be read
267
692493
2678
Possiamo inviare email che possono essere lette solo
11:35
by the intended recipient, not even the NSA.
268
695171
3709
dal destinatario, nemmeno dalla NSA.
11:38
We can have even privacy-preserving data mining.
269
698880
2997
Possiamo anche estrarre dati preservando la privacy.
11:41
In other words, we can have the benefits of big data
270
701877
3894
In altre parole, possiamo avere i benefici dei grandi dati
11:45
while protecting privacy.
271
705771
2132
proteggendo la privacy.
11:47
Of course, these technologies imply a shifting
272
707903
3791
Naturalmente, queste tecnologie implicano uno spostamento
11:51
of cost and revenues
273
711694
1546
di costi e ricavi
11:53
between data holders and data subjects,
274
713240
2107
tra i titolari di dati e i soggetti dei dati,
11:55
which is why, perhaps, you don't hear more about them.
275
715347
3453
che è il motivo per cui non ne sentiamo parlare molto.
11:58
Which brings me back to the Garden of Eden.
276
718800
3706
Il che mi riporta al Giardino dell'Eden.
12:02
There is a second privacy interpretation
277
722506
2780
C'è una seconda interpretazione sulla privacy
12:05
of the story of the Garden of Eden
278
725286
1809
nella storia del Giardino dell'Eden
12:07
which doesn't have to do with the issue
279
727095
2096
che non ha nulla a che fare con il fatto
12:09
of Adam and Eve feeling naked
280
729191
2225
che Adamo ed Eva si sentono nudi
12:11
and feeling ashamed.
281
731416
2381
e si vergognano.
12:13
You can find echoes of this interpretation
282
733797
2781
Si possono trovare echi di questa interpretazione
12:16
in John Milton's "Paradise Lost."
283
736578
2782
nel "Paradiso Perduto" di John Milton.
12:19
In the garden, Adam and Eve are materially content.
284
739360
4197
Nel giardino, Adamo ed Eva sono materialmente contenti.
12:23
They're happy. They are satisfied.
285
743557
2104
Sono felici. Sono soddisfatti.
12:25
However, they also lack knowledge
286
745661
2293
Tuttavia, mancano della conoscenza
12:27
and self-awareness.
287
747954
1640
e della consapevolezza di sé.
12:29
The moment they eat the aptly named
288
749594
3319
Il momento in cui mangiano il giustamente chiamato
12:32
fruit of knowledge,
289
752913
1293
frutto della conoscenza,
12:34
that's when they discover themselves.
290
754206
2605
è il momento in cui scoprono se stessi.
12:36
They become aware. They achieve autonomy.
291
756811
4031
Diventano consapevoli. Raggiungono l'autonomia.
12:40
The price to pay, however, is leaving the garden.
292
760842
3126
Tuttavia, Il prezzo da pagare è lasciare il giardino.
12:43
So privacy, in a way, is both the means
293
763968
3881
Così la privacy, in un certo senso, è sia il mezzo
12:47
and the price to pay for freedom.
294
767849
2962
sia il prezzo da pagare per la libertà.
12:50
Again, marketers tell us
295
770811
2770
Ancora una volta, il marketing ci dice
12:53
that big data and social media
296
773581
3019
che i big data e i social media
12:56
are not just a paradise of profit for them,
297
776600
2979
non sono solo un paradiso di profitto per loro,
12:59
but a Garden of Eden for the rest of us.
298
779579
2457
ma un Giardino dell'Eden per il resto di noi.
13:02
We get free content.
299
782036
1238
Otteniamo contenuti gratuiti.
13:03
We get to play Angry Birds. We get targeted apps.
300
783274
3123
Possiamo giocare a Angry Birds. Scarichiamo applicazioni mirate.
13:06
But in fact, in a few years, organizations
301
786397
2897
Ma in realtà, in pochi anni, le organizzazioni
13:09
will know so much about us,
302
789294
1609
socpriranno così tanto di noi,
13:10
they will be able to infer our desires
303
790903
2710
che saranno in grado di dedurre i nostri desideri
13:13
before we even form them, and perhaps
304
793613
2204
prima ancora che si formulino
13:15
buy products on our behalf
305
795817
2447
e forse acquisteranno prodotti per nostro conto
13:18
before we even know we need them.
306
798264
2274
prima ancora che ci rendiamo conto di averne bisogno.
13:20
Now there was one English author
307
800538
3237
C'è stato un autore inglese
13:23
who anticipated this kind of future
308
803775
3045
che ha previsto questo tipo di futuro
13:26
where we would trade away
309
806820
1405
dove avremmo venduto
13:28
our autonomy and freedom for comfort.
310
808225
3548
la nostra autonomia e libertà per il comfort.
13:31
Even more so than George Orwell,
311
811773
2161
Ancora più che George Orwell,
13:33
the author is, of course, Aldous Huxley.
312
813934
2761
l'autore è, naturalmente, Aldous Huxley.
13:36
In "Brave New World," he imagines a society
313
816695
2854
In "Il Mondo Nuovo", immagina una società
13:39
where technologies that we created
314
819549
2171
dove le tecnologie che abbiamo creato
13:41
originally for freedom
315
821720
1859
originariamente per la libertà
13:43
end up coercing us.
316
823579
2567
finiscono per controllarci.
13:46
However, in the book, he also offers us a way out
317
826146
4791
Tuttavia, nel libro, ci offre anche una via d'uscita
13:50
of that society, similar to the path
318
830937
3438
da quella società, simile al percorso
13:54
that Adam and Eve had to follow to leave the garden.
319
834375
3955
che Adamo ed Eva hanno dovuto seguire per lasciare il giardino.
13:58
In the words of the Savage,
320
838330
2147
Nelle parole del Selvaggio,
14:00
regaining autonomy and freedom is possible,
321
840477
3069
riconquistare l'autonomia e la libertà è possibile,
14:03
although the price to pay is steep.
322
843546
2679
anche se il prezzo da pagare è caro.
14:06
So I do believe that one of the defining fights
323
846225
5715
Quindi credo che una delle lotte principali
14:11
of our times will be the fight
324
851940
2563
dei nostri tempi sarà la lotta
14:14
for the control over personal information,
325
854503
2387
per il controllo delle informazioni personali,
14:16
the fight over whether big data will become a force
326
856890
3507
la lotta per determinare se i big data diventeranno una forza
14:20
for freedom,
327
860397
1289
per la libertà,
14:21
rather than a force which will hiddenly manipulate us.
328
861686
4746
o una forza che ci manipolerà di nascosto.
14:26
Right now, many of us
329
866432
2593
Ora, molti di noi
14:29
do not even know that the fight is going on,
330
869025
2753
non sanno nemmeno che la lotta è in corso,
14:31
but it is, whether you like it or not.
331
871778
2672
ma è così, che vi piaccia o no.
14:34
And at the risk of playing the serpent,
332
874450
2804
E a rischio di fare la parte del serpente,
14:37
I will tell you that the tools for the fight
333
877254
2897
vi dirò che gli strumenti per la lotta
14:40
are here, the awareness of what is going on,
334
880151
3009
sono qui, la consapevolezza di ciò che sta succedendo,
14:43
and in your hands,
335
883160
1355
e nelle vostre mani,
14:44
just a few clicks away.
336
884515
3740
a pochi clic di distanza.
14:48
Thank you.
337
888255
1482
Grazie.
14:49
(Applause)
338
889737
4477
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7