What will a future without secrets look like? | Alessandro Acquisti

Alessandro Acquisti: Pourquoi le respect de la vie privée est important.

202,219 views

2013-10-18 ・ TED


New videos

What will a future without secrets look like? | Alessandro Acquisti

Alessandro Acquisti: Pourquoi le respect de la vie privée est important.

202,219 views ・ 2013-10-18

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Pierre Granchamp Relecteur: Nhu PHAM
00:12
I would like to tell you a story
0
12641
2354
Je voudrais vous raconter une histoire
00:14
connecting the notorious privacy incident
1
14995
3176
qui fait le lien entre le célèbre incident qui s'est produit
00:18
involving Adam and Eve,
2
18171
2769
dans la vie privée d'Adam et Eve,
00:20
and the remarkable shift in the boundaries
3
20940
3446
et le remarquable déplacement de la frontière
00:24
between public and private which has occurred
4
24386
2686
entre vie publique et vie privée qui s'est produit
00:27
in the past 10 years.
5
27072
1770
dans les 10 dernières années.
00:28
You know the incident.
6
28842
1298
Vous connaissez l'incident.
00:30
Adam and Eve one day in the Garden of Eden
7
30140
3330
Adam et Eve, un jour, au Jardin d'Eden,
00:33
realize they are naked.
8
33470
1843
réalisent qu'ils sont nus.
00:35
They freak out.
9
35313
1500
Ils paniquent.
00:36
And the rest is history.
10
36813
2757
On connait la suite.
00:39
Nowadays, Adam and Eve
11
39570
2188
De nos jours, Adam et Eve
00:41
would probably act differently.
12
41758
2361
se comporteraient sans doute différemment.
00:44
[@Adam Last nite was a blast! loved dat apple LOL]
13
44119
2268
[@Adam Cette nuit était trop top ! Adoré 7 pom LOL]
00:46
[@Eve yep.. babe, know what happened to my pants tho?]
14
46387
1873
[@Eve Ok...Baby, T sais ce ki est arrivé à mon pantalon ?
00:48
We do reveal so much more information
15
48260
2636
Nous révélons tellement plus d'informations
00:50
about ourselves online than ever before,
16
50896
3334
sur nous-mêmes, en ligne, que jamais auparavant,
00:54
and so much information about us
17
54230
1704
et tant d'informations qui nous concernent
00:55
is being collected by organizations.
18
55934
2224
sont collectées par des organisations.
00:58
Now there is much to gain and benefit
19
58158
3282
Nous avons certes beaucoup à gagner et à bénéficier
01:01
from this massive analysis of personal information,
20
61440
2446
de cette analyse géante d'informations personnelles,
01:03
or big data,
21
63886
1946
ou Big Data,
01:05
but there are also complex tradeoffs that come
22
65832
2638
mais il y a aussi des contreparties complexes
01:08
from giving away our privacy.
23
68470
3098
à abandonner notre vie privée.
01:11
And my story is about these tradeoffs.
24
71568
4023
Mon histoire parle de ces contreparties.
01:15
We start with an observation which, in my mind,
25
75591
2584
Commençons par une observation qui, dans mon esprit,
01:18
has become clearer and clearer in the past few years,
26
78175
3327
est devenue de plus en plus claire ces dernières années :
01:21
that any personal information
27
81502
2097
toute information personnelle
01:23
can become sensitive information.
28
83599
2285
peut devenir une information sensible.
01:25
Back in the year 2000, about 100 billion photos
29
85884
4125
En 2000, environ 100 milliards de photos
01:30
were shot worldwide,
30
90009
1912
ont été prises dans le monde,
01:31
but only a minuscule proportion of them
31
91921
3065
mais seule une infime proportion de celles-ci
01:34
were actually uploaded online.
32
94986
1883
ont été mises en ligne.
01:36
In 2010, only on Facebook, in a single month,
33
96869
3361
En 2010, rien que sur Facebook, en un seul mois,
01:40
2.5 billion photos were uploaded,
34
100230
3270
2,5 milliards de photos ont été mises en ligne,
01:43
most of them identified.
35
103500
1882
la plupart identifiées.
01:45
In the same span of time,
36
105382
1880
Pendant ce temps,
01:47
computers' ability to recognize people in photos
37
107262
4870
la capacité des ordinateurs à reconnaître des personnes sur photo
01:52
improved by three orders of magnitude.
38
112132
3608
s'est améliorée de trois ordres de grandeur.
01:55
What happens when you combine
39
115740
1882
Que se passe-t-il quand on combine
01:57
these technologies together:
40
117622
1501
ces technologies ?
01:59
increasing availability of facial data;
41
119123
2658
Disponibilité croissante des données faciales ;
02:01
improving facial recognizing ability by computers;
42
121781
3648
capacité améliorée de reconnaissance faciale par les ordinateurs ;
02:05
but also cloud computing,
43
125429
2182
mais aussi le cloud computing,
02:07
which gives anyone in this theater
44
127611
1888
qui donne à chacun de nous dans cette salle
02:09
the kind of computational power
45
129499
1560
la puissance de calcul
02:11
which a few years ago was only the domain
46
131059
1886
qui, il y a quelques années à peine, était du registre
02:12
of three-letter agencies;
47
132945
1782
des services spéciaux ;
02:14
and ubiquitous computing,
48
134727
1378
et l'informatique omniprésente,
02:16
which allows my phone, which is not a supercomputer,
49
136105
2892
qui permet à mon téléphone, pourtant pas un super-ordinateur,
02:18
to connect to the Internet
50
138997
1671
de se connecter à Internet
02:20
and do there hundreds of thousands
51
140668
2334
et d'y réaliser des centaines de milliers
02:23
of face metrics in a few seconds?
52
143002
2639
de mesures faciales en quelques secondes.
02:25
Well, we conjecture that the result
53
145641
2628
Et bien, nous émettons l'hypothèse
02:28
of this combination of technologies
54
148269
2064
que le résultat de cette combinaison de technologies
02:30
will be a radical change in our very notions
55
150333
2888
sera un changement radical de nos conceptions mêmes
02:33
of privacy and anonymity.
56
153221
2257
de la vie privée et de l'anonymat.
02:35
To test that, we did an experiment
57
155478
1993
Pour tester cela, on a réalisé une expérience
02:37
on Carnegie Mellon University campus.
58
157471
2121
sur le campus de l'Université Carnegie Mellon.
02:39
We asked students who were walking by
59
159592
2099
On a demandé à des étudiants qui passaient
02:41
to participate in a study,
60
161691
1779
de participer à une étude,
02:43
and we took a shot with a webcam,
61
163470
2562
on a pris une photo d'eux avec une webcam,
02:46
and we asked them to fill out a survey on a laptop.
62
166032
2782
et on leur a demandé de répondre à un sondage sur un PC portable.
02:48
While they were filling out the survey,
63
168814
1979
Pendant qu'ils répondaient au sondage,
02:50
we uploaded their shot to a cloud-computing cluster,
64
170793
2797
on a téléchargé leur photo sur un groupe de cloud-computing,
02:53
and we started using a facial recognizer
65
173590
1727
et on a utilisé un outil de reconnaissance faciale
02:55
to match that shot to a database
66
175317
2405
pour faire correspondre cette photo à une base de données
02:57
of some hundreds of thousands of images
67
177722
2393
de centaines de milliers d'images,
03:00
which we had downloaded from Facebook profiles.
68
180115
3596
qu'on avait téléchargée depuis des profils Facebook.
03:03
By the time the subject reached the last page
69
183711
3259
Avant que le sujet n'ait atteint la dernière page du sondage,
03:06
on the survey, the page had been dynamically updated
70
186970
3347
celle-ci avait été mise à jour de façon dynamique
03:10
with the 10 best matching photos
71
190317
2313
avec les 10 meilleures photos correspondantes
03:12
which the recognizer had found,
72
192630
2285
que l'outil de reconnaissance avait trouvées,
03:14
and we asked the subjects to indicate
73
194915
1738
et on a demandé aux sujets d'indiquer
03:16
whether he or she found themselves in the photo.
74
196653
4120
si ils ou elles s'étaient reconnus sur la photo.
03:20
Do you see the subject?
75
200773
3699
Vous voyez le sujet ?
03:24
Well, the computer did, and in fact did so
76
204472
2845
Et bien, l'ordinateur l'avait vu, et en fait, il l'a vu
03:27
for one out of three subjects.
77
207317
2149
chez un sujet sur trois.
03:29
So essentially, we can start from an anonymous face,
78
209466
3184
On peut donc partir d'un visage anonyme,
03:32
offline or online, and we can use facial recognition
79
212650
3484
en ligne ou hors ligne, et on peut utiliser la reconnaissance faciale
03:36
to give a name to that anonymous face
80
216134
2360
pour donner un nom à ce visage anonyme
03:38
thanks to social media data.
81
218494
2108
grâce aux données des réseaux sociaux.
03:40
But a few years back, we did something else.
82
220602
1872
Mais quelques années auparavant, on a fait quelque chose d'autre.
03:42
We started from social media data,
83
222474
1823
A partir des données des réseaux sociaux,
03:44
we combined it statistically with data
84
224297
3051
combinées statistiquement avec les données
03:47
from U.S. government social security,
85
227348
2102
de la Sécurité Sociale du gouvernement américain,
03:49
and we ended up predicting social security numbers,
86
229450
3324
on a réussi à déduire les numéros de sécurité sociale,
03:52
which in the United States
87
232774
1512
ce qui est, aux Etats-Unis,
03:54
are extremely sensitive information.
88
234286
2040
une information extrêmement sensible.
03:56
Do you see where I'm going with this?
89
236326
2093
Vous voyez où je veux en venir ?
03:58
So if you combine the two studies together,
90
238419
2922
Si vous combinez les deux études,
04:01
then the question becomes,
91
241341
1512
la question devient :
04:02
can you start from a face and,
92
242853
2720
peut-on partir d'un visage et,
04:05
using facial recognition, find a name
93
245573
2311
en utilisant la reconnaissance faciale, trouver le nom
04:07
and publicly available information
94
247884
2669
et les informations disponibles de façon publique
04:10
about that name and that person,
95
250553
1932
sur ce nom et sur cette personne,
04:12
and from that publicly available information
96
252485
2248
puis, à partir de ces informations publiques,
04:14
infer non-publicly available information,
97
254733
2042
en déduire des informations non publiques,
04:16
much more sensitive ones
98
256775
1606
beaucoup plus sensibles,
04:18
which you link back to the face?
99
258381
1492
que l'on peut relier au visage ?
04:19
And the answer is, yes, we can, and we did.
100
259873
1916
Et la réponse est, oui, on peut, et on l'a fait.
04:21
Of course, the accuracy keeps getting worse.
101
261789
2568
Bien sûr, la précision est de pire en pire.
04:24
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
102
264357
944
[27% des 5 premiers chiffres du numéro de SS identifiés (après 4 essais)]
04:25
But in fact, we even decided to develop an iPhone app
103
265301
3827
En fait, nous avons même décidé de développer une application iPhone
04:29
which uses the phone's internal camera
104
269128
2715
qui utilise la caméra interne du téléphone
04:31
to take a shot of a subject
105
271843
1600
pour prendre un sujet en photo
04:33
and then upload it to a cloud
106
273443
1487
et la télécharger sur le cloud
04:34
and then do what I just described to you in real time:
107
274930
2662
et puis faire ce que je vous ai décrit en temps réel :
04:37
looking for a match, finding public information,
108
277592
2088
chercher une correspondance, trouver des informations publiques,
04:39
trying to infer sensitive information,
109
279680
1730
essayer d'en déduire des informations sensibles,
04:41
and then sending back to the phone
110
281410
2591
et la renvoyer sur le téléphone
04:44
so that it is overlaid on the face of the subject,
111
284001
3609
pour qu'elle s'affiche sur le visage du sujet,
04:47
an example of augmented reality,
112
287610
1901
un exemple de réalité augmentée,
04:49
probably a creepy example of augmented reality.
113
289511
2451
probablement un exemple effrayant de réalité augmentée.
04:51
In fact, we didn't develop the app to make it available,
114
291962
3339
En fait, nous n'avons pas développé l'appli pour la rendre publique,
04:55
just as a proof of concept.
115
295301
1922
mais seulement comme une preuve du concept.
04:57
In fact, take these technologies
116
297223
2313
En fait, prenez ces technologies,
04:59
and push them to their logical extreme.
117
299536
1837
et poussez-les jusqu'à leur extrémité logique.
05:01
Imagine a future in which strangers around you
118
301373
2719
Imaginez un futur où des inconnus autour de vous
05:04
will look at you through their Google Glasses
119
304092
2311
vous regarderont à travers leurs Google Glasses
05:06
or, one day, their contact lenses,
120
306403
2307
ou bien, un jour, leurs lentilles de contact,
05:08
and use seven or eight data points about you
121
308710
4020
et utiliseront 7 ou 8 données sur vous
05:12
to infer anything else
122
312730
2582
pour en déduire n'importe quoi d'autre
05:15
which may be known about you.
123
315312
2603
qui pourrait être connu à votre sujet.
05:17
What will this future without secrets look like?
124
317915
4794
A quoi ressemblera ce futur sans secrets ?
05:22
And should we care?
125
322709
1964
Et devons-nous nous en préoccuper ?
05:24
We may like to believe
126
324673
1891
On pourrait aimer croire
05:26
that the future with so much wealth of data
127
326564
3040
qu'un futur avec une telle richesse de données
05:29
would be a future with no more biases,
128
329604
2514
serait un futur sans plus de parti-pris,
05:32
but in fact, having so much information
129
332118
3583
mais en fait, avoir autant d'informations
05:35
doesn't mean that we will make decisions
130
335701
2191
ne veut pas dire que nous prendrons des décisions
05:37
which are more objective.
131
337892
1706
plus objectives.
05:39
In another experiment, we presented to our subjects
132
339598
2560
Dans une autre expérience, nous avons présenté à nos sujets
05:42
information about a potential job candidate.
133
342158
2246
des informations à propos d'un candidat potentiel à un emploi.
05:44
We included in this information some references
134
344404
3178
Nous avons inclus dans ces informations des références à des choses
05:47
to some funny, absolutely legal,
135
347582
2646
plutôt drôles, absolument légales,
05:50
but perhaps slightly embarrassing information
136
350228
2465
mais peut-être un peu embarrassantes
05:52
that the subject had posted online.
137
352693
2020
que le sujet avait postées en ligne.
05:54
Now interestingly, among our subjects,
138
354713
2366
De façon intéressante, parmi nos sujets,
05:57
some had posted comparable information,
139
357079
3083
certains avaient posté des choses de même nature,
06:00
and some had not.
140
360162
2362
et d'autres non.
06:02
Which group do you think
141
362524
1949
Quel groupe, d'après vous,
06:04
was more likely to judge harshly our subject?
142
364473
4552
a été le plus enclin à juger durement notre sujet ?
06:09
Paradoxically, it was the group
143
369025
1957
De façon paradoxale, c'est le groupe
06:10
who had posted similar information,
144
370982
1733
qui avait posté des choses similaires,
06:12
an example of moral dissonance.
145
372715
2942
un exemple de dissonance morale.
06:15
Now you may be thinking,
146
375657
1750
Vous pourriez vous dire,
06:17
this does not apply to me,
147
377407
1702
ceci ne s'applique pas à moi,
06:19
because I have nothing to hide.
148
379109
2162
parce que je n'ai rien à cacher.
06:21
But in fact, privacy is not about
149
381271
2482
Mais en réalité, la vie privée n'a rien à voir
06:23
having something negative to hide.
150
383753
3676
avec le fait d'avoir quelque chose de négatif à cacher.
06:27
Imagine that you are the H.R. director
151
387429
2354
Imaginez que vous êtes le directeur des R.H.
06:29
of a certain organization, and you receive résumés,
152
389783
2947
d'une certaine organisation, et que vous receviez des CV,
06:32
and you decide to find more information about the candidates.
153
392730
2473
et que vous décidiez de trouver plus d'informations au sujet de vos candidats.
06:35
Therefore, you Google their names
154
395203
2460
Pour cela, vous Googlez leur noms
06:37
and in a certain universe,
155
397663
2240
et dans un certain univers,
06:39
you find this information.
156
399903
2008
vous trouvez ces informations.
06:41
Or in a parallel universe, you find this information.
157
401911
4437
Ou, dans un univers parallèle, vous trouvez celles-ci.
06:46
Do you think that you would be equally likely
158
406348
2717
Pensez-vous que chaque candidat aurait autant de chance
06:49
to call either candidate for an interview?
159
409065
2803
que vous l'appeliez pour un entretien ?
06:51
If you think so, then you are not
160
411868
2282
SI vous pensez ça, alors vous n'êtes pas
06:54
like the U.S. employers who are, in fact,
161
414150
2582
comme les employeurs américains qui, en fait, font
06:56
part of our experiment, meaning we did exactly that.
162
416732
3307
partie de notre expérience, je veux dire que c'est exactement ce qu'on a fait.
07:00
We created Facebook profiles, manipulating traits,
163
420039
3182
On a créé des profils Facebook, déformé certains faits,
07:03
then we started sending out résumés to companies in the U.S.,
164
423221
2851
et on a commencé à envoyer nos CV à des sociétés aux Etats-Unis,
07:06
and we detected, we monitored,
165
426072
1908
puis nous avons détecté et suivi
07:07
whether they were searching for our candidates,
166
427980
2393
s'ils faisaient des recherches sur nos candidats,
07:10
and whether they were acting on the information
167
430373
1832
et s'ils agissaient en fonction des informations
07:12
they found on social media. And they were.
168
432205
1938
qu'ils avaient trouvées sur les réseaux sociaux. Et ils le faisaient.
07:14
Discrimination was happening through social media
169
434143
2101
La discrimination se faisait à travers les réseaux sociaux
07:16
for equally skilled candidates.
170
436244
3073
pour des candidats de même niveau de qualification.
07:19
Now marketers like us to believe
171
439317
4575
Les spécialistes du marketing voudraient nous faire croire
07:23
that all information about us will always
172
443892
2269
que toutes les informations nous concernant seront toujours
07:26
be used in a manner which is in our favor.
173
446161
3273
utilisées pour notre bénéfice.
07:29
But think again. Why should that be always the case?
174
449434
3715
Mais pensez-y. Pourquoi devrait-ce toujours être le cas ?
07:33
In a movie which came out a few years ago,
175
453149
2664
Dans un film sorti il y a quelques années,
07:35
"Minority Report," a famous scene
176
455813
2553
« Minority Report », une scène célèbre
07:38
had Tom Cruise walk in a mall
177
458366
2576
montre Tom Cruise marchant dans un centre commercial
07:40
and holographic personalized advertising
178
460942
3776
alors qu'une une publicité holographique personnalisée
07:44
would appear around him.
179
464718
1835
apparaît autour de lui.
07:46
Now, that movie is set in 2054,
180
466553
3227
Ce film était censé se passer en 2054,
07:49
about 40 years from now,
181
469780
1642
dans environ 40 ans,
07:51
and as exciting as that technology looks,
182
471422
2908
et aussi excitante que semble cette technologie,
07:54
it already vastly underestimates
183
474330
2646
elle sous-estime déjà largement
07:56
the amount of information that organizations
184
476976
2140
la quantité d'informations que les organisations
07:59
can gather about you, and how they can use it
185
479116
2483
peuvent recueillir à votre sujet, et comment elles peuvent les utiliser
08:01
to influence you in a way that you will not even detect.
186
481599
3398
pour vous influencer d'une manière que vous ne détecterez même pas.
08:04
So as an example, this is another experiment
187
484997
2103
A titre d'exemple, voici une autre expérience
08:07
actually we are running, not yet completed.
188
487100
2273
qui est encore en cours, pas encore terminée.
08:09
Imagine that an organization has access
189
489373
2319
Imaginez qu'une organisation ait accès
08:11
to your list of Facebook friends,
190
491692
2056
à votre liste d'amis sur Facebook,
08:13
and through some kind of algorithm
191
493748
1772
et grâce à une sorte d'algorithme
08:15
they can detect the two friends that you like the most.
192
495520
3734
elle peut détecter les deux amis que vous aimez le plus.
08:19
And then they create, in real time,
193
499254
2280
Puis elle crée, en temps réel,
08:21
a facial composite of these two friends.
194
501534
2842
un composé du visage de ces deux amis.
08:24
Now studies prior to ours have shown that people
195
504376
3069
Des études avant les nôtres ont démontré que les gens
08:27
don't recognize any longer even themselves
196
507445
2885
ne se reconnaissent même plus eux-mêmes
08:30
in facial composites, but they react
197
510330
2462
dans des visages composés, mais ils réagissent
08:32
to those composites in a positive manner.
198
512792
2117
envers ces composés d'une manière favorable.
08:34
So next time you are looking for a certain product,
199
514909
3415
Ainsi, la prochaine fois que vous chercherez un produit donné,
08:38
and there is an ad suggesting you to buy it,
200
518324
2559
et qu'il y aura une pub vous proposant de l'acheter,
08:40
it will not be just a standard spokesperson.
201
520883
2907
ce ne sera pas juste un acteur standard.
08:43
It will be one of your friends,
202
523790
2313
Ce sera l'un de vos amis,
08:46
and you will not even know that this is happening.
203
526103
3303
et vous ne remarquerez même pas que cela se passe comme ça.
08:49
Now the problem is that
204
529406
2413
Aujourd'hui, le problème est que
08:51
the current policy mechanisms we have
205
531819
2519
les mécanismes de régulations actuels
08:54
to protect ourselves from the abuses of personal information
206
534338
3438
pour nous protéger contre les abus liés à l'utilisation des informations personnelles
08:57
are like bringing a knife to a gunfight.
207
537776
2984
sont comme affronter une mitraillette armé seulement d'un couteau.
09:00
One of these mechanisms is transparency,
208
540760
2913
L'un de ces mécanismes est la transparence,
09:03
telling people what you are going to do with their data.
209
543673
3200
on doit informer les personnes de ce que l'on va faire avec leurs données.
09:06
And in principle, that's a very good thing.
210
546873
2106
Et, en principe, c'est une très bonne chose.
09:08
It's necessary, but it is not sufficient.
211
548979
3667
C'est nécessaire, mais pas suffisant.
09:12
Transparency can be misdirected.
212
552646
3698
La transparence peut être détournée.
09:16
You can tell people what you are going to do,
213
556344
2104
Vous pouvez dire aux gens ce que vous allez faire,
09:18
and then you still nudge them to disclose
214
558448
2232
et les pousser encore à divulguer
09:20
arbitrary amounts of personal information.
215
560680
2623
des quantités arbitraires d'informations personnelles.
09:23
So in yet another experiment, this one with students,
216
563303
2886
Ainsi, dans une autre expérience, menée avec des étudiants,
09:26
we asked them to provide information
217
566189
3058
nous leur avons demandé de fournir des informations
09:29
about their campus behavior,
218
569247
1813
sur leur comportement sur le campus,
09:31
including pretty sensitive questions, such as this one.
219
571060
2940
y compris des questions très sensibles, comme celle-ci :
09:34
[Have you ever cheated in an exam?]
220
574000
621
09:34
Now to one group of subjects, we told them,
221
574621
2300
[Avez-vous déjà triché à un examen ? ]
Nous avons dit à un groupe de sujets :
09:36
"Only other students will see your answers."
222
576921
2841
«Seuls d'autres étudiants vont voir vos réponses.»
09:39
To another group of subjects, we told them,
223
579762
1579
Nous avons dit à un autre groupe :
09:41
"Students and faculty will see your answers."
224
581341
3561
«Les étudiants et les professeurs vont voir vos réponses.»
09:44
Transparency. Notification. And sure enough, this worked,
225
584902
2591
Transparence. Notification. Et, bien sûr, ça a marché,
09:47
in the sense that the first group of subjects
226
587493
1407
dans le sens où le premier groupe de sujets
09:48
were much more likely to disclose than the second.
227
588900
2568
était beaucoup plus enclin à donner des informations que le second.
09:51
It makes sense, right?
228
591468
1520
C'est logique, n'est-ce pas ?
09:52
But then we added the misdirection.
229
592988
1490
Mais nous avons ensuite ajouté le détournement.
09:54
We repeated the experiment with the same two groups,
230
594478
2760
Nous avons répété l'expérience avec les deux mêmes groupes,
09:57
this time adding a delay
231
597238
2427
cette fois-ci, en ajoutant un délai
09:59
between the time we told subjects
232
599665
2935
entre le moment où on a dit aux sujets
10:02
how we would use their data
233
602600
2080
comment nous utiliserions leurs données
10:04
and the time we actually started answering the questions.
234
604680
4388
et le moment où on a commencé à leur poser des questions.
10:09
How long a delay do you think we had to add
235
609068
2561
Combien de temps pensez-vous que nous ayonsdû ajouter
10:11
in order to nullify the inhibitory effect
236
611629
4613
pour neutraliser l'effet inhibiteur
10:16
of knowing that faculty would see your answers?
237
616242
3411
de savoir que les professeurs verraient vos réponses ?
10:19
Ten minutes?
238
619653
1780
Dix minutes ?
10:21
Five minutes?
239
621433
1791
Cinq minutes ?
10:23
One minute?
240
623224
1776
Une minute ?
10:25
How about 15 seconds?
241
625000
2049
Que diriez-vous de 15 secondes ?
10:27
Fifteen seconds were sufficient to have the two groups
242
627049
2668
Quinze secondes ont suffit pour que les deux groupes
10:29
disclose the same amount of information,
243
629717
1568
divulguent la même quantité d'informations,
10:31
as if the second group now no longer cares
244
631285
2746
comme si le deuxième groupe ne se souciait plus
10:34
for faculty reading their answers.
245
634031
2656
que les professeurs puissent lire ses réponses.
10:36
Now I have to admit that this talk so far
246
636687
3336
Je dois reconnaître que cette conférence, jusqu'ici,
10:40
may sound exceedingly gloomy,
247
640023
2480
peut sembler excessivement sombre,
10:42
but that is not my point.
248
642503
1721
mais ce n'est pas l'essentiel de mon message.
10:44
In fact, I want to share with you the fact that
249
644224
2699
En fait, je veux vous montrer
10:46
there are alternatives.
250
646923
1772
qu'il existe des alternatives.
10:48
The way we are doing things now is not the only way
251
648695
2499
La façon dont on fait les choses aujourd'hui
10:51
they can done, and certainly not the best way
252
651194
3037
n'est pas la seule manière de faire,
10:54
they can be done.
253
654231
2027
ni certainement la meilleure.
10:56
When someone tells you, "People don't care about privacy,"
254
656258
4171
Si quelqu'un vous dit, « Les gens se fichent de préserver leur vie privée »,
11:00
consider whether the game has been designed
255
660429
2642
demandez-vous si le jeu n'a pas été conçu
11:03
and rigged so that they cannot care about privacy,
256
663071
2724
et truqué dans le but qu'ils ne puissent pas s'en soucier.
11:05
and coming to the realization that these manipulations occur
257
665795
3262
Réaliser que ces manipulations se produisent,
11:09
is already halfway through the process
258
669057
1607
c'est déjà être à mi-chemin du processus
11:10
of being able to protect yourself.
259
670664
2258
qui nous rend capables de nous protéger nous-mêmes.
11:12
When someone tells you that privacy is incompatible
260
672922
3710
Si quelqu'un vous dit que la protection de la vie privée est incompatible
11:16
with the benefits of big data,
261
676632
1849
avec les avantages du Big Data,
11:18
consider that in the last 20 years,
262
678481
2473
considérez qu'au cours des 20 dernières années,
11:20
researchers have created technologies
263
680954
1917
les chercheurs ont créé des technologies
11:22
to allow virtually any electronic transactions
264
682871
3318
qui permettent à virtuellement toutes les transactions électroniques
11:26
to take place in a more privacy-preserving manner.
265
686189
3749
de se dérouler d'une manière plus respectueuse de la vie privée.
11:29
We can browse the Internet anonymously.
266
689938
2555
On peut naviguer sur Internet de façon anonyme.
11:32
We can send emails that can only be read
267
692493
2678
On peut envoyer des mails qui ne pourront être lus
11:35
by the intended recipient, not even the NSA.
268
695171
3709
que par le destinataire, pas même par la NSA.
11:38
We can have even privacy-preserving data mining.
269
698880
2997
Il peut même y avoir une exploitation des bases de données respectueuse de la vie privée.
11:41
In other words, we can have the benefits of big data
270
701877
3894
En d'autres termes, nous pouvons avoir les avantages du Big Data
11:45
while protecting privacy.
271
705771
2132
tout en protégeant la vie privée.
11:47
Of course, these technologies imply a shifting
272
707903
3791
Bien sûr, ces technologies impliquent un changement
11:51
of cost and revenues
273
711694
1546
de la répartition des coûts et des revenus
11:53
between data holders and data subjects,
274
713240
2107
entre les détenteurs de données et les personnes concernées,
11:55
which is why, perhaps, you don't hear more about them.
275
715347
3453
ce qui explique peut-être pourquoi vous n'en entendez pas beaucoup parler.
11:58
Which brings me back to the Garden of Eden.
276
718800
3706
Ce qui me ramène au Jardin d'Eden.
12:02
There is a second privacy interpretation
277
722506
2780
Il y a une seconde interprétation à propos de la vie privée
12:05
of the story of the Garden of Eden
278
725286
1809
dans l'histoire du Jardin d'Eden
12:07
which doesn't have to do with the issue
279
727095
2096
qui n'a rien à voir avec le fait
12:09
of Adam and Eve feeling naked
280
729191
2225
qu'Adam et Eve se sentent nus
12:11
and feeling ashamed.
281
731416
2381
et honteux.
12:13
You can find echoes of this interpretation
282
733797
2781
Vous pouvez trouver les échos de cette interprétation
12:16
in John Milton's "Paradise Lost."
283
736578
2782
dans "Le Paradis perdu" de John Milton.
12:19
In the garden, Adam and Eve are materially content.
284
739360
4197
Dans le jardin, Adam et Eve sont contentés sur le plan matériel.
12:23
They're happy. They are satisfied.
285
743557
2104
Ils sont heureux. Ils sont satisfaits.
12:25
However, they also lack knowledge
286
745661
2293
Cependant, ils n'ont ni la connaissance,
12:27
and self-awareness.
287
747954
1640
ni la conscience d'eux-mêmes.
12:29
The moment they eat the aptly named
288
749594
3319
Au moment où ils mangent le bien nommé
12:32
fruit of knowledge,
289
752913
1293
fruit de la connaissance,
12:34
that's when they discover themselves.
290
754206
2605
c'est là qu'ils se découvrent eux-mêmes.
12:36
They become aware. They achieve autonomy.
291
756811
4031
Ils prennent conscience. Ils parviennent à l'autonomie.
12:40
The price to pay, however, is leaving the garden.
292
760842
3126
Cependant, le prix à payer, c'est de quitter le jardin.
12:43
So privacy, in a way, is both the means
293
763968
3881
La vie privée, d'une certaine manière, c'est à la fois le moyen
12:47
and the price to pay for freedom.
294
767849
2962
et le prix à payer pour la liberté.
12:50
Again, marketers tell us
295
770811
2770
Encore une fois, les spécialistes du marketing nous disent
12:53
that big data and social media
296
773581
3019
que le Big Data et les réseaux sociaux
12:56
are not just a paradise of profit for them,
297
776600
2979
ne sont pas seulement pour eux un paradis du profit,
12:59
but a Garden of Eden for the rest of us.
298
779579
2457
mais aussi un Jardin d'Eden pour nous autres.
13:02
We get free content.
299
782036
1238
Nous bénéficions de contenus gratuits.
13:03
We get to play Angry Birds. We get targeted apps.
300
783274
3123
Nous avons la chance de jouer à Angry Birds. Nous avons des applications ciblées.
13:06
But in fact, in a few years, organizations
301
786397
2897
Mais en fait, dans quelques années, ces organisations
13:09
will know so much about us,
302
789294
1609
sauront tant de choses sur nous,
13:10
they will be able to infer our desires
303
790903
2710
qu'ils seront en mesure de déduire nos désirs
13:13
before we even form them, and perhaps
304
793613
2204
avant que nous les ayons formés, et peut-être
13:15
buy products on our behalf
305
795817
2447
d'acheter des produits en notre nom
13:18
before we even know we need them.
306
798264
2274
avant qu'on ne réalise qu'on en a besoin.
13:20
Now there was one English author
307
800538
3237
Il y a un auteur anglais
13:23
who anticipated this kind of future
308
803775
3045
qui a anticipé ce genre de futur
13:26
where we would trade away
309
806820
1405
dans lequel nous abandonnerions
13:28
our autonomy and freedom for comfort.
310
808225
3548
notre autonomie et notre liberté pour du confort.
13:31
Even more so than George Orwell,
311
811773
2161
Plus encore que George Orwell,
13:33
the author is, of course, Aldous Huxley.
312
813934
2761
cet auteur est, bien sûr, Aldous Huxley.
13:36
In "Brave New World," he imagines a society
313
816695
2854
Dans « Le Meilleur des Mondes », il imagine une société
13:39
where technologies that we created
314
819549
2171
dans laquelle les technologies que nous avons créées
13:41
originally for freedom
315
821720
1859
à l'origine pour la liberté
13:43
end up coercing us.
316
823579
2567
finissent par nous contraindre.
13:46
However, in the book, he also offers us a way out
317
826146
4791
Toutefois, dans ce livre, il nous offre aussi une porte de sortie
13:50
of that society, similar to the path
318
830937
3438
de cette société, semblable au chemin
13:54
that Adam and Eve had to follow to leave the garden.
319
834375
3955
qu'Adam et Ève ont eu à suivre pour quitter le jardin.
13:58
In the words of the Savage,
320
838330
2147
Selon les termes du Sauvage,
14:00
regaining autonomy and freedom is possible,
321
840477
3069
retrouver l'autonomie et la liberté est possible,
14:03
although the price to pay is steep.
322
843546
2679
bien que le prix à payer soit élevé.
14:06
So I do believe that one of the defining fights
323
846225
5715
Je crois fermement que l'un des combats décisifs
14:11
of our times will be the fight
324
851940
2563
de notre époque sera le combat
14:14
for the control over personal information,
325
854503
2387
pour le contrôle des informations personnelles,
14:16
the fight over whether big data will become a force
326
856890
3507
le combat pour savoir si les Big Data peuvent devenir un vecteur
14:20
for freedom,
327
860397
1289
de liberté,
14:21
rather than a force which will hiddenly manipulate us.
328
861686
4746
plutôt qu'un moyen de nous manipuler à notre insu.
14:26
Right now, many of us
329
866432
2593
À l'heure actuelle, bon nombre d'entre nous
14:29
do not even know that the fight is going on,
330
869025
2753
ne savent même pas que le combat a commencé,
14:31
but it is, whether you like it or not.
331
871778
2672
mais c'est le cas, que ça vous plaise ou non.
14:34
And at the risk of playing the serpent,
332
874450
2804
Et au risque de jouer les serpents,
14:37
I will tell you that the tools for the fight
333
877254
2897
je vous dirais que les outils pour ce combat
14:40
are here, the awareness of what is going on,
334
880151
3009
sont là, la conscience de ce qui est en train de se passer,
14:43
and in your hands,
335
883160
1355
et dans vos mains,
14:44
just a few clicks away.
336
884515
3740
à quelques clics seulement.
14:48
Thank you.
337
888255
1482
Merci.
14:49
(Applause)
338
889737
4477
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7