We're building a dystopia just to make people click on ads | Zeynep Tufekci

738,629 views ・ 2017-11-17

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Morgane Quilfen Relecteur: Claire Ghyselen
00:12
So when people voice fears of artificial intelligence,
0
12760
3536
Quand les gens expriment de la peur envers l'intelligence artificielle,
00:16
very often, they invoke images of humanoid robots run amok.
1
16320
3976
très souvent, ils évoquent des images de robots humanoïdes qui se déchaînent.
00:20
You know? Terminator?
2
20320
1240
Vous voyez ? Terminator ?
00:22
You know, that might be something to consider,
3
22400
2336
Ce pourrait être à considérer
00:24
but that's a distant threat.
4
24760
1856
mais c'est une menace très lointaine.
00:26
Or, we fret about digital surveillance
5
26640
3456
Ou nous nous tracassons au sujet de la surveillance numérique
00:30
with metaphors from the past.
6
30120
1776
avec des métaphores du passé.
00:31
"1984," George Orwell's "1984,"
7
31920
2656
« 1984 » de George Orwell
00:34
it's hitting the bestseller lists again.
8
34600
2280
est à nouveau parmi les livres les plus vendus.
00:37
It's a great book,
9
37960
1416
C'est un super livre,
00:39
but it's not the correct dystopia for the 21st century.
10
39400
3880
mais ce n'est pas la bonne dystopie pour le 21e siècle.
00:44
What we need to fear most
11
44080
1416
Ce que nous devons craindre
00:45
is not what artificial intelligence will do to us on its own,
12
45520
4776
n'est pas ce que l'intelligence artificielle fera seule,
00:50
but how the people in power will use artificial intelligence
13
50320
4736
mais comment les gens au pouvoir utiliseront l'intelligence artificielle
00:55
to control us and to manipulate us
14
55080
2816
pour nous contrôler et nous manipuler
00:57
in novel, sometimes hidden,
15
57920
3136
de façons nouvelles, parfois cachées,
01:01
subtle and unexpected ways.
16
61080
3016
subtiles et inattendues.
01:04
Much of the technology
17
64120
1856
La plupart des technologies
01:06
that threatens our freedom and our dignity in the near-term future
18
66000
4336
qui menacent notre liberté et notre dignité dans un avenir proche
01:10
is being developed by companies
19
70360
1856
sont développées par des entreprises
01:12
in the business of capturing and selling our data and our attention
20
72240
4936
dans le domaine de l'enregistrement et de la vente
de nos données et notre attention
01:17
to advertisers and others:
21
77200
2256
à des publicitaires et autres :
01:19
Facebook, Google, Amazon,
22
79480
3416
Facebook, Google, Amazon,
01:22
Alibaba, Tencent.
23
82920
1880
Alibaba, Tencent.
01:26
Now, artificial intelligence has started bolstering their business as well.
24
86040
5496
L'intelligence artificielle a également commencé à stimuler leur marché.
01:31
And it may seem like artificial intelligence
25
91560
2096
On pourrait croire que l'intelligence artificielle
01:33
is just the next thing after online ads.
26
93680
2856
sera la suite des publicités en ligne.
01:36
It's not.
27
96560
1216
Ce n'est pas le cas.
01:37
It's a jump in category.
28
97800
2456
C'est un saut dans la catégorie.
01:40
It's a whole different world,
29
100280
2576
C'est un monde complètement différent
01:42
and it has great potential.
30
102880
2616
qui a un énorme potentiel.
01:45
It could accelerate our understanding of many areas of study and research.
31
105520
6920
Ça pourrait accélérer notre compréhension
de nombreux domaines d'étude et de recherche.
01:53
But to paraphrase a famous Hollywood philosopher,
32
113120
3496
Pour paraphraser un célèbre philosophe hollywoodien :
01:56
"With prodigious potential comes prodigious risk."
33
116640
3640
« Un grand pouvoir implique de grandes responsabilités. »
02:01
Now let's look at a basic fact of our digital lives, online ads.
34
121120
3936
Considérons un fait fondamental de nos vies numériques : les publicités.
02:05
Right? We kind of dismiss them.
35
125080
2896
Nous les ignorons.
02:08
They seem crude, ineffective.
36
128000
1976
Elles semblent grossières, inefficaces.
02:10
We've all had the experience of being followed on the web
37
130000
4256
Nous avons tous été suivis sur internet
02:14
by an ad based on something we searched or read.
38
134280
2776
par une pub basée sur une chose que nous avions cherchée ou lue.
02:17
You know, you look up a pair of boots
39
137080
1856
Vous cherchez un paire de bottes
02:18
and for a week, those boots are following you around everywhere you go.
40
138960
3376
et pendant une semaine, ces bottes vous suivent partout où vous allez.
02:22
Even after you succumb and buy them, they're still following you around.
41
142360
3656
Même après avoir succombé et les avoir achetées,
elles vous suivent encore.
02:26
We're kind of inured to that kind of basic, cheap manipulation.
42
146040
3016
Nous sommes un peu protégés contre cette manipulation bon marché.
02:29
We roll our eyes and we think, "You know what? These things don't work."
43
149080
3400
Nous levons les yeux au ciel et pensons : « Ça ne marche pas. »
02:33
Except, online,
44
153720
2096
Mis à part qu'en ligne,
02:35
the digital technologies are not just ads.
45
155840
3600
les technologies numériques ne sont pas que des publicités.
02:40
Now, to understand that, let's think of a physical world example.
46
160240
3120
Pour le comprendre, réfléchissons à un exemple du monde physique.
02:43
You know how, at the checkout counters at supermarkets, near the cashier,
47
163840
4656
Vous savez comment à la caisse au supermarché, près du caissier,
02:48
there's candy and gum at the eye level of kids?
48
168520
3480
il y a des bonbons et chewing-gums à hauteur des yeux des enfants ?
02:52
That's designed to make them whine at their parents
49
172800
3496
C'est conçu pour les faire pleurnicher auprès de leurs parents
02:56
just as the parents are about to sort of check out.
50
176320
3080
alors que les parents sont sur le point de payer.
03:00
Now, that's a persuasion architecture.
51
180040
2640
C'est une architecture de persuasion.
03:03
It's not nice, but it kind of works.
52
183160
3096
Ce n'est pas sympa, mais ça marche.
03:06
That's why you see it in every supermarket.
53
186280
2040
C'est pourquoi vous le voyez partout.
03:08
Now, in the physical world,
54
188720
1696
Dans le monde physique,
03:10
such persuasion architectures are kind of limited,
55
190440
2496
de telles architectures de persuasion sont limitées
03:12
because you can only put so many things by the cashier. Right?
56
192960
4816
car on ne peut mettre qu'un certain nombre de choses près de la caisse.
03:17
And the candy and gum, it's the same for everyone,
57
197800
4296
Les bonbons et chewing-gums sont les mêmes pour tout le monde,
03:22
even though it mostly works
58
202120
1456
même si ça fonctionne
03:23
only for people who have whiny little humans beside them.
59
203600
4040
surtout pour les gens ayant des petits êtres pleurnichant à leurs côtés.
03:29
In the physical world, we live with those limitations.
60
209160
3920
Dans le monde physique, nous vivons avec ces limites.
03:34
In the digital world, though,
61
214280
1936
Dans le monde numérique cependant,
03:36
persuasion architectures can be built at the scale of billions
62
216240
4320
les architectures de persuasion peuvent être adaptées
pour des milliards de personnes,
03:41
and they can target, infer, understand
63
221840
3856
elles peuvent cibler, déduire, comprendre
03:45
and be deployed at individuals
64
225720
2896
et être déployées pour des individus,
03:48
one by one
65
228640
1216
un par un,
03:49
by figuring out your weaknesses,
66
229880
2136
en déterminant nos faiblesses
03:52
and they can be sent to everyone's phone private screen,
67
232040
5616
et elles peuvent être envoyées sur l'écran privé des téléphones
03:57
so it's not visible to us.
68
237680
2256
afin que ce ne soit pas visible à nos yeux.
03:59
And that's different.
69
239960
1256
C'est différent.
04:01
And that's just one of the basic things that artificial intelligence can do.
70
241240
3576
Ce n'est qu'une chose basique dont est capable l'intelligence artificielle.
04:04
Now, let's take an example.
71
244840
1336
Prenons un exemple.
04:06
Let's say you want to sell plane tickets to Vegas. Right?
72
246200
2696
Vous voulez vendre des billets d'avion pour Las Vegas.
04:08
So in the old world, you could think of some demographics to target
73
248920
3496
Dans l'ancien monde, vous pensiez à des segments démographiques à cibler
04:12
based on experience and what you can guess.
74
252440
2520
d'après votre expérience et ce que vous pouvez imaginer.
04:15
You might try to advertise to, oh,
75
255560
2816
Vous pourriez faire de la publicité
04:18
men between the ages of 25 and 35,
76
258400
2496
aux hommes ayant entre 25 et 35 ans
04:20
or people who have a high limit on their credit card,
77
260920
3936
ou aux gens qui ont une limite élevée sur leur carte de crédit
04:24
or retired couples. Right?
78
264880
1376
ou aux couples à la retraite.
04:26
That's what you would do in the past.
79
266280
1816
C'est ce que vous auriez fait.
04:28
With big data and machine learning,
80
268120
2896
Avec le big data et l'apprentissage des machines,
04:31
that's not how it works anymore.
81
271040
1524
ça ne marche plus comme ça.
04:33
So to imagine that,
82
273320
2176
Pour l'imaginer,
04:35
think of all the data that Facebook has on you:
83
275520
3856
pensez à toutes les données que Facebook a sur vous :
04:39
every status update you ever typed,
84
279400
2536
tous les status tapés,
04:41
every Messenger conversation,
85
281960
2016
toutes les conversations Messenger,
04:44
every place you logged in from,
86
284000
1880
tous vos lieux de connexion,
04:48
all your photographs that you uploaded there.
87
288400
3176
toutes les photos que vous avez téléchargées.
04:51
If you start typing something and change your mind and delete it,
88
291600
3776
Si vous tapez quelque chose, changez d'avis et le supprimez,
04:55
Facebook keeps those and analyzes them, too.
89
295400
3200
Facebook le garde et l'analyse également.
04:59
Increasingly, it tries to match you with your offline data.
90
299160
3936
De plus en plus, il essaye de vous relier à vos données hors ligne.
05:03
It also purchases a lot of data from data brokers.
91
303120
3176
Il achète également des données auprès de courtiers de données.
05:06
It could be everything from your financial records
92
306320
3416
Ce pourrait être n'importe quoi, de vos documents financiers
05:09
to a good chunk of your browsing history.
93
309760
2120
à votre historique de recherche.
05:12
Right? In the US, such data is routinely collected,
94
312360
5416
Aux Etats-Unis, de telles données sont systématiquement collectées,
05:17
collated and sold.
95
317800
1960
comparées et vendues.
05:20
In Europe, they have tougher rules.
96
320320
2440
En Europe, les règles sont plus strictes.
05:23
So what happens then is,
97
323680
2200
Ce qu'il se passe alors c'est que,
05:26
by churning through all that data, these machine-learning algorithms --
98
326920
4016
en fouillant toutes ces données,
ces algorithmes d'apprentissage des machines --
05:30
that's why they're called learning algorithms --
99
330960
2896
ils sont appelés algorithmes d'apprentissage pour cette raison --
05:33
they learn to understand the characteristics of people
100
333880
4096
ils apprennent à comprendre les caractéristiques des gens
05:38
who purchased tickets to Vegas before.
101
338000
2520
ayant déjà acheté des billets pour Las Vegas.
05:41
When they learn this from existing data,
102
341760
3536
Quand ils l'apprennent de données existantes,
05:45
they also learn how to apply this to new people.
103
345320
3816
ils apprennent aussi comment l'appliquer à de nouvelles personnes.
05:49
So if they're presented with a new person,
104
349160
3056
Face à une nouvelle personne,
05:52
they can classify whether that person is likely to buy a ticket to Vegas or not.
105
352240
4640
ils peuvent classifier
si cette personne a des chances d'acheter un billet pour Las Vegas ou pas.
05:57
Fine. You're thinking, an offer to buy tickets to Vegas.
106
357720
5456
Bien. Vous vous dites qu'une offre pour acheter des billets pour Las Vegas,
06:03
I can ignore that.
107
363200
1456
vous pouvez l'ignorer.
06:04
But the problem isn't that.
108
364680
2216
Mais le problème n'est pas là.
06:06
The problem is,
109
366920
1576
Le problème,
06:08
we no longer really understand how these complex algorithms work.
110
368520
4136
c'est que nous ne comprenons plus vraiment
comment fonctionnent ces algorithmes complexes.
06:12
We don't understand how they're doing this categorization.
111
372680
3456
Nous ne comprenons pas comment ils font cette catégorisation.
06:16
It's giant matrices, thousands of rows and columns,
112
376160
4416
Ce sont d'énormes matrices, des milliers de lignes et colonnes,
06:20
maybe millions of rows and columns,
113
380600
1960
peut-être même des millions,
06:23
and not the programmers
114
383320
2640
et ni les programmeurs,
06:26
and not anybody who looks at it,
115
386760
1680
ni quiconque les regardant,
06:29
even if you have all the data,
116
389440
1496
même avec toutes les données,
06:30
understands anymore how exactly it's operating
117
390960
4616
ne comprend plus comment ça opère exactement,
06:35
any more than you'd know what I was thinking right now
118
395600
3776
pas plus que vous ne sauriez ce que je pense en ce moment
06:39
if you were shown a cross section of my brain.
119
399400
3960
si l'on vous montrait une coupe transversale de mon cerveau.
06:44
It's like we're not programming anymore,
120
404360
2576
C'est comme si nous ne programmions plus,
06:46
we're growing intelligence that we don't truly understand.
121
406960
4400
nous élevons une intelligence que nous ne comprenons pas vraiment.
06:52
And these things only work if there's an enormous amount of data,
122
412520
3976
Ces choses fonctionnent seulement s'il y a un énorme volume de données,
06:56
so they also encourage deep surveillance on all of us
123
416520
5096
elles pourraient donc aussi encourager une surveillance intensifiée à notre égard
07:01
so that the machine learning algorithms can work.
124
421640
2336
afin que les algorithmes d'apprentissage marchent.
C'est pour ça que Facebook veut collecter toutes les données sur vous.
07:04
That's why Facebook wants to collect all the data it can about you.
125
424000
3176
07:07
The algorithms work better.
126
427200
1576
Les algorithmes marchent mieux.
07:08
So let's push that Vegas example a bit.
127
428800
2696
Allons un peu plus loin avec cet exemple de Las Vegas.
07:11
What if the system that we do not understand
128
431520
3680
Et si le système que nous ne comprenons pas
07:16
was picking up that it's easier to sell Vegas tickets
129
436200
5136
déterminait qu'il est plus simple de vendre des billets pour Las Vegas
07:21
to people who are bipolar and about to enter the manic phase.
130
441360
3760
aux gens bipolaires qui sont sur le point d'entrer dans la phase maniaque.
07:25
Such people tend to become overspenders, compulsive gamblers.
131
445640
4920
De telles personnes ont tendance à dépenser et parier de façon compulsive.
07:31
They could do this, and you'd have no clue that's what they were picking up on.
132
451280
4456
Ils pourraient le faire, vous ignoreriez que c'était là leur conclusion.
07:35
I gave this example to a bunch of computer scientists once
133
455760
3616
Une fois, j'ai donné cet exemple à quelques informaticiens
07:39
and afterwards, one of them came up to me.
134
459400
2056
et après, l'un d'eux est venu me voir.
07:41
He was troubled and he said, "That's why I couldn't publish it."
135
461480
3520
Il était préoccupé : « C'est pour ça que je n'ai pas pu le publier ».
07:45
I was like, "Couldn't publish what?"
136
465600
1715
J'ai dit : « Publier quoi ? »
07:47
He had tried to see whether you can indeed figure out the onset of mania
137
467800
5856
Il avait essayé de voir s'il l'on pouvait détecter le début d'une manie
07:53
from social media posts before clinical symptoms,
138
473680
3216
d'après les posts sur les réseaux sociaux avant les symptômes cliniques
07:56
and it had worked,
139
476920
1776
et ça avait fonctionné,
07:58
and it had worked very well,
140
478720
2056
ça avait très bien fonctionné,
08:00
and he had no idea how it worked or what it was picking up on.
141
480800
4880
et il n'avait aucune idée de comment ça marchait ou ce que ça détectait.
08:06
Now, the problem isn't solved if he doesn't publish it,
142
486840
4416
Le problème n'est pas résolu s'il ne le publie pas
08:11
because there are already companies
143
491280
1896
car il y a déjà des entreprises
08:13
that are developing this kind of technology,
144
493200
2536
qui développent ce genre de technologie
08:15
and a lot of the stuff is just off the shelf.
145
495760
2800
et beaucoup de choses existent déjà.
08:19
This is not very difficult anymore.
146
499240
2576
Ce n'est plus très compliqué.
08:21
Do you ever go on YouTube meaning to watch one video
147
501840
3456
Vous arrive-t-il d'aller sur YouTube pour regarder une vidéo
08:25
and an hour later you've watched 27?
148
505320
2360
et, une heure plus tard, d'en avoir regardées 27 ?
08:28
You know how YouTube has this column on the right
149
508760
2496
Vous voyez cette colonne que YouTube a sur la droite,
08:31
that says, "Up next"
150
511280
2216
qui dit « A suivre »
08:33
and it autoplays something?
151
513520
1816
et qui se lance automatiquement ?
08:35
It's an algorithm
152
515360
1216
C'est un algorithme
08:36
picking what it thinks that you might be interested in
153
516600
3616
qui choisit ce qu'il pense qui pourrait vous intéresser
08:40
and maybe not find on your own.
154
520240
1536
et que vous ne trouveriez pas seul.
08:41
It's not a human editor.
155
521800
1256
Ce n'est pas un humain,
08:43
It's what algorithms do.
156
523080
1416
ce sont des algorithmes.
08:44
It picks up on what you have watched and what people like you have watched,
157
524520
4736
Il considère ce que vous avez regardé et ce que d'autres comme vous ont regardé
08:49
and infers that that must be what you're interested in,
158
529280
4216
et il déduit que ce doit être ce qui vous intéresse,
08:53
what you want more of,
159
533520
1255
ce dont vous voulez voir plus
08:54
and just shows you more.
160
534799
1336
et vous en montre plus.
08:56
It sounds like a benign and useful feature,
161
536159
2201
Ça semble être une fonction bénigne et utile,
08:59
except when it isn't.
162
539280
1200
mais ça ne l'est pas.
09:01
So in 2016, I attended rallies of then-candidate Donald Trump
163
541640
6960
En 2016, j'ai été à des rassemblements du candidat Donald Trump
09:09
to study as a scholar the movement supporting him.
164
549840
3336
pour étudier en tant que chercheuse le mouvement le soutenant.
09:13
I study social movements, so I was studying it, too.
165
553200
3456
J'étudie les mouvements sociaux, alors j'étudiais ça aussi.
09:16
And then I wanted to write something about one of his rallies,
166
556680
3336
Puis j'ai voulu écrire quelque chose au sujet d'un de ses rassemblements
09:20
so I watched it a few times on YouTube.
167
560040
1960
alors je l'ai regardé sur YouTube.
09:23
YouTube started recommending to me
168
563240
3096
YouTube a commencé à me recommander
09:26
and autoplaying to me white supremacist videos
169
566360
4256
et à lancer automatiquement des vidéos de suprématistes blancs
09:30
in increasing order of extremism.
170
570640
2656
étant de plus en plus extrémistes.
09:33
If I watched one,
171
573320
1816
Si j'en regardais une,
09:35
it served up one even more extreme
172
575160
2976
il m'en recommandait une encore plus extrême
09:38
and autoplayed that one, too.
173
578160
1424
et la lançais automatiquement.
09:40
If you watch Hillary Clinton or Bernie Sanders content,
174
580320
4536
Si vous regardez du contenu d'Hillary Clinton ou Bernie Sanders,
09:44
YouTube recommends and autoplays conspiracy left,
175
584880
4696
YouTube recommande et lance des vidéos gauchistes de conspiration
09:49
and it goes downhill from there.
176
589600
1760
et plus ça va, plus ça empire.
09:52
Well, you might be thinking, this is politics, but it's not.
177
592480
3056
Vous pensez peut-être que c'est de la politique, mais non.
09:55
This isn't about politics.
178
595560
1256
Il ne s'agit pas de politique.
09:56
This is just the algorithm figuring out human behavior.
179
596840
3096
Ce n'est qu'un algorithme déterminant le comportement humain.
09:59
I once watched a video about vegetarianism on YouTube
180
599960
4776
Une fois, j'ai regardé une vidéo sur le végétarisme sur YouTube
10:04
and YouTube recommended and autoplayed a video about being vegan.
181
604760
4936
et YouTube a recommandé et lancé une vidéo sur le fait d'être végétalien.
10:09
It's like you're never hardcore enough for YouTube.
182
609720
3016
Vous n'êtes jamais assez extrême pour YouTube.
10:12
(Laughter)
183
612760
1576
(Rires)
10:14
So what's going on?
184
614360
1560
Que se passe-t-il ?
10:16
Now, YouTube's algorithm is proprietary,
185
616520
3536
L'algorithme de YouTube est propriétaire,
10:20
but here's what I think is going on.
186
620080
2360
mais voici ce qui, à mon avis, se passe.
10:23
The algorithm has figured out
187
623360
2096
L'algorithme a déterminé
10:25
that if you can entice people
188
625480
3696
que si vous pouvez pousser les gens
10:29
into thinking that you can show them something more hardcore,
189
629200
3736
à penser que vous pouvez leur montrer quelque chose de plus extrême,
10:32
they're more likely to stay on the site
190
632960
2416
ils ont plus de chances de rester sur le site
10:35
watching video after video going down that rabbit hole
191
635400
4416
à regarder vidéo sur vidéo, descendant dans le terrier du lapin
10:39
while Google serves them ads.
192
639840
1680
pendant que Google leur sert des pubs.
10:43
Now, with nobody minding the ethics of the store,
193
643760
3120
Puisque personne ne fait attention à l'éthique du magasin,
10:47
these sites can profile people
194
647720
4240
ces sites peuvent profiler des gens
10:53
who are Jew haters,
195
653680
1920
comme haïssant les juifs,
10:56
who think that Jews are parasites
196
656360
2480
pensant que les juifs sont des parasites,
11:00
and who have such explicit anti-Semitic content,
197
660320
4920
qui ont du contenu anti-sémite très explicite,
11:06
and let you target them with ads.
198
666080
2000
et vous laisser les cibler avec des pubs.
11:09
They can also mobilize algorithms
199
669200
3536
Ils peuvent mobiliser les algorithmes
11:12
to find for you look-alike audiences,
200
672760
3136
pour trouver des publics similaires,
11:15
people who do not have such explicit anti-Semitic content on their profile
201
675920
5576
des gens n'ayant pas de contenu anti-sémite si explicite sur leur profil
11:21
but who the algorithm detects may be susceptible to such messages,
202
681520
6176
mais que les algorithmes détectent comme étant sensibles à de tels messages,
11:27
and lets you target them with ads, too.
203
687720
1920
et vous laisser les cibler avec des pubs.
11:30
Now, this may sound like an implausible example,
204
690680
2736
Ça peut sembler être un exemple peu plausible,
11:33
but this is real.
205
693440
1320
mais c'est vrai.
11:35
ProPublica investigated this
206
695480
2136
ProPublica a enquêté sur ça
11:37
and found that you can indeed do this on Facebook,
207
697640
3616
et a découvert que vous pouviez vraiment le faire sur Facebook
11:41
and Facebook helpfully offered up suggestions
208
701280
2416
et Facebook, serviable, offrait des suggestions
11:43
on how to broaden that audience.
209
703720
1600
sur comment étendre ce public.
11:46
BuzzFeed tried it for Google, and very quickly they found,
210
706720
3016
BuzzFeed l'a essayé pour Google et a rapidement découvert
11:49
yep, you can do it on Google, too.
211
709760
1736
que vous pouvez le faire sur Google.
11:51
And it wasn't even expensive.
212
711520
1696
Ce n'était même pas cher.
11:53
The ProPublica reporter spent about 30 dollars
213
713240
4416
Le reporter de ProPublica a dépensé environ 30 dollars
11:57
to target this category.
214
717680
2240
pour cibler cette catégorie.
12:02
So last year, Donald Trump's social media manager disclosed
215
722600
5296
L'année dernière, le responsable des réseaux sociaux de Donald Trump
a révélé utiliser les dark posts de Facebook pour démobiliser les gens,
12:07
that they were using Facebook dark posts to demobilize people,
216
727920
5336
12:13
not to persuade them,
217
733280
1376
pas pour les persuader,
12:14
but to convince them not to vote at all.
218
734680
2800
mais pour les convaincre de ne pas voter du tout.
12:18
And to do that, they targeted specifically,
219
738520
3576
Pour ce faire, ils ont spécifiquement ciblé,
12:22
for example, African-American men in key cities like Philadelphia,
220
742120
3896
par exemple, les hommes afro-américains dans des villes clés comme Philadelphie
12:26
and I'm going to read exactly what he said.
221
746040
2456
et je vais lire exactement ce qu'il a dit.
12:28
I'm quoting.
222
748520
1216
Je cite.
12:29
They were using "nonpublic posts
223
749760
3016
Ils utilisaient « des posts non publics
12:32
whose viewership the campaign controls
224
752800
2176
dont la campagne contrôle l'audience
12:35
so that only the people we want to see it see it.
225
755000
3776
afin que seuls les voient les gens dont nous voulons qu'ils les voient.
12:38
We modeled this.
226
758800
1216
Nous l'avons façonné.
12:40
It will dramatically affect her ability to turn these people out."
227
760040
4720
Ça affectera considérablement sa capacité à retourner ces gens. »
12:45
What's in those dark posts?
228
765720
2280
Qu'y a-t-il dans ces dark posts ?
12:48
We have no idea.
229
768480
1656
Nous l'ignorons.
12:50
Facebook won't tell us.
230
770160
1200
Facebook refuse de le dire.
12:52
So Facebook also algorithmically arranges the posts
231
772480
4376
Facebook arrange également algorithmiquement les posts
12:56
that your friends put on Facebook, or the pages you follow.
232
776880
3736
que vos amis mettent sur Facebook ou des pages que vous suivez.
13:00
It doesn't show you everything chronologically.
233
780640
2216
Il ne vous montre pas tout chronologiquement.
13:02
It puts the order in the way that the algorithm thinks will entice you
234
782880
4816
Il le met dans l'ordre qui, selon l'algorithme, devrait vous pousser
13:07
to stay on the site longer.
235
787720
1840
à rester plus longtemps sur le site.
13:11
Now, so this has a lot of consequences.
236
791040
3376
Ça a de nombreuses conséquences.
13:14
You may be thinking somebody is snubbing you on Facebook.
237
794440
3800
Vous pensez peut-être que quelqu'un vous ignore sur Facebook.
13:18
The algorithm may never be showing your post to them.
238
798800
3256
L'algorithme ne lui montre peut-être jamais vos posts.
13:22
The algorithm is prioritizing some of them and burying the others.
239
802080
5960
L'algorithme en priorise certains et en enterre d'autres.
13:29
Experiments show
240
809320
1296
Des expériences montrent
13:30
that what the algorithm picks to show you can affect your emotions.
241
810640
4520
que ce que l'algorithme choisit de vous montrer
peut influencer vos émotions.
13:36
But that's not all.
242
816600
1200
Mais ce n'est pas tout.
13:38
It also affects political behavior.
243
818280
2360
Ça influence aussi votre comportement politique.
13:41
So in 2010, in the midterm elections,
244
821360
4656
En 2010, aux élections de mi-mandat,
13:46
Facebook did an experiment on 61 million people in the US
245
826040
5896
Facebook a conduit une expérience sur 61 millions de personnes américaines
13:51
that was disclosed after the fact.
246
831960
1896
qui a été révélée après les faits.
13:53
So some people were shown, "Today is election day,"
247
833880
3416
Certaines personnes ont vu « Aujourd'hui, c'est jour d'élection »,
13:57
the simpler one,
248
837320
1376
le plus simple,
13:58
and some people were shown the one with that tiny tweak
249
838720
3896
et certaines personnes ont vu celui avec ce petit ajustement
14:02
with those little thumbnails
250
842640
2096
avec les petites photos
14:04
of your friends who clicked on "I voted."
251
844760
2840
de vos amis ayant cliqué sur « j'ai voté ».
14:09
This simple tweak.
252
849000
1400
Ce simple ajustement.
14:11
OK? So the pictures were the only change,
253
851520
4296
D'accord ? Les photos étaient la seule modification
14:15
and that post shown just once
254
855840
3256
et ce post montré qu'une seule fois
14:19
turned out an additional 340,000 voters
255
859120
6056
a attiré 340 000 électeurs supplémentaires
14:25
in that election,
256
865200
1696
dans cette élection,
14:26
according to this research
257
866920
1696
d'après cette recherche
14:28
as confirmed by the voter rolls.
258
868640
2520
et la liste des électeurs l'a confirmé.
14:32
A fluke? No.
259
872920
1656
Un hasard ? Non.
14:34
Because in 2012, they repeated the same experiment.
260
874600
5360
Parce qu'en 2012, ils ont reconduit cette même expérience.
14:40
And that time,
261
880840
1736
A cette époque-là,
14:42
that civic message shown just once
262
882600
3296
ce message civique montré une seule fois
14:45
turned out an additional 270,000 voters.
263
885920
4440
a attiré 270 000 électeurs supplémentaires.
14:51
For reference, the 2016 US presidential election
264
891160
5216
En guise de référence, l'élection présidentielle de 2016
14:56
was decided by about 100,000 votes.
265
896400
3520
s'est jouée à environ 100 000 votes.
15:01
Now, Facebook can also very easily infer what your politics are,
266
901360
4736
Facebook peut aussi très facilement déduire vos opinions politiques,
15:06
even if you've never disclosed them on the site.
267
906120
2256
même si vous ne les avez pas révélées sur le site.
15:08
Right? These algorithms can do that quite easily.
268
908400
2520
Ces algorithmes peuvent le faire assez facilement.
15:11
What if a platform with that kind of power
269
911960
3896
Et si une plateforme avec un tel pouvoir
15:15
decides to turn out supporters of one candidate over the other?
270
915880
5040
décidait de retourner les partisans d'un candidat pour l'autre ?
15:21
How would we even know about it?
271
921680
2440
Comment le saurions-nous ?
15:25
Now, we started from someplace seemingly innocuous --
272
925560
4136
Nous sommes partis de quelque chose semble-t-il inoffensif --
15:29
online adds following us around --
273
929720
2216
les pubs nous suivant partout en ligne --
15:31
and we've landed someplace else.
274
931960
1840
et sommes arrivés ailleurs.
15:35
As a public and as citizens,
275
935480
2456
En tant que public et citoyens,
15:37
we no longer know if we're seeing the same information
276
937960
3416
nous ne savons plus si nous voyons les mêmes informations
15:41
or what anybody else is seeing,
277
941400
1480
ou ce que voient les autres
15:43
and without a common basis of information,
278
943680
2576
et sans base d'informations commune,
15:46
little by little,
279
946280
1616
peu à peu,
15:47
public debate is becoming impossible,
280
947920
3216
le débat public devient impossible
15:51
and we're just at the beginning stages of this.
281
951160
2976
et nous n'en sommes qu'aux premières phases.
15:54
These algorithms can quite easily infer
282
954160
3456
Ces algorithmes peuvent facilement déduire
15:57
things like your people's ethnicity,
283
957640
3256
des choses comme votre ethnie, vos opinions religieuses, politiques,
16:00
religious and political views, personality traits,
284
960920
2336
vos traits de personnalité,
16:03
intelligence, happiness, use of addictive substances,
285
963280
3376
votre intelligence, votre bonheur, votre usage de substances addictives,
16:06
parental separation, age and genders,
286
966680
3136
la situation maritale de vos parents, votre âge et votre sexe,
16:09
just from Facebook likes.
287
969840
1960
uniquement grâce aux « J'aime » de Facebook.
16:13
These algorithms can identify protesters
288
973440
4056
Ces algorithmes peuvent identifier des manifestants
16:17
even if their faces are partially concealed.
289
977520
2760
même si leur visage est partiellement caché.
16:21
These algorithms may be able to detect people's sexual orientation
290
981720
6616
Ces algorithmes peuvent peut-être détecter l'orientation sexuelle des gens
16:28
just from their dating profile pictures.
291
988360
3200
simplement grâce à leur photo de profil sur un site de rencontres.
16:33
Now, these are probabilistic guesses,
292
993560
2616
Ce sont des conjectures statistiques,
16:36
so they're not going to be 100 percent right,
293
996200
2896
ils n'auront pas raison à 100%,
16:39
but I don't see the powerful resisting the temptation to use these technologies
294
999120
4896
mais je ne vois pas les puissants résister à la tentation d'utiliser ces technologies
16:44
just because there are some false positives,
295
1004040
2176
simplement parce qu'il y a des faux positifs,
16:46
which will of course create a whole other layer of problems.
296
1006240
3256
ce qui, bien sûr, créera un couche supplémentaire de problèmes.
16:49
Imagine what a state can do
297
1009520
2936
Imaginez ce qu'un Etat peut faire
16:52
with the immense amount of data it has on its citizens.
298
1012480
3560
avec l'énorme volume de données qu'il a sur ces citoyens.
16:56
China is already using face detection technology
299
1016680
4776
La Chine utilise déjà une technologie de détection du visage
17:01
to identify and arrest people.
300
1021480
2880
pour identifier et arrêter des gens.
17:05
And here's the tragedy:
301
1025280
2136
Voici la tragédie :
17:07
we're building this infrastructure of surveillance authoritarianism
302
1027440
5536
nous instaurons cette infrastructure de surveillance d’autoritarisme
17:13
merely to get people to click on ads.
303
1033000
2960
simplement pour que les gens cliquent sur des pubs.
17:17
And this won't be Orwell's authoritarianism.
304
1037240
2576
Ce ne sera pas l’autoritarisme d'Orwell.
17:19
This isn't "1984."
305
1039839
1897
Ce n'est pas « 1984 ».
17:21
Now, if authoritarianism is using overt fear to terrorize us,
306
1041760
4576
Si l'autoritarisme une peur déclarée pour nous terroriser,
17:26
we'll all be scared, but we'll know it,
307
1046359
2897
nous aurons tous peur mais nous le saurons,
17:29
we'll hate it and we'll resist it.
308
1049280
2200
nous détesterons ça et résisterons.
17:32
But if the people in power are using these algorithms
309
1052880
4416
Mais si les gens au pouvoir utilisent ces algorithmes
17:37
to quietly watch us,
310
1057319
3377
pour nous surveiller discrètement,
17:40
to judge us and to nudge us,
311
1060720
2080
pour nous juger et nous inciter,
17:43
to predict and identify the troublemakers and the rebels,
312
1063720
4176
pour prédire et identifier les fauteurs de trouble et les rebelles,
17:47
to deploy persuasion architectures at scale
313
1067920
3896
pour déployer une architecture de persuasion à grande échelle
17:51
and to manipulate individuals one by one
314
1071840
4136
et pour manipuler les individus un par un
17:56
using their personal, individual weaknesses and vulnerabilities,
315
1076000
5440
grâce à leurs faiblesses et vulnérabilités personnelles et individuelles
18:02
and if they're doing it at scale
316
1082720
2200
et s'ils le font à grande échelle
18:06
through our private screens
317
1086080
1736
via nos écrans privés
18:07
so that we don't even know
318
1087840
1656
afin que nous ne sachions même pas
18:09
what our fellow citizens and neighbors are seeing,
319
1089520
2760
ce que les autres citoyens et nos voisins voient,
18:13
that authoritarianism will envelop us like a spider's web
320
1093560
4816
l'autoritarisme nous enveloppera tel une toile d'araignée
18:18
and we may not even know we're in it.
321
1098400
2480
et nous ignorons même que nous sommes dans la toile.
18:22
So Facebook's market capitalization
322
1102440
2936
La capitalisation du marché de Facebook
18:25
is approaching half a trillion dollars.
323
1105400
3296
approche le demi milliard de dollars.
18:28
It's because it works great as a persuasion architecture.
324
1108720
3120
C'est parce que c'est une très bonne architecture de persuasion.
18:33
But the structure of that architecture
325
1113760
2816
Mais la structure de cette architecture
18:36
is the same whether you're selling shoes
326
1116600
3216
est la même que vous vendiez des chaussures
18:39
or whether you're selling politics.
327
1119840
2496
ou de la politique.
18:42
The algorithms do not know the difference.
328
1122360
3120
Les algorithmes ne connaissent pas la différence.
18:46
The same algorithms set loose upon us
329
1126240
3296
Les mêmes algorithmes utilisés sur nous
18:49
to make us more pliable for ads
330
1129560
3176
pour nous rendre plus malléables face aux publicités
18:52
are also organizing our political, personal and social information flows,
331
1132760
6736
organisent aussi nos flux d'informations politiques, personnelles et sociales
18:59
and that's what's got to change.
332
1139520
1840
et ça doit changer.
19:02
Now, don't get me wrong,
333
1142240
2296
Ne vous méprenez pas,
19:04
we use digital platforms because they provide us with great value.
334
1144560
3680
nous utilisons les plateformes numériques car elles ont beaucoup de valeur.
19:09
I use Facebook to keep in touch with friends and family around the world.
335
1149120
3560
J'utilise Facebook pour garder contact
avec des amis et de la famille à travers le monde.
19:14
I've written about how crucial social media is for social movements.
336
1154000
5776
J'ai écrit sur l'importance des réseaux sociaux pour les mouvements sociaux.
19:19
I have studied how these technologies can be used
337
1159800
3016
J'ai étudié comment ces technologies peuvent être utilisées
19:22
to circumvent censorship around the world.
338
1162840
2480
pour contourner la censure à travers le monde.
19:27
But it's not that the people who run, you know, Facebook or Google
339
1167280
6416
Ce n'est pas que les dirigeants de Facebook ou Google
19:33
are maliciously and deliberately trying
340
1173720
2696
essayent perfidement et délibérément
19:36
to make the country or the world more polarized
341
1176440
4456
de polariser plus le pays ou le monde
19:40
and encourage extremism.
342
1180920
1680
et d'encourager l'extrémisme.
19:43
I read the many well-intentioned statements
343
1183440
3976
J'ai lu les nombreuses déclarations bien intentionnées
19:47
that these people put out.
344
1187440
3320
que ces gens ont publiées.
19:51
But it's not the intent or the statements people in technology make that matter,
345
1191600
6056
Mais ce n'est pas l'intention ou les déclarations
des gens dans les technologies qui comptent,
19:57
it's the structures and business models they're building.
346
1197680
3560
ce sont les structures et les modèles commerciaux qu'ils créent.
20:02
And that's the core of the problem.
347
1202360
2096
C'est le cœur du problème.
20:04
Either Facebook is a giant con of half a trillion dollars
348
1204480
4720
Soit Facebook est un escroc d'un demi milliard de dollars
20:10
and ads don't work on the site,
349
1210200
1896
et les pubs ne marchent pas sur le site,
20:12
it doesn't work as a persuasion architecture,
350
1212120
2696
ça ne marche pas comme une architecture de persuasion
20:14
or its power of influence is of great concern.
351
1214840
4120
ou son pouvoir d'influence est très préoccupant.
20:20
It's either one or the other.
352
1220560
1776
C'est l'un ou l'autre.
20:22
It's similar for Google, too.
353
1222360
1600
Il en va de même pour Google.
20:24
So what can we do?
354
1224880
2456
Que pouvons-nous faire ?
20:27
This needs to change.
355
1227360
1936
Ça doit changer.
20:29
Now, I can't offer a simple recipe,
356
1229320
2576
Je ne peux pas offrir de recette simple
20:31
because we need to restructure
357
1231920
2256
car nous devons restructurer
20:34
the whole way our digital technology operates.
358
1234200
3016
tout le fonctionnement de notre technologie numérique.
20:37
Everything from the way technology is developed
359
1237240
4096
Tout, de la façon dont la technologie est développée
20:41
to the way the incentives, economic and otherwise,
360
1241360
3856
à la façon dont les incitations, économiques et autres,
20:45
are built into the system.
361
1245240
2280
sont intégrées au système.
20:48
We have to face and try to deal with
362
1248480
3456
Nous devons faire face et gérer
20:51
the lack of transparency created by the proprietary algorithms,
363
1251960
4656
le manque de transparence créé par les algorithmes propriétaires,
20:56
the structural challenge of machine learning's opacity,
364
1256640
3816
le défi structurel de l'opacité de l'apprentissage des machines,
21:00
all this indiscriminate data that's being collected about us.
365
1260480
3400
toutes ces données aveuglément collectées sur nous.
21:05
We have a big task in front of us.
366
1265000
2520
Nous avons devant nous une tâche importante.
21:08
We have to mobilize our technology,
367
1268160
2680
Nous devons mobiliser notre technologie,
21:11
our creativity
368
1271760
1576
notre créativité
21:13
and yes, our politics
369
1273360
1880
et oui, notre science politique
21:16
so that we can build artificial intelligence
370
1276240
2656
pour créer une intelligence artificielle
21:18
that supports us in our human goals
371
1278920
3120
qui soutient nos objectifs humains
21:22
but that is also constrained by our human values.
372
1282800
3920
mais qui est aussi contrainte par nos valeurs humaines.
21:27
And I understand this won't be easy.
373
1287600
2160
Je comprends que ce ne sera pas simple.
21:30
We might not even easily agree on what those terms mean.
374
1290360
3600
Nous ne serons pas facilement d'accord sur le sens de ces termes.
21:34
But if we take seriously
375
1294920
2400
Mais si nous prenons au sérieux
21:38
how these systems that we depend on for so much operate,
376
1298240
5976
le fonctionnement de ces systèmes dont nous sommes si dépendants,
21:44
I don't see how we can postpone this conversation anymore.
377
1304240
4120
je ne vois pas comment nous pouvons encore retarder cette conversation.
21:49
These structures
378
1309200
2536
Ces structures organisent notre fonctionnement
21:51
are organizing how we function
379
1311760
4096
21:55
and they're controlling
380
1315880
2296
et elles contrôlent ce que nous pouvons faire ou non.
21:58
what we can and we cannot do.
381
1318200
2616
22:00
And many of these ad-financed platforms,
382
1320840
2456
Beaucoup de ces plateformes financées par les pubs
22:03
they boast that they're free.
383
1323320
1576
se proclament gratuites.
22:04
In this context, it means that we are the product that's being sold.
384
1324920
4560
Dans ce contexte, ça signifie que nous sommes le produit qui est vendu.
22:10
We need a digital economy
385
1330840
2736
Nous avons besoin d'une économie numérique
22:13
where our data and our attention
386
1333600
3496
où nos données et notre attention
22:17
is not for sale to the highest-bidding authoritarian or demagogue.
387
1337120
5080
ne sont pas à vendre à l'autoritariste ou au démagogue le plus offrant.
22:23
(Applause)
388
1343160
3800
(Applaudissements)
22:30
So to go back to that Hollywood paraphrase,
389
1350480
3256
Pour revenir à cette paraphrase hollywoodienne,
22:33
we do want the prodigious potential
390
1353760
3736
nous voulons que le grand pouvoir
22:37
of artificial intelligence and digital technology to blossom,
391
1357520
3200
de l'intelligence artificielle et de la technologie numérique fleurisse
22:41
but for that, we must face this prodigious menace,
392
1361400
4936
mais pour ça , nous devons faire face à une grande menace,
22:46
open-eyed and now.
393
1366360
1936
les yeux ouverts et maintenant.
22:48
Thank you.
394
1368320
1216
Merci.
22:49
(Applause)
395
1369560
4640
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7