What tech companies know about your kids | Veronica Barassi

84,501 views ・ 2020-07-03

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
Traducteur: eric vautier Relecteur: Claire Ghyselen
00:12
Every day, every week,
1
12792
2267
Chaque jour, chaque semaine,
00:15
we agree to terms and conditions.
2
15083
2185
nous acceptons des CGU.
00:17
And when we do this,
3
17292
1476
Et ce faisant,
00:18
we provide companies with the lawful right
4
18792
2476
nous donnons aux entreprises le droit
00:21
to do whatever they want with our data
5
21292
3684
de faire ce qu'elles veulent avec nos données
00:25
and with the data of our children.
6
25000
2375
et celles de nos enfants.
00:28
Which makes us wonder:
7
28792
2976
Ce qui nous amène à nous demander :
00:31
how much data are we giving away of children,
8
31792
2892
quelle quantité de données donnons-nous sur nos enfants,
00:34
and what are its implications?
9
34708
2000
et quelles en sont les implications ?
00:38
I'm an anthropologist,
10
38500
1393
Je suis anthropologue,
00:39
and I'm also the mother of two little girls.
11
39917
2601
et je suis aussi la mère de deux petites filles.
00:42
And I started to become interested in this question in 2015
12
42542
4476
J'ai commencé à m'intéresser à cette question en 2015
00:47
when I suddenly realized that there were vast --
13
47042
2726
lorsque j'ai soudain réalisé qu'il y avait de vastes,
00:49
almost unimaginable amounts of data traces
14
49792
3017
et presqu'innombrables, quantités de données
00:52
that are being produced and collected about children.
15
52833
3167
produites et collectées sur les enfants.
00:56
So I launched a research project,
16
56792
1976
J'ai donc lancé un projet de recherche,
00:58
which is called Child Data Citizen,
17
58792
2476
appelé « Child Data Citizen »,
01:01
and I aimed at filling in the blank.
18
61292
2125
et j'ai cherché à remplir le vide.
01:04
Now you may think that I'm here to blame you
19
64583
3018
Vous pensez peut-être que je suis ici pour vous reprocher
01:07
for posting photos of your children on social media,
20
67625
2768
de publier des photos de vos enfants sur les médias sociaux,
01:10
but that's not really the point.
21
70417
2142
mais là n'est pas la question.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
Le problème est bien plus important que le soi-disant « sharenting ».
01:16
This is about systems, not individuals.
23
76792
4101
Il s'agit de systèmes et non d'individus.
01:20
You and your habits are not to blame.
24
80917
2291
Vous et vos habitudes ne sont pas à blâmer.
01:24
For the very first time in history,
25
84833
2851
Pour la toute première fois dans l'Histoire,
01:27
we are tracking the individual data of children
26
87708
2560
nous suivons les données individuelles des enfants
01:30
from long before they're born --
27
90292
1767
bien avant leur naissance -
01:32
sometimes from the moment of conception,
28
92083
2685
parfois dès la conception,
01:34
and then throughout their lives.
29
94792
2351
puis tout au long de leur vie.
01:37
You see, when parents decide to conceive,
30
97167
3101
Vous voyez, lorsque les parents décident de concevoir,
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
ils vont chercher sur Internet des « moyens de tomber enceinte »
01:43
or they download ovulation-tracking apps.
32
103292
2750
ou les femmes téléchargent des applications de suivi de l'ovulation.
01:47
When they do get pregnant,
33
107250
2601
Lorsqu'elles tombent enceintes,
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
elles publient les échographies sur les médias sociaux,
01:53
they download pregnancy apps
35
113042
2017
téléchargent des applications de grossesse
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
ou consultent Dr Google pour toutes sortes de choses,
01:58
like, you know --
37
118833
1518
comme, vous savez...
02:00
for "miscarriage risk when flying"
38
120375
2559
« le risque de fausse couche en avion »
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
ou « les crampes abdominales en début de grossesse ».
02:05
I know because I've done it --
40
125750
1809
Je le sais parce que je l'ai fait -
02:07
and many times.
41
127583
1625
et plusieurs fois.
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
Et puis, quand le bébé est né, elles suivent chaque sieste,
02:13
every feed,
43
133292
1267
chaque repas,
02:14
every life event on different technologies.
44
134583
2584
chaque événement de la vie sur différentes technologies.
02:18
And all of these technologies
45
138083
1476
Et toutes ces technologies font de l'argent
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
avec les données les plus intimes du bébé - son comportement et sa santé -
02:25
by sharing it with others.
47
145750
1792
en les partageant avec d'autres.
02:28
So to give you an idea of how this works,
48
148583
2143
Pour vous montrer comment cela fonctionne,
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
en 2019, le British Medical Journal a publié une étude qui a montré
02:35
that out of 24 mobile health apps,
50
155958
3643
que sur 24 applications de santé mobiles,
02:39
19 shared information with third parties.
51
159625
3458
19 partageaient des informations avec des tierces parties,
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
qui elles-mêmes les partageaient avec 216 autres entités.
02:50
Of these 216 other fourth parties,
53
170875
3434
Sur ces 216 entités,
02:54
only three belonged to the health sector.
54
174333
3143
seules trois appartenaient au secteur de la santé.
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
Les autres entreprises étaient de grandes sociétés de la tech
03:02
like Google, Facebook or Oracle,
56
182042
3517
comme Google, Facebook ou Oracle,
03:05
they were digital advertising companies
57
185583
2601
des agences de publicité digitale,
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
ainsi qu'une agence de renseignements sur le crédit à la consommation.
03:13
So you get it right:
59
193125
1434
Vous avez bien compris :
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
les agences de publicité et de crédit ont déjà des données sur les bébés.
03:21
But mobile apps, web searches and social media
61
201125
2768
Mais les apps, les moteurs de recherche et les médias sociaux
03:23
are really just the tip of the iceberg,
62
203917
3101
ne sont en réalité que la partie visible de l'iceberg,
03:27
because children are being tracked by multiple technologies
63
207042
2851
car les enfants sont suivis par de multiples technologies
03:29
in their everyday lives.
64
209917
1726
dans leur vie quotidienne.
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
Ils sont suivis chez eux par la domotique et les assistants virtuels ;
03:35
They're tracked by educational platforms
66
215833
1976
par les plates-formes éducatives
03:37
and educational technologies in their schools.
67
217833
2185
et les technologies éducatives à leur école ;
03:40
They're tracked by online records
68
220042
1601
par leur dossier médical
03:41
and online portals at their doctor's office.
69
221667
3017
et des portails en ligne chez leur médecin ;
03:44
They're tracked by their internet-connected toys,
70
224708
2351
par leurs jouets connectés à Internet,
03:47
their online games
71
227083
1310
leurs jeux en ligne
03:48
and many, many, many, many other technologies.
72
228417
2666
et beaucoup, beaucoup, beaucoup, beaucoup d'autres technologies.
03:52
So during my research,
73
232250
1643
Donc, pendant mes recherches,
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
beaucoup de parents sont venus me voir et m'ont dit : « Et alors ?
03:58
Why does it matter if my children are being tracked?
75
238083
2917
Quel est le problème que mes enfants soient surveillés ?
04:02
We've got nothing to hide."
76
242042
1333
Nous n'avons rien à cacher. »
04:04
Well, it matters.
77
244958
1500
Eh bien, c'est important.
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
C'est important car aujourd'hui, les individus ne sont pas seulement suivis,
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
ils sont aussi profilés selon leurs données.
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
L'intelligence artificielle et l'analyse prédictive sont utilisées
04:21
to harness as much data as possible of an individual life
81
261083
3643
pour exploiter le plus grand nombre possible de données sur un individu
04:24
from different sources:
82
264750
1851
provenant de différentes sources :
04:26
family history, purchasing habits, social media comments.
83
266625
4518
histoire familiale, habitudes d'achat, commentaires dans les médias sociaux.
04:31
And then they bring this data together
84
271167
1851
Puis ils rassemblent ces données
04:33
to make data-driven decisions about the individual.
85
273042
2750
pour prendre des décisions fondées sur des données concernant l'individu.
04:36
And these technologies are used everywhere.
86
276792
3434
Et ces technologies sont utilisées partout.
04:40
Banks use them to decide loans.
87
280250
2393
Les banques les utilisent pour décider des prêts.
04:42
Insurance uses them to decide premiums.
88
282667
2375
Les assurances les utilisent pour décider des primes.
04:46
Recruiters and employers use them
89
286208
2476
Les recruteurs et les employeurs les utilisent
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
pour décider si une personne est apte à occuper un emploi ou non.
04:52
Also the police and courts use them
91
292750
3101
La police et les tribunaux les utilisent également
04:55
to determine whether one is a potential criminal
92
295875
3518
pour déterminer si une personne est un criminel potentiel
04:59
or is likely to recommit a crime.
93
299417
2625
ou si elle est susceptible de récidiver.
05:04
We have no knowledge or control
94
304458
4060
Nous n'avons aucune connaissance ni aucun contrôle
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
sur la manière dont ceux qui achètent, vendent et traitent nos données
05:12
are profiling us and our children.
96
312208
2709
établissent notre profil et celui de nos enfants.
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
Mais ces profils peuvent avoir un impact significatif sur nos droits.
05:20
To give you an example,
98
320917
2208
Pour vous donner un exemple,
05:25
in 2018 the "New York Times" published the news
99
325792
4059
en 2018, le New York Times a publié un article
05:29
that the data that had been gathered
100
329875
1976
sur les données qui avaient été recueillies
05:31
through online college-planning services --
101
331875
3059
par le service de planification des études universitaires -
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
celles saisies par les millions de lycéens à travers les États-Unis
05:39
who are looking for a college program or a scholarship --
103
339708
3643
qui cherchent un programme universitaire ou une bourse.
05:43
had been sold to educational data brokers.
104
343375
3042
Elles avaient été vendues à des courtiers en données éducatives.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
Or, les chercheurs de Fordham qui ont étudié les courtiers en données éducatives
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
ont révélé qu'ils établissaient le profil des enfants dès l'âge de deux ans
05:58
on the basis of different categories:
107
358500
3059
sur la base de différentes catégories :
06:01
ethnicity, religion, affluence,
108
361583
4185
ethnicité, religion, richesse,
06:05
social awkwardness
109
365792
2059
inaptitudes sociales
06:07
and many other random categories.
110
367875
2934
et bien d'autres catégories aléatoires.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
Ils vendent ensuite ces profils, accompagnés du nom de l'enfant,
06:15
their home address and the contact details
112
375875
2809
de son adresse et de ses coordonnées,
06:18
to different companies,
113
378708
1851
à différentes entreprises,
06:20
including trade and career institutions,
114
380583
2459
notamment des sociétés commerciales, des sociétés de recrutement,
06:24
student loans
115
384083
1268
des sociétés gérant des prêts étudiants et de cartes de crédit pour étudiants.
06:25
and student credit card companies.
116
385375
1750
06:28
To push the boundaries,
117
388542
1351
Pour aller au fond du sujet,
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
les chercheurs de Fordham ont demandé à un courtier en données éducatives
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
de leur fournir une liste de jeunes filles de 14-15 ans
06:39
who were interested in family planning services.
120
399583
3375
intéressées par les services de planning familial.
06:44
The data broker agreed to provide them the list.
121
404208
2476
Le courtier a accepté de leur fournir la liste.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
Imaginez donc à quel point c'est intime et intrusif pour nos enfants.
06:52
But educational data brokers are really just an example.
123
412833
3976
Mais les courtiers en données éducatives ne sont en réalité qu'un exemple.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
La vérité est que nos enfants sont profilés
d'une manière que nous ne pouvons pas contrôler
07:01
but that can significantly impact their chances in life.
125
421542
3416
mais qui peut avoir un impact significatif sur leurs chances dans la vie.
07:06
So we need to ask ourselves:
126
426167
3476
Nous devons donc nous demander :
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
peut-on faire confiance à ces technologies lorsqu'il s'agit de profiler nos enfants ?
07:14
Can we?
128
434375
1250
Vraiment ?
07:17
My answer is no.
129
437708
1250
Ma réponse est non.
07:19
As an anthropologist,
130
439792
1267
En tant qu'anthropologue,
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
je pense que l'IA et l'analyse prédictive peuvent être très utiles
07:24
to predict the course of a disease
132
444875
2018
pour prédire l'évolution d'une maladie
07:26
or to fight climate change.
133
446917
1833
ou pour lutter contre le changement climatique.
07:30
But we need to abandon the belief
134
450000
1643
Mais nous devons arrêter de croire
07:31
that these technologies can objectively profile humans
135
451667
3684
que ces technologies peuvent établir un profil objectif des humains
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
et qu'on peut s'appuyer sur elles pour prendre des décisions
07:38
about individual lives.
137
458583
1893
concernant la vie des individus.
07:40
Because they can't profile humans.
138
460500
2559
Parce qu'on ne peut pas profiler les êtres humains.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
Les traces de données ne sont pas le miroir de qui nous sommes.
07:46
Humans think one thing and say the opposite,
140
466458
2101
On pense une chose et on dit le contraire,
07:48
feel one way and act differently.
141
468583
2435
on ressent une chose et on agit différemment.
07:51
Algorithmic predictions or our digital practices
142
471042
2476
Les prédictions algorithmiques
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
ne peuvent rendre compte de l'imprévisibilité
et de la complexité de l'expérience humaine.
08:00
But on top of that,
144
480417
1559
Mais en plus de cela,
08:02
these technologies are always --
145
482000
2684
ces technologies sont toujours -
08:04
always --
146
484708
1268
toujours -
08:06
in one way or another, biased.
147
486000
1917
d'une manière ou d'une autre, biaisées.
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
Les algorithmes sont par définition des ensembles de règles ou d'étapes
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
qui ont été conçus pour atteindre un résultat spécifique.
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
Mais ces ensembles de règles ne peuvent pas être objectifs,
08:21
because they've been designed by human beings
151
501583
2143
car ils ont été conçus par des êtres humains
08:23
within a specific cultural context
152
503750
1726
dans un contexte culturel spécifique
08:25
and are shaped by specific cultural values.
153
505500
2500
et sont façonnés par des valeurs culturelles spécifiques.
08:28
So when machines learn,
154
508667
1726
Lorsque les machines apprennent,
08:30
they learn from biased algorithms,
155
510417
2250
elles apprennent à partir d'algorithmes biaisés,
08:33
and they often learn from biased databases as well.
156
513625
3208
et elles apprennent souvent aussi à partir de bases de données biaisées.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
En ce moment, nous voyons les premiers exemples de biais algorithmiques.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
Et certains de ces exemples sont franchement terrifiants.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
Cette année, l'AI Now Institute de New York a publié un rapport
08:50
that revealed that the AI technologies
160
530583
2393
qui révèle que les technologies d'IA
08:53
that are being used for predictive policing
161
533000
3476
utilisées pour la police prédictive
08:56
have been trained on "dirty" data.
162
536500
3125
ont été formées sur des données « sales ».
09:00
This is basically data that had been gathered
163
540333
2893
Il s'agit essentiellement de données recueillies
09:03
during historical periods of known racial bias
164
543250
4184
au cours de périodes de préjugés raciaux
09:07
and nontransparent police practices.
165
547458
2250
et de pratiques policières non transparentes.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
Comme ces technologies sont formées avec des données sales,
09:14
they're not objective,
167
554625
1434
elles ne sont pas objectives
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
et leurs résultats ne font qu'amplifier et perpétuer
09:20
police bias and error.
169
560625
1625
les préjugés et les erreurs de la police.
09:25
So I think we are faced with a fundamental problem
170
565167
3142
Je pense donc que nous sommes confrontés à un problème fondamental
09:28
in our society.
171
568333
1643
dans notre société.
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
Nous commençons à faire confiance aux technologies
pour profiler des êtres humains.
09:35
We know that in profiling humans,
173
575750
2518
Nous savons qu'en établissant le profil des humains,
09:38
these technologies are always going to be biased
174
578292
2809
ces technologies seront toujours biaisées
09:41
and are never really going to be accurate.
175
581125
2726
et ne seront jamais vraiment précises.
09:43
So what we need now is actually political solution.
176
583875
2934
Ce dont nous avons besoin, c'est d'une solution politique :
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
les gouvernements doivent reconnaître que
nos droits en matière de données sont des droits humains.
09:52
(Applause and cheers)
178
592292
4083
(Applaudissements et acclamations)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
Tant que cela ne sera pas le cas, nous ne pourrons pas espérer un avenir plus juste.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
Je crains que mes filles soient exposées
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
à toutes sortes de discriminations et d'erreurs algorithmiques.
10:11
You see the difference between me and my daughters
182
611250
2393
La différence entre mes filles et moi,
10:13
is that there's no public record out there of my childhood.
183
613667
3184
c'est qu'il n'y a pas d'archives publiques de mon enfance.
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
Certainement pas de données sur toutes les choses stupides que j'ai faites
10:20
and thought when I was a teenager.
185
620917
2142
et pensées quand j'étais adolescente.
10:23
(Laughter)
186
623083
1500
(Rires)
10:25
But for my daughters this may be different.
187
625833
2750
Mais pour mes filles, c'est peut-être différent.
10:29
The data that is being collected from them today
188
629292
3184
Les données qui sont recueillies auprès d'elles aujourd'hui
10:32
may be used to judge them in the future
189
632500
3809
peuvent être utilisées pour les juger à l'avenir
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
et pourraient peut-être altérer leurs espoirs et leurs rêves.
10:40
I think that's it's time.
191
640583
1518
Je pense qu'il est temps
10:42
It's time that we all step up.
192
642125
1434
que nous nous engagions tous,
10:43
It's time that we start working together
193
643583
2476
que nous commencions à travailler ensemble
10:46
as individuals,
194
646083
1435
en tant qu'individus,
10:47
as organizations and as institutions,
195
647542
2517
organisations et institutions,
10:50
and that we demand greater data justice for us
196
650083
3101
et exigions une plus grande justice en matière de données pour nous
10:53
and for our children
197
653208
1393
et pour nos enfants
10:54
before it's too late.
198
654625
1518
avant qu'il ne soit trop tard.
10:56
Thank you.
199
656167
1267
Je vous remercie.
10:57
(Applause)
200
657458
1417
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7