Machine intelligence makes human morals more important | Zeynep Tufekci

180,005 views ・ 2016-11-11

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Morgane Quilfen Relecteur: Claire Ghyselen
00:12
So, I started my first job as a computer programmer
0
12739
4122
Mon premier travail était programmeuse informatique
00:16
in my very first year of college --
1
16885
1956
durant ma première année à l'université --
00:18
basically, as a teenager.
2
18865
1507
quand j'étais adolescente.
00:20
Soon after I started working,
3
20889
1732
Peu après avoir commencé à écrire des programmes en entreprise,
00:22
writing software in a company,
4
22645
1610
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
un responsable de l'entreprise est venu me voir
00:28
and he whispered to me,
6
28458
1268
et m'a murmuré :
00:30
"Can he tell if I'm lying?"
7
30229
2861
« Peut-il dire si je mens ? »
00:33
There was nobody else in the room.
8
33806
2077
Il n'y avait personne d'autre dans la pièce.
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
« Qui peut dire si vous mentez ? Et pourquoi chuchotez-vous ? »
00:42
The manager pointed at the computer in the room.
10
42266
3107
Le responsable a pointé du doigt l'ordinateur dans la pièce.
00:45
"Can he tell if I'm lying?"
11
45397
3096
« Peut-il dire si je mens ? »
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
Ce responsable avait une aventure avec la réceptionniste.
00:53
(Laughter)
13
53999
1112
(Rires)
00:55
And I was still a teenager.
14
55135
1766
J'étais toujours adolescente.
00:57
So I whisper-shouted back to him,
15
57447
2019
J'ai lui ai murmuré-crié :
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
« Oui, l'ordinateur peut dire si vous mentez. »
01:03
(Laughter)
17
63138
1806
(Rires)
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
J'ai rigolé, mais c'est de moi qu'on peut se moquer.
01:07
Nowadays, there are computational systems
19
67915
3268
Il y a aujourd'hui des systèmes informatiques
01:11
that can suss out emotional states and even lying
20
71207
3548
qui peuvent repérer les états émotionnels et les mensonges
01:14
from processing human faces.
21
74779
2044
en traitant les informations du visage humain.
01:17
Advertisers and even governments are very interested.
22
77248
4153
Les publicitaires et les gouvernements sont très intéressés.
01:22
I had become a computer programmer
23
82319
1862
J'étais devenue programmeuse informatique
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
car j'étais l'une de ces gamines folles de maths et de sciences.
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
Mais, en chemin, j'avais découvert les armes nucléaires
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
et je me sentais très concernée par l'éthique de la science.
01:34
I was troubled.
27
94050
1204
J'étais troublée.
01:35
However, because of family circumstances,
28
95278
2641
Cependant, du fait de circonstances familiales,
01:37
I also needed to start working as soon as possible.
29
97943
3298
je devais aussi commencer à travailler aussi vite que possible.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
Je me suis dit : « Choisis un domaine technique
01:44
where I can get a job easily
31
104588
1796
où tu peux avoir un emploi facilement
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
et où je n'ai pas à gérer des questions d'éthique difficiles. »
01:51
So I picked computers.
33
111022
1529
J'ai donc choisi l'informatique.
01:52
(Laughter)
34
112575
1104
(Rires)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
Eh bien, ah ah ah ! On peut se moquer de moi.
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
Aujourd'hui, les informaticiens construisent des plateformes
01:59
that control what a billion people see every day.
37
119915
4209
qui contrôlent chaque jour ce que voient un milliard de personnes.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
Ils développent des voitures pouvant décider qui écraser.
02:09
They're even building machines, weapons,
39
129707
3213
Ils construisent même des machines, des armes
02:12
that might kill human beings in war.
40
132944
2285
qui pourraient tuer des êtres humains dans une guerre.
02:15
It's ethics all the way down.
41
135253
2771
Il y a de l'éthique partout.
02:19
Machine intelligence is here.
42
139183
2058
L'intelligence artificielle est arrivée.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
Nous utilisons l'informatique pour prendre toutes sortes de décisions,
02:25
but also new kinds of decisions.
44
145321
1886
y compris de nouvelles décisions.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
Nous posons à l'informatique
des questions auxquelles il n'y a pas d'unique bonne réponse,
02:32
that are subjective
46
152427
1202
qui sont subjectives,
02:33
and open-ended and value-laden.
47
153653
2325
ouvertes et reposent sur des valeurs.
02:36
We're asking questions like,
48
156002
1758
Nous posons des questions comme :
02:37
"Who should the company hire?"
49
157784
1650
« Qui devrait-on embaucher ? »
02:40
"Which update from which friend should you be shown?"
50
160096
2759
« Quelles nouvelles de quel ami devrait-on vous montrer ? »
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
« Quel prisonnier va probablement récidiver ? »
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
« Quel nouvel objet ou film devrait être recommandé aux gens ? »
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
Cela fait un certain temps que nous utilisons des ordinateurs
02:51
but this is different.
54
171988
1517
mais c'est différent.
02:53
This is a historical twist,
55
173529
2067
C'est un changement historique :
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
car on ne peut pas utiliser l'informatique pour des décisions si subjectives
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
comme on utilise l'informatique pour piloter un avion, construire un pont,
03:06
going to the moon.
58
186425
1259
aller sur la Lune.
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
Les avions sont-ils plus sûrs ? Un pont a-t-il bougé et est tombé ?
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
Là, nous nous accordons sur des repères assez clairs
03:16
and we have laws of nature to guide us.
61
196254
2239
et les lois de la nature nous guident.
03:18
We have no such anchors and benchmarks
62
198517
3394
Nous n'avons pas de tels ancres et repères
03:21
for decisions in messy human affairs.
63
201935
3963
pour les décisions des affaires complexes humaines.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
Pour compliquer encore les choses, nos logiciels gagnent en puissance
03:30
but it's also getting less transparent and more complex.
65
210183
3773
mais sont aussi moins transparents et plus complexes.
03:34
Recently, in the past decade,
66
214542
2040
Récemment, les dix dernières années,
03:36
complex algorithms have made great strides.
67
216606
2729
les algorithmes complexes ont fait de grandes avancées.
03:39
They can recognize human faces.
68
219359
1990
Ils peuvent reconnaître les visages humains,
03:41
They can decipher handwriting.
69
221985
2055
déchiffrer l'écriture,
03:44
They can detect credit card fraud
70
224436
2066
détecter la fraude à la carte bancaire,
03:46
and block spam
71
226526
1189
bloquer le spam,
03:47
and they can translate between languages.
72
227739
2037
traduire d'une langue à une autre,
03:49
They can detect tumors in medical imaging.
73
229800
2574
détecter les tumeurs en imagerie médicale,
03:52
They can beat humans in chess and Go.
74
232398
2205
battre les humains aux échecs et au go.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
Beaucoup de ces progrès découlent d'une méthode :
« l'apprentissage de la machine ».
04:00
Machine learning is different than traditional programming,
76
240175
3187
Cette méthode est différente de la programmation traditionnelle
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
où l'on donne des instructions détaillées, exactes, méticuleuses à l'ordinateur.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
Cela ressemble plus à un système nourri de données,
04:11
including unstructured data,
79
251584
1656
dont des données non structurées,
04:13
like the kind we generate in our digital lives.
80
253264
2278
comme celles générées par notre vie numérique.
04:15
And the system learns by churning through this data.
81
255566
2730
Le système apprend en parcourant ces données.
04:18
And also, crucially,
82
258669
1526
Et aussi, c'est crucial,
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
ces systèmes n'utilisent pas la logique de la réponse unique.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
Ils ne produisent pas une seule réponse, c'est plus probabiliste :
04:27
"This one is probably more like what you're looking for."
85
267606
3483
« Celle-ci est probablement plus proche de ce que vous cherchez. »
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
L'avantage est que cette méthode est très puissante.
04:35
The head of Google's AI systems called it,
87
275117
2076
Le chef de l'IA chez Google l'a appelée :
04:37
"the unreasonable effectiveness of data."
88
277217
2197
« l'efficacité irraisonnable des données ».
04:39
The downside is,
89
279791
1353
L'inconvénient est :
04:41
we don't really understand what the system learned.
90
281738
3071
nous ne comprenons pas vraiment ce que le système a appris.
04:44
In fact, that's its power.
91
284833
1587
En fait, c'est sa force.
04:46
This is less like giving instructions to a computer;
92
286946
3798
C'est moins comme donner des instructions à un ordinateur ;
04:51
it's more like training a puppy-machine-creature
93
291200
4064
plus comme entraîner une machine-chiot-créature
04:55
we don't really understand or control.
94
295288
2371
que nous ne comprenons ni ne contrôlons vraiment.
04:58
So this is our problem.
95
298362
1551
Voilà notre problème.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
C'est un problème quand cette intelligence artificielle comprend mal les choses.
05:04
It's also a problem when it gets things right,
97
304713
3540
C'est aussi un problème quand elle comprend les choses
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
car on ne sait pas différencier ces situations pour un problème subjectif.
05:11
We don't know what this thing is thinking.
99
311929
2339
Nous ignorons ce que pense cette chose.
05:15
So, consider a hiring algorithm --
100
315493
3683
Considérez un algorithme d'embauche --
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
un système utilisé pour embaucher des gens en utilisant l'apprentissage des machines.
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
Un tel système aurait été entraîné sur les données des employés
05:28
and instructed to find and hire
103
328655
2591
et chargé de trouver et embaucher
05:31
people like the existing high performers in the company.
104
331270
3038
des gens similaires à ceux les plus performants de l'entreprise.
05:34
Sounds good.
105
334814
1153
Cela semble bien.
05:35
I once attended a conference
106
335991
1999
Une fois, j'ai assisté à une conférence
qui réunissait responsables des ressources humaines et des dirigeants,
05:38
that brought together human resources managers and executives,
107
338014
3125
05:41
high-level people,
108
341163
1206
des gens de haut niveau,
05:42
using such systems in hiring.
109
342393
1559
avec de tels systèmes d'embauche.
05:43
They were super excited.
110
343976
1646
Ils étaient très excités.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
Ils pensaient que cela rendrait l'embauche plus objective, moins biaisée
05:50
and give women and minorities a better shot
112
350323
3000
et donnerait plus de chances aux femmes et minorités
05:53
against biased human managers.
113
353347
2188
face à des responsables RH partiaux.
05:55
And look -- human hiring is biased.
114
355559
2843
L'embauche humaine est partiale.
05:59
I know.
115
359099
1185
Je sais.
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
Dans l'un de mes premiers postes en tant que programmeuse,
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
ma responsable directe venait parfois me voir
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
très tôt le matin ou très tard l'après-midi
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
et elle disait : « Zeinep, allons déjeuner ! »
06:14
I'd be puzzled by the weird timing.
120
374724
2167
L'heure étrange me laissait perplexe.
06:16
It's 4pm. Lunch?
121
376915
2129
Il est 16h, déjeuner ?
06:19
I was broke, so free lunch. I always went.
122
379068
3094
J'étais fauchée, le déjeuner était gratuit donc j'y allais toujours.
06:22
I later realized what was happening.
123
382618
2067
Plus tard, j'ai réalisé ce qu'il se passait.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
Mes responsables directs n'avaient pas dit à leurs responsables
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
qu'ils avaient embauché pour un travail sérieux une adolescente
06:32
who wore jeans and sneakers to work.
126
392416
3930
qui portait un jeans et des baskets au travail.
06:37
I was doing a good job, I just looked wrong
127
397174
2202
Je faisais du bon travail mais mon allure clochait,
06:39
and was the wrong age and gender.
128
399400
1699
j'avais les mauvais âge et sexe.
06:41
So hiring in a gender- and race-blind way
129
401123
3346
Embaucher d'une manière aveugle à la couleur et au sexe
06:44
certainly sounds good to me.
130
404493
1865
me semble très bien.
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
Mais avec ces systèmes, c'est plus compliqué, voici pourquoi :
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
actuellement, les systèmes informatiques peuvent déduire beaucoup vous concernant
06:56
from your digital crumbs,
133
416783
1872
grâce à vos miettes numériques,
06:58
even if you have not disclosed those things.
134
418679
2333
même si vous n'avez rien révélé.
07:01
They can infer your sexual orientation,
135
421506
2927
Ils peuvent déduire votre orientation sexuelle,
07:04
your personality traits,
136
424994
1306
vos traits de personnalité,
07:06
your political leanings.
137
426859
1373
vos tendances politiques.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
Ils ont des pouvoirs prédictifs ayant une exactitude élevée.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
Pour des choses que vous n'avez pas révélées.
07:15
This is inference.
140
435964
1591
C'est de la déduction.
07:17
I have a friend who developed such computational systems
141
437579
3261
J'ai une amie qui a développé de tels systèmes informatiques
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
pour prévoir la probabilité d'une dépression clinique ou post-partum
07:24
from social media data.
143
444529
1416
grâce à vos médias sociaux.
07:26
The results are impressive.
144
446676
1427
Les résultats sont impressionnants.
07:28
Her system can predict the likelihood of depression
145
448492
3357
Son système peut prévoir les risques de dépression
07:31
months before the onset of any symptoms --
146
451873
3903
des mois avant l'apparition de tout symptôme --
07:35
months before.
147
455800
1373
des mois avant.
07:37
No symptoms, there's prediction.
148
457197
2246
Aucun symptôme mais une prédiction.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
Elle espère que cela sera utilisé pour des interventions précoces, super !
07:44
But now put this in the context of hiring.
150
464911
2040
Mais mettez cela dans le contexte de l'embauche.
07:48
So at this human resources managers conference,
151
468027
3046
Lors de cette conférence de responsables des ressources humaines,
07:51
I approached a high-level manager in a very large company,
152
471097
4709
j'ai approché une responsable d'une très grande entreprise
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
et lui ai dit : « Et si, à votre insu,
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
votre système éliminait les gens avec de forts risques de dépression ?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
Ils ne sont pas en dépression mais ont plus de risques pour l'avenir.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
Et s'il éliminait les femmes ayant plus de chances d'être enceintes
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
dans un ou deux ans mais ne le sont pas actuellement ?
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
Et s'il embauchait des gens agressifs car c'est la culture de l'entreprise ? »
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
On ne peut pas le dire en regardant la répartition par sexe.
08:27
Those may be balanced.
160
507888
1502
Cela peut être équilibré.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
Puisque c'est de l'apprentissage de la machine, non du code traditionnel,
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
il n'y a pas de variables appelées « plus de risques de dépression »,
08:37
"higher risk of pregnancy,"
163
517926
1833
« plus de risques d'être enceinte »,
08:39
"aggressive guy scale."
164
519783
1734
« échelle d'agressivité d'un mec ».
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
Non seulement vous ignorez ce que votre système utilise pour choisir,
08:45
you don't even know where to begin to look.
166
525698
2323
mais vous ignorez où chercher.
08:48
It's a black box.
167
528045
1246
C'est une boîte noire.
08:49
It has predictive power, but you don't understand it.
168
529315
2807
Elle a un pouvoir prédictif mais vous ne le comprenez pas.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
J'ai demandé : « Quelle garantie avez-vous
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
pour vous assurer que votre boîte noire ne fait rien de louche ? »
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
Elle m'a regardée comme si je venais de l'insulter.
09:04
(Laughter)
172
544765
1248
(Rires)
09:06
She stared at me and she said,
173
546037
2041
Elle m'a fixée et m'a dit :
09:08
"I don't want to hear another word about this."
174
548556
4333
« Je ne veux rien entendre de plus. »
09:13
And she turned around and walked away.
175
553458
2034
Puis elle s'est tournée et est partie.
09:16
Mind you -- she wasn't rude.
176
556064
1486
Elle n'était pas impolie.
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
C'était clairement du :
« ce que j'ignore n'est pas mon problème, allez-vous en, regard meurtrier ».
09:23
(Laughter)
178
563906
1246
(Rires)
09:25
Look, such a system may even be less biased
179
565862
3839
Un tel système pourrait être moins biaisé
09:29
than human managers in some ways.
180
569725
2103
que les responsables humains.
09:31
And it could make monetary sense.
181
571852
2146
Et il pourrait être monétairement censé.
09:34
But it could also lead
182
574573
1650
Mais il pourrait aussi mener
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
à une fermeture du marché du travail stable mais dissimulée
09:41
of people with higher risk of depression.
184
581019
2293
pour les gens avec plus de risques de dépression.
09:43
Is this the kind of society we want to build,
185
583753
2596
Est-ce le genre de société que nous voulons bâtir,
09:46
without even knowing we've done this,
186
586373
2285
sans même savoir que nous l'avons fait,
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
car nous avons confié la prise de décisions à des machines
que nous ne comprenons pas vraiment ?
09:53
Another problem is this:
188
593265
1458
Un autre problème :
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
ces systèmes sont souvent entraînés sur des données générées par nos actions,
09:59
human imprints.
190
599790
1816
des empreintes humaines.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
Elles pourraient refléter nos préjugés
10:06
and these systems could be picking up on our biases
192
606020
3593
et ces systèmes pourraient apprendre nos préjugés,
10:09
and amplifying them
193
609637
1313
les amplifier
10:10
and showing them back to us,
194
610974
1418
et nous les retourner
10:12
while we're telling ourselves,
195
612416
1462
alors que nous nous disons :
10:13
"We're just doing objective, neutral computation."
196
613902
3117
« Nous ne faisons que de l'informatique neutre et objective. »
10:18
Researchers found that on Google,
197
618314
2677
Des chercheurs chez Google ont découvert
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
qu'on a moins de chances de montrer aux femmes plutôt qu'aux hommes
des offres d'emploi avec un salaire élevé.
10:28
And searching for African-American names
199
628463
2530
Et chercher des noms afro-américains
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
a plus de chances de retourner
des publicités suggérant un historique criminel,
10:35
even when there is none.
201
635747
1567
même quand il n'y en a pas.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
De tels préjugés cachés et des algorithmes boîte noire
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
qui sont parfois découverts par les chercheurs, parfois non,
10:46
can have life-altering consequences.
204
646263
2661
peuvent avoir des conséquences qui changent la vie.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
Dans le Wisconsin, un prévenu a été condamné à 6 ans de prison
10:54
for evading the police.
206
654141
1355
pour avoir échappé à la police.
10:56
You may not know this,
207
656824
1186
Vous l'ignorez peut-être
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
mais des algorithmes sont utilisés pour les probations et les condamnations.
11:02
He wanted to know: How is this score calculated?
209
662056
2955
Nous voulions savoir comment ce score était calculé.
11:05
It's a commercial black box.
210
665795
1665
C'est une boîte noire commerciale.
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
L'entreprise a refusé que l'on conteste son algorithme en audience publique.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
Mais ProPublica, une organisation d'enquête, a audité cet algorithme
11:17
with what public data they could find,
213
677952
2016
avec des données publiques
11:19
and found that its outcomes were biased
214
679992
2316
et a découvert que les résultats étaient biaisés,
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
que son pouvoir prédictif était mauvais, à peine meilleur que la chance,
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
et qu'il étiquetait les prévenus noirs comme de futurs criminels
11:30
at twice the rate of white defendants.
217
690425
3895
avec un taux deux fois plus élevé que pour les prévenus blancs.
11:35
So, consider this case:
218
695891
1564
Considérez ce cas :
11:38
This woman was late picking up her godsister
219
698103
3852
cette femme était en retard pour récupérer sa filleule
11:41
from a school in Broward County, Florida,
220
701979
2075
à une école du comté de Broward, en Floride,
11:44
running down the street with a friend of hers.
221
704757
2356
elle courait dans la rue avec une amie à elle.
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
Elles ont repéré une bécane et un vélo non attachés sur un porche
11:51
and foolishly jumped on it.
223
711260
1632
et ont bêtement sauté dessus.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
Alors qu'elles partaient, une femme est sortie et a dit :
11:55
"Hey! That's my kid's bike!"
225
715539
2205
« Hey ! C'est la bécane de mon fils ! »
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
Elles l'ont lâchée, sont parties mais ont été arrêtées.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
Elle avait tort, elle a été idiote mais elle n'avait que 18 ans.
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
Adolescente, elle avait commis quelques méfaits.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
Pendant ce temps, cet homme a été arrêté pour vol chez Home Depot --
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
pour une valeur de 85$, un crime mineur similaire.
12:16
But he had two prior armed robbery convictions.
231
736766
4559
Mais il avait deux condamnations pour vol à main armée.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
L'algorithme l'a considérée elle, comme étant un risque important, pas lui.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
Deux ans plus tard, ProPublica a découvert qu'elle n'avait pas récidivé.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
Son casier judiciaire compliquait sa recherche d'emploi.
12:33
He, on the other hand, did reoffend
235
753218
2076
Lui, d'un autre côté, avait récidivé
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
et avait été condamné à 8 ans pour un autre crime.
12:40
Clearly, we need to audit our black boxes
237
760088
3369
Clairement, nous devons auditer nos boîtes noires
12:43
and not have them have this kind of unchecked power.
238
763481
2615
et ne pas leur laisser ce genre de pouvoir incontrôlé.
12:46
(Applause)
239
766120
2879
(Applaudissements)
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
Les audits sont importants,
mais ils ne résolvent pas tous nos problèmes.
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
Prenez le puissant algorithme du fil d'actualités Facebook,
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
celui qui classe tout et décide quoi vous montrer
13:01
from all the friends and pages you follow.
243
781992
2284
des amis et des pages que vous suivez.
13:04
Should you be shown another baby picture?
244
784898
2275
Devrait-on vous montrer une autre photo de bébé ?
13:07
(Laughter)
245
787197
1196
(Rires)
13:08
A sullen note from an acquaintance?
246
788417
2596
Une note maussade d'une connaissance ?
13:11
An important but difficult news item?
247
791449
1856
Une actualité importante mais dure ?
13:13
There's no right answer.
248
793329
1482
Il n'y a pas de bonne réponse.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
Facebook optimise pour vous engager envers le site :
13:17
likes, shares, comments.
250
797518
1415
les j'aime, partages, commentaires.
13:20
In August of 2014,
251
800168
2696
En août 2014,
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
des manifestations ont éclaté à Ferguson, dans le Missouri,
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
après qu'un adolescent afro-américain a été tué par un officier de police blanc
13:30
under murky circumstances.
254
810015
1570
dans des circonstances douteuses.
13:31
The news of the protests was all over
255
811974
2007
La nouvelle des manifestations remplissait mon fil d'actualité Twitter non filtré
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
13:36
but nowhere on my Facebook.
257
816714
1950
mais n'était pas sur mon Facebook.
13:39
Was it my Facebook friends?
258
819182
1734
Était-ce mes amis Facebook ?
13:40
I disabled Facebook's algorithm,
259
820940
2032
J'ai désactivé l'algorithme Facebook,
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
ce qui est difficile car Facebook veut vous faire passer
13:46
come under the algorithm's control,
261
826344
2036
sous le contrôle de l'algorithme,
13:48
and saw that my friends were talking about it.
262
828404
2238
et j'ai vu que mes amis en parlaient.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
C'est juste que l'algorithme ne me le montrait pas.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
Après des recherches, j'ai découvert que le problème est répandu.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
L'histoire de Ferguson ne plaisait pas à l'algorithme.
14:00
It's not "likable."
266
840102
1171
Ce n'était pas « aimable », qui allait cliquer sur « j'aime » ?
14:01
Who's going to click on "like?"
267
841297
1552
14:03
It's not even easy to comment on.
268
843500
2206
Ce n'est même pas facile à commenter.
14:05
Without likes and comments,
269
845730
1371
Sans j'aime et commentaires,
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
l'algorithme allait le montrer à un nombre décroissant de gens,
14:10
so we didn't get to see this.
271
850441
1542
donc nous ne pouvions le voir.
14:12
Instead, that week,
272
852946
1228
Cette semaine-là,
14:14
Facebook's algorithm highlighted this,
273
854198
2298
Facebook a plutôt souligné ceci,
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
le Ice Bucket Challenge.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
Cause méritante, lâcher d'eau glacée, donner à une charité, très bien.
14:22
But it was super algorithm-friendly.
276
862536
1904
Cela plaisait beaucoup à l'algorithme.
14:25
The machine made this decision for us.
277
865219
2613
La machine a pris cette décision pour nous.
14:27
A very important but difficult conversation
278
867856
3497
Une conversation très importante mais difficile
14:31
might have been smothered,
279
871377
1555
aurait pu être étouffée
14:32
had Facebook been the only channel.
280
872956
2696
si Facebook avait été le seul canal.
14:36
Now, finally, these systems can also be wrong
281
876117
3797
Finalement, ces systèmes peuvent aussi avoir tort
14:39
in ways that don't resemble human systems.
282
879938
2736
de façons qui ne ressemblent pas aux systèmes humains.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
Vous souvenez-vous de Watson, le système d'IA d'IBM
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
qui a éliminé les participants humains dans Jeopardy ?
14:49
It was a great player.
285
889131
1428
C'était un super joueur.
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
Mais, pour la finale de Jeopardy, on a posé cette question à Watson :
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
« Le plus grand aéroport ayant le nom d'un héros de 39-45,
14:57
its second-largest for a World War II battle."
288
897615
2252
le second plus grand pour une bataille de 39-45. »
14:59
(Hums Final Jeopardy music)
289
899891
1378
(Signal sonore de fin)
15:01
Chicago.
290
901582
1182
Chicago.
15:02
The two humans got it right.
291
902788
1370
Les deux humains avaient raison.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
Watson, par contre, a répondu « Toronto » --
15:09
for a US city category!
293
909069
1818
à une question sur les villes des États-Unis !
15:11
The impressive system also made an error
294
911596
2901
L'impressionnant système a aussi fait une erreur
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
qu'un humain ne ferait jamais, qu'un CE1 ne ferait jamais.
15:18
Our machine intelligence can fail
296
918823
3109
Notre intelligence artificielle peut échouer
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
de façons ne correspondant pas aux schémas d'erreurs humaines,
15:25
in ways we won't expect and be prepared for.
298
925080
2950
de façons inattendues et imprévues.
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
Il serait lamentable de ne pas obtenir un emploi pour lequel on est qualifié
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
mais ce serait pire si c'était à cause d'un dépassement de pile
15:35
in some subroutine.
301
935467
1432
dans une sous-routine.
15:36
(Laughter)
302
936923
1579
(Rires)
15:38
In May of 2010,
303
938526
2786
En mai 2010,
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
un crash éclair sur Wall Street alimenté par une boucle de rétroaction
15:45
in Wall Street's "sell" algorithm
305
945404
3028
dans un algorithme de vente de Wall Street
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
a fait perdre mille milliards de dollars en 36 minutes.
15:53
I don't even want to think what "error" means
307
953722
2187
Je refuse de penser au sens du mot « erreur »
15:55
in the context of lethal autonomous weapons.
308
955933
3589
dans le contexte des armes mortelles autonomes.
16:01
So yes, humans have always made biases.
309
961894
3790
Oui, les humains ont toujours été partiaux.
16:05
Decision makers and gatekeepers,
310
965708
2176
Les preneurs de décision et gardiens,
16:07
in courts, in news, in war ...
311
967908
3493
dans les tribunaux, les actualités, en guerre...
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
Ils font des erreurs ; mais c'est de cela dont je parle.
16:14
We cannot escape these difficult questions.
313
974487
3521
Nous ne pouvons pas échapper à ces questions difficiles.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
Nous ne pouvons pas sous-traiter nos responsabilités aux machines.
16:22
(Applause)
315
982676
4208
(Applaudissements)
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
L'intelligence artificielle n'offre pas une carte « sortie de l'éthique ».
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
Le scientifique des données Fred Benenson qualifie cela de lavage des maths.
16:38
We need the opposite.
318
998147
1389
Il nous faut l'opposé.
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
Nous devons cultiver la suspicion, le contrôle et l'enquête de l'algorithme.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
Nous devons nous assurer de la responsabilité des algorithmes,
16:48
auditing and meaningful transparency.
321
1008602
2445
les auditer et avoir une transparence significative.
16:51
We need to accept that bringing math and computation
322
1011380
3234
Nous devons accepter qu'apporter les maths et l'informatique
16:54
to messy, value-laden human affairs
323
1014638
2970
dans les affaires humaines désordonnées et basées sur des valeurs
16:57
does not bring objectivity;
324
1017632
2384
n'apporte pas l'objectivité
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
mais plutôt que la complexité des affaires humaines
envahit les algorithmes.
17:04
Yes, we can and we should use computation
326
1024148
3487
Nous devrions utiliser l'informatique
17:07
to help us make better decisions.
327
1027659
2014
pour prendre de meilleures décisions.
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
Mais nous devons assumer notre responsabilité morale de jugement
17:15
and use algorithms within that framework,
329
1035053
2818
et utiliser les algorithmes dans ce cadre,
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
pas comme un moyen d'abdiquer et sous-traiter nos responsabilités
17:22
to one another as human to human.
331
1042854
2454
d'un humain à un autre.
17:25
Machine intelligence is here.
332
1045807
2609
L'intelligence artificielle est arrivée.
17:28
That means we must hold on ever tighter
333
1048440
3421
Cela signifie que nous devons nous accrocher encore plus
17:31
to human values and human ethics.
334
1051885
2147
aux valeurs et éthiques humaines.
17:34
Thank you.
335
1054056
1154
Merci.
17:35
(Applause)
336
1055234
5020
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7