How we can build AI to help humans, not hurt us | Margaret Mitchell

80,996 views ・ 2018-03-12

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Benjamin Tchassama-Lacroix Relecteur: Jules Daunay
00:13
I work on helping computers communicate about the world around us.
0
13381
4015
J'aide les ordinateurs à communiquer avec le monde qui nous entoure.
00:17
There are a lot of ways to do this,
1
17754
1793
Il y a plein de façons de le faire,
00:19
and I like to focus on helping computers
2
19571
2592
mais j'aime me consacrer à aider les ordinateurs
00:22
to talk about what they see and understand.
3
22187
2874
à parler de ce qu'ils voient et de ce qu'ils comprennent.
00:25
Given a scene like this,
4
25514
1571
Pour une scène comme celle-ci,
00:27
a modern computer-vision algorithm
5
27109
1905
un algorithme moderne de reconnaissance
00:29
can tell you that there's a woman and there's a dog.
6
29038
3095
peut vous dire qu'il y a une femme et un chien.
00:32
It can tell you that the woman is smiling.
7
32157
2706
Il peut vous dire que la femme est souriante.
00:34
It might even be able to tell you that the dog is incredibly cute.
8
34887
3873
Il pourrait même vous dire que le chien est incroyablement mignon.
00:38
I work on this problem
9
38784
1349
Je travaille sur ce problème
00:40
thinking about how humans understand and process the world.
10
40157
4212
en étudiant la façon dont les humains comprennent et traitent le monde.
00:45
The thoughts, memories and stories
11
45577
2952
Les pensées, les souvenirs et les histoires
00:48
that a scene like this might evoke for humans.
12
48553
2818
qu'une scène comme celle-ci pourrait évoquer pour un humain.
00:51
All the interconnections of related situations.
13
51395
4285
Toutes les interconnexions avec les situations proches.
00:55
Maybe you've seen a dog like this one before,
14
55704
3126
Peut-être avez-vous déjà vu un chien semblable auparavant,
00:58
or you've spent time running on a beach like this one,
15
58854
2969
ou que vous avez beaucoup couru sur une plage comme celle-ci
01:01
and that further evokes thoughts and memories of a past vacation,
16
61847
4778
et cela évoque d'autres pensées et des souvenirs de vacances passées,
01:06
past times to the beach,
17
66649
1920
des moments passés à la plage,
01:08
times spent running around with other dogs.
18
68593
2603
des moments passés à courir avec d'autres chiens.
01:11
One of my guiding principles is that by helping computers to understand
19
71688
5207
Un de mes principes est d'aider les ordinateurs à comprendre
01:16
what it's like to have these experiences,
20
76919
2896
à quoi ressemblent de telles expériences,
01:19
to understand what we share and believe and feel,
21
79839
5176
pour leur faire comprendre ce que nous partageons, croyons et ressentons.
01:26
then we're in a great position to start evolving computer technology
22
86094
4310
C'est ainsi qu'on pourra commencer à faire évoluer la technologie informatique
01:30
in a way that's complementary with our own experiences.
23
90428
4587
pour qu'elle soit complémentaire de nos propres expériences.
01:35
So, digging more deeply into this,
24
95539
3387
Donc, pour approfondir ce sujet,
01:38
a few years ago I began working on helping computers to generate human-like stories
25
98950
5905
ces dernières années, j'ai aidé les ordinateurs à créer des histoires
01:44
from sequences of images.
26
104879
1666
à partir de séquences d'images.
01:47
So, one day,
27
107427
1904
Un jour,
01:49
I was working with my computer to ask it what it thought about a trip to Australia.
28
109355
4622
j'étais sur mon PC et je lui ai demandé son avis sur un voyage en Australie.
01:54
It took a look at the pictures, and it saw a koala.
29
114768
2920
Il a regardé les images, et il a vu un koala.
01:58
It didn't know what the koala was,
30
118236
1643
Il ne savait pas ce que c'était,
01:59
but it said it thought it was an interesting-looking creature.
31
119903
2999
mais, selon lui, cette créature avait l'air intéressante.
02:04
Then I shared with it a sequence of images about a house burning down.
32
124053
4004
Puis, j'ai partagé avec lui une séquence d'images d'une maison qui brûlait.
02:09
It took a look at the images and it said,
33
129704
3285
Il a regardé les images et il a dit :
02:13
"This is an amazing view! This is spectacular!"
34
133013
3500
« C'est une vue incroyable ! C'est spectaculaire ! »
02:17
It sent chills down my spine.
35
137450
2095
Et ça m'a donné des frissons.
02:20
It saw a horrible, life-changing and life-destroying event
36
140983
4572
Il a vu un événement horrible, qui peut bouleverser et détruire une vie,
02:25
and thought it was something positive.
37
145579
2382
et il pensait que c'était une chose positive.
02:27
I realized that it recognized the contrast,
38
147985
3441
J'ai compris qu'il discernait le contraste,
02:31
the reds, the yellows,
39
151450
2699
les rouges, les jaunes,
02:34
and thought it was something worth remarking on positively.
40
154173
3078
et il trouvait, sans mauvaise pensée, que ça méritait d'être vu.
02:37
And part of why it was doing this
41
157928
1615
S'il disait ça, c'était en partie
02:39
was because most of the images I had given it
42
159577
2945
parce que la plupart des images que je lui avais apportées
02:42
were positive images.
43
162546
1840
étaient des images positives.
02:44
That's because people tend to share positive images
44
164903
3658
C'est parce que les gens ont tendance à partager des images positives
02:48
when they talk about their experiences.
45
168585
2190
quand ils parlent de leurs expériences.
02:51
When was the last time you saw a selfie at a funeral?
46
171267
2541
Se prend-on en portrait avec son portable à un enterrement ?
02:55
I realized that, as I worked on improving AI
47
175434
3095
J'ai compris que, pendant que j'améliorais l'IA,
02:58
task by task, dataset by dataset,
48
178553
3714
fonction par fonction, jeu de données par jeu de données,
03:02
that I was creating massive gaps,
49
182291
2897
je créais des lacunes massives,
03:05
holes and blind spots in what it could understand.
50
185212
3999
des trous et des biais cognitifs dans ce que l'IA pouvait comprendre.
03:10
And while doing so,
51
190307
1334
Et, en faisant cela,
03:11
I was encoding all kinds of biases.
52
191665
2483
je codais toute sorte de préjugés.
03:15
Biases that reflect a limited viewpoint,
53
195029
3318
Des préjugés qui reflètent un point de vue limité,
03:18
limited to a single dataset --
54
198371
2261
limité à un seul jeu de données.
03:21
biases that can reflect human biases found in the data,
55
201283
3858
Des partis pris qui reflètent des biais humains, retrouvés dans les données,
03:25
such as prejudice and stereotyping.
56
205165
3104
comme les préjugés et les stéréotypes.
03:29
I thought back to the evolution of the technology
57
209554
3057
Je repensais à l'évolution technologique
03:32
that brought me to where I was that day --
58
212635
2502
qui m'a amenée là où j'en suis aujourd'hui.
03:35
how the first color images
59
215966
2233
Que les premières images en couleur
03:38
were calibrated against a white woman's skin,
60
218223
3048
ont été calibrées sur la peau d'une femme blanche,
03:41
meaning that color photography was biased against black faces.
61
221665
4145
les photographies en couleur étaient donc biaisées pour les visages noirs.
03:46
And that same bias, that same blind spot
62
226514
2925
Et ces mêmes préjugés, ces mêmes biais cognitifs
03:49
continued well into the '90s.
63
229463
1867
se sont poursuivis dans les années 90.
03:51
And the same blind spot continues even today
64
231701
3154
Ces biais cognitifs sont encore là aujourd'hui
03:54
in how well we can recognize different people's faces
65
234879
3698
dans notre façon de reconnaître les visages de gens différents
03:58
in facial recognition technology.
66
238601
2200
grâce à la reconnaissance faciale.
04:01
I though about the state of the art in research today,
67
241323
3143
J'ai réfléchi à l'état de l'art de la recherche actuelle,
04:04
where we tend to limit our thinking to one dataset and one problem.
68
244490
4514
qui a tendance à limiter la réflexion à un seul jeu de données et à un seul problème.
04:09
And that in doing so, we were creating more blind spots and biases
69
249688
4881
Ce faisant, on a créé encore plus de biais cognitifs et de préjugés
04:14
that the AI could further amplify.
70
254593
2277
que l'IA pourrait encore amplifier.
04:17
I realized then that we had to think deeply
71
257712
2079
J'ai alors compris qu'il fallait imaginer
04:19
about how the technology we work on today looks in five years, in 10 years.
72
259815
5519
le devenir de la technologie actuelle dans cinq ou dix ans.
04:25
Humans evolve slowly, with time to correct for issues
73
265990
3142
L'être humain évolue lentement, il prend le temps de corriger
04:29
in the interaction of humans and their environment.
74
269156
3534
ses interactions avec son environnement.
04:33
In contrast, artificial intelligence is evolving at an incredibly fast rate.
75
273276
5429
En revanche, l'intelligence artificielle évolue à un rythme incroyablement rapide.
04:39
And that means that it really matters
76
279013
1773
Par conséquent, c'est important
04:40
that we think about this carefully right now --
77
280810
2317
de réfléchir soigneusement à ça dès maintenant –
04:44
that we reflect on our own blind spots,
78
284180
3008
à nos propres biais cognitifs,
04:47
our own biases,
79
287212
2317
nos préjugés,
04:49
and think about how that's informing the technology we're creating
80
289553
3857
et comment ils influencent la technologie en création –
04:53
and discuss what the technology of today will mean for tomorrow.
81
293434
3902
et de discuter du sens de la technologie pour le futur.
04:58
CEOs and scientists have weighed in on what they think
82
298593
3191
Des PDG et des scientifiques se sont prononcés
05:01
the artificial intelligence technology of the future will be.
83
301808
3325
sur le futur de l'intelligence artificielle de demain.
05:05
Stephen Hawking warns that
84
305157
1618
Stephen Hawking nous alerte :
05:06
"Artificial intelligence could end mankind."
85
306799
3007
« L'intelligence artificielle pourrait détruire l'humanité. »
05:10
Elon Musk warns that it's an existential risk
86
310307
2683
Elon Musk nous dit que c'est un risque existentiel,
05:13
and one of the greatest risks that we face as a civilization.
87
313014
3574
un des plus grands que notre civilisation devra affronter.
05:17
Bill Gates has made the point,
88
317665
1452
Bill Gates a fait remarquer :
05:19
"I don't understand why people aren't more concerned."
89
319141
3185
« Je ne sais pas pourquoi les gens ne sont pas plus inquiets. »
05:23
But these views --
90
323412
1318
Mais ces points de vue
05:25
they're part of the story.
91
325618
1734
font partie d'une histoire.
05:28
The math, the models,
92
328079
2420
Les maths, les modèles,
05:30
the basic building blocks of artificial intelligence
93
330523
3070
les bases même de l'intelligence artificielle
05:33
are something that we call access and all work with.
94
333617
3135
sont des choses que nous pouvons tous aborder et améliorer.
05:36
We have open-source tools for machine learning and intelligence
95
336776
3785
Il existe des logiciels libres pour l'apprentissage automatique
05:40
that we can contribute to.
96
340585
1734
auxquels chacun peut contribuer.
05:42
And beyond that, we can share our experience.
97
342919
3340
Et au-delà de ça, nous pouvons partager notre expérience,
05:46
We can share our experiences with technology and how it concerns us
98
346760
3468
nos expériences avec la technologie, comment elle nous touche
05:50
and how it excites us.
99
350252
1467
et nous passionne.
05:52
We can discuss what we love.
100
352251
1867
On peut parler de nos passions.
05:55
We can communicate with foresight
101
355244
2031
On peut parler de nos hypothèses
05:57
about the aspects of technology that could be more beneficial
102
357299
4857
sur les aspects de la technologie qui pourraient devenir plus utiles
06:02
or could be more problematic over time.
103
362180
2600
ou bien poser plus de problèmes au fil du temps.
06:05
If we all focus on opening up the discussion on AI
104
365799
4143
Si on se met tous à ouvrir une discussion sur l'IA,
06:09
with foresight towards the future,
105
369966
1809
avec un horizon de long terme,
06:13
this will help create a general conversation and awareness
106
373093
4270
on contribuera à créer un débat et une prise de conscience générale
06:17
about what AI is now,
107
377387
2513
sur ce qu'est l'IA aujourd'hui,
06:21
what it can become
108
381212
2001
ce qu'elle peut devenir
06:23
and all the things that we need to do
109
383237
1785
et tout ce qu'on doit faire
06:25
in order to enable that outcome that best suits us.
110
385046
3753
pour arriver à atteindre le meilleur résultat pour nous.
06:29
We already see and know this in the technology that we use today.
111
389490
3674
C'est déjà le cas avec la technologie qu'on utilise aujourd'hui.
06:33
We use smart phones and digital assistants and Roombas.
112
393767
3880
On utilise des téléphones, des assistants personnels et des robots aspirateurs.
06:38
Are they evil?
113
398457
1150
Sont-ils nuisibles ?
06:40
Maybe sometimes.
114
400268
1547
Parfois, peut-être.
06:42
Are they beneficial?
115
402664
1333
Sont-ils utiles ?
06:45
Yes, they're that, too.
116
405005
1533
Oui, ils le sont aussi.
06:48
And they're not all the same.
117
408236
1761
Et ils ne sont pas tous pareils.
06:50
And there you already see a light shining on what the future holds.
118
410489
3540
Et c'est là qu'on voit déjà une lueur positive dans le futur.
06:54
The future continues on from what we build and create right now.
119
414942
3619
Le futur avance grâce à tout ce qu'on construit aujourd'hui.
06:59
We set into motion that domino effect
120
419165
2642
On a mis en mouvement l'effet domino
07:01
that carves out AI's evolutionary path.
121
421831
2600
qui construit l'évolution de l'IA.
07:05
In our time right now, we shape the AI of tomorrow.
122
425173
2871
C'est aujourd'hui qu'on façonne l'IA de demain.
07:08
Technology that immerses us in augmented realities
123
428566
3699
Une technologie qui nous immerge dans les réalités augmentées,
07:12
bringing to life past worlds.
124
432289
2566
ramenant à la vie des mondes passés.
07:15
Technology that helps people to share their experiences
125
435844
4312
Une technologie qui aide les gens à partager leurs expériences
07:20
when they have difficulty communicating.
126
440180
2262
quand ils ont du mal à communiquer.
07:23
Technology built on understanding the streaming visual worlds
127
443323
4532
Une technologie basée sur la compréhension des univers visuels en flux continu,
07:27
used as technology for self-driving cars.
128
447879
3079
qui fait fonctionner les véhicules autonomes.
07:32
Technology built on understanding images and generating language,
129
452490
3413
Une technologique d'analyse d'images et de création de langages,
07:35
evolving into technology that helps people who are visually impaired
130
455927
4063
qui évolue en une technologie pour aider les troubles de la vue,
07:40
be better able to access the visual world.
131
460014
2800
afin de pouvoir mieux accéder au monde visuel.
07:42
And we also see how technology can lead to problems.
132
462838
3261
On voit aussi comment la technologie peut créer des problèmes.
07:46
We have technology today
133
466885
1428
On est maintenant
07:48
that analyzes physical characteristics we're born with --
134
468337
3835
capables d’analyser les caractéristiques physiques innées,
07:52
such as the color of our skin or the look of our face --
135
472196
3272
comme la couleur de notre peau ou l'apparence du visage,
07:55
in order to determine whether or not we might be criminals or terrorists.
136
475492
3804
pour déterminer nos probabilités de devenir un criminel ou un terroriste.
07:59
We have technology that crunches through our data,
137
479688
2905
On a des logiciels capables de traiter toutes les données
08:02
even data relating to our gender or our race,
138
482617
2896
même celles concernant notre genre ou notre couleur de peau,
08:05
in order to determine whether or not we might get a loan.
139
485537
2865
afin de déterminer si on peut ou non contracter un crédit.
08:09
All that we see now
140
489494
1579
Tout ce qu'on voit
08:11
is a snapshot in the evolution of artificial intelligence.
141
491097
3617
n'est qu'un aperçu de l'évolution de l'intelligence artificielle.
08:15
Because where we are right now,
142
495763
1778
Parce que nous sommes maintenant
08:17
is within a moment of that evolution.
143
497565
2238
à un stade précis de cette évolution.
08:20
That means that what we do now will affect what happens down the line
144
500690
3802
C'est-à-dire que ce qu'on fait maintenant aura des répercussions par la suite
08:24
and in the future.
145
504516
1200
et dans le futur.
08:26
If we want AI to evolve in a way that helps humans,
146
506063
3951
Si on veut que l'IA évolue pour aider l'humanité,
08:30
then we need to define the goals and strategies
147
510038
2801
on doit définir des objectifs et des stratégies
08:32
that enable that path now.
148
512863
1733
pour tracer aujourd'hui cette voie.
08:35
What I'd like to see is something that fits well with humans,
149
515680
3738
Je voudrais voir une IA qui cohabite avec nous, les humains,
08:39
with our culture and with the environment.
150
519442
2800
avec nos cultures et notre environnement.
08:43
Technology that aids and assists those of us with neurological conditions
151
523435
4484
Une technologie qui vient en aide à ceux qui ont des problèmes neurologiques
08:47
or other disabilities
152
527943
1721
ou tout autre handicap
08:49
in order to make life equally challenging for everyone.
153
529688
3216
afin de garantir l'égalité des chances dans la vie pour tous.
08:54
Technology that works
154
534097
1421
Une technologie fonctionnant
08:55
regardless of your demographics or the color of your skin.
155
535542
3933
quel que soit votre statut démographique ou votre couleur de peau.
09:00
And so today, what I focus on is the technology for tomorrow
156
540383
4742
Aujourd'hui, je me focalise donc sur la technologie de demain,
09:05
and for 10 years from now.
157
545149
1733
pour les dix ans à venir.
09:08
AI can turn out in many different ways.
158
548530
2634
L'IA peut devenir plein de choses différentes.
09:11
But in this case,
159
551688
1225
Mais dans ce cas,
09:12
it isn't a self-driving car without any destination.
160
552937
3328
ce ne sera pas un véhicule autonome sans destination.
09:16
This is the car that we are driving.
161
556884
2400
Ce sera une voiture qu'on pilote.
09:19
We choose when to speed up and when to slow down.
162
559953
3595
On choisira quand accélérer et quand ralentir.
09:23
We choose if we need to make a turn.
163
563572
2400
On décidera de faire un virage ou non.
09:26
We choose what the AI of the future will be.
164
566868
3000
On sélectionnera ce à quoi ressemblera l'IA dans le futur.
09:31
There's a vast playing field
165
571186
1337
Il y a beaucoup de choses
09:32
of all the things that artificial intelligence can become.
166
572547
2965
que l'intelligence artificielle peut devenir.
09:36
It will become many things.
167
576064
1800
Elle a un énorme potentiel.
09:39
And it's up to us now,
168
579694
1732
Et c'est à nous, aujourd'hui,
09:41
in order to figure out what we need to put in place
169
581450
3061
de trouver ce qu'on doit mettre en place
09:44
to make sure the outcomes of artificial intelligence
170
584535
3807
pour s'assurer que les effets de l'intelligence artificielle
09:48
are the ones that will be better for all of us.
171
588366
3066
soient bénéfiques pour nous tous.
09:51
Thank you.
172
591456
1150
Merci.
09:52
(Applause)
173
592630
2187
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7