How AI and Democracy Can Fix Each Other | Divya Siddarth | TED

29,644 views ・ 2024-03-05

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: laure veyrier Relecteur: Claire Ghyselen
00:04
Recently I told someone my work is on democracy and technology.
0
4334
4630
Il y a peu, j’ai parlé à quelqu’un de mon travail
sur la démocratie et la technologie.
00:09
He turned to me and said,
1
9464
1210
Il s’est tourné vers moi et m’a dit : « Waouh... je suis navrée. »
00:10
“Wow...
2
10674
1001
00:11
I’m sorry.”
3
11925
1335
00:13
(Laughter)
4
13260
1251
(Rires)
00:15
But I love my work.
5
15637
1710
Mais j'adore mon travail.
00:17
I know that we can build a world
6
17681
1918
Je sais que nous pouvons construire un monde
00:19
where technological marvels are directed towards people's benefit,
7
19641
4212
où les prouesses technologiques bénéficieront aux gens,
00:23
using their input.
8
23895
1460
sur bases de leurs propres données.
00:26
We have gotten so used to seeing democracy as a problem to be solved.
9
26147
4463
Nous nous sommes tellement habitués à voir la démocratie comme un problème à régler.
00:32
But I see democracy as a solution,
10
32028
2878
Mais je considère la démocratie comme une solution
00:34
not as a problem.
11
34906
1835
et non comme un problème.
00:37
Democracy was once a radical political project,
12
37909
3003
La démocratie était autrefois un projet politique radical,
00:40
itself a cutting-edge social technology,
13
40912
3087
une technologie sociale de pointe en soi,
00:44
a new way to answer the very question we are faced with now,
14
44040
4797
une nouvelle façon de répondre à la question à laquelle
nous sommes confrontés aujourd’hui,
00:48
in the era of artificial intelligence:
15
48837
2794
à l'ère de l'intelligence artificielle :
00:51
how do we use our capabilities to live well together?
16
51631
4755
comment utiliser nos compétences pour bien vivre ensemble ?
00:57
We are told that transformative technologies like AI are too complicated,
17
57679
5756
On nous dit que les technologies transformatrices comme l’IA
sont trop compliquées, ou trop risquées,
01:03
or too risky
18
63435
2419
01:05
or too important to be governed democratically.
19
65895
3546
ou trop importantes pour être gouvernées démocratiquement.
01:10
But this is precisely why they must be.
20
70650
3462
Mais c’est précisément pour cela qu’elles doivent l’être.
Si la démocratie existante n’ est pas à la hauteur de la tâche,
01:14
If existing democracy is unequal to the task,
21
74112
2544
01:16
our job is not to give up on it.
22
76698
2169
notre travail n’est pas de baisser les bras.
01:19
Our job is to evolve it.
23
79367
2544
Notre travail consiste à la faire évoluer
01:22
And to use technology as an asset to help us do so.
24
82746
3253
en nous épaulant de la technologie pour y parvenir.
01:26
Still, I understand his doubts.
25
86958
2044
Je comprends tout de même ces doutes.
01:29
I never meant to build my life around new forms of democracy.
26
89336
3670
Je n’ai jamais voulu construire ma vie autour de nouvelles formes de démocratie.
01:33
I started out just really believing in the power of science.
27
93632
3378
Au début, je croyais vraiment au pouvoir de la science.
01:38
I was modifying DNA in my kitchen at 12,
28
98053
4504
À 12 ans, je modifiais l’ADN dans ma cuisine
01:42
and when I got to Stanford as a computational biology major,
29
102557
3754
et quand j’ai intégré Stanford en biologie computationnelle,
01:46
I was converted to a new belief -- technology.
30
106311
3295
on m’a convertie à une nouvelle croyance : la technologie.
01:49
I truly believed in the power of tech to change the world.
31
109939
3003
Je croyais vraiment au pouvoir de la technologie pour changer le monde.
01:52
Maybe, like many of you.
32
112942
1752
Sans doute comme beaucoup d’entre vous.
01:55
But I saw that the technologies that really made a difference
33
115695
2878
Mais j’ai constaté que les technologies qui avaient un vrai impact
01:58
were the ones that were built with and for the collective.
34
118573
3879
étaient celles qui étaient conçues avec et pour le collectif.
Pas les milliards de dollars investis dans la 19e appli sociale
02:03
Not the billions of dollars
35
123370
1418
02:04
pumped into the 19th addiction-fueling social app.
36
124829
3128
alimentant la dépendance.
Mais les projets qui combinent la création de quelque chose de vraiment nouveau
02:09
But the projects that combine creating something truly new
37
129167
3629
02:12
with building in ways for people to access,
38
132796
3128
et la mise en place de moyens permettant aux gens d’y accéder,
02:15
benefit from and direct it.
39
135924
2252
d’en bénéficier et de les gérer.
02:18
Instead of social media, think of the internet.
40
138885
2544
Plutôt que les réseaux sociaux, pensez à Internet.
02:21
Built with public resources on open standards.
41
141429
3212
Construit avec des ressources publiques sur des normes ouvertes.
02:25
This is what brought me to democracy.
42
145892
2669
C'est ce qui m'a amené à la démocratie.
02:29
Technology expands what we are capable of.
43
149729
3087
La technologie enrichit ce dont nous sommes capables.
02:33
Democracy is how we decide what to do with that capability.
44
153858
5089
La démocratie c’est la façon dont nous décidons d’utiliser cette ressource.
02:40
Since then, I've worked on using democracy as a solution
45
160115
3712
Depuis, j'ai travaillé sur l'utilisation de la démocratie comme solution
02:43
in India, the US, the UK, Taiwan.
46
163868
3295
en Inde, aux États-Unis, au Royaume-Uni et à Taïwan.
02:47
I've worked alongside incredible collaborators
47
167455
2670
J’ai travaillé avec des collaborateurs incroyables
afin d’utiliser la démocratie pour aider à résoudre le COVID,
02:50
to use democracy to help solve COVID,
48
170125
2711
02:52
to help solve data rights.
49
172836
1751
les problèmes des droits relatifs aux données.
02:54
And as I'll tell you today,
50
174629
2127
Et comme je vais vous le dire aujourd’hui,
02:56
to help solve AI governance with policymakers around the world
51
176798
4171
pour aider à résoudre la question de la gouvernance de l’IA
avec les décideurs politiques du monde entier
03:01
and cutting-edge technology companies like OpenAI and Anthropic.
52
181010
4505
et des entreprises technologiques de pointe comme OpenAI et Anthropic.
03:05
How?
53
185849
1167
Comment ?
03:07
By recognizing that democracy is still in its infancy.
54
187434
4546
En reconnaissant que la démocratie n'en est qu'à ses balbutiements.
03:12
It is an early form of collective intelligence,
55
192522
3795
Il s'agit d'une forme précoce d'intelligence collective,
03:16
a way to put together decentralized input from diverse sources
56
196359
4755
un moyen de rassembler des informations décentralisées issues de diverses sources
03:21
and produce decisions that are better than the sum of their parts.
57
201156
4170
et de prendre des décisions qui sont meilleures que la somme de leurs parties.
03:26
That’s why, when my fantastic cofounder Saffron Huang and I
58
206161
3920
C’est pourquoi quand mon fantastique cofondateur Saffron Huang et moi
03:30
left our jobs at Google DeepMind and Microsoft
59
210123
3086
avons quitté nos fonctions chez Google DeepMind et Microsoft
pour créer de nouveaux modèles de gouvernance démocratique
03:33
to build new democratic governance models for transformative tech,
60
213209
4129
pour les technologies transformatrices,
03:37
I named our nonprofit the Collective Intelligence Project,
61
217380
4088
j’ai baptisé notre organisation à but non lucratif Collective Intelligence Project,
03:42
as a nod to the ever-evolving project of building collective intelligence
62
222427
6256
clin d’œil au projet en constante évolution
consistant à développer l’intelligence collective pour le bien-être commun.
03:48
for collective flourishing.
63
228725
2294
03:52
Since then we've done just that,
64
232228
2253
C’est exactement ce que nous avons fait depuis lors,
03:54
building new collective intelligence models to direct artificial intelligence,
65
234481
4587
créer de nouveaux modèles d’intelligence collective
pour encadrer l’intelligence artificielle et gérer les processus démocratiques.
03:59
to run democratic processes.
66
239068
2169
04:01
And we've incorporated the voices of thousands of people into AI governance.
67
241237
3879
Et nous avons intégré les voix de milliers de personnes dans la gouvernance de l'IA.
04:06
Here are a few of the things we've learned.
68
246242
2044
Voici quelques-unes des leçons que nous avons apprises.
04:08
First, people are willing and able to have difficult,
69
248995
4838
Tout d’abord, les gens sont disposés et capables
d’avoir des conversations difficiles et complexes sur des sujets nuancés.
04:13
complex conversations on nuanced topics.
70
253833
2878
04:17
When we asked people about the risks of AI they were most concerned about,
71
257378
4380
Quand nous avons demandé aux gens quels étaient les risques liés à l’IA
qui les préoccupaient le plus, ils n’ont pas trouvé de réponses faciles.
04:21
they didn't reach for easy answers.
72
261758
1918
04:24
Out of more than 100 risks put forward,
73
264469
2169
Parmi plus de 100 risques avancés,
04:26
the top-cited one: overreliance on systems we don't understand.
74
266679
5214
le plus cité est le recours excessif à des systèmes que nous ne comprenons pas.
04:32
We talked to people across the country,
75
272435
1877
Nous avons discuté avec des gens dans tout le pays,
04:34
from a veteran in the Midwest to a young teacher in the South.
76
274312
3337
d’un ancien combattant du Midwest à un jeune enseignant du Sud.
04:37
People were excited about the possibilities of this technology,
77
277649
3670
Les gens étaient enthousiasmés par les possibilités de cette technologie,
04:41
but there were specific things they wanted to understand
78
281319
2711
mais ils souhaitaient comprendre certaines choses spécifiques
04:44
about what models were capable of before seeing them deployed in the world.
79
284030
3837
sur les capacités des modèles avant de les déployer dans le monde.
04:48
A lot more reasonable than many of the policy conversations that we're in.
80
288701
4046
C’est bien plus raisonnable que la plupart des discussions politiques que nous avons.
04:53
And importantly, we saw very little of the polarization
81
293331
3378
Et surtout, nous avons très peu remarqué la polarisation
04:56
we're always hearing about.
82
296751
1585
dont nous entendons toujours parler.
04:59
On average, just a few divisive statements
83
299045
3003
En moyenne, quelques déclarations clivantes
05:02
for hundreds of consensus statements.
84
302090
2544
contre des centaines de déclarations consensuelles.
05:05
Even on the contentious issues of the day,
85
305385
2002
Même sur les sujets sensibles à l’époque,
05:07
like free speech or race and gender,
86
307428
2169
tels que la liberté d’expression ou la race et le genre,
05:09
we saw far more agreement than disagreement.
87
309639
2794
nous avons constaté beaucoup plus d'accord que de désaccord.
05:13
Almost three quarters of people agree that AI should protect free speech.
88
313393
3753
Près de trois quarts des gens pensent que
l’IA devrait garantir la liberté d’expression.
05:17
Ninety percent agree that AI should not be racist or sexist.
89
317146
3546
90% conviennent que l’IA ne devrait pas être raciste ou sexiste.
05:21
Only around 50 percent think that AI should be funny though,
90
321651
2878
Cependant, environ 50 % seulement pensent que l’IA devrait être drôle,
05:24
so they are still contentious issues out there.
91
324529
2294
c’est donc encore une question sensible.
05:28
These last statistics
92
328783
1585
Ces dernières statistiques
05:30
are from our collective constitution project with Anthropic,
93
330410
3712
sont issues de notre projet de constitution collective avec Anthropic,
où nous avons reformé l'un des modèles linguistiques les plus puissants du monde
05:34
where we retrained one of the world's most powerful language models
94
334122
3378
05:37
on principles written by 1,000 representative Americans.
95
337500
3670
sur des principes écrits par 1 000 représentants américains.
05:41
Not AI developers or regulators or researchers at elite universities.
96
341754
5339
Pas des développeurs d'IA, des régulateurs ou des chercheurs d'universités d'élite.
05:47
We built on a way of training AI
97
347427
2043
Nous nous sommes appuyés sur une formation de l’IA
05:49
that relies on a written set of principles or a constitution,
98
349470
3421
qui repose sur un ensemble de principes écrits ou une constitution,
05:52
we asked ordinary people to cowrite this constitution,
99
352932
2628
nous avons demandé à des gens lambdas de coécrire cette constitution,
05:55
we compared it to a model that researchers had come up with.
100
355602
3003
nous l’avons comparée à un modèle élaboré par des chercheurs.
05:59
When we started this project, I wasn't sure what to expect.
101
359230
4046
Lorsque nous avons commencé ce projet, je ne savais pas trop à quoi m’attendre.
06:03
Maybe the naysayers were right.
102
363776
1794
Peut-être que les détracteurs avaient raison.
06:05
AI is complicated.
103
365987
1418
L'IA est complexe.
06:08
Maybe people wouldn't understand what we were asking them.
104
368448
2836
Peut-être que les gens ne comprendraient pas ce que nous leur demandions.
06:11
Maybe we'd end up with something awful.
105
371826
2252
Peut-être qu’on finirait avec quelque chose de terrible.
06:15
But the people’s model, trained on the cowritten constitution,
106
375371
3921
Mais le modèle populaire, basé sur la constitution co-écrite,
06:19
was just as capable and more fair
107
379292
4046
était tout aussi performant et plus équitable
06:23
than the model the researchers had come up with.
108
383338
2460
que le modèle mis au point par les chercheurs.
06:26
People with little to no experience in AI
109
386382
2878
Les personnes ayant peu ou pas d’expérience en matière d’IA
06:29
did better than researchers, who work on this full-time,
110
389302
3587
ont obtenu de meilleurs résultats que les chercheurs y travaillant à plein temps,
06:32
in building a fairer chatbot.
111
392931
2544
pour créer un chatbot plus équitable.
06:36
Maybe I shouldn't have been surprised.
112
396142
2127
Je n’aurais peut-être pas dû être surprise,
06:38
As one of our participants from another process said,
113
398311
3587
comme l’a dit l’un de nos participants à un autre processus :
06:41
"They may be experts in AI, but I have eight grandchildren.
114
401940
3712
« Ils sont peut-être des experts en IA, mais j’ai huit petits-enfants.
06:45
I know how to pick good values."
115
405693
2044
Je sais comment choisir les bonnes valeurs. »
06:51
If technology expands what we are capable of
116
411282
2503
Si la technologie élargit ce dont nous sommes capables
06:53
and democracy is how we decide what to do with that capability,
117
413785
3420
et la démocratie est la façon dont nous décidons d’utiliser cette capacité,
06:57
here is early evidence that democracy can do a good job deciding.
118
417246
4588
voici une preuve que la démocratie est efficace pour prendre une décision.
Bien entendu, ces processus sont insuffisants.
07:03
Of course, these processes aren't enough.
119
423127
1961
07:05
Collective intelligence requires a broader reimagining of technology
120
425129
3212
L’intelligence collective nécessite une refonte plus large
de la technologie et de la démocratie.
07:08
and democracy.
121
428383
1459
07:09
That’s why we’re also working on co-ownership models
122
429842
3045
C'est pourquoi nous travaillons également sur des modèles de copropriété
07:12
for the data that AI is built on -- which, after all, belongs to all of us --
123
432929
4588
pour les données sur lesquelles repose l’IA qui, après tout, appartient à tous,
et utilisons l’IA elle-même pour créer
07:18
and using AI itself to create new and better decision-making processes.
124
438184
4296
de nouveaux et meilleurs processus de prise de décision.
07:22
Taking advantage of the things
125
442981
1459
Exploiter ce que les modèles de langage sont capables de faire,
07:24
that language models can do that humans can’t,
126
444440
2169
contrairement à nous, comme traiter d’énormes quantités de texte.
07:26
like processing huge amounts of text input.
127
446609
2211
07:30
Our work in Taiwan has been an incredible test bed for all of this.
128
450154
4880
Notre travail à Taïwan a constitué un banc d’essai incroyable pour tout cela.
07:36
Along with Minister Audrey Tang and the Ministry of Digital Affairs,
129
456494
4755
Aux côtés de la ministre Audrey Tang et du ministère des Affaires numériques,
07:41
we are working on processes to ask Taiwan's millions of citizens
130
461249
3754
nous travaillons sur des processus pour inviter les millions de citoyens taïwanais
07:45
what they actually want to see as a future with AI.
131
465044
3879
à dire ce qu’ils souhaitent réellement pour l’avenir de l’IA.
07:49
And using that input not just to legislate,
132
469966
3045
Et pour utiliser cette contribution non seulement pour légiférer,
07:53
but to build.
133
473052
1126
mais aussi pour construire.
07:54
Because one thing that has already come out of these processes
134
474762
3295
Parce que ces processus ont déjà mis en évidence
que les gens sont vraiment engoués par une solution publique pour l’IA,
07:58
is that people are truly excited about a public option for AI,
135
478099
3545
08:01
one that is built on shared public data that is reliably safe,
136
481644
4213
une solution qui repose sur des données publiques partagées, sûres et fiables,
08:05
that allows communities to access, benefit from
137
485898
3212
qui permet aux communautés d'y accéder, d'en bénéficier
08:09
and adjust it to their needs.
138
489152
1751
et de les adapter en fonction de leurs besoins.
08:12
This is what the world of technology could look like.
139
492280
3211
Voici à quoi pourrait ressembler le monde de la technologie.
08:15
Steered by the many for the many.
140
495867
2586
Dirigé par le plus grand nombre pour le plus grand nombre.
08:20
I often find that we accept unnecessary trade-offs
141
500288
3795
Je constate souvent que nous acceptons des compromis inutiles
08:24
when it comes to transformative tech.
142
504083
2044
quand il s’agit de technologies transformatrices.
08:26
We are told that we might need to sacrifice democracy
143
506961
3253
On nous dit que nous devrons peut-être sacrifier la démocratie
08:30
for the sake of technological progress.
144
510214
2586
au profit du progrès technologique.
08:32
We have no choice but to concentrate power to keep ourselves safe
145
512842
3587
Nous n’avons pas d’autre choix que de concentrer nos forces
pour nous protéger des risques éventuels.
08:36
from possible risks.
146
516429
1501
08:38
This is wrong.
147
518765
1626
C'est faux.
08:40
It is impossible to have any one of these things --
148
520933
3462
Il est impossible d’avoir l’un de ces éléments,
08:44
progress, safety or democratic participation --
149
524437
3670
à savoir le progrès, la sécurité ou la participation démocratique,
08:48
without the others.
150
528149
1501
sans les autres.
08:50
If we resign ourselves to only two of the three,
151
530276
3420
Si nous nous résignons à ne retenir que deux des trois,
08:53
we will end up with either centralized control or chaos.
152
533738
3587
nous nous retrouverons soit avec un contrôle centralisé, soit avec le chaos.
08:57
Either a few people get to decide or no one does.
153
537825
3796
Soit quelques personnes décident, soit personne ne le fait.
09:02
These are both terrible outcomes,
154
542497
1585
Ces deux issues sont terribles,
09:04
and our work shows that there is another way.
155
544123
2836
et nos travaux montrent qu'il existe une autre solution.
09:07
Each of our projects advanced progress,
156
547710
2753
Chacun de nos projets a fait avancer le progrès, la sécurité
09:10
safety and democratic participation
157
550505
3253
et la participation démocratique
09:13
by building cutting-edge democratic AI models,
158
553800
3295
en élaborant des modèles d’IA démocratiques de pointe,
09:17
by using public expertise as a way to understand diffuse risks
159
557136
4713
en utilisant l'expertise publique pour comprendre les risques diffus
09:21
and by imagining co-ownership models for the digital commons.
160
561849
3671
et en imaginant des modèles de copropriété pour l’agora numérique.
09:27
We are so far from the best collective intelligence systems we could have.
161
567396
5423
Nous sommes loin des meilleurs systèmes d’intelligence collective.
09:33
If we started over on building a decision-making process for the world,
162
573486
4379
Si nous recommencions à bâtir un processus de prise de décisions pour le monde,
09:37
what would we choose?
163
577865
1377
que choisirions-nous ?
09:40
Maybe we'd be better at separating financial power from political power.
164
580284
5005
Nous ferions peut-être mieux de séparer le pouvoir financier du pouvoir politique.
09:46
Maybe we'd create thousands of new models of corporations
165
586290
3087
Peut-être créerons-nous des milliers de nouveaux modèles de sociétés
09:49
or bureaucracies.
166
589418
1419
ou de bureaucraties.
09:51
Maybe we'd build in the voices of natural elements
167
591379
3670
Peut-être pourrions-nous intégrer les voix des éléments naturels
ou des générations futures.
09:55
or future generations.
168
595049
1585
09:57
Here's a secret.
169
597844
1293
Voici un secret.
09:59
In some ways, we are always starting from scratch.
170
599804
4046
D'une certaine façon, nous partons toujours de zéro.
10:04
New technologies usher in new paradigms
171
604225
3128
Les nouvelles technologies conduisent à de nouveaux paradigmes
10:07
that can come with new collective intelligence systems.
172
607353
3253
qui peuvent générer de nouveaux systèmes d’intelligence collective.
10:11
We can create new ways of living well together
173
611274
4004
Nous pouvons créer de nouvelles façons de bien vivre ensemble
10:15
if we use these brief openings for change.
174
615319
3337
si nous exploitons ces brèches pour apporter des changements.
10:19
The story of technology and democracy is far from over.
175
619532
3337
L'histoire de la technologie et de la démocratie est loin d'être terminée.
10:22
It doesn't have to be this way.
176
622910
1669
Ca n’est pas une fatalité.
10:25
Things could be unimaginably better.
177
625037
2378
Les choses pourraient être tellement meilleures.
10:28
As the Indian author Arundhati Roy once said,
178
628040
3754
Comme l'a dit un jour l'auteure indienne Arundhati Roy :
10:31
"Another world is not only possible,
179
631836
2878
« Un autre monde n’est pas seulement possible,
10:34
she is on her way.
180
634755
1627
il est en route.
10:37
On a quiet day, I can hear her breathing."
181
637258
3337
Par temps calme, je peux l’entendre respirer. »
10:41
I can hear our new world breathing.
182
641804
2628
J'entends notre nouveau monde respirer.
10:44
One in which we shift the systems we have
183
644473
3087
Un monde dans lequel nous ferions bouger les lignes en utilisant la solution
10:47
towards using the solution of democracy to build the worlds we want to see.
184
647560
4504
de la démocratie pour construire les mondes que nous voulons voir.
10:53
The future is up to us.
185
653107
1543
L'avenir ne dépend que de nous.
10:55
We have a world to win.
186
655067
1669
Nous avons un monde à gagner.
10:57
Thank you.
187
657361
1168
Merci.
10:58
(Applause)
188
658529
2670
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7