When AI Can Fake Reality, Who Can You Trust? | Sam Gregory | TED

131,836 views ・ 2023-12-26

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Claire Ghyselen Relecteur: eric vautier
00:03
It's getting harder, isn't it, to spot real from fake,
0
3583
3879
N'est-il pas plus en plus difficile, de distinguer le vrai du faux,
00:07
AI-generated from human-generated.
1
7504
2252
des données générées par l'IA de celles générées par l'homme.
00:10
With generative AI,
2
10340
1126
Avec l'IA générative
00:11
along with other advances in deep fakery,
3
11508
2419
et à d'autres avancées en matière de deepfakes,
00:13
it doesn't take many seconds of your voice,
4
13969
2252
il suffit de quelques secondes de votre voix et de votre visage,
00:16
many images of your face,
5
16263
1459
00:17
to fake you,
6
17764
1251
pour créer une contrefaçon de vous, et le réalisme ne cesse de croître.
00:19
and the realism keeps increasing.
7
19015
2628
00:21
I first started working on deepfakes in 2017,
8
21685
3086
J'ai commencé à travailler sur les deepfakes en 2017,
00:24
when the threat to our trust in information was overhyped,
9
24813
3962
lorsque la menace sur notre confiance dans l'information était montée en épingle
00:28
and the big harm, in reality, was falsified sexual images.
10
28775
3670
et que le plus gros préjudice, en fait, était la falsification d'images sexuelles.
00:32
Now that problem keeps growing, harming women and girls worldwide.
11
32904
4171
Certes, ce problème ne cesse de s'aggraver
et de nuire aux femmes et aux filles dans le monde.
00:38
But also, with advances in generative AI, we're now also approaching a world
12
38159
4713
Mais avec les progrès de l'IA générative, nous nous dirigeons vers un monde
00:42
where it's broadly easier to make fake reality,
13
42872
3462
où il est globalement non seulement plus facile de créer un deepfake,
00:46
but also to dismiss reality as possibly faked.
14
46376
3879
mais aussi de rejeter la réalité comme étant peut-être fausse.
00:50
Now, deceptive and malicious audiovisual AI
15
50755
3420
L'IA audio-visuelle trompeuse et malveillante
00:54
is not the root of our societal problems,
16
54217
2669
n'est pas à l'origine de nos problèmes sociétaux,
00:56
but it's likely to contribute to them.
17
56928
2252
mais elle est susceptible d'y contribuer.
00:59
Audio clones are proliferating in a range of electoral contexts.
18
59180
4213
Les clones audio prolifèrent dans divers contextes électoraux.
01:03
"Is it, isn't it" claims cloud human-rights evidence from war zones,
19
63435
5130
Des affirmations sur ce qui serait, obscurcissent les preuves relatives
aux droits humains dans les zones de guerre,
01:08
sexual deepfakes target women in public and in private,
20
68565
4129
les deepfakes sexuels ciblent les femmes en public et en privé,
01:12
and synthetic avatars impersonate news anchors.
21
72736
3336
et les avatars artificiels se font passer pour des journalistes.
01:16
I lead WITNESS.
22
76656
1460
Je dirige WITNESS,
01:18
We're a human-rights group
23
78116
1376
un groupe de défense des droits humains
01:19
that helps people use video and technology to protect and defend their rights.
24
79492
3671
qui aide à protéger et défendre nos droits avec la technologie.
01:23
And for the last five years, we've coordinated a global effort,
25
83163
3003
Depuis cinq ans, nous coordonnons un effort mondial :
« Prepare, Don't Panic »,
01:26
"Prepare, Don't Panic,"
26
86333
1167
autour de ces nouvelles manières de manipuler et de synthétiser la réalité,
01:27
around these new ways to manipulate and synthesize reality,
27
87500
3045
01:30
and on how to fortify the truth
28
90587
2377
et sur la manière de renforcer la vérité
01:32
of critical frontline journalists and human-rights defenders.
29
92964
3420
pour les journalistes et les défenseurs des droits humains.
01:37
Now, one element in that is a deepfakes rapid-response task force,
30
97218
5423
L'un des éléments de ce processus est la mise en place
d'un groupe de travail d'intervention rapide sur les deepfakes,
01:42
made up of media-forensics experts
31
102641
2127
des experts des médias et des entreprises qui donnent leurs temps et compétences
01:44
and companies who donate their time and skills
32
104768
2168
01:46
to debunk deepfakes and claims of deepfakes.
33
106978
3087
pour démystifier les deepfakes et les allégations de deepfakes.
01:50
The task force recently received three audio clips,
34
110899
3211
Le groupe de travail a récemment reçu trois clips audio
01:54
from Sudan, West Africa and India.
35
114110
2670
provenant du Soudan, d'Afrique de l'Ouest et d'Inde.
01:57
People were claiming that the clips were deepfaked, not real.
36
117155
3879
Les gens prétendaient que les clips étaient des deepfakes et non réels.
02:01
In the Sudan case,
37
121451
1210
Pour le Soudan, un algorithme d'apprentissage automatique
02:02
experts used a machine-learning algorithm
38
122702
2002
02:04
trained on over a million examples of synthetic speech
39
124746
2628
entraîné sur plus d'un million d'exemples de discours synthétiques
02:07
to prove, almost without a shadow of a doubt,
40
127374
2294
pour prouver, presque sans l'ombre d'un doute,
02:09
that it was authentic.
41
129709
1335
que ce discours était authentique.
02:11
In the West Africa case,
42
131586
1835
Dans le cas de l'Afrique de l'Ouest,
02:13
they couldn't reach a definitive conclusion
43
133463
2002
une conclusion définitive ne fut possible
02:15
because of the challenges of analyzing audio from Twitter,
44
135507
2794
en raison des difficultés de l'analyse du son de Twitter avec du bruit de fond.
02:18
and with background noise.
45
138301
1752
02:20
The third clip was leaked audio of a politician from India.
46
140095
3712
Le troisième clip provient d'une fuite audio d'un politicien indien.
02:23
Nilesh Christopher of “Rest of World” brought the case to the task force.
47
143848
3796
Nilesh Christopher de « Rest of World » nous a apporté l'affaire.
02:27
The experts used almost an hour of samples
48
147644
2961
Les experts ont utilisé près d'une heure d'échantillons
02:30
to develop a personalized model of the politician's authentic voice.
49
150605
3879
pour développer un modèle personnalisé de la voix authentique du politicien.
02:35
Despite his loud and fast claims that it was all falsified with AI,
50
155151
4380
Bien qu'il ait affirmé haut et fort que tout avait été falsifié par l'IA,
02:39
experts concluded that it at least was partially real, not AI.
51
159572
4255
on a conclu que tout cela était au moins partiellement réel, et non pas de l'IA.
02:44
As you can see,
52
164369
1335
Comme vous le constatez,
02:45
even experts cannot rapidly and conclusively separate true from false,
53
165745
5089
même des experts ne peuvent pas séparer le vrai du faux,
rapidement et définitivement,
02:50
and the ease of calling "that's deepfaked" on something real
54
170875
4421
et il est de plus en plus facile de dire que « c'est un deepfake »
pour quelque chose de réel.
02:55
is increasing.
55
175296
1168
02:57
The future is full of profound challenges,
56
177132
2002
L'avenir est plein de défis de taille,
02:59
both in protecting the real and detecting the fake.
57
179175
3420
à la fois en ce qui concerne la protection du réel et la détection du faux.
03:03
We're already seeing the warning signs
58
183888
1919
Nous voyons déjà les signes avant-coureurs
03:05
of this challenge of discerning fact from fiction.
59
185807
2711
de la difficulté à distinguer les faits de la fiction.
03:08
Audio and video deepfakes have targeted politicians,
60
188560
3128
Des deepfakes audio et vidéo ont ciblé des politiciens,
03:11
major political leaders in the EU, Turkey and Mexico,
61
191688
3587
de grands dirigeants politiques de l'UE, de la Turquie et du Mexique,
03:15
and US mayoral candidates.
62
195316
1710
et des candidats à la mairie aux États-Unis.
03:17
Political ads are incorporating footage of events that never happened,
63
197444
3503
Des pubs politiques intègrent des images d'événements
qui ne se sont jamais produits,
03:20
and people are sharing AI-generated imagery from crisis zones,
64
200947
4546
et l'on partage des images générées par l'IA provenant de zones de crise,
03:25
claiming it to be real.
65
205535
1418
en prétendant qu'elles sont réelles.
03:27
Now, again, this problem is not entirely new.
66
207454
3211
Encore une fois, ce problème n'est pas totalement nouveau.
03:31
The human-rights defenders and journalists I work with
67
211207
2628
Les défenseurs des droits humains et les journalistes
03:33
are used to having their stories dismissed,
68
213835
2794
ont l'habitude de voir leurs articles rejetés,
03:36
and they're used to widespread, deceptive, shallow fakes,
69
216671
3462
et ils sont habitués à la diffusion de fausses vidéos,
03:40
videos and images taken from one context or time or place
70
220175
3670
de vidéos et d'images provenant d'un contexte, d'une époque ou d'un lieu,
03:43
and claimed as if they're in another,
71
223887
2460
et présentées comme si elles appartenaient à un autre,
03:46
used to share confusion and spread disinformation.
72
226347
3129
utilisées pour semer la confusion et diffuser de la désinformation.
03:49
And of course, we live in a world that is full of partisanship
73
229934
3170
Et bien entendu, nous vivons dans un monde empreint de partisanerie
03:53
and plentiful confirmation bias.
74
233146
2127
et de nombreux biais de confirmation.
03:57
Given all that,
75
237317
1209
Compte tenu de tout cela,
03:58
the last thing we need is a diminishing baseline
76
238526
3045
la dernière chose dont nous avons besoin est de réduire le nombre
04:01
of the shared, trustworthy information upon which democracies thrive,
77
241613
3962
d'informations partagées et fiables sur lesquelles les démocraties prospèrent,
04:05
where the specter of AI
78
245617
1418
où le spectre de l'IA
04:07
is used to plausibly believe things you want to believe,
79
247076
3462
est utilisé pour croire de manière plausible ce que vous voulez croire
04:10
and plausibly deny things you want to ignore.
80
250538
2336
et nier de manière plausible ce que vous voulez ignorer.
04:15
But I think there's a way we can prevent that future,
81
255084
2628
Mais il existe un moyen d'empêcher cela si nous agissons dès maintenant,
04:17
if we act now;
82
257754
1501
04:19
that if we "Prepare, Don't Panic,"
83
259255
2211
si nous « préparons, ne paniquons pas »,
04:21
we'll kind of make our way through this somehow.
84
261508
3253
nous parviendrons à nous en sortir d'une manière ou d'une autre.
04:25
Panic won't serve us well.
85
265929
2627
Paniquer ne nous rend pas de bons services.
04:28
[It] plays into the hands of governments and corporations
86
268681
2711
Cela fait le jeu des gouvernements et des entreprises
04:31
who will abuse our fears,
87
271392
1669
qui abusent de nos peurs,
04:33
and into the hands of people who want a fog of confusion
88
273102
3045
et cela fait le jeu de ceux qui veulent semer la confusion
04:36
and will use AI as an excuse.
89
276147
2461
et qui prendront l'IA comme bonne excuse.
04:40
How many people were taken in, just for a minute,
90
280610
2419
Combien furent dupés, même une seule minute,
04:43
by the Pope in his dripped-out puffer jacket?
91
283029
2336
par le Pape dans son imposante doudoune ?
04:45
You can admit it.
92
285406
1168
On peut l'avouer.
04:46
(Laughter)
93
286574
1210
(Rires)
04:47
More seriously,
94
287784
1209
Plus sérieusement,
04:49
how many of you know someone who's been scammed
95
289035
2503
combien connaissent une personne victime d'arnaque
04:51
by an audio that sounds like their kid?
96
291579
2044
où l'on imite la voix de leur enfant ?
04:54
And for those of you who are thinking "I wasn't taken in,
97
294624
2920
Et si vous pensez pouvoir ne pas être dupé
04:57
I know how to spot a deepfake,"
98
297544
1584
car vous savez repérer un deepfake,
04:59
any tip you know now is already outdated.
99
299170
3003
tous les conseils que vous connaissez aujourd'hui sont déjà dépassés.
05:02
Deepfakes didn't blink, they do now.
100
302757
2544
Les deepfakes ne clignaient pas des yeux, mais ils le font désormais.
05:06
Six-fingered hands were more common in deepfake land than real life --
101
306177
3587
Il y a plus de mains à six doigts au Deepfakekistan que dans la vraie vie,
05:09
not so much.
102
309806
1126
mais pas tant que ça.
05:11
Technical advances erase those visible and audible clues
103
311307
3754
Les progrès techniques effacent ces indices visibles et audibles
05:15
that we so desperately want to hang on to
104
315061
2002
auxquels nous nous raccrochions désespérément
05:17
as proof we can discern real from fake.
105
317105
2252
pour prouver que nous pouvons distinguer le vrai du faux.
05:20
But it also really shouldn’t be on us to make that guess without any help.
106
320191
4713
Mais cette responsabilité ne peut pas nous incomber sans être épaulés.
05:24
Between real deepfakes and claimed deepfakes,
107
324946
2127
Entre les vrais deepfakes et les deepfakes revendiqués,
05:27
we need big-picture, structural solutions.
108
327073
2961
nous avons besoin de solutions structurelles globales.
05:30
We need robust foundations
109
330034
1502
Nous avons besoin de bases solides
05:31
that enable us to discern authentic from simulated,
110
331578
3128
qui permettent de distinguer l'authentique de la simulation,
05:34
tools to fortify the credibility of critical voices and images,
111
334747
3921
des outils pour renforcer la crédibilité des voix et des images critiques,
05:38
and powerful detection technology
112
338668
2336
et de technologies de détection puissante
05:41
that doesn't raise more doubts than it fixes.
113
341045
2670
qui ne soulèvent pas plus de doutes qu'elles n'en corrigent.
05:45
There are three steps we need to take to get to that future.
114
345091
3045
Il y a trois étapes à suivre pour atteindre ce futur.
05:48
Step one is to ensure that the detection skills and tools
115
348887
3712
La première consiste à s'assurer que les compétences et les outils de détection
05:52
are in the hands of the people who need them.
116
352599
2168
sont entre les mains de ceux qui en ont besoin.
05:54
I've talked to hundreds of journalists,
117
354767
2253
J'ai parlé à des centaines de journalistes, de leaders communautaires
05:57
community leaders and human-rights defenders,
118
357020
2252
et de défenseurs des droits humains,
05:59
and they're in the same boat as you and me and us.
119
359272
2919
et ils sont dans le même bateau que nous tous.
06:02
They're listening to the audio, trying to think, "Can I spot a glitch?"
120
362191
3421
Ils écoutent les audios en se demandant : « Puis-je détecter un bug ? »
06:05
Looking at the image, saying, "Oh, does that look right or not?"
121
365612
3295
En regardant des vidéos, ils se demandent si cela semble normal ou pas.
06:08
Or maybe they're going online to find a detector.
122
368907
3336
Ou peut-être qu'ils vont sur Internet pour trouver un détecteur.
06:12
And the detector they find,
123
372285
1335
Et ce détecteur ne leur permet pas de savoir
06:13
they don't know whether they're getting a false positive, a false negative,
124
373661
3545
si le résultat est un faux positif, un faux négatif ou un résultat fiable.
06:17
or a reliable result.
125
377248
1251
06:18
Here's an example.
126
378541
1168
Voici un exemple.
06:19
I used a detector, which got the Pope in the puffer jacket right.
127
379751
3712
J'ai utilisé un détecteur qui a évalué le Pape dans sa doudoune correctement.
06:23
But then, when I put in the Easter bunny image that I made for my kids,
128
383796
4255
Mais ensuite, quand j'ai testé la photo du lapin de Pâques de mes enfants,
06:28
it said that it was human-generated.
129
388092
1961
il a évalué la photo comme étant générée par l'homme.
06:30
This is because of some big challenges in deepfake detection.
130
390637
3253
Cela est lié aux grands défis de la détection des deepfakes.
06:34
Detection tools often only work on one single way to make a deepfake,
131
394474
3295
La détection fonctionne sur un facteur dans la création de deepfakes.
06:37
so you need multiple tools,
132
397769
1543
Il faut donc plusieurs outils.
06:39
and they don't work well on low-quality social media content.
133
399354
4337
De plus, ils ne fonctionnent pas bien sur les contenus de basse qualité
des réseaux sociaux.
06:43
Confidence score, 0.76-0.87,
134
403691
3337
Taux de confiance : 0,76 à 0,87.
06:47
how do you know whether that's reliable,
135
407028
1919
Comment savoir si c'est fiable,
06:48
if you don't know if the underlying technology is reliable,
136
408988
2795
sans savoir si la technologie sous-jacente l'est,
06:51
or whether it works on the manipulation that is being used?
137
411824
2795
ou si elle fonctionne sur la manipulation utilisée ?
06:54
And tools to spot an AI manipulation don't spot a manual edit.
138
414661
5046
Par ailleurs, les outils de détection de manipulation par IA ne détectent pas
une modification manuelle.
07:00
These tools also won't be available to everyone.
139
420583
3587
Ces outils ne sont pas non plus accessibles à tous.
07:04
There's a trade-off between security and access,
140
424212
3128
Il existe un compromis entre sécurité et accès,
07:07
which means if we make them available to anyone,
141
427382
2544
ce qui signifie que mis à la disposition de tous,
07:09
they become useless to everybody,
142
429926
2586
ils deviennent inutiles pour tout le monde,
07:12
because the people designing the new deception techniques
143
432512
2711
car ceux qui conçoivent les nouvelles techniques de truquage
07:15
will test them on the publicly available detectors
144
435264
3087
les testeront sur les détecteurs accessibles au public
07:18
and evade them.
145
438393
1209
pour les contourner.
07:20
But we do need to make sure these are available
146
440061
2920
Mais nous devons nous assurer qu'ils sont mis à la disposition
07:22
to the journalists, the community leaders,
147
442981
2085
des journalistes, des leaders communautaires
07:25
the election officials, globally, who are our first line of defense,
148
445108
3628
et des agents électoraux dans le monde - notre première ligne de défense -
07:28
thought through with attention to real-world accessibility and use.
149
448736
3254
en tenant compte de leur accessibilité et de leur utilisation dans le monde réel.
07:32
Though at the best circumstances,
150
452991
2544
Même si, dans le meilleur des cas,
07:35
detection tools will be 85 to 95 percent effective,
151
455576
3003
les outils de détection
07:38
they have to be in the hands of that first line of defense,
152
458579
2795
ils doivent être entre les mains de ces personnes-là,
07:41
and they're not, right now.
153
461374
1543
ce qui n'est pas le cas pour le moment.
07:43
So for step one, I've been talking about detection after the fact.
154
463710
3128
Donc, première étape, la détection après coup.
07:46
Step two -- AI is going to be everywhere in our communication,
155
466838
4462
Deuxième étape : l'IA sera omniprésente dans la communication,
07:51
creating, changing, editing.
156
471300
2169
la création, la réécriture et dans l'édition.
07:53
It's not going to be a simple binary of "yes, it's AI" or "phew, it's not."
157
473469
4755
Ce ne sera pas binaire entre :
« Oui, c'est de l'IA », ou : « Ouf, pas d'IA ».
07:58
AI is part of all of our communication,
158
478224
3086
L'IA fait partie intégrante de toutes nos communications.
08:01
so we need to better understand the recipe of what we're consuming.
159
481352
4046
Nous devons donc mieux comprendre la recette de ce que nous consommons.
08:06
Some people call this content provenance and disclosure.
160
486232
3754
Certaines personnes appellent cela : provenance et divulgation du contenu.
08:10
Technologists have been building ways to add invisible watermarking
161
490028
3503
Les technologues ont mis au point des moyens d'ajouter un filigrane invisible
08:13
to AI-generated media.
162
493573
1877
aux médias générés par l'IA.
08:15
They've also been designing ways --
163
495491
1752
Ils ont également conçu des moyens -
08:17
and I've been part of these efforts --
164
497243
1877
et j'ai participé à ces efforts -
dans le cadre d'une norme appelée C2PA,
08:19
within a standard called the C2PA,
165
499162
1710
08:20
to add cryptographically signed metadata to files.
166
500872
2669
pour ajouter aux fichiers des métadonnées signées cryptographiquement.
08:24
This means data that provides details about the content,
167
504125
4379
Cela signifie des données qui fournissent des détails sur le contenu,
08:28
cryptographically signed in a way that reinforces our trust
168
508546
3712
signées cryptographiquement afin de renforcer notre confiance
08:32
in that information.
169
512300
1501
dans ces informations.
08:33
It's an updating record of how AI was used to create or edit it,
170
513801
5297
Il s'agit d'un enregistrement actualisé
de la manière dont l'IA a été utilisée pour les créer ou modifier,
08:39
where humans and other technologies were involved,
171
519098
2670
de l'implication de l'Homme et d'autres technologies,
08:41
and how it was distributed.
172
521809
1919
et de la manière dont elles ont été distribuées.
08:43
It's basically a recipe and serving instructions
173
523770
3003
C'est fondamentalement une recette et un mode d'emploi
08:46
for the mix of AI and human
174
526814
1961
pour le mélange d'IA et d'humain dans ce que vous voyez et entendez.
08:48
that's in what you're seeing and hearing.
175
528816
2336
08:51
And it's a critical part of a new AI-infused media literacy.
176
531903
4462
C'est un élément essentiel d'une nouvelle éducation aux médias basée sur l'IA.
08:57
And this actually shouldn't sound that crazy.
177
537116
2461
Et cela ne devrait pas paraître si fou en fait.
08:59
Our communication is moving in this direction already.
178
539577
3212
Notre communication s'oriente déjà dans cette direction.
09:02
If you're like me -- you can admit it --
179
542789
2002
Si vous êtes comme moi, vous pouvez l'avouer,
09:04
you browse your TikTok “For You” page,
180
544832
2419
vous parcourez votre page TikTok « For You »
09:07
and you're used to seeing videos that have an audio source,
181
547251
4213
et vous avez l'habitude de voir des vidéos dotées d'une source audio,
09:11
an AI filter, a green screen, a background,
182
551464
2419
d'un filtre AI, d'un écran vert, d'un arrière-plan,
09:13
a stitch with another edit.
183
553883
1752
de Stich pour rogner les vidéos.
09:15
This, in some sense, is the alpha version of this transparency
184
555676
3337
Il s'agit en quelque sorte de la version alpha de cette transparence
09:19
in some of the major platforms we use today.
185
559055
2377
sur certaines des principales plateformes.
09:21
It's just that it does not yet travel across the internet,
186
561474
2753
C'est juste que ça ne circule pas encore sur Internet,
09:24
it’s not reliable, updatable, and it’s not secure.
187
564268
3128
que ce n'est pas fiable, modifiable, ni sécurisé.
09:27
Now, there are also big challenges
188
567980
2628
Ce type d'infrastructure présente par ailleurs de grands défis
09:30
in this type of infrastructure for authenticity.
189
570650
2544
en matière d'authenticité.
09:34
As we create these durable signs of how AI and human were mixed,
190
574278
4088
Quand nous créons ces signes durables sur l'intrication entre l'IA et l'humain,
09:38
that carry across the trajectory of how media is made,
191
578366
3086
qui se répercutent sur la trajectoire de création des médias,
09:41
we need to ensure they don't compromise privacy or backfire globally.
192
581494
4129
nous devons nous assurer qu'ils ne compromettent pas la vie privée
et n'ont pas l'effet inverse.
09:46
We have to get this right.
193
586249
1710
Nous devons faire les choses correctement.
09:48
We can't oblige a citizen journalist filming in a repressive context
194
588584
4255
On ne peut pas obliger un journaliste citoyen qui filme
dans un contexte répressif
09:52
or a satirical maker using novel gen-AI tools
195
592839
3169
ou un auteur de satires qui utilise de nouveaux outils d'IA générative
09:56
to parody the powerful ...
196
596008
1252
pour parodier les puissants...
09:58
to have to disclose their identity or personally identifiable information
197
598845
4879
à devoir divulguer leur identité ou des informations personnelles identifiables
10:03
in order to use their camera or ChatGPT.
198
603766
2961
afin de pouvoir utiliser leur appareil photo ou ChatGPT.
10:08
Because it's important they be able to retain their ability to have anonymity,
199
608312
3712
Parce qu'il est important qu'ils puissent conserver leur anonymat,
10:12
at the same time as the tool to create is transparent.
200
612066
3378
tout en garantissant la transparence de l'outil de création.
10:16
This needs to be about the how of AI-human media making,
201
616112
4171
Cela doit porter sur la manière dont l'IA crée du contenu,
10:20
not the who.
202
620283
1167
et non sur qui l'utilise.
10:22
This brings me to the final step.
203
622952
2211
Cela m'amène à la dernière étape.
10:25
None of this works without a pipeline of responsibility
204
625163
4462
Rien de tout cela ne fonctionne sans une chaîne de responsabilités
10:29
that runs from the foundation models and the open-source projects
205
629667
4254
depuis les modèles de base et les projets open source,
10:33
through to the way that is deployed into systems, APIs and apps,
206
633963
4213
en passant par le déploiement dans les systèmes, les API et les applications,
10:38
to the platforms where we consume media and communicate.
207
638217
3379
jusqu'aux plateformes où nous consommons des médias et communiquons.
10:43
I've spent much of the last 15 years fighting, essentially, a rearguard action,
208
643139
4171
J'ai passé les 15 dernières années à me battre, un combat d'arrière-garde,
10:47
like so many of my colleagues in the human rights world,
209
647310
2919
comme beaucoup de mes collègues du monde des droits humains,
10:50
against the failures of social media.
210
650229
2169
contre les manquements des réseaux sociaux.
10:52
We can't make those mistakes again in this next generation of technology.
211
652899
5380
Nous ne pouvons pas refaire ces erreurs
dans cette nouvelle génération de technologies.
10:59
What this means is that governments
212
659572
1835
Cela signifie que les gouvernements doivent garantir,
11:01
need to ensure that within this pipeline of responsibility for AI,
213
661449
4254
dans la chaîne de responsabilité de l'IA,
11:05
there is transparency, accountability and liability.
214
665703
3253
la transparence, la reddition de comptes et la prise de responsabilité.
11:10
Without these three steps --
215
670666
2086
Sans ces trois étapes,
11:12
detection for the people who need it most,
216
672793
3129
à savoir la détection pour ceux qui en ont le plus besoin,
11:15
provenance that is rights-respecting
217
675922
2502
la mention d'origine respectueuse des droits
11:18
and that pipeline of responsibility,
218
678466
2169
et la responsabilité,
11:20
we're going to get stuck looking in vain for the six-fingered hand,
219
680635
3545
nous allons nous retrouver à chercher en vain la main à six doigts
11:24
or the eyes that don't blink.
220
684222
1543
ou les yeux qui ne clignent pas.
11:26
We need to take these steps.
221
686390
1836
Nous devons prendre ces mesures.
11:28
Otherwise, we risk a world where it gets easier and easier
222
688226
3294
Autrement, nous risquons de créer un monde
où il est de plus en plus aisé de simuler la réalité
11:31
to both fake reality
223
691520
1502
11:33
and dismiss reality as potentially faked.
224
693064
2669
et de rejeter la réalité comme éventuellement falsifiée.
11:36
And that is a world that the political philosopher Hannah Arendt
225
696234
3086
Et c'est un monde que la philosophe politique Hannah Arendt
11:39
described in these terms:
226
699320
1460
a décrit en ces termes :
11:40
"A people that no longer can believe anything
227
700821
2628
« Un peuple qui n'arrive plus à croire à rien
11:43
cannot make up its own mind.
228
703491
2294
ne peut pas se forger sa propre opinion.
11:45
It is deprived not only of its capacity to act
229
705785
3211
Il est privé non seulement de sa capacité d'agir
11:48
but also of its capacity to think and to judge.
230
708996
3504
mais aussi de sa capacité de penser et de juger.
11:52
And with such a people you can then do what you please."
231
712959
3211
Et avec de telles personnes, on peut faire ce que l'on veut. »
11:56
That's a world I know none of us want,
232
716712
2044
C'est un monde que personne ne souhaite,
11:58
that I think we can prevent.
233
718798
2002
et que, je pense, nous pouvons empêcher.
12:00
Thanks.
234
720800
1168
Merci.
12:02
(Cheers and applause)
235
722009
2544
(Applaudissements) (Acclamations)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7