How a Deepfake Almost Ruined My Political Career | Cara Hunter | TED

40,512 views ・ 2024-12-18

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Claire Ghyselen Relecteur: eric vautier
00:03
This talk contains mature language
0
3620
3720
00:08
“You’re a little whore,
1
8700
1840
« Sale pute !
00:10
and we've all seen your little video."
2
10540
2560
On a tous vu ta petite vidéo. »
00:14
That was the text message that was sent to me in April of 2022.
3
14300
5280
C’est le message que l’on m’a envoyé en avril 2022.
00:20
I'm sitting in my grandmother's living room
4
20300
2480
J’étais assise dans le salon chez ma grand-mère,
00:22
in what is her 90th birthday,
5
22820
2640
on fêtait son 90e anniversaire,
00:25
surrounded by family and friends
6
25460
2360
avec la famille et les amis.
00:27
as my phone blows up with messages from strangers
7
27820
4480
Et mon téléphone s’allume avec des messages d’inconnus
00:32
right across the country
8
32300
1840
de l’autre côté du pays
00:34
who say they have seen a video of me
9
34140
3160
qui affirment avoir vu une vidéo de moi
00:37
engaging in hardcore pornographic activity with a man.
10
37340
4720
en train d’avoir une activité pornographique hardcore avec un homme.
00:42
I knew this was impossible.
11
42740
1600
Je savais que c’était impossible.
00:44
With just three weeks out from my election,
12
44900
2000
À trois semaines des élections,
00:46
I felt as though my career was crumbling before my very eyes.
13
46940
4080
j’ai cru que ma carrière s’effondrait devant mes yeux.
00:51
My heart pounded,
14
51420
1440
Mon cœur battait la chamade,
00:52
my mind raced, sweat beaded on my skin.
15
52860
3160
mon cerveau s’emballait, j’avais des sueurs froides.
00:56
And then I watched the video, and my worst fear was realized.
16
56380
4880
Et quand j’ai vu la vidéo, j’ai su que mes pires cauchemars se réalisaient.
01:01
Although this woman in the video was not me,
17
61980
3560
Même si cette femme dans la vidéo n’était pas moi,
01:05
she looked exactly like me.
18
65540
2720
c’était ma copie conforme.
01:09
Impossibly like me.
19
69020
2360
C’était impossible, mais c’était moi.
01:11
Eerily like me.
20
71380
1200
C’était fantomatique.
01:13
I had so many questions running through my mind.
21
73140
3040
Les questions se bousculaient dans mon esprit.
01:16
Was this AI?
22
76500
1360
Est-ce une IA ?
01:17
Was it not?
23
77900
1280
Ou pas ?
01:19
Who made this?
24
79220
1160
Qui a créé cette vidéo ?
01:20
How did they make it?
25
80420
1360
Comment ?
01:21
Why did they make it?
26
81820
1320
Pourquoi ?
01:23
So I did what anyone would do,
27
83140
2360
Alors, j’ai fait ce que n’importe qui aurait fait :
01:25
and I approached my local police service to ask for advice, for guidance.
28
85500
4680
j’ai contacté le commissariat du quartier pour demander conseil.
01:30
And really, where did I go from there?
29
90220
2280
Et que se passa-t-il ?
01:32
But they informed me that they wouldn't have the cybercrime technology to assist,
30
92540
4280
La police me dit qu’elle ne pourrait pas faire appel à la brigade cybercriminalité
01:36
to find out where this video came from.
31
96860
2240
pour découvrir le coupable de cette vidéo.
01:39
And it was from that moment I knew that I was on my own.
32
99140
3520
C’est à cet instant que j’ai su que je ne pourrais compter que sur moi-même.
01:43
Now to set the stage, as you can probably tell,
33
103380
2440
Vous l’avez entendu à mon accent,
01:45
I’m from Ireland,
34
105820
1240
je suis irlandaise,
01:47
and to be exact, I'm from Northern Ireland,
35
107100
2480
je viens d’Irlande du Nord, pour être précise.
01:49
which is an even smaller place.
36
109580
2000
C’est encore plus étriqué.
01:51
We have just 1.8 million people,
37
111620
2680
1,8 million d’habitants,
01:54
very similar to the size of Vienna.
38
114340
2840
environ la même population que Vienne.
01:57
So you can imagine a rumor of this sinister nature,
39
117180
3440
Vous imaginez aisément que de telles rumeurs sinistres,
02:00
particularly in the world of politics, can go very far, very fast.
40
120620
5920
surtout dans le monde de la politique, peuvent avoir un impact très important.
02:06
And that old saying, “seeing is believing” began to haunt me.
41
126540
4480
J’étais tourmentée par le vieux dicton que voir c’est croire.
02:11
And in the weeks leading up to my election,
42
131060
2520
Et pendant les dernières semaines avant les élections,
02:13
this video, this false video,
43
133620
1920
cette fausse vidéo
02:15
was shared thousands and thousands of times across WhatsApp.
44
135540
4240
fut partagée des milliers et des milliers de fois sur WhatsApp,
02:20
And attached to this video was photos of me at work,
45
140260
3720
avec une photo de moi au bureau,
02:24
smiling, campaigning,
46
144020
2760
souriante, en train de faire campagne
02:26
building a sense of trust with my constituents.
47
146820
2680
et de développer des liens de confiance avec mes électeurs.
02:29
And as the weeks went on,
48
149540
1480
Les semaines passaient
02:31
messages flooded in faster and faster,
49
151020
3920
et les messages étaient de plus en plus nombreux,
02:34
and they were of a very vile and sexual nature.
50
154980
3040
tous de nature nauséabonde et sexuelle.
02:38
Ding!
51
158340
1200
Ding !
02:39
"We've all seen your little video."
52
159540
2000
« On a tous vu ta petite vidéo. »
02:41
Ding!
53
161940
1120
Ding !
02:43
"You should be ashamed of yourself."
54
163100
2480
« Quelle honte ! »
02:45
Ding!
55
165620
1200
Ding !
02:46
"Ah, now I see how you got your position in politics."
56
166820
4280
« Voilà ta promotion canapé en politique ! »
02:53
It was very difficult.
57
173100
1960
C’était très douloureux.
02:55
And having been in politics since the age of 23,
58
175540
3160
Je fais de la politique depuis mes 23 ans
02:58
and at this point I've been in it for about four to five years,
59
178740
3560
et cela faisait alors cinq ans que j’en avais fait mon métier.
03:02
and I'm from Northern Ireland, which is a post-conflict society,
60
182300
3280
Je viens d’Irlande du Nord, une société qui a connu les conflits
03:05
still very deeply divided.
61
185620
1920
et qui reste très profondément divisée.
03:07
So I anticipated challenges,
62
187580
2600
Et donc, j’avais anticipé les confrontations,
03:10
I anticipated disagreements,
63
190220
2600
les désaccords,
03:12
I even anticipated attacks, is politics after all.
64
192860
2800
les attaques, car c’est ça, le monde de la politique.
03:16
But what I did not anticipate was this moment.
65
196100
3520
Mais je n’avais jamais prévu ce moment.
03:19
This was different.
66
199660
1400
C’était autre chose.
03:21
This was the moment where misogyny meets the misuse of technology,
67
201060
5800
C’est le moment de rencontre entre la misogynie et l’abus des technologies,
03:26
and even had the potential to impact the outcome of a democratic election.
68
206900
5560
quand cela a le pouvoir d’influencer les résultats d’une élection démocratique.
03:32
And the sad thing for me was this lie became so far spread,
69
212820
5080
Le plus malheureux pour moi, c’est ce que ce mensonge s’est diffusé
03:37
so far, so fast,
70
217940
1840
si vite et si loin
03:39
that even my own family started to believe it.
71
219820
2880
que même ma propre famille a commencé à le croire.
03:42
Some would say that they'd heard it at a golf club,
72
222700
2760
Certains me dirent qu’ils en ont entendu parler au club de golf,
03:45
others would say they heard it at the bar,
73
225500
2520
d’autres au bar,
03:48
and of course, some even said they heard it in a locker room.
74
228060
4320
et bien sûr, on en a aussi parlé dans les vestiaires.
03:52
A really good example of how far this went
75
232420
2480
Pour illustrer combien cela a été loin,
03:54
was people that I knew my entire life
76
234900
2520
des gens que j’avais connus toute ma vie
03:57
would pass me in the street without whispering a word.
77
237460
3000
détournaient le regard et passaient leur chemin sans un mot.
04:00
People like school teachers,
78
240460
1360
Mes professeurs,
04:01
people I had a sense of trust with
79
241860
1720
des personnes en qui j’avais confiance et avec lesquelles j’avais des affinités.
04:03
and, you know, an affinity with.
80
243620
2360
04:05
And that was really hard.
81
245980
1320
Ce fut très douloureux.
04:07
It felt like overnight I was wearing a scarlet letter.
82
247300
3920
J’avais l’impression qu’on m’avait tondu le crâne.
04:11
And as things moved on
83
251660
1320
Le temps passait,
04:12
and were about two, three weeks out from the election,
84
252980
2880
il ne resta plus que deux ou trois semaines avant les élections.
04:15
I kept receiving messages, and it got wider and wider.
85
255900
3120
Mais je recevais encore des messages, venus de plus en plus loin,
04:19
It was global.
86
259060
1160
du monde entier.
04:20
Not only was I receiving messages from Dublin and from London,
87
260220
3680
Pas seulement de Dublin ou Londres,
04:23
but I was also receiving messages from Massachusetts, Manhattan,
88
263900
4040
mais aussi du Massachussetts, de Manhattan.
04:27
and I was getting so many follows on my political social media,
89
267940
3920
J’avais de plus en plus de followers sur mes réseaux sociaux professionnels,
04:31
predominantly from men hungry for more of this scandal.
90
271900
3920
principalement des hommes alléchés à l’idée d’en savoir plus sur ce scandale.
04:35
And this intersection of online harms impacting my real life
91
275860
5120
Le télescopage avec cette malveillance en ligne influença ma vraie vie,
04:40
was something I found utterly strange and surreal.
92
280980
4000
ce qui me sembla si étrange et irréel.
04:45
But it got to the point where I was recognized on the street
93
285500
3800
Mais on me reconnaissait dans la rue désormais
04:49
and approached by a stranger who asked me for a sexual favor.
94
289340
6040
et des inconnus m’abordaient pour me demander des faveurs sexuelles.
04:55
And it was just, for me, it was like in the blink of an eye,
95
295420
3080
En un clin d’œil,
04:58
everything had just changed,
96
298500
2640
tout mon monde avait changé.
05:01
and it was utterly humiliating.
97
301140
1600
C’était profondément humiliant.
05:02
I didn't want to leave the house,
98
302780
1680
Je ne voulais plus sortir de la maison,
05:04
and I had turned notifications off in my phone
99
304460
2880
j’avais coupé les notifications de mon téléphone,
05:07
just so I could kind of catch my breath,
100
307380
1920
simplement pour pouvoir un peu respirer.
05:09
but this wasn't ideal in the lead up, of course, to an election.
101
309340
4280
Mais ce n’était évidemment pas idéal quand on est en campagne électorale.
05:13
And for me, I think that was the purpose of this false video, was to do just that.
102
313620
4960
Je suis convaincue que c’était ça, le but de cette fausse vidéo.
05:19
But what hurt the most for me
103
319660
2440
Mais le plus douloureux
05:22
was sitting down my father
104
322140
2720
fut de devoir prendre le temps avec mon père
05:24
and having to explain to him this strange, surreal situation.
105
324860
5760
pour lui expliquer cette situation ubuesque et irréelle.
05:30
My father is an Irishman,
106
330620
1760
Mon père est irlandais,
05:32
completely disconnected from tech,
107
332420
2160
complètement étranger à la technologie,
05:34
and so having to explain
108
334620
1920
et devoir lui expliquer
05:36
this horrific situation was an entire fabrication
109
336580
4320
que cette situation horrible est une falsification
05:40
was very hard to do.
110
340940
1600
fut très pénible.
05:42
This was this strange moment
111
342860
2120
Ce fut un moment étrange
05:45
where the online world met my life, my reality.
112
345020
4880
d’intersection entre le monde numérique et ma vraie vie, ma réalité.
05:50
Not only having the impact to ruin my reputation,
113
350460
4520
Il n’y a pas que l’impact désastreux sur ma réputation,
05:54
but have the capacity to change the outcome
114
354980
2800
mais il y a le potentiel de changer le résultat d’une élection démocratique.
05:57
of a democratic election.
115
357820
2200
06:00
And, you know,
116
360500
1160
Vous savez,
06:01
for years I spent so much time building trust with my constituents.
117
361700
4040
je développais une relation de confiance avec mes électeurs depuis des années.
06:05
I mean, we all know how much people like politicians.
118
365780
3360
Je suis consciente de l’amour que les hommes et femmes politiques suscitent.
06:09
You know, we’re as likeable as the tax man.
119
369180
2000
Autant que le contrôleur fiscal.
06:11
So for me, it was hard.
120
371220
2880
Cette histoire m’affecta d’autant plus,
06:14
It was really hard
121
374100
1200
06:15
because it was years of hard work.
122
375300
2280
qu’elle ruinait des années de dur travail.
06:18
You know, I’m so passionate about my job,
123
378100
2160
J’adore mon métier,
06:20
and this video, this complete falsehood,
124
380260
2920
or cette vidéo, cette supercherie,
06:23
had the ability to just undermine years of hard work in mere seconds.
125
383180
4600
était capable de détruire toutes ces années d’effort en quelques secondes.
06:28
But instead of succumbing entirely to victimhood,
126
388220
3200
Mais je ne veux pas être une victime.
06:31
I ask myself today,
127
391420
1360
Et aujourd’hui, je me demande que faire de cette expérience.
06:32
you know, where do we go from here?
128
392820
2280
06:35
And how can AI evolve to prevent something like this happening again?
129
395140
5560
Comment faire évoluer l’IA pour empêcher de telles choses à l’avenir ?
06:40
Not only has it happened to me,
130
400740
1480
Il n’y a pas que moi,
06:42
but we want to future-proof and ensure that this doesn't happen
131
402220
3000
je souhaite un avenir sans danger et garantir que cela n’arrive plus
06:45
to the women of tomorrow.
132
405260
1760
à d’autres femmes, demain.
06:47
How can we, you and I, people who care about people,
133
407060
4280
Comment pouvons-nous, vous, moi, tous ceux qui font attention à autrui,
06:51
ensure that this is a tech for good?
134
411380
2400
veiller à ce que ces technologies agissent pour le meilleur ?
06:54
How can we, the policymakers, the creators, the consumers,
135
414300
4680
Comment pouvons-nous, les politiques, les créateurs, les consommateurs,
06:58
ensure we regulate AI and things like social media,
136
418980
3480
veiller à réguler une IA et toutes les plateformes numériques,
07:02
putting humans and humanity at the center of artificial intelligence?
137
422500
5320
en mettant les humains et l’humanité au cœur de l’IA ?
07:08
AI can change the world.
138
428740
2280
L’IA peut transformer le monde.
07:11
In fact, as we've heard today, it already has.
139
431060
2880
Et en fait, c’est déjà fait.
07:13
In a matter of seconds,
140
433940
1520
En quelques secondes,
07:15
people who speak completely different languages
141
435460
2240
des personnes qui parlent des langues différentes
07:17
can connect and understand one another.
142
437700
2160
peuvent se connecter et se comprendre.
07:19
And we've even seen the Pope as a style icon in a puffer jacket.
143
439860
3960
On a tous vu le Pape en roi de la mode avec sa doudoune blanche.
07:24
So some really important uses right there.
144
444180
2240
Ce sont des utilisations importantes.
07:27
But then in my case as well,
145
447220
1600
Et dans mon cas,
07:28
we can also see how it is weaponized against the truth.
146
448860
3440
on voit aussi comment ce dispositif devient une arme contre la vérité.
07:32
And good examples of this would be art that appears like reality,
147
452620
4120
Des exemples : l’art qui semble être réalité,
07:36
AI-generated reviews unfairly boosting certain products
148
456740
3840
des critiques générées par une IA pour promouvoir certains produits injustement
07:40
and things like chatbot propaganda.
149
460580
2760
ou des chatbots de propagande.
07:43
And then, politically speaking,
150
463340
1760
En politique,
07:45
we've seen over the years deepfakes of Nancy Pelosi slurring,
151
465140
4320
on a tous vu ces dernières années
des deepfakes de Nancy Pelosi qui cherche ses mots,
07:49
Joe Biden cursing
152
469500
1480
de Joe Biden qui jure,
07:51
and even President Zelensky
153
471020
1760
du Président Zelensky
07:52
asking his soldiers to surrender their weapons.
154
472820
3160
qui exhorte ses soldats de rendre les armes.
07:57
So when AI is used like this, to manipulate,
155
477220
3560
Alors, quand on utilise l’IA pour manipuler,
08:00
it can be a threat to our democracy.
156
480780
2960
elle devient une arme contre notre démocratie.
08:03
And the tech is becoming so advanced
157
483740
2680
La technologie est si avancée
08:06
that it's hard to differentiate fact from fiction.
158
486460
3400
que c’est très difficile de distinguer les faits de la fiction.
08:10
So how does AI interfere with politics?
159
490660
4000
Comment l’IA interfère-t-elle avec la politique ?
08:14
And for us as politicians, what should we be worried about?
160
494660
3840
Et de quoi les hommes et femmes politiques devraient-ils s’inquiéter ?
08:18
Could truth and democracy become shattered by AI?
161
498820
3760
L’IA pourrait-elle faire exploser la vérité et la démocratie ?
08:22
Has it already?
162
502580
1320
N’est-ce pas déjà arrivé ?
08:24
Well, to dive a little deeper here,
163
504300
2160
Pour creuser ce sujet,
08:26
I think firstly we need to talk about the concept of truth.
164
506500
3440
commençons par parler du concept de la vérité.
08:30
Without truth, democracy collapses.
165
510300
2920
Sans vérité, la démocratie s’effondre.
08:33
Truth allows us to make informed decisions,
166
513700
3520
La vérité nous permet de prendre des décisions informées.
08:37
it enables us to hold leaders accountable, which is very important.
167
517220
4040
Elle nous permet de demander des comptes à nos dirigeants, c’est important.
08:41
And it also allows us, as political representatives,
168
521300
3400
Et elle nous permet aussi, en tant qu’hommes et femmes politiques,
08:44
to create a sense of trust with our citizens and our constituents.
169
524700
3840
de développer un sentiment de confiance avec nos citoyens et électeurs.
08:49
But without that truth,
170
529020
1680
Mais sans cette vérité,
08:50
democracy is vulnerable to misinformation,
171
530740
3280
la démocratie est vulnérable à la désinformation,
08:54
manipulation, and, of course, corruption.
172
534020
3400
à la manipulation et bien sûr, à la corruption.
08:57
When AI erodes truth,
173
537940
2920
Quand l’IA érode la vérité,
09:00
it erodes trust,
174
540860
2000
elle érode la confiance
09:02
and it undermines our democracy.
175
542860
2240
et elle sape notre démocratie.
09:05
And for me, in my experience with a deepfake,
176
545500
3760
Et mon expérience personnelle des deepfakes
09:09
I've seen what a fantastic distortion tool that deepfakes really are.
177
549260
4960
m’a ouvert les yeux sur les dispositifs de distorsion qu’ils représentent.
09:14
So how can we safeguard democracy from this ever-advancing technology?
178
554220
5080
Alors, comment protéger nos démocraties de cette technologie si avancée ?
09:19
It's becoming ever harder to distinguish between real and synthetic content.
179
559620
4960
C’est encore plus difficile aujourd’hui de distinguer le vrai du synthétique.
09:24
And politically, what role does AI play in the future?
180
564620
4160
Et en politique, quel sera le rôle de l’IA à l’avenir ?
09:28
And I can't talk about politics without talking about media as well.
181
568820
4080
On ne peut pas séparer la politique des médias.
09:32
They're undeniably linked, they're intertwined.
182
572900
2360
Les deux sont assurément liés, interconnectés.
09:35
And I think journalism has its own battle here as well.
183
575300
3600
Je crois que le journalisme est face à sa propre bataille.
09:39
From AI algorithms boosting articles unfairly
184
579220
3600
Des algorithmes qui font la promotion de certains articles injustement,
09:42
to clickbait headlines,
185
582860
1520
aux titres pièges à clics,
09:44
and then also moments where they can manipulate the public as well.
186
584420
4800
et à tous ces moments où l’on peut manipuler le public.
09:49
But politically speaking,
187
589220
1240
En politique,
09:50
we've seen AI-tailored political messaging
188
590500
3000
on a vu des messages politiques créés par des IA
09:53
influencing voters,
189
593540
1160
qui influencent les électeurs,
09:54
we’ve seen it adding to existing bias.
190
594740
3240
et qui ajoutent de nouveaux biais à ceux qui existent déjà.
09:58
And definitely I think we all have that aunt that’s on Facebook
191
598020
2960
C’est un fait aussi que nous avons tous une tante sur Facebook
10:00
and kind of believes anything.
192
600980
1840
qui gobe tout.
10:02
So for me, as a politician,
193
602860
1440
Alors, en tant que femme politique,
10:04
I think it's really important we dive a little deeper
194
604340
2480
je pense que c’est essentiel de réfléchir plus
10:06
into the relationship of AI, journalism and media.
195
606820
3880
à la relation entre les IA, le journalisme et les médias.
10:11
But it also puts us at risk
196
611220
1840
Cela nous met aussi au péril
10:13
of creating a more divided and reactionary society,
197
613100
4000
de créer une société plus polarisée, plus réactionnaire,
10:17
because falsehoods can create a lot of reaction.
198
617140
3000
parce que les falsifications génèrent beaucoup de réactions.
10:20
And for myself, coming from Northern Ireland,
199
620140
2320
Et moi, qui vient d’Irlande du nord,
10:22
which is that post-conflict society,
200
622500
2320
une société qui a connu le conflit,
10:24
I do have concerns about how it could shape our political landscape
201
624860
3960
je m’inquiète comment cela pourrait façonner le paysage politique
10:28
and other places across the globe.
202
628820
2320
chez nous et ailleurs dans le monde.
10:32
Sadly, this deepfake video
203
632060
2320
Hélas, cette vidéo deepfake
10:34
is not the only instance of me having experienced abuse with AI.
204
634380
5400
n’est pas le seul usage abusif des IA que je connaisse.
10:39
Just six months ago,
205
639780
1280
Il y a six mois,
10:41
I received 15 deepfake images of myself in lingerie
206
641100
5400
j’ai reçu 15 photos truquées de moi en lingerie
10:46
posing provocatively.
207
646540
1640
posant de façon provocante.
10:48
And I thought to myself, here we go again.
208
648620
3240
Je me suis dit : « Ça recommence ! »
10:52
And you know, I spoke with some other female politicians.
209
652460
3720
J’ai parlé de cela avec d’autres femmes politiques.
10:56
Thankfully, where I represent, we have more women getting into politics.
210
656980
4280
Heureusement que nous sommes de plus en plus nombreuses.
11:01
But I had a really good conversation with them,
211
661300
2200
Nous avons eu des échanges fructueux
11:03
and it’s around, if this is happening to you now,
212
663500
2320
autour des dangers de demain si ceci nous arrive aujourd’hui.
11:05
what happens to me tomorrow?
213
665860
1760
11:07
And I think this really strikes at the heart of the climate of fear
214
667660
3960
Ce débat est, j’en suis convaincue, au cœur du climat de peur
11:11
that AI can create for those in public life.
215
671660
3840
que l’IA peut susciter chez les élus.
11:15
And I don't blame women.
216
675500
1160
Je comprends les femmes, hélas.
11:16
It's very sad.
217
676700
1160
11:17
I don't blame women for not wanting to get into politics
218
677860
2640
Comment pourrais-je leur reprocher de ne pas vouloir entrer en politique
11:20
when they see this kind of technology come forward,
219
680540
2400
avec les dangers de ces technologies.
11:22
so that's so important that we safeguard it.
220
682940
2480
Voilà pourquoi il faut les réguler.
11:25
What also concerned me was the position of elderly voters
221
685420
4680
Je suis aussi inquiète de la position des électeurs plus âgés,
11:30
and perhaps their media literacy,
222
690100
1880
de leur éducation aux médias,
11:32
their comprehension of this technology.
223
692020
2200
de leur compréhension de ces technologies.
11:34
People who don't use the internet,
224
694260
2120
Les personnes qui n’utilisent pas Internet,
11:36
who perhaps are not aware of AI and its many, many uses.
225
696420
3920
qui ne sont pas conscients de l’IA et de ces très très nombreux usages.
11:40
So that was really concerning as well.
226
700340
2400
C’est une vraie source d’inquiétude.
11:43
But it doesn't have to be this way.
227
703060
1800
Mais les choses peuvent évoluer.
11:44
We can be part of the change.
228
704900
1760
On peut faire partie de ce changement.
11:47
For me and my video,
229
707260
1920
Quant à moi,
11:49
I still don't know, to this day, who did this.
230
709220
3520
je ne sais toujours pas qui a commis cette vidéo.
11:52
I can imagine why they did it, but I don't know who did it.
231
712780
3400
Je peux imaginer leurs raisons, mais j’ignore qui a fait ça.
11:56
And sadly for me and for across the globe,
232
716180
3200
Et malheureusement pour moi, et beaucoup d’autres dans le monde,
11:59
it still wouldn't be considered a crime.
233
719420
2920
cet acte n’est toujours pas considéré comme un crime.
12:03
So from being the enemy of fair, transparent,
234
723260
2840
Donc, en tant que dispositif utilisé par les ennemis d’une vie politique
12:06
good-natured politics,
235
726100
1600
juste, transparente et positive,
12:07
to warfare, to international interference,
236
727740
3240
mus par une volonté belliqueuse et d’interférer internationalement,
12:11
despite its beauty and its potential,
237
731020
2880
l’IA reste une technologie inquiétante en dépit de sa beauté et de son potentiel.
12:13
AI is still a cause for concern.
238
733940
2880
12:16
But it doesn't have to be this way.
239
736820
2080
Mais cela peut changer.
12:19
I feel passionately that AI can be a humanistic technology
240
739260
3720
Je suis profondément convaincue que l’IA peut être une technologie humaniste,
12:23
with human values
241
743020
1560
faite de valeurs humanistes
12:24
that complements the lives that we live
242
744620
2640
qui vient enrichir nos vies
12:27
to make us the very best versions of ourselves.
243
747300
3440
et nous aide à devenir une meilleure version de nous-mêmes.
12:31
But to do that,
244
751100
1560
Mais pour y parvenir,
12:32
I think we need to embed ethics into this technology,
245
752700
3920
nous devons penser à intégrer l’éthique dans la technologie,
12:36
to eliminate bias, to install empathy
246
756620
4160
pour éliminer les biais, installer de l’empathie
12:40
and make sure it is aligned with human values and human principles.
247
760820
4760
et veiller à l’aligner avec des valeurs et des principes humanistes.
12:45
Who knows, our democracy could depend on it.
248
765900
3400
Qui sait ? Nos démocraties pourraient en dépendre.
12:49
And today I know we have some of the brightest minds in this room.
249
769300
3840
Ce public réunit les plus grands esprits -
12:53
I heard some of the talks earlier, and I'm certain of that.
250
773180
4120
j’ai écouté les autres talk de ce TED, et j’en suis convaincue.
12:57
And I know each and every one of you have weight on your shoulders
251
777340
3120
Je sais que chacun d’entre vous porte le poids des responsabilités
13:00
when looking to the future.
252
780500
1680
vis-à-vis de l’avenir
13:02
But I also know each and every one of you want to see this tech for good.
253
782220
5400
et que nous souhaitons tous que l’IA existe pour un monde meilleur.
13:07
And what gives me hope
254
787980
1800
Je forge de grands espoirs
13:09
is witnessing the movement right across the globe
255
789780
3320
quand je vois le mouvement mondial
13:13
to see this hard journey begin,
256
793140
2800
en faveur de ce cheminement difficile,
13:15
to regulate this ever-advancing technology,
257
795940
2840
pour réguler cette technologie qui ne cesse d’évoluer,
13:18
which can be used for bad or for good.
258
798780
3000
et qui peut être utilisée pour le meilleur comme pour le pire.
13:22
But perhaps we, each and every one of us in this room,
259
802140
3720
Et nous tous, chacun de nous, ici,
13:25
can be part of finding the solution.
260
805860
2360
pouvons faire partie de la solution.
13:28
(Applause)
261
808860
2200
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7