What if AI Could Spot Your Lies? | Riccardo Loconte | TED

40,094 views ・ 2025-02-08

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Claire Ghyselen Relecteur: eric vautier
00:04
This is something you won't like.
0
4260
2560
Ceci ne va pas vous plaire,
00:06
But here everyone is a liar.
1
6820
3400
mais ici, tout le monde est un menteur.
00:12
Don't take it too personally.
2
12540
1880
Ne le prenez pas trop personnellement.
00:14
What I mean is that lying is very common
3
14460
3320
Ce que je veux dire, c’est que le mensonge est très courant
00:17
and it is now well-established that we lie on a daily basis.
4
17780
4480
et qu'il est maintenant bien établi que nous mentons tous les jours.
00:22
Indeed, scientists have estimated that we tell around two lies per day,
5
22300
4920
En effet, les scientifiques estiment que nous mentons environ deux fois par jour,
00:27
although, of course, it's not that easy to establish those numbers with certainty.
6
27260
3880
même s’il n’est pas si facile d’établir ces chiffres avec certitude.
00:32
And, well, I introduce myself.
7
32180
2040
Permettez-moi de me présenter.
00:34
I'm Riccardo, I'm a psychologist and a PhD candidate,
8
34260
4280
Je m’appelle Riccardo, je suis psychologue et doctorant.
00:38
and for my research project I study how good are people at detecting lies.
9
38580
5400
Je fais des recherches sur la capacité des gens à détecter les mensonges.
Ça a l’air cool, non ?
00:44
Seems cool, right? But I'm not joking.
10
44020
2040
Mais je ne plaisante pas.
00:47
And you might wonder why a psychologist was then invited
11
47180
4640
Vous vous demandez peut-être pourquoi on a invité un psychologue
00:51
to give a TED Talk about AI.
12
51820
2080
à donner une conférence TED sur l'IA.
00:55
And well, I'm here today
13
55660
1400
Eh bien, je suis ici
00:57
because I'm about to tell you how AI could be used to detect lies.
14
57100
6000
pour vous expliquer comment l’IA pourrait être utilisée pour détecter les mensonges.
01:03
And you will be very surprised by the answer.
15
63140
2240
Et vous allez être très surpris de la réponse.
01:06
But first of all, when is it relevant to detect lies?
16
66500
4040
Mais tout d'abord, quand est-il pertinent de détecter les mensonges ?
01:12
A first clear example that comes to my mind
17
72420
2800
Un premier exemple clair qui me vient à l’esprit
01:15
is in the criminal investigation field.
18
75260
2040
est celui des enquêtes criminelles.
01:18
Imagine you are a police officer and you want to interview a suspect.
19
78340
4920
Imaginez être un officier de police et vouloir interroger un suspect.
01:23
And the suspect is providing some information to you.
20
83300
3520
Le suspect vous fournit des informations.
01:26
And this information is actually leading to the next steps of the investigation.
21
86820
4080
Et ces informations mènent aux prochaines étapes de l’enquête.
01:31
We certainly want to understand if the suspect is reliable
22
91940
4400
Nous voulons absolument savoir si le suspect dit la vérité,
01:36
or if they are trying to deceive us.
23
96380
2280
ou s'il essaie de nous tromper.
01:40
Then another example comes to my mind,
24
100740
2680
Puis un autre exemple me vient à l'esprit,
01:43
and I think this really affects all of us.
25
103460
2000
et cela nous concerne tous, je pense.
01:46
So please raise your hands
26
106220
2040
Alors, s'il vous plaît, levez la main
01:48
if you would like to know if your partner cheated on you.
27
108300
3840
si vous voulez savoir si votre partenaire vous a trompé.
01:52
(Laughter)
28
112180
1080
(Rires)
01:53
And don't be shy because I know.
29
113300
1920
Et ne soyez pas timide, parce que je le sais.
01:55
(Laughter)
30
115260
1360
(Rires)
01:56
Yeah. You see?
31
116620
1240
Oui. Vous voyez ?
01:59
It's very relevant.
32
119580
1720
C'est très pertinent.
02:02
However, I have to have to say that we as humans
33
122340
2840
Cependant, je dois vous dire que nous, les humains,
02:05
are very bad at detecting lies.
34
125220
2240
sommes très peu doués pour détecter les mensonges.
02:08
In fact, many studies have already confirmed
35
128420
2800
En fait, de nombreuses études ont déjà confirmé
02:11
that when people are asked to judge
36
131260
2840
que lorsqu’on demande à des personnes d’estimer
02:14
if someone is lying or not
37
134140
1760
si quelqu’un ment ou non,
02:15
without knowing much about that person or the context,
38
135900
3760
sans en savoir beaucoup sur cette personne ou le contexte,
02:19
people's accuracy is no better than the chance level,
39
139660
3800
le résultat n’est pas meilleur que de tirer à pile ou face.
02:23
about the same as flipping a coin.
40
143500
1720
Autant lancer une pièce en l’air.
02:27
You might also wonder
41
147300
1360
On peut aussi se demander
02:28
if experts, such as police officers, prosecutors, experts
42
148660
5120
si les experts, les policiers, les procureurs, les experts
02:33
and even psychologists
43
153780
1480
et même les psychologues,
02:35
are better at detecting lies.
44
155300
1760
sont meilleurs pour détecter les mensonges.
02:37
And the answer is complex,
45
157860
1520
Et la réponse est complexe,
02:39
because experience alone doesn't seem to be enough
46
159420
3760
car l'expérience à elle seule ne semble pas suffire
02:43
to help detect lies accurately.
47
163220
2400
à détecter les mensonges avec précision.
02:45
It might help, but it's not enough.
48
165620
2200
Cela peut aider, mais ce n’est pas suffisant.
02:49
To give you some numbers.
49
169780
1600
Voici quelques chiffres.
02:51
In a well-known meta-analysis that previous scholars did in 2006,
50
171420
5040
Une méta-analyse bien connue réalisée par des universitaires en 2006,
02:56
they found that naive judges' accuracy
51
176500
2760
met en relief que la précision des juges naïfs
02:59
was on average around 54 percent.
52
179300
3320
était en moyenne d'environ 54 %.
03:03
Experts perform only slightly better,
53
183900
3280
Les résultats des experts ne sont que légèrement meilleurs,
03:07
with an accuracy rate around 55 percent.
54
187220
3880
avec un taux de précision d'environ 55 %.
03:11
(Laughter)
55
191140
1640
(Rires)
03:12
Not that impressive, right?
56
192780
1440
Pas très impressionnant.
03:15
And ...
57
195660
1240
Et...
03:18
Those numbers actually come from the analysis
58
198140
2880
ces chiffres proviennent de l’analyse des résultats de 108 études,
03:21
of the results of 108 studies,
59
201060
2880
03:23
meaning that these findings are quite robust.
60
203940
2680
ce qui signifie qu’ils sont robustes.
03:26
And of course, the debate is also much more complicated than this
61
206620
3840
Bien entendu, le débat est également beaucoup plus complexe que cela
03:30
and also more nuanced.
62
210500
1560
et aussi plus nuancé.
03:32
But here the main take-home message
63
212100
2360
Mais ici, le principal message à retenir
03:34
is that humans are not good at detecting lies.
64
214500
3680
est que les humains ne sont pas doués pour détecter les mensonges.
03:38
What if we are creating an AI tool
65
218940
4200
Et si nous créions un outil avec l’intelligence artificielle
03:43
where everyone can detect if someone else is lying?
66
223180
2920
qui permette à tout le monde de détecter les mensonges d’autrui ?
03:48
This is not possible yet, so please don't panic.
67
228100
2640
Ce n’est pas encore possible, pas de panique !
03:50
(Laughter)
68
230740
1880
(Rires)
03:52
But this is what we tried to do in a recent study
69
232620
3080
Mais c'est ce que nous avons essayé de faire dans une étude récente
03:55
that I did together with my brilliant colleagues
70
235700
2400
que j’ai réalisée avec mes brillants collègues,
03:58
whom I need to thank.
71
238140
1720
c’est l’occasion de les remercier.
03:59
And actually, to let you understand what we did in our study,
72
239860
6760
Pour vous faire comprendre ce que nous avons fait dans notre étude,
04:06
I need to first introduce you to some technical concepts
73
246620
4440
je dois d’abord vous présenter quelques concepts techniques
04:11
and to the main characters of this story:
74
251100
3080
et les personnages principaux de cette histoire :
04:15
Large language models.
75
255300
2480
les grands modèles de langage.
04:17
Large language models are AI systems
76
257780
2360
Les grands modèles de langage sont des systèmes d’IA
04:20
designed to generate outputs in natural language
77
260180
3160
conçus pour générer des résultats dans un langage naturel,
04:23
in a way that almost mimics human communication.
78
263380
2880
d’une manière qui imite presque la communication humaine.
04:27
If you are wondering how we teach these AI systems to detect lies,
79
267340
3840
Si vous vous demandez comment nous formons ces IA à détecter les mensonges,
04:31
here is where something called fine-tuning comes in.
80
271220
3600
c’est là qu’intervient ce que l’on appelle la mise au point.
04:34
But let's use a metaphor.
81
274820
2080
Mais utilisons une métaphore.
04:36
Imagine large language models being as students
82
276900
3360
Imaginez de grands modèles linguistiques incarnant des élèves
04:40
who have gone through years of school,
83
280300
2360
qui ont passé des années à l’école
04:42
learning a little bit about everything,
84
282660
2160
et qui y ont appris un peu de tout,
04:44
such as language, concepts, facts.
85
284820
4080
comme la langue maternelle, des concepts, des faits.
04:48
But when it's time for them to specialize,
86
288900
2840
Mais lorsqu’il est temps pour eux de se spécialiser,
04:51
like in law school or in medical school,
87
291740
2480
par exemple en droit ou en médecine,
04:54
they need more focused training.
88
294220
1560
ils ont besoin d’une formation plus ciblée.
04:56
Fine-tuning is that extra education.
89
296900
2440
La mise au point, c’est cette formation supplémentaire.
05:00
And of course, large language models don't learn as humans do.
90
300460
3240
Bien entendu, ces modèles n’apprennent pas comme les humains.
05:03
But this is just to give you the main idea.
91
303700
2320
C’est une illustration de l’idée principale.
05:07
Then, as for training students, you need books, lectures, examples,
92
307740
7000
Ensuite, les étudiants se forment avec des livres ou à des conférences.
05:14
for training large language models you need datasets.
93
314740
3480
On forme les grands modèles linguistiques avec des ensembles de données.
05:19
And for our study we considered three datasets,
94
319180
4240
Et pour notre étude, nous avons examiné trois ensembles de données,
05:23
one about personal opinions,
95
323460
2440
l'un sur les opinions personnelles,
05:25
one about past autobiographical memories
96
325900
2840
l’autre sur les souvenirs autobiographiques
05:28
and one about future intentions.
97
328740
2720
et le troisième sur les intentions futures.
05:31
These datasets were already available from previous studies
98
331500
3000
Ces données étaient déjà disponibles dans d’autres études
05:34
and contained both truthful and deceptive statements.
99
334540
3040
et contenaient des déclarations véridiques et trompeuses.
05:39
Typically, you collect these types of statements
100
339140
2240
Généralement, on collecte ce type de déclarations
05:41
by asking participants to tell the truth or to lie about something.
101
341420
4280
en demandant aux participants
de dire la vérité ou de mentir à propos de quelque chose.
05:45
For example, if I was a participant in the truthful condition,
102
345700
3680
Par exemple, si je fais partie de la cohorte qui dit la vérité
05:49
and the task was
103
349420
1680
et que la mission consiste à parler de mes vacances passées,
05:51
"tell me about your past holidays,"
104
351140
2320
05:53
then I will tell the researcher about my previous holidays in Vietnam,
105
353500
4600
je raconterai au chercheur mes précédentes vacances au Vietnam.
05:58
and here we have a slide to prove it.
106
358140
1960
Et voici une diapositive pour le prouver.
06:01
For the deceptive condition
107
361340
1800
Mais dans la cohorte qui ment,
06:03
they will randomly pick some of you who have never been to Vietnam,
108
363180
3640
on choisit au hasard des membres qui ne sont jamais allés au Vietnam,
06:06
and they will ask you to make up a story
109
366820
2240
et on leur demande d’inventer une histoire
06:09
and convince someone else that you've really been to Vietnam.
110
369100
3200
et de convaincre quelqu’un qu’ils sont vraiment allés au Vietnam.
06:12
And this is how it typically works.
111
372340
1960
C’est ainsi que le choses se passent généralement.
06:16
And as in all university courses, you might know this,
112
376500
4480
Comme dans tous les programmes universitaires, vous le savez bien,
06:21
after lectures you have exams.
113
381020
2440
après les cours, on passe des examens.
06:23
And likewise after training our AI models,
114
383500
3840
Pareillement, après avoir entraîné nos modèles d’IA,
06:27
we would like to test them.
115
387380
1360
on va les tester.
06:29
And the procedure that we followed,
116
389500
1920
Et la procédure que nous avons suivie,
06:31
that is actually the typical one, is the following.
117
391460
3200
qui est en fait la plus typique, est la suivante.
06:34
So we picked some statements randomly from each dataset
118
394660
4960
Nous avons choisi des déclarations au hasard dans chaque ensemble de données
06:39
and we took them apart.
119
399620
1480
et nous les avons séparées.
06:41
So the model never saw these statements during the training phase.
120
401140
3760
Le modèle ne les a donc jamais vues pendant la phase de formation.
06:44
And only after the training was completed,
121
404900
2960
Ce n’est qu’une fois la formation terminée
06:47
we used them as a test, as the final exam.
122
407860
2880
que nous les avons utilisées comme test, comme examen final.
06:52
But who was our student then?
123
412540
2240
Mais qui était notre étudiant ?
06:55
In this case, it was a large language model
124
415660
2600
Dans ce cas, il s'agissait d'un grand modèle de langage
06:58
developed by Google
125
418300
1400
développé par Google
06:59
and called FLAN-T5.
126
419700
1920
et appelé FLAN-T5.
07:01
Flanny, for friends.
127
421620
1840
Flanny, pour les amis.
07:03
And now that we have all the pieces of the process together,
128
423500
4400
Maintenant que tous les éléments du processus sont réunis,
07:07
we can actually dig deep into our study.
129
427900
2440
nous pouvons approfondir notre étude.
07:12
Our study was composed by three main experiments.
130
432100
4480
Notre étude était composée de trois expériences principales.
07:17
For the first experiment, we fine-tuned our model, our FLAN-T5,
131
437500
5120
Pour la première expérience, nous avons affiné notre modèle, notre FLAN-T5,
07:22
on each single dataset separately.
132
442620
2920
sur chaque ensemble de données séparément.
07:27
For the second experiment,
133
447700
1920
Pour la deuxième expérience,
07:29
we fine-tuned our model on two pairs of datasets together,
134
449620
4680
nous avons affiné notre modèle sur deux paires de jeux de données ensemble,
07:34
and we tested it on the third remaining one,
135
454340
2920
et nous l’avons testé sur le troisième jeu restant.
07:37
and we used all three possible combinations.
136
457300
2520
Nous avons utilisé les trois combinaisons possibles.
07:41
For the last final experiment,
137
461380
2120
Pour la dernière expérience,
07:43
we fine-tuned the model on a new, larger training test set
138
463540
3760
nous avons affiné le modèle sur un nouvel ensemble de données plus grand
07:47
that we obtained by combining all the three datasets together.
139
467340
3160
que nous avons obtenu en combinant les trois ensembles de données.
07:52
The results were quite interesting
140
472380
2880
Les résultats étaient très intéressants
07:55
because what we found was that in the first experiment,
141
475300
4000
car nous avons découvert que, lors de la première expérience,
07:59
FLAN-T5 achieved an accuracy range between 70 percent and 80 percent.
142
479340
6080
le FLAN-T5 était exact pour 70 % et 80 % des cas.
08:06
However, in the second experiment,
143
486460
2880
Cependant, lors de la deuxième expérience,
08:09
FLAN-T5 dropped its accuracy to almost 50 percent.
144
489380
4640
FLAN-T5 a réduit son taux de précision à près de 50 %.
08:15
And then, surprisingly, in the third experiment,
145
495380
3080
Et puis, étonnamment, lors de la troisième expérience,
08:18
FLAN-T5 rose back to almost 80 percent.
146
498500
3800
il est remonté à près de 80 %.
08:23
But what does this mean?
147
503780
2320
Mais qu'est-ce que cela signifie ?
08:26
What can we learn from these results?
148
506140
3680
Quelles leçons pouvons-nous tirer de ces résultats ?
08:31
From experiment one and three
149
511100
2360
Les expériences 1 et 3
08:33
we learn that language models
150
513500
2280
nous apprennent que les modèles de langage
08:35
can effectively classify statements as deceptive,
151
515780
4240
peuvent caractériser efficacement les énoncés comme mensongers,
08:40
outperforming human benchmarks
152
520060
2120
dépassant le taux de réussite des humains
08:42
and aligning with previous machine learning
153
522220
2240
et s’alignant sur les modèles d’apprentissage automatique
08:44
and deep learning models
154
524500
1280
et d’apprentissage profond antérieurs entraînés pour les études précédentes.
08:45
that previous studies trained on the same datasets.
155
525780
2440
08:49
However, from the second experiment,
156
529540
2520
Cependant, la deuxième expérience nous permet de constater
08:52
we see that language models struggle
157
532100
2920
que les modèles linguistiques généralisent difficilement ces connaissances,
08:55
in generalizing this knowledge, this learning across different contexts.
158
535060
4400
cet apprentissage issu de différents contextes.
09:00
And this is apparently because
159
540380
2960
Et cela est apparemment dû au fait
09:03
there is no one single universal rule of deception
160
543380
3120
qu’il n’existe pas de règle universelle au mensonge
09:06
that we can easily apply in every context,
161
546540
3400
que nous puissions facilement appliquer quel que soit le contexte,
09:09
but linguistic cues of deception are context-dependent.
162
549940
3920
et que les indices linguistiques du mensonge dépendent du contexte.
09:15
And from the third experiment,
163
555820
2520
La troisième expérience
09:18
we learned that actually language models
164
558380
2640
nous a fait comprendre qu’en fait, les modèles linguistiques
09:21
can generalize well across different contexts,
165
561060
3280
peuvent faire des généralisations dans différents contextes,
09:24
if only they have been previously exposed to examples
166
564380
4160
à condition qu’ils aient déjà été exposés à des exemples
09:28
during the training phase.
167
568580
2080
pendant la phase de formation.
09:30
And I think this sounds as good news.
168
570660
2360
Et je pense que c’est une bonne nouvelle.
09:34
But while this means that language models can be effectively applied
169
574660
6400
Mais si cela signifie que les modèles linguistiques sont efficaces
09:41
for real-life applications in lie detection,
170
581100
3000
pour des applications réelles de détection de mensonges,
09:44
more replication is needed because a single study is never enough
171
584140
4040
il est indispensable de multiplier les tests,
car une seule étude ne suffit jamais.
09:48
so that from tomorrow we can all have these AI systems on our smartphones,
172
588220
4640
Ainsi, dans un avenir proche,
nous pourrons tous avoir ces systèmes d’IA sur nos smartphones
09:52
and start detecting other people's lies.
173
592860
2400
et commencer à détecter les mensonges des autres.
09:56
But as a scientist, I have a vivid imagination
174
596740
2880
Mais en tant que scientifique, j'ai une imagination débordante
09:59
and I would like to dream big.
175
599620
1880
et je rêve en grand.
10:01
And also I would like to bring you with me in this futuristic journey for a while.
176
601540
4200
J’aimerais aussi vous emmener dans cet avenir un bref instant.
10:05
So please imagine with me living in a world
177
605740
3440
Alors, imaginez que nous vivons dans un monde
10:09
where this lie detection technology is well-integrated in our life,
178
609220
4200
où cette technologie de détection des mensonges est intégrée à notre vie,
10:13
making everything from national security to social media a little bit safer.
179
613460
4840
rendant tout, de la sécurité nationale aux réseaux sociaux, un peu plus sûr.
10:19
And imagine having this AI system that could actually spot fake opinions.
180
619180
4840
Imaginez que ce système d’IA soit capable de détecter les fausses opinions.
10:24
From tomorrow, we could say
181
624060
2600
À partir de demain, nous pourrions dire
10:26
when a politician is actually saying one thing
182
626660
3320
quand un politicien dit une chose
10:30
and truly believes something else.
183
630020
1880
mais croit en réalité autre chose.
10:31
(Laughter)
184
631900
1280
(Rires)
10:34
And what about the security board context
185
634780
2600
Et qu’en est-il du contexte des conseils de sécurité
10:37
where people are asked about their intentions and reasons
186
637420
3240
où les gens sont interrogés sur leurs intentions et leurs raisons
10:40
for why they are crossing borders or boarding planes.
187
640660
5360
quand ils franchissent les frontières ou montent à bord d’un avion ?
10:46
Well, with these systems,
188
646900
1440
Eh bien, grâce à ces systèmes,
10:48
we could actually spot malicious intentions
189
648380
2760
nous pourrions détecter les intentions malveillantes
10:51
before they even happen.
190
651180
1320
avant même qu’elles ne se produisent.
10:54
And what about the recruiting process?
191
654780
2400
Qu’en est-il du processus de recrutement ?
10:57
(Laughter)
192
657900
1280
(Rires)
10:59
We heard about this already.
193
659220
2080
On a déjà évoqué le sujet.
11:01
But actually, companies could employ this AI
194
661340
3360
Mais en réalité, les entreprises pourraient utiliser cette IA
11:04
to distinguish those who are really passionate about the role
195
664700
3760
pour distinguer les candidats vraiment passionnés par le poste
11:08
from those who are just trying to say the right things to get the job.
196
668500
3320
de ceux qui disent simplement ce qu’il faut pour obtenir le poste.
11:13
And finally, we have social media.
197
673580
1920
Enfin, nous avons les réseaux sociaux.
11:16
Scammers trying to deceive you or to steal your identity.
198
676180
3560
Des escrocs qui tentent de vous tromper ou de voler votre identité.
11:19
All gone.
199
679740
2080
Tout disparaît en fumée.
11:21
And someone else may claim something about fake news,
200
681820
2520
Ou quelqu’un prétend quelque chose sur une infox,
11:24
and well, perfectly, language model could automatically read the news,
201
684380
4120
eh bien, le modèle linguistique pourrait lire automatiquement les actualités,
11:28
flag them as deceptive or fake,
202
688540
3160
les signaler comme étant trompeuses ou fausses,
11:31
and we could even provide users with a credibility score
203
691700
3960
et nous pourrions même fournir aux utilisateurs un score de crédibilité
11:35
for the information they read.
204
695660
1560
pour les informations qu'ils lisent.
11:38
It sounds like a brilliant future, right?
205
698460
2400
Cela semble être un avenir rayonnant, non ?
11:42
(Laughter)
206
702060
1720
(Rires)
11:44
Yes, but ...
207
704580
1240
Oui, mais...
11:47
all great progress comes with risks.
208
707060
2680
tous les grands progrès comportent des risques.
11:51
As much as I'm excited about this future,
209
711300
3200
Même si je suis enthousiasmé par cet avenir-là,
11:54
I think we need to be careful.
210
714540
2240
je pense que nous devons être vigilants.
11:58
If we are not cautious, in my view,
211
718300
2880
Si nous ne faisons pas preuve de prudence, à mon avis,
12:01
we could end up in a world
212
721220
1680
nous pourrions nous retrouver dans un monde
12:02
where people might just blindly believe AI outputs.
213
722900
3200
où les gens croient aveuglément aux résultats de l’IA.
12:07
And I'm afraid this means that people will just be more likely
214
727700
4000
Et je crains que cela ne signifie que les gens seront plus susceptibles
12:11
to accuse others of lying just because an AI says so.
215
731700
3880
d’accuser autrui de mentir simplement parce qu’une IA le dit.
12:17
And I'm not the only one with this view
216
737540
2400
Et je ne suis pas le seul à être de cet avis,
12:19
because another study already proved it.
217
739940
2400
car une autre étude l'a déjà prouvé.
12:24
In addition, if we totally rely on this lie detection technology
218
744620
4560
De plus, si nous faisons totalement confiance à cette technologie
12:29
to say someone else is lying or not,
219
749220
2680
pour affirmer que quelqu’un ment ou pas,
12:31
we risk losing another important key value in society.
220
751900
3520
nous risquons de perdre une autre valeur clé importante de la société :
12:36
We lose trust.
221
756500
1240
la confiance.
12:38
We won't need to trust people anymore,
222
758740
1840
Nous n’aurions plus besoin de faire confiance,
12:40
because what we will do is just ask an AI to double check for us.
223
760580
4160
car nous allons demander à une IA de vérifier ça pour nous.
12:47
But are we really willing to blindly believe AI
224
767380
3880
Mais sommes-nous vraiment prêts à croire aveuglément une IA
12:51
and give up our critical thinking?
225
771300
2240
et à renoncer à notre esprit critique ?
12:55
I think that's the future we need to avoid.
226
775020
2160
Je pense que c’est un avenir que nous devons éviter.
13:00
With hope for the future is more interpretability.
227
780220
3840
L'espoir pour l'avenir passe par une plus grande capacité d'interprétation.
13:04
And I'm about to tell you what I mean.
228
784100
2080
Je vais vous expliquer ce que je veux dire.
13:06
Similar to when we look at reviews online,
229
786220
2920
Comme lorsque nous consultons les avis en ligne,
13:09
and we can both look at the total number of stars at places,
230
789180
3920
nous pouvons examiner le nombre total d’étoiles attribuées à chaque lieu.
13:13
but also we can look more in detail at the positive and negative reviews,
231
793140
4920
Nous pouvons aussi examiner plus en détail les critiques positives et négatives,
13:18
and try to understand what are the positive sides,
232
798100
2640
et essayer de comprendre quels en sont les aspects positifs,
13:20
but also what might have gone wrong,
233
800740
2920
mais aussi ce qui a pu mal tourner,
13:23
to eventually create our own and personal idea
234
803660
3600
pour finalement formuler notre propre idée personnelle
13:27
if that is the place where we want to go,
235
807300
2360
et décider si nous voulons aller dans ce lieu-là
13:29
where we want to be.
236
809660
1240
et y passer du temps.
13:32
Likewise, imagine a world where AI doesn't just offer conclusions,
237
812020
4520
De même, imaginez un monde où l'IA ne se contente pas de tirer des conclusions,
13:36
but also provides clear and understandable explanations
238
816580
3600
mais fournit également des explications claires et compréhensibles
13:40
behind its decisions.
239
820220
1520
qui étayent ses décisions.
13:43
And I envision a future
240
823140
2200
Et j'imagine un avenir
13:45
where this lie detection technology
241
825380
2240
où cette technologie de détection des mensonges
13:47
wouldn't just provide us with a simple judgment,
242
827620
3480
accompagnerait sa conclusion
13:51
but also with clear explanations for why it thinks someone else is lying.
243
831140
3960
d’explications claires sur les raisons qui lui font affirmer que quelqu’un ment.
13:57
And I would like a future where, yes,
244
837660
2960
Et j’aimerais un avenir où, certes,
14:00
this lie detection technology is integrated in our life,
245
840620
3360
cette technologie est intégrée à notre vie,
14:04
or also AI technology in general,
246
844020
3920
tout comme d’autres technologies IA en général,
14:07
but still, at the same time,
247
847940
2480
mais où nous sommes capables de penser de manière critique
14:10
we are able to think critically
248
850460
2680
14:13
and decide when we want to trust in AI judgment
249
853180
3520
et de décider quand nous voulons faire confiance au jugement de l’IA
14:16
or when we want to question it.
250
856700
1760
et quand nous voulons le remettre en question.
14:20
To conclude,
251
860660
1840
Pour conclure,
14:22
I think the future of using AI for lie detection
252
862540
4320
je pense que l’avenir de l’utilisation de l’IA pour la détection des mensonges
14:26
is not just about technological advancement,
253
866860
3920
ne dépend pas seulement des progrès technologiques,
14:30
but about enhancing our understanding and fostering trust.
254
870780
3880
mais aussi de l’amélioration de notre esprit critique
et de notre capacité à cultiver la confiance.
14:35
It's about developing tools that don't replace human judgment
255
875940
3760
Il s’agit de développer des outils qui ne remplacent pas l’esprit critique
14:39
but empower it,
256
879700
1720
mais le renforcent,
14:41
ensuring that we remain at the helm.
257
881460
2240
en veillant à ce que nous restions aux commandes.
14:45
Don't step into a future with blind reliance on technology.
258
885220
3640
Ne nous lançons pas dans un avenir
avec une confiance aveugle dans les technologies.
14:49
Let's commit to deep understanding and ethical use,
259
889940
3880
Engageons-nous à une compréhension approfondie et à une utilisation éthique,
14:53
and we'll pursue the truth.
260
893820
1520
et ainsi, nous rechercherons la vérité.
14:56
(Applause)
261
896620
1080
(Applaudissements)
14:57
Thank you.
262
897700
1240
Merci.
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7