What if AI Could Spot Your Lies? | Riccardo Loconte | TED

40,117 views ・ 2025-02-08

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti
00:04
This is something you won't like.
0
4260
2560
Esto es algo que no te va a gustar.
00:06
But here everyone is a liar.
1
6820
3400
Pero aquí todo el mundo es un mentiroso.
00:12
Don't take it too personally.
2
12540
1880
No te lo tomes como algo personal.
00:14
What I mean is that lying is very common
3
14460
3320
Lo que quiero decir es que mentir es muy común
00:17
and it is now well-established that we lie on a daily basis.
4
17780
4480
y ahora está bien establecido que mentimos a diario.
00:22
Indeed, scientists have estimated that we tell around two lies per day,
5
22300
4920
De hecho, los científicos han estimado que decimos alrededor de dos mentiras al día,
00:27
although, of course, it's not that easy to establish those numbers with certainty.
6
27260
3880
aunque, por supuesto, no es tan fácil establecer esas cifras con certeza.
Y, bueno, me presento.
00:32
And, well, I introduce myself.
7
32180
2040
00:34
I'm Riccardo, I'm a psychologist and a PhD candidate,
8
34260
4280
Soy Riccardo, soy psicólogo y candidato a doctorado,
00:38
and for my research project I study how good are people at detecting lies.
9
38580
5400
y para mi proyecto de investigación
estudio qué tan buenas somos las personas para detectar mentiras.
00:44
Seems cool, right? But I'm not joking.
10
44020
2040
Parece genial, ¿no? Pero no estoy bromeando.
00:47
And you might wonder why a psychologist was then invited
11
47180
4640
Y quizás se pregunten por qué se invitó entonces a un psicólogo
00:51
to give a TED Talk about AI.
12
51820
2080
a dar una charla TED sobre la IA.
00:55
And well, I'm here today
13
55660
1400
Y bueno, estoy aquí hoy
00:57
because I'm about to tell you how AI could be used to detect lies.
14
57100
6000
porque voy a contarles cómo se puede usar la IA para detectar mentiras.
01:03
And you will be very surprised by the answer.
15
63140
2240
Y les sorprenderá mucho la respuesta.
01:06
But first of all, when is it relevant to detect lies?
16
66500
4040
Pero antes que nada, ¿cuándo es relevante detectar mentiras?
01:12
A first clear example that comes to my mind
17
72420
2800
Un primer ejemplo claro que me viene a la mente
01:15
is in the criminal investigation field.
18
75260
2040
es el campo de la investigación criminal.
01:18
Imagine you are a police officer and you want to interview a suspect.
19
78340
4920
Imagina que eres un oficial de policía y quieres entrevistar a un sospechoso.
01:23
And the suspect is providing some information to you.
20
83300
3520
Y el sospechoso le está proporcionando cierta información.
01:26
And this information is actually leading to the next steps of the investigation.
21
86820
4080
Y esta información en realidad conduce a los próximos pasos de la investigación.
01:31
We certainly want to understand if the suspect is reliable
22
91940
4400
Sin duda, queremos saber si el sospechoso es confiable
01:36
or if they are trying to deceive us.
23
96380
2280
o si está tratando de engañarnos.
01:40
Then another example comes to my mind,
24
100740
2680
Luego me viene a la mente otro ejemplo,
01:43
and I think this really affects all of us.
25
103460
2000
y creo que esto nos afecta a todos.
01:46
So please raise your hands
26
106220
2040
Así que, por favor, levante la mano
01:48
if you would like to know if your partner cheated on you.
27
108300
3840
si quiere saber si su pareja lo engañó.
01:52
(Laughter)
28
112180
1080
(Risas)
01:53
And don't be shy because I know.
29
113300
1920
Y no seas tímido porque lo sé.
01:55
(Laughter)
30
115260
1360
(Risas)
01:56
Yeah. You see?
31
116620
1240
Sí. ¿Lo ves?
01:59
It's very relevant.
32
119580
1720
Es muy relevante.
02:02
However, I have to have to say that we as humans
33
122340
2840
Sin embargo, debo decir que a los humanos
02:05
are very bad at detecting lies.
34
125220
2240
se nos da muy mal detectar mentiras.
02:08
In fact, many studies have already confirmed
35
128420
2800
De hecho, muchos estudios ya han confirmado
02:11
that when people are asked to judge
36
131260
2840
que cuando se les pide a las personas que juzguen
02:14
if someone is lying or not
37
134140
1760
si alguien miente o no
02:15
without knowing much about that person or the context,
38
135900
3760
sin saber mucho sobre esa persona o el contexto, la precisión
02:19
people's accuracy is no better than the chance level,
39
139660
3800
de las personas no supera el nivel de probabilidad,
02:23
about the same as flipping a coin.
40
143500
1720
más o menos lo mismo que lanzar una moneda al aire.
02:27
You might also wonder
41
147300
1360
Quizás también te preguntes
02:28
if experts, such as police officers, prosecutors, experts
42
148660
5120
si los expertos, como los agentes de policía, los fiscales, los expertos
02:33
and even psychologists
43
153780
1480
e incluso los psicólogos,
02:35
are better at detecting lies.
44
155300
1760
son mejores para detectar las mentiras.
02:37
And the answer is complex,
45
157860
1520
Y la respuesta es compleja,
02:39
because experience alone doesn't seem to be enough
46
159420
3760
porque la experiencia por sí sola no parece ser suficiente para ayudar
02:43
to help detect lies accurately.
47
163220
2400
a detectar las mentiras con precisión.
02:45
It might help, but it's not enough.
48
165620
2200
Puede ayudar, pero no es suficiente.
02:49
To give you some numbers.
49
169780
1600
Para darte algunos números.
02:51
In a well-known meta-analysis that previous scholars did in 2006,
50
171420
5040
En un conocido metaanálisis
realizado por estudiosos anteriores en 2006,
02:56
they found that naive judges' accuracy
51
176500
2760
descubrieron que la precisión de los jueces ingenuos rondaba,
02:59
was on average around 54 percent.
52
179300
3320
en promedio, el 54 %.
03:03
Experts perform only slightly better,
53
183900
3280
Los expertos solo obtienen resultados levemente mejores,
03:07
with an accuracy rate around 55 percent.
54
187220
3880
con una tasa de precisión de un 55 %.
03:11
(Laughter)
55
191140
1640
(Risas)
03:12
Not that impressive, right?
56
192780
1440
No es tan impresionante, ¿no?
03:15
And ...
57
195660
1240
Y...
En realidad, esas cifras provienen del análisis
03:18
Those numbers actually come from the analysis
58
198140
2880
de los resultados de 108 estudios,
03:21
of the results of 108 studies,
59
201060
2880
03:23
meaning that these findings are quite robust.
60
203940
2680
lo que significa que estos hallazgos son bastante sólidos.
03:26
And of course, the debate is also much more complicated than this
61
206620
3840
Y, por supuesto, el debate también es mucho más complicado que esto
03:30
and also more nuanced.
62
210500
1560
y también tiene más matices.
03:32
But here the main take-home message
63
212100
2360
Pero aquí el mensaje principal
03:34
is that humans are not good at detecting lies.
64
214500
3680
es que los seres humanos no son buenos para detectar mentiras.
03:38
What if we are creating an AI tool
65
218940
4200
¿Qué pasa si estamos creando una herramienta de IA
03:43
where everyone can detect if someone else is lying?
66
223180
2920
en la que todos puedan detectar si alguien está mintiendo?
03:48
This is not possible yet, so please don't panic.
67
228100
2640
Esto aún no es posible, así que no se asuste.
03:50
(Laughter)
68
230740
1880
(Risas)
03:52
But this is what we tried to do in a recent study
69
232620
3080
Pero esto es lo que intentamos hacer en un estudio reciente
03:55
that I did together with my brilliant colleagues
70
235700
2400
que realicé junto con mis brillantes colegas,
03:58
whom I need to thank.
71
238140
1720
a quienes debo dar las gracias.
03:59
And actually, to let you understand what we did in our study,
72
239860
6760
De hecho, para que comprendan lo que hicimos en nuestro estudio,
04:06
I need to first introduce you to some technical concepts
73
246620
4440
primero tengo que presentarles algunos conceptos técnicos
04:11
and to the main characters of this story:
74
251100
3080
y a los personajes principales de esta historia:
04:15
Large language models.
75
255300
2480
los grandes modelos lingüísticos.
04:17
Large language models are AI systems
76
257780
2360
Modelos de gran tamaño que son sistemas de IA
04:20
designed to generate outputs in natural language
77
260180
3160
diseñados para generar resultados
en lenguaje natural de una manera que casi imita la comunicación humana.
04:23
in a way that almost mimics human communication.
78
263380
2880
Si se pregunta cómo enseñamos a estos sistemas de IA a detectar mentiras,
04:27
If you are wondering how we teach these AI systems to detect lies,
79
267340
3840
04:31
here is where something called fine-tuning comes in.
80
271220
3600
aquí es donde entra en juego algo llamado ajuste fino.
04:34
But let's use a metaphor.
81
274820
2080
Pero usemos una metáfora.
04:36
Imagine large language models being as students
82
276900
3360
Imaginemos que los grandes modelos lingüísticos son como estudiantes
04:40
who have gone through years of school,
83
280300
2360
que han pasado años en la escuela,
04:42
learning a little bit about everything,
84
282660
2160
aprendiendo un poco sobre todo,
04:44
such as language, concepts, facts.
85
284820
4080
como el lenguaje, los conceptos y los hechos.
04:48
But when it's time for them to specialize,
86
288900
2840
Pero cuando les llega el momento de especializarse,
04:51
like in law school or in medical school,
87
291740
2480
como en la facultad de derecho o de medicina,
necesitan una formación más específica.
04:54
they need more focused training.
88
294220
1560
04:56
Fine-tuning is that extra education.
89
296900
2440
El perfeccionamiento es esa educación adicional.
Y, claro, los grandes modelos lingüísticos
05:00
And of course, large language models don't learn as humans do.
90
300460
3240
no aprenden como lo hacemos los humanos.
05:03
But this is just to give you the main idea.
91
303700
2320
Pero esto es solo para darles la idea principal.
05:07
Then, as for training students, you need books, lectures, examples,
92
307740
7000
Luego, en cuanto a la formación de estudiantes,
se necesitan libros, conferencias, ejemplos,
05:14
for training large language models you need datasets.
93
314740
3480
para entrenar modelos lingüísticos de gran tamaño se necesitan conjuntos de datos.
Y para nuestro estudio consideramos tres conjuntos de datos,
05:19
And for our study we considered three datasets,
94
319180
4240
uno sobre opiniones personales,
05:23
one about personal opinions,
95
323460
2440
otro sobre recuerdos autobiográficos del pasado
05:25
one about past autobiographical memories
96
325900
2840
y otro sobre intenciones futuras.
05:28
and one about future intentions.
97
328740
2720
05:31
These datasets were already available from previous studies
98
331500
3000
Estos conjuntos de datos ya estaban disponibles en estudios anteriores
05:34
and contained both truthful and deceptive statements.
99
334540
3040
y contenían afirmaciones tanto veraces como engañosas.
Por lo general, se recopilan este tipo de declaraciones
05:39
Typically, you collect these types of statements
100
339140
2240
05:41
by asking participants to tell the truth or to lie about something.
101
341420
4280
pidiéndoles a los participantes que digan la verdad o que mientan sobre algo.
05:45
For example, if I was a participant in the truthful condition,
102
345700
3680
Por ejemplo, si yo participara en la afirmación de la veracidad,
05:49
and the task was
103
349420
1680
y la tarea consistía en
05:51
"tell me about your past holidays,"
104
351140
2320
«hábleme de sus vacaciones pasadas»,
05:53
then I will tell the researcher about my previous holidays in Vietnam,
105
353500
4600
luego le contaré al investigador sobre mis vacaciones anteriores en Vietnam,
05:58
and here we have a slide to prove it.
106
358140
1960
y aquí tenemos una diapositiva que lo demuestra.
06:01
For the deceptive condition
107
361340
1800
Por esta engañosa condición,
06:03
they will randomly pick some of you who have never been to Vietnam,
108
363180
3640
elegirán al azar a algunos de vosotros que nunca habéis estado en Vietnam,
06:06
and they will ask you to make up a story
109
366820
2240
y os pedirán que inventéis una historia
06:09
and convince someone else that you've really been to Vietnam.
110
369100
3200
y convenzáis a alguien de que realmente habéis estado en Vietnam.
06:12
And this is how it typically works.
111
372340
1960
Y así es como funciona normalmente.
06:16
And as in all university courses, you might know this,
112
376500
4480
Y como en todos los cursos universitarios, quizás lo sepas,
06:21
after lectures you have exams.
113
381020
2440
después de las clases tienes que hacer exámenes.
06:23
And likewise after training our AI models,
114
383500
3840
Del mismo modo, después de entrenar nuestros modelos de IA,
06:27
we would like to test them.
115
387380
1360
nos gustaría probarlos.
06:29
And the procedure that we followed,
116
389500
1920
Y el procedimiento que seguimos,
06:31
that is actually the typical one, is the following.
117
391460
3200
que en realidad es el típico, es el siguiente.
06:34
So we picked some statements randomly from each dataset
118
394660
4960
Así que escogimos algunas afirmaciones al azar de cada conjunto de datos
06:39
and we took them apart.
119
399620
1480
y las separamos.
Por lo tanto, el modelo nunca vio
06:41
So the model never saw these statements during the training phase.
120
401140
3760
estas afirmaciones durante la fase de entrenamiento.
06:44
And only after the training was completed,
121
404900
2960
Y solo después de completar la capacitación,
06:47
we used them as a test, as the final exam.
122
407860
2880
la usamos como prueba, como examen final.
06:52
But who was our student then?
123
412540
2240
Pero, ¿quién era nuestro alumno entonces?
06:55
In this case, it was a large language model
124
415660
2600
En este caso, se trataba de un gran modelo de lenguaje
06:58
developed by Google
125
418300
1400
desarrollado por Google
06:59
and called FLAN-T5.
126
419700
1920
y llamado FLAN-T5.
07:01
Flanny, for friends.
127
421620
1840
Flanny, para amigos.
07:03
And now that we have all the pieces of the process together,
128
423500
4400
Y ahora que tenemos todas las piezas del proceso juntas,
07:07
we can actually dig deep into our study.
129
427900
2440
podemos profundizar en nuestro estudio.
07:12
Our study was composed by three main experiments.
130
432100
4480
Nuestro estudio estuvo compuesto por tres experimentos principales.
07:17
For the first experiment, we fine-tuned our model, our FLAN-T5,
131
437500
5120
Para el primer experimento, ajustamos nuestro modelo, nuestro FLAN-T5,
07:22
on each single dataset separately.
132
442620
2920
en cada conjunto de datos por separado.
07:27
For the second experiment,
133
447700
1920
Para el segundo experimento,
07:29
we fine-tuned our model on two pairs of datasets together,
134
449620
4680
ajustamos nuestro modelo en dos pares de conjuntos de datos juntos,
07:34
and we tested it on the third remaining one,
135
454340
2920
lo probamos en el tercero restante
07:37
and we used all three possible combinations.
136
457300
2520
y utilizamos las tres combinaciones posibles.
Para el último experimento final,
07:41
For the last final experiment,
137
461380
2120
07:43
we fine-tuned the model on a new, larger training test set
138
463540
3760
ajustamos el modelo con un conjunto de pruebas de entrenamiento nuevo
y más grande
07:47
that we obtained by combining all the three datasets together.
139
467340
3160
que obtuvimos al combinar los tres conjuntos de datos.
07:52
The results were quite interesting
140
472380
2880
Los resultados fueron bastante interesantes
07:55
because what we found was that in the first experiment,
141
475300
4000
porque lo que descubrimos fue que, en el primer experimento, el
07:59
FLAN-T5 achieved an accuracy range between 70 percent and 80 percent.
142
479340
6080
FLAN-T5 alcanzó un rango de precisión de entre el 70 y el 80 %.
08:06
However, in the second experiment,
143
486460
2880
Sin embargo, en el segundo experimento,
08:09
FLAN-T5 dropped its accuracy to almost 50 percent.
144
489380
4640
el FLAN-T5 redujo su precisión a casi el 50 %.
08:15
And then, surprisingly, in the third experiment,
145
495380
3080
Y luego, sorprendentemente, en el tercer experimento,
08:18
FLAN-T5 rose back to almost 80 percent.
146
498500
3800
el FLAN-T5 volvió a subir a casi el 80 %.
08:23
But what does this mean?
147
503780
2320
Pero, ¿qué significa esto?
08:26
What can we learn from these results?
148
506140
3680
¿Qué podemos aprender de estos resultados?
De los experimentos uno y tres
08:31
From experiment one and three
149
511100
2360
descubrimos que los modelos lingüísticos
08:33
we learn that language models
150
513500
2280
08:35
can effectively classify statements as deceptive,
151
515780
4240
pueden clasificar eficazmente las afirmaciones como engañosas,
lo que supera los parámetros humanos
08:40
outperforming human benchmarks
152
520060
2120
y se alinea con los modelos anteriores de aprendizaje automático
08:42
and aligning with previous machine learning
153
522220
2240
08:44
and deep learning models
154
524500
1280
y aprendizaje profundo
08:45
that previous studies trained on the same datasets.
155
525780
2440
que en estudios anteriores se basaban en los mismos conjuntos de datos.
08:49
However, from the second experiment,
156
529540
2520
Sin embargo, en el segundo experimento,
08:52
we see that language models struggle
157
532100
2920
vemos que los modelos lingüísticos tienen dificultades
08:55
in generalizing this knowledge, this learning across different contexts.
158
535060
4400
para generalizar este conocimiento, este aprendizaje en diferentes contextos.
09:00
And this is apparently because
159
540380
2960
Aparentemente, esto se debe a que no
09:03
there is no one single universal rule of deception
160
543380
3120
existe una sola regla universal sobre el engaño
09:06
that we can easily apply in every context,
161
546540
3400
que podamos aplicar fácilmente en todos los contextos,
09:09
but linguistic cues of deception are context-dependent.
162
549940
3920
pero las señales lingüísticas del engaño dependen del contexto.
09:15
And from the third experiment,
163
555820
2520
Y del tercer experimento,
09:18
we learned that actually language models
164
558380
2640
aprendimos que, en realidad, los modelos lingüísticos
09:21
can generalize well across different contexts,
165
561060
3280
pueden generalizarse bien en diferentes contextos,
09:24
if only they have been previously exposed to examples
166
564380
4160
si tan solo han estado expuestos previamente a ejemplos
durante la fase de formación.
09:28
during the training phase.
167
568580
2080
09:30
And I think this sounds as good news.
168
570660
2360
Y creo que esto suena como una buena noticia.
09:34
But while this means that language models can be effectively applied
169
574660
6400
Sin embargo, si bien esto significa que los modelos lingüísticos se pueden aplicar
eficazmente a aplicaciones reales de detección de mentiras,
09:41
for real-life applications in lie detection,
170
581100
3000
es necesario replicarlos
09:44
more replication is needed because a single study is never enough
171
584140
4040
más porque un solo estudio nunca es suficiente para
09:48
so that from tomorrow we can all have these AI systems on our smartphones,
172
588220
4640
que, a partir de mañana, todos podamos tener estos sistemas de IA en el teléfono
09:52
and start detecting other people's lies.
173
592860
2400
y empezar a detectar las mentiras de otras personas.
09:56
But as a scientist, I have a vivid imagination
174
596740
2880
Pero como científico, tengo una imaginación vívida
09:59
and I would like to dream big.
175
599620
1880
y me gustaría soñar en grande.
10:01
And also I would like to bring you with me in this futuristic journey for a while.
176
601540
4200
Y también me gustaría acompañarte durante un tiempo en este viaje futurista.
10:05
So please imagine with me living in a world
177
605740
3440
Imagínense vivir conmigo en un mundo en el que
10:09
where this lie detection technology is well-integrated in our life,
178
609220
4200
esta tecnología de detección de mentiras
esté bien integrada en nuestras vidas,
10:13
making everything from national security to social media a little bit safer.
179
613460
4840
haciendo que todo, desde la seguridad nacional
hasta las redes sociales, sea un poco más seguro.
10:19
And imagine having this AI system that could actually spot fake opinions.
180
619180
4840
E imagina tener este sistema de IA que podría detectar opiniones falsas.
10:24
From tomorrow, we could say
181
624060
2600
A partir de mañana, podríamos decir
10:26
when a politician is actually saying one thing
182
626660
3320
cuándo un político dice realmente una cosa
10:30
and truly believes something else.
183
630020
1880
y cree realmente otra.
10:31
(Laughter)
184
631900
1280
(Risas)
10:34
And what about the security board context
185
634780
2600
Y ¿qué pasa con el contexto de las juntas de seguridad,
10:37
where people are asked about their intentions and reasons
186
637420
3240
en el que se pregunta a las personas cuáles son sus intenciones
10:40
for why they are crossing borders or boarding planes.
187
640660
5360
y los motivos por los que cruzan las fronteras o suben a aviones?
10:46
Well, with these systems,
188
646900
1440
Bueno, con estos sistemas,
10:48
we could actually spot malicious intentions
189
648380
2760
podríamos detectar las intenciones maliciosas incluso
10:51
before they even happen.
190
651180
1320
antes de que se produzcan.
10:54
And what about the recruiting process?
191
654780
2400
¿Y qué pasa con el proceso de contratación?
10:57
(Laughter)
192
657900
1280
(Risas)
10:59
We heard about this already.
193
659220
2080
Ya nos enteramos de esto.
11:01
But actually, companies could employ this AI
194
661340
3360
Pero, las empresas podrían emplear esta IA
11:04
to distinguish those who are really passionate about the role
195
664700
3760
para distinguir a las que les apasiona el puesto
11:08
from those who are just trying to say the right things to get the job.
196
668500
3320
de las que solo intentan decir las cosas correctas para conseguir el puesto.
11:13
And finally, we have social media.
197
673580
1920
Y, por último, tenemos las redes sociales.
11:16
Scammers trying to deceive you or to steal your identity.
198
676180
3560
Estafadores que intentan engañarlo o robar su identidad.
11:19
All gone.
199
679740
2080
Se han ido todos.
11:21
And someone else may claim something about fake news,
200
681820
2520
Y alguien más puede decir algo sobre las noticias falsas,
11:24
and well, perfectly, language model could automatically read the news,
201
684380
4120
y bueno, perfectamente, el modelo lingüístico
podría leer automáticamente las noticias,
11:28
flag them as deceptive or fake,
202
688540
3160
marcarlos como engañosos o falsos,
11:31
and we could even provide users with a credibility score
203
691700
3960
e incluso podríamos proporcionar a los usuarios una puntuación de credibilidad
11:35
for the information they read.
204
695660
1560
por la información que leen.
11:38
It sounds like a brilliant future, right?
205
698460
2400
Parece un futuro brillante, ¿verdad?
11:42
(Laughter)
206
702060
1720
(Risas)
11:44
Yes, but ...
207
704580
1240
Sí, pero...
11:47
all great progress comes with risks.
208
707060
2680
todo gran progreso conlleva riesgos.
11:51
As much as I'm excited about this future,
209
711300
3200
Por mucho que me entusiasme este futuro,
11:54
I think we need to be careful.
210
714540
2240
creo que debemos tener cuidado.
Si no somos cautelosos, en mi opinión,
11:58
If we are not cautious, in my view,
211
718300
2880
podríamos terminar en un mundo en el que la gente
12:01
we could end up in a world
212
721220
1680
12:02
where people might just blindly believe AI outputs.
213
722900
3200
creería ciegamente en los resultados de la IA.
12:07
And I'm afraid this means that people will just be more likely
214
727700
4000
Y me temo que esto significa que es más probable que la gente acuse
12:11
to accuse others of lying just because an AI says so.
215
731700
3880
a otros de mentir solo porque una IA lo diga.
12:17
And I'm not the only one with this view
216
737540
2400
Y no soy el único que opina lo mismo,
12:19
because another study already proved it.
217
739940
2400
porque otro estudio ya lo ha demostrado.
12:24
In addition, if we totally rely on this lie detection technology
218
744620
4560
Además, si confiamos totalmente en esta tecnología de detección de mentiras
12:29
to say someone else is lying or not,
219
749220
2680
para decir que alguien está mintiendo o no,
12:31
we risk losing another important key value in society.
220
751900
3520
corremos el riesgo de perder otro valor clave importante en la sociedad.
12:36
We lose trust.
221
756500
1240
Perdemos la confianza.
12:38
We won't need to trust people anymore,
222
758740
1840
Ya no necesitaremos confiar en la gente,
12:40
because what we will do is just ask an AI to double check for us.
223
760580
4160
porque lo que haremos será pedirle a una IA que lo compruebe por nosotros.
12:47
But are we really willing to blindly believe AI
224
767380
3880
Pero, ¿estamos realmente dispuestos a creer ciegamente en la IA
12:51
and give up our critical thinking?
225
771300
2240
y a renunciar a nuestro pensamiento crítico?
12:55
I think that's the future we need to avoid.
226
775020
2160
Creo que ese es el futuro que debemos evitar.
13:00
With hope for the future is more interpretability.
227
780220
3840
La esperanza para el futuro es más interpretable.
Y estoy a punto de decirte lo que quiero decir.
13:04
And I'm about to tell you what I mean.
228
784100
2080
13:06
Similar to when we look at reviews online,
229
786220
2920
Al igual que cuando leemos las reseñas en Internet,
13:09
and we can both look at the total number of stars at places,
230
789180
3920
podemos ver el número total de estrellas en los lugares,
13:13
but also we can look more in detail at the positive and negative reviews,
231
793140
4920
pero también podemos analizar con más detalle las críticas positivas y negativas
13:18
and try to understand what are the positive sides,
232
798100
2640
e intentar entender cuáles son los aspectos positivos,
13:20
but also what might have gone wrong,
233
800740
2920
pero también qué puede haber salido mal,
13:23
to eventually create our own and personal idea
234
803660
3600
para eventualmente crear nuestra propia idea personal de
13:27
if that is the place where we want to go,
235
807300
2360
si ese es el lugar al que queremos ir,
13:29
where we want to be.
236
809660
1240
dónde queremos estar.
13:32
Likewise, imagine a world where AI doesn't just offer conclusions,
237
812020
4520
Del mismo modo, imagine un mundo en el que la IA no solo ofrezca conclusiones,
13:36
but also provides clear and understandable explanations
238
816580
3600
sino que también proporcione explicaciones claras y comprensibles
13:40
behind its decisions.
239
820220
1520
detrás de sus decisiones.
Y me imagino un futuro
13:43
And I envision a future
240
823140
2200
13:45
where this lie detection technology
241
825380
2240
en el que esta tecnología de detección de mentiras
13:47
wouldn't just provide us with a simple judgment,
242
827620
3480
no solo nos proporcione un juicio sencillo,
sino también explicaciones claras
13:51
but also with clear explanations for why it thinks someone else is lying.
243
831140
3960
de por qué cree que alguien más está mintiendo.
13:57
And I would like a future where, yes,
244
837660
2960
Y me gustaría un futuro en el que, sí,
14:00
this lie detection technology is integrated in our life,
245
840620
3360
esta tecnología de detección de mentiras estuviera integrada en nuestras vidas,
14:04
or also AI technology in general,
246
844020
3920
o también en la tecnología de IA en general,
14:07
but still, at the same time,
247
847940
2480
pero que, al mismo tiempo,
14:10
we are able to think critically
248
850460
2680
pudiéramos pensar críticamente
14:13
and decide when we want to trust in AI judgment
249
853180
3520
y decidir cuándo queremos confiar en el juicio de la IA
14:16
or when we want to question it.
250
856700
1760
o cuándo queremos cuestionarlo.
14:20
To conclude,
251
860660
1840
Para concluir,
14:22
I think the future of using AI for lie detection
252
862540
4320
creo que el futuro del uso de la IA para la detección
14:26
is not just about technological advancement,
253
866860
3920
de mentiras no depende solo del avance tecnológico,
14:30
but about enhancing our understanding and fostering trust.
254
870780
3880
sino de mejorar nuestra comprensión y fomentar la confianza.
14:35
It's about developing tools that don't replace human judgment
255
875940
3760
Se trata de desarrollar herramientas que no sustituyan el juicio humano,
14:39
but empower it,
256
879700
1720
sino que lo potencien
14:41
ensuring that we remain at the helm.
257
881460
2240
y garanticen que sigamos manteniéndonos a la cabeza.
14:45
Don't step into a future with blind reliance on technology.
258
885220
3640
No se adentre en un futuro con una confianza ciega en la tecnología.
14:49
Let's commit to deep understanding and ethical use,
259
889940
3880
Comprometámonos con una comprensión profunda
y un uso ético,
14:53
and we'll pursue the truth.
260
893820
1520
y buscaremos la verdad.
14:56
(Applause)
261
896620
1080
(Aplausos)
14:57
Thank you.
262
897700
1240
Gracias.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7