What if AI Could Spot Your Lies? | Riccardo Loconte | TED

39,392 views ・ 2025-02-08

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Olga Davydova (Brusyanina) Редактор: Alena Chernykh
00:04
This is something you won't like.
0
4260
2560
Вам не понравится то, что я сейчас скажу.
00:06
But here everyone is a liar.
1
6820
3400
Каждый из присутствующих здесь — лжец.
Не принимайте это слишком близко к сердцу.
00:12
Don't take it too personally.
2
12540
1880
00:14
What I mean is that lying is very common
3
14460
3320
Я всего лишь имею в виду, что ложь очень распространена.
00:17
and it is now well-established that we lie on a daily basis.
4
17780
4480
Общеизвестный факт — мы лжём ежедневно.
00:22
Indeed, scientists have estimated that we tell around two lies per day,
5
22300
4920
Действительно, по оценкам учёных, мы лжём примерно дважды в день,
00:27
although, of course, it's not that easy to establish those numbers with certainty.
6
27260
3880
хотя, конечно, не так-то просто точно установить эти цифры.
00:32
And, well, I introduce myself.
7
32180
2040
Позвольте представиться.
00:34
I'm Riccardo, I'm a psychologist and a PhD candidate,
8
34260
4280
Меня зовут Риккардо, я психолог и кандидат наук.
00:38
and for my research project I study how good are people at detecting lies.
9
38580
5400
Для своего исследовательского проекта я изучаю, как хорошо люди распознают ложь.
00:44
Seems cool, right? But I'm not joking.
10
44020
2040
Кажется круто, верно? Но я не шучу.
00:47
And you might wonder why a psychologist was then invited
11
47180
4640
И вы, наверное, задаётесь вопросом, почему именно психолог был приглашён
00:51
to give a TED Talk about AI.
12
51820
2080
на TED выступить с докладом об искусственном интеллекте.
00:55
And well, I'm here today
13
55660
1400
Сегодня я здесь,
00:57
because I'm about to tell you how AI could be used to detect lies.
14
57100
6000
чтобы рассказать вам,
как можно использовать искусственный интеллект для выявления лжи.
01:03
And you will be very surprised by the answer.
15
63140
2240
И вы будете очень удивлены ответом.
01:06
But first of all, when is it relevant to detect lies?
16
66500
4040
Но для начала, когда важно выявлять ложь?
01:12
A first clear example that comes to my mind
17
72420
2800
Первый наглядный пример, который приходит мне на ум,
01:15
is in the criminal investigation field.
18
75260
2040
находится в области уголовного расследования.
01:18
Imagine you are a police officer and you want to interview a suspect.
19
78340
4920
Представьте, что вы полицейский и хотите допросить подозреваемого.
01:23
And the suspect is providing some information to you.
20
83300
3520
И подозреваемый предоставляет вам некоторую информацию.
01:26
And this information is actually leading to the next steps of the investigation.
21
86820
4080
И эта информация фактически ведёт к следующим шагам расследования.
01:31
We certainly want to understand if the suspect is reliable
22
91940
4400
Мы, конечно, хотим понять, достоин ли доверия подозреваемый
01:36
or if they are trying to deceive us.
23
96380
2280
или он пытается нас обмануть.
01:40
Then another example comes to my mind,
24
100740
2680
Далее мне приходит в голову другой пример,
01:43
and I think this really affects all of us.
25
103460
2000
и он действительно касается всех нас.
01:46
So please raise your hands
26
106220
2040
Поэтому, пожалуйста, поднимите руки,
01:48
if you would like to know if your partner cheated on you.
27
108300
3840
если хотите узнать, изменял ли вам ваш партнёр.
01:52
(Laughter)
28
112180
1080
(Смех)
01:53
And don't be shy because I know.
29
113300
1920
Не стесняйтесь, потому что я знаю.
01:55
(Laughter)
30
115260
1360
(Смех)
01:56
Yeah. You see?
31
116620
1240
Да. Видите?
01:59
It's very relevant.
32
119580
1720
Это очень актуально.
02:02
However, I have to have to say that we as humans
33
122340
2840
Однако я должен сказать, что мы, люди,
02:05
are very bad at detecting lies.
34
125220
2240
очень плохо распознаём ложь.
02:08
In fact, many studies have already confirmed
35
128420
2800
На самом деле, многие исследования уже подтвердили,
02:11
that when people are asked to judge
36
131260
2840
что, когда людей просят оценить,
02:14
if someone is lying or not
37
134140
1760
лжёт человек или нет,
02:15
without knowing much about that person or the context,
38
135900
3760
не зная ни об этом человеке, ни о том, что с ним связано
02:19
people's accuracy is no better than the chance level,
39
139660
3800
точность человека ничуть не выше уровня вероятности,
02:23
about the same as flipping a coin.
40
143500
1720
примерно равнозначна подбрасыванию монеты.
02:27
You might also wonder
41
147300
1360
Вы также можете спросить,
02:28
if experts, such as police officers, prosecutors, experts
42
148660
5120
лучше ли такие эксперты, как полицейские, прокуроры,
02:33
and even psychologists
43
153780
1480
и даже психологи,
02:35
are better at detecting lies.
44
155300
1760
справляются с распознаванием лжи.
02:37
And the answer is complex,
45
157860
1520
И ответ на этот вопрос сложен,
02:39
because experience alone doesn't seem to be enough
46
159420
3760
потому что одного опыта, по-видимому, недостаточно,
02:43
to help detect lies accurately.
47
163220
2400
чтобы помочь точно распознать ложь.
02:45
It might help, but it's not enough.
48
165620
2200
Возможно, он поможет, но этого недостаточно.
02:49
To give you some numbers.
49
169780
1600
Приведу вам несколько цифр.
02:51
In a well-known meta-analysis that previous scholars did in 2006,
50
171420
5040
В ходе известного метаанализа, проведённого прежними учёными в 2006 году,
02:56
they found that naive judges' accuracy
51
176500
2760
было обнаружено, что точность наивных суждений
02:59
was on average around 54 percent.
52
179300
3320
в среднем составляла около 54 процентов.
03:03
Experts perform only slightly better,
53
183900
3280
Результаты экспертов лишь немного лучше:
03:07
with an accuracy rate around 55 percent.
54
187220
3880
показатель точности составляет около 55 процентов.
03:11
(Laughter)
55
191140
1640
(Смех)
03:12
Not that impressive, right?
56
192780
1440
Не так уж и впечатляет, верно?
03:15
And ...
57
195660
1240
И...
03:18
Those numbers actually come from the analysis
58
198140
2880
Эти цифры на самом деле получены в результате анализа
03:21
of the results of 108 studies,
59
201060
2880
результатов 108 исследований,
03:23
meaning that these findings are quite robust.
60
203940
2680
а это означает, что эти выводы довольно убедительны.
03:26
And of course, the debate is also much more complicated than this
61
206620
3840
И, конечно, дискуссия также намного сложнее, чем выводы
03:30
and also more nuanced.
62
210500
1560
и содержит много нюансов.
03:32
But here the main take-home message
63
212100
2360
Но главный вывод здесь заключается в том,
03:34
is that humans are not good at detecting lies.
64
214500
3680
что люди не умеют распознавать ложь.
03:38
What if we are creating an AI tool
65
218940
4200
Что, если мы создадим инструмент искусственного интеллекта,
03:43
where everyone can detect if someone else is lying?
66
223180
2920
где каждый сможет определить, лжёт ли кто-то другой?
03:48
This is not possible yet, so please don't panic.
67
228100
2640
Пока это невозможно, поэтому, пожалуйста, не паникуйте.
03:50
(Laughter)
68
230740
1880
(Смех)
03:52
But this is what we tried to do in a recent study
69
232620
3080
Именно это мы и пытались сделать в недавнем исследовании,
03:55
that I did together with my brilliant colleagues
70
235700
2400
которое я провёл вместе с моими замечательными коллегами,
03:58
whom I need to thank.
71
238140
1720
которых мне нужно поблагодарить.
03:59
And actually, to let you understand what we did in our study,
72
239860
6760
На самом деле, чтобы вы поняли, чем мы занимались в исследовании,
04:06
I need to first introduce you to some technical concepts
73
246620
4440
мне нужно сначала познакомить вас с некоторыми техническими концепциями
04:11
and to the main characters of this story:
74
251100
3080
и с главными героями этой истории:
04:15
Large language models.
75
255300
2480
большими языковыми моделями.
Большие языковые модели — это системы искусственного интеллекта,
04:17
Large language models are AI systems
76
257780
2360
04:20
designed to generate outputs in natural language
77
260180
3160
предназначенные для генерирования результатов на родном языке
04:23
in a way that almost mimics human communication.
78
263380
2880
таким образом, чтобы они почти имитировали человеческое общение.
Если вам интересно, как мы учим эти системы искусственного интеллекта
04:27
If you are wondering how we teach these AI systems to detect lies,
79
267340
3840
распознавать ложь,
04:31
here is where something called fine-tuning comes in.
80
271220
3600
то здесь на помощь приходит так называемая тонкая настройка.
04:34
But let's use a metaphor.
81
274820
2080
Но давайте воспользуемся метафорой.
04:36
Imagine large language models being as students
82
276900
3360
Представьте себе, что большие языковые модели — это учащиеся,
04:40
who have gone through years of school,
83
280300
2360
прошедшие несколько лет обучения в школе,
04:42
learning a little bit about everything,
84
282660
2160
изучающие всё понемногу:
04:44
such as language, concepts, facts.
85
284820
4080
04:48
But when it's time for them to specialize,
86
288900
2840
Но когда приходит время специализироваться,
04:51
like in law school or in medical school,
87
291740
2480
например, на юридическом факультете или в медицинском училище,
04:54
they need more focused training.
88
294220
1560
им необходимо более целенаправленное обучение.
04:56
Fine-tuning is that extra education.
89
296900
2440
Тонкая настройка — это дополнительное образование.
05:00
And of course, large language models don't learn as humans do.
90
300460
3240
И, конечно, большие языковые модели не учатся так, как люди.
05:03
But this is just to give you the main idea.
91
303700
2320
Но это просто для того, чтобы дать вам основную идею.
05:07
Then, as for training students, you need books, lectures, examples,
92
307740
7000
Тогда, что касается обучения студентов, нужны книги, лекции, примеры,
05:14
for training large language models you need datasets.
93
314740
3480
для обучения больших языковых моделей нужны наборы данных.
05:19
And for our study we considered three datasets,
94
319180
4240
В нашем исследовании мы рассмотрели три набора данных:
05:23
one about personal opinions,
95
323460
2440
один — о личном мнении,
05:25
one about past autobiographical memories
96
325900
2840
один — о прошлых автобиографических воспоминаниях,
05:28
and one about future intentions.
97
328740
2720
и ещё один — о будущих намерениях.
05:31
These datasets were already available from previous studies
98
331500
3000
Эти наборы данных уже были получены в ходе предыдущих исследований
05:34
and contained both truthful and deceptive statements.
99
334540
3040
и содержали как правдивые, так и вводящие в заблуждение утверждения.
05:39
Typically, you collect these types of statements
100
339140
2240
Обычно вы собираете такие утверждения,
05:41
by asking participants to tell the truth or to lie about something.
101
341420
4280
попросив участников рассказать правду или солгать о чём-либо.
05:45
For example, if I was a participant in the truthful condition,
102
345700
3680
Например, если бы я был участником в правдивом состоянии,
05:49
and the task was
103
349420
1680
и задача —
05:51
"tell me about your past holidays,"
104
351140
2320
«расскажи мне о своих прошлых каникулах»,
05:53
then I will tell the researcher about my previous holidays in Vietnam,
105
353500
4600
я рассказал бы исследователю о своих недавних каникулах во Вьетнаме,
05:58
and here we have a slide to prove it.
106
358140
1960
и вот вам слайд, подтверждающий это.
06:01
For the deceptive condition
107
361340
1800
Для ложного состояния
они случайным образом выберут некоторых из вас,
06:03
they will randomly pick some of you who have never been to Vietnam,
108
363180
3640
кто никогда не был во Вьетнаме,
06:06
and they will ask you to make up a story
109
366820
2240
и попросят вас придумать историю
06:09
and convince someone else that you've really been to Vietnam.
110
369100
3200
и убедить кого-то в том, что вы действительно были во Вьетнаме.
06:12
And this is how it typically works.
111
372340
1960
Вот как это обычно работает.
06:16
And as in all university courses, you might know this,
112
376500
4480
И, как на всех университетских курсах, вы, наверное, знаете,
06:21
after lectures you have exams.
113
381020
2440
что после лекций у вас экзамены.
06:23
And likewise after training our AI models,
114
383500
3840
Точно так же, после обучения наших моделей искусственного интеллекта,
06:27
we would like to test them.
115
387380
1360
мы хотели бы протестировать их.
06:29
And the procedure that we followed,
116
389500
1920
И процедура, которой мы следовали,
06:31
that is actually the typical one, is the following.
117
391460
3200
которая на самом деле является типичной, выглядит следующим образом.
06:34
So we picked some statements randomly from each dataset
118
394660
4960
Мы произвольно выбрали несколько утверждений из каждого набора данных
06:39
and we took them apart.
119
399620
1480
и разобрали их на части.
06:41
So the model never saw these statements during the training phase.
120
401140
3760
Таким образом, модель никогда не видела этих утверждений на этапе обучения.
06:44
And only after the training was completed,
121
404900
2960
И только после завершения обучения
06:47
we used them as a test, as the final exam.
122
407860
2880
мы использовали их в качестве теста или итогового экзамена.
06:52
But who was our student then?
123
412540
2240
Но кто тогда был нашим учеником?
06:55
In this case, it was a large language model
124
415660
2600
В данном случае это была большая языковая модель,
06:58
developed by Google
125
418300
1400
разработанная Google
06:59
and called FLAN-T5.
126
419700
1920
и названная FLAN-T5.
07:01
Flanny, for friends.
127
421620
1840
Фланни, для друзей.
07:03
And now that we have all the pieces of the process together,
128
423500
4400
Теперь, когда мы собрали все элементы процесса воедино,
07:07
we can actually dig deep into our study.
129
427900
2440
мы можем углубиться в наше исследование.
07:12
Our study was composed by three main experiments.
130
432100
4480
Наше исследование состояло из трёх основных экспериментов.
07:17
For the first experiment, we fine-tuned our model, our FLAN-T5,
131
437500
5120
В первом эксперименте мы доработали нашу модель FLAN-T5
07:22
on each single dataset separately.
132
442620
2920
отдельно для каждого набора данных.
07:27
For the second experiment,
133
447700
1920
Во втором эксперименте
07:29
we fine-tuned our model on two pairs of datasets together,
134
449620
4680
мы доработали нашу модель на двух парах наборов данных,
07:34
and we tested it on the third remaining one,
135
454340
2920
и протестировали её на третьем оставшемся наборе данных.
07:37
and we used all three possible combinations.
136
457300
2520
Мы использовали все три возможные комбинации.
07:41
For the last final experiment,
137
461380
2120
В последнем заключительном эксперименте
07:43
we fine-tuned the model on a new, larger training test set
138
463540
3760
мы доработали модель на новом, более крупном обучающем наборе тестов,
07:47
that we obtained by combining all the three datasets together.
139
467340
3160
который мы получили, объединив все три набора данных вместе.
07:52
The results were quite interesting
140
472380
2880
Результаты оказались весьма интересными,
07:55
because what we found was that in the first experiment,
141
475300
4000
поскольку мы обнаружили, что в первом эксперименте
07:59
FLAN-T5 achieved an accuracy range between 70 percent and 80 percent.
142
479340
6080
точность FLAN-T5 достигла диапазона от 70 до 80 процентов.
08:06
However, in the second experiment,
143
486460
2880
Однако во втором эксперименте
08:09
FLAN-T5 dropped its accuracy to almost 50 percent.
144
489380
4640
FLAN-T5 снизила свою точность почти до 50 процентов.
08:15
And then, surprisingly, in the third experiment,
145
495380
3080
А затем, что удивительно, в третьем эксперименте
08:18
FLAN-T5 rose back to almost 80 percent.
146
498500
3800
FLAN-T5 поднялась обратно почти до 80 процентов.
08:23
But what does this mean?
147
503780
2320
Но что это значит?
08:26
What can we learn from these results?
148
506140
3680
Чему мы можем научиться на основе этих результатов?
08:31
From experiment one and three
149
511100
2360
Из первого и третьего экспериментов
08:33
we learn that language models
150
513500
2280
мы выяснили, что языковые модели
08:35
can effectively classify statements as deceptive,
151
515780
4240
могут эффективно классифицировать утверждения как ложные,
08:40
outperforming human benchmarks
152
520060
2120
превосходя показатели людей
и совпадая с предыдущим моделям
08:42
and aligning with previous machine learning
153
522220
2240
08:44
and deep learning models
154
524500
1280
машинного и глубокого обучения,
08:45
that previous studies trained on the same datasets.
155
525780
2440
которые в предыдущих исследованиях изучались на тех же наборах данных.
08:49
However, from the second experiment,
156
529540
2520
Однако из второго эксперимента
08:52
we see that language models struggle
157
532100
2920
мы видим, что языковым моделям трудно
08:55
in generalizing this knowledge, this learning across different contexts.
158
535060
4400
обобщить эти знания, это обучение через разные контексты.
09:00
And this is apparently because
159
540380
2960
И это, очевидно, потому что
09:03
there is no one single universal rule of deception
160
543380
3120
не существует единого универсального правила обмана,
09:06
that we can easily apply in every context,
161
546540
3400
которое можно было бы легко применить в любом контексте,
09:09
but linguistic cues of deception are context-dependent.
162
549940
3920
но языковые признаки обмана зависят от контекста.
09:15
And from the third experiment,
163
555820
2520
В ходе третьего эксперимента
09:18
we learned that actually language models
164
558380
2640
мы узнали, что на самом деле языковые модели
09:21
can generalize well across different contexts,
165
561060
3280
могут хорошо обобщать в различных контекстах,
09:24
if only they have been previously exposed to examples
166
564380
4160
если только они уже были ознакомлены с примерами
09:28
during the training phase.
167
568580
2080
на этапе обучения.
09:30
And I think this sounds as good news.
168
570660
2360
И я думаю, это хорошая новость.
09:34
But while this means that language models can be effectively applied
169
574660
6400
Но хотя это и означает, что языковые модели
можно эффективно применять
09:41
for real-life applications in lie detection,
170
581100
3000
в реальных приложениях для распознавания лжи,
09:44
more replication is needed because a single study is never enough
171
584140
4040
нужно больше повторений, поскольку одного исследования недостаточно,
09:48
so that from tomorrow we can all have these AI systems on our smartphones,
172
588220
4640
чтобы с завтрашнего дня все мы могли использовать
эти системы искусственного интеллекта на своих смартфонах
09:52
and start detecting other people's lies.
173
592860
2400
и начать распознавать ложь других людей.
09:56
But as a scientist, I have a vivid imagination
174
596740
2880
Но как ученый я обладаю богатым воображением,
09:59
and I would like to dream big.
175
599620
1880
и мне хочется мечтать о большем.
10:01
And also I would like to bring you with me in this futuristic journey for a while.
176
601540
4200
А ещё я хотел бы взять вас с собой в это футуристическое путешествие ненадолго.
10:05
So please imagine with me living in a world
177
605740
3440
Пожалуйста, давайте вместе представим жизнь в мире,
10:09
where this lie detection technology is well-integrated in our life,
178
609220
4200
где эта технология распознавания лжи прочно интегрирована в нашу жизнь
10:13
making everything from national security to social media a little bit safer.
179
613460
4840
делая всё, от национальной безопасности до социальных сетей, немного безопаснее.
И представьте себе, что у вас есть система искусственного интеллекта,
10:19
And imagine having this AI system that could actually spot fake opinions.
180
619180
4840
которая действительно могла бы выявлять ложные мнения.
10:24
From tomorrow, we could say
181
624060
2600
С завтрашнего дня мы смогли бы сказать,
10:26
when a politician is actually saying one thing
182
626660
3320
когда политик на самом деле говорит одно,
10:30
and truly believes something else.
183
630020
1880
а по-настоящему верит во что-то другое.
10:31
(Laughter)
184
631900
1280
(Смех)
10:34
And what about the security board context
185
634780
2600
А как же ситуация в безопасности на границе,
10:37
where people are asked about their intentions and reasons
186
637420
3240
где людей спрашивают об их намерениях и причинах
10:40
for why they are crossing borders or boarding planes.
187
640660
5360
почему они пересекают границы или садятся в самолет.
10:46
Well, with these systems,
188
646900
1440
С помощью этих систем
10:48
we could actually spot malicious intentions
189
648380
2760
мы могли бы распознать злоумышленные намерения
10:51
before they even happen.
190
651180
1320
даже до того, как они произойдут.
10:54
And what about the recruiting process?
191
654780
2400
А как же процесс найма персонала?
10:57
(Laughter)
192
657900
1280
(Смех)
10:59
We heard about this already.
193
659220
2080
Мы уже слышали об этом.
Но на самом деле компании могли бы применять этот искусственный интеллект,
11:01
But actually, companies could employ this AI
194
661340
3360
11:04
to distinguish those who are really passionate about the role
195
664700
3760
чтобы отличать тех, кто действительно увлечён своей ролью,
11:08
from those who are just trying to say the right things to get the job.
196
668500
3320
от тех, кто просто пытается правильно сказать, чтобы получить работу.
11:13
And finally, we have social media.
197
673580
1920
И наконец, у нас есть социальные сети.
11:16
Scammers trying to deceive you or to steal your identity.
198
676180
3560
Мошенники, пытающиеся обмануть вас или украсть ваши личные данные.
11:19
All gone.
199
679740
2080
Всё ушло.
11:21
And someone else may claim something about fake news,
200
681820
2520
А кто-то ещё может что-то утверждать о фейковых новостях,
11:24
and well, perfectly, language model could automatically read the news,
201
684380
4120
и, прекрасно, что языковая модель может автоматически читать новости,
11:28
flag them as deceptive or fake,
202
688540
3160
отмечать их как ложные или фальшивые,
11:31
and we could even provide users with a credibility score
203
691700
3960
и мы даже могли бы дать пользователям достоверную оценку
11:35
for the information they read.
204
695660
1560
для информации, которую они прочитали.
11:38
It sounds like a brilliant future, right?
205
698460
2400
Похоже на блестящее будущее, верно?
11:42
(Laughter)
206
702060
1720
(Смех)
11:44
Yes, but ...
207
704580
1240
Да, но...
11:47
all great progress comes with risks.
208
707060
2680
Любой великий прогресс сопряжён с риском.
11:51
As much as I'm excited about this future,
209
711300
3200
Как бы я ни был взволнован этим будущим,
11:54
I think we need to be careful.
210
714540
2240
думаю, нам нужно быть осторожными.
11:58
If we are not cautious, in my view,
211
718300
2880
На мой взгляд, если мы не будем проявлять осторожность,
12:01
we could end up in a world
212
721220
1680
мы можем оказаться в мире,
12:02
where people might just blindly believe AI outputs.
213
722900
3200
где люди могут всего лишь слепо верить результатам искусственного интеллекта.
12:07
And I'm afraid this means that people will just be more likely
214
727700
4000
И я боюсь, что это означает, что люди с большей вероятностью будут
12:11
to accuse others of lying just because an AI says so.
215
731700
3880
обвинять других во лжи только потому, что об этом говорит искусственный интеллект.
12:17
And I'm not the only one with this view
216
737540
2400
И я не единственный с такой точкой зрения,
12:19
because another study already proved it.
217
739940
2400
потому что другое исследование уже подтвердило это.
12:24
In addition, if we totally rely on this lie detection technology
218
744620
4560
Кроме того, если мы полностью полагаемся на эту технологию распознавания лжи,
12:29
to say someone else is lying or not,
219
749220
2680
чтобы сказать, что кто-то лжёт или нет,
12:31
we risk losing another important key value in society.
220
751900
3520
мы рискуем потерять ещё одну важную ключевую ценность в обществе.
12:36
We lose trust.
221
756500
1240
Мы теряем доверие.
12:38
We won't need to trust people anymore,
222
758740
1840
Нам больше не нужно будет доверять людям,
12:40
because what we will do is just ask an AI to double check for us.
223
760580
4160
потому что, то что мы сделаем — это просто попросим ИИ
перепроверить для нас.
12:47
But are we really willing to blindly believe AI
224
767380
3880
Но действительно ли мы готовы слепо верить искусственному интеллекту
12:51
and give up our critical thinking?
225
771300
2240
и отказаться от нашего критического мышления?
12:55
I think that's the future we need to avoid.
226
775020
2160
Думаю, именно такого будущего нам следует избегать.
13:00
With hope for the future is more interpretability.
227
780220
3840
С надеждой на будущее с большей интерпретируемостью.
13:04
And I'm about to tell you what I mean.
228
784100
2080
И я сейчас скажу вам, что я имею в виду.
13:06
Similar to when we look at reviews online,
229
786220
2920
Аналогично, когда мы смотрим отзывы онлайн,
13:09
and we can both look at the total number of stars at places,
230
789180
3920
и мы можем не только смотреть на общее количество звезд в местах,
13:13
but also we can look more in detail at the positive and negative reviews,
231
793140
4920
но и более подробно рассмотреть положительные и отрицательные отзывы
13:18
and try to understand what are the positive sides,
232
798100
2640
и попытаться понять, в чём положительные стороны,
13:20
but also what might have gone wrong,
233
800740
2920
а что, возможно, пошло не так,
13:23
to eventually create our own and personal idea
234
803660
3600
чтобы в конечном итоге создать собственное и личное представление,
13:27
if that is the place where we want to go,
235
807300
2360
то ли это место, куда мы хотим пойти
13:29
where we want to be.
236
809660
1240
и где хотим находиться.
13:32
Likewise, imagine a world where AI doesn't just offer conclusions,
237
812020
4520
Также представьте мир, в котором ИИ
не только делает выводы,
13:36
but also provides clear and understandable explanations
238
816580
3600
но и даёт чёткие и понятные объяснения,
13:40
behind its decisions.
239
820220
1520
что лежит в основе его решений.
13:43
And I envision a future
240
823140
2200
И я представляю себе будущее,
13:45
where this lie detection technology
241
825380
2240
в котором технология распознавания лжи
13:47
wouldn't just provide us with a simple judgment,
242
827620
3480
не просто бы обеспечивала нас простыми суждениями,
13:51
but also with clear explanations for why it thinks someone else is lying.
243
831140
3960
но и чёткими объяснениями, почему он считает, что кто-то лжет.
13:57
And I would like a future where, yes,
244
837660
2960
И мне бы хотелось, чтобы в будущем
14:00
this lie detection technology is integrated in our life,
245
840620
3360
технология распознавания лжи стала неотъемлемой частью нашей жизни
14:04
or also AI technology in general,
246
844020
3920
или также технологии искусственно интеллекта в общем,
14:07
but still, at the same time,
247
847940
2480
но в то же время
14:10
we are able to think critically
248
850460
2680
мы сможем думать критически
14:13
and decide when we want to trust in AI judgment
249
853180
3520
и решать, когда мы хотим доверять суждениям искусственного интеллекта
14:16
or when we want to question it.
250
856700
1760
или когда мы хотим подвергать их сомнению.
14:20
To conclude,
251
860660
1840
В заключение
14:22
I think the future of using AI for lie detection
252
862540
4320
думаю, что будущее использования искусственного интеллекта
для распознавания лжи
14:26
is not just about technological advancement,
253
866860
3920
связано не только с технологическим прогрессом,
14:30
but about enhancing our understanding and fostering trust.
254
870780
3880
но и с улучшением нашего понимания и укреплением доверия.
14:35
It's about developing tools that don't replace human judgment
255
875940
3760
Речь идёт о разработке инструментов, которые не заменяют человеческое суждение,
14:39
but empower it,
256
879700
1720
а усиливают его
14:41
ensuring that we remain at the helm.
257
881460
2240
обеспечивая наше нахождение у руля.
14:45
Don't step into a future with blind reliance on technology.
258
885220
3640
Не стоит шагать в будущее, слепо полагаясь на технологии.
14:49
Let's commit to deep understanding and ethical use,
259
889940
3880
Давайте будем стремиться к глубокому пониманию и этичному использованию
14:53
and we'll pursue the truth.
260
893820
1520
и мы добьёмся истины.
14:56
(Applause)
261
896620
1080
(Аплодисменты)
14:57
Thank you.
262
897700
1240
Спасибо.
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7