What if AI Could Spot Your Lies? | Riccardo Loconte | TED

39,392 views ・ 2025-02-08

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Peter Pallos Lektor: Reka Lorinczy
00:04
This is something you won't like.
0
4260
2560
Ez nem fog önöknek tetszeni.
00:06
But here everyone is a liar.
1
6820
3400
De itt mindenki hazug.
00:12
Don't take it too personally.
2
12540
1880
Ne vegyék túlságosan magukra!
00:14
What I mean is that lying is very common
3
14460
3320
Úgy értem, hogy a hazugság nagyon gyakori,
00:17
and it is now well-established that we lie on a daily basis.
4
17780
4480
és mára már bebizonyosodott, hogy naponta hazudunk.
00:22
Indeed, scientists have estimated that we tell around two lies per day,
5
22300
4920
Tudósok becslése szerint naponta kb. kétszer,
00:27
although, of course, it's not that easy to establish those numbers with certainty.
6
27260
3880
bár nem olyan könnyű ezt számszerűsíteni.
00:32
And, well, I introduce myself.
7
32180
2040
Bemutatkozom.
00:34
I'm Riccardo, I'm a psychologist and a PhD candidate,
8
34260
4280
Riccardo vagyok, pszichológus és PhD-jelölt.
00:38
and for my research project I study how good are people at detecting lies.
9
38580
5400
Kutatésomban azt tanulmányozom,
hogy mennyire vagyunk jók hazugságok felderítésében.
00:44
Seems cool, right? But I'm not joking.
10
44020
2040
Menőnek tűnik, ugye?
De nem viccelek.
00:47
And you might wonder why a psychologist was then invited
11
47180
4640
Eltűnődhetnek, miért pszichológust hívtak meg,
00:51
to give a TED Talk about AI.
12
51820
2080
hogy TED-beszédet tartson az MI-ről.
00:55
And well, I'm here today
13
55660
1400
Azért vagyok itt, hogy elmondjam,
00:57
because I'm about to tell you how AI could be used to detect lies.
14
57100
6000
hogyan lehet az MI-t hazugságok észlelésére felhasználni.
01:03
And you will be very surprised by the answer.
15
63140
2240
Cefetül meg fognak lepődni a válaszon.
01:06
But first of all, when is it relevant to detect lies?
16
66500
4040
De mikor lényeges a hazugságok felderítése?
01:12
A first clear example that comes to my mind
17
72420
2800
Az első kézenfekvő példa, amely eszembe jut,
01:15
is in the criminal investigation field.
18
75260
2040
a bűnügyi nyomozás területe.
01:18
Imagine you are a police officer and you want to interview a suspect.
19
78340
4920
Képzeljék magukat rendőrnek, gyanúsítottat akarnak kihallgatni.
01:23
And the suspect is providing some information to you.
20
83300
3520
A gyanúsított elmesél valamit,
01:26
And this information is actually leading to the next steps of the investigation.
21
86820
4080
és ez tovább visz a vizsgálat következő lépéseihez.
01:31
We certainly want to understand if the suspect is reliable
22
91940
4400
Minden bizonnyal meg akarjuk érteni, hogy a gyanúsított megbízható-e,
01:36
or if they are trying to deceive us.
23
96380
2280
vagy igyekszik megtéveszteni minket.
01:40
Then another example comes to my mind,
24
100740
2680
Aztán másik példa jut eszembe,
01:43
and I think this really affects all of us.
25
103460
2000
és azt hiszem, ez valóban mindannyiunkat érinti.
01:46
So please raise your hands
26
106220
2040
Kérem, tartsa fel a kezét,
01:48
if you would like to know if your partner cheated on you.
27
108300
3840
aki szeretné tudni, hogy társa megcsalta-e!
01:52
(Laughter)
28
112180
1080
(Nevetés)
01:53
And don't be shy because I know.
29
113300
1920
Ne restelkedjenek, mert tudom.
01:55
(Laughter)
30
115260
1360
(Nevetés)
01:56
Yeah. You see?
31
116620
1240
Igen. Látják?
01:59
It's very relevant.
32
119580
1720
Ez nagyon lényeges.
02:02
However, I have to have to say that we as humans
33
122340
2840
Meg kell mondanom, hogy mi, emberek,
02:05
are very bad at detecting lies.
34
125220
2240
elég nehezen szúrjuk ki a hazugságot.
02:08
In fact, many studies have already confirmed
35
128420
2800
Sok kutatás megerősítette, hogy amikor az embereknek
02:11
that when people are asked to judge
36
131260
2840
meg kell ítélniük,
02:14
if someone is lying or not
37
134140
1760
hogy valaki hazudik-e,
02:15
without knowing much about that person or the context,
38
135900
3760
anélkül hogy az illetőről vagy a kontextusról sokat tudnának,
02:19
people's accuracy is no better than the chance level,
39
139660
3800
pontosságuk nem jobb, mint a véletlen.
02:23
about the same as flipping a coin.
40
143500
1720
Nagyjából ugyanannyi, mint érme feldobásakor.
02:27
You might also wonder
41
147300
1360
Kíváncsiak lehetnek arra, hogy szakértők:
02:28
if experts, such as police officers, prosecutors, experts
42
148660
5120
pl. rendőrök, ügyészek, sőt pszichológusok
02:33
and even psychologists
43
153780
1480
jobban felismerik-e a hazugságot?
02:35
are better at detecting lies.
44
155300
1760
02:37
And the answer is complex,
45
157860
1520
A válasz összetett,
02:39
because experience alone doesn't seem to be enough
46
159420
3760
mert a tapasztalat önmagában nem tűnik elegendőnek
02:43
to help detect lies accurately.
47
163220
2400
a hazugságok pontos felismeréséhez.
02:45
It might help, but it's not enough.
48
165620
2200
Talán segíthet, de nem elég.
02:49
To give you some numbers.
49
169780
1600
Néhány számot mondok.
02:51
In a well-known meta-analysis that previous scholars did in 2006,
50
171420
5040
Egy ismert kutatói metaanalízisben 2006-ban megállapították,
02:56
they found that naive judges' accuracy
51
176500
2760
hogy az elfogulatlan bírálók pontossága
02:59
was on average around 54 percent.
52
179300
3320
átlagosan 54% körüli volt.
03:03
Experts perform only slightly better,
53
183900
3280
Szakértők alig jobban teljesítenek,
03:07
with an accuracy rate around 55 percent.
54
187220
3880
55% körüli pontossággal.
03:11
(Laughter)
55
191140
1640
(Nevetés)
03:12
Not that impressive, right?
56
192780
1440
Nem olyan lenyűgöző, igaz?
03:15
And ...
57
195660
1240
Ezek a számok
108 tanulmány eredményeinek elemzéséből származnak,
03:18
Those numbers actually come from the analysis
58
198140
2880
03:21
of the results of 108 studies,
59
201060
2880
ami azt jelenti,
03:23
meaning that these findings are quite robust.
60
203940
2680
hogy a következtetések elég meggyőzők.
03:26
And of course, the debate is also much more complicated than this
61
206620
3840
De a vita ennél sokkal bonyolultabb
03:30
and also more nuanced.
62
210500
1560
és árnyaltabb is.
03:32
But here the main take-home message
63
212100
2360
De a fő tanulság az,
03:34
is that humans are not good at detecting lies.
64
214500
3680
hogy nem vagyunk képesek felismerni a hazugságokat.
03:38
What if we are creating an AI tool
65
218940
4200
Mi lenne, ha MI-eszközt hoznánk létre,
03:43
where everyone can detect if someone else is lying?
66
223180
2920
mellyel észlelhetnénk, hogy valaki hazudik-e?
03:48
This is not possible yet, so please don't panic.
67
228100
2640
Ez még nem lehetséges, ezért kérem, ne essenek pánikba!
03:50
(Laughter)
68
230740
1880
(Nevetés)
03:52
But this is what we tried to do in a recent study
69
232620
3080
De képzett munkatársaimmal
03:55
that I did together with my brilliant colleagues
70
235700
2400
új kutatásunkban ezzel próbálkoztunk.
03:58
whom I need to thank.
71
238140
1720
Köszönet illeti őket.
03:59
And actually, to let you understand what we did in our study,
72
239860
6760
Hogy megértsék, mit vizsgáltunk,
04:06
I need to first introduce you to some technical concepts
73
246620
4440
először pár műszaki fogalmat
04:11
and to the main characters of this story:
74
251100
3080
és a történet főszereplőit kell bemutatnom:
04:15
Large language models.
75
255300
2480
a nagy nyelvi modelleket.
04:17
Large language models are AI systems
76
257780
2360
A nagy nyelvi modellek MI-rendszerek.
04:20
designed to generate outputs in natural language
77
260180
3160
Céljuk természetes válaszok előállítása,
04:23
in a way that almost mimics human communication.
78
263380
2880
melyek az emberi kommunikációra hasonlítanak.
04:27
If you are wondering how we teach these AI systems to detect lies,
79
267340
3840
Ha kíváncsiak arra, hogyan tanítjuk meg az MI-rendszereket hazugságok észlelésére,
04:31
here is where something called fine-tuning comes in.
80
271220
3600
itt kerül elő az ún. finomhangolás.
04:34
But let's use a metaphor.
81
274820
2080
De lássunk erre hasonlatot!
04:36
Imagine large language models being as students
82
276900
3360
Képzeljék el, hogy a nagy nyelvi modellek diákok,
04:40
who have gone through years of school,
83
280300
2360
akik éveken át jártak az iskolába,
04:42
learning a little bit about everything,
84
282660
2160
és mindenről tanulnak,
04:44
such as language, concepts, facts.
85
284820
4080
pl. a nyelvről, fogalmakról, tényekről.
04:48
But when it's time for them to specialize,
86
288900
2840
De amikor eljön az ideje, hogy szakosodjanak,
04:51
like in law school or in medical school,
87
291740
2480
pl. jogra vagy orvostudományra,
már koncentráltabb képzésre van szükségük.
04:54
they need more focused training.
88
294220
1560
04:56
Fine-tuning is that extra education.
89
296900
2440
A finomhangolás a kiegészítő oktatás.
05:00
And of course, large language models don't learn as humans do.
90
300460
3240
Persze a nagy nyelvi modellek nem úgy tanulnak, mint az emberek.
05:03
But this is just to give you the main idea.
91
303700
2320
Pár részlet, hogy jobban megértsék.
05:07
Then, as for training students, you need books, lectures, examples,
92
307740
7000
Diákok képzéséhez könyvek, előadások, példák kellenek,
05:14
for training large language models you need datasets.
93
314740
3480
a nagy nyelvi modellek képzéséhez viszont adatkészletek.
05:19
And for our study we considered three datasets,
94
319180
4240
Kutatásunkhoz három adatkészletet vettünk figyelembe:
05:23
one about personal opinions,
95
323460
2440
egyet a személyes véleményekről,
05:25
one about past autobiographical memories
96
325900
2840
egyet az önéletrajzi emlékekről
05:28
and one about future intentions.
97
328740
2720
és egyet a jövőbeli szándékokról.
05:31
These datasets were already available from previous studies
98
331500
3000
Az adatkészletek korábbi kutatásokból már rendelkezésünkre álltak,
05:34
and contained both truthful and deceptive statements.
99
334540
3040
igaz és megtévesztő állításokat tartalmaztak.
05:39
Typically, you collect these types of statements
100
339140
2240
Az efféle állításokat úgy szoktuk összegyűjteni,
05:41
by asking participants to tell the truth or to lie about something.
101
341420
4280
hogy arra kérjük az alanyokat, valamiről igazat mondjanak vagy hazudjanak.
05:45
For example, if I was a participant in the truthful condition,
102
345700
3680
Ha én pl. az igazmondó feltétel résztvevője lennék,
05:49
and the task was
103
349420
1680
és a feladat az lenne:
05:51
"tell me about your past holidays,"
104
351140
2320
„mesélj az utóbbi nyaralásodról!”,
05:53
then I will tell the researcher about my previous holidays in Vietnam,
105
353500
4600
akkor a kutatónak elmesélem a korábbi vietnámi nyaralásomat,
05:58
and here we have a slide to prove it.
106
358140
1960
és itt van egy dia, amely ezt bizonyítja.
06:01
For the deceptive condition
107
361340
1800
A megtévesztő állapotban véletlenszerűen választanak ki
06:03
they will randomly pick some of you who have never been to Vietnam,
108
363180
3640
pár alanyt, akik sosem jártak Vietnámban,
06:06
and they will ask you to make up a story
109
366820
2240
és arra kérik őket, találjanak ki történetet,
06:09
and convince someone else that you've really been to Vietnam.
110
369100
3200
és győzzenek meg valakit arról, hogy tényleg jártak ott.
06:12
And this is how it typically works.
111
372340
1960
Ez általában így működik.
06:16
And as in all university courses, you might know this,
112
376500
4480
Mint az egyetemen,
06:21
after lectures you have exams.
113
381020
2440
előadások után vizsgák vannak.
06:23
And likewise after training our AI models,
114
383500
3840
MI-modelljeinket kiképzésük után
06:27
we would like to test them.
115
387380
1360
szeretnénk tesztelni.
06:29
And the procedure that we followed,
116
389500
1920
Az eljárásunk
06:31
that is actually the typical one, is the following.
117
391460
3200
tipikusan a következő.
06:34
So we picked some statements randomly from each dataset
118
394660
4960
Véletlenszerűen kiválasztottunk pár állítást az adatkészletekből,
06:39
and we took them apart.
119
399620
1480
és szétszedtük őket.
06:41
So the model never saw these statements during the training phase.
120
401140
3760
A képzési szakaszban a modell sosem találkozott ezekkel az állításokkal.
06:44
And only after the training was completed,
121
404900
2960
Csak a képzés befejezése után tesztként,
06:47
we used them as a test, as the final exam.
122
407860
2880
záróvizsgáként használtuk őket.
06:52
But who was our student then?
123
412540
2240
De ki volt akkor a tanítványunk?
06:55
In this case, it was a large language model
124
415660
2600
Ez esetben a nagy nyelvi modell volt,
amelyet a Google fejlesztett ki,
06:58
developed by Google
125
418300
1400
06:59
and called FLAN-T5.
126
419700
1920
és FLAN-T5 névre keresztelt.
07:01
Flanny, for friends.
127
421620
1840
Barátoknak csak Flanny.
07:03
And now that we have all the pieces of the process together,
128
423500
4400
Most, hogy a folyamat minden darabja együtt van,
07:07
we can actually dig deep into our study.
129
427900
2440
kitérhetünk kutatásunk részleteire is,
07:12
Our study was composed by three main experiments.
130
432100
4480
ami három fő kísérletből állt.
07:17
For the first experiment, we fine-tuned our model, our FLAN-T5,
131
437500
5120
Az elsőben modellünket, a FLAN-T5-öt, finomhangoltuk
07:22
on each single dataset separately.
132
442620
2920
minden egyes adatkészletre külön-külön.
07:27
For the second experiment,
133
447700
1920
A másodikban két pár adatkészletre
07:29
we fine-tuned our model on two pairs of datasets together,
134
449620
4680
finomhangoltuk modellünket,
07:34
and we tested it on the third remaining one,
135
454340
2920
a harmadik elemen teszteltük,
07:37
and we used all three possible combinations.
136
457300
2520
és mindhárom lehetséges kombinációt használtuk.
07:41
For the last final experiment,
137
461380
2120
Az utolsó kísérlethez új, nagyobb képzési tesztkészlettel
07:43
we fine-tuned the model on a new, larger training test set
138
463540
3760
finomhangoltuk a modellt.
07:47
that we obtained by combining all the three datasets together.
139
467340
3160
Az új készletet mindhárom adatkészlet összekapcsolásával kaptuk.
07:52
The results were quite interesting
140
472380
2880
Az eredmények érdekesek voltak,
07:55
because what we found was that in the first experiment,
141
475300
4000
mert kiderült, hogy az első kísérletben
07:59
FLAN-T5 achieved an accuracy range between 70 percent and 80 percent.
142
479340
6080
a FLAN-T5 70–80% közötti pontosságot ért el.
08:06
However, in the second experiment,
143
486460
2880
De a második kísérletben
08:09
FLAN-T5 dropped its accuracy to almost 50 percent.
144
489380
4640
a FLAN-T5 pontossága csaknem 50%-ra csökkent.
08:15
And then, surprisingly, in the third experiment,
145
495380
3080
Aztán meglepetésünkre a harmadik kísérletben
08:18
FLAN-T5 rose back to almost 80 percent.
146
498500
3800
pontossága majdnem 80%-ra nőtt.
08:23
But what does this mean?
147
503780
2320
Mit jelent ez?
08:26
What can we learn from these results?
148
506140
3680
Milyen következtetést vonhatunk le az eredményekből?
08:31
From experiment one and three
149
511100
2360
Az első és a harmadik kísérletből
08:33
we learn that language models
150
513500
2280
megtudjuk, hogy a nyelvi modellek
08:35
can effectively classify statements as deceptive,
151
515780
4240
hatékonyan képesek állításokat megtévesztőnek minősíteni,
08:40
outperforming human benchmarks
152
520060
2120
felülmúlva az emberi referenciaértékeket,
08:42
and aligning with previous machine learning
153
522220
2240
és összhangban állnak a korábbi gépi tanulási
08:44
and deep learning models
154
524500
1280
és mélytanulási modellekkel,
08:45
that previous studies trained on the same datasets.
155
525780
2440
melyeket korábbi tanulmányok azonos adatkészleteken képeztek.
08:49
However, from the second experiment,
156
529540
2520
De a második kísérletből azt látjuk,
08:52
we see that language models struggle
157
532100
2920
hogy a nyelvi modellek küzdenek
08:55
in generalizing this knowledge, this learning across different contexts.
158
535060
4400
a tudás eltérő kontextusokban való általánosításával.
09:00
And this is apparently because
159
540380
2960
Ez nyilvánvalóan azért van,
mert a megtévesztésre nincsen minden kontextusban
09:03
there is no one single universal rule of deception
160
543380
3120
09:06
that we can easily apply in every context,
161
546540
3400
könnyen alkalmazható egyetlen egyetemes szabály,
09:09
but linguistic cues of deception are context-dependent.
162
549940
3920
mert a megtévesztés nyelvi jelei kontextusfüggők.
09:15
And from the third experiment,
163
555820
2520
A harmadik kísérletből megtudtuk,
09:18
we learned that actually language models
164
558380
2640
hogy a nyelvi modellek eltérő kontextusokban
09:21
can generalize well across different contexts,
165
561060
3280
jól általánosítanak,
09:24
if only they have been previously exposed to examples
166
564380
4160
ha korábban példákat láttak
09:28
during the training phase.
167
568580
2080
a képzési szakaszban.
09:30
And I think this sounds as good news.
168
570660
2360
Ez jó hírnek hangzik, bár ez azt jelenti,
09:34
But while this means that language models can be effectively applied
169
574660
6400
hogy a nyelvi modellek hatékonyan használhatók a hazugság észlelésében
09:41
for real-life applications in lie detection,
170
581100
3000
valós alkalmazásokhoz, de több ismétlés szükséges,
09:44
more replication is needed because a single study is never enough
171
584140
4040
mert egyetlen tanulmány kevés ahhoz,
09:48
so that from tomorrow we can all have these AI systems on our smartphones,
172
588220
4640
hogy holnaptól az MI-rendszereket okostelefonunkon használva
09:52
and start detecting other people's lies.
173
592860
2400
észleljük mások hazugságait.
09:56
But as a scientist, I have a vivid imagination
174
596740
2880
De tudósként élénk a képzeletem,
09:59
and I would like to dream big.
175
599620
1880
és nagyot szeretnék álmodni.
10:01
And also I would like to bring you with me in this futuristic journey for a while.
176
601540
4200
Szeretném magammal vinni önöket erre a futurisztikus utazásra.
10:05
So please imagine with me living in a world
177
605740
3440
Képzeljük el, hogy olyan világban élünk,
ahol a hazugságvizsgáló technológia jól beépült életünkbe,
10:09
where this lie detection technology is well-integrated in our life,
178
609220
4200
így a nemzetbiztonságtól kezdve a közösségi médiáig
10:13
making everything from national security to social media a little bit safer.
179
613460
4840
mindent egy kicsit biztonságosabbá tett.
10:19
And imagine having this AI system that could actually spot fake opinions.
180
619180
4840
Képzeljék el, hogy az MI a hamis véleményeket felismeri.
10:24
From tomorrow, we could say
181
624060
2600
Holnaptól kiderül,
10:26
when a politician is actually saying one thing
182
626660
3320
ha egy politikus vizet prédikál,
10:30
and truly believes something else.
183
630020
1880
de bort iszik.
10:31
(Laughter)
184
631900
1280
(Nevetés)
10:34
And what about the security board context
185
634780
2600
De mi a helyzet a biztonsági szolgálat kontextusával,
10:37
where people are asked about their intentions and reasons
186
637420
3240
ahol szándékunkat tudakolják:
10:40
for why they are crossing borders or boarding planes.
187
640660
5360
mi célból lépjük át a határt, vagy szállunk repülőre?
10:46
Well, with these systems,
188
646900
1440
E rendszerekkel tényleg észlelhetjük
10:48
we could actually spot malicious intentions
189
648380
2760
a sanda szándékokat,
10:51
before they even happen.
190
651180
1320
még megtörténtük előtt.
10:54
And what about the recruiting process?
191
654780
2400
De mi van a toborzási folyamattal?
10:57
(Laughter)
192
657900
1280
(Nevetés)
10:59
We heard about this already.
193
659220
2080
Erről már hallottunk.
11:01
But actually, companies could employ this AI
194
661340
3360
De a cégek alkalmazhatják az MI-t,
11:04
to distinguish those who are really passionate about the role
195
664700
3760
hogy elkülönítsék azokat, akik komolyan veszik a felkínált szerepet azoktól,
11:08
from those who are just trying to say the right things to get the job.
196
668500
3320
akik csak elvárt válaszokat adnak, hogy elnyerjék az állást.
11:13
And finally, we have social media.
197
673580
1920
Végül a közösségi média.
11:16
Scammers trying to deceive you or to steal your identity.
198
676180
3560
Csalók, akik próbálnak becsapni, vagy ellopni személyazonosságunkat.
11:19
All gone.
199
679740
2080
Minden eltűnik!
11:21
And someone else may claim something about fake news,
200
681820
2520
Ha valaki álhíreket közöl,
11:24
and well, perfectly, language model could automatically read the news,
201
684380
4120
a nyelvi modell teljesen automatikusan elolvassa a híreket,
11:28
flag them as deceptive or fake,
202
688540
3160
és becsapósnak vagy álhírnek jelöli őket,
11:31
and we could even provide users with a credibility score
203
691700
3960
és akár hitelességi pontszámot is adhatunk a felhasználóknak
11:35
for the information they read.
204
695660
1560
az elolvasott információért.
11:38
It sounds like a brilliant future, right?
205
698460
2400
Ragyogó jövőnek hangzik, igaz?
11:42
(Laughter)
206
702060
1720
(Nevetés)
11:44
Yes, but ...
207
704580
1240
Igen,
11:47
all great progress comes with risks.
208
707060
2680
de minden nagy előrelépés kockázatokkal jár.
11:51
As much as I'm excited about this future,
209
711300
3200
Bármennyire lelkes vagyok is e jövő miatt,
11:54
I think we need to be careful.
210
714540
2240
azt hiszem, óvatosnak kell lennünk.
11:58
If we are not cautious, in my view,
211
718300
2880
Ha nem vagyunk óvatosak,
12:01
we could end up in a world
212
721220
1680
olyan világba kerülhetünk,
12:02
where people might just blindly believe AI outputs.
213
722900
3200
ahol vakon hiszünk az MI kimeneteiben.
12:07
And I'm afraid this means that people will just be more likely
214
727700
4000
Attól tartok, hogy valószínűbben vádolnak másokat hazugsággal az emberek,
12:11
to accuse others of lying just because an AI says so.
215
731700
3880
12:17
And I'm not the only one with this view
216
737540
2400
Ez nem csak az én nézetem,
12:19
because another study already proved it.
217
739940
2400
mert egy kutatás ezt már bizonyította.
12:24
In addition, if we totally rely on this lie detection technology
218
744620
4560
Ráadásul, ha teljesen e hazugságvizsgáló technológiára támaszkodunk,
12:29
to say someone else is lying or not,
219
749220
2680
hogy valaki hazudik-e, azt kockáztatjuk,
12:31
we risk losing another important key value in society.
220
751900
3520
hogy társadalmunk kulcsfontosságú értékét veszítjük el.
12:36
We lose trust.
221
756500
1240
Elveszítjük a bizalmat.
12:38
We won't need to trust people anymore,
222
758740
1840
Nem kell többé bíznunk senkiben,
12:40
because what we will do is just ask an AI to double check for us.
223
760580
4160
mert elég lesz megkérni az MI-t, hogy duplán ellenőrizze le az illetőt.
12:47
But are we really willing to blindly believe AI
224
767380
3880
De vajon tényleg hajlandók vagyunk-e vakon hinni az MI-nek,
12:51
and give up our critical thinking?
225
771300
2240
és kritikus gondolkodásunkat feladni?
12:55
I think that's the future we need to avoid.
226
775020
2160
Ezt a jövőt el kell kerülnünk.
13:00
With hope for the future is more interpretability.
227
780220
3840
A jövő reménye a jobb értelmezhetőség.
13:04
And I'm about to tell you what I mean.
228
784100
2080
Elmondom, mire gondolok.
13:06
Similar to when we look at reviews online,
229
786220
2920
Hasonlóan, mint amikor online véleményeket nézünk,
13:09
and we can both look at the total number of stars at places,
230
789180
3920
és megnézhetjük, hány csillagot kaptak a helyszínek,
13:13
but also we can look more in detail at the positive and negative reviews,
231
793140
4920
de részletesebben is megnézhetjük a pozitív és negatív véleményeket,
13:18
and try to understand what are the positive sides,
232
798100
2640
és így megérthetjük, mi a pozitív oldala,
13:20
but also what might have gone wrong,
233
800740
2920
de azt is, hogy mit kifogásoltak,
13:23
to eventually create our own and personal idea
234
803660
3600
hogy végül saját elképzelésünket alakítsuk ki,
13:27
if that is the place where we want to go,
235
807300
2360
hogy szeretnénk-e elmenni
13:29
where we want to be.
236
809660
1240
arra a helyre.
13:32
Likewise, imagine a world where AI doesn't just offer conclusions,
237
812020
4520
Olyan világot képzeljünk el, ahol az MI nemcsak döntéseket kínál,
13:36
but also provides clear and understandable explanations
238
816580
3600
hanem egyértelműen és érthetően
meg is magyarázza döntései okát.
13:40
behind its decisions.
239
820220
1520
13:43
And I envision a future
240
823140
2200
Olyan jövőt képzelek el,
ahol a hazugságészlelési technológia
13:45
where this lie detection technology
241
825380
2240
13:47
wouldn't just provide us with a simple judgment,
242
827620
3480
nemcsak egyszerű ítéletet nyújt nekünk,
hanem világos magyarázatot is ad arra, vajon miért gondolja, hogy valaki hazudik.
13:51
but also with clear explanations for why it thinks someone else is lying.
243
831140
3960
13:57
And I would like a future where, yes,
244
837660
2960
Olyan jövőt szeretnék,
14:00
this lie detection technology is integrated in our life,
245
840620
3360
ahol e technológia beépült az életünkbe,
14:04
or also AI technology in general,
246
844020
3920
vagy általában az MI-technológia elterjed,
14:07
but still, at the same time,
247
847940
2480
de ugyanakkor képesek vagyunk
14:10
we are able to think critically
248
850460
2680
kritikusan gondolkodni és eldönteni,
14:13
and decide when we want to trust in AI judgment
249
853180
3520
mikor akarunk bízni az MI megítélésében,
14:16
or when we want to question it.
250
856700
1760
vagy mikor kezeljük kétségekkel.
14:20
To conclude,
251
860660
1840
Végezetül, úgy gondolom,
14:22
I think the future of using AI for lie detection
252
862540
4320
hogy az MI hazugságészlelésre való felhasználásának jövője
14:26
is not just about technological advancement,
253
866860
3920
nemcsak a technológiai fejlődésről szól,
14:30
but about enhancing our understanding and fostering trust.
254
870780
3880
hanem a megértésünk javításáról és a bizalom előmozdításáról;
14:35
It's about developing tools that don't replace human judgment
255
875940
3760
olyan eszközök kifejlesztéséről, amelyek nem helyettesítik,
14:39
but empower it,
256
879700
1720
hanem erősítik az emberi megítélést,
14:41
ensuring that we remain at the helm.
257
881460
2240
hogy továbbra is mi irányítsunk.
14:45
Don't step into a future with blind reliance on technology.
258
885220
3640
Ne bízzunk vakon a technológiában!
14:49
Let's commit to deep understanding and ethical use,
259
889940
3880
Kötelezzük el magunkat a mély megértés és az etikus használat mellett,
14:53
and we'll pursue the truth.
260
893820
1520
és törekedjünk az igazságra!
14:56
(Applause)
261
896620
1080
(Taps)
14:57
Thank you.
262
897700
1240
Köszönöm.
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7