What if AI Could Spot Your Lies? | Riccardo Loconte | TED

39,901 views ・ 2025-02-08

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Nigar Mancini Gözden geçirme: Eren Gokce
00:04
This is something you won't like.
0
4260
2560
Bu pek hoşunuza gitmeyecek.
00:06
But here everyone is a liar.
1
6820
3400
Ama burada herkes yalancı.
(Gülüşmeler)
00:12
Don't take it too personally.
2
12540
1880
Çok fazla üzerinize alınmayın.
00:14
What I mean is that lying is very common
3
14460
3320
Asıl söylemek istediğim çok yaygın olarak yalan söylendiği
00:17
and it is now well-established that we lie on a daily basis.
4
17780
4480
ve her gün yalan söylediğimiz artık iyice kanıtlandı.
00:22
Indeed, scientists have estimated that we tell around two lies per day,
5
22300
4920
Bilim adamları günde yaklaşık iki yalan söylediğimizi tahmin ediyor
00:27
although, of course, it's not that easy to establish those numbers with certainty.
6
27260
3880
ancak elbette bu sayıları kesin olarak belirlemek o kadar kolay değil.
00:32
And, well, I introduce myself.
7
32180
2040
Artık kendimi tanıtayım.
00:34
I'm Riccardo, I'm a psychologist and a PhD candidate,
8
34260
4280
Ben Riccardo, psikoloğum ve doktora araştırmam için
00:38
and for my research project I study how good are people at detecting lies.
9
38580
5400
insanların yalanları tespit etmede ne kadar başarılı olduklarını inceliyorum.
00:44
Seems cool, right? But I'm not joking.
10
44020
2040
Havalı değil mi? Ama şaka yapmıyorum.
00:47
And you might wonder why a psychologist was then invited
11
47180
4640
Neden bir psikoloğun yapay zekâ hakkında bir TED konuşması
00:51
to give a TED Talk about AI.
12
51820
2080
yapmaya davet edildiğini merak edebilirsiniz.
00:55
And well, I'm here today
13
55660
1400
Bugün burada olma nedenim
00:57
because I'm about to tell you how AI could be used to detect lies.
14
57100
6000
yapay zekânın yalanı tespit etmek için nasıl kullanılabileceğini anlatmak.
01:03
And you will be very surprised by the answer.
15
63140
2240
Ve bunun cevabı sizi çok şaşırtacak.
01:06
But first of all, when is it relevant to detect lies?
16
66500
4040
Ama her şeyden önce, yalanları tespit etmek ne zaman önemli?
01:12
A first clear example that comes to my mind
17
72420
2800
Aklıma gelen ilk net örnek cezai soruşturmalar.
01:15
is in the criminal investigation field.
18
75260
2040
01:18
Imagine you are a police officer and you want to interview a suspect.
19
78340
4920
Bir polis memuru olduğunuzu ve bir şüpheliyle görüştüğünüzü hayal edin.
01:23
And the suspect is providing some information to you.
20
83300
3520
Şüpheli size bazı bilgiler veriyor.
01:26
And this information is actually leading to the next steps of the investigation.
21
86820
4080
Ve bu bilgiler aslında soruşturmanın sonraki adımlarına götürüyor.
01:31
We certainly want to understand if the suspect is reliable
22
91940
4400
Şüphelinin güvenilir olup olmadığını veya bizi kandırmaya çalışıp çalışmadığını
01:36
or if they are trying to deceive us.
23
96380
2280
kesinlikle anlamak istiyoruz.
01:40
Then another example comes to my mind,
24
100740
2680
Sonra aklıma başka bir örnek geliyor
01:43
and I think this really affects all of us.
25
103460
2000
ve bence bu gerçekten hepimizi etkiler.
01:46
So please raise your hands
26
106220
2040
Partnerinizin sizi aldatıp aldatmadığını öğrenmek istiyorsanız el kaldırın.
01:48
if you would like to know if your partner cheated on you.
27
108300
3840
01:52
(Laughter)
28
112180
1080
(Kahkahalar)
01:53
And don't be shy because I know.
29
113300
1920
Utanmayın çünkü zaten biliyorum.
01:55
(Laughter)
30
115260
1360
(Kahkahalar)
01:56
Yeah. You see?
31
116620
1240
Evet. Gördünüz mü?
01:59
It's very relevant.
32
119580
1720
Çok mantıklı.
02:02
However, I have to have to say that we as humans
33
122340
2840
Ancak, insanların yalanları tespit etmede çok kötü olduğunu söylemeliyim.
02:05
are very bad at detecting lies.
34
125220
2240
02:08
In fact, many studies have already confirmed
35
128420
2800
Aslında, birçok çalışma, insanlardan o kişi veya bağlam hakkında
02:11
that when people are asked to judge
36
131260
2840
fazla bilgi sahibi olmadan bir kişinin yalan söyleyip söylemediğini
02:14
if someone is lying or not
37
134140
1760
02:15
without knowing much about that person or the context,
38
135900
3760
yargılamaları istendiğinde,
doğru tahmin etme olasılığının sadece şans seviyesinde olduğunu
02:19
people's accuracy is no better than the chance level,
39
139660
3800
yani yazı tura atmakla aynı seviyede olduğunu doğrulamıştır.
02:23
about the same as flipping a coin.
40
143500
1720
02:27
You might also wonder
41
147300
1360
Polisler, savcılar, uzmanlar
02:28
if experts, such as police officers, prosecutors, experts
42
148660
5120
ve hatta psikolog gibi profesyonellerin yalanları tespit etmede
02:33
and even psychologists
43
153780
1480
daha başarılı olup olmadıklarını da merak edebilirsiniz.
02:35
are better at detecting lies.
44
155300
1760
02:37
And the answer is complex,
45
157860
1520
Bunun cevabı karmaşık,
02:39
because experience alone doesn't seem to be enough
46
159420
3760
çünkü tek başına deneyim yalanları doğru bir şekilde tespit etmeye
02:43
to help detect lies accurately.
47
163220
2400
yardımcı olmak için yeterli görünmüyor.
02:45
It might help, but it's not enough.
48
165620
2200
Yardımcı olabilir ama yeterli değil.
02:49
To give you some numbers.
49
169780
1600
Bazı rakamlar verecek olursam,
02:51
In a well-known meta-analysis that previous scholars did in 2006,
50
171420
5040
araştırmacıların 2006′da yaptığı iyi bilinen bir meta analizde,
02:56
they found that naive judges' accuracy
51
176500
2760
naif yargıçların doğruluk payının ortalama %54 civarında olduğu bulundu.
02:59
was on average around 54 percent.
52
179300
3320
03:03
Experts perform only slightly better,
53
183900
3280
Uzmanlar %55 civarında bir doğruluk oranı ile
03:07
with an accuracy rate around 55 percent.
54
187220
3880
sadece bir nebze daha iyi performans gösteriyor.
03:11
(Laughter)
55
191140
1640
(Kahkahalar)
03:12
Not that impressive, right?
56
192780
1440
O kadar da etkileyici değil, değil mi?
03:15
And ...
57
195660
1240
Ve...
03:18
Those numbers actually come from the analysis
58
198140
2880
Bu rakamlar aslında yapılan 108 araştırmanın sonuçları
03:21
of the results of 108 studies,
59
201060
2880
analiz edilerek elde edildi,
03:23
meaning that these findings are quite robust.
60
203940
2680
bu da bulguların oldukça sağlam olduğu anlamına geliyor.
03:26
And of course, the debate is also much more complicated than this
61
206620
3840
Tabii ki tartışma bundan çok daha karmaşık ve detaylı.
03:30
and also more nuanced.
62
210500
1560
03:32
But here the main take-home message
63
212100
2360
Ancak burada ana mesaj,
03:34
is that humans are not good at detecting lies.
64
214500
3680
insanların yalanı tespit etmede başarılı olmadığıdır.
03:38
What if we are creating an AI tool
65
218940
4200
Peki ya herkesin başka birinin yalan söyleyip söylemediğini tespit edebileceği
03:43
where everyone can detect if someone else is lying?
66
223180
2920
bir yapay zekâ aracı oluşturuyorsak?
03:48
This is not possible yet, so please don't panic.
67
228100
2640
Bu henüz mümkün değil, o yüzden rahat olun.
03:50
(Laughter)
68
230740
1880
(Kahkahalar)
03:52
But this is what we tried to do in a recent study
69
232620
3080
Ama teşekkürü borç bildiğim parlak meslektaşlarımla birlikte
03:55
that I did together with my brilliant colleagues
70
235700
2400
yakın tarihte yürüttüğümüz bir araştırmada yapmaya çalıştığımız şey buydu.
03:58
whom I need to thank.
71
238140
1720
03:59
And actually, to let you understand what we did in our study,
72
239860
6760
Çalışmamızda ne yaptığımızı anlayabilmeniz için,
04:06
I need to first introduce you to some technical concepts
73
246620
4440
önce sizi bazı teknik kavramlarla
04:11
and to the main characters of this story:
74
251100
3080
ve bu hikâyenin ana karakterleriyle tanıştırmalıyım:
04:15
Large language models.
75
255300
2480
Büyük dil modelleri.
04:17
Large language models are AI systems
76
257780
2360
Büyük dil modelleri, insan iletişimini neredeyse taklit edecek şekilde
04:20
designed to generate outputs in natural language
77
260180
3160
doğal dilde çıktılar üretmek için
04:23
in a way that almost mimics human communication.
78
263380
2880
tasarlanmış yapay zekâ sistemleridir.
04:27
If you are wondering how we teach these AI systems to detect lies,
79
267340
3840
Bu YZ sistemlerine yalanı tespit etmeyi nasıl öğrettiğimizi merak ediyorsanız,
04:31
here is where something called fine-tuning comes in.
80
271220
3600
burada ince ayar adı verilen bir şey devreye giriyor.
04:34
But let's use a metaphor.
81
274820
2080
Ama bir metafor kullanalım.
04:36
Imagine large language models being as students
82
276900
3360
Büyük dil modellerini yıllarca okula giden
04:40
who have gone through years of school,
83
280300
2360
dil, kavramlar, olgular gibi her şey hakkında az miktarda
04:42
learning a little bit about everything,
84
282660
2160
bir şeyler öğrenen öğrenciler olarak hayal edin.
04:44
such as language, concepts, facts.
85
284820
4080
04:48
But when it's time for them to specialize,
86
288900
2840
Ancak hukuk veya tıp fakültesinde uzmanlaşma zamanı geldiğinde,
04:51
like in law school or in medical school,
87
291740
2480
04:54
they need more focused training.
88
294220
1560
daha odaklanmış eğitime gereksinim duyarlar.
04:56
Fine-tuning is that extra education.
89
296900
2440
İnce ayar bu ekstra eğitimdir.
05:00
And of course, large language models don't learn as humans do.
90
300460
3240
Elbette, büyük dil modelleri insanlar gibi öğrenmez.
05:03
But this is just to give you the main idea.
91
303700
2320
Bu örnek sadece ana fikri kavramanız için.
05:07
Then, as for training students, you need books, lectures, examples,
92
307740
7000
Daha sonra, öğrencileri eğitmek için kitaplar, dersler, örnekler kullanılır,
05:14
for training large language models you need datasets.
93
314740
3480
büyük dil modellerini eğitmek için ise veri kümelerine ihtiyacınız var.
05:19
And for our study we considered three datasets,
94
319180
4240
Biz çalışmamız için üç veri kümesini dikkate aldık,
05:23
one about personal opinions,
95
323460
2440
biri kişisel görüşler hakkında,
05:25
one about past autobiographical memories
96
325900
2840
biri geçmiş otobiyografik anılar
05:28
and one about future intentions.
97
328740
2720
ve diğeri gelecekteki niyetler hakkında.
05:31
These datasets were already available from previous studies
98
331500
3000
Bu veri kümeleri önceki çalışmalardan zaten mevcuttu
05:34
and contained both truthful and deceptive statements.
99
334540
3040
ve hem doğru hem de aldatıcı ifadeler içeriyordu.
05:39
Typically, you collect these types of statements
100
339140
2240
Genel olarak bu tür ifadeler, katılımcalardan bir konuda
05:41
by asking participants to tell the truth or to lie about something.
101
341420
4280
doğruyu ya da yalan söylemeleri istenerek toplanır.
05:45
For example, if I was a participant in the truthful condition,
102
345700
3680
Örneğin, doğruyu söylemesi beklenen bir katılımcı olsam
05:49
and the task was
103
349420
1680
ve görev “bana geçmiş tatillerini anlat” olsa,
05:51
"tell me about your past holidays,"
104
351140
2320
05:53
then I will tell the researcher about my previous holidays in Vietnam,
105
353500
4600
araştırmacıya geçmişte Vietnam’da yaptığım tatillerden bahsederim
05:58
and here we have a slide to prove it.
106
358140
1960
ve burada bunu kanıtlayan bir slayt var.
06:01
For the deceptive condition
107
361340
1800
Yalan söyleme durumu için, aranızdan hiç Vietnam’a gitmemiş
06:03
they will randomly pick some of you who have never been to Vietnam,
108
363180
3640
birkaç kişiyi rastgele seçerler ve sizden bir hikâye uydurmanızı
06:06
and they will ask you to make up a story
109
366820
2240
06:09
and convince someone else that you've really been to Vietnam.
110
369100
3200
ve başka birini gerçekten Vietnam’da bulunduğunuza ikna etmenizi isterler.
06:12
And this is how it typically works.
111
372340
1960
Genel olarak sistem böyle işler.
06:16
And as in all university courses, you might know this,
112
376500
4480
Tüm üniversite eğitimlerinde olduğu gibi, muhtemelen bildiğiniz üzere,
06:21
after lectures you have exams.
113
381020
2440
derslerden sonra sınav yapılır.
06:23
And likewise after training our AI models,
114
383500
3840
Aynı şekilde yapay zekâ modellerimizi eğittikten sonra,
06:27
we would like to test them.
115
387380
1360
onları test etmek isteriz.
06:29
And the procedure that we followed,
116
389500
1920
Ve tipik olarak izlenen ve bizimde izlediğimiz prosedür şöyledir.
06:31
that is actually the typical one, is the following.
117
391460
3200
06:34
So we picked some statements randomly from each dataset
118
394660
4960
Her veri kümesinden rastgele ifadeler seçtik ve bunları ayırdık.
06:39
and we took them apart.
119
399620
1480
06:41
So the model never saw these statements during the training phase.
120
401140
3760
Dolayısıyla model eğitim aşamasında bu ifadeleri hiç görmedi.
06:44
And only after the training was completed,
121
404900
2960
Ancak eğitim tamamlandıktan sonra,
06:47
we used them as a test, as the final exam.
122
407860
2880
onları final sınavı olarak, test etmek için kullandık.
06:52
But who was our student then?
123
412540
2240
Peki öğrencimiz kimdi?
06:55
In this case, it was a large language model
124
415660
2600
Bu araştırmada, Google tarafından geliştirilen
06:58
developed by Google
125
418300
1400
ve FLAN-T5 adı verilen büyük bir dil modeliydi.
06:59
and called FLAN-T5.
126
419700
1920
07:01
Flanny, for friends.
127
421620
1840
Arkadaşlar arasında Flanny.
07:03
And now that we have all the pieces of the process together,
128
423500
4400
Ve şimdi sürecin tüm parçalarını bir araya getirdiğimize göre,
07:07
we can actually dig deep into our study.
129
427900
2440
çalışmamızın derinliklerine inebiliriz.
07:12
Our study was composed by three main experiments.
130
432100
4480
Çalışmamız üç ana deneyden oluştu.
07:17
For the first experiment, we fine-tuned our model, our FLAN-T5,
131
437500
5120
İlk deney için, modelimiz FLAN-T5′e
07:22
on each single dataset separately.
132
442620
2920
her bir veri kümesinde ayrı ayrı ince ayar yaptık.
07:27
For the second experiment,
133
447700
1920
İkinci deney için,
07:29
we fine-tuned our model on two pairs of datasets together,
134
449620
4680
modelimize iki çift veri kümesi üzerinde birlikte ince ayar yaptık
07:34
and we tested it on the third remaining one,
135
454340
2920
onu üçüncü veri kümesi üzerinde
07:37
and we used all three possible combinations.
136
457300
2520
üç olası kombinasyonu da kullanarak test ettik.
07:41
For the last final experiment,
137
461380
2120
Son deney için,
07:43
we fine-tuned the model on a new, larger training test set
138
463540
3760
üç veri kümesini de bir araya getirerek elde ettiğimiz yeni ve daha büyük bir
07:47
that we obtained by combining all the three datasets together.
139
467340
3160
eğitim test seti üzerinde modeli ince ayarladık.
07:52
The results were quite interesting
140
472380
2880
Sonuçlar oldukça ilginçti.
07:55
because what we found was that in the first experiment,
141
475300
4000
Çünkü ilk deneyde FLAN-T5′in
07:59
FLAN-T5 achieved an accuracy range between 70 percent and 80 percent.
142
479340
6080
%70 ile %80 arasında bir doğruluk aralığı elde ettiğini bulduk.
08:06
However, in the second experiment,
143
486460
2880
İkinci deneyde ise,
08:09
FLAN-T5 dropped its accuracy to almost 50 percent.
144
489380
4640
FLAN-T5′in doğruluğu neredeyse %50′ye düştü.
08:15
And then, surprisingly, in the third experiment,
145
495380
3080
Ve sonra, şaşırtıcı bir şekilde, üçüncü deneyde
08:18
FLAN-T5 rose back to almost 80 percent.
146
498500
3800
FLAN-T5 neredeyse yüzde 80'e yükseldi.
08:23
But what does this mean?
147
503780
2320
Ama bu ne anlama geliyor?
08:26
What can we learn from these results?
148
506140
3680
Bu sonuçlardan ne öğrenebiliriz?
08:31
From experiment one and three
149
511100
2360
Birinci ve üçüncü deneylerden,
08:33
we learn that language models
150
513500
2280
dil modellerinin ifadeleri aldatıcı olarak etkili bir şekilde sınıflandırabildiğini,
08:35
can effectively classify statements as deceptive,
151
515780
4240
insan ölçütlerinden daha iyi performans gösterdiğini
08:40
outperforming human benchmarks
152
520060
2120
ve önceki çalışmaların aynı veri kümeleri üzerinde eğittiği
08:42
and aligning with previous machine learning
153
522220
2240
08:44
and deep learning models
154
524500
1280
önceki makine öğrenimi ve derin öğrenme modelleriyle
08:45
that previous studies trained on the same datasets.
155
525780
2440
uyumlu olduğunu öğreniyoruz.
08:49
However, from the second experiment,
156
529540
2520
Bununla birlikte, ikinci deneyden,
08:52
we see that language models struggle
157
532100
2920
dil modellerinin bu bilgiyi, bu öğrenimi
08:55
in generalizing this knowledge, this learning across different contexts.
158
535060
4400
farklı bağlamlarda genelleştirmede zorluk yaşadığını görüyoruz.
09:00
And this is apparently because
159
540380
2960
Çünkü görünüşe göre bunun nedeni
09:03
there is no one single universal rule of deception
160
543380
3120
her bağlamda kolayca uygulayabileceğimiz
09:06
that we can easily apply in every context,
161
546540
3400
tek bir evrensel kandırma kuralının olmaması,
09:09
but linguistic cues of deception are context-dependent.
162
549940
3920
ancak dilsel kandırma ipuçlarının bağlama bağlı olmasıdır.
09:15
And from the third experiment,
163
555820
2520
Ve üçüncü deneyden öğrendiğimiz, aslında dil modellerinin
09:18
we learned that actually language models
164
558380
2640
09:21
can generalize well across different contexts,
165
561060
3280
eğitim aşamasında daha önce örneklere maruz kalmaları hâlinde,
09:24
if only they have been previously exposed to examples
166
564380
4160
farklı bağlamlar arasında iyi genelleme yapabildiğidir.
09:28
during the training phase.
167
568580
2080
09:30
And I think this sounds as good news.
168
570660
2360
Ve bence bu iyi bir haber.
09:34
But while this means that language models can be effectively applied
169
574660
6400
Ancak bu, dil modellerinin yalan tespitinde
gerçek hayat uygulamaları için etkili olabileceği anlamına gelse de,
09:41
for real-life applications in lie detection,
170
581100
3000
09:44
more replication is needed because a single study is never enough
171
584140
4040
yarından itibaren akıllı telefonlarımızda bu YZ sistemleri ile başkalarının
09:48
so that from tomorrow we can all have these AI systems on our smartphones,
172
588220
4640
yalanlarını tespit etmeye başlayabilmemiz için
tek bir çalışma asla yeterli olmaz ve daha fazla tekrara gerek vardır.
09:52
and start detecting other people's lies.
173
592860
2400
09:56
But as a scientist, I have a vivid imagination
174
596740
2880
Ancak bir bilim insanı olarak, geniş bir hayal gücüm var
09:59
and I would like to dream big.
175
599620
1880
ve büyük düşünmeyi seviyorum.
10:01
And also I would like to bring you with me in this futuristic journey for a while.
176
601540
4200
Ayrıca bu fütüristik yolculukta sizi de bir süreliğine yanımda götürmek istiyorum.
10:05
So please imagine with me living in a world
177
605740
3440
Lütfen benimle birlikte bu yalan tespit etme teknolojisinin
10:09
where this lie detection technology is well-integrated in our life,
178
609220
4200
hayatımıza iyice entegre olduğu, ulusal güvenlikten sosyal medyaya kadar
10:13
making everything from national security to social media a little bit safer.
179
613460
4840
her şeyi daha güvenli hâle getirdiği bir dünyada yaşadığınızı hayal edin.
10:19
And imagine having this AI system that could actually spot fake opinions.
180
619180
4840
Sahte fikirleri gerçekten tespit edebilen yapay zekâya sahip olduğunuzu hayal edin.
10:24
From tomorrow, we could say
181
624060
2600
Yarından itibaren, bir politikacının
10:26
when a politician is actually saying one thing
182
626660
3320
söylediği şeye gerçekten inanıp inanmadığını anlayabiliriz.
10:30
and truly believes something else.
183
630020
1880
10:31
(Laughter)
184
631900
1280
(Kahkahalar)
10:34
And what about the security board context
185
634780
2600
Peki ya insanlara sınırı geçme ya da uçağa binme
10:37
where people are asked about their intentions and reasons
186
637420
3240
nedenlerinin ve amaçlarının sorulduğu
10:40
for why they are crossing borders or boarding planes.
187
640660
5360
güvenlik kurulu bağlamına ne diyorsunuz?
10:46
Well, with these systems,
188
646900
1440
Bu sistemlerle,
10:48
we could actually spot malicious intentions
189
648380
2760
kötü niyetleri daha gerçekleşmeden tespit edebiliriz.
10:51
before they even happen.
190
651180
1320
10:54
And what about the recruiting process?
191
654780
2400
Peki ya işe alım süreci?
10:57
(Laughter)
192
657900
1280
(Kahkahalar)
10:59
We heard about this already.
193
659220
2080
Bunu daha önce de duymuştuk.
11:01
But actually, companies could employ this AI
194
661340
3360
Ama aslında şirketler bu yapay zekâyı
11:04
to distinguish those who are really passionate about the role
195
664700
3760
o pozisyonu gerçekten tutkuyla isteyenleri
sadece işi almak için doğru şeyleri söylemeye çalışanlardan
11:08
from those who are just trying to say the right things to get the job.
196
668500
3320
ayırt etmek için kullanabilir.
11:13
And finally, we have social media.
197
673580
1920
Ve son olarak, sosyal medya var.
11:16
Scammers trying to deceive you or to steal your identity.
198
676180
3560
Sizi kandırmaya veya kimliğinizi çalmaya çalışan dolandırıcılar.
11:19
All gone.
199
679740
2080
Hepsi yok oldu.
11:21
And someone else may claim something about fake news,
200
681820
2520
Ve başka biri sahte haberler hakkında iddialarda bulunabilir
11:24
and well, perfectly, language model could automatically read the news,
201
684380
4120
ve dil modeli hatasız bir şekilde haberleri otomatik olarak okuyabilir,
11:28
flag them as deceptive or fake,
202
688540
3160
onları aldatıcı veya sahte olarak işaretleyebilir
11:31
and we could even provide users with a credibility score
203
691700
3960
ve hatta kullanıcılara okudukları bilgiler için
11:35
for the information they read.
204
695660
1560
bir güvenilirlik puanı sağlayabilir.
11:38
It sounds like a brilliant future, right?
205
698460
2400
Parlak bir gelecek gibi geliyor, değil mi?
11:42
(Laughter)
206
702060
1720
(Kahkahalar)
11:44
Yes, but ...
207
704580
1240
Evet, ama...
11:47
all great progress comes with risks.
208
707060
2680
tüm büyük ilerlemeler risklerle birlikte gelir.
11:51
As much as I'm excited about this future,
209
711300
3200
Bu gelecek için heyecanlı olsam da,
11:54
I think we need to be careful.
210
714540
2240
dikkatli olmamız gerektiğini düşünüyorum.
11:58
If we are not cautious, in my view,
211
718300
2880
Eğer temkinli olmazsak, benim görüşüme göre,
12:01
we could end up in a world
212
721220
1680
insanların yapay zekâ çıktılarına körü körüne inanabilecekleri
12:02
where people might just blindly believe AI outputs.
213
722900
3200
bir dünyaya dönüşebiliriz.
12:07
And I'm afraid this means that people will just be more likely
214
727700
4000
Ve maalesef bu, insanların sırf yapay zekâ öyle söylediği için
12:11
to accuse others of lying just because an AI says so.
215
731700
3880
başkalarını yalancı olmakla suçlama eğilimlerinin artacağı anlamına gelir.
12:17
And I'm not the only one with this view
216
737540
2400
Ve bu fikre sahip tek kişi ben değilim
12:19
because another study already proved it.
217
739940
2400
çünkü başka bir araştırma bunu zaten kanıtladı.
12:24
In addition, if we totally rely on this lie detection technology
218
744620
4560
Buna ek olarak, birinin yalan söyleyip söylemediğini
12:29
to say someone else is lying or not,
219
749220
2680
anlamak için tamamen bu yalan tespit teknolojisine güvenirsek
12:31
we risk losing another important key value in society.
220
751900
3520
toplumdaki bir başka önemli kilit değeri kaybetme riskiyle yüz yüze kalırız.
12:36
We lose trust.
221
756500
1240
Güveni kaybederiz.
12:38
We won't need to trust people anymore,
222
758740
1840
Artık insanlara güvenmemize gerek kalmayacak,
12:40
because what we will do is just ask an AI to double check for us.
223
760580
4160
çünkü bir yapay zekâdan bizim için çifte kontrol etmesini isteyeceğiz.
12:47
But are we really willing to blindly believe AI
224
767380
3880
Ancak yapay zekâya körü körüne inanıp
12:51
and give up our critical thinking?
225
771300
2240
sorgulama yeteneğimizden vazgeçmeyi istiyor muyuz?
12:55
I think that's the future we need to avoid.
226
775020
2160
Bence kaçınmamız gereken gelecek bu.
13:00
With hope for the future is more interpretability.
227
780220
3840
Gelecek için umut, daha fazla yorumlanabilirliktir.
13:04
And I'm about to tell you what I mean.
228
784100
2080
Şimdi size ne demek istediğimi anlatacağım.
13:06
Similar to when we look at reviews online,
229
786220
2920
İnternetteki yorumlara baktığımızda olduğu gibi,
13:09
and we can both look at the total number of stars at places,
230
789180
3920
bazı mekânlara verilmiş toplam yıldız sayısına bakabilir,
13:13
but also we can look more in detail at the positive and negative reviews,
231
793140
4920
aynı zamanda olumlu ve olumsuz yorumlara daha ayrıntılı bakabilir
13:18
and try to understand what are the positive sides,
232
798100
2640
ve olumlu tarafların neler olduğunu ama aynı zamanda
13:20
but also what might have gone wrong,
233
800740
2920
neyin yanlış gitmiş olabileceğini anlamaya çalışırız.
13:23
to eventually create our own and personal idea
234
803660
3600
Sonuç olarak gitmek istediğimiz, bulunmak istediğimiz
13:27
if that is the place where we want to go,
235
807300
2360
yer olup olmadığına dair kendi kişisel fikrimizi oluştururuz.
13:29
where we want to be.
236
809660
1240
13:32
Likewise, imagine a world where AI doesn't just offer conclusions,
237
812020
4520
Aynı şekilde, yapay zekânın sadece sonuçlar sunmadığı,
13:36
but also provides clear and understandable explanations
238
816580
3600
aynı zamanda kararlarının arkasında açık ve anlaşılır açıklamalar
13:40
behind its decisions.
239
820220
1520
sağladığı bir dünya hayal edin.
13:43
And I envision a future
240
823140
2200
Ve bu yalan tespit teknolojisinin
13:45
where this lie detection technology
241
825380
2240
bize sadece basit bir yargı sağlamakla kalmayıp,
13:47
wouldn't just provide us with a simple judgment,
242
827620
3480
aynı zamanda birinin yalan söylemesinin arkasında yatan nedene dair
13:51
but also with clear explanations for why it thinks someone else is lying.
243
831140
3960
net açıklamalar sunacağı bir gelecek hayal ediyorum.
13:57
And I would like a future where, yes,
244
837660
2960
Ve evet, bu yalan tespit etme teknolojisinin
14:00
this lie detection technology is integrated in our life,
245
840620
3360
hayatımıza veya genel olarak yapay zekâ teknolojisine
14:04
or also AI technology in general,
246
844020
3920
entegre olduğu bir gelecek istiyorum,
14:07
but still, at the same time,
247
847940
2480
ancak aynı zamanda eleştirel düşünebildiğimiz
14:10
we are able to think critically
248
850460
2680
14:13
and decide when we want to trust in AI judgment
249
853180
3520
ve YZ yargısına ne zaman güvenip ne zaman onu sorgulayabileceğimize
14:16
or when we want to question it.
250
856700
1760
karar verebileceğimiz bir gelecek istiyorum.
14:20
To conclude,
251
860660
1840
Sonuç olarak,
14:22
I think the future of using AI for lie detection
252
862540
4320
bence yalanı tespit etmek için yapay zekânın kullanıldığı gelecek
14:26
is not just about technological advancement,
253
866860
3920
sadece teknolojik ilerlemeyle ilgili değil aynı zamanda
14:30
but about enhancing our understanding and fostering trust.
254
870780
3880
anlayışımızı geliştirmek ve güveni teşvik etmekle ilgili.
14:35
It's about developing tools that don't replace human judgment
255
875940
3760
Bu, insan muhakemesinin yerini almayan,
14:39
but empower it,
256
879700
1720
aksine onu güçlendirerek dümende kalmamızı sağlayan
14:41
ensuring that we remain at the helm.
257
881460
2240
araçlar geliştirmekle ilgili.
14:45
Don't step into a future with blind reliance on technology.
258
885220
3640
Teknolojiye körü körüne güvenilen bir geleceğe adım atmayın.
14:49
Let's commit to deep understanding and ethical use,
259
889940
3880
Derin anlayışa ve etik kullanıma bağlı kaldığımız sürece
14:53
and we'll pursue the truth.
260
893820
1520
gerçeğin izinden ayrılmayacağız.
14:56
(Applause)
261
896620
1080
(Alkış)
14:57
Thank you.
262
897700
1240
Teşekkür ederim.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7