What if AI Could Spot Your Lies? | Riccardo Loconte | TED

37,632 views ・ 2025-02-08

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: LYONNH Q المدقّق: Hani Eldalees
00:04
This is something you won't like.
0
4260
2560
هذا شيء لن يعجبك.
00:06
But here everyone is a liar.
1
6820
3400
ولكن هنا الجميع كذابون.
00:12
Don't take it too personally.
2
12540
1880
لا تأخذ الأمر بشكل شخصي للغاية.
00:14
What I mean is that lying is very common
3
14460
3320
ما أعنيه هو أن الكذب شائع جدًا
00:17
and it is now well-established that we lie on a daily basis.
4
17780
4480
ومن الثابت الآن أننا نكذب على أساس يومي.
00:22
Indeed, scientists have estimated that we tell around two lies per day,
5
22300
4920
في الواقع، قدّر العلماء أننا نروي حوالي كذبتين يوميًا،
00:27
although, of course, it's not that easy to establish those numbers with certainty.
6
27260
3880
على الرغم من أنه بالطبع ليس من السهل تحديد هذه الأرقام على وجه اليقين.
00:32
And, well, I introduce myself.
7
32180
2040
حسنًا، أقدم نفسي.
00:34
I'm Riccardo, I'm a psychologist and a PhD candidate,
8
34260
4280
أنا ريكاردو، أنا عالم نفسي ومرشح لنيل درجة الدكتوراه،
00:38
and for my research project I study how good are people at detecting lies.
9
38580
5400
ومن أجل مشروعي البحثي، أدرس مدى جودة الناس في اكتشاف الأكاذيب.
00:44
Seems cool, right? But I'm not joking.
10
44020
2040
يبدو رائعًا، أليس كذلك؟ لكنني لا أمزح.
00:47
And you might wonder why a psychologist was then invited
11
47180
4640
وقد تتساءل لماذا تمت دعوة طبيب نفسي بعد ذلك
00:51
to give a TED Talk about AI.
12
51820
2080
لإلقاء محادثة TED حول الذكاء الاصطناعي.
00:55
And well, I'm here today
13
55660
1400
حسنًا، أنا هنا اليوم
00:57
because I'm about to tell you how AI could be used to detect lies.
14
57100
6000
لأنني على وشك أن أخبركم كيف يمكن استخدام الذكاء الاصطناعي للكشف عن الأكاذيب.
01:03
And you will be very surprised by the answer.
15
63140
2240
وستفاجأ جدًا بالإجابة.
01:06
But first of all, when is it relevant to detect lies?
16
66500
4040
ولكن قبل كل شيء، متى يكون من المناسب اكتشاف الأكاذيب؟
01:12
A first clear example that comes to my mind
17
72420
2800
أول مثال واضح يتبادر إلى ذهني
01:15
is in the criminal investigation field.
18
75260
2040
هو مجال التحقيق الجنائي.
01:18
Imagine you are a police officer and you want to interview a suspect.
19
78340
4920
تخيل أنك ضابط شرطة وتريد مقابلة المشتبه به.
01:23
And the suspect is providing some information to you.
20
83300
3520
والمشتبه به به يقدم لك بعض المعلومات.
01:26
And this information is actually leading to the next steps of the investigation.
21
86820
4080
وهذه المعلومات تؤدي في الواقع إلى الخطوات التالية من التحقيق.
01:31
We certainly want to understand if the suspect is reliable
22
91940
4400
نريد بالتأكيد أن نفهم ما إذا كان المشتبه به موثوقًا
01:36
or if they are trying to deceive us.
23
96380
2280
أم أنه يحاول خداعنا.
01:40
Then another example comes to my mind,
24
100740
2680
ثم يتبادر إلى ذهني مثال آخر،
01:43
and I think this really affects all of us.
25
103460
2000
وأعتقد أن هذا يؤثر حقًا علينا جميعًا.
01:46
So please raise your hands
26
106220
2040
لذا يرجى رفع يديك
01:48
if you would like to know if your partner cheated on you.
27
108300
3840
إذا كنت ترغب في معرفة ما إذا كان شريكك قد خدعك.
01:52
(Laughter)
28
112180
1080
(ضحك)
01:53
And don't be shy because I know.
29
113300
1920
ولا تخجل لأنني أعرف.
01:55
(Laughter)
30
115260
1360
(ضحك)
01:56
Yeah. You see?
31
116620
1240
نعم. هل ترى؟
01:59
It's very relevant.
32
119580
1720
إنه ملائم للغاية.
02:02
However, I have to have to say that we as humans
33
122340
2840
ومع ذلك، يجب أن أقول إننا كبشر
02:05
are very bad at detecting lies.
34
125220
2240
سيئون جدًا في اكتشاف الأكاذيب.
02:08
In fact, many studies have already confirmed
35
128420
2800
في الواقع، أكدت العديد من الدراسات بالفعل
02:11
that when people are asked to judge
36
131260
2840
أنه عندما يُطلب من الناس الحكم على ما
02:14
if someone is lying or not
37
134140
1760
إذا كان شخص ما يكذب أم لا
02:15
without knowing much about that person or the context,
38
135900
3760
دون معرفة الكثير عن هذا الشخص أو السياق، فإن دقة
02:19
people's accuracy is no better than the chance level,
39
139660
3800
الأشخاص ليست أفضل من مستوى الفرصة،
02:23
about the same as flipping a coin.
40
143500
1720
تمامًا مثل تقليب عملة معدنية.
02:27
You might also wonder
41
147300
1360
قد تتساءل أيضًا عما
02:28
if experts, such as police officers, prosecutors, experts
42
148660
5120
إذا كان الخبراء، مثل ضباط الشرطة والمدعين العامين والخبراء
02:33
and even psychologists
43
153780
1480
وحتى علماء النفس
02:35
are better at detecting lies.
44
155300
1760
، أفضل في اكتشاف الأكاذيب.
02:37
And the answer is complex,
45
157860
1520
والإجابة معقدة،
02:39
because experience alone doesn't seem to be enough
46
159420
3760
لأن التجربة وحدها لا تبدو كافية
02:43
to help detect lies accurately.
47
163220
2400
للمساعدة في اكتشاف الأكاذيب بدقة.
02:45
It might help, but it's not enough.
48
165620
2200
قد يساعد ذلك، لكنه ليس كافيًا.
02:49
To give you some numbers.
49
169780
1600
لأعطيك بعض الأرقام.
02:51
In a well-known meta-analysis that previous scholars did in 2006,
50
171420
5040
في تحليل تلوي معروف أجراه علماء سابقون في عام 2006،
02:56
they found that naive judges' accuracy
51
176500
2760
وجدوا أن دقة القضاة الساذجين
02:59
was on average around 54 percent.
52
179300
3320
كانت في المتوسط حوالي 54 بالمائة.
03:03
Experts perform only slightly better,
53
183900
3280
يعمل الخبراء بشكل أفضل قليلاً فقط،
03:07
with an accuracy rate around 55 percent.
54
187220
3880
بمعدل دقة يبلغ حوالي 55 بالمائة.
03:11
(Laughter)
55
191140
1640
(ضحك)
03:12
Not that impressive, right?
56
192780
1440
ليس ذلك مثيرًا للإعجاب، أليس كذلك؟
03:15
And ...
57
195660
1240
و...
03:18
Those numbers actually come from the analysis
58
198140
2880
تأتي هذه الأرقام في الواقع
03:21
of the results of 108 studies,
59
201060
2880
من تحليل نتائج 108 دراسة،
03:23
meaning that these findings are quite robust.
60
203940
2680
مما يعني أن هذه النتائج قوية جدًا.
03:26
And of course, the debate is also much more complicated than this
61
206620
3840
وبالطبع، فإن النقاش أيضًا أكثر تعقيدًا بكثير من هذا
03:30
and also more nuanced.
62
210500
1560
وأكثر دقة أيضًا.
03:32
But here the main take-home message
63
212100
2360
لكن الرسالة الرئيسية هنا
03:34
is that humans are not good at detecting lies.
64
214500
3680
هي أن البشر لا يجيدون اكتشاف الأكاذيب.
03:38
What if we are creating an AI tool
65
218940
4200
ماذا لو قمنا بإنشاء أداة ذكاء اصطناعي
03:43
where everyone can detect if someone else is lying?
66
223180
2920
حيث يمكن للجميع اكتشاف ما إذا كان شخص آخر يكذب؟
03:48
This is not possible yet, so please don't panic.
67
228100
2640
هذا غير ممكن بعد، لذا من فضلك لا داعي للذعر.
03:50
(Laughter)
68
230740
1880
(ضحك)
03:52
But this is what we tried to do in a recent study
69
232620
3080
ولكن هذا ما حاولنا القيام به في دراسة
03:55
that I did together with my brilliant colleagues
70
235700
2400
حديثة قمت بها مع زملائي اللامعين
03:58
whom I need to thank.
71
238140
1720
الذين أريد أن أشكرهم.
03:59
And actually, to let you understand what we did in our study,
72
239860
6760
وفي الواقع، للسماح لك بفهم ما قمنا به في دراستنا،
04:06
I need to first introduce you to some technical concepts
73
246620
4440
أحتاج أولاً إلى تعريفك ببعض المفاهيم
04:11
and to the main characters of this story:
74
251100
3080
التقنية والشخصيات الرئيسية في هذه القصة: نماذج اللغة
04:15
Large language models.
75
255300
2480
الكبيرة.
04:17
Large language models are AI systems
76
257780
2360
نماذج اللغات الكبيرة هي أنظمة ذكاء اصطناعي
04:20
designed to generate outputs in natural language
77
260180
3160
مصممة لتوليد مخرجات
04:23
in a way that almost mimics human communication.
78
263380
2880
باللغة الطبيعية بطريقة تحاكي التواصل البشري تقريبًا.
04:27
If you are wondering how we teach these AI systems to detect lies,
79
267340
3840
إذا كنت تتساءل عن كيفية تعليم انظمة الذكاء الاصطناعي هذه اكتشاف الأكاذيب،
04:31
here is where something called fine-tuning comes in.
80
271220
3600
وهنا يأتي دور شيء يسمى الضبط الدقيق.
04:34
But let's use a metaphor.
81
274820
2080
ولكن دعونا نستخدم الاستعارة.
04:36
Imagine large language models being as students
82
276900
3360
تخيل نماذج اللغات الكبيرة مثل الطلاب
04:40
who have gone through years of school,
83
280300
2360
الذين قضوا سنوات من المدرسة،
04:42
learning a little bit about everything,
84
282660
2160
ويتعلمون القليل عن كل شيء،
04:44
such as language, concepts, facts.
85
284820
4080
مثل اللغة والمفاهيم والحقائق.
04:48
But when it's time for them to specialize,
86
288900
2840
ولكن عندما يحين وقت تخصصهم،
04:51
like in law school or in medical school,
87
291740
2480
كما هو الحال في كلية الحقوق أو كلية الطب،
04:54
they need more focused training.
88
294220
1560
فإنهم يحتاجون إلى تدريب أكثر تركيزًا.
04:56
Fine-tuning is that extra education.
89
296900
2440
الضبط الدقيق هو ذلك التعليم الإضافي.
05:00
And of course, large language models don't learn as humans do.
90
300460
3240
وبالطبع، لا تتعلم نماذج اللغات الكبيرة كما يفعل البشر.
05:03
But this is just to give you the main idea.
91
303700
2320
ولكن هذا فقط لإعطائك الفكرة الرئيسية.
05:07
Then, as for training students, you need books, lectures, examples,
92
307740
7000
ثم، بالنسبة لتدريب الطلاب، فأنت بحاجة إلى كتب ومحاضرات وأمثلة
05:14
for training large language models you need datasets.
93
314740
3480
لتدريب نماذج لغوية كبيرة تحتاج إلى مجموعات بيانات.
05:19
And for our study we considered three datasets,
94
319180
4240
وبالنسبة لدراستنا، نظرنا في ثلاث مجموعات بيانات،
05:23
one about personal opinions,
95
323460
2440
واحدة عن الآراء الشخصية،
05:25
one about past autobiographical memories
96
325900
2840
وواحدة عن ذكريات
05:28
and one about future intentions.
97
328740
2720
السيرة الذاتية السابقة والأخرى عن النوايا المستقبلية.
05:31
These datasets were already available from previous studies
98
331500
3000
كانت مجموعات البيانات هذه متاحة بالفعل من الدراسات السابقة
05:34
and contained both truthful and deceptive statements.
99
334540
3040
وتحتوي على بيانات صادقة ومضللة.
05:39
Typically, you collect these types of statements
100
339140
2240
عادةً ما تقوم بجمع هذه الأنواع من العبارات
05:41
by asking participants to tell the truth or to lie about something.
101
341420
4280
عن طريق مطالبة المشاركين بقول الحقيقة أو الكذب بشأن شيء ما.
05:45
For example, if I was a participant in the truthful condition,
102
345700
3680
على سبيل المثال، إذا كنت مشاركًا في الحالة الصادقة،
05:49
and the task was
103
349420
1680
وكانت المهمة
05:51
"tell me about your past holidays,"
104
351140
2320
«أخبرني عن عطلاتك الماضية»،
05:53
then I will tell the researcher about my previous holidays in Vietnam,
105
353500
4600
ثم سأخبر الباحث عن عطلاتي السابقة في فيتنام،
05:58
and here we have a slide to prove it.
106
358140
1960
وهنا لدينا شريحة لإثبات ذلك.
06:01
For the deceptive condition
107
361340
1800
بالنسبة للحالة الخادعة،
06:03
they will randomly pick some of you who have never been to Vietnam,
108
363180
3640
سيختارون عشوائيًا بعضًا منكم ممن لم يسبق لهم زيارة فيتنام،
06:06
and they will ask you to make up a story
109
366820
2240
وسيطلبون منك اختلاق قصة
06:09
and convince someone else that you've really been to Vietnam.
110
369100
3200
وإقناع شخص آخر بأنك زرت فيتنام حقًا.
06:12
And this is how it typically works.
111
372340
1960
وهذه هي الطريقة التي تعمل بها عادةً.
06:16
And as in all university courses, you might know this,
112
376500
4480
وكما هو الحال في جميع الدورات الجامعية، قد تعرف ذلك،
06:21
after lectures you have exams.
113
381020
2440
بعد المحاضرات لديك امتحانات.
06:23
And likewise after training our AI models,
114
383500
3840
وبالمثل بعد تدريب نماذج الذكاء الاصطناعي الخاصة بنا،
06:27
we would like to test them.
115
387380
1360
نود اختبارها.
06:29
And the procedure that we followed,
116
389500
1920
والإجراء الذي اتبعناه،
06:31
that is actually the typical one, is the following.
117
391460
3200
وهو في الواقع الإجراء النموذجي، هو التالي.
06:34
So we picked some statements randomly from each dataset
118
394660
4960
لذلك اخترنا بعض العبارات بشكل عشوائي من كل مجموعة بيانات
06:39
and we took them apart.
119
399620
1480
وقمنا بتفكيكها.
06:41
So the model never saw these statements during the training phase.
120
401140
3760
لذلك لم ير النموذج هذه العبارات أبدًا خلال مرحلة التدريب.
06:44
And only after the training was completed,
121
404900
2960
وفقط بعد الانتهاء من التدريب،
06:47
we used them as a test, as the final exam.
122
407860
2880
استخدمناها كاختبار، كاختبار نهائي.
06:52
But who was our student then?
123
412540
2240
ولكن من كان تلميذنا في ذلك الوقت؟
06:55
In this case, it was a large language model
124
415660
2600
في هذه الحالة، كان نموذجًا لغويًا كبيرًا
06:58
developed by Google
125
418300
1400
طورته Google
06:59
and called FLAN-T5.
126
419700
1920
وأطلق عليه اسم FLAN-T5.
07:01
Flanny, for friends.
127
421620
1840
فلاني، للأصدقاء.
07:03
And now that we have all the pieces of the process together,
128
423500
4400
والآن بعد أن حصلنا على كل أجزاء العملية معًا،
07:07
we can actually dig deep into our study.
129
427900
2440
يمكننا بالفعل التعمق في دراستنا.
07:12
Our study was composed by three main experiments.
130
432100
4480
تألفت دراستنا من ثلاث تجارب رئيسية.
07:17
For the first experiment, we fine-tuned our model, our FLAN-T5,
131
437500
5120
بالنسبة للتجربة الأولى، قمنا بضبط نموذجنا، FLAN-T5،
07:22
on each single dataset separately.
132
442620
2920
على كل مجموعة بيانات على حدة.
07:27
For the second experiment,
133
447700
1920
بالنسبة للتجربة الثانية،
07:29
we fine-tuned our model on two pairs of datasets together,
134
449620
4680
قمنا بضبط نموذجنا على زوجين من مجموعات البيانات معًا،
07:34
and we tested it on the third remaining one,
135
454340
2920
واختبرناه على الزوج الثالث المتبقي،
07:37
and we used all three possible combinations.
136
457300
2520
واستخدمنا جميع المجموعات الثلاث الممكنة.
07:41
For the last final experiment,
137
461380
2120
بالنسبة للتجربة النهائية الأخيرة،
07:43
we fine-tuned the model on a new, larger training test set
138
463540
3760
قمنا بضبط النموذج على مجموعة
07:47
that we obtained by combining all the three datasets together.
139
467340
3160
اختبار تدريب جديدة أكبر حصلنا عليها خلال الجمع بين جميع مجموعات البيانات الثلاث معا
07:52
The results were quite interesting
140
472380
2880
كانت النتائج مثيرة للاهتمام للغاية
07:55
because what we found was that in the first experiment,
141
475300
4000
لأن ما وجدناه هو أنه في التجربة الأولى، حقق
07:59
FLAN-T5 achieved an accuracy range between 70 percent and 80 percent.
142
479340
6080
FLAN-T5 نطاق دقة يتراوح بين 70 بالمائة و 80 بالمائة.
08:06
However, in the second experiment,
143
486460
2880
ومع ذلك، في التجربة الثانية، خفضت
08:09
FLAN-T5 dropped its accuracy to almost 50 percent.
144
489380
4640
FLAN-T5 دقتها إلى ما يقرب من 50 بالمائة.
08:15
And then, surprisingly, in the third experiment,
145
495380
3080
ومن المثير للدهشة أنه في التجربة الثالثة، عادت
08:18
FLAN-T5 rose back to almost 80 percent.
146
498500
3800
FLAN-T5 إلى ما يقرب من 80 بالمائة.
08:23
But what does this mean?
147
503780
2320
ولكن ماذا يعني هذا؟
08:26
What can we learn from these results?
148
506140
3680
ماذا يمكننا أن نتعلم من هذه النتائج؟
08:31
From experiment one and three
149
511100
2360
من التجربة الأولى والثالثة،
08:33
we learn that language models
150
513500
2280
نتعلم أن نماذج اللغة
08:35
can effectively classify statements as deceptive,
151
515780
4240
يمكنها تصنيف العبارات بشكل فعال على أنها خادعة
08:40
outperforming human benchmarks
152
520060
2120
ومتفوقة على المعايير البشرية
08:42
and aligning with previous machine learning
153
522220
2240
ومتوافقة مع نماذج التعلم الآلي
08:44
and deep learning models
154
524500
1280
والتعلم العميق السابقة
08:45
that previous studies trained on the same datasets.
155
525780
2440
التي دربتها الدراسات السابقة على نفس مجموعات البيانات.
08:49
However, from the second experiment,
156
529540
2520
ومع ذلك، من التجربة الثانية،
08:52
we see that language models struggle
157
532100
2920
نرى أن نماذج اللغة تكافح
08:55
in generalizing this knowledge, this learning across different contexts.
158
535060
4400
في تعميم هذه المعرفة، وهذا التعلم عبر سياقات مختلفة.
09:00
And this is apparently because
159
540380
2960
وهذا على ما يبدو بسبب
09:03
there is no one single universal rule of deception
160
543380
3120
عدم وجود قاعدة عالمية واحدة للخداع
09:06
that we can easily apply in every context,
161
546540
3400
يمكننا تطبيقها بسهولة في كل سياق،
09:09
but linguistic cues of deception are context-dependent.
162
549940
3920
ولكن الإشارات اللغوية للخداع تعتمد على السياق.
09:15
And from the third experiment,
163
555820
2520
ومن التجربة الثالثة،
09:18
we learned that actually language models
164
558380
2640
تعلمنا أن النماذج اللغوية في الواقع
09:21
can generalize well across different contexts,
165
561060
3280
يمكن أن تعمم جيدًا عبر سياقات مختلفة، فقط
09:24
if only they have been previously exposed to examples
166
564380
4160
إذا كانت قد تعرضت سابقًا لأمثلة
09:28
during the training phase.
167
568580
2080
خلال مرحلة التدريب.
09:30
And I think this sounds as good news.
168
570660
2360
وأعتقد أن هذا يبدو خبرًا جيدًا.
09:34
But while this means that language models can be effectively applied
169
574660
6400
ولكن في حين أن هذا يعني أنه يمكن تطبيق نماذج اللغة بفعالية
09:41
for real-life applications in lie detection,
170
581100
3000
للتطبيقات الواقعية في اكتشاف الكذب، إلا أن هناك حاجة إلى
09:44
more replication is needed because a single study is never enough
171
584140
4040
مزيد من النسخ لأن دراسة واحدة لا تكفي أبدًا
09:48
so that from tomorrow we can all have these AI systems on our smartphones,
172
588220
4640
حتى نتمكن من حصول على أنظمة الذكاء اصطناعي هذه على هواتفنا الذكية بدءًا من الغد
09:52
and start detecting other people's lies.
173
592860
2400
والبدء في اكتشاف أكاذيب الآخرين.
09:56
But as a scientist, I have a vivid imagination
174
596740
2880
لكن كعالم، لدي خيال
09:59
and I would like to dream big.
175
599620
1880
حي وأود أن أحلم بحلم كبير.
10:01
And also I would like to bring you with me in this futuristic journey for a while.
176
601540
4200
وأود أيضًا أن أحضرك معي في هذه الرحلة المستقبلية لفترة من الوقت.
10:05
So please imagine with me living in a world
177
605740
3440
لذا يرجى تخيل أنني أعيش في عالم تتكامل
10:09
where this lie detection technology is well-integrated in our life,
178
609220
4200
فيه تقنية كشف الكذب هذه جيدًا في حياتنا،
10:13
making everything from national security to social media a little bit safer.
179
613460
4840
مما يجعل كل شيء من الأمن القومي إلى وسائل التواصل الاجتماعي أكثر أمانًا.
10:19
And imagine having this AI system that could actually spot fake opinions.
180
619180
4840
وتخيل وجود نظام الذكاء الاصطناعي هذا الذي يمكنه بالفعل اكتشاف الآراء المزيفة.
10:24
From tomorrow, we could say
181
624060
2600
اعتبارًا من الغد، يمكننا أن نقول
10:26
when a politician is actually saying one thing
182
626660
3320
متى يقول السياسي شيئًا بالفعل
10:30
and truly believes something else.
183
630020
1880
ويؤمن حقًا بشيء آخر.
10:31
(Laughter)
184
631900
1280
(ضحك)
10:34
And what about the security board context
185
634780
2600
وماذا عن سياق مجلس الأمن
10:37
where people are asked about their intentions and reasons
186
637420
3240
حيث يُسأل الناس عن نواياهم
10:40
for why they are crossing borders or boarding planes.
187
640660
5360
وأسباب عبورهم الحدود أو ركوب الطائرات.
10:46
Well, with these systems,
188
646900
1440
حسنًا، مع هذه الأنظمة،
10:48
we could actually spot malicious intentions
189
648380
2760
يمكننا بالفعل اكتشاف النوايا الخبيثة
10:51
before they even happen.
190
651180
1320
قبل حدوثها.
10:54
And what about the recruiting process?
191
654780
2400
وماذا عن عملية التوظيف؟
10:57
(Laughter)
192
657900
1280
(ضحك)
10:59
We heard about this already.
193
659220
2080
سمعنا عن هذا بالفعل.
11:01
But actually, companies could employ this AI
194
661340
3360
ولكن في الواقع، يمكن للشركات استخدام هذا الذكاء الاصطناعي
11:04
to distinguish those who are really passionate about the role
195
664700
3760
لتمييز أولئك المتحمسين حقًا للدور
11:08
from those who are just trying to say the right things to get the job.
196
668500
3320
عن أولئك الذين يحاولون فقط قول الأشياء الصحيحة للحصول على الوظيفة.
11:13
And finally, we have social media.
197
673580
1920
وأخيرًا، لدينا وسائل التواصل الاجتماعي.
11:16
Scammers trying to deceive you or to steal your identity.
198
676180
3560
يحاول المحتالون خداعك أو سرقة هويتك.
11:19
All gone.
199
679740
2080
ذهب كل شيء.
11:21
And someone else may claim something about fake news,
200
681820
2520
وقد يدعي شخص آخر شيئًا عن الأخبار المزيفة،
11:24
and well, perfectly, language model could automatically read the news,
201
684380
4120
حسنًا، تمامًا، يمكن لنموذج اللغة قراءة الأخبار تلقائيًا،
11:28
flag them as deceptive or fake,
202
688540
3160
ضع علامة عليها على أنها خادعة أو مزيفة،
11:31
and we could even provide users with a credibility score
203
691700
3960
ويمكننا أيضًا تزويد المستخدمين بدرجة مصداقية
11:35
for the information they read.
204
695660
1560
للمعلومات التي يقرؤونها.
11:38
It sounds like a brilliant future, right?
205
698460
2400
يبدو وكأنه مستقبل باهر، أليس كذلك؟
11:42
(Laughter)
206
702060
1720
(ضحك)
11:44
Yes, but ...
207
704580
1240
نعم، ولكن...
11:47
all great progress comes with risks.
208
707060
2680
كل تقدم كبير يأتي مع المخاطر.
11:51
As much as I'm excited about this future,
209
711300
3200
بقدر ما أنا متحمس لهذا المستقبل،
11:54
I think we need to be careful.
210
714540
2240
أعتقد أننا بحاجة إلى توخي الحذر.
11:58
If we are not cautious, in my view,
211
718300
2880
إذا لم نتوخى الحذر، فمن وجهة نظري قد ينتهي
12:01
we could end up in a world
212
721220
1680
بنا المطاف في عالم قد يؤمن
12:02
where people might just blindly believe AI outputs.
213
722900
3200
فيه الناس بشكل أعمى بمخرجات الذكاء الاصطناعي.
12:07
And I'm afraid this means that people will just be more likely
214
727700
4000
وأخشى أن هذا يعني أن الناس سيكونون أكثر
12:11
to accuse others of lying just because an AI says so.
215
731700
3880
عرضة لاتهام الآخرين بالكذب لمجرد أن الذكاء الاصطناعي يقول ذلك.
12:17
And I'm not the only one with this view
216
737540
2400
ولست الوحيد الذي لديه هذا الرأي
12:19
because another study already proved it.
217
739940
2400
لأن دراسة أخرى أثبتت ذلك بالفعل.
12:24
In addition, if we totally rely on this lie detection technology
218
744620
4560
بالإضافة إلى ذلك، إذا اعتمدنا كليًا على تقنية كشف الكذب هذه
12:29
to say someone else is lying or not,
219
749220
2680
للقول إن شخصًا آخر يكذب أم لا،
12:31
we risk losing another important key value in society.
220
751900
3520
فإننا نخاطر بفقدان قيمة رئيسية مهمة أخرى في المجتمع.
12:36
We lose trust.
221
756500
1240
نفقد الثقة.
12:38
We won't need to trust people anymore,
222
758740
1840
لن نحتاج إلى الثقة بالناس بعد الآن،
12:40
because what we will do is just ask an AI to double check for us.
223
760580
4160
لأن ما سنفعله هو أن نطلب من الذكاء الاصطناعي التحقق مرة أخرى من أجلنا.
12:47
But are we really willing to blindly believe AI
224
767380
3880
ولكن هل نحن على استعداد حقًا للاعتقاد الأعمى بالذكاء الاصطناعي
12:51
and give up our critical thinking?
225
771300
2240
والتخلي عن تفكيرنا النقدي؟
12:55
I think that's the future we need to avoid.
226
775020
2160
أعتقد أن هذا هو المستقبل الذي نحتاج إلى تجنبه.
13:00
With hope for the future is more interpretability.
227
780220
3840
مع الأمل في المستقبل المزيد من القابلية للتفسير.
13:04
And I'm about to tell you what I mean.
228
784100
2080
وأنا على وشك أن أقول لكم ما أعنيه.
13:06
Similar to when we look at reviews online,
229
786220
2920
على غرار ما يحدث عندما ننظر إلى المراجعات عبر الإنترنت،
13:09
and we can both look at the total number of stars at places,
230
789180
3920
ويمكننا أن ننظر إلى العدد الإجمالي للنجوم في الأماكن،
13:13
but also we can look more in detail at the positive and negative reviews,
231
793140
4920
ولكن يمكننا أيضًا النظر بمزيد من التفصيل في المراجعات الإيجابية
13:18
and try to understand what are the positive sides,
232
798100
2640
والسلبية، ومحاولة فهم الجوانب الإيجابية،
13:20
but also what might have gone wrong,
233
800740
2920
ولكن أيضًا ما الخطأ الذي قد حدث،
13:23
to eventually create our own and personal idea
234
803660
3600
لإنشاء فكرتنا الخاصة والشخصية في النهاية
13:27
if that is the place where we want to go,
235
807300
2360
إذا كان هذا هو المكان الذي نريد الذهاب إليه،
13:29
where we want to be.
236
809660
1240
حيث نريد أن نكون.
13:32
Likewise, imagine a world where AI doesn't just offer conclusions,
237
812020
4520
وبالمثل، تخيل عالمًا لا يقدم فيه الذكاء الاصطناعي الاستنتاجات فحسب،
13:36
but also provides clear and understandable explanations
238
816580
3600
بل يقدم أيضًا تفسيرات واضحة ومفهومة
13:40
behind its decisions.
239
820220
1520
وراء قراراته.
13:43
And I envision a future
240
823140
2200
وأتصور مستقبلًا لا تزودنا
13:45
where this lie detection technology
241
825380
2240
فيه تقنية
13:47
wouldn't just provide us with a simple judgment,
242
827620
3480
كشف الكذب هذه بحكم بسيط فحسب،
13:51
but also with clear explanations for why it thinks someone else is lying.
243
831140
3960
بل أيضًا بتفسيرات واضحة لسبب اعتقادنا أن شخصًا آخر يكذب.
13:57
And I would like a future where, yes,
244
837660
2960
وأود مستقبلاً حيث، نعم، يتم دمج تقنية كشف الكذب
14:00
this lie detection technology is integrated in our life,
245
840620
3360
هذه في حياتنا،
14:04
or also AI technology in general,
246
844020
3920
أو أيضًا تقنية الذكاء الاصطناعي بشكل عام،
14:07
but still, at the same time,
247
847940
2480
ولكن مع ذلك، في نفس الوقت،
14:10
we are able to think critically
248
850460
2680
نحن قادرون على التفكير النقدي
14:13
and decide when we want to trust in AI judgment
249
853180
3520
وتحديد متى نريد أن نثق في حكم الذكاء الاصطناعي
14:16
or when we want to question it.
250
856700
1760
أو عندما نريد التشكيك فيه.
14:20
To conclude,
251
860660
1840
في الختام،
14:22
I think the future of using AI for lie detection
252
862540
4320
أعتقد أن مستقبل استخدام الذكاء الاصطناعي لاكتشاف الكذب
14:26
is not just about technological advancement,
253
866860
3920
لا يتعلق فقط بالتقدم التكنولوجي،
14:30
but about enhancing our understanding and fostering trust.
254
870780
3880
بل يتعلق أيضًا بتعزيز فهمنا وتعزيز الثقة.
14:35
It's about developing tools that don't replace human judgment
255
875940
3760
يتعلق الأمر بتطوير أدوات لا تحل محل الحكم البشري
14:39
but empower it,
256
879700
1720
ولكنها تعمل على تمكينه،
14:41
ensuring that we remain at the helm.
257
881460
2240
مما يضمن بقائنا على رأس القيادة.
14:45
Don't step into a future with blind reliance on technology.
258
885220
3640
لا تخطو إلى المستقبل بالاعتماد الأعمى على التكنولوجيا.
14:49
Let's commit to deep understanding and ethical use,
259
889940
3880
دعونا نلتزم بالفهم العميق والاستخدام الأخلاقي،
14:53
and we'll pursue the truth.
260
893820
1520
وسنسعى وراء الحقيقة.
14:56
(Applause)
261
896620
1080
(تصفيق)
14:57
Thank you.
262
897700
1240
شكرًا لكم.
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7