Can AI have a mind of its own? ⏲️ 6 Minute English

238,360 views ・ 2023-01-26

BBC Learning English


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو. الترجمة المترجمة تتم ترجمتها آليًا.

00:08
Hello. This is 6 Minute English from
0
8520
2220
مرحبًا. هذه 6 دقائق للغة الإنجليزية من
00:10
BBC Learning English. I’m Sam.
1
10740
1680
BBC Learning English. أنا سام.
00:12
And I’m Neil.
2
12420
840
وأنا نيل.
00:13
In the autumn of 2021, something
3
13260
2520
في خريف عام 2021 ،
00:15
strange happened at the Google
4
15780
1920
حدث شيء غريب في
00:17
headquarters in California’s Silicon
5
17700
2460
مقر Google في وادي السيليكون بكاليفورنيا
00:20
Valley. A software engineer called,
6
20160
2100
. كان مهندس برمجيات يُدعى
00:22
Blake Lemoine, was working on the
7
22260
2460
Blake Lemoine يعمل في
00:24
artificial intelligence project, ‘Language
8
24720
2340
مشروع الذكاء الاصطناعي ، "
00:27
Models for Dialogue Applications’, or
9
27060
2700
نماذج اللغة لتطبيقات الحوار" ، أو
00:29
LaMDA for short. LaMDA is a
10
29760
2940
LaMDA باختصار. LaMDA هو
00:32
chatbot – a computer programme
11
32700
1860
روبوت محادثة - برنامج كمبيوتر
00:34
designed to have conversations with
12
34560
2040
مصمم لإجراء محادثات مع
00:36
humans over the internet.
13
36600
1080
البشر عبر الإنترنت.
00:37
After months talking with LaMDA
14
37680
2820
بعد شهور من التحدث مع LaMDA
00:40
on topics ranging from movies to
15
40500
2280
حول موضوعات تتراوح من الأفلام إلى
00:42
the meaning of life, Blake came to
16
42780
2220
معنى الحياة ، توصل بليك إلى
00:45
a surprising conclusion: the chatbot
17
45000
2700
نتيجة مفاجئة: كان روبوت الدردشة
00:47
was an intelligent person with wishes
18
47700
2640
شخصًا ذكيًا لديه رغبات
00:50
and rights that should be respected.
19
50340
2160
وحقوق يجب احترامها.
00:52
For Blake, LaMDA was a Google
20
52500
2640
بالنسبة لبليك ، كان LaMDA
00:55
employee, not a machine.
21
55140
1380
موظفًا في Google وليس آلة.
00:56
He also called it his ‘friend’.
22
56520
2160
كما أطلق عليها اسم "صديقه".
00:58
Google quickly reassigned Blake from
23
58680
2580
أعادت Google بسرعة تكليف Blake من
01:01
the project, announcing that his ideas
24
61260
1860
المشروع ، معلنة أن أفكاره
01:03
were not supported by the evidence.
25
63120
2220
لا تدعمها الأدلة.
01:05
But what exactly was going on?
26
65340
2700
لكن ما الذي كان يحدث بالضبط؟
01:08
In this programme, we’ll be
27
68040
1860
في هذا البرنامج ،
01:09
discussing whether artificial intelligence
28
69900
2160
سنناقش ما إذا كان الذكاء الاصطناعي
01:12
is capable of consciousness. We’ll hear
29
72060
3000
قادرًا على الوعي. سنسمع
01:15
from one expert who thinks AI is not as
30
75060
3000
من أحد الخبراء الذي يعتقد أن الذكاء الاصطناعي ليس
01:18
intelligent as we sometimes think,
31
78060
1560
ذكيًا كما نعتقد أحيانًا ،
01:19
and as usual, we’ll be learning some
32
79620
2460
وكالعادة ، سنتعلم بعض
01:22
new vocabulary as well.
33
82080
1320
المفردات الجديدة أيضًا.
01:23
But before that, I have a question for
34
83400
2100
لكن قبل ذلك لدي سؤال
01:25
you, Neil. What happened to Blake Lemoine
35
85500
2280
لك يا نيل. ما حدث لبليك ليموين
01:27
is strangely similar to the 2013 Hollywood
36
87780
2940
يشبه بشكل غريب فيلم هوليوود عام 2013 ،
01:30
movie, Her, starring Joaquin Phoenix as
37
90720
3420
هي ، بطولة جواكين فينيكس
01:34
a lonely writer who talks with his
38
94140
1860
ككاتب وحيد يتحدث مع
01:36
computer, voiced by Scarlett Johansson.
39
96000
2280
جهاز الكمبيوتر الخاص به ، بصوت سكارليت جوهانسون.
01:38
But what happens at the end
40
98280
1860
لكن ماذا يحدث في نهاية
01:40
of the movie? Is it:
41
100140
1380
الفيلم؟ هل هو:
01:41
a) the computer comes to life?
42
101520
1860
أ) يأتي الكمبيوتر إلى الحياة؟
01:43
b) the computer dreams about the writer? or,
43
103380
3360
ب) الكمبيوتر يحلم بالكاتب؟ أو
01:46
c) the writer falls in love with the computer?
44
106740
2040
ج) يقع الكاتب في حب الكمبيوتر؟
01:48
... c) the writer falls in love with the computer.
45
108780
3420
... ج) يقع الكاتب في حب الكمبيوتر.
01:52
OK, Neil, I’ll reveal the answer at the end
46
112200
2700
حسنًا ، نيل ، سأكشف الإجابة في نهاية
01:54
of the programme. Although Hollywood is
47
114900
2460
البرنامج. على الرغم من أن هوليوود
01:57
full of movies about robots coming to life,
48
117360
2340
مليئة بالأفلام التي تدور حول ظهور الروبوتات في الحياة ، إلا أن
01:59
Emily Bender, a professor of linguistics and
49
119700
3240
إميلي بندر ، أستاذة اللسانيات
02:02
computing at the University of Washington,
50
122940
2100
والحوسبة في جامعة واشنطن ،
02:05
thinks AI isn’t that smart. She thinks the
51
125040
4440
تعتقد أن الذكاء الاصطناعي ليس بهذه الذكاء. إنها تعتقد أن
02:09
words we use to talk about technology,
52
129480
1800
الكلمات التي نستخدمها للتحدث عن التكنولوجيا ،
02:11
phrases like ‘machine learning’, give a
53
131280
3300
وعبارات مثل "التعلم الآلي" ، تعطي
02:14
false impression about what
54
134580
1620
انطباعًا خاطئًا عما
02:16
computers can and can’t do.
55
136200
1740
يمكن لأجهزة الكمبيوتر فعله وما لا يمكنها فعله.
02:17
Here is Professor Bender discussing
56
137940
2400
هنا البروفيسور بندر يناقش
02:20
another misleading phrase, ‘speech
57
140340
2340
عبارة مضللة أخرى ، "
02:22
recognition’, with BBC World Service
58
142680
2460
التعرف على الكلام" ، مع برنامج خدمة بي بي سي العالمية ،
02:25
programme, The Inquiry:
59
145140
1440
التحقيق:
02:27
If you talk about ‘automatic speech
60
147360
2220
إذا تحدثت عن "التعرف التلقائي على الكلام
02:29
recognition’, the term ‘recognition’
61
149580
1920
" ، فإن مصطلح "التعرف"
02:31
suggests that there's something
62
151500
2100
يشير إلى أن هناك شيئًا
02:33
cognitive going on, where I think a
63
153600
2160
معرفيًا يحدث ، حيث أعتقد أن
02:35
better term would be automatic transcription.
64
155760
2100
سيكون المصطلح الأفضل هو النسخ التلقائي.
02:37
That just describes the input-output
65
157860
1980
هذا يصف فقط العلاقة بين المدخلات والمخرجات
02:39
relation, and not any theory or wishful
66
159840
3660
، وليس أي نظرية أو تفكير
02:43
thinking about what the computer is
67
163500
2280
بالتمني حول ما يفعله الكمبيوتر
02:45
doing to be able to achieve that.
68
165780
1440
ليكون قادرًا على تحقيق ذلك. يعطي
02:47
Using words like ‘recognition’ in relation
69
167220
3360
استخدام كلمات مثل "التعرف" فيما يتعلق
02:50
to computers gives the idea that
70
170580
2100
بأجهزة الكمبيوتر فكرة أن
02:52
something cognitive is happening – something
71
172680
2760
شيئًا معرفيًا يحدث - شيء
02:55
related to the mental processes of
72
175440
2340
مرتبط بالعمليات العقلية
02:57
thinking, knowing, learning and understanding.
73
177780
2760
للتفكير والمعرفة والتعلم والفهم.
03:00
But thinking and knowing are human,
74
180540
2700
لكن التفكير والمعرفة أنشطة بشرية
03:03
not machine, activities. Professor Benders
75
183240
3060
وليست آلية. يقول البروفيسور بيندرز
03:06
says that talking about them in connection
76
186300
2040
إن الحديث عنها فيما يتعلق
03:08
with computers is wishful thinking -
77
188340
3570
بأجهزة الكمبيوتر هو تفكير بالتمني - وهو
03:11
something which is unlikely to happen.
78
191910
2310
أمر من غير المرجح أن يحدث. تكمن
03:14
The problem with using words in this
79
194220
2220
مشكلة استخدام الكلمات بهذه
03:16
way is that it reinforces what
80
196440
2100
الطريقة في أنها تعزز ما
03:18
Professor Bender calls, technical
81
198540
2160
يسميه البروفيسور بندر ،
03:20
bias – the assumption that the computer
82
200700
2520
التحيز التقني - الافتراض بأن الكمبيوتر
03:23
is always right. When we encounter
83
203220
2520
دائمًا على حق. عندما نواجه
03:25
language that sounds natural, but is
84
205740
1680
لغة تبدو طبيعية ولكنها
03:27
coming from a computer, humans
85
207420
2280
تأتي من جهاز كمبيوتر ،
03:29
can’t help but imagine a mind behind
86
209700
2460
لا يمكن للبشر إلا تخيل عقل وراء
03:32
the language, even when there isn’t one.
87
212160
2220
اللغة ، حتى عندما لا يكون هناك واحد.
03:34
In other words, we anthropomorphise
88
214380
2160
بعبارة أخرى ، نحن نشكل
03:36
computers – we treat them as if they
89
216540
2520
أجهزة الكمبيوتر - نتعامل معها كما لو
03:39
were human. Here’s Professor Bender
90
219060
2220
كانت بشرًا. ها هو البروفيسور بندر
03:41
again, discussing this idea with
91
221280
2220
مرة أخرى ، يناقش هذه الفكرة مع
03:43
Charmaine Cozier, presenter of BBC
92
223500
2700
شارمين كوزير ، مقدم خدمة إنفريش في خدمة بي بي سي
03:46
World Service’s, the Inquiry.
93
226200
1620
العالمية.
03:48
So ‘ism’ means system, ‘anthro’ or ‘anthropo’
94
228420
3660
لذا فإن كلمة "ism" تعني النظام ، و "anthro" أو "anthropo"
03:52
means human, and ‘morph’ means shape...
95
232080
3000
تعني الإنسان ، و "morph" تعني الشكل ...
03:55
And so this is a system that puts the
96
235080
3000
ولذا فهذا نظام يضع
03:58
shape of a human on something, and
97
238080
2160
شكل الإنسان على شيء ما ،
04:00
in this case the something is a computer.
98
240240
1260
وفي هذه الحالة يكون الشيء حاسوب.
04:01
We anthropomorphise animals all the time,
99
241500
3180
نحن نجسد الحيوانات طوال الوقت ،
04:04
but we also anthropomorphise action figures,
100
244680
3060
لكننا أيضًا نجسد شخصيات الحركة ،
04:07
or dolls, or companies when we talk about
101
247740
2880
أو الدمى ، أو الشركات عندما نتحدث عن
04:10
companies having intentions and so on.
102
250620
2040
الشركات التي لديها نوايا وما إلى ذلك.
04:12
We very much are in the habit of seeing
103
252660
2880
نحن معتادون على رؤية
04:15
ourselves in the world around us.
104
255540
1620
أنفسنا في العالم من حولنا.
04:17
And while we’re busy seeing ourselves
105
257160
2220
وبينما نحن منشغلون برؤية أنفسنا
04:19
by assigning human traits to things that
106
259380
2100
من خلال تخصيص سمات بشرية لأشياء
04:21
are not, we risk being blindsided.
107
261480
2520
ليست كذلك ، فإننا نجازف بالصدمة.
04:24
The more fluent that text is, the more
108
264000
2400
كلما كان هذا النص أكثر طلاقة ، كلما زادت
04:26
different topics it can converse on, the
109
266400
2700
الموضوعات المختلفة التي يمكن التحدث عنها ،
04:29
more chances there are to get taken in.
110
269100
1920
زادت فرص المشاركة فيها.
04:31
If we treat computers as if they could think,
111
271860
2760
إذا تعاملنا مع أجهزة الكمبيوتر كما لو كانوا يفكرون ،
04:34
we might get blindsided, or
112
274620
2520
فقد نتفاجأ أو
04:37
unpleasantly surprised. Artificial intelligence
113
277140
3180
نتفاجأ بشكل غير سار. يعمل الذكاء الاصطناعي
04:40
works by finding patterns in massive
114
280320
2220
من خلال إيجاد أنماط في
04:42
amounts of data, so it can seem like
115
282540
2520
كميات هائلة من البيانات ، لذلك قد يبدو أننا
04:45
we’re talking with a human, instead
116
285060
1860
نتحدث مع إنسان ، بدلاً
04:46
of a machine doing data analysis.
117
286920
2220
من آلة تقوم بتحليل البيانات.
04:49
As a result, we get taken in – we’re tricked
118
289140
4020
نتيجة لذلك ، يتم استدراجنا - يتم خداعنا
04:53
or deceived into thinking we’re dealing
119
293160
1920
أو خداعنا للاعتقاد بأننا نتعامل
04:55
with a human, or with something intelligent.
120
295080
3003
مع إنسان ، أو مع شيء ذكي.
04:58
Powerful AI can make machines appear conscious,
121
298083
3318
يمكن للذكاء الاصطناعي القوي أن يجعل الآلات تبدو واعية ،
05:01
but even tech giants like Google are years
122
301401
2945
ولكن حتى عمالقة التكنولوجيا مثل Google هم على بعد سنوات
05:04
away from building computers that can
123
304346
2407
من بناء أجهزة كمبيوتر يمكن أن
05:06
dream or fall in love. Speaking of which,
124
306753
2355
تحلم أو تقع في الحب. بالحديث عن أيهما يا
05:09
Sam, what was the answer to your question?
125
309108
2671
سام ، ماذا كانت إجابة سؤالك؟
05:11
I asked what happened in the 2013 movie, Her.
126
311779
2752
سألت عما حدث في فيلم 2013 يا هي.
05:14
Neil thought that the main character
127
314531
1900
اعتقد نيل أن الشخصية الرئيسية
05:16
falls in love with his computer, which
128
316431
2248
تقع في حب جهاز الكمبيوتر الخاص به ، والتي
05:18
was the correct answer!
129
318679
1361
كانت الإجابة الصحيحة!
05:20
OK. Right, it’s time to recap the vocabulary
130
320880
2640
نعم. حسنًا ، حان الوقت لتلخيص المفردات التي
05:23
we’ve learned from this programme about AI,
131
323520
2340
تعلمناها من هذا البرنامج حول الذكاء الاصطناعي ،
05:25
including chatbots - computer programmes
132
325860
3180
بما في ذلك روبوتات المحادثة - برامج الكمبيوتر
05:29
designed to interact with
133
329040
1380
المصممة للتفاعل مع
05:30
humans over the internet.
134
330420
1560
البشر عبر الإنترنت.
05:31
The adjective cognitive describes
135
331980
2640
تصف الصفة المعرفية
05:34
anything connected with the mental
136
334620
1860
أي شيء مرتبط بالعمليات العقلية
05:36
processes of knowing,
137
336480
1320
للمعرفة
05:37
learning and understanding.
138
337800
1380
والتعلم والفهم.
05:39
Wishful thinking means thinking that
139
339180
2640
التفكير بالتمني يعني التفكير في أن
05:41
something which is very unlikely to happen
140
341820
2100
شيئًا ما من غير المرجح أن يحدث
05:43
might happen one day in the future.
141
343920
2040
قد يحدث يومًا ما في المستقبل.
05:45
To anthropomorphise an object means
142
345960
2400
إن تجسيد كائن يعني
05:48
to treat it as if it were human,
143
348360
1500
التعامل معه كما لو كان بشريًا ،
05:49
even though it’s not.
144
349860
1200
على الرغم من أنه ليس كذلك.
05:51
When you’re blindsided, you’re
145
351060
2520
عندما تتفاجأ
05:53
surprised in a negative way.
146
353580
1500
بشكل سلبي.
05:55
And finally, to get taken in by someone means
147
355080
2880
وأخيرًا ، يعني الاستيلاء على شخص ما أن
05:57
to be deceived or tricked by them.
148
357960
1860
يخدعك أو يخدعك.
05:59
My computer tells me that our six minutes
149
359820
2640
يخبرني جهاز الكمبيوتر الخاص بي أن الدقائق الست
06:02
are up! Join us again soon, for now
150
362460
2580
قد انتهت! انضم إلينا مرة أخرى قريبًا ،
06:05
it’s goodbye from us.
151
365040
1140
وداعًا منا الآن.
06:06
Bye!
152
366180
500
الوداع!
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7