Can AI have a mind of its own? ⏲️ 6 Minute English

251,550 views ・ 2023-01-26

BBC Learning English


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید. زیرنویس های ترجمه شده به صورت ماشینی ترجمه می شوند.

00:08
Hello. This is 6 Minute English from
0
8520
2220
سلام. این 6 دقیقه انگلیسی از
00:10
BBC Learning English. I’m Sam.
1
10740
1680
BBC Learning English است. من سام هستم
00:12
And I’m Neil.
2
12420
840
و من نیل هستم.
00:13
In the autumn of 2021, something
3
13260
2520
در پاییز سال 2021،
00:15
strange happened at the Google
4
15780
1920
اتفاق عجیبی در مقر گوگل
00:17
headquarters in California’s Silicon
5
17700
2460
در
00:20
Valley. A software engineer called,
6
20160
2100
دره سیلیکون کالیفرنیا رخ داد. مهندس نرم افزاری به نام
00:22
Blake Lemoine, was working on the
7
22260
2460
بلیک لمواین روی
00:24
artificial intelligence project, ‘Language
8
24720
2340
پروژه هوش مصنوعی «
00:27
Models for Dialogue Applications’, or
9
27060
2700
مدل های زبان برای برنامه های گفتگو» یا به
00:29
LaMDA for short. LaMDA is a
10
29760
2940
اختصار LaMDA کار می کرد. LaMDA یک ربات چت است
00:32
chatbot – a computer programme
11
32700
1860
– یک برنامه کامپیوتری
00:34
designed to have conversations with
12
34560
2040
که برای مکالمه با
00:36
humans over the internet.
13
36600
1080
انسان از طریق اینترنت طراحی شده است. بلیک
00:37
After months talking with LaMDA
14
37680
2820
پس از ماه‌ها صحبت با LaMDA
00:40
on topics ranging from movies to
15
40500
2280
در مورد موضوعات مختلف از فیلم گرفته
00:42
the meaning of life, Blake came to
16
42780
2220
تا معنای زندگی، به
00:45
a surprising conclusion: the chatbot
17
45000
2700
یک نتیجه شگفت‌انگیز رسید: چت ربات
00:47
was an intelligent person with wishes
18
47700
2640
فردی باهوش با خواسته‌ها
00:50
and rights that should be respected.
19
50340
2160
و حقوقی بود که باید به آنها احترام گذاشت.
00:52
For Blake, LaMDA was a Google
20
52500
2640
برای بلیک، LaMDA یک
00:55
employee, not a machine.
21
55140
1380
کارمند گوگل بود، نه یک ماشین.
00:56
He also called it his ‘friend’.
22
56520
2160
او همچنین آن را "دوست" خود نامید.
00:58
Google quickly reassigned Blake from
23
58680
2580
گوگل به سرعت بلیک را
01:01
the project, announcing that his ideas
24
61260
1860
از پروژه منصوب کرد و اعلام کرد که ایده های او
01:03
were not supported by the evidence.
25
63120
2220
توسط شواهد پشتیبانی نمی شود.
01:05
But what exactly was going on?
26
65340
2700
اما دقیقا چه اتفاقی می افتاد؟
01:08
In this programme, we’ll be
27
68040
1860
در این برنامه، در
01:09
discussing whether artificial intelligence
28
69900
2160
مورد اینکه آیا هوش مصنوعی
01:12
is capable of consciousness. We’ll hear
29
72060
3000
قادر به آگاهی است یا خیر بحث خواهیم کرد. ما
01:15
from one expert who thinks AI is not as
30
75060
3000
از یک متخصص خواهیم شنید که فکر می کند هوش مصنوعی آنقدرها
01:18
intelligent as we sometimes think,
31
78060
1560
که ما گاهی فکر می کنیم باهوش نیست
01:19
and as usual, we’ll be learning some
32
79620
2460
و طبق معمول،
01:22
new vocabulary as well.
33
82080
1320
واژگان جدیدی را نیز یاد خواهیم گرفت.
01:23
But before that, I have a question for
34
83400
2100
اما قبل از آن، یک سوال از
01:25
you, Neil. What happened to Blake Lemoine
35
85500
2280
شما دارم، نیل. اتفاقی که برای بلیک لمواین افتاد به
01:27
is strangely similar to the 2013 Hollywood
36
87780
2940
طرز عجیبی شبیه به فیلم هالیوودی او در سال ۲۰۱۳
01:30
movie, Her, starring Joaquin Phoenix as
37
90720
3420
است که واکین فینیکس در نقش
01:34
a lonely writer who talks with his
38
94140
1860
نویسنده‌ای تنها که با
01:36
computer, voiced by Scarlett Johansson.
39
96000
2280
کامپیوترش صحبت می‌کند با صداپیشگی اسکارلت جوهانسون بازی می‌کند.
01:38
But what happens at the end
40
98280
1860
اما در پایان فیلم چه اتفاقی می افتد
01:40
of the movie? Is it:
41
100140
1380
؟ آیا این:
01:41
a) the computer comes to life?
42
101520
1860
الف) کامپیوتر زنده می شود؟
01:43
b) the computer dreams about the writer? or,
43
103380
3360
ب) کامپیوتر در مورد نویسنده خواب می بیند؟ یا
01:46
c) the writer falls in love with the computer?
44
106740
2040
ج) نویسنده عاشق کامپیوتر می شود؟
01:48
... c) the writer falls in love with the computer.
45
108780
3420
... ج) نویسنده عاشق کامپیوتر می شود.
01:52
OK, Neil, I’ll reveal the answer at the end
46
112200
2700
خوب، نیل، من پاسخ را در پایان برنامه فاش خواهم
01:54
of the programme. Although Hollywood is
47
114900
2460
کرد. اگرچه هالیوود
01:57
full of movies about robots coming to life,
48
117360
2340
مملو از فیلم‌هایی درباره زنده شدن روبات‌ها است،
01:59
Emily Bender, a professor of linguistics and
49
119700
3240
امیلی بندر، استاد زبان‌شناسی و
02:02
computing at the University of Washington,
50
122940
2100
محاسبات در دانشگاه واشنگتن،
02:05
thinks AI isn’t that smart. She thinks the
51
125040
4440
فکر می‌کند هوش مصنوعی آنقدرها هم هوشمند نیست. او فکر می‌کند
02:09
words we use to talk about technology,
52
129480
1800
کلماتی که ما برای صحبت در مورد فناوری استفاده می‌کنیم،
02:11
phrases like ‘machine learning’, give a
53
131280
3300
عباراتی مانند "یادگیری ماشینی"،
02:14
false impression about what
54
134580
1620
تصور نادرستی درباره آنچه
02:16
computers can and can’t do.
55
136200
1740
رایانه‌ها می‌توانند انجام دهند و نمی‌توانند انجام دهند، ایجاد می‌کنند.
02:17
Here is Professor Bender discussing
56
137940
2400
در اینجا پروفسور بندر در حال بحث درباره
02:20
another misleading phrase, ‘speech
57
140340
2340
عبارت گمراه کننده دیگری، «
02:22
recognition’, with BBC World Service
58
142680
2460
تشخیص گفتار» با برنامه سرویس جهانی بی بی سی
02:25
programme, The Inquiry:
59
145140
1440
، The Inquiry است:
02:27
If you talk about ‘automatic speech
60
147360
2220
اگر در مورد «تشخیص خودکار گفتار» صحبت می
02:29
recognition’, the term ‘recognition’
61
149580
1920
کنید، اصطلاح «تشخیص»
02:31
suggests that there's something
62
151500
2100
نشان می دهد که
02:33
cognitive going on, where I think a
63
153600
2160
چیزی شناختی در جریان است، جایی که من فکر می کنم
02:35
better term would be automatic transcription.
64
155760
2100
اصطلاح بهتر، رونویسی خودکار است.
02:37
That just describes the input-output
65
157860
1980
این فقط رابطه ورودی-خروجی را توصیف می کند
02:39
relation, and not any theory or wishful
66
159840
3660
، و نه هیچ تئوری یا تفکر آرزویی
02:43
thinking about what the computer is
67
163500
2280
در مورد آنچه که رایانه
02:45
doing to be able to achieve that.
68
165780
1440
انجام می دهد تا بتواند به آن دست یابد.
02:47
Using words like ‘recognition’ in relation
69
167220
3360
استفاده از کلماتی مانند «تشخیص» در رابطه
02:50
to computers gives the idea that
70
170580
2100
با رایانه این ایده را به وجود می‌آورد که
02:52
something cognitive is happening – something
71
172680
2760
چیزی شناختی در حال وقوع است – چیزی که
02:55
related to the mental processes of
72
175440
2340
مربوط به فرآیندهای ذهنی
02:57
thinking, knowing, learning and understanding.
73
177780
2760
تفکر، دانستن، یادگیری و درک است.
03:00
But thinking and knowing are human,
74
180540
2700
اما اندیشیدن و دانستن، فعالیت های انسانی است،
03:03
not machine, activities. Professor Benders
75
183240
3060
نه ماشینی. پروفسور Benders
03:06
says that talking about them in connection
76
186300
2040
می گوید که صحبت کردن در مورد آنها در ارتباط
03:08
with computers is wishful thinking -
77
188340
3570
با رایانه ها آرزویی است -
03:11
something which is unlikely to happen.
78
191910
2310
چیزی که بعید است اتفاق بیفتد.
03:14
The problem with using words in this
79
194220
2220
مشکل استفاده از کلمات در این
03:16
way is that it reinforces what
80
196440
2100
راه این است که آن چیزی را که
03:18
Professor Bender calls, technical
81
198540
2160
پروفسور بندر می‌گوید، تعصب فنی، تقویت می‌کند
03:20
bias – the assumption that the computer
82
200700
2520
– این فرض که
03:23
is always right. When we encounter
83
203220
2520
کامپیوتر همیشه درست است. وقتی با زبانی روبرو می‌شویم
03:25
language that sounds natural, but is
84
205740
1680
که به نظر طبیعی می‌رسد،
03:27
coming from a computer, humans
85
207420
2280
اما از رایانه می‌آید، انسان‌ها
03:29
can’t help but imagine a mind behind
86
209700
2460
نمی‌توانند ذهنی را پشت سر زبان تصور کنند
03:32
the language, even when there isn’t one.
87
212160
2220
، حتی اگر ذهنی وجود نداشته باشد.
03:34
In other words, we anthropomorphise
88
214380
2160
به عبارت دیگر، ما
03:36
computers – we treat them as if they
89
216540
2520
رایانه‌ها را انسان‌سازی می‌کنیم – با آن‌ها طوری رفتار می‌کنیم که
03:39
were human. Here’s Professor Bender
90
219060
2220
انگار انسان هستند. در اینجا دوباره پروفسور بندر
03:41
again, discussing this idea with
91
221280
2220
است که این ایده را با
03:43
Charmaine Cozier, presenter of BBC
92
223500
2700
Charmaine Cozier، ارائه دهنده
03:46
World Service’s, the Inquiry.
93
226200
1620
سرویس جهانی بی بی سی، Inquiry، در میان می گذارد.
03:48
So ‘ism’ means system, ‘anthro’ or ‘anthropo’
94
228420
3660
پس «ایسم» به معنای سیستم، «آنترو» یا «انتروپو»
03:52
means human, and ‘morph’ means shape...
95
232080
3000
به معنای انسان، و «مورف» به معنای شکل...
03:55
And so this is a system that puts the
96
235080
3000
و بنابراین این نظامی است که
03:58
shape of a human on something, and
97
238080
2160
شکل انسان را روی چیزی قرار می‌دهد و
04:00
in this case the something is a computer.
98
240240
1260
در این صورت آن چیزی است. کامپیوتر.
04:01
We anthropomorphise animals all the time,
99
241500
3180
ما همیشه حیوانات را انسان‌سازی می‌کنیم،
04:04
but we also anthropomorphise action figures,
100
244680
3060
اما
04:07
or dolls, or companies when we talk about
101
247740
2880
وقتی درباره شرکت‌هایی که قصد دارند و غیره صحبت می‌کنیم، اکشن فیگورها، عروسک‌ها یا شرکت‌ها را نیز انسان‌سازی می‌کنیم
04:10
companies having intentions and so on.
102
250620
2040
.
04:12
We very much are in the habit of seeing
103
252660
2880
ما خیلی عادت
04:15
ourselves in the world around us.
104
255540
1620
داریم خودمان را در دنیای اطرافمان ببینیم.
04:17
And while we’re busy seeing ourselves
105
257160
2220
و در حالی که ما مشغول دیدن خودمان
04:19
by assigning human traits to things that
106
259380
2100
با نسبت دادن ویژگی های انسانی به چیزهایی هستیم که
04:21
are not, we risk being blindsided.
107
261480
2520
اینطور نیستند، در خطر کور شدن هستیم.
04:24
The more fluent that text is, the more
108
264000
2400
هرچه آن متن روان‌تر باشد،
04:26
different topics it can converse on, the
109
266400
2700
هر چه می‌تواند روی موضوعات مختلف بیشتری صحبت کند،
04:29
more chances there are to get taken in.
110
269100
1920
شانس بیشتری برای پذیرش وجود دارد.
04:31
If we treat computers as if they could think,
111
271860
2760
اگر با رایانه‌ها طوری رفتار کنیم که انگار می‌توانند فکر کنند
04:34
we might get blindsided, or
112
274620
2520
، ممکن است دچار کوری یا
04:37
unpleasantly surprised. Artificial intelligence
113
277140
3180
تعجب ناخوشایند شویم. هوش مصنوعی
04:40
works by finding patterns in massive
114
280320
2220
با یافتن الگوها در
04:42
amounts of data, so it can seem like
115
282540
2520
حجم عظیمی از داده ها کار می کند، بنابراین به نظر می رسد
04:45
we’re talking with a human, instead
116
285060
1860
که ما با یک انسان صحبت می کنیم، به
04:46
of a machine doing data analysis.
117
286920
2220
جای اینکه یک ماشین تجزیه و تحلیل داده ها را انجام دهد.
04:49
As a result, we get taken in – we’re tricked
118
289140
4020
در نتیجه، ما درگیر می شویم - فریب می خوریم
04:53
or deceived into thinking we’re dealing
119
293160
1920
یا فریب می خوریم که فکر می کنیم
04:55
with a human, or with something intelligent.
120
295080
3003
با یک انسان یا با چیزی هوشمند سروکار داریم.
04:58
Powerful AI can make machines appear conscious,
121
298083
3318
هوش مصنوعی قدرتمند می‌تواند ماشین‌ها را آگاه نشان دهد،
05:01
but even tech giants like Google are years
122
301401
2945
اما حتی غول‌های فناوری مانند گوگل
05:04
away from building computers that can
123
304346
2407
سال‌ها تا ساخت رایانه‌هایی که می‌توانند
05:06
dream or fall in love. Speaking of which,
124
306753
2355
رویا یا عاشق شوند فاصله دارند. در این مورد،
05:09
Sam, what was the answer to your question?
125
309108
2671
سام، پاسخ سوال شما چه بود؟
05:11
I asked what happened in the 2013 movie, Her.
126
311779
2752
پرسیدم در فیلم او در سال 2013 چه اتفاقی افتاد؟
05:14
Neil thought that the main character
127
314531
1900
نیل فکر می کرد که شخصیت
05:16
falls in love with his computer, which
128
316431
2248
اصلی عاشق کامپیوترش می شود که
05:18
was the correct answer!
129
318679
1361
جواب درست بود!
05:20
OK. Right, it’s time to recap the vocabulary
130
320880
2640
خوب. درست است، وقت آن رسیده است که
05:23
we’ve learned from this programme about AI,
131
323520
2340
واژگانی را که از این برنامه در مورد هوش مصنوعی
05:25
including chatbots - computer programmes
132
325860
3180
آموخته‌ایم، از جمله ربات‌های گفتگو - برنامه‌های رایانه‌ای
05:29
designed to interact with
133
329040
1380
که برای تعامل با
05:30
humans over the internet.
134
330420
1560
انسان‌ها از طریق اینترنت طراحی شده‌اند، مرور کنیم.
05:31
The adjective cognitive describes
135
331980
2640
صفت شناختی
05:34
anything connected with the mental
136
334620
1860
هر چیزی را توصیف می کند که با فرآیندهای ذهنی
05:36
processes of knowing,
137
336480
1320
دانستن،
05:37
learning and understanding.
138
337800
1380
یادگیری و درک مرتبط باشد.
05:39
Wishful thinking means thinking that
139
339180
2640
آرزومندی یعنی فکر کردن به این که
05:41
something which is very unlikely to happen
140
341820
2100
اتفاقی که خیلی بعید
05:43
might happen one day in the future.
141
343920
2040
است ممکن است روزی در آینده رخ دهد.
05:45
To anthropomorphise an object means
142
345960
2400
انسان‌سازی یک شی به این معناست
05:48
to treat it as if it were human,
143
348360
1500
که با آن به گونه‌ای رفتار کنیم که گویی انسان است،
05:49
even though it’s not.
144
349860
1200
حتی اگر اینطور نیست.
05:51
When you’re blindsided, you’re
145
351060
2520
هنگامی که شما کور هستید، به
05:53
surprised in a negative way.
146
353580
1500
شیوه ای منفی شگفت زده می شوید.
05:55
And finally, to get taken in by someone means
147
355080
2880
و در نهایت، جذب شدن توسط کسی
05:57
to be deceived or tricked by them.
148
357960
1860
به معنای فریب خوردن یا فریب خوردن توسط اوست.
05:59
My computer tells me that our six minutes
149
359820
2640
کامپیوتر من به من می گوید که شش دقیقه
06:02
are up! Join us again soon, for now
150
362460
2580
ما تمام شده است! به زودی دوباره به ما بپیوندید، در حال حاضر
06:05
it’s goodbye from us.
151
365040
1140
از ما خداحافظی شده است.
06:06
Bye!
152
366180
500
خدا حافظ!
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7