Should we fear chatbots? ⏲️ 6 Minute English

136,787 views ・ 2023-07-06

BBC Learning English


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید. زیرنویس های ترجمه شده به صورت ماشینی ترجمه می شوند.

00:07
Hello. This is 6 Minute English
0
7680
1600
سلام. این 6 دقیقه انگلیسی
00:09
from BBC Learning English.
1
9280
1720
از BBC Learning English است.
00:11
I'm Neil.
2
11000
760
00:11
And I'm Rob.
3
11760
1720
من نیل هستم.
و من راب هستم.
00:13
Now, I'm sure most of us have interacted with a chatbot.
4
13480
4160
اکنون، من مطمئن هستم که اکثر ما با یک چت بات تعامل داشته ایم.
00:17
These are bits of computer technology that respond to text with text
5
17640
4920
اینها قطعاتی از فناوری رایانه هستند که به متن با متن پاسخ می دهند
00:22
or respond to your voice.
6
22560
2040
یا به صدای شما پاسخ می دهند.
00:24
You ask it a question and usually it comes up
7
24600
3400
شما از آن یک سوال می‌پرسید و معمولاً
00:28
with an answer.
8
28000
1200
به یک پاسخ می‌رسید.
00:29
Yes, it's almost like talking to another human.
9
29200
2480
بله، تقریباً مانند صحبت کردن با یک انسان دیگر است.
00:31
But of course, it's not.
10
31680
1760
اما البته اینطور نیست.
00:33
It's just a clever piece of technology.
11
33440
2640
این فقط یک تکه هوشمندانه از فناوری است.
00:36
It's becoming more sophisticated, more advanced and complex,
12
36080
3720
پیچیده‌تر، پیشرفته‌تر و پیچیده‌تر می‌شود،
00:39
but could they replace real human interaction altogether?
13
39800
3200
اما آیا آنها می‌توانند به طور کلی جایگزین تعامل واقعی انسانی شوند؟
00:43
We'll discuss that more in a moment and find out if chatbots
14
43000
3560
ما در یک لحظه در مورد آن بیشتر بحث خواهیم کرد و خواهیم فهمید که آیا چت بات ها
00:46
really think for themselves. But first,
15
46560
3120
واقعاً خودشان فکر می کنند یا خیر. اما ابتدا
00:49
I have a question for you, Rob. The first computer program that allowed
16
49680
4000
یک سوال از شما دارم راب. اولین برنامه کامپیوتری که امکان برقراری
00:53
some kind of plausible conversation between humans and machines
17
53680
4400
نوعی مکالمه قابل قبول بین انسان و ماشین را فراهم می کرد
00:58
was invented in 1966.
18
58080
2840
در سال 1966 اختراع شد.
01:00
But what was it called?
19
60920
1760
اما نام آن چه بود؟
01:02
Was it a) Alexa.
20
62680
2360
الف) الکسا بود.
01:05
b) Eliza, or c) Parry? Well, it's not Alexa,
21
65040
5040
ب) الیزا، یا ج) پاری؟ خب، الکسا نیست،
01:10
that's too new, so I'll guess
22
70080
2080
خیلی جدید است، پس حدس می‌زنم
01:12
c) Parry.
23
72160
1160
ج) پاری.
01:13
I'll reveal the answer at the end of the programme.
24
73320
3480
پاسخ را در پایان برنامه فاش خواهم کرد.
01:16
Now, the old chatbots of the 1960s and 70s were quite basic.
25
76800
5400
اکنون، چت ربات های قدیمی دهه 1960 و 70 کاملاً ابتدایی بودند.
01:22
But more recently, the technology is able to predict the next word that is
26
82200
5600
اما اخیراً این فناوری قادر به پیش بینی کلمه بعدی است که
01:27
likely to be used in a sentence and it learns words and sentence structures.
27
87800
4800
احتمالاً در یک جمله استفاده می شود و کلمات و ساختار جمله را یاد می گیرد.
01:32
It's clever stuff.
28
92600
1360
چیز هوشمندانه ای است
01:33
I've experienced using them when talking to my bank
29
93960
2760
من استفاده از آنها را هنگام صحبت با بانکم
01:36
or when I have problems trying to book a ticket on a website.
30
96720
3320
یا زمانی که برای رزرو بلیط در یک وب سایت مشکل دارم، تجربه کرده ام.
01:40
I no longer phone a human,
31
100040
2480
من دیگر با انسان تماس نمی گیرم،
01:42
I speak to a virtual assistant instead.
32
102520
2840
به جای آن با یک دستیار مجازی صحبت می کنم.
01:45
Probably the most well known chatbot at the moment
33
105360
2880
احتمالاً شناخته شده ترین ربات چت در حال حاضر
01:48
is ChatGTP.
34
108240
1640
ChatGTP است.
01:49
It is. The claim is that it's able to answer
35
109880
2920
این است. ادعا این است که می تواند به
01:52
anything you ask it.
36
112800
1680
هر چیزی که شما بپرسید پاسخ دهد.
01:54
This includes writing
37
114480
1280
این شامل نوشتن
01:55
students' essays.
38
115760
1680
مقالات دانش آموزان است.
01:57
Now, this is something that was discussed on the BBC
39
117440
2600
اکنون، این چیزی است که در
02:00
Radio 4 programme, Word of Mouth.
40
120040
2520
برنامه رادیو بی بی سی 4، Word of Mouth مورد بحث قرار گرفت.
02:02
Emily M Bender,
41
122560
1640
امیلی ام بندر،
02:04
Professor of Computational Linguistics at the University
42
124200
3320
پروفسور زبان شناسی محاسباتی در دانشگاه
02:07
of Washington, explained why it's dangerous to always trust
43
127520
3760
واشنگتن، توضیح داد که چرا همیشه اعتماد به آنچه
02:11
what a chatbot is telling us.
44
131280
2160
یک ربات چت به ما می گوید خطرناک است.
02:13
We tend to react to grammatical, fluent, coherent seeming text
45
133440
5280
ما تمایل داریم به متن دستوری، روان و منسجم
02:18
as authoritative and reliable and valuable and
46
138720
4720
به ظاهری معتبر و قابل اعتماد و ارزشمند واکنش نشان دهیم و
02:23
we need to be on guard against that because what is coming out of ChatGTP
47
143440
2680
باید مراقب آن باشیم زیرا آنچه از ChatGTP بیرون می آید
02:26
is none of that.
48
146120
1400
هیچ کدام از اینها نیست.
02:27
So, Professor Bender says that well written text, that is coherent -
49
147520
4320
بنابراین، پروفسور بندر می‌گوید که متنی که به خوبی نوشته شده است، منسجم است -
02:31
that means it's clear, carefully considered and sensible -
50
151840
3440
به این معنی که واضح، دقیق و معقول است -
02:35
makes us think what we are reading is reliable and authoritative.
51
155280
4240
باعث می‌شود فکر کنیم آنچه می‌خوانیم قابل اعتماد و معتبر است.
02:39
So it's respected, accurate and important sounding.
52
159520
3600
بنابراین صدایی قابل احترام، دقیق و مهم است.
02:43
Yes, chatbots might appear to write in this way. But really,
53
163120
3920
بله، ربات‌های گفتگو ممکن است به این شکل بنویسند. اما در واقع،
02:47
they are just predicting one word after another based on what they have learnt.
54
167040
5040
آنها فقط کلمات را یکی پس از دیگری بر اساس آموخته های خود پیش بینی می کنند.
02:52
We should therefore be on guard - be careful
55
172080
3040
بنابراین ما باید مراقب باشیم -
02:55
and alert about the accuracy of what we are being told.
56
175120
3880
مراقب صحت آنچه به ما گفته می شود، باشیم.
02:59
One concern is that chatbots - a form of artificial intelligence - work
57
179000
4800
یکی از نگرانی ها این است که چت بات ها - نوعی هوش مصنوعی -
03:03
a bit like a human brain in the way it can learn and process information.
58
183800
4640
در روشی که می تواند اطلاعات را یاد بگیرد و پردازش کند، مانند مغز انسان عمل می کند.
03:08
They are able to learn from experience. Something called deep learning.
59
188440
4680
آنها می توانند از تجربه یاد بگیرند. چیزی به نام یادگیری عمیق.
03:13
A cognitive psychologist and computer scientist called Geoffrey Hinton,
60
193120
4120
یک روانشناس شناختی و دانشمند کامپیوتر به نام جفری هینتون
03:17
recently said he feared that chatbots could soon overtake the level
61
197240
4120
اخیراً گفت که می ترسد چت ربات ها به زودی از سطح
03:21
of information that a human brain holds. That is a bit scary isn't it?
62
201360
5160
اطلاعاتی که مغز انسان در اختیار دارد پیشی بگیرند. این کمی ترسناک است، اینطور نیست؟
03:26
But for now, chatbots can be useful for practical information,
63
206560
4000
اما در حال حاضر، چت‌بات‌ها می‌توانند برای اطلاعات عملی مفید باشند،
03:30
but sometimes we start to believe they are human
64
210560
2680
اما گاهی اوقات ما شروع می‌کنیم به این باور که آن‌ها انسان هستند
03:33
and we interact with them in a human like way.
65
213240
2920
و به روشی شبیه به انسان با آن‌ها تعامل می‌کنیم.
03:36
This can make us believe them even more.
66
216160
2520
این می تواند باعث شود ما آنها را بیشتر باور کنیم .
03:38
Professor Emma Bender,
67
218680
1160
پروفسور اما بندر که
03:39
speaking on the BBC's Word of Mouth
68
219840
1880
در برنامه Word of Mouth بی بی سی صحبت می کرد
03:41
programme, explains why we might feel like that.
69
221720
3560
، توضیح می دهد که چرا ممکن است چنین احساسی داشته باشیم.
03:45
I think what's going on there is, the kinds of answers
70
225280
3160
من فکر می‌کنم آنچه در آنجا می‌گذرد این است، انواع پاسخ‌هایی که دریافت می‌کنید
03:48
you get depend on the questions
71
228440
2360
به سؤالاتی که می‌پرسید بستگی دارد
03:50
you put in, because it's doing likely next word, likely next word.
72
230800
3360
، زیرا احتمالاً کلمه بعدی، احتمالاً کلمه بعدی را انجام می‌دهد.
03:54
And so, if as the human interacting with this machine
73
234160
3360
و بنابراین، اگر به عنوان انسان در حال تعامل با این دستگاه
03:57
and you start asking questions about how do you feel, you know, chatbot?
74
237520
4120
و شروع به پرسیدن سؤالاتی در مورد احساس خود کنید، می دانید چت بات؟
04:01
And, what do you think of this?
75
241640
2120
و، نظر شما در مورد این چیست؟
04:03
What are your goals?
76
243760
1200
اهداف شما چه هستند؟
04:04
You can provoke it to say things that sound like what a sentient
77
244960
3400
شما می توانید آن را تحریک کنید تا چیزهایی بگوید که شبیه آنچه یک
04:08
entity would say. We are really primed to imagine a mind behind language
78
248360
4960
موجود حساس می گوید به نظر می رسد. ما واقعاً آماده ایم که هر زمان که با زبان روبرو می شویم ذهنی را پشت سر زبان تصور کنیم
04:13
whenever we encounter language.
79
253320
1840
.
04:15
And so we really have to account for that when
80
255160
1880
و بنابراین، ما واقعاً باید هنگام
04:17
we're making decisions about these.
81
257040
2240
تصمیم گیری در مورد اینها، آن را حساب کنیم.
04:19
So, although a chatbot might sound human,
82
259480
2960
بنابراین، اگرچه یک ربات چت ممکن است انسانی به نظر برسد،
04:22
we really just ask it
83
262440
1280
ما واقعاً از آن
04:23
things to get a reaction. We provoke it.
84
263720
2720
چیزهایی می‌خواهیم تا واکنش نشان دهد. ما آن را تحریک می کنیم.
04:26
And it answers only with words
85
266440
1800
و فقط با کلماتی که
04:28
it has learned to use before.
86
268240
2080
قبلاً استفاده از آن را یاد گرفته پاسخ می دهد.
04:30
Not because it has come up with a clever answer,
87
270320
2960
نه به این دلیل که پاسخی هوشمندانه ارائه کرده است،
04:33
but it does sound like a sentient entity. Sentient describes a living  
88
273280
5000
اما به نظر می رسد یک موجود حساس است. Sentient یک موجود زنده را توصیف می کند
04:38
thing that experiences feelings. As Professor Bender says we imagine  
89
278280
4880
که احساسات را تجربه می کند. همانطور که پروفسور بندر می گوید ما تصور می کنیم
04:43
that when something speaks there is a mind behind it. But sorry Neil,
90
283160
4760
که وقتی چیزی صحبت می کند ذهنی پشت آن وجود دارد. اما متاسفم نیل،
04:47
they are not your friend.
91
287920
1280
آنها دوست شما نیستند.
04:49
They're just machines.
92
289200
1160
آنها فقط ماشین هستند.
04:50
Yes, it's strange then
93
290360
1240
بله، عجیب است
04:51
that we sometimes give chatbots names. Alexa, Siri, and earlier
94
291600
4920
که ما گاهی اوقات نام چت بات ها را می گذاریم. الکسا، سیری و قبلاً از
04:56
I asked you what the name was for their first ever chatbot?
95
296520
3840
شما پرسیدم که نام اولین ربات چت آنها چیست؟
05:00
And I guessed it was Parry. Was I right?
96
300360
2760
و من حدس زدم که آن پری است. درست گفتم؟
05:03
You guessed wrong, I'm afraid.
97
303120
2000
اشتباه حدس زدی میترسم
05:05
Parry was an early form of chatbot from 1972.
98
305120
3840
Parry شکل اولیه چت بات از سال 1972 بود.
05:08
But the correct answer was Eliza.
99
308960
2960
اما پاسخ صحیح Eliza بود.
05:11
It was considered to be the first chatterbot, as it was called then,
100
311920
3960
این اولین ربات چت‌باز، همانطور که در آن زمان نامیده می‌شد، در نظر گرفته می‌شد
05:15
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
101
315880
5480
و توسط جوزف وایزنبام در موسسه فناوری ماساچوست توسعه داده شد.
05:21
Fascinating stuff.
102
321360
1320
چیزهای جذاب
05:22
OK, now let's recap some of the vocabulary
103
322680
2480
خوب، اکنون اجازه دهید برخی از واژگانی را که
05:25
we highlighted in this programme, starting with sophisticated,
104
325160
4080
در این برنامه برجسته کرده‌ایم، با پیچیده شروع کنیم،
05:29
which can describe technology that is advanced and complex.
105
329240
4120
که می‌تواند فناوری پیشرفته و پیچیده را توصیف کند.
05:33
Something that is coherent, is clear carefully considered and sensible.
106
333360
4520
چیزی که منسجم است، واضح و با دقت در نظر گرفته شده و معقول است.
05:37
Authoritative means respected accurate and important sounding.
107
337880
4600
مقتدر یعنی صدای دقیق و مهم محترم.
05:42
When you are on guard
108
342480
1400
وقتی در حال نگهبانی هستید
05:43
you must be careful and alert about something.
109
343880
2400
باید مراقب چیزی باشید و هوشیار باشید.
05:46
It could be the accuracy of what you see or hear or just being aware
110
346280
4560
این می تواند دقت آنچه می بینید یا می شنوید یا فقط آگاهی
05:50
of the dangers around you. To provoke means to do something
111
350840
3560
از خطرات اطرافتان باشد. برانگیختن یعنی انجام کاری
05:54
that causes a reaction from someone.
112
354400
2480
که باعث واکنش کسی شود.
05:56
Sentient describes something that experiences feelings.
113
356880
3840
Sentient چیزی را توصیف می کند که احساسات را تجربه می کند.
06:00
So it's something that is living. Once again
114
360720
2680
پس این چیزی است که زنده است. یک بار دیگر
06:03
our six minutes are up. Goodbye.
115
363400
2320
شش دقیقه ما تمام شد. خداحافظ.
06:05
Bye bye for now.
116
365720
1520
فعلا خداحافظ
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7