BOX SET: 6 Minute English - 'Artificial intelligence' English mega-class! 30 minutes of new vocab!

6,365 views ・ 2025-01-19

BBC Learning English


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید. زیرنویس های ترجمه شده به صورت ماشینی ترجمه می شوند.

00:00
6 Minute English.
0
760
1720
6 دقیقه انگلیسی
00:02
From BBC Learning English.
1
2600
2640
از BBC Learning English.
00:05
Hello. This is 6 Minute English from BBC Learning English. I'm Neil.
2
5840
3920
سلام. این 6 دقیقه انگلیسی از BBC Learning English است. من نیل هستم.
00:09
And I'm Rob.
3
9880
1200
و من راب هستم.
00:11
Now, I'm sure most of us have interacted with a chatbot.
4
11200
4360
اکنون، من مطمئن هستم که اکثر ما با یک چت بات تعامل داشته ایم.
00:15
These are bits of computer technology
5
15680
2320
اینها قطعاتی از فناوری رایانه هستند
00:18
that respond to text with text or respond to your voice.
6
18120
4600
که به متن با متن پاسخ می دهند یا به صدای شما پاسخ می دهند.
00:22
You ask it a question and usually it comes up with an answer.
7
22840
3960
شما از آن یک سوال می‌پرسید و معمولاً به یک پاسخ می‌رسید.
00:26
Yes, it's almost like talking to another human, but of course it's not,
8
26920
4480
بله، تقریباً مانند صحبت کردن با یک انسان دیگر است، اما البته اینطور نیست،
00:31
it's just a clever piece of technology.
9
31520
2560
این فقط یک فناوری هوشمندانه است.
00:34
It is becoming more 'sophisticated' — more 'advanced and complex' —
10
34200
3640
«پیچیده‌تر» می‌شود - «پیشرفته‌تر و پیچیده‌تر» -
00:37
but could they replace real human interaction altogether?
11
37960
3200
اما آیا آنها می‌توانند به طور کلی جایگزین تعامل واقعی انسانی شوند؟
00:41
We'll discuss that more in a moment
12
41280
2040
ما در یک لحظه بیشتر در مورد آن بحث خواهیم کرد
00:43
and find out if chatbots really think for themselves.
13
43440
3680
و خواهیم فهمید که آیا چت بات ها واقعاً خودشان فکر می کنند یا خیر.
00:47
But first I have a question for you, Rob.
14
47240
2440
اما ابتدا یک سوال از شما دارم، راب.
00:49
The first computer program that allowed some kind of plausible conversation
15
49800
4440
اولین برنامه کامپیوتری که امکان برقراری نوعی مکالمه قابل قبول
00:54
between humans and machines was invented in 1966, but what was it called?
16
54360
6440
بین انسان و ماشین را فراهم می کرد در سال 1966 اختراع شد، اما چه نامی داشت؟
01:00
Was it a) Alexa? b) ELIZA? Or c) PARRY?
17
60920
6120
الف) الکسا بود؟ ب) الیزا؟ یا ج) PARRY؟
01:07
Ah, well, it's not Alexa, that's too new, so I'll guess c) PARRY.
18
67160
4280
آه، خوب، الکسا نیست، خیلی جدید است، بنابراین حدس می‌زنم ج) PARRY.
01:11
I'll reveal the answer at the end of the programme.
19
71560
3200
پاسخ را در پایان برنامه فاش خواهم کرد.
01:14
Now, the old chatbots of the 1960s and '70s were quite basic,
20
74880
5440
اکنون چت‌بات‌های قدیمی دهه‌های 1960 و 70 کاملاً ابتدایی بودند،
01:20
but more recently, the technology is able to predict the next word
21
80440
4640
اما اخیراً، این فناوری قادر است کلمه بعدی را
01:25
that is likely to be used in a sentence,
22
85200
2200
که احتمالاً در یک جمله استفاده می‌شود پیش‌بینی کند
01:27
and it learns words and sentence structures.
23
87520
2840
و کلمات و ساختار جملات را یاد می‌گیرد.
01:30
Mm, it's clever stuff.
24
90480
1480
مم، چیز هوشمندانه ای است.
01:32
I've experienced using them when talking to my bank,
25
92080
2800
من استفاده از آنها را هنگام صحبت با بانکم
01:35
or when I have problems trying to book a ticket on a website.
26
95000
3080
یا زمانی که برای رزرو بلیط در یک وب سایت مشکل دارم، تجربه کرده ام.
01:38
I no longer phone a human, I speak to a virtual assistant instead.
27
98200
5160
من دیگر با یک انسان تماس نمی گیرم، در عوض با یک دستیار مجازی صحبت می کنم.
01:43
Probably the most well-known chatbot at the moment is ChatGPT..
28
103480
4560
احتمالاً شناخته شده ترین ربات چت در حال حاضر ChatGPT است.
01:48
It is. The claim is that it's able to answer anything you ask it.
29
108160
4400
ادعا این است که می تواند به هر چیزی که شما بپرسید پاسخ دهد.
01:52
This includes writing students' essays.
30
112680
2760
این شامل نوشتن مقالات دانش آموزان است.
01:55
Now, this is something that was discussed
31
115560
1760
اکنون، این چیزی است که
01:57
on the BBC Radio 4 programme, Word of Mouth.
32
117440
3040
در برنامه رادیو بی بی سی 4، Word of Mouth مورد بحث قرار گرفت.
02:00
Emily M Bender, Professor of Computational Linguistics
33
120600
4280
امیلی ام بندر، پروفسور زبان شناسی محاسباتی
02:05
at the University of Washington,
34
125000
1680
در دانشگاه واشنگتن،
02:06
explained why it's dangerous to always trust what a chatbot is telling us.
35
126800
4720
توضیح داد که چرا همیشه اعتماد به آنچه یک ربات چت به ما می گوید خطرناک است.
02:11
We tend to react to grammatical, fluent, coherent-seeming text
36
131640
5120
ما تمایل داریم به متن دستوری، روان و منسجم
02:16
as authoritative and reliable and valuable and we need to be on guard against that,
37
136880
6040
به‌عنوان متن معتبر، قابل اعتماد و ارزشمند واکنش نشان دهیم و باید مراقب آن باشیم،
02:23
because what's coming out of ChatGPT is none of that.
38
143040
2520
زیرا آنچه از ChatGPT بیرون می‌آید هیچ کدام از اینها نیست.
02:25
So, Professor Bender says that well-written text that is 'coherent' —
39
145680
4200
بنابراین، پروفسور بندر می‌گوید که متنی که به خوبی نوشته شده است «منسجم» است -
02:30
that means it's 'clear, carefully considered and sensible' —
40
150000
3440
به این معنی که «روشن، با دقت در نظر گرفته شده و معقول است» -
02:33
makes us think what we are reading is reliable and 'authoritative'.
41
153560
4040
باعث می‌شود آنچه را که می‌خوانیم قابل اعتماد و «معتبر» بدانیم.
02:37
So it's 'respected, accurate and important sounding'.
42
157720
3440
بنابراین "صدای قابل احترام، دقیق و مهم" است.
02:41
Yes, chatbots might appear to write in this way,
43
161280
3000
بله، ربات‌های چت ممکن است به نظر به این شکل بنویسند،
02:44
but really, they are just predicting one word after another,
44
164400
3560
اما در واقع، آنها فقط کلماتی را پس از دیگری پیش‌بینی می‌کنند،
02:48
based on what they have learnt.
45
168080
2040
بر اساس چیزهایی که آموخته‌اند.
02:50
We should, therefore, be 'on guard' — be 'careful and alert' —
46
170240
3720
بنابراین، ما باید «مواظب» باشیم - «مواظب و هوشیار» باشیم -
02:54
about the accuracy of what we are being told.
47
174080
3000
در مورد صحت آنچه به ما گفته می شود.
02:57
One concern is that chatbots — a form of artificial intelligence —
48
177200
4240
یکی از نگرانی‌ها این است که چت‌بات‌ها - نوعی هوش مصنوعی -
03:01
work a bit like a human brain in the way it can learn and process information.
49
181560
4920
در روشی که می‌تواند اطلاعات را یاد بگیرد و پردازش کند، مانند مغز انسان عمل می‌کند.
03:06
They are able to learn from experience, something called deep learning.
50
186600
4360
آنها می توانند از تجربه یاد بگیرند، چیزی به نام یادگیری عمیق.
03:11
A cognitive psychologist and computer scientist called Geoffrey Hinton
51
191080
4200
یک روانشناس شناختی و دانشمند کامپیوتر به نام جفری هینتون
03:15
recently said he feared that chatbots could soon overtake
52
195400
3680
اخیراً گفت که می ترسد چت بات ها به زودی از
03:19
the level of information that a human brain holds.
53
199200
3400
سطح اطلاعاتی که مغز انسان در اختیار دارد پیشی بگیرند.
03:22
That's a bit scary, isn't it?
54
202720
1440
این کمی ترسناک است، اینطور نیست؟
03:24
Mm, but for now, chatbots can be useful for practical information,
55
204280
4360
امم، اما در حال حاضر، چت ربات ها می توانند برای اطلاعات عملی مفید باشند،
03:28
but sometimes we start to believe they are human
56
208760
2680
اما گاهی اوقات ما شروع به این باور می کنیم که آنها انسان هستند
03:31
and we interact with them in a human-like way.
57
211560
2680
و به روشی شبیه به انسان با آنها تعامل می کنیم .
03:34
This can make us believe them even more.
58
214360
2400
این می تواند باعث شود ما آنها را بیشتر باور کنیم.
03:36
Professor Emma Bender, speaking on the BBC's Word of Mouth programme,
59
216880
3520
پروفسور اما بندر، در برنامه Word of Mouth بی بی سی،
03:40
explains why we might feel like that.
60
220520
2760
توضیح می دهد که چرا ممکن است چنین احساسی داشته باشیم.
03:43
I think what's going on there is the kinds of answers you get
61
223400
4160
من فکر می‌کنم آنچه در آنجا اتفاق می‌افتد نوع پاسخ‌هایی است که می‌گیرید
03:47
depend on the questions you put in,
62
227680
2040
به سؤالاتی که می‌پرسید بستگی دارد،
03:49
because it's doing likely next word, likely next word,
63
229840
2520
زیرا احتمالاً کلمه بعدی، احتمالاً کلمه بعدی را انجام می‌دهد،
03:52
and so if, as the human interacting with this machine,
64
232480
3280
و بنابراین اگر به عنوان انسان در حال تعامل با این دستگاه،
03:55
you start asking it questions about how do you feel, you know, Chatbot?
65
235880
4280
شروع به پرسیدن سؤالاتی در مورد آن کنید. چت بات چه احساسی داری؟
04:00
And "What do you think of this?" And, "What are your goals?"
66
240280
2840
و "نظرت در مورد این چیه؟" و "اهداف شما چیست؟"
04:03
You can provoke it to say things
67
243240
1720
شما می توانید آن را تحریک کنید تا چیزهایی را بیان کند
04:05
that sound like what a sentient entity would say.
68
245080
2960
که شبیه آنچه یک موجود ذی شعور می گوید به نظر می رسد.
04:08
We are really primed to imagine a mind behind language
69
248160
3320
ما واقعاً آماده ایم که
04:11
whenever we encounter language
70
251600
1600
هر زمان که با زبان روبرو می شویم ذهنی را پشت سر زبان تصور کنیم
04:13
and so we really have to account for that when we're making decisions about these.
71
253320
3680
و بنابراین هنگام تصمیم گیری در مورد آنها واقعاً باید آن را حساب کنیم.
04:17
So, although a chatbot might sound human,
72
257840
2560
بنابراین، اگرچه یک ربات چت ممکن است انسانی به نظر برسد، اما
04:20
we really just ask it things to get a reaction — we 'provoke' it —
73
260520
3840
ما واقعاً فقط از آن چیزهایی می‌پرسیم تا واکنش نشان دهد - ما آن را «تحریک» می‌کنیم -
04:24
and it answers only with words it's learned to use before,
74
264480
4040
و فقط با کلماتی که قبلاً استفاده از آنها را یاد گرفته‌اند، پاسخ می‌دهد،
04:28
not because it has come up with a clever answer.
75
268640
2720
نه به این دلیل که پاسخی هوشمندانه ارائه کرده است.
04:31
But it does sound like a sentient entity —
76
271480
2600
اما به نظر می رسد مانند یک موجود حساس -
04:34
'sentient' describes 'a living thing that experiences feelings'.
77
274200
4440
"حساس" "جانداری را که احساسات را تجربه می کند" توصیف می کند.
04:38
As Professor Bender says,
78
278760
1640
همانطور که پروفسور بندر می گوید،
04:40
we imagine that when something speaks, there is a mind behind it.
79
280520
4080
ما تصور می کنیم که وقتی چیزی صحبت می کند، یک ذهن در پشت آن وجود دارد.
04:44
But sorry, Neil, they are not your friend, they're just machines!
80
284720
4000
اما متاسفم، نیل، آنها دوست شما نیستند، آنها فقط ماشین هستند!
04:48
Yes, it's strange then that we sometimes give chatbots names.
81
288840
3240
بله، عجیب است که ما گاهی اوقات نام چت بات ها را می گذاریم.
04:52
Alexa, Siri, and earlier I asked you what the name was for the first ever chatbot.
82
292200
5920
الکسا، سیری و قبلاً از شما پرسیدم که نام اولین ربات چت چیست؟
04:58
And I guessed it was PARRY. Was I right?
83
298240
2880
و حدس زدم PARRY باشد. درست گفتم؟
05:01
You guessed wrong, I'm afraid.
84
301240
2040
اشتباه حدس زدی میترسم
05:03
PARRY was an early form of chatbot from 1972, but the correct answer was ELIZA.
85
303400
6400
PARRY شکل اولیه چت بات از سال 1972 بود، اما پاسخ صحیح ELIZA بود.
05:09
It was considered to be the first 'chatterbot' — as it was called then —
86
309920
4000
این اولین "ربات چت" - همانطور که در آن زمان نامیده می شد - در نظر گرفته می شد
05:14
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
87
314040
5640
و توسط جوزف وایزنبام در موسسه فناوری ماساچوست توسعه داده شد.
05:19
Fascinating stuff.
88
319800
1040
چیزهای جذاب
05:20
OK, now let's recap some of the vocabulary we highlighted in this programme.
89
320960
4360
خوب، حالا اجازه دهید برخی از واژگانی را که در این برنامه برجسته کرده بودیم، مرور کنیم.
05:25
Starting with 'sophisticated',
90
325440
2000
شروع با «پیچیده»،
05:27
which can describe technology that is 'advanced and complex'.
91
327560
3880
که می تواند فناوری «پیشرفته و پیچیده» را توصیف کند.
05:31
Something that is 'coherent' is 'clear, carefully considered and sensible'.
92
331560
4320
چیزی که "منسجم" است "روشن، با دقت در نظر گرفته شده و معقول" است.
05:36
'Authoritative' means 'respected, accurate and important sounding'.
93
336000
4480
"معتبر" به معنای "صدای قابل احترام، دقیق و مهم" است.
05:40
When you are 'on guard' you must be 'careful and alert' about something —
94
340600
3760
هنگامی که "محافظ" هستید، باید در مورد چیزی "مواظب و هوشیار" باشید -
05:44
it could be accuracy of what you see or hear,
95
344480
3320
این می تواند دقت آنچه می بینید یا می شنوید،
05:47
or just being aware of the dangers around you.
96
347920
2640
یا فقط آگاهی از خطرات اطرافتان باشد.
05:50
To 'provoke' means to 'do something that causes a reaction from someone'.
97
350680
4160
"برانگیختن" به معنای "انجام کاری که باعث واکنش کسی شود".
05:54
'Sentient' describes 'something that experiences feelings' —
98
354960
3680
"احساس" "چیزی را که احساسات را تجربه می کند" توصیف می کند -
05:58
so it's 'something that is living'.
99
358760
2120
بنابراین "چیزی است که زنده است".
06:01
Once again, our six minutes are up. Goodbye.
100
361000
2640
یک بار دیگر، شش دقیقه ما تمام شد. خداحافظ
06:03
Bye for now.
101
363760
1000
فعلا خداحافظ
06:05
6 Minute English.
102
365680
1520
6 دقیقه انگلیسی
06:07
From BBC Learning English.
103
367320
2400
از BBC Learning English.
06:10
Hello. This is 6 Minute English from BBC Learning English.
104
370600
3240
سلام. این 6 دقیقه انگلیسی از BBC Learning English است.
06:13
— I'm Sam. — And I'm Neil.
105
373960
1240
- من سم هستم. - و من نیل هستم.
06:15
In the autumn of 2021, something strange happened
106
375320
3640
در پاییز سال 2021، اتفاق عجیبی
06:19
at the Google headquarters in California's Silicon Valley.
107
379080
3440
در مقر گوگل در سیلیکون ولی کالیفرنیا رخ داد.
06:22
A software engineer called Blake Lemoine
108
382640
2720
مهندس نرم افزاری به نام بلیک لمواین
06:25
was working on the artificial intelligence project
109
385480
2840
روی پروژه هوش مصنوعی
06:28
Language Models for Dialogue Applications, or LaMDA for short.
110
388440
5080
Language Models for Dialogue Applications یا به اختصار LaMDA کار می کرد.
06:33
LaMDA is a 'chatbot' — a 'computer programme
111
393640
2880
LaMDA یک «ربات چت» است - یک «برنامه رایانه‌ای که
06:36
'designed to have conversations with humans over the internet'.
112
396640
3360
برای مکالمه با انسان از طریق اینترنت طراحی شده است». بلیک
06:40
After months talking with LaMDA
113
400120
2280
پس از ماه‌ها صحبت با LaMDA
06:42
on topics ranging from movies to the meaning of life,
114
402520
3360
در مورد موضوعات مختلف از فیلم‌ها گرفته تا معنای زندگی،
06:46
Blake came to a surprising conclusion —
115
406000
2640
به یک نتیجه شگفت‌انگیز رسید -
06:48
the chatbot was an intelligent person
116
408760
2720
چت ربات یک فرد باهوش
06:51
with wishes and rights that should be respected.
117
411600
3040
با خواسته‌ها و حقوقی بود که باید به آنها احترام گذاشت.
06:54
For Blake, LaMDA was a Google employee, not a machine.
118
414760
3960
برای بلیک، LaMDA یک کارمند گوگل بود، نه یک ماشین.
06:58
He also called it his friend.
119
418840
1880
او آن را دوست خود نیز نامید.
07:00
Google quickly reassigned Blake from the project,
120
420840
2880
گوگل به سرعت بلیک را از پروژه منصوب کرد و
07:03
announcing that his ideas were not supported by the evidence.
121
423840
3760
اعلام کرد که ایده های او توسط شواهد پشتیبانی نمی شود.
07:07
But what exactly was going on?
122
427720
2440
اما دقیقا چه اتفاقی می افتاد؟
07:10
In this programme, we'll be discussing whether artificial intelligence
123
430280
3720
در این برنامه، در مورد اینکه آیا هوش مصنوعی
07:14
is capable of consciousness.
124
434120
2160
قادر به آگاهی است یا خیر بحث خواهیم کرد.
07:16
We'll hear from one expert
125
436400
1480
ما از یک متخصص خواهیم شنید
07:18
who thinks AI is not as intelligent as we sometimes think
126
438000
3600
که فکر می کند هوش مصنوعی آنقدرها که ما گاهی فکر می کنیم باهوش نیست
07:21
and, as usual, we'll be learning some new vocabulary as well.
127
441720
3800
و طبق معمول، واژگان جدیدی را نیز یاد خواهیم گرفت.
07:25
But before that, I have a question for you, Neil.
128
445640
2480
اما قبل از آن، یک سوال از شما دارم، نیل.
07:28
What happened to Blake Lemoine
129
448240
1400
اتفاقی که برای بلیک لمواین افتاد
07:29
is strangely similar to the 2013 Hollywood movie, Her,
130
449760
4200
به طرز عجیبی شبیه به فیلم هالیوودی او در سال ۲۰۱۳ است که
07:34
starring Joaquin Phoenix as a lonely writer who talks with his computer,
131
454080
4400
واکین فینیکس در نقش نویسنده‌ای تنها که با کامپیوترش صحبت می‌کند
07:38
voiced by Scarlett Johansson.
132
458600
1840
با صداپیشگی اسکارلت جوهانسون بازی می‌کند.
07:40
But what happens at the end of the movie?
133
460560
2280
اما در پایان فیلم چه اتفاقی می افتد؟
07:42
Is it a) The computer comes to life?
134
462960
2520
آیا الف) کامپیوتر زنده می شود؟
07:45
b) The computer dreams about the writer?
135
465600
2480
ب) کامپیوتر در مورد نویسنده خواب می بیند؟
07:48
Or c) The writer falls in love with the computer?
136
468200
2800
یا ج) نویسنده عاشق کامپیوتر می شود؟
07:51
C) The writer falls in love with the computer.
137
471120
3240
ج) نویسنده عاشق کامپیوتر می شود.
07:54
OK, Neil, I'll reveal the answer at the end of the programme.
138
474480
3360
خوب، نیل، پاسخ را در پایان برنامه فاش خواهم کرد.
07:57
Although Hollywood is full of movies about robots coming to life,
139
477960
3760
اگرچه هالیوود مملو از فیلم‌هایی در مورد ربات‌هایی است که زندگی می‌کنند،
08:01
Emily Bender, Professor of Linguistics and Computing at the University of Washington,
140
481840
5440
امیلی بندر، پروفسور زبان‌شناسی و محاسبات در دانشگاه واشنگتن،
08:07
thinks AI isn't that smart.
141
487400
2640
فکر می‌کند هوش مصنوعی آنقدرها هم هوشمند نیست.
08:10
She thinks the words we use to talk about technology —
142
490160
3240
او فکر می کند کلماتی که ما برای صحبت در مورد فناوری استفاده می کنیم -
08:13
phrases like 'machine learning' —
143
493520
2120
عباراتی مانند "یادگیری ماشینی" -
08:15
give a false impression about what computers can and can't do.
144
495760
4440
تصور نادرستی در مورد آنچه رایانه ها می توانند انجام دهند و نمی توانند انجام دهند، ایجاد می کند.
08:20
Here is Professor Bender discussing another misleading phrase —
145
500320
3520
در اینجا پروفسور بندر در حال بحث درباره یک عبارت گمراه کننده دیگر -
08:23
'speech recognition' — with BBC World Service programme The Inquiry.
146
503960
5120
"تشخیص گفتار" - با برنامه سرویس جهانی بی بی سی The Inquiry است.
08:29
If you talk about 'automatic speech recognition',
147
509200
3000
اگر در مورد «تشخیص خودکار گفتار» صحبت می‌کنید،
08:32
the term 'recognition' suggests that there's something cognitive going on,
148
512320
4680
اصطلاح «تشخیص» نشان می‌دهد که چیزی شناختی در جریان است،
08:37
where I think a better term would be automatic transcription.
149
517120
2840
جایی که فکر می‌کنم اصطلاح بهتر، رونویسی خودکار است.
08:40
That just describes the input-output relation,
150
520080
2400
این فقط رابطه ورودی-خروجی را توصیف می کند،
08:42
and not any theory or wishful thinking
151
522600
3480
و نه هیچ تئوری یا تفکر آرزویی
08:46
about what the computer is doing to be able to achieve that.
152
526200
3360
در مورد آنچه که رایانه انجام می دهد تا بتواند به آن دست یابد.
08:49
Using words like 'recognition' in relation to computers
153
529680
3720
استفاده از کلماتی مانند «تشخیص» در رابطه با رایانه
08:53
gives the idea that something 'cognitive' is happening —
154
533520
3160
این ایده را به وجود می‌آورد که چیزی «شناختی» در حال وقوع است -
08:56
something 'related to the mental processes
155
536800
2680
چیزی «مرتبط با فرآیندهای ذهنی
08:59
'of thinking, knowing, learning and understanding'.
156
539600
3120
«تفکر، دانستن، یادگیری و درک».
09:02
But thinking and knowing are human, not machine, activities.
157
542840
4480
اما اندیشیدن و دانستن، فعالیت های انسانی است، نه ماشینی.
09:07
Professor Benders says that talking about them in connection with computers
158
547440
4160
پروفسور Benders می گوید که صحبت کردن در مورد آنها در ارتباط با رایانه ها
09:11
is 'wishful thinking' — 'something which is unlikely to happen'.
159
551720
4720
"تفکر آرزو" است - "چیزی که بعید است اتفاق بیفتد".
09:16
The problem with using words in this way
160
556560
2120
مشکل استفاده از کلمات در این راه این است
09:18
is that it reinforces what Professor Bender calls 'technical bias' —
161
558800
4760
که آن چیزی را که پروفسور بندر «تعصب فنی» می‌نامد تقویت می‌کند -
09:23
'the assumption that the computer is always right'.
162
563680
2920
«فرض که کامپیوتر همیشه درست است».
09:26
When we encounter language that sounds natural, but is coming from a computer,
163
566720
4120
وقتی با زبانی مواجه می‌شویم که طبیعی به نظر می‌رسد، اما از رایانه می‌آید،
09:30
humans can't help but imagine a mind behind the language,
164
570960
3760
انسان‌ها نمی‌توانند ذهنی را پشت آن زبان تصور کنند،
09:34
even when there isn't one.
165
574840
1520
حتی اگر ذهنی وجود نداشته باشد.
09:36
In other words, we 'anthropomorphise' computers —
166
576480
2960
به عبارت دیگر، ما رایانه‌ها را «انسان‌سازی» می‌کنیم - با
09:39
we 'treat them as if they were human'.
167
579560
2320
آنها «به گونه‌ای رفتار می‌کنیم که گویی انسان هستند».
09:42
Here's Professor Bender again, discussing this idea with Charmaine Cozier,
168
582000
4600
در اینجا دوباره پروفسور بندر است که در مورد این ایده با Charmaine Cozier،
09:46
the presenter of BBC World Service's The Inquiry.
169
586720
3520
ارائه دهنده The Inquiry سرویس جهانی بی بی سی صحبت می کند.
09:50
So 'ism' means system, 'anthro' or 'anthropo' means human,
170
590360
4800
بنابراین «یسم» به معنای سیستم، «آنترو» یا «انتروپو» به معنای انسان
09:55
and 'morph' means shape.
171
595280
1800
و «مورف» به معنای شکل است.
09:57
And so this is a system that puts the shape of a human on something,
172
597200
4760
و بنابراین این سیستمی است که شکل یک انسان را روی چیزی قرار می دهد،
10:02
and, in this case, the something is a computer.
173
602080
1680
و در این مورد، چیزی یک کامپیوتر است.
10:03
We anthropomorphise animals all the time,
174
603880
2920
ما همیشه حیوانات را انسان‌سازی می‌کنیم،
10:06
but we also anthropomorphise action figures, or dolls,
175
606920
3840
اما
10:10
or companies when we talk about companies having intentions and so on.
176
610880
3880
وقتی درباره شرکت‌هایی که قصد دارند و غیره صحبت می‌کنیم، اکشن فیگورها، عروسک‌ها یا شرکت‌ها را نیز انسان‌سازی می‌کنیم.
10:14
We very much are in the habit of seeing ourselves in the world around us.
177
614880
4480
ما خیلی عادت داریم خودمان را در دنیای اطرافمان ببینیم.
10:19
And while we're busy seeing ourselves
178
619480
1920
و در حالی که ما مشغول دیدن خودمان
10:21
by assigning human traits to things that are not, we risk being blindsided.
179
621520
4760
با نسبت دادن ویژگی های انسانی به چیزهایی هستیم که اینطور نیستند، در خطر کور شدن هستیم.
10:26
The more fluent that text is, the more different topics it can converse on,
180
626400
3880
هرچه آن متن روان‌تر باشد، هر چه می‌تواند روی موضوعات متفاوت‌تری صحبت کند،
10:30
the more chances there are to get taken in.
181
630400
2720
شانس بیشتری برای پذیرش وجود دارد.
10:34
If we treat computers as if they could think,
182
634040
2600
اگر با رایانه‌ها طوری رفتار کنیم که انگار می‌توانند فکر کنند،
10:36
we might get 'blindsided', or 'unpleasantly surprised'.
183
636760
4160
ممکن است دچار «کوک‌بینی» یا «غافلگیر ناخوشایند» شویم.
10:41
Artificial intelligence works by finding patterns in massive amounts of data,
184
641040
4560
هوش مصنوعی با یافتن الگوهایی در حجم عظیمی از داده ها کار می کند،
10:45
so it can seem like we're talking with a human,
185
645720
2520
بنابراین به نظر می رسد که ما با یک انسان صحبت می کنیم،
10:48
instead of a machine doing data analysis.
186
648360
3000
به جای اینکه یک ماشین تجزیه و تحلیل داده ها را انجام دهد.
10:51
As a result, we 'get taken in' — we're 'tricked or deceived'
187
651480
4240
در نتیجه، ما «درگیر می‌شویم» - «فریب می‌خوریم یا فریب می‌خوریم»
10:55
into thinking we're dealing with a human, or with something intelligent.
188
655840
3640
که فکر می‌کنیم با یک انسان یا چیزی باهوش سروکار داریم.
10:59
Powerful AI can make machines appear conscious,
189
659600
3760
هوش مصنوعی قدرتمند می‌تواند ماشین‌ها را آگاه نشان دهد،
11:03
but even tech giants like Google
190
663480
2320
اما حتی غول‌های فناوری مانند گوگل
11:05
are years away from building computers that can dream or fall in love.
191
665920
4480
سال‌ها تا ساخت رایانه‌هایی که می‌توانند رویا یا عاشق شوند فاصله دارند.
11:10
Speaking of which, Sam, what was the answer to your question?
192
670520
3160
در این مورد، سام، پاسخ سوال شما چه بود؟
11:13
I asked what happened in the 2013 movie, Her.
193
673800
3240
پرسیدم در فیلم او در سال 2013 چه اتفاقی افتاد ؟
11:17
Neil thought that the main character falls in love with his computer,
194
677160
3080
نیل فکر می کرد که شخصیت اصلی عاشق کامپیوترش می شود
11:20
— which was the correct answer! — OK.
195
680360
2760
- که پاسخ درست بود! - باشه
11:23
Right, it's time to recap the vocabulary we've learned from this programme
196
683240
3640
درست است، وقت آن رسیده است که واژگانی را که از این برنامه
11:27
about AI, including 'chatbots' —
197
687000
2720
در مورد هوش مصنوعی آموخته‌ایم، از جمله «ربات‌های گفتگو» - «
11:29
'computer programmes designed to interact with humans over the internet'.
198
689840
4080
برنامه‌های رایانه‌ای که برای تعامل با انسان‌ها از طریق اینترنت طراحی شده‌اند» مرور کنیم.
11:34
The adjective 'cognitive' describes anything connected
199
694040
3440
صفت "شناختی" هر چیزی را که
11:37
with 'the mental processes of knowing, learning and understanding'.
200
697600
3680
با "فرایندهای ذهنی دانستن، یادگیری و درک" مرتبط است را توصیف می کند.
11:41
'Wishful thinking' means 'thinking that something which is very unlikely to happen
201
701400
4720
"تفکر آرزو" به معنای "تفکر این است که چیزی که احتمال وقوع آن بسیار کم است
11:46
'might happen one day in the future'.
202
706240
2040
" ممکن است روزی در آینده اتفاق بیفتد.
11:48
To 'anthropomorphise' an object
203
708400
1440
«انسان‌سازی» یک شی
11:49
means 'to treat it as if it were human, even though it's not'.
204
709960
3440
به معنای «با آن رفتار کردن به گونه‌ای است که گویی انسان است، اگرچه اینطور نیست».
11:53
When you're 'blindsided', you're 'surprised in a negative way'.
205
713520
3640
هنگامی که شما "کور" هستید، "از نظر منفی شگفت زده می شوید".
11:57
And finally, to 'get taken in' by someone means to be 'deceived or tricked' by them.
206
717280
4760
و در نهایت، "گرفتن" توسط کسی به معنای "فریب خوردن یا فریب خوردن" توسط اوست.
12:02
My computer tells me that our six minutes are up!
207
722160
2920
کامپیوتر من به من می گوید که شش دقیقه ما تمام شده است!
12:05
Join us again soon, for now it's goodbye from us.
208
725200
2960
به زودی دوباره به ما بپیوندید، در حال حاضر از ما خداحافظی شده است.
12:08
Bye!
209
728280
1360
خداحافظ
12:09
6 Minute English.
210
729760
1560
6 دقیقه انگلیسی
12:11
From BBC Learning English.
211
731440
2400
از BBC Learning English.
12:14
Hello, I'm Rob. Welcome to 6 Minute English and with me in the studio is Neil.
212
734640
4520
سلام من راب هستم به 6 دقیقه انگلیسی خوش آمدید و نیل با من در استودیو است.
12:19
— Hello, Rob. — Hello.
213
739280
1720
- سلام راب. - سلام
12:21
Feeling clever today, Neil?
214
741120
1520
امروز باهوشی، نیل؟
12:22
I am feeling quite bright and clever, yes!
215
742760
2240
من کاملاً باهوش و باهوش هستم، بله!
12:25
That's good to hear.
216
745120
1000
شنیدن آن خوب است.
12:26
Well, 'you'll need your wits about you' —
217
746240
1640
خوب، "شما به عقل خود در مورد خود نیاز خواهید داشت" -
12:28
meaning 'you'll need to think very quickly' in this programme,
218
748000
2760
به این معنی که "شما باید خیلی سریع فکر کنید" در این برنامه،
12:30
because we're talking about intelligence,
219
750880
2480
زیرا ما در مورد هوش صحبت می کنیم،
12:33
or to be more accurate, artificial intelligence,
220
753480
3280
یا به عبارت دقیق تر، هوش مصنوعی،
12:36
and we'll learn some vocabulary related to the topic,
221
756880
3040
و خواهیم آموخت برخی از واژگان مرتبط با موضوع،
12:40
so that you can have your own discussion about it.
222
760040
2720
تا بتوانید در مورد آن بحث خود را داشته باشید.
12:42
Neil, now, you know who Professor Stephen Hawking is, right?
223
762880
3120
نیل، حالا، می دانید پروفسور استیون هاوکینگ کیست، درست است؟
12:46
Well, of course! Yes.
224
766120
1240
خب البته! بله.
12:47
Many people say that he's a 'genius' —
225
767480
2320
بسیاری از مردم می گویند که او یک "نابغه" است -
12:49
in other words, he is 'very, very intelligent'.
226
769920
3080
به عبارت دیگر، او "بسیار بسیار باهوش" است.
12:53
Professor Hawking is one of the most famous scientists in the world
227
773120
3480
پروفسور هاوکینگ یکی از مشهورترین دانشمندان جهان است
12:56
and people remember him for his brilliance
228
776720
1960
و مردم او را به خاطر درخشش او به یاد می آورند
12:58
and also because he communicates using a synthetic voice generated by a computer —
229
778800
5560
و همچنین به این دلیل که او با استفاده از صدای مصنوعی تولید شده توسط رایانه ارتباط برقرار می کند -
13:04
'synthetic' means it's 'made from something non-natural'.
230
784480
3120
"مصنوعی" به معنای "ساخته شدن از چیزی غیر طبیعی" است.
13:07
'Artificial' is similar in meaning —
231
787720
2040
"مصنوعی" از نظر معنایی مشابه است -
13:09
we use it when something is 'man-made to look or behave like something natural'.
232
789880
4720
زمانی از آن استفاده می کنیم که چیزی "ساخت انسان برای به نظر رسیدن یا رفتار شبیه چیزی طبیعی" باشد.
13:14
Well, Professor Hawking has said recently
233
794720
2360
خوب، پروفسور هاوکینگ اخیراً گفته است
13:17
that efforts to create thinking machines are a threat to our existence.
234
797200
4440
که تلاش برای ایجاد ماشین‌های تفکر تهدیدی برای موجودیت ماست.
13:21
A 'threat' means 'something which can put us in danger'.
235
801760
3240
"تهدید" به معنای "چیزی است که می تواند ما را در معرض خطر قرار دهد".
13:25
Now, can you imagine that, Neil?!
236
805120
1360
حالا می تونی تصور کنی نیل؟!
13:26
Well, there's no denying that good things
237
806600
2080
خوب، نمی توان انکار کرد که چیزهای خوبی
13:28
can come from the creation of artificial intelligence.
238
808800
2640
می تواند از ایجاد هوش مصنوعی حاصل شود.
13:31
Computers which can think for themselves
239
811560
1920
رایانه هایی که می توانند خودشان فکر کنند،
13:33
might be able to find solutions to problems we haven't been able to solve.
240
813600
4320
ممکن است بتوانند راه حل هایی برای مشکلاتی که ما قادر به حل آنها نبوده ایم، بیابند.
13:38
But technology is developing quickly and maybe we should consider the consequences.
241
818040
4680
اما فناوری به سرعت در حال توسعه است و شاید باید عواقب آن را در نظر بگیریم.
13:42
Some of these very clever robots are already surpassing us, Rob.
242
822840
4440
برخی از این روبات های بسیار باهوش در حال حاضر از ما پیشی گرفته اند، راب.
13:47
'To surpass' means 'to have abilities superior to our own'.
243
827400
4000
"سبقت گرفتن" به معنای "داشتن توانایی های برتر از خودمان" است.
13:51
Yes. Maybe you can remember the headlines when a supercomputer
244
831520
3280
بله. شاید بتوانید عناوین اخبار را به یاد بیاورید که یک ابر رایانه
13:54
defeated the World Chess Champion, Gary Kasparov, to everyone's astonishment.
245
834920
4960
قهرمان شطرنج جهان، گری کاسپاروف را شکست داد و همه را شگفت زده کرد.
14:00
It was in 1997. What was the computer called though, Neil?
246
840000
3440
در سال 1997 بود. اسم کامپیوتر چی بود، نیل؟
14:03
Was it a) Red Menace? b) Deep Blue? Or c) Silver Surfer?
247
843560
6040
الف) تهدید قرمز بود؟ ب) آبی عمیق؟ یا ج) سیلور سرفر؟
14:09
Erm, I don't know.
248
849720
2200
ارم، من نمی دانم.
14:12
I think c) is probably not right. Erm...
249
852040
2360
من فکر می کنم ج) احتمالا درست نیست. ارم...
14:16
I think Deep Blue. That's b) Deep Blue.
250
856000
2160
فکر کنم دیپ بلو. ب) آبی عمیق.
14:18
OK. Well, you'll know if you got the answer right at the end of the programme.
251
858280
3680
باشه خوب، اگر درست در پایان برنامه به جواب رسیدید، متوجه خواهید شد.
14:22
Well, our theme is artificial intelligence
252
862080
2240
خوب موضوع ما هوش مصنوعی است
14:24
and when we talk about this, we have to mention the movies.
253
864440
2840
و وقتی در این مورد صحبت می کنیم باید به فیلم ها اشاره کنیم.
14:27
Mm, many science fiction movies have explored the idea
254
867400
3240
مام، بسیاری از فیلم‌های علمی تخیلی ایده
14:30
of bad computers who want to harm us.
255
870760
2440
رایانه‌های بدی را که می‌خواهند به ما آسیب برسانند، بررسی کرده‌اند.
14:33
One example is 2001: A Space Odyssey.
256
873320
3440
یک نمونه 2001: ادیسه فضایی است.
14:36
Yes, a good film.
257
876880
1000
بله فیلم خوبیه
14:38
And another is The Terminator, a movie in which actor Arnold Schwarzenegger
258
878000
4000
و دیگری The Terminator است، فیلمی که در آن بازیگر آرنولد شوارتزنگر نقش
14:42
played an android from the future.
259
882120
2240
یک اندرویدی از آینده را بازی می‌کرد.
14:44
An 'android' is 'a robot that looks like a human'. Have you watched that one, Neil?
260
884480
3640
«اندروید» «رباتی است که شبیه انسان است». آیا آن یکی را تماشا کرده ای، نیل؟
14:48
Yes, I have and that android is not very friendly.
261
888240
3480
بله، من دارم و آن اندروید خیلی دوستانه نیست.
14:51
No, it's not!
262
891840
1000
نه، اینطور نیست!
14:52
In many movies and books about robots that think,
263
892960
2920
در بسیاری از فیلم‌ها و کتاب‌های مربوط به روبات‌هایی که فکر می‌کنند،
14:56
the robots end up rebelling against their creators.
264
896000
3200
روبات‌ها در نهایت علیه سازندگان خود شورش می‌کنند.
14:59
But some experts say the risk posed by artificial intelligence
265
899320
3480
اما برخی از کارشناسان می گویند خطر ناشی از هوش مصنوعی این
15:02
is not that computers attack us because they hate us.
266
902920
3320
نیست که رایانه ها به ما حمله کنند زیرا از ما متنفرند.
15:06
Their problem is related to their efficiency.
267
906360
2800
مشکل آنها به کارایی آنها مربوط می شود.
15:09
What do you mean?
268
909280
1000
منظورت چیه؟
15:10
Well, let's listen to what philosopher Nick Bostrom has to say.
269
910400
3920
خوب، بیایید به آنچه فیلسوف نیک بوستروم می گوید گوش کنیم.
15:14
He's the founder of the Future of Humanity Institute at Oxford University.
270
914440
4880
او بنیانگذار موسسه آینده بشریت در دانشگاه آکسفورد است.
15:19
He uses three words when describing what's inside the mind of a thinking computer.
271
919440
5800
او هنگام توصیف آنچه در ذهن یک کامپیوتر متفکر وجود دارد از سه کلمه استفاده می کند.
15:25
This phrase means 'to meet their objectives'. What's the phrase he uses?
272
925360
4640
این عبارت به معنای دستیابی به اهداف است. عبارتی که او استفاده می کند چیست؟
15:30
The bulk of the risk is not in machines being evil or hating humans,
273
930680
5120
بخش عمده ای از خطر در بد بودن ماشین ها یا نفرت از انسان ها نیست،
15:35
but rather that they are indifferent to humans
274
935920
2320
بلکه این است که آنها نسبت به انسان ها بی تفاوت هستند
15:38
and that, in pursuit of their own goals, we humans would suffer as a side effect.
275
938360
4360
و در تعقیب اهداف خود، ما انسان ها به عنوان یک عارضه جانبی متحمل می شویم.
15:42
Suppose you had a super intelligent AI
276
942840
1800
فرض کنید یک هوش مصنوعی فوق‌العاده هوشمند دارید
15:44
whose only goal was to make as many paperclips as possible.
277
944760
3240
که تنها هدفش ساختن هرچه بیشتر گیره کاغذ بود.
15:48
Human bodies consist of atoms
278
948120
2280
بدن انسان از اتم تشکیل شده است
15:50
and those atoms could be used to make a lot of really nice paperclips.
279
950520
4360
و از آن اتم ها می توان برای ساختن تعداد زیادی گیره کاغذ بسیار زیبا استفاده کرد.
15:55
If you want paperclips, it turns out that in the pursuit of this,
280
955000
3080
اگر گیره کاغذ می خواهید، معلوم می شود که در پی این کار،
15:58
you would have instrumental reasons to do things that would be harmful to humanity.
281
958200
3320
دلایل ابزاری برای انجام کارهایی خواهید داشت که برای بشریت مضر است.
16:02
A world in which humans become paperclips — wow, that's scary!
282
962360
4640
دنیایی که در آن انسان ها تبدیل به گیره کاغذ می شوند - وای، این ترسناک است!
16:07
But the phrase which means 'meet their objectives' is to 'pursue their goals'.
283
967120
4520
اما عبارتی که به معنای «به اهداف خود برسند »، «پیگیری اهداف آنها» است.
16:11
Yes, it is.
284
971760
1000
بله همینطور است.
16:12
So the academic explains that if you're a computer
285
972880
3280
بنابراین دانشگاه توضیح می دهد که اگر شما یک کامپیوتر
16:16
responsible for producing paperclips, you will pursue your objective at any cost.
286
976280
5800
مسئول تولید گیره های کاغذ هستید، به هر قیمتی شده هدف خود را دنبال خواهید کرد.
16:22
And even use atoms from human bodies to turn them into paperclips!
287
982200
4440
و حتی از اتم های بدن انسان برای تبدیل آنها به گیره کاغذ استفاده کنید!
16:26
— Now that's a horror story, Rob. — Mm.
288
986760
2040
- حالا این یک داستان ترسناک است، راب. - مم
16:28
If Stephen Hawking is worried, I think I might be too!
289
988920
3120
اگر استیون هاوکینگ نگران است، فکر می کنم ممکن است من هم نگران باشم!
16:32
How can we be sure that artificial intelligence —
290
992160
2880
چگونه می‌توانیم مطمئن باشیم که هوش مصنوعی –
16:35
be either a device or software — will have a moral compass?
291
995160
4000
دستگاه یا نرم‌افزار – دارای قطب‌نمای اخلاقی است؟
16:39
Ah, a good expression — a 'moral compass' —
292
999280
2000
آه، یک بیان خوب - یک "قطب نمای اخلاقی" -
16:41
in other words, 'an understanding of what is right and what is wrong'.
293
1001400
3960
به عبارت دیگر، "درکی از اینکه چه چیزی درست است و چه چیزی اشتباه است".
16:45
Artificial intelligence is an interesting topic, Rob.
294
1005480
2560
هوش مصنوعی موضوع جالبی است راب.
16:48
I hope we can chat about it again in the future.
295
1008160
2400
امیدوارم در آینده بتوانیم دوباره در مورد آن چت کنیم .
16:50
But now I'm looking at the clock and we're running out of time, I'm afraid,
296
1010680
2880
اما الان دارم به ساعت نگاه میکنم و وقتمون کم میشه میترسم
16:53
and I'd like to know if I got the answer to the quiz question right?
297
1013680
3320
و میخوام بدونم جواب سوال مسابقه رو درست گرفتم؟
16:57
Well, my question was about a supercomputer
298
1017120
3000
خب، سوال من در مورد یک ابر رایانه بود
17:00
which defeated the World Chess Champion, Gary Kasparov, in 1997.
299
1020240
4320
که در سال 1997 قهرمان شطرنج جهان، گری کاسپاروف را شکست داد.
17:04
What was the machine's name? Was it Red Menace, Deep Blue or Silver Surfer?
300
1024680
4920
نام دستگاه چه بود؟ آیا این تهدید قرمز، آبی عمیق یا موج سوار نقره ای بود؟
17:09
And I think it's Deep Blue.
301
1029720
2880
و من فکر می کنم آبی عمیق است.
17:12
Well, it sounds like you are more intelligent than a computer,
302
1032720
2880
خوب، به نظر می رسد که شما از یک کامپیوتر باهوش تر هستید،
17:15
because you got the answer right.
303
1035720
1800
زیرا پاسخ را درست دریافت کرده اید.
17:17
Yes, it was Deep Blue.
304
1037640
1240
بله دیپ بلو بود.
17:19
The 1997 match was actually the second one between Kasparov and Deep Blue,
305
1039000
4680
مسابقه سال 1997 در واقع دومین مسابقه بین کاسپاروف و دیپ بلو بود،
17:23
a supercomputer designed by the company IBM
306
1043800
3000
یک ابررایانه طراحی شده توسط شرکت IBM
17:26
and it was specialised in chess-playing.
307
1046920
2400
و متخصص در بازی شطرنج بود.
17:29
Well, I think I might challenge Deep Blue to a game!
308
1049440
2840
خب، فکر می کنم ممکن است دیپ بلو را به یک بازی دعوت کنم!
17:32
Obviously, I'm a bit, I'm a bit of a genius myself.
309
1052400
2600
بدیهی است که من یک کمی هستم، من خودم کمی نابغه هستم.
17:35
Very good! Good to hear!
310
1055120
1600
خیلی خوبه! خوب شنیدن!
17:36
Anyway, we've just got time to remember
311
1056840
1600
به هر حال، ما فقط وقت داریم تا
17:38
some of the words and expressions that we've used today. Neil?
312
1058560
3080
برخی از کلمات و عباراتی را که امروز استفاده کرده ایم به خاطر بسپاریم. نیل؟
17:41
They were...
313
1061760
1000
آنها بودند...
17:42
you'll need your wits about you,
314
1062880
3680
شما به عقل خود در مورد شما نیاز خواهید داشت،
17:46
artificial,
315
1066680
2560
مصنوعی،
17:49
genius,
316
1069360
2600
نابغه،
17:52
synthetic,
317
1072080
2040
مصنوعی،
17:54
threat,
318
1074240
1760
تهدید،
17:56
to surpass,
319
1076120
2600
برای پیشی گرفتن،
17:58
to pursue their goals,
320
1078840
3120
برای تعقیب اهدافشان،
18:02
moral compass.
321
1082080
1320
قطب نما اخلاقی.
18:03
Thank you. Well, that's it for this programme.
322
1083520
2280
متشکرم. خوب، برای این برنامه تمام شد.
18:05
Do visit BBC Learning English dot com to find more 6 Minute English programmes.
323
1085920
4720
برای یافتن برنامه‌های انگلیسی 6 دقیقه‌ای بیشتر از BBC Learning English dot com دیدن کنید.
18:10
— Until next time, goodbye! — Goodbye!
324
1090760
1880
- تا دفعه بعد، خداحافظ! - خداحافظ!
18:13
6 Minute English.
325
1093640
1440
6 دقیقه انگلیسی
18:15
From BBC Learning English.
326
1095200
2280
از BBC Learning English.
18:18
Hello. This is 6 Minute English. I'm Rob. And joining me to do this is Sam.
327
1098600
4480
سلام. این 6 دقیقه انگلیسی است. من راب هستم. و سام به من ملحق شد تا این کار را انجام دهم.
18:23
Hello.
328
1103200
1000
سلام.
18:24
In this programme, we're talking about robots.
329
1104320
3040
در این برنامه، ما در مورد روبات ها صحبت می کنیم.
18:27
Robots can perform many tasks,
330
1107480
2000
ربات ها می توانند وظایف زیادی را انجام دهند،
18:29
but they're now being introduced in social care to operate as carers,
331
1109600
4560
اما اکنون در مراقبت های اجتماعی معرفی شده اند تا به عنوان مراقب،
18:34
to look after the sick and elderly.
332
1114280
2120
مراقبت از بیماران و سالمندان عمل کنند.
18:36
We'll be discussing the positive and negative issues around this,
333
1116520
3680
ما در مورد مسائل مثبت و منفی پیرامون این موضوع بحث خواهیم کرد،
18:40
but first, let's set you a question to answer, Sam. Are you ready for this?
334
1120320
3720
اما ابتدا، بیایید یک سوال برای شما مطرح کنیم، سام. آیا برای این آماده اید؟
18:44
Fire away!
335
1124160
1120
آتش دور!
18:45
Do you know in which year was the first commercial robot built?
336
1125400
3880
آیا می دانید اولین ربات تجاری در چه سالی ساخته شد؟ آیا
18:49
Was it in a) 1944? b) 1954? Or c) 1964?
337
1129400
7280
در سال 1944 بود؟ ب) 1954؟ یا ج) 1964؟
18:56
They're not a brand-new invention, so I'll go for 1954.
338
1136800
5440
آنها یک اختراع کاملاً جدید نیستند، بنابراین من به سراغ سال 1954 می روم.
19:02
OK, well, I'll tell you if you're right or wrong at the end of the programme.
339
1142360
4520
خوب، خوب، در پایان برنامه به شما می گویم که درست می گویید یا اشتباه می کنید.
19:07
So, let's talk more about robots,
340
1147000
1920
بنابراین، بیایید بیشتر در مورد ربات ها صحبت کنیم،
19:09
and specifically ones that are designed to care for people.
341
1149040
3720
و به طور خاص آنهایی که برای مراقبت از مردم طراحی شده اند.
19:12
Traditionally, it's humans working as nurses or carers
342
1152880
3480
به طور سنتی، این انسان‌ها هستند که به عنوان پرستار یا مراقب
19:16
who take care of elderly people —
343
1156480
2200
از افراد مسن مراقبت می‌کنند –
19:18
those people who are too old or too unwell to look after themselves.
344
1158800
3800
آن دسته از افرادی که خیلی مسن یا ناخوشایند هستند که نمی‌توانند از خودشان مراقبت کنند.
19:22
But finding enough carers to look after people is a problem —
345
1162720
4360
اما یافتن مراقبان کافی برای مراقبت از مردم یک مشکل است -
19:27
there are more people needing care than there are people who can help.
346
1167200
4120
تعداد افرادی که به مراقبت نیاز دارند بیشتر از افرادی است که می توانند کمک کنند.
19:31
And recently in the UK, the government announced a £34 million fund
347
1171440
5560
و اخیراً در بریتانیا، دولت بودجه ای 34 میلیون پوندی را
19:37
to help develop robots to look after us in our later years.
348
1177120
4520
برای کمک به توسعه روبات هایی برای مراقبت از ما در سال های بعد اعلام کرد.
19:41
Well, robot carers are being developed,
349
1181760
2440
خوب، ربات‌های مراقبت در حال توسعه هستند،
19:44
but can they really learn enough empathy to take care of the elderly and unwell?
350
1184320
4560
اما آیا واقعاً می‌توانند همدلی کافی برای مراقبت از افراد مسن و ناخوش بیاموزند؟
19:49
'Empathy' is 'the ability to understand how someone feels
351
1189000
3680
«همدلی» عبارت است از «توانایی درک احساس یک نفر
19:52
'by imagining what it would be like to be in that person's situation'.
352
1192800
4240
از طریق تصور اینکه قرار گرفتن در موقعیت آن شخص چگونه است».
19:57
Well, let's hear about one of those new robots now, called Pepper.
353
1197160
4680
خوب، بیایید اکنون در مورد یکی از آن ربات های جدید به نام Pepper بشنویم.
20:01
Abbey Hearn-Nagaf is a research assistant at the University of Bedfordshire.
354
1201960
5080
ابی هرن نگاف دستیار پژوهشی در دانشگاه بدفوردشایر است.
20:07
She spoke to BBC Radio 4's You and Yours programme
355
1207160
3880
او با برنامه تو و تو در رادیو بی بی سی صحبت کرد
20:11
and explained how Pepper is first introduced to someone in a care home.
356
1211160
4600
و توضیح داد که چگونه فلفل برای اولین بار به شخصی در خانه مراقبت معرفی می شود.
20:15
We just bring the robot to their room
357
1215880
2200
ما فقط ربات را به اتاق آنها می آوریم
20:18
and we talk about what Pepper can't do, which is important,
358
1218200
2640
و در مورد کارهایی که فلفل نمی تواند انجام دهد صحبت می کنیم، که مهم است،
20:20
so it can't provide physical assistance in any way.
359
1220960
2720
بنابراین به هیچ وجه نمی تواند کمک فیزیکی کند .
20:23
It does have hands, it can wave.
360
1223800
2160
دست دارد، می تواند تکان دهد.
20:26
When you ask for privacy, it does turn around
361
1226080
2000
هنگامی که شما برای حفظ حریم خصوصی درخواست می کنید، به دور خود می چرخد
20:28
and sort of cover its eyes with its hands, but that's the most it does.
362
1228200
3000
و به نوعی چشمان خود را با دستانش می پوشاند، اما این بیشترین کاری است که انجام می دهد.
20:31
It doesn't grip anything, it doesn't move anything,
363
1231320
2160
چیزی را در دست نمی گیرد، چیزی را حرکت نمی دهد،
20:33
because we're more interested to see how it works as a companion,
364
1233600
3480
زیرا ما بیشتر علاقه مندیم که ببینیم به عنوان یک همراه چگونه کار می کند،
20:37
having something there to talk to, to converse with, to interact with.
365
1237200
4080
چیزی برای صحبت کردن، صحبت کردن، و تعامل با آن وجود دارد.
20:41
So, Abbey described how the robot is introduced to someone.
366
1241400
4240
بنابراین، ابی توضیح داد که چگونه ربات به کسی معرفی می شود.
20:45
She was keen to point out that this robot has 'limitations' — 'things it can't do'.
367
1245760
6120
او مشتاق بود به این نکته اشاره کند که این ربات "محدودیت هایی" دارد - "کارهایی که نمی تواند انجام دهد".
20:52
It can wave or turn round when a person needs 'privacy' — 'to be private' —
368
1252000
5040
وقتی فردی به «حریم خصوصی» نیاز دارد - «خصوصی بودن» - می تواند تکان بخورد یا بچرخد،
20:57
but it can't provide 'physical assistance'.
369
1257160
3280
اما نمی تواند «کمک فیزیکی» ارائه کند.
21:00
This means it can't help someone by 'touching or feeling' them.
370
1260560
4440
این بدان معنی است که نمی تواند با "لمس کردن یا احساس کردن" کسی به او کمک کند.
21:05
But that's OK, Abbey says.
371
1265120
1680
ابی می‌گوید، اما اشکالی ندارد.
21:06
This robot is designed to be a 'companion' —
372
1266920
3080
این ربات طوری طراحی شده است که "همدم" باشد -
21:10
'someone who is with you to keep you company' —
373
1270120
2320
"کسی که با شما باشد تا با شما همراه باشد" -
21:12
a friend, in other words, that you can converse or talk with.
374
1272560
3480
یک دوست، به عبارت دیگر، که می توانید با او گفتگو یا صحبت کنید.
21:16
Well, having a companion is a good way to stop people getting lonely,
375
1276160
4400
خوب، داشتن یک همراه راه خوبی برای جلوگیری از تنهایی افراد است،
21:20
but surely a human is better for that?
376
1280680
2960
اما مطمئناً یک انسان برای آن بهتر است؟
21:23
Surely they understand you better than a robot ever can?
377
1283760
3680
مطمئناً آنها شما را بهتر از یک ربات درک می کنند؟
21:27
Well, innovation means that robots are becoming cleverer all the time.
378
1287560
4640
خب، نوآوری به این معناست که روبات‌ها همیشه باهوش‌تر می‌شوند.
21:32
And, as we've mentioned, in the UK alone there is a growing elderly population
379
1292320
4720
و همانطور که اشاره کردیم، تنها در بریتانیا جمعیت سالمند رو به رشد
21:37
and more than 100,000 care assistant vacancies.
380
1297160
3360
و بیش از 100000 جای خالی دستیار مراقبت وجود دارد.
21:40
Who's going to do all the work?
381
1300640
1800
چه کسی قرار است همه کارها را انجام دهد؟
21:42
I think we should hear from Dr Sarah Woodin,
382
1302560
2640
من فکر می کنم ما باید از دکتر سارا وودین،
21:45
a health researcher in independent living from Leeds University,
383
1305320
4040
محقق بهداشتی در زندگی مستقل از دانشگاه لیدز بشنویم،
21:49
who also spoke to the BBC's You and Yours programme.
384
1309480
3960
که همچنین با برنامه تو و تو در بی بی سی صحبت کرد .
21:53
She seems more realistic about the introduction of robot carers.
385
1313560
5120
او در مورد معرفی ربات های مراقبت کننده واقع بینانه تر به نظر می رسد .
21:59
I think there are problems if we consider robots as replacement for people.
386
1319200
4600
من فکر می کنم اگر ربات ها را جایگزین مردم بدانیم، مشکلاتی وجود دارد.
22:03
We know that money is tight — if robots become mass-produced,
387
1323920
4680
ما می دانیم که پول کم است - اگر ربات ها به تولید انبوه برسند،
22:08
there could be large institutions where people might be housed
388
1328720
4200
ممکن است موسسات بزرگی وجود داشته باشند که در آن افراد ممکن است اسکان داده شوند
22:13
and abandoned to robots.
389
1333040
2800
و به ربات ها رها شوند.
22:15
I do think questions of ethics
390
1335960
1480
من فکر می کنم که مسائل اخلاقی
22:17
need to come into the growth and jobs agenda as well,
391
1337560
3600
باید در دستور کار رشد و مشاغل نیز قرار بگیرند،
22:21
because, sometimes, they're treated very separately.
392
1341280
2440
زیرا، گاهی اوقات، آنها به طور جداگانه مورد بررسی قرار می گیرند.
22:23
OK, so Sarah Woodin suggests that when money is 'tight' —
393
1343840
3440
بسیار خوب، پس سارا وودین پیشنهاد می‌کند که وقتی پول کم است –
22:27
meaning there is 'only just enough' —
394
1347400
1680
یعنی «فقط به اندازه کافی» وجود دارد –
22:29
making robots in large quantities — or mass-produced —
395
1349200
3320
ساخت ربات‌ها در مقادیر زیاد – یا تولید انبوه –
22:32
might be a cheaper option than using humans.
396
1352640
2720
ممکن است گزینه ارزان‌تری نسبت به استفاده از انسان باشد.
22:35
And she says people might be abandoned to robots.
397
1355480
3160
و او می گوید که ممکن است مردم به دست روبات ها رها شوند.
22:38
Yes, 'abandoned' means 'left alone in a place, usually forever'.
398
1358760
5840
بله، "رها" به معنای "تنها ماندن در یک مکان، معمولا برای همیشه" است.
22:44
So she says it might be possible that someone ends up being forgotten
399
1364720
4360
بنابراین او می گوید ممکن است کسی فراموش شود
22:49
and only having a robot to care for them. So is this right, ethically?
400
1369200
5640
و فقط یک ربات داشته باشد که از او مراقبت کند. پس آیا این از نظر اخلاقی درست است؟
22:54
Yes, well, she mentions 'ethics' — that's 'what is morally right' —
401
1374960
3920
بله، خوب، او به «اخلاق» اشاره می کند - این همان چیزی است که از نظر اخلاقی درست است -
22:59
and that needs to be considered as part of the jobs agenda.
402
1379000
3440
و این باید به عنوان بخشی از دستور کار شغلی در نظر گرفته شود.
23:02
So, we shouldn't just consider what job vacancies need filling,
403
1382560
3160
بنابراین، ما نباید فقط در نظر بگیریم که چه مشاغلی نیاز به پر کردن دارند،
23:05
but who and how it should be done.
404
1385840
2360
بلکه چه کسی و چگونه باید انجام شود.
23:08
And earlier I asked you, Sam,
405
1388320
1400
و قبلاً از شما پرسیدم، سام،
23:09
did you know in which year was the first commercial robot built? And you said?
406
1389840
4440
آیا می دانید اولین ربات تجاری در چه سالی ساخته شد؟ و تو گفتی؟
23:14
I said 1954.
407
1394400
1640
گفتم 1954.
23:16
Well, you didn't need a robot to help you there because you are right.
408
1396160
3320
خب، شما نیازی به ربات نداشتید که در آنجا به شما کمک کند، زیرا حق با شماست.
23:19
— Ah, yay! — Well done!
409
1399600
1760
- آه، اوه! - آفرین!
23:21
Now let's do something a robot can't do yet,
410
1401480
2720
حالا بیایید کاری را انجام دهیم که یک ربات هنوز نمی تواند انجام دهد،
23:24
and that's recap the vocabulary we've highlighted today, starting with empathy.
411
1404320
5280
و آن واژگانی است که امروز برجسته کردیم، با همدلی شروع کنیم.
23:29
'Empathy' is 'the ability to understand how someone feels
412
1409720
3440
«همدلی» عبارت است از «توانایی درک احساس یک نفر
23:33
by imagining what it would be like to be in that person's situation'.
413
1413280
3920
با تصور اینکه در موقعیت آن شخص قرار بگیرد».
23:37
'Physical assistance' describes 'helping someone by touching them'.
414
1417320
4280
«کمک فیزیکی» «کمک به کسی با لمس کردن او» را توصیف می‌کند.
23:41
We also mentioned a 'companion' —
415
1421720
1920
ما همچنین به یک "همدم" اشاره کردیم -
23:43
that's 'someone who is with you and keeps you company'.
416
1423760
2680
این "کسی است که با شما است و شما را همراهی می کند".
23:46
Our next word was 'tight' — in the context of money,
417
1426560
3280
کلمه بعدی ما "مقدار" بود - در زمینه پول،
23:49
when money is tight, it means there's 'not enough'.
418
1429960
3120
وقتی پول تنگ است، به این معنی است که "به اندازه کافی نیست".
23:53
'Abandoned' means 'left alone in a place, usually forever'.
419
1433200
3400
"رها" به معنای "تنها ماندن در یک مکان، معمولا برای همیشه" است.
23:56
And finally, we discussed the word 'ethics' —
420
1436720
2440
و در نهایت، کلمه «اخلاق» را مورد بحث قرار دادیم -
23:59
we hear a lot about business ethics or medical ethics —
421
1439280
3760
درباره اخلاق تجاری یا اخلاق پزشکی زیاد می شنویم -
24:03
and it means 'the study of what is morally right'.
422
1443160
3280
و این به معنای «مطالعه آنچه از نظر اخلاقی درست است» است.
24:06
OK, thank you, Sam.
423
1446560
1560
باشه، متشکرم سام
24:08
Well, we've managed to get through 6 Minute English without the aid of a robot.
424
1448240
4520
خوب، ما موفق شده ایم بدون کمک ربات، زبان انگلیسی 6 دقیقه ای را پشت سر بگذاریم.
24:12
That's all for now, but please join us again soon. Goodbye!
425
1452880
2920
فعلاً این همه است، اما لطفاً به زودی دوباره به ما بپیوندید. خداحافظ
24:15
Bye-bye, everyone!
426
1455920
1000
خداحافظ همه!
24:17
6 Minute English.
427
1457720
1680
6 دقیقه انگلیسی
24:19
From BBC Learning English.
428
1459520
2480
از BBC Learning English.
24:22
Hello. This is 6 Minute English from BBC Learning English. I'm Phil.
429
1462840
3800
سلام. این 6 دقیقه انگلیسی از BBC Learning English است. من فیل هستم.
24:26
And I'm Georgie.
430
1466760
1240
و من جورجی هستم.
24:28
Animal testing is when living animals are used in scientific research
431
1468120
4320
آزمایش بر روی حیوانات زمانی است که از حیوانات زنده در تحقیقات علمی استفاده می شود
24:32
to find out how effective a new medicine is, or how safe a product is for humans.
432
1472560
5880
تا مشخص شود یک داروی جدید چقدر مؤثر است یا یک محصول چقدر برای انسان ایمن است.
24:38
Scientists in favour of it argue that animal testing
433
1478560
3360
دانشمندان طرفدار آن استدلال می کنند که آزمایش بر روی حیوانات
24:42
shows whether medicines are safe or dangerous for humans,
434
1482040
3840
نشان می دهد که آیا داروها برای انسان بی خطر هستند یا خطرناک
24:46
and has saved many lives.
435
1486000
1760
و جان بسیاری را نجات داده است.
24:47
But animal rights campaigners say it's cruel,
436
1487880
2720
اما فعالان حقوق حیوانات می گویند که این ظالمانه
24:50
and also ineffective because animals and humans are so different.
437
1490720
4800
و همچنین بی اثر است زیرا حیوانات و انسان ها بسیار متفاوت هستند.
24:55
Under British law, medicines must be tested on two different types of animals,
438
1495640
5800
طبق قوانین بریتانیا، داروها باید بر روی دو نوع مختلف از حیوانات آزمایش شوند که
25:01
usually starting with rats, mice or guinea pigs.
439
1501560
4280
معمولاً از موش، موش یا خوکچه هندی شروع می شود.
25:05
And in everyday English, the term 'human guinea pig'
440
1505960
3680
و در زبان انگلیسی روزمره، اصطلاح "خوکچه هندی انسان" را
25:09
can be used to mean 'the first people to have something tested on them'.
441
1509760
4600
می توان به معنای "اولین افرادی که چیزی روی آنها آزمایش شد" استفاده کرد.
25:14
But now, groups both for and against animal testing are thinking again,
442
1514480
4960
اما اکنون، گروه‌های موافق و مخالف آزمایش حیوانی،
25:19
thanks to a recent development in the debate — AI.
443
1519560
3640
به لطف پیشرفت اخیر در بحث - هوش مصنوعی، دوباره فکر می‌کنند.
25:23
In this programme, we'll be hearing how artificial intelligence
444
1523320
3160
در این برنامه، خواهیم شنید که چگونه هوش مصنوعی
25:26
could help reduce the need for scientific testing on animals.
445
1526600
3960
می تواند به کاهش نیاز به آزمایش های علمی روی حیوانات کمک کند.
25:30
But first, I have a question for you, Georgie.
446
1530680
3400
اما ابتدا یک سوال از شما دارم، جورجی. به طور خاص
25:34
There's one commonly used medicine in particular
447
1534200
2880
یک داروی رایج وجود دارد
25:37
which is harmful for animals but safe for humans, but what?
448
1537200
5040
که برای حیوانات مضر است اما برای انسان بی خطر است، اما چه؟
25:43
Is it a) Antibiotics?
449
1543240
3280
آیا الف) آنتی بیوتیک است؟
25:46
b) Aspirin?
450
1546640
2080
ب) آسپرین؟
25:48
Or c) Paracetamol?
451
1548840
2480
یا ج) پاراستامول؟
25:51
Hmm, I guess it's aspirin.
452
1551440
2880
هوم، حدس می زنم آسپرین باشد.
25:54
OK, Georgie, I'll reveal the answer at the end of the programme.
453
1554440
4080
باشه، جورجی، پاسخ را در پایان برنامه فاش خواهم کرد.
25:58
Christine Ro is a science journalist who's interested in the animal testing debate.
454
1558640
5360
کریستین رو یک روزنامه نگار علمی است که به بحث آزمایش حیوانات علاقه مند است.
26:04
Here, she explains to BBC World Service programme Tech Life
455
1564120
4600
در اینجا، او
26:08
some of the limitations of testing medicines on animals.
456
1568840
3640
برخی از محدودیت‌های آزمایش داروها بر روی حیوانات را به برنامه سرویس جهانی بی‌بی‌سی Tech Life توضیح می‌دهد.
26:12
Of course, you can't necessarily predict from a mouse or a dog
457
1572600
2640
البته، شما نمی‌توانید لزوماً از روی موش یا سگ پیش‌بینی کنید که قرار است
26:15
what's going to happen in a human, and there have been a number of cases
458
1575360
3760
در انسان چه اتفاقی بیفتد، و موارد متعددی وجود داشته است که
26:19
where substances that have proven to be toxic in animals
459
1579240
3320
ثابت شده است موادی که در حیوانات سمی هستند،
26:22
have been proven to be safe in humans, and vice versa.
460
1582680
3200
در انسان بی‌خطر هستند. و برعکس
26:27
There are also, of course, animal welfare limitations to animal testing.
461
1587200
4040
البته محدودیت‌های رفاه حیوانات نیز برای آزمایش حیوانات وجود دارد.
26:31
Most people, I think, if they had the choice,
462
1591360
2280
فکر می‌کنم اکثر مردم اگر حق انتخاب داشتند،
26:33
would want their substances to be used on as few animals or no animals as possible,
463
1593760
5160
می‌خواستند که موادشان در کمترین حد ممکن یا هیچ حیوانی استفاده شود و
26:39
while still ensuring safety.
464
1599040
1840
در عین حال ایمنی را تضمین کنند.
26:41
Now, that's been a really difficult needle to thread,
465
1601000
2280
در حال حاضر، این یک سوزن واقعا دشوار است ،
26:43
but AI might help to make that more possible.
466
1603400
2440
اما هوش مصنوعی ممکن است به این امکان کمک کند.
26:45
Christine says that medicines which are safe for animals
467
1605960
3280
کریستین می گوید که داروهایی که برای حیوانات بی خطر هستند
26:49
might not be safe for humans.
468
1609360
2320
ممکن است برای انسان بی خطر نباشند.
26:51
But the opposite is also true —
469
1611800
1760
اما برعکس آن نیز صادق است -
26:53
what's safe for humans might not be safe for animals.
470
1613680
3760
آنچه برای انسان بی خطر است ممکن است برای حیوانات هم بی خطر نباشد.
26:57
Christine uses the phrase 'vice versa'
471
1617560
2600
کریستین از عبارت "برعکس" استفاده می کند
27:00
to show that 'the opposite' of what she says is also true.
472
1620280
3920
تا نشان دهد که "برعکس" آنچه می گوید نیز صادق است.
27:05
Christine also uses the idiom to 'thread the needle'
473
1625320
3200
کریستین همچنین از این اصطلاح برای «نخ زدن سوزن»
27:08
to describe 'a task which requires a lot of skill and precision,
474
1628640
3800
برای توصیف «کاری که به مهارت و دقت زیادی نیاز دارد،
27:12
'especially one involving a conflict'.
475
1632560
3480
به ویژه کاری که شامل درگیری است» استفاده می‌کند.
27:16
Yes, medical animal testing may save human lives,
476
1636160
4400
بله، آزمایش‌های پزشکی روی حیوانات ممکن است جان انسان‌ها را نجات دهد،
27:20
but many people see it as cruel and distressing for the animal —
477
1640680
3920
اما بسیاری از مردم آن را برای حیوان بی‌رحمانه و ناراحت‌کننده می‌دانند –
27:24
it's a difficult needle to thread.
478
1644720
2840
نخ زدن آن سوزنی دشوار است.
27:27
But now, the challenge of threading that needle has got a little easier
479
1647680
3760
اما اکنون، به دلیل هوش مصنوعی، چالش نخ زدن آن سوزن کمی آسان‌تر شده است
27:31
because of artificial intelligence.
480
1651560
2080
.
27:33
Predicting how likely a new medicine is to harm humans
481
1653760
3680
پیش بینی اینکه یک داروی جدید چقدر احتمال دارد به انسان آسیب برساند،
27:37
involves analysing the results of thousands of experiments.
482
1657560
3960
مستلزم تجزیه و تحلیل نتایج هزاران آزمایش است.
27:41
And one thing AI is really good at is analysing mountains and mountains of data.
483
1661640
6280
و یک چیزی که هوش مصنوعی در آن بسیار خوب است، تجزیه و تحلیل کوه ها و کوه های داده است.
27:48
Here's Christine Ro again, speaking with BBC World Service's Tech Life.
484
1668040
4440
اینجا دوباره کریستین رو است که با زندگی فناوری بی بی سی جهانی صحبت می کند.
27:52
So, AI isn't the whole picture, of course,
485
1672600
1880
بنابراین، هوش مصنوعی تصویر کامل نیست، البته،
27:54
but it's an increasingly important part of the picture and one reason for that
486
1674600
4240
اما بخش مهمی از تصویر است و یکی از دلایل آن این است
27:58
is that there is a huge amount of toxicology data to wade through
487
1678960
3320
که حجم عظیمی از داده‌های سم‌شناسی در
28:02
when it comes to determining chemical safety, and, on top of that,
488
1682400
3720
هنگام تعیین ایمنی شیمیایی وجود دارد، و علاوه بر این،
28:06
there's the staggering number of chemicals being invented all of the time.
489
1686240
4120
تعداد خیره کننده ای از مواد شیمیایی وجود دارد که همیشه اختراع می شوند.
28:10
AI helps scientists wade through huge amounts of data.
490
1690480
4280
هوش مصنوعی به دانشمندان کمک می کند تا حجم عظیمی از داده ها را طی کنند.
28:14
If you 'wade through' something,
491
1694880
2200
اگر از چیزی عبور کنید،
28:17
you 'spend a lot of time and effort doing something boring or difficult,
492
1697200
4920
زمان و تلاش زیادی را صرف انجام کاری خسته کننده یا دشوار می کنید،
28:22
'especially reading a lot of information'.
493
1702240
2960
به ویژه برای خواندن اطلاعات زیاد.
28:25
AI can process huge amounts of data,
494
1705320
2600
هوش مصنوعی می‌تواند حجم عظیمی از داده‌ها را پردازش کند،
28:28
and what's more, that amount keeps growing as new chemicals are invented.
495
1708040
5360
و علاوه بر این، با اختراع مواد شیمیایی جدید، این مقدار همچنان در حال رشد است.
28:33
Christine uses the phrase 'on top of that', meaning 'in addition to something'.
496
1713520
4960
کریستین از عبارت "در بالای آن" به معنای "علاوه بر چیزی" استفاده می کند.
28:38
Often this extra thing is negative.
497
1718600
2440
اغلب این چیز اضافی منفی است.
28:41
She means there's already so much data to understand
498
1721160
3360
او به این معنی است که در حال حاضر داده های زیادی برای درک وجود دارد
28:44
and additionally, there's even more to be understood about these new chemicals.
499
1724640
5000
و علاوه بر این، حتی اطلاعات بیشتری در مورد این مواد شیمیایی جدید وجود دارد.
28:49
Of course, the good news is that with AI, testing on animals could one day stop,
500
1729760
6160
البته، خبر خوب این است که با هوش مصنوعی، آزمایش روی حیوانات ممکن است روزی متوقف شود،
28:56
although Christine warns that AI is not the 'whole picture',
501
1736040
3840
اگرچه کریستین هشدار می‌دهد که هوش مصنوعی «تصویر کامل» نیست،
29:00
it's not 'a complete description of something
502
1740000
2120
«توضیح کامل چیزی
29:02
'which includes all the relevant information'.
503
1742240
2920
«که شامل تمام اطلاعات مرتبط باشد» نیست.
29:05
Nevertheless, the news is a step forward
504
1745280
2640
با این وجود، این خبر گامی رو به جلو
29:08
for both animal welfare and for modern medicine.
505
1748040
4040
هم برای رفاه حیوانات و هم برای پزشکی مدرن است.
29:12
Speaking of which, what was the answer to your question, Phil?
506
1752200
3720
در این مورد، فیل، پاسخ سؤال شما چه بود؟
29:16
What is a commonly used medicine which is safe for humans, but harmful to animals?
507
1756040
5200
داروی رایجی که برای انسان بی خطر است اما برای حیوانات مضر است چیست؟
29:21
I guessed it was aspirin.
508
1761360
1920
حدس زدم آسپرین باشه
29:23
Which was the correct answer!
509
1763400
3080
کدام جواب درست بود!
29:26
Right, let's recap the vocabulary we've discussed,
510
1766600
3640
درست است، بیایید واژگانی را که مورد بحث قرار دادیم، خلاصه کنیم،
29:30
starting with 'human guinea pigs'
511
1770360
2600
با «خوکچه هندی انسان»
29:33
meaning 'the first people to have something new tested on them'.
512
1773080
3880
به معنای «اولین افرادی که چیز جدیدی روی آنها آزمایش شده است» شروع کنیم.
29:37
The phrase 'vice versa' is used to indicate
513
1777080
2560
عبارت "برعکس" برای نشان دادن
29:39
that 'the opposite of what you have just said is also true'.
514
1779760
4280
این که "برعکس آنچه شما گفتید نیز صادق است" استفاده می شود.
29:44
To 'thread the needle'
515
1784160
1320
"نخ زدن سوزن" "
29:45
describes 'a task which requires extreme skill and precision to do successfully'.
516
1785600
6120
کاری را توصیف می کند که برای انجام موفقیت آمیز آن به مهارت و دقت بسیار بالایی نیاز دارد".
29:51
The 'whole picture' means 'a complete description of something
517
1791840
3360
«تصویر کامل» به معنای « توضیح کامل چیزی است
29:55
'which includes all the relevant information and opinions about it'.
518
1795320
4440
که شامل تمام اطلاعات و نظرات مرتبط در مورد آن است».
29:59
If you 'wade through' something,
519
1799880
2000
اگر از چیزی عبور کنید،
30:02
you 'spend a lot of time and effort doing something boring or difficult,
520
1802000
4840
زمان و تلاش زیادی را صرف انجام کاری خسته کننده یا دشوار می کنید،
30:06
'especially reading a lot of information'.
521
1806960
2800
به ویژه برای خواندن اطلاعات زیاد.
30:09
And finally, the phrase 'on top of something'
522
1809880
2960
و در نهایت، عبارت «بالای چیزی»
30:12
means 'in addition to something', and that extra thing is often negative.
523
1812960
5000
به معنای «علاوه بر چیزی» است و آن چیز اضافی اغلب منفی است.
30:18
That's all for this week. Goodbye for now!
524
1818080
2080
این همه برای این هفته است. فعلا خداحافظ!
30:20
Bye!
525
1820280
1360
خداحافظ
30:21
6 Minute English.
526
1821760
1320
6 دقیقه انگلیسی
30:23
From BBC Learning English.
527
1823200
2800
از BBC Learning English.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7