BOX SET: 6 Minute English - Internet and Technology English mega-class! One hour of new vocabulary!

1,113,059 views

2020-12-12 ・ BBC Learning English


New videos

BOX SET: 6 Minute English - Internet and Technology English mega-class! One hour of new vocabulary!

1,113,059 views ・ 2020-12-12

BBC Learning English


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید. زیرنویس های ترجمه شده به صورت ماشینی ترجمه می شوند.

00:06
Hello and welcome to 6 Minute English. I'm  Dan and joining me today is Neil. Hey Neil.
0
6720
4640
سلام و به 6 دقیقه انگلیسی خوش آمدید. من دن هستم و نیل امروز به من می‌پیوندد. هی نیل
00:11
Hello Dan. What’s on the agenda today?
1
11360
2160
سلام دن. امروز چه چیزی در دستور کار است؟
00:13
Well, I’ll give you a clue. It’s something that  makes the world go round, but it doesn’t really  
2
13520
4880
خوب، من به شما یک سرنخ می دهم. این چیزی است که جهان را می چرخاند، اما واقعاً
00:18
exist. In fact, if we all stopped believing in  it, it would have no use at all! What is it?
3
18400
6800
وجود ندارد. در واقع، اگر همه ما به آن اعتقاد نداشتیم، اصلاً فایده ای نداشت! چیست؟
00:25
I haven’t got a clue!
4
25200
1120
من سرنخی ندارم!
00:27
Ok...how about this?
5
27280
2560
باشه...این چطوره؟
00:31
Money!
6
31600
960
پول!
00:32
Yep! And not just any money, we’re  talking about crypto-currency.
7
32560
4960
بله! و نه هر پولی، ما درباره ارز دیجیتال صحبت می کنیم.
00:37
Currency is the money that’s being used  in a given country at a certain time.  
8
37520
4560
ارز پولی است که در یک کشور معین در زمان معینی استفاده می‌شود.
00:42
But what about the cryptopart?
9
42080
2000
اما در مورد کریپتوپارت چطور؟
00:44
Well, crypto is a prefix meaning hidden  or secret – it comes from the word cryptic  
10
44080
5520
خوب، کریپتو پیشوندی به معنای پنهان یا مخفی است - از کلمه cryptic   می آید
00:49
which means mysterious or difficult to understand.  
11
49600
3440
که به معنای مرموز یا درک آن دشوار است.
00:53
You may have heard about the most popular  crypto-currency at the moment, the Bitcoin.
12
53040
5040
ممکن است درباره محبوب‌ترین ارز دیجیتال در حال حاضر، بیت کوین، شنیده باشید.
00:58
Well, I’ve certainly heard the name,  but I can’t say I know what it is.
13
58080
3680
خب، من مطمئناً این نام را شنیده‌ام، اما نمی‌توانم بگویم که می‌دانم چیست.
01:01
First our quiz question. When was the  Bitcoin crypto-currency first created?
14
61760
5920
ابتدا سوال مسابقه ما اولین بار چه زمانی ارز دیجیتال بیت کوین ایجاد شد؟
01:07
a) 2004
15
67680
1600
الف) 2004
01:09
b) 2009
16
69280
1600
ب) 2009
01:10
c) 2013
17
70880
1920
ج) 2013
01:12
Well, I think 2004 may have been  a little early, and I think 2013  
18
72800
5040
خوب، من فکر می کنم سال 2004 ممکن است کمی زود باشد، و فکر می کنم سال 2013
01:17
could be a little late, so  the smart money’s on 2009.
19
77840
3840
ممکن است کمی دیر باشد، بنابراین پول هوشمند در سال 2009 است.
01:21
We’ll see if you’re right later on in the  show. So…Bitcoin, what do you know about it?
20
81680
5680
ما بعداً خواهیم دید که آیا شما درست می گویید یا خیر. نمایش. بنابراین… بیت کوین، در مورد آن چه می دانید؟
01:27
Well, I know it’s a digital currency…so  presumably, you can use it online to buy things?
21
87360
5040
خوب، من می‌دانم که این یک ارز دیجیتال است… بنابراین احتمالاً می‌توانید از آن به صورت آنلاین برای خرید چیزها استفاده کنید؟
01:32
You are right on the money,  which means correct, both times.  
22
92400
3760
شما در مورد پول درست می گویید، که به معنای صحیح است، هر دو بار.
01:36
Bitcoin is just like any other  currency except for two things.  
23
96800
4320
بیت کوین مانند هر ارز دیگری است به جز دو مورد.
01:41
First, it’s not printed by governments or  banks, which means that it’s not legal tender.
24
101120
6320
اولاً، توسط دولت‌ها یا بانک‌ها چاپ نمی‌شود ، به این معنی که پول قانونی نیست.
01:47
Legal tender means the official money  that can be used within a country.  
25
107440
4240
مناقصه قانونی به معنای پول رسمی  است که می تواند در یک کشور استفاده شود.
01:51
So that means we can’t use it to  pay taxes or settle debts, right?
26
111680
3520
بنابراین این بدان معناست که ما نمی توانیم از آن برای پرداخت مالیات یا تسویه بدهی استفاده کنیم، درست است؟
01:55
Exactly. Governments won’t recognise it as an  official currency, although it acts just like  
27
115200
6080
دقیقا. دولت‌ها آن را به‌عنوان یک ارز رسمی به رسمیت نمی‌شناسند ، اگرچه این ارز درست مانند یک واحد پولی عمل می‌کند
02:01
one. You can use it to buy items from anyone  who will accept it, and its value fluctuates.
28
121280
6240
. می‌توانید از آن برای خرید اقلام از هر کسی که آن را می‌پذیرد استفاده کنید و ارزش آن در نوسان است.
02:07
Fluctuates means changes in level or  amount. And what’s the second thing?
29
127520
4960
نوسانات به معنای تغییرات در سطح یا مقدار است. و دومین مورد چیست؟
02:12
Ah, the second thing is that bitcoin is a digital  currency, meaning that with the exception of a few  
30
132480
6480
آه، دومین مورد این است که بیت کوین یک ارز دیجیتال است ، به این معنی که به استثنای چند
02:18
tokens, it largely exists online only. You can’t  carry a load of bitcoins around in your pocket!
31
138960
7680
توکن، تا حد زیادی فقط به صورت آنلاین وجود دارد. شما نمی توانید مقداری بیت کوین را در جیب خود حمل کنید!
02:26
Well, that makes a nice… change!
32
146640
2720
خوب، این یک تغییر خوب ایجاد می کند!
02:29
Oh dear, Neil. Was that a money pun? Terrible!
33
149360
3360
اوه عزیز، نیل. این یک جناس پول بود؟ وحشتناک!
02:33
So if it’s a digital only currency,  where do new ones come from?  
34
153360
4400
بنابراین اگر فقط یک ارز دیجیتال است، ارزهای جدید از کجا می آیند؟
02:37
Can’t I just say that I’ve got a  million of them and make myself rich!?
35
157760
3280
آیا نمی توانم فقط بگویم که من یک میلیون از آنها دارم و خودم را ثروتمند کنم!؟
02:41
Well, no. You see, even though Bitcoin  is not regulated by a bank or government,  
36
161040
5200
خب نه. ببینید، حتی اگر بیت‌کوین توسط یک بانک یا دولت تنظیم نشده است
02:46
it still has a process that stops people from  cheating. There are only two ways to get bitcoins.  
37
166240
6080
، هنوز روندی دارد که مردم را از تقلب باز می‌دارد. تنها دو راه برای بدست آوردن بیت کوین وجود دارد.
02:52
You either trade them from  someone, or you go mining.
38
172320
3280
یا آن‌ها را از شخصی مبادله می‌کنید یا به استخراج می‌روید.
02:55
Oh wait, I've heard about this. This is when  you use your computer to run calculations which  
39
175600
5680
اوه صبر کنید، من در مورد این شنیده ام. این زمانی است که از رایانه خود برای اجرای محاسباتی استفاده می
03:01
verify other Bitcoin transactions. You get  rewarded for this ‘work’ by earning bitcoins.
40
181280
5920
کنید که تراکنش های دیگر بیت کوین را تأیید می کند. با کسب بیت کوین، برای این «کار» پاداش دریافت می‌کنید.
03:07
Yep! It’s money for old rope, which  means it’s an easy way to earn money.
41
187200
4640
بله! این پول برای طناب قدیمی است، به این معنی که راهی آسان برای کسب درآمد است.
03:11
Wow! I’m going to start mining immediately!
42
191840
2400
وای! من فوراً ماینینگ را شروع می کنم!
03:14
Well, you wouldn’t be the only one!  
43
194240
1600
خوب، شما تنها نخواهید بود!
03:16
Bitcoin’s value has recently gone up quite a lot  and this has caused a lot of interest. In fact,  
44
196640
6720
ارزش بیت کوین اخیراً بسیار بالا رفته است و این باعث علاقه زیادی شده است. در واقع،
03:23
one stock exchange in Chicago has begun  trading in Bitcoin futures contracts.
45
203360
5600
یک بورس اوراق بهادار در شیکاگو تجارت قراردادهای آتی بیت کوین را آغاز کرده است.
03:28
A futures contract? What’s that?
46
208960
2080
قرارداد آتی؟ آن چیست؟
03:31
I’ll let BBC correspondent  Rory Cellan-Jones explain that.
47
211040
4480
به خبرنگار بی‌بی‌سی، روری سلن جونز اجازه می‌دهم این را توضیح دهد.
03:35
A futures contract, a bet on where  the currency will be a month from now,  
48
215520
4320
یک قرارداد آتی، یک شرط بندی روی جایی که ارز یک ماه دیگر قرار خواهد گرفت، به
03:39
soared above 18,000 dollars. That means that  investors believe Bitcoin, which started the  
49
219840
5360
بالای 18000 دلار رسید. این بدان معناست که سرمایه‌گذاران معتقدند بیت‌کوین، که
03:45
year worth under 1000 dollars will continue  to rise in value, albeit at a slower rate.  
50
225200
6560
سالی را با ارزش کمتر از 1000 دلار آغاز کرد، همچنان به افزایش ارزش خود ادامه می‌دهد، البته با سرعت کمتر.
03:51
But at the big banks there’s still  plenty of scepticism about the currency.
51
231760
4080
اما در بانک‌های بزرگ هنوز تردیدهای زیادی در مورد ارز وجود دارد.
03:56
Soared in this context means  increased very quickly. So,  
52
236960
3680
افزایش در این زمینه به این معنی است که خیلی سریع افزایش یافته است. بنابراین،
04:00
now big investors are betting on  the value of Bitcoin in the future.
53
240640
3920
اکنون سرمایه گذاران بزرگ روی ارزش بیت کوین در آینده شرط بندی می کنند.
04:04
Yes. But he also mentioned that the banks  have a lot of scepticism. That's a doubt  
54
244560
4960
آره. اما او همچنین اشاره کرد که بانک‌ها تردیدهای زیادی دارند. این شک است
04:09
that something is real or true. In this  case, whether Bitcoin is reliable or not.
55
249520
5200
اینکه چیزی واقعی یا واقعی است. در این مورد، آیا بیت کوین قابل اعتماد است یا نه.
04:14
Maybe it’s best I don’t get involved then.  After all, a fool and his money are soon parted.
56
254720
5200
شاید بهتر باشد که در آن زمان درگیر نشوم. بالاخره یک احمق و پولش به زودی از هم جدا می شوند.
04:19
Well, you don’t have to be sceptical  about the answer to our quiz.  
57
259920
3040
خوب، لازم نیست در مورد پاسخ مسابقه ما تردید داشته باشید.
04:22
We know that for a fact. I asked you when the  Bitcoin crypto-currency was first created.
58
262960
5360
ما این را برای یک واقعیت می دانیم. من از شما پرسیدم اولین بار چه زمانی ارز دیجیتال بیت کوین ایجاد شد.
04:28
a) 2004
59
268320
1200
الف) 2004
04:29
b) 2009
60
269520
1360
ب) 2009
04:30
c) 2013
61
270880
1520
ج) 2013
04:32
And I said 2009.
62
272400
1760
و من گفتم 2009.
04:34
And you were right! Well done. Shall  we go over the vocabulary again?
63
274160
3920
و حق با شما بود! آفرین. آیا دوباره واژگان را مرور کنیم؟
04:38
First, we had currency. That’s the money being  used in a given country at a certain time.  
64
278080
5200
اول اینکه ارز داشتیم. این پولی است که در یک کشور معین در زمان معینی استفاده می‌شود.
04:43
Name three currencies and their countries, Dan.
65
283280
2480
سه ارز و کشورهای آنها را دان نام ببرید.
04:45
Ok. Baht for Thailand. Rupee for India and  my favourite, Metical for Mozambique. Next  
66
285760
7200
خوب. بات برای تایلند روپیه برای هند و مورد علاقه من، متیکال برای موزامبیک. بعد
04:52
we had cryptic. Something which is cryptic  is mysterious or difficult to understand.  
67
292960
5120
رمزآلود داشتیم. چیزی که رمزآلود است، مرموز یا درک آن دشوار است.
04:58
For example, what do rich people need, poor  people have and if you eat it, you die?
68
298080
5520
به عنوان مثال، افراد ثروتمند به چه چیزهایی نیاز دارند، افراد فقیر دارای چه چیزی هستند و اگر آن را بخورید، می میرید؟
05:04
A cryptic riddle indeed! I’ll  have to think about that.  
69
304400
2560
یک معمای مرموز واقعا! من باید در مورد آن فکر کنم.
05:07
Then we had legal tender, that’s the official  money that can be used within a country.  
70
307600
4560
سپس پول قانونی داشتیم، این پول رسمی است که می‌توان در یک کشور استفاده کرد.
05:12
The Euro is legal tender within Spain,  but what was the legal tender before that?
71
312160
5600
یورو ارز قانونی در اسپانیا است، اما پیش از آن ارز قانونی چگونه بود؟
05:17
Wasn’t it the Peseta? Then we had  fluctuates. If something fluctuates,  
72
317760
5600
پستا نبود؟ سپس نوساناتی داشتیم. اگر چیزی نوسان داشته باشد،
05:23
it changes in amount or level.  The stock market fluctuates.
73
323360
4000
مقدار یا سطح آن تغییر می‌کند. بازار سهام در نوسان است.
05:27
But my love for my family never does. Then we  had soared, which means increased very quickly.  
74
327360
6560
اما عشق من به خانواده ام هرگز اینطور نیست. سپس ما به اوج رسیده بودیم، یعنی خیلی سریع افزایش یافتیم.
05:33
It’s used with this meaning in the  context of money, prices and statistics.
75
333920
4320
با این معنی در زمینه پول، قیمت و آمار استفاده می‌شود.
05:38
Finally, we had scepticism. Scepticism is doubt  
76
338240
3600
بالاخره ما دچار شک و تردید شدیم. شک و تردید عبارت است از شک
05:41
that something is real or true. What sort  of things are people sceptical about, Neil?
77
341840
5120
در مورد واقعی یا واقعی بودن چیزی. نیل، مردم نسبت به چه چیزهایی شک دارند؟
05:47
Some people think that human activity hasn’t  caused climate change. They are sceptical.
78
347520
6240
برخی از مردم فکر می کنند که فعالیت های انسانی باعث تغییرات آب و هوایی نشده است. آنها بدبین هستند.
05:53
And that brings us to the end of today’s 6 Minute  English. Don’t forget to check out our Youtube,  
79
353760
5120
و این ما را به پایان 6 دقیقه انگلیسی امروز می‌رساند . فراموش نکنید که
05:58
Facebook, Twitter and Instagram pages,  and we’ll see you next time. Goodbye.
80
358880
4640
صفحات یوتیوب،   فیسبوک، توییتر و اینستاگرام ما را بررسی کنید، دفعه بعد شما را خواهیم دید. خداحافظ.
06:03
Goodbye
81
363520
2320
خداحافظ
06:12
Hello and welcome to 6 Minute English. I'm Rob.
82
372240
3360
سلام و به 6 دقیقه انگلیسی خوش آمدید. من راب هستم.
06:15
And I'm Dan.
83
375600
1280
و من دن هستم.
06:16
Hey Dan. What’s the time?
84
376880
2000
هی دن ساعت چنده؟
06:19
Time you got a new watch?
85
379680
1520
وقتشه یه ساعت جدید بگیری؟
06:21
Now I didn’t ask you that just for a  joke or a sarcastic comment now did I?
86
381840
4000
حالا من این را فقط برای یک شوخی یا یک نظر کنایه آمیز از شما نپرسیدم؟
06:25
Well no, but look there’s a clock  over there, you are wearing a watch,  
87
385840
4240
خوب نه، اما نگاه کنید یک ساعت آنجاست، شما یک ساعت
06:30
you have a smartphone and a computer, all of  which show the time. So why are you asking me?
88
390080
5840
دارید،   یک تلفن هوشمند و یک رایانه دارید که همه آنها زمان را نشان می دهند. پس چرا از من می پرسی؟
06:36
Dan! I was trying to introduce today’s topic  which is all about virtual assistants or bots.  
89
396480
6400
دن! من سعی داشتم موضوع امروز را معرفی کنم که همه چیز در مورد دستیاران مجازی یا ربات ها است.
06:42
You seemed to have forgotten the script.
90
402880
1760
به نظر می رسید فیلمنامه را فراموش کرده اید.
06:44
Oh yes, sorry. We’re talking  about software that you talk to  
91
404640
4800
اوه بله متاسفم ما درباره نرم‌افزاری صحبت می‌کنیم که شما با آن صحبت می‌کنید
06:49
and that can talk back to you. Like Apple’s  Siri, Google’s Assistant, Amazon’s Alexa  
92
409440
6160
و می‌تواند با شما صحبت کند. مانند سیری اپل، دستیار گوگل، الکسای آمازون
06:55
and Microsoft’s Cortana. It might be on your  phone or computer or even a speaker in your house.
93
415600
6800
و کورتانای مایکروسافت. ممکن است روی تلفن یا رایانه یا حتی بلندگوی خانه شما باشد.
07:03
Now before we hear more about this  topic, here is today’s quiz question:  
94
423120
4160
اکنون قبل از اینکه درباره این مبحث بیشتر بشنویم ، این سوال آزمون امروز است:
07:08
Do you know when was the first computer which  could recognise speech, launched? Was it in
95
428000
6080
آیا می‌دانید اولین رایانه‌ای که می‌توانست گفتار را تشخیص دهد، چه زمانی راه‌اندازی شد؟ آیا در
07:14
a) 1951
96
434080
1840
الف) 1951
07:15
b) 1961
97
435920
1520
ب) 1961
07:17
c) 1971
98
437440
1600
ج) 1971
07:20
I have found my script, so I’ve seen the  answer but I have to say I was surprised.
99
440400
5680
فیلمنامه خود را پیدا کردم، بنابراین پاسخ را دیدم، اما باید بگویم که شگفت زده شدم.
07:26
Don't tell anybody, Dan, OK. We’ll give the answer  for the listeners at the end of the programme.  
100
446080
4800
به کسی نگو، دن، باشه. ما پاسخ را برای شنوندگان در پایان برنامه خواهیم داد.
07:31
We’re going to hear now from Tom Hewitson, who  is a conversation designer, working in the field  
101
451760
5760
اکنون می‌خواهیم از تام هویتسون بشنویم ، که طراح مکالمه است و در
07:37
of virtual assistants, talking on BBC Radio  4's Word of Mouth programme. He talks about  
102
457520
6480
زمینه دستیاران مجازی کار می‌کند و در برنامه Word of Mouth رادیو بی‌بی‌سی 4 صحبت می‌کند. او
07:44
the whole idea of virtual assistants and how they  are changing the way we interact with technology.  
103
464000
5920
درباره ایده کلی دستیاران مجازی و اینکه چگونه آنها روش تعامل ما با فناوری را تغییر می دهند صحبت می کند.
07:50
How does he describe our existing  relationship with computers?
104
470640
3920
او رابطه موجود ما با رایانه را چگونه توصیف می کند؟
07:55
It changes the way that we think about computers.  To date we’ve thought of them largely as  
105
475360
6000
این طرز فکر ما را در مورد رایانه تغییر می دهد. تا به امروز ما آنها را تا حد زیادی به عنوان ابزار در نظر گرفته‌ایم
08:01
tools. They’re just an advanced version of a  calculator. They’re something you kind of use  
106
481360
4640
. آنها فقط یک نسخه پیشرفته از یک ماشین حساب هستند. آنها چیزی هستند که شما به نوعی از آنها
08:06
to get a specific thing done, whereas this is  kind of changing them more into like an agent.  
107
486000
5120
برای انجام یک کار خاص استفاده می کنید، در حالی که این به نوعی بیشتر آنها را تبدیل به یک نماینده می کند.
08:11
They’re an active participant in the interaction  and in guiding you to make the right decision.
108
491120
6960
آنها یک شرکت فعال در تعامل و راهنمایی شما برای گرفتن تصمیم درست هستند.
08:18
How did he describe our existing  relationship with computers then?
109
498720
3280
او رابطه موجود ما با رایانه را در آن زمان چگونه توصیف کرد؟
08:22
He said that to date, which is an expression  which means 'up until this point in time',  
110
502000
4560
او گفت که تا به امروز، که عبارتی به معنای «تا این لحظه» است،
08:26
we have thought of them as advanced calculators.
111
506560
2480
ما آنها را به‌عنوان ماشین‌حساب‌های پیشرفته در نظر گرفته‌ایم.
08:29
Yes, that’s right, we use them  as a tool to get things done.  
112
509040
4080
بله، درست است، ما از آنها به عنوان ابزاری برای انجام کارها استفاده می‌کنیم.
08:33
But he says that modern technology is turning them  into an agent. This doesn’t mean a secret agent,  
113
513120
5920
اما او می‌گوید که فناوری مدرن آنها را به یک عامل تبدیل می‌کند. این به معنای یک مامور مخفی
08:39
like James Bond! In this sense an  agent is something that has agency  
114
519040
5120
مانند جیمز باند نیست! از این نظر، یک نماینده چیزی است که دارای نمایندگی است
08:44
and that means it has the ability to act  individually and make its own decisions.
115
524160
5040
و به این معنی است که توانایی انجام فعالیت فردی و تصمیم گیری خود را دارد.
08:49
I’m not sure I’d like my phone to have agency. It  probably wouldn’t like being in my pocket all day.
116
529200
5600
مطمئن نیستم که بخواهم تلفنم نمایندگی داشته باشد. احتمالاً دوست ندارد تمام روز در جیب من باشد.
08:54
Who would Dan? But I’m not sure Hewitson  is suggesting our devices would become  
117
534800
4800
چه کسی دن؟ اما مطمئن نیستم که هیویتسون پیشنهاد می‌کند که دستگاه‌های ما
08:59
that clever but he did say they could  become more active in our lives.
118
539600
4560
آنقدر باهوش شوند، اما او گفت که می‌توانند در زندگی ما فعال‌تر شوند.
09:05
Maybe. I imagine, for example,  
119
545120
2880
شاید. تصور می‌کنم، برای مثال،
09:08
telling us if we are spending too  much time in fast food restaurants?
120
548000
3760
به ما می‌گوید آیا زمان زیادی را در رستوران‌های فست فود می‌گذرانیم؟
09:11
Maybe in your case Dan. Mine would be  telling me I spend too much time in the gym!  
121
551760
5200
شاید در مورد شما دن. مال من به من می‌گفت که زمان زیادی را در باشگاه می‌گذرانم!
09:16
Hewitson goes on to explain how the way we will  talk to our virtual assistants will develop.  
122
556960
4880
Hewitson در ادامه توضیح می دهد که چگونه روشی که ما با دستیاران مجازی خود صحبت خواهیم کرد، توسعه خواهد یافت.
09:22
What does he say we don’t need to do?
123
562720
2240
او می گوید که ما چه کاری را لازم نداریم؟
09:25
We will develop our own kind of vernacular  for speaking with machines that will be  
124
565520
4800
ما نوع زبان بومی خودمان را برای صحبت کردن با ماشین‌ها توسعه خواهیم داد که به
09:30
subtly different from how we  speak to other people because  
125
570320
2960
طرز ماهرانه‌ای با نحوه صحبت ما با افراد دیگر متفاوت خواهد بود، زیرا
09:33
as you rightly point out you don’t need to make  the machine like you don’t need to kind of make  
126
573280
5120
همانطور که شما به درستی اشاره کردید، لازم نیست دستگاه را طوری بسازید که شما نیازی به ساختن تصادفی ندارید.
09:38
random chit-chat that’s just filling the time.  It can be much more brusque and to the point.
127
578400
5840
چت چت که فقط زمان را پر می کند. این می تواند بسیار دقیق تر و دقیق تر باشد.
09:44
A lot of what we say in human communication  
128
584240
2560
بسیاری از چیزهایی که در ارتباطات انسانی می گوییم
09:46
is to do with our relationship  with the person we’re talking to.
129
586800
3200
مربوط به رابطه ما با شخصی است که با او صحبت می کنیم.
09:50
We say things and talk about things that are maybe  not directly relevant to our point. With a digital  
130
590000
6480
ما چیزهایی می‌گوییم و درباره چیزهایی صحبت می‌کنیم که شاید مستقیماً با هدف ما مرتبط نباشد. با
09:56
virtual assistant, we don’t need to do that,  so we don’t need to make the machine like us.
131
596480
5440
دستیار مجازی  دیجیتال، ما نیازی به انجام این کار نداریم، بنابراین لازم نیست دستگاه را شبیه خود کنیم.
10:01
Hewitson said that we will develop our own  vernacular, this is a general word for a native  
132
601920
5280
هویتسون گفت که ما زبان بومی خود را توسعه خواهیم داد ، این یک کلمه کلی برای یک زبان مادری
10:07
language. This vernacular will be a little bit  different from our everyday vernacular because,  
133
607200
5680
است. این زبان محلی کمی متفاوت از زبان بومی روزمره ما خواهد بود، زیرا
10:12
as we said, we don’t need to maintain a social  relationship with the artificial assistant.
134
612880
5440
همانطور که گفتیم، نیازی به حفظ یک رابطه اجتماعی با دستیار مصنوعی نداریم.
10:18
This means that we won’t need chit-chat.  Chit-chat is another expression for small talk:  
135
618320
5280
این بدان معنی است که ما نیازی به چت نخواهیم داشت. Chit-chat بیان دیگری برای گفتگوی کوچک است:
10:23
conversation topics which aren’t important  but are part of everyday social communication,  
136
623600
5840
موضوعات مکالمه که مهم نیستند، اما بخشی از ارتباطات اجتماعی روزمره هستند،
10:29
like talking about the weather.
137
629440
1600
مانند صحبت کردن در مورد آب و هوا.
10:31
And because we don’t need to be  friends with our virtual assistants,  
138
631040
3120
و چون نیازی به دوستی با دستیاران مجازی خود نداریم،
10:34
we can be brusque and to the point. Both of  these mean being very direct and not very polite.
139
634160
6160
می‌توانیم بی‌رحمانه و دقیق عمل کنیم. هر دوی اینها به این معنی است که خیلی مستقیم و نه خیلی مودب هستند.
10:40
Well, Dan, I don’t mean to be brusque but it is  time for the answer to this week’s quiz question.  
140
640960
4640
خب، دن، نمی‌خواهم بی‌تفاوت باشم، اما وقت آن است که به سؤال مسابقه این هفته پاسخ دهیم.
10:45
Earlier I asked when was the first  computer which could recognise speech,  
141
645600
4160
قبلاً پرسیدم اولین رایانه ای که می تواند گفتار را تشخیص دهد،
10:49
launched. The options were:
142
649760
1600
کی راه اندازی شد. گزینه ها عبارت بودند از:
10:51
a) 1951
143
651360
1520
الف) 1951
10:52
b) 1961
144
652880
1680
ب) 1961
10:54
c) 1971
145
654560
2080
ج)
10:56
Well actually the first computer which  could recognise speech was launched in 1961.
146
656640
5520
1971 در واقع اولین رایانه ای که می توانست گفتار را تشخیص دهد در سال 1961 راه اندازی شد.
11:03
It was called the IBM Shoebox and could  recognise 16 words and the numbers zero  
147
663040
6640
این IBM Shoebox نام داشت و می توانست 16 کلمه و اعداد صفر
11:09
to nine. That’s nearly as many as you!
148
669680
2480
تا نه را تشخیص دهد. این تعداد تقریباً به اندازه شماست!
11:12
Cheeky! Right enough of this chit-chat.  Let’s recap today’s vocabulary.
149
672160
5360
پر رو! به اندازه کافی از این چت چت. بیایید واژگان امروز را مرور کنیم.
11:17
Well, chit-chat was one of today’s  expressions. Meaning 'small talk',  
150
677520
3840
خب، چیت چت یکی از عبارات امروزی بود . به معنای «حرف‌های کوچک»،
11:21
but we also had the expression to date.  That means ‘up until this moment in time’.
151
681360
5840
اما تا به امروز این عبارت را نیز داشتیم. این به معنای "تا این لحظه در زمان" است.
11:27
Then we had the noun agent. This  refers to something that has agency.  
152
687200
4960
سپس اسم عامل را داشتیم. این به چیزی اشاره دارد که دارای نمایندگی است.
11:32
And that is the ability to think,  make decisions and act independently.
153
692160
4480
و این توانایی تفکر، تصمیم گیری و عمل مستقل است.
11:36
The next word is vernacular,  another word for language,  
154
696640
3200
کلمه بعدی زبان بومی است، کلمه دیگری برای زبان،
11:39
particularly when talking about a native language.
155
699840
2960
مخصوصاً وقتی در مورد یک زبان مادری صحبت می شود.
11:42
And finally, there was brusque meaning  'direct and not polite' and to the point,  
156
702800
5680
و در نهایت، بی‌رحمانه به معنای «مستقیم و نه مودبانه» و به نقطه‌ای بود
11:48
which also means 'direct and  without unnecessary information'.
157
708480
3200
که به معنای «مستقیم و بدون اطلاعات غیر ضروری» نیز می‌باشد.
11:52
Hey Rob
158
712240
960
هی راب
11:53
Yes, what can I do for you Dan?
159
713200
2240
بله، چه کاری می توانم برای تو انجام دهم؟
11:55
End the programme.
160
715440
1120
برنامه را تمام کنید
11:56
Certainly Dan. Well that’s all from us today,  be sure to check us out on all the usual places:  
161
716560
5920
حتما دن خب این همه از ما امروز است، حتماً ما را در همه مکان‌های معمول بررسی کنید:
12:02
Facebook, Twitter, Instagram and YouTube,  
162
722480
2560
Facebook، Twitter، Instagram و YouTube،
12:05
and of course please don't forget our  website bbclearningenglish.com. Bye for now!
163
725040
4880
و البته لطفاً وب‌سایت ما bbclearningenglish.com را فراموش نکنید. فعلا خداحافظ!
12:09
Bye!
164
729920
200
خدا حافظ!
12:18
Hello. This is 6 Minute English  from BBC Learning English. I’m Neil.
165
738160
4000
سلام. این 6 دقیقه انگلیسی از BBC Learning English است. من نیل هستم
12:22
And I’m Sam. What’s the  matter, Neil? You sound upset.
166
742160
3440
و من سام هستم چه مشکلی دارد، نیل؟ ناراحت به نظر میرسی
12:26
Well, I am, Sam - I just spent  an hour working on my computer  
167
746240
3760
خب، من هستم، سام - فقط یک ساعت با کامپیوترم کار کردم
12:30
when it suddenly froze. I lost everything  and had to start all over again!
168
750000
4400
که ناگهان یخ زد. همه چیز را از دست دادم و مجبور شدم از نو شروع کنم!
12:34
Agghh, that’s so frustrating - like pop-up  internet ads and buffering videos that never play!
169
754400
5680
آه، این بسیار خسته کننده است - مانند تبلیغات اینترنتی پاپ آپ و ویدیوهای بافری که هرگز پخش نمی شوند!
12:40
Modern computers and the internet have  revolutionised the way we live today,  
170
760800
4160
رایانه‌های مدرن و اینترنت روش زندگی امروز ما را متحول کرده است
12:44
bringing us the world with a click of a button.  
171
764960
2640
و با یک کلیک یک دکمه جهان را برای ما به ارمغان آورده است.
12:47
But not everyone feels happy about  these technological developments.
172
767600
3280
اما همه از این پیشرفت‌های فناوری خوشحال نیستند.
12:51
While potentially acting as a  force for good and progress,  
173
771600
4080
در حالی که اینترنت به طور بالقوه به عنوان یک نیروی خوب و پیشرفت عمل می کند
12:55
the internet also provides a way of spreading  hate and misinformation. And for some people,  
174
775680
5920
،  اینترنت همچنین راهی برای گسترش نفرت و اطلاعات نادرست فراهم می کند. و برای برخی از مردم،
13:01
the World Wide Web remains a  mysterious and confusing place.
175
781600
4240
شبکه جهانی وب مکانی مرموز و گیج کننده است.
13:06
In this programme, we’ll hear about  a new academic subject called Web  
176
786560
4000
در این برنامه، درباره یک موضوع دانشگاهی جدید به نام
13:10
Science. Web Science studies the  technology behind the internet.
177
790560
4480
علوم وب خواهیم شنید. Web Science فناوری پشت اینترنت را مطالعه می کند.
13:15
But from the human side, it’s  also interested in how people  
178
795040
3200
اما از جنبه انسانی، به نحوه
13:18
interact with each other online. So we’ll  be asking whether studying Web Science  
179
798240
4880
تعامل مردم با یکدیگر به صورت آنلاین نیز علاقه دارد. بنابراین، ما می‌پرسیم که آیا مطالعه علوم وب
13:23
could make the internet better  for humanity in the future.
180
803120
3200
می‌تواند اینترنت را برای بشریت در آینده بهتر کند.
13:26
But first it’s time for our quiz question. I  wonder what the pioneers of the internet would  
181
806880
4800
اما ابتدا نوبت به سوال مسابقه ما می رسد. نمی‌دانم پیشگامان اینترنت
13:31
think about how it is used today. So the question  is, who invented the World Wide Web? Was it: 
182
811680
5520
درباره نحوه استفاده از آن امروز چه فکر می‌کنند. بنابراین سؤال این است که چه کسی وب جهانی را اختراع کرد؟ آیا این بود:
13:37
a) Bill Gates, 
183
817200
1760
الف) بیل گیتس،
13:38
b) Tim Berners-Lee, or c) Steve Jobs
184
818960
2960
ب) تیم برنرز لی، یا ج) استیو جابز
13:42
Well, Bill Gates and Steve Jobs were the  brains behind Microsoft and Apple Mac,  
185
822640
4640
خب، بیل گیتس و استیو جابز مغزهای مایکروسافت و اپل مک بودند،
13:47
so I’m going to say c) Tim Berners-Lee.
186
827280
2960
بنابراین می‌خواهم بگویم ج) تیم برنرز لی.
13:50
OK, Sam, we’ll find out later. Now,  because of coronavirus the annual Web  
187
830240
4880
باشه سام، بعدا متوجه میشیم. اکنون، به دلیل کرونا، کنفرانس سالانه
13:55
Science conference was held online this year.  Its theme was ‘making the web human-centric’.
188
835120
5520
علوم وب امسال به صورت آنلاین برگزار شد. موضوع آن «انسان محور کردن وب» بود.
14:01
One of the conference’s key speakers, and  co-founder of the new discipline of Web Science,  
189
841280
5600
یکی از سخنرانان کلیدی کنفرانس و یکی از بنیانگذاران رشته جدید علوم وب
14:06
was Dame Wendy Hall. Here she is speaking  to BBC World Service’s Digital Planet:
190
846880
5360
، دیم وندی هال بود. در اینجا او با سیاره دیجیتال سرویس جهانی بی‌بی‌سی صحبت می‌کند:
14:13
People think about the web as a technology  but actually it’s co-createdby society.  
191
853440
4800
مردم به وب به‌عنوان یک فناوری فکر می‌کنند، اما در واقع توسط جامعه ایجاد شده است.
14:18
We put the content on, we interact with the  technology, with the platforms, with the social  
192
858240
4640
ما محتوا را قرار می‌دهیم، با فناوری، پلتفرم‌ها، با
14:22
media networks to create it. What we study is how  that works as an ecosystem,this coming together  
193
862880
6240
شبکه‌های رسانه اجتماعی برای ایجاد آن تعامل داریم. چیزی که ما مطالعه می کنیم این است که چگونه به عنوان یک اکوسیستم کار می کند، این
14:29
of people and technology, and it’s very  interdisciplinary, very socio-technical,  
194
869120
4480
ترکیب افراد و فناوری، و بسیار بین رشته ای، بسیار اجتماعی و فنی است،
14:33
and of course these days a  lot of it is powered by AI.
195
873600
3280
و البته این روزها بسیاری از آن توسط هوش مصنوعی نیرو می گیرد.
14:38
Web Science is not only interested in  the technology side of the internet.  
196
878240
4080
وب ساینس تنها به جنبه فناوری اینترنت علاقه مند نیست.
14:42
As a subject it’s very interdisciplinary  - involving two or more academic subjects  
197
882320
5600
به عنوان یک موضوع، بسیار بین رشته‌ای است - شامل دو یا چند موضوع آکادمیک
14:47
or areas of knowledge. Web Science  combines digital technology with  
198
887920
4480
یا حوزه‌های دانش. علوم وب فناوری دیجیتال را با
14:52
subjects ranging from psychology and  robotics to economics and sociology.
199
892400
4320
موضوعاتی از روانشناسی و روباتیک گرفته تا اقتصاد و جامعه‌شناسی ترکیب می‌کند.
14:57
Exchanges between humans and the internet can  be seen in social media networks - websites,  
200
897360
5440
تبادلات بین انسان و اینترنت را می‌توان در شبکه‌های رسانه‌های اجتماعی مشاهده کرد - وب‌سایت‌ها،
15:02
apps and computer programmes,  like Facebook and Instagram,  
201
902800
3200
برنامه‌ها و برنامه‌های رایانه‌ای، مانند Facebook و Instagram،
15:06
which allow people to use electronic devices  to communicate and share information.
202
906000
5360
که به افراد امکان می‌دهد از دستگاه‌های الکترونیکی برای برقراری ارتباط و اشتراک‌گذاری اطلاعات استفاده کنند.
15:11
This view of technology sees the internet as an  ecosystem – a complex pattern of relationships  
203
911360
6000
این دیدگاه از فناوری، اینترنت را به‌عنوان یک اکوسیستم می‌بیند - الگویی پیچیده از روابط
15:17
and mutual influences that exists between  all living things and their environment.
204
917360
5360
و تأثیرات متقابلی که بین همه موجودات زنده و محیط آنها وجود دارد.
15:22
One ongoing and topical example of  websites helpfully interacting with humans  
205
922720
5360
یکی از مثال‌های مداوم و موضوعی از تعامل مفید وب‌سایت‌ها با انسان‌ها
15:28
is the Covid contact tracing app.
206
928080
2880
، برنامه ردیابی تماس Covid است.
15:30
You might think the mobile phone app, which  tracks movements and contact between people  
207
930960
4240
ممکن است فکر کنید برنامه تلفن همراه، که حرکات و تماس بین افراد را
15:35
to combat coronavirus, would be a useful  practical application of internet technology.
208
935200
4640
برای مبارزه با ویروس کرونا ردیابی می‌کند، یک کاربرد کاربردی کاربردی از فناوری اینترنت باشد.
15:40
But as Carly Kind, Director of the  Ada Lovelace Institute in Cambridge,  
209
940480
4800
اما همانطور که کارلی کیند، مدیر مؤسسه آدا لاولیس در کمبریج،
15:45
explained to BBC World Service’s Digital  Planet, things are never that straightforward:
210
945280
5120
به سیاره دیجیتال سرویس جهانی بی‌بی‌سی توضیح داد ، همه چیز هرگز به این سادگی نیست: در
15:52
Actually, there’s a lot of more fundamental  questions that haven’t been answered yet such as:  
211
952000
3840
واقع، بسیاری از سؤالات اساسی‌تر وجود دارد که هنوز به آنها پاسخ داده نشده است، مانند
15:56
is Bluetooth even an adequate mechanism for  doing what it says on the tin, which is detecting  
212
956400
5120
: آیا حتی بلوتوث هم هست. مکانیسم کافی برای انجام کاری که روی قلع نوشته شده است، یعنی تشخیص
16:01
contact between two people? The trails so far  show that it’s not actually that great and so,  
213
961520
5760
تماس بین دو نفر؟ مسیرهای تا کنون نشان می‌دهد که واقعاً آنقدرها هم عالی نیست،
16:07
do we know for sure that these apps work  and they work in the way we want them to?  
214
967280
3600
آیا ما مطمئن هستیم که این برنامه‌ها کار می‌کنند و آن‌طور که ما می‌خواهیم کار می‌کنند؟
16:11
Do we get the public health  information that we need?
215
971520
3040
آیا ما اطلاعات بهداشت عمومی مورد نیاز خود را دریافت می کنیم؟
16:16
Apps like this are designed to  support public health - services  
216
976240
3840
برنامه‌هایی مانند این برای حمایت از سلامت عمومی - خدمات
16:20
to improve the standard of health  of a country’s general population.
217
980080
3840
برای بهبود استاندارد سلامت جمعیت عمومی یک کشور طراحی شده‌اند.
16:23
But Carly thinks the mechanisms used must be  suitable and adequate – they must actually work or  
218
983920
6640
اما کارلی فکر می‌کند مکانیسم‌های استفاده‌شده باید مناسب و کافی باشند - آنها باید در واقع کار کنند یا
16:31
do what it says on the tin – an informal idiom  meaning work exactly as it is intended to.
219
991120
7680
آنچه را که روی قلع می‌گوید انجام دهند - یک اصطلاح غیررسمی به معنای کار دقیقاً همانطور که در نظر گرفته شده است.
16:38
To find this out, trials - tests  to discover how effective or  
220
998800
4160
برای یافتن این موضوع، آزمایش‌ها - آزمایش‌هایی برای کشف میزان مؤثر یا
16:42
suitable something is - are  carried out over a period of time.
221
1002960
3680
مناسب بودن چیزی - در یک دوره زمانی انجام می‌شوند.
16:46
The kind of trials which were carried out during  
222
1006640
2400
نوع آزمایشاتی که در وهله اول در
16:49
the invention of the internet  in the first place, right, Neil?
223
1009040
3440
حین اختراع اینترنت انجام شد، درست است، نیل؟
16:54
Ah yes, the invention of the internet – or  to be more accurate, the World Wide Web. In  
224
1014000
5040
آه، بله، اختراع اینترنت – یا به عبارت دقیق‌تر، وب جهانی. در
16:59
our quiz question I asked you who invented  the World Wide Web? What did you say, Sam?
225
1019040
4800
سؤال مسابقه ما از شما پرسیدم چه کسی وب جهانی را اختراع کرد؟ چی گفتی سام؟
17:04
I said b) Tim Berners-Lee.
226
1024960
2080
گفتم ب) تیم برنرز لی.
17:08
Well, you’re a first class web scientist,  Sam, because that’s the correct answer!
227
1028560
4560
خب، تو یک دانشمند وب درجه یک هستی، سم، زیرا این پاسخ صحیح است!
17:14
Great! In this programme, we’ve been hearing about  Web Science, a new interdisciplinary subject,  
228
1034480
6240
عالی! در این برنامه، ما در مورد علوم وب، یک موضوع میان رشته ای جدید،
17:21
combining several areas of study, which  investigates the ecosystem of the internet – the  
229
1041280
5520
با ترکیب چندین حوزه مطالعاتی، که اکوسیستم اینترنت را بررسی می کند -
17:26
complex pattern of interconnections  between humans and their environment.
230
1046800
5040
الگوی پیچیده ارتباطات بین انسان ها و محیط آنها، شنیده ایم.
17:32
Social media networks –websites and apps,  like Facebook, which let people use electronic  
231
1052400
5120
شبکه‌های رسانه‌های اجتماعی - وب‌سایت‌ها و برنامه‌ها، مانند فیس‌بوک، که به افراد اجازه می‌دهند از
17:37
devices to communicate on the internet – show how  humans and technology can successfully interact.
232
1057520
5600
دستگاه‌های الکترونیکی برای برقراری ارتباط در اینترنت استفاده کنند - نشان می‌دهند که چگونه انسان‌ها و فناوری می‌توانند با موفقیت تعامل داشته باشند.
17:43
A new Covid contact tracing app is currently  undergoing trials – tests to see if it works  
233
1063840
6000
یک برنامه جدید ردیابی تماس Covid در حال حاضر در مرحله آزمایشی است - آزمایش‌هایی برای بررسی اینکه آیا به طور مؤثر کار می‌کند یا خیر
17:49
effectively. This will discover if it does what  it says on the tin – works as it’s supposed to.
234
1069840
6800
. این نشان می‌دهد که آیا همان کاری را که روی قلع می‌گوید انجام می‌دهد یا خیر - همانطور که قرار است کار می‌کند.
17:57
If successful, by alerting people to  coronavirus risks the app will support  
235
1077200
5120
در صورت موفقیت آمیز بودن، با هشدار دادن به افراد در مورد خطرات کروناویروس، این برنامه از سلامت عمومی پشتیبانی می کند
18:02
public health – services aimed at improving  the health of the general population.
236
1082320
5200
- خدماتی که با هدف بهبود سلامت عموم مردم انجام می شود.
18:07
And that’s all from us for now.
237
1087520
1920
و این همه از ما در حال حاضر است.
18:09
And we hope you’ll join us again soon  for more topical English vocabulary  
238
1089440
3840
و ما امیدواریم که به زودی دوباره به ما بپیوندید برای واژگان بیشتر موضوعی انگلیسی
18:13
here at 6 Minute English. Bye for now!
239
1093280
2160
در اینجا در 6 دقیقه انگلیسی. فعلا خداحافظ!
18:15
Bye bye!
240
1095440
480
خداحافظ!
18:23
Hello and welcome to 6 Minute  English. I'm Catherine.
241
1103040
3360
سلام و به 6 Minute  English خوش آمدید . من کاترین هستم.
18:26
And hello, I'm Rob.
242
1106400
1200
و سلام، من راب هستم.
18:27
Today we have another technology topic.
243
1107600
2560
امروز یک موضوع فناوری دیگر داریم.
18:30
Oh good! I love technology. It makes things  easier, it’s fast and means I can have gadgets.
244
1110160
5840
خوب است! من عاشق تکنولوژی هستم. کارها را آسان‌تر می‌کند، سریع است و به این معنی است که می‌توانم ابزارهایی داشته باشم.
18:36
Do you think that technology can  actually do things better than humans?
245
1116000
4320
آیا فکر می‌کنید که فناوری واقعاً می‌تواند کارها را بهتر از انسان انجام دهد؟
18:40
For some things, yes. I think cars that drive  themselves will be safer than humans but that  
246
1120320
5680
برای برخی چیزها، بله. فکر می‌کنم خودروهایی که خودشان رانندگی می‌کنند از انسان‌ها ایمن‌تر خواهند بود،
18:46
will take away some of the pleasure of driving.  So I guess it depends on what you mean by better.
247
1126000
5520
اما لذت رانندگی را از بین می‌برند. بنابراین حدس می‌زنم بستگی به این دارد که منظور شما از بهتر بودن چیست.
18:51
Good point, Rob. And that actually  ties in very closely with today’s topic  
248
1131520
4880
نکته خوب راب و این در واقع ارتباط بسیار نزدیکی با موضوع امروزی دارد
18:56
which is technochauvinism.
249
1136400
2160
که تکنوشوینیسم است.
18:59
What’s that?
250
1139120
960
آن چیست؟
19:00
We’ll find out shortly, Rob, but before we do,  today’s quiz question. Artificial Intelligence,  
251
1140080
6080
به زودی متوجه خواهیم شد، راب، اما قبل از انجام، سؤال مسابقه امروز. هوش مصنوعی،
19:06
or A.I., is an area of computer science that  develops the ability of computers to learn  
252
1146160
5760
یا A.I.، حوزه‌ای از علوم رایانه است که توانایی رایانه‌ها را برای یادگیری
19:11
to do things like solve problems or drive cars  without crashing. But in what decade was the term  
253
1151920
7360
انجام کارهایی مانند حل مشکلات یا رانندگی با اتومبیل بدون تصادف، توسعه می‌دهد. اما در چه دهه ای اصطلاح
19:19
'Artificial Intelligence' coined? Was it: a) the 1940s, 
254
1159280
4800
«هوش مصنوعی» ابداع شد؟ آیا این بود: الف) دهه 1940،
19:24
b) the 1950s or c) the 1960s?
255
1164080
3520
ب) دهه 1950 یا ج) دهه 1960؟
19:28
I think it's quite a new expression  so I'll go for c) the 1960s.
256
1168240
4880
من فکر می‌کنم این یک عبارت کاملاً جدید است بنابراین من به ج) دهه 1960 می‌روم.
19:33
Good luck with that, Rob, and we’ll give  you the answer later in the programme.  
257
1173120
3360
در این مورد موفق باشید، راب، و ما پاسخ را بعداً در برنامه به شما خواهیم داد.
19:37
Now, let's get back to our  topic of technochauvinism.
258
1177120
3680
اکنون، بیایید به مبحث خودمان یعنی تکنوشوونیسم بازگردیم.
19:40
I know what a chauvinist is. It’s someone  who thinks that their country or race or sex  
259
1180800
5360
می دانم شوونیست چیست. این کسی است که فکر می‌کند کشور یا نژاد یا
19:46
is better than others. But how  does this relate to technology?
260
1186160
3520
جنسیت او بهتر از دیگران است. اما این موضوع چگونه به فناوری مرتبط است؟
19:49
We’re about to find out. Meredith Broussard is  Professor of Journalism at New York University  
261
1189680
6160
ما در حال کشف کردن هستیم مردیت بروسارد پروفسور روزنامه‌نگاری در دانشگاه نیویورک است
19:55
and she’s written a book called  Artificial Unintelligence.  
262
1195840
4160
و کتابی به نام بی‌هوشی مصنوعی نوشته است.
20:00
She appeared on the BBC Radio 4  programme More or Less to talk about it.  
263
1200000
4800
او در برنامه کم و بیش رادیو بی بی سی حاضر شد تا در مورد آن صحبت کند.
20:04
Listen carefully and find out her  definition of technochauvinism.
264
1204800
4080
با دقت گوش کنید و تعریف او از تکنوشوینیسم را دریابید.
20:09
Technochauvinism is the idea that technology is  always the highest and best solution. So somehow  
265
1209600
7040
تکنوشوونیسم این ایده است که فناوری همیشه بالاترین و بهترین راه حل است. بنابراین،
20:16
over the past couple of decades we got into the  habit of thinking that doing something with a  
266
1216640
7040
در طول چند دهه گذشته، ما عادت کردیم که فکر کنیم انجام کاری با
20:23
computer is always the best and most objective  way to do something and that’s simply not true.  
267
1223680
7200
رایانه همیشه بهترین و عینی‌ترین راه برای انجام کاری است و این به سادگی درست نیست.
20:30
Computers are not objective, they are  proxies for the people who make them.
268
1230880
4960
رایانه‌ها عینی نیستند، بلکه پروکسی‌هایی برای افرادی هستند که آنها را می‌سازند.
20:36
What is Meredith Broussard's  definition of technochauvinism?
269
1236640
4160
تعریف مردیت بروسارد از تکنووینیسم چیست؟
20:40
It's this idea that using technology  is better than not using technology.
270
1240800
5040
این ایده است که استفاده از فناوری بهتر از عدم استفاده از فناوری است.
20:45
She says that we have this idea that a computer is  objective. Something that is objective is neutral,  
271
1245840
6800
او می‌گوید که ما این ایده را داریم که یک کامپیوتر عینی است. چیزی که عینی است خنثی است
20:52
it doesn’t have an opinion, it’s  fair and it's unbiased – so it’s  
272
1252640
3920
،   نظری ندارد، منصفانه است و بی طرفانه است –
20:56
the opposite of being a chauvinist. But  Meredith Broussard says this is not true.
273
1256560
6000
بنابراین برخلاف شوونیست بودن است. اما مردیت بروسارد می‌گوید این درست نیست.
21:02
She argues that computers are not objective.  They are proxies for the people that make them.  
274
1262560
6480
او استدلال می کند که کامپیوترها عینی نیستند. آنها نیابتی برای افرادی هستند که آنها را می سازند.
21:09
You might know the word proxy when you  are using your computer in one country  
275
1269040
4160
وقتی از رایانه خود در یک کشور استفاده می‌کنید
21:13
and want to look at something that is  only available in a different country.  
276
1273200
3680
و می‌خواهید به چیزی نگاه کنید که فقط در کشور دیگری در دسترس است، ممکن است کلمه پروکسی را بدانید.
21:16
You can use a piece of software  called a proxy to do that.
277
1276880
3440
برای این کار می‌توانید از نرم‌افزاری به نام پروکسی استفاده کنید.
21:20
But a proxy is also a person or a thing that  carries out your wishes and your instructions  
278
1280320
6560
اما پروکسی نیز شخص یا چیزی است که خواسته‌ها و دستورات شما را
21:26
for you. So computers are only as smart or as  objective as the people that programme them.  
279
1286880
7120
برای شما انجام می‌دهد. بنابراین رایانه‌ها به اندازه افرادی که آنها را برنامه‌ریزی می‌کنند هوشمند یا عینی هستند.
21:34
Computers are proxies for their programmers.  Broussard says that believing too much in  
280
1294720
6240
کامپیوترها پروکسی برای برنامه نویسان خود هستند. بروسارد می گوید که اعتقاد بیش از حد به
21:40
Artificial Intelligence can make the  world worse. Let’s hear a bit more.  
281
1300960
4720
هوش مصنوعی می تواند دنیا را بدتر کند. کمی بیشتر بشنویم
21:45
This time find out what serious problems in  society does she think may be reflected in AI?
282
1305680
7520
این بار دریابید که به نظر او چه مشکلات جدی در جامعه ممکن است در هوش مصنوعی منعکس شود؟
21:54
It’s a nuanced problem. What we  have is data on the world as it is  
283
1314160
4960
این یک مشکل ظریف است. آنچه ما داریم داده‌هایی درباره جهان است که هست
21:59
and we have serious problems with  racism, sexism, classism, ageism,  
284
1319120
5680
و مشکلات جدی با نژادپرستی، جنسیت‌گرایی، طبقه‌گرایی، سن‌گرایی
22:04
in the world right now so there is no such thing  as perfect data. We also have a problem inside the  
285
1324800
6720
در جهان در حال حاضر داریم، بنابراین چیزی به نام داده‌های کامل وجود ندارد. ما همچنین مشکلی در
22:11
tech world where the creators of algorithms do  not have sufficient awareness of social issues  
286
1331520
8640
دنیای فناوری داریم که در آن سازندگان الگوریتم‌ها آگاهی کافی از مسائل
22:20
such that they can make good technology that  gets us closer to a world as it should be.
287
1340160
6400
اجتماعی ندارند تا بتوانند فناوری خوبی بسازند که ما را به دنیایی که باید نزدیک‌تر کند.
22:27
She said that society has problems with  racism, sexism, classism and ageism.
288
1347680
6000
او گفت که جامعه با نژادپرستی، تبعیض جنسی، طبقه‌گرایی و سن‌گرایی مشکل دارد.
22:33
And she says it’s a nuanced problem. A nuanced  problem is not simple, but it does have small  
289
1353680
6800
و او می گوید که این یک مشکل ظریف است. یک مشکل ظریف ساده نیست، اما دارای
22:40
and important areas which may be hard  to spot, but they need to be considered.
290
1360480
5040
قسمت‌های کوچک و مهمی است که تشخیص آن‌ها ممکن است سخت باشد، اما باید در نظر گرفته شوند.
22:45
And she also talked about algorithms used  to program these technological systems.  
291
1365520
5280
و همچنین درباره الگوریتم‌هایی که برای برنامه‌ریزی این سیستم‌های فناوری استفاده می‌شوند صحبت کرد.
22:50
An algorithm is a set of instructions  that computers use to perform their tasks.  
292
1370800
4880
الگوریتم مجموعه‌ای از دستورالعمل‌ها است که رایانه‌ها برای انجام وظایف خود از آن‌ها استفاده می‌کنند.
22:55
Essentially it’s the rules that they use  to come up with their answers and Broussard  
293
1375680
4640
اساساً این قوانینی است که آنها برای یافتن پاسخ‌های خود از آنها استفاده می‌کنند و بروسارد
23:00
believes that technology will reflect the  views of those who create the algorithms.
294
1380320
4640
معتقد است که فناوری دیدگاه‌های کسانی را که الگوریتم‌ها را ایجاد می‌کنند منعکس خواهد کرد.
23:04
Next time you're using a piece of software or your  favourite app you might find yourself wondering if  
295
1384960
5120
دفعه بعد که از یک نرم‌افزار یا برنامه مورد علاقه‌تان استفاده می‌کنید، ممکن است از خود بپرسید که آیا
23:10
it's a useful tool or does it contain these little  nuances that reflect the views of the developer.
296
1390080
7120
این ابزار مفیدی است یا حاوی این تفاوت‌های کوچک است که منعکس‌کننده دیدگاه‌های توسعه‌دهنده است.
23:17
Right, Catherine. How about the  answer to this week's question then?
297
1397200
3280
درسته کاترین پس جواب سوال این هفته چطور؟
23:20
I asked in which decade was the term  'Artificial Intelligence' coined.  
298
1400480
4480
من پرسیدم در چه دهه ای اصطلاح «هوش مصنوعی» ابداع شد.
23:24
Was it the 40s, the 50s or the 60s?
299
1404960
2720
دهه 40، 50 یا 60 بود؟
23:27
And I said the 60s.
300
1407680
1200
و من گفتم دهه 60.
23:28
But it was actually the 1950s. Never mind,  Rob. Let’s review today’s vocabulary.
301
1408880
5840
اما در واقع دهه 1950 بود. مهم نیست، راب. بیایید واژگان امروز را مرور کنیم.
23:34
Well, we had a chauvinist – that's  someone who believes their country,  
302
1414720
4320
خب، ما یک شوونیست داشتیم - این کسی است که معتقد است کشور،
23:39
race or sex is better than any others.
303
1419040
2480
نژاد یا جنسیتش بهتر از دیگران است.
23:41
And this gives us technochauvinism,  
304
1421520
2800
و این به ما تکنوشوینیسم می‌دهد،
23:44
the belief that a technological solution  is always a better solution to a problem.
305
1424320
5040
این باور را که راه‌حل فناورانه همیشه راه‌حل بهتری برای یک مشکل است.
23:49
Next - someone or something that is  objective is neutral, fair and balanced.
306
1429360
5680
بعد - کسی یا چیزی که عینی است خنثی، منصفانه و متعادل است.
23:55
A proxy is a piece of software but also someone  who does something for you, on your behalf.  
307
1435040
6800
پروکسی یک نرم افزار است، اما همچنین شخصی است که از طرف شما کاری برای شما انجام می دهد.
24:01
A nuanced problem is a subtle one, it’s  not a simple case of right or wrong,  
308
1441840
5520
یک مشکل ظریف یک مشکل ظریف است ، یک مورد ساده درست یا غلط نیست،
24:07
in a nuanced problem there are small but  important things that you need to consider.
309
1447360
5360
در یک مشکل ظریف، چیزهای کوچک اما مهمی وجود دارد که باید در نظر بگیرید.
24:12
And an algorithm is a set of software  instructions for a computer system.
310
1452720
4320
و یک الگوریتم مجموعه‌ای از دستورالعمل‌های نرم‌افزاری برای یک سیستم رایانه‌ای است.
24:17
Well, that’s all we have time  for today. Goodbye for now.
311
1457040
3360
خوب، این تمام وقت ما برای امروز است. فعلا خدانگهدار.
24:20
Bye bye!
312
1460400
400
خداحافظ!
24:28
Hello, welcome to 6 Minute English. I'm Rob.
313
1468720
2720
سلام، به 6 دقیقه انگلیسی خوش آمدید. من راب هستم.
24:31
And I'm Catherine.
314
1471440
1280
و من کاترین هستم.
24:32
So, Catherine, how long do  you spend on your smartphone?
315
1472720
3520
بنابراین، کاترین، چه مدت برای تلفن هوشمند خود وقت می گذارید؟
24:36
My smartphone? Not that long  really, only about 18 or 19 hours.
316
1476240
5600
گوشی هوشمند من؟ نه چندان طولانی ، فقط حدود 18 یا 19 ساعت.
24:42
No, sorry, I meant in a day, not in a week.
317
1482400
2720
نه، ببخشید، منظورم در یک روز بود، نه در یک هفته.
24:45
Er, that's what I meant too, Rob – a day.
318
1485120
2320
آره، منظور من هم همین بود، راب - یک روز.
24:48
Oh wow, so you’ve even got it right here…
319
1488080
3360
اوه وای، پس تو حتی همینجا آن را گرفتی...
24:51
…yep, got it now, Rob. Yes, I should  tell you that I suffer from FOMO.
320
1491440
4560
...بله، الان فهمیدم، راب. بله، باید به شما بگویم که از FOMO رنج می برم.
24:56
FOMO?
321
1496800
1040
FOMO؟
24:57
FOMO - Fear of Missing Out. Something cool or  interesting might be happening somewhere, Rob,  
322
1497840
5600
FOMO - ترس از دست دادن. راب،
25:03
and I want to be sure I catch it,  so I have to keep checking my phone,  
323
1503440
3920
و من می‌خواهم مطمئن شوم که آن را می‌بینم، ممکن است اتفاق جالب یا جالبی در جایی بیفتد، بنابراین باید همچنان تلفنم را چک کنم
25:07
to make sure, you know, I  don’t miss out on anything.
324
1507360
2880
تا مطمئن شوم، می‌دانی، هیچ چیزی را از دست نمی‌دهم.
25:10
So we could call you a phubber… Hello… I said,  
325
1510880
4240
بنابراین ما می توانیم شما را یک ژولید صدا کنیم ... سلام ... من گفتم،
25:15
so you’re a phubber? Someone who ignores other  people because you’d rather look at your phone.
326
1515120
5200
پس شما یک چروک هستید؟ کسی که دیگران را نادیده می‌گیرد، زیرا شما ترجیح می‌دهید به تلفنتان نگاه کنید.
25:21
Oh, yeah, that's right.
327
1521360
960
اوه، بله، درست است.
25:22
It sounds like you have a bit of a problem  there, Catherine. But you’re not the only one.  
328
1522880
5120
به نظر می رسد که شما در آنجا کمی مشکل دارید ، کاترین. اما شما تنها نیستید.
25:28
According to one recent survey, half of teenagers  in the USA feel like they are addicted to their  
329
1528000
5680
بر اساس یک نظرسنجی اخیر، نیمی از نوجوانان در ایالات متحده احساس می کنند که به تلفن همراه خود معتاد هستند
25:33
mobile phones. If you are addicted to something,  you have a physical or mental need to keep on  
330
1533680
5520
. اگر به چیزی معتاد هستید، نیاز فیزیکی یا ذهنی دارید که به
25:39
doing it. You can’t stop doing it. You often hear  about people being addicted to drugs or alcohol,  
331
1539200
6320
انجام آن ادامه دهید. شما نمی توانید از انجام آن دست بردارید. اغلب در مورد اعتیاد افراد به مواد مخدر یا الکل می شنوید،
25:45
but you can be addicted to other things too,  like mobile phones. So, Catherine, do you  
332
1545520
5680
اما می توانید به چیزهای دیگری مانند تلفن همراه نیز معتاد باشید. بنابراین، کاترین، آیا
25:51
think you’re addicted to your phone? How long  could you go without it? Catherine? Catherine!
333
1551200
5520
فکر می‌کنید به تلفن خود معتاد شده‌اید؟ چقدر می‌توانید بدون آن بمانید؟ کاترین؟ کاترین!
25:58
Sorry, Rob, yes, well I think  if I went more than a minute,  
334
1558800
3760
متأسفم، راب، بله، خوب فکر می‌کنم اگر بیشتر از یک دقیقه
26:02
I'd probably get sort of sweaty palms and  I think I'd start feeling a bit panicky.
335
1562560
3760
می‌رفتم، احتمالاً کف دست‌هایم عرق می‌کرد و فکر می‌کنم کمی احساس وحشت می‌کردم.
26:06
Oh dear! Well, if I can  distract you for a few minutes,  
336
1566320
5280
اوه عزیزم! خوب، اگر بتوانم برای چند دقیقه حواس شما را پرت کنم،
26:11
can we look at this topic in more detail  please? Let's start with a quiz question  
337
1571600
4160
می‌توانیم این موضوع را با جزئیات بیشتری بررسی کنیم؟ بیایید ابتدا با یک سوال مسابقه شروع کنیم
26:15
first though. In what year did the term  ‘smartphone’ first appear in print? Was it:
338
1575760
5440
. اولین بار در چه سالی عبارت «تلفن هوشمند» در چاپ ظاهر شد؟ آیا این بود:
26:21
a) 1995 
339
1581200
1680
الف) 1995
26:22
b) 2000 c) 2005
340
1582880
3200
ب) 2000 ج) 2005
26:26
What do you think?
341
1586080
880
26:26
OK, you've got my full attention  now, Rob, and I think it’s 2000,  
342
1586960
3840
نظر شما چیست؟
خوب، راب، تو الان تمام توجه من را به خود جلب کردی ، و فکر می‌کنم سال 2000 است،
26:30
but actually can I just have a quick  look on my phone to check the answer?
343
1590800
3120
اما آیا می‌توانم فقط یک نگاه سریع به تلفنم بیندازم تا جواب را بررسی کنم؟
26:33
No, no, that would be cheating – for  you – maybe not for the listeners.
344
1593920
3600
نه، نه، این تقلب - برای شما - شاید برای شنوندگان نباشد.
26:37
Spoilsport.
345
1597520
800
اسپویل اسپورت.
26:39
Right, Jean Twenge is a psychologist who  has written about the damage she feels  
346
1599280
5680
درست است، ژان تونگ روان‌شناس است که درباره آسیب‌هایی که احساس می‌کند
26:44
smartphones are doing to society. She has  written that smartphones have probably led  
347
1604960
5200
گوشی‌های هوشمند به جامعه می‌زنند، نوشته است. او نوشته است که تلفن‌های هوشمند احتمالاً منجر
26:50
to an increase in mental health problems for  teenagers. We’re going to hear from her now,  
348
1610160
4880
به افزایش مشکلات سلامت روان در نوجوانان شده‌اند. اکنون می‌خواهیم از او صحبت کنیم،
26:55
speaking to the BBC. What does she say is  one of the dangers of using our phones?
349
1615040
4800
که با بی‌بی‌سی صحبت می‌کند. او می گوید یکی از خطرات استفاده از تلفن های ما چیست؟
27:00
I think everybody’s had that experience  of reading their news feed too much,  
350
1620480
4320
من فکر می‌کنم همه این تجربه را داشته‌اند که فید اخبار خود را بیش از حد می‌خوانند،
27:05
compulsively checking your phone if you’re  waiting for a text or getting really into  
351
1625360
5600
اگر منتظر پیامی هستید یا واقعاً وارد
27:10
social media then kind of, looking up  and realising that an hour has passed.
352
1630960
4320
شبکه‌های اجتماعی می‌شوید، اجباراً تلفن خود را چک می‌کردند، سپس به نوعی به بالا نگاه می‌کردند و متوجه می‌شوند که یک ساعت گذشته است.
27:16
So what danger does she mention?
353
1636720
2400
پس به چه خطری اشاره می کند؟
27:19
Well, she said that we can get so involved in  our phones that we don’t notice the time passing  
354
1639120
5360
خوب، او گفت که ما می‌توانیم آنقدر درگیر تلفن‌هایمان شویم که متوجه گذر زمان
27:24
and when we finally look up, we  realise that maybe an hour has gone.  
355
1644480
4160
نشویم و وقتی بالاخره به بالا نگاه می‌کنیم، متوجه می‌شویم که شاید یک ساعت گذشته است.
27:29
And I must say, I find that to be true for me,  especially when I'm watching videos online. They  
356
1649360
5040
و باید بگویم، متوجه می‌شوم که این برای من صادق است، مخصوصاً زمانی که در حال تماشای ویدیوهای آنلاین هستم. آنها
27:34
pull you in with more and more videos and I’ve  spent ages just getting lost in video after video.
357
1654400
5280
شما را با ویدیوهای بیشتر و بیشتر جذب می‌کنند و من سال‌ها را سپری کرده‌ام که فقط در ویدیو بعد از ویدیو گم شده‌ام.
27:39
Well that's not a problem if  you're looking at our YouTube site,  
358
1659680
2480
البته اگر به سایت YouTube ما نگاه می کنید، مشکلی نیست
27:42
of course - there's lots to see there.
359
1662160
1520
- چیزهای زیادی برای دیدن در آنجا وجود دارد.
27:43
Yes, BBC Learning English, no problem.  You can watch as many as you like.
360
1663680
3280
بله، بی بی سی انگلیسی یاد می گیرد، مشکلی نیست. می توانید هر تعداد که دوست دارید تماشا کنید.
27:47
Well, she talks about checking our phones  compulsively. If you do something compulsively you  
361
1667760
6000
خوب، او در مورد چک کردن اجباری تلفن های ما صحبت می کند . اگر کاری را به اجبار انجام دهید
27:53
can’t really control it - it’s a feature of being  addicted to something, you feel you have to do it  
362
1673760
4960
، واقعاً نمی‌توانید آن را کنترل کنید - این یکی از ویژگی‌های معتاد بودن به چیزی است، احساس می‌کنید باید آن را
27:58
again and again. Some tech companies, though, are  now looking at building in timers to apps which  
363
1678720
6080
دوباره و دوباره انجام دهید. با این حال، برخی از شرکت‌های فناوری اکنون به دنبال ساخت تایمرهایی برای برنامه‌هایی هستند که
28:04
will warn us when we have spent too long on them.  Does Jean Twenge think this will be a good idea?
364
1684800
5200
وقتی زمان زیادی را صرف آن‌ها کرده‌ایم، به ما هشدار می‌دهند. آیا ژان تونگ فکر می کند این ایده خوبی خواهد بود؟
28:10
It might mean that people look  at social media less frequently  
365
1690960
2640
ممکن است به این معنا باشد که مردم کمتر به رسانه‌های اجتماعی نگاه می‌کنند
28:14
and that they do what it really should be used  for, which is to keep in touch with people but  
366
1694240
6000
و کاری را انجام می‌دهند که واقعاً باید از آن استفاده شود ، یعنی حفظ ارتباط با افراد، اما
28:20
then put it away and go see some of those  people in person or give them a phone call.
367
1700240
5040
سپس آن را کنار گذاشته و به دیدن برخی از آن‌ها می‌روند یا به آنها تلفن می‌دهند. زنگ زدن.
28:25
So, does she think it’s a good idea?
368
1705840
2320
بنابراین، آیا او فکر می کند این ایده خوبی است؟
28:28
Well, she doesn’t say so directly, but we  can guess from her answer that she does,  
369
1708880
4720
خوب، او مستقیماً نمی‌گوید، اما می‌توانیم از پاسخ او حدس بزنیم که این کار را می‌کند،
28:33
because she says these timers will make people  spend more time in face-to-face interaction,  
370
1713600
6000
زیرا او می‌گوید این تایمرها باعث می‌شود مردم وقت بیشتری را در تعامل رو در رو بگذرانند،
28:39
which a lot of people think would be a good thing.
371
1719600
2240
که بسیاری از مردم فکر می‌کنند خوب است. چیز.
28:41
Yes, she said we should be using it for keeping in  touch with people - which means contacting people,  
372
1721840
6160
بله، او گفت که باید از آن برای حفظ ارتباط با افراد استفاده کنیم - که به معنای تماس با مردم،
28:48
communicating with them and also encouraging  us to do that communication in person. If you  
373
1728000
5440
ارتباط با آنها و همچنین تشویق ما به انجام این ارتباط حضوری است.
28:53
do something in person then you physically do it –  you go somewhere yourself or see someone yourself,  
374
1733440
5840
اگر کاری را شخصاً انجام می‌دهید، از نظر فیزیکی آن را انجام می‌دهید - خودتان به جایی می‌روید یا خودتان شخصی را می‌بینید،
28:59
you don’t do it online or through your smartphone,  which nicely brings us back to our quiz question.  
375
1739280
5840
آن را به صورت آنلاین یا از طریق تلفن هوشمند خود انجام نمی‌دهید، که به خوبی ما را به سؤال مسابقه خود بازمی‌گرداند.
29:05
When was the term smartphone first used in print  - 1995, 2000 or 2005? What did you say, Catherine?
376
1745120
8160
اولین بار چه زمانی عبارت گوشی هوشمند در چاپ استفاده شد - 1995، 2000 یا 2005؟ چی گفتی کاترین؟
29:13
I think I said 2005, without  looking it up on my phone, Rob!
377
1753280
4720
فکر می کنم سال 2005 را گفتم، بدون اینکه آن را در تلفنم جستجو کنم، راب!
29:18
That's good to know, but maybe looking at your  phone would have helped because the answer was  
378
1758000
4000
دانستن این خوب است، اما شاید نگاه کردن به تلفن شما کمک کننده باشد زیرا پاسخ
29:22
1995. But well done to anybody who did know that.
379
1762000
4240
1995 بود. اما آفرین به هر کسی که این را می‌دانست.
29:26
Or well done to anyone who looked it up  on their phone and got the right answer.
380
1766240
3200
یا آفرین به هر کسی که آن را در تلفن خود جستجو کرد و پاسخ درست را دریافت کرد.
29:29
Mmm, right, before logging off  let’s review today’s vocabulary.
381
1769440
4480
ممم، درست است، قبل از خروج از سیستم، اجازه دهید واژگان امروز را مرور کنیم.
29:33
OK, we had FOMO, an acronym that means 'Fear of  Missing Out'. Something that I get quite a lot.
382
1773920
6400
خوب، ما FOMO داشتیم، مخفف به معنی «ترس از گم شدن». چیزی که من بسیار دریافت می کنم.
29:40
And that makes you also a phubber - people  who ignore the real people around them  
383
1780320
4640
و این باعث می‌شود که شما هم دمدمی مزاج شوید - افرادی که افراد واقعی اطراف خود را نادیده می‌گیرند
29:44
because they are concentrating on their phones.
384
1784960
2240
زیرا روی تلفن‌هایشان تمرکز می‌کنند.
29:47
Yes, I do think I’m probably  addicted to my phone. I have a  
385
1787200
3600
بله، فکر می‌کنم احتمالاً به تلفنم معتاد شده‌ام. من یک
29:50
psychological and physical need to  have it. My smartphone is my drug.
386
1790800
4640
نیاز روانی و فیزیکی برای داشتن آن دارم. گوشی هوشمند من داروی من است.
29:55
Wow, and you look at it compulsively.  You can’t stop looking at it,  
387
1795440
3360
وای، و شما با اجبار به آن نگاه می کنید. نمی‌توانید از نگاه کردن به آن دست بردارید،
29:58
you do it again and again, don't you?
388
1798800
1840
این کار را بارها و بارها انجام می‌دهید، اینطور نیست؟
30:00
It's sadly true, Rob. To  keep in touch with someone  
389
1800640
3280
متأسفانه درست است، راب. برای حفظ ارتباط
30:03
is to contact them and share your news regularly.
390
1803920
3280
با کسی، تماس با او و به اشتراک گذاشتن اخبار خود به طور منظم است.
30:07
And if you do that yourself  by actually meeting them,  
391
1807200
3040
و اگر خودتان این کار را با ملاقات واقعی با آنها انجام دهید،
30:10
then you are doing it in person. And that  brings us to the end of today’s programme.  
392
1810240
4640
پس شخصاً این کار را انجام می دهید. و این ما را به پایان برنامه امروز می‌رساند.
30:14
Don’t forget you can find us on the usual  social media platforms – Facebook, Twitter,  
393
1814880
4800
فراموش نکنید که می‌توانید ما را در پلتفرم‌های معمول رسانه‌های اجتماعی - فیس‌بوک، توییتر،
30:19
Instagram and YouTube - and on our website  at bbclearningenglish.com. Bye for now.
394
1819680
5600
اینستاگرام و یوتیوب - و در وب‌سایت ما در bbclearningenglish.com پیدا کنید. فعلا خداحافظ.
30:25
Bye!
395
1825280
320
خدا حافظ!
30:33
Hello. This is 6 Minute English  from BBC Learning English. I’m Neil.
396
1833280
4160
سلام. این 6 دقیقه انگلیسی از BBC Learning English است. من نیل هستم
30:37
And I’m Georgina.
397
1837440
1280
و من جورجینا هستم.
30:38
Now, Georgina, what do you know about AC DC?
398
1838720
3760
حالا جورجینا، در مورد AC DC چه می دانی؟
30:42
You mean the Australian rock’n’roll band?  
399
1842480
2640
منظورتان گروه راک اند رول استرالیایی است؟
30:45
Well, their 1979 hit ‘Highway to  Hell’ stayed at No.1 for eleven weeks…
400
1845120
5520
خوب، موفقیت آنها در سال 1979 «بزرگراه به جهنم» به مدت یازده هفته در رتبه اول باقی ماند...
30:51
No, no, no - not that AC DC, Georgina!  I’m not talking rock music here,  
401
1851200
4880
نه، نه، نه - نه آن AC DC، جورجینا! من در اینجا موسیقی راک صحبت نمی‌کنم،
30:56
I’m talking electrical currents  – alternating current - AC,  
402
1856080
4560
من درباره جریان‌های الکتریکی صحبت می‌کنم - جریان متناوب - AC،
31:00
and direct current - DC, the two  ways in which electricity flows.
403
1860640
4800
و جریان مستقیم - DC، دو روشی که الکتریسیته در آن جریان دارد.
31:05
Oh, I see. No, I don’t know  anything about that ACDC!
404
1865440
4560
اوه می فهمم. نه، من چیزی درباره آن ACDC نمی‌دانم!
31:10
Well, don’t worry because in  today’s programme we’ll be  
405
1870000
2720
خوب، نگران نباشید زیرا در برنامه امروز ما
31:12
finding out some quirky facts about  electricity - how it differs across  
406
1872720
4640
حقایق عجیب و غریبی در مورد الکتریسیته خواهیم یافت - اینکه چگونه در
31:17
the world and why some countries have more  complicated electrical systems than others.
407
1877360
4920
سراسر جهان متفاوت است و چرا برخی کشورها سیستم‌های الکتریکی پیچیده‌تری نسبت به سایرین دارند.
31:22
Hmmm, I have noticed that when I  travel to another country I need a  
408
1882280
4280
هوم، متوجه شده ام که وقتی به کشور دیگری سفر می کنم،
31:26
converter plug to connect my laptop.  Is that something to do with AC DC?
409
1886560
5440
برای اتصال لپ تاپ به یک دوشاخه مبدل نیاز دارم. آیا این ربطی به AC DC دارد؟
31:32
Yes, it could be. Of course, electricity  itself doesn’t change from country to country.
410
1892000
5200
بله، می تواند باشد. البته، برق از کشوری به کشور دیگر تغییر نمی‌کند.
31:37
No. It’s an invisible, natural force  at work in everything from lightning  
411
1897200
4080
نه. این یک نیروی نامرئی و طبیعی است که در همه چیز از رعد و برق گرفته
31:41
storms to the electrical sparks firing our brains.
412
1901280
3680
تا جرقه های الکتریکی که مغز ما را شلیک می کند، کار می کند.
31:44
But although it happens naturally, one scientist  was credited with discovering electricity.  
413
1904960
5680
اما اگرچه به طور طبیعی اتفاق می افتد، یکی از دانشمندان به کشف الکتریسیته اعتبار داده شده است.
31:50
Who? That’s my quiz question – who  discovered electricity? Was it: 
414
1910640
4640
سازمان بهداشت جهانی؟ این سوال مسابقه من است - چه کسی برق را کشف کرد؟ آیا این بود:
31:55
a) Thomas Edison 
415
1915280
1840
الف) توماس ادیسون
31:57
b) Alexander Graham Bell, or c) Benjamin Franklin
416
1917120
4080
ب) الکساندر گراهام بل، یا ج) بنجامین فرانکلین
32:02
I’m not a qualified electrician myself,  Neil, but I’ll say c) Benjamin Franklin.
417
1922000
5600
من خودم یک برقکار ماهر نیستم، نیل، اما می گویم ج) بنجامین فرانکلین.
32:07
OK. Well one person who definitely is a qualified  electrician is BBC presenter Gareth Mitchell. So  
418
1927600
7280
خوب. خوب یکی از افرادی که قطعاً یک برقکار واجد شرایط است گرت میچل مجری بی بی سی است. بنابراین
32:14
when BBC Radio 4’s ‘Science Stories’ sent  him to meet electricity expert Keith Bell,  
419
1934880
5440
وقتی «داستان‌های علمی» رادیو بی‌بی‌سی 4 او را برای ملاقات با متخصص برق، کیت بل فرستاد
32:20
the conversation was, shall we say, sparky.
420
1940320
2960
، گفت‌وگو، باید بگوییم، جرقه‌ای بود.
32:24
Standard frequency in the US is 60 hertz,  actually I think in the US on the mainland  
421
1944480
4320
فرکانس استاندارد در ایالات متحده 60 هرتز است، در واقع من فکر می کنم در ایالات متحده در سرزمین اصلی
32:28
US, main continent, there are  three different synchronous areas.  
422
1948800
2960
ایالات متحده، قاره اصلی، سه ناحیه سنکرون مختلف وجود دارد.
32:32
So although it’s around 60 hertz, at any moment in  time these three different areas, because they’re  
423
1952400
4160
بنابراین، اگرچه حدود 60 هرتز است، اما در هر لحظه از زمان، این سه ناحیه مختلف، به دلیل اینکه
32:36
not connected to each other, will be going at a  slightly different frequency. There are bigger  
424
1956560
4320
به یکدیگر متصل نیستند، با فرکانس کمی متفاوت خواهند رفت. در جاهای دیگر تفاوت‌های بزرگ‌تری وجود دارد
32:40
differences elsewhere. So in Japan for example, I  think one of the main islands is at 60 hertz and  
425
1960880
6000
. بنابراین به عنوان مثال، در ژاپن، فکر می‌کنم یکی از جزایر اصلی 60 هرتز
32:46
the other half of Japan is at 50 hertz. That’s a bit of a pickle!
426
1966880
3040
و نیمی دیگر از ژاپن 50 هرتز است. این کمی ترشی است!
32:51
Generally speaking, frequency  means how often something repeats.  
427
1971360
4320
به طور کلی، فرکانس به این معنی است که چند بار چیزی تکرار می شود.
32:55
In the case of electrical currents, frequency is  
428
1975680
2880
در مورد جریان های الکتریکی،
32:58
the number of times an electrical wave  repeats a positive-to-negative cycle.
429
1978560
5040
فرکانس تعداد دفعاتی است که یک موج الکتریکی یک چرخه مثبت به منفی را تکرار می کند.
33:03
It’s measured in hertz (Hz). In the US power is  at 60 hertz and in the UK it’s around 50 hertz.
430
1983600
7520
با هرتز (هرتز) اندازه گیری می شود. در ایالات متحده قدرت 60 هرتز و در بریتانیا حدود 50 هرتز است.
33:11
So the US and UK are not in the same synchronous  
431
1991120
3520
بنابراین ایالات متحده و بریتانیا در یک منطقه همزمان
33:14
area – not occurring together at the same  time and rate, or in this case, frequency.
432
1994640
5680
نیستند - در یک زمان و نرخ، یا در این مورد، فرکانس با هم اتفاق نمی‌افتند.
33:20
Which means that to safely use a  British electrical device in America,  
433
2000320
4320
این بدان معناست که برای استفاده ایمن از یک دستگاه الکتریکی بریتانیایی در آمریکا
33:25
I need to convert the power supply. If not  it won’t work or even worse, it could break.
434
2005200
5760
، باید منبع تغذیه را تبدیل کنم. اگر نه ، کار نخواهد کرد یا حتی بدتر از آن، ممکن است خراب شود.
33:30
And a broken laptop could leave you  in a bit of a pickle – an informal  
435
2010960
4080
و یک لپ‌تاپ شکسته می‌تواند شما را کمی خجالتی کند - یک
33:35
expression meaning a difficult situation with no  
436
2015040
3040
عبارت غیررسمی به معنای موقعیتی دشوار بدون
33:38
obvious answer. Here’s Gareth and Keith  again talking about more differences.
437
2018080
4960
پاسخ واضح. در اینجا گرت و کیث دوباره درباره تفاوت‌های بیشتر صحبت می‌کنند.
33:44
I’m pretty sure when I go to the United States,  my electric toothbrush doesn’t charge up  
438
2024560
6560
من کاملاً مطمئن هستم که وقتی به ایالات متحده می روم، مسواک برقی من با ولتاژ
33:51
at 60 hertz - 110 volts, but my laptop  still works. Maybe you have no comment,  
439
2031120
5360
60 هرتز - 110 ولت شارژ نمی شود، اما لپ تاپ من هنوز کار می کند. شاید نظری نداشته باشی،
33:56
Keith, but I’m just saying…one of these  anomalies that I seem to have found.
440
2036480
4000
کیث، اما من فقط می‌گویم… یکی از این ناهنجاری‌هایی که به نظر می‌رسد پیدا کرده‌ام.
34:00
So, I’m not sure about the electric toothbrush  but I know a lot of our power supplies for  
441
2040480
3920
بنابراین، من در مورد مسواک برقی مطمئن نیستم، اما می‌دانم که بسیاری از منابع تغذیه ما برای
34:04
laptops and stuff are solid state, you know  - they’ve got electronics in that do all the  
442
2044400
5200
لپ‌تاپ‌ها و چیزهای دیگر حالت جامد دارند، می‌دانید که آنها دارای لوازم الکترونیکی هستند که تمام
34:09
conversion for you, so basically it ends up with  a DC supply into the machine itself. So there’s  
443
2049600
5360
تبدیل‌ها را برای شما انجام می‌دهند، بنابراین اساساً به پایان می‌رسد. با یک منبع DC به خود دستگاه. بنابراین
34:14
a little converter in there and it’s designed so  it doesn’t care what frequency the AC input is.
444
2054960
4880
مبدل کوچکی در آن وجود دارد و طوری طراحی شده است که برای آن مهم نیست ورودی AC چه فرکانسی است.
34:21
Gareth noticed that in the United  States his toothbrush doesn’t always  
445
2061280
3840
گرت متوجه شد که در ایالات متحده مسواک او همیشه
34:25
fully charge up – get the  power needed to make it work.
446
2065120
4000
کاملاً شارژ نمی‌شود - قدرت لازم برای کارکرد آن را دریافت کنید.
34:29
Electric toothbrushes which don’t fully charge  and differences between electrical frequencies  
447
2069120
5600
مسواک‌های برقی که کاملاً شارژ نمی‌شوند و تفاوت‌های بین فرکانس‌های
34:34
are good examples of anomalies – things which  are different from what is usual or expected.
448
2074720
5920
الکتریکی نمونه‌های خوبی از ناهنجاری‌ها هستند - چیزهایی که با آنچه معمول یا مورد انتظار است متفاوت هستند.
34:40
But with modern technology these  anomalies are becoming less and less  
449
2080640
4400
اما با فناوری مدرن، این ناهنجاری‌ها کمتر و کمتر
34:45
commonplace. For example, computer  companies have started making laptops with  
450
2085040
5120
رایج می‌شوند. برای مثال، شرکت‌های رایانه‌ای شروع به ساخت لپ‌تاپ‌هایی با
34:50
solid state electronics – electronics using  semiconductors which have no moving parts  
451
2090160
6000
لوازم الکترونیکی حالت جامد کرده‌اند - لوازم الکترونیکی با استفاده از نیمه‌هادی‌هایی که قطعات متحرک ندارند
34:56
and can automatically convert  different electrical currents.
452
2096160
3520
و می‌توانند به‌طور خودکار جریان‌های الکتریکی مختلف را تبدیل کنند.
34:59
Meaning I can use my laptop to google  the answer to your quiz question!
453
2099680
4160
به این معنی که می‌توانم از لپ‌تاپم برای جستجوی پاسخ سؤال امتحانی شما در گوگل استفاده کنم!
35:03
Ah, yes. I asked you which scientist was credited  with discovering electricity. And you said?
454
2103840
5840
آه، بله. من از شما پرسیدم که کدام دانشمند توانسته الکتریسیته را کشف کند. و تو گفتی؟
35:09
c) Benjamin Franklin – and I already know  I’m right because I googled it on my solid  
455
2109680
5200
ج) بنجامین فرانکلین - و من قبلاً می دانم که حق با من است زیرا آن را در لپ تاپ حالت جامد خود در گوگل جستجو کردم
35:14
state laptop! To show that lightning was  electricity, Franklin attached a metal key  
456
2114880
5840
! فرانکلین برای نشان دادن اینکه رعد و برق برق است، کلید فلزی را
35:20
to a kite and flew it during a thunderstorm. The  key conducted electricity and gave him a shock!
457
2120720
6240
به بادبادک متصل کرد و آن را در هنگام رعد و برق به پرواز درآورد. کلید برق را هدایت کرد و به او شوک وارد کرد!
35:26
Hmm, not an experiment I recommend trying  at home! Today we’ve been talking about  
458
2126960
5760
هوم، آزمایشی نیست که توصیه می‌کنم در خانه امتحان کنید! امروز درباره
35:32
anomalies – or unexpected differences in  electrical currents between countries.
459
2132720
4560
ناهنجاری‌ها - یا تفاوت‌های غیرمنتظره در جریان‌های الکتریکی بین کشورها صحبت کرده‌ایم.
35:38
Electrical currents are measured in  frequencies – the number of times  
460
2138000
4000
جریان‌های الکتریکی در فرکانس‌ها اندازه‌گیری می‌شوند - تعداد دفعاتی
35:42
a wave repeats a positive-to-negative cycle.  These can be different if two countries are  
461
2142000
5520
که یک موج یک چرخه مثبت به منفی را تکرار می‌کند. اگر دو کشور   همزمان نباشند - اینها ممکن است متفاوت باشند
35:47
not synchronous – occurring at the same rate,  for example Britain and the United States.
462
2147520
5760
، مثلاً بریتانیا و ایالات متحده با سرعت یکسانی اتفاق می‌افتند.
35:53
Different frequencies may mean your  electrical devices like your laptop,  
463
2153920
4400
فرکانس‌های مختلف ممکن است به این معنی باشد که دستگاه‌های الکتریکی‌تان مانند لپ‌تاپ،
35:58
phone and toothbrush won’t properly charge up –  get the power to function, in other countries.
464
2158320
5120
تلفن و مسواک به‌درستی شارژ نمی‌شوند - در کشورهای دیگر قدرت لازم برای کارکرد را دریافت کنید.
36:04
And having a phone with no power could leave you  in a bit of a pickle - a difficult situation.
465
2164160
5680
و داشتن یک تلفن بدون برق می‌تواند شما را در وضعیتی سخت قرار دهد.
36:09
Fortunately many modern devices use  solid state electronics – non-moving  
466
2169840
5120
خوشبختانه بسیاری از دستگاه های مدرن از الکترونیک حالت جامد استفاده می کنند -
36:14
semiconductors inside the machine which  automatically convert the electrical current.
467
2174960
5200
نیمه هادی های غیر متحرک داخل دستگاه که به طور خودکار جریان الکتریکی را تبدیل می کنند.
36:20
So you’ll never miss another  edition of 6 Minute English again!
468
2180160
3840
بنابراین، دیگر نسخه 6 دقیقه‌ای انگلیسی را از دست نخواهید داد!
36:24
That’s all for today. See you soon at BBC Learning  
469
2184000
2560
برای امروز کافی است. برای موضوعات جالب تر و واژگان مرتبط به زودی شما را در BBC Learning   English می بینیم
36:26
English for more interesting topics  and related vocabulary. Bye for now!
470
2186560
7960
. فعلا خداحافظ!
36:34
Bye!
471
2194520
360
خدا حافظ!
36:39
Hello I'm Rob and this is 6 Minute  English – a programme that brings you  
472
2199040
4480
سلام من راب هستم و این 6 دقیقه انگلیسی است - برنامه ای که
36:43
an interesting topic, authentic listening practice  
473
2203520
3120
موضوع جالب، تمرین گوش دادن معتبر
36:46
and some vocabulary to help you improve your  language skills. Joining me today is Neil.
474
2206640
5280
و مقداری واژگان را برای شما به ارمغان می آورد تا به شما در بهبود مهارت های زبانی کمک کند. امروز نیل به من ملحق می شود.
36:51
Hello. And today we're discussing those pilotless  
475
2211920
2880
سلام. و امروز در حال بحث در مورد هواپیماهای بدون خلبانی
36:54
aircraft that we seem to be hearing  and reading a lot about at the moment.
476
2214800
3760
هستیم که به نظر می‌رسد در حال حاضر درباره آن‌ها زیاد می‌شنویم و می‌خوانیم.
36:58
You mean drones. And yes, they are in the  news quite often for good and bad reasons.  
477
2218560
4880
منظورت پهپادهاست و بله، آنها اغلب به دلایل خوب و بد در اخبار هستند.
37:04
They've been used for many things from smuggling  drugs, detecting water leaks and surveillance.
478
2224160
5600
آنها برای بسیاری از موارد از جمله قاچاق مواد مخدر، تشخیص نشت آب و نظارت استفاده شده اند.
37:09
And surveillance – that means ‘the  act of carefully watching someone or  
479
2229760
4320
و نظارت - یعنی « عمل تماشای دقیق کسی یا
37:14
something’ – perhaps a criminal – but also  it means spying, maybe on me and you Rob?  
480
2234080
5760
چیزی» - شاید یک جنایتکار - اما همچنین به معنای جاسوسی است، شاید از من و تو راب؟
37:19
So should we be welcoming the  rise of the use of drones?
481
2239840
3360
بنابراین آیا باید از افزایش استفاده از هواپیماهای بدون سرنشین استقبال کنیم؟
37:23
Well, before our discussion  about that 'takes off',  
482
2243200
2720
خوب، قبل از اینکه بحث ما در مورد آن «بلند شود»،
37:25
we need to set today's question  for you to answer, Neil.
483
2245920
2640
باید سؤال امروز را برای پاسخ شما تنظیم کنیم، نیل.
37:29
What are you droning on about Rob? And by  that I don't mean ‘flying a drone’ – I mean  
484
2249120
4800
در مورد راب چه می خوری؟ و منظورم از «پرواز با هواپیمای بدون سرنشین» نیست - منظورم
37:33
‘talking too much in a very boring way’!
485
2253920
2800
«حرف زدن بیش از حد به روشی بسیار خسته کننده» است!
37:36
Thanks Neil. Now just answer this, will you?  
486
2256720
2560
ممنون نیل حالا فقط به این جواب بده، می‌خواهی؟
37:39
Drones are sometimes also referred to as  UAVs. So, what does UAV stand for? Is it…
487
2259280
7600
پهپادها گاهی اوقات به عنوان پهپاد نیز شناخته می شوند . بنابراین، پهپاد مخفف چیست؟ آیا این…
37:46
a) Unidentified aerial vehicle 
488
2266880
3360
الف) وسیله نقلیه هوایی ناشناس
37:50
b) Unmanned aerial vehicle c) Unaided aircraft vehicle
489
2270240
5840
ب) وسیله نقلیه هوایی بدون سرنشین ج) وسیله نقلیه هواپیمای بدون کمک
37:56
Well, I'm going to go for  b) unmanned aerial vehicle.
490
2276080
3680
خوب، من قصد دارم به سراغ ب) هواپیمای بدون سرنشین بروم.
37:59
Ok well, we'll see if you're right later  on. Now let's talk more about drones,  
491
2279760
5120
بسیار خوب، بعداً خواهیم دید که آیا حق با شماست . اکنون بیایید بیشتر در مورد هواپیماهای بدون سرنشین صحبت کنیم
38:04
which, apparently, seem to be everywhere now.
492
2284880
2800
، که ظاهراً اکنون همه جا هستند.
38:08
But are they safe and are they  necessary? I've heard about them  
493
2288240
3840
اما آیا آنها ایمن هستند و آیا ضروری هستند؟ من درباره آنها شنیده ام
38:12
being a hazard to aircraft because  they've been flown close to airports.
494
2292080
3840
که برای هواپیماها خطرناک هستند زیرا آنها در نزدیکی فرودگاه ها پرواز کرده اند.
38:15
Well, figures in 2016 showed that in the UK  there were 70 near misses involving drones.  
495
2295920
6720
خب، ارقام در سال 2016 نشان داد که در بریتانیا 70 مورد از دست دادن هواپیماهای بدون سرنشین وجود داشت.
38:22
And that's more than double the year  before. So that is a little worrying.
496
2302640
3920
و این بیش از دو برابر سال قبل است. بنابراین کمی نگران کننده است.
38:27
Yes. And there's the potential  risk of people's privacy being  
497
2307120
3120
آره. و
38:30
invaded when a drone is flown over their  property with a camera attached to it.
498
2310240
4160
هنگامی که یک پهپاد با دوربینی که به آن متصل است بر فراز دارایی آنها پرواز می‌کند، خطر بالقوه تجاوز به حریم خصوصی افراد وجود دارد .
38:34
Ah, but those cameras are also  good at capturing some great  
499
2314400
3440
آه، اما آن دوربین‌ها در گرفتن برخی
38:37
aerial footage – that's the film recording  of the view from the above the ground. So  
500
2317840
5040
فیلم‌های هوایی عالی نیز خوب هستند - این همان فیلم ضبط‌شده از منظره از بالای زمین است. بنابراین
38:42
they're not all bad. And Dr Yoge Patel would  agree. She is CEO of Blue Bear, which supplies  
501
2322880
6560
همه آنها بد نیستند. و دکتر یوگ پاتل موافق است. او مدیرعامل Blue Bear است که
38:49
unmanned planes and drones. Here she is speaking  about drones on the BBC's Woman's Hour programme…
502
2329440
6080
هواپیماهای بدون سرنشین و پهپادها را تامین می کند. در اینجا او درباره هواپیماهای بدون سرنشین در برنامه ساعت زن بی‌بی‌سی صحبت می‌کند...
38:55
They have the potential to be dangerous,  agreed. They also have though, on the flip side,  
503
2335520
5120
آنها پتانسیل خطرناک بودن را دارند. آنها همچنین، از طرف دیگر
39:00
the ability to be a game changer in  both domestic use and in military use.  
504
2340640
6240
، قابلیت تغییر بازی را هم در استفاده خانگی و هم در استفاده نظامی دارند.
39:06
So, some of our drones are being used for aircraft  inspections. We've put our drones into Fukushima.
505
2346880
4560
بنابراین، برخی از پهپادهای ما برای بازرسی هواپیما استفاده می‌شوند . ما پهپادهای خود را در فوکوشیما قرار داده ایم.
39:12
So there you go Neil. There are  many useful things drones can do,  
506
2352080
4240
پس نیل. کارهای مفید زیادی وجود دارد که پهپادها می توانند انجام دهند،
39:16
and Dr Patel said they have the  ability to be a game changer.
507
2356320
4000
و دکتر پاتل گفت که آنها توانایی تغییر بازی را دارند.
39:20
And by that you mean ‘something that completely  
508
2360320
2080
و منظور شما از آن "چیزی است که
39:22
changes the way something  is done or thought about’.
509
2362400
2800
روش انجام کاری یا تفکر درباره آن را کاملاً تغییر می دهد".
39:25
Yes. Her company has used drones to  inspect the inside of the damaged  
510
2365200
4400
آره. شرکت او از هواپیماهای بدون سرنشین برای بازرسی داخل
39:29
Fukushima nuclear power station in Japan.  And another example of drones being a game  
511
2369600
5280
نیروگاه هسته‌ای آسیب‌دیده فوکوشیما در ژاپن استفاده کرده است. و نمونه دیگری از پهپادها که تغییر دهنده بازی هستند
39:34
changer is UNICEF and the Malawian government  testing drones for carrying medical supplies.  
512
2374880
5760
، آزمایش پهپادهای یونیسف و دولت مالاوی برای حمل تجهیزات پزشکی است.
39:40
This could help save lives in remote places. And I have read that in Australia,  
513
2380640
4400
این می تواند به نجات جان افراد در مکان های دورافتاده کمک کند. و من خوانده‌ام که در استرالیا،
39:45
lifeguards are using drones to help rescue  swimmers who get in trouble in the sea.
514
2385040
4560
نجات غریق از هواپیماهای بدون سرنشین برای کمک به نجات شناگرانی که در دریا دچار مشکل می‌شوند، استفاده می‌کنند.
39:49
And have you heard about a Japanese firm that's  planning to use a drone to force employees  
515
2389600
5280
و آیا در مورد یک شرکت ژاپنی شنیده‌اید که قصد دارد از یک پهپاد استفاده کند تا کارمندان را مجبور
39:54
out of their offices by playing music at  them if they stay to work evening overtime.
516
2394880
5120
کند از دفاترشان بیرون بیایند و درصورتی‌که بعدازظهر اضافه کاری سر کار بمانند با پخش موسیقی در آنها.
40:00
I haven't, but you've convinced me – it seems  like the sky's the limit for the uses of drones!  
517
2400000
5120
من این کار را نکرده‌ام، اما شما من را متقاعد کردید - به نظر می‌رسد که آسمان محدودیت استفاده از هواپیماهای بدون سرنشین است!
40:05
I mean there's no limit to what they can do. But I  
518
2405120
3040
منظورم این است که هیچ محدودیتی برای کاری که آنها می توانند انجام دهند وجود ندارد. اما
40:08
am a little concerned about how  they are regulated or controlled.
519
2408160
3520
من کمی نگران نحوه تنظیم یا کنترل آنها هستم.
40:11
Well Dr Yoge Patel says  because the technology is new,  
520
2411680
3760
خوب دکتر یوگ پاتل می‌گوید، چون این فناوری جدید است،
40:15
regulations – or legal controls  - are developing all the time…
521
2415440
4000
مقررات - یا کنترل‌های قانونی - همیشه در حال توسعه هستند...
40:20
As technology progresses, regulation  and operational use needs to then be  
522
2420400
4800
با پیشرفت فناوری، مقررات و استفاده عملیاتی باید
40:25
harmonised with it. And we are, as a community,  going through that whole process of saying  
523
2425200
5040
با آن هماهنگ شود. و ما به‌عنوان یک جامعه، در حال گذراندن این فرآیند هستیم تا
40:30
what is proportionate and appropriate  regulation to go with different uses of drones.
524
2430240
6480
بگوییم مقررات متناسب و مناسب برای استفاده‌های مختلف از پهپادها چیست.
40:36
So she talked about regulations being  harmonised as technology progresses.
525
2436720
4480
بنابراین او در مورد مقرراتی صحبت کرد که با پیشرفت فناوری، هماهنگ می‌شوند.
40:41
So I think she means ‘making regulations  suitable and appropriate for what the drones  
526
2441200
4800
بنابراین فکر می‌کنم منظور او «تنظیم مقررات مناسب و مناسب برای آنچه پهپادها
40:46
are being used for’. So they need some control,  but not so they can't be useful and effective.
527
2446000
5600
برای آن استفاده می‌شوند» است. بنابراین آنها نیاز به کنترل دارند، اما نه به این دلیل که نتوانند مفید و مؤثر باشند.
40:51
Like flying drones to stop you working late!  
528
2451600
2400
مانند پرواز پهپادها برای جلوگیری از دیر کار کردن!
40:54
Now Rob, I'm dying to know what  the other name for a drone is.
529
2454560
2880
حالا راب، من می‌میرم تا بدانم نام دیگر پهپاد چیست.
40:57
OK, let me tell you. So earlier I  asked what does UAV stand for? Was it…
530
2457440
5360
باشه بذار بهت بگم بنابراین قبلاً پرسیدم پهپاد چیست؟ آیا این بود...
41:02
a) Unidentified aerial vehicle 
531
2462800
2720
الف) وسیله نقلیه هوایی ناشناس
41:05
b) Unmanned aerial vehicle c) Unaided aircraft vehicle
532
2465520
5040
ب) هواپیمای بدون سرنشین ج) هواپیمای بدون کمک
41:11
And I said b) – was that correct?
533
2471120
2240
و من گفتم ب) - درست بود؟
41:13
Yes Neil, you know your drones – that's correct.  Well done. UAVs or drones have been around for  
534
2473920
6320
بله نیل، شما هواپیماهای بدون سرنشین خود را می شناسید - درست است. آفرین. پهپادها یا پهپادها برای
41:20
quite a while in different forms.  It's thought they were first used  
535
2480240
3840
مدتی طولانی به اشکال مختلف وجود داشته اند. تصور می‌شود که ابتدا از آنها
41:24
for providing practice targets for  training military personnel. OK Neil,  
536
2484080
4720
برای ارائه اهداف تمرینی برای آموزش پرسنل نظامی استفاده شد. خوب نیل،
41:28
let's quickly go over some of the vocabulary we  have mentioned today, starting with surveillance.
537
2488800
5040
بیایید به سرعت برخی از واژگانی را که امروز ذکر کردیم، با نظارت شروع کنیم.
41:34
"The police kept the jewellery shop  under surveillance because they had  
538
2494480
3520
"پلیس جواهرات فروشی را زیر نظر داشت زیرا
41:38
a tip-off about a robbery." So that means  ‘carefully watching someone or something,  
539
2498000
4640
اطلاعاتی در مورد سرقت داشتند." بنابراین این به معنای «نگاه کردن با دقت کسی یا چیزی است،
41:42
usually to try to stop something illegal’.
540
2502640
2720
معمولاً برای جلوگیری از چیزی غیرقانونی».
41:46
Then we mentioned aerial footage –  that's film recording made from the sky.  
541
2506160
4240
سپس به تصاویر هوایی اشاره کردیم - این فیلم ضبط شده از آسمان است.
41:50
"The aerial footage on TV of the  dolphins swimming was spectacular."
542
2510960
4080
"تصویر هوایی در تلویزیون از شنای دلفین ها تماشایی بود."
41:55
Yes, drones have been a game changer  for wildlife programmes on TV.  
543
2515040
4480
بله، هواپیماهای بدون سرنشین یک تغییر دهنده بازی برای برنامه‌های حیات وحش در تلویزیون بوده‌اند.
41:59
That means ‘something that completely changes  the way something is done or thought about’.
544
2519520
4800
این به معنای «چیزی است که روش انجام کاری یا تفکر درباره آن را کاملاً تغییر می‌دهد».
42:04
We also mentioned the phrase 'the sky's  the limit', meaning ‘there's no limit  
545
2524320
3920
ما همچنین به عبارت " آسمان حد است" اشاره کردیم، به این معنی که "هیچ محدودیتی
42:08
to something’. "The sky is the limit to what  professional footballers can earn these days."
546
2528240
4800
برای چیزی وجود ندارد". "آسمان حدی است که فوتبالیست های حرفه ای این روزها می توانند کسب کنند."
42:13
Then we discussed harmonised – that describes  two things being suitable for each other to  
547
2533040
4800
سپس در مورد هماهنگ بحث کردیم – این دو چیز را توصیف می‌کند که برای یکدیگر مناسب هستند تا
42:17
allow them to work properly. "The garden has been  designed to harmonise with the natural landscape."
548
2537840
5600
بتوانند به درستی کار کنند. "باغ برای هماهنگی با مناظر طبیعی طراحی شده است."
42:24
Very useful vocabulary, Neil. But let's  stop droning on – and that means ‘talking  
549
2544560
4640
لغات بسیار مفیدی است، نیل. اما بیایید از سرگردانی خودداری کنیم - و این به معنای "
42:29
too much in a boring way’ - and remind  everyone to check out our You Tube,  
550
2549200
4160
بیش از حد خسته کننده صحبت کردن" است - و به همه یادآوری کنیم که صفحات You Tube،
42:33
Facebook, Twitter and Instagram  pages – and of course, our website  
551
2553360
3840
فیس بوک، توییتر و اینستاگرام ما را بررسی کنند - و البته وب سایت ما
42:37
at bbclearningenglish.com.  See you next time. Goodbye.
552
2557200
3600
در bbclearningenglish.com. بعدا می بینمت. خداحافظ.
42:40
Goodbye
553
2560800
480
خداحافظ
42:49
Hello. This is 6 Minute English, I'm Neil.
554
2569360
2560
سلام. این 6 دقیقه انگلیسی است، من نیل هستم.
42:51
And I'm Sam.
555
2571920
800
و من سام هستم.
42:52
It’s good to see you again, Sam.
556
2572720
1760
خوشحالم که دوباره تو را می بینم، سام.
42:54
Really?
557
2574480
880
واقعا؟
42:55
Yes, of course, can’t you  tell by the way I’m smiling?
558
2575360
2960
بله، البته، نمی‌توانید از نحوه لبخند زدن من بفهمید؟
42:58
Ah well, I find it difficult to tell if someone  is really smiling or if it’s a fake smile.
559
2578960
5760
آه خوب، تشخیص اینکه کسی واقعاً می‌خندد یا اینکه یک لبخند ساختگی است، برایم سخت است.
43:04
Well, that’s a coincidence because today’s  programme is all about how computers may  
560
2584720
4560
خب، این یک تصادف است زیرا برنامه امروز درباره این است که چگونه رایانه‌ها
43:09
be able tell real smiles from fake smiles better  than humans can. Before we get in to that though,  
561
2589280
6400
بهتر از انسان‌ها می‌توانند لبخند واقعی را از لبخند تقلبی تشخیص دهند. قبل از اینکه به آن بپردازیم،
43:15
a question. The expressions we can make  with our face are controlled by muscles.  
562
2595680
5040
یک سؤال. عباراتی که می توانیم با صورتمان ایجاد کنیم توسط ماهیچه ها کنترل می شوند.
43:20
How many muscles do we have in our face? Is it:
563
2600720
2960
چند ماهیچه در صورتمان داریم؟ آیا این است:
43:23
A: 26 
564
2603680
1680
A: 26
43:25
B: 43 C: 62
565
2605360
2800
B: 43 C: 62
43:28
What do you think, Sam?
566
2608160
880
نظر شما چیست، سام؟
43:29
No idea! But a lot, I’d  guess, so I’m going with 62.
567
2609600
4880
نظری ندارم! اما خیلی، حدس می‌زنم، بنابراین با 62 پیش می‌روم
43:34
OK. Well, we’ll see if you’ll be smiling or  crying later in the programme. Hassan Ugail is a  
568
2614480
5600
. خوب. خوب، خواهیم دید که بعداً در برنامه می‌خندید یا گریه می‌کنید. حسن اوگیل،
43:40
professor of visual computing at the University of  Bradford. He’s been working on getting computers  
569
2620080
5680
استاد محاسبات بصری در دانشگاه برادفورد است. او روی رایانه‌هایی کار
43:45
to be able to recognise human emotions from the  expressions on our face. Here he is speaking on  
570
2625760
6480
می‌کند که بتوانند احساسات انسان را از روی حالات صورت ما تشخیص دهند. او در اینجا در
43:52
the BBC Inside Science radio programme –  how successful does he say they have been?
571
2632240
5600
برنامه رادیویی بی‌بی‌سی Inside Science صحبت می‌کند – به گفته او چقدر موفق بوده‌اند؟
43:57
We've been working quite a lot on  the human emotions, so the idea is  
572
2637840
3680
ما خیلی روی احساسات انسانی کار کرده‌ایم، بنابراین ایده این است
44:01
how the facial muscle movement,  which is reflected on the face,  
573
2641520
4720
که چگونه حرکت ماهیچه‌های صورت، که بر روی صورت منعکس می‌شود،
44:06
through obviously a computer through video  frames and trying to understand how these  
574
2646240
4080
از طریق رایانه از طریق فریم‌های ویدیو و تلاش برای درک اینکه چگونه این
44:10
muscle movements actually relate to facial  expressions and then from facial expressions  
575
2650320
5120
حرکات ماهیچه‌ای واقعاً با حالات چهره مرتبط هستند. و سپس از حالات چهره
44:15
trying to understand the emotions or to infer the  emotions. And they have been quite successful in  
576
2655440
5200
تلاش برای درک احساسات یا استنتاج احساسات. و آنها در انجام این کار کاملاً موفق بوده اند
44:20
doing that. We have software that can actually  look at somebody's face in real time and then  
577
2660640
5680
. ما نرم‌افزاری داریم که در واقع می‌تواند به صورت واقعی به چهره افراد نگاه کند و سپس
44:26
identify the series of emotions that  person is expressing in real time as well.
578
2666880
4960
مجموعه‌ای از احساساتی را که فرد در زمان واقعی ابراز می‌کند شناسایی کند.
44:32
So, have they been successful in  getting computers to identify emotions?
579
2672480
4800
بنابراین، آیا آنها در شناسایی احساسات توسط رایانه‌ها موفق بوده‌اند؟
44:37
Yes, he says they’ve been quite successful,  and what’s interesting is that he says that  
580
2677280
4880
بله، او می‌گوید که آنها کاملاً موفق بوده‌اند، و جالب این است که می‌گوید
44:42
the computers can do it in real time. This means  that there’s no delay. They don’t have to stop and  
581
2682160
7520
رایانه‌ها می‌توانند این کار را در زمان واقعی انجام دهند. این بدان معنی است که تاخیری وجود ندارد. آنها مجبور نیستند متوقف شوند و
44:49
analyse the data, or crunch the numbers,  they can do it as the person is talking.
582
2689680
5520
داده ها را تجزیه و تحلیل کنند، یا اعداد را خرد کنند، آنها می توانند این کار را در زمانی که فرد در حال صحبت است انجام دهند.
44:55
The system uses video to analyse a person’s  expressions and can then infer the emotions.  
583
2695200
6080
این سیستم از ویدیو برای تجزیه و تحلیل عبارات افراد استفاده می‌کند و سپس می‌تواند احساسات را استنتاج کند.
45:01
To infer something means to get an understanding  of something without actually being told directly.  
584
2701280
5680
استنباط چیزی به معنای به دست آوردن درک از چیزی است بدون اینکه مستقیماً به او گفته شود.
45:06
So, you look at available information and use your  
585
2706960
2560
بنابراین، به اطلاعات موجود نگاه می‌کنید و از
45:09
understanding and knowledge  to work out the meaning.
586
2709520
2400
درک و دانش خود برای یافتن معنی استفاده می‌کنید.
45:12
It’s a bit like being a detective,  isn’t it? You look at the clues  
587
2712480
3680
کمی شبیه کارآگاه بودن است ، اینطور نیست؟ شما به سرنخ‌ها نگاه می‌کنید
45:16
and infer what happened even if  you don’t have all the details.
588
2716160
3920
و استنباط می‌کنید که چه اتفاقی افتاده است، حتی اگر تمام جزئیات را نداشته باشید.
45:20
Yes, and in this case the computer looks  at how the movement of muscles in the face  
589
2720080
4320
بله، و در این مورد، رایانه به این می‌بیند که چگونه حرکت ماهیچه‌های صورت
45:24
or facial muscles, show different  emotions. Here’s Professor Ugail again.
590
2724400
4560
یا عضلات صورت، احساسات متفاوتی را نشان می‌دهد . اینجا دوباره پروفسور اوگیل است.
45:29
We've been working quite a lot on the human  emotions so the idea is how the facial muscle  
591
2729520
5520
ما خیلی روی احساسات انسان کار کرده‌ایم، بنابراین ایده این است که چگونه حرکت ماهیچه‌های صورت
45:35
movement, which is reflected on the face,  through obviously a computer through video  
592
2735040
4800
، که بر روی صورت، از طریق رایانه از طریق
45:39
frames and trying to understand how these muscle  movements actually relate to facial expressions  
593
2739840
5680
فریم‌های ویدیو منعکس می‌شود، چگونه منعکس می‌شود و تلاش می‌کنیم تا بفهمیم این حرکات ماهیچه‌ای واقعاً چگونه با حالات چهره مرتبط هستند.
45:45
and then from facial expressions trying to  understand the emotions or to infer the emotions.  
594
2745520
4720
سپس از حالات چهره سعی در درک احساسات یا استنتاج احساسات.
45:50
And they have been quite successful in doing  that. We have software that can actually  
595
2750800
4480
و آنها در انجام این کار کاملاً موفق بوده اند . ما نرم‌افزاری داریم که در واقع می‌تواند
45:55
look at somebody's face in real time and then  identify the series of emotions that person is  
596
2755280
6320
به صورت واقعی به صورت یک فرد نگاه کند و سپس مجموعه‌ای از احساساتی را که فرد
46:01
expressing in real time as well. So, how do the computers know  
597
2761600
4560
در زمان واقعی ابراز می‌کند شناسایی کند. بنابراین، چگونه کامپیوترها می‌دانند
46:06
what is a real or a fake smile? The  computers have to learn that first.  
598
2766160
4560
که لبخند واقعی یا ساختگی چیست؟ ابتدا رایانه‌ها باید آن را یاد بگیرند.
46:11
Here’s Professor Ugail again  talking about how they do that.
599
2771680
3840
در اینجا پروفسور Ugail دوباره درباره نحوه انجام این کار صحبت می کند.
46:15
We have a data set of real smiles and  we have a data set of fake smiles.  
600
2775520
4240
ما یک مجموعه داده از لبخندهای واقعی داریم و یک مجموعه داده از لبخندهای ساختگی داریم.
46:19
These real smiles are induced smiles in a lab.  So, you put somebody on a chair and then show  
601
2779760
5120
این لبخندهای واقعی، لبخندهای القا شده در آزمایشگاه هستند. بنابراین، شما کسی را روی صندلی می‌گذارید و سپس
46:24
some funny movies and we expect  the smiles are genuine smiles.  
602
2784880
4320
چند فیلم خنده‌دار نشان می‌دهید و ما انتظار داریم که لبخندها، لبخندهای واقعی باشند.
46:29
And similarly we ask them to pretend to smile.  So, these are what you'd call fake smiles. So,  
603
2789200
5040
و به همین ترتیب از آنها می خواهیم وانمود کنند که لبخند می زنند. بنابراین، این همان چیزی است که شما آن را لبخندهای ساختگی می نامید. بنابراین،
46:34
what we do is we throw these into the machine  and then the machine figures out what are the  
604
2794240
5360
کاری که ما انجام می‌دهیم این است که اینها را داخل دستگاه می‌اندازیم و سپس دستگاه متوجه می‌شود که
46:39
characteristics of a real smile and what  are the characteristics of a fake smile.
605
2799600
4240
ویژگی‌های یک لبخند واقعی چیست و ویژگی‌های یک لبخند مصنوعی چیست .
46:44
So, how do they get the data that  the computers use to see if your  
606
2804560
3920
بنابراین، چگونه می‌توانند داده‌هایی را که رایانه‌ها استفاده می‌کنند تا ببینند
46:48
smile is fake or genuine – which  is another word which means real?
607
2808480
3680
لبخند شما تقلبی است یا واقعی - به دست می‌آورند - که کلمه دیگری به معنای واقعی است؟
46:52
They induce real smiles in the lab by showing  people funny films. This means that they make  
608
2812800
6320
آنها با نشان دادن فیلم های خنده دار به مردم لبخند واقعی را در آزمایشگاه القا می کنند . این بدان معنی است که آنها باعث می شوند
46:59
the smiles come naturally. They assume that the  smiles while watching the funny films are genuine.
609
2819120
6320
که لبخندها به طور طبیعی ظاهر شوند. آنها تصور می کنند که لبخندهای هنگام تماشای فیلم های خنده دار واقعی است.
47:05
And then they ask the people to pretend to  smile and the computer programme now has a  
610
2825440
4240
و سپس از مردم می‌خواهند وانمود کنند که لبخند می‌زنند و برنامه رایانه‌ای اکنون
47:09
database of real and fake smiles and  is able to figure out which is which. 
611
2829680
4240
پایگاه داده‌ای از لبخندهای واقعی و ساختگی دارد و می‌تواند بفهمد که کدام است.
47:14
Figure out means to calculate  and come to an answer
612
2834640
3360
رقم زدن یعنی محاسبه کردن و رسیدن به یک پاسخ
47:18
Yes, and apparently the system  gets it right 90% of the time,  
613
2838000
3520
بله، و ظاهراً سیستم در 90 درصد مواقع آن را درست دریافت می‌کند،
47:21
which is much higher than we humans can. Right,  well before we remind ourselves of our vocabulary,  
614
2841520
6000
که بسیار بالاتر از آن چیزی است که ما انسان‌ها می‌توانیم. درست است ، قبل از اینکه دایره لغات خود را به خود یادآوری کنیم،
47:27
let’s get the answer to the question. How  many muscles do we have in our face? Is it:
615
2847520
5040
بیایید پاسخ سؤال را دریافت کنیم. چند ماهیچه در صورتمان داریم؟ آیا این است:
47:32
A: 26 
616
2852560
1200
A: 26
47:33
B: 43 C: 62
617
2853760
2960
B: 43 C: 62
47:36
Sam, are you going to be  smiling? What did you say?
618
2856720
2000
سام، آیا قرار است لبخند بزنی؟ چی گفتی؟
47:39
So I thought 62! Am I smiling, Neil?
619
2859440
2640
بنابراین من فکر کردم 62! من میخندم نیل؟
47:42
Sadly you are not, you are using different  muscles for that sort of sad look!  
620
2862080
5520
متأسفانه اینطور نیست، شما از عضلات مختلف برای آن نوع نگاه غمگین استفاده می کنید!
47:48
Actually the answer is 43. Congratulations to  anyone who got that right. Now our vocabulary.
621
2868800
5840
در واقع پاسخ 43 است. به هرکسی که درست گفته است تبریک می‌گویم. حالا واژگان ما
47:54
Yes – facial is the adjective relating to face.
622
2874640
3760
بله - صورت صفت مربوط به صورت است.
47:58
Then we had infer. This verb  means to understand something  
623
2878400
4160
سپس ما استنباط داشتیم. این فعل به معنای فهمیدن چیزی است،
48:02
even when you don’t have all the information,  and you come to this understanding based  
624
2882560
4160
حتی زمانی که همه اطلاعات را ندارید، و بر
48:06
on your experience and knowledge, or in  the case of a computer, the programming.
625
2886720
4240
اساس تجربه و دانش خود، یا در مورد رایانه، برنامه‌نویسی به این درک می‌رسید.
48:11
And these computers work in real time,  which means that there’s no delay  
626
2891600
4320
و این رایانه‌ها در زمان واقعی کار می‌کنند، به این معنی که هیچ تأخیری وجود ندارد
48:16
and they can tell a fake smile from a genuine one,  which means a real one, as the person is speaking.
627
2896480
5520
و می‌توانند لبخند ساختگی را از یک لبخند واقعی تشخیص دهند، که به معنای واقعی است، همانطور که شخص در حال صحبت کردن است.
48:22
They made people smile, or as the Professor  said, they induced smiles by showing funny films.
628
2902560
5760
آنها مردم را به لبخند وا می داشتند، یا به قول پروفسور، با نمایش فیلم های خنده دار لبخند را القا می کردند.
48:28
And the computer is able to figure out or  calculate whether the smile is fake or genuine.
629
2908320
6240
و رایانه می‌تواند تشخیص دهد یا محاسبه کند که لبخند تقلبی یا واقعی است.
48:34
OK, thank you, Sam. That’s all  from 6 Minute English today.  
630
2914560
3040
باشه، متشکرم سام این همه از 6 دقیقه انگلیسی امروز است.
48:37
We look forward to your company next  time and if you can’t wait you can find  
631
2917600
3280
ما مشتاقانه منتظر شرکت شما هستیم و اگر نمی‌توانید صبر کنید، می‌توانید
48:40
lots more from bbclearningenglish online,  on social media and on our app. Goodbye!
632
2920880
4720
موارد بیشتری را از bbclearningenglish آنلاین، در رسانه‌های اجتماعی و برنامه ما بیابید. خداحافظ!
48:48
Bye!
633
2928080
480
خدا حافظ!
48:53
Welcome to 6 Minute English, where we  bring you an intelligent topic and six  
634
2933680
3680
به 6 دقیقه انگلیسی خوش آمدید، جایی که یک موضوع هوشمندانه و شش
48:57
related items of vocabulary. I’m Neil.
635
2937360
2640
مورد واژگان مرتبط را برای شما آورده ایم. من نیل هستم
49:00
And I’m Tim. And today we’re talking  about AI – or Artificial Intelligence.
636
2940000
6320
و من تیم هستم و امروز درباره هوش مصنوعی یا هوش مصنوعی صحبت می کنیم.
49:06
Artificial Intelligence is the ability  of machines to copy human intelligent  
637
2946320
5040
هوش مصنوعی توانایی ماشین‌ها برای کپی کردن رفتارهای هوشمند انسان
49:11
behaviour – for example, an intelligent  machine can learn from its own mistakes,  
638
2951360
4560
است - برای مثال، یک ماشین هوشمند می‌تواند از اشتباهات خود درس
49:15
and make decisions based on  what’s happened in the past.
639
2955920
3280
بگیرد و بر اساس آنچه در گذشته اتفاق افتاده است تصمیم بگیرد.
49:19
There’s a lot of talk about AI these days, Neil,  but it’s still just science fiction, isn’t it?
640
2959200
5520
این روزها صحبت های زیادی در مورد هوش مصنوعی وجود دارد، نیل، اما هنوز هم فقط علمی تخیلی است، اینطور نیست؟
49:24
That’s not true – AI is everywhere.  Machine thinking is in our homes,  
641
2964720
4720
این درست نیست - هوش مصنوعی همه جا وجود دارد. تفکر ماشینی در خانه‌ها،
49:29
offices, schools and hospitals. Computer  algorithms are helping us drive our cars.  
642
2969440
5760
ادارات، مدارس و بیمارستان‌های ما وجود دارد. الگوریتم‌های رایانه‌ای به ما کمک می‌کنند ماشین‌هایمان را رانندگی کنیم.
49:35
They’re diagnosing what’s  wrong with us in hospitals.  
643
2975200
3200
آنها در حال تشخیص مشکل ما در بیمارستان‌ها هستند.
49:38
They’re marking student essays… They’re  telling us what to read on our smartphones…
644
2978400
4320
آن‌ها مقاله‌های دانش‌آموزی را علامت‌گذاری می‌کنند... به ما می‌گویند در تلفن‌های هوشمندمان چه بخوانیم...
49:42
Well, that really does sound like science fiction  – but it’s happening already, you say, Neil?
645
2982720
5280
خوب، واقعاً شبیه داستان‌های علمی تخیلی به نظر می‌رسد - اما شما می‌گویید، نیل، از قبل این اتفاق افتاده است؟
49:48
It’s definitely happening, Tim. And an algorithm,  by the way, is a set of steps a computer follows  
646
2988000
6000
قطعا این اتفاق می افتد، تیم. و یک الگوریتم، به هر حال، مجموعه‌ای از مراحل است که رایانه
49:54
in order to solve a problem. So can you tell  me what was the name of the computer which  
647
2994000
5680
برای حل یک مشکل دنبال می‌کند. بنابراین می‌توانید به من بگویید نام رایانه‌ای که
49:59
famously beat world chess champion Garry  Kasparov using algorithms in 1997? Was it… 
648
2999680
6400
در سال 1997 با استفاده از الگوریتم‌ها، قهرمان شطرنج جهان، گری کاسپاروف را شکست داد، چه بود؟ آیا این…
50:06
a) Hal, 
649
3006080
640
الف) هال،
50:07
b) Alpha 60 or c) Deep Blue?
650
3007360
3680
ب) آلفا 60 یا ج) آبی عمیق؟
50:11
I’ll say Deep Blue. Although I’m just guessing.
651
3011040
4000
من می گویم آبی عمیق. اگرچه من فقط حدس می زنم.
50:15
Was it an educated guess, Tim?
652
3015040
1920
آیا این یک حدس علمی بود، تیم؟
50:16
I know a bit about chess…
653
3016960
1520
من کمی در مورد شطرنج می دانم…
50:18
An educated guess is based on knowledge and  experience and is therefore likely to be correct.  
654
3018480
5600
یک حدس تحصیلی مبتنی بر دانش و تجربه است و بنابراین احتمالاً درست است.
50:24
Well, we’ll find out later on how  educated your guess was in this case, Tim!
655
3024080
4080
خوب، بعداً متوجه خواهیم شد که حدس شما در این مورد چقدر آموزش‌دیده بود، تیم!
50:28
Indeed. But getting back to AI and  what machines can do – are they  
656
3028160
5360
در واقع. اما بازگشت به هوش مصنوعی و آنچه ماشین‌ها می‌توانند انجام دهند –
50:33
any good at solving real-life problems?  Computers think in zeros and ones don’t  
657
3033520
5520
آیا آنها در حل مشکلات زندگی واقعی خوب هستند؟ رایانه ها به صفر فکر می کنند و یک ها اینطور
50:39
they? That sounds like a pretty limited  language when it comes to life experience!
658
3039040
4000
نیست؟ وقتی صحبت از تجربه زندگی به میان می‌آید، این زبان بسیار محدود به نظر می‌رسد!
50:43
You would be surprised to what  those zeroes and ones can do, Tim.  
659
3043600
3680
از اینکه آن صفرها و یک ها چه کاری می توانند انجام دهند شگفت زده خواهید شد، تیم.
50:47
Although you’re right that AI does  have its limitations at the moment.  
660
3047280
3840
اگرچه حق با شماست که AI در حال حاضر محدودیت‌های خود را دارد.
50:51
And if something has limitations there’s a  limit on what it can do or how good it can be.
661
3051120
4960
و اگر چیزی محدودیت‌هایی دارد، محدودیتی برای کارهایی که می‌تواند انجام دهد یا اینکه چقدر می‌تواند خوب باشد، وجود دارد.
50:56
OK – well now might be a good time to listen  to Zoubin Bharhramani, Professor of Information  
662
3056080
6080
بسیار خوب - اکنون ممکن است زمان خوبی برای گوش دادن به سخنان زوبین بهاررمانی، استاد مهندسی اطلاعات
51:02
Engineering at the University of Cambridge  and deputy director of the Leverhulme Centre  
663
3062160
5760
در دانشگاه کمبریج و معاون مدیر مرکز لورهولم
51:07
for the Future of Intelligence. He’s talking  about what limitations AI has at the moment.
664
3067920
5840
برای آینده اطلاعات باشد. او درباره محدودیت‌های هوش مصنوعی در حال حاضر صحبت می‌کند.
51:15
I think it’s very interesting how many of the  things that we take for granted – we humans take  
665
3075680
5840
من فکر می‌کنم خیلی جالب است که چه تعداد از چیزهایی را که بدیهی می‌دانیم – ما انسان‌ها
51:21
for granted – as being sort of things we don’t  even think about like how do we walk, how do we  
666
3081520
4720
– به عنوان چیزهایی هستند که حتی به آن‌ها فکر نمی‌کنیم، مانند اینکه چگونه راه می‌رویم، چگونه می‌توانیم
51:26
reach, how do we recognize our mother. You know,  all these things. When you start to think how  
667
3086240
6800
به آنها برسیم، چگونه می‌توانیم به آن‌ها دست پیدا کنیم. مادر. می دانید، همه این چیزها. وقتی شروع به فکر کردن می‌کنید که چگونه
51:33
to implement them on a computer, you realize that  it’s those things that are incredibly difficult to  
668
3093040
7280
می‌توانید آن‌ها را روی رایانه پیاده‌سازی کنید، متوجه می‌شوید که انجام دادن آن‌ها به رایانه‌ها فوق‌العاده دشوار
51:41
get computers to do, and that’s where  the current cutting edge of research is.
669
3101440
5360
است و این همان جایی است که لبه برش کنونی تحقیق در اینجاست.
51:48
If we take something for granted we  don’t realise how important something is.
670
3108720
3840
اگر چیزی را بدیهی بدانیم ، متوجه نمی‌شویم که چیزی چقدر مهم است.
51:52
You sometimes take me for granted, I think, Neil.
671
3112560
2560
تو گاهی اوقات من را بدیهی می گیری، فکر می کنم نیل.
51:55
No – I never take you for granted,  Tim! You’re far too important for that!
672
3115840
3520
نه - من هرگز تو را بدیهی نمی دانم، تیم! شما برای آن خیلی مهم هستید!
52:00
Good to hear! So things we take for granted  are doing every day tasks like walking,  
673
3120080
6720
خرسند از شنیدن! بنابراین، کارهایی که ما بدیهی می دانیم، انجام کارهای روزانه مانند راه رفتن
52:06
picking something up, or recognizing somebody.  We implement – or perform – these things without  
674
3126800
6800
، برداشتن چیزی یا شناختن کسی است. ما این چیزها را بدون    فکر کردن اجرا می‌کنیم - یا انجام می‌دهیم
52:13
thinking – Whereas it’s cutting edge research  to try and program a machine to do them.
675
3133600
5600
- در حالی که تلاش برای برنامه‌ریزی ماشینی برای انجام آن‌ها یک تحقیق پیشرفته است.
52:19
Cutting edge means very new and  advanced. It’s interesting isn't it,  
676
3139200
3840
پیشرفته به معنای بسیار جدید و پیشرفته است. جالب نیست
52:23
that over ten years ago a computer  beat a chess grand master – but the  
677
3143040
4000
،   بیش از ده سال پیش، یک رایانه یک استاد بزرگ شطرنج را شکست داد – اما برای
52:27
same computer would find it incredibly  difficult to pick up a chess piece.
678
3147040
4240
همان رایانه، برداشتن یک مهره شطرنج بسیار دشوار است.
52:31
I know. It’s very strange. But now you’ve reminded  me that we need the answer to today’s question.
679
3151280
5520
میدانم. خیلی عجیبه اما اکنون به من یادآوری کردید که ما به پاسخ سوال امروز نیاز داریم.
52:37
Which was: What was the name of the  computer which famously beat world chess  
680
3157360
4560
کدام عبارت بود: نام رایانه‌ای که در سال 1997 قهرمان شطرنج جهان،
52:41
champion Garry Kasparov in 1997? Now, you said  Deep Blue, Tim, and … that was the right answer!
681
3161920
6960
گری کاسپاروف را شکست داد، چه بود؟ حالا، شما گفتید دیپ بلو، تیم، و ... این پاسخ درست بود!
52:48
You see, my educated guess was  based on knowledge and experience!
682
3168880
4480
ببینید، حدس تحصیلی من بر اساس دانش و تجربه بود!
52:53
Or maybe you were just lucky. So, the IBM  
683
3173360
4320
یا شاید شما فقط خوش شانس بودید. بنابراین،
52:57
supercomputer Deep Blue played against US  world chess champion Garry Kasparov in two  
684
3177680
5040
ابرکامپیوتر IBM   Deep Blue در دو مسابقه شطرنج با قهرمان شطرنج جهان ایالات متحده، گری کاسپاروف
53:02
chess matches. The first match was played in  Philadelphia in 1996 and was won by Kasparov.  
685
3182720
5920
بازی کرد. اولین مسابقه در فیلادلفیا در سال 1996 انجام شد و کاسپاروف برنده شد.
53:08
The second was played in New York City in 1997  and won by Deep Blue. The 1997 match was the  
686
3188640
6720
دومین بازی در سال 1997 در شهر نیویورک اجرا شد و دیپ بلو برنده شد. مسابقه 1997
53:15
first defeat of a reigning world chess champion  by a computer under tournament conditions.
687
3195360
4960
اولین شکست یک قهرمان شطرنج جهان توسط رایانه در شرایط مسابقات بود.
53:20
Let’s go through the words we  learned today. First up was  
688
3200960
3840
بیایید کلماتی را که امروز یاد گرفتیم مرور کنیم . ابتدا
53:24
‘artificial intelligence’ or AI – the ability  of machines to copy human intelligent behaviour.
689
3204800
6880
«هوش مصنوعی» یا هوش مصنوعی بود - توانایی ماشین‌ها برای کپی کردن رفتار هوشمند انسان.
53:31
“There are AI programs that can write poetry.”
690
3211680
3040
برنامه های هوش مصنوعی وجود دارند که می توانند شعر بنویسند.
53:34
Do you have any examples you can recite?
691
3214720
2640
آیا نمونه ای دارید که بتوانید بگویید؟
53:37
Afraid I don’t! Number two – an algorithm is  a set of steps a computer follows in order to  
692
3217360
5440
میترسم که نکنم! شماره دو - الگوریتم مجموعه‌ای از مراحل است که رایانه برای
53:42
solve a problem. For example, “Google changes its  search algorithm hundreds of times every year.”
693
3222800
6080
حل یک مسئله دنبال می‌کند. به عنوان مثال، «Google الگوریتم جستجوی خود را صدها بار در سال تغییر می‌دهد».
53:48
The adjective is algorithmic – for example,  “Google has made many algorithmic changes.”
694
3228880
6480
این صفت الگوریتمی است - به عنوان مثال، "Google تغییرات الگوریتمی زیادی ایجاد کرده است."
53:55
Number three – if something has ‘limitations’  – there’s a limit on what it can do or how good  
695
3235360
5200
شماره سه - اگر چیزی «محدودیت‌هایی» دارد - محدودیتی در مورد کاری که می‌تواند انجام دهد یا اینکه چقدر خوب
54:00
it can be. “Our show has certain limitations  – for example, it’s only six minutes long!”
696
3240560
5920
باشد وجود دارد. «نمایش ما محدودیت‌های خاصی دارد - برای مثال، فقط شش دقیقه طول می‌کشد!»
54:06
That’s right – there’s only time to present  six vocabulary items. Short but sweet!
697
3246480
5280
درست است - فقط زمان برای ارائه 6 مورد واژگانی وجود دارد. کوتاه اما شیرین!
54:11
And very intelligent, too.  OK, the next item is ‘take  
698
3251760
3840
و همچنین بسیار باهوش. بسیار خوب، مورد بعدی «
54:15
something for granted’ – which is when we  don’t realise how important something is.
699
3255600
4160
چیزی را بدیهی بگیر» است - این زمانی است که ما متوجه اهمیت چیزی نمی‌شویم.
54:19
“We take our smart phones for granted these  days – but before 1995 hardly anyone owned one.”
700
3259760
6880
ما این روزها تلفن های هوشمند خود را بدیهی می دانیم – اما قبل از سال 1995 به ندرت کسی صاحب آن بود.»
54:26
Number five – ‘to implement’ – means  to perform a task, or take action.
701
3266640
4560
شماره پنج - "اجرا کردن" - به معنای انجام یک کار یا اقدام است.
54:31
“Neil implemented some changes to the show.”
702
3271200
2640
"نیل تغییراتی را در نمایش اعمال کرد."
54:33
The final item is ‘cutting edge’ – new and  advanced – “This software is cutting edge.”
703
3273840
5360
مورد نهایی "لبه برش" است - جدید و پیشرفته - "این نرم افزار پیشرفته است."
54:39
“The software uses cutting edge technology.”
704
3279200
2640
"این نرم افزار از فناوری پیشرفته استفاده می کند."
54:42
OK – that’s all we have time  for on today’s cutting edge  
705
3282480
3200
خوب - این تمام چیزی است که در نمایش پیشرفته امروز برای آن وقت داریم
54:45
show. But please check out our Instagram,  Twitter, Facebook and YouTube pages.
706
3285680
4960
. اما لطفاً صفحات اینستاگرام، توییتر، فیسبوک و یوتیوب ما را بررسی کنید.
54:50
Bye-bye!
707
3290640
560
خداحافظ!
54:51
Goodbye!
708
3291200
640
خداحافظ!
54:58
Hello and welcome to 6 Minute English. I'm Neil.
709
3298880
2800
سلام و به 6 دقیقه انگلیسی خوش آمدید. من نیل هستم.
55:01
And I'm Catherine. Hello!
710
3301680
1440
و من کاترین هستم. سلام!
55:03
Now, Catherine, say cheese.
711
3303120
2160
حالا کاترین بگو پنیر.
55:05
Cheeeese. Thank you, a little souvenir of our time together.
712
3305280
5200
پنیر. ممنون، یادگاری کوچکی از زمان با هم بودن.
55:10
Let's have a look… Hang on a minute. You just  took a selfie, I wasn't even in the picture.
713
3310480
5280
بیایید نگاهی بیندازیم... یک دقیقه صبر کنید. تو فقط یک سلفی گرفتی، من حتی در عکس نبودم.
55:15
Ah, well, that's the magic of the smartphone,  two cameras! You know, that's not something  
714
3315760
5520
آه، خوب، این جادوی تلفن هوشمند است، دو دوربین! می دانید، این کاری نیست
55:21
you can do with a traditional camera. I mean,  do you even have a separate camera these days?
715
3321280
5280
که بتوانید با دوربین سنتی انجام دهید. منظورم این است که آیا این روزها حتی یک دوربین جداگانه دارید؟
55:26
I do actually. It's in a  cupboard somewhere at home. 
716
3326560
3120
من در واقع. در یک کمد در جایی در خانه است.
55:29
Well, that is the topic of this programme. Have  traditional cameras been completely replaced by  
717
3329680
5920
خوب موضوع این برنامه همین است. آیا دوربین‌های سنتی به طور کامل با
55:35
smartphones, or to put it another way, have  cameras been made obsolete by the smartphone?
718
3335600
5600
تلفن‌های هوشمند جایگزین شده‌اند یا به عبارت دیگر، آیا دوربین‌ها توسط تلفن هوشمند منسوخ شده‌اند؟
55:41
Interesting question. But before we get into this  topic, how about a question for our listeners?
719
3341200
6240
سوال جالبیه اما قبل از اینکه وارد این مبحث شویم، سوالی برای شنوندگانمان چطور است؟
55:47
Of course. We are certainly in the  digital age of photography but when  
720
3347440
4320
البته. ما مطمئناً در عصر دیجیتال عکاسی هستیم، اما
55:51
was the first digital camera  phone released? Was it: 
721
3351760
3520
اولین تلفن دوربین دیجیتال کی عرضه شد؟ آیا این بود:
55:55
a) 2000 b) 2004 or 
722
3355280
2880
الف) 2000 ب) 2004 یا
55:58
c) 2007? What do you think?
723
3358160
2400
ج) 2007؟ شما چی فکر میکنید؟
56:01
Well, I actually know this one, so I'm  going to be fair and keep it to myself.
724
3361120
4720
خب، من واقعاً این را می‌دانم، بنابراین منصفانه رفتار می‌کنم و آن را برای خودم نگه می‌دارم.
56:06
OK, well, listen out for the  answer at the end of the programme.  
725
3366480
3120
خوب، خوب، برای پاسخ در پایان برنامه گوش دهید.
56:10
There are different kinds of cameras  available today. There are compact cameras,  
726
3370240
4160
امروزه انواع مختلفی از دوربین‌ها موجود است. دوربین‌های کامپکتی وجود دارند
56:14
which are small and mostly automatic  and usually come with a fixed lens.
727
3374400
4720
که کوچک و عمدتاً خودکار هستند و معمولاً دارای لنز ثابت هستند.
56:19
That's right. And then there are  SLRs and DSLRs which are bigger,  
728
3379120
5280
درست است. و سپس دوربین‌های SLR و DSLR وجود دارند که بزرگ‌تر هستند،
56:24
and you can change the lenses on these cameras  and they allow for a lot of manual control.
729
3384400
5440
و می‌توانید لنزهای این دوربین‌ها را تغییر دهید و کنترل دستی زیادی را امکان‌پذیر می‌کنند.
56:30
And there are also mirrorless cameras, which are a  cross between compact cameras and DSLRs. They are  
730
3390640
6480
و همچنین دوربین‌های بدون آینه وجود دارند که تلاقی بین دوربین‌های کامپکت و DSLR هستند. آنها
56:37
small like a compact camera but you can also use  the same lenses on them that you can use on DSLRs.
731
3397120
6320
مانند یک دوربین کامپکت کوچک هستند، اما می‌توانید از همان لنزهایی که می‌توانید در دوربین‌های DSLR استفاده کنید نیز روی آن‌ها استفاده کنید.
56:43
And of course, there are  the cameras on smartphones,  
732
3403440
3040
و البته، دوربین‌هایی در تلفن‌های هوشمند وجود دارند،
56:46
and these are convenient and they're  becoming increasingly sophisticated.
733
3406480
4880
و این دوربین‌ها راحت هستند و به طور فزاینده‌ای پیچیده‌تر می‌شوند.
56:51
Phil Hall is the editor of Tech Radar  magazine. He was asked on the BBC programme  
734
3411360
5360
فیل هال سردبیر مجله Tech Radar است. در برنامه بی بی سی از او پرسیده شد که
56:56
You and Yours if he thought smartphones would  make other cameras obsolete. What is his opinion?
735
3416720
6480
آیا فکر می کند تلفن های هوشمند دیگر دوربین ها را منسوخ می کنند یا خیر. نظر او چیست؟
57:05
I don't think so. I think while compact camera  sales have really sort of dropped off a cliff,  
736
3425280
6000
من اینطور فکر نمی کنم. من فکر می‌کنم در حالی که فروش دوربین‌های کامپکت واقعاً به نوعی کاهش یافته است،
57:11
it's the lower end, cheap compacts where  people have opted for a smartphone and I think  
737
3431280
6640
این دوربین‌های کامپکت پایین‌تر و ارزان‌قیمت است که مردم گوشی هوشمند را انتخاب کرده‌اند و فکر می‌کنم
57:17
manufacturers are looking at the more higher end  premium cameras, high-end compacts, DSLRs, which  
738
3437920
6480
تولیدکنندگان به دنبال دوربین‌های درجه یک، دوربین‌های کامپکت سطح بالا، دوربین‌های DSLR هستند.
57:24
are the ones you can attach lenses to, mirrorless  cameras. So, the market's changing. And I don't  
739
3444400
4640
دوربین‌های بدون آینه که می‌توانید به آن‌ها لنز متصل کنید . بنابراین، بازار در حال تغییر است. و من
57:29
think there'll be a time soon, yet, that… the  smartphone will take over the camera completely.
740
3449040
6560
فکر نمی‌کنم به این زودی‌ها زمانی فرا برسد که… تلفن هوشمند دوربین را به‌طور کامل تصاحب کند.
57:37
So does Phil think smartphones  will kill the camera?
741
3457280
3520
بنابراین آیا فیل فکر می‌کند تلفن‌های هوشمند دوربین را از بین می‌برند؟
57:40
In a word, no. He does say that sales of cheap  compact cameras have dropped off a cliff.  
742
3460800
6560
در یک کلام، نه. او می‌گوید که فروش دوربین‌های کامپکت ارزان قیمت از بین رفته است.
57:48
This rather dramatic expression  describes a very big fall in sales.
743
3468080
5040
این عبارت نسبتاً دراماتیک سقوط بسیار زیاد در فروش را توصیف می‌کند.
57:53
This is because the kind of consumers  
744
3473120
2080
این به این دلیل است که آن دسته از مصرف‌کنندگانی
57:55
who would choose a compact camera are now  opting for the camera on their smartphone.  
745
3475200
4720
که دوربین کامپکت را انتخاب می‌کنند، اکنون دوربین تلفن هوشمند خود را انتخاب می‌کنند.
57:59
When you opt for something you  choose it rather than something else.
746
3479920
3520
وقتی چیزی را انتخاب می‌کنید، آن را به جای چیز دیگری انتخاب می‌کنید.
58:04
For people who want a quick, easy  to use and convenient way to take  
747
3484160
4400
برای افرادی که می‌خواهند روشی سریع، آسان و راحت برای گرفتن
58:08
reasonable quality photos, compact cameras used  to be the best choice – but now it's a smartphone.
748
3488560
7520
عکس‌هایی با کیفیت معقول داشته باشند، دوربین‌های کامپکت بهترین انتخاب بودند – اما اکنون این یک گوشی هوشمند است.
58:16
So camera makers are now moving to the more  high-end market, the DSLRs and mirrorless cameras.  
749
3496080
6240
بنابراین سازندگان دوربین اکنون به سمت بازار پیشرفته‌تر، یعنی دوربین‌های DSLR و دوربین‌های بدون آینه حرکت می‌کنند.
58:22
So who is still buying these more  expensive cameras? Here's Phil Hall again.
750
3502960
4560
پس چه کسی هنوز این دوربین‌های گران‌تر را می‌خرد؟ اینجا دوباره فیل هال است.
58:28
I think it's... some of it is people who  are picking up a smartphone and sort of  
751
3508640
4640
فکر می‌کنم این است... برخی از آن‌ها افرادی هستند که یک گوشی هوشمند برمی‌دارند و به
58:33
getting into photography that way and that's  a really great first step into photography  
752
3513280
5760
نوعی وارد عکاسی می‌شوند و این اولین قدم عالی برای عکاسی است
58:39
and I think people are probably, sometimes,  getting a bit frustrated with the quality  
753
3519040
3040
و فکر می‌کنم مردم احتمالاً، گاهی اوقات ، کمی از کیفیت ناامید می‌شوند.
58:43
once they sort of start pushing their creative  skills and then looking to see what's the next  
754
3523280
5520
زمانی که آنها شروع به تقویت مهارت‌های خلاقانه خود کردند و سپس به دنبال این بودند که ببینند مرحله بعدی چیست،
58:48
rung up so it's people wanting to  broaden their creative skills a bit.
755
3528800
4080
بنابراین افراد می‌خواهند مهارت‌های خلاقانه خود را کمی گسترش دهند.
58:54
Who does he say might be buying cameras?
756
3534000
2640
او می گوید چه کسی ممکن است دوربین بخرد؟
58:56
He says that people who are getting into  
757
3536640
2080
او می‌گوید افرادی که وارد
58:58
photography might get frustrated  with the quality of smartphones.
758
3538720
4160
عکاسی می‌شوند ممکن است از کیفیت تلفن‌های هوشمند ناامید شوند.
59:02
Getting into something means  becoming very interested in it.
759
3542880
3520
ورود به چیزی به معنای علاقه شدید به آن است.
59:06
And if you are frustrated with something it  
760
3546400
2400
و اگر از چیزی
59:08
means you are disappointed with  it. You are not happy with it.
761
3548800
3120
ناامید هستید   به این معنی است که از  آن ناامید هستید . شما از آن راضی نیستید.
59:11
So people who have got into  photography with a smartphone  
762
3551920
3040
بنابراین افرادی که وارد عکاسی با گوشی هوشمند
59:14
but are frustrated with its limitations  and want to be more creative are going  
763
3554960
4720
شده‌اند، اما از محدودیت‌های آن ناامید شده‌اند و می‌خواهند خلاق‌تر باشند،
59:19
to the next level. They are moving up, they  are, as Phil said 'taking the next rung up'.
764
3559680
6000
به مرحله بعدی می‌روند. آنها در حال حرکت به سمت بالا هستند، همانطور که فیل گفت "پله بعدی را بالا می برند".
59:25
Now, a rung is the horizontal step of a ladder,  
765
3565680
4000
اکنون، یک پله پله افقی یک نردبان است،
59:29
so the expression taking the next rung up is a  way to describe doing something at a higher level.
766
3569680
6960
بنابراین عبارتی که پله بعدی را بالا می‌برد راهی برای توصیف انجام کاری در سطح بالاتر است.
59:37
Now, talking of higher levels, did you get this  week's quiz question right? The question was:  
767
3577440
5680
اکنون، در مورد سطوح بالاتر صحبت می کنیم، آیا سؤال مسابقه این هفته را درست دریافت کردید؟ سوال این
59:43
When was the first phone with a digital  camera released? Was it 2000, 2004 or 2007?  
768
3583120
7440
بود:   اولین تلفن دارای دوربین دیجیتال چه زمانی عرضه شد؟ سال 2000، 2004 یا 2007 بود؟
59:51
The first phone with a digital  camera was released in 2000.  
769
3591680
3200
اولین تلفن با دوربین دیجیتال در سال 2000 عرضه شد.
59:55
Now, to take us up to the end of the  programme, let's look at the vocabulary again.
770
3595440
4400
اکنون، برای اینکه ما را تا پایان برنامه پیش ببریم، دوباره به واژگان نگاهی بیندازیم.
60:00
First, we had the adjective obsolete  which describes something that has  
771
3600720
3920
اول، ما صفت منسوخ را داشتیم که چیزی را توصیف می‌کند که
60:04
been replaced and is no longer the first choice.
772
3604640
2880
جایگزین شده است و دیگر انتخاب اول نیست.
60:08
When the expression to drop off a  cliff is used about, for example,  
773
3608080
3760
وقتی از عبارت drop off a برای مثال
60:11
sales numbers, it means sales have fallen  significantly over a short period of time.
774
3611840
5120
اعداد فروش استفاده می شود، به این معنی است که فروش در مدت زمان کوتاهی به طور قابل توجهی کاهش یافته است.
60:16
To opt for something means to choose something  
775
3616960
3120
انتخاب کردن چیزی به معنای انتخاب چیزی است
60:20
and when you become very interested in an  activity you can say that you get into it.
776
3620640
6720
و وقتی به یک  فعالیت بسیار علاقه مند شدید، می توانید بگویید که وارد آن فعالیت شده اید.
60:27
If you are trying to do something and you  can't do it because you don't have the skill  
777
3627360
3920
اگر می‌خواهید کاری را انجام دهید و نمی‌توانید آن را انجام دهید زیرا مهارت
60:31
or the equipment you are using is not right  or not good enough, you can become frustrated.
778
3631280
5280
را ندارید یا تجهیزاتی که استفاده می‌کنید مناسب نیست یا به اندازه کافی خوب نیست، ممکن است ناامید شوید.
60:36
And developing your skills to a higher level  can be described as taking the next rung up.
779
3636560
6960
و توسعه مهارت‌های خود به سطح بالاتر را می‌توان به عنوان صعود به مرحله بعدی توصیف کرد.
60:43
Right, that's all from us from us in this  programme. Do join us again next time and  
780
3643520
3440
درست است، این همه از ما در این برنامه است. دفعه بعد دوباره به ما بپیوندید و
60:46
don't forget that in the meantime you can  find us on Instagram, Facebook, Twitter,  
781
3646960
4160
فراموش نکنید که در این مدت می‌توانید ما را در اینستاگرام، فیس‌بوک، توییتر،
60:51
YouTube and of course our website  bbclearningenglish.com. See you soon. Goodbye.
782
3651120
5440
YouTube و البته وب‌سایت ما bbclearningenglish.com پیدا کنید. به زودی میبینمت. خداحافظ.
60:59
Bye!
783
3659120
5040
خدا حافظ!
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7