Fake News: Fact & Fiction - Episode 8: Don't get caught out!

36,966 views ・ 2023-10-30

BBC Learning English


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید. زیرنویس های ترجمه شده به صورت ماشینی ترجمه می شوند.

00:06
Hello and welcome to Fake News: Fact and Fiction, from BBC Learning English.
0
6540
3280
سلام و به Fake News: Fact and Fiction از BBC Learning English خوش آمدید.
00:09
I'm Hugo.
1
9900
600
من هوگو هستم.
00:11
And I'm Sam.
2
11220
699
و من سام هستم.
00:12
In the program today we hear from Jenni Sargent, Managing Director of First Draft News.
3
12119
5101
در برنامه امروز از جنی سارجنت، مدیر عامل First Draft News می شنویم.
00:17
The issue of trust and truth online is one of the most urgent challenges facing our global society today.
4
17300
5450
موضوع اعتماد و حقیقت آنلاین یکی از فوری ترین چالش هایی است که جامعه جهانی امروز ما با آن مواجه است.
00:22
Yes, and we find out that even the experts can be tricked by a fake news story
5
22829
5460
بله، و همانطور که محقق سامانتا برادشاو به ما می‌گوید، متوجه می‌شویم که حتی کارشناسان نیز می‌توانند توسط یک خبر جعلی فریب بخورند
00:28
as researcher Samantha Bradshaw tells us.
6
28829
2881
.
00:32
I definitely have been caught out by a fake news story.
7
32100
3470
من قطعا توسط یک خبر جعلی دستگیر شده ام.
00:35
I believed for the longest time that ...
8
35649
2121
من برای طولانی ترین زمان باور داشتم که ...
00:39
So what was it that she believed?
9
39530
2189
پس آن چه بود که او باور کرد؟
00:41
Stay with us to find out.
10
41990
2429
با ما همراه باشید تا متوجه شوید. با این حال،
00:44
Before that though, we have some vocabulary which you are going to tell us about today.
11
44499
4580
قبل از آن، واژگانی داریم که امروز در مورد آن به ما بگویید.
00:49
Sam what do you have for us?
12
49159
1171
سام برای ما چی داری؟
00:50
Today Hugo, I have a range of phrases we can use if we realise that we have been the victim of a scam
13
50410
7059
امروز هوگو، من مجموعه ای از عبارات را دارم که اگر متوجه شویم قربانی یک کلاهبرداری شده ایم
00:58
or believed some fake news.
14
58070
1930
یا برخی اخبار جعلی را باور کرده ایم، می توانیم از آنها استفاده کنیم.
01:04
English has many phrasal and multi-word verbs.
15
64890
4500
انگلیسی افعال عبارتی و چند کلمه ای زیادی دارد.
01:09
These are a natural part of everyday language and are used for good things as well as bad.
16
69569
7321
اینها بخشی طبیعی از زبان روزمره هستند و برای چیزهای خوب و همچنین بد استفاده می شوند.
01:16
Take 'fall for' as an example.
17
76969
2740
به عنوان مثال، «سقوط برای» را در نظر بگیرید.
01:20
When you fall for someone, it means that you become strongly attracted to them.
18
80609
5701
وقتی عاشق کسی می شوید، به این معنی است که به شدت جذب او می شوید.
01:26
You fall in love with them.
19
86390
1119
شما عاشق آنها می شوید.
01:28
And if you've ever fallen for someone you might remember that feeling of butterflies you have in your stomach.
20
88159
6331
و اگر تا به حال عاشق کسی شده اید، ممکن است آن احساس پروانه هایی را که در شکم خود دارید به یاد بیاورید.
01:35
But you have a very different feeling, a sinking feeling in your stomach, if you fall for a scam.
21
95340
8310
اما اگر گرفتار کلاهبرداری شوید، احساس بسیار متفاوتی دارید، احساس غرق شدن در شکمتان.
01:44
To fall for something means that you've been tricked into believing something that isn't true.
22
104519
5790
گرفتار شدن به چیزی به این معنی است که شما فریب خورده اید تا چیزی را باور کنید که درست نیست.
01:50
This isn't always bad.
23
110389
1550
این همیشه بد نیست
01:52
It could just be a simple joke or a prank but it could also be a con or a scam or some fake news.
24
112019
8670
این فقط می تواند یک شوخی ساده یا یک شوخی باشد، اما می تواند یک کلاهبرداری یا کلاهبرداری یا برخی اخبار جعلی باشد.
02:00
If you completely believe something that isn't true you can say: "I fell for it hook, line and sinker".
25
120769
7841
اگر کاملاً چیزی را باور دارید که درست نیست، می توانید بگویید: "من به دنبال آن قلاب، خط و سینک شدم".
02:08
'To fall for' isn't used in the passive and suggests perhaps that you think you believed something too easily.
26
128939
8040
"در حال افتادن" در حالت منفعل استفاده نمی شود و شاید نشان دهد که فکر می کنید به راحتی چیزی را باور کرده اید.
02:18
To highlight the action of the scammers rather than your own response,
27
138139
5261
برای برجسته کردن عمل کلاهبرداران به جای پاسخ خود شما،
02:23
there are a number of other phrases with similar meanings which we use which are generally only in the passive.
28
143789
8491
تعدادی عبارات دیگر با معانی مشابه وجود دارد که ما از آنها استفاده می کنیم که معمولاً فقط در حالت غیرفعال هستند.
02:32
These are 'to be taken in by' and 'to be caught out by'.
29
152360
5350
این‌ها باید «گرفتار شوند» و «به‌دست گرفته شوند».
02:38
Now to help you avoid falling for, being taken in by, or caught out by fake news and scams,
30
158849
7170
اکنون برای کمک به شما برای جلوگیری از گرفتار شدن، جذب شدن یا گرفتار شدن توسط اخبار جعلی و کلاهبرداری ها،
02:46
let's go back to the programme for some more tips.
31
166409
2611
اجازه دهید برای چند نکته بیشتر به برنامه برگردیم.
02:51
Thanks Sam.
32
171150
600
02:51
It can be easy to be taken in by fake news, but in today's programme perhaps some advice from our first guest,
33
171830
5799
ممنون سام
می‌توان به راحتی تحت تأثیر اخبار جعلی قرار گرفت، اما در برنامه امروز شاید توصیه‌هایی از اولین مهمان ما،
02:57
Jenni Sargent. She is the managing director of an organisation called First Draft News,
34
177710
5600
جنی سارجنت باشد. او مدیر عامل سازمانی به نام First Draft News است
03:03
who work around the world to fight what they call 'information disorder'.
35
183390
3760
که در سرتاسر جهان برای مبارزه با آنچه «اختلال اطلاعاتی» می‌نامند کار می‌کند.
03:07
We spoke to Jenni earlier and asked how we can face the challenge of identifying and dealing with fake news.
36
187230
4770
ما قبلا با جنی صحبت کردیم و پرسیدیم که چگونه می توانیم با چالش شناسایی و مقابله با اخبار جعلی روبرو شویم.
03:16
We have an acronym that we use which is S.H.E.E.P.
37
196090
3239
ما یک مخفف داریم که از آن استفاده می کنیم که S.H.E.E.P است.
03:20
We say to think about: the source, the history, the emotion, the evidence, and whether it includes pictures.
38
200020
6540
ما می گوییم در مورد: منبع، تاریخ، احساسات، شواهد و اینکه آیا شامل تصاویر می شود فکر کنید.
03:26
Because those are the five things that you can remember and help you think before you share.
39
206889
5071
زیرا این پنج چیز هستند که می توانید به خاطر بسپارید و به شما کمک کند قبل از به اشتراک گذاشتن فکر کنید.
03:32
Take time to think through who shared it, what's their motivation,
40
212040
3700
وقت بگذارید و فکر کنید چه کسی آن را به اشتراک گذاشته است، انگیزه آنها چیست،
03:36
what else have they shared that might be relevant? Have they tried to manipulate me emotionally?
41
216009
5331
چه چیز دیگری به اشتراک گذاشته اند که ممکن است مرتبط باشد؟ آیا آنها سعی کرده اند من را از نظر عاطفی دستکاری کنند؟
03:41
And what evidence do they present with this piece of information, this story, or this video or this image?
42
221639
5350
و با این اطلاعات، این داستان، یا این ویدئو یا این تصویر چه مدرکی ارائه می کنند؟
03:47
Have they used images which are very easily, easy to persuade us to think differently?
43
227349
5730
آیا آنها از تصاویری استفاده کرده اند که به راحتی و آسانی ما را متقاعد می کنند که متفاوت فکر کنیم؟
03:53
So taking time as a member of society before you share is something that we can all do to help.
44
233349
5071
بنابراین وقت گذاشتن به عنوان عضوی از جامعه قبل از اشتراک گذاری، کاری است که همه ما می توانیم برای کمک به آن انجام دهیم.
03:59
Sheep: an acronym to help you think before you share.
45
239199
3150
گوسفند: مخفف برای کمک به شما قبل از اشتراک گذاری فکر کنید.
04:02
So let's take a look at it in a bit more detail now.
46
242560
2500
پس بیایید اکنون با کمی جزئیات بیشتر به آن نگاه کنیم.
04:05
So 'S' is for 'source'.
47
245140
1950
بنابراین 'S' برای 'منبع' است.
04:07
Yes, the source is where the information is coming from.
48
247599
4040
بله، منبع اطلاعات از آنجاست.
04:11
Is it someone you know?
49
251949
1111
کسی هست که میشناسی؟
04:13
Is it an organisation you trust?
50
253900
2609
آیا سازمانی است که به آن اعتماد دارید؟
04:17
Are they who they say they are?
51
257050
2310
آیا آنها همانی هستند که می گویند؟
04:20
If it's a well-known person, is it their actual account?
52
260110
3480
اگر یک فرد شناخته شده است، آیا حساب واقعی آنها است؟
04:24
Well it's very easy to fake a social media post. Just take a look at this for example
53
264279
4701
خوب جعل کردن یک پست در شبکه های اجتماعی بسیار آسان است. فقط به این نگاه کنید برای مثال
04:30
Wow. So the former president loves us! Looks just like the real thing, doesn't it?
54
270339
5010
Wow. پس رئیس جمهور سابق ما را دوست دارد! درست شبیه چیز واقعی است، اینطور نیست؟
04:35
Except it's fake. It's just an image. It's been automatically generated by one of a number of fake tweet sites.
55
275889
9180
جز اینکه تقلبی است این فقط یک تصویر است. این به طور خودکار توسط یکی از تعدادی از سایت های توییت جعلی ایجاد شده است.
04:45
And if you really weren't sure, you could go to the actual account and
56
285149
3760
و اگر واقعاً مطمئن نبودید، می توانید به حساب واقعی بروید و
04:48
see that this post doesn't actually appear on the timeline.
57
288989
3281
ببینید که این پست واقعاً در جدول زمانی ظاهر نمی شود.
04:52
And one way of finding out more about the source is
58
292959
2041
و یک راه برای یافتن اطلاعات بیشتر در مورد منبع این است
04:55
by looking at the history of the account of the person or organisation posting.
59
295079
3760
که به تاریخچه اکانت شخص یا سازمانی که پست می کند نگاه کنید.
04:58
So 'History' is the 'H' of sheep.
60
298919
2301
بنابراین "تاریخ" "H" گوسفند است.
05:01
How old is the account? Who follows them? Who do they follow? What else have they posted?
61
301300
4289
اکانت چند ساله است؟ چه کسی آنها را دنبال می کند؟ چه کسی را دنبال می کنند؟ چه چیز دیگری پست کرده اند؟
05:05
Do all these things make the source more or less reliable?
62
305949
3661
آیا همه این موارد منبع را کم و بیش قابل اعتماد می کند؟
05:10
For example the other day on Facebook I saw a post a friend of mine had shared.
63
310649
5040
به عنوان مثال روز گذشته در فیس بوک پستی را دیدم که یکی از دوستانم به اشتراک گذاشته بود.
05:16
It was from a company offering a great prize for liking and sharing their post.
64
316470
6390
از طرف شرکتی بود که جایزه بزرگی را برای لایک کردن و اشتراک گذاری پست خود ارائه می کرد.
05:22
This is a common scam on Facebook but some are genuine.
65
322939
4540
این یک کلاهبرداری رایج در فیس بوک است، اما برخی از آنها واقعی هستند.
05:27
So I did a bit of digging and when I checked out the company's own Facebook profile,
66
327559
6010
بنابراین من کمی جستجو کردم و وقتی نمایه فیس بوک خود شرکت را بررسی کردم،
05:33
their account was only a few days old and there was no history of posts.
67
333899
6141
حساب آنها فقط چند روز پیش بود و هیچ سابقه پستی وجود نداشت.
05:40
This was a red flag and made me think it was probably one of those scam competitions.
68
340120
5830
این یک پرچم قرمز بود و باعث شد فکر کنم احتمالاً یکی از آن مسابقات کلاهبرداری است.
05:46
Yea. The next part of the acronym is 'Emotion'.
69
346030
2630
بله قسمت بعدی مخفف «احساس» است.
05:48
Is the post manipulating your emotions? Does it want you to feel angry or outraged?
70
348949
6270
آیا این پست احساسات شما را دستکاری می کند؟ آیا می خواهد شما احساس عصبانیت یا عصبانیت کنید؟
05:55
Is it biased? Is it saying something for example you wouldn't believe about someone you like,
71
355299
4790
آیا مغرضانه است؟ آیا این چیزی است که مثلاً درباره کسی که دوستش دارید باور نمی کنید،
06:00
but you would believe about someone you don't like?
72
360240
2570
اما در مورد کسی که دوست ندارید باور نمی کنید؟
06:03
But just because a post might generate strong emotions doesn't mean it's fake news.
73
363899
7260
اما فقط به این دلیل که یک پست ممکن است احساسات قوی ایجاد کند به این معنی نیست که یک خبر جعلی است.
06:11
There are many news reports that might make you feel sadness or anger, but does the language of the post suggest
74
371239
7300
گزارش‌های خبری زیادی وجود دارد که ممکن است باعث ناراحتی یا عصبانیت شما شود، اما آیا زبان پست نشان می‌دهد که
06:18
you should be feeling a particular way? Does it suggest you should or must share it?
75
378629
6421
باید احساس خاصی داشته باشید؟ آیا پیشنهاد می کند که باید آن را به اشتراک بگذارید یا باید آن را به اشتراک بگذارید؟
06:25
I always get a bit suspicious whenever a post tells me to share it.
76
385709
4330
من همیشه هر زمان که پستی به من می گوید آن را به اشتراک بگذارم کمی مشکوک می شوم.
06:30
Yeah and the next part of the acronym is another E. This one is for 'Evidence'.
77
390750
5550
بله و قسمت بعدی مخفف E دیگری است. این یکی برای «شواهد» است.
06:36
If the post is making claims about politicians, health, science for example which aren't being reported in
78
396449
5990
اگر این پست ادعاهایی را درباره سیاستمداران، بهداشت، علم و به عنوان مثال مطرح می کند که در
06:42
the mainstream media, what evidence is there that they are actually true?
79
402519
4161
رسانه های اصلی گزارش نمی شود، چه مدرکی وجود دارد که آنها واقعاً درست هستند؟
06:47
This is a tricky area as the mainstream media can't and doesn't report everything.
80
407790
5699
این یک منطقه دشوار است زیرا رسانه های اصلی نمی توانند و همه چیز را گزارش نمی کنند.
06:53
And of course in some cases has its own agenda and also does make mistakes.
81
413569
6160
و البته در برخی موارد دستور کار خاص خود را دارد و همچنین اشتباه می کند.
06:59
These are areas that can be really very complex.
82
419809
3350
اینها مناطقی هستند که می توانند واقعاً بسیار پیچیده باشند.
07:03
If you don't trust the mainstream media, how do you decide what sources you do trust?
83
423389
5491
اگر به رسانه های جریان اصلی اعتماد ندارید، چگونه تصمیم می گیرید که به چه منابعی اعتماد کنید؟
07:09
And is that trust based on objective evidence or
84
429209
4050
و آیا این اعتماد مبتنی بر شواهد عینی است یا
07:13
because those sources say things you agree with or want to be true.
85
433339
4940
به این دلیل که آن منابع چیزهایی را می گویند که شما با آنها موافق هستید یا می خواهید درست باشد.
07:18
Yeah it can be very difficult to recognise and ignore our own biases,
86
438589
4541
بله، تشخیص و نادیده گرفتن سوگیری های خودمان می تواند بسیار دشوار باشد، به همین
07:23
which is why it's helpful to look for multiple sources and opinions that are different from our own.
87
443210
6389
دلیل است که جستجوی منابع و نظرات متفاوت با خودمان مفید است.
07:30
The final part of the jigsaw is pictures. Are photos and videos used as evidence?
88
450029
6811
قسمت پایانی اره منبت کاری اره مویی تصاویر است. آیا از عکس ها و فیلم ها به عنوان مدرک استفاده می شود؟
07:37
We've seen how easy it is for images to be misleading.
89
457410
3659
ما دیدیم که چقدر آسان است که تصاویر گمراه کننده باشند.
07:41
So do the images show what you are being told they show?
90
461149
4271
بنابراین آیا تصاویر آنچه را که به شما گفته می شود نشان می دهند؟
07:45
Are the captions accurate? Could the pictures have been manipulated?
91
465980
4659
آیا زیرنویس ها دقیق هستند؟ آیا ممکن است تصاویر دستکاری شده باشند؟
07:51
So remember SHEEP as a fact checking guide to detecting fake news.
92
471660
4529
بنابراین SHEEP را به عنوان یک راهنمای راستی‌آزمایی برای تشخیص اخبار جعلی به خاطر بسپارید.
08:00
To be a fake news detective you have to be aware that it is out there.
93
480100
5059
برای اینکه یک کارآگاه اخبار جعلی باشید، باید از وجود آن آگاه باشید.
08:05
You have to be sceptical and want to find the truth before you share something.
94
485290
5489
قبل از اینکه چیزی را به اشتراک بگذارید، باید شک داشته باشید و بخواهید حقیقت را پیدا کنید.
08:10
And if you do come across a post that is suspicious or maybe something that a friend has shared,
95
490990
5010
و اگر با پستی مواجه شدید که مشکوک است یا شاید چیزی که یکی از دوستانتان به اشتراک گذاشته است،
08:16
how should you go about dealing with it?
96
496540
1919
چگونه باید با آن برخورد کنید؟
08:18
Yeah there are many fact checking and debunking websites and services out there.
97
498539
3701
بله، وب‌سایت‌ها و خدمات بسیاری برای بررسی حقایق و رفع هویت وجود دارد.
08:22
It's often very quick to do a search for particular phrases or keywords
98
502589
3821
جستجو برای عبارات یا کلمات کلیدی خاص اغلب بسیار سریع است
08:26
to see if the topic has been covered on one of them.
99
506490
2859
تا ببینید آیا موضوع در یکی از آنها پوشش داده شده است یا خیر.
08:29
And another tip here is to include the word 'fake' or 'scam' in the search term as well.
100
509670
6400
و نکته دیگر در اینجا این است که کلمه "جعلی" یا "کلاهبرداری" را نیز در عبارت جستجو قرار دهید.
08:36
But the trouble I have is if I come across something a friend has posted or shared,
101
516150
5830
اما مشکلی که دارم این است که اگر به چیزی برخوردم که یکی از دوستان پست کرده یا به اشتراک گذاشته است، آیا
08:42
should I let them know?
102
522340
2219
باید به او اطلاع دهم؟
08:44
Good question. Do you do that Sam?
103
524639
1920
سؤال خوبی بود. اینکارو میکنی سام؟
08:46
I have done. Yes.
104
526750
1730
من انجام داده ام. آره.
08:48
And how did it go?
105
528610
929
و چگونه گذشت؟
08:50
To be honest it was a bit mixed. It depends on who shared it and what it was.
106
530080
5140
راستش کمی مختلط بود. بستگی به این دارد که چه کسی آن را به اشتراک گذاشته و چه چیزی بوده است.
08:55
So most friends are OK with it if, for example, it's a fake competition and you warn them about it.
107
535300
5909
بنابراین اکثر دوستان با آن مشکلی ندارند اگر مثلاً یک مسابقه ساختگی باشد و شما در مورد آن به آنها هشدار دهید.
09:01
Some don't acknowledge it at all but if it's something a bit more controversial, like a conspiracy theory
108
541840
6929
برخی اصلاً آن را تصدیق نمی کنند، اما اگر چیزی کمی بحث برانگیزتر باشد، مانند تئوری توطئه
09:09
or one of those miracle cures the pharmaceutical industry is apparently hiding,
109
549009
4770
یا یکی از آن درمان های معجزه آسا که صنعت داروسازی ظاهراً پنهان شده است،
09:14
then some people get quite angry if you challenge their beliefs even when you link it to the facts.
110
554200
7459
پس برخی از مردم اگر باورهای آنها را به چالش بکشید، حتی زمانی که آن را به هم مرتبط کنید، کاملاً عصبانی می شوند. به حقایق
09:21
Or maybe because you link to the facts. I'm not sure.
111
561919
3040
یا شاید به این دلیل که به حقایق پیوند می دهید. مطمئن نیستم.
09:25
Yeah. That's an interesting observation and it's a question we put to disinformation researcher
112
565539
4691
آره این یک مشاهدات جالب است و این سؤالی است که ما از محقق اطلاعات نادرست
09:30
Samantha Bradshaw from Oxford University.
113
570310
2839
سامانتا برادشاو از دانشگاه آکسفورد می‌پرسیم.
09:33
How do you deal with fake news people share which appears on your social media channels?
114
573230
4929
چگونه با اخبار جعلی که افراد در کانال های رسانه های اجتماعی شما به اشتراک می گذارند برخورد می کنید؟
09:38
And this is what she had to say.
115
578389
2620
و این چیزی است که او باید می گفت.
09:42
So combating fake news as it appears in our own news feeds and our Twitter feeds.
116
582039
7081
بنابراین مبارزه با اخبار جعلی همانطور که در فیدهای خبری و توییتر ما ظاهر می شود.
09:49
It's a very delicate task I think because one can't simply just post a debunked news article
117
589480
8730
من فکر می کنم این یک کار بسیار ظریف است زیرا نمی توان به سادگی یک مقاله خبری حذف شده را پست کرد
09:58
and have the problem fixed.
118
598290
3619
و مشکل را برطرف کرد.
10:01
The reason why fake news often spreads further and faster than other kinds of information again comes back to this
119
601990
8160
دلیل اینکه اخبار جعلی اغلب بیشتر و سریع‌تر از سایر اطلاعات منتشر می‌شوند، دوباره به این
10:10
whole issue of identity signalling and people don't necessarily care that the information contained
120
610509
6001
موضوع مربوط به علامت‌گذاری هویت بازمی‌گردد و مردم لزوماً اهمیتی نمی‌دهند که اطلاعات موجود
10:16
in a story, whether or not it's true.
121
616590
3049
در یک داستان، درست یا نادرست باشد.
10:19
They don't care about the facts or not they care more about belonging to a sense of community.
122
619720
8000
آنها به حقایق اهمیت نمی دهند یا نه، آنها بیشتر به تعلق به یک احساس جامعه اهمیت می دهند.
10:27
And so posting a debunked story doesn't necessarily change people's minds.
123
627909
5871
و بنابراین، پست کردن یک داستان بی‌حساب لزوماً نظر مردم را تغییر نمی‌دهد.
10:33
Instead I think we need to engage more critically one another but in a way that promotes empathy
124
633860
6380
در عوض، من فکر می‌کنم که ما باید با انتقادی بیشتری با یکدیگر تعامل داشته باشیم، اما به‌گونه‌ای که همدلی
10:40
and promotes understanding so that again we can negotiate consensus and
125
640320
4930
و تفاهم را تقویت کند تا دوباره بتوانیم درباره اجماع مذاکره کنیم و
10:45
come together to build our democracy and find balanced viewpoints.
126
645330
4670
برای ایجاد دموکراسی و یافتن دیدگاه‌های متوازن گرد هم بیاییم.
10:51
Anything you like to comment there, Sam?
127
651000
600
چیزی که دوست داری اونجا نظر بدی سام؟
10:53
Yes I'd like to pick out the phrase 'a delicate task'.
128
653480
3949
بله، من می خواهم عبارت "یک کار ظریف" را انتخاب کنم.
10:58
Samantha said that dealing with fake news on our own social media is 'a delicate task'.
129
658009
5930
سامانتا گفت که مقابله با اخبار جعلی در رسانه های اجتماعی خودمان "یک کار ظریف" است.
11:04
So this means it's a difficult job that needs to be done carefully with sensitivity.
130
664019
7021
بنابراین این به این معنی است که کار دشواری است که باید با دقت و با حساسیت انجام شود.
11:11
And she also talked about 'empathy' which is understanding other people's feelings and experiences.
131
671320
9039
و او همچنین در مورد "همدلی" که درک احساسات و تجربیات دیگران است صحبت کرد.
11:20
Well I think if we all had more empathy and understanding the world would be a better place.
132
680639
5381
خوب من فکر می کنم اگر همه ما همدلی و درک بیشتری داشتیم، دنیا جای بهتری بود.
11:26
But it might put you out of a job as a journalist Hugo if there wasn't any conflict.
133
686610
5310
اما اگر درگیری وجود نداشته باشد، ممکن است شما را از شغل روزنامه نگاری هوگو کنار بگذارد.
11:32
I think there would still be plenty of conflict to go around and there will always be people trying
134
692000
4759
فکر می‌کنم هنوز درگیری‌های زیادی وجود خواهد داشت و همیشه افرادی هستند که سعی می‌کنند
11:36
to take advantage of other people which leads us back to our guest Samantha Bradshaw.
135
696840
4780
از دیگران سوء استفاده کنند که ما را به مهمانمان سامانتا برادشاو می‌رساند.
11:41
Has she ever fallen for a fake news story? Take a listen.
136
701700
3479
آیا او تا به حال عاشق یک خبر جعلی شده است؟ گوش کن
11:45
I definitely have been caught out by a fake news story.
137
705549
3571
من قطعا توسط یک خبر جعلی دستگیر شده ام.
11:49
I believed for the longest time that teacup pigs were a real thing.
138
709200
4390
من برای طولانی ترین زمان معتقد بودم که خوک های فنجانی یک چیز واقعی هستند.
11:53
And for anyone who doesn't know, a teacup pig is a little baby pig and there would be all these cute viral videos on
139
713940
6640
و برای هر کسی که نمی‌داند، یک خوک فنجانی یک بچه خوک کوچک است و همه این ویدیوهای ویروسی زیبا در
12:00
the Internet of these little pigs running around and the idea was that they would stay that little forever.
140
720660
5500
اینترنت از این خوک‌های کوچک در حال چرخش هستند و ایده این بود که آنها برای همیشه همان کوچک بمانند.
12:06
But in reality they were just normal pigs that would grow to be a real sized pig.
141
726429
4980
اما در واقع آنها فقط خوک های معمولی بودند که به یک خوک با اندازه واقعی تبدیل می شدند.
12:11
But I had it in my mind that I was going to buy a teacup pig one day because they were just so adorable and dog-like
142
731490
6339
اما در ذهنم این بود که روزی می‌خواهم یک خوک فنجانی بخرم، زیرا آنها بسیار دوست‌داشتنی، سگ‌مانند
12:17
and cute, only later to find out that those are not real. They are fully grown pigs.
143
737909
6970
و بامزه بودند، اما بعداً متوجه شدم که آنها واقعی نیستند. آنها خوک های کاملاً رشد یافته هستند.
12:25
You can buy one, it will just be massive one day.
144
745179
2791
شما می توانید یکی بخرید، فقط یک روز بزرگ می شود.
12:29
So even the experts can be caught out although
145
749019
2951
بنابراین حتی کارشناسان را نیز می‌توان گرفتار کرد، اگرچه
12:32
happy to report that Samantha realised it was a scam before she actually bought one.
146
752050
4539
خوشحالیم که گزارش دهند که سامانتا قبل از اینکه واقعاً یکی را بخرد متوجه شد که این یک کلاهبرداری بوده است.
12:36
Yes, and you might think that selling cute pigs is a harmless scam
147
756990
4870
بله، و ممکن است فکر کنید که فروش خوک های ناز یک کلاهبرداری بی ضرر است،
12:41
but this and other similar hoaxes lead to all sorts of problems.
148
761940
4929
اما این و دیگر حقه های مشابه منجر به انواع مشکلات می شود.
12:46
So, for example, what do you do if you live in a tiny flat and you bought a tiny pet that then grows to be
149
766949
8111
بنابراین، برای مثال، اگر در یک آپارتمان کوچک زندگی کنید و یک حیوان خانگی کوچک بخرید که بعداً تبدیل به
12:55
a huge hungry pet?
150
775140
1899
یک حیوان خانگی گرسنه بزرگ می شود، چه می کنید؟
12:57
Many of these pigs have been starved, abandoned and poorly treated.
151
777820
4650
بسیاری از این خوک ها گرسنه مانده اند، رها شده اند و تحت درمان قرار نگرفته اند.
13:02
Yet there is still a market for them on social media.
152
782550
3010
با این حال هنوز بازاری برای آنها در رسانه های اجتماعی وجود دارد.
13:05
Yes not all fake news is about issues such as politics, health, science.
153
785640
5179
بله، همه اخبار جعلی درباره موضوعاتی مانند سیاست، سلامت، علم نیستند.
13:10
Well, now a lot to digest. Please Sam remind us of today's vocabulary.
154
790919
4360
خوب، حالا چیزهای زیادی برای هضم وجود دارد. لطفا سام واژگان امروز را به ما یادآوری کند.
13:15
Of course.
155
795480
760
البته.
13:16
So to start with, there are some phrasal and multi-word verbs.
156
796320
5109
بنابراین برای شروع، چند افعال عبارتی و چند کلمه ای وجود دارد.
13:22
To 'fall for someone' means 'to fall in love'
157
802110
3279
"عاشق شدن" به معنای "عاشق شدن" است،
13:25
but to 'fall for something' means you believed something that wasn't true.
158
805990
5560
اما "عاشق شدن" به این معنی است که چیزی را باور کردید که حقیقت نداشت.
13:31
And if you completely believed it without any doubts, you fell for it 'hook line and sinker'.
159
811870
8720
و اگر کاملاً بدون هیچ شکی به آن باور داشتید ، به "خط قلاب و سینکر" آن افتادید.
13:40
The verbs 'to be taken in by' or 'caught out by' something also mean that you believed something that wasn't true
160
820750
7950
افعال 'to be taken in by' یا 'catch out by' چیزی نیز به این معنی است که شما چیزی را باور کرده اید که درست نیست،
13:49
but these are generally used in the passive if you are talking about the victim.
161
829000
5399
اما اگر در مورد قربانی صحبت می کنید، این افعال عموماً در مفعول استفاده می شوند .
13:55
A 'delicate task' is a difficult job that needs to be done carefully with politeness and sensitivity.
162
835750
7259
"کار ظریف" کار دشواری است که باید با دقت و ادب و حساسیت انجام شود.
14:04
And 'empathy' is understanding other people's feelings and experiences.
163
844330
4820
و "همدلی" درک احساسات و تجربیات دیگران است.
14:10
Thank you Sam.
164
850450
849
ممنون سام
14:11
Now the Internet and social media are fantastic resources of information
165
851379
3450
اکنون اینترنت و رسانه های اجتماعی منابع اطلاعاتی فوق العاده
14:15
and great tools for keeping in touch with family and friends.
166
855220
2610
و ابزارهای عالی برای حفظ ارتباط با خانواده و دوستان هستند.
14:17
But because they make communication so easy, it makes communication of fake news and disinformation so easy too.
167
857919
7181
اما از آنجایی که آنها ارتباط را بسیار آسان می کنند، ارتباط اخبار جعلی و اطلاعات نادرست را نیز بسیار آسان می کند.
14:25
As this is the last programme in the series, I wonder if you have any final thoughts Sam.
168
865180
3900
از آنجایی که این آخرین برنامه در این مجموعه است، نمی‌دانم آیا نظر نهایی را دارید سام.
14:30
Yes I do. So one of the things that struck me was how long fake news has been around but also
169
870350
6829
بله انجام می دهم. بنابراین یکی از چیزهایی که مرا شگفت زده کرد این بود که اخبار جعلی از چه زمانی در اطراف وجود داشته است، اما همچنین
14:37
that fake news only spreads if it is shared.
170
877259
3491
اخبار جعلی تنها در صورتی پخش می شود که به اشتراک گذاشته شود.
14:41
And the one thing we've heard again and again in this series is
171
881259
4081
و تنها چیزی که بارها و بارها در این سریال شنیده ایم این است که
14:45
always to think very carefully before sharing something.
172
885490
4690
همیشه قبل از به اشتراک گذاشتن چیزی با دقت فکر کنیم.
14:50
Don't take everything you see on the Internet at face value but be vigilant, be sceptical, be aware of your own biases
173
890320
9210
همه چیزهایی را که در اینترنت می بینید به صورت واقعی نگیرید، اما مراقب باشید، بدبین باشید، از تعصبات خود آگاه باشید
14:59
and research anything that raises a red flag.
174
899950
4189
و در مورد هر چیزی که پرچم قرمز را بالا می برد تحقیق کنید.
15:04
How about you Hugo?
175
904220
620
هوگو تو چطور؟
15:05
Yeah absolutely. I think that's why we all have a role to play.
176
905110
3179
بله کاملا. فکر می کنم به همین دلیل است که همه ما باید نقشی را ایفا کنیم. چیزهای
15:08
There's so much out there that's not true that it's vital for all of us to share responsibly.
177
908370
5729
زیادی در بیرون وجود دارد که درست نیست که برای همه ما حیاتی است که مسئولانه آن را به اشتراک بگذاریم.
15:14
Well that's all from us today and from this series.
178
914559
2641
خوب این همه از ما امروز و از این سریال است. از
15:17
It's been a pleasure to have your company and Sam, thank you!
179
917280
2830
همراهی شما و سام خوشحالم، متشکرم!
15:20
And thank you to Hugo it really has been a pleasure.
180
920919
3001
و از هوگو سپاسگزارم، واقعاً باعث خوشحالی بود.
15:24
Goodbye.
181
924129
900
خداحافظ.
15:25
Goodbye.
182
925200
500
خداحافظ.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7