Fake News: Fact & Fiction - Episode 6: How to be a critical thinker

134,607 views ・ 2023-10-17

BBC Learning English


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید. زیرنویس های ترجمه شده به صورت ماشینی ترجمه می شوند.

00:06
Hi, I'm Hugo.
0
6209
840
سلام، من هوگو هستم.
00:07
And I'm Sam.
1
7549
761
و من سام هستم.
00:08
And this is Fake News: Fact and Fiction from BBC Learning English.
2
8609
3000
و این هم Fake News: Fact and Fiction از BBC Learning English.
00:11
In the programme today
3
11859
1041
در برنامه امروز
00:12
we look at the topic of critical thinking with our special guest Dr Steven Novella.
4
12980
5199
با مهمان ویژه خود دکتر استیون نوولا به موضوع تفکر انتقادی نگاه می کنیم. این
00:18
Being able to evaluate the information that we have access to critically
5
18259
3010
که بتوانیم اطلاعاتی را که به طور انتقادی به آنها دسترسی داریم ارزیابی کنیم،
00:21
is now probably the most important skill any individual can have.
6
21349
4151
احتمالاً مهم ترین مهارتی است که هر فردی می تواند داشته باشد.
00:25
Hear more from Dr Novella later.
7
25579
2470
بعداً از دکتر نوولا بیشتر بشنوید.
00:28
First, Sam, do have some vocabulary for us?
8
28129
2351
اول سام، آیا واژگانی برای ما دارید؟
00:30
Yes I do.
9
30899
741
بله انجام می دهم.
00:31
So, today I'm going to be talking about: spin, cherry-picking, bias
10
31719
6650
بنابراین، امروز قرار است در مورد: چرخش، چیدن گیلاس، تعصب
00:38
and the phrase 'critical thinking' itself. Let's have a look.
11
38880
3950
و خود عبارت «تفکر انتقادی» صحبت کنم. بیایید نگاهی بیندازیم.
00:47
See that
12
47170
869
ببینید این
00:50
It's a ball.
13
50530
600
یک توپ است.
00:51
To turn it quickly is to spin it.
14
51789
3260
چرخاندن سریع آن چرخاندن آن است.
00:55
Now if we put the truth on this ball then spin it, can you still see the truth?
15
55149
5820
حالا اگر حقیقت را روی این توپ بگذاریم و سپس آن را بچرخانیم، آیا باز هم می توانید حقیقت را ببینید؟
01:01
It's still there somewhere but difficult to see clearly.
16
61490
4440
هنوز در جایی وجود دارد، اما دیدن واضح آن دشوار است.
01:06
Spin makes the truth difficult to see.
17
66010
2960
چرخش دیدن حقیقت را دشوار می کند.
01:09
And this is a bit like political spin, a term first used in the 1970s
18
69219
5640
و این کمی شبیه چرخش سیاسی است، اصطلاحی که اولین بار در دهه 1970
01:14
to talk about the way politicians and their spokespeople present information.
19
74939
5050
برای صحبت در مورد نحوه ارائه اطلاعات توسط سیاستمداران و سخنگویان آنها استفاده شد.
01:20
They will present information in a way that makes things seem as positive as possible
20
80709
5730
آنها اطلاعات را به گونه ای ارائه می کنند که همه چیز را تا حد امکان مثبت جلوه دهد
01:26
without always telling you the whole truth or the whole context.
21
86859
4430
بدون اینکه همیشه تمام حقیقت یا کل زمینه را به شما بگوید.
01:31
They might highlight the most positive details
22
91450
2640
آنها ممکن است مثبت ترین جزئیات را برجسته کنند،
01:34
but ignore the other details that don't make them look quite as good.
23
94170
4920
اما جزئیات دیگری را که آنها را به خوبی ظاهر نمی کند نادیده می گیرند.
01:39
Selecting which facts are chosen to publicise is known as 'cherry-picking'
24
99170
4549
انتخاب حقایقی که برای انتشار عمومی انتخاب می‌شوند به عنوان «چیدن گیلاس» شناخته می‌شود
01:44
and it often doesn't give a full or accurate picture of the whole story.
25
104379
5181
و اغلب تصویر کامل یا دقیقی از کل داستان به دست نمی‌دهد.
01:49
And it's not just politicians, of all sides, who do this.
26
109750
3500
و این فقط سیاستمداران از همه طرف نیستند که این کار را انجام می دهند.
01:53
It happens in the media too, mainstream and social media,
27
113329
3711
در رسانه‌ها، جریان اصلی و رسانه‌های اجتماعی نیز اتفاق می‌افتد،
01:57
and very often we do it ourselves.
28
117120
3009
و اغلب ما خودمان آن را انجام می‌دهیم.
02:00
To explain why, I'm going to need another ball,
29
120430
3270
برای توضیح اینکه چرا، من به یک توپ دیگر نیاز دارم،
02:03
like a bowling ball.
30
123849
1741
مانند یک توپ بولینگ.
02:06
Bowling balls don't roll straight.
31
126519
2610
توپ های بولینگ مستقیم نمی غلتند.
02:09
They curve to the left or right when they're rolled.
32
129370
3479
آنها هنگام چرخاندن به سمت چپ یا راست خم می شوند.
02:12
One reason for this is that their weight is not centred.
33
132939
3780
یکی از دلایل این امر این است که وزن آنها متمرکز نیست.
02:16
They have what is called a bias.
34
136800
2440
آنها چیزی به نام سوگیری دارند.
02:19
Bias is the same word we use to describe an opinion that is not impartial.
35
139930
6359
تعصب همان کلمه ای است که برای توصیف عقیده ای استفاده می کنیم که بی طرفانه نیست.
02:26
One that is not based fairly on facts but which may turn one way or another
36
146370
5319
چیزی که به طور منصفانه بر حقایق مبتنی نیست، اما ممکن است
02:31
because of personal feelings, political preferences or ideology.
37
151770
5280
به دلیل احساسات شخصی، ترجیحات سیاسی یا ایدئولوژی، به یک سمت و سوی دیگر برگردد.
02:37
So we might disagree with someone and think that they're wrong
38
157270
3059
بنابراین ممکن است با کسی مخالف باشیم و فکر کنیم که او اشتباه می کند
02:40
not because of evidence or facts
39
160840
1949
نه به دلیل شواهد یا حقایق،
02:42
but just because they have a different way of looking at the world than we do.
40
162870
4640
بلکه فقط به این دلیل که نگاه متفاوتی نسبت به ما به جهان دارد.
02:47
And when it comes to the spread of fake news
41
167639
2710
و وقتی صحبت از انتشار اخبار جعلی می شود
02:50
something called 'confirmation bias' is incredibly important.
42
170620
4329
چیزی به نام "سوگیری تایید" بسیار مهم است.
02:55
This is when we ignore or dismiss anything that doesn't support our own beliefs
43
175659
4890
این زمانی است که ما هر چیزی را که از اعتقادات ما پشتیبانی نمی کند نادیده می گیریم یا آن را رد می کنیم
03:00
and only pay attention to information that confirms the views we already have.
44
180909
5560
و فقط به اطلاعاتی توجه می کنیم که نظرات ما را تأیید می کند.
03:06
We like to read and see opinions that reflect our own beliefs.
45
186550
4079
ما دوست داریم نظراتی را بخوانیم و ببینیم که منعکس کننده باورهای ما هستند.
03:10
We might want to share something that we really agree with, something that
46
190710
3310
ممکن است بخواهیم چیزی را به اشتراک بگذاریم که واقعاً با آن موافقیم، چیزی که
03:14
makes us really angry or upset and not stop to think whether it's actually true.
47
194100
6309
ما را واقعاً عصبانی یا ناراحت می کند و به این فکر نکنیم که آیا واقعاً درست است یا خیر.
03:20
The challenge is to be open to trying to understand opinions that are different from our own
48
200490
6489
چالش این است که برای درک نظراتی که متفاوت از نظرات خودمان هستند، آماده باشیم
03:27
and not ignore any evidence that doesn't confirm our own view.
49
207460
4790
و هیچ مدرکی را که دیدگاه ما را تأیید نمی کند نادیده نگیریم.
03:32
This is where critical thinking becomes very important.
50
212330
3930
اینجاست که تفکر انتقادی اهمیت زیادی پیدا می کند.
03:36
The skill of looking at information objectively and impartially
51
216340
4379
مهارت نگاه عینی و بی طرفانه به اطلاعات
03:41
and trying not to be persuaded by our own biases.
52
221259
3241
و تلاش برای متقاعد نشدن توسط تعصبات خودمان.
03:44
So that was my balanced spin on spin and now back to the studio.
53
224889
4851
بنابراین این چرخش متعادل من در چرخش بود و اکنون به استودیو برگشتم.
03:52
Thanks Sam.
54
232949
621
ممنون سام
03:53
I may be biased but I thought it was really interesting.
55
233669
2361
ممکن است تعصب داشته باشم اما فکر کردم واقعا جالب بود.
03:56
And it takes us nicely into our topic today.
56
236110
2960
و ما را به خوبی وارد موضوع امروزمان می کند.
03:59
Critical thinking.
57
239150
1000
تفکر انتقادی.
04:00
Why is this something that is important when it comes to fake news?
58
240539
2970
چرا این چیزی است که در مورد اخبار جعلی مهم است؟ بله،
04:04
Yeah well one of the ways that news spreads is when it's shared
59
244039
3760
یکی از راه‌هایی که اخبار منتشر می‌شود زمانی است که به اشتراک گذاشته می‌شود
04:08
and if it's fake news, that can be a problem.
60
248250
2909
و اگر اخبار جعلی باشد، می‌تواند مشکل ساز باشد.
04:11
Thinking critically is a bit like social distancing for fake news.
61
251669
5270
تفکر انتقادی کمی شبیه فاصله گذاری اجتماعی برای اخبار جعلی است.
04:17
If we know how to spot fake news, we are less likely to spread it.
62
257160
4560
اگر بدانیم چگونه اخبار جعلی را شناسایی کنیم، احتمال انتشار آن کمتر است.
04:21
And in order to spot fake news you have to be a little bit of a sceptic
63
261899
3751
و برای تشخیص اخبار جعلی باید کمی شک و تردید داشته باشید
04:25
and not believe everything you read on the Internet.
64
265769
2811
و هر چیزی را که در اینترنت می خوانید باور نکنید.
04:28
So what does it mean to be a sceptic?
65
268660
1909
پس شکاک بودن به چه معناست؟ بیایید
04:30
Let's turn to our guest today Dr Steven Novella.
66
270750
3329
به مهمان امروزمان دکتر استیون نوولا برویم.
04:34
Dr Novella is a clinical neurologist at Yale University.
67
274529
3980
دکتر نوولا یک متخصص مغز و اعصاب بالینی در دانشگاه ییل است.
04:38
He's a science communicator who presents a weekly podcast called
68
278589
3260
او یک ارتباط علمی است که یک پادکست هفتگی به نام
04:42
"The Skeptics' Guide to the Universe" and he's also written a book with the same name.
69
282089
4211
"راهنمای شکاکان به جهان" ارائه می دهد و همچنین کتابی با همین نام نوشته است.
04:46
We spoke to him earlier and first asked him about what being sceptic means
70
286379
4741
ما قبلاً با او صحبت کردیم و ابتدا از او پرسیدیم که شکاک بودن به چه معناست
04:51
and why he believes it's important.
71
291360
2039
و چرا فکر می کند این مهم است.
04:54
A sceptic is somebody that wants to believe only things that are actually true.
72
294209
5880
شکاک کسی است که می خواهد فقط چیزهایی را باور کند که واقعاً واقعی هستند.
05:00
We want to use facts logic and evidence to base our beliefs on.
73
300169
3310
ما می خواهیم از منطق حقایق و شواهد برای پایه گذاری باورهای خود استفاده کنیم.
05:03
Now the opposite of being a sceptic is being gullible
74
303889
3731
حالا نقطه مقابل شکاک بودن، ساده لوح بودن است
05:07
and I don't think anybody would want, would self-identify as gullible or want to be gullible.
75
307699
6130
و فکر نمی کنم کسی بخواهد، خود را ساده لوح معرفی کند یا بخواهد ساده لوح باشد.
05:14
But you know we're advocating scientific scepticism,
76
314029
3611
اما می دانید که ما از شک و تردید علمی حمایت می کنیم، از
05:18
using a formal method, using a process to evaluate the information that we encounter.
77
318209
7401
یک روش رسمی استفاده می کنیم، و از فرآیندی برای ارزیابی اطلاعاتی که با آن مواجه می شویم استفاده می کنیم.
05:25
We're deluged with information, we have to filter it somehow.
78
325709
3581
ما غرق در اطلاعات هستیم، باید به نحوی آن را فیلتر کنیم.
05:29
We have to figure, have some way of figuring out what's likely to be true and what's not true.
79
329370
3600
ما باید بفهمیم، راهی داشته باشیم تا بفهمیم چه چیزی ممکن است درست باشد و چه چیزی درست نیست.
05:33
If someone's trying to deceive me; if someone is trying to sell me something;
80
333050
3219
اگر کسی می خواهد مرا فریب دهد؛ اگر کسی می خواهد چیزی را به من بفروشد.
05:36
if someone else has been deceived and they're trying to pass that along to me;
81
336629
3241
اگر شخص دیگری فریب خورده باشد و سعی کند آن را به من منتقل کند.
05:40
if the government is trying to maintain some fiction to maintain control.
82
340259
3691
اگر دولت سعی می کند برخی از داستان ها را برای حفظ کنترل حفظ کند.
05:44
I mean it's all sorts of reasons why people would give me information that's not correct
83
344030
4960
منظورم این است که این همه دلایلی است که چرا مردم اطلاعاتی را به من می دهند که صحیح نیست
05:49
or that's biased or that's inaccurate.
84
349069
1950
یا مغرضانه یا نادرست است.
05:51
And sometimes people just make honest mistakes.
85
351149
1860
و گاهی اوقات مردم فقط اشتباهات صادقانه انجام می دهند.
05:53
We're flawed. Our brains are flawed, our memories are terrible.
86
353129
2931
ما نقص داریم مغز ما معیوب است، خاطرات ما وحشتناک است.
05:56
We sort of construct an approximation of reality as best we can but
87
356160
3390
ما تا جایی که می توانیم یک تقریب از واقعیت می سازیم، اما
05:59
it's never totally accurate.
88
359629
1531
هرگز کاملاً دقیق نیست.
06:01
And we have to be aware of all those biases and flaws.
89
361470
3210
و ما باید از تمام آن سوگیری ها و عیوب آگاه باشیم.
06:05
Well good to hear Dr Novella using one of your vocabulary words there, Sam, bias.
90
365189
4650
خوب است که می شنویم دکتر Novella از یکی از کلمات واژگان شما استفاده می کند، Sam, bias.
06:10
But did you pick out any other interesting words there?
91
370170
2670
اما آیا کلمات جالب دیگری را در آنجا انتخاب کردید؟
06:13
Yeah, so the word 'gullible' is interesting.
92
373199
3490
بله، پس کلمه " ساده لوح " جالب است.
06:16
We use this word for someone who is willing to believe things without questioning.
93
376829
5330
ما این کلمه را برای کسی به کار می بریم که می خواهد چیزها را بدون سوال باور کند.
06:22
It makes them really easy to trick.
94
382239
2090
فریب دادن آنها را واقعا آسان می کند.
06:24
So, I remember when I was at school a teacher told me that the word gullible
95
384409
5261
بنابراین، به یاد دارم وقتی در مدرسه بودم، معلمی به من گفت که کلمه ساده لوح
06:29
wasn't in the dictionary.
96
389850
2099
در فرهنگ لغت وجود ندارد.
06:32
Did you believe them?
97
392029
1000
آیا آنها را باور کردید؟
06:33
Well I thought about it for a second because it was a teacher who told me
98
393779
3540
خوب من یک لحظه در مورد آن فکر کردم زیرا یک معلم بود که به من گفت
06:37
and I trusted them and then I was going to tell my friends because
99
397399
3430
و من به آنها اعتماد کردم و سپس می خواستم به دوستانم بگویم زیرا
06:40
I thought it was interesting but I thought I should probably check it out first.
100
400909
3901
فکر می کردم جالب بود اما فکر کردم احتمالاً ابتدا باید آن را بررسی کنم.
06:44
And of course the word was in the dictionary.
101
404889
3081
و البته این کلمه در فرهنگ لغت بود.
06:48
So being a sceptic and a critical thinker means not believing everything
102
408420
5039
بنابراین شکاک و متفکر انتقادی بودن به این معنی است که هر چیزی را که
06:53
you see or hear, not liking and sharing somethingeven if we agree with it
103
413539
5560
می‌بینید یا می‌شنوید باور نکنید، چیزی را دوست نداشته باشید و به اشتراک نگذارید، حتی اگر با آن موافق باشیم
06:59
or it feels right to us until we have evidence to support it.
104
419189
4700
یا به نظرمان درست باشد، تا زمانی که مدرکی برای تأیید آن داشته باشیم.
07:04
It may not be important whether a word is a dictionary or not but it
105
424110
3990
شاید مهم نباشد که یک کلمه فرهنگ لغت است یا نه، اما
07:08
is when thinking about the areas of science, health and politics.
106
428180
5090
وقتی به حوزه های علمی، بهداشتی و سیاسی فکر می کنیم مهم است.
07:13
It does take a little bit of an effort.
107
433350
1789
کمی تلاش می خواهد.
07:15
It's easy to check a dictionary to see if a word is in there
108
435219
3791
بررسی یک فرهنگ لغت برای دیدن اینکه آیا کلمه ای در آن وجود دارد آسان است،
07:19
but it is more difficult with more complex issues.
109
439199
2760
اما با مسائل پیچیده تر دشوارتر است.
07:22
So how do we start with this?
110
442039
1571
پس چگونه با این شروع کنیم؟
07:23
Here's Dr Novella again.
111
443689
1510
اینجا دوباره دکتر نولا است.
07:26
So whenever I come across a question or a topic that I want to wrap my head around,
112
446339
4891
بنابراین هر زمان که به سؤال یا موضوعی برخوردم که می‌خواهم سرم را به آن بپیچم،
07:31
I make sure that I look for, specifically look for information on all sides.
113
451649
5690
مطمئن می‌شوم که به دنبال آن هستم، مخصوصاً به دنبال اطلاعات از همه طرف هستم.
07:37
There may be more than two sides but all what I think are at least viable opinions.
114
457419
4951
ممکن است بیش از دو طرف وجود داشته باشد، اما همه آنچه من فکر می کنم حداقل نظرات قابل قبولی است.
07:42
If there is any large group of people or respected professionals
115
462810
3060
اگر گروه بزرگی از افراد یا متخصصان محترم
07:45
or whatever who are saying something,
116
465949
1421
یا هر چیز دیگری هستند که چیزی می گویند،
07:47
I want to at least understand what their point is, what is their side.
117
467449
3861
حداقل می خواهم بفهمم منظور آنها چیست، طرف آنها چیست.
07:51
And until you sort of sort through the back and forth of different arguments,
118
471389
4681
و تا زمانی که استدلال‌های مختلف را به‌گونه‌ای مرتب نکنید،
07:56
you don't really have a good sense of who has the better position.
119
476399
4141
واقعاً درک خوبی از اینکه چه کسی موقعیت بهتری دارد، ندارید.
08:00
And if I follow a good process, I look for as many differing opinions as I can,
120
480620
5079
و اگر روند خوبی را دنبال کنم، تا جایی که می‌توانم به دنبال نظرات متفاوت می‌گردم،
08:06
keep a genuinely open mind, don't prejudge the conclusion and then see,
121
486329
4560
ذهنی کاملاً باز نگه می‌دارم، نتیجه‌گیری را پیش داوری نکنم و سپس می‌بینم،
08:10
'Ok who has the better evidence'.
122
490969
1680
"خوب چه کسی شواهد بهتری دارد".
08:12
And when you do that habitually, you do that all the time, you get pretty good at it,
123
492750
4769
و وقتی این کار را از روی عادت انجام می‌دهید، همیشه آن را انجام می‌دهید، در آن بسیار خوب می‌شوید،
08:17
just like anything, you do it all the time and you'll get better at it.
124
497599
2261
درست مثل هر کاری، همیشه آن را انجام می‌دهید و در آن بهتر خواهید شد.
08:19
It still takes work to wrap your head around any complex issue but you
125
499939
4150
هنوز هم نیاز به کار دارد تا سر خود را در مورد هر موضوع پیچیده ای بپیچانید، اما
08:24
have a fighting chance if you do that process.
126
504169
2351
اگر این روند را انجام دهید، شانس مبارزه دارید. به
08:27
It seems to have some similarity with what journalists do,
127
507779
2761
نظر می رسد شباهت هایی با آنچه روزنامه نگاران انجام می دهند،
08:30
looking for different sources and analysing the evidence.
128
510720
3820
به دنبال منابع مختلف و تجزیه و تحلیل شواهد است.
08:34
And it's important to look not only at different sources but also
129
514769
4471
و مهم است که نه تنها به منابع مختلف بلکه
08:39
at different points of view.
130
519320
1920
به دیدگاه های مختلف نیز توجه کنید.
08:41
Of course this isn't something you need to do for everything.
131
521320
3160
البته این چیزی نیست که برای همه چیز لازم است انجام دهید.
08:44
Some things are easy to check and some things are not that controversial.
132
524560
3770
بررسی برخی چیزها آسان است و برخی چیزها چندان بحث برانگیز نیستند.
08:48
But when it comes to science, medicine and health, for example,
133
528410
3219
اما وقتی صحبت از علم، پزشکی و سلامت به میان می‌آید، برای مثال،
08:51
there are many claims that we might like to believe but which may not be accurate.
134
531870
4299
ادعاهای زیادی وجود دارد که ممکن است دوست داشته باشیم آنها را باور کنیم، اما ممکن است دقیق نباشند.
08:56
So it's a good idea to develop some of those research skills
135
536250
2950
بنابراین، اگر می خواهید یک متفکر انتقادی باشید، ایده خوبی است که برخی از این مهارت های پژوهشی را توسعه دهید
08:59
if you want to be a critical thinker.
136
539280
2160
.
09:01
This is something that Dr Novella thinks is essential for students and adults to develop
137
541520
4900
این چیزی است که دکتر Novella فکر می کند برای دانش آموزان و بزرگسالان ضروری است،
09:06
but it's not the only thing.
138
546500
1810
اما این تنها چیز نیست.
09:08
So here's a look at what else he thinks is important.
139
548390
3259
بنابراین در اینجا نگاهی به چیزهای دیگری که او فکر می کند مهم است می بینیم.
09:11
I do think that we need to teach critical thinking as a core skill set to all,
140
551740
5069
من فکر می کنم که ما باید تفکر انتقادی را به عنوان یک مهارت اصلی به همه،
09:16
all children and adults and what's called media literacy.
141
556929
3811
همه کودکان و بزرگسالان و آنچه سواد رسانه ای نامیده می شود، آموزش دهیم.
09:20
I think media literacy is more important than it ever was.
142
560820
3420
من فکر می کنم سواد رسانه ای مهم تر از همیشه است.
09:24
It's only going to get even more important so people need
143
564320
3260
این موضوع حتی اهمیت بیشتری پیدا خواهد کرد، بنابراین مردم باید
09:27
to understand not just scientific literacy but critical thinking and media literacy.
144
567660
5179
نه تنها سواد علمی، بلکه تفکر انتقادی و سواد رسانه ای را درک کنند.
09:32
That is the currency now of the modern world.
145
572919
3140
این واحد پول کنونی دنیای مدرن است.
09:36
We all have access to massive amounts of information.
146
576139
3170
همه ما به حجم عظیمی از اطلاعات دسترسی داریم.
09:39
I mean it's unbelievable when you think about it,
147
579389
1781
منظورم این است که وقتی به آن فکر می‌کنید باور کردنی نیست،
09:41
at the touch of your fingers you have access to the collective knowledge of humanity.
148
581870
5569
با لمس انگشتانتان به دانش جمعی بشریت دسترسی دارید.
09:47
It's amazing.
149
587519
1510
این شگفت انگیز است.
09:49
And so the real currency is in being able to find the information
150
589110
5140
بنابراین، ارز واقعی این است که بتوانید اطلاعات
09:54
that you want and evaluate it critically.
151
594330
2740
مورد نظر خود را پیدا کنید و آن را به طور انتقادی ارزیابی کنید. این
09:57
Being able to evaluate the information that we have access to critically
152
597150
3040
که بتوانیم اطلاعاتی را که به طور انتقادی به آنها دسترسی داریم ارزیابی کنیم،
10:00
is now probably the most important skill any individual can have.
153
600270
4530
احتمالاً مهم ترین مهارتی است که هر فردی می تواند داشته باشد.
10:04
And that's what now I think the science communicators
154
604899
3541
و این همان چیزی است که اکنون من فکر می کنم که ارتباطات علم
10:08
are shifting towards.
155
608919
1501
به سمت آن سوق می یابند.
10:10
That's what we have to teach people.
156
610500
1210
این چیزی است که ما باید به مردم بیاموزیم.
10:11
They can find the facts online.
157
611790
2040
آنها می توانند حقایق را به صورت آنلاین پیدا کنند.
10:13
We need to teach them how to know it when they find it.
158
613910
2540
ما باید به آنها یاد بدهیم که وقتی آن را پیدا کردند چگونه آن را بشناسند.
10:17
So, Sam, as well as critical thinking, what else does Dr Novella think is an essential skill?
159
617730
4689
بنابراین، سام، و همچنین تفکر انتقادی، دکتر نوولا چه مهارت دیگری را یک مهارت ضروری می‌داند؟
10:23
That would be 'media literacy' which is an understanding of how the media
160
623169
5250
این «سواد رسانه ای» است که درک نحوه عملکرد رسانه ها
10:28
and social media works and how it's being used for good and for bad.
161
628500
5740
و رسانه های اجتماعی و نحوه استفاده از آن برای خوب و بد است.
10:34
And it's also about being aware of where you get your information from,
162
634320
3430
و همچنین آگاهی از اینکه اطلاعات خود را از کجا به دست می آورید،
10:37
people on social media, blogs and websites you follow.
163
637830
3759
افراد در رسانه های اجتماعی، وبلاگ ها و وب سایت هایی که دنبال می کنید.
10:42
So, Sam, can you just please recap today's vocabulary for us.
164
642269
2890
بنابراین، سام، می‌توانی فقط واژگان امروز را برای ما خلاصه کنی.
10:45
Absolutely.
165
645580
629
کاملا.
10:46
So we started off with 'spin'
166
646289
1931
بنابراین ما با "چرخش" شروع کردیم
10:48
which is a way to present information in a positive way, as positive as possible,
167
648669
5521
که راهی برای ارائه اطلاعات به روشی مثبت و تا حد امکان مثبت است،
10:54
even if it's not actually particularly good news.
168
654610
3949
حتی اگر واقعاً خبر خوبی نباشد.
10:58
Cherry-picking details is to choose only the information
169
658639
3921
جزئیات چیدن گیلاس این است که فقط اطلاعاتی را انتخاب کنید
11:02
that agrees with your views and ignore any inconvenient facts.
170
662640
4329
که با نظرات شما مطابقت دارد و هر واقعیت ناخوشایند را نادیده بگیرید.
11:07
A bias is a belief that something is good or bad which isn't based
171
667049
4930
سوگیری اعتقاد به خوب یا بد بودن چیزی است که مبتنی
11:12
on evidence but is based on prejudices or our own beliefs and our own ideology.
172
672059
6181
بر شواهد نیست، بلکه بر اساس پیش داوری ها یا باورهای خود و ایدئولوژی خودمان است.
11:18
Critical thinking is the skill of evaluating and judging
173
678320
3739
تفکر انتقادی مهارت ارزیابی و قضاوت
11:22
how accurate something is objectively, without bias, without spin,
174
682139
5170
دقیق بودن چیزی به طور عینی، بدون تعصب، بدون چرخش
11:27
and without cherry picking data.
175
687700
2760
و بدون داده‌های چیدن گیلاس است.
11:30
A sceptic is someone who wants to use logic and evidence
176
690549
3660
شکاک کسی است که می خواهد از منطق و شواهد استفاده کند
11:34
and not emotion when judging how accurate something is.
177
694330
4860
و نه از احساسات هنگام قضاوت در مورد درستی چیزی.
11:39
The adjective 'gullible' is used for people who aren't sceptical,
178
699270
3789
صفت ساده لوح برای افرادی استفاده می شود که بدبین نیستند و به
11:43
who easily believe what they're told and what they read.
179
703299
4091
راحتی آنچه را که به آنها گفته می شود و آنچه می خوانند باور می کنند.
11:47
And finally, media literacy is an awareness of our modern media environment
180
707470
5189
و در نهایت، سواد رسانه ای آگاهی از محیط رسانه ای مدرن ما
11:53
and an understanding of how
181
713019
1380
و درک نحوه
11:54
media and social media works and
182
714480
2559
عملکرد رسانه ها و رسانه های اجتماعی و
11:57
how fake news and disinformation can spread.
183
717120
3779
نحوه انتشار اخبار جعلی و اطلاعات نادرست است.
12:00
Thank you very much Sam, I think you deserve a rest after that.
184
720980
3209
خیلی ممنون سام، فکر می کنم پس از آن شما مستحق استراحت هستید.
12:04
And thank you for watching.
185
724269
1651
و ممنون از تماشای شما
12:06
Until next time, goodbye.
186
726250
1460
تا دفعه بعد خداحافظ
12:07
Bye.
187
727940
500
خدا حافظ.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7