Fake News: Fact & Fiction - Episode 3: Information or disinformation?

98,660 views ・ 2020-08-23

BBC Learning English


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید. زیرنویس های ترجمه شده به صورت ماشینی ترجمه می شوند.

00:06
Hello this is Fake News: Fact and Fiction
0
6800
2240
سلام این خبر جعلی است: واقعیت و تخیل
00:09
from BBC Learning English. I'm Hugo and
1
9045
2135
از بی بی سی آموزش زبان انگلیسی. من هوگو هستم و
00:11
I'm Sam. In the program today we'll hear
2
11190
2046
سام هستم. در برنامه امروز ما
00:13
from expert
3
13236
563
00:13
Samantha Bradshaw on the dangers of
4
13799
1838
از کارشناس
سامانتا برادشاو در مورد خطرات
00:15
fake news, and I'll be giving you some
5
15637
1943
اخبار جعلی می شنویم، و من
00:17
information about information.
6
17580
2240
اطلاعاتی در مورد اطلاعات به شما خواهم داد.
00:19
We will also
7
19820
1000
ما همچنین
00:20
hear a story about what
8
20820
1080
داستانی خواهیم شنید که چه
00:21
happened when fake
9
21900
1360
اتفاقی افتاده است که
00:23
news was spread in a small town in
10
23260
1740
اخبار جعلی در یک شهر کوچک در
00:25
Mexico. Now Sam how are you today? I'm
11
25016
2644
مکزیک منتشر شد. حالا سام امروز چطوری؟ من
00:27
fine thanks Hugo, how are you? I am very
12
27660
1910
خوبم ممنون هوگو، تو چطوری؟ حال من خیلی
00:29
well and I'm looking forward to your
13
29570
1719
خوب است و
00:31
vocabulary slot later. Okay, I am
14
31289
2875
بعداً منتظر واژگان شما هستم. بسیار خوب،
00:34
today going to be talking about the word
15
34164
3485
امروز قرار است در مورد کلمه اطلاعات صحبت کنم
00:37
information. I can hardly wait. Yeah I
16
37649
2192
. به سختی میتوانم صبر کنم. بله،
00:39
think that might be fake sincerity there
17
39841
2308
فکر می‌کنم این ممکن است یک صداقت دروغین باشد
00:42
- no honestly I'm really looking forward
18
42149
1666
- نه صادقانه، من واقعاً مشتاقانه
00:43
to it - okay, okay well we'll see if you
19
43815
1665
منتظر آن هستم - بسیار خوب، خوب، پس خواهیم دید که آیا شما
00:45
feel the same way afterwards. Here is
20
45480
1879
هم همین احساس را دارید یا خیر. در اینجا
00:47
everything you could ever want to know
21
47359
1930
همه چیزهایی است که می‌توانید
00:49
about the word information, maybe not
22
49289
2197
درباره کلمه اطلاعات بدانید، شاید نه
00:51
everything but as much as I could fit in.
23
51486
2434
همه چیز، اما تا آنجایی که من می‌توانم در آن جا بیاورم.
00:58
What is information? Information is
24
58380
3159
اطلاعات چیست؟ اطلاعات
01:01
knowledge, it's facts and details about a
25
61539
3701
دانش است، حقایق و جزئیات در مورد یک
01:05
particular subject.
26
65250
1619
موضوع خاص.
01:06
Grammatically information is an
27
66869
2641
از نظر دستوری اطلاعات یک
01:09
uncountable noun so we talk about bits
28
69510
3716
اسم غیرقابل شمارش است، بنابراین ما در مورد
01:13
of information or pieces of information
29
73226
3814
تکه‌های اطلاعات یا تکه‌های اطلاعات صحبت می‌کنیم
01:17
but not informations. Information has a
30
77040
3369
اما نه اطلاعات. اطلاعات دارای
01:20
number of very closely related
31
80409
2591
تعدادی تنوع گرامری بسیار نزدیک به هم است
01:23
grammatical variations - the verb to
32
83000
2975
- فعل
01:25
inform is quite formal and means to tell
33
85975
3305
اطلاع دادن کاملا رسمی است و به معنای گفتن
01:29
someone something and the adjective
34
89280
2927
چیزی به کسی است و صفت
01:32
informative is used to describe
35
92207
2592
informative برای توصیف
01:34
information that is useful and
36
94799
2353
اطلاعات مفید و
01:37
interesting. Information also appears in
37
97152
3138
جالب استفاده می شود. اطلاعات همچنین
01:40
at least two initialisms I.T. - information
38
100290
5022
در حداقل دو حرف اولیه I.T ظاهر می شود. -
01:45
technology and F.Y.I. - for your
39
105312
3737
فناوری اطلاعات و F.Y.I. - جهت اطلاع
01:49
information. Information comes from
40
109049
2618
شما اطلاعات از منابع می آید
01:51
sources and there are many different
41
111667
2693
و
01:54
sources of information including TV,
42
114360
2785
منابع اطلاعاتی مختلفی از جمله تلویزیون،
01:57
radio, newspapers, books, magazines, the
43
117145
3095
رادیو، روزنامه ها، کتاب ها، مجلات،
02:00
internet, social media, teachers, friends,
44
120240
2535
اینترنت، رسانه های اجتماعی، معلمان، دوستان،
02:02
colleagues, even overheard conversations
45
122775
2414
همکاران، حتی صحبت های شنیده شده
02:05
on the bus.
46
125189
829
در اتوبوس وجود دارد.
02:06
In fact, wherever we turn there is
47
126018
2562
در واقع، به هر جا مراجعه می کنیم،
02:08
information of one kind or another and
48
128580
2910
اطلاعاتی از نوع یا آن وجود دارد
02:11
not all information is useful
49
131490
2220
و همه اطلاعات مفید
02:13
or appropriate so it's definitely
50
133710
2858
یا مناسب نیستند، بنابراین قطعاً
02:16
possible to have too much information.
51
136568
3292
ممکن است اطلاعات زیادی داشته باشیم.
02:19
In fact that's a phrase
52
139860
1395
در واقع این عبارتی است
02:21
we use when someone
53
141255
1167
که وقتی کسی
02:22
tells us something that is very personal
54
142422
2328
به ما چیزی می گوید که بسیار شخصی است
02:24
and makes us feel a little uncomfortable.
55
144750
2490
و باعث می شود کمی احساس ناراحتی کنیم از آن استفاده می کنیم.
02:27
You haven't changed your underpants in a
56
147240
2430
یک هفته است زیرشلوار را عوض نکردی
02:29
week?! Oh too much information. Too
57
149670
3015
؟! اوه اطلاعات خیلی زیاده اطلاعات بیش از
02:32
much information is another
58
152685
2325
حد یک ابتکار دیگر است
02:35
initialism - T.M.I. When thinking about
59
155010
3640
- T.M.I. وقتی به
02:38
fake news we should be aware that
60
158650
3080
اخبار جعلی فکر می کنیم، باید توجه داشته باشیم که
02:41
information isn't always true and not
61
161730
2498
اطلاعات همیشه درست نیستند و
02:44
all sources of information are reliable
62
164228
2632
همه منابع اطلاعاتی قابل اعتماد
02:46
or accurate. We need to be on the lookout
63
166860
3585
یا دقیق نیستند. ما باید
02:50
for disinformation which is false
64
170445
2885
مراقب اطلاعات نادرست باشیم که اطلاعات نادرستی است که
02:53
information deliberately spread and
65
173330
3402
عمداً منتشر می شود و
02:56
misinformation which is false
66
176732
2818
اطلاعات نادرست که
02:59
information that is accidentally spread
67
179550
2802
اطلاعات نادرستی است که به طور تصادفی منتشر می شود،
03:02
though to be honest these expressions
68
182352
2658
اگرچه صادقانه بگویم این
03:05
are both commonly used for the same
69
185010
2725
عبارات معمولاً برای یک
03:07
thing - fake news. I hope that wasn't T.M.I.
70
187735
3425
چیز استفاده می شوند - اخبار جعلی. امیدوارم T.M.I نبود.
03:11
now F.Y.I. it's back to the studio.
71
191160
3660
اکنون F.Y.I. به استودیو برگشته است
03:17
Thanks, that was very informative. Ah
72
197300
1983
ممنون، خیلی آموزنده بود آه
03:19
Hugo you're very
73
199283
857
هوگو تو خیلی
03:20
good. I try my best. But now our theme of
74
200180
2744
خوبی تمام تلاشم رو میکنم. اما اکنون
03:22
the day is the possible dangers of
75
202924
2276
موضوع روز ما خطرات احتمالی
03:25
sharing fake news. To give us an overview
76
205200
1878
اشتراک‌گذاری اخبار جعلی است. برای ارائه یک مرور کلی
03:27
we're going to hear from Samantha
77
207078
1512
، از سامانتا
03:28
Bradshaw from Oxford University. She's a
78
208590
2293
برادشاو از دانشگاه آکسفورد می شنویم. او یک
03:30
researcher in fake news and
79
210883
1547
محقق در اخبار جعلی و
03:32
disinformation at
80
212440
1249
اطلاعات نادرست در
03:33
the Oxford Internet Institute.
81
213689
2111
موسسه اینترنت آکسفورد است.
03:41
Fake news can have real human
82
221040
1880
اخبار جعلی زمانی که از دنیای آنلاین به دنیای آفلاین سرایت می کند، می تواند عواقب واقعی انسانی
03:43
consequences when it spreads from the
83
223080
2960
داشته باشد،
03:46
online world to the offline world
84
226040
2640
به
03:48
particularly because of the speed at
85
228709
3181
ویژه به دلیل سرعت
03:51
which this disinformation can spread.
86
231890
3270
انتشار این اطلاعات نادرست.
03:55
Often unlike in the past where there are
87
235160
3301
اغلب برخلاف گذشته که
03:58
many checks to the information that was
88
238461
3219
بررسی‌های زیادی بر روی اطلاعاتی که در
04:01
being put out to the public there aren't
89
241680
2512
اختیار عموم قرار می‌گرفت،
04:04
as many checks with
90
244192
500
04:04
social media and viral
91
244692
2138
بررسی می‌شد، بررسی‌های زیادی با
رسانه‌های اجتماعی و
04:06
stories containing fake news or other
92
246830
2906
داستان‌های ویروسی حاوی اخبار جعلی یا سایر
04:09
forms of disinformation have real-life
93
249736
2984
اشکال اطلاعات نادرست عواقب واقعی
04:12
consequences for people. For example, if
94
252720
3302
برای مردم ندارد. به عنوان مثال، اگر
04:16
we look at India or Mexico
95
256022
2147
به هند یا مکزیک نگاه کنیم،
04:18
disinformation and fake news have led to
96
258169
3441
اطلاعات نادرست و اخبار جعلی منجر به
04:21
people actually being killed. If we look
97
261610
3440
کشته شدن مردم شده است. اگر
04:25
at the medical world with vaccines, a lot
98
265050
3010
با واکسن به دنیای پزشکی نگاه کنیم، بسیاری
04:28
of the anti-vacs movement
99
268060
2000
از روایت‌های جنبش ضد واکسن
04:30
narratives and the
100
270060
1920
و
04:31
fake news about vaccinating children
101
271980
2780
اخبار جعلی درباره واکسینه کردن
04:34
have caused real-life children not to
102
274760
2100
کودکان باعث شده است که کودکان واقعی
04:36
get vaccinated and then die of sickness
103
276870
2681
واکسینه نشوند و بعداً بر اثر بیماری بمیرند
04:39
later. So there are real consequences to
104
279551
2749
. بنابراین پیامدهای واقعی برای اخبار جعلی و این شایعات که در فضای مجازی پخش می شوند وجود دارد
04:42
fake news and to these rumors that
105
282300
2394
04:44
spread online.
106
284700
980
.
04:49
So Samantha was talking a
107
289640
1500
بنابراین سامانتا در
04:51
lot about consequences there. Yes some
108
291140
1580
آنجا در مورد عواقب زیادی صحبت می کرد. بله برخی از
04:52
tragic consequences in that case. So
109
292720
2160
عواقب غم انگیز در آن مورد. بنابراین
04:54
consequences are the result of things
110
294900
2405
عواقب ناشی از اتفاقاتی است
04:57
that happen or in the case of
111
297305
1885
که اتفاق می افتد یا در مورد
04:59
vaccinations don't happen and the result
112
299190
2325
واکسیناسیون اتفاق نمی افتد و
05:01
is usually bad. Yeah and she mentioned a
113
301515
2325
نتیجه معمولاً بد است. بله و او به
05:03
story in Mexico when people were killed
114
303840
2040
داستانی در مکزیک اشاره کرد که در آن مردم در
05:05
as a result of fake news and I remember
115
305880
2040
نتیجه اخبار جعلی کشته شدند و من
05:07
that because we covered that story here
116
307920
1940
آن را به خاطر دارم زیرا ما آن داستان را اینجا
05:09
at the BBC. I tracked down one of the
117
309860
1840
در بی بی سی پوشش دادیم. من یکی از
05:11
producers who worked on the story, Reha
118
311700
3229
تهیه‌کنندگانی که روی داستان کار می‌کرد، Reha
05:14
Kansara, to find out more of the details
119
314929
3311
Kansara را دنبال کردم تا جزئیات بیشتری را
05:22
Reha you covered a tragic
120
322120
1605
05:23
story and that
121
323725
899
05:24
was because of fake news.
122
324624
1600
بدانم.
05:26
Tell us about that.
123
326224
1216
در مورد آن به ما بگویید.
05:27
So this is the story about two men who
124
327449
2559
بنابراین این داستان در مورد دو مرد است که
05:30
were murdered for something that they
125
330008
2492
به خاطر کاری که انجام ندادند به قتل رسیدند
05:32
didn't do. These two men, they were going
126
332500
2819
. این دو مرد، آنها
05:35
back home, they stopped over by a school
127
335319
2751
به خانه برمی گشتند، در کنار مدرسه ای توقف
05:38
to take a break.
128
338070
2150
کردند تا استراحت کنند.
05:40
They had loud music on and were resting
129
340220
1580
آن‌ها موسیقی بلند داشتند و در ماشینشان استراحت
05:41
in their car but someone at the school
130
341800
2781
می‌کردند، اما یک نفر در
05:44
got suspicious and so
131
344581
1580
مدرسه مشکوک شد و به همین
05:46
they called the police.
132
346161
1628
دلیل با پلیس تماس گرفتند.
05:47
As soon as the police arrested them not
133
347789
2621
به محض اینکه پلیس آنها را دستگیر کرد، نه
05:50
for you know not for anything but just
134
350410
2165
به خاطر چیزی که نمی دانید، بلکه تازه
05:52
finding you know beer bottles, empty beer
135
352575
2335
متوجه شدند که بطری های آبجو را می شناسید، بطری های خالی آبجو را
05:54
bottles in that car. People came, saw
136
354910
2175
در آن ماشین. مردم آمدند،
05:57
everything that was happening outside
137
357085
2174
همه اتفاقات
05:59
the school and started spreading fake
138
359259
2097
بیرون مدرسه را دیدند و شروع به انتشار
06:01
news on Whatsapp.
139
361356
1017
اخبار جعلی در واتساپ کردند.
06:02
The rumor that essentially
140
362373
1476
شایعه‌ای که اساسا
06:03
spread was that they were two men who
141
363849
2694
منتشر شد این بود که آنها دو مرد
06:06
were child kidnappers who were waiting
142
366543
2767
بچه‌ربای بودند که
06:09
outside of school to abduct children and
143
369310
2715
بیرون از مدرسه منتظر ربودن کودکان بودند
06:12
that obviously caused a frenzy on social
144
372025
2715
و آشکارا در رسانه‌های اجتماعی و واتس‌اپ باعث ایجاد جنون
06:14
media, on Whatsapp, and that turned into
145
374740
2400
شد و با دستگیری آنها به
06:17
something bigger
146
377140
1017
چیزی بزرگ‌تر تبدیل
06:18
when they were arrested.
147
378157
1442
شد.
06:19
because this went from Whatsapp to
148
379599
2465
چون این از واتساپ به
06:22
Facebook, gathered on Facebook to call
149
382064
2756
فیسبوک رفت، در فیس بوک جمع شدند تا
06:24
out on people to come outside of the
150
384820
2796
از مردم بخواهند بیرون از
06:27
police station and basically take the
151
387616
2874
ایستگاه پلیس بیایند و اساسا
06:30
law into their own hands. They were
152
390490
1775
قانون را در دستان خود بگیرند. آنها را
06:32
dragged from the police station to a
153
392265
1825
از ایستگاه پلیس به
06:34
town hall, doused in petrol and then lit
154
394090
2649
ساختمان شهرداری کشاندند، بنزین زدند و
06:36
on fire. Lynchings are not a new thing but
155
396739
2781
سپس آتش زدند. لینچ کردن چیز جدیدی نیست، اما
06:39
what is new is the way that this whole
156
399520
2428
چیزی که جدید است نحوه فیلمبرداری از کل این
06:41
thing was filmed on Facebook. It really
157
401948
2492
ماجرا در فیس بوک است. این واقعاً
06:44
shows the danger because it went from
158
404440
2309
خطر را نشان می دهد زیرا از
06:46
Whatsapp to Facebook and then it was a
159
406749
2371
واتساپ به فیس بوک رفت و سپس یک
06:49
very small town in Mexico so in a matter
160
409120
3554
شهر بسیار کوچک در مکزیک بود، بنابراین در عرض
06:52
of hours everybody was talking about it
161
412674
3465
چند ساعت همه در مورد آن صحبت می کردند
06:56
and what struck you the most when
162
416139
1953
و چه چیزی هنگام پوشش داستان بیشتر از همه شما را
06:58
covering the story? The fact that people
163
418092
2368
تحت تأثیر قرار داد؟ این واقعیت که مردم
07:00
so easily believed things without you
164
420460
2445
به راحتی چیزها را باور می کنند بدون اینکه شما چیزهایی را
07:02
know fact-checking or double sourcing
165
422905
2444
که حقیقت سنجی یا منبع یابی مضاعف می
07:05
things. It has grave consequences and
166
425349
3287
دانید. عواقب سنگینی دارد و
07:08
this was one of them. Has there been any
167
428636
3554
این یکی از آنها بود. آیا هیچ
07:12
change in terms of I don't know
168
432190
2528
تغییری از نظر قوانین من نمی دانم
07:14
legislation in Mexico like public
169
434718
2691
در مکزیک مانند
07:17
perception even like public behavior
170
437409
1865
درک عمومی حتی مانند رفتار عمومی
07:19
when when they said something that is
171
439274
1916
زمانی که آنها چیزی می گویند که
07:21
not true? There are people talking about
172
441190
4670
درست نیست وجود داشته است؟ افرادی هستند که در مورد اطلاعات نادرست صحبت می کنند،
07:26
misinformation more particularly over
173
446190
2731
به ویژه در
07:28
here disinformation - the fact that people
174
448921
3099
اینجا اطلاعات نادرست - این واقعیت که مردم
07:32
can turn lies into actual news
175
452020
1745
می توانند دروغ ها را به اخبار واقعی تبدیل کنند
07:33
and this is something that Mexico is
176
453765
2095
و این چیزی است که مکزیک
07:35
dealing with not just with lynchings but
177
455860
2613
نه تنها با لینچ کردن
07:38
also with elections and just in general
178
458473
2547
بلکه با انتخابات و به طور کلی
07:41
fake news in the country and so you have
179
461020
3251
اخبار جعلی در کشور و غیره با آن دست و پنجه نرم می کند. شما
07:44
platforms like Lo Que Sigue that is the you
180
464271
3169
پلتفرم هایی مانند Lo Que Sigue دارید
07:47
know that has had to come about just to
181
467440
2604
که می دانید فقط برای
07:50
combat fake news in the country.
182
470044
2136
مبارزه با اخبار جعلی در کشور ایجاد شده است.
07:52
Reha, thank you very much indeed.
183
472180
1520
رها واقعا ازت ممنونم
07:53
Thank you.
184
473700
500
متشکرم.
07:56
A terrible story Sam. Yeah
185
476560
1320
یک داستان وحشتناک سام. آره
07:57
really really tragic. Yeah and we know
186
477880
1666
واقعا غم انگیزه بله و ما می دانیم که
07:59
this has happened not just in Mexico but
187
479546
1754
این اتفاق نه تنها در مکزیک
08:01
also in other countries as well like in
188
481300
1950
بلکه در کشورهای دیگر نیز مانند
08:03
India and Myanmar.
189
483250
900
هند و میانمار رخ داده است.
08:04
Yeah it just goes to show that we have
190
484150
1950
بله، این فقط نشان می دهد که ما
08:06
to be really really careful when we're
191
486100
1950
باید واقعاً مراقب باشیم وقتی
08:08
sharing information online. Most of us
192
488050
2309
اطلاعات آنلاین را به اشتراک می گذاریم. بسیاری از ما
08:10
only share cute cat videos probably but
193
490359
2370
احتمالا فقط ویدیوهای زیبای گربه را به اشتراک می گذاریم، اما
08:12
there are consequences to things like
194
492729
2434
عواقبی مانند
08:15
gossip that are shared. It seems a little
195
495163
2697
شایعات به اشتراک گذاشته شده دارد. به نظر می رسد
08:17
bit insensitive to talk about vocabulary
196
497860
2169
کمی غیر حساس است که
08:20
after such a tragic story but Reha did
197
500029
2061
بعد از چنین داستان غم انگیزی در مورد واژگان صحبت کنیم، اما رها
08:22
use a really interesting journalistic
198
502090
2353
از یک اصطلاح روزنامه نگاری واقعا جالب استفاده
08:24
term there. So could you explain to us
199
504443
2417
کرد. بنابراین می توانید برای ما توضیح دهید
08:26
what double-sourcing means. So it is
200
506860
2476
که منبع دوگانه به چه معناست. بنابراین
08:29
making sure that you have two
201
509336
1994
باید مطمئن شوید که دو
08:31
independent sources confirm the same
202
511330
2456
منبع مستقل دارید که اطلاعات یکسانی را تأیید می کنند،
08:33
information but you also have to make
203
513786
2524
اما همچنین باید
08:36
sure that these sources are not
204
516310
1995
مطمئن شوید که این منابع تأیید نمی کنند
08:38
confirming you know the news using the
205
518305
2445
که شما خبر را با استفاده از
08:40
same source themselves.
206
520750
1479
همان منبع خود می دانید.
08:42
Now if you are an
207
522229
1401
اکنون اگر از
08:43
avid news consumer
208
523630
1630
مصرف کنندگان پرشور اخبار هستید
08:45
and want some advice
209
525260
500
08:45
on what you consider before you share
210
525760
1977
و می خواهید
قبل از به اشتراک گذاشتن هر چیزی در رسانه های اجتماعی در مورد مواردی که در نظر می گیرید، توصیه هایی داشته باشید،
08:47
anything on social media here's Reha
211
527737
1923
در اینجا
08:49
again with her top tip.
212
529660
1780
دوباره Reha با نکات برتر او است.
08:54
The best tip that
213
534200
1026
بهترین نکته ای که
08:55
I can give people who
214
535226
500
08:55
are consuming news
215
535726
1914
می توانم به افرادی
که بدون وقفه اخبار مصرف می
08:57
non-stop is that you need to if you see
216
537680
2930
کنند ارائه کنم این است که اگر
09:00
something you need to find a way to
217
540610
2630
چیزی را دیدید باید راهی برای
09:03
verify it. That means if you see
218
543279
2184
تأیید آن پیدا کنید. این بدان معناست که اگر
09:05
something in the news check another
219
545463
2316
چیزی در اخبار مشاهده کردید
09:07
media organisation's
220
547779
1171
، پوشش یک سازمان رسانه ای دیگر
09:08
coverage of that news
221
548950
1437
از آن خبر
09:10
to see whether they are following the
222
550387
1892
را بررسی کنید تا ببینید آیا آنها همان خط را دنبال می کنند یا خیر
09:12
same line. If you see something on
223
552279
1663
. اگر چیزی را در
09:13
Whatsapp that isn't news but people are
224
553942
1908
واتساپ می‌بینید که خبری نیست اما مردم در
09:15
spreading question why they're spreading
225
555850
2645
حال انتشار این سوال هستند که چرا آن را منتشر می‌کنند
09:18
it - what's their agenda? You know if there
226
558495
2844
- دستور کار آنها چیست؟ می دانید اگر
09:21
is something involved in it that shows
227
561339
2029
چیزی در آن دخیل است که نشان
09:23
that it could have a reliable source of
228
563368
2082
می دهد می تواند منبع خبری موثقی داشته باشد،
09:25
news then go to that source and find out
229
565450
2407
به آن منبع بروید و ببینید
09:27
what's happening.
230
567857
1023
چه اتفاقی می افتد.
09:31
Well it's a great tip there, not just for
231
571040
2202
خوب این نکته بسیار خوبی است، نه فقط برای
09:33
journalists but for everybody. It's very
232
573242
2148
روزنامه نگاران، بلکه برای همه. بسیار
09:35
important to verify before sharing.
233
575390
1954
مهم است که قبل از اشتراک‌گذاری تأیید کنید.
09:37
Absolutely and to verify simply means
234
577344
2066
مطلقاً و تأیید کردن به سادگی به معنای
09:39
to check that something is true. Okay
235
579410
2308
بررسی صحت چیزی است. بسیار
09:41
well almost done for today
236
581718
1622
خوب، تقریباً برای امروز انجام شده است،
09:43
before we go Sam reminders of today's
237
583340
1809
قبل از اینکه برویم سام واژگان کلیدی امروز را یادآوری می کند
09:45
key vocabulary. Of course,
238
585149
1301
. البته
09:46
very happy to. So
239
586450
850
خیلی خوشحالم بنابراین
09:47
today I was talking about different
240
587300
2288
امروز در مورد
09:49
forms of the word information.
241
589588
1962
اشکال مختلف کلمه اطلاعات صحبت می کردم.
09:51
Information itself is an uncountable
242
591550
2914
اطلاعات به خودی خود یک اسم غیرقابل شمارش است
09:54
noun and when it comes to fake news you
243
594464
3156
و وقتی صحبت از اخبار جعلی می شود،
09:57
can talk about disinformation which is
244
597620
2685
می توانید در مورد اطلاعات نادرست صحبت کنید که به
10:00
deliberately fake information and then
245
600305
2685
عمد اطلاعات جعلی است و سپس
10:02
there's also misinformation which is
246
602990
2554
اطلاعات نادرست نیز وجود دارد که به
10:05
accidentally fake information. So for
247
605544
2486
طور تصادفی اطلاعات جعلی هستند. برای
10:08
example if you're sharing something that
248
608030
1910
مثال، اگر چیزی را به اشتراک
10:09
you didn't know was fake that's
249
609940
1480
می‌گذارید که نمی‌دانستید جعلی است، این
10:11
misinformation but you might hear
250
611420
2365
اطلاعات غلط است، اما ممکن است بشنوید که
10:13
misinformation and disinformation being
251
613785
2795
اطلاعات نادرست و اطلاعات نادرست به جای
10:16
used interchangeably. The adjective for
252
616580
2458
یکدیگر استفاده می‌شوند. صفت
10:19
something that is interesting and useful
253
619038
2522
چیزی که جالب و مفید
10:21
is informative. In the programme we also
254
621560
2940
است آموزنده است. در برنامه همچنین
10:24
talked about the
255
624500
500
در مورد
10:25
word consequences which
256
625000
2440
کلمه پیامدها که
10:27
are the negative results of something
257
627440
2178
نتایج منفی یک چیزی است صحبت
10:29
and we also heard
258
629618
500
کردیم و همچنین شنیدیم
10:30
the word double- sourcing
259
630118
1972
که کلمه منبع
10:32
which is checking a news story
260
632090
2359
دوگانه که بررسی یک خبر
10:34
is true by seeing if two independent
261
634449
2831
است با دیدن اینکه آیا دو
10:37
sources are reporting the same thing and
262
637280
2460
منبع مستقل یک موضوع را گزارش می دهند یا
10:39
if you do that you may be able to verify
263
639740
2460
خیر و آیا شما این کار را انجام می دهید درست است. ممکن است بتوانید
10:42
the story and you may be able to confirm
264
642200
2844
داستان را تأیید کنید و ممکن است بتوانید تأیید کنید
10:45
that it is indeed true. Thank you Sam and
265
645044
2916
که واقعاً درست است. با تشکر از شما سام و
10:47
that's all from us today.
266
647960
2000
این همه از ما امروز است.
10:49
Share safely, good bye, bye.
267
649960
2240
با خیال راحت به اشتراک بگذارید، خداحافظ، خداحافظ.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7