Fake News: Fact & Fiction - Episode 5: Why do people share fake news?

38,640 views ・ 2023-10-10

BBC Learning English


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید. زیرنویس های ترجمه شده به صورت ماشینی ترجمه می شوند.

00:06
Hello and welcome to Fake News: Fact and Fiction, from BBC Learning English.
0
6809
3540
سلام و به Fake News: Fact and Fiction از BBC Learning English خوش آمدید.
00:10
I'm Hugo.
1
10439
791
من هوگو هستم.
00:11
And I'm Sam.
2
11339
781
و من سام هستم.
00:12
In the programme today,
3
12619
791
در برنامه امروز،
00:13
we'll look at some of the reasons people share fake news.
4
13490
2659
به برخی از دلایلی که مردم اخبار جعلی را به اشتراک می گذارند، می پردازیم.
00:16
We'll hear from disinformation researcher Samantha Bradshaw.
5
16229
2901
ما از سامانتا برادشاو محقق اطلاعات نادرست خواهیم شنید .
00:20
One reason why people share fake news that they know is fake,
6
20039
3781
یکی از دلایلی که مردم اخبار جعلی را که می‌دانند جعلی است به اشتراک می‌گذارند،
00:24
has to do with this thing that we call identity signalling.
7
24179
4410
مربوط به چیزی است که ما آن را سیگنال‌دهی هویت می‌نامیم.
00:28
Identity signalling. Have you heard of that Sam?
8
28949
2520
علامت گذاری هویت آیا در مورد آن سم شنیده اید؟
00:31
Not until I saw the script for this programme actually.
9
31890
3780
تا زمانی که من اسکریپت این برنامه را در واقع دیدم.
00:35
Ah, so make sure you keep watching to find out what identity signalling is
10
35750
3530
آه، پس مطمئن شوید که به تماشای آن ادامه می دهید تا بفهمید سیگنالینگ هویت چیست
00:40
and how it's a part of the spread of fake news.
11
40530
2939
و چگونه بخشی از انتشار اخبار جعلی است.
00:43
Before we get to that, we have some key vocabulary which you're going to
12
43979
3271
قبل از اینکه به آن بپردازیم، چند واژگان کلیدی داریم که می خواهید
00:47
tell us about Sam.
13
47329
820
درباره سام به ما بگویید.
00:48
What do you have for us today?
14
48299
1091
امروز برای ما چه داری؟
00:49
Yes, so today I am talking about: agenda, actors and motives.
15
49649
5610
بله، بنابراین امروز من در مورد: دستور کار، بازیگران و انگیزه ها صحبت می کنم.
00:59
If you have to go to meetings and who doesn't love a good meeting?
16
59189
4841
اگر باید به جلسات بروید و چه کسی یک جلسه خوب را دوست ندارد؟ از
01:04
I hate them.
17
64700
1080
آنها متنفرم.
01:05
They're such a waste of time.
18
65859
2261
انقدر وقت تلف میکنن
01:08
You will probably be familiar with agendas.
19
68239
3410
احتمالاً با برنامه ها آشنا خواهید شد.
01:12
An agenda is a list of things that are going to be discussed
20
72120
4040
دستور کار فهرستی از مواردی است که قرار است
01:16
at the meeting.
21
76370
1040
در جلسه مورد بحث قرار گیرد.
01:17
But there is another meaning of the word 'agenda' that is important
22
77659
4291
اما معنای دیگری از کلمه "برنامه" وجود دارد که
01:22
in the area of fake news.
23
82040
2450
در حوزه اخبار جعلی مهم است.
01:24
If an individual or organisation or a government 'has an agenda',
24
84590
5599
اگر یک فرد یا سازمان یا یک دولت "برنامه ای داشته باشد" به این
01:30
it means that there is something they want to achieve.
25
90530
3179
معنی است که چیزی وجود دارد که آنها می خواهند به آن برسند.
01:33
This could be clearly stated objectives.
26
93799
3151
این می تواند اهداف به وضوح بیان شود.
01:37
But having an agenda can also suggest a secret or hidden aim.
27
97030
5559
اما داشتن یک برنامه همچنین می تواند نشان دهنده یک هدف مخفی یا پنهان باشد.
01:42
Let's park the word agenda for the moment because there is another word
28
102669
4031
بیایید فعلاً کلمه دستور کار را پارک کنیم زیرا کلمه دیگری وجود دارد که
01:46
I want to talk about that has a very well-known meaning but also
29
106780
4120
می خواهم در مورد آن صحبت کنم که معنای بسیار شناخته شده ای دارد اما
01:51
another meaning which is perhaps not so well-known - actor.
30
111230
4340
معنای دیگری نیز دارد که شاید چندان شناخته شده نباشد - بازیگر.
01:56
It's probably a very familiar word.
31
116780
3030
احتمالاً کلمه ای بسیار آشنا است.
01:59
Somebody who performs on stage or in films is an actor.
32
119890
3869
کسی که روی صحنه یا در فیلم بازی می کند یک بازیگر است.
02:03
But the same word is used to describe a person, group or even
33
123879
4511
اما همین کلمه برای توصیف یک شخص، گروه یا حتی
02:08
a state that has an agenda that's either politically or economically motivated
34
128470
6099
دولتی استفاده می‌شود که برنامه‌ای دارد که دارای انگیزه سیاسی یا اقتصادی است
02:15
and they have influence or power that they use
35
135020
2430
و دارای نفوذ یا قدرتی است که
02:17
to promote that agenda.
36
137530
2659
برای ترویج آن برنامه استفاده می‌کند.
02:20
In this context you can hear the phrases:
37
140389
2761
در این زمینه می توانید عباراتی را بشنوید:
02:23
state actors, political actors, and even - bad actors.
38
143449
6180
بازیگران دولتی، بازیگران سیاسی و حتی - بازیگران بد.
02:30
State actors are governments,
39
150360
3709
بازیگران دولتی دولت‌ها هستند،
02:34
political actors are those with, you guessed it, political power and agendas
40
154150
4359
بازیگران سیاسی کسانی هستند که، درست حدس زدید، قدرت سیاسی و برنامه‌ها
02:38
and bad actors - well that doesn't mean people who aren't very good at acting.
41
158990
5250
و بازیگران بد دارند - خوب این به معنای افرادی نیست که در بازیگری خیلی خوب نیستند.
02:44
A bad actor uses power or influence in a dishonest way
42
164840
4949
یک بازیگر بد از قدرت یا نفوذ به روشی ناصادقانه
02:50
to push a hidden agenda.
43
170210
2500
برای پیشبرد یک برنامه پنهان استفاده می کند.
02:52
They're trying to achieve something but it's not clear what it is.
44
172909
3680
آنها در تلاش برای رسیدن به چیزی هستند اما مشخص نیست که آن چیست.
02:56
And it's not clear who is doing it.
45
176719
2871
و معلوم نیست چه کسی این کار را می کند.
02:59
For example, if a government from one country wants to influence an
46
179670
4160
به عنوان مثال، اگر یک دولت از یک کشور بخواهد بر
03:03
election in another country, they may spread fake news stories
47
183910
4180
انتخابات در کشور دیگر تأثیر بگذارد، ممکن است اخبار جعلی را منتشر کند
03:08
but hide the fact that they're doing it.
48
188180
2910
اما این واقعیت را پنهان کند که این کار را انجام می دهد.
03:11
This could be described as the actions of a bad actor or
49
191170
4060
این را می توان به عنوان اقدامات یک بازیگر بد یا
03:15
a bad state actor.
50
195620
1530
یک بازیگر دولتی بد توصیف کرد.
03:18
People who spread disinformation online may not be doing it because
51
198169
4050
افرادی که اطلاعات نادرست را به صورت آنلاین منتشر می کنند ممکن است این کار را به این دلیل انجام ندهند که به
03:22
they believe it but because it suits their agenda.
52
202300
4810
آن اعتقاد دارند، بلکه به این دلیل است که با دستور کار آنها مطابقت دارد.
03:27
This spreading of disinformation can be very sophisticated and the
53
207190
4539
این انتشار اطلاعات نادرست می تواند بسیار پیچیده باشد و
03:31
motives of those doing it are often not obvious.
54
211810
3490
انگیزه کسانی که این کار را انجام می دهند اغلب آشکار نیست.
03:36
Motive.
55
216259
1231
انگیزه
03:37
That's another useful word in this context.
56
217570
2770
این یک کلمه مفید دیگر در این زمینه است.
03:41
If you like TV crime dramas, and who doesn't love a good crime drama?,
57
221240
4889
اگر درام‌های جنایی تلویزیونی را دوست دارید، و چه کسی یک درام جنایی خوب را دوست ندارد؟،
03:46
- me, I never really understand them -
58
226590
3934
- من، من واقعاً آنها را هرگز درک نمی‌کنم -
03:50
you will often hear the word 'motive'.
59
230604
3835
اغلب کلمه "انگیزه" را خواهید شنید.
03:54
"He can't be guilty. He didn't have a motive."
60
234520
3749
او نمی تواند مقصر باشد، او انگیزه ای نداشت.
03:59
A motive is a reason for doing something and not everyone's motives
61
239060
4979
انگیزه دلیلی برای انجام کاری است و انگیزه هرکسی
04:04
for what they post online are genuine.
62
244120
2519
از چیزی که آنلاین ارسال می کند واقعی نیست.
04:07
But how can you tell?
63
247340
1169
اما چگونه می توان گفت؟
04:09
Let's go back to the studio to see if there are any more useful tips.
64
249349
4111
بیایید به استودیو برگردیم تا ببینیم آیا نکات مفید دیگری وجود دارد یا خیر.
04:16
Thanks for that Sam.
65
256449
881
بابت اون سام ممنونم
04:17
Really interesting, I was really impressed with your acting there.
66
257410
3040
واقعاً جالب بود، من واقعاً تحت تأثیر بازی شما در آنجا قرار گرفتم.
04:20
Well, I may be a bad actor but I'm not a bad actor.
67
260990
5169
خب، من ممکن است بازیگر بدی باشم اما بازیگر بدی نیستم.
04:26
My motives are purely genuine.
68
266239
2290
انگیزه های من کاملاً واقعی است.
04:28
Well that's an interesting point about fake news I think.
69
268609
2100
خوب این یک نکته جالب در مورد اخبار جعلی به نظر من است.
04:31
We've heard that fake news is produced by people who may want to
70
271160
3210
شنیده ایم که اخبار جعلی توسط افرادی تولید می شود که ممکن است بخواهند
04:34
make money or have a political or social agenda.
71
274449
3391
پول دربیاورند یا برنامه های سیاسی یا اجتماعی داشته باشند.
04:37
Those are their motives,
72
277920
1190
اینها انگیزه های آنهاست،
04:39
but they can only be successful if we share those stories.
73
279189
3801
اما تنها در صورتی می توانند موفق باشند که آن داستان ها را به اشتراک بگذاریم.
04:44
Absolutely. But why do people share news, stories, images that are fake?
74
284120
5310
کاملا. اما چرا مردم اخبار، داستان ها، تصاویر جعلی را به اشتراک می گذارند؟
04:49
Well researcher Samantha Bradshaw from the Oxford Internet Institute
75
289720
3820
سامانتا برادشاو محقق خوب از موسسه اینترنت آکسفورد
04:53
at Oxford University shared her observations with us earlier.
76
293620
3490
در دانشگاه آکسفورد مشاهدات خود را قبلا با ما در میان گذاشت.
04:58
People share fake news for a variety of reasons.
77
298910
3380
مردم به دلایل مختلف اخبار جعلی را به اشتراک می گذارند .
05:02
In many cases sometimes people don't even realise the stories
78
302449
3871
در بسیاری از موارد، گاهی اوقات مردم حتی متوجه نمی شوند داستان هایی
05:06
that they're sharing are fake.
79
306400
1819
که به اشتراک می گذارند جعلی است.
05:08
They might find the content funny or humorous or they might think that
80
308329
4110
آنها ممکن است محتوا را خنده دار یا طنز بدانند یا ممکن است فکر کنند که
05:12
people in their network such as their friends or family or broader
81
312519
3731
افراد در شبکه آنها مانند دوستان یا خانواده یا آشنایان گسترده تر
05:16
acquaintances might enjoy this content.
82
316329
3760
ممکن است از این محتوا لذت ببرند.
05:20
Another reason people might share fake news has to do with
83
320169
3520
یکی دیگر از دلایلی که مردم ممکن است اخبار جعلی را به اشتراک بگذارند به
05:24
the emotional appeal of fake news because it tends to be very negative.
84
324050
5549
جذابیت احساسی اخبار جعلی مربوط می شود زیرا این اخبار بسیار منفی است.
05:29
It tends to also elicit a reaction from people and they might be angry
85
329679
4541
همچنین تمایل به برانگیختن واکنش مردم دارد و ممکن است عصبانی شوند
05:34
and they might type and share and discuss what is being talked about
86
334300
5649
و ممکن است تایپ کنند و آنچه را که در این مقاله در مورد آن صحبت می شود به اشتراک بگذارند و بحث کنند،
05:40
in this article because they find it so outrageous that they need
87
340029
4151
زیرا آنها آن را بسیار ظالمانه می یابند که باید
05:44
to share it.
88
344259
1620
آن را به اشتراک بگذارند.
05:45
The third reason why people might share fake news has to do with what
89
345959
3650
دلیل سوم اینکه چرا مردم ممکن است اخبار جعلی را به اشتراک بگذارند، مربوط به چیزی است که
05:49
we call 'identity signalling' where people know that the information
90
349689
4571
ما آن را "سیگنال هویت" می نامیم، جایی که مردم می دانند اطلاعات
05:54
being shared in this story is false.
91
354340
2530
به اشتراک گذاشته شده در این داستان نادرست است.
05:56
But the purpose of sharing it is to signal to a broader community that
92
356949
4210
اما هدف از اشتراک گذاری آن این است که به یک جامعه گسترده تر نشان دهد که
06:01
they share certain values that are reflected in that news story.
93
361239
4910
ارزش های خاصی را که در آن خبر منعکس می شود به اشتراک می گذارند.
06:06
And so it gives people a sense of belonging and
94
366680
5130
و بنابراین به مردم احساس تعلق و
06:12
fitting into a broader community of people.
95
372139
2671
تناسب با جامعه وسیع تری از مردم می دهد.
06:14
Has much more to do with identity than the actual facts of the story.
96
374889
4241
ارتباط بسیار بیشتری با هویت دارد تا واقعیت های واقعی داستان.
06:20
So what do you make of that Sam?
97
380449
1330
پس نظرت از اون سام چیه؟
06:22
OK, well, I can definitely see how we might accidentally share
98
382790
4039
خوب، خوب، من قطعاً می توانم ببینم که چگونه ممکن است به طور تصادفی چیزهایی را به اشتراک بگذاریم
06:26
things that aren't true for, for example I sometimes see some
99
386909
3800
که در مورد آنها درست نیست، برای مثال من گاهی اوقات
06:30
amazing photos that I find out later are actually photoshopped.
100
390789
3311
عکس های شگفت انگیزی را می بینم که بعداً متوجه می شوم واقعاً فتوشاپ شده اند.
06:34
and things that might make me angry can make me reach for the share button.
101
394939
4230
و چیزهایی که ممکن است من را عصبانی کند می تواند باعث شود به دکمه اشتراک گذاری دست پیدا کنم.
06:39
But what stood out for me was this idea of identity signalling.
102
399249
4361
اما چیزی که برای من متمایز بود، این ایده نشانه هویت بود.
06:44
We might want to show that we belong to a particular group.
103
404060
3040
ممکن است بخواهیم نشان دهیم که به یک گروه خاص تعلق داریم.
06:47
We share some beliefs and opinions and that it really doesn't matter
104
407180
3930
ما برخی از عقاید و عقاید را به اشتراک می گذاریم و اینکه واقعاً مهم نیست
06:51
whether the content is true or not.
105
411350
1729
که محتوا درست باشد یا نه.
06:53
And this is something that the people who produce fake news know well
106
413399
3501
و این چیزی است که افرادی که اخبار جعلی را تولید می‌کنند به خوبی می‌دانند
06:57
and they know how to make us share those stories.
107
417050
2669
و می‌دانند که چگونه ما را وادار کنند آن داستان‌ها را به اشتراک بگذارند.
06:59
Here's Samantha Bradshaw again.
108
419799
2090
اینجا دوباره سامانتا بردشاو است.
07:02
So the purveyors of fake news will use a variety of strategies to
109
422329
5731
بنابراین ارائه دهندگان اخبار جعلی از استراتژی‌های مختلفی استفاده می‌کنند تا
07:08
get people clicking and sharing their content.
110
428139
4000
مردم را وادار به کلیک کردن و اشتراک‌گذاری محتوای خود کنند.
07:12
One of these strategies has to do with just the style that fake news
111
432219
5410
یکی از این استراتژی‌ها فقط به سبکی مربوط می‌شود که داستان‌های اخبار جعلی
07:17
stories are often written in.
112
437709
1781
اغلب به آن نوشته می‌شوند.
07:19
They'll tend to use highly emotional language and content also that gets
113
439759
6750
آنها تمایل دارند از زبان و محتوای بسیار احساسی استفاده کنند که
07:26
people's emotions high.
114
446589
2090
احساسات مردم را بالا می‌برد.
07:28
And this is because psychologically we also like to share
115
448759
4861
و این به این دلیل است که از نظر روانشناسی ما نیز دوست داریم
07:33
this kind of information.
116
453699
1490
این نوع اطلاعات را به اشتراک بگذاریم.
07:35
And this kind of content, especially highly emotive content,
117
455360
4109
و این نوع محتوا، به خصوص محتوای بسیار احساسی،
07:39
will go much further because of the algorithms of the platforms.
118
459549
4561
به دلیل الگوریتم های پلتفرم ها بسیار فراتر خواهد رفت .
07:44
And we also know that emotions like anger, outrage, fear are
119
464189
5690
و همچنین می دانیم که احساساتی مانند خشم، عصبانیت، ترس
07:49
much stronger emotions than things like happiness and joy.
120
469959
3340
احساسات بسیار قوی تر از چیزهایی مانند شادی و شادی هستند.
07:53
And so that's why we see disinformation and fake news stories
121
473379
4031
و به همین دلیل است که می بینیم اخبار جعلی و اطلاعات نادرست
07:57
go viral compared to facts and the boring truth and the mundane truth
122
477490
6039
در مقایسه با حقایق و حقیقت خسته کننده و حقیقت پیش پا افتاده
08:03
behind our factual daily news briefs.
123
483609
5261
پشت گزارش های خبری واقعی روزانه ما ویروسی می شوند.
08:08
We of course still see our cat memes and cute animal videos going viral too
124
488949
5171
البته ما همچنان می‌بینیم که میم‌های گربه‌مان و ویدیوهای حیوانات بامزه نیز در فضای مجازی پخش می‌شوند،
08:14
because joy and happiness is a strong emotion but it's not quite as strong
125
494199
5020
زیرا شادی و شادی یک احساس قوی است اما به اندازه
08:19
as things like anger and fear.
126
499299
2751
چیزهایی مانند خشم و ترس قوی نیست.
08:22
Now we know that many fake news stories are very emotive.
127
502129
2880
اکنون می دانیم که بسیاری از اخبار جعلی بسیار هیجان انگیز هستند.
08:25
They generate strong emotions; the sense that something's not fair
128
505089
4000
آنها احساسات قوی ایجاد می کنند. این احساس که چیزی منصفانه نیست
08:29
or people or organisations are doing things they shouldn't and that can
129
509269
3390
یا افراد یا سازمان‌ها کارهایی را انجام می‌دهند که نباید انجام دهند و این می‌تواند
08:32
make us look for other content to support that feeling.
130
512740
2990
ما را وادار کند به دنبال محتوای دیگری برای حمایت از آن احساس باشیم.
08:36
Yeah but good to know the cute cat videos are being shared too.
131
516620
4430
بله، اما خوب است بدانید که ویدیوهای گربه های زیبا نیز به اشتراک گذاشته می شوند.
08:41
And dogs don't forget dogs!
132
521279
2951
و سگ ها سگ ها را فراموش نمی کنند!
08:44
But she also talked about algorithms,
133
524899
2070
اما او همچنین در مورد الگوریتم ها صحبت کرد،
08:47
the algorithms that social media companies use.
134
527090
2969
الگوریتم هایی که شرکت های رسانه های اجتماعی از آنها استفاده می کنند.
08:50
So Sam what is an algorithm?
135
530289
2291
بنابراین سام یک الگوریتم چیست؟
08:53
OK, thanks for that Hugo!
136
533090
1449
باشه، بابت هوگو متشکرم!
08:55
I might get into trouble here from computer experts but let's have a go.
137
535190
5490
من ممکن است در اینجا از طرف کارشناسان کامپیوتر به مشکل برسم، اما اجازه دهید راه را ادامه دهیم. آیا تا
09:00
Have you ever lost a huge amount of time because, for example,
138
540760
4390
به حال زمان زیادی را از دست داده اید زیرا، برای مثال،
09:05
you've gone on YouTube to watch a video and then you see a list of
139
545230
4180
برای تماشای یک ویدیو به YouTube رفته اید و سپس لیستی از
09:09
suggested related videos which start playing automatically?
140
549490
4059
ویدیوهای پیشنهادی مرتبط را می بینید که به طور خودکار شروع به پخش می کنند؟
09:14
All the time, all the time. I think we've all done that.
141
554000
3009
همیشه، همیشه. من فکر می کنم همه ما این کار را کرده ایم.
09:17
Absolutely. So you click on one video and then another
142
557940
2420
کاملا. بنابراین روی یک ویدیو کلیک می‌کنید و سپس روی ویدیوی دیگری
09:20
and another and another and then it's been hours and hours and hours.
143
560629
4121
و دیگری و دیگری و سپس ساعت‌ها و ساعت‌ها و ساعت‌ها گذشته است.
09:25
Exactly. Yeah. OK. So what's this got to do with algorithms?
144
565169
3050
دقیقا. آره خوب. خب این چه ربطی به الگوریتم ها دارد؟
09:28
Well an algorithm is a set of instructions a computer system
145
568299
4811
خوب یک الگوریتم مجموعه ای از دستورالعمل ها است که یک سیستم کامپیوتری
09:33
follows to complete a particular task.
146
573190
3329
برای تکمیل یک کار خاص دنبال می کند.
09:36
Social media companies use algorithms to make that list of
147
576600
4130
شرکت‌های رسانه‌های اجتماعی از الگوریتم‌هایی استفاده می‌کنند تا آن فهرست
09:40
related videos just for you.
148
580810
3370
ویدیوهای مرتبط را فقط برای شما تهیه کنند.
09:44
These are personalised based on your behaviour online and
149
584260
4179
این‌ها بر اساس رفتار آنلاین شما شخصی‌سازی می‌شوند و باعث می‌شوند
09:48
they get us clicking.
150
588519
1500
ما کلیک کنیم.
09:50
This is because the companies want to keep you on their platforms for
151
590100
3830
این به این دلیل است که شرکت ها می خواهند شما را تا زمانی که ممکن است در پلتفرم های خود نگه دارند
09:54
as long as possible. That's how they make their money.
152
594010
3389
. پولشان را از این طریق در می آورند.
09:57
The longer you're on their site the more links you click the more
153
597529
3331
هر چه مدت بیشتری در سایت آنها باشید، روی لینک های بیشتری کلیک می کنید،
10:00
advertisements you see and the more cash they collect.
154
600940
2889
تبلیغات بیشتری را می بینید و پول نقد بیشتری جمع آوری می کنند.
10:04
And the more we click on a particular kind of story, the more
155
604720
3600
و هر چه بیشتر روی نوع خاصی از داستان کلیک کنیم،
10:08
the algorithms give us similar content.
156
608400
2790
الگوریتم‌ها محتوای مشابه بیشتری به ما می‌دهند.
10:11
Now there's nothing necessarily wrong with that because I guess
157
611270
3540
حالا لزوماً هیچ مشکلی در آن وجود ندارد زیرا حدس می‌زنم
10:14
after all we're getting a free service which has to be paid for somehow.
158
614890
4840
بالاخره ما یک سرویس رایگان دریافت می‌کنیم که باید به نحوی برای آن پول پرداخت.
10:20
But it does mean that we usually don't see things that
159
620090
3150
اما به این معنی است که ما معمولاً چیزهایی را نمی بینیم که
10:23
we don't like, that we don't agree with.
160
623320
1859
دوست نداریم و با آنها موافق نیستیم.
10:25
And this can make us feel that our view, our opinion
161
625259
3680
و این می تواند باعث شود ما احساس کنیم که دیدگاه ما، نظر ما
10:29
is the right one which everyone shares.
162
629029
2120
درست است که همه در آن سهیم هستند. به
10:31
Which is why I think it's a good idea to try and look for different opinions.
163
631460
4189
همین دلیل است که فکر می کنم ایده خوبی است که سعی کنید و به دنبال نظرات مختلف باشید.
10:35
So we don't end up thinking that everyone thinks the way we do.
164
635730
4069
بنابراین در نهایت به این فکر نمی‌کنیم که همه آن‌طور که ما فکر می‌کنیم، فکر می‌کنیم.
10:39
So does that mean after watching all your cat videos you search for dog videos,
165
639879
4821
بنابراین آیا این بدان معناست که پس از تماشای همه ویدیوهای گربه خود،
10:44
for a bit of balance?
166
644780
1409
برای کمی تعادل، ویدیوهای سگ را جستجو کنید؟
10:46
I love cats and dogs equally actually but that's not exactly what I was thinking.
167
646429
4551
من گربه ها و سگ ها را به یک اندازه در واقع دوست دارم، اما این دقیقاً همان چیزی نیست که فکر می کردم.
10:51
I'm just putting your leg there.
168
651060
979
من فقط پای تو را آنجا می گذارم.
10:52
Sam please remind us of today's vocabulary.
169
652549
2921
سام لطفا واژگان امروز را به ما یادآوری کنید .
10:55
Certainly Hugo.
170
655860
600
حتما هوگو
10:56
So we started with 'agenda' which is a plan of things to be done.
171
656540
3659
بنابراین ما با "برنامه" که برنامه ای از کارهایی است که باید انجام شود، شروع کردیم.
11:00
And it's a hidden, and if it's a hidden agenda, it means the reason
172
660679
3841
و این یک دستور کار پنهان است، و اگر یک دستور کار پنهان است، به این معنی است که دلیل
11:04
for someone's actions might be secret or hidden.
173
664600
3779
اعمال کسی ممکن است مخفی یا پنهان باشد.
11:08
Then there was the word 'actor'.
174
668480
1659
سپس کلمه "بازیگر" وجود داشت.
11:10
In the context of fake news an actor is someone with an agenda that uses
175
670549
4680
در زمینه اخبار جعلی، بازیگر کسی است که برنامه‌ای دارد که از
11:15
power and influence to try and promote that agenda.
176
675309
3761
قدرت و نفوذ برای تبلیغ آن برنامه استفاده می‌کند.
11:20
A 'motive' is a reason for doing something.
177
680029
2770
"انگیزه" دلیلی برای انجام کاری است.
11:22
And like hidden agendas sometimes the motives for a particular action
178
682990
4419
و مانند برنامه های پنهان، گاهی اوقات انگیزه یک اقدام خاص
11:27
on the Internet are not always clear and transparent.
179
687490
3979
در اینترنت همیشه روشن و شفاف نیست.
11:31
Samantha Bradshaw talked about identity signalling.
180
691549
3641
سامانتا برادشاو در مورد علامت گذاری هویت صحبت کرد.
11:35
This is the description of behaviour online when people share things
181
695299
3691
این توصیف رفتار آنلاینی است که افراد چیزهایی را
11:39
without being interested in whether they're true or not.
182
699320
2889
بدون علاقه به صحت یا نبودن آنها به اشتراک می گذارند.
11:42
What's important is not how true it is but that it demonstrates that
183
702289
4110
آنچه مهم است این نیست که چقدر درست است، بلکه نشان می دهد که
11:46
they think in the same way or share the same beliefs as the group.
184
706480
5149
آنها به همان شیوه فکر می کنند یا عقاید مشابهی با گروه دارند.
11:51
And finally 'algorithm'.
185
711710
1380
و در نهایت "الگوریتم".
11:53
An algorithm is a set of software instructions that for example can
186
713600
3990
الگوریتم مجموعه‌ای از دستورالعمل‌های نرم‌افزاری است که برای مثال می‌تواند
11:57
produce a personalised list of recommended videos based on what
187
717670
4089
فهرستی شخصی‌سازی شده از ویدیوهای توصیه‌شده را بر اساس آنچه که
12:01
an individual has searched for or watched in the past.
188
721840
3160
فرد در گذشته جستجو کرده یا تماشا کرده است، تولید کند.
12:06
Thank you Sam. That was very comprehensive.
189
726250
2200
ممنون سام خیلی جامع بود
12:08
That's all from us today. We look forward to your company again soon.
190
728530
3269
این همه از ما امروز است. به زودی دوباره منتظر شرکت شما هستیم.
12:11
Goodbye. And stay safe.
191
731879
2260
خداحافظ. و ایمن بمان.
12:14
Bye bye!
192
734259
500
خداحافظ!
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7