Fake News: Fact & Fiction - Episode 5: Why do people share fake news?

38,640 views ・ 2023-10-10

BBC Learning English


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video. Phụ đề được dịch là máy dịch.

00:06
Hello and welcome to Fake News: Fact and Fiction, from BBC Learning English.
0
6809
3540
Xin chào và chào mừng bạn đến với Tin giả: Sự thật và hư cấu, từ BBC Learning English.
00:10
I'm Hugo.
1
10439
791
Tôi là Hugo.
00:11
And I'm Sam.
2
11339
781
Và tôi là Sam.
00:12
In the programme today,
3
12619
791
Trong chương trình hôm nay,
00:13
we'll look at some of the reasons people share fake news.
4
13490
2659
chúng ta sẽ xem xét một số lý do khiến mọi người chia sẻ tin giả.
00:16
We'll hear from disinformation researcher Samantha Bradshaw.
5
16229
2901
Chúng tôi sẽ nghe từ nhà nghiên cứu thông tin sai lệch Samantha Bradshaw.
00:20
One reason why people share fake news that they know is fake,
6
20039
3781
Một lý do khiến mọi người chia sẻ tin giả mà họ biết là giả,
00:24
has to do with this thing that we call identity signalling.
7
24179
4410
liên quan đến thứ mà chúng tôi gọi là tín hiệu nhận dạng. Tín hiệu
00:28
Identity signalling. Have you heard of that Sam?
8
28949
2520
nhận dạng. Bạn đã nghe nói về Sam đó chưa?
00:31
Not until I saw the script for this programme actually.
9
31890
3780
Thực sự là cho đến khi tôi nhìn thấy kịch bản của chương trình này.
00:35
Ah, so make sure you keep watching to find out what identity signalling is
10
35750
3530
À, vì vậy hãy đảm bảo bạn tiếp tục theo dõi để tìm hiểu tín hiệu nhận dạng là gì
00:40
and how it's a part of the spread of fake news.
11
40530
2939
và nó góp phần lan truyền tin giả như thế nào.
00:43
Before we get to that, we have some key vocabulary which you're going to
12
43979
3271
Trước khi đi vào vấn đề đó, chúng ta có một số từ vựng quan trọng mà bạn sắp
00:47
tell us about Sam.
13
47329
820
kể cho chúng ta về Sam.
00:48
What do you have for us today?
14
48299
1091
Hôm nay bạn có gì cho chúng tôi?
00:49
Yes, so today I am talking about: agenda, actors and motives.
15
49649
5610
Đúng vậy, hôm nay tôi đang nói về: chương trình nghị sự, các tác nhân và động cơ.
00:59
If you have to go to meetings and who doesn't love a good meeting?
16
59189
4841
Nếu bạn phải đi họp và ai lại không thích một cuộc họp tốt đẹp?
01:04
I hate them.
17
64700
1080
Tôi ghét họ.
01:05
They're such a waste of time.
18
65859
2261
Họ thật lãng phí thời gian.
01:08
You will probably be familiar with agendas.
19
68239
3410
Bạn có thể sẽ quen thuộc với các chương trình nghị sự.
01:12
An agenda is a list of things that are going to be discussed
20
72120
4040
Chương trình nghị sự là danh sách những điều sẽ được thảo luận
01:16
at the meeting.
21
76370
1040
tại cuộc họp.
01:17
But there is another meaning of the word 'agenda' that is important
22
77659
4291
Nhưng có một ý nghĩa khác của từ 'chương trình nghị sự' rất quan trọng
01:22
in the area of fake news.
23
82040
2450
trong lĩnh vực tin giả.
01:24
If an individual or organisation or a government 'has an agenda',
24
84590
5599
Nếu một cá nhân, tổ chức hoặc chính phủ 'có một chương trình nghị sự',
01:30
it means that there is something they want to achieve.
25
90530
3179
điều đó có nghĩa là họ đang muốn đạt được điều gì đó.
01:33
This could be clearly stated objectives.
26
93799
3151
Điều này có thể được nêu rõ mục tiêu.
01:37
But having an agenda can also suggest a secret or hidden aim.
27
97030
5559
Nhưng việc có một chương trình nghị sự cũng có thể gợi ý một mục tiêu bí mật hoặc ẩn giấu.
01:42
Let's park the word agenda for the moment because there is another word
28
102669
4031
Chúng ta hãy tạm dừng sử dụng từ chương trình nghị sự vì có một từ khác
01:46
I want to talk about that has a very well-known meaning but also
29
106780
4120
tôi muốn nói đến có một ý nghĩa rất nổi tiếng nhưng cũng có
01:51
another meaning which is perhaps not so well-known - actor.
30
111230
4340
một ý nghĩa khác có lẽ không được nhiều người biết đến - diễn viên.
01:56
It's probably a very familiar word.
31
116780
3030
Có lẽ đó là một từ rất quen thuộc.
01:59
Somebody who performs on stage or in films is an actor.
32
119890
3869
Người biểu diễn trên sân khấu hoặc trong phim đều là diễn viên.
02:03
But the same word is used to describe a person, group or even
33
123879
4511
Nhưng từ đó cũng được dùng để mô tả một người, một nhóm hoặc thậm chí
02:08
a state that has an agenda that's either politically or economically motivated
34
128470
6099
một quốc gia có chương trình nghị sự có động cơ chính trị hoặc kinh tế
02:15
and they have influence or power that they use
35
135020
2430
và họ có ảnh hưởng hoặc quyền lực mà họ sử dụng
02:17
to promote that agenda.
36
137530
2659
để thúc đẩy chương trình nghị sự đó.
02:20
In this context you can hear the phrases:
37
140389
2761
Trong bối cảnh này, bạn có thể nghe thấy các cụm từ:
02:23
state actors, political actors, and even - bad actors.
38
143449
6180
diễn viên nhà nước, diễn viên chính trị và thậm chí - diễn viên xấu. Bạn đoán xem,
02:30
State actors are governments,
39
150360
3709
các chủ thể nhà nước là các chính phủ,
02:34
political actors are those with, you guessed it, political power and agendas
40
154150
4359
các chủ thể chính trị là những người có quyền lực chính trị và các chương trình nghị sự
02:38
and bad actors - well that doesn't mean people who aren't very good at acting.
41
158990
5250
và các chủ thể xấu - điều đó không có nghĩa là những người diễn xuất không giỏi.
02:44
A bad actor uses power or influence in a dishonest way
42
164840
4949
Kẻ xấu sử dụng quyền lực hoặc ảnh hưởng một cách không trung thực
02:50
to push a hidden agenda.
43
170210
2500
để thúc đẩy một mục đích ngầm.
02:52
They're trying to achieve something but it's not clear what it is.
44
172909
3680
Họ đang cố gắng đạt được điều gì đó nhưng không rõ đó là gì.
02:56
And it's not clear who is doing it.
45
176719
2871
Và không rõ ai đang làm việc đó.
02:59
For example, if a government from one country wants to influence an
46
179670
4160
Ví dụ: nếu chính phủ của một quốc gia muốn gây ảnh hưởng đến
03:03
election in another country, they may spread fake news stories
47
183910
4180
cuộc bầu cử ở một quốc gia khác, họ có thể lan truyền những câu chuyện tin tức giả
03:08
but hide the fact that they're doing it.
48
188180
2910
nhưng che giấu sự thật rằng họ đang làm điều đó.
03:11
This could be described as the actions of a bad actor or
49
191170
4060
Điều này có thể được mô tả là hành động của một tác nhân xấu hoặc
03:15
a bad state actor.
50
195620
1530
một tác nhân nhà nước xấu.
03:18
People who spread disinformation online may not be doing it because
51
198169
4050
Những người truyền bá thông tin sai lệch trên mạng có thể không làm điều đó vì
03:22
they believe it but because it suits their agenda.
52
202300
4810
họ tin vào điều đó mà vì nó phù hợp với mục đích của họ.
03:27
This spreading of disinformation can be very sophisticated and the
53
207190
4539
Việc lan truyền thông tin sai lệch này có thể rất tinh vi và
03:31
motives of those doing it are often not obvious.
54
211810
3490
động cơ của những người thực hiện việc đó thường không rõ ràng.
03:36
Motive.
55
216259
1231
Động cơ.
03:37
That's another useful word in this context.
56
217570
2770
Đó là một từ hữu ích khác trong bối cảnh này.
03:41
If you like TV crime dramas, and who doesn't love a good crime drama?,
57
221240
4889
Nếu bạn thích những bộ phim truyền hình về tội phạm, và ai lại không thích một bộ phim tội phạm hay?,
03:46
- me, I never really understand them -
58
226590
3934
- tôi, tôi chưa bao giờ thực sự hiểu chúng -
03:50
you will often hear the word 'motive'.
59
230604
3835
bạn sẽ thường nghe thấy từ 'động cơ'.
03:54
"He can't be guilty. He didn't have a motive."
60
234520
3749
"Anh ta không thể phạm tội. Anh ta không có động cơ."
03:59
A motive is a reason for doing something and not everyone's motives
61
239060
4979
Động cơ là lý do để làm điều gì đó và không phải động cơ của mọi người
04:04
for what they post online are genuine.
62
244120
2519
đối với những gì họ đăng lên mạng là có thật.
04:07
But how can you tell?
63
247340
1169
Nhưng làm sao bạn có thể nói được?
04:09
Let's go back to the studio to see if there are any more useful tips.
64
249349
4111
Hãy quay lại studio để xem có mẹo nào hữu ích hơn không nhé.
04:16
Thanks for that Sam.
65
256449
881
Cảm ơn vì điều đó Sam.
04:17
Really interesting, I was really impressed with your acting there.
66
257410
3040
Thực sự thú vị, tôi thực sự ấn tượng với diễn xuất của bạn ở đó.
04:20
Well, I may be a bad actor but I'm not a bad actor.
67
260990
5169
Vâng, tôi có thể là một diễn viên tồi nhưng tôi không phải là một diễn viên tồi.
04:26
My motives are purely genuine.
68
266239
2290
Động cơ của tôi hoàn toàn là thật lòng. Tôi nghĩ
04:28
Well that's an interesting point about fake news I think.
69
268609
2100
đó là một điểm thú vị về tin giả.
04:31
We've heard that fake news is produced by people who may want to
70
271160
3210
Chúng tôi nghe nói rằng tin giả được tạo ra bởi những người muốn
04:34
make money or have a political or social agenda.
71
274449
3391
kiếm tiền hoặc có mục đích chính trị hoặc xã hội.
04:37
Those are their motives,
72
277920
1190
Đó là động cơ của họ
04:39
but they can only be successful if we share those stories.
73
279189
3801
nhưng họ chỉ có thể thành công nếu chúng ta chia sẻ những câu chuyện đó.
04:44
Absolutely. But why do people share news, stories, images that are fake?
74
284120
5310
Tuyệt đối. Nhưng tại sao mọi người lại chia sẻ những tin tức, câu chuyện, hình ảnh giả mạo?
04:49
Well researcher Samantha Bradshaw from the Oxford Internet Institute
75
289720
3820
Nhà nghiên cứu tốt Samantha Bradshaw từ Viện Internet Oxford
04:53
at Oxford University shared her observations with us earlier.
76
293620
3490
tại Đại học Oxford đã chia sẻ những quan sát của cô ấy với chúng tôi trước đó.
04:58
People share fake news for a variety of reasons.
77
298910
3380
Mọi người chia sẻ tin tức giả vì nhiều lý do.
05:02
In many cases sometimes people don't even realise the stories
78
302449
3871
Trong nhiều trường hợp, đôi khi mọi người thậm chí không nhận ra những câu chuyện
05:06
that they're sharing are fake.
79
306400
1819
họ đang chia sẻ là giả mạo.
05:08
They might find the content funny or humorous or they might think that
80
308329
4110
Họ có thể thấy nội dung đó hài hước hoặc hài hước hoặc họ có thể nghĩ rằng
05:12
people in their network such as their friends or family or broader
81
312519
3731
những người trong mạng lưới của họ như bạn bè, gia đình hoặc
05:16
acquaintances might enjoy this content.
82
316329
3760
những người quen rộng hơn có thể thích nội dung này.
05:20
Another reason people might share fake news has to do with
83
320169
3520
Một lý do khác khiến mọi người chia sẻ tin giả có liên quan đến
05:24
the emotional appeal of fake news because it tends to be very negative.
84
324050
5549
sức hấp dẫn về mặt cảm xúc của tin giả vì nó có xu hướng rất tiêu cực.
05:29
It tends to also elicit a reaction from people and they might be angry
85
329679
4541
Nó cũng có xu hướng gợi ra phản ứng từ mọi người và họ có thể tức giận
05:34
and they might type and share and discuss what is being talked about
86
334300
5649
và họ có thể gõ, chia sẻ và thảo luận về những gì đang được nói đến
05:40
in this article because they find it so outrageous that they need
87
340029
4151
trong bài viết này vì họ thấy nó quá lố bịch nên họ cần phải
05:44
to share it.
88
344259
1620
chia sẻ nó.
05:45
The third reason why people might share fake news has to do with what
89
345959
3650
Lý do thứ ba khiến mọi người có thể chia sẻ tin tức giả liên quan đến cái mà
05:49
we call 'identity signalling' where people know that the information
90
349689
4571
chúng tôi gọi là 'tín hiệu nhận dạng' khi mọi người biết rằng thông tin
05:54
being shared in this story is false.
91
354340
2530
được chia sẻ trong câu chuyện này là sai sự thật.
05:56
But the purpose of sharing it is to signal to a broader community that
92
356949
4210
Nhưng mục đích của việc chia sẻ nó là để báo hiệu cho cộng đồng rộng lớn hơn rằng
06:01
they share certain values that are reflected in that news story.
93
361239
4910
họ chia sẻ những giá trị nhất định được phản ánh trong câu chuyện tin tức đó.
06:06
And so it gives people a sense of belonging and
94
366680
5130
Và do đó, nó mang lại cho mọi người cảm giác thân thuộc và
06:12
fitting into a broader community of people.
95
372139
2671
hòa nhập với một cộng đồng rộng lớn hơn.
06:14
Has much more to do with identity than the actual facts of the story.
96
374889
4241
Có liên quan nhiều đến danh tính hơn là sự thật thực tế của câu chuyện.
06:20
So what do you make of that Sam?
97
380449
1330
Vậy bạn nghĩ gì về Sam đó?
06:22
OK, well, I can definitely see how we might accidentally share
98
382790
4039
Được rồi, tôi chắc chắn có thể thấy chúng ta có thể vô tình chia sẻ
06:26
things that aren't true for, for example I sometimes see some
99
386909
3800
những điều không đúng sự thật như thế nào, chẳng hạn như đôi khi tôi thấy một số
06:30
amazing photos that I find out later are actually photoshopped.
100
390789
3311
bức ảnh tuyệt vời mà sau này tôi phát hiện ra thực ra đã được chỉnh sửa bằng photoshop.
06:34
and things that might make me angry can make me reach for the share button.
101
394939
4230
và những điều có thể khiến tôi tức giận cũng có thể khiến tôi phải nhấn nút chia sẻ.
06:39
But what stood out for me was this idea of identity signalling.
102
399249
4361
Nhưng điều nổi bật đối với tôi là ý tưởng về tín hiệu nhận dạng.
06:44
We might want to show that we belong to a particular group.
103
404060
3040
Chúng ta có thể muốn chứng tỏ rằng chúng ta thuộc về một nhóm cụ thể.
06:47
We share some beliefs and opinions and that it really doesn't matter
104
407180
3930
Chúng tôi chia sẻ một số niềm tin và quan điểm và việc
06:51
whether the content is true or not.
105
411350
1729
nội dung đó có đúng hay không thực sự không quan trọng.
06:53
And this is something that the people who produce fake news know well
106
413399
3501
Và đây là điều mà những người tung ra tin giả biết rõ
06:57
and they know how to make us share those stories.
107
417050
2669
và họ biết cách khiến chúng ta chia sẻ những câu chuyện đó.
06:59
Here's Samantha Bradshaw again.
108
419799
2090
Lại là Samantha Bradshaw đây.
07:02
So the purveyors of fake news will use a variety of strategies to
109
422329
5731
Vì vậy, những người cung cấp tin giả sẽ sử dụng nhiều chiến lược khác nhau để
07:08
get people clicking and sharing their content.
110
428139
4000
thu hút mọi người nhấp vào và chia sẻ nội dung của họ.
07:12
One of these strategies has to do with just the style that fake news
111
432219
5410
Một trong những chiến lược này liên quan đến phong cách mà
07:17
stories are often written in.
112
437709
1781
các câu chuyện tin tức giả thường được viết.
07:19
They'll tend to use highly emotional language and content also that gets
113
439759
6750
Chúng sẽ có xu hướng sử dụng ngôn ngữ và nội dung mang tính cảm xúc cao cũng khiến
07:26
people's emotions high.
114
446589
2090
cảm xúc của mọi người dâng cao.
07:28
And this is because psychologically we also like to share
115
448759
4861
Và điều này là do về mặt tâm lý, chúng ta cũng thích chia sẻ
07:33
this kind of information.
116
453699
1490
loại thông tin này.
07:35
And this kind of content, especially highly emotive content,
117
455360
4109
Và loại nội dung này, đặc biệt là nội dung mang tính cảm xúc cao,
07:39
will go much further because of the algorithms of the platforms.
118
459549
4561
sẽ tiến xa hơn nhiều nhờ thuật toán của nền tảng.
07:44
And we also know that emotions like anger, outrage, fear are
119
464189
5690
Và chúng ta cũng biết rằng những cảm xúc như giận dữ, phẫn nộ, sợ hãi là
07:49
much stronger emotions than things like happiness and joy.
120
469959
3340
những cảm xúc mạnh mẽ hơn nhiều so với những cảm xúc như hạnh phúc, vui vẻ.
07:53
And so that's why we see disinformation and fake news stories
121
473379
4031
Và đó là lý do tại sao chúng ta thấy những câu chuyện thông tin sai lệch và tin giả
07:57
go viral compared to facts and the boring truth and the mundane truth
122
477490
6039
lan truyền so với sự thật và sự thật nhàm chán cũng như sự thật trần tục
08:03
behind our factual daily news briefs.
123
483609
5261
đằng sau những bản tóm tắt tin tức thực tế hàng ngày của chúng ta.
08:08
We of course still see our cat memes and cute animal videos going viral too
124
488949
5171
Tất nhiên, chúng ta vẫn thấy các meme về mèo và video về động vật dễ thương được lan truyền rộng rãi
08:14
because joy and happiness is a strong emotion but it's not quite as strong
125
494199
5020
vì niềm vui và hạnh phúc là một cảm xúc mạnh mẽ nhưng nó không mạnh
08:19
as things like anger and fear.
126
499299
2751
bằng những thứ như giận dữ và sợ hãi.
08:22
Now we know that many fake news stories are very emotive.
127
502129
2880
Bây giờ chúng ta biết rằng nhiều câu chuyện tin giả rất xúc động.
08:25
They generate strong emotions; the sense that something's not fair
128
505089
4000
Họ tạo ra những cảm xúc mạnh mẽ; cảm giác có điều gì đó không công bằng
08:29
or people or organisations are doing things they shouldn't and that can
129
509269
3390
hoặc mọi người hoặc tổ chức đang làm những việc họ không nên làm và điều đó có thể
08:32
make us look for other content to support that feeling.
130
512740
2990
khiến chúng tôi tìm kiếm nội dung khác để chứng minh cảm giác đó.
08:36
Yeah but good to know the cute cat videos are being shared too.
131
516620
4430
Vâng nhưng thật vui khi biết những video về chú mèo dễ thương cũng đang được chia sẻ.
08:41
And dogs don't forget dogs!
132
521279
2951
Và chó đừng quên chó!
08:44
But she also talked about algorithms,
133
524899
2070
Nhưng cô ấy cũng nói về các thuật toán,
08:47
the algorithms that social media companies use.
134
527090
2969
những thuật toán mà các công ty truyền thông xã hội sử dụng.
08:50
So Sam what is an algorithm?
135
530289
2291
Vậy Sam thuật toán là gì?
08:53
OK, thanks for that Hugo!
136
533090
1449
Được rồi, cảm ơn vì điều đó Hugo!
08:55
I might get into trouble here from computer experts but let's have a go.
137
535190
5490
Tôi có thể gặp rắc rối ở đây từ các chuyên gia máy tính nhưng hãy thử xem.
09:00
Have you ever lost a huge amount of time because, for example,
138
540760
4390
Bạn đã bao giờ mất rất nhiều thời gian vì chẳng hạn như
09:05
you've gone on YouTube to watch a video and then you see a list of
139
545230
4180
bạn vào YouTube để xem một video và sau đó bạn nhìn thấy danh sách
09:09
suggested related videos which start playing automatically?
140
549490
4059
các video có liên quan được đề xuất bắt đầu phát tự động?
09:14
All the time, all the time. I think we've all done that.
141
554000
3009
Mọi lúc, mọi lúc. Tôi nghĩ tất cả chúng ta đã làm điều đó.
09:17
Absolutely. So you click on one video and then another
142
557940
2420
Tuyệt đối. Vì vậy, bạn nhấp vào một video, rồi một video khác
09:20
and another and another and then it's been hours and hours and hours.
143
560629
4121
, một video khác và một video khác và sau đó đã hàng giờ, hàng giờ.
09:25
Exactly. Yeah. OK. So what's this got to do with algorithms?
144
565169
3050
Chính xác. Vâng. ĐƯỢC RỒI. Vậy điều này có liên quan gì đến thuật toán?
09:28
Well an algorithm is a set of instructions a computer system
145
568299
4811
Vâng, thuật toán là một tập hợp các hướng dẫn mà hệ thống máy tính
09:33
follows to complete a particular task.
146
573190
3329
tuân theo để hoàn thành một nhiệm vụ cụ thể.
09:36
Social media companies use algorithms to make that list of
147
576600
4130
Các công ty truyền thông xã hội sử dụng thuật toán để tạo danh sách
09:40
related videos just for you.
148
580810
3370
các video có liên quan dành riêng cho bạn.
09:44
These are personalised based on your behaviour online and
149
584260
4179
Chúng được cá nhân hóa dựa trên hành vi trực tuyến của bạn và
09:48
they get us clicking.
150
588519
1500
chúng khiến chúng tôi nhấp vào.
09:50
This is because the companies want to keep you on their platforms for
151
590100
3830
Điều này là do các công ty muốn giữ bạn trên nền tảng của họ
09:54
as long as possible. That's how they make their money.
152
594010
3389
càng lâu càng tốt. Đó là cách họ kiếm tiền.
09:57
The longer you're on their site the more links you click the more
153
597529
3331
Bạn ở trên trang web của họ càng lâu, bạn càng nhấp vào nhiều liên kết,
10:00
advertisements you see and the more cash they collect.
154
600940
2889
bạn càng thấy nhiều quảng cáo và họ càng thu được nhiều tiền hơn.
10:04
And the more we click on a particular kind of story, the more
155
604720
3600
Và chúng ta càng nhấp vào một loại câu chuyện cụ thể thì
10:08
the algorithms give us similar content.
156
608400
2790
thuật toán càng cung cấp cho chúng ta nhiều nội dung tương tự.
10:11
Now there's nothing necessarily wrong with that because I guess
157
611270
3540
Bây giờ không có gì sai với điều đó bởi vì tôi đoán
10:14
after all we're getting a free service which has to be paid for somehow.
158
614890
4840
sau tất cả, chúng ta đang nhận được một dịch vụ miễn phí và phải trả tiền bằng cách nào đó.
10:20
But it does mean that we usually don't see things that
159
620090
3150
Nhưng điều đó có nghĩa là chúng ta thường không nhìn thấy những điều
10:23
we don't like, that we don't agree with.
160
623320
1859
chúng ta không thích, những điều chúng ta không đồng ý.
10:25
And this can make us feel that our view, our opinion
161
625259
3680
Và điều này có thể khiến chúng ta cảm thấy rằng quan điểm, quan điểm của chúng ta
10:29
is the right one which everyone shares.
162
629029
2120
là đúng đắn được mọi người chia sẻ.
10:31
Which is why I think it's a good idea to try and look for different opinions.
163
631460
4189
Đó là lý do tại sao tôi nghĩ rằng nên thử và tìm kiếm những ý kiến ​​​​khác nhau.
10:35
So we don't end up thinking that everyone thinks the way we do.
164
635730
4069
Vì vậy, chúng ta không nghĩ rằng mọi người đều nghĩ giống mình.
10:39
So does that mean after watching all your cat videos you search for dog videos,
165
639879
4821
Vậy điều đó có nghĩa là sau khi xem tất cả các video về mèo, bạn sẽ tìm kiếm video về chó
10:44
for a bit of balance?
166
644780
1409
để cân bằng hơn?
10:46
I love cats and dogs equally actually but that's not exactly what I was thinking.
167
646429
4551
Thực ra tôi yêu chó và mèo như nhau nhưng đó không hẳn là điều tôi đang nghĩ.
10:51
I'm just putting your leg there.
168
651060
979
Tôi chỉ đặt chân của bạn ở đó.
10:52
Sam please remind us of today's vocabulary.
169
652549
2921
Sam hãy nhắc chúng tôi về từ vựng ngày nay.
10:55
Certainly Hugo.
170
655860
600
Chắc chắn là Hugo.
10:56
So we started with 'agenda' which is a plan of things to be done.
171
656540
3659
Vì vậy, chúng tôi bắt đầu với 'chương trình nghị sự' là kế hoạch cho những việc cần làm.
11:00
And it's a hidden, and if it's a hidden agenda, it means the reason
172
660679
3841
Và đó là một điều ẩn giấu, và nếu đó là một mục đích ẩn giấu, điều đó có nghĩa là lý do
11:04
for someone's actions might be secret or hidden.
173
664600
3779
cho hành động của ai đó có thể là bí mật hoặc ẩn giấu.
11:08
Then there was the word 'actor'.
174
668480
1659
Sau đó là từ 'diễn viên'.
11:10
In the context of fake news an actor is someone with an agenda that uses
175
670549
4680
Trong bối cảnh tin tức giả, người thực hiện là người có mục đích sử dụng
11:15
power and influence to try and promote that agenda.
176
675309
3761
quyền lực và ảnh hưởng để cố gắng thúc đẩy mục đích đó.
11:20
A 'motive' is a reason for doing something.
177
680029
2770
“Động cơ” là lý do để làm việc gì đó.
11:22
And like hidden agendas sometimes the motives for a particular action
178
682990
4419
Và giống như các chương trình nghị sự ẩn giấu, đôi khi động cơ của một hành động cụ thể
11:27
on the Internet are not always clear and transparent.
179
687490
3979
trên Internet không phải lúc nào cũng rõ ràng và minh bạch.
11:31
Samantha Bradshaw talked about identity signalling.
180
691549
3641
Samantha Bradshaw đã nói về tín hiệu nhận dạng.
11:35
This is the description of behaviour online when people share things
181
695299
3691
Đây là mô tả về hành vi trực tuyến khi mọi người chia sẻ mọi thứ
11:39
without being interested in whether they're true or not.
182
699320
2889
mà không quan tâm đến việc chúng có đúng hay không.
11:42
What's important is not how true it is but that it demonstrates that
183
702289
4110
Điều quan trọng không phải là nó đúng đến mức nào mà nó chứng tỏ rằng
11:46
they think in the same way or share the same beliefs as the group.
184
706480
5149
họ suy nghĩ giống nhau hoặc có cùng niềm tin với cả nhóm.
11:51
And finally 'algorithm'.
185
711710
1380
Và cuối cùng là 'thuật toán'.
11:53
An algorithm is a set of software instructions that for example can
186
713600
3990
Thuật toán là một tập hợp các hướng dẫn phần mềm, chẳng hạn như có thể
11:57
produce a personalised list of recommended videos based on what
187
717670
4089
tạo danh sách video được đề xuất được cá nhân hóa dựa trên nội dung
12:01
an individual has searched for or watched in the past.
188
721840
3160
một cá nhân đã tìm kiếm hoặc xem trước đây.
12:06
Thank you Sam. That was very comprehensive.
189
726250
2200
Cảm ơn bạn Sâm. Điều đó rất toàn diện.
12:08
That's all from us today. We look forward to your company again soon.
190
728530
3269
Đó là tất cả từ chúng tôi ngày hôm nay. Chúng tôi mong sớm được gặp lại công ty của bạn.
12:11
Goodbye. And stay safe.
191
731879
2260
Tạm biệt. Và giữ an toàn.
12:14
Bye bye!
192
734259
500
Tạm biệt!
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7