Fake News: Fact & Fiction - Episode 5: Why do people share fake news?

38,640 views ・ 2023-10-10

BBC Learning English


아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.

00:06
Hello and welcome to Fake News: Fact and Fiction, from BBC Learning English.
0
6809
3540
안녕하세요. BBC Learning English의 가짜 뉴스: 사실과 허구에 오신 것을 환영합니다.
00:10
I'm Hugo.
1
10439
791
저는 휴고입니다.
00:11
And I'm Sam.
2
11339
781
그리고 저는 샘이에요.
00:12
In the programme today,
3
12619
791
오늘 프로그램에서는
00:13
we'll look at some of the reasons people share fake news.
4
13490
2659
사람들이 가짜 뉴스를 공유하는 몇 가지 이유를 살펴보겠습니다 .
00:16
We'll hear from disinformation researcher Samantha Bradshaw.
5
16229
2901
허위정보 연구원인 Samantha Bradshaw의 이야기를 들어보겠습니다.
00:20
One reason why people share fake news that they know is fake,
6
20039
3781
사람들이 가짜인 줄 알고 가짜 뉴스를 공유하는 이유 중 하나는
00:24
has to do with this thing that we call identity signalling.
7
24179
4410
신원 신호라고 부르는 것과 관련이 있습니다.
00:28
Identity signalling. Have you heard of that Sam?
8
28949
2520
신원 신호. 샘에 대해 들어보셨나요? 실제로 이 프로그램
00:31
Not until I saw the script for this programme actually.
9
31890
3780
의 스크립트를 보기 전까지는 말이죠 .
00:35
Ah, so make sure you keep watching to find out what identity signalling is
10
35750
3530
아, 그러니 신원 신호가 무엇인지,
00:40
and how it's a part of the spread of fake news.
11
40530
2939
이것이 가짜 뉴스 확산의 일부인지 알아보려면 계속해서 시청하시기 바랍니다.
00:43
Before we get to that, we have some key vocabulary which you're going to
12
43979
3271
그에 앞서
00:47
tell us about Sam.
13
47329
820
Sam에 대해 알려줄 몇 가지 주요 어휘가 있습니다.
00:48
What do you have for us today?
14
48299
1091
오늘 우리에게 무엇을 주셨습니까?
00:49
Yes, so today I am talking about: agenda, actors and motives.
15
49649
5610
예, 그래서 오늘 저는 의제, 행위자 및 동기에 대해 이야기하고 있습니다.
00:59
If you have to go to meetings and who doesn't love a good meeting?
16
59189
4841
회의에 참석해야 하는데 좋은 회의를 좋아하지 않는 사람이 어디 있겠습니까?
01:04
I hate them.
17
64700
1080
난 그들을 증오.
01:05
They're such a waste of time.
18
65859
2261
정말 시간 낭비예요.
01:08
You will probably be familiar with agendas.
19
68239
3410
당신은 아마도 의제에 대해 잘 알고 있을 것입니다.
01:12
An agenda is a list of things that are going to be discussed
20
72120
4040
안건은 회의에서 논의될 내용의 목록입니다
01:16
at the meeting.
21
76370
1040
.
01:17
But there is another meaning of the word 'agenda' that is important
22
77659
4291
하지만 가짜뉴스 분야에서 중요한 '의제'라는 단어에는 또 다른 의미가 있다
01:22
in the area of fake news.
23
82040
2450
.
01:24
If an individual or organisation or a government 'has an agenda',
24
84590
5599
개인이나 단체, 정부에 '의제가 있다'면
01:30
it means that there is something they want to achieve.
25
90530
3179
이루고 싶은 것이 있다는 뜻이다.
01:33
This could be clearly stated objectives.
26
93799
3151
이는 명확하게 명시된 목표일 수 있습니다.
01:37
But having an agenda can also suggest a secret or hidden aim.
27
97030
5559
그러나 의제가 있다는 것은 비밀스럽거나 숨겨진 목표를 암시할 수도 있습니다. 제가
01:42
Let's park the word agenda for the moment because there is another word
28
102669
4031
01:46
I want to talk about that has a very well-known meaning but also
29
106780
4120
이야기하고 싶은 또 다른 단어는 매우 잘 알려진 의미이지만
01:51
another meaning which is perhaps not so well-known - actor.
30
111230
4340
아마도 잘 알려지지 않은 또 다른 의미인 배우가 있기 때문에 의제라는 단어는 잠시 미루겠습니다.
01:56
It's probably a very familiar word.
31
116780
3030
아마 굉장히 익숙한 단어일 겁니다.
01:59
Somebody who performs on stage or in films is an actor.
32
119890
3869
무대 나 영화에서 연기하는 사람은 배우입니다.
02:03
But the same word is used to describe a person, group or even
33
123879
4511
그러나 동일한 단어는
02:08
a state that has an agenda that's either politically or economically motivated
34
128470
6099
정치적으로나 경제적으로 동기가 부여된 의제를 가지고 있고
02:15
and they have influence or power that they use
35
135020
2430
02:17
to promote that agenda.
36
137530
2659
해당 의제를 홍보하는 데 사용하는 영향력이나 힘을 가지고 있는 개인, 그룹 또는 국가를 설명하는 데 사용됩니다.
02:20
In this context you can hear the phrases:
37
140389
2761
이러한 맥락에서
02:23
state actors, political actors, and even - bad actors.
38
143449
6180
국가 행위자, 정치 행위자, 심지어는 나쁜 행위자라는 문구를 들을 수 있습니다.
02:30
State actors are governments,
39
150360
3709
국가 행위자는 정부이고,
02:34
political actors are those with, you guessed it, political power and agendas
40
154150
4359
정치 행위자는 정치 권력과 의제,
02:38
and bad actors - well that doesn't mean people who aren't very good at acting.
41
158990
5250
나쁜 행위자를 뜻합니다. 그렇다고 연기를 잘 못하는 사람들을 의미하는 것은 아닙니다.
02:44
A bad actor uses power or influence in a dishonest way
42
164840
4949
나쁜 행위자는 숨겨진 의도를 추진하기 위해 부정직한 방식으로 권력이나 영향력을 사용합니다
02:50
to push a hidden agenda.
43
170210
2500
.
02:52
They're trying to achieve something but it's not clear what it is.
44
172909
3680
그들은 무언가를 성취하려고 노력하고 있지만 그것이 무엇인지는 확실하지 않습니다.
02:56
And it's not clear who is doing it.
45
176719
2871
그리고 누가 그 일을 하고 있는지도 분명하지 않습니다.
02:59
For example, if a government from one country wants to influence an
46
179670
4160
예를 들어, 한 국가의 정부가
03:03
election in another country, they may spread fake news stories
47
183910
4180
다른 국가의 선거에 영향력을 행사하려는 경우 가짜 뉴스를 퍼뜨리면서도
03:08
but hide the fact that they're doing it.
48
188180
2910
그렇게 한다는 사실을 숨길 수 있습니다.
03:11
This could be described as the actions of a bad actor or
49
191170
4060
이는 나쁜 행위자 또는
03:15
a bad state actor.
50
195620
1530
나쁜 상태 행위자의 행동으로 설명될 수 있습니다.
03:18
People who spread disinformation online may not be doing it because
51
198169
4050
허위 정보를 온라인으로 퍼뜨리는 사람들은
03:22
they believe it but because it suits their agenda.
52
202300
4810
그것을 믿기 때문에 그렇게 하는 것이 아니라 그것이 그들의 의도에 적합하기 때문에 그렇게 하는 것일 수 있습니다.
03:27
This spreading of disinformation can be very sophisticated and the
53
207190
4539
이러한 허위 정보 확산은 매우 정교할 수 있으며 이를
03:31
motives of those doing it are often not obvious.
54
211810
3490
수행하는 사람들의 동기는 종종 명확하지 않습니다.
03:36
Motive.
55
216259
1231
동기.
03:37
That's another useful word in this context.
56
217570
2770
이는 이 맥락에서 또 다른 유용한 단어입니다 .
03:41
If you like TV crime dramas, and who doesn't love a good crime drama?,
57
221240
4889
당신이 TV 범죄 드라마를 좋아하고, 좋은 범죄 드라마를 좋아하지 않는 사람이 있다면?
03:46
- me, I never really understand them -
58
226590
3934
- 저, 저는 그것들을 전혀 이해하지 못합니다 -
03:50
you will often hear the word 'motive'.
59
230604
3835
당신은 '동기'라는 단어를 자주 듣게 될 것입니다.
03:54
"He can't be guilty. He didn't have a motive."
60
234520
3749
"그는 유죄일 수 없습니다. 그에게는 동기가 없었습니다."
03:59
A motive is a reason for doing something and not everyone's motives
61
239060
4979
동기는 무언가를 하는 이유 이며 온라인에 게시하는 모든 사람의 동기가
04:04
for what they post online are genuine.
62
244120
2519
진짜는 아닙니다.
04:07
But how can you tell?
63
247340
1169
하지만 어떻게 알 수 있나요?
04:09
Let's go back to the studio to see if there are any more useful tips.
64
249349
4111
더 유용한 팁이 있는지 스튜디오로 돌아가 보겠습니다.
04:16
Thanks for that Sam.
65
256449
881
샘 고마워요.
04:17
Really interesting, I was really impressed with your acting there.
66
257410
3040
정말 흥미로웠어요. 거기서 당신의 연기에 정말 감동받았어요.
04:20
Well, I may be a bad actor but I'm not a bad actor.
67
260990
5169
글쎄, 나는 나쁜 배우일지도 모르지만 나쁜 배우가 아닙니다.
04:26
My motives are purely genuine.
68
266239
2290
내 동기는 순전히 진실합니다.
04:28
Well that's an interesting point about fake news I think.
69
268609
2100
내 생각에 그것은 가짜 뉴스에 대한 흥미로운 점이다.
04:31
We've heard that fake news is produced by people who may want to
70
271160
3210
가짜 뉴스는
04:34
make money or have a political or social agenda.
71
274449
3391
돈을 벌고 싶어하거나 정치적, 사회적 목적을 갖고 있는 사람들에 의해 생산된다는 이야기를 들었습니다.
04:37
Those are their motives,
72
277920
1190
그것이 그들의 동기이지만,
04:39
but they can only be successful if we share those stories.
73
279189
3801
우리가 그 이야기를 공유해야만 성공할 수 있습니다.
04:44
Absolutely. But why do people share news, stories, images that are fake?
74
284120
5310
전적으로. 그런데 왜 사람들은 가짜 뉴스, 이야기, 이미지를 공유하는 걸까요? 옥스퍼드 대학교 옥스퍼드 인터넷 연구소의
04:49
Well researcher Samantha Bradshaw from the Oxford Internet Institute
75
289720
3820
연구원인 사만다 브래드쇼(Samantha Bradshaw)는
04:53
at Oxford University shared her observations with us earlier.
76
293620
3490
앞서 자신의 관찰 내용을 우리와 공유했습니다.
04:58
People share fake news for a variety of reasons.
77
298910
3380
사람들은 다양한 이유로 가짜 뉴스를 공유합니다 .
05:02
In many cases sometimes people don't even realise the stories
78
302449
3871
많은 경우 사람들은 자신이 공유하는 이야기가 가짜라는 사실조차 인식하지 못하는 경우가 있습니다
05:06
that they're sharing are fake.
79
306400
1819
.
05:08
They might find the content funny or humorous or they might think that
80
308329
4110
그들은 콘텐츠가 재미있거나 유머러스하다고 생각할 수도 있고, 친구나 가족, 지인 등
05:12
people in their network such as their friends or family or broader
81
312519
3731
네트워크에 있는 사람들이 이
05:16
acquaintances might enjoy this content.
82
316329
3760
콘텐츠를 즐길 수도 있다고 생각할 수도 있습니다.
05:20
Another reason people might share fake news has to do with
83
320169
3520
사람들이 가짜 뉴스를 공유하는 또 다른 이유는
05:24
the emotional appeal of fake news because it tends to be very negative.
84
324050
5549
가짜 뉴스가 매우 부정적인 경향이 있기 때문에 감정적으로 호소하는 것과 관련이 있습니다.
05:29
It tends to also elicit a reaction from people and they might be angry
85
329679
4541
그것은 또한 사람들로부터 반응을 이끌어내는 경향이 있으며 그들은 화를 낼 수도
05:34
and they might type and share and discuss what is being talked about
86
334300
5649
있고 이 기사에서 논의되고 있는 내용이
05:40
in this article because they find it so outrageous that they need
87
340029
4151
너무 터무니없어서
05:44
to share it.
88
344259
1620
공유해야 한다고 생각하기 때문에 입력하고 공유하고 토론할 수도 있습니다.
05:45
The third reason why people might share fake news has to do with what
89
345959
3650
사람들이 가짜 뉴스를 공유할 수 있는 세 번째 이유는
05:49
we call 'identity signalling' where people know that the information
90
349689
4571
05:54
being shared in this story is false.
91
354340
2530
이 이야기에서 공유되는 정보가 거짓임을 사람들이 아는 '신원 신호 전달'과 관련이 있습니다.
05:56
But the purpose of sharing it is to signal to a broader community that
92
356949
4210
그러나 이를 공유하는 목적은
06:01
they share certain values that are reflected in that news story.
93
361239
4910
해당 뉴스 기사에 반영된 특정 가치를 공유한다는 것을 더 넓은 커뮤니티에 알리는 것입니다.
06:06
And so it gives people a sense of belonging and
94
366680
5130
그래서 그것은 사람들에게 소속감을 주고
06:12
fitting into a broader community of people.
95
372139
2671
더 넓은 사람들의 공동체에 속해 있다는 느낌을 줍니다.
06:14
Has much more to do with identity than the actual facts of the story.
96
374889
4241
이야기의 실제 사실보다 정체성과 더 많은 관련이 있습니다.
06:20
So what do you make of that Sam?
97
380449
1330
그럼 그 샘을 어떻게 생각하시나요?
06:22
OK, well, I can definitely see how we might accidentally share
98
382790
4039
좋아요, 글쎄요, 우리가 실수로 사실이 아닌 것을 어떻게 공유할 수 있는지는 확실히 알 수 있습니다
06:26
things that aren't true for, for example I sometimes see some
99
386909
3800
. 예를 들어
06:30
amazing photos that I find out later are actually photoshopped.
100
390789
3311
나중에 알게 된 놀라운 사진이 실제로 포토샵 처리된 것임을 가끔 보게 됩니다.
06:34
and things that might make me angry can make me reach for the share button.
101
394939
4230
그리고 나를 화나게 만드는 것들이 공유 버튼을 누르게 만들 수도 있습니다.
06:39
But what stood out for me was this idea of identity signalling.
102
399249
4361
하지만 저에게 눈에 띄는 것은 신원 신호에 대한 아이디어였습니다.
06:44
We might want to show that we belong to a particular group.
103
404060
3040
우리는 특정 그룹에 속해 있음을 보여주고 싶을 수도 있습니다.
06:47
We share some beliefs and opinions and that it really doesn't matter
104
407180
3930
우리는 몇 가지 신념과 의견을 공유하며
06:51
whether the content is true or not.
105
411350
1729
내용이 사실인지 아닌지는 실제로 중요하지 않습니다.
06:53
And this is something that the people who produce fake news know well
106
413399
3501
그리고 이것은 가짜 뉴스를 생산하는 사람들이 잘 알고
06:57
and they know how to make us share those stories.
107
417050
2669
있고, 그 이야기를 우리에게 공유하게 만드는 방법을 알고 있습니다.
06:59
Here's Samantha Bradshaw again.
108
419799
2090
여기 또 사만다 브래드쇼가 있습니다.
07:02
So the purveyors of fake news will use a variety of strategies to
109
422329
5731
따라서 가짜 뉴스 제공자는
07:08
get people clicking and sharing their content.
110
428139
4000
사람들이 콘텐츠를 클릭하고 공유하도록 하기 위해 다양한 전략을 사용할 것입니다.
07:12
One of these strategies has to do with just the style that fake news
111
432219
5410
이러한 전략 중 하나는 가짜 뉴스
07:17
stories are often written in.
112
437709
1781
기사가 자주 작성되는 스타일과 관련이 있습니다.
07:19
They'll tend to use highly emotional language and content also that gets
113
439759
6750
그들은 또한
07:26
people's emotions high.
114
446589
2090
사람들의 감정을 고조시키는 매우 감정적인 언어와 내용을 사용하는 경향이 있습니다.
07:28
And this is because psychologically we also like to share
115
448759
4861
그리고 심리적으로 도 우리는
07:33
this kind of information.
116
453699
1490
이런 종류의 정보를 공유하는 것을 좋아하기 때문입니다.
07:35
And this kind of content, especially highly emotive content,
117
455360
4109
그리고 이러한 종류의 콘텐츠, 특히 매우 감성적인 콘텐츠는 플랫폼의 알고리즘으로
07:39
will go much further because of the algorithms of the platforms.
118
459549
4561
인해 훨씬 ​​더 발전할 것입니다 .
07:44
And we also know that emotions like anger, outrage, fear are
119
464189
5690
그리고 우리는 분노, 분노, 두려움과 같은 감정이 행복이나 기쁨과 같은 감정
07:49
much stronger emotions than things like happiness and joy.
120
469959
3340
보다 훨씬 더 강한 감정이라는 것을 알고 있습니다 .
07:53
And so that's why we see disinformation and fake news stories
121
473379
4031
그렇기 때문에 우리는 허위 정보와 가짜 뉴스가
07:57
go viral compared to facts and the boring truth and the mundane truth
122
477490
6039
사실과 비교하여 입소문을 타고, 지루한 진실과
08:03
behind our factual daily news briefs.
123
483609
5261
사실적인 일일 뉴스 브리핑 뒤에 숨은 평범한 진실을 보는 이유입니다.
08:08
We of course still see our cat memes and cute animal videos going viral too
124
488949
5171
물론
08:14
because joy and happiness is a strong emotion but it's not quite as strong
125
494199
5020
기쁨과 행복은 강한 감정이지만
08:19
as things like anger and fear.
126
499299
2751
분노와 두려움만큼 강하지는 않기 때문에 우리는 고양이 밈과 귀여운 동물 비디오가 입소문을 타고 있는 것을 여전히 보고 있습니다.
08:22
Now we know that many fake news stories are very emotive.
127
502129
2880
이제 우리는 많은 가짜 뉴스 기사가 매우 감동적이라는 것을 알고 있습니다.
08:25
They generate strong emotions; the sense that something's not fair
128
505089
4000
그들은 강한 감정을 불러일으킵니다. 무언가가 불공평하다
08:29
or people or organisations are doing things they shouldn't and that can
129
509269
3390
거나 사람이나 조직이 해서는 안 되는 일을 하고 있다는 느낌, 그리고
08:32
make us look for other content to support that feeling.
130
512740
2990
그러한 느낌을 뒷받침할 다른 콘텐츠를 찾게 만들 수 있습니다.
08:36
Yeah but good to know the cute cat videos are being shared too.
131
516620
4430
네, 하지만 귀여운 고양이 동영상도 공유되고 있다는 걸 알게 되어 좋네요.
08:41
And dogs don't forget dogs!
132
521279
2951
그리고 개는 개를 잊지 않습니다!
08:44
But she also talked about algorithms,
133
524899
2070
하지만 그녀는
08:47
the algorithms that social media companies use.
134
527090
2969
소셜 미디어 회사가 사용하는 알고리즘에 대해서도 이야기했습니다.
08:50
So Sam what is an algorithm?
135
530289
2291
그렇다면 샘은 알고리즘이 무엇인가요?
08:53
OK, thanks for that Hugo!
136
533090
1449
네, 휴고 고마워요!
08:55
I might get into trouble here from computer experts but let's have a go.
137
535190
5490
여기서 컴퓨터 전문가가 문제를 일으킬 수도 있지만 한번 가보겠습니다.
09:00
Have you ever lost a huge amount of time because, for example,
138
540760
4390
예를 들어
09:05
you've gone on YouTube to watch a video and then you see a list of
139
545230
4180
YouTube에서 동영상을 시청했는데
09:09
suggested related videos which start playing automatically?
140
549490
4059
자동으로 재생되기 시작하는 추천 관련 동영상 목록이 표시되어 엄청난 시간을 낭비한 적이 있습니까?
09:14
All the time, all the time. I think we've all done that.
141
554000
3009
항상, 항상. 내 생각엔 우리 모두가 그런 일을 해본 적이 있을 것 같아요.
09:17
Absolutely. So you click on one video and then another
142
557940
2420
전적으로. 따라서 하나의 비디오를 클릭한 다음 다른 비디오, 또
09:20
and another and another and then it's been hours and hours and hours.
143
560629
4121
다른 비디오, 또 다른 비디오를 클릭하면 몇 시간, 몇 시간, 몇 시간이 걸립니다.
09:25
Exactly. Yeah. OK. So what's this got to do with algorithms?
144
565169
3050
정확히. 응. 좋아요. 그렇다면 이것이 알고리즘과 어떤 관련이 있습니까?
09:28
Well an algorithm is a set of instructions a computer system
145
568299
4811
알고리즘은
09:33
follows to complete a particular task.
146
573190
3329
특정 작업을 완료하기 위해 컴퓨터 시스템이 따르는 일련의 지침입니다.
09:36
Social media companies use algorithms to make that list of
147
576600
4130
소셜 미디어 회사는 알고리즘을 사용하여
09:40
related videos just for you.
148
580810
3370
귀하에게 꼭 맞는 관련 동영상 목록을 만듭니다.
09:44
These are personalised based on your behaviour online and
149
584260
4179
이는 귀하의 온라인 행동을 기반으로 맞춤화되어
09:48
they get us clicking.
150
588519
1500
클릭을 유도합니다.
09:50
This is because the companies want to keep you on their platforms for
151
590100
3830
이는 회사가 귀하를 가능한 한 오랫동안 플랫폼에 유지하기를 원하기 때문입니다
09:54
as long as possible. That's how they make their money.
152
594010
3389
. 그것이 그들이 돈을 버는 방법입니다.
09:57
The longer you're on their site the more links you click the more
153
597529
3331
사이트에 오래 머무를수록 더 많은 링크를 클릭할수록 더 많은
10:00
advertisements you see and the more cash they collect.
154
600940
2889
광고를 볼 수 있고 더 많은 현금을 모을 수 있습니다.
10:04
And the more we click on a particular kind of story, the more
155
604720
3600
그리고 특정 종류의 스토리를 더 많이 클릭할수록
10:08
the algorithms give us similar content.
156
608400
2790
알고리즘은 유사한 콘텐츠를 더 많이 제공합니다.
10:11
Now there's nothing necessarily wrong with that because I guess
157
611270
3540
이제 그것이 반드시 잘못된 것은 아닙니다. 왜냐하면
10:14
after all we're getting a free service which has to be paid for somehow.
158
614890
4840
결국 우리는 어떻게든 비용을 지불해야 하는 무료 서비스를 받고 있기 때문입니다 .
10:20
But it does mean that we usually don't see things that
159
620090
3150
하지만 그것은
10:23
we don't like, that we don't agree with.
160
623320
1859
우리가 좋아하지 않는 것, 동의하지 않는 것을 대개 보지 않는다는 것을 의미합니다.
10:25
And this can make us feel that our view, our opinion
161
625259
3680
그리고 이것은 우리의 견해, 의견이
10:29
is the right one which everyone shares.
162
629029
2120
모든 사람이 공유하는 올바른 것이라고 느끼게 할 수 있습니다.
10:31
Which is why I think it's a good idea to try and look for different opinions.
163
631460
4189
그렇기 때문에 다양한 의견을 찾아보고 노력하는 것이 좋다고 생각합니다 .
10:35
So we don't end up thinking that everyone thinks the way we do.
164
635730
4069
따라서 우리는 모든 사람이 우리와 같은 방식으로 생각한다고 생각하지 않습니다.
10:39
So does that mean after watching all your cat videos you search for dog videos,
165
639879
4821
그렇다면 고양이 동영상을 모두 본 후 균형을 맞추기 위해 개 동영상을 검색한다는 의미인가요
10:44
for a bit of balance?
166
644780
1409
?
10:46
I love cats and dogs equally actually but that's not exactly what I was thinking.
167
646429
4551
나는 실제로 고양이와 개를 똑같이 사랑 하지만 정확히 내가 생각했던 것과는 다릅니다.
10:51
I'm just putting your leg there.
168
651060
979
나는 단지 당신의 다리를 거기에 두는 것뿐입니다.
10:52
Sam please remind us of today's vocabulary.
169
652549
2921
샘 오늘의 어휘를 알려주세요.
10:55
Certainly Hugo.
170
655860
600
물론 휴고.
10:56
So we started with 'agenda' which is a plan of things to be done.
171
656540
3659
그래서 우리는 해야 할 일에 대한 계획인 '의제'부터 시작했습니다 .
11:00
And it's a hidden, and if it's a hidden agenda, it means the reason
172
660679
3841
그리고 그것은 숨겨진 것이고, 숨겨진 의제라면
11:04
for someone's actions might be secret or hidden.
173
664600
3779
누군가의 행동에 대한 이유가 비밀이거나 숨겨져 있을 수 있다는 뜻입니다.
11:08
Then there was the word 'actor'.
174
668480
1659
그 다음에는 '배우'라는 단어가 있었다.
11:10
In the context of fake news an actor is someone with an agenda that uses
175
670549
4680
가짜 뉴스의 맥락에서 행위자는
11:15
power and influence to try and promote that agenda.
176
675309
3761
권력과 영향력을 사용하여 해당 의제를 홍보하는 의제를 가진 사람입니다.
11:20
A 'motive' is a reason for doing something.
177
680029
2770
'동기'는 어떤 일을 하는 이유입니다.
11:22
And like hidden agendas sometimes the motives for a particular action
178
682990
4419
그리고 숨겨진 의제와 마찬가지로 인터넷에서 특정 행동의 동기가
11:27
on the Internet are not always clear and transparent.
179
687490
3979
항상 명확하고 투명하지는 않습니다.
11:31
Samantha Bradshaw talked about identity signalling.
180
691549
3641
Samantha Bradshaw는 신원 신호에 대해 이야기했습니다.
11:35
This is the description of behaviour online when people share things
181
695299
3691
이것은 사람들이 사실인지 아닌지에 관심 없이 물건을 공유하는 온라인 행동에 대한 설명입니다
11:39
without being interested in whether they're true or not.
182
699320
2889
.
11:42
What's important is not how true it is but that it demonstrates that
183
702289
4110
중요한 것은 그것이 얼마나 사실 인지가 아니라
11:46
they think in the same way or share the same beliefs as the group.
184
706480
5149
그들이 그룹과 같은 방식으로 생각하거나 동일한 신념을 공유한다는 것을 입증하는 것입니다.
11:51
And finally 'algorithm'.
185
711710
1380
그리고 마지막으로 '알고리즘'입니다.
11:53
An algorithm is a set of software instructions that for example can
186
713600
3990
알고리즘은 예를 들어
11:57
produce a personalised list of recommended videos based on what
187
717670
4089
12:01
an individual has searched for or watched in the past.
188
721840
3160
개인이 과거에 검색하거나 시청한 내용을 기반으로 맞춤화된 추천 비디오 목록을 생성할 수 있는 일련의 소프트웨어 지침입니다.
12:06
Thank you Sam. That was very comprehensive.
189
726250
2200
고마워요 샘. 그것은 매우 포괄적이었습니다.
12:08
That's all from us today. We look forward to your company again soon.
190
728530
3269
그게 오늘 우리의 전부입니다. 우리는 곧 다시 귀하의 회사를 기대합니다.
12:11
Goodbye. And stay safe.
191
731879
2260
안녕히 가세요. 그리고 안전하게 지내십시오.
12:14
Bye bye!
192
734259
500
안녕!
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7