Fake News: Fact & Fiction - Episode 4: Covid-19: Fake news and conspiracy theories

76,225 views ・ 2020-09-03

BBC Learning English


아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.

00:06
Hugo: Hello. This is Fake News, Fact and Fiction from BBC
0
6589
2805
휴고: 안녕하세요. 이것은 BBC Learning English의 가짜 뉴스, 사실 및 허구입니다
00:09
Learning English. I'm Hugo.
1
9461
1328
. 저는 휴고입니다.
00:11
Sam: And I'm Sam.
2
11019
850
샘: 그리고 저는 샘입니다.
00:12
Hugo: And as you see we're not in the studio today. Like in
3
12019
2250
Hugo: 보시다시피 오늘은 스튜디오에 없습니다.
00:14
many parts of the world we're practising social distancing
4
14336
3459
세계의 많은 지역에서처럼 우리는 사회적 거리두기를 실천
00:17
and working from home. How are you doing there, Sam?
5
17861
2173
하고 재택근무를 하고 있습니다. 그곳에서 잘 지내고 있니, 샘?
00:20
Sam: I'm doing OK. Thank you Hugo, but it is definitely
6
20820
2975
샘: 잘 지내고 있어요. 고마워요 휴고, 하지만 지금
00:23
a strange world that we're living in right now, isn't it?
7
23861
2642
우리가 살고 있는 세상은 확실히 이상한 세상이죠 ?
00:26
And I don't know if you remember but in our first
8
26690
3510
기억하실지 모르겠지만 첫 번째
00:30
programme we talked about stories going viral, so
9
30266
4063
프로그램에서 우리는 입소문이 난 이야기에 대해 이야기했습니다. 그래서 지금
00:34
spreading around the internet really quickly and well now,
10
34396
4483
인터넷에 정말 빠르고 잘 퍼지고 있습니다.
00:38
what we have is a real virus that has gone viral.
11
38946
3853
우리가 가진 것은 입소문이 난 진짜 바이러스입니다.
00:42
Hugo: Indeed. And that is going to be the focus of today's
12
42866
2813
휴고: 과연. 그리고 그것이 오늘 프로그램의 초점이 될 것입니다
00:45
programme. This pandemic has seen a large amount of fake
13
45746
3683
. 이 대유행은 많은 양의 가짜
00:49
news attached to it. And as we sit at home browsing the
14
49496
3624
뉴스가 첨부된 것을 보았습니다. 그리고 우리는 집에 앉아 인터넷을 검색하면서 바이러스
00:53
internet we may have come across many different stories
15
53186
3039
00:56
and theories of the causes of the virus or possible cures. So
16
56291
3548
의 원인 또는 가능한 치료법에 대한 다양한 이야기와 이론을 접했을 수 있습니다. 그래서
00:59
today we're looking at fake news in the era of Covid-19.
17
59906
4023
오늘 우리는 코로나19 시대에 가짜 뉴스를 보고 있습니다.
01:03
But before we get to that Sam, do you have some vocabulary for us?
18
63996
3730
하지만 우리가 그 Sam에게 가기 전에, 우리를 위한 단어가 있습니까?
01:07
19
67226
500
01:07
Sam: Yes I do. So today I'm focusing on some useful
20
67793
3521
샘: 네 그렇습니다. 그래서 오늘 저는 여러분이 온라인에서 본 것이 사실이 아니라고 생각할 때 사용할 수 있는 몇 가지 유용한 어휘에 초점을 맞추고 있습니다
01:11
vocabulary you might use if you think that what you've seen
21
71381
3774
01:15
online is not true.
22
75221
1828
.
01:21
Red flags are often used as a warning sign. In fact in
23
81659
4906
적신호는 종종 경고 신호로 사용됩니다. 사실
01:26
Britain when motor cars were first used on the streets the
24
86631
3774
영국에서 자동차가 처음으로 거리에서 사용되었을 때
01:30
law said that you had to have someone walking in front of the
25
90471
3968
법률에 따르면
01:34
vehicle carrying a red flag to warn other road users. These
26
94506
5484
다른 도로 사용자에게 경고하기 위해 빨간색 깃발을 들고 차량 앞에서 걸어가는 사람이 있어야 했습니다.
01:40
days if a piece of information or a social media post
27
100056
3999
요즘 정보 나 소셜 미디어 게시물이
01:44
'raises a red flag' it means you are suspicious that it
28
104121
4419
'위험 신호를 일으킨다'는 것은
01:48
might be fake news.
29
108606
2183
가짜 뉴스일 가능성이 있다는 의심을 의미합니다. 조심해야 할
01:50
There are many red flags to watch out for. For example a
30
110856
3204
위험 신호가 많이 있습니다 . 예를 들어
01:54
post that says something like 'the media doesn't want you to
31
114126
3729
'미디어는 당신이
01:57
know this' or maybe it's a meme or a quote that claims that a
32
117921
4628
이것을 알기를 원하지 않습니다'와 같은 내용의 게시물 또는
02:02
politician you don't like has said or done something
33
122616
3384
당신이 좋아하지 않는 정치인이 끔찍한 말이나 행동을 했다고 주장하는 밈이나 인용문일 수 있습니다
02:06
terrible. These posts might be easy to share or they might
34
126066
4179
. 이러한 게시물은 공유하기 쉬울 수도 있고
02:10
even say 'you must share this!' or 'share this if you agree'.
35
130311
5089
'공유해야 합니다!'라고 말할 수도 있습니다. 또는 '동의하는 경우 공유'.
02:15
Those are some examples of red flags that could make you doubt
36
135466
3223
다음은 정보의 진실성을 의심하게 만들 수 있는 위험 신호의 몇 가지 예입니다
02:18
how true the information is.
37
138756
2394
.
02:21
We all like to share things and we all like it when things we
38
141389
3661
우리 모두는 무언가를 공유하는 것을 좋아하고 우리가
02:25
share are liked. But before you hit that share button it's a
39
145116
4823
공유하는 것이 마음에 드는 것을 좋아합니다. 그러나 공유 버튼을 누르기 전에
02:30
good idea to fact-check the information the
40
150006
3563
정보를 사실 확인하는 것이 좋습니다. 1970년대에
02:33
verb fact-check, first used in the 1970s, simply means to
41
153840
4755
처음 사용된 동사 사실 확인은 정보가 사실인지
02:38
check the facts to confirm that the information is true.
42
158661
3968
확인하기 위해 사실을 확인한다는 의미입니다 . 정보를
02:42
There are quite a few fact- checking websites which can
43
162696
3354
02:46
help you to verify, prove, or debunk, disprove,
44
166116
5513
확인, 증명 또는 반박, 반증하는 데 도움이 되는 사실 확인 웹사이트가 꽤 많이 있습니다
02:51
the information. Debunk, a verb from the 1920s, means to prove
45
171696
6368
. Debunk는 1920년대에 사용된 동사로
02:58
or demonstrate that something is not true that it is
46
178131
3019
어떤 것이 사실이 아님을
03:01
completely false. So fact- checking can help you to debunk
47
181216
4483
완전히 거짓임을 증명하거나 입증하는 것을 의미합니다. 따라서 사실 확인을 통해 소셜 미디어에서
03:05
false claims made on social media.
48
185766
2934
제기된 잘못된 주장을 폭로할 수 있습니다 .
03:08
Now you might be wondering, as there is a word debunk, is
49
188766
4404
이제 여러분은 폭로라는 단어가 있는 것처럼 벙
03:13
there a word bunk? Well yes there is but it's not a verb
50
193236
4553
크라는 단어가 있는지 궁금할 것입니다. 네, 있습니다만 동사가 아니라
03:17
it's a noun. Bunk and also bunkum are words that mean
51
197856
4613
명사입니다. Bunk와 Bunkum은 넌센스를 의미하는 단어입니다
03:22
nonsense. Interestingly they are political in origin and
52
202536
4869
. 흥미롭게도 그들의 출신은 정치적이며 미국의
03:27
come from the county of Buncombe in the United States. This
53
207471
3999
Buncombe 카운티 출신입니다 . 이
03:31
county was represented by a politician who talked a lot
54
211536
4134
군은 중요한 말 없이 말만 많이 하는 정치인으로 대표됐다
03:35
without saying anything important. So he talked bunkum.
55
215759
4511
. 그래서 그는 헛소리를 했다.
03:40
Now back to the studio.
56
220336
1063
이제 스튜디오로 돌아갑니다.
03:44
Hugo: Very interesting Sam, it certainly wasn't bunkum but
57
224879
2656
휴고: 매우 흥미로운 샘, 확실히 별거 아니었지만 거기에 없었던
03:47
there was a piece of fake news there wasn't there? 'Back to
58
227601
2229
가짜 뉴스가 있었어요 ? '스튜디오로 돌아가
03:49
the studio'?
59
229896
534
'?
03:50
Sam: Yes, well spotted. I did record that section before I
60
230639
3946
Sam: 네, 잘 발견했습니다. 이번 편은 집에서 촬영한다는 사실을 알기 전에 그 부분을 녹음한 부분이니
03:54
knew that we would be filming from home for this episode so I
61
234651
3309
03:58
hope you will forgive me for that.
62
238026
3124
양해 부탁드립니다.
04:01
Hugo: Of course, now this pandemic has been dominating
63
241216
2338
Hugo: 물론, 이제 이 팬데믹은
04:03
the news for a long time now and there are many legitimate
64
243621
2619
오랫동안 뉴스를 지배해 왔으며
04:06
areas of discussion to do with restrictions of movement,
65
246306
2724
이동 제한,
04:09
testing, treatments and the economy.
66
249096
4073
테스트, 치료 및 경제와 관련된 합법적인 논의 영역이 많이 있습니다.
04:13
Sam: But we've also seen a lot of different theories about the
67
253236
2483
Sam: 그러나 우리는 바이러스에 대해
04:15
virus which are not supported by any evidence but which many
68
255786
4194
어떤 증거로도 뒷받침되지 않지만 많은
04:20
people have still shared . Some of these are what are known as
69
260046
4358
사람들이 여전히 공유하고 있는 다양한 이론을 많이 보았습니다. 이들 중 일부는 음모론으로 알려진 것입니다
04:24
conspiracy theories.
70
264471
1869
.
04:26
Hugo: And examples of conspiracy theories are that
71
266406
2198
Hugo: 그리고 음모론의 예는
04:28
the earth is flat or that the moon landings were fake and
72
268671
3383
지구가 평평하다거나 달 착륙이 가짜라는 것입니다.
04:32
even though these theories are comprehensively debunked some
73
272121
3219
이러한 이론이 포괄적으로 거짓임을 폭로하더라도 일부
04:35
people still strongly believe them. To find out more
74
275406
2603
사람들은 여전히 그것을 강력하게 믿습니다. 음모론에 대해 자세히 알아보기 위해
04:38
about conspiracy theories we spoke to Professor Joe
75
278076
2974
우리는 Joe Uscinski 교수와 이야기를 나눴습니다
04:41
Uscinski. He's an associate professor of political science
76
281116
3148
. 그는 마이애미 대학의 정치학 부교수이자
04:44
at the University of Miami and the author of the book
77
284331
2664
04:47
'Conspiracy Theories, a Primer'. We asked him first to
78
287061
3473
'음모 이론, 입문서'라는 책의 저자입니다. 우리는 먼저 그에게
04:50
define the term conspiracy theory and why people
79
290601
2528
음모론이라는 용어의 정의 와 사람들이
04:53
believe them.
80
293196
500
그것을 믿는 이유를 물었습니다.
04:58
A conspiracy theory is an allegation or an idea that a
81
298050
5790
음모론은
05:03
small group of powerful people are working in secret to effect
82
303906
5904
소수의 강력한 사람들이 공동선에 해를 끼치는 방식으로 사건이나 상황에 영향을 미치기 위해 비밀리에 활동하고 있다는 주장이나 생각입니다
05:09
an event or circumstance in a way that benefits them and
83
309876
4868
05:14
harms the common good. And further this theory hasn't been
84
314811
4238
. 그리고 더 나아가 이 이론은 그러한 사건을 확인하기 위해 우리가 찾는
05:19
confirmed by the people we would look to to confirm such
85
319116
5363
사람들에 의해 확인되지 않았습니다
05:24
events. There is nothing new about conspiracy theories and
86
324546
3473
. 음모론에는 새로운 것이 없으며
05:28
you can find them if you look through almost any historical
87
328086
3594
거의 ​​모든 역사적
05:31
document.
88
331746
1268
문서를 살펴보면 찾을 수 있습니다.
05:33
So for example the United States Declaration of
89
333081
2709
예를 들어 미국 독립 선언문에는
05:35
Independence has a few paragraphs about politics. But
90
335856
4704
정치에 관한 몇 단락이 있습니다. 하지만
05:40
then once you read beneath that, it's largely a
91
340626
2468
그 아래를 읽으면 대부분
05:43
list of conspiracy theories about the king of England. So
92
343161
5103
영국 왕에 대한 음모론 목록입니다. 그러므로
05:48
they exist amongst all people at all times. They're very much
93
348331
4229
그들은 항상 모든 사람들 가운데 존재한다 . 그것들은
05:52
a human constant. People like to have their ideas make sense
94
352626
4503
인간의 상수입니다. 사람들은 자신의 아이디어가 서로 결합될 때 의미가 있는 것을 좋아합니다
05:57
when in combination with each other. So in order for someone
95
357209
4351
. 그래서 누군가가
06:01
to adopt a conspiracy theory that theory has to match with
96
361626
5258
음모론을 채택하기 위해서는 그 이론이
06:06
what they already believe.
97
366951
2154
그들이 이미 믿고 있는 것과 일치해야 합니다.
06:09
So for example if you really like President Obama, you're
98
369171
2919
예를 들어 오바마 대통령을 정말로 좋아한다면
06:12
probably not going to think that he faked his birth
99
372156
2048
그가
06:14
certificate to illegally become president. If you really like
100
374271
4073
불법적으로 대통령이 되기 위해 출생 증명서를 위조했다고 생각하지 않을 것입니다. 정말로
06:18
President Bush, you're not going to buy the theory that he
101
378411
2528
부시 대통령을 좋아한다면 그가
06:21
blew up the Twin Towers on 9/11.
102
381006
1923
9/11에 쌍둥이 빌딩을 폭파했다는 이론을 받아들이지 않을 것입니다.
06:23
So people's conspiracy theories have to match their underlying
103
383819
5325
그래서 사람들의 음모론은
06:29
world views that they already carry with them so that's why
104
389211
4513
그들이 이미 갖고 있는 근본적인 세계관과 일치해야 합니다. 그래서
06:33
people's conspiracy theories tend to match their political
105
393791
3564
사람들의 음모론은 진보적이든 보수적이든 그들의 정치적 설득과 일치하는 경향이 있고
06:37
persuasion whether they're liberal or conservative and
106
397421
3059
06:40
they have to match their other world views too.
107
400546
2259
다른 세계관도 일치해야 합니다.
06:43
So for that reason it's actually more difficult to
108
403399
2761
그렇기 때문에
06:46
convince people of conspiracy theories than you might think.
109
406226
2673
사람들에게 음모론을 납득시키는 것은 생각보다 실제로 더 어렵습니다.
06:49
Hugo: So we only really buy into a conspiracy theory if
110
409459
3015
Hugo: 그래서 우리는 음모론이
06:52
it's in line with what we already think about the world.
111
412541
3324
우리가 이미 세상에 대해 생각하는 것과 일치하는 경우에만 실제로 그것을 받아들입니다.
06:55
Sam: Yes and that ties in with a lot of the fake news research
112
415931
3549
Sam: 네, 그리고 그것은 많은 가짜 뉴스 연구와 관련이 있지
06:59
doesn't it? So people will share things they believe to be
113
419546
3504
않습니까? 따라서 사람들은
07:03
true or want to be true because the ideas match with their own
114
423116
4028
생각이 자신의
07:07
political or ideological views.
115
427211
3593
정치적 또는 이념적 견해와 일치하기 때문에 사실이라고 믿거나 진실하기를 원하는 것을 공유할 것입니다.
07:10
I'd also like to mention the phrase 'buy' or 'buy into'
116
430871
3749
나는 또한 그와 당신이 Hugo가 방금 사용한 'buy' 또는 'buy into'라는 문구를 언급하고 싶습니다
07:14
which he and you Hugo just used. So these both mean to
117
434686
4309
. 따라서 둘 다 무언가가 사실임을
07:19
believe or accept that something is true and you can
118
439061
4568
믿거나 받아들이는 것을 의미하며 무언가가 사실이라고 확신하지 못하는 경우
07:23
use the phrase 'I don't buy it' if you are not convinced that
119
443696
4463
'I don't buy it'이라는 문구를 사용할 수 있습니다
07:28
something is true. So for example, I heard somewhere
120
448226
2994
. 예를 들어 어디선가
07:31
that eating lemons can cure coronavirus but I don't buy it.
121
451286
3913
레몬을 먹으면 코로나바이러스를 치료할 수 있다는 말을 들었지만 저는 그것을 사지 않습니다.
07:35
Hugo: Absolutely. Now let's take a trip around the world.
122
455266
2664
휴고: 물론입니다. 이제 세계일주를 해보자.
07:37
We spoke to a number of our BBC colleagues across the globe to
123
457996
3453
우리는 전 세계의 많은 BBC 동료들과 Covid-19와 관련된
07:41
find out what kind of fake news and conspiracy theories related
124
461516
3503
어떤 종류의 가짜 뉴스 와 음모론이 다른 대륙
07:45
to Covid-19 have been shared on different continents and
125
465086
3654
에서 공유되고 있는지 알아보고
07:48
apologies in advance for the quality of the line in some cases
126
468889
3311
어떤 경우에는 전화 품질에 대해 미리 사과했습니다.
07:51
127
471506
694
07:55
Here in Afghanistan at the beginning of the Covid-19
128
475639
3430
여기 아프가니스탄 코비드-19 위기가 시작될 때
07:59
crisis a mullah in the west off the country, in Herat,
129
479136
2598
서쪽 헤라트에 있는 물라는
08:03
compared the number of fatalities in Muslim countries
130
483959
2745
이슬람 국가의 사망자 수를
08:06
with the number of deaths in Western countries and after
131
486771
3683
서방 국가의 사망자 수와 비교한 후
08:10
that said that these numbers showed us the Covid-19 and
132
490521
2923
이 수치가 코 비드-19를 보여주었다고 말했습니다.
08:13
coronavirus does not kill Muslims. But he was absolutely
133
493511
5419
코로나 바이러스는 무슬림을 죽이지 않습니다. 그러나 그는 완전히
08:18
wrong. Nowadays we see the number of deaths in Muslim
134
498996
5318
틀렸습니다. 오늘날 우리는 이슬람
08:24
countries and here in Afghanistan is rising day by day.
135
504381
3662
국가들과 여기 아프가니스탄에서 사망자 수가 날마다 증가하고 있음을 봅니다.
08:28
136
508045
1
08:33
We have received a video and some content with some links
137
513690
5269
우리는
08:39
to internet, to some documents and so on, saying that the
138
519026
4628
08:43
virus has been created by U.S. scientists who have helped
139
523721
6079
바이러스가
08:51
Chinese scientists in Wuhan.
140
531470
2549
우한에서 중국 과학자들을 도왔던 미국 과학자들에 의해 만들어졌다고 말하는 인터넷 링크, 일부 문서 등이 포함된 비디오와 일부 콘텐츠를 받았습니다.
08:55
But, less than two weeks later we have received another video
141
535549
3811
그러나 2주도 채 지나지 않아 우리는
08:59
and other video in the same line, on the same topic
142
539426
3218
09:04
saying that the virus has been created by Chinese helped by
143
544419
6206
바이러스가 프랑스 과학자들의 도움을 받아 중국인에 의해 만들어졌다는 같은 주제의 또 다른 비디오와 같은 라인의 다른 비디오를 받았습니다
09:10
French scientists. But what was worse is that it's roughly the
144
550691
5124
. 그러나 더 나쁜 것은 거의
09:15
same images. The same images that they're giving as evidence
145
555881
4239
같은 이미지라는 것입니다. 그들이 사기의 증거로 제공하는 것과 동일한 이미지
09:20
of the of fraud. This shows clearly that it's a fake.
146
560186
5504
. 이것은 그것이 가짜라는 것을 분명히 보여줍니다.
09:29
Here in Brazil there are a lot of messages on WhatsApp and
147
569519
3235
여기 브라질에서는 WhatsApp 및
09:32
other social media showing photos and videos of people
148
572821
4808
기타 소셜 미디어에 사람들이 묘지
09:37
opening up coffins in cemeteries and showing them
149
577696
5063
에서 관을 열고
09:42
full of stones. And they use this to support the conspiracy
150
582826
6894
돌로 가득 찬 것을 보여주는 사진과 비디오를 보여주는 많은 메시지가 있습니다. 그리고 그들은 이것을 사람들이 좋아하는 음모론을 뒷받침하기 위해 사용합니다
09:49
theory that people are like, increasing the number of deaths
151
589786
5513
. 우리 대통령에게 문제를 일으키기 위해 인위적으로 사망자 수를 늘리는 것입니다
09:55
artificially just to create problems to our president,
152
595366
5004
10:00
you know.
153
600436
500
.
10:01
There are a lot of these messages with these images to
154
601450
3119
10:04
support this idea that this situation is created to, to
155
604636
5723
이 상황이
10:10
hurt him politically. But these images are from like a case two
156
610426
6564
그를 정치적으로 해치기 위해 만들어졌다는 생각을 뒷받침하기 위해 이러한 이미지와 함께 이러한 메시지가 많이 있습니다. 하지만 이 이미지들은 2
10:17
years ago in a city in Sao Paulo state, in the country,
157
617056
5333
년 전 상파울루 주의 한 도시에서 발생한 사건에서 나온 것입니다.
10:22
that was like, a fraud, to insurance you know, like two
158
622456
4328
2
10:26
years ago. So yeah this is one of the things that are
159
626851
3864
년 전처럼 보험에 대한 사기 같았습니다. 네, 이것은
10:30
happening here because of the pandemic.
160
630781
2754
팬데믹 때문에 이곳에서 일어나고 있는 일 중 하나입니다.
10:36
Here in Hong Kong. I've heard many theories and you can
161
636940
3015
여기 홍콩에서. 나는 많은 이론을 들었고 당신은
10:40
always find the most confidential intelligence in my
162
640021
3368
항상
10:43
mother's mobile phone. There was a time I received an urgent
163
643456
4013
어머니의 휴대 전화에서 가장 기밀 정보를 찾을 수 있습니다. 나는
10:47
call from her only to find that she started reading a WhatsApp
164
647536
3354
그녀로부터 긴급 전화를 받았지만
10:50
message to me that was about how the U.S. military smuggled
165
650956
4373
미군이 빠르게 성장하는 중국 경제를 파괴하기 위해 어떻게
10:55
coronavirus to Wuhan in order to destroy China's fast growing
166
655396
4313
코로나바이러스를 우한으로 밀반입했는지에 대한 WhatsApp 메시지를 읽기 시작했다는 것을 알게 되었습니다
10:59
economy. Of course that was absolutely groundless. However
167
659776
4493
. 물론 전혀 근거 없는 이야기였습니다. 그러나
11:04
the message was circulated widely in her social circle.
168
664336
4448
메시지는 그녀의 사교계에 널리 퍼졌습니다.
11:08
They are patriots who tend to believe any conspiracy theories
169
668851
3399
그들은
11:12
targeted at the U.S. authority. So even if I could convince her
170
672316
5003
미국 당국을 겨냥한 음모론이라면 무엇이든 믿는 경향이 있는 애국자들이다. 그래서 이번에는 그 정보가 가짜라고 그녀를 납득시킬 수 있더라도
11:17
that the information was fake this time she would only send
171
677386
3368
그녀는
11:20
me another one next time. It's just unstoppable.
172
680821
2979
다음에 또 한 번만 나에게 보낼 것입니다 . 멈출 수 없습니다.
11:28
Hugo: So we hear there some typical examples of fake news
173
688110
2505
Hugo:
11:30
such as real photographs being deliberately mis-described and
174
690690
4094
실제 사진을 의도적으로 잘못 설명하는 등 가짜 뉴스의 전형적인 예와
11:34
examples of the kind of belief in conspiracy theories
175
694851
2934
11:37
Professor Uscinski was talking about.
176
697851
1441
Uscinski 교수가 이야기한 음모론에 대한 믿음의 예를 들었습니다.
11:39
Sam: Yes and we hear that people want to share these
177
699419
2956
Sam: 네, 그리고 우리는 사람들이
11:42
theories because they have a negative view of a particular
178
702441
3203
특정 국가에 대해 부정적인 견해를 가지고 있고
11:45
country and are happy to believe almost anything
179
705711
2858
11:48
negative they hear about them.
180
708636
2018
그들이 듣는 거의 모든 부정적인 것을 믿기 때문에 이러한 이론을 공유하기를 원한다고 들었습니다.
11:50
I'd also like to pick out a particular word that Billy Chan
181
710721
3158
또한 Billy Chan이 사용한 특정 단어를 선택하고 싶습니다
11:53
used. He used the word 'groundless' to refer to
182
713946
4133
. 그는 일부 주장을 언급하기 위해 '근거 없음'이라는 단어를 사용했습니다
11:58
some claims. 'Groundless' means not based on any evidence.
183
718146
3954
. '근거 없음'은 어떤 증거도 근거하지 않았다는 뜻입니다.
12:02
There's no proof for it.
184
722166
1403
그것에 대한 증거가 없습니다.
12:04
Hugo: So there we had some insights from around the world.
185
724049
2311
Hugo: 그래서 우리는 전 세계에서 통찰력을 얻었습니다.
12:06
Let's look closer to home now we're joined by our BBC
186
726426
3113
이제 BBC 동료인 Marianna Spring과 함께 집에 가까이 가보겠습니다
12:09
colleague Marianna Spring. Thanks for being with us. So if
187
729606
3144
. 우리와 함께 해주셔서 감사합니다. 그래서
12:12
you can just explain the work you do here at the BBC first.
188
732816
3963
당신이 여기 BBC에서 하는 일을 먼저 설명할 수 있다면.
12:16
Marianna: Yes, so I am the specialist disinformation
189
736846
2744
Marianna: 네, 그래서 저는 잘못된 정보 전문
12:19
reporter which means that me along with a team at BBC
190
739656
3863
기자입니다. 즉,
12:23
Trending who are part of the World Service and BBC
191
743586
3144
World Service와 BBC
12:26
Monitoring and BBC Reality Check. And so we investigate
192
746796
4164
Monitoring 및 BBC Reality Check에 속한 BBC Trending 팀과 함께 합니다. 그래서 우리는
12:31
misleading posts as well as looking to tell the stories of
193
751026
2843
오해의 소지가 있는 게시물을 조사하고
12:33
the people who fight and spread misinformation across the world.
194
753936
6086
전 세계에 잘못된 정보를 퍼뜨리고 싸우는 사람들의 이야기를 전하려고 합니다.
12:40
195
760023
1
12:40
Hugo: So you must be really really busy. Is it your feeling
196
760091
2249
휴고: 그럼 정말 정말 바쁘시겠네요. 코로나19에 대한
12:42
that from what you've seen that disinformation, conspiracy
197
762406
4394
허위 정보, 음모론이
12:46
theories about Covid-19 are very different around the world?
198
766866
3684
전 세계적으로 매우 다르다는 것을 본 것 같은 느낌이 드나요?
12:52
Marianna: I think this pandemic is particularly interesting because
199
772429
3595
Marianna: 저는 이 팬데믹이 특히 흥미롭다고 생각합니다. 왜냐하면 우리가 본 오해의
12:56
200
776025
1
12:56
most of the misleading stuff we've seen has actually been
201
776570
2489
소지가 있는 것의 대부분이 실제로는 믿을 수 없을
12:59
incredibly global. So there was one particularly viral case
202
779126
3294
정도로 전 세계적이었기 때문입니다. 그래서 우리가 추적한 특히 입소문이 난 사례가 하나 있었는데
13:02
that we tracked, a list of dodgy medical myths and tips,
203
782486
3833
, 의심스러운 의학적 통념과 팁 목록이
13:06
and it hopped from the Facebook page of a man in the U.K. to
204
786386
6008
영국에 있는 한 남성의 페이스북 페이지에서 인도에 거주하는
13:12
Facebook groups for Catholics living in India to the
205
792470
4559
가톨릭 신자를 위한 페이스북 그룹으로,
13:17
Instagram account of a Ghanaian television presenter. So this
206
797096
3264
가나 텔레비전 진행자의 인스타그램 계정으로 건너뛰었습니다. . 그래서 이
13:20
stuff really goes global and is attributed to a range of
207
800426
3143
물건은 실제로 전 세계적으로 퍼지고
13:23
different people, to hospitals, professors doctors in the US,
208
803636
3944
미국의 병원, 의사 교수,
13:27
in Africa in Europe.
209
807646
1923
유럽의 아프리카 등 다양한 사람들에게 귀속됩니다.
13:29
There's no limit to to who it can be who is alleged to have
210
809636
4008
13:33
started or spread the rumour. However. I do think there are
211
813711
4304
루머를 시작하거나 퍼뜨렸다고 주장하는 사람에는 제한이 없습니다. 하지만. 특정 국가에 특정한
13:38
also specific instances of conspiracy theories or
212
818081
2619
음모론이나
13:40
misleading information that are specific to certain countries.
213
820766
3024
오해의 소지가 있는 정보의 특정 사례도 있다고 생각합니다 . 예를 들어 영국과 같은
13:43
In other places, for instance in the U.K. there's been a
214
823856
2993
다른 곳에서는
13:46
conspiracy theory relating to 5G suggesting that 5G
215
826916
3963
5G
13:50
technology could perhaps be linked to coronavirus and the
216
830946
3718
기술이 아마도 코로나 바이러스 및
13:54
spread of it. Those claims are totally false. But I think
217
834731
2904
그 확산과 관련이 있을 수 있다고 제안하는 5G 관련 음모론이 있었습니다. 그 주장은 완전히 거짓입니다. 하지만
13:57
because here in the U.K. we've been talking lots about 5G
218
837701
2919
여기 영국에서 우리는 5G
14:00
technology and how it will be rolled out they've felt relevant.
219
840686
3193
기술과 그것이 어떻게 전개될 것인지에 대해 많은 이야기를 해왔기 때문에 그들이 적절하다고 느꼈던 것 같습니다.
14:02
220
842756
1123
14:03
And then in other countries across the world there are
221
843946
2493
그리고 전 세계의 다른 국가에는 예를 들어 중국이나 베트남과 같은
14:06
specific home remedies or suggestions, for instance in
222
846506
3364
특정 가정 요법 이나 제안이 있습니다
14:09
China or Vietnam, which have caused harm to people because
223
849936
4514
. 그들은
14:14
they believed they would prevent or cure coronavirus.
224
854629
2851
코로나 바이러스를 예방하거나 치료할 것이라고 믿었기 때문에 사람들에게 해를 끼쳤습니다.
14:18
Hugo: And how can we in the mainstream media help
225
858019
3495
Hugo: 우리가
14:21
particularly in a time when we're being attacked, we're not
226
861581
3999
공격을 받고
14:25
always trusted by people?
227
865646
1314
사람들에게 항상 신뢰를 받지 못하는 상황에서 특히 주류 미디어에서 어떻게 도움을 줄 수 있을까요?
14:27
Marianna: I think there are two crucial things that we can do
228
867080
2609
Marianna: 다양한 청중을 위해 이 영역을 다루기 위해 할 수 있는 두 가지 중요한 일이 있다고 생각합니다
14:30
to cover this area for different audiences. The first
229
870019
4216
. 첫
14:34
one is not just to show our answers but to show the
230
874301
2588
번째는 우리의 답을 보여주는 것이 아니라
14:36
workings. So when we reveal that something is false or
231
876956
3113
작동하는 모습을 보여주는 것입니다. 따라서 무언가가 거짓이거나
14:40
misleading we don't just put that assertion out there. We
232
880136
3653
오해의 소지가 있음을 밝힐 때 우리는 그 주장을 그냥 내세우지 않습니다 . 우리는
14:43
also show how we reach that point. We show how we
233
883856
2753
또한 우리가 그 지점에 도달하는 방법을 보여줍니다 .
14:46
investigated a specific post or specific claims and why they're
234
886676
4133
특정 게시물 또는 특정 주장을 조사한 방법과 해당 주장이
14:50
untrue. And I think that's a really good way of letting
235
890876
3653
사실이 아닌 이유를 보여줍니다. 그리고 이것이
14:54
people into how we operate and actually gaining their trust.
236
894596
4269
사람들이 우리가 운영하는 방식에 참여하게 하고 실제로 신뢰를 얻을 수 있는 정말 좋은 방법이라고 생각합니다.
14:58
And secondly I think it's crucial to educate audiences in
237
898931
2799
두 번째로 온라인에서 퍼지는 오해의 소지가 있는 내용을
15:01
how they can both spot and stop misleading stuff spreading
238
901796
3384
발견하고 중지할 수 있는 방법을 청중에게 교육하는 것이 중요하다고 생각합니다
15:05
online. So there are certain red flags that we look out for
239
905246
3784
. 따라서
15:09
when we see something online that makes me think "Oh that
240
909096
3394
온라인에서 "아,
15:12
looks a bit suspicious". One of them will be these
241
912556
2839
좀 수상해 보여요"라고 생각하게 만드는 특정 위험 신호가 있습니다. 그 중 하나는
15:15
introductions I've mentioned where a friend's brother's
242
915461
3114
내가 언급한 뉴욕에서
15:18
cousin's uncle who's a doctor in New York has said something
243
918641
4164
의사인 친구의 형제의 사촌의 삼촌이 이런
15:22
or other. If we see an introduction like that it's
244
922871
2619
저런 말을 한 소개일 것입니다. 이와 같은 소개를 본다면 그것은
15:25
probably not right and you need to get to the bottom of who
245
925556
2648
아마도 옳지 않을 것이며 그 정보가 누구에게서 왔는지 밑바닥에 도달해야 합니다
15:28
that information has come from.
246
928271
1643
.
15:29
And also often posts will say 'you must read this - you must
247
929981
3488
또한 종종 게시물에
15:33
share it' in capital letters or mismatched fonts and that can
248
933536
4178
대문자 또는 일치하지 않는 글꼴로 '이 글을 읽어야 합니다. 공유해야 합니다
15:37
also be another sign that something might be misleading.
249
937781
2949
.
15:40
Another key thing that we look out for are posts that play on
250
940796
4178
우리가 주의를 기울이는 또 다른 핵심 사항은 우리의 감정을 자극 하는 게시물입니다.
15:45
our emotions, often boring, often accurate information is
251
945041
4044
종종 지루하고 종종 정확한 정보는
15:49
actually a bit more boring and it's the stuff that makes us
252
949151
2934
사실 조금 더 지루하며 우리를
15:52
angry or or even happy that seems to give us answers we
253
952151
3519
화나게 하거나 심지어 행복하게 만드는 것은 우리가 찾고 있던 답을 제공하는 것 같습니다.
15:55
were looking for that tends to be misleading.
254
955736
2468
오해의 소지가 있는 경향이 있습니다.
15:58
So that sort of leads around to to our top tips for stopping
255
958271
3294
따라서 그러한 종류의 리드는 확산을 중지하기 위한 최고의 팁으로 이어집니다.
16:01
the spread which which are essentially that we just need
256
961631
2093
본질적으로 우리는
16:03
to pause and think and reflect before we share anything and
257
963791
4843
무언가를 공유하기 전에 일시 중지하고 생각하고 반성해야 하며 청중
16:08
repeating that message to audiences is incredibly
258
968701
3078
에게 해당 메시지를 반복하는 것은 확산을
16:11
important in terms of stopping
259
971846
2558
중지하고 해결하는 측면에서 매우 중요합니다.
16:14
and tackling the spread of misleading stuff online.
260
974471
4318
온라인에서 오해의 소지가 있는 것들.
16:18
Hugo: Fascinating. Marianna Spring. Thanks for
261
978856
2253
휴고: 흥미롭군요. 마리안나 스프링.
16:21
being with us.
262
981176
533
16:21
Marianna: Thank you.
263
981919
531
우리와 함께 해주셔서 감사합니다.
마리안나: 감사합니다.
16:26
Hugo: So Sam, anything you'd like to pick up from what
264
986379
1855
휴고: 그럼 샘,
16:28
Marianna just said?
265
988301
1269
마리안나가 방금 한 말에서 알아차리고 싶은 게 있나요?
16:29
Sam: Yes. She said lots and lots of interesting things but
266
989636
2753
샘: 네. 그녀는 많은 흥미로운 것들을 말했지만
16:32
I'll only focus on two. She used the word 'misleading' a
267
992456
4163
나는 두 가지에만 집중할 것입니다. 그녀는 '오해의 소지가 있는'이라는 단어를 몇 번 사용했습니다
16:36
couple of times. So 'misleading' is basically
268
996686
2873
. 따라서 '오도'는 기본적으로
16:39
something that is trying to make you think a certain way
269
999626
4403
특정 방식으로 생각하게 만들려고
16:44
but isn't telling you all of the facts. The other word she
270
1004096
3819
하지만 모든 사실을 알려주지는 않습니다 . 그녀가 사용한 다른 단어는
16:47
used was 'dodgy'. So this is basically something that is
271
1007981
3428
'dodgy'였습니다. 따라서 이것은 기본적으로
16:51
suspicious. You can't really trust it. It's quite an
272
1011476
4133
의심스러운 것입니다. 당신은 그것을 정말로 믿을 수 없습니다 . 상당히
16:55
informal word and it's an adjective.
273
1015676
3513
비공식적인 단어이며 형용사입니다.
16:59
Hugo: Thanks Sam, well that's about all we have time for. But
274
1019256
2594
휴고: 고마워요 샘, 그게 우리가 할 수 있는 시간의 전부입니다. 하지만
17:01
before we go, Sam please remind us of today's key vocabulary.
275
1021916
4238
우리가 가기 전에 샘, 오늘의 핵심 어휘를 상기시켜 주세요.
17:06
Sam: Of course. So today we looked at the phrase 'to raise
276
1026309
4060
샘: 물론이죠. 그래서 오늘은 '위험 신호를 올리다'라는 표현에 대해 알아보았습니다
17:10
a red flag'. This is used when something about a post or a
277
1030436
4069
. 예를 들어 게시물이나
17:14
meme or an image for example makes you think that it might
278
1034571
3958
밈 또는 이미지에 대한 내용이
17:18
not be true or that it might be fake news.
279
1038596
3699
사실이 아니거나 가짜 뉴스일 수 있다고 생각하게 만들 때 사용됩니다.
17:22
The verb 'to fact-check' is the process of checking the facts
280
1042361
5109
'팩트체크'라는 동사는
17:27
so trying to find out if something is true or not.
281
1047536
4014
어떤 사실이 사실인지 아닌지 확인하기 위해 사실을 확인하는 과정입니다.
17:31
If you 'debunk' something you show that it's not true.
282
1051616
3798
무언가를 '폭로'하면 그것이 사실이 아님을 보여주는 것입니다.
17:35
And if you 'verify' something you show the opposite. So you
283
1055660
3044
그리고 무언가를 '확인'하면 그 반대를 보여줍니다. 그래서 당신은
17:38
show that it is true.
284
1058771
3078
그것이 사실임을 보여줍니다. 무언가를
17:41
If you 'buy' or 'buy into' something, it means that
285
1061916
2488
'사다' 또는 ' 사다'는 것은
17:44
you believe it. You think it's true.
286
1064471
3039
그것을 믿는다는 뜻입니다. 당신은 그것이 사실이라고 생각합니다.
17:48
If something is 'groundless', it has no evidence to support
287
1068170
3330
어떤 것이 '근거가 없다'면 그것을 뒷받침할 증거가 없습니다
17:51
it.
288
1071566
684
.
17:52
Then we looked at 'misleading' which is something that makes
289
1072316
2963
그런 다음 모든 사실을 제시하지는 않지만 특정 방식으로 생각하게 만드는 '오도'에 대해 살펴보았습니다
17:55
you think a certain way even though maybe it doesn't present
290
1075346
4014
17:59
all of the facts.
291
1079426
1478
.
18:01
And something 'dodgy' is something that is suspicious,
292
1081279
3540
그리고 'dodgy'는 의심스럽고
18:04
maybe not trustworthy.
293
1084886
1973
신뢰할 수 없는 것입니다.
18:07
Hugo: Thank you very much Sam and thank you for watching this
294
1087500
2940
Hugo: Sam에게 대단히 감사 하고
18:10
special at home version of Fake News, Fact and Fiction.
295
1090506
2424
가짜 뉴스, 사실 및 허구의 집에서 이 특별 버전을 시청해 주셔서 감사합니다.
18:12
Until next time, goodbye and stay safe.
296
1092996
4029
다음 시간까지 안녕히 계세요.
18:17
Sam: Bye bye everyone.
297
1097091
1009
샘: 모두들 안녕히 계세요.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7