Fake News: Fact & Fiction - Episode 8: Don't get caught out!

36,396 views ・ 2023-10-30

BBC Learning English


아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.

00:06
Hello and welcome to Fake News: Fact and Fiction, from BBC Learning English.
0
6540
3280
안녕하세요. BBC Learning English의 가짜 뉴스: 사실과 허구에 오신 것을 환영합니다.
00:09
I'm Hugo.
1
9900
600
저는 휴고입니다.
00:11
And I'm Sam.
2
11220
699
그리고 저는 샘이에요.
00:12
In the program today we hear from Jenni Sargent, Managing Director of First Draft News.
3
12119
5101
오늘 프로그램에서는 First Draft News의 전무이사인 Jenni Sargent의 이야기를 들어보겠습니다.
00:17
The issue of trust and truth online is one of the most urgent challenges facing our global society today.
4
17300
5450
온라인상의 신뢰와 진실의 문제는 오늘날 글로벌 사회가 직면한 가장 시급한 과제 중 하나입니다.
00:22
Yes, and we find out that even the experts can be tricked by a fake news story
5
22829
5460
네, 그리고 우리는 연구원 Samantha Bradshaw가 우리에게 말했듯이 전문가들조차도 가짜 뉴스에 속을 수 있다는 것을 알게 되었습니다
00:28
as researcher Samantha Bradshaw tells us.
6
28829
2881
.
00:32
I definitely have been caught out by a fake news story.
7
32100
3470
가짜뉴스에 확실히 걸렸네요.
00:35
I believed for the longest time that ...
8
35649
2121
나는 오랫동안 그것을 믿었습니다.
00:39
So what was it that she believed?
9
39530
2189
그렇다면 그녀는 무엇을 믿었습니까?
00:41
Stay with us to find out.
10
41990
2429
우리와 함께 알아보세요.
00:44
Before that though, we have some vocabulary which you are going to tell us about today.
11
44499
4580
하지만 그 전에 오늘 우리에게 알려줄 몇 가지 어휘가 있습니다 .
00:49
Sam what do you have for us?
12
49159
1171
샘 당신은 우리를 위해 무엇을 가지고 있습니까?
00:50
Today Hugo, I have a range of phrases we can use if we realise that we have been the victim of a scam
13
50410
7059
오늘은 휴고 씨, 우리가 사기의 피해자였음을 깨달았거나 가짜 뉴스를 믿었을 때 사용할 수 있는 다양한 표현을 준비했습니다
00:58
or believed some fake news.
14
58070
1930
.
01:04
English has many phrasal and multi-word verbs.
15
64890
4500
영어에는 구동사와 여러 단어로 구성된 동사가 많이 있습니다.
01:09
These are a natural part of everyday language and are used for good things as well as bad.
16
69569
7321
이는 일상 언어의 자연스러운 부분 이며 좋은 일과 나쁜 일에 사용됩니다.
01:16
Take 'fall for' as an example.
17
76969
2740
'fall for'를 예로 들어보겠습니다.
01:20
When you fall for someone, it means that you become strongly attracted to them.
18
80609
5701
누군가에게 반한다는 것은 그 사람에게 강한 매력을 느낀다는 뜻입니다.
01:26
You fall in love with them.
19
86390
1119
당신은 그들과 사랑에 빠진다.
01:28
And if you've ever fallen for someone you might remember that feeling of butterflies you have in your stomach.
20
88159
6331
그리고 누군가에게 반해본 적이 있다면 뱃속이 벅차올랐던 그 기분을 기억할 것입니다.
01:35
But you have a very different feeling, a sinking feeling in your stomach, if you fall for a scam.
21
95340
8310
그러나 사기에 빠지면 기분은 매우 다릅니다. 속이 메스꺼워지는 느낌입니다.
01:44
To fall for something means that you've been tricked into believing something that isn't true.
22
104519
5790
fall for someone은 속아서 사실이 아닌 것을 믿게 되었다는 뜻입니다.
01:50
This isn't always bad.
23
110389
1550
이것이 항상 나쁜 것은 아닙니다.
01:52
It could just be a simple joke or a prank but it could also be a con or a scam or some fake news.
24
112019
8670
단순한 농담이나 장난일 수도 있지만 사기, 사기, 가짜 뉴스일 수도 있습니다.
02:00
If you completely believe something that isn't true you can say: "I fell for it hook, line and sinker".
25
120769
7841
사실이 아닌 것을 완전히 믿는다면 "나는 그것에 빠졌습니다. 훅, 라인, 싱커"라고 말할 수 있습니다.
02:08
'To fall for' isn't used in the passive and suggests perhaps that you think you believed something too easily.
26
128939
8040
'to fall for'는 수동태로 사용되지 않으며 아마도 당신이 무언가를 너무 쉽게 믿었다고 생각한다는 것을 암시합니다. 귀하의 답변
02:18
To highlight the action of the scammers rather than your own response,
27
138139
5261
보다는 사기꾼의 행동을 강조하기 위해
02:23
there are a number of other phrases with similar meanings which we use which are generally only in the passive.
28
143789
8491
일반적으로 수동태로만 사용되는 유사한 의미를 가진 다른 문구가 많이 있습니다.
02:32
These are 'to be taken in by' and 'to be caught out by'.
29
152360
5350
'~에 끌려가다'와 '~에 끌려가다'입니다.
02:38
Now to help you avoid falling for, being taken in by, or caught out by fake news and scams,
30
158849
7170
이제 가짜 뉴스와 사기에 속거나 속거나 잡히는 것을 방지하는 데 도움이 되도록
02:46
let's go back to the programme for some more tips.
31
166409
2611
프로그램으로 돌아가서 몇 가지 추가 정보를 살펴보겠습니다.
02:51
Thanks Sam.
32
171150
600
02:51
It can be easy to be taken in by fake news, but in today's programme perhaps some advice from our first guest,
33
171830
5799
고마워요 샘.
가짜 뉴스에 속기 쉬울 수 있지만, 오늘 프로그램에서는 첫 번째 게스트인 Jenni Sargent의 조언을 전해드릴 수도 있습니다
02:57
Jenni Sargent. She is the managing director of an organisation called First Draft News,
34
177710
5600
. 그녀는 First Draft News라는 조직의 전무이사로
03:03
who work around the world to fight what they call 'information disorder'.
35
183390
3760
전 세계에서 '정보 장애'에 맞서 싸우고 있습니다.
03:07
We spoke to Jenni earlier and asked how we can face the challenge of identifying and dealing with fake news.
36
187230
4770
우리는 앞서 제니와 이야기를 나누고 가짜 뉴스를 식별하고 처리하는 데 어떻게 대처할 수 있는지 물었습니다.
03:16
We have an acronym that we use which is S.H.E.E.P.
37
196090
3239
우리가 사용하는 약어는 S.H.E.E.P입니다.
03:20
We say to think about: the source, the history, the emotion, the evidence, and whether it includes pictures.
38
200020
6540
우리는 출처, 역사, 감정, 증거, 사진 포함 여부에 대해 생각하라고 말합니다.
03:26
Because those are the five things that you can remember and help you think before you share.
39
206889
5071
이는 공유하기 전에 기억하고 생각하는 데 도움이 될 수 있는 다섯 가지 사항이기 때문입니다.
03:32
Take time to think through who shared it, what's their motivation,
40
212040
3700
누가 그것을 공유했는지, 그들의 동기는 무엇인지,
03:36
what else have they shared that might be relevant? Have they tried to manipulate me emotionally?
41
216009
5331
관련성이 있을 수 있는 다른 무엇을 공유했는지 생각해 보는 시간을 가지십시오. 그들이 나를 감정적으로 조종하려고 했나요?
03:41
And what evidence do they present with this piece of information, this story, or this video or this image?
42
221639
5350
그리고 그들은 이 정보, 이 이야기, 이 비디오 또는 이 이미지를 통해 어떤 증거를 제시합니까?
03:47
Have they used images which are very easily, easy to persuade us to think differently?
43
227349
5730
그들은 우리가 다르게 생각하도록 설득하기 매우 쉽고 쉬운 이미지를 사용했습니까 ?
03:53
So taking time as a member of society before you share is something that we can all do to help.
44
233349
5071
그러므로 공유하기 전에 사회 구성원으로서 시간을 갖는 것은 우리 모두가 도울 수 있는 일입니다.
03:59
Sheep: an acronym to help you think before you share.
45
239199
3150
양: 공유하기 전에 생각하는 데 도움이 되는 약어입니다.
04:02
So let's take a look at it in a bit more detail now.
46
242560
2500
그럼 이제 좀 더 자세히 살펴보도록 하겠습니다.
04:05
So 'S' is for 'source'.
47
245140
1950
그래서 'S'는 '소스'를 의미합니다.
04:07
Yes, the source is where the information is coming from.
48
247599
4040
예, 출처는 정보의 출처입니다.
04:11
Is it someone you know?
49
251949
1111
아는 사람인가요?
04:13
Is it an organisation you trust?
50
253900
2609
당신이 신뢰하는 기관인가요?
04:17
Are they who they say they are?
51
257050
2310
그들이 말하는 그 사람인가요?
04:20
If it's a well-known person, is it their actual account?
52
260110
3480
유명인이라면 실제 계정인가요?
04:24
Well it's very easy to fake a social media post. Just take a look at this for example
53
264279
4701
소셜 미디어 게시물을 가짜로 만드는 것은 매우 쉽습니다. 예를 들어 이것을 보세요
04:30
Wow. So the former president loves us! Looks just like the real thing, doesn't it?
54
270339
5010
와우. 그래서 전직 대통령이 우리를 사랑해요! 실제와 똑같아 보이지 않나요?
04:35
Except it's fake. It's just an image. It's been automatically generated by one of a number of fake tweet sites.
55
275889
9180
가짜라는 점만 빼면요. 그것은 단지 이미지일 뿐입니다. 이는 여러 가짜 트윗 사이트 중 하나에 의해 자동으로 생성되었습니다.
04:45
And if you really weren't sure, you could go to the actual account and
56
285149
3760
그리고 정말 확신이 서지 않는다면 실제 계정에 가보시면
04:48
see that this post doesn't actually appear on the timeline.
57
288989
3281
이 게시물이 실제로 타임라인에 나타나지 않는 것을 확인하실 수 있습니다.
04:52
And one way of finding out more about the source is
58
292959
2041
그리고 그 출처를 더 자세히 알아내는 방법 중 하나는 게시한
04:55
by looking at the history of the account of the person or organisation posting.
59
295079
3760
개인이나 단체의 계정 내역을 살펴보는 것입니다 .
04:58
So 'History' is the 'H' of sheep.
60
298919
2301
그래서 '역사'는 양의 'H'이다.
05:01
How old is the account? Who follows them? Who do they follow? What else have they posted?
61
301300
4289
계정은 몇 살입니까? 누가 그들을 따르나요? 그들은 누구를 따르나요? 그들은 또 무엇을 게시했습니까?
05:05
Do all these things make the source more or less reliable?
62
305949
3661
이러한 모든 요인으로 인해 소스의 신뢰성이 높아지나요?
05:10
For example the other day on Facebook I saw a post a friend of mine had shared.
63
310649
5040
예를 들어 얼마 전 페이스북에서 내 친구가 공유한 게시물을 보았습니다.
05:16
It was from a company offering a great prize for liking and sharing their post.
64
316470
6390
게시물을 좋아요하고 공유하면 푸짐한 상품을 제공하는 회사에서 온 것이었습니다.
05:22
This is a common scam on Facebook but some are genuine.
65
322939
4540
이는 Facebook에서 흔히 발생하는 사기이지만 일부는 진짜입니다.
05:27
So I did a bit of digging and when I checked out the company's own Facebook profile,
66
327559
6010
그래서 좀 뒤져보니 그 회사의 페이스북 프로필을 확인해 보니
05:33
their account was only a few days old and there was no history of posts.
67
333899
6141
그 회사의 계정은 생긴 지 며칠 안 됐고 게시글 이력도 없었습니다.
05:40
This was a red flag and made me think it was probably one of those scam competitions.
68
340120
5830
이것은 위험 신호였으며 아마도 사기 대회 중 하나일 것이라고 생각하게 되었습니다.
05:46
Yea. The next part of the acronym is 'Emotion'.
69
346030
2630
응. 약어의 다음 부분은 'Emotion'입니다.
05:48
Is the post manipulating your emotions? Does it want you to feel angry or outraged?
70
348949
6270
게시물이 당신의 감정을 조작하고 있습니까? 당신이 화를 내거나 격분하기를 바라는가?
05:55
Is it biased? Is it saying something for example you wouldn't believe about someone you like,
71
355299
4790
편견인가요? 예를 들어 좋아하는 사람에 대해서는 믿지 않지만
06:00
but you would believe about someone you don't like?
72
360240
2570
좋아하지 않는 사람에 대해서는 믿을 것이라는 말인가요?
06:03
But just because a post might generate strong emotions doesn't mean it's fake news.
73
363899
7260
그러나 게시물이 강한 감정을 불러일으킬 수 있다고 해서 그것이 가짜 뉴스라는 의미는 아닙니다.
06:11
There are many news reports that might make you feel sadness or anger, but does the language of the post suggest
74
371239
7300
슬픔이나 분노를 느끼게 할 수 있는 뉴스 보도가 많이 있습니다. 하지만 게시물의 언어가
06:18
you should be feeling a particular way? Does it suggest you should or must share it?
75
378629
6421
귀하가 특정한 감정을 가져야 함을 시사합니까? 공유 해야 하거나 공유해야 한다고 제안합니까? 게시물에서 공유하라는 메시지가 표시될
06:25
I always get a bit suspicious whenever a post tells me to share it.
76
385709
4330
때마다 항상 약간 의심스럽습니다 .
06:30
Yeah and the next part of the acronym is another E. This one is for 'Evidence'.
77
390750
5550
네, 그리고 약어의 다음 부분은 또 다른 E입니다. 이것은 'Evidence'를 위한 것입니다.
06:36
If the post is making claims about politicians, health, science for example which aren't being reported in
78
396449
5990
게시물이 주류 언론 에 보도되지 않는 정치인, 건강, 과학 등의 주장을 하고 있다면 그 주장이
06:42
the mainstream media, what evidence is there that they are actually true?
79
402519
4161
실제로 사실이라는 증거는 무엇입니까?
06:47
This is a tricky area as the mainstream media can't and doesn't report everything.
80
407790
5699
주류 언론이 모든 것을 보도할 수도 없고 보도하지도 않기 때문에 이것은 까다로운 영역입니다.
06:53
And of course in some cases has its own agenda and also does make mistakes.
81
413569
6160
물론 어떤 경우에는 고유한 계획이 있고 실수도 합니다.
06:59
These are areas that can be really very complex.
82
419809
3350
이는 정말 매우 복잡할 수 있는 영역입니다.
07:03
If you don't trust the mainstream media, how do you decide what sources you do trust?
83
423389
5491
주류 언론을 신뢰하지 않는다면 어떤 매체를 신뢰하는지 어떻게 결정합니까?
07:09
And is that trust based on objective evidence or
84
429209
4050
그리고 그 신뢰는 객관적인 증거에 기초한 것입니까, 아니면
07:13
because those sources say things you agree with or want to be true.
85
433339
4940
그러한 출처가 귀하가 동의하거나 사실이기를 원하는 것을 말하기 때문입니까?
07:18
Yeah it can be very difficult to recognise and ignore our own biases,
86
438589
4541
예, 우리 자신의 편견을 인식하고 무시하는 것은 매우 어려울 수 있습니다.
07:23
which is why it's helpful to look for multiple sources and opinions that are different from our own.
87
443210
6389
따라서 우리 자신과 다른 여러 출처와 의견을 찾는 것이 도움이 됩니다.
07:30
The final part of the jigsaw is pictures. Are photos and videos used as evidence?
88
450029
6811
퍼즐의 마지막 부분은 사진입니다. 사진이나 영상이 증거로 사용되나요?
07:37
We've seen how easy it is for images to be misleading.
89
457410
3659
우리는 이미지가 오해를 불러일으키기가 얼마나 쉬운지 살펴보았습니다.
07:41
So do the images show what you are being told they show?
90
461149
4271
그렇다면 이미지는 그들이 보여주고 있는 것을 보여주고 있습니까?
07:45
Are the captions accurate? Could the pictures have been manipulated?
91
465980
4659
캡션이 정확합니까? 사진이 조작되었을 수도 있나요?
07:51
So remember SHEEP as a fact checking guide to detecting fake news.
92
471660
4529
따라서 가짜 뉴스를 탐지하기 위한 사실 확인 가이드로 SHEEP을 기억하세요.
08:00
To be a fake news detective you have to be aware that it is out there.
93
480100
5059
가짜 뉴스 탐정이 되려면 그것이 세상에 있다는 사실을 알아야 합니다.
08:05
You have to be sceptical and want to find the truth before you share something.
94
485290
5489
무언가를 공유하기 전에 회의적이어야 하며 진실을 찾고 싶어해야 합니다.
08:10
And if you do come across a post that is suspicious or maybe something that a friend has shared,
95
490990
5010
그리고 의심스러운 게시물이나 친구가 공유한 내용을 발견한 경우
08:16
how should you go about dealing with it?
96
496540
1919
어떻게 처리해야 합니까?
08:18
Yeah there are many fact checking and debunking websites and services out there.
97
498539
3701
네, 사실을 확인 하고 사실을 폭로하는 웹사이트와 서비스가 많이 있습니다.
08:22
It's often very quick to do a search for particular phrases or keywords
98
502589
3821
08:26
to see if the topic has been covered on one of them.
99
506490
2859
주제가 그 중 하나에서 다루어졌는지 확인하기 위해 특정 문구나 키워드를 검색하는 것이 매우 빠른 경우가 많습니다.
08:29
And another tip here is to include the word 'fake' or 'scam' in the search term as well.
100
509670
6400
그리고 여기서 또 다른 팁은 검색어에 '가짜' 또는 '사기'라는 단어도 포함시키는 것입니다.
08:36
But the trouble I have is if I come across something a friend has posted or shared,
101
516150
5830
그런데 문제는 친구가 게시하거나 공유한 내용을 발견하면
08:42
should I let them know?
102
522340
2219
알려야 한다는 것입니다.
08:44
Good question. Do you do that Sam?
103
524639
1920
좋은 질문. 샘도 그렇게 하시나요?
08:46
I have done. Yes.
104
526750
1730
나는 해냈다. 예.
08:48
And how did it go?
105
528610
929
그리고 어떻게 됐나요?
08:50
To be honest it was a bit mixed. It depends on who shared it and what it was.
106
530080
5140
솔직히 좀 섞여있었어요. 공유한 사람이 누구인지, 내용이 무엇인지에 따라 다릅니다.
08:55
So most friends are OK with it if, for example, it's a fake competition and you warn them about it.
107
535300
5909
예를 들어 가짜 경쟁이고 이에 대해 경고하더라도 대부분의 친구들은 괜찮습니다.
09:01
Some don't acknowledge it at all but if it's something a bit more controversial, like a conspiracy theory
108
541840
6929
어떤 사람들은 그것을 전혀 인정하지 않지만 음모론이나 제약 산업이 분명히 숨기고 있는 기적 치료법 중 하나와 같이 좀 더 논란의 여지가 있는 것이라면
09:09
or one of those miracle cures the pharmaceutical industry is apparently hiding,
109
549009
4770
, 링크를 걸어도 자신의 믿음에
09:14
then some people get quite angry if you challenge their beliefs even when you link it to the facts.
110
554200
7459
도전하면 어떤 사람들은 상당히 화를 냅니다. 사실에.
09:21
Or maybe because you link to the facts. I'm not sure.
111
561919
3040
아니면 사실과 연결되어 있기 때문일 수도 있습니다. 잘 모르겠습니다.
09:25
Yeah. That's an interesting observation and it's a question we put to disinformation researcher
112
565539
4691
응. 그것은 흥미로운 관찰이며 우리가
09:30
Samantha Bradshaw from Oxford University.
113
570310
2839
옥스퍼드 대학의 허위 정보 연구원 Samantha Bradshaw에게 던진 질문입니다. 소셜 미디어 채널에 나타나는
09:33
How do you deal with fake news people share which appears on your social media channels?
114
573230
4929
사람들이 공유하는 가짜 뉴스를 어떻게 처리합니까 ?
09:38
And this is what she had to say.
115
578389
2620
그리고 이것이 그녀가 말해야 했던 것입니다.
09:42
So combating fake news as it appears in our own news feeds and our Twitter feeds.
116
582039
7081
따라서 우리의 뉴스 피드와 트위터 피드에 나타나는 가짜 뉴스에 맞서 싸우십시오.
09:49
It's a very delicate task I think because one can't simply just post a debunked news article
117
589480
8730
단순히 사실이 사실이 아닌 뉴스 기사를 게시
09:58
and have the problem fixed.
118
598290
3619
하고 문제를 해결할 수는 없기 때문에 이는 매우 섬세한 작업이라고 생각합니다.
10:01
The reason why fake news often spreads further and faster than other kinds of information again comes back to this
119
601990
8160
가짜 뉴스가 종종 다른 종류의 정보보다 더 빠르고 빠르게 퍼지는 이유는
10:10
whole issue of identity signalling and people don't necessarily care that the information contained
120
610509
6001
신원 신호의 전체 문제로 돌아가며 사람들은 기사에 포함된 정보가
10:16
in a story, whether or not it's true.
121
616590
3049
사실인지 아닌지에 반드시 신경을 쓰지 않습니다.
10:19
They don't care about the facts or not they care more about belonging to a sense of community.
122
619720
8000
그들은 사실에 관심이 없거나 공동체 의식에 더 관심을 두지 않습니다.
10:27
And so posting a debunked story doesn't necessarily change people's minds.
123
627909
5871
따라서 사실이 사실이 아닌 기사를 게시한다고 해서 반드시 사람들의 마음이 바뀌는 것은 아닙니다.
10:33
Instead I think we need to engage more critically one another but in a way that promotes empathy
124
633860
6380
그 대신, 우리는
10:40
and promotes understanding so that again we can negotiate consensus and
125
640320
4930
다시 합의 를 협상하고
10:45
come together to build our democracy and find balanced viewpoints.
126
645330
4670
함께 모여 민주주의를 구축 하고 균형 잡힌 관점을 찾을 수 있도록 공감을 촉진하고 이해를 촉진하는 방식으로 서로 더 비판적으로 소통해야 한다고 생각합니다.
10:51
Anything you like to comment there, Sam?
127
651000
600
거기에 코멘트하고 싶은 게 있나요, 샘?
10:53
Yes I'd like to pick out the phrase 'a delicate task'.
128
653480
3949
네, '섬세한 작업'이라는 표현을 고르고 싶습니다.
10:58
Samantha said that dealing with fake news on our own social media is 'a delicate task'.
129
658009
5930
Samantha는 우리 자신의 소셜 미디어에서 가짜 뉴스를 다루는 것은 '섬세한 작업'이라고 말했습니다.
11:04
So this means it's a difficult job that needs to be done carefully with sensitivity.
130
664019
7021
그렇기 때문에 세심하게 주의 깊게 수행해야 하는 어려운 작업이라는 의미입니다 .
11:11
And she also talked about 'empathy' which is understanding other people's feelings and experiences.
131
671320
9039
그리고 다른 사람의 감정과 경험을 이해하는 '공감'에 대해서도 이야기했습니다.
11:20
Well I think if we all had more empathy and understanding the world would be a better place.
132
680639
5381
글쎄요, 우리 모두가 더 공감 하고 이해한다면 세상은 더 나은 곳이 될 것이라고 생각합니다.
11:26
But it might put you out of a job as a journalist Hugo if there wasn't any conflict.
133
686610
5310
그러나 갈등이 없다면 저널리스트 휴고로서의 직업을 잃게 될 수도 있습니다.
11:32
I think there would still be plenty of conflict to go around and there will always be people trying
134
692000
4759
나는 여전히 많은 갈등이 있을 것이라고 생각하며,
11:36
to take advantage of other people which leads us back to our guest Samantha Bradshaw.
135
696840
4780
우리를 손님 Samantha Bradshaw로 다시 이끄는 다른 사람들을 이용하려는 사람들이 항상 있을 것이라고 생각합니다.
11:41
Has she ever fallen for a fake news story? Take a listen.
136
701700
3479
그녀는 가짜 뉴스 기사에 빠진 적이 있나요? 들어보세요.
11:45
I definitely have been caught out by a fake news story.
137
705549
3571
가짜뉴스에 확실히 걸렸네요.
11:49
I believed for the longest time that teacup pigs were a real thing.
138
709200
4390
나는 오랫동안 찻잔돼지가 진짜라고 믿었다.
11:53
And for anyone who doesn't know, a teacup pig is a little baby pig and there would be all these cute viral videos on
139
713940
6640
그리고 모르시는 분들을 위해 말씀드리자면, 찻잔 돼지는 작은 아기 돼지이고 인터넷에는 이 작은 돼지들이 뛰어다니는 귀여운 바이러스 영상이 있을 것이고
12:00
the Internet of these little pigs running around and the idea was that they would stay that little forever.
140
720660
5500
그들이 그 작은 돼지로 영원히 머물 것이라는 생각이 들었습니다.
12:06
But in reality they were just normal pigs that would grow to be a real sized pig.
141
726429
4980
그러나 실제로 그들은 실제 크기의 돼지로 자라는 평범한 돼지였습니다.
12:11
But I had it in my mind that I was going to buy a teacup pig one day because they were just so adorable and dog-like
142
731490
6339
하지만 너무 사랑스럽고 개같고 귀여웠기 때문에 언젠가는 찻잔돼지를 사야겠다는 생각을 품고 있었는데
12:17
and cute, only later to find out that those are not real. They are fully grown pigs.
143
737909
6970
나중에 알고 보니 그게 진짜가 아니었습니다. 그들은 완전히 자란 돼지입니다.
12:25
You can buy one, it will just be massive one day.
144
745179
2791
당신은 하나를 구입할 수 있습니다. 그것은 언젠가 엄청난 규모가 될 것입니다.
12:29
So even the experts can be caught out although
145
749019
2951
따라서
12:32
happy to report that Samantha realised it was a scam before she actually bought one.
146
752050
4539
Samantha가 실제로 구매하기 전에 그것이 사기라는 것을 깨달았다는 사실을 보고하게 되어 기쁘지만 전문가들조차도 적발될 수 있습니다.
12:36
Yes, and you might think that selling cute pigs is a harmless scam
147
756990
4870
예, 그리고 귀여운 돼지를 파는 것은 무해한 사기라고 생각할 수도
12:41
but this and other similar hoaxes lead to all sorts of problems.
148
761940
4929
있지만 이것과 다른 유사한 사기는 모든 종류의 문제로 이어집니다.
12:46
So, for example, what do you do if you live in a tiny flat and you bought a tiny pet that then grows to be
149
766949
8111
예를 들어, 작은 아파트에 살고 있는데 작은 애완동물을 사서 배고픈
12:55
a huge hungry pet?
150
775140
1899
거대한 애완동물로 성장한다면 어떻게 하시겠습니까?
12:57
Many of these pigs have been starved, abandoned and poorly treated.
151
777820
4650
이 돼지들 중 다수는 굶주리고, 버려지고, 제대로 대우받지 못했습니다.
13:02
Yet there is still a market for them on social media.
152
782550
3010
하지만 여전히 소셜 미디어에는 이들을 위한 시장이 있습니다.
13:05
Yes not all fake news is about issues such as politics, health, science.
153
785640
5179
그렇습니다. 모든 가짜 뉴스가 정치, 건강, 과학과 같은 문제에 관한 것은 아닙니다.
13:10
Well, now a lot to digest. Please Sam remind us of today's vocabulary.
154
790919
4360
글쎄, 이제 소화할 게 너무 많아. 샘에게 오늘의 어휘를 상기시켜 주세요.
13:15
Of course.
155
795480
760
물론.
13:16
So to start with, there are some phrasal and multi-word verbs.
156
796320
5109
먼저, 구동사와 여러 단어로 구성된 동사가 있습니다.
13:22
To 'fall for someone' means 'to fall in love'
157
802110
3279
'fall for someone'은 '사랑에 빠지다'를 의미
13:25
but to 'fall for something' means you believed something that wasn't true.
158
805990
5560
하지만, 'fall for someone'은 사실이 아닌 것을 믿었다는 뜻입니다.
13:31
And if you completely believed it without any doubts, you fell for it 'hook line and sinker'.
159
811870
8720
그리고 의심 없이 완전히 믿었다면 '훅라인 앤 싱커'에 빠졌을 것이다.
13:40
The verbs 'to be taken in by' or 'caught out by' something also mean that you believed something that wasn't true
160
820750
7950
'to be take in by' 또는 'caught out by'라는 동사는 사실이 아닌 것을 믿었다는 뜻이기도 하지만
13:49
but these are generally used in the passive if you are talking about the victim.
161
829000
5399
피해자에 대해 이야기할 때 일반적으로 수동태로 사용됩니다.
13:55
A 'delicate task' is a difficult job that needs to be done carefully with politeness and sensitivity.
162
835750
7259
'섬세한 작업'은 공손함과 세심함을 가지고 세심하게 처리해야 하는 어려운 작업입니다.
14:04
And 'empathy' is understanding other people's feelings and experiences.
163
844330
4820
그리고 '공감'은 다른 사람의 감정과 경험을 이해하는 것입니다.
14:10
Thank you Sam.
164
850450
849
고마워요 샘.
14:11
Now the Internet and social media are fantastic resources of information
165
851379
3450
이제 인터넷과 소셜 미디어는 환상적인 정보 자원이자
14:15
and great tools for keeping in touch with family and friends.
166
855220
2610
가족 및 친구들과 연락을 유지하는 훌륭한 도구입니다.
14:17
But because they make communication so easy, it makes communication of fake news and disinformation so easy too.
167
857919
7181
그러나 의사소통이 매우 쉬워지기 때문에 가짜 뉴스와 허위 정보에 대한 의사소통도 매우 쉬워집니다.
14:25
As this is the last programme in the series, I wonder if you have any final thoughts Sam.
168
865180
3900
이번 시리즈의 마지막 프로그램인 만큼, 샘님은 마지막 생각이 있으신지 궁금합니다.
14:30
Yes I do. So one of the things that struck me was how long fake news has been around but also
169
870350
6829
네 저도 그렇습니다. 그래서 저를 놀라게 한 것 중 하나는 가짜 뉴스가 얼마나 오래 존재했는지와
14:37
that fake news only spreads if it is shared.
170
877259
3491
가짜 뉴스는 공유되어야만 퍼진다는 것이었습니다.
14:41
And the one thing we've heard again and again in this series is
171
881259
4081
그리고 우리가 이 시리즈에서 계속해서 들었던 한 가지는
14:45
always to think very carefully before sharing something.
172
885490
4690
무언가를 공유하기 전에 항상 매우 신중하게 생각하라는 것입니다.
14:50
Don't take everything you see on the Internet at face value but be vigilant, be sceptical, be aware of your own biases
173
890320
9210
인터넷에서 보는 모든 것을 액면 그대로 받아들이지 말고 경계하고 회의적이며 자신의 편견을 인식
14:59
and research anything that raises a red flag.
174
899950
4189
하고 위험 신호를 일으키는 모든 것을 조사하십시오.
15:04
How about you Hugo?
175
904220
620
휴고는 어때요? 응,
15:05
Yeah absolutely. I think that's why we all have a role to play.
176
905110
3179
물론이지. 그렇기 때문에 우리 모두가 해야 할 역할이 있다고 생각합니다.
15:08
There's so much out there that's not true that it's vital for all of us to share responsibly.
177
908370
5729
사실이 아닌 내용이 너무 많기 때문에 우리 모두가 책임감 있게 공유하는 것이 중요합니다.
15:14
Well that's all from us today and from this series.
178
914559
2641
그게 오늘 우리와 이 시리즈의 전부입니다.
15:17
It's been a pleasure to have your company and Sam, thank you!
179
917280
2830
당신의 회사와 Sam이 있어서 즐거웠습니다. 감사합니다!
15:20
And thank you to Hugo it really has been a pleasure.
180
920919
3001
그리고 Hugo에게 감사합니다. 정말 즐거웠습니다.
15:24
Goodbye.
181
924129
900
안녕히 가세요.
15:25
Goodbye.
182
925200
500
안녕히 가세요.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7