Fake News: Fact & Fiction - Episode 6: How to be a critical thinker
134,039 views ・ 2023-10-17
아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.
00:06
Hi, I'm Hugo.
0
6209
840
안녕하세요, 휴고입니다.
00:07
And I'm Sam.
1
7549
761
그리고 저는 샘이에요.
00:08
And this is Fake News: Fact and
Fiction from BBC Learning English.
2
8609
3000
그리고 이것은 BBC Learning English의 가짜 뉴스: 사실과
허구입니다.
00:11
In the programme today
3
11859
1041
오늘 프로그램에서는
00:12
we look at the topic of critical thinking
with our special guest Dr Steven Novella.
4
12980
5199
특별 게스트인 Dr Steven Novella와 함께 비판적 사고라는 주제를 살펴보겠습니다.
00:18
Being able to evaluate the information
that we have access to critically
5
18259
3010
우리가 접근할 수 있는 정보를 비판적으로 평가할 수 있는 능력은
00:21
is now probably the most important
skill any individual can have.
6
21349
4151
이제
모든 개인이 가질 수 있는 가장 중요한 기술일 것입니다.
00:25
Hear more from Dr Novella later.
7
25579
2470
나중에 Novella 박사의 이야기를 더 들어보세요.
00:28
First, Sam, do have some vocabulary for us?
8
28129
2351
먼저, 샘, 우리에게 필요한 단어가 있나요?
00:30
Yes I do.
9
30899
741
네 저도 그렇습니다.
00:31
So, today I'm going to be talking about:
spin, cherry-picking, bias
10
31719
6650
그래서 오늘 저는
스핀, 체리 따기, 편견
00:38
and the phrase 'critical thinking' itself.
Let's have a look.
11
38880
3950
및 '비판적 사고'라는 문구 자체에 대해 이야기하겠습니다. 한번
살펴보자.
00:47
See that
12
47170
869
보세요,
00:50
It's a ball.
13
50530
600
그것은 공입니다.
00:51
To turn it quickly is to spin it.
14
51789
3260
빠르게 돌리는 것은 돌리는 것입니다.
00:55
Now if we put the truth on this ball
then spin it, can you still see the truth?
15
55149
5820
이제 이 공에 진실을 담은
다음 회전시켜도 여전히 진실을 볼 수 있나요?
01:01
It's still there somewhere but
difficult to see clearly.
16
61490
4440
아직 어딘가에 있지만
명확하게 보기는 어렵습니다.
01:06
Spin makes the truth difficult to see.
17
66010
2960
스핀은 진실을 보기 어렵게 만듭니다.
01:09
And this is a bit like political spin,
a term first used in the 1970s
18
69219
5640
그리고 이것은 정치인과 대변인이 정보를 제시하는 방식을 설명하기 위해
1970년대에 처음 사용된 용어인 정치적 스핀과 약간 비슷합니다
01:14
to talk about the way politicians and
their spokespeople present information.
19
74939
5050
.
01:20
They will present information in a way that
makes things seem as positive as possible
20
80709
5730
그들은
01:26
without always telling you the whole truth
or the whole context.
21
86859
4430
항상 전체 진실
이나 전체 맥락을 말하지 않고도 상황이 가능한 한 긍정적으로 보이도록 정보를 제공할 것입니다.
01:31
They might highlight the most
positive details
22
91450
2640
가장 긍정적인 세부 사항을 강조할 수
01:34
but ignore the other details that
don't make them look quite as good.
23
94170
4920
있지만 보기에 좋지 않은 다른 세부 사항은 무시할 수 있습니다
.
01:39
Selecting which facts are chosen to
publicise is known as 'cherry-picking'
24
99170
4549
어떤 사실을 선택하여
홍보할지 선택하는 것을 '체리 따기'라고 하며 전체 이야기에 대한
01:44
and it often doesn't give a full or
accurate picture of the whole story.
25
104379
5181
완전하거나 정확한 그림을 제공하지 못하는 경우가 많습니다
.
01:49
And it's not just politicians,
of all sides, who do this.
26
109750
3500
그리고
이런 일을 하는 것은 모든 측면의 정치인들만이 아닙니다.
01:53
It happens in the media too,
mainstream and social media,
27
113329
3711
이는 미디어,
주류 및 소셜 미디어에서도 발생하며
01:57
and very often we do it ourselves.
28
117120
3009
매우 자주 우리 스스로 수행합니다.
02:00
To explain why, I'm
going to need another ball,
29
120430
3270
이유를 설명하려면 볼링공 같은
또 다른 공이 필요합니다
02:03
like a bowling ball.
30
123849
1741
.
02:06
Bowling balls don't roll straight.
31
126519
2610
볼링공은 똑바로 굴러가지 않습니다.
02:09
They curve to the left
or right when they're rolled.
32
129370
3479
굴릴 때 왼쪽이나 오른쪽으로 휘어집니다.
02:12
One reason for this is
that their weight is not centred.
33
132939
3780
그 이유 중 하나는
무게 중심이 중앙에 있지 않기 때문입니다.
02:16
They have what is called a bias.
34
136800
2440
그들은 편견이라고 불리는 것을 가지고 있습니다.
02:19
Bias is the same word we use to
describe an opinion that is not impartial.
35
139930
6359
편견은
공정하지 않은 의견을 설명하는 데 사용하는 것과 같은 단어입니다.
02:26
One that is not based fairly on facts but
which may turn one way or another
36
146370
5319
사실에 공정하게 근거하지 않고
02:31
because of personal feelings, political
preferences or ideology.
37
151770
5280
개인적인 감정, 정치적
선호 또는 이데올로기로 인해 어느 방향으로든 바뀔 수 있는 것입니다.
02:37
So we might disagree with someone
and think that they're wrong
38
157270
3059
그래서 우리는 누군가의 의견에 동의하지
02:40
not because of evidence or facts
39
160840
1949
않고 증거나 사실 때문이
02:42
but just because they have a different
way of looking at the world than we do.
40
162870
4640
아니라 단지 그들이
우리와 세상을 보는 방식이 다르기 때문에 그들이 틀렸다고 생각할 수도 있습니다.
02:47
And when it comes to the spread of fake news
41
167639
2710
그리고 가짜 뉴스의 확산에 관해서는
02:50
something called 'confirmation bias'
is incredibly important.
42
170620
4329
'확증 편향'이라는 것이
매우 중요합니다.
02:55
This is when we ignore or dismiss anything
that doesn't support our own beliefs
43
175659
4890
이는 우리
자신의 믿음을 지지하지 않는 모든 것을 무시하거나 기각하고,
03:00
and only pay attention to information
that confirms the views we already have.
44
180909
5560
우리가 이미 가지고 있는 견해를 확인하는 정보에만 주의를 기울이는 경우입니다.
03:06
We like to read and see opinions
that reflect our own beliefs.
45
186550
4079
우리는 우리 자신의 신념을 반영하는 의견을 읽고 보는 것을 좋아합니다
. 우리는
03:10
We might want to share something
that we really agree with, something that
46
190710
3310
정말로 동의하는 것,
03:14
makes us really angry or upset and
not stop to think whether it's actually true.
47
194100
6309
우리를 정말 화나게 하거나 속상하게 만드는 것, 그리고
그것이 실제로 사실인지 생각하는 것을 멈추지 않고 공유하고 싶을 수도 있습니다.
03:20
The challenge is to be open to trying
to understand opinions that are different from our own
48
200490
6489
도전은
우리 자신과 다른 의견을 이해하려고 노력하고
03:27
and not ignore any evidence
that doesn't confirm our own view.
49
207460
4790
우리 자신의 견해를 확인하지 않는 증거를 무시하지 않는 것입니다.
03:32
This is where critical thinking
becomes very important.
50
212330
3930
여기서 비판적 사고가
매우 중요해집니다.
03:36
The skill of looking at information
objectively and impartially
51
216340
4379
정보를
객관적이고 공정하게 보고,
03:41
and trying not to be
persuaded by our own biases.
52
221259
3241
자신의 편견에 휘둘리지 않으려고 노력하는 기술입니다.
03:44
So that was my balanced
spin on spin and now back to the studio.
53
224889
4851
이것이 나의 균형잡힌
회전이었고 이제 스튜디오로 돌아왔습니다.
03:52
Thanks Sam.
54
232949
621
고마워요 샘.
03:53
I may be biased but
I thought it was really interesting.
55
233669
2361
편견이 있을 수도 있지만
정말 흥미로웠다고 생각했습니다.
03:56
And it takes us nicely into our topic today.
56
236110
2960
그리고 그것은 오늘 우리의 주제에 잘 들어맞습니다.
03:59
Critical thinking.
57
239150
1000
비판적 사고.
04:00
Why is this something that is
important when it comes to fake news?
58
240539
2970
가짜뉴스에 있어서 이것이 왜 중요한가?
04:04
Yeah well one of the ways that news
spreads is when it's shared
59
244039
3760
네, 뉴스가 퍼지는 방법 중 하나는
공유할 때입니다.
04:08
and if it's fake news, that can be a problem.
60
248250
2909
가짜 뉴스라면 문제가 될 수 있습니다.
04:11
Thinking critically is a bit like
social distancing for fake news.
61
251669
5270
비판적으로 생각하는 것은
가짜 뉴스에 대한 사회적 거리두기와 비슷합니다.
04:17
If we know how to spot fake news,
we are less likely to spread it.
62
257160
4560
가짜 뉴스를 식별하는 방법을 알면
이를 퍼뜨릴 가능성이 줄어듭니다.
04:21
And in order to spot fake news you
have to be a little bit of a sceptic
63
261899
3751
그리고 가짜 뉴스를 알아내기 위해서는
약간 회의적이어야 하며 인터넷에서 읽는
04:25
and not believe everything
you read on the Internet.
64
265769
2811
모든 것을 믿어서는 안 됩니다
.
04:28
So what does it mean to be a sceptic?
65
268660
1909
그렇다면 회의주의자가 된다는 것은 무엇을 의미하는가?
04:30
Let's turn to our guest
today Dr Steven Novella.
66
270750
3329
오늘은 스티븐 노벨라 박사를 초대해 보겠습니다.
04:34
Dr Novella is a clinical neurologist
at Yale University.
67
274529
3980
Novella 박사는 Yale University의 임상 신경학자입니다
.
04:38
He's a science communicator who
presents a weekly podcast called
68
278589
3260
그는
04:42
"The Skeptics' Guide to the Universe"
and he's also written a book with the same name.
69
282089
4211
"회의론자들을 위한 우주 가이드"라는 제목의 주간 팟캐스트를 진행하는 과학 커뮤니케이터
이며, 동명의 책도 집필했습니다.
04:46
We spoke to him earlier and first asked him
about what being sceptic means
70
286379
4741
우리는 앞서 그와 이야기를 나눴고 먼저 그에게
회의적이라는 것이 무엇을 의미하는지,
04:51
and why he believes it's important.
71
291360
2039
그리고 그가 그것이 중요하다고 믿는 이유에 대해 물었습니다.
04:54
A sceptic is somebody that wants
to believe only things that are actually true.
72
294209
5880
회의론자는
실제로 사실인 것만 믿고 싶어하는 사람입니다.
05:00
We want to use facts logic and
evidence to base our beliefs on.
73
300169
3310
우리는
우리의 믿음을 기반으로 사실 논리와 증거를 사용하고 싶습니다.
05:03
Now the opposite of being a sceptic
is being gullible
74
303889
3731
이제 회의론자가 되는 것의 반대는 속기
쉬운 것입니다.
05:07
and I don't think anybody would want, would
self-identify as gullible or want to be gullible.
75
307699
6130
누구도
속기 쉬운 사람으로 자칭하거나 속기 쉬운 사람이 되기를 원하지 않을 것이라고 생각합니다.
05:14
But you know we're
advocating scientific scepticism,
76
314029
3611
하지만 우리는
05:18
using a formal method, using a process
to evaluate the information that we encounter.
77
318209
7401
공식적인 방법과
우리가 접하는 정보를 평가하는 프로세스를 사용하여 과학적 회의론을 옹호하고 있다는 것을 알고 있습니다.
05:25
We're deluged with information,
we have to filter it somehow.
78
325709
3581
우리는 정보의 홍수 속에서
어떻게든 정보를 필터링해야 합니다.
05:29
We have to figure, have some way of figuring
out what's likely to be true and what's not true.
79
329370
3600
우리는
무엇이 사실일 가능성이 있고 무엇이 사실이 아닌지 알아낼 수 있는 방법을 찾아야 합니다.
05:33
If someone's trying to deceive me;
if someone is trying to sell me something;
80
333050
3219
누군가가 나를 속이려고 한다면;
누군가 나에게 무언가를 팔려고 한다면;
05:36
if someone else has been deceived
and they're trying to pass that along to me;
81
336629
3241
다른 사람이 속아서
나에게 그것을 전달하려고 하는 경우;
05:40
if the government is trying to maintain
some fiction to maintain control.
82
340259
3691
정부가
통제를 유지하기 위해 허구를 유지하려고 하는 경우.
05:44
I mean it's all sorts of reasons why people
would give me information that's not correct
83
344030
4960
제 말은 사람들이
나에게 정확하지 않거나
05:49
or that's biased or that's inaccurate.
84
349069
1950
편견이 있거나 부정확한 정보를 제공하는 데는 온갖 이유가 있다는 것입니다.
05:51
And sometimes people just make honest mistakes.
85
351149
1860
그리고 때로는 사람들이 정직한 실수를 저지르기도 합니다.
05:53
We're flawed. Our brains are flawed,
our memories are terrible.
86
353129
2931
우리는 결함이 있습니다. 우리의 두뇌에는 결함이 있고
기억력도 끔찍합니다.
05:56
We sort of construct an approximation
of reality as best we can but
87
356160
3390
우리는
최선을 다해 현실에 대한 근사치를 구성하지만
05:59
it's never totally accurate.
88
359629
1531
결코 완전히 정확하지는 않습니다.
06:01
And we have to be aware
of all those biases and flaws.
89
361470
3210
그리고 우리는
이러한 모든 편견과 결함을 인식해야 합니다.
06:05
Well good to hear Dr Novella using one
of your vocabulary words there, Sam, bias.
90
365189
4650
Dr Novella가
거기서 당신의 어휘 중 하나인 Sam, 편견을 사용하는 것을 들으니 반갑습니다.
06:10
But did you pick out any
other interesting words there?
91
370170
2670
그런데
거기에서 또 다른 흥미로운 단어를 골랐나요?
06:13
Yeah, so the word
'gullible' is interesting.
92
373199
3490
네,
'속기 쉬운'이라는 단어가 흥미롭네요.
06:16
We use this word for someone
who is willing to believe things without questioning.
93
376829
5330
우리는 의심 없이 사물을 기꺼이 믿으려는 사람에게 이 단어를 사용합니다
.
06:22
It makes them really easy to trick.
94
382239
2090
정말 속이기 쉽습니다.
06:24
So, I remember when I was at school
a teacher told me that the word gullible
95
384409
5261
그래서 제가 학교에 다닐 때
선생님이 속기 쉬운이라는 단어가
06:29
wasn't in the dictionary.
96
389850
2099
사전에 없다고 말씀하신 것을 기억합니다.
06:32
Did you believe them?
97
392029
1000
당신은 그들을 믿었나요?
06:33
Well I thought about it for a second
because it was a teacher who told me
98
393779
3540
글쎄요,
선생님이 말씀해 주셨고
06:37
and I trusted them and then I was
going to tell my friends because
99
397399
3430
믿었기 때문에 잠시 생각하다가 재미있다고 생각해서
친구들에게 말하려고 했는데
06:40
I thought it was interesting but I
thought I should probably check it out first.
100
400909
3901
먼저 확인해 봐야겠다는 생각이 들었습니다.
06:44
And of course the word was in the dictionary.
101
404889
3081
물론 그 단어는 사전에도 나와 있었습니다.
06:48
So being a sceptic and a critical thinker
means not believing everything
102
408420
5039
따라서 회의론자이자 비판적 사상가가 된다는 것은 보고 듣는
모든 것을 믿지 않는다는 것을 의미하며
06:53
you see or hear, not liking and
sharing somethingeven if we agree with it
103
413539
5560
,
비록 우리가 동의하거나 그것을 뒷받침할 증거가 있을
06:59
or it feels right to us until we
have evidence to support it.
104
419189
4700
때까지 그것이 우리에게 옳다고 느껴지더라도 무언가를 좋아하거나 공유하지 않는다는 것을 의미합니다
.
07:04
It may not be important whether a
word is a dictionary or not but it
105
424110
3990
단어가 사전인지 아닌지는 중요하지 않을 수 있지만
07:08
is when thinking about the areas
of science, health and politics.
106
428180
5090
과학, 건강, 정치 분야를 생각할 때는 중요합니다.
07:13
It does take a little bit of an effort.
107
433350
1789
약간의 노력이 필요합니다. 단어가 있는지 확인하기 위해
07:15
It's easy to check a dictionary to
see if a word is in there
108
435219
3791
사전을 확인하는 것은 쉽지만
07:19
but it is more difficult with
more complex issues.
109
439199
2760
더 복잡한 문제의 경우에는 더 어렵습니다.
07:22
So how do we start with this?
110
442039
1571
그럼 어떻게 시작할까요?
07:23
Here's Dr Novella again.
111
443689
1510
Dr Novella가 다시 등장합니다.
07:26
So whenever I come across a question or
a topic that I want to wrap my head around,
112
446339
4891
그래서 머리를 감싸고 싶은 질문이나 주제를 만날 때마다
07:31
I make sure that I look for,
specifically look for information on all sides.
113
451649
5690
나는 반드시 찾아보며,
특히 모든 면에서 정보를 찾아봅니다.
07:37
There may be more than two sides
but all what I think are at least viable opinions.
114
457419
4951
두 가지 이상의 측면이 있을 수
있지만 제가 생각하는 모든 것은 적어도 실행 가능한 의견입니다.
07:42
If there is any large group of
people or respected professionals
115
462810
3060
대규모의
사람들이 있거나 존경받는 전문가들이 있거나
07:45
or whatever who are saying something,
116
465949
1421
무슨 말을 하는 사람이 있다면
07:47
I want to at least understand what
their point is, what is their side.
117
467449
3861
적어도
그들의 요점이 무엇인지, 그들의 입장이 무엇인지 이해하고 싶습니다.
07:51
And until you sort of sort through
the back and forth of different arguments,
118
471389
4681
그리고
서로 다른 주장을 앞뒤로 정리하기 전까지는
07:56
you don't really have a good sense of
who has the better position.
119
476399
4141
누가 더 나은 입장을 가지고 있는지 제대로 알 수 없습니다.
08:00
And if I follow a good process, I look for
as many differing opinions as I can,
120
480620
5079
그리고 좋은 과정을 따르면 나는
가능한 한 많은 다른 의견을 찾고,
08:06
keep a genuinely open mind, don't prejudge
the conclusion and then see,
121
486329
4560
진심으로 열린 마음을 유지하고, 결론을 미리 판단하지 않고
08:10
'Ok who has the better evidence'.
122
490969
1680
'누가 더 나은 증거를 가지고 있는지'를 판단합니다.
08:12
And when you do that habitually, you do
that all the time, you get pretty good at it,
123
492750
4769
그리고 습관적으로 그렇게 하면,
항상 그렇게 하고, 꽤 능숙해집니다.
08:17
just like anything, you do it all the time
and you'll get better at it.
124
497599
2261
다른 것과 마찬가지로 항상 그렇게 하고, 점점 더
나아질 것입니다. 복잡한 문제를
08:19
It still takes work to wrap your head
around any complex issue but you
125
499939
4150
해결하려면 여전히 노력이 필요
하지만
08:24
have a fighting chance if you do that process.
126
504169
2351
그 과정을 수행하면 싸울 기회가 있습니다.
08:27
It seems to have some
similarity with what journalists do,
127
507779
2761
언론인들이 하는 일, 즉
08:30
looking for different sources
and analysing the evidence.
128
510720
3820
다양한 출처를 찾아
증거를 분석하는 일과 어느 정도 비슷한 점이 있는 것 같습니다.
08:34
And it's important to look not only
at different sources but also
129
514769
4471
그리고
다양한 출처뿐만 아니라
08:39
at different points of view.
130
519320
1920
다양한 관점을 살펴보는 것도 중요합니다.
08:41
Of course this isn't something you
need to do for everything.
131
521320
3160
물론 이것이
모든 일에 꼭 필요한 것은 아닙니다.
08:44
Some things are easy to check and
some things are not that controversial.
132
524560
3770
어떤 것들은 확인하기 쉽고
어떤 것들은 그다지 논란의 여지가 없습니다.
08:48
But when it comes to science,
medicine and health, for example,
133
528410
3219
그러나 예를 들어 과학,
의학, 건강에 관해서는
08:51
there are many claims that we might
like to believe but which may not be accurate.
134
531870
4299
우리가
믿고 싶지만 정확하지 않을 수 있는 주장이 많이 있습니다.
08:56
So it's a good idea to develop
some of those research skills
135
536250
2950
따라서
08:59
if you want to be a critical thinker.
136
539280
2160
비판적 사고자가 되고 싶다면 이러한 연구 기술 중 일부를 개발하는 것이 좋습니다.
09:01
This is something that Dr Novella thinks
is essential for students and adults to develop
137
541520
4900
이는 Dr Novella가
학생과 성인이 개발하는 데 필수적이라고 생각하는 것이지만
09:06
but it's not the only thing.
138
546500
1810
이것이 유일한 것은 아닙니다.
09:08
So here's a look at what else
he thinks is important.
139
548390
3259
그렇다면 그가 중요하다고 생각하는 또 다른 것이 무엇인지 살펴보겠습니다
.
09:11
I do think that we need to teach
critical thinking as a core skill set to all,
140
551740
5069
저는 우리가
모든 어린이와 성인에게 핵심 기술인 비판적 사고와
09:16
all children and adults
and what's called media literacy.
141
556929
3811
소위 미디어 활용 능력을 가르쳐야 한다고 생각합니다.
09:20
I think media literacy is more
important than it ever was.
142
560820
3420
저는 미디어 리터러시가 그
어느 때보다 중요하다고 생각합니다.
09:24
It's only going to get even more
important so people need
143
564320
3260
이는 점점 더
중요해질 것이므로 사람들은
09:27
to understand not just scientific
literacy but critical thinking and media literacy.
144
567660
5179
과학적
활용 능력뿐만 아니라 비판적 사고와 미디어 활용 능력도 이해해야 합니다.
09:32
That is the currency now of the modern world.
145
572919
3140
그것이 바로 현대 세계의 화폐입니다.
09:36
We all have access to
massive amounts of information.
146
576139
3170
우리 모두는
엄청난 양의 정보에 접근할 수 있습니다.
09:39
I mean it's unbelievable
when you think about it,
147
579389
1781
내 말은,
당신이 그것에 대해 생각하면 믿을 수 없다는 뜻입니다.
09:41
at the touch of your fingers you have
access to the collective knowledge of humanity.
148
581870
5569
손가락의 터치만으로
인류의 집단적 지식에 접근할 수 있습니다.
09:47
It's amazing.
149
587519
1510
놀랍다.
09:49
And so the real currency is in being
able to find the information
150
589110
5140
따라서 실제 통화는 원하는
정보를 찾고
09:54
that you want and evaluate it critically.
151
594330
2740
이를 비판적으로 평가할 수 있다는 것입니다.
09:57
Being able to evaluate the information
that we have access to critically
152
597150
3040
우리가 접근할 수 있는 정보를 비판적으로 평가할 수 있는 능력은
10:00
is now probably the most important
skill any individual can have.
153
600270
4530
이제
모든 개인이 가질 수 있는 가장 중요한 기술일 것입니다.
10:04
And that's what now
I think the science communicators
154
604899
3541
그리고 그것이 바로 지금
과학 커뮤니케이터들이 그
10:08
are shifting towards.
155
608919
1501
방향으로 전환하고 있다고 생각합니다.
10:10
That's what we have to teach people.
156
610500
1210
그것이 바로 우리가 사람들에게 가르쳐야 하는 것입니다.
10:11
They can find the facts online.
157
611790
2040
그들은 온라인에서 사실을 찾을 수 있습니다.
10:13
We need to teach them how
to know it when they find it.
158
613910
2540
우리는 그들이
그것을 발견했을 때 그것을 아는 방법을 가르쳐야 합니다.
10:17
So, Sam, as well as critical thinking,
what else does Dr Novella think is an essential skill?
159
617730
4689
그렇다면 샘, 비판적 사고 외에
노벨라 박사는 또 어떤 기술이 필수적인 기술이라고 생각합니까?
10:23
That would be 'media literacy' which
is an understanding of how the media
160
623169
5250
그것은
미디어
10:28
and social media works and how it's
being used for good and for bad.
161
628500
5740
와 소셜 미디어가 어떻게 작동하는지, 그리고 그것이
좋은 쪽으로 그리고 나쁜 쪽으로 어떻게 사용되는지를 이해하는 '미디어 리터러시'일 것입니다.
10:34
And it's also about being aware of where
you get your information from,
162
634320
3430
또한 귀하가 팔로우하는
10:37
people on social media, blogs
and websites you follow.
163
637830
3759
소셜 미디어, 블로그
및 웹 사이트의 사람들로부터 정보를 얻는 곳을 인식하는 것도 중요합니다.
10:42
So, Sam, can you just please recap
today's vocabulary for us.
164
642269
2890
샘,
오늘의 어휘를 요약해 주세요.
10:45
Absolutely.
165
645580
629
전적으로.
10:46
So we started off with 'spin'
166
646289
1931
그래서 우리는 실제로 특별히 좋은 소식이 아니더라도 정보를 최대한 긍정적인 방식으로, 최대한 긍정적으로 제시하는 방법인 '스핀'으로 시작했습니다
10:48
which is a way to present information in
a positive way, as positive as possible,
167
648669
5521
10:54
even if it's not actually particularly good news.
168
654610
3949
.
10:58
Cherry-picking details is to choose
only the information
169
658639
3921
체리피킹이란
11:02
that agrees with your views
and ignore any inconvenient facts.
170
662640
4329
자신의 견해에 맞는 정보만 선택하고,
불편한 사실은 무시하는 것입니다.
11:07
A bias is a belief that something is
good or bad which isn't based
171
667049
4930
편견은
11:12
on evidence but is based on prejudices
or our own beliefs and our own ideology.
172
672059
6181
증거에 근거한 것이 아니라 편견이나
우리 자신의 신념, 우리 자신의 이데올로기에 근거한 어떤 것이 좋다 나쁘다에 대한 믿음입니다.
11:18
Critical thinking is the skill of
evaluating and judging
173
678320
3739
비판적 사고는
11:22
how accurate something is objectively,
without bias, without spin,
174
682139
5170
어떤 것이 얼마나 정확한지 편견
없이, 왜곡 없이,
11:27
and without cherry picking data.
175
687700
2760
데이터를 선별하지 않고 객관적으로 평가하고 판단하는 기술입니다.
11:30
A sceptic is someone who wants to
use logic and evidence
176
690549
3660
회의론자는 어떤 것이
11:34
and not emotion when judging how
accurate something is.
177
694330
4860
얼마나 정확한지 판단할 때 감정이 아닌 논리와 증거를 사용하려는 사람입니다
.
11:39
The adjective 'gullible' is used for
people who aren't sceptical,
178
699270
3789
'속기 쉬운'이라는 형용사는
회의적이지 않고 자신이
11:43
who easily believe what they're told
and what they read.
179
703299
4091
들은 것과 읽은 것을 쉽게 믿는 사람들에게 사용됩니다
.
11:47
And finally, media literacy is an awareness
of our modern media environment
180
707470
5189
마지막으로 미디어 리터러시는
현대 미디어 환경에 대한 인식,
11:53
and an understanding of how
181
713019
1380
11:54
media and social media works and
182
714480
2559
미디어와 소셜 미디어의 작동 방식,
11:57
how fake news and
disinformation can spread.
183
717120
3779
가짜 뉴스와
허위 정보가 어떻게 확산될 수 있는지에 대한 이해입니다.
12:00
Thank you very much Sam, I
think you deserve a rest after that.
184
720980
3209
샘 정말 고마워요.
그 후에는 좀 쉬셔야 할 것 같아요.
12:04
And thank you for watching.
185
724269
1651
시청해 주셔서 감사합니다.
12:06
Until next time, goodbye.
186
726250
1460
다음 시간까지 안녕히 계십시오.
12:07
Bye.
187
727940
500
안녕.
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.