Are opinion polls accurate? - 6 Minute English

75,778 views ・ 2022-12-15

BBC Learning English


아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.

00:08
Hello. This is 6 Minute English
0
8400
1560
안녕하세요. BBC Learning English의 6분 영어
00:09
from BBC Learning English.
1
9960
1480
입니다.
00:11
I'm Neil.
2
11440
760
저는 닐입니다.
00:12
And I'm Sam. Predicting the future is not easy,
3
12200
3040
그리고 저는 샘입니다. 미래를 예측하는 것은 쉽지
00:15
but that's exactly the job of opinion pollsters - researchers who ask people
4
15240
4640
않지만 그것이 바로 여론 조사원의 일입니다. 사람들에게 특정 주제에
00:19
questions to discover what they think about certain topics. Often their aim
5
19880
5120
대해 어떻게 생각하는지 알아보기 위해 질문을 하는 연구원입니다 . 종종 그들의 목표
00:25
is predicting which political party will win in an election
6
25000
3560
00:28
by asking members of the public how they intend to vote.
7
28560
3200
는 대중 에게 투표 방법을 물어봄으로써 어느 정당이 선거에서 승리할지 예측하는 것입니다.
00:31
But predicting the future is never 100 per cent accurate,
8
31760
4400
그러나 미래를 예측하는 것은 결코 100퍼센트 정확
00:36
and opinion polls don't always get it right.
9
36200
3280
하지 않으며, 여론 조사가 항상 옳은 것도 아닙니다.
00:39
In 2016, few pollsters predicted a victory for Donald Trump over Hillary Clinton
10
39480
5800
2016년 미국 대선에서 도널드 트럼프가 힐러리 클린턴을 꺾을 것이라고 예측한 여론조사 기관은 거의 없었다
00:45
in the U S presidential election. And in the 2020 US elections,
11
45280
4760
. 그리고 2020년 미국 대선에서
00:50
most polls predicted
12
50040
1440
대부분의 여론조사는
00:51
Trump would lose to Joe Biden, by a much larger amount
13
51480
3800
트럼프가 실제보다 훨씬 더 많이 조 바이든에게 패할 것이라고 예측
00:55
than he actually did. These mistakes sometimes called 'misfires',
14
55280
4960
했습니다. 상황이 의도한 대로 작동하지 않을 때 때때로 '실화'라고 불리는 이러한 실수
01:00
when things do not work in the way intended,
15
60240
2760
01:03
have damaged the reputation of opinion pollsters. In this programme,
16
63000
4160
는 여론 조사원의 평판을 손상시켰습니다 . 이 프로그램에서
01:07
we'll be taking a look into the opinion polling industry and of course,
17
67160
4160
우리는 여론 조사 산업을 살펴보고
01:11
learning some useful vocabulary as well.
18
71320
2320
물론 유용한 용어도 배울 것입니다.
01:13
But first I have a question for you,
19
73640
1840
하지만 먼저 당신에게 질문이 있습니다,
01:15
Sam, it's about another time when the opinion polls got it wrong.
20
75480
5080
샘, 여론 조사가 잘못되었을 때 또 다른 때입니다. 2016년 브렉시트 국민투표에서
01:20
Few pollsters predicted that Britain would vote to leave the European Union
21
80560
4360
영국 이 유럽연합 탈퇴에 투표할 것이라고 예측한 여론 조사원은 거의
01:24
in the 2016 Brexit referendum,
22
84920
2680
01:27
which in the end, it did.
23
87600
2480
없었으며 결국 그렇게 되었습니다.
01:30
But what was the final split between those who voted to leave
24
90080
3640
그러나 떠나기로 투표
01:33
and those who wanted to remain?
25
93720
2200
한 사람들과 남아 있기를 원하는 사람들 사이의 마지막 분열은 무엇이었습니까?
01:35
Was it a) 51 leave to 49 remain,
26
95920
3840
a) 51에서 49까지 남음,
01:39
b) 52 leave to 48 remain, or
27
99840
3480
b) 52에서 48까지 남음,
01:43
c) 52 remain to 48 leave?
28
103320
3200
c) 52에서 48까지 남음?
01:46
I think it was b)
29
106520
1720
b)
01:48
52 per cent voted to leave and 48 per cent to remain.
30
108240
4240
탈퇴에 52 %, 잔류에 48%가 투표했다고 생각합니다.
01:52
OK, Sam, I'll reveal the answer at the end of the programme.
31
112480
3600
좋아요, 샘, 프로그램이 끝날 때 답을 공개하겠습니다.
01:56
One of the biggest polling companies
32
116080
1800
가장 큰 투표 회사 중 하나
01:57
was founded by George Gallup, born in 1901
33
117880
2960
는 1901년 아이오와의 농장에서 태어난 조지 갤럽이 설립했으며
02:00
on a farm in Iowa, Gallup was a student of journalism.
34
120840
4480
갤럽 은 저널리즘을 전공했습니다.
02:05
He wanted to know people's opinion on a range of subjects
35
125320
3360
그는 다양한 주제에 대한 사람들의 의견을 알고 싶었고
02:08
and came up with a simple idea -
36
128680
2400
간단한 아이디어를 내놓았
02:11
why not try asking them?
37
131080
2360
습니다. 그들에게 물어보는 것은 어떨까요?
02:13
Here's G Elliott Morris,
38
133440
1840
다음
02:15
a data journalist from the Economist, explaining more to BBC
39
135280
3760
은 Economist의 데이터 저널리스트인 G Elliott Morris 가 BBC
02:19
World Service Programme, More or Less.
40
139040
2840
World Service Programme, More or Less에서 자세한 내용을 설명하는 내용입니다.
02:21
And,he publishes his dissertation
41
141880
2280
그리고 그는 기본적으로
02:24
on this - how to measure what people want, basically.
42
144160
2280
사람들이 원하는 것을 측정하는 방법에 대한 논문을 발표 합니다.
02:26
And he gets hired by a much bigger advertising agency
43
146440
3960
그리고 그는 Young and Rubicam이라는 뉴욕 의 훨씬 더 큰 광고 대행사에 고용되었습니다.
02:30
in New York called Young and Rubicam, and they basically give him
44
150400
3360
그들은 기본적으로 그
02:33
a blank cheque to do their research, to figure out how to call people,
45
153760
4280
에게 백지 수표를 주어 조사를 하고 사람들에게 전화를 거는
02:38
how to talk to them, to figure out if they remember or liked a certain product.
46
158040
4800
방법과 대화하는 방법을 알아내고 그들이 특정 제품을 기억하거나 좋아했습니다.
02:42
Basically, to figure out early methodologies
47
162840
2880
기본적으로 광고의 초기 방법론을 파악
02:45
in advertising and then by 1931 or so, he's wondering
48
165720
4920
하고 1931
02:50
well, if it works for toothpaste
49
170640
1400
년경까지 치약에 효과가 있다면
02:52
why not politics?
50
172040
1560
정치에는 왜 효과가 없는지 궁금합니다.
02:53
George Gallup tried to figure out what customers wanted to buy.
51
173600
4280
George Gallup은 고객이 무엇을 사고 싶어하는지 알아내려고 노력했습니다.
02:57
If you figure something out,
52
177880
1680
무언가를 알아내면
02:59
you finally understand it or find a solution to a problem
53
179560
3640
마침내 그것을 이해 하거나 그것에 대해 많이 생각한 후에 문제에 대한 해결책을 찾습니다
03:03
after thinking about it a lot.
54
183200
2440
.
03:05
Later, he was hired by a New York advertising agency to find out
55
185640
4080
나중에 그는 치약과 청량 음료와 같은
03:09
people's opinion of consumer products like toothpaste and soft drinks.
56
189720
4840
소비자 제품에 대한 사람들의 의견을 알아보기 위해 뉴욕 광고 대행사에 고용되었습니다 .
03:14
George was given a 'blank cheque' - an unlimited amount of money
57
194560
3960
George는 무제한의 돈
03:18
and freedom to do his job.
58
198520
2080
과 일을 할 수 있는 자유인 '백지 수표'를 받았습니다.
03:20
At this time, polling was focused on consumer preferences,
59
200600
3560
이때 여론조사는 정치가 아닌 소비자 선호도에 초점을 맞췄다
03:24
not politics.
60
204160
1560
.
03:25
But asking people about their political views is
61
205720
2640
그러나 사람들 에게 정치적 견해
03:28
a lot more complicated than asking them about toothpaste.
62
208360
4080
에 대해 묻는 것은 치약에 대해 묻는 것보다 훨씬 더 복잡합니다.
03:32
Making accurate election predictions.
63
212440
2200
정확한 선거 예측을 합니다. 인구 전체를 정확하게 대표하는
03:34
depends on polling a sample group of people
64
214640
3040
사람들의 표본 집단을 투표하는 것에 달려
03:37
who accurately represent the population as a whole. One of the reasons
65
217680
4520
있습니다.
03:42
for pollsters' failure to predict Trump's election in 2016,
66
222200
4120
여론 조사원 이 2016년 트럼프의 선거를 예측하지 못한 이유 중 하나
03:46
is that they didn't ask enough white, non-college educated voters.
67
226320
4160
는 대학 교육을 받지 않은 백인 유권자에게 충분한 질문을 하지 않았기 때문 입니다.
03:50
So, polling is a very complex process -
68
230480
2640
따라서 투표는 매우 복잡한 과정입니다.
03:53
one which is never totally reliable,
69
233120
2640
03:55
according to G Elliott Morris, speaking again here to BBC
70
235760
3880
G Elliott Morris에 따르면 BBC
03:59
World Service's More or Less...  
71
239640
2480
World Service의 More or Less
04:02
If people were understanding this process that is generating all these polls,
72
242120
5640
... 사람들이 이러한 모든 투표를 생성하는 이 과정을 이해
04:07
then they would understand polls as less, sort of, precise tools,
73
247760
4040
했다면 여론조사를 덜 정확하고 정밀한 도구로 이해할 것입니다. 우리가 기대하는 레이저와 같은 예측 정확도
04:11
tools they definitely can't offer the laser-like predictive accuracy
74
251800
2760
를 확실히 제공할 수 없는 도구
04:14
we've come to expect from them.
75
254560
2040
입니다.
04:16
then the difference between pollings'
76
256600
2160
그러면 여론조사의 기대치와 성과 사이의 차이
04:18
expectations and performance wouldn't be so stark.
77
258760
3720
가 그렇게 뚜렷하지 않을 것입니다.
04:22
Opinion polls can estimate the outcome of an election,
78
262480
3080
여론 조사 는 선거 결과를 예측할 수
04:25
but they can't give us laser-like accuracy.
79
265560
3320
있지만 레이저와 같은 정확도를 제공할 수는 없습니다.
04:28
If you describe something as 'laser-like' you mean it
80
268880
2840
어떤 것을 '레이저와 같다'고 설명하면 레이저처럼 매우 정확하고 초점이 맞춰져 있다는 의미
04:31
it's very accurate and focused, like a laser.
81
271720
3440
입니다.
04:35
If people understand how hard
82
275160
1800
사람들
04:36
it is to predict the future,
83
276960
1680
이 미래를 예측하는 것이 얼마나 어려운지 이해한다면
04:38
they might be more realistic about
84
278640
1960
04:40
how accurate opinion polls can be. Then differences between a prediction
85
280600
5280
여론조사가 얼마나 정확할 수 있는지에 대해 더 현실적일 수 있습니다. 그러면 예측
04:45
and the final result would not be so stark - obvious and easily visible or harsh.
86
285880
6720
과 최종 결과 사이의 차이가 그렇게 뚜렷하지 않을 것 입니다. 명백하고 쉽게 눈에 띄거나 가혹합니다.
04:52
Predicting the future is difficult,
87
292600
2360
미래를 예측하는 것은 어렵습니다.
04:54
otherwise everyone would be a lottery winner by now.
88
294960
3560
그렇지 않으면 모두가 지금쯤 복권 당첨자가 될 것입니다.
04:58
Maybe it's not opinion polls that have broken,
89
298520
2360
아마도 무너진 것은 여론 조사가
05:00
but our desire to know the future that's the problem.
90
300880
3920
아니라 문제인 미래를 알고자 하는 우리의 욕망일 것 입니다.
05:05
OK, it's time to reveal the answer to my question about the Brexit referendum.
91
305000
4600
자, 이제 브렉시트 국민투표에 대한 제 질문에 대한 답을 밝힐 시간입니다.
05:09
I said the final result was 52 per cent for leave,
92
309600
3560
나는 최종 결과 가 휴가 52
05:13
and 48 per cent for remain.
93
313160
2360
%, 잔류 48%라고 말했습니다.
05:15
Which was the correct answer. And another example of an opinion poll 'misfire' - a situation
94
315520
6360
정답이었습니다. 그리고 여론조사 'misfire'의 또 다른 예 -
05:21
where something does not work as intended.
95
321880
3360
무언가가 의도한 대로 작동하지 않는 상황.
05:25
OK, let's recap the rest of the vocabulary
96
325240
2480
좋아요,
05:27
from this programme about opinion pollsters -
97
327720
2480
이 프로그램에서 여론 조사원에 대한 나머지 어휘를 요약해 봅시다. 특정 주제, 특히 정치에 대한 대중의 의견을 묻는
05:30
people who conduct polls
98
330200
1480
여론 조사를 실시하는 사람들입니다
05:31
asking the public their opinion on particular subjects,
99
331680
3400
05:35
especially politics.
100
335080
1760
.
05:36
If you figure something out.
101
336840
1640
당신이 뭔가 알아낼 경우.
05:38
you finally understand it or find the solution to a problem
102
338480
4320
당신은 그것에 대해 오랫동안 열심히 생각한 후에 마침내 그것을 이해 하거나 문제에 대한 해결책을 찾습니다
05:42
after thinking long and hard about it.
103
342800
2240
.
05:45
If someone gives you a blank cheque,
104
345040
2400
누군가 당신에게 백지 수표를 준다면,
05:47
you have unlimited money and freedom to complete a task.,
105
347440
3920
당신은 무제한의 돈 과 작업을 완료할 자유가 있습니다.
05:51
When you describe something as 'laser-like', you mean that
106
351360
3080
, 당신이 어떤 것을 '레이저 같다'고 묘사할 때, 당신은
05:54
it's very accurate and precise.
107
354440
2160
그것이 매우 정확하고 정확하다는 것을 의미합니다.
05:56
And finally, the adjective 'stark' has several meanings,
108
356600
3360
그리고 마지막으로 'stark'라는 형용사는
05:59
including 'obvious', 'harsh' and 'plain'.
109
359960
3080
'명백한', '가혹한', '평범한' 등 여러 의미를 가지고 있습니다.
06:03
Once again, our six minutes are up. Bye for now.
110
363040
2880
다시 한 번 6분이 끝났습니다. 지금은 안녕.
06:05
Bye bye.
111
365920
1160
안녕.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7