Are opinion polls accurate? - 6 Minute English

70,880 views ・ 2022-12-15

BBC Learning English


下の英語字幕をダブルクリックすると動画を再生できます。 翻訳された字幕は機械翻訳です。

00:08
Hello. This is 6 Minute English
0
8400
1560
こんにちは。 これは
00:09
from BBC Learning English.
1
9960
1480
、BBC Learning English の 6 Minute English です。
00:11
I'm Neil.
2
11440
760
私はニールです。
00:12
And I'm Sam. Predicting the future is not easy,
3
12200
3040
私はサムです。 未来を予測するの は簡単ではありませんが、
00:15
but that's exactly the job of opinion pollsters - researchers who ask people
4
15240
4640
それはまさに世論調査員の仕事です。 調査員は、人々に
00:19
questions to discover what they think about certain topics. Often their aim
5
19880
5120
質問をして、特定のトピックについてどう思うかを明らかにし ます。 多くの場合、彼らの目的
00:25
is predicting which political party will win in an election
6
25000
3560
00:28
by asking members of the public how they intend to vote.
7
28560
3200
、一般の人々に どのように投票するつもりかを尋ねることによって、選挙でどの政党が勝つかを予測することです.
00:31
But predicting the future is never 100 per cent accurate,
8
31760
4400
しかし、未来を予測することは決して 100% 正確で
00:36
and opinion polls don't always get it right.
9
36200
3280
はなく、世論調査が常に正しいとは限りません。
00:39
In 2016, few pollsters predicted a victory for Donald Trump over Hillary Clinton
10
39480
5800
2016年の米国大統領選挙で、ヒラリー・クリントンに対するドナルド・トランプの勝利を予測した世論調査会社はほとんどありません
00:45
in the U S presidential election. And in the 2020 US elections,
11
45280
4760
でした。 そして、2020年の米国選挙では、
00:50
most polls predicted
12
50040
1440
ほとんどの世論調査が、
00:51
Trump would lose to Joe Biden, by a much larger amount
13
51480
3800
トランプがジョー・バイデンに実際 よりもはるかに多く負けると予測
00:55
than he actually did. These mistakes sometimes called 'misfires',
14
55280
4960
しました。 物事が意図したとおりに機能しない場合 、「失火」と呼ばれることもあるこれらの間違い
01:00
when things do not work in the way intended,
15
60240
2760
01:03
have damaged the reputation of opinion pollsters. In this programme,
16
63000
4160
は、世論調査員の評判を傷つけました . このプログラムで
01:07
we'll be taking a look into the opinion polling industry and of course,
17
67160
4160
は、世論調査業界について見ていきます。 もちろん、
01:11
learning some useful vocabulary as well.
18
71320
2320
役立つ語彙も学びます。
01:13
But first I have a question for you,
19
73640
1840
しかし、最初に質問があります、
01:15
Sam, it's about another time when the opinion polls got it wrong.
20
75480
5080
サム 、世論調査が間違っていたのはまた別の時です。 2016年のブレグジット国民投票で
01:20
Few pollsters predicted that Britain would vote to leave the European Union
21
80560
4360
イギリスがEU離脱に投票すると予想した世論調査員はほとんど
01:24
in the 2016 Brexit referendum,
22
84920
2680
01:27
which in the end, it did.
23
87600
2480
いなかったが、最終的にはそうなった。
01:30
But what was the final split between those who voted to leave
24
90080
3640
しかし 、離脱に投票した
01:33
and those who wanted to remain?
25
93720
2200
人々と残留を望んだ人々の間の最終的な分裂は何でしたか?
01:35
Was it a) 51 leave to 49 remain,
26
95920
3840
それは a) 51 離脱から 49 離脱へ、
01:39
b) 52 leave to 48 remain, or
27
99840
3480
b) 52 離脱から 48 離脱へ、
01:43
c) 52 remain to 48 leave?
28
103320
3200
c) 52 離脱から 48 離脱へ?
01:46
I think it was b)
29
106520
1720
b)
01:48
52 per cent voted to leave and 48 per cent to remain.
30
108240
4240
52 パーセントが離脱に投票し 、48 パーセントが残留に投票しました。
01:52
OK, Sam, I'll reveal the answer at the end of the programme.
31
112480
3600
OK、サム 、番組の最後に答えを教えてあげるよ。
01:56
One of the biggest polling companies
32
116080
1800
最大の世論調査会社の 1 つは、
01:57
was founded by George Gallup, born in 1901
33
117880
2960
1901 年にアイオワ州の農場で生まれたジョージ ギャラップによって設立され
02:00
on a farm in Iowa, Gallup was a student of journalism.
34
120840
4480
ました 。ギャラップはジャーナリズムの学生でした。
02:05
He wanted to know people's opinion on a range of subjects
35
125320
3360
彼はさまざまなテーマについて人々の意見を知りたいと思ってい
02:08
and came up with a simple idea -
36
128680
2400
02:11
why not try asking them?
37
131080
2360
ました。
02:13
Here's G Elliott Morris,
38
133440
1840
これ
02:15
a data journalist from the Economist, explaining more to BBC
39
135280
3760
は、エコノミストのデータ ジャーナリストである G エリオット モリスが、 BBC
02:19
World Service Programme, More or Less.
40
139040
2840
ワールド サービス プログラムに 多かれ少なかれ説明しています。
02:21
And,he publishes his dissertation
41
141880
2280
そして、彼はこれに関する論文を発表し
02:24
on this - how to measure what people want, basically.
42
144160
2280
ています - 基本的に、人々が何を望んでいるのかを測定する方法 .
02:26
And he gets hired by a much bigger advertising agency
43
146440
3960
そして、彼は
02:30
in New York called Young and Rubicam, and they basically give him
44
150400
3360
ヤング アンド ルビカムと呼ばれるニューヨークのはるかに大きな広告代理店に雇われ、 彼らは基本的に彼
02:33
a blank cheque to do their research, to figure out how to call people,
45
153760
4280
に白紙の小切手を渡して調査を行い、 人々に電話をかける
02:38
how to talk to them, to figure out if they remember or liked a certain product.
46
158040
4800
方法、彼らと話す方法、彼らが 特定の製品を覚えているか、気に入っています。
02:42
Basically, to figure out early methodologies
47
162840
2880
基本的に、広告の初期の方法論
02:45
in advertising and then by 1931 or so, he's wondering
48
165720
4920
を見つけ出し、1931 年かそこらまで に、彼は
02:50
well, if it works for toothpaste
49
170640
1400
よく考えています。それが歯磨き粉でうまくいくなら、
02:52
why not politics?
50
172040
1560
なぜ政治でうまくいかないのでしょうか?
02:53
George Gallup tried to figure out what customers wanted to buy.
51
173600
4280
ジョージ・ギャラップは、 顧客が何を買いたがっているのかを理解しようとしました。
02:57
If you figure something out,
52
177880
1680
何かを見つけ
02:59
you finally understand it or find a solution to a problem
53
179560
3640
たら、最終的にそれを理解する か、よく考えた後に問題の解決策を見つけます
03:03
after thinking about it a lot.
54
183200
2440
03:05
Later, he was hired by a New York advertising agency to find out
55
185640
4080
その後、彼はニューヨークの広告代理店に雇われ、歯磨き粉や清涼飲料など
03:09
people's opinion of consumer products like toothpaste and soft drinks.
56
189720
4840
の消費財に対する人々の意見を調べました 。
03:14
George was given a 'blank cheque' - an unlimited amount of money
57
194560
3960
ジョージには「白紙小切手」が与えられまし た。無制限の金額
03:18
and freedom to do his job.
58
198520
2080
と仕事をする自由です。
03:20
At this time, polling was focused on consumer preferences,
59
200600
3560
当時の世論調査は 、政治ではなく消費者の好みに焦点を当てて
03:24
not politics.
60
204160
1560
いました。
03:25
But asking people about their political views is
61
205720
2640
しかし 、政治的見解について人々に
03:28
a lot more complicated than asking them about toothpaste.
62
208360
4080
尋ねることは、歯磨き粉について尋ねるよりもはるかに複雑です.
03:32
Making accurate election predictions.
63
212440
2200
正確な選挙予測を行う。 人口全体を正確に代表する
03:34
depends on polling a sample group of people
64
214640
3040
人々のサンプルグループを調査することに依存してい
03:37
who accurately represent the population as a whole. One of the reasons
65
217680
4520
ます。
03:42
for pollsters' failure to predict Trump's election in 2016,
66
222200
4120
世論調査員 が 2016 年のトランプ氏の当選を予測できなかった理由の 1 つ
03:46
is that they didn't ask enough white, non-college educated voters.
67
226320
4160
は、大学教育を受けていない白人の有権者に十分な質問をしなかったこと です。
03:50
So, polling is a very complex process -
68
230480
2640
したがって、世論調査は非常に複雑なプロセス
03:53
one which is never totally reliable,
69
233120
2640
です
03:55
according to G Elliott Morris, speaking again here to BBC
70
235760
3880
。G エリオット モリスによると、 ここで BBC
03:59
World Service's More or Less...  
71
239640
2480
ワールド サービスの「多かれ少なかれ」に再び語ったところによると、完全に信頼できるものではありません。
04:02
If people were understanding this process that is generating all these polls,
72
242120
5640
これらすべての世論調査を生成しているこのプロセスを人々が理解して
04:07
then they would understand polls as less, sort of, precise tools,
73
247760
4040
いれば、 世論調査 は、私たちが期待するようになったレーザーのような予測精度を提供できないツールであり、正確で
04:11
tools they definitely can't offer the laser-like predictive accuracy
74
251800
2760
はないツールであると理解するでしょ
04:14
we've come to expect from them.
75
254560
2040
う. そう
04:16
then the difference between pollings'
76
256600
2160
すれば、世論調査の期待とパフォーマンスの違いはそれほど明確で
04:18
expectations and performance wouldn't be so stark.
77
258760
3720
はなくなります。
04:22
Opinion polls can estimate the outcome of an election,
78
262480
3080
世論調査 は選挙の結果を予測することは
04:25
but they can't give us laser-like accuracy.
79
265560
3320
できますが、レーザーのような正確さを示すことはできません 。
04:28
If you describe something as 'laser-like' you mean it
80
268880
2840
何かを 「レーザーのような」と表現する場合、レーザーのよう
04:31
it's very accurate and focused, like a laser.
81
271720
3440
に非常に正確 で焦点が合っていることを意味します。
04:35
If people understand how hard
82
275160
1800
人々
04:36
it is to predict the future,
83
276960
1680
が未来を予測することがどれほど難しいかを理解すれば、
04:38
they might be more realistic about
84
278640
1960
04:40
how accurate opinion polls can be. Then differences between a prediction
85
280600
5280
世論調査がどれほど正確であるかについて、より現実的になるかもしれません。
04:45
and the final result would not be so stark - obvious and easily visible or harsh.
86
285880
6720
そうすれば、予測と最終結果の違いはそれほど明確ではなく、 明白で簡単に目に見えるか厳しいものになります.
04:52
Predicting the future is difficult,
87
292600
2360
未来を予測することは困難です。
04:54
otherwise everyone would be a lottery winner by now.
88
294960
3560
さもなければ、誰も が宝くじの当選者になってしまうでしょう。 壊れ
04:58
Maybe it's not opinion polls that have broken,
89
298520
2360
たのは世論調査ではないかもしれません
05:00
but our desire to know the future that's the problem.
90
300880
3920
が、未来を知りたいという私たちの願望 が問題なのです。
05:05
OK, it's time to reveal the answer to my question about the Brexit referendum.
91
305000
4600
OK、ブレグジットの国民投票に関する私の質問に対する答えを明らかにする時が来ました .
05:09
I said the final result was 52 per cent for leave,
92
309600
3560
私は、最終結果は 休暇が52
05:13
and 48 per cent for remain.
93
313160
2360
%、残留が48%だと言いました。
05:15
Which was the correct answer. And another example of an opinion poll 'misfire' - a situation
94
315520
6360
これが正解でした。 そして 、世論調査の「不発」のもう 1 つの例は、
05:21
where something does not work as intended.
95
321880
3360
何かが 意図したとおりに機能しない状況です。
05:25
OK, let's recap the rest of the vocabulary
96
325240
2480
では、世論調査員に関するこの番組の残りの語彙を要約してみましょう。
05:27
from this programme about opinion pollsters -
97
327720
2480
世論調査員は、世論調査
05:30
people who conduct polls
98
330200
1480
を行い
05:31
asking the public their opinion on particular subjects,
99
331680
3400
、特定のテーマ、
05:35
especially politics.
100
335080
1760
特に政治について意見を求める人々です。
05:36
If you figure something out.
101
336840
1640
何か分かれば。
05:38
you finally understand it or find the solution to a problem
102
338480
4320
長い間懸命に考えた後、最終的にそれを理解する か、問題の解決策を見つけます
05:42
after thinking long and hard about it.
103
342800
2240
05:45
If someone gives you a blank cheque,
104
345040
2400
誰かがあなたに白紙の小切手を渡した場合、
05:47
you have unlimited money and freedom to complete a task.,
105
347440
3920
あなたは無制限のお金 とタスクを完了する自由を手に入れることができます.
05:51
When you describe something as 'laser-like', you mean that
106
351360
3080
何かを「レーザーのような」と表現するとき、 あなたは
05:54
it's very accurate and precise.
107
354440
2160
それが非常に正確で正確であることを意味します.
05:56
And finally, the adjective 'stark' has several meanings,
108
356600
3360
最後に、形容詞 'stark' には 、
05:59
including 'obvious', 'harsh' and 'plain'.
109
359960
3080
'明白な'、'厳しい'、'平凡な' など、いくつかの意味があります。
06:03
Once again, our six minutes are up. Bye for now.
110
363040
2880
再び、6 分が経過しました。 またね。
06:05
Bye bye.
111
365920
1160
バイバイ。
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7