Are opinion polls accurate? - 6 Minute English

75,778 views ・ 2022-12-15

BBC Learning English


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film. Przetłumaczone napisy są tłumaczone maszynowo.

00:08
Hello. This is 6 Minute English
0
8400
1560
Cześć. To jest 6-minutowy angielski
00:09
from BBC Learning English.
1
9960
1480
z BBC Learning English.
00:11
I'm Neil.
2
11440
760
Jestem Neilem.
00:12
And I'm Sam. Predicting the future is not easy,
3
12200
3040
A ja jestem Samem. Przewidywanie przyszłości nie jest łatwe,
00:15
but that's exactly the job of opinion pollsters - researchers who ask people
4
15240
4640
ale to jest właśnie zadanie ankieterów - badaczy, którzy zadają ludziom
00:19
questions to discover what they think about certain topics. Often their aim
5
19880
5120
pytania, aby dowiedzieć się, co myślą na określone tematy. Często ich celem
00:25
is predicting which political party will win in an election
6
25000
3560
jest przewidzenie, która partia polityczna zwycięży w wyborach,
00:28
by asking members of the public how they intend to vote.
7
28560
3200
pytając obywateli, jak zamierzają głosować.
00:31
But predicting the future is never 100 per cent accurate,
8
31760
4400
Ale przewidywanie przyszłości nigdy nie jest w 100 procentach dokładne,
00:36
and opinion polls don't always get it right.
9
36200
3280
a sondaże nie zawsze pokazują to dobrze.
00:39
In 2016, few pollsters predicted a victory for Donald Trump over Hillary Clinton
10
39480
5800
W 2016 roku niewielu ankieterów przewidywało zwycięstwo Donalda Trumpa nad Hillary Clinton
00:45
in the U S presidential election. And in the 2020 US elections,
11
45280
4760
w wyborach prezydenckich w USA. A w wyborach w USA w 2020 roku
00:50
most polls predicted
12
50040
1440
większość sondaży przewidywała, że
00:51
Trump would lose to Joe Biden, by a much larger amount
13
51480
3800
Trump przegra z Joe Bidenem, znacznie większą kwotą
00:55
than he actually did. These mistakes sometimes called 'misfires',
14
55280
4960
niż w rzeczywistości. Błędy te, zwane czasami „wypałami”,
01:00
when things do not work in the way intended,
15
60240
2760
gdy coś nie działa zgodnie z zamierzeniami,
01:03
have damaged the reputation of opinion pollsters. In this programme,
16
63000
4160
zaszkodziły reputacji ankieterów. W tym programie
01:07
we'll be taking a look into the opinion polling industry and of course,
17
67160
4160
przyjrzymy się branży badań opinii publicznej i oczywiście
01:11
learning some useful vocabulary as well.
18
71320
2320
nauczymy się również przydatnego słownictwa.
01:13
But first I have a question for you,
19
73640
1840
Ale najpierw mam do ciebie pytanie,
01:15
Sam, it's about another time when the opinion polls got it wrong.
20
75480
5080
Sam, chodzi o inny przypadek, kiedy sondaże się myliły.
01:20
Few pollsters predicted that Britain would vote to leave the European Union
21
80560
4360
Niewielu ankieterów przewidywało, że Wielka Brytania zagłosuje za opuszczeniem Unii Europejskiej
01:24
in the 2016 Brexit referendum,
22
84920
2680
w referendum w sprawie brexitu w 2016 r.,
01:27
which in the end, it did.
23
87600
2480
co ostatecznie się udało.
01:30
But what was the final split between those who voted to leave
24
90080
3640
Ale jaki był ostateczny podział między tymi, którzy głosowali za wyjazdem,
01:33
and those who wanted to remain?
25
93720
2200
a tymi, którzy chcieli pozostać? Czy
01:35
Was it a) 51 leave to 49 remain,
26
95920
3840
było to a) 51 odejścia do 49 pozostania,
01:39
b) 52 leave to 48 remain, or
27
99840
3480
b) 52 odejścia do 48 pozostania, czy
01:43
c) 52 remain to 48 leave?
28
103320
3200
c) 52 pozostania do 48 odejścia?
01:46
I think it was b)
29
106520
1720
Myślę, że b)
01:48
52 per cent voted to leave and 48 per cent to remain.
30
108240
4240
52 procent głosowało za wyjściem, a 48 procent za pozostaniem.
01:52
OK, Sam, I'll reveal the answer at the end of the programme.
31
112480
3600
OK, Sam, pod koniec programu podam odpowiedź.
01:56
One of the biggest polling companies
32
116080
1800
Jedną z największych firm sondażowych
01:57
was founded by George Gallup, born in 1901
33
117880
2960
założył George Gallup, urodzony w 1901 roku
02:00
on a farm in Iowa, Gallup was a student of journalism.
34
120840
4480
na farmie w Iowa, Gallup był studentem dziennikarstwa.
02:05
He wanted to know people's opinion on a range of subjects
35
125320
3360
Chciał poznać opinię ludzi na różne tematy
02:08
and came up with a simple idea -
36
128680
2400
i wpadł na prosty pomysł –
02:11
why not try asking them?
37
131080
2360
dlaczego nie spróbować ich zapytać?
02:13
Here's G Elliott Morris,
38
133440
1840
Oto G Elliott Morris,
02:15
a data journalist from the Economist, explaining more to BBC
39
135280
3760
dziennikarz zajmujący się danymi z „The Economist”, wyjaśnia więcej
02:19
World Service Programme, More or Less.
40
139040
2840
programowi BBC World Service, mniej więcej.
02:21
And,he publishes his dissertation
41
141880
2280
I publikuje swoją rozprawę
02:24
on this - how to measure what people want, basically.
42
144160
2280
na ten temat - jak mierzyć to, czego ludzie chcą, w zasadzie.
02:26
And he gets hired by a much bigger advertising agency
43
146440
3960
Zostaje zatrudniony przez znacznie większą agencję reklamową
02:30
in New York called Young and Rubicam, and they basically give him
44
150400
3360
w Nowym Jorku, Young and Rubicam, i zasadniczo dają mu
02:33
a blank cheque to do their research, to figure out how to call people,
45
153760
4280
czek in blanco, aby przeprowadził swoje badania, aby dowiedzieć się, jak dzwonić do ludzi,
02:38
how to talk to them, to figure out if they remember or liked a certain product.
46
158040
4800
jak z nimi rozmawiać, aby dowiedzieć się, czy zapamiętać lub polubić określony produkt.
02:42
Basically, to figure out early methodologies
47
162840
2880
Zasadniczo, aby wymyślić wczesne metodologie
02:45
in advertising and then by 1931 or so, he's wondering
48
165720
4920
w reklamie, a potem mniej więcej do 1931 roku, zastanawia się
02:50
well, if it works for toothpaste
49
170640
1400
, czy to działa w przypadku pasty do zębów,
02:52
why not politics?
50
172040
1560
dlaczego nie w polityce?
02:53
George Gallup tried to figure out what customers wanted to buy.
51
173600
4280
George Gallup próbował dowiedzieć się, co klienci chcą kupić.
02:57
If you figure something out,
52
177880
1680
Jeśli coś wymyślisz, w
02:59
you finally understand it or find a solution to a problem
53
179560
3640
końcu to zrozumiesz lub znajdziesz rozwiązanie problemu
03:03
after thinking about it a lot.
54
183200
2440
po wielu przemyśleniach.
03:05
Later, he was hired by a New York advertising agency to find out
55
185640
4080
Później został zatrudniony przez nowojorską agencję reklamową, aby poznać
03:09
people's opinion of consumer products like toothpaste and soft drinks.
56
189720
4840
opinię ludzi na temat produktów konsumenckich, takich jak pasta do zębów i napoje bezalkoholowe.
03:14
George was given a 'blank cheque' - an unlimited amount of money
57
194560
3960
George otrzymał „czek in blanco” – nieograniczoną ilość pieniędzy
03:18
and freedom to do his job.
58
198520
2080
i swobodę wykonywania swojej pracy.
03:20
At this time, polling was focused on consumer preferences,
59
200600
3560
W tym czasie ankiety koncentrowały się na preferencjach konsumentów, a
03:24
not politics.
60
204160
1560
nie na polityce.
03:25
But asking people about their political views is
61
205720
2640
Ale pytanie ludzi o ich poglądy polityczne jest o
03:28
a lot more complicated than asking them about toothpaste.
62
208360
4080
wiele bardziej skomplikowane niż pytanie ich o pastę do zębów.
03:32
Making accurate election predictions.
63
212440
2200
Dokonywanie trafnych prognoz wyborczych.
03:34
depends on polling a sample group of people
64
214640
3040
polega na przeprowadzeniu ankiety na próbnej grupie osób,
03:37
who accurately represent the population as a whole. One of the reasons
65
217680
4520
które dokładnie reprezentują populację jako całość. Jednym z powodów, dla których
03:42
for pollsters' failure to predict Trump's election in 2016,
66
222200
4120
ankieterzy nie przewidzieli wyborów Trumpa w 2016 r.,
03:46
is that they didn't ask enough white, non-college educated voters.
67
226320
4160
jest to, że nie zapytali wystarczającej liczby białych wyborców bez wyższego wykształcenia.
03:50
So, polling is a very complex process -
68
230480
2640
Sondowanie jest więc bardzo złożonym procesem,
03:53
one which is never totally reliable,
69
233120
2640
który nigdy nie jest całkowicie niezawodny,
03:55
according to G Elliott Morris, speaking again here to BBC
70
235760
3880
według G Elliotta Morrisa, ponownie przemawiającego tutaj do BBC
03:59
World Service's More or Less...  
71
239640
2480
World Service's More or Less...
04:02
If people were understanding this process that is generating all these polls,
72
242120
5640
Gdyby ludzie rozumieli ten proces, który generuje wszystkie te sondaże, to
04:07
then they would understand polls as less, sort of, precise tools,
73
247760
4040
byliby rozumieją ankiety jako mniej precyzyjne narzędzia,
04:11
tools they definitely can't offer the laser-like predictive accuracy
74
251800
2760
narzędzia, których zdecydowanie nie mogą zaoferować laserowej precyzji, jakiej
04:14
we've come to expect from them.
75
254560
2040
od nich oczekujemy.
04:16
then the difference between pollings'
76
256600
2160
wtedy różnica między
04:18
expectations and performance wouldn't be so stark.
77
258760
3720
oczekiwaniami sondaży a wynikami nie byłaby tak wyraźna.
04:22
Opinion polls can estimate the outcome of an election,
78
262480
3080
Sondaże opinii publicznej mogą oszacować wynik wyborów,
04:25
but they can't give us laser-like accuracy.
79
265560
3320
ale nie dają nam laserowej dokładności.
04:28
If you describe something as 'laser-like' you mean it
80
268880
2840
Jeśli opisujesz coś jako „laserowe”, masz na myśli to, że
04:31
it's very accurate and focused, like a laser.
81
271720
3440
jest bardzo dokładne i skupione, jak laser.
04:35
If people understand how hard
82
275160
1800
Jeśli ludzie zrozumieją, jak trudno
04:36
it is to predict the future,
83
276960
1680
jest przewidzieć przyszłość,
04:38
they might be more realistic about
84
278640
1960
mogą bardziej realistycznie podejść do tego,
04:40
how accurate opinion polls can be. Then differences between a prediction
85
280600
5280
jak dokładne mogą być sondaże. Wtedy różnice między prognozą
04:45
and the final result would not be so stark - obvious and easily visible or harsh.
86
285880
6720
a wynikiem końcowym nie byłyby tak wyraźne - oczywiste i łatwo widoczne lub dotkliwe.
04:52
Predicting the future is difficult,
87
292600
2360
Przewidywanie przyszłości jest trudne, w
04:54
otherwise everyone would be a lottery winner by now.
88
294960
3560
przeciwnym razie wszyscy byliby już zwycięzcami loterii.
04:58
Maybe it's not opinion polls that have broken,
89
298520
2360
Może to nie sondaże się zepsuły,
05:00
but our desire to know the future that's the problem.
90
300880
3920
ale nasze pragnienie poznania przyszłości jest problemem.
05:05
OK, it's time to reveal the answer to my question about the Brexit referendum.
91
305000
4600
OK, czas ujawnić odpowiedź na moje pytanie dotyczące referendum w sprawie Brexitu.
05:09
I said the final result was 52 per cent for leave,
92
309600
3560
Powiedziałem, że ostateczny wynik to 52 procent za urlopem
05:13
and 48 per cent for remain.
93
313160
2360
i 48 procent za pozostaniem.
05:15
Which was the correct answer. And another example of an opinion poll 'misfire' - a situation
94
315520
6360
Która odpowiedź była poprawna. I kolejny przykład „wypału” ankiety – sytuacji, w której
05:21
where something does not work as intended.
95
321880
3360
coś nie działa zgodnie z założeniami.
05:25
OK, let's recap the rest of the vocabulary
96
325240
2480
OK, podsumujmy resztę słownictwa
05:27
from this programme about opinion pollsters -
97
327720
2480
z tego programu o ankieterach -
05:30
people who conduct polls
98
330200
1480
ludziach, którzy przeprowadzają ankiety,
05:31
asking the public their opinion on particular subjects,
99
331680
3400
pytając opinię publiczną o opinię na określone tematy,
05:35
especially politics.
100
335080
1760
zwłaszcza politykę.
05:36
If you figure something out.
101
336840
1640
Jeśli coś wymyślisz.
05:38
you finally understand it or find the solution to a problem
102
338480
4320
w końcu to zrozumiesz lub znajdziesz rozwiązanie problemu
05:42
after thinking long and hard about it.
103
342800
2240
po długim i ciężkim namyśle.
05:45
If someone gives you a blank cheque,
104
345040
2400
Jeśli ktoś daje ci czek in blanco,
05:47
you have unlimited money and freedom to complete a task.,
105
347440
3920
masz nieograniczone pieniądze i swobodę wykonania zadania.
05:51
When you describe something as 'laser-like', you mean that
106
351360
3080
Kiedy opisujesz coś jako „laserowe”, masz na myśli, że
05:54
it's very accurate and precise.
107
354440
2160
jest bardzo dokładne i precyzyjne.
05:56
And finally, the adjective 'stark' has several meanings,
108
356600
3360
I wreszcie przymiotnik „stark” ma kilka znaczeń,
05:59
including 'obvious', 'harsh' and 'plain'.
109
359960
3080
w tym „oczywisty”, „surowy” i „prosty”. Po raz
06:03
Once again, our six minutes are up. Bye for now.
110
363040
2880
kolejny nasze sześć minut dobiegło końca. Na razie. PA pa
06:05
Bye bye.
111
365920
1160
.
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7