Fake News: Fact & Fiction - Episode 4: Covid-19: Fake news and conspiracy theories

76,230 views ・ 2020-09-03

BBC Learning English


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film. Przetłumaczone napisy są tłumaczone maszynowo.

00:06
Hugo: Hello. This is Fake News, Fact and Fiction from BBC
0
6589
2805
Hugo: Cześć. To są fałszywe wiadomości, fakty i fikcja z BBC
00:09
Learning English. I'm Hugo.
1
9461
1328
Learning English. Jestem Hugo.
00:11
Sam: And I'm Sam.
2
11019
850
Sam: A ja jestem Sam.
00:12
Hugo: And as you see we're not in the studio today. Like in
3
12019
2250
Hugo: I jak widzisz, nie jesteśmy dzisiaj w studiu. Podobnie jak w
00:14
many parts of the world we're practising social distancing
4
14336
3459
wielu częściach świata, zachowujemy dystans społeczny
00:17
and working from home. How are you doing there, Sam?
5
17861
2173
i pracujemy z domu. Jak się tam masz, Samie?
00:20
Sam: I'm doing OK. Thank you Hugo, but it is definitely
6
20820
2975
Sam: Mam się dobrze. Dziękuję, Hugo, ale z pewnością
00:23
a strange world that we're living in right now, isn't it?
7
23861
2642
żyjemy teraz w dziwnym świecie, prawda?
00:26
And I don't know if you remember but in our first
8
26690
3510
I nie wiem, czy pamiętasz, ale w naszym pierwszym
00:30
programme we talked about stories going viral, so
9
30266
4063
programie rozmawialiśmy o historiach, które stały się wirusowe, więc
00:34
spreading around the internet really quickly and well now,
10
34396
4483
rozprzestrzeniają się w Internecie naprawdę szybko i dobrze,
00:38
what we have is a real virus that has gone viral.
11
38946
3853
mamy prawdziwego wirusa, który stał się wirusowy.
00:42
Hugo: Indeed. And that is going to be the focus of today's
12
42866
2813
Hugo: Rzeczywiście. I to będzie tematem dzisiejszego
00:45
programme. This pandemic has seen a large amount of fake
13
45746
3683
programu. Ta pandemia przyniosła wiele fałszywych
00:49
news attached to it. And as we sit at home browsing the
14
49496
3624
wiadomości. A kiedy siedzimy w domu i przeglądamy
00:53
internet we may have come across many different stories
15
53186
3039
Internet, mogliśmy natknąć się na wiele różnych historii
00:56
and theories of the causes of the virus or possible cures. So
16
56291
3548
i teorii dotyczących przyczyn wirusa lub możliwych lekarstw. Tak więc
00:59
today we're looking at fake news in the era of Covid-19.
17
59906
4023
dzisiaj przyglądamy się fake newsom w dobie Covid-19.
01:03
But before we get to that Sam, do you have some vocabulary for us?
18
63996
3730
Ale zanim przejdziemy do tego Sama, czy masz dla nas jakieś słownictwo?
01:07
19
67226
500
01:07
Sam: Yes I do. So today I'm focusing on some useful
20
67793
3521
Sam: Tak. Dlatego dzisiaj skupię się na przydatnym
01:11
vocabulary you might use if you think that what you've seen
21
71381
3774
słownictwie, którego możesz użyć, jeśli uważasz, że to, co widziałeś
01:15
online is not true.
22
75221
1828
w Internecie, nie jest prawdą.
01:21
Red flags are often used as a warning sign. In fact in
23
81659
4906
Czerwone flagi są często używane jako znak ostrzegawczy. W
01:26
Britain when motor cars were first used on the streets the
24
86631
3774
Wielkiej Brytanii, kiedy samochody po raz pierwszy pojawiły się na ulicach,
01:30
law said that you had to have someone walking in front of the
25
90471
3968
prawo stanowiło, że przed pojazdem musi iść ktoś
01:34
vehicle carrying a red flag to warn other road users. These
26
94506
5484
z czerwoną flagą, aby ostrzec innych użytkowników dróg. W dzisiejszych
01:40
days if a piece of information or a social media post
27
100056
3999
czasach, jeśli informacja lub post w mediach społecznościowych „
01:44
'raises a red flag' it means you are suspicious that it
28
104121
4419
podnosi czerwoną flagę”, oznacza to, że podejrzewasz, że
01:48
might be fake news.
29
108606
2183
może to być fałszywa wiadomość.
01:50
There are many red flags to watch out for. For example a
30
110856
3204
Istnieje wiele czerwonych flag, na które należy uważać. Na przykład
01:54
post that says something like 'the media doesn't want you to
31
114126
3729
post, który mówi coś w stylu „media nie chcą, żebyś o
01:57
know this' or maybe it's a meme or a quote that claims that a
32
117921
4628
tym wiedział”, a może to mem lub cytat, który twierdzi, że
02:02
politician you don't like has said or done something
33
122616
3384
polityk, którego nie lubisz, powiedział lub zrobił coś
02:06
terrible. These posts might be easy to share or they might
34
126066
4179
okropnego. Te posty mogą być łatwe do udostępnienia lub mogą
02:10
even say 'you must share this!' or 'share this if you agree'.
35
130311
5089
nawet zawierać komunikat „musisz to udostępnić!” lub „udostępnij, jeśli się zgadzasz”.
02:15
Those are some examples of red flags that could make you doubt
36
135466
3223
Oto kilka przykładów sygnałów ostrzegawczych, które mogą sprawić, że zwątpisz w
02:18
how true the information is.
37
138756
2394
prawdziwość informacji.
02:21
We all like to share things and we all like it when things we
38
141389
3661
Wszyscy lubimy dzielić się rzeczami i wszyscy lubimy, gdy rzeczy, którymi się
02:25
share are liked. But before you hit that share button it's a
39
145116
4823
dzielimy, są lubiane. Ale zanim klikniesz ten przycisk udostępniania,
02:30
good idea to fact-check the information the
40
150006
3563
warto sprawdzić informacje.
02:33
verb fact-check, first used in the 1970s, simply means to
41
153840
4755
Czasownik fact-check, użyty po raz pierwszy w latach 70., oznacza po prostu
02:38
check the facts to confirm that the information is true.
42
158661
3968
sprawdzenie faktów w celu potwierdzenia, że informacje są prawdziwe.
02:42
There are quite a few fact- checking websites which can
43
162696
3354
Istnieje wiele stron internetowych służących do sprawdzania faktów, które mogą
02:46
help you to verify, prove, or debunk, disprove,
44
166116
5513
pomóc zweryfikować, udowodnić lub obalić, obalić
02:51
the information. Debunk, a verb from the 1920s, means to prove
45
171696
6368
informacje. Debunk, czasownik z lat dwudziestych XX wieku, oznacza udowodnienie
02:58
or demonstrate that something is not true that it is
46
178131
3019
lub wykazanie, że coś nie jest prawdą, że jest
03:01
completely false. So fact- checking can help you to debunk
47
181216
4483
całkowicie fałszywe. Tak więc sprawdzanie faktów może pomóc w obaleniu
03:05
false claims made on social media.
48
185766
2934
fałszywych oświadczeń w mediach społecznościowych.
03:08
Now you might be wondering, as there is a word debunk, is
49
188766
4404
Teraz możesz się zastanawiać, skoro istnieje słowo obalenie, czy
03:13
there a word bunk? Well yes there is but it's not a verb
50
193236
4553
istnieje słowo łóżko? Cóż, tak, jest, ale to nie jest czasownik, tylko
03:17
it's a noun. Bunk and also bunkum are words that mean
51
197856
4613
rzeczownik. Bunk, a także bunkum to słowa, które oznaczają
03:22
nonsense. Interestingly they are political in origin and
52
202536
4869
nonsens. Co ciekawe, mają pochodzenie polityczne i
03:27
come from the county of Buncombe in the United States. This
53
207471
3999
pochodzą z hrabstwa Buncombe w Stanach Zjednoczonych.
03:31
county was represented by a politician who talked a lot
54
211536
4134
Hrabstwo to reprezentował polityk, który dużo mówił,
03:35
without saying anything important. So he talked bunkum.
55
215759
4511
nie mówiąc nic ważnego. Więc mówił bzdury.
03:40
Now back to the studio.
56
220336
1063
Teraz z powrotem do studia.
03:44
Hugo: Very interesting Sam, it certainly wasn't bunkum but
57
224879
2656
Hugo: Bardzo interesujące, Sam, to z pewnością nie była bzdura, ale
03:47
there was a piece of fake news there wasn't there? 'Back to
58
227601
2229
był tam kawałek fałszywej wiadomości, czy tam nie było? „Powrót do
03:49
the studio'?
59
229896
534
studia”?
03:50
Sam: Yes, well spotted. I did record that section before I
60
230639
3946
Sam: Tak, dobrze zauważony. Nagrałem tę sekcję, zanim
03:54
knew that we would be filming from home for this episode so I
61
234651
3309
wiedziałem, że będziemy kręcić ten odcinek w domu, więc mam
03:58
hope you will forgive me for that.
62
238026
3124
nadzieję, że mi to wybaczycie.
04:01
Hugo: Of course, now this pandemic has been dominating
63
241216
2338
Hugo: Oczywiście ta pandemia dominuje w
04:03
the news for a long time now and there are many legitimate
64
243621
2619
wiadomościach już od dłuższego czasu i istnieje wiele uzasadnionych
04:06
areas of discussion to do with restrictions of movement,
65
246306
2724
obszarów dyskusji dotyczących ograniczeń przemieszczania się,
04:09
testing, treatments and the economy.
66
249096
4073
testów, leczenia i gospodarki.
04:13
Sam: But we've also seen a lot of different theories about the
67
253236
2483
Sam: Ale widzieliśmy też wiele różnych teorii na temat
04:15
virus which are not supported by any evidence but which many
68
255786
4194
wirusa, które nie są poparte żadnymi dowodami, ale które wiele
04:20
people have still shared . Some of these are what are known as
69
260046
4358
osób nadal podziela. Niektóre z nich to tak zwane
04:24
conspiracy theories.
70
264471
1869
teorie spiskowe.
04:26
Hugo: And examples of conspiracy theories are that
71
266406
2198
Hugo: Przykładami teorii spiskowych jest to, że
04:28
the earth is flat or that the moon landings were fake and
72
268671
3383
Ziemia jest płaska lub że lądowania na Księżycu były fałszywe i
04:32
even though these theories are comprehensively debunked some
73
272121
3219
chociaż te teorie są wszechstronnie obalone, niektórzy
04:35
people still strongly believe them. To find out more
74
275406
2603
ludzie nadal mocno w nie wierzą. Aby dowiedzieć się więcej
04:38
about conspiracy theories we spoke to Professor Joe
75
278076
2974
o teoriach spiskowych, rozmawialiśmy z profesorem Joe
04:41
Uscinski. He's an associate professor of political science
76
281116
3148
Uscinskim. Jest profesorem nadzwyczajnym nauk politycznych
04:44
at the University of Miami and the author of the book
77
284331
2664
na Uniwersytecie w Miami i autorem książki
04:47
'Conspiracy Theories, a Primer'. We asked him first to
78
287061
3473
„Teorie spiskowe, elementarz”. Poprosiliśmy go najpierw o
04:50
define the term conspiracy theory and why people
79
290601
2528
zdefiniowanie terminu teoria spiskowa i wyjaśnienie, dlaczego ludzie w
04:53
believe them.
80
293196
500
nią wierzą.
04:58
A conspiracy theory is an allegation or an idea that a
81
298050
5790
Teoria spiskowa to zarzut lub pomysł, że
05:03
small group of powerful people are working in secret to effect
82
303906
5904
niewielka grupa potężnych ludzi pracuje w tajemnicy, aby wywołać
05:09
an event or circumstance in a way that benefits them and
83
309876
4868
wydarzenie lub okoliczność w sposób, który im służy, a
05:14
harms the common good. And further this theory hasn't been
84
314811
4238
szkodzi dobru wspólnemu. Co więcej, ta teoria nie została
05:19
confirmed by the people we would look to to confirm such
85
319116
5363
potwierdzona przez ludzi, u których szukalibyśmy potwierdzenia takich
05:24
events. There is nothing new about conspiracy theories and
86
324546
3473
wydarzeń. Nie ma nic nowego w teoriach spiskowych i
05:28
you can find them if you look through almost any historical
87
328086
3594
można je znaleźć, przeglądając prawie każdy
05:31
document.
88
331746
1268
dokument historyczny.
05:33
So for example the United States Declaration of
89
333081
2709
Na przykład Deklaracja
05:35
Independence has a few paragraphs about politics. But
90
335856
4704
Niepodległości Stanów Zjednoczonych zawiera kilka akapitów o polityce. Ale
05:40
then once you read beneath that, it's largely a
91
340626
2468
kiedy przeczytasz poniżej, jest to w dużej mierze
05:43
list of conspiracy theories about the king of England. So
92
343161
5103
lista teorii spiskowych na temat króla Anglii.
05:48
they exist amongst all people at all times. They're very much
93
348331
4229
Istnieją więc wśród wszystkich ludzi w każdym czasie. Są w dużej mierze
05:52
a human constant. People like to have their ideas make sense
94
352626
4503
stałą ludzką. Ludzie lubią, gdy ich pomysły mają sens,
05:57
when in combination with each other. So in order for someone
95
357209
4351
gdy są ze sobą połączone . Aby więc ktoś
06:01
to adopt a conspiracy theory that theory has to match with
96
361626
5258
przyjął teorię spiskową, musi ona pasować do tego, w
06:06
what they already believe.
97
366951
2154
co już wierzy.
06:09
So for example if you really like President Obama, you're
98
369171
2919
Na przykład, jeśli naprawdę lubisz prezydenta Obamę,
06:12
probably not going to think that he faked his birth
99
372156
2048
prawdopodobnie nie pomyślisz, że sfałszował swój
06:14
certificate to illegally become president. If you really like
100
374271
4073
akt urodzenia, aby nielegalnie zostać prezydentem. Jeśli naprawdę lubisz
06:18
President Bush, you're not going to buy the theory that he
101
378411
2528
prezydenta Busha, nie kupisz teorii, że
06:21
blew up the Twin Towers on 9/11.
102
381006
1923
11 września wysadził w powietrze Twin Towers.
06:23
So people's conspiracy theories have to match their underlying
103
383819
5325
Tak więc teorie spiskowe ludzi muszą pasować do ich
06:29
world views that they already carry with them so that's why
104
389211
4513
światopoglądów, które już ze sobą niosą, dlatego też
06:33
people's conspiracy theories tend to match their political
105
393791
3564
teorie spiskowe ludzi zwykle pasują do ich
06:37
persuasion whether they're liberal or conservative and
106
397421
3059
przekonań politycznych, niezależnie od tego, czy są liberalni, czy konserwatywni, i
06:40
they have to match their other world views too.
107
400546
2259
muszą również pasować do ich innych światopoglądów. Z
06:43
So for that reason it's actually more difficult to
108
403399
2761
tego powodu w rzeczywistości trudniej jest
06:46
convince people of conspiracy theories than you might think.
109
406226
2673
przekonać ludzi do teorii spiskowych, niż mogłoby się wydawać.
06:49
Hugo: So we only really buy into a conspiracy theory if
110
409459
3015
Hugo: Tak więc naprawdę wierzymy w teorię spiskową tylko wtedy, gdy
06:52
it's in line with what we already think about the world.
111
412541
3324
jest ona zgodna z tym, co już myślimy o świecie.
06:55
Sam: Yes and that ties in with a lot of the fake news research
112
415931
3549
Sam: Tak i to wiąże się z wieloma badaniami nad fałszywymi wiadomościami, prawda
06:59
doesn't it? So people will share things they believe to be
113
419546
3504
? Więc ludzie będą dzielić się rzeczami, które uważają za
07:03
true or want to be true because the ideas match with their own
114
423116
4028
prawdziwe lub chcą być prawdziwe, ponieważ idee pasują do ich własnych poglądów
07:07
political or ideological views.
115
427211
3593
politycznych lub ideologicznych.
07:10
I'd also like to mention the phrase 'buy' or 'buy into'
116
430871
3749
Chciałbym również wspomnieć o wyrażeniu „kupić” lub „kupić”,
07:14
which he and you Hugo just used. So these both mean to
117
434686
4309
którego on i ty, Hugo, właśnie użyliście. Oba oznaczają więc
07:19
believe or accept that something is true and you can
118
439061
4568
wiarę lub akceptację, że coś jest prawdą i możesz
07:23
use the phrase 'I don't buy it' if you are not convinced that
119
443696
4463
użyć wyrażenia „nie kupuję tego”, jeśli nie jesteś przekonany, że
07:28
something is true. So for example, I heard somewhere
120
448226
2994
coś jest prawdą. Na przykład słyszałem gdzieś,
07:31
that eating lemons can cure coronavirus but I don't buy it.
121
451286
3913
że jedzenie cytryn może wyleczyć koronawirusa, ale ja tego nie kupuję.
07:35
Hugo: Absolutely. Now let's take a trip around the world.
122
455266
2664
Hugo: Absolutnie. A teraz wybierzmy się w podróż dookoła świata.
07:37
We spoke to a number of our BBC colleagues across the globe to
123
457996
3453
Rozmawialiśmy z wieloma naszymi kolegami z BBC na całym świecie, aby
07:41
find out what kind of fake news and conspiracy theories related
124
461516
3503
dowiedzieć się, jakiego rodzaju fałszywe wiadomości i teorie spiskowe związane
07:45
to Covid-19 have been shared on different continents and
125
465086
3654
z Covid-19 zostały udostępnione na różnych kontynentach i
07:48
apologies in advance for the quality of the line in some cases
126
468889
3311
z góry przepraszamy za jakość linii w niektórych przypadkach
07:51
127
471506
694
07:55
Here in Afghanistan at the beginning of the Covid-19
128
475639
3430
Tu, w Afganistanie na początku kryzysu Covid-19
07:59
crisis a mullah in the west off the country, in Herat,
129
479136
2598
mułła na zachodzie kraju, w Heracie,
08:03
compared the number of fatalities in Muslim countries
130
483959
2745
porównał liczbę ofiar śmiertelnych w krajach muzułmańskich
08:06
with the number of deaths in Western countries and after
131
486771
3683
z liczbą zgonów w krajach zachodnich, a
08:10
that said that these numbers showed us the Covid-19 and
132
490521
2923
następnie powiedział, że te liczby pokazały nam Covid-19 a
08:13
coronavirus does not kill Muslims. But he was absolutely
133
493511
5419
koronawirus nie zabija muzułmanów. Ale absolutnie się
08:18
wrong. Nowadays we see the number of deaths in Muslim
134
498996
5318
mylił. Obecnie obserwujemy liczbę zgonów w
08:24
countries and here in Afghanistan is rising day by day.
135
504381
3662
krajach muzułmańskich, a tu, w Afganistanie, rośnie ona z dnia na dzień.
08:28
136
508045
1
08:33
We have received a video and some content with some links
137
513690
5269
Otrzymaliśmy film i trochę treści z linkami
08:39
to internet, to some documents and so on, saying that the
138
519026
4628
do Internetu, niektórych dokumentów itd., mówiących, że
08:43
virus has been created by U.S. scientists who have helped
139
523721
6079
wirus został stworzony przez amerykańskich naukowców, którzy pomogli
08:51
Chinese scientists in Wuhan.
140
531470
2549
chińskim naukowcom w Wuhan.
08:55
But, less than two weeks later we have received another video
141
535549
3811
Ale niecałe dwa tygodnie później otrzymaliśmy kolejne wideo
08:59
and other video in the same line, on the same topic
142
539426
3218
i inne wideo w tej samej linii, na ten sam temat,
09:04
saying that the virus has been created by Chinese helped by
143
544419
6206
mówiące, że wirus został stworzony przez Chińczyków z pomocą
09:10
French scientists. But what was worse is that it's roughly the
144
550691
5124
francuskich naukowców. Ale najgorsze jest to, że są to mniej więcej te
09:15
same images. The same images that they're giving as evidence
145
555881
4239
same obrazy. Te same zdjęcia, które przedstawiają jako dowód
09:20
of the of fraud. This shows clearly that it's a fake.
146
560186
5504
oszustwa. To wyraźnie pokazuje, że jest to podróbka.
09:29
Here in Brazil there are a lot of messages on WhatsApp and
147
569519
3235
Tutaj w Brazylii jest wiele wiadomości na WhatsApp i
09:32
other social media showing photos and videos of people
148
572821
4808
innych mediach społecznościowych, pokazujących zdjęcia i filmy ludzi
09:37
opening up coffins in cemeteries and showing them
149
577696
5063
otwierających trumny na cmentarzach i pokazujących je
09:42
full of stones. And they use this to support the conspiracy
150
582826
6894
pełne kamieni. I używają tego do wspierania
09:49
theory that people are like, increasing the number of deaths
151
589786
5513
teorii spiskowej, do której ludzie podobni są, sztucznie zwiększając liczbę zgonów
09:55
artificially just to create problems to our president,
152
595366
5004
tylko po to, by stwarzać problemy naszemu prezydentowi
10:00
you know.
153
600436
500
.
10:01
There are a lot of these messages with these images to
154
601450
3119
Jest wiele wiadomości z tymi obrazami, które
10:04
support this idea that this situation is created to, to
155
604636
5723
wspierają tę ideę, aby ta sytuacja została stworzona, aby
10:10
hurt him politically. But these images are from like a case two
156
610426
6564
skrzywdzić go politycznie. Ale te obrazy pochodzą ze sprawy sprzed dwóch
10:17
years ago in a city in Sao Paulo state, in the country,
157
617056
5333
lat w mieście w stanie Sao Paulo, w kraju,
10:22
that was like, a fraud, to insurance you know, like two
158
622456
4328
który był jak oszustwo, do ubezpieczenia, wiesz, dwa
10:26
years ago. So yeah this is one of the things that are
159
626851
3864
lata temu. Więc tak, to jedna z rzeczy, które
10:30
happening here because of the pandemic.
160
630781
2754
dzieją się tutaj z powodu pandemii.
10:36
Here in Hong Kong. I've heard many theories and you can
161
636940
3015
Tutaj w Hongkongu. Słyszałem wiele teorii i
10:40
always find the most confidential intelligence in my
162
640021
3368
zawsze można znaleźć najbardziej poufne informacje w
10:43
mother's mobile phone. There was a time I received an urgent
163
643456
4013
telefonie komórkowym mojej matki. Był czas, kiedy otrzymałem
10:47
call from her only to find that she started reading a WhatsApp
164
647536
3354
od niej pilny telefon, ale dowiedziałem się, że zaczęła czytać mi
10:50
message to me that was about how the U.S. military smuggled
165
650956
4373
wiadomość WhatsApp, która dotyczyła tego, jak wojsko USA przemyciło
10:55
coronavirus to Wuhan in order to destroy China's fast growing
166
655396
4313
koronawirusa do Wuhan w celu zniszczenia szybko rozwijającej się
10:59
economy. Of course that was absolutely groundless. However
167
659776
4493
gospodarki Chin. Oczywiście było to całkowicie bezpodstawne. Jednak
11:04
the message was circulated widely in her social circle.
168
664336
4448
wiadomość została szeroko rozpowszechniona w jej kręgu towarzyskim.
11:08
They are patriots who tend to believe any conspiracy theories
169
668851
3399
Są patriotami, którzy skłonni są wierzyć w teorie spiskowe
11:12
targeted at the U.S. authority. So even if I could convince her
170
672316
5003
wymierzone w władze USA. Więc nawet gdybym mógł ją przekonać,
11:17
that the information was fake this time she would only send
171
677386
3368
że tym razem informacja jest fałszywa,
11:20
me another one next time. It's just unstoppable.
172
680821
2979
następnym razem wyśle ​​mi tylko kolejną . To jest po prostu nie do powstrzymania.
11:28
Hugo: So we hear there some typical examples of fake news
173
688110
2505
Hugo: Słyszymy więc typowe przykłady fałszywych wiadomości,
11:30
such as real photographs being deliberately mis-described and
174
690690
4094
takie jak celowe błędne opisywanie prawdziwych zdjęć i
11:34
examples of the kind of belief in conspiracy theories
175
694851
2934
przykłady wiary w teorie spiskowe,
11:37
Professor Uscinski was talking about.
176
697851
1441
o której mówił profesor Uściński.
11:39
Sam: Yes and we hear that people want to share these
177
699419
2956
Sam: Tak i słyszymy, że ludzie chcą dzielić się tymi
11:42
theories because they have a negative view of a particular
178
702441
3203
teoriami, ponieważ mają negatywny pogląd na dany
11:45
country and are happy to believe almost anything
179
705711
2858
kraj i chętnie wierzą w niemal wszystko, co
11:48
negative they hear about them.
180
708636
2018
usłyszą na jego temat.
11:50
I'd also like to pick out a particular word that Billy Chan
181
710721
3158
Chciałbym również wybrać konkretne słowo, którego użył Billy Chan
11:53
used. He used the word 'groundless' to refer to
182
713946
4133
. Użył słowa „bezpodstawne”, aby odnieść się do
11:58
some claims. 'Groundless' means not based on any evidence.
183
718146
3954
niektórych twierdzeń. „Bezpodstawne” oznacza nieoparte na żadnych dowodach. Nie ma
12:02
There's no proof for it.
184
722166
1403
na to żadnego dowodu.
12:04
Hugo: So there we had some insights from around the world.
185
724049
2311
Hugo: Mieliśmy więc kilka spostrzeżeń z całego świata.
12:06
Let's look closer to home now we're joined by our BBC
186
726426
3113
Przyjrzyjmy się bliżej domu, teraz dołączyła do nas nasza
12:09
colleague Marianna Spring. Thanks for being with us. So if
187
729606
3144
koleżanka z BBC, Marianna Spring. Dziekuje ze jestes z nami. Więc jeśli
12:12
you can just explain the work you do here at the BBC first.
188
732816
3963
możesz najpierw wyjaśnić pracę, którą wykonujesz tutaj w BBC.
12:16
Marianna: Yes, so I am the specialist disinformation
189
736846
2744
Marianna: Tak, więc jestem reporterem specjalizującym się w dezinformacji,
12:19
reporter which means that me along with a team at BBC
190
739656
3863
co oznacza, że wraz z zespołem BBC
12:23
Trending who are part of the World Service and BBC
191
743586
3144
Trending, który jest częścią World Service i BBC
12:26
Monitoring and BBC Reality Check. And so we investigate
192
746796
4164
Monitoring oraz BBC Reality Check. Dlatego badamy wprowadzające
12:31
misleading posts as well as looking to tell the stories of
193
751026
2843
w błąd posty, a także staramy się opowiedzieć historie
12:33
the people who fight and spread misinformation across the world.
194
753936
6086
ludzi, którzy walczą i rozpowszechniają dezinformację na całym świecie.
12:40
195
760023
1
12:40
Hugo: So you must be really really busy. Is it your feeling
196
760091
2249
Hugo: Więc musisz być naprawdę bardzo zajęty. Czy masz wrażenie,
12:42
that from what you've seen that disinformation, conspiracy
197
762406
4394
że z tego, co widziałeś, dezinformacja,
12:46
theories about Covid-19 are very different around the world?
198
766866
3684
teorie spiskowe dotyczące Covid-19 są bardzo różne na całym świecie?
12:52
Marianna: I think this pandemic is particularly interesting because
199
772429
3595
Marianna: Myślę, że ta pandemia jest szczególnie interesująca, ponieważ
12:56
200
776025
1
12:56
most of the misleading stuff we've seen has actually been
201
776570
2489
większość wprowadzających w błąd rzeczy, które widzieliśmy, była w rzeczywistości
12:59
incredibly global. So there was one particularly viral case
202
779126
3294
niesamowicie globalna. Śledziliśmy więc jeden szczególnie wirusowy przypadek
13:02
that we tracked, a list of dodgy medical myths and tips,
203
782486
3833
, listę podejrzanych medycznych mitów i wskazówek, które
13:06
and it hopped from the Facebook page of a man in the U.K. to
204
786386
6008
przeskakiwały ze strony na Facebooku mężczyzny z Wielkiej Brytanii do
13:12
Facebook groups for Catholics living in India to the
205
792470
4559
grup na Facebooku dla katolików mieszkających w Indiach, do
13:17
Instagram account of a Ghanaian television presenter. So this
206
797096
3264
konta na Instagramie prezentera telewizyjnego z Ghany . Więc te
13:20
stuff really goes global and is attributed to a range of
207
800426
3143
rzeczy naprawdę mają zasięg globalny i są przypisywane wielu
13:23
different people, to hospitals, professors doctors in the US,
208
803636
3944
różnym ludziom, szpitalom, profesorom, lekarzom w USA,
13:27
in Africa in Europe.
209
807646
1923
w Afryce, w Europie.
13:29
There's no limit to to who it can be who is alleged to have
210
809636
4008
Nie ma ograniczeń co do tego, kto rzekomo
13:33
started or spread the rumour. However. I do think there are
211
813711
4304
rozpoczął lub rozpowszechnił plotkę. Jednakże. Myślę, że istnieją
13:38
also specific instances of conspiracy theories or
212
818081
2619
również konkretne przypadki teorii spiskowych lub wprowadzających
13:40
misleading information that are specific to certain countries.
213
820766
3024
w błąd informacji, które są specyficzne dla niektórych krajów.
13:43
In other places, for instance in the U.K. there's been a
214
823856
2993
W innych miejscach, na przykład w Wielkiej Brytanii, pojawiła się
13:46
conspiracy theory relating to 5G suggesting that 5G
215
826916
3963
teoria spiskowa dotycząca 5G, sugerująca, że
13:50
technology could perhaps be linked to coronavirus and the
216
830946
3718
technologia 5G może być powiązana z koronawirusem i
13:54
spread of it. Those claims are totally false. But I think
217
834731
2904
jego rozprzestrzenianiem się. Twierdzenia te są całkowicie fałszywe. Ale myślę, że
13:57
because here in the U.K. we've been talking lots about 5G
218
837701
2919
ponieważ tutaj, w Wielkiej Brytanii, dużo rozmawialiśmy o
14:00
technology and how it will be rolled out they've felt relevant.
219
840686
3193
technologii 5G i o tym, jak zostanie wdrożona, uznali to za istotne.
14:02
220
842756
1123
14:03
And then in other countries across the world there are
221
843946
2493
A potem w innych krajach na całym świecie istnieją
14:06
specific home remedies or suggestions, for instance in
222
846506
3364
konkretne domowe środki zaradcze lub sugestie, na przykład w
14:09
China or Vietnam, which have caused harm to people because
223
849936
4514
Chinach czy Wietnamie, które wyrządziły krzywdę ludziom, ponieważ
14:14
they believed they would prevent or cure coronavirus.
224
854629
2851
wierzyli, że zapobiegną koronawirusowi lub go wyleczą.
14:18
Hugo: And how can we in the mainstream media help
225
858019
3495
Hugo: A jak my w mediach głównego nurtu możemy pomóc,
14:21
particularly in a time when we're being attacked, we're not
226
861581
3999
szczególnie w czasach, gdy jesteśmy atakowani, nie
14:25
always trusted by people?
227
865646
1314
zawsze ufają nam ludzie?
14:27
Marianna: I think there are two crucial things that we can do
228
867080
2609
Marianna: Myślę, że są dwie kluczowe rzeczy, które możemy zrobić,
14:30
to cover this area for different audiences. The first
229
870019
4216
aby pokazać ten obszar różnym odbiorcom. Pierwszym z
14:34
one is not just to show our answers but to show the
230
874301
2588
nich jest nie tylko pokazanie naszych odpowiedzi, ale także pokazanie
14:36
workings. So when we reveal that something is false or
231
876956
3113
działania. Kiedy więc ujawniamy, że coś jest nieprawdziwe lub
14:40
misleading we don't just put that assertion out there. We
232
880136
3653
wprowadzające w błąd, nie publikujemy tego po prostu.
14:43
also show how we reach that point. We show how we
233
883856
2753
Pokazujemy również, jak doszliśmy do tego punktu. Pokazujemy, w jaki sposób
14:46
investigated a specific post or specific claims and why they're
234
886676
4133
zbadaliśmy konkretny post lub konkretne twierdzenia i dlaczego są one
14:50
untrue. And I think that's a really good way of letting
235
890876
3653
nieprawdziwe. Myślę, że to naprawdę dobry sposób na wtajemniczenie
14:54
people into how we operate and actually gaining their trust.
236
894596
4269
ludzi w to, jak działamy i zdobywanie ich zaufania.
14:58
And secondly I think it's crucial to educate audiences in
237
898931
2799
Po drugie, myślę, że kluczowe znaczenie ma edukowanie odbiorców, w
15:01
how they can both spot and stop misleading stuff spreading
238
901796
3384
jaki sposób mogą zarówno wykrywać, jak i powstrzymywać wprowadzające w błąd treści rozpowszechniane
15:05
online. So there are certain red flags that we look out for
239
905246
3784
w Internecie. Są więc pewne czerwone flagi, na które zwracamy uwagę,
15:09
when we see something online that makes me think "Oh that
240
909096
3394
gdy widzimy coś online, co sprawia, że ​​myślę „Och, to
15:12
looks a bit suspicious". One of them will be these
241
912556
2839
wygląda trochę podejrzanie”. Jednym z nich będą te
15:15
introductions I've mentioned where a friend's brother's
242
915461
3114
wstępy, o których wspomniałem, gdzie wujek brata kuzyna przyjaciela,
15:18
cousin's uncle who's a doctor in New York has said something
243
918641
4164
który jest lekarzem w Nowym Jorku, coś powiedział
15:22
or other. If we see an introduction like that it's
244
922871
2619
. Jeśli widzimy takie wprowadzenie,
15:25
probably not right and you need to get to the bottom of who
245
925556
2648
prawdopodobnie nie jest to właściwe i musisz dotrzeć do sedna, od kogo
15:28
that information has come from.
246
928271
1643
pochodzą te informacje .
15:29
And also often posts will say 'you must read this - you must
247
929981
3488
Ponadto często posty zawierają informację „musisz to przeczytać – musisz
15:33
share it' in capital letters or mismatched fonts and that can
248
933536
4178
to udostępnić” wielkimi literami lub niedopasowanymi czcionkami, co może
15:37
also be another sign that something might be misleading.
249
937781
2949
być kolejnym znakiem, że coś może wprowadzać w błąd.
15:40
Another key thing that we look out for are posts that play on
250
940796
4178
Inną kluczową rzeczą, na którą zwracamy uwagę, są posty, które grają na
15:45
our emotions, often boring, often accurate information is
251
945041
4044
naszych emocjach, często nudne, często dokładne informacje są
15:49
actually a bit more boring and it's the stuff that makes us
252
949151
2934
w rzeczywistości nieco bardziej nudne i to rzeczy, które nas
15:52
angry or or even happy that seems to give us answers we
253
952151
3519
denerwują, a nawet cieszą, wydają się dawać nam odpowiedzi, których
15:55
were looking for that tends to be misleading.
254
955736
2468
szukaliśmy to bywa mylące.
15:58
So that sort of leads around to to our top tips for stopping
255
958271
3294
Tak więc prowadzi to do naszych najlepszych wskazówek dotyczących powstrzymania
16:01
the spread which which are essentially that we just need
256
961631
2093
rozprzestrzeniania się, które zasadniczo polegają na tym, że po prostu musimy się
16:03
to pause and think and reflect before we share anything and
257
963791
4843
zatrzymać, pomyśleć i zastanowić, zanim cokolwiek udostępnimy, a
16:08
repeating that message to audiences is incredibly
258
968701
3078
powtórzenie tego przesłania odbiorcom jest niezwykle
16:11
important in terms of stopping
259
971846
2558
ważne pod względem zatrzymania
16:14
and tackling the spread of misleading stuff online.
260
974471
4318
rozprzestrzeniania się i walki z nim wprowadzających w błąd treści w Internecie.
16:18
Hugo: Fascinating. Marianna Spring. Thanks for
261
978856
2253
Hugo: Fascynujące. Marianna Wiosna. Dziekuje ze
16:21
being with us.
262
981176
533
16:21
Marianna: Thank you.
263
981919
531
jestes z nami.
Marianna: Dziękuję.
16:26
Hugo: So Sam, anything you'd like to pick up from what
264
986379
1855
Hugo: Więc Sam, czy chciałbyś wyciągnąć coś z tego, co
16:28
Marianna just said?
265
988301
1269
właśnie powiedziała Marianna?
16:29
Sam: Yes. She said lots and lots of interesting things but
266
989636
2753
Sam: Tak. Powiedziała wiele, wiele interesujących rzeczy, ale
16:32
I'll only focus on two. She used the word 'misleading' a
267
992456
4163
skupię się tylko na dwóch. Kilka razy użyła słowa „wprowadzający w błąd”
16:36
couple of times. So 'misleading' is basically
268
996686
2873
. Tak więc „wprowadzanie w błąd” to w zasadzie
16:39
something that is trying to make you think a certain way
269
999626
4403
coś, co próbuje skłonić cię do myślenia w określony sposób,
16:44
but isn't telling you all of the facts. The other word she
270
1004096
3819
ale nie mówi ci wszystkich faktów. Innym słowem, którego
16:47
used was 'dodgy'. So this is basically something that is
271
1007981
3428
użyła, było „podejrzane”. Jest to więc w zasadzie coś
16:51
suspicious. You can't really trust it. It's quite an
272
1011476
4133
podejrzanego. Naprawdę nie możesz temu ufać. To dość
16:55
informal word and it's an adjective.
273
1015676
3513
nieformalne słowo i jest przymiotnikiem.
16:59
Hugo: Thanks Sam, well that's about all we have time for. But
274
1019256
2594
Hugo: Dzięki Sam, to wszystko, na co mamy czas. Ale
17:01
before we go, Sam please remind us of today's key vocabulary.
275
1021916
4238
zanim pójdziemy, Sam, proszę, przypomnij nam dzisiejsze kluczowe słownictwo.
17:06
Sam: Of course. So today we looked at the phrase 'to raise
276
1026309
4060
Sam: Oczywiście. Dlatego dzisiaj przyjrzeliśmy się zwrotowi „podnieść
17:10
a red flag'. This is used when something about a post or a
277
1030436
4069
czerwoną flagę”. Jest to używane, gdy na przykład coś na temat postu,
17:14
meme or an image for example makes you think that it might
278
1034571
3958
mema lub obrazu sprawia, że ​​​​myślisz, że może to
17:18
not be true or that it might be fake news.
279
1038596
3699
nie być prawda lub że może to być fałszywa wiadomość.
17:22
The verb 'to fact-check' is the process of checking the facts
280
1042361
5109
Czasownik „sprawdzać fakty” to proces sprawdzania faktów,
17:27
so trying to find out if something is true or not.
281
1047536
4014
czyli próba ustalenia, czy coś jest prawdą, czy nie.
17:31
If you 'debunk' something you show that it's not true.
282
1051616
3798
Jeśli coś „obalamy”, pokazujesz, że to nieprawda.
17:35
And if you 'verify' something you show the opposite. So you
283
1055660
3044
A jeśli „weryfikujesz” coś, pokazujesz coś przeciwnego. Więc
17:38
show that it is true.
284
1058771
3078
pokazujesz, że to prawda.
17:41
If you 'buy' or 'buy into' something, it means that
285
1061916
2488
Jeśli coś „kupujesz” lub „ kupujesz”, oznacza to, że w
17:44
you believe it. You think it's true.
286
1064471
3039
to wierzysz. Myślisz, że to prawda.
17:48
If something is 'groundless', it has no evidence to support
287
1068170
3330
Jeśli coś jest „bezpodstawne”, nie ma na
17:51
it.
288
1071566
684
to dowodów.
17:52
Then we looked at 'misleading' which is something that makes
289
1072316
2963
Następnie przyjrzeliśmy się „wprowadzaniu w błąd”, czyli czymś, co sprawia, że
17:55
you think a certain way even though maybe it doesn't present
290
1075346
4014
myślisz w określony sposób, nawet jeśli nie przedstawia
17:59
all of the facts.
291
1079426
1478
wszystkich faktów.
18:01
And something 'dodgy' is something that is suspicious,
292
1081279
3540
A coś „podejrzanego” to coś podejrzanego,
18:04
maybe not trustworthy.
293
1084886
1973
być może niegodnego zaufania.
18:07
Hugo: Thank you very much Sam and thank you for watching this
294
1087500
2940
Hugo: Dziękuję bardzo Sam i dziękuję za obejrzenie tej
18:10
special at home version of Fake News, Fact and Fiction.
295
1090506
2424
specjalnej domowej wersji Fake News, Fact and Fiction.
18:12
Until next time, goodbye and stay safe.
296
1092996
4029
Do następnego razu, do widzenia i trzymaj się bezpiecznie.
18:17
Sam: Bye bye everyone.
297
1097091
1009
Sam: Do widzenia wszystkim.
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7