Rage bait: How online anger makes money ⏲️ 6 Minute English

52,208 views ・ 2025-02-13

BBC Learning English


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film. Przetłumaczone napisy są tłumaczone maszynowo.

00:08
Hello, this is Six Minute English from BBC Learning English.
0
8440
3720
Cześć, tu Six Minute English z BBC Learning English.
00:12
I'm Phil, and I'm Beth.
1
12160
1960
Jestem Phil i jestem Beth.
00:14
If you use the internet, and nearly everyone does,
2
14120
3520
Jeśli korzystasz z Internetu, a robi to niemal każdy,
00:17
you've probably read headlines like this:
3
17640
3000
prawdopodobnie czytałeś nagłówki tego typu:
00:20
You won't believe what plastic surgery this celebrity has had done.
4
20640
4640
Nie uwierzysz, jakie operacje plastyczne zrobiła sobie ta gwiazda.
00:25
Known as clickbait, headlines like these are used to grab your attention
5
25280
4800
Nagłówki tego typu, znane jako clickbait, mają na celu przyciągnięcie Twojej uwagi
00:30
and make you read more.
6
30080
1600
i zachęcenie do dalszego czytania.
00:31
But now a new trend called 'rage bait' is spreading across social media.
7
31680
4920
Jednak teraz w mediach społecznościowych rozprzestrzenia się nowy trend zwany „przynętą wściekłości” .
00:36
Rage bait is online content designed to make you angry or outraged.
8
36600
5280
Przynęta do wściekłości to treść online, której celem jest wywołanie u Ciebie złości lub oburzenia.
00:41
In this programme, we'll explore the trend of rage baiting.
9
41880
3400
W tym programie przyjrzymy się bliżej trendowi wywoływania wściekłości.
00:45
And as usual, we'll learn some useful new vocabulary,
10
45280
3560
I jak zwykle nauczymy się nowego, przydatnego słownictwa,
00:48
all of which you can find on our website bbclearningenglish.com.
11
48840
4520
które znajdziesz na naszej stronie internetowej bbclearningenglish.com.
00:53
Great. But first, it's time for my question,
12
53360
3000
Świetnie. Ale najpierw muszę odpowiedzieć na moje pytanie,
00:56
Beth, which is about the two terms we've been using 'clickbait' and 'rage bait'.
13
56360
6080
Beth, które dotyczy dwóch terminów, których używamy: „clickbait” i „rage bait”. W
01:02
Both contain the word 'bait'.
14
62440
2640
obu przypadkach występuje słowo „przynęta”.
01:05
But what is its actual meaning?
15
65080
2360
Ale jakie jest jego prawdziwe znaczenie? Czy
01:07
Is bait, a) a strong feeling of anger?
16
67440
4480
przynętą jest a) silne uczucie złości?
01:11
b) food put on a hook to catch fish or animals.
17
71920
3600
b) pokarm zakładany na haczyk w celu złowienia ryb lub zwierząt.
01:15
Or c) a piece of computer software.
18
75520
2720
Lub c) fragment oprogramowania komputerowego.
01:18
I am fairly confident that it is
19
78240
2200
Jestem niemal pewien, że jest to
01:20
b) food put on a hook.
20
80440
2000
b) jedzenie wieszane na haczyku.
01:22
OK. Well, we'll find out the correct answer later in the programme.
21
82440
4520
OK. Cóż, poprawną odpowiedź poznamy później w programie.
01:26
Here's how rage bait works,
22
86960
2720
Oto jak działa przynęta na wściekłość:
01:29
a creator posts a provocative piece of content online, a message, maybe,
23
89680
4320
twórca publikuje w sieci prowokacyjną treść, wiadomość
01:34
or a video. People see it, feel outraged, and comment angrily.
24
94000
6240
lub film. Ludzie to widzą, czują oburzenie i ze złością komentują.
01:40
Others see it, like it, and share it around.
25
100240
3080
Inni to widzą, lubią i dzielą się tym dalej.
01:43
Either way, the content creates interest, increases internet traffic,
26
103320
4840
W każdym przypadku treść wzbudza zainteresowanie, zwiększa ruch w internecie
01:48
and makes money for the creator.
27
108160
2200
i pozwala twórcy zarabiać pieniądze.
01:50
Here's marketing strategist Andrea Jones explaining more to Megan Lawton,
28
110360
4720
Oto strateg marketingowy Andrea Jones, która wyjaśnia więcej Megan Lawton,
01:55
presenter of BBC World Service programme Business Daily.
29
115080
4280
prezenterce programu Business Daily w BBC World Service.
01:59
The more content they create, the more engagement they get,
30
119360
2400
Im więcej treści stworzą, tym większe będzie ich zaangażowanie i tym
02:01
the more that they get paid.
31
121760
1480
więcej zapłacą.
02:03
And so they will do anything...
32
123240
2160
I tak zrobią wszystko...
02:05
Some creators will do anything to get more views,
33
125400
2680
Niektórzy twórcy zrobią wszystko, żeby zdobyć więcej wyświetleń,
02:08
because the more views they get, the more that they get paid.
34
128080
2760
bo im więcej wyświetleń dostaną, tym więcej dostaną za to pieniędzy.
02:10
Even if, even if those views are negative or inciting rage and anger in people.
35
130840
6160
Nawet jeśli, nawet jeśli te poglądy są negatywne lub wywołują u ludzi gniew i złość.
02:17
Andrea, how is rage bait different to clickbait or other online tactics?
36
137000
5320
Andrea, czym różni się wściekłość od clickbaitu i innych taktyk internetowych?
02:22
As a marketer, I'm always, you know, coaching my clients
37
142320
2880
Jako osoba zajmująca się marketingiem, zawsze udzielam swoim klientom porad
02:25
and talking to them about using hooks in their marketing. Right.
38
145200
2760
i rozmawiam z nimi na temat stosowania haczyków w ich działaniach marketingowych. Prawidłowy.
02:27
And I think the difference between a hook and rage bait
39
147960
3240
I myślę, że różnica między haczykiem a przynętą na wściekłość,
02:31
or even its long-lost cousin, clickbait content...
40
151200
3560
a nawet jej dawno zapomnianym kuzynem, treścią typu clickbait...
02:34
When we think about a hook,
41
154760
1240
Kiedy myślimy o haczyku,
02:36
to me a hook accurately reflects what's in that piece of content,
42
156000
4680
dla mnie haczyk dokładnie odzwierciedla to, co jest zawarte w danej treści,
02:40
and it comes from a place of trust.
43
160680
3000
i wypływa z miejsca zaufania.
02:43
Whereas rage baiting content is designed to be manipulative.
44
163680
4520
Natomiast treści mające na celu wzbudzenie wściekłości mają na celu manipulację.
02:48
Andrea says the more reaction a post gets, the more money the creator makes,
45
168200
6040
Andrea twierdzi, że im więcej reakcji otrzymuje post, tym więcej pieniędzy zarabia jego twórca,
02:54
even if the reactions are hateful, she uses the structure,
46
174240
4160
nawet jeśli reakcje są pełne nienawiści. Stosuje ona strukturę:
02:58
the more one thing happens, the more something else happens,
47
178400
4200
im częściej dzieje się jedna rzecz, tym częściej dzieje się coś innego.
03:02
to show that as one thing happens repeatedly,
48
182600
2920
Pokazuje w ten sposób, że gdy jedna rzecz powtarza się wielokrotnie,
03:05
another thing increases as a result.
49
185520
2760
w rezultacie zwiększa się liczba innych.
03:08
For example, the more you practice English, the more you'll improve.
50
188280
4440
Na przykład, im więcej będziesz ćwiczyć język angielski, tym większe zrobisz postępy.
03:12
It doesn't matter that the content is designed to incite outrage - to encourage
51
192720
4360
Nie ma znaczenia, że ​​treść ma na celu wywołanie oburzenia, zachęcenie do
03:17
unpleasant or violent reactions.
52
197080
2600
nieprzyjemnych lub agresywnych reakcji.
03:19
That's why Andrea thinks rage bait is worse than clickbait.
53
199680
4360
Dlatego Andrea uważa, że wściekłość jest gorsza niż clickbait.
03:24
While clickbait is more truthful about its content,
54
204040
3520
Podczas gdy clickbait jest bardziej prawdziwy pod względem treści,
03:27
rage bait is manipulative, meaning it tries to influence something
55
207560
4560
rage bait jest manipulacyjny, co oznacza, że próbuje wpłynąć na coś, działając
03:32
to its own advantage.
56
212120
1760
na swoją korzyść.
03:33
So, it's not hard to see why many people think rage bait is toxic.
57
213880
4960
Nic więc dziwnego, że wiele osób uważa, że ​​przynęta wywołująca wściekłość jest toksyczna.
03:38
So, if you're wondering why people react in the first place, listen
58
218840
4600
Jeśli więc zastanawiasz się, dlaczego ludzie w ogóle reagują, posłuchaj,
03:43
as Doctor William Brady explains the psychology behind rage bait
59
223440
4400
jak doktor William Brady wyjaśnia w programie
03:47
to BBC World Service's Business Daily.
60
227840
3080
Business Daily stacji BBC World Service, na czym polega psychologia stojąca za prowokacjami wściekłości.
03:50
If you are an influencer and you want to figure out,
61
230920
3920
Jeśli jesteś influencerem i chcesz się dowiedzieć: „
03:54
'Well, how do I get more eyeballs on my content?'
62
234840
3000
Jak przyciągnąć większą liczbę odbiorców do moich treści?”
03:57
Well, you need to exploit those biases we have in our psychology,
63
237840
4200
Cóż, trzeba wykorzystać te uprzedzenia, które tkwią w naszej psychice,
04:02
because that's the content we'll pay more attention to.
64
242040
2520
ponieważ to właśnie tym treściom poświęcimy najwięcej uwagi.
04:04
In turn, that's the content that algorithms will amplify,
65
244560
2920
W rezultacie algorytmy będą wzmacniać tę treść,
04:07
which ultimately means more advertising revenue.
66
247480
3120
co ostatecznie przełoży się na większe przychody z reklam.
04:10
Influencers want more eyeballs on their content -
67
250600
3800
Influencerzy chcą, aby ich treści przyciągały większą uwagę -
04:14
more people to view their website or social media posts
68
254400
4000
więcej osób odwiedzało ich stronę internetową lub zamieszczało posty w mediach społecznościowych
04:18
and use human psychology to do it.
69
258400
2720
i wykorzystywało w tym celu psychologię człowieka.
04:21
Psychologically speaking, we all have biases -
70
261120
3560
Psychologicznie rzecz biorąc, wszyscy mamy uprzedzenia –
04:24
feelings - which are often unconscious either for or against a certain idea
71
264680
5360
uczucia – często nieświadomie popierające lub przeciwne pewnym pomysłom
04:30
or group of people.
72
270040
1640
lub grupie ludzi.
04:31
Biases are emotional, and since listening
73
271680
2720
Uprzedzenia są emocjonalne, a ponieważ słuchanie
04:34
to our emotions has been vital to the evolution of the human species,
74
274400
4200
naszych emocji miało kluczowe znaczenie dla ewolucji gatunku ludzkiego,
04:38
creators know that provoking our emotions will grab our attention.
75
278600
4600
twórcy wiedzą, że wywoływanie naszych emocji przykuje naszą uwagę.
04:43
So, what can be done to combat rage bait?
76
283200
3320
Co zatem można zrobić, aby zwalczać wściekłość?
04:46
Well, we could all take a moment to think before reacting and remember
77
286520
4240
Cóż, moglibyśmy się chwilę zastanowić, zanim zareagujemy i pamiętać,
04:50
that by sharing something outrageous, you might be making things worse
78
290760
4040
że dzieląc się czymś oburzającym, możemy pogorszyć sytuację, a
04:54
while also making the creator richer.
79
294800
2560
jednocześnie sprawić, że twórca stanie się bogatszy.
04:57
OK, Phil, let's reveal the answer to your question.
80
297360
2800
OK, Phil, ujawnijmy odpowiedź na twoje pytanie.
05:00
You asked me what bait is?
81
300160
1880
Zapytałeś mnie, co to jest przynęta?
05:02
I did, and the correct answer is b) food put on a hook
82
302040
4720
Tak, i prawidłowa odpowiedź brzmi b) jedzenie zarzucone na haczyk
05:06
to catch a fish or an animal,
83
306760
1720
w celu złowienia ryby lub innego zwierzęcia.
05:08
and isn't that what you said, Beth?
84
308480
1600
Czy nie to powiedziałaś, Beth?
05:10
It is, yes. Right again!
85
310080
2120
Tak, rzeczywiście. Znów dobrze!
05:12
OK, let's recap the vocabulary we've learnt in the programme,
86
312200
4640
OK, podsumujmy słownictwo, którego nauczyliśmy się w programie.
05:16
starting with 'rage bait', social media content designed to provoke anger,
87
316840
5360
Zacznijmy od „przynęty wściekłości”, czyli treści w mediach społecznościowych, których celem jest wywołanie gniewu, a
05:22
thereby encouraging people to engage with it.
88
322200
3080
tym samym zachęcenie ludzi do zaangażowania się w interakcję.
05:25
The structure 'the more... the more...' describes the situation
89
325280
4360
Konstrukcja „im więcej... tym bardziej...” opisuje sytuację,
05:29
when one thing happening repeatedly results in another thing happening too.
90
329640
4840
gdy powtarzające się zdarzenie powoduje zajście kolejnego zdarzenia.
05:34
'To incite' someone means to encourage them to do
91
334480
3920
„Podżegać” kogoś oznacza zachęcać go do zrobienia
05:38
or feel something unpleasant or violent.
92
338400
3120
lub odczucia czegoś nieprzyjemnego lub gwałtownego.
05:41
The adjective 'manipulative' describes trying to influence or control someone
93
341520
4760
Przymiotnik „manipulacyjny” opisuje próbę wpłynięcia na kogoś lub kontrolowania go
05:46
to your own advantage.
94
346280
1880
dla własnej korzyści.
05:48
'Eyeballs' is an informal word for the number
95
348160
2600
„Gałki oczne” to potoczne określenie liczby
05:50
of people viewing a particular website or television programme.
96
350760
3640
osób oglądających daną stronę internetową lub program telewizyjny.
05:54
And finally, biases are feelings, often unconscious, either for
97
354400
5040
Wreszcie uprzedzenia to uczucia, często nieświadome, popierające
05:59
or against an idea or a group of people.
98
359440
3000
lub przeciwne jakiejś idei lub grupie ludzi.
06:02
Once again, our six minutes are up.
99
362440
2160
Znów minęło nasze sześć minut.
06:04
Goodbye for now. Bye.
100
364600
2920
Żegnam na razie. Do widzenia.
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7