Fake News: Fact & Fiction - Episode 5: Why do people share fake news?

38,640 views ・ 2023-10-10

BBC Learning English


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film. Przetłumaczone napisy są tłumaczone maszynowo.

00:06
Hello and welcome to Fake News: Fact and Fiction, from BBC Learning English.
0
6809
3540
Witamy w fałszywych wiadomościach: fakty i fikcję z BBC Learning English.
00:10
I'm Hugo.
1
10439
791
Jestem Hugo.
00:11
And I'm Sam.
2
11339
781
A ja jestem Samem.
00:12
In the programme today,
3
12619
791
W dzisiejszym programie
00:13
we'll look at some of the reasons people share fake news.
4
13490
2659
przyjrzymy się niektórym powodom, dla których ludzie dzielą się fałszywymi wiadomościami.
00:16
We'll hear from disinformation researcher Samantha Bradshaw.
5
16229
2901
Wysłuchamy badaczki dezinformacji Samanthy Bradshaw.
00:20
One reason why people share fake news that they know is fake,
6
20039
3781
Jednym z powodów, dla których ludzie dzielą się fałszywymi wiadomościami, o których wiedzą, że są fałszywe, jest
00:24
has to do with this thing that we call identity signalling.
7
24179
4410
zjawisko, które nazywamy sygnalizowaniem tożsamości.
00:28
Identity signalling. Have you heard of that Sam?
8
28949
2520
Sygnalizacja tożsamości. Słyszałeś o tym Samie?
00:31
Not until I saw the script for this programme actually.
9
31890
3780
Nie, dopóki nie zobaczyłem scenariusza tego programu.
00:35
Ah, so make sure you keep watching to find out what identity signalling is
10
35750
3530
Ach, więc oglądaj dalej, aby dowiedzieć się, czym jest sygnalizowanie tożsamości
00:40
and how it's a part of the spread of fake news.
11
40530
2939
i w jaki sposób stanowi część rozprzestrzeniania się fałszywych wiadomości.
00:43
Before we get to that, we have some key vocabulary which you're going to
12
43979
3271
Zanim do tego przejdziemy, mamy pewne kluczowe słownictwo, które
00:47
tell us about Sam.
13
47329
820
powiesz nam na temat Sama.
00:48
What do you have for us today?
14
48299
1091
Co dzisiaj dla nas masz?
00:49
Yes, so today I am talking about: agenda, actors and motives.
15
49649
5610
Tak, więc dzisiaj mówię o: programie, aktorach i motywach.
00:59
If you have to go to meetings and who doesn't love a good meeting?
16
59189
4841
Jeśli musisz chodzić na spotkania, a kto nie lubi dobrych spotkań?
01:04
I hate them.
17
64700
1080
Nienawidzę ich.
01:05
They're such a waste of time.
18
65859
2261
To strata czasu.
01:08
You will probably be familiar with agendas.
19
68239
3410
Prawdopodobnie znasz programy obrad.
01:12
An agenda is a list of things that are going to be discussed
20
72120
4040
Agenda to lista spraw, które będą omawiane
01:16
at the meeting.
21
76370
1040
na spotkaniu.
01:17
But there is another meaning of the word 'agenda' that is important
22
77659
4291
Istnieje jednak inne znaczenie słowa „agenda”, które jest ważne
01:22
in the area of fake news.
23
82040
2450
w obszarze fałszywych wiadomości.
01:24
If an individual or organisation or a government 'has an agenda',
24
84590
5599
Jeśli dana osoba, organizacja lub rząd „ma plan”,
01:30
it means that there is something they want to achieve.
25
90530
3179
oznacza to, że chce coś osiągnąć.
01:33
This could be clearly stated objectives.
26
93799
3151
Mogą to być jasno określone cele.
01:37
But having an agenda can also suggest a secret or hidden aim.
27
97030
5559
Ale posiadanie planu może również sugerować sekretny lub ukryty cel.
01:42
Let's park the word agenda for the moment because there is another word
28
102669
4031
Zatrzymajmy się na chwilę nad słowem „agenda”, ponieważ jest jeszcze jedno słowo, o którym
01:46
I want to talk about that has a very well-known meaning but also
29
106780
4120
chcę porozmawiać, które ma bardzo dobrze znane znaczenie, ale także
01:51
another meaning which is perhaps not so well-known - actor.
30
111230
4340
inne, być może mniej znane – aktor.
01:56
It's probably a very familiar word.
31
116780
3030
To chyba bardzo znane słowo.
01:59
Somebody who performs on stage or in films is an actor.
32
119890
3869
Ktoś, kto występuje na scenie lub w filmach, jest aktorem.
02:03
But the same word is used to describe a person, group or even
33
123879
4511
Ale tego samego słowa używa się do opisania osoby, grupy lub nawet
02:08
a state that has an agenda that's either politically or economically motivated
34
128470
6099
państwa, które ma program motywowany politycznie lub ekonomicznie
02:15
and they have influence or power that they use
35
135020
2430
i ma wpływ lub władzę, których używa
02:17
to promote that agenda.
36
137530
2659
do promowania tego programu.
02:20
In this context you can hear the phrases:
37
140389
2761
W tym kontekście można usłyszeć określenia:
02:23
state actors, political actors, and even - bad actors.
38
143449
6180
aktorzy państwowi, aktorzy polityczni, a nawet – źli aktorzy.
02:30
State actors are governments,
39
150360
3709
Aktorzy państwowi to rządy,
02:34
political actors are those with, you guessed it, political power and agendas
40
154150
4359
aktorzy polityczni to ci, którzy, jak się domyślacie, mają władzę polityczną i programy,
02:38
and bad actors - well that doesn't mean people who aren't very good at acting.
41
158990
5250
a źli aktorzy – cóż, nie oznacza to ludzi, którzy nie są zbyt dobrzy w aktorstwie.
02:44
A bad actor uses power or influence in a dishonest way
42
164840
4949
Zły aktor wykorzystuje władzę lub wpływy w nieuczciwy sposób,
02:50
to push a hidden agenda.
43
170210
2500
aby forsować ukryte plany.
02:52
They're trying to achieve something but it's not clear what it is.
44
172909
3680
Próbują coś osiągnąć, ale nie jest jasne, co to jest.
02:56
And it's not clear who is doing it.
45
176719
2871
I nie jest jasne, kto to robi.
02:59
For example, if a government from one country wants to influence an
46
179670
4160
Na przykład, jeśli rząd jednego kraju chce wpłynąć na
03:03
election in another country, they may spread fake news stories
47
183910
4180
wybory w innym kraju, może rozpowszechniać fałszywe wiadomości,
03:08
but hide the fact that they're doing it.
48
188180
2910
ukrywając fakt, że to robi.
03:11
This could be described as the actions of a bad actor or
49
191170
4060
Można to opisać jako działania złego aktora lub
03:15
a bad state actor.
50
195620
1530
złego aktora państwowego.
03:18
People who spread disinformation online may not be doing it because
51
198169
4050
Osoby rozpowszechniające dezinformację w Internecie mogą nie robić tego dlatego, że w
03:22
they believe it but because it suits their agenda.
52
202300
4810
to wierzą, ale dlatego, że pasuje to do ich celów.
03:27
This spreading of disinformation can be very sophisticated and the
53
207190
4539
Rozpowszechnianie dezinformacji może być bardzo wyrafinowane, a
03:31
motives of those doing it are often not obvious.
54
211810
3490
motywy osób, które to robią, często nie są oczywiste.
03:36
Motive.
55
216259
1231
Motyw.
03:37
That's another useful word in this context.
56
217570
2770
To kolejne przydatne słowo w tym kontekście.
03:41
If you like TV crime dramas, and who doesn't love a good crime drama?,
57
221240
4889
Jeśli lubisz telewizyjne seriale kryminalne, a kto nie kocha dobrych kryminałów?
03:46
- me, I never really understand them -
58
226590
3934
– ja nigdy ich nie rozumiem –
03:50
you will often hear the word 'motive'.
59
230604
3835
często usłyszysz słowo „motyw”.
03:54
"He can't be guilty. He didn't have a motive."
60
234520
3749
– Nie może być winny. Nie miał motywu.
03:59
A motive is a reason for doing something and not everyone's motives
61
239060
4979
Motyw to powód, dla którego coś robisz, i nie wszyscy motywy tego, co
04:04
for what they post online are genuine.
62
244120
2519
publikują w Internecie, są prawdziwe.
04:07
But how can you tell?
63
247340
1169
Ale jak możesz to stwierdzić?
04:09
Let's go back to the studio to see if there are any more useful tips.
64
249349
4111
Wróćmy do studia i zobaczmy, czy są jeszcze jakieś przydatne wskazówki.
04:16
Thanks for that Sam.
65
256449
881
Dziękuję za to Samowi.
04:17
Really interesting, I was really impressed with your acting there.
66
257410
3040
Naprawdę interesujące, byłem pod wielkim wrażeniem twojej gry aktorskiej. Może i
04:20
Well, I may be a bad actor but I'm not a bad actor.
67
260990
5169
jestem złym aktorem, ale nie jestem złym aktorem.
04:26
My motives are purely genuine.
68
266239
2290
Moje motywy są całkowicie szczere.
04:28
Well that's an interesting point about fake news I think.
69
268609
2100
Cóż, myślę, że to interesująca kwestia dotycząca fałszywych wiadomości.
04:31
We've heard that fake news is produced by people who may want to
70
271160
3210
Słyszeliśmy, że fałszywe wiadomości są tworzone przez ludzi, którzy mogą chcieć
04:34
make money or have a political or social agenda.
71
274449
3391
zarabiać pieniądze lub mieć cele polityczne lub społeczne.
04:37
Those are their motives,
72
277920
1190
Takie są ich motywy,
04:39
but they can only be successful if we share those stories.
73
279189
3801
ale mogą odnieść sukces tylko wtedy, gdy podzielimy się tymi historiami.
04:44
Absolutely. But why do people share news, stories, images that are fake?
74
284120
5310
Absolutnie. Ale dlaczego ludzie dzielą się fałszywymi wiadomościami, historiami i zdjęciami?
04:49
Well researcher Samantha Bradshaw from the Oxford Internet Institute
75
289720
3820
Badaczka Samantha Bradshaw z Oxford Internet Institute
04:53
at Oxford University shared her observations with us earlier.
76
293620
3490
na Uniwersytecie Oksfordzkim podzieliła się z nami wcześniej swoimi obserwacjami.
04:58
People share fake news for a variety of reasons.
77
298910
3380
Ludzie udostępniają fałszywe wiadomości z różnych powodów.
05:02
In many cases sometimes people don't even realise the stories
78
302449
3871
W wielu przypadkach ludzie nawet nie zdają sobie sprawy, że historie, którymi się
05:06
that they're sharing are fake.
79
306400
1819
dzielą, są fałszywe.
05:08
They might find the content funny or humorous or they might think that
80
308329
4110
Mogą uznać tę treść za zabawną lub humorystyczną lub mogą pomyśleć, że
05:12
people in their network such as their friends or family or broader
81
312519
3731
osoby z ich sieci, takie jak ich przyjaciele, rodzina lub szersi
05:16
acquaintances might enjoy this content.
82
316329
3760
znajomi, mogą cieszyć się tą treścią.
05:20
Another reason people might share fake news has to do with
83
320169
3520
Inny powód, dla którego ludzie dzielą się fałszywymi wiadomościami, ma związek z
05:24
the emotional appeal of fake news because it tends to be very negative.
84
324050
5549
emocjonalnym urokiem fałszywych wiadomości, ponieważ są one zazwyczaj bardzo negatywne.
05:29
It tends to also elicit a reaction from people and they might be angry
85
329679
4541
Zwykle wywołuje to również reakcję ze strony ludzi, którzy mogą się złościć,
05:34
and they might type and share and discuss what is being talked about
86
334300
5649
pisać, udostępniać i dyskutować o tym, o czym mowa
05:40
in this article because they find it so outrageous that they need
87
340029
4151
w tym artykule, ponieważ uważają to za tak oburzające, że muszą się
05:44
to share it.
88
344259
1620
tym podzielić.
05:45
The third reason why people might share fake news has to do with what
89
345959
3650
Trzeci powód, dla którego ludzie mogą udostępniać fałszywe wiadomości, ma związek z tym, co
05:49
we call 'identity signalling' where people know that the information
90
349689
4571
nazywamy „sygnalizowaniem tożsamości”, gdy ludzie wiedzą, że informacje
05:54
being shared in this story is false.
91
354340
2530
udostępniane w tej historii są fałszywe.
05:56
But the purpose of sharing it is to signal to a broader community that
92
356949
4210
Jednak celem udostępnienia tej informacji jest zasygnalizowanie szerszej społeczności, że
06:01
they share certain values that are reflected in that news story.
93
361239
4910
wyznaje pewne wartości, które znajdują odzwierciedlenie w danej wiadomości.
06:06
And so it gives people a sense of belonging and
94
366680
5130
Daje to ludziom poczucie przynależności i
06:12
fitting into a broader community of people.
95
372139
2671
dopasowania do szerszej społeczności ludzi.
06:14
Has much more to do with identity than the actual facts of the story.
96
374889
4241
Ma znacznie więcej wspólnego z tożsamością niż z faktami przedstawionymi w tej historii.
06:20
So what do you make of that Sam?
97
380449
1330
Więc co sądzisz o tym Samie?
06:22
OK, well, I can definitely see how we might accidentally share
98
382790
4039
OK, cóż, zdecydowanie rozumiem, jak możemy przypadkowo podzielić się
06:26
things that aren't true for, for example I sometimes see some
99
386909
3800
rzeczami, które nie są prawdą, na przykład czasami widzę
06:30
amazing photos that I find out later are actually photoshopped.
100
390789
3311
niesamowite zdjęcia, o których później się dowiaduję, że tak naprawdę zostały przerobione w Photoshopie.
06:34
and things that might make me angry can make me reach for the share button.
101
394939
4230
a rzeczy, które mogą mnie zdenerwować, mogą sprawić, że sięgnę po przycisk udostępniania.
06:39
But what stood out for me was this idea of identity signalling.
102
399249
4361
Ale tym, co mnie szczególnie wyróżniało, była koncepcja sygnalizowania tożsamości.
06:44
We might want to show that we belong to a particular group.
103
404060
3040
Możemy chcieć pokazać, że należymy do określonej grupy.
06:47
We share some beliefs and opinions and that it really doesn't matter
104
407180
3930
Podzielamy pewne przekonania i opinie i tak naprawdę nie ma znaczenia,
06:51
whether the content is true or not.
105
411350
1729
czy treść jest prawdziwa, czy nie.
06:53
And this is something that the people who produce fake news know well
106
413399
3501
Jest to coś, o czym dobrze wiedzą ludzie tworzący fałszywe wiadomości
06:57
and they know how to make us share those stories.
107
417050
2669
i wiedzą, jak nakłonić nas do podzielenia się tymi historiami.
06:59
Here's Samantha Bradshaw again.
108
419799
2090
Oto ponownie Samantha Bradshaw.
07:02
So the purveyors of fake news will use a variety of strategies to
109
422329
5731
Dlatego dostawcy fałszywych wiadomości będą stosować różne strategie, aby
07:08
get people clicking and sharing their content.
110
428139
4000
skłonić ludzi do klikania i udostępniania ich treści.
07:12
One of these strategies has to do with just the style that fake news
111
432219
5410
Jedna z tych strategii wiąże się ze stylem, w jakim
07:17
stories are often written in.
112
437709
1781
często pisane są fałszywe wiadomości.
07:19
They'll tend to use highly emotional language and content also that gets
113
439759
6750
Zwykle używają wysoce emocjonalnego języka i treści, które również wzbudzają
07:26
people's emotions high.
114
446589
2090
emocje u ludzi.
07:28
And this is because psychologically we also like to share
115
448759
4861
A to dlatego, że psychologicznie również lubimy dzielić się
07:33
this kind of information.
116
453699
1490
tego typu informacjami.
07:35
And this kind of content, especially highly emotive content,
117
455360
4109
A tego rodzaju treści, szczególnie treści silnie emocjonalne,
07:39
will go much further because of the algorithms of the platforms.
118
459549
4561
zajdą znacznie dalej ze względu na algorytmy platform.
07:44
And we also know that emotions like anger, outrage, fear are
119
464189
5690
Wiemy również, że emocje takie jak złość, oburzenie i strach są
07:49
much stronger emotions than things like happiness and joy.
120
469959
3340
emocjami znacznie silniejszymi niż szczęście i radość. Dlatego właśnie
07:53
And so that's why we see disinformation and fake news stories
121
473379
4031
widzimy, jak dezinformacja i fałszywe wiadomości zyskują
07:57
go viral compared to facts and the boring truth and the mundane truth
122
477490
6039
popularność w porównaniu z faktami oraz nudną i przyziemną prawdą kryjącą się
08:03
behind our factual daily news briefs.
123
483609
5261
za naszymi codziennymi wiadomościami opartymi na faktach.
08:08
We of course still see our cat memes and cute animal videos going viral too
124
488949
5171
Oczywiście nadal widzimy, jak nasze memy o kotach i urocze filmy ze zwierzętami stają się popularne,
08:14
because joy and happiness is a strong emotion but it's not quite as strong
125
494199
5020
ponieważ radość i szczęście to silne emocje, ale nie tak silne,
08:19
as things like anger and fear.
126
499299
2751
jak złość i strach.
08:22
Now we know that many fake news stories are very emotive.
127
502129
2880
Teraz wiemy, że wiele fałszywych wiadomości budzi wiele emocji.
08:25
They generate strong emotions; the sense that something's not fair
128
505089
4000
Generują silne emocje; poczucie, że coś jest niesprawiedliwe
08:29
or people or organisations are doing things they shouldn't and that can
129
509269
3390
lub że ludzie lub organizacje robią rzeczy, których nie powinni, i może skłonić
08:32
make us look for other content to support that feeling.
130
512740
2990
nas do szukania innych treści wspierających to uczucie.
08:36
Yeah but good to know the cute cat videos are being shared too.
131
516620
4430
Tak, ale dobrze wiedzieć, że filmy ze słodkimi kotami też są udostępniane.
08:41
And dogs don't forget dogs!
132
521279
2951
A psy nie zapominają o psach!
08:44
But she also talked about algorithms,
133
524899
2070
Ale mówiła także o algorytmach,
08:47
the algorithms that social media companies use.
134
527090
2969
algorytmach używanych przez firmy z branży mediów społecznościowych.
08:50
So Sam what is an algorithm?
135
530289
2291
Więc Sam, czym jest algorytm?
08:53
OK, thanks for that Hugo!
136
533090
1449
OK, dzięki za to, Hugo!
08:55
I might get into trouble here from computer experts but let's have a go.
137
535190
5490
Mogę mieć kłopoty ze strony ekspertów komputerowych, ale spróbujmy. Czy zdarzyło
09:00
Have you ever lost a huge amount of time because, for example,
138
540760
4390
Ci się kiedyś stracić dużo czasu, bo na przykład
09:05
you've gone on YouTube to watch a video and then you see a list of
139
545230
4180
weszłeś na YouTube, żeby obejrzeć film, a potem zobaczyłeś listę
09:09
suggested related videos which start playing automatically?
140
549490
4059
sugerowanych powiązanych filmów, które odtwarzały się automatycznie?
09:14
All the time, all the time. I think we've all done that.
141
554000
3009
Cały czas, cały czas. Myślę, że wszyscy to zrobiliśmy.
09:17
Absolutely. So you click on one video and then another
142
557940
2420
Absolutnie. Klikasz więc jeden film, potem kolejny,
09:20
and another and another and then it's been hours and hours and hours.
143
560629
4121
i kolejny, i tak mijają godziny, godziny, godziny.
09:25
Exactly. Yeah. OK. So what's this got to do with algorithms?
144
565169
3050
Dokładnie. Tak. OK. A co to ma wspólnego z algorytmami?
09:28
Well an algorithm is a set of instructions a computer system
145
568299
4811
Algorytm to zestaw instrukcji, które system komputerowy
09:33
follows to complete a particular task.
146
573190
3329
wykonuje, aby wykonać określone zadanie.
09:36
Social media companies use algorithms to make that list of
147
576600
4130
Firmy zajmujące się mediami społecznościowymi korzystają z algorytmów, aby stworzyć listę
09:40
related videos just for you.
148
580810
3370
powiązanych filmów specjalnie dla Ciebie.
09:44
These are personalised based on your behaviour online and
149
584260
4179
Są one personalizowane na podstawie Twojego zachowania w Internecie i
09:48
they get us clicking.
150
588519
1500
powodują, że klikamy. Dzieje się tak
09:50
This is because the companies want to keep you on their platforms for
151
590100
3830
dlatego, że firmy chcą zatrzymać Cię na swoich platformach
09:54
as long as possible. That's how they make their money.
152
594010
3389
tak długo, jak to możliwe. W ten sposób zarabiają pieniądze.
09:57
The longer you're on their site the more links you click the more
153
597529
3331
Im dłużej jesteś na ich stronie, tym więcej linków klikasz, tym więcej
10:00
advertisements you see and the more cash they collect.
154
600940
2889
reklam widzisz i tym więcej pieniędzy zbierają.
10:04
And the more we click on a particular kind of story, the more
155
604720
3600
Im częściej klikamy na konkretny rodzaj historii, tym częściej
10:08
the algorithms give us similar content.
156
608400
2790
algorytmy dostarczają nam podobnych treści.
10:11
Now there's nothing necessarily wrong with that because I guess
157
611270
3540
Nie ma w tym absolutnie nic złego, bo chyba jednak
10:14
after all we're getting a free service which has to be paid for somehow.
158
614890
4840
dostajemy bezpłatną usługę, za którą trzeba w jakiś sposób zapłacić.
10:20
But it does mean that we usually don't see things that
159
620090
3150
Ale to oznacza, że zazwyczaj nie widzimy rzeczy, które
10:23
we don't like, that we don't agree with.
160
623320
1859
nam się nie podobają i z którymi się nie zgadzamy.
10:25
And this can make us feel that our view, our opinion
161
625259
3680
A to może sprawić, że poczujemy, że nasz pogląd, nasza opinia
10:29
is the right one which everyone shares.
162
629029
2120
jest słuszna i podzielana przez wszystkich.
10:31
Which is why I think it's a good idea to try and look for different opinions.
163
631460
4189
Dlatego uważam, że warto poszukać różnych opinii.
10:35
So we don't end up thinking that everyone thinks the way we do.
164
635730
4069
Nie myślimy więc, że wszyscy myślą tak jak my.
10:39
So does that mean after watching all your cat videos you search for dog videos,
165
639879
4821
Czy to oznacza, że ​​po obejrzeniu wszystkich filmów o kotach szukasz filmów o psach,
10:44
for a bit of balance?
166
644780
1409
aby uzyskać odrobinę równowagi?
10:46
I love cats and dogs equally actually but that's not exactly what I was thinking.
167
646429
4551
Tak naprawdę kocham koty i psy w równym stopniu, ale nie do końca o tym myślałem. Po
10:51
I'm just putting your leg there.
168
651060
979
prostu wkładam tam twoją nogę.
10:52
Sam please remind us of today's vocabulary.
169
652549
2921
Sam, proszę, przypomnij nam dzisiejsze słownictwo.
10:55
Certainly Hugo.
170
655860
600
Na pewno Hugo.
10:56
So we started with 'agenda' which is a plan of things to be done.
171
656540
3659
Zaczęliśmy więc od „agendy”, czyli planu rzeczy do zrobienia.
11:00
And it's a hidden, and if it's a hidden agenda, it means the reason
172
660679
3841
I jest to ukryty cel, a jeśli jest to ukryty cel, oznacza to, że powód
11:04
for someone's actions might be secret or hidden.
173
664600
3779
czyjegoś działania może być tajny lub ukryty.
11:08
Then there was the word 'actor'.
174
668480
1659
Potem było słowo „aktor”.
11:10
In the context of fake news an actor is someone with an agenda that uses
175
670549
4680
W kontekście fałszywych wiadomości aktor to ktoś, kto ma plan i wykorzystuje
11:15
power and influence to try and promote that agenda.
176
675309
3761
władzę i wpływy, aby spróbować go promować.
11:20
A 'motive' is a reason for doing something.
177
680029
2770
„Motyw” to powód, aby coś zrobić.
11:22
And like hidden agendas sometimes the motives for a particular action
178
682990
4419
I podobnie jak ukryte plany, czasami motywy konkretnego działania
11:27
on the Internet are not always clear and transparent.
179
687490
3979
w Internecie nie zawsze są jasne i przejrzyste.
11:31
Samantha Bradshaw talked about identity signalling.
180
691549
3641
Samantha Bradshaw mówiła o sygnalizowaniu tożsamości.
11:35
This is the description of behaviour online when people share things
181
695299
3691
Oto opis zachowania w Internecie, gdy ludzie dzielą się różnymi rzeczami,
11:39
without being interested in whether they're true or not.
182
699320
2889
nie zastanawiając się, czy są one prawdziwe, czy nie.
11:42
What's important is not how true it is but that it demonstrates that
183
702289
4110
Ważne jest nie to, na ile jest to prawdą, ale to, czy pokazuje, że
11:46
they think in the same way or share the same beliefs as the group.
184
706480
5149
myślą w ten sam sposób lub podzielają te same przekonania co grupa.
11:51
And finally 'algorithm'.
185
711710
1380
I wreszcie „algorytm”.
11:53
An algorithm is a set of software instructions that for example can
186
713600
3990
Algorytm to zestaw instrukcji oprogramowania, które na przykład mogą
11:57
produce a personalised list of recommended videos based on what
187
717670
4089
utworzyć spersonalizowaną listę polecanych filmów wideo na podstawie tego, czego
12:01
an individual has searched for or watched in the past.
188
721840
3160
dana osoba szukała lub oglądała w przeszłości.
12:06
Thank you Sam. That was very comprehensive.
189
726250
2200
Dziękuję Sam. To było bardzo wszechstronne.
12:08
That's all from us today. We look forward to your company again soon.
190
728530
3269
To wszystko od nas dzisiaj. Nie możemy się doczekać, aby wkrótce ponownie spotkać się z Twoją firmą.
12:11
Goodbye. And stay safe.
191
731879
2260
Do widzenia. I bądź bezpieczny.
12:14
Bye bye!
192
734259
500
PA pa!
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7