Fake News: Fact & Fiction - Episode 5: Why do people share fake news?

37,442 views ・ 2023-10-10

BBC Learning English


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo. Les sous-titres traduits sont traduits automatiquement.

00:06
Hello and welcome to Fake News: Fact and Fiction, from BBC Learning English.
0
6809
3540
Bonjour et bienvenue dans Fake News : Fact and Fiction, de BBC Learning English.
00:10
I'm Hugo.
1
10439
791
Je m'appelle Hugo.
00:11
And I'm Sam.
2
11339
781
Et je m'appelle Sam.
00:12
In the programme today,
3
12619
791
Dans le programme d'aujourd'hui,
00:13
we'll look at some of the reasons people share fake news.
4
13490
2659
nous examinerons certaines des raisons pour lesquelles les gens partagent de fausses nouvelles.
00:16
We'll hear from disinformation researcher Samantha Bradshaw.
5
16229
2901
Nous entendrons la chercheuse en dĂ©sinformation Samantha Bradshaw. L’
00:20
One reason why people share fake news that they know is fake,
6
20039
3781
une des raisons pour lesquelles les gens partagent de fausses nouvelles qu’ils savent ĂȘtre fausses
00:24
has to do with this thing that we call identity signalling.
7
24179
4410
est liĂ©e Ă  ce que nous appelons la signalisation d’identitĂ©.
00:28
Identity signalling. Have you heard of that Sam?
8
28949
2520
Signalisation identitaire. As-tu entendu parler de ce Sam ?
00:31
Not until I saw the script for this programme actually.
9
31890
3780
Pas avant d'avoir vu le script de ce programme.
00:35
Ah, so make sure you keep watching to find out what identity signalling is
10
35750
3530
Ah, alors assurez-vous de continuer à surveiller pour découvrir ce qu'est la signalisation d'identité
00:40
and how it's a part of the spread of fake news.
11
40530
2939
et comment elle fait partie de la propagation des fausses nouvelles.
00:43
Before we get to that, we have some key vocabulary which you're going to
12
43979
3271
Avant d'en arriver là, nous avons un vocabulaire clé que vous allez
00:47
tell us about Sam.
13
47329
820
nous parler de Sam.
00:48
What do you have for us today?
14
48299
1091
Qu'est-ce que tu as pour nous aujourd'hui ?
00:49
Yes, so today I am talking about: agenda, actors and motives.
15
49649
5610
Oui, donc aujourd’hui je parle de : agenda, acteurs et motivations.
00:59
If you have to go to meetings and who doesn't love a good meeting?
16
59189
4841
Si vous devez aller à des réunions et qui n'aime pas une bonne réunion ?
01:04
I hate them.
17
64700
1080
Je les déteste.
01:05
They're such a waste of time.
18
65859
2261
C'est une telle perte de temps.
01:08
You will probably be familiar with agendas.
19
68239
3410
Vous connaissez probablement les ordres du jour.
01:12
An agenda is a list of things that are going to be discussed
20
72120
4040
Un ordre du jour est une liste de choses qui vont ĂȘtre discutĂ©es
01:16
at the meeting.
21
76370
1040
lors de la réunion.
01:17
But there is another meaning of the word 'agenda' that is important
22
77659
4291
Mais il existe une autre signification du mot « agenda » qui est importante
01:22
in the area of fake news.
23
82040
2450
dans le domaine des fausses nouvelles.
01:24
If an individual or organisation or a government 'has an agenda',
24
84590
5599
Si un individu, une organisation ou un gouvernement « a un programme »,
01:30
it means that there is something they want to achieve.
25
90530
3179
cela signifie qu'il veut réaliser quelque chose.
01:33
This could be clearly stated objectives.
26
93799
3151
Il pourrait s'agir d'objectifs clairement énoncés.
01:37
But having an agenda can also suggest a secret or hidden aim.
27
97030
5559
Mais avoir un agenda peut aussi suggérer un objectif secret ou caché.
01:42
Let's park the word agenda for the moment because there is another word
28
102669
4031
Garons le mot agenda pour le moment car il y a un autre mot dont
01:46
I want to talk about that has a very well-known meaning but also
29
106780
4120
je veux parler qui a un sens trĂšs connu mais aussi
01:51
another meaning which is perhaps not so well-known - actor.
30
111230
4340
un autre sens qui ne l'est peut-ĂȘtre pas si connu : acteur.
01:56
It's probably a very familiar word.
31
116780
3030
C'est probablement un mot trĂšs familier.
01:59
Somebody who performs on stage or in films is an actor.
32
119890
3869
Quelqu'un qui joue sur scĂšne ou dans des films est un acteur.
02:03
But the same word is used to describe a person, group or even
33
123879
4511
Mais le mĂȘme mot est utilisĂ© pour dĂ©crire une personne, un groupe ou mĂȘme
02:08
a state that has an agenda that's either politically or economically motivated
34
128470
6099
un État qui a un programme politiquement ou Ă©conomiquement motivĂ©
02:15
and they have influence or power that they use
35
135020
2430
et qui a une influence ou un pouvoir qu'il utilise
02:17
to promote that agenda.
36
137530
2659
pour promouvoir ce programme.
02:20
In this context you can hear the phrases:
37
140389
2761
Dans ce contexte, vous pouvez entendre les expressions :
02:23
state actors, political actors, and even - bad actors.
38
143449
6180
acteurs Ă©tatiques, acteurs politiques et mĂȘme - mauvais acteurs. Les
02:30
State actors are governments,
39
150360
3709
acteurs Ă©tatiques sont les gouvernements, les
02:34
political actors are those with, you guessed it, political power and agendas
40
154150
4359
acteurs politiques sont ceux qui ont, vous l'aurez deviné, un pouvoir et des programmes politiques
02:38
and bad actors - well that doesn't mean people who aren't very good at acting.
41
158990
5250
et de mauvais acteurs - eh bien, cela ne veut pas dire des gens qui ne sont pas trÚs doués pour agir.
02:44
A bad actor uses power or influence in a dishonest way
42
164840
4949
Un mauvais acteur utilise son pouvoir ou son influence de maniĂšre malhonnĂȘte
02:50
to push a hidden agenda.
43
170210
2500
pour promouvoir un agenda caché.
02:52
They're trying to achieve something but it's not clear what it is.
44
172909
3680
Ils essaient de rĂ©aliser quelque chose, mais on ne sait pas exactement de quoi il s’agit.
02:56
And it's not clear who is doing it.
45
176719
2871
Et on ne sait pas clairement qui le fait.
02:59
For example, if a government from one country wants to influence an
46
179670
4160
Par exemple, si le gouvernement d’ un pays veut influencer les
03:03
election in another country, they may spread fake news stories
47
183910
4180
Ă©lections dans un autre pays, il peut diffuser de fausses nouvelles
03:08
but hide the fact that they're doing it.
48
188180
2910
tout en cachant le fait qu’il le fait.
03:11
This could be described as the actions of a bad actor or
49
191170
4060
Cela pourrait ĂȘtre dĂ©crit comme les actions d’un mauvais acteur ou
03:15
a bad state actor.
50
195620
1530
d’un mauvais acteur Ă©tatique.
03:18
People who spread disinformation online may not be doing it because
51
198169
4050
Les personnes qui diffusent de la dĂ©sinformation en ligne ne le font peut-ĂȘtre pas parce
03:22
they believe it but because it suits their agenda.
52
202300
4810
qu’elles y croient, mais parce que cela correspond à leur agenda.
03:27
This spreading of disinformation can be very sophisticated and the
53
207190
4539
Cette diffusion de dĂ©sinformation peut ĂȘtre trĂšs sophistiquĂ©e et les
03:31
motives of those doing it are often not obvious.
54
211810
3490
motivations de ceux qui la pratiquent ne sont souvent pas Ă©videntes.
03:36
Motive.
55
216259
1231
Motif.
03:37
That's another useful word in this context.
56
217570
2770
C'est un autre mot utile dans ce contexte.
03:41
If you like TV crime dramas, and who doesn't love a good crime drama?,
57
221240
4889
Si vous aimez les séries policiÚres télévisées, et qui n'aime pas les bonnes séries policiÚres ?,
03:46
- me, I never really understand them -
58
226590
3934
- moi, je ne les comprends jamais vraiment -
03:50
you will often hear the word 'motive'.
59
230604
3835
vous entendrez souvent le mot « motif ».
03:54
"He can't be guilty. He didn't have a motive."
60
234520
3749
"Il ne peut pas ĂȘtre coupable. Il n'avait aucun mobile."
03:59
A motive is a reason for doing something and not everyone's motives
61
239060
4979
Un motif est une raison pour faire quelque chose et les motivations de chacun
04:04
for what they post online are genuine.
62
244120
2519
pour ce qu'il publie en ligne ne sont pas authentiques.
04:07
But how can you tell?
63
247340
1169
Mais comment le savoir ?
04:09
Let's go back to the studio to see if there are any more useful tips.
64
249349
4111
Retournons au studio pour voir s'il existe d'autres conseils utiles.
04:16
Thanks for that Sam.
65
256449
881
Merci pour ça Sam.
04:17
Really interesting, I was really impressed with your acting there.
66
257410
3040
Vraiment intéressant, j'ai été vraiment impressionné par votre jeu là-bas.
04:20
Well, I may be a bad actor but I'm not a bad actor.
67
260990
5169
Eh bien, je suis peut-ĂȘtre un mauvais acteur, mais je ne suis pas un mauvais acteur.
04:26
My motives are purely genuine.
68
266239
2290
Mes motivations sont purement authentiques.
04:28
Well that's an interesting point about fake news I think.
69
268609
2100
Eh bien, c'est un point intéressant à propos des fausses nouvelles, je pense.
04:31
We've heard that fake news is produced by people who may want to
70
271160
3210
Nous avons entendu dire que les fausses nouvelles sont produites par des personnes qui souhaitent
04:34
make money or have a political or social agenda.
71
274449
3391
gagner de l'argent ou qui ont un agenda politique ou social.
04:37
Those are their motives,
72
277920
1190
Ce sont leurs motivations,
04:39
but they can only be successful if we share those stories.
73
279189
3801
mais ils ne peuvent réussir que si nous partageons ces histoires.
04:44
Absolutely. But why do people share news, stories, images that are fake?
74
284120
5310
Absolument. Mais pourquoi les gens partagent-ils des nouvelles, des histoires, des images qui sont fausses ? La
04:49
Well researcher Samantha Bradshaw from the Oxford Internet Institute
75
289720
3820
chercheuse Samantha Bradshaw de l'Oxford Internet Institute
04:53
at Oxford University shared her observations with us earlier.
76
293620
3490
de l'Université d'Oxford a partagé ses observations avec nous plus tÎt.
04:58
People share fake news for a variety of reasons.
77
298910
3380
Les gens partagent de fausses nouvelles pour diverses raisons.
05:02
In many cases sometimes people don't even realise the stories
78
302449
3871
Dans de nombreux cas, les gens ne rĂ©alisent mĂȘme pas que les histoires
05:06
that they're sharing are fake.
79
306400
1819
qu’ils partagent sont fausses.
05:08
They might find the content funny or humorous or they might think that
80
308329
4110
Ils peuvent trouver le contenu drĂŽle ou humoristique ou penser que
05:12
people in their network such as their friends or family or broader
81
312519
3731
les personnes de leur réseau, comme leurs amis, leur famille ou des connaissances plus larges,
05:16
acquaintances might enjoy this content.
82
316329
3760
pourraient apprécier ce contenu. Une
05:20
Another reason people might share fake news has to do with
83
320169
3520
autre raison pour laquelle les gens peuvent partager de fausses nouvelles est liée à
05:24
the emotional appeal of fake news because it tends to be very negative.
84
324050
5549
l’attrait Ă©motionnel des fausses nouvelles, car elles ont tendance Ă  ĂȘtre trĂšs nĂ©gatives.
05:29
It tends to also elicit a reaction from people and they might be angry
85
329679
4541
Cela a Ă©galement tendance Ă  susciter une rĂ©action de la part des gens et ils peuvent ĂȘtre en colĂšre
05:34
and they might type and share and discuss what is being talked about
86
334300
5649
et ils peuvent taper, partager et discuter de ce dont il est question
05:40
in this article because they find it so outrageous that they need
87
340029
4151
dans cet article parce qu'ils trouvent cela tellement scandaleux qu'ils ont besoin
05:44
to share it.
88
344259
1620
de le partager.
05:45
The third reason why people might share fake news has to do with what
89
345959
3650
La troisiÚme raison pour laquelle les gens peuvent partager de fausses nouvelles est liée à ce que
05:49
we call 'identity signalling' where people know that the information
90
349689
4571
nous appelons la « signalisation d'identitĂ© », oĂč les gens savent que les informations
05:54
being shared in this story is false.
91
354340
2530
partagées dans cette histoire sont fausses.
05:56
But the purpose of sharing it is to signal to a broader community that
92
356949
4210
Mais le but de ce partage est de signaler Ă  une communautĂ© plus large qu’elle
06:01
they share certain values that are reflected in that news story.
93
361239
4910
partage certaines valeurs qui se reflÚtent dans cette actualité.
06:06
And so it gives people a sense of belonging and
94
366680
5130
Cela donne ainsi aux gens un sentiment d’ appartenance et
06:12
fitting into a broader community of people.
95
372139
2671
d’intĂ©gration dans une communautĂ© plus large.
06:14
Has much more to do with identity than the actual facts of the story.
96
374889
4241
Cela a bien plus Ă  voir avec l’identitĂ© que les faits rĂ©els de l’histoire.
06:20
So what do you make of that Sam?
97
380449
1330
Alors, que penses-tu de ce Sam ?
06:22
OK, well, I can definitely see how we might accidentally share
98
382790
4039
OK, eh bien, je peux certainement voir comment nous pourrions accidentellement partager
06:26
things that aren't true for, for example I sometimes see some
99
386909
3800
des choses qui ne sont pas vraies, par exemple, je vois parfois des
06:30
amazing photos that I find out later are actually photoshopped.
100
390789
3311
photos étonnantes dont je découvre plus tard qu'elles sont en fait retouchées.
06:34
and things that might make me angry can make me reach for the share button.
101
394939
4230
et les choses qui pourraient me mettre en colĂšre peuvent me pousser Ă  utiliser le bouton de partage.
06:39
But what stood out for me was this idea of identity signalling.
102
399249
4361
Mais ce qui m’a marquĂ©, c’est cette idĂ©e de signalisation identitaire.
06:44
We might want to show that we belong to a particular group.
103
404060
3040
Nous pourrions vouloir montrer que nous appartenons Ă  un groupe particulier.
06:47
We share some beliefs and opinions and that it really doesn't matter
104
407180
3930
Nous partageons certaines croyances et opinions et peu importe
06:51
whether the content is true or not.
105
411350
1729
que le contenu soit vrai ou non.
06:53
And this is something that the people who produce fake news know well
106
413399
3501
Et c’est quelque chose que les gens qui produisent des fausses nouvelles connaissent bien
06:57
and they know how to make us share those stories.
107
417050
2669
et savent comment nous faire partager ces histoires.
06:59
Here's Samantha Bradshaw again.
108
419799
2090
Voici Ă  nouveau Samantha Bradshaw.
07:02
So the purveyors of fake news will use a variety of strategies to
109
422329
5731
Ainsi, les fournisseurs de fausses nouvelles utiliseront diverses stratégies pour
07:08
get people clicking and sharing their content.
110
428139
4000
inciter les gens Ă  cliquer et Ă  partager leur contenu.
07:12
One of these strategies has to do with just the style that fake news
111
432219
5410
L'une de ces stratégies concerne simplement le style dans lequel les fausses
07:17
stories are often written in.
112
437709
1781
nouvelles sont souvent Ă©crites.
07:19
They'll tend to use highly emotional language and content also that gets
113
439759
6750
Elles auront tendance Ă  utiliser un langage et un contenu trĂšs Ă©motionnels qui suscitent Ă©galement
07:26
people's emotions high.
114
446589
2090
des Ă©motions fortes chez les gens.
07:28
And this is because psychologically we also like to share
115
448759
4861
Et c’est parce que psychologiquement, nous aimons aussi partager
07:33
this kind of information.
116
453699
1490
ce genre d’informations.
07:35
And this kind of content, especially highly emotive content,
117
455360
4109
Et ce genre de contenus, notamment les contenus Ă  forte composante Ă©motionnelle,
07:39
will go much further because of the algorithms of the platforms.
118
459549
4561
iront bien plus loin grĂące aux algorithmes des plateformes.
07:44
And we also know that emotions like anger, outrage, fear are
119
464189
5690
Et nous savons aussi que les Ă©motions comme la colĂšre, l’indignation, la peur sont
07:49
much stronger emotions than things like happiness and joy.
120
469959
3340
des Ă©motions bien plus fortes que des choses comme le bonheur et la joie. C’est
07:53
And so that's why we see disinformation and fake news stories
121
473379
4031
pourquoi nous voyons la désinformation et les fausses nouvelles
07:57
go viral compared to facts and the boring truth and the mundane truth
122
477490
6039
devenir virales par rapport aux faits, à la vérité ennuyeuse et à la vérité banale qui se cachent
08:03
behind our factual daily news briefs.
123
483609
5261
derriùre nos bulletins d’information factuels quotidiens.
08:08
We of course still see our cat memes and cute animal videos going viral too
124
488949
5171
Bien sûr, nous voyons toujours nos mÚmes de chats et nos vidéos d'animaux mignons devenir viraux également,
08:14
because joy and happiness is a strong emotion but it's not quite as strong
125
494199
5020
car la joie et le bonheur sont une Ă©motion forte, mais ils ne sont pas aussi forts
08:19
as things like anger and fear.
126
499299
2751
que des choses comme la colĂšre et la peur.
08:22
Now we know that many fake news stories are very emotive.
127
502129
2880
Nous savons désormais que de nombreuses fausses nouvelles sont trÚs émouvantes.
08:25
They generate strong emotions; the sense that something's not fair
128
505089
4000
Ils génÚrent des émotions fortes ; le sentiment que quelque chose n'est pas juste
08:29
or people or organisations are doing things they shouldn't and that can
129
509269
3390
ou que des personnes ou des organisations font des choses qu'elles ne devraient pas faire et cela peut
08:32
make us look for other content to support that feeling.
130
512740
2990
nous amener Ă  rechercher d'autres contenus pour soutenir ce sentiment.
08:36
Yeah but good to know the cute cat videos are being shared too.
131
516620
4430
Oui, mais c'est bon de savoir que les vidéos de chats mignons sont également partagées.
08:41
And dogs don't forget dogs!
132
521279
2951
Et les chiens n'oublient pas les chiens !
08:44
But she also talked about algorithms,
133
524899
2070
Mais elle a également parlé des algorithmes,
08:47
the algorithms that social media companies use.
134
527090
2969
des algorithmes utilisés par les sociétés de médias sociaux.
08:50
So Sam what is an algorithm?
135
530289
2291
Alors Sam, qu'est-ce qu'un algorithme ?
08:53
OK, thanks for that Hugo!
136
533090
1449
OK, merci pour ça Hugo !
08:55
I might get into trouble here from computer experts but let's have a go.
137
535190
5490
Je pourrais avoir des ennuis ici avec des experts en informatique, mais allons-y.
09:00
Have you ever lost a huge amount of time because, for example,
138
540760
4390
Avez-vous déjà perdu énormément de temps parce que, par exemple,
09:05
you've gone on YouTube to watch a video and then you see a list of
139
545230
4180
vous ĂȘtes allĂ© sur YouTube pour regarder une vidĂ©o et vous voyez ensuite une liste de
09:09
suggested related videos which start playing automatically?
140
549490
4059
vidéos associées suggérées dont la lecture commence automatiquement ?
09:14
All the time, all the time. I think we've all done that.
141
554000
3009
Tout le temps, tout le temps. Je pense que nous l'avons tous fait.
09:17
Absolutely. So you click on one video and then another
142
557940
2420
Absolument. Donc vous cliquez sur une vidéo puis sur une autre
09:20
and another and another and then it's been hours and hours and hours.
143
560629
4121
et une autre et encore une autre et puis ça fait des heures et des heures et des heures.
09:25
Exactly. Yeah. OK. So what's this got to do with algorithms?
144
565169
3050
Exactement. Ouais. D'ACCORD. Alors, qu’est-ce que cela a à voir avec les algorithmes ?
09:28
Well an algorithm is a set of instructions a computer system
145
568299
4811
Eh bien, un algorithme est un ensemble d' instructions qu'un systĂšme informatique
09:33
follows to complete a particular task.
146
573190
3329
suit pour accomplir une tĂąche particuliĂšre.
09:36
Social media companies use algorithms to make that list of
147
576600
4130
Les sociétés de médias sociaux utilisent des algorithmes pour créer cette liste de
09:40
related videos just for you.
148
580810
3370
vidéos connexes rien que pour vous.
09:44
These are personalised based on your behaviour online and
149
584260
4179
Ceux-ci sont personnalisés en fonction de votre comportement en ligne et
09:48
they get us clicking.
150
588519
1500
nous font cliquer.
09:50
This is because the companies want to keep you on their platforms for
151
590100
3830
En effet, les entreprises souhaitent vous garder sur leurs plateformes le
09:54
as long as possible. That's how they make their money.
152
594010
3389
plus longtemps possible. C'est comme ça qu'ils gagnent leur argent.
09:57
The longer you're on their site the more links you click the more
153
597529
3331
Plus vous restez longtemps sur leur site, plus vous cliquez sur des liens, plus
10:00
advertisements you see and the more cash they collect.
154
600940
2889
vous voyez de publicités et plus ils collectent d'argent.
10:04
And the more we click on a particular kind of story, the more
155
604720
3600
Et plus nous cliquons sur un type d’histoire particulier, plus
10:08
the algorithms give us similar content.
156
608400
2790
les algorithmes nous donnent un contenu similaire.
10:11
Now there's nothing necessarily wrong with that because I guess
157
611270
3540
Il n'y a rien de mal Ă  cela, car je suppose
10:14
after all we're getting a free service which has to be paid for somehow.
158
614890
4840
qu'aprĂšs tout, nous bĂ©nĂ©ficions d'un service gratuit qui doit ĂȘtre payĂ© d'une maniĂšre ou d'une autre.
10:20
But it does mean that we usually don't see things that
159
620090
3150
Mais cela signifie que nous ne voyons généralement pas les choses que
10:23
we don't like, that we don't agree with.
160
623320
1859
nous n’aimons pas, avec lesquelles nous ne sommes pas d’accord.
10:25
And this can make us feel that our view, our opinion
161
625259
3680
Et cela peut nous faire sentir que notre point de vue, notre opinion
10:29
is the right one which everyone shares.
162
629029
2120
est la bonne et que tout le monde la partage.
10:31
Which is why I think it's a good idea to try and look for different opinions.
163
631460
4189
C'est pourquoi je pense que c'est une bonne idée d'essayer de rechercher des opinions différentes.
10:35
So we don't end up thinking that everyone thinks the way we do.
164
635730
4069
Nous ne finissons donc pas par penser que tout le monde pense comme nous.
10:39
So does that mean after watching all your cat videos you search for dog videos,
165
639879
4821
Alors, aprÚs avoir regardé toutes vos vidéos de chats, vous recherchez des vidéos de chiens,
10:44
for a bit of balance?
166
644780
1409
pour un peu d'Ă©quilibre ?
10:46
I love cats and dogs equally actually but that's not exactly what I was thinking.
167
646429
4551
En fait, j'aime autant les chats que les chiens, mais ce n'est pas exactement ce Ă  quoi je pensais.
10:51
I'm just putting your leg there.
168
651060
979
Je mets juste ta jambe lĂ .
10:52
Sam please remind us of today's vocabulary.
169
652549
2921
Sam, s'il te plaĂźt, rappelle-nous le vocabulaire d'aujourd'hui.
10:55
Certainly Hugo.
170
655860
600
Certainement Hugo.
10:56
So we started with 'agenda' which is a plan of things to be done.
171
656540
3659
Nous avons donc commencé par « l'agenda », qui est un plan de choses à faire.
11:00
And it's a hidden, and if it's a hidden agenda, it means the reason
172
660679
3841
Et c'est un agenda caché, et si c'est un agenda caché, cela signifie que la raison
11:04
for someone's actions might be secret or hidden.
173
664600
3779
des actions de quelqu'un peut ĂȘtre secrĂšte ou cachĂ©e.
11:08
Then there was the word 'actor'.
174
668480
1659
Ensuite, il y a eu le mot « acteur ».
11:10
In the context of fake news an actor is someone with an agenda that uses
175
670549
4680
Dans le contexte des fausses nouvelles, un acteur est une personne ayant un programme qui utilise son
11:15
power and influence to try and promote that agenda.
176
675309
3761
pouvoir et son influence pour tenter de promouvoir ce programme.
11:20
A 'motive' is a reason for doing something.
177
680029
2770
Un « motif » est une raison pour faire quelque chose.
11:22
And like hidden agendas sometimes the motives for a particular action
178
682990
4419
Et comme pour les intentions cachĂ©es, les motivations d’une action particuliĂšre
11:27
on the Internet are not always clear and transparent.
179
687490
3979
sur Internet ne sont parfois pas toujours claires et transparentes.
11:31
Samantha Bradshaw talked about identity signalling.
180
691549
3641
Samantha Bradshaw a parlé de signalisation d'identité.
11:35
This is the description of behaviour online when people share things
181
695299
3691
Il s'agit de la description du comportement en ligne lorsque les gens partagent des choses
11:39
without being interested in whether they're true or not.
182
699320
2889
sans se soucier de savoir si elles sont vraies ou non.
11:42
What's important is not how true it is but that it demonstrates that
183
702289
4110
Ce qui est important n'est pas que cela soit vrai, mais que cela démontre qu'ils
11:46
they think in the same way or share the same beliefs as the group.
184
706480
5149
pensent de la mĂȘme maniĂšre ou partagent les mĂȘmes croyances que le groupe.
11:51
And finally 'algorithm'.
185
711710
1380
Et enfin « algorithme ».
11:53
An algorithm is a set of software instructions that for example can
186
713600
3990
Un algorithme est un ensemble d' instructions logicielles qui peuvent par exemple
11:57
produce a personalised list of recommended videos based on what
187
717670
4089
produire une liste personnalisée de vidéos recommandées en fonction de ce qu'un
12:01
an individual has searched for or watched in the past.
188
721840
3160
individu a recherché ou regardé dans le passé.
12:06
Thank you Sam. That was very comprehensive.
189
726250
2200
Merci Sam. C'Ă©tait trĂšs complet.
12:08
That's all from us today. We look forward to your company again soon.
190
728530
3269
C'est tout pour nous aujourd'hui. Nous attendons avec impatience votre entreprise Ă  nouveau bientĂŽt.
12:11
Goodbye. And stay safe.
191
731879
2260
Au revoir. Et restez en sécurité.
12:14
Bye bye!
192
734259
500
Bye Bye!
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7