Fake News: Fact & Fiction - Episode 5: Why do people share fake news?

37,442 views ・ 2023-10-10

BBC Learning English


Haga doble clic en los subtítulos en inglés para reproducir el vídeo. Los subtítulos traducidos se traducen automáticamente.

00:06
Hello and welcome to Fake News: Fact and Fiction, from BBC Learning English.
0
6809
3540
Hola y bienvenido a Noticias falsas: realidad y ficción, de BBC Learning English.
00:10
I'm Hugo.
1
10439
791
Soy Hugo.
00:11
And I'm Sam.
2
11339
781
Y yo soy Sam.
00:12
In the programme today,
3
12619
791
En el programa de hoy
00:13
we'll look at some of the reasons people share fake news.
4
13490
2659
veremos algunas de las razones por las que la gente comparte noticias falsas.
00:16
We'll hear from disinformation researcher Samantha Bradshaw.
5
16229
2901
Escucharemos a la investigadora de desinformación Samantha Bradshaw.
00:20
One reason why people share fake news that they know is fake,
6
20039
3781
Una de las razones por las que las personas comparten noticias falsas que saben que son falsas
00:24
has to do with this thing that we call identity signalling.
7
24179
4410
tiene que ver con esto que llamamos señalización de identidad.
00:28
Identity signalling. Have you heard of that Sam?
8
28949
2520
Señalización de identidad. ¿Has oído hablar de ese Sam?
00:31
Not until I saw the script for this programme actually.
9
31890
3780
No hasta que vi el guión de este programa.
00:35
Ah, so make sure you keep watching to find out what identity signalling is
10
35750
3530
Ah, así que asegúrate de seguir mirando para descubrir qué es la señalización de identidad
00:40
and how it's a part of the spread of fake news.
11
40530
2939
y cómo forma parte de la difusión de noticias falsas.
00:43
Before we get to that, we have some key vocabulary which you're going to
12
43979
3271
Antes de llegar a eso, tenemos un vocabulario clave que
00:47
tell us about Sam.
13
47329
820
nos contarás sobre Sam. ¿
00:48
What do you have for us today?
14
48299
1091
Qué tienes para nosotros hoy?
00:49
Yes, so today I am talking about: agenda, actors and motives.
15
49649
5610
Sí, entonces hoy hablo de: agenda, actores y motivos.
00:59
If you have to go to meetings and who doesn't love a good meeting?
16
59189
4841
Si tienes que ir a reuniones ¿y a quién no le gusta una buena reunión?
01:04
I hate them.
17
64700
1080
Los odio.
01:05
They're such a waste of time.
18
65859
2261
Son una gran pérdida de tiempo.
01:08
You will probably be familiar with agendas.
19
68239
3410
Probablemente esté familiarizado con las agendas.
01:12
An agenda is a list of things that are going to be discussed
20
72120
4040
Una agenda es una lista de cosas que se van a discutir
01:16
at the meeting.
21
76370
1040
en la reunión.
01:17
But there is another meaning of the word 'agenda' that is important
22
77659
4291
Pero hay otro significado de la palabra "agenda" que es importante
01:22
in the area of fake news.
23
82040
2450
en el ámbito de las noticias falsas.
01:24
If an individual or organisation or a government 'has an agenda',
24
84590
5599
Si un individuo, una organización o un gobierno "tiene una agenda",
01:30
it means that there is something they want to achieve.
25
90530
3179
significa que hay algo que quieren lograr.
01:33
This could be clearly stated objectives.
26
93799
3151
Estos podrían ser objetivos claramente establecidos.
01:37
But having an agenda can also suggest a secret or hidden aim.
27
97030
5559
Pero tener una agenda también puede sugerir un objetivo secreto u oculto.
01:42
Let's park the word agenda for the moment because there is another word
28
102669
4031
Dejemos por el momento la palabra agenda porque hay otra palabra de la que
01:46
I want to talk about that has a very well-known meaning but also
29
106780
4120
quiero hablar que tiene un significado muy conocido pero también
01:51
another meaning which is perhaps not so well-known - actor.
30
111230
4340
otro significado quizás no tan conocido: actor.
01:56
It's probably a very familiar word.
31
116780
3030
Probablemente sea una palabra muy familiar.
01:59
Somebody who performs on stage or in films is an actor.
32
119890
3869
Alguien que actúa en el escenario o en el cine es actor.
02:03
But the same word is used to describe a person, group or even
33
123879
4511
Pero la misma palabra se usa para describir a una persona, grupo o incluso
02:08
a state that has an agenda that's either politically or economically motivated
34
128470
6099
un estado que tiene una agenda motivada política o económicamente
02:15
and they have influence or power that they use
35
135020
2430
y tiene influencia o poder que utiliza
02:17
to promote that agenda.
36
137530
2659
para promover esa agenda.
02:20
In this context you can hear the phrases:
37
140389
2761
En este contexto se pueden escuchar las frases:
02:23
state actors, political actors, and even - bad actors.
38
143449
6180
actores estatales, actores políticos e incluso malos actores. Los
02:30
State actors are governments,
39
150360
3709
actores estatales son gobiernos, los
02:34
political actors are those with, you guessed it, political power and agendas
40
154150
4359
actores políticos son aquellos que, como habrás adivinado, tienen poder político y agendas
02:38
and bad actors - well that doesn't mean people who aren't very good at acting.
41
158990
5250
y malos actores; bueno, eso no significa personas que no sean muy buenas actuando.
02:44
A bad actor uses power or influence in a dishonest way
42
164840
4949
Un mal actor utiliza el poder o la influencia de manera deshonesta
02:50
to push a hidden agenda.
43
170210
2500
para impulsar una agenda oculta.
02:52
They're trying to achieve something but it's not clear what it is.
44
172909
3680
Están tratando de lograr algo pero no está claro qué es.
02:56
And it's not clear who is doing it.
45
176719
2871
Y no está claro quién lo está haciendo.
02:59
For example, if a government from one country wants to influence an
46
179670
4160
Por ejemplo, si un gobierno de un país quiere influir en una
03:03
election in another country, they may spread fake news stories
47
183910
4180
elección en otro país, puede difundir noticias falsas
03:08
but hide the fact that they're doing it.
48
188180
2910
pero ocultar el hecho de que lo está haciendo.
03:11
This could be described as the actions of a bad actor or
49
191170
4060
Esto podría describirse como las acciones de un mal actor o de
03:15
a bad state actor.
50
195620
1530
un mal actor estatal. Es posible que
03:18
People who spread disinformation online may not be doing it because
51
198169
4050
las personas que difunden desinformación en línea no lo hagan porque
03:22
they believe it but because it suits their agenda.
52
202300
4810
lo crean, sino porque se adapta a sus intereses.
03:27
This spreading of disinformation can be very sophisticated and the
53
207190
4539
Esta difusión de desinformación puede ser muy sofisticada y los
03:31
motives of those doing it are often not obvious.
54
211810
3490
motivos de quienes la hacen a menudo no son obvios.
03:36
Motive.
55
216259
1231
Motivo.
03:37
That's another useful word in this context.
56
217570
2770
Ésa es otra palabra útil en este contexto.
03:41
If you like TV crime dramas, and who doesn't love a good crime drama?,
57
221240
4889
Si te gustan los dramas policiales de la televisión, ¿y a quién no le gustan los buenos dramas policiales? (
03:46
- me, I never really understand them -
58
226590
3934
yo, nunca los entiendo del todo),
03:50
you will often hear the word 'motive'.
59
230604
3835
escucharás a menudo la palabra "motivo".
03:54
"He can't be guilty. He didn't have a motive."
60
234520
3749
"No puede ser culpable. No tenía ningún motivo".
03:59
A motive is a reason for doing something and not everyone's motives
61
239060
4979
Un motivo es una razón para hacer algo y no todos los motivos
04:04
for what they post online are genuine.
62
244120
2519
de lo que publican en línea son genuinos.
04:07
But how can you tell?
63
247340
1169
Pero, ¿cómo puede usted decir?
04:09
Let's go back to the studio to see if there are any more useful tips.
64
249349
4111
Volvamos al estudio para ver si hay más consejos útiles.
04:16
Thanks for that Sam.
65
256449
881
Gracias por eso Sam.
04:17
Really interesting, I was really impressed with your acting there.
66
257410
3040
Realmente interesante, quedé realmente impresionado con tu actuación allí.
04:20
Well, I may be a bad actor but I'm not a bad actor.
67
260990
5169
Bueno, puede que sea un mal actor pero no soy un mal actor.
04:26
My motives are purely genuine.
68
266239
2290
Mis motivos son puramente genuinos.
04:28
Well that's an interesting point about fake news I think.
69
268609
2100
Bueno, creo que ese es un punto interesante sobre las noticias falsas.
04:31
We've heard that fake news is produced by people who may want to
70
271160
3210
Hemos oído que las noticias falsas las producen personas que pueden querer
04:34
make money or have a political or social agenda.
71
274449
3391
ganar dinero o tener una agenda política o social.
04:37
Those are their motives,
72
277920
1190
Ésos son sus motivos,
04:39
but they can only be successful if we share those stories.
73
279189
3801
pero sólo podrán tener éxito si compartimos esas historias.
04:44
Absolutely. But why do people share news, stories, images that are fake?
74
284120
5310
Absolutamente. Pero, ¿por qué la gente comparte noticias, historias e imágenes falsas?
04:49
Well researcher Samantha Bradshaw from the Oxford Internet Institute
75
289720
3820
Bueno, la investigadora Samantha Bradshaw del Oxford Internet Institute
04:53
at Oxford University shared her observations with us earlier.
76
293620
3490
de la Universidad de Oxford compartió sus observaciones con nosotros anteriormente. La
04:58
People share fake news for a variety of reasons.
77
298910
3380
gente comparte noticias falsas por diversas razones.
05:02
In many cases sometimes people don't even realise the stories
78
302449
3871
En muchos casos, las personas ni siquiera se dan cuenta de que las historias
05:06
that they're sharing are fake.
79
306400
1819
que comparten son falsas. Es
05:08
They might find the content funny or humorous or they might think that
80
308329
4110
posible que encuentren el contenido divertido o humorístico o que piensen que las
05:12
people in their network such as their friends or family or broader
81
312519
3731
personas de su red, como sus amigos, familiares o conocidos más amplios,
05:16
acquaintances might enjoy this content.
82
316329
3760
podrían disfrutar de este contenido.
05:20
Another reason people might share fake news has to do with
83
320169
3520
Otra razón por la que la gente podría compartir noticias falsas tiene que ver con
05:24
the emotional appeal of fake news because it tends to be very negative.
84
324050
5549
el atractivo emocional de las noticias falsas porque tienden a ser muy negativas.
05:29
It tends to also elicit a reaction from people and they might be angry
85
329679
4541
También tiende a provocar una reacción de las personas, que pueden enojarse y
05:34
and they might type and share and discuss what is being talked about
86
334300
5649
escribir, compartir y discutir lo que se habla
05:40
in this article because they find it so outrageous that they need
87
340029
4151
en este artículo porque lo encuentran tan escandaloso que necesitan
05:44
to share it.
88
344259
1620
compartirlo.
05:45
The third reason why people might share fake news has to do with what
89
345959
3650
La tercera razón por la que la gente podría compartir noticias falsas tiene que ver con lo que
05:49
we call 'identity signalling' where people know that the information
90
349689
4571
llamamos "señalización de identidad", donde la gente sabe que la información que
05:54
being shared in this story is false.
91
354340
2530
se comparte en esta historia es falsa.
05:56
But the purpose of sharing it is to signal to a broader community that
92
356949
4210
Pero el propósito de compartirlo es indicarle a una comunidad más amplia que
06:01
they share certain values that are reflected in that news story.
93
361239
4910
comparten ciertos valores que se reflejan en esa noticia.
06:06
And so it gives people a sense of belonging and
94
366680
5130
Y por eso les da a las personas un sentido de pertenencia y de
06:12
fitting into a broader community of people.
95
372139
2671
integración en una comunidad más amplia de personas.
06:14
Has much more to do with identity than the actual facts of the story.
96
374889
4241
Tiene mucho más que ver con la identidad que con los hechos reales de la historia.
06:20
So what do you make of that Sam?
97
380449
1330
Entonces, ¿qué opinas de ese Sam?
06:22
OK, well, I can definitely see how we might accidentally share
98
382790
4039
Vale, bueno, definitivamente puedo ver cómo podemos compartir accidentalmente
06:26
things that aren't true for, for example I sometimes see some
99
386909
3800
cosas que no son ciertas; por ejemplo, a veces veo algunas
06:30
amazing photos that I find out later are actually photoshopped.
100
390789
3311
fotos increíbles que luego descubro que en realidad están retocadas con Photoshop.
06:34
and things that might make me angry can make me reach for the share button.
101
394939
4230
y las cosas que podrían enojarme pueden hacerme presionar el botón de compartir.
06:39
But what stood out for me was this idea of identity signalling.
102
399249
4361
Pero lo que más me llamó la atención fue la idea de la señalización de identidad. Es
06:44
We might want to show that we belong to a particular group.
103
404060
3040
posible que queramos demostrar que pertenecemos a un grupo en particular.
06:47
We share some beliefs and opinions and that it really doesn't matter
104
407180
3930
Compartimos algunas creencias y opiniones y que realmente no importa
06:51
whether the content is true or not.
105
411350
1729
si el contenido es cierto o no.
06:53
And this is something that the people who produce fake news know well
106
413399
3501
Y esto es algo que la gente que produce noticias falsas sabe bien
06:57
and they know how to make us share those stories.
107
417050
2669
y sabe cómo hacernos compartir esas historias.
06:59
Here's Samantha Bradshaw again.
108
419799
2090
Aquí está Samantha Bradshaw otra vez.
07:02
So the purveyors of fake news will use a variety of strategies to
109
422329
5731
Por lo tanto, los proveedores de noticias falsas utilizarán una variedad de estrategias para
07:08
get people clicking and sharing their content.
110
428139
4000
lograr que la gente haga clic y comparta su contenido.
07:12
One of these strategies has to do with just the style that fake news
111
432219
5410
Una de estas estrategias tiene que ver simplemente con el estilo en el que a
07:17
stories are often written in.
112
437709
1781
menudo se escriben las noticias falsas.
07:19
They'll tend to use highly emotional language and content also that gets
113
439759
6750
Tienden a utilizar un lenguaje y un contenido muy emocional que también
07:26
people's emotions high.
114
446589
2090
eleva las emociones de las personas.
07:28
And this is because psychologically we also like to share
115
448759
4861
Y esto se debe a que psicológicamente también nos gusta compartir
07:33
this kind of information.
116
453699
1490
este tipo de información.
07:35
And this kind of content, especially highly emotive content,
117
455360
4109
Y este tipo de contenidos, especialmente aquellos muy emotivos,
07:39
will go much further because of the algorithms of the platforms.
118
459549
4561
llegarán mucho más lejos gracias a los algoritmos de las plataformas.
07:44
And we also know that emotions like anger, outrage, fear are
119
464189
5690
Y también sabemos que emociones como la ira, la indignación y el miedo son
07:49
much stronger emotions than things like happiness and joy.
120
469959
3340
emociones mucho más fuertes que cosas como la felicidad y la alegría.
07:53
And so that's why we see disinformation and fake news stories
121
473379
4031
Y es por eso que vemos que la desinformación y las noticias falsas
07:57
go viral compared to facts and the boring truth and the mundane truth
122
477490
6039
se vuelven virales en comparación con los hechos y la verdad aburrida y la verdad mundana
08:03
behind our factual daily news briefs.
123
483609
5261
detrás de nuestros resúmenes informativos diarios.
08:08
We of course still see our cat memes and cute animal videos going viral too
124
488949
5171
Por supuesto, todavía vemos que nuestros memes de gatos y videos de animales lindos se vuelven virales también
08:14
because joy and happiness is a strong emotion but it's not quite as strong
125
494199
5020
porque la alegría y la felicidad son emociones fuertes, pero no tan fuertes
08:19
as things like anger and fear.
126
499299
2751
como cosas como la ira y el miedo.
08:22
Now we know that many fake news stories are very emotive.
127
502129
2880
Ahora sabemos que muchas noticias falsas son muy emotivas.
08:25
They generate strong emotions; the sense that something's not fair
128
505089
4000
Generan emociones fuertes; la sensación de que algo no es justo
08:29
or people or organisations are doing things they shouldn't and that can
129
509269
3390
o que las personas u organizaciones están haciendo cosas que no deberían y eso puede
08:32
make us look for other content to support that feeling.
130
512740
2990
hacernos buscar otro contenido que respalde ese sentimiento.
08:36
Yeah but good to know the cute cat videos are being shared too.
131
516620
4430
Sí, pero es bueno saber que los videos de lindos gatos también se comparten. ¡
08:41
And dogs don't forget dogs!
132
521279
2951
Y los perros no se olvidan de los perros!
08:44
But she also talked about algorithms,
133
524899
2070
Pero también habló de algoritmos,
08:47
the algorithms that social media companies use.
134
527090
2969
los algoritmos que utilizan las empresas de redes sociales.
08:50
So Sam what is an algorithm?
135
530289
2291
Entonces Sam, ¿qué es un algoritmo?
08:53
OK, thanks for that Hugo!
136
533090
1449
Ok, gracias por eso Hugo!
08:55
I might get into trouble here from computer experts but let's have a go.
137
535190
5490
Podría tener problemas con los expertos en informática, pero intentémoslo. ¿
09:00
Have you ever lost a huge amount of time because, for example,
138
540760
4390
Alguna vez has perdido una gran cantidad de tiempo porque, por ejemplo,
09:05
you've gone on YouTube to watch a video and then you see a list of
139
545230
4180
entraste a YouTube para ver un video y luego ves una lista de
09:09
suggested related videos which start playing automatically?
140
549490
4059
videos relacionados sugeridos que comienzan a reproducirse automáticamente?
09:14
All the time, all the time. I think we've all done that.
141
554000
3009
Todo el tiempo, todo el tiempo. Creo que todos hemos hecho eso.
09:17
Absolutely. So you click on one video and then another
142
557940
2420
Absolutamente. Entonces haces clic en un video y luego en otro
09:20
and another and another and then it's been hours and hours and hours.
143
560629
4121
y en otro y en otro y luego han pasado horas y horas y horas.
09:25
Exactly. Yeah. OK. So what's this got to do with algorithms?
144
565169
3050
Exactamente. Sí. DE ACUERDO. Entonces, ¿qué tiene esto que ver con los algoritmos?
09:28
Well an algorithm is a set of instructions a computer system
145
568299
4811
Bueno, un algoritmo es un conjunto de instrucciones que sigue un sistema informático
09:33
follows to complete a particular task.
146
573190
3329
para completar una tarea particular. Las
09:36
Social media companies use algorithms to make that list of
147
576600
4130
empresas de redes sociales utilizan algoritmos para crear esa lista de
09:40
related videos just for you.
148
580810
3370
videos relacionados solo para usted.
09:44
These are personalised based on your behaviour online and
149
584260
4179
Estos se personalizan en función de su comportamiento en línea y
09:48
they get us clicking.
150
588519
1500
nos hacen hacer clic.
09:50
This is because the companies want to keep you on their platforms for
151
590100
3830
Esto se debe a que las empresas quieren mantenerte en sus plataformas
09:54
as long as possible. That's how they make their money.
152
594010
3389
el mayor tiempo posible. Así es como ganan su dinero.
09:57
The longer you're on their site the more links you click the more
153
597529
3331
Cuanto más tiempo esté en su sitio, más enlaces haga clic, más
10:00
advertisements you see and the more cash they collect.
154
600940
2889
anuncios verá y más dinero recaudarán.
10:04
And the more we click on a particular kind of story, the more
155
604720
3600
Y cuanto más hacemos clic en un tipo particular de historia, más
10:08
the algorithms give us similar content.
156
608400
2790
contenido similar nos brindan los algoritmos.
10:11
Now there's nothing necessarily wrong with that because I guess
157
611270
3540
Ahora bien, no hay nada necesariamente malo en eso porque supongo que,
10:14
after all we're getting a free service which has to be paid for somehow.
158
614890
4840
después de todo, estamos obteniendo un servicio gratuito por el que hay que pagar de alguna manera.
10:20
But it does mean that we usually don't see things that
159
620090
3150
Pero sí significa que normalmente no vemos cosas que
10:23
we don't like, that we don't agree with.
160
623320
1859
no nos gustan, con las que no estamos de acuerdo.
10:25
And this can make us feel that our view, our opinion
161
625259
3680
Y esto puede hacernos sentir que nuestro punto de vista, nuestra opinión,
10:29
is the right one which everyone shares.
162
629029
2120
es la correcta y todos la comparten.
10:31
Which is why I think it's a good idea to try and look for different opinions.
163
631460
4189
Por eso creo que es una buena idea intentar buscar opiniones diferentes.
10:35
So we don't end up thinking that everyone thinks the way we do.
164
635730
4069
Para que no acabemos pensando que todo el mundo piensa como nosotros.
10:39
So does that mean after watching all your cat videos you search for dog videos,
165
639879
4821
Entonces, ¿eso significa que después de ver todos tus vídeos de gatos buscas vídeos de perros
10:44
for a bit of balance?
166
644780
1409
para tener un poco de equilibrio?
10:46
I love cats and dogs equally actually but that's not exactly what I was thinking.
167
646429
4551
En realidad, amo a los perros y a los gatos por igual, pero eso no es exactamente lo que estaba pensando.
10:51
I'm just putting your leg there.
168
651060
979
Sólo estoy poniendo tu pierna ahí.
10:52
Sam please remind us of today's vocabulary.
169
652549
2921
Sam, por favor recuérdanos el vocabulario de hoy.
10:55
Certainly Hugo.
170
655860
600
Sin duda Hugo.
10:56
So we started with 'agenda' which is a plan of things to be done.
171
656540
3659
Entonces comenzamos con la 'agenda', que es un plan de cosas por hacer.
11:00
And it's a hidden, and if it's a hidden agenda, it means the reason
172
660679
3841
Y es una agenda oculta, y si es una agenda oculta, significa que la razón
11:04
for someone's actions might be secret or hidden.
173
664600
3779
de las acciones de alguien puede ser secreta u oculta.
11:08
Then there was the word 'actor'.
174
668480
1659
Luego estaba la palabra "actor".
11:10
In the context of fake news an actor is someone with an agenda that uses
175
670549
4680
En el contexto de las noticias falsas, un actor es alguien con una agenda que utiliza el
11:15
power and influence to try and promote that agenda.
176
675309
3761
poder y la influencia para intentar promover esa agenda.
11:20
A 'motive' is a reason for doing something.
177
680029
2770
Un "motivo" es una razón para hacer algo.
11:22
And like hidden agendas sometimes the motives for a particular action
178
682990
4419
Y al igual que las agendas ocultas, a veces los motivos de una determinada acción
11:27
on the Internet are not always clear and transparent.
179
687490
3979
en Internet no siempre son claros y transparentes.
11:31
Samantha Bradshaw talked about identity signalling.
180
691549
3641
Samantha Bradshaw habló sobre la señalización de identidad.
11:35
This is the description of behaviour online when people share things
181
695299
3691
Esta es la descripción del comportamiento en línea cuando las personas comparten cosas
11:39
without being interested in whether they're true or not.
182
699320
2889
sin interesarse si son ciertas o no.
11:42
What's important is not how true it is but that it demonstrates that
183
702289
4110
Lo importante no es qué tan cierto sea sino que demuestre que
11:46
they think in the same way or share the same beliefs as the group.
184
706480
5149
piensan de la misma manera o comparten las mismas creencias que el grupo.
11:51
And finally 'algorithm'.
185
711710
1380
Y finalmente 'algoritmo'.
11:53
An algorithm is a set of software instructions that for example can
186
713600
3990
Un algoritmo es un conjunto de instrucciones de software que, por ejemplo, pueden
11:57
produce a personalised list of recommended videos based on what
187
717670
4089
producir una lista personalizada de vídeos recomendados en función de lo que
12:01
an individual has searched for or watched in the past.
188
721840
3160
una persona ha buscado o visto en el pasado.
12:06
Thank you Sam. That was very comprehensive.
189
726250
2200
Gracias Sam. Eso fue muy completo.
12:08
That's all from us today. We look forward to your company again soon.
190
728530
3269
Eso es todo de nuestra parte hoy. Esperamos volver a contar con su compañía pronto.
12:11
Goodbye. And stay safe.
191
731879
2260
Adiós. Y mantente a salvo. ¡
12:14
Bye bye!
192
734259
500
Adiós!
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7