Dear Facebook, this is how you're breaking democracy | Yael Eisenstat

113,612 views ・ 2020-09-24

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Mariana Hernández Revisor: Sebastian Betti
Hace casi cinco años,
00:13
Around five years ago,
0
13000
2018
00:15
it struck me that I was losing the ability
1
15042
2392
me di cuenta de que estaba perdiendo la capacidad
00:17
to engage with people who aren't like-minded.
2
17458
2500
de hablar con quienes no piensan como yo.
00:20
The idea of discussing hot-button issues with my fellow Americans
3
20917
3642
Pensar en hablar sobre asuntos actuales con otros estadounidenses
00:24
was starting to give me more heartburn
4
24583
2393
me provocaba más acidez
00:27
than the times that I engaged with suspected extremists overseas.
5
27000
4125
que las veces en que conversé con supuestos extremistas extranjeros.
00:31
It was starting to leave me feeling more embittered and frustrated.
6
31750
3601
Empecé a sentirme más resentida y frustrada.
00:35
And so just like that,
7
35375
1434
Así que,
00:36
I shifted my entire focus
8
36833
1810
en vez de enfocarme
00:38
from global national security threats
9
38667
2434
en las amenazas extranjeras a la seguridad nacional,
00:41
to trying to understand what was causing this push
10
41125
3226
me concentré en entender qué estaba provocando
00:44
towards extreme polarization at home.
11
44375
3226
la polarización extrema en el país.
00:47
As a former CIA officer and diplomat
12
47625
2351
Como exdiplomática y exoficial de la CIA
00:50
who spent years working on counterextremism issues,
13
50000
3434
con años de experiencia en asuntos antiextremistas,
00:53
I started to fear that this was becoming a far greater threat to our democracy
14
53458
3851
me preocupó que esta fuera una amenaza más grande a la democracia
00:57
than any foreign adversary.
15
57333
2518
que cualquier adversario extranjero.
00:59
And so I started digging in,
16
59875
1809
Así que empecé a investigar,
01:01
and I started speaking out,
17
61708
1518
empecé a hablar,
01:03
which eventually led me to being hired at Facebook
18
63250
2809
lo que me llevó a ser contratada por Facebook
01:06
and ultimately brought me here today
19
66083
2685
y lo que me trajo aquí, hoy,
01:08
to continue warning you about how these platforms
20
68792
2809
para seguir alertándolos sobre cómo estas plataformas
01:11
are manipulating and radicalizing so many of us
21
71625
4018
manipulan y radicalizan a tantos
01:15
and to talk about how to reclaim our public square.
22
75667
2958
y para hablar sobre cómo recuperar la opinión pública.
01:19
I was a foreign service officer in Kenya
23
79625
1976
Trabajé en Kenia, en el Servicio Exterior,
01:21
just a few years after the September 11 attacks,
24
81625
3059
poco después de los ataques del 11 de septiembre
01:24
and I led what some call "hearts and minds" campaigns
25
84708
2560
y dirigí las campañas para ganar corazones y mentes
01:27
along the Somalia border.
26
87292
1934
a lo largo de la frontera con Somalia.
01:29
A big part of my job was to build trust with communities
27
89250
3309
Mi trabajo era construir lazos de confianza con las comunidades
01:32
deemed the most susceptible to extremist messaging.
28
92583
2709
consideradas más susceptibles a los mensajes extremistas.
01:36
I spent hours drinking tea with outspoken anti-Western clerics
29
96125
4184
Pasé horas tomando té con clérigos abiertamente antioccidentales
01:40
and even dialogued with some suspected terrorists,
30
100333
3226
incluso dialogué con algunos supuestos terroristas,
01:43
and while many of these engagements began with mutual suspicion,
31
103583
3393
y aunque en muchos de los encuentros había desconfianza,
no recuerdo que alguno terminara con gritos e insultos,
01:47
I don't recall any of them resulting in shouting or insults,
32
107000
3809
01:50
and in some case we even worked together on areas of mutual interest.
33
110833
4084
en algunos casos hasta trabajamos en áreas que eran de interés mutuo.
01:56
The most powerful tools we had were to simply listen, learn
34
116000
4143
Las mejores herramientas eran escuchar, aprender
02:00
and build empathy.
35
120167
1726
y desarrollar empatía.
02:01
This is the essence of hearts and minds work,
36
121917
3059
Esa es la esencia para ganar corazones y mentes,
porque una y otra vez
02:05
because what I found again and again is that what most people wanted
37
125000
3268
vi que la mayoría quiere sentir que se les escucha, valida y respeta.
02:08
was to feel heard, validated and respected.
38
128292
3767
02:12
And I believe that's what most of us want.
39
132083
2643
Creo que es lo que la mayoría queremos.
02:14
So what I see happening online today is especially heartbreaking
40
134750
3309
Lo que está pasando en línea es particularmente doloroso
02:18
and a much harder problem to tackle.
41
138083
2084
y más difícil de abordar.
02:20
We are being manipulated by the current information ecosystem
42
140917
3767
Nos está manipulando el ecosistema de información actual,
02:24
entrenching so many of us so far into absolutism
43
144708
3768
nos está orillando al absolutismo
02:28
that compromise has become a dirty word.
44
148500
2976
de manera que no nos es posible alcanzar acuerdos.
02:31
Because right now,
45
151500
1309
Actualmente,
02:32
social media companies like Facebook
46
152833
2143
las empresas como Facebook
ganan dinero al segmentarnos y mostrarnos contenido personalizado
02:35
profit off of segmenting us and feeding us personalized content
47
155000
3851
02:38
that both validates and exploits our biases.
48
158875
3851
que valida y explota nuestras preferencias.
02:42
Their bottom line depends on provoking a strong emotion
49
162750
3434
Sus resultados dependen de provocar una fuerte respuesta emocional
02:46
to keep us engaged,
50
166208
1685
que mantenga nuestra atención,
02:47
often incentivizing the most inflammatory and polarizing voices,
51
167917
4267
lo que incita a las voces más provocadoras y polarizadoras,
hasta que no es posible encontrar llegar a un acuerdo.
02:52
to the point where finding common ground no longer feels possible.
52
172208
4435
02:56
And despite a growing chorus of people crying out for the platforms to change,
53
176667
4226
Aunque cada vez más personas exigen cambios a las plataformas,
03:00
it's clear they will not do enough on their own.
54
180917
3309
está claro que, por sí solas, no harán lo suficiente.
03:04
So governments must define the responsibility
55
184250
2893
Es por eso que los gobiernos deben definir responsabilidades
03:07
for the real-world harms being caused by these business models
56
187167
3809
por los daños que este modelo de negocios provoca en el mundo
03:11
and impose real costs on the damaging effects
57
191000
2768
e imponer sanciones reales por los efectos dañinos
03:13
they're having to our public health, our public square and our democracy.
58
193792
5309
sobre la salud, la opinión pública y la democracia.
03:19
But unfortunately, this won't happen in time for the US presidential election,
59
199125
4643
Por desgracia, no pasará antes de las elecciones de EE. UU.,
03:23
so I am continuing to raise this alarm,
60
203792
2767
así que seguiré dando la alarma,
03:26
because even if one day we do have strong rules in place,
61
206583
3060
porque incluso si algún día tuviéramos reglas firmes,
03:29
it will take all of us to fix this.
62
209667
2750
será trabajo de todos arreglarlo.
03:33
When I started shifting my focus from threats abroad
63
213417
2601
Cuando decidí dejar las amenazas extranjeras
03:36
to the breakdown in civil discourse at home,
64
216042
2142
y estudiar el colapso del diálogo en el país,
03:38
I wondered if we could repurpose some of these hearts and minds campaigns
65
218208
4060
pensé en reutilizar las campañas para ganar corazones y mentes
03:42
to help heal our divides.
66
222292
2101
a fin de reparar las divisiones.
03:44
Our more than 200-year experiment with democracy works
67
224417
3809
Nuestro experimento de más de 200 años con la democracia
funciona en gran parte porque podemos debatir con pasión y apertura
03:48
in large part because we are able to openly and passionately
68
228250
3893
03:52
debate our ideas for the best solutions.
69
232167
2809
a fin de encontrar las mejores soluciones.
03:55
But while I still deeply believe
70
235000
1809
Aunque sigo creyendo
03:56
in the power of face-to-face civil discourse,
71
236833
2268
en conversar de forma civilizada y de frente,
03:59
it just cannot compete
72
239125
1643
sé que no se puede competir
04:00
with the polarizing effects and scale of social media right now.
73
240792
3809
con la magnitud y los efectos polarizadores de las redes sociales.
04:04
The people who are sucked down these rabbit holes
74
244625
2351
Es más difícil que quienes caen en la trampa
04:07
of social media outrage
75
247000
1309
de enojarse en las redes
04:08
often feel far harder to break of their ideological mindsets
76
248333
3643
se liberen de su ideología
04:12
than those vulnerable communities I worked with ever were.
77
252000
3476
que las comunidades vulnerables con las que trabajé.
04:15
So when Facebook called me in 2018
78
255500
2309
Así que cuando Facebook me llamó en 2018
04:17
and offered me this role
79
257833
1310
y me hablaron sobre dirigir
04:19
heading its elections integrity operations for political advertising,
80
259167
3976
las campañas políticas publicitarias para garantizar la integridad electoral,
04:23
I felt I had to say yes.
81
263167
2017
acepté la oferta.
04:25
I had no illusions that I would fix it all,
82
265208
2726
Sabía que no arreglaría todo,
04:27
but when offered the opportunity
83
267958
1643
pero cuando me ofrecieron
04:29
to help steer the ship in a better direction,
84
269625
2184
guiar el barco en una mejor dirección,
04:31
I had to at least try.
85
271833
1542
tenía que intentarlo.
04:34
I didn't work directly on polarization,
86
274667
2267
No trabajé directamente con la polarización,
04:36
but I did look at which issues were the most divisive in our society
87
276958
4435
pero sí investigué qué asuntos eran los más divisivos para la sociedad
04:41
and therefore the most exploitable in elections interference efforts,
88
281417
3809
y, por lo tanto, los que podían usarse para interferir en las elecciones,
04:45
which was Russia's tactic ahead of 2016.
89
285250
2583
lo que hizo Rusia frente a 2016.
04:48
So I started by asking questions.
90
288583
2351
Empecé haciendo preguntas.
04:50
I wanted to understand the underlying systemic issues
91
290958
2893
Quería entender los problemas sistémicos subyacentes
04:53
that were allowing all of this to happen,
92
293875
2434
que daban pie a esta situación,
04:56
in order to figure out how to fix it.
93
296333
2084
para encontrar la solución.
04:59
Now I still do believe in the power of the internet
94
299625
2559
Sigo creyendo en el poder de Internet
05:02
to bring more voices to the table,
95
302208
2518
para dar voz a más personas,
05:04
but despite their stated goal of building community,
96
304750
3101
pero aunque el objetivo de las redes es construir una comunidad,
05:07
the largest social media companies as currently constructed
97
307875
3309
el diseño actual de las empresas que las poseen
05:11
are antithetical to the concept of reasoned discourse.
98
311208
3601
se opone al concepto del discurso razonado.
05:14
There's no way to reward listening,
99
314833
2518
No es posible recompensar a quienes escuchan,
05:17
to encourage civil debate
100
317375
1601
ni fomentar el debate civilizado,
05:19
and to protect people who sincerely want to ask questions
101
319000
3643
ni proteger a quienes quieren hacer preguntas
05:22
in a business where optimizing engagement and user growth
102
322667
3351
en un negocio donde la participación y el número de usuarios
05:26
are the two most important metrics for success.
103
326042
3226
son las métricas más importantes de éxito.
05:29
There's no incentive to help people slow down,
104
329292
3434
No hay un incentivo que detenga a la gente,
05:32
to build in enough friction that people have to stop,
105
332750
3226
que los haga hacer una pausa,
05:36
recognize their emotional reaction to something,
106
336000
2601
reconocer su respuesta emocional ante algo
05:38
and question their own assumptions before engaging.
107
338625
2667
y cuestionar sus propias ideas antes de participar.
05:42
The unfortunate reality is:
108
342625
1976
La triste realidad es que, en línea,
05:44
lies are more engaging online than truth,
109
344625
2893
las mentiras son más cautivadoras que la verdad,
05:47
and salaciousness beats out wonky, fact-based reasoning
110
347542
3726
la salacidad le gana al razonamiento basado en hechos y especializado
05:51
in a world optimized for frictionless virality.
111
351292
3041
en un mundo optimizado para viralizar contenido con facilidad.
05:55
As long as algorithms' goals are to keep us engaged,
112
355167
3434
Mientras los objetivos de los algoritmos sean mantenernos cautivos,
05:58
they will continue to feed us the poison that plays to our worst instincts
113
358625
4059
seguirán mostrándonos contenido que alimenta nuestros peores instintos
06:02
and human weaknesses.
114
362708
1459
y debilidades humanas.
06:04
And yes, anger, mistrust,
115
364958
3018
Es cierto que el enojo, la desconfianza,
06:08
the culture of fear, hatred:
116
368000
1726
la cultura del miedo y el odio
06:09
none of this is new in America.
117
369750
2851
son viejos conocidos de EE. UU.,
06:12
But in recent years, social media has harnessed all of that
118
372625
3351
pero en años recientes, la redes se han aprovechado de ellos
06:16
and, as I see it, dramatically tipped the scales.
119
376000
3601
y, en mi opinión, inclinaron la balanza drásticamente.
06:19
And Facebook knows it.
120
379625
2393
Facebook lo sabe.
06:22
A recent "Wall Street Journal" article
121
382042
1892
En un artículo del Wall Street Journal
06:23
exposed an internal Facebook presentation from 2018
122
383958
4143
se dio a conocer una de sus presentaciones internas de 2018
06:28
that specifically points to the companies' own algorithms
123
388125
3768
en la que se indica que gracias a los propios algoritmos de la empresa,
06:31
for growing extremist groups' presence on their platform
124
391917
3517
la presencia de grupos extremistas en la plataforma
06:35
and for polarizing their users.
125
395458
2167
y la polarización de los usuarios aumentó.
06:38
But keeping us engaged is how they make their money.
126
398708
3685
Pero así es como ganan dinero, al hacernos participar.
06:42
The modern information environment is crystallized around profiling us
127
402417
4226
El ambiente actual de la información se centra en trazar nuestros perfiles
06:46
and then segmenting us into more and more narrow categories
128
406667
2976
y segmentarlos en categorías cada vez más específicas
06:49
to perfect this personalization process.
129
409667
3309
para perfeccionar el proceso de personalización.
06:53
We're then bombarded with information confirming our views,
130
413000
3809
Después nos bombardean con información que confirma nuestras opiniones,
06:56
reinforcing our biases,
131
416833
1851
refuerza nuestros prejuicios
06:58
and making us feel like we belong to something.
132
418708
3518
y nos hace sentir que somos parte de algo.
07:02
These are the same tactics we would see terrorist recruiters
133
422250
3393
Son las mismas tácticas empleadas por los reclutadores terroristas
07:05
using on vulnerable youth,
134
425667
2184
con jóvenes vulnerables
07:07
albeit in smaller, more localized ways before social media,
135
427875
3851
antes de que hubiera redes sociales, pero en menor escala y de forma localizada
07:11
with the ultimate goal of persuading their behavior.
136
431750
3268
con el objetivo de persuadirlos.
07:15
Unfortunately, I was never empowered by Facebook to have an actual impact.
137
435042
5267
Por desgracia, Facebook nunca me permitió hacer la diferencia.
De hecho, en mi segundo día, el nombre de mi cargo y mis funciones cambiaron
07:20
In fact, on my second day, my title and job description were changed
138
440333
3768
y me retiraron de las juntas donde se tomaban las decisiones.
07:24
and I was cut out of decision-making meetings.
139
444125
2976
07:27
My biggest efforts,
140
447125
1309
Mis esfuerzos
07:28
trying to build plans
141
448458
1393
por crear planes
07:29
to combat disinformation and voter suppression in political ads,
142
449875
3601
que combatieran la desinformación y la supresión de votantes
07:33
were rejected.
143
453500
1559
fueron rechazados.
07:35
And so I lasted just shy of six months.
144
455083
2500
Apenas estuve seis meses ahí.
07:38
But here is my biggest takeaway from my time there.
145
458125
3601
Pero esto es lo que aprendí:
07:41
There are thousands of people at Facebook
146
461750
2476
hay miles de personas en Facebook
07:44
who are passionately working on a product
147
464250
2018
que trabajan con pasión en un producto
07:46
that they truly believe makes the world a better place,
148
466292
3684
que creen hará del mundo un lugar mejor,
pero si la empresa sigue haciendo cambios superficiales
07:50
but as long as the company continues to merely tinker around the margins
149
470000
3684
07:53
of content policy and moderation,
150
473708
2726
a las políticas de contenido y moderación,
07:56
as opposed to considering
151
476458
1310
en vez de considerar
07:57
how the entire machine is designed and monetized,
152
477792
3226
su diseño general y cómo gana dinero
08:01
they will never truly address how the platform is contributing
153
481042
3351
nunca abordarán cómo es que la plataforma contribuye
08:04
to hatred, division and radicalization.
154
484417
4184
al odio, la división y la radicalización.
08:08
And that's the one conversation I never heard happen during my time there,
155
488625
4268
Esa es la única conversación que nunca se dio mientras estuve ahí,
08:12
because that would require fundamentally accepting
156
492917
3059
porque básicamente tendrían que aceptar
08:16
that the thing you built might not be the best thing for society
157
496000
4143
que lo que construyeron no es lo mejor para la sociedad
08:20
and agreeing to alter the entire product and profit model.
158
500167
3125
y que hay que cambiar todo el producto y el modelo de ganancias.
08:24
So what can we do about this?
159
504500
1833
Así que, ¿qué podemos hacer?
08:27
I'm not saying that social media bears the sole responsibility
160
507042
3601
No estoy diciendo que las redes sean las únicas responsables
08:30
for the state that we're in today.
161
510667
2142
de nuestro estado actual.
08:32
Clearly, we have deep-seated societal issues that we need to solve.
162
512833
5435
Está claro que tenemos problemas sociales arraigados que debemos resolver,
pero la respuesta de Facebook, que solo son un espejo de la sociedad,
08:38
But Facebook's response, that it is just a mirror to society,
163
518292
4142
08:42
is a convenient attempt to deflect any responsibility
164
522458
3018
es un intento conveniente de evadir la responsabilidad
08:45
from the way their platform is amplifying harmful content
165
525500
4268
que tiene su plataforma por amplificar el contenido dañino
08:49
and pushing some users towards extreme views.
166
529792
3041
y llevar a algunos usuarios a los extremos.
08:53
And Facebook could, if they wanted to,
167
533583
2851
Si Facebook quisiera
08:56
fix some of this.
168
536458
1851
podría arreglar algunas cosas.
08:58
They could stop amplifying and recommending the conspiracy theorists,
169
538333
3851
Podrían dejar de amplificar y recomendar a los conspiranoicos,
09:02
the hate groups, the purveyors of disinformation
170
542208
2685
los grupos de odio, los que promueven la desinformación
09:04
and, yes, in some cases even our president.
171
544917
3851
y, en algunos casos, hasta al presidente.
09:08
They could stop using the same personalization techniques
172
548792
3392
Podrían dejar de usar las mismas técnicas de personalización
09:12
to deliver political rhetoric that they use to sell us sneakers.
173
552208
4226
para presentarnos retórica política y vendernos zapatillas.
09:16
They could retrain their algorithms
174
556458
1726
Podrían reentrenar a sus algoritmos
09:18
to focus on a metric other than engagement,
175
558208
2185
para que no midan la participación,
09:20
and they could build in guardrails to stop certain content from going viral
176
560417
4309
podrían crear políticas y prácticas que impidan que el contenido se viralice
09:24
before being reviewed.
177
564750
1667
sin antes revisarlo.
09:26
And they could do all of this
178
566875
2268
Y lo podrían hacer
09:29
without becoming what they call the arbiters of truth.
179
569167
4184
sin volverse jueces de la verdad.
Sin embargo, ya dejaron en claro
09:33
But they've made it clear that they will not go far enough
180
573375
2809
que no harán lo correcto a menos que los obliguen
09:36
to do the right thing without being forced to,
181
576208
2810
y, para ser honestos, ¿por qué lo harían?
09:39
and, to be frank, why should they?
182
579042
2934
09:42
The markets keep rewarding them, and they're not breaking the law.
183
582000
3934
Los mercados siguen premiándolos y no violan las leyes.
09:45
Because as it stands,
184
585958
1310
Porque resulta
09:47
there are no US laws compelling Facebook, or any social media company,
185
587292
4892
que no hay leyes en EE. UU. que obliguen a Facebook o a cualquier otra red social
09:52
to protect our public square,
186
592208
1768
a proteger la opinión pública,
09:54
our democracy
187
594000
1309
la democracia
09:55
and even our elections.
188
595333
2435
y las elecciones.
09:57
We have ceded the decision-making on what rules to write and what to enforce
189
597792
4101
Permitimos que los directores de las empresas lucrativas de Internet
10:01
to the CEOs of for-profit internet companies.
190
601917
3083
decidieran qué reglas redactar y cuáles hacer cumplir.
10:05
Is this what we want?
191
605750
2018
¿Es lo que queremos?
10:07
A post-truth world where toxicity and tribalism
192
607792
3226
¿Un mundo regido por la posverdad donde la toxicidad y el tribalismo
10:11
trump bridge-building and consensus-seeking?
193
611042
2625
no nos permitan construir lazos y buscar consensos?
10:14
I do remain optimistic that we still have more in common with each other
194
614667
4101
Quiero ser optimista y pensar que tenemos más en común
10:18
than the current media and online environment portray,
195
618792
3642
de lo que los medios y el ambiente en línea actual muestran.
10:22
and I do believe that having more perspective surface
196
622458
3101
Pienso que se necesita una perspectiva más amplia
10:25
makes for a more robust and inclusive democracy.
197
625583
3601
para hacer a la democracia más sólida e incluyente,
pero no en la forma como se está dando.
10:29
But not the way it's happening right now.
198
629208
2810
10:32
And it bears emphasizing, I do not want to kill off these companies.
199
632042
4226
Quiero enfatizar que no busco que estas empresas desaparezcan.
10:36
I just want them held to a certain level of accountability,
200
636292
3226
Quiero que tengan cierto grado de responsabilidad,
10:39
just like the rest of society.
201
639542
1916
como el resto de la sociedad.
10:42
It is time for our governments to step up and do their jobs
202
642542
4351
Es hora de que los gobiernos den un paso adelante, hagan su trabajo
10:46
of protecting our citizenry.
203
646917
1642
y protejan a la ciudadanía.
10:48
And while there isn't one magical piece of legislation
204
648583
3060
Y aunque no haya una ley mágica
10:51
that will fix this all,
205
651667
1476
que lo solucione todo,
10:53
I do believe that governments can and must find the balance
206
653167
4684
pienso que los gobiernos pueden y deben encontrar el balance
10:57
between protecting free speech
207
657875
2143
entre proteger la libertad de expresión
11:00
and holding these platforms accountable for their effects on society.
208
660042
4309
y responsabilizar a las empresas por los efectos que producen en la sociedad.
11:04
And they could do so in part by insisting on actual transparency
209
664375
4309
Podrían hacerlo si exigieran transparencia
11:08
around how these recommendation engines are working,
210
668708
3143
en el funcionamiento de los motores de recomendación,
11:11
around how the curation, amplification and targeting are happening.
211
671875
4643
la selección, la amplificación y la focalización de contenidos.
11:16
You see, I want these companies held accountable
212
676542
2434
Quiero que las empresas se hagan responsables
11:19
not for if an individual posts misinformation
213
679000
3101
no por alguien que publica información errónea
11:22
or extreme rhetoric,
214
682125
1476
o retórica extremista,
11:23
but for how their recommendation engines spread it,
215
683625
3851
sino por cómo sus motores de recomendación difunden esa información,
11:27
how their algorithms are steering people towards it,
216
687500
3226
por cómo sus algoritmos guían a las personas a encontrarla
11:30
and how their tools are used to target people with it.
217
690750
3292
y por cómo se utilizan sus herramientas para atacar a otros.
11:35
I tried to make change from within Facebook and failed,
218
695417
3684
Intenté hacer cambios desde el interior de Facebook y fallé,
por eso he usado mi voz en los últimos años
11:39
and so I've been using my voice again for the past few years
219
699125
3143
11:42
to continue sounding this alarm
220
702292
2226
para dar la alarma
11:44
and hopefully inspire more people to demand this accountability.
221
704542
4392
e inspirar a más personas
a que exijan a las empresas rendir cuentas.
11:48
My message to you is simple:
222
708958
2643
Mi mensaje es simple:
11:51
pressure your government representatives
223
711625
2184
Exijan a sus gobernantes
11:53
to step up and stop ceding our public square to for-profit interests.
224
713833
5435
que den un paso adelante y ya no cedan la opinión pública a intereses lucrativos.
11:59
Help educate your friends and family
225
719292
1851
Eduquen a sus amigos y familiares
12:01
about how they're being manipulated online.
226
721167
3142
sobre la manipulación en redes.
12:04
Push yourselves to engage with people who aren't like-minded.
227
724333
3518
Convivan con personas que no piensan como Uds.
12:07
Make this issue a priority.
228
727875
2643
Den prioridad a este tema.
12:10
We need a whole-society approach to fix this.
229
730542
3416
Necesitamos abordarlo como sociedad para solucionarlo.
12:15
And my message to the leaders of my former employer Facebook is this:
230
735250
5559
Mi mensaje para los líderes de Facebook, mi antigua empresa, es:
en este momento, sus herramientas se usan tal y como fueron diseñadas,
12:20
right now, people are using your tools exactly as they were designed
231
740833
5810
12:26
to sow hatred, division and distrust,
232
746667
2601
y se usan para plantar odio, división y desconfianza,
12:29
and you're not just allowing it, you are enabling it.
233
749292
4142
Uds. no solo lo permiten, lo hacen posible.
12:33
And yes, there are lots of great stories
234
753458
2476
Y sí, en su plataforma hay muchas historias
12:35
of positive things happening on your platform around the globe,
235
755958
3685
de cosas buenas que pasan en el mundo,
12:39
but that doesn't make any of this OK.
236
759667
3226
pero eso no justifica lo demás.
12:42
And it's only getting worse as we're heading into our election,
237
762917
2976
Entre más nos acercamos a la elección, la situación empeora
12:45
and even more concerning,
238
765917
1767
y es más preocupante,
12:47
face our biggest potential crisis yet,
239
767708
2476
nos enfrentamos a la que podría ser la peor crisis
12:50
if the results aren't trusted, and if violence breaks out.
240
770208
4143
si la gente no confía en los resultados y estalla la violencia.
12:54
So when in 2021 you once again say, "We know we have to do better,"
241
774375
5018
Así que, en 2021, cuando declaren otra vez "sabemos que tenemos que mejorar",
12:59
I want you to remember this moment,
242
779417
2684
quiero que recuerden este momento,
13:02
because it's no longer just a few outlier voices.
243
782125
3226
porque ya no son solo algunas voces.
13:05
Civil rights leaders, academics,
244
785375
2268
Hay activistas de derechos civiles, académicos,
13:07
journalists, advertisers, your own employees,
245
787667
2976
periodistas, anunciantes, sus propios empleados
13:10
are shouting from the rooftops
246
790667
2059
que gritan a los cuatro vientos
13:12
that your policies and your business practices
247
792750
2601
que sus políticas y prácticas comerciales
13:15
are harming people and democracy.
248
795375
2417
dañan a la gente y a la democracia.
13:18
You own your decisions,
249
798875
2351
Admiten lo que hacen,
13:21
but you can no longer say that you couldn't have seen it coming.
250
801250
3667
pero ya no pueden decir que no pueden evitarlo.
13:26
Thank you.
251
806167
1250
Gracias.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7