How you can help transform the internet into a place of trust | Claire Wardle

53,461 views ・ 2019-11-15

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Ciro Gomez Revisor: Lidia Cámara de la Fuente
00:13
No matter who you are or where you live,
0
13548
2516
No importa quiénes son o dónde viven,
00:16
I'm guessing that you have at least one relative
1
16088
2356
supongo que tienen al menos un pariente
00:18
that likes to forward those emails.
2
18468
2334
al que le gusta reenviar esos correos electrónicos.
00:21
You know the ones I'm talking about --
3
21206
1900
Ya saben de los que estoy hablando...
00:23
the ones with dubious claims or conspiracy videos.
4
23130
2854
los que tienen reclamos dudosos o videos de conspiración.
00:26
And you've probably already muted them on Facebook
5
26315
2668
Y probablemente ya los han silenciado en Facebook
00:29
for sharing social posts like this one.
6
29007
2348
por compartir publicaciones sociales como esta.
00:31
It's an image of a banana
7
31379
1404
Es una imagen de un plátano
00:32
with a strange red cross running through the center.
8
32807
2667
con una extraña cruz roja corriendo por el centro.
00:35
And the text around it is warning people
9
35498
2139
Y el texto a su alrededor advierte a las personas
00:37
not to eat fruits that look like this,
10
37661
2158
de no comer frutas que se vean así,
00:39
suggesting they've been injected with blood
11
39843
2028
sugiriendo que han sido inyectadas con sangre
00:41
contaminated with the HIV virus.
12
41895
2130
contaminada con el virus del VIH.
00:44
And the social share message above it simply says,
13
44049
2603
Y el mensaje social compartido arriba simplemente dice:
00:46
"Please forward to save lives."
14
46676
2181
"Por favor, reenvíe para salvar vidas".
00:49
Now, fact-checkers have been debunking this one for years,
15
49672
3294
Los verificadores de hechos han desacreditado esto durante años,
00:52
but it's one of those rumors that just won't die.
16
52990
2809
pero es uno de esos rumores que simplemente no morirán.
00:55
A zombie rumor.
17
55823
1271
Un rumor zombie.
00:57
And, of course, it's entirely false.
18
57513
2093
Y, por supuesto, es completamente falso.
01:00
It might be tempting to laugh at an example like this, to say,
19
60180
2959
Puede ser tentador reírse de un ejemplo como este, decir:
01:03
"Well, who would believe this, anyway?"
20
63163
1884
"Bueno, ¿quién creería esto, de todos modos?".
01:05
But the reason it's a zombie rumor
21
65419
1626
Pero es un rumor zombie
porque aprovecha los temores más profundos de las personas sobre su propia seguridad
01:07
is because it taps into people's deepest fears about their own safety
22
67069
3889
01:10
and that of the people they love.
23
70982
2175
y la de las personas que aman.
01:13
And if you spend as enough time as I have looking at misinformation,
24
73783
3273
Y si pasan tanto tiempo como yo mirando información engañosa,
saben que este es solo un ejemplo de muchos que se aprovechan
01:17
you know that this is just one example of many
25
77080
2420
01:19
that taps into people's deepest fears and vulnerabilities.
26
79524
3047
de los temores y vulnerabilidades más profundos de las personas.
01:23
Every day, across the world, we see scores of new memes on Instagram
27
83214
4369
Todos los días, en todo el mundo, vemos decenas de nuevos memes en Instagram
01:27
encouraging parents not to vaccinate their children.
28
87607
3039
alentando a los padres a no vacunar a sus hijos.
01:30
We see new videos on YouTube explaining that climate change is a hoax.
29
90670
4532
Vemos nuevos videos en YouTube que dicen que el cambio climático es un engaño.
01:35
And across all platforms, we see endless posts designed to demonize others
30
95226
4302
Y en todas las plataformas,
vemos un sinfín de publicaciones diseñadas para demonizar a los demás.
01:39
on the basis of their race, religion or sexuality.
31
99552
3501
sobre la base de su raza, religión o sexualidad.
01:44
Welcome to one of the central challenges of our time.
32
104314
3030
Bienvenidos a uno de los desafíos centrales de nuestro tiempo.
01:47
How can we maintain an internet with freedom of expression at the core,
33
107647
4025
¿Cómo mantener un Internet con libertad de expresión en el núcleo,
01:51
while also ensuring that the content that's being disseminated
34
111696
3303
a la vez de asegurar de que el contenido que se difunde
01:55
doesn't cause irreparable harms to our democracies, our communities
35
115023
3886
no causa daños irreparables a nuestras democracias, nuestras comunidades
01:58
and to our physical and mental well-being?
36
118933
2238
y a nuestro bienestar físico y mental?
02:01
Because we live in the information age,
37
121998
2087
Porque vivimos en la era de la información,
02:04
yet the central currency upon which we all depend -- information --
38
124109
3547
todavía la moneda central de la que todos dependemos, información,
02:07
is no longer deemed entirely trustworthy
39
127680
2357
ya no se considera totalmente confiable
02:10
and, at times, can appear downright dangerous.
40
130061
2328
y, a veces, puede parecer francamente peligrosa.
02:12
This is thanks in part to the runaway growth of social sharing platforms
41
132811
3937
Esto se debe en parte
al crecimiento desbocado de las plataformas de intercambio social.
02:16
that allow us to scroll through,
42
136772
1642
que nos permiten ir allá
02:18
where lies and facts sit side by side,
43
138438
2222
donde mentiras y hechos se sientan juntos,
02:20
but with none of the traditional signals of trustworthiness.
44
140684
3071
pero sin ninguna de las señales tradicionales de confiabilidad.
02:24
And goodness -- our language around this is horribly muddled.
45
144268
3619
Y Dios, nuestro lenguaje en torno a esto está terriblemente confuso.
02:27
People are still obsessed with the phrase "fake news,"
46
147911
3103
La gente todavía está obsesionada con la frase "noticias falsas"
02:31
despite the fact that it's extraordinarily unhelpful
47
151038
2531
a pesar del hecho de que es extraordinariamente inútil
02:33
and used to describe a number of things that are actually very different:
48
153593
3460
y solía describir una serie de cosas que en realidad son muy diferentes:
02:37
lies, rumors, hoaxes, conspiracies, propaganda.
49
157077
3386
mentiras, rumores, engaños, conspiraciones, propaganda.
02:40
And I really wish we could stop using a phrase
50
160911
2912
Realmente quiero que podamos dejar de usar una frase
02:43
that's been co-opted by politicians right around the world,
51
163847
2862
que ha sido cooptada por políticos de todo el mundo,
02:46
from the left and the right,
52
166733
1471
de izquierda a derecha
02:48
used as a weapon to attack a free and independent press.
53
168228
3222
utilizada como arma para atacar a una prensa libre e independiente.
02:52
(Applause)
54
172307
4702
(Aplausos)
02:57
Because we need our professional news media now more than ever.
55
177033
3462
Porque necesitamos nuestros medios profesionales ahora más que nunca.
03:00
And besides, most of this content doesn't even masquerade as news.
56
180882
3373
Además, la mayor parte de este contenido ni siquiera se disfraza de noticia.
03:04
It's memes, videos, social posts.
57
184279
2642
Son memes, videos, publicaciones sociales.
03:06
And most of it is not fake; it's misleading.
58
186945
3453
Y la mayor parte no es falsa; es engañosa.
03:10
We tend to fixate on what's true or false.
59
190422
3015
Tendemos a fijarnos en lo que es verdadero o falso.
03:13
But the biggest concern is actually the weaponization of context.
60
193461
4032
Pero la mayor preocupación es en realidad la armamentización del contexto.
03:18
Because the most effective disinformation
61
198855
1968
Porque la desinformación más efectiva
03:20
has always been that which has a kernel of truth to it.
62
200847
3048
siempre ha sido la que tiene un núcleo de verdad.
03:23
Let's take this example from London, from March 2017,
63
203919
3476
Tomemos este ejemplo de Londres, de marzo de 2017,
03:27
a tweet that circulated widely
64
207419
1540
un tuit que circuló ampliamente
03:28
in the aftermath of a terrorist incident on Westminster Bridge.
65
208983
3587
tras un incidente terrorista en el puente de Westminster.
03:32
This is a genuine image, not fake.
66
212594
2428
Esta es una imagen genuina, no falsa.
03:35
The woman who appears in the photograph was interviewed afterwards,
67
215046
3169
La mujer que aparece en la fotografía fue entrevistada después,
03:38
and she explained that she was utterly traumatized.
68
218239
2409
y explicó que estaba completamente traumatizada.
03:40
She was on the phone to a loved one,
69
220672
1738
Hablaba por teléfono con un ser querido,
03:42
and she wasn't looking at the victim out of respect.
70
222434
2618
y no miraba a la víctima por respeto.
03:45
But it still was circulated widely with this Islamophobic framing,
71
225076
3960
Pero aún circulaba ampliamente con este marco islamofóbico,
03:49
with multiple hashtags, including: #BanIslam.
72
229060
3046
con múltiples etiquetas, que incluyen: #BanIslam
03:52
Now, if you worked at Twitter, what would you do?
73
232425
2398
Ahora, si trabajaran en Twitter, ¿qué harían?
03:54
Would you take that down, or would you leave it up?
74
234847
2562
¿Lo quitarían o lo dejarían?
03:58
My gut reaction, my emotional reaction, is to take this down.
75
238553
3429
Mi reacción intestinal, mi reacción emocional, es bajar esto.
04:02
I hate the framing of this image.
76
242006
2142
Odio el encuadre de esta imagen.
04:04
But freedom of expression is a human right,
77
244585
2388
Pero la libertad de expresión es un derecho humano,
04:06
and if we start taking down speech that makes us feel uncomfortable,
78
246997
3225
y si comenzamos a hablar mal de lo que nos hace sentir incómodos,
04:10
we're in trouble.
79
250246
1230
tenemos un problema.
04:11
And this might look like a clear-cut case,
80
251500
2294
Y esto podría parecer un caso claro,
04:13
but, actually, most speech isn't.
81
253818
1698
pero, en realidad, la mayoría no lo son.
04:15
These lines are incredibly difficult to draw.
82
255540
2436
Estas líneas son increíblemente difíciles de trazar.
04:18
What's a well-meaning decision by one person
83
258000
2281
Lo qué es una decisión bien intencionada para uno
04:20
is outright censorship to the next.
84
260305
2077
es una censura absoluta para la siguiente.
04:22
What we now know is that this account, Texas Lone Star,
85
262759
2929
Lo que ahora sabemos es que esta cuenta, Texas Lone Star,
04:25
was part of a wider Russian disinformation campaign,
86
265712
3230
fue parte de una campaña de desinformación rusa más amplia,
04:28
one that has since been taken down.
87
268966
2151
una que desde entonces ha sido eliminada.
04:31
Would that change your view?
88
271141
1563
¿Eso cambiaría su punto de vista?
04:33
It would mine,
89
273322
1159
Cambiaría el mío,
04:34
because now it's a case of a coordinated campaign
90
274505
2301
porque ahora se trata de una campaña coordinada
04:36
to sow discord.
91
276830
1215
para sembrar discordia.
04:38
And for those of you who'd like to think
92
278069
1961
Y para quienes les gustaría pensar
04:40
that artificial intelligence will solve all of our problems,
93
280054
2831
que la IA resolverá todos nuestros problemas,
04:42
I think we can agree that we're a long way away
94
282909
2225
creo que estaremos de acuerdo que estamos muy lejos
04:45
from AI that's able to make sense of posts like this.
95
285158
2587
de que la IA pueda dar sentido a publicaciones como esta.
04:48
So I'd like to explain three interlocking issues
96
288856
2507
Así que me gustaría explicar tres problemas entrelazados
04:51
that make this so complex
97
291387
2373
que hacen que esto sea tan complejo
04:53
and then think about some ways we can consider these challenges.
98
293784
3122
y que luego piensen en formas para abordar estos desafíos.
04:57
First, we just don't have a rational relationship to information,
99
297348
3890
Primero, simplemente no tenemos una relación racional con la información,
05:01
we have an emotional one.
100
301262
1468
Tenemos una emocional.
05:02
It's just not true that more facts will make everything OK,
101
302754
3794
Simplemente, no es cierto que más hechos harán que todo esté bien,
05:06
because the algorithms that determine what content we see,
102
306572
3100
porque los algoritmos que determinan qué contenido vemos
05:09
well, they're designed to reward our emotional responses.
103
309696
3127
están diseñados para recompensar nuestras respuestas emocionales.
05:12
And when we're fearful,
104
312847
1381
Y cuando tenemos miedo,
05:14
oversimplified narratives, conspiratorial explanations
105
314252
3174
narraciones demasiado simplificadas, explicaciones conspirativas
05:17
and language that demonizes others is far more effective.
106
317450
3418
y el lenguaje que demoniza a los demás es mucho más efectivo.
05:21
And besides, many of these companies,
107
321538
1874
Y además, muchas de estas empresas,
05:23
their business model is attached to attention,
108
323436
2546
su modelo de negocio está unido a la atención,
05:26
which means these algorithms will always be skewed towards emotion.
109
326006
3690
lo que significa que estos algoritmos estarán sesgados hacia la emoción.
05:30
Second, most of the speech I'm talking about here is legal.
110
330371
4298
Segundo, la mayor parte del discurso del que estoy hablando aquí es legal.
05:35
It would be a different matter
111
335081
1446
Seria un asunto diferente
05:36
if I was talking about child sexual abuse imagery
112
336551
2341
si hablara de imágenes de abuso sexual infantil
05:38
or content that incites violence.
113
338916
1927
o contenido que incita a la violencia.
05:40
It can be perfectly legal to post an outright lie.
114
340867
3270
Puede ser perfectamente legal publicar una mentira absoluta.
05:45
But people keep talking about taking down "problematic" or "harmful" content,
115
345130
4034
Pero la gente sigue hablando de eliminar contenido "problemático" o "dañino",
05:49
but with no clear definition of what they mean by that,
116
349188
2609
pero sin una definición clara de lo que quieren decir,
05:51
including Mark Zuckerberg,
117
351821
1264
incluyendo a Mark Zuckerberg,
05:53
who recently called for global regulation to moderate speech.
118
353109
3412
quien recientemente pidió una regulación global para moderar el habla.
05:56
And my concern is that we're seeing governments
119
356870
2215
Y mi preocupación es que vemos gobiernos
05:59
right around the world
120
359109
1292
en todo el mundo
06:00
rolling out hasty policy decisions
121
360425
2676
implementar decisiones políticas apresuradas
06:03
that might actually trigger much more serious consequences
122
363125
2746
que podrían desencadenar consecuencias mucho más graves
06:05
when it comes to our speech.
123
365895
1714
cuando se trata de nuestra charla.
06:08
And even if we could decide which speech to take up or take down,
124
368006
3706
E incluso si pudiéramos decidir qué charla dejar o eliminar.
06:11
we've never had so much speech.
125
371736
2174
Nunca hemos tenido tantas charlas.
06:13
Every second, millions of pieces of content
126
373934
2131
Cada segundo, se suben millones de piezas de contenido
06:16
are uploaded by people right around the world
127
376089
2107
de personas de todo el mundo
06:18
in different languages,
128
378220
1168
en diferentes idiomas
06:19
drawing on thousands of different cultural contexts.
129
379412
2768
aprovechando miles de diferentes contextos culturales.
06:22
We've simply never had effective mechanisms
130
382204
2532
Simplemente nunca hemos tenido mecanismos efectivos
06:24
to moderate speech at this scale,
131
384760
1738
para moderar la libre expresión a esta escala,
06:26
whether powered by humans or by technology.
132
386522
2801
ya sea impulsada por humanos o por tecnología.
06:30
And third, these companies -- Google, Twitter, Facebook, WhatsApp --
133
390284
3944
Y en tercer lugar, estas empresas (Google, Twitter, Facebook, WhatsApp)
06:34
they're part of a wider information ecosystem.
134
394252
2841
son parte de un ecosistema de información más amplio.
06:37
We like to lay all the blame at their feet, but the truth is,
135
397117
3352
Nos gusta echarles toda la culpa a ellos, pero la verdad es que los medios
06:40
the mass media and elected officials can also play an equal role
136
400493
3830
y los funcionarios electos también pueden desempeñar un papel igual
06:44
in amplifying rumors and conspiracies when they want to.
137
404347
2913
en amplificar rumores y conspiraciones cuando quieren.
06:47
As can we, when we mindlessly forward divisive or misleading content
138
407800
4944
Como podemos nosotros, al reenviar sin pensar contenido divisivorio o engañoso
06:52
without trying.
139
412768
1285
sin estar seguros.
06:54
We're adding to the pollution.
140
414077
1800
Estamos agregando más a esa contaminación.
06:57
I know we're all looking for an easy fix.
141
417236
2618
Sé que todos estamos buscando una solución fácil.
06:59
But there just isn't one.
142
419878
1667
Pero simplemente no la hay.
07:01
Any solution will have to be rolled out at a massive scale, internet scale,
143
421950
4445
Cualquier solución tendrá que implementarse
a gran escala, escala de Internet,
07:06
and yes, the platforms, they're used to operating at that level.
144
426419
3261
y sí, las plataformas, están acostumbradas a operar a ese nivel.
07:09
But can and should we allow them to fix these problems?
145
429704
3472
pero ¿podemos y debemos permitirles que solucionen estos problemas?
07:13
They're certainly trying.
146
433668
1232
Ciertamente lo están intentando.
07:14
But most of us would agree that, actually, we don't want global corporations
147
434924
4086
Estamos de acuerdo en que no queremos que sean
las corporaciones globales las guardianas de la verdad y equidad en línea.
07:19
to be the guardians of truth and fairness online.
148
439034
2332
07:21
And I also think the platforms would agree with that.
149
441390
2537
Y también creo que las plataformas estarían de acuerdo con eso.
07:24
And at the moment, they're marking their own homework.
150
444257
2881
Y en este momento, están marcando su propia tarea.
07:27
They like to tell us
151
447162
1198
Les gusta decirnos
07:28
that the interventions they're rolling out are working,
152
448384
2579
que las intervenciones que están implementando funcionan,
07:30
but because they write their own transparency reports,
153
450987
2540
pero como hacen sus propios informes de transparencia,
07:33
there's no way for us to independently verify what's actually happening.
154
453551
3618
no se puede verificar independientemente lo que realmente está sucediendo.
07:38
(Applause)
155
458431
3342
(Aplausos)
07:41
And let's also be clear that most of the changes we see
156
461797
2952
Y seamos claros que la mayoría de los cambios que vemos
07:44
only happen after journalists undertake an investigation
157
464773
2994
solo suceden después de que los periodistas inicien una investigación
07:47
and find evidence of bias
158
467791
1611
y encuentren evidencia de sesgo
07:49
or content that breaks their community guidelines.
159
469426
2829
o contenido que rompe las pautas de su comunidad.
07:52
So yes, these companies have to play a really important role in this process,
160
472815
4595
Sí, estas compañías tienen que jugar de verdad un papel importante en el proceso,
07:57
but they can't control it.
161
477434
1560
pero no pueden controlarlo.
07:59
So what about governments?
162
479855
1518
¿Y qué hay de los gobiernos?
08:01
Many people believe that global regulation is our last hope
163
481863
3096
Muchos creen que la regulación global es nuestra última esperanza.
08:04
in terms of cleaning up our information ecosystem.
164
484983
2880
en términos de limpieza de nuestro ecosistema de información.
08:07
But what I see are lawmakers who are struggling to keep up to date
165
487887
3166
Pero lo que veo son legisladores que luchan por mantenerse al día
08:11
with the rapid changes in technology.
166
491077
2341
con los rápidos cambios en la tecnología.
08:13
And worse, they're working in the dark,
167
493442
1904
Y peor, trabajan en la oscuridad,
08:15
because they don't have access to data
168
495370
1821
porque no tienen acceso a los datos
08:17
to understand what's happening on these platforms.
169
497215
2650
para entender lo que está sucediendo en estas plataformas.
08:20
And anyway, which governments would we trust to do this?
170
500260
3071
Y de todos modos, ¿en qué gobiernos confiaríamos para hacer esto?
08:23
We need a global response, not a national one.
171
503355
2770
Necesitamos una respuesta global, no nacional.
08:27
So the missing link is us.
172
507419
2277
Entonces el eslabón perdido somos nosotros.
08:29
It's those people who use these technologies every day.
173
509720
3123
Son esas personas que usan estas tecnologías todos los días.
08:33
Can we design a new infrastructure to support quality information?
174
513260
4591
¿Podemos diseñar una nueva infraestructura para soportar información de calidad?
08:38
Well, I believe we can,
175
518371
1230
Bueno, creo que podemos
08:39
and I've got a few ideas about what we might be able to actually do.
176
519625
3357
y tengo algunas ideas sobre lo que realmente podríamos hacer.
08:43
So firstly, if we're serious about bringing the public into this,
177
523006
3103
En primer lugar, si nos tomamos en serio atraer al público a esto,
08:46
can we take some inspiration from Wikipedia?
178
526133
2381
¿podemos inspirarnos en Wikipedia?
08:48
They've shown us what's possible.
179
528538
1824
Nos han mostrado lo que es posible.
08:50
Yes, it's not perfect,
180
530386
1151
Si, no es perfecto
08:51
but they've demonstrated that with the right structures,
181
531561
2634
pero han demostrado que con las estructuras correctas,
08:54
with a global outlook and lots and lots of transparency,
182
534219
2635
con una perspectiva global y mucha, mucha transparencia,
08:56
you can build something that will earn the trust of most people.
183
536878
3096
puedes construir algo que se ganará la confianza de las personas.
08:59
Because we have to find a way to tap into the collective wisdom
184
539998
3162
Tenemos que encontrar una manera de aprovechar la sabiduría colectiva
09:03
and experience of all users.
185
543184
2309
y la experiencia de todos los usuarios.
09:05
This is particularly the case for women, people of color
186
545517
2646
En particular las mujeres, las personas de color
09:08
and underrepresented groups.
187
548187
1346
y los grupos subrepresentados.
09:09
Because guess what?
188
549557
1166
¿Porque adivinen qué?
09:10
They are experts when it comes to hate and disinformation,
189
550747
2735
Son expertos en odio y desinformación,
09:13
because they have been the targets of these campaigns for so long.
190
553506
3516
porque han sido los objetivos de estas campañas durante mucho tiempo.
09:17
And over the years, they've been raising flags,
191
557046
2350
Y a lo largo de los años, han levantando banderas,
09:19
and they haven't been listened to.
192
559420
1665
y no han sido escuchados
09:21
This has got to change.
193
561109
1280
Esto tiene que cambiar.
09:22
So could we build a Wikipedia for trust?
194
562807
4326
¿Podríamos construir una Wikipedia para la confianza?
09:27
Could we find a way that users can actually provide insights?
195
567157
4189
¿Podríamos encontrar una forma en que los usuarios realmente proporcionen ideas?
09:31
They could offer insights around difficult content-moderation decisions.
196
571370
3697
Podrían ofrecer ideas sobre decisiones difíciles de moderación de contenido.
09:35
They could provide feedback
197
575091
1463
Podrían comentar
09:36
when platforms decide they want to roll out new changes.
198
576578
3041
cuando las plataformas decidan implementar nuevos cambios.
09:40
Second, people's experiences with the information is personalized.
199
580241
4162
Segundo, las experiencias de las personas con la información son personalizadas.
09:44
My Facebook news feed is very different to yours.
200
584427
2643
Mi fuente de noticias de Facebook es diferente de la de Uds.
09:47
Your YouTube recommendations are very different to mine.
201
587094
2745
Igual sus recomendaciones de YouTube.
09:49
That makes it impossible for us to actually examine
202
589863
2492
Eso hace que sea imposible para nosotros examinar
09:52
what information people are seeing.
203
592379
2023
qué información está viendo la gente.
09:54
So could we imagine
204
594815
1389
Entonces ¿podríamos imaginar desarrollar
09:56
developing some kind of centralized open repository for anonymized data,
205
596228
4778
algún tipo de repositorio abierto centralizado para datos anonimos,
10:01
with privacy and ethical concerns built in?
206
601030
2864
con privacidad y preocupaciones éticas incorporadas?
10:04
Because imagine what we would learn
207
604220
1778
Porque imaginen lo que aprenderíamos
10:06
if we built out a global network of concerned citizens
208
606022
3261
si construyeramos una red global de ciudadanos preocupados
10:09
who wanted to donate their social data to science.
209
609307
3294
que quisieran donar sus datos sociales a la ciencia.
10:13
Because we actually know very little
210
613141
1722
Porque sabemos muy poco
10:14
about the long-term consequences of hate and disinformation
211
614887
2881
sobre las consecuencias a largo plazo del odio y la desinformación
10:17
on people's attitudes and behaviors.
212
617792
1975
sobre las actitudes y comportamientos de las personas.
10:20
And what we do know,
213
620236
1167
Y lo que sabemos,
10:21
most of that has been carried out in the US,
214
621427
2193
la mayoría se ha llevado a cabo en EE. UU.
10:23
despite the fact that this is a global problem.
215
623644
2381
a pesar del hecho de que es un problema global.
10:26
We need to work on that, too.
216
626049
1635
Necesitamos trabajar en eso también.
10:28
And third,
217
628192
1150
Y tercero,
10:29
can we find a way to connect the dots?
218
629366
2310
¿podemos encontrar una manera de conectar los puntos?
10:31
No one sector, let alone nonprofit, start-up or government,
219
631700
3438
Ningún sector, y mucho menos sin fines de lucro, start-up o gobierno,
10:35
is going to solve this.
220
635162
1422
va a resolver esto
10:36
But there are very smart people right around the world
221
636608
2564
Pero hay personas muy inteligentes en todo el mundo.
10:39
working on these challenges,
222
639196
1381
trabajando en estos desafíos,
10:40
from newsrooms, civil society, academia, activist groups.
223
640601
3576
de redacciones, sociedad civil, academia, grupos activistas.
10:44
And you can see some of them here.
224
644201
1898
Pueden ver algunos aquí.
10:46
Some are building out indicators of content credibility.
225
646123
2927
Unos construyen indicadores de credibilidad de contenido.
10:49
Others are fact-checking,
226
649074
1246
Otros verifican hechos, para que las plataformas
10:50
so that false claims, videos and images can be down-ranked by the platforms.
227
650344
3591
puedan clasificar noticias falsas, videos e imágenes
10:53
A nonprofit I helped to found, First Draft,
228
653959
2213
Una organización sin fines de lucro, First Draft,
10:56
is working with normally competitive newsrooms around the world
229
656196
2968
trabaja con redacciones normalmente competitivas del mundo
10:59
to help them build out investigative, collaborative programs.
230
659188
3503
para ayudarlos a desarrollar programas de investigación y colaboración.
11:03
And Danny Hillis, a software architect,
231
663231
2309
Danny Hillis, un arquitecto de software,
11:05
is designing a new system called The Underlay,
232
665564
2381
está diseñando un nuevo sistema llamado The Underlay,
11:07
which will be a record of all public statements of fact
233
667969
2775
un registro de todas las declaraciones públicas de hechos
11:10
connected to their sources,
234
670768
1329
conectado a sus fuentes,
11:12
so that people and algorithms can better judge what is credible.
235
672121
3654
para que las personas y los algoritmos puedan juzgar mejor lo que es creíble.
11:16
And educators around the world are testing different techniques
236
676800
3356
Y los educadores de todo el mundo están probando diferentes técnicas.
11:20
for finding ways to make people critical of the content they consume.
237
680180
3484
para encontrar formas de hacer que la gente critique el contenido que consume.
11:24
All of these efforts are wonderful, but they're working in silos,
238
684633
3141
Todos estos esfuerzos son maravillosos, pero están trabajando en silos,
11:27
and many of them are woefully underfunded.
239
687798
2680
y muchos de ellos no tienen fondos suficientes.
11:30
There are also hundreds of very smart people
240
690502
2053
También hay cientos de personas muy inteligentes.
11:32
working inside these companies,
241
692579
1652
trabajando en esas empresas,
11:34
but again, these efforts can feel disjointed,
242
694255
2325
pero de nuevo, esos esfuerzos pueden sentirse desarticulados,
11:36
because they're actually developing different solutions to the same problems.
243
696604
3937
porque están desarrollando diferentes soluciones a los mismos problemas.
11:41
How can we find a way to bring people together
244
701205
2269
¿Cómo encontrar una manera de unir a las personas
11:43
in one physical location for days or weeks at a time,
245
703498
3278
en una ubicación física por días o semanas,
11:46
so they can actually tackle these problems together
246
706800
2396
para que puedan abordar estos problemas juntos,
11:49
but from their different perspectives?
247
709220
1818
pero desde sus diferentes perspectivas?
11:51
So can we do this?
248
711062
1340
¿Podemos hacer eso?
11:52
Can we build out a coordinated, ambitious response,
249
712426
3239
¿Podemos construir una respuesta coordinada y ambiciosa,
11:55
one that matches the scale and the complexity of the problem?
250
715689
3709
una que coincida con la escala y la complejidad del problema?
11:59
I really think we can.
251
719819
1373
Realmente creo que podemos.
12:01
Together, let's rebuild our information commons.
252
721216
2959
Juntos, reconstruyamos nuestros bienes comunes de información.
12:04
Thank you.
253
724819
1190
Gracias.
12:06
(Applause)
254
726033
3728
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7