How we can protect truth in the age of misinformation | Sinan Aral

235,868 views ・ 2020-01-16

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Traductor: Jose Manuel Miana Borau Revisor: Paula Motter
00:13
So, on April 23 of 2013,
1
13468
5222
El 23 de abril de 2013,
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
Associated Press puso el siguiente tuit en Twitter.
00:24
It said, "Breaking news:
3
24252
2397
Decía: "Noticia de última hora:
00:26
Two explosions at the White House
4
26673
2571
dos explosiones en la Casa Blanca.
00:29
and Barack Obama has been injured."
5
29268
2333
Barack Obama ha resultado herido".
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
Este tuit fue retuiteado 4000 veces en menos de cinco minutos,
00:37
and it went viral thereafter.
7
37661
2217
y se hizo viral a partir de ese instante.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
Ahora bien, este tuit no fue una noticia verdadera
difundida por la agencia Associated Press.
00:45
In fact it was false news, or fake news,
9
45134
3333
En realidad, fue una noticia falsa,
00:48
that was propagated by Syrian hackers
10
48491
2825
propagada por 'hackers' sirios
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
que se habían hecho con el control del Twitter de Associated Press.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
Su objetivo era alterar a la sociedad, pero alteraron mucho más,
01:00
Because automated trading algorithms
13
60320
2476
porque los algoritmos automatizados de negociación
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
inmediatamente interpretaron la sensibilidad de este tuit,
01:06
and began trading based on the potential
15
66204
2968
y comenzaron a operar en base a la posibilidad
01:09
that the president of the United States had been injured or killed
16
69196
3381
de que el presidente de los EE. UU. hubiese sido herido o asesinado
01:12
in this explosion.
17
72601
1200
en esa explosión.
01:14
And as they started tweeting,
18
74188
1992
Y cuando empezaron a tuitear,
01:16
they immediately sent the stock market crashing,
19
76204
3349
hicieron que el mercado de valores se desplomara al instante,
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
y se perdieron 140 mil millones de dólares en valor bursátil en un solo día.
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
Robert Mueller, consejero y fiscal especial de los Estados Unidos,
01:29
issued indictments against three Russian companies
22
89562
3892
acusó penalmente a tres compañías rusas
01:33
and 13 Russian individuals
23
93478
2619
y a 13 individuos rusos
01:36
on a conspiracy to defraud the United States
24
96121
3167
de conspirar para cometer fraude contra los Estados Unidos
01:39
by meddling in the 2016 presidential election.
25
99312
3780
al entrometerse en las elecciones presidenciales de 2016.
01:43
And what this indictment tells as a story
26
103855
3564
Lo que esta acusación deja al descubierto
01:47
is the story of the Internet Research Agency,
27
107443
3142
es la historia de la Agencia de Investigación de Internet,
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
el oscuro brazo del Kremlin en las redes sociales.
01:54
During the presidential election alone,
29
114815
2777
Solo en las elecciones presidenciales,
01:57
the Internet Agency's efforts
30
117616
1889
los intentos de la Agencia de Internet
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
llegaron a 126 millones de personas en Facebook en los Estados Unidos,
02:04
issued three million individual tweets
32
124720
3277
emitieron tres millones de tuits individuales
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
y 43 horas de contenido de YouTube.
02:11
All of which was fake --
34
131887
1652
Todo lo cual era falso,
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
desinformación diseñada para meter cizaña en la elección presidencial de EE. UU.
02:20
A recent study by Oxford University
36
140996
2650
Un estudio reciente realizado por la Universidad de Oxford
02:23
showed that in the recent Swedish elections,
37
143670
3270
mostró que en las últimas elecciones suecas,
02:26
one third of all of the information spreading on social media
38
146964
4375
un tercio de toda la información que se difundió en las redes sociales
02:31
about the election
39
151363
1198
sobre las elecciones
02:32
was fake or misinformation.
40
152585
2087
era falsa o incorrecta.
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
Además, este tipo de campañas de desinformación en redes sociales
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
pueden difundir lo que se ha llamado "propaganda genocida",
02:44
for instance against the Rohingya in Burma,
43
164314
3111
por ejemplo contra los rohingya en Burma,
02:47
triggering mob killings in India.
44
167449
2303
que desencadenó linchamientos en la India.
02:49
We studied fake news
45
169776
1494
Estudiamos las noticias falsas
02:51
and began studying it before it was a popular term.
46
171294
3219
y comenzamos a hacerlo antes de que fuera un término popular.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
Y hemos publicado recientemente el estudio longitudinal más grande jamás realizado
03:00
of the spread of fake news online
48
180094
2286
sobre la difusión de noticias falsas en línea
03:02
on the cover of "Science" in March of this year.
49
182404
3204
en la portada de la revista "Science" en marzo de este año.
03:06
We studied all of the verified true and false news stories
50
186523
4161
Estudiamos todas las noticias verificadas como verdaderas y falsas
03:10
that ever spread on Twitter,
51
190708
1753
que se propagaron por Twitter,
03:12
from its inception in 2006 to 2017.
52
192485
3818
desde su creación en 2006 hasta 2017.
03:16
And when we studied this information,
53
196612
2314
Y cuando estudiamos esta información,
03:18
we studied verified news stories
54
198950
2876
tomamos las noticias verificadas y revisadas
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
por seis organizaciones independientes de comprobación de datos.
03:25
So we knew which stories were true
56
205792
2762
Así que sabíamos cuáles eran ciertas
03:28
and which stories were false.
57
208578
2126
y cuáles falsas.
03:30
We can measure their diffusion,
58
210728
1873
Podemos medir su difusión,
03:32
the speed of their diffusion,
59
212625
1651
la velocidad de su difusión,
03:34
the depth and breadth of their diffusion,
60
214300
2095
el alcance de su difusión,
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
cuántas personas se enredan en esta cascada de información, etc.
03:40
And what we did in this paper
62
220942
1484
Y lo que hicimos en esta investigación
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
fue comparar la propagación de noticias verdaderas con las falsas.
03:46
And here's what we found.
64
226339
1683
Y estos son los resultados.
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
Hallamos que una noticia falsa llega más lejos, más rápido
03:52
and more broadly than the truth
66
232049
1806
y tiene más alcance que la verdadera
03:53
in every category of information that we studied,
67
233879
3003
en todas las categorías de información que hemos estudiado,
03:56
sometimes by an order of magnitude.
68
236906
2499
a veces en un orden de magnitud.
03:59
And in fact, false political news was the most viral.
69
239842
3524
Y las noticias falsas en el ámbito de la política fueron las más virales.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
Se difunden más lejos, más rápido, y tienen mayor alcance
04:06
than any other type of false news.
71
246561
2802
que cualquier otro tipo de noticias falsas.
04:09
When we saw this,
72
249387
1293
Cuando vimos esto,
04:10
we were at once worried but also curious.
73
250704
2841
sentimos a la vez preocupación y curiosidad.
04:13
Why?
74
253569
1151
¿Por qué?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
¿Por qué las noticias falsas llegan más lejos, más rápido,
04:18
and more broadly than the truth?
76
258141
1864
y tienen mayor alcance que la verdad?
04:20
The first hypothesis that we came up with was,
77
260339
2961
La primera hipótesis que se nos ocurrió fue:
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
"Bueno, tal vez quienes difunden noticias falsas
tienen más seguidores o siguen a más gente,
04:28
or tweet more often,
79
268140
1557
o tuitean con más frecuencia,
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
o tal vez son más usuarios 'verificados' de Twitter, con más credibilidad,
04:33
or maybe they've been on Twitter longer."
81
273871
2182
o tal vez han estado en Twitter más tiempo".
04:36
So we checked each one of these in turn.
82
276077
2298
Así que inspeccionamos cada uno de estos casos.
04:38
And what we found was exactly the opposite.
83
278691
2920
Y lo que encontramos fue exactamente lo contrario.
04:41
False-news spreaders had fewer followers,
84
281635
2436
Quienes difundían noticias falsas tenían menos seguidores,
04:44
followed fewer people, were less active,
85
284095
2254
seguían a menos gente, eran menos activos, eran usuarios poco "verificados"
04:46
less often "verified"
86
286373
1460
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
y habían estado en Twitter por un período de tiempo más corto.
04:50
And yet,
88
290841
1189
Y sin embargo,
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
las noticias falsas eran un 70 % más propensas a ser retuiteadas,
04:57
controlling for all of these and many other factors.
90
297111
3363
teniendo en cuenta estos y muchos otros factores.
05:00
So we had to come up with other explanations.
91
300498
2690
Así que tuvimos que buscar otras explicaciones.
E ideamos lo que llamamos "hipótesis de la novedad".
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
05:07
So if you read the literature,
93
307038
1960
Si leemos documentaciones sobre el tema,
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
es bien sabido que la atención humana se siente atraída por la novedad,
05:12
things that are new in the environment.
95
312800
2519
cosas que son nuevas en el entorno.
05:15
And if you read the sociology literature,
96
315343
1985
Y si leemos la literatura sociológica,
05:17
you know that we like to share novel information.
97
317352
4300
veremos que nos gusta compartir información novedosa.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
Sentimos que tenemos acceso a información privilegiada,
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
y ganamos estatus mediante la difusión de este tipo de información.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
Decidimos entonces medir la novedad de un tuit verdadero o falso,
05:36
compared to the corpus of what that individual had seen
101
336268
4055
en comparación con el corpus de lo que esa persona había visto
05:40
in the 60 days prior on Twitter.
102
340347
2952
en Twitter los 60 días anteriores.
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
Pero no fue suficiente, porque pensamos:
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
"Bueno, quizá las noticias falsas son más novedosas en un sentido teórico,
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
pero tal vez la gente no las percibe como más novedosas".
05:53
So to understand people's perceptions of false news,
106
353849
3927
Así que para entender cómo la gente percibe las noticias falsas,
05:57
we looked at the information and the sentiment
107
357800
3690
nos fijamos en la información y el componente afectivo
06:01
contained in the replies to true and false tweets.
108
361514
4206
de las respuestas a los tuits verdaderos y falsos.
06:06
And what we found
109
366022
1206
Y lo que detectamos
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
fue que, teniendo en cuenta un montón de sentimientos diferentes,
06:11
surprise, disgust, fear, sadness,
111
371490
3301
como sorpresa, disgusto, miedo, tristeza,
06:14
anticipation, joy and trust --
112
374815
2484
expectativa, alegría y confianza,
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
las noticias falsas generaron significativamente más sorpresa y disgusto
06:23
in the replies to false tweets.
114
383204
2806
en las respuestas a los falsos tuits.
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
Y las noticias verdaderas mostraron significativamente más expectativas,
06:30
joy and trust
116
390205
1547
alegría y confianza
06:31
in reply to true tweets.
117
391776
2547
en respuesta a los tuits verdaderos.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
La sorpresa corrobora nuestra hipótesis de la novedad.
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
Esto es nuevo y sorprendente, por lo que es más fácil que se comparta.
06:43
At the same time, there was congressional testimony
120
403092
2925
Al mismo tiempo, hubo testimonios ante el Congreso
06:46
in front of both houses of Congress in the United States,
121
406041
3036
en las dos cámaras parlamentarias de los Estados Unidos
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
sobre el papel de los robots en la propagación de información errónea.
06:52
So we looked at this too --
123
412863
1354
Así que consideramos esto también.
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
Utilizamos múltiples algoritmos complejos de rastreo
06:57
to find the bots in our data and to pull them out.
125
417863
3074
para encontrar los robots en nuestros datos y sacarlos.
07:01
So we pulled them out, we put them back in
126
421347
2659
Los sacamos, los volvimos a poner
07:04
and we compared what happens to our measurement.
127
424030
3119
y comparamos lo que sucede con nuestras mediciones.
07:07
And what we found was that, yes indeed,
128
427173
2293
Descubrimos que, efectivamente,
07:09
bots were accelerating the spread of false news online,
129
429490
3682
los robots aceleraban la propagación de noticias falsas en línea,
07:13
but they were accelerating the spread of true news
130
433196
2651
pero aceleraban la propagación de las verdaderas
07:15
at approximately the same rate.
131
435871
2405
aproximadamente a la misma velocidad.
07:18
Which means bots are not responsible
132
438300
2858
Lo que significa que los robots no son los responsables
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
de la difusión diferencial de la verdad y la mentira en línea.
07:25
We can't abdicate that responsibility,
134
445919
2849
No podemos renunciar a esa responsabilidad,
07:28
because we, humans, are responsible for that spread.
135
448792
4259
porque nosotros, los seres humanos, somos responsables de esa propagación.
07:34
Now, everything that I have told you so far,
136
454472
3334
Ahora bien, todo lo que les he dicho hasta el momento,
07:37
unfortunately for all of us,
137
457830
1754
por desgracia para todos nosotros,
07:39
is the good news.
138
459608
1261
es la buena noticia.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
La razón es que está a punto de ponerse mucho peor.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
Y dos tecnologías específicas van a empeorar la situación.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
Vamos a presenciar el aumento de una tremenda ola de medios sintéticos.
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
Video falso, audio falso, muy convincentes para el ojo humano.
08:03
And this will powered by two technologies.
143
483458
2754
Y esto será impulsado por dos tecnologías.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
La primera es conocida como "redes de confrontación generativas".
08:10
This is a machine-learning model with two networks:
145
490093
2563
Es un modelo de aprendizaje automático con dos redes:
08:12
a discriminator,
146
492680
1547
un discriminador,
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
cuyo trabajo es determinar si algo es verdadero o falso,
08:18
and a generator,
148
498475
1167
y un generador,
08:19
whose job it is to generate synthetic media.
149
499666
3150
cuyo trabajo es generar medios sintéticos.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
El generador sintético genera un video o audio sintético,
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
y el discriminador trata de distinguir si es verdadero o falso.
08:32
And in fact, it is the job of the generator
152
512665
2874
Y, de hecho, el trabajo del generador
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
es maximizar la probabilidad de engañar al discriminador
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
para que crea que el video y el audio sintéticos que está creando
08:43
is actually true.
155
523633
1730
son realmente ciertos.
08:45
Imagine a machine in a hyperloop,
156
525387
2373
Imaginen una máquina en un Hyperloop,
08:47
trying to get better and better at fooling us.
157
527784
2803
que se perfecciona más y más con el fin de engañarnos.
08:51
This, combined with the second technology,
158
531114
2500
Esto, combinado con la segunda tecnología,
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
que es esencialmente la democratización de la inteligencia artificial,
08:59
the ability for anyone,
160
539384
2189
la capacidad de cualquier persona,
09:01
without any background in artificial intelligence
161
541597
2830
sin ningún tipo de experiencia en inteligencia artificial
09:04
or machine learning,
162
544451
1182
o aprendizaje automático,
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
de implementar este tipo de algoritmos para generar los medios sintéticos
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
hace que, en última instancia, sea mucho más fácil crear videos.
09:14
The White House issued a false, doctored video
165
554355
4421
La Casa Blanca emitió el video falso y adulterado
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
de una pasante que intentaba sacarle el micrófono a un periodista.
09:23
They removed frames from this video
167
563427
1999
Eliminaron fotogramas de este video
09:25
in order to make his actions seem more punchy.
168
565450
3287
para que las acciones del periodista pareciesen más violentas.
09:29
And when videographers and stuntmen and women
169
569157
3385
Y cuando camarógrafos y dobles
09:32
were interviewed about this type of technique,
170
572566
2427
fueron consultados acerca de este tipo de técnica,
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
dijeron: "Sí, siempre lo hacemos en las películas
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
para que nuestros puñetazos y patadas parezcan más rápidos y agresivos".
09:44
They then put out this video
173
584268
1867
Entonces mostraron este video
09:46
and partly used it as justification
174
586159
2500
y lo utilizaron parcialmente como excusa
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
para denegar el acceso de Jim Acosta como periodista a la Casa Blanca.
09:52
from the White House.
176
592706
1339
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
Y la CNN tuvo que demandarlos para regresarle su pase de prensa.
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
Hay unos cinco modos diferentes que se me ocurren
10:06
to try and address some of these very difficult problems today.
179
606165
3739
para tratar de abordar algunos de estos problemas difíciles hoy en día.
10:10
Each one of them has promise,
180
610379
1810
Cada uno es prometedor,
10:12
but each one of them has its own challenges.
181
612213
2999
pero tiene sus propios desafíos.
10:15
The first one is labeling.
182
615236
2008
El primero es el etiquetado.
10:17
Think about it this way:
183
617268
1357
Piénsenlo de esta manera:
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
cuando van a la tienda para comprar alimentos,
10:22
it's extensively labeled.
185
622284
1904
está todo etiquetado.
10:24
You know how many calories it has,
186
624212
1992
Saben la cantidad de calorías que tiene,
10:26
how much fat it contains --
187
626228
1801
la cantidad de grasa que contiene,
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
pero, cuando consumimos información, no tenemos etiquetas de ningún tipo.
10:32
What is contained in this information?
189
632355
1928
¿Qué contiene esta información?
10:34
Is the source credible?
190
634307
1453
¿Es creíble la fuente?
10:35
Where is this information gathered from?
191
635784
2317
¿De dónde se obtuvo esta información?
10:38
We have none of that information
192
638125
1825
No tenemos ninguno de esos datos cuando consumimos información.
10:39
when we are consuming information.
193
639974
2103
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
Esa es una vía potencial, pero viene con sus desafíos.
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
Por ejemplo, ¿quién decide en la sociedad lo que es cierto y lo que es falso?
10:52
Is it the governments?
196
652387
1642
¿Son los gobiernos?
10:54
Is it Facebook?
197
654053
1150
¿Es Facebook?
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
¿Es un consorcio independiente de verificadores?
10:59
And who's checking the fact-checkers?
199
659387
2466
¿Y quién controla a los verificadores?
11:02
Another potential avenue is incentives.
200
662427
3084
Otra vía potencial son los incentivos.
11:05
We know that during the US presidential election
201
665535
2634
Sabemos que durante la elección presidencial de EE. UU.
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
se produjo una oleada de información falsa que procedía de Macedonia.
11:11
that didn't have any political motive
203
671907
2337
No tenía ningún fin político
11:14
but instead had an economic motive.
204
674268
2460
pero sí un fin económico.
11:16
And this economic motive existed,
205
676752
2148
Y este fin económico existió
11:18
because false news travels so much farther, faster
206
678924
3524
porque las noticias falsas viajan mucho más lejos, más rápido,
11:22
and more deeply than the truth,
207
682472
2010
y tienen mayor alcance que la verdad,
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
y se puede ganar dinero con la publicidad mientras se atrae la atención
11:29
with this type of information.
209
689490
1960
con este tipo de información.
11:31
But if we can depress the spread of this information,
210
691474
3833
Pero si podemos reducir la difusión de esta información,
11:35
perhaps it would reduce the economic incentive
211
695331
2897
tal vez se reduciría el incentivo económico
11:38
to produce it at all in the first place.
212
698252
2690
para producirla.
11:40
Third, we can think about regulation,
213
700966
2500
En tercer lugar, pensemos en la regulación
11:43
and certainly, we should think about this option.
214
703490
2325
y, desde luego, debemos pensar en esta opción.
11:45
In the United States, currently,
215
705839
1611
En EE. UU., en la actualidad,
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
estamos explorando lo que podría suceder si Facebook y otros medios se regularan.
11:52
While we should consider things like regulating political speech,
217
712346
3801
Aunque debemos tener en cuenta cosas como la regulación del discurso político,
11:56
labeling the fact that it's political speech,
218
716171
2508
es decir, etiquetarlo como discurso político,
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
asegurarse de que los actores extranjeros no puedan financiar el discurso político,
12:02
it also has its own dangers.
220
722546
2547
también tiene sus propios peligros.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
Por ejemplo, Malasia acaba de instituir una condena de seis años de prisión
12:10
for anyone found spreading misinformation.
222
730424
2734
para cualquier persona que sea sorprendida difundiendo datos falsos.
12:13
And in authoritarian regimes,
223
733696
2079
Y en los regímenes autoritarios,
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
este tipo de políticas se pueden utilizar para suprimir las opiniones minoritarias
12:20
and to continue to extend repression.
225
740489
3508
y para seguir ampliando la represión.
12:24
The fourth possible option is transparency.
226
744680
3543
La cuarta opción posible es la transparencia.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
Queremos saber cómo funcionan los algoritmos de Facebook.
12:32
How does the data combine with the algorithms
228
752581
2880
¿De qué manera los datos se combinan con los algoritmos
12:35
to produce the outcomes that we see?
229
755485
2838
para producir los resultados que vemos?
12:38
We want them to open the kimono
230
758347
2349
Queremos que abran el kimono
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
y nos muestren exactamente el funcionamiento interno de Facebook.
12:44
And if we want to know social media's effect on society,
232
764958
2779
Y si queremos conocer el efecto de las redes sociales en la sociedad,
12:47
we need scientists, researchers
233
767761
2086
necesitamos que científicos, investigadores y otras personas
12:49
and others to have access to this kind of information.
234
769871
3143
tengan acceso a este tipo de información.
12:53
But at the same time,
235
773038
1547
Pero al mismo tiempo,
12:54
we are asking Facebook to lock everything down,
236
774609
3801
estamos pidiendo a Facebook poner todo bajo llave
12:58
to keep all of the data secure.
237
778434
2173
para mantener los datos seguros.
13:00
So, Facebook and the other social media platforms
238
780631
3159
Así, Facebook y las otras plataformas de medios sociales
13:03
are facing what I call a transparency paradox.
239
783814
3134
se enfrentan a lo que llamo "la paradoja de la transparencia".
13:07
We are asking them, at the same time,
240
787266
2674
Les estamos pidiendo
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
que sean abiertas, transparentes y, al mismo tiempo, seguras.
13:14
This is a very difficult needle to thread,
242
794797
2691
Esta es una aguja muy difícil enhebrar,
13:17
but they will need to thread this needle
243
797512
1913
pero deberán enhebrar esta aguja
13:19
if we are to achieve the promise of social technologies
244
799449
3787
si queremos alcanzar la promesa de las tecnologías sociales
13:23
while avoiding their peril.
245
803260
1642
y, a la vez, evitar sus riesgos.
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
La última opción posible
son los algoritmos y el aprendizaje automático,
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
tecnología ideada para erradicar y entender las noticias falsas,
cómo se transmiten, y tratar de reducir su difusión.
13:34
and to try and dampen its flow.
248
814942
2331
13:37
Humans have to be in the loop of this technology,
249
817824
2897
La humanidad tiene que estar en el bucle de esta tecnología,
13:40
because we can never escape
250
820745
2278
porque nunca podremos negar
13:43
that underlying any technological solution or approach
251
823047
4038
que detrás de cualquier solución o enfoque tecnológico
13:47
is a fundamental ethical and philosophical question
252
827109
4047
hay una pregunta ética y filosófica fundamental
13:51
about how do we define truth and falsity,
253
831180
3270
acerca de cómo definimos la verdad y la falsedad,
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
a quién le damos el poder de definir la verdad y la mentira,
13:57
and which opinions are legitimate,
255
837678
2460
y qué opiniones son legítimas,
14:00
which type of speech should be allowed and so on.
256
840162
3706
qué tipo de discurso debe permitirse y así sucesivamente.
14:03
Technology is not a solution for that.
257
843892
2328
La tecnología no es una solución en este caso.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
La ética y la filosofía son la solución.
14:10
Nearly every theory of human decision making,
259
850950
3318
Casi todas las teorías de la toma de decisiones humanas,
14:14
human cooperation and human coordination
260
854292
2761
la cooperación humana y la coordinación humana
14:17
has some sense of the truth at its core.
261
857077
3674
tienen un cierto sentido de la verdad en su esencia.
14:21
But with the rise of fake news,
262
861347
2056
Pero con el aumento de noticias falsas,
14:23
the rise of fake video,
263
863427
1443
de videos falsos,
14:24
the rise of fake audio,
264
864894
1882
de audios falsos,
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
estamos al borde del precipicio del fin de la realidad,
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
donde no podemos diferenciar lo que es real de lo que es falso.
14:34
And that's potentially incredibly dangerous.
267
874661
3039
Y eso es potencialmente muy peligroso.
14:38
We have to be vigilant in defending the truth
268
878931
3948
Tenemos que estar vigilantes en la defensa de la verdad
14:42
against misinformation.
269
882903
1534
contra la información errónea,
14:44
With our technologies, with our policies
270
884919
3436
con nuestras tecnologías, con nuestras políticas
14:48
and, perhaps most importantly,
271
888379
1920
y, quizás lo más importante,
14:50
with our own individual responsibilities,
272
890323
3214
con nuestras propias responsabilidades,
14:53
decisions, behaviors and actions.
273
893561
3555
decisiones, comportamientos y acciones individuales.
14:57
Thank you very much.
274
897553
1437
Muchas gracias.
14:59
(Applause)
275
899014
3517
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7