How we can protect truth in the age of misinformation | Sinan Aral

235,868 views ・ 2020-01-16

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Tradutor: Maurício Kakuei Tanaka Revisor: Leonardo Silva
00:13
So, on April 23 of 2013,
1
13468
5222
Em 23 de abril de 2013,
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
a Associated Press fez a seguinte publicação no Twitter:
00:24
It said, "Breaking news:
3
24252
2397
"Notícia de última hora:
00:26
Two explosions at the White House
4
26673
2571
duas explosões na Casa Branca,
00:29
and Barack Obama has been injured."
5
29268
2333
e Barack Obama foi ferido".
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
Essa publicação foi repassada 4 mil vezes em menos de cinco minutos
00:37
and it went viral thereafter.
7
37661
2217
e viralizou a partir de então.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
A publicação não era uma notícia real divulgada pela Associated Press.
00:45
In fact it was false news, or fake news,
9
45134
3333
Na realidade, era uma notícia falsa, ou "fake news",
00:48
that was propagated by Syrian hackers
10
48491
2825
espalhada por hackers sírios
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
que se infiltraram no perfil da Associated Press no Twitter.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
O objetivo era perturbar a sociedade, mas eles foram além.
01:00
Because automated trading algorithms
13
60320
2476
Os algoritmos de troca automatizada
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
apoderaram-se imediatamente da emoção dessa publicação
01:06
and began trading based on the potential
15
66204
2968
e começaram a funcionar com base na possibilidade
01:09
that the president of the United States had been injured or killed
16
69196
3381
de o presidente dos Estados Unidos ter sido ferido ou morto nessa explosão.
01:12
in this explosion.
17
72601
1200
01:14
And as they started tweeting,
18
74188
1992
Quando começaram a publicar,
01:16
they immediately sent the stock market crashing,
19
76204
3349
levaram imediatamente o mercado acionário a um colapso,
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
zerando US$ 140 bilhões em valor patrimonial em um único dia.
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
Robert Mueller, promotor de justiça especial dos Estados Unidos,
01:29
issued indictments against three Russian companies
22
89562
3892
fez acusações contra 3 empresas russas
01:33
and 13 Russian individuals
23
93478
2619
e 13 indivíduos russos
01:36
on a conspiracy to defraud the United States
24
96121
3167
em uma conspiração para fraudar os Estados Unidos,
01:39
by meddling in the 2016 presidential election.
25
99312
3780
interferindo na eleição presidencial de 2016.
01:43
And what this indictment tells as a story
26
103855
3564
Essa acusação
01:47
is the story of the Internet Research Agency,
27
107443
3142
conta a história da Agência de Pesquisa da Internet,
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
a divisão sombria do Kremlin nas mídias sociais.
01:54
During the presidential election alone,
29
114815
2777
Somente durante a eleição presidencial,
01:57
the Internet Agency's efforts
30
117616
1889
os esforços da Agência da Internet
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
alcançaram 126 milhões de pessoas no Facebook nos Estados Unidos,
02:04
issued three million individual tweets
32
124720
3277
fizeram 3 milhões de publicações individuais no Tweeter
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
e o equivalente a 43 horas de conteúdo do YouTube.
02:11
All of which was fake --
34
131887
1652
Tudo isso era falso,
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
notícias falsas para semear discórdia na eleição presidencial dos EUA.
02:20
A recent study by Oxford University
36
140996
2650
Um estudo recente da Universidade Oxford
02:23
showed that in the recent Swedish elections,
37
143670
3270
mostrou que, nas eleições suecas recentes,
02:26
one third of all of the information spreading on social media
38
146964
4375
um terço de todas as notícias divulgadas nas mídias sociais
02:31
about the election
39
151363
1198
sobre a eleição
02:32
was fake or misinformation.
40
152585
2087
eram falsas ou incorretas.
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
Além disso, esses tipos de campanhas de notícias falsas nas mídias sociais
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
podem espalhar o que foi chamado de "propaganda genocida",
02:44
for instance against the Rohingya in Burma,
43
164314
3111
por exemplo, contra o povo rohingya na Birmânia,
02:47
triggering mob killings in India.
44
167449
2303
provocando assassinatos em massa na Índia.
02:49
We studied fake news
45
169776
1494
Estudamos notícias falsas
02:51
and began studying it before it was a popular term.
46
171294
3219
e começamos antes de essa expressão ficar conhecida.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
Recentemente, publicamos o estudo mais extenso de todos os tempos
03:00
of the spread of fake news online
48
180094
2286
sobre a disseminação de notícias falsas on-line
03:02
on the cover of "Science" in March of this year.
49
182404
3204
na capa da "Science" de março deste ano.
03:06
We studied all of the verified true and false news stories
50
186523
4161
Estudamos todas as notícias falsas e verdadeiras verificadas
03:10
that ever spread on Twitter,
51
190708
1753
já divulgadas no Twitter,
03:12
from its inception in 2006 to 2017.
52
192485
3818
desde o início em 2006 até 2017.
03:16
And when we studied this information,
53
196612
2314
Quando estudamos essas notícias,
03:18
we studied verified news stories
54
198950
2876
estudamos notícias verificadas
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
por seis organizações independentes de verificação de fatos.
03:25
So we knew which stories were true
56
205792
2762
Sabíamos quais histórias eram verdadeiras
03:28
and which stories were false.
57
208578
2126
e quais eram falsas.
03:30
We can measure their diffusion,
58
210728
1873
Conseguimos medir a disseminação delas,
03:32
the speed of their diffusion,
59
212625
1651
a velocidade de disseminação,
03:34
the depth and breadth of their diffusion,
60
214300
2095
a profundidade e a amplitude de disseminação,
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
quantas pessoas se envolvem nessa cascata de notícias e assim por diante.
03:40
And what we did in this paper
62
220942
1484
Nesse artigo,
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
comparamos a disseminação de notícias verdadeiras com a de notícias falsas.
03:46
And here's what we found.
64
226339
1683
Eis o que descobrimos:
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
notícias falsas se espalham mais, mais rápido, mais profundamente
03:52
and more broadly than the truth
66
232049
1806
e mais amplamente do que a verdade
03:53
in every category of information that we studied,
67
233879
3003
em todas as categorias de notícias que estudamos,
03:56
sometimes by an order of magnitude.
68
236906
2499
às vezes por ordem de grandeza.
03:59
And in fact, false political news was the most viral.
69
239842
3524
De fato, notícias políticas falsas viralizaram mais.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
Espalharam-se mais, mais rápido, mais profundamente e amplamente
04:06
than any other type of false news.
71
246561
2802
do que qualquer outro tipo de notícia falsa.
04:09
When we saw this,
72
249387
1293
Quando vimos isso,
04:10
we were at once worried but also curious.
73
250704
2841
ficamos imediatamente preocupados, mas também curiosos.
04:13
Why?
74
253569
1151
Por quê?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
Por que notícias falsas viajam muito mais, mais rápido, mais profundamente
04:18
and more broadly than the truth?
76
258141
1864
e mais amplamente do que a verdade?
04:20
The first hypothesis that we came up with was,
77
260339
2961
A primeira hipótese que sugerimos foi:
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
"Talvez quem espalha notícias falsas tenha mais seguidores, siga mais pessoas,
04:28
or tweet more often,
79
268140
1557
publique com mais frequência,
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
ou talvez seja usuário 'verificado' do Twitter, com mais credibilidade,
04:33
or maybe they've been on Twitter longer."
81
273871
2182
ou talvez esteja no Twitter há mais tempo".
04:36
So we checked each one of these in turn.
82
276077
2298
Verificamos cada uma dessas opções
04:38
And what we found was exactly the opposite.
83
278691
2920
e descobrimos exatamente o oposto.
04:41
False-news spreaders had fewer followers,
84
281635
2436
Quem espalha notícias falsas tinha menos seguidores,
04:44
followed fewer people, were less active,
85
284095
2254
seguia menos pessoas, era menos ativo,
04:46
less often "verified"
86
286373
1460
menos "verificado"
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
e estava no Twitter há menos tempo.
04:50
And yet,
88
290841
1189
No entanto,
notícias falsas tinham 70% mais chances de serem repassadas do que a verdade,
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
04:57
controlling for all of these and many other factors.
90
297111
3363
sendo controladas por todos esses e muitos outros fatores.
05:00
So we had to come up with other explanations.
91
300498
2690
Tivemos que propor outras explicações.
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
Criamos o que chamamos de "hipótese da novidade".
05:07
So if you read the literature,
93
307038
1960
Se você lê a literatura,
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
sabe que a atenção humana é atraída por novidades,
05:12
things that are new in the environment.
95
312800
2519
coisas novas no ambiente.
05:15
And if you read the sociology literature,
96
315343
1985
Se você lê a literatura sobre sociologia,
05:17
you know that we like to share novel information.
97
317352
4300
sabe que gostamos de compartilhar novas informações.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
Isso nos faz parecer que temos acesso a informações privilegiadas
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
e ganhamos status ao espalhar esse tipo de informação.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
Medimos a novidade de uma publicação verdadeira ou falsa que chega no Twitter
05:36
compared to the corpus of what that individual had seen
101
336268
4055
e comparamos às publicações que aquele indivíduo havia visto
05:40
in the 60 days prior on Twitter.
102
340347
2952
nos 60 dias anteriores no Twitter.
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
Mas isso não foi suficiente, porque pensamos:
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
"Talvez notícias falsas sejam mais novas em um sentido teórico da informação,
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
mas talvez as pessoas não as percebam como mais novas".
05:53
So to understand people's perceptions of false news,
106
353849
3927
Para entender a percepção das pessoas sobre notícias falsas,
05:57
we looked at the information and the sentiment
107
357800
3690
analisamos a informação e o sentimento
06:01
contained in the replies to true and false tweets.
108
361514
4206
contidos nas respostas a publicações verdadeiras e falsas no Twitter.
06:06
And what we found
109
366022
1206
Descobrimos que, em várias medidas diferentes de sentimento -
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
06:11
surprise, disgust, fear, sadness,
111
371490
3301
surpresa, repulsa, medo, tristeza,
06:14
anticipation, joy and trust --
112
374815
2484
expectativa, alegria e confiança -
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
notícias falsas demonstravam significativamente mais surpresa e repulsa
06:23
in the replies to false tweets.
114
383204
2806
nas respostas a publicações falsas.
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
E notícias verdadeiras demonstravam significativamente mais expectativa,
06:30
joy and trust
116
390205
1547
alegria e confiança
06:31
in reply to true tweets.
117
391776
2547
em resposta a publicações verdadeiras.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
A surpresa confirma nossa hipótese de novidade.
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
Isso é novo e surpreendente e, portanto, temos mais chances de compartilhar.
06:43
At the same time, there was congressional testimony
120
403092
2925
Ao mesmo tempo, houve testemunhos do congresso
06:46
in front of both houses of Congress in the United States,
121
406041
3036
em frente às duas casas do Congresso nos Estados Unidos,
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
que analisaram o papel de robôs na disseminação de notícias falsas.
06:52
So we looked at this too --
123
412863
1354
Também analisamos isso.
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
Usamos vários algoritmos sofisticados de detecção de robôs
06:57
to find the bots in our data and to pull them out.
125
417863
3074
para encontrar os robôs em nossos dados e retirá-los.
07:01
So we pulled them out, we put them back in
126
421347
2659
Nós os retiramos, os colocamos de volta
07:04
and we compared what happens to our measurement.
127
424030
3119
e comparamos o que acontece com nossa medição.
07:07
And what we found was that, yes indeed,
128
427173
2293
Descobrimos que, de fato,
07:09
bots were accelerating the spread of false news online,
129
429490
3682
robôs aceleravam a disseminação de notícias falsas na internet,
07:13
but they were accelerating the spread of true news
130
433196
2651
mas aceleravam a disseminação de notícias verdadeiras
07:15
at approximately the same rate.
131
435871
2405
aproximadamente na mesma velocidade,
07:18
Which means bots are not responsible
132
438300
2858
o que significa que os robôs não são responsáveis
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
pela disseminação diferenciada da verdade e da falsidade na internet.
07:25
We can't abdicate that responsibility,
134
445919
2849
Não podemos abdicar dessa responsabilidade,
07:28
because we, humans, are responsible for that spread.
135
448792
4259
porque nós, seres humanos, somos responsáveis por essa disseminação.
07:34
Now, everything that I have told you so far,
136
454472
3334
Tudo o que falei até agora,
07:37
unfortunately for all of us,
137
457830
1754
infelizmente para todos nós,
07:39
is the good news.
138
459608
1261
são as boas notícias.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
O motivo é que está prestes a ficar muito pior.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
Duas tecnologias específicas vão piorar as coisas.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
Veremos o aumento de uma onda enorme de mídia sintética,
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
vídeos e áudios falsos muito convincentes para o olho humano.
08:03
And this will powered by two technologies.
143
483458
2754
Isso será alimentado por duas tecnologias.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
A primeira delas é conhecida como "redes adversárias generativas".
08:10
This is a machine-learning model with two networks:
145
490093
2563
É um modelo de aprendizado de máquina com duas redes:
08:12
a discriminator,
146
492680
1547
um discriminador,
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
cuja tarefa é determinar se algo é verdadeiro ou falso,
08:18
and a generator,
148
498475
1167
e um gerador,
08:19
whose job it is to generate synthetic media.
149
499666
3150
cuja tarefa é gerar mídia sintética.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
O gerador sintético gera vídeo ou áudio sintéticos,
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
e o discriminador tenta dizer: "Isso é real ou falso?"
08:32
And in fact, it is the job of the generator
152
512665
2874
De fato, é a tarefa do gerador
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
maximizar a probabilidade de enganar o discriminador
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
para ele achar que o vídeo e o áudio sintéticos que está criando
08:43
is actually true.
155
523633
1730
são realmente verdadeiros.
08:45
Imagine a machine in a hyperloop,
156
525387
2373
Imaginem uma máquina em um superciclo,
08:47
trying to get better and better at fooling us.
157
527784
2803
tentando ficar cada vez melhor em nos enganar.
08:51
This, combined with the second technology,
158
531114
2500
Isso, combinado com a segunda tecnologia,
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
que é basicamente a democratização da inteligência artificial às pessoas,
08:59
the ability for anyone,
160
539384
2189
a capacidade de qualquer pessoa
09:01
without any background in artificial intelligence
161
541597
2830
sem formação em inteligência artificial ou aprendizado de máquina
09:04
or machine learning,
162
544451
1182
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
implantar esses tipos de algoritmos para gerar mídia sintética,
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
torna, no final, muito mais fácil criar vídeos.
09:14
The White House issued a false, doctored video
165
554355
4421
A Casa Branca divulgou um vídeo falso adulterado
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
de um jornalista interagindo com uma estagiária
que tentava pegar seu microfone.
09:23
They removed frames from this video
167
563427
1999
Eles removeram quadros desse vídeo
09:25
in order to make his actions seem more punchy.
168
565450
3287
para fazer com que suas ações parecessem mais agressivas.
09:29
And when videographers and stuntmen and women
169
569157
3385
Quando cinegrafistas, dublês e mulheres
09:32
were interviewed about this type of technique,
170
572566
2427
foram entrevistados sobre esse tipo de técnica,
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
eles disseram: "Sim, usamos isso nos filmes o tempo todo
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
para fazer com que nossos socos e chutes pareçam mais duros e agressivos".
09:44
They then put out this video
173
584268
1867
Esse vídeo foi publicado
09:46
and partly used it as justification
174
586159
2500
e parcialmente usado como justificativa
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
para cancelar o passe de imprensa do repórter Jim Acosta
09:52
from the White House.
176
592706
1339
para a Casa Branca.
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
E a CNN teve que processar para reaver esse passe.
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
Posso pensar em cerca de cinco caminhos diferentes que podemos seguir
10:06
to try and address some of these very difficult problems today.
179
606165
3739
para tentar resolver alguns desses problemas muito difíceis hoje.
10:10
Each one of them has promise,
180
610379
1810
Cada um deles tem promessas,
10:12
but each one of them has its own challenges.
181
612213
2999
mas também seus próprios desafios.
10:15
The first one is labeling.
182
615236
2008
O primeiro são os rótulos.
10:17
Think about it this way:
183
617268
1357
Pensem da seguinte maneira:
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
quando vamos ao supermercado comprar alimentos para consumo,
10:22
it's extensively labeled.
185
622284
1904
eles estão amplamente rotulados.
10:24
You know how many calories it has,
186
624212
1992
Sabemos quantas calorias têm,
10:26
how much fat it contains --
187
626228
1801
quanta gordura contêm.
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
Porém, quando consumimos notícias, não temos rótulo algum.
10:32
What is contained in this information?
189
632355
1928
O que está contido nessas notícias?
10:34
Is the source credible?
190
634307
1453
A fonte é confiável?
10:35
Where is this information gathered from?
191
635784
2317
De onde veio a notícia?
10:38
We have none of that information
192
638125
1825
Não temos nenhum desses dados
10:39
when we are consuming information.
193
639974
2103
quando consumimos notícias.
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
Essa é uma abordagem possível, mas vem com seus desafios.
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
Por exemplo, quem decide, na sociedade, o que é verdade e o que é falso?
10:52
Is it the governments?
196
652387
1642
São os governos?
10:54
Is it Facebook?
197
654053
1150
É o Facebook?
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
É um consórcio independente de verificadores de fatos?
10:59
And who's checking the fact-checkers?
199
659387
2466
E quem verifica os verificadores de fatos?
11:02
Another potential avenue is incentives.
200
662427
3084
Outra abordagem possível são incentivos.
11:05
We know that during the US presidential election
201
665535
2634
Sabemos que, durante a eleição presidencial dos EUA,
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
houve uma onda de notícias falsas vinda da Macedônia
11:11
that didn't have any political motive
203
671907
2337
que não tinha nenhum motivo político,
11:14
but instead had an economic motive.
204
674268
2460
mas sim um motivo econômico.
11:16
And this economic motive existed,
205
676752
2148
E esse motivo econômico existia
11:18
because false news travels so much farther, faster
206
678924
3524
porque notícias falsas viajam muito mais longe, mais rápido
11:22
and more deeply than the truth,
207
682472
2010
e mais profundamente do que a verdade,
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
e pode-se ganhar dólares em publicidade enquanto se acumula usuários e atenção
11:29
with this type of information.
209
689490
1960
com esse tipo de notícia.
11:31
But if we can depress the spread of this information,
210
691474
3833
Mas, se pudermos diminuir a disseminação dessas notícias,
11:35
perhaps it would reduce the economic incentive
211
695331
2897
talvez isso reduza o incentivo econômico
11:38
to produce it at all in the first place.
212
698252
2690
para produzi-las de qualquer modo, em primeiro lugar.
11:40
Third, we can think about regulation,
213
700966
2500
Terceiro, podemos pensar em regulamentação
11:43
and certainly, we should think about this option.
214
703490
2325
e, certamente, devemos pensar nessa opção.
11:45
In the United States, currently,
215
705839
1611
Nos Estados Unidos, atualmente,
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
estamos explorando o que pode acontecer se Facebook e outros forem regulamentados.
11:52
While we should consider things like regulating political speech,
217
712346
3801
Embora devamos considerar coisas como controlar o discurso político,
11:56
labeling the fact that it's political speech,
218
716171
2508
rotular o fato de ser discurso político,
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
garantir que participantes estrangeiros não possam financiar discursos políticos,
12:02
it also has its own dangers.
220
722546
2547
isso também tem seus próprios perigos.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
Por exemplo, a Malásia acabou de instituir uma sentença de seis anos de prisão
12:10
for anyone found spreading misinformation.
222
730424
2734
para quem for encontrado espalhando notícias falsas.
12:13
And in authoritarian regimes,
223
733696
2079
Em regimes autoritários,
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
esses tipos de políticas podem ser usados para reprimir opiniões de minorias
12:20
and to continue to extend repression.
225
740489
3508
e continuar a aumentar a repressão.
12:24
The fourth possible option is transparency.
226
744680
3543
A quarta opção possível é a transparência.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
Queremos saber como funcionam os algoritmos do Facebook,
12:32
How does the data combine with the algorithms
228
752581
2880
como os dados se combinam com os algoritmos
12:35
to produce the outcomes that we see?
229
755485
2838
para produzir os resultados que vemos.
12:38
We want them to open the kimono
230
758347
2349
Queremos que abram o jogo
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
e nos mostrem exatamente o funcionamento interno do Facebook.
12:44
And if we want to know social media's effect on society,
232
764958
2779
Se queremos saber o efeito das mídias sociais na sociedade,
12:47
we need scientists, researchers
233
767761
2086
precisamos que cientistas, pesquisadores
12:49
and others to have access to this kind of information.
234
769871
3143
e outros tenham acesso a esse tipo de informação.
12:53
But at the same time,
235
773038
1547
Mas, ao mesmo tempo,
12:54
we are asking Facebook to lock everything down,
236
774609
3801
pedimos para o Facebook bloquear tudo,
12:58
to keep all of the data secure.
237
778434
2173
para manter todos os dados seguros.
13:00
So, Facebook and the other social media platforms
238
780631
3159
O Facebook e as outras plataformas de mídia social
13:03
are facing what I call a transparency paradox.
239
783814
3134
estão enfrentando o que chamo de paradoxo da transparência.
13:07
We are asking them, at the same time,
240
787266
2674
Pedimos que, ao mesmo tempo,
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
sejam abertos, transparentes e seguros.
13:14
This is a very difficult needle to thread,
242
794797
2691
É muito difícil tratar desse assunto,
13:17
but they will need to thread this needle
243
797512
1913
mas eles precisarão fazer isso
13:19
if we are to achieve the promise of social technologies
244
799449
3787
se quisermos cumprir a promessa das tecnologias sociais
13:23
while avoiding their peril.
245
803260
1642
enquanto evitamos seus perigos.
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
A última coisa que poderíamos pensar é em algoritmos e aprendizado de máquina.
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
A tecnologia foi criada para erradicar e entender as notícias falsas,
como elas se espalham
13:34
and to try and dampen its flow.
248
814942
2331
e para tentar diminuir seu fluxo.
13:37
Humans have to be in the loop of this technology,
249
817824
2897
Os seres humanos tem que estar informados sobre essa tecnologia,
13:40
because we can never escape
250
820745
2278
porque nunca podemos escapar do fato
13:43
that underlying any technological solution or approach
251
823047
4038
de que, subjacente a qualquer solução ou abordagem tecnológica,
13:47
is a fundamental ethical and philosophical question
252
827109
4047
está uma questão ética e filosófica fundamental
13:51
about how do we define truth and falsity,
253
831180
3270
sobre como definimos verdade e falsidade,
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
a quem damos o poder de definir verdade e falsidade
13:57
and which opinions are legitimate,
255
837678
2460
e quais opiniões são legítimas,
14:00
which type of speech should be allowed and so on.
256
840162
3706
que tipo de discurso deve ser permitido e assim por diante.
14:03
Technology is not a solution for that.
257
843892
2328
A tecnologia não é uma solução para isso.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
Ética e filosofia são uma solução para isso.
14:10
Nearly every theory of human decision making,
259
850950
3318
Quase toda teoria de tomada de decisão humana,
14:14
human cooperation and human coordination
260
854292
2761
cooperação e coordenação humanas
14:17
has some sense of the truth at its core.
261
857077
3674
tem algum sentido da verdade em seu cerne.
14:21
But with the rise of fake news,
262
861347
2056
Mas, com o aumento de notícias falsas,
14:23
the rise of fake video,
263
863427
1443
o aumento de vídeos falsos,
14:24
the rise of fake audio,
264
864894
1882
o aumento de áudios falsos,
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
balançamos à beira do fim da realidade,
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
quando não podemos distinguir o que é real do que é falso.
14:34
And that's potentially incredibly dangerous.
267
874661
3039
Isso é potencial e incrivelmente perigoso.
14:38
We have to be vigilant in defending the truth
268
878931
3948
Temos que ficar alertas na defesa da verdade
14:42
against misinformation.
269
882903
1534
contra as notícias falsas.
14:44
With our technologies, with our policies
270
884919
3436
Com nossas tecnologias, nossas políticas
14:48
and, perhaps most importantly,
271
888379
1920
e, talvez o mais importante,
14:50
with our own individual responsibilities,
272
890323
3214
com nossas próprias responsabilidades,
14:53
decisions, behaviors and actions.
273
893561
3555
decisões, comportamentos e ações individuais.
14:57
Thank you very much.
274
897553
1437
Muito obrigado.
14:59
(Applause)
275
899014
3517
(Aplausos)
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7