How we can protect truth in the age of misinformation | Sinan Aral

235,868 views ・ 2020-01-16

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Tradutor: Mariana de Oliveira Revisora: Norberto Amaral
00:13
So, on April 23 of 2013,
1
13468
5222
No dia 23 de abril de 2013,
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
a Associated Press publicou o seguinte "tweet":
00:24
It said, "Breaking news:
3
24252
2397
"Notícia de última hora:
00:26
Two explosions at the White House
4
26673
2571
"Houve duas explosões na Casa Branca
00:29
and Barack Obama has been injured."
5
29268
2333
"e o presidente Barack Obama foi ferido."
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
O "tweet" foi reenviado 4000 vezes em menos de 5 minutos,
00:37
and it went viral thereafter.
7
37661
2217
e depois tornou-se viral.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
No entanto, o "tweet" em questão não foi feito pela Associated Press.
00:45
In fact it was false news, or fake news,
9
45134
3333
Na verdade, era uma notícia falsa, ou "fake news",
00:48
that was propagated by Syrian hackers
10
48491
2825
que tinha sido divulgada por "hackers" sírios
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
que se tinham infiltrado na conta da AP no Twitter.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
O seu propósito era criar ruturas na sociedade, mas foram ainda mais além,
01:00
Because automated trading algorithms
13
60320
2476
porque os algoritmos automatizados de "trading"
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
captaram imediatamente o sentimento deste "tweet"
01:06
and began trading based on the potential
15
66204
2968
e começaram a trabalhar baseados na possibilidade
01:09
that the president of the United States had been injured or killed
16
69196
3381
de o presidente dos EUA ter sido ferido ou morto
01:12
in this explosion.
17
72601
1200
nesta explosão.
01:14
And as they started tweeting,
18
74188
1992
Assim que começaram a publicar "tweets"
01:16
they immediately sent the stock market crashing,
19
76204
3349
provocaram imediatamente o colapso do mercado de ações,
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
liquidando 140 mil milhões de dólares num único dia.
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
O procurador especial dos EUA, Robert Mueller,
01:29
issued indictments against three Russian companies
22
89562
3892
emitiu acusações contra três empresas russas
01:33
and 13 Russian individuals
23
93478
2619
e treze indivíduos russos
01:36
on a conspiracy to defraud the United States
24
96121
3167
por conspiração para defraudar os EUA
01:39
by meddling in the 2016 presidential election.
25
99312
3780
interferindo nas eleições presidenciais de 2016.
01:43
And what this indictment tells as a story
26
103855
3564
Essas acusações contam-nos uma história,
01:47
is the story of the Internet Research Agency,
27
107443
3142
a história sobre a Internet Research Agency,
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
o braço sombrio do Kremlin nas redes sociais.
01:54
During the presidential election alone,
29
114815
2777
Só durante as eleições presidenciais,
01:57
the Internet Agency's efforts
30
117616
1889
as publicações da Internet Agency
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
alcançaram 126 milhões de pessoas nos EUA através do Facebook,
02:04
issued three million individual tweets
32
124720
3277
publicaram três milhões de "tweets" individuais
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
e 43 horas de conteúdos no YouTube.
02:11
All of which was fake --
34
131887
1652
Era tudo falso
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
— desinformação destinada a semear a discórdia
nas eleições presidenciais dos EUA.
02:20
A recent study by Oxford University
36
140996
2650
Um estudo recente feito na Universidade de Oxford
02:23
showed that in the recent Swedish elections,
37
143670
3270
mostrou que, nas recentes eleições da Suécia,
02:26
one third of all of the information spreading on social media
38
146964
4375
um terço de todas informações a circular nas redes sociais
02:31
about the election
39
151363
1198
sobre as eleições
02:32
was fake or misinformation.
40
152585
2087
eram falsas ou desinformação.
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
Além do mais, este tipo de campanhas de desinformação nas redes sociais
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
podem difundir o que vem sendo chamado de "propaganda genocida",
02:44
for instance against the Rohingya in Burma,
43
164314
3111
por exemplo contra os Rohingya em Myanmar,
02:47
triggering mob killings in India.
44
167449
2303
desencadeando assassínios por parte de multidões na Índia.
02:49
We studied fake news
45
169776
1494
Nós estudámos as notícias falsas
02:51
and began studying it before it was a popular term.
46
171294
3219
e começámos a estudar isso bem antes de este termo se tornar popular.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
Recentemente publicámos o maior estudo longitudinal de sempre
03:00
of the spread of fake news online
48
180094
2286
sobre o crescimento "online" das notícias falsas
03:02
on the cover of "Science" in March of this year.
49
182404
3204
na capa da revista Science em março deste ano.
03:06
We studied all of the verified true and false news stories
50
186523
4161
Estudámos todas as notícias verificadas como verdadeiras ou falsas
03:10
that ever spread on Twitter,
51
190708
1753
que já se propagaram pelo Twitter
03:12
from its inception in 2006 to 2017.
52
192485
3818
desde o seu início, em 2006, até 2017.
03:16
And when we studied this information,
53
196612
2314
Ao estudarmos estas informações,
03:18
we studied verified news stories
54
198950
2876
estudámos notícias verificadas
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
por seis ONG independentes que verificam factos.
03:25
So we knew which stories were true
56
205792
2762
Por isso sabíamos quais as notícias verdadeiras
03:28
and which stories were false.
57
208578
2126
e quais as falsas.
03:30
We can measure their diffusion,
58
210728
1873
Podemos medir a sua propagação,
03:32
the speed of their diffusion,
59
212625
1651
a rapidez da propagação,
03:34
the depth and breadth of their diffusion,
60
214300
2095
a profundidade e a amplitude da propagação,
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
e quantas pessoas são enganadas nessa torrente de informação.
03:40
And what we did in this paper
62
220942
1484
O que fizemos neste trabalho,
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
foi comparar a propagação de factos e a propagação de notícias falsas.
03:46
And here's what we found.
64
226339
1683
E o que encontrámos foi o seguinte.
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
As notícias falsas eram propagadas muito mais rapidamente
03:52
and more broadly than the truth
66
232049
1806
e mais amplamente do que os factos
03:53
in every category of information that we studied,
67
233879
3003
em todas as categorias de informações que estudámos,
03:56
sometimes by an order of magnitude.
68
236906
2499
por vezes por uma ordem de magnitude.
03:59
And in fact, false political news was the most viral.
69
239842
3524
De facto, as notícias políticas falsas eram as mais virais.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
Espalhavam-se mais rapidamente, com maior profundidade e abrangência
04:06
than any other type of false news.
71
246561
2802
do que qualquer outro tipo de notícias falsas.
04:09
When we saw this,
72
249387
1293
Quando notámos isto,
04:10
we were at once worried but also curious.
73
250704
2841
ficámos preocupados mas também curiosos.
04:13
Why?
74
253569
1151
Porquê?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
Por que razão as notícias falsas vão mais longe, mais rápida e profundamente
04:18
and more broadly than the truth?
76
258141
1864
e mais extensamente do que a verdade?
04:20
The first hypothesis that we came up with was,
77
260339
2961
A primeira hipótese que formulámos foi:
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
"Talvez as pessoas que espalham notícias falsas
"tenham mais seguidores ou sigam mais pessoas,
04:28
or tweet more often,
79
268140
1557
"ou publiquem mais "tweets",
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
"ou talvez tenham contas 'verificadas' no Twitter, com mais credibilidade,
04:33
or maybe they've been on Twitter longer."
81
273871
2182
"ou talvez estejam há mais tempo no Twitter."
04:36
So we checked each one of these in turn.
82
276077
2298
Examinámos todas as opções, uma a uma.
04:38
And what we found was exactly the opposite.
83
278691
2920
Porém, descobrimos exatamente o oposto.
04:41
False-news spreaders had fewer followers,
84
281635
2436
Os propagadores de notícias falsas tinham menos seguidores,
04:44
followed fewer people, were less active,
85
284095
2254
seguiam poucas pessoas, não eram tão ativos,
04:46
less often "verified"
86
286373
1460
não eram tão verificados
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
e estavam no Twitter há menos tempo.
04:50
And yet,
88
290841
1189
Ainda assim,
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
era 70% mais provável que fossem enviadas
notícias falsas do que verdadeiras
04:57
controlling for all of these and many other factors.
90
297111
3363
mesmo tendo em conta estes e muitos outros fatores.
05:00
So we had to come up with other explanations.
91
300498
2690
Então tivemos de encontrar outras explicações.
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
E criámos algo a que chamámos de "hipótese da novidade".
05:07
So if you read the literature,
93
307038
1960
Se lerem a literatura sobre este tema,
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
saberão que a novidade atrai a atenção humana,
05:12
things that are new in the environment.
95
312800
2519
isto é, coisas que são novas no ambiente.
05:15
And if you read the sociology literature,
96
315343
1985
Se lerem literatura sobre sociologia,
05:17
you know that we like to share novel information.
97
317352
4300
saberão que gostamos de partilhar informações novas.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
Faz parecer que temos acesso a informações privilegiadas,
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
e ganhamos estatuto por partilhar esse tipo de informações.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
Então, medimos a novidade de um novo "tweet", verdadeiro ou falso,
05:36
compared to the corpus of what that individual had seen
101
336268
4055
e comparámos com o que cada pessoa já tinha visto
05:40
in the 60 days prior on Twitter.
102
340347
2952
nos últimos 60 dias no Twitter.
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
Mas não foi o suficiente, pois pensámos:
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
"Talvez uma notícia falsa seja mais nova num sentido mais teórico-informativo,
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
"mas talvez as pessoas não vejam isso como novidade."
05:53
So to understand people's perceptions of false news,
106
353849
3927
Então, para compreender a perceção das pessoas sobre notícias falsas,
05:57
we looked at the information and the sentiment
107
357800
3690
estudámos as informações e o sentimento
06:01
contained in the replies to true and false tweets.
108
361514
4206
contido nas respostas dos "tweets" verdadeiros e falsos.
06:06
And what we found
109
366022
1206
E descobrimos
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
que, através de um conjunto de diferentes medidas de sentimentos
06:11
surprise, disgust, fear, sadness,
111
371490
3301
— surpresa, repugnância, medo, tristeza,
06:14
anticipation, joy and trust --
112
374815
2484
expetativa, alegria e confiança —
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
as notícias falsas exibiam maior surpresa e repugnância
06:23
in the replies to false tweets.
114
383204
2806
em reação aos "tweets" falsos.
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
E as notícias verdadeiras exibiam maior expetativa,
06:30
joy and trust
116
390205
1547
alegria e confiança
06:31
in reply to true tweets.
117
391776
2547
em reação aos "tweets" verdadeiros.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
Esta surpresa confirma a nossa hipótese de novidade.
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
Isto é novo e surpreendente, por isso é mais provável que partilhemos.
06:43
At the same time, there was congressional testimony
120
403092
2925
Ao mesmo tempo, houve testemunhos
06:46
in front of both houses of Congress in the United States,
121
406041
3036
em ambas as câmaras do Congresso dos EUA,
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
sobre o papel dos robôs na propagação da desinformação.
06:52
So we looked at this too --
123
412863
1354
Também estudámos isso
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
— utilizámos vários algoritmos sofisticados para detetar robôs
06:57
to find the bots in our data and to pull them out.
125
417863
3074
para os encontrar nos nossos dados e retirá-los de lá.
07:01
So we pulled them out, we put them back in
126
421347
2659
Retirámo-los e voltámos a colocá-los
07:04
and we compared what happens to our measurement.
127
424030
3119
e comparámos o que acontece à nossa medição.
07:07
And what we found was that, yes indeed,
128
427173
2293
O que encontrámos foi que, de facto,
07:09
bots were accelerating the spread of false news online,
129
429490
3682
os robôs aceleravam a propagação das notícias falsas "online",
07:13
but they were accelerating the spread of true news
130
433196
2651
mas aceleravam a propagação de notícias verdadeiras
07:15
at approximately the same rate.
131
435871
2405
aproximadamente da mesma forma.
07:18
Which means bots are not responsible
132
438300
2858
O que significa que os robôs não são responsáveis
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
pelas diferenças entre a difusão da verdade e da mentira "online".
07:25
We can't abdicate that responsibility,
134
445919
2849
Não podemos abdicar dessa responsabilidade,
07:28
because we, humans, are responsible for that spread.
135
448792
4259
porque nós, seres humanos, somos responsáveis por essa divulgação.
07:34
Now, everything that I have told you so far,
136
454472
3334
Infelizmente para todos nós,
07:37
unfortunately for all of us,
137
457830
1754
tudo que vos disse até agora
07:39
is the good news.
138
459608
1261
é a melhor parte.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
As coisas vão piorar bastante.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
Duas tecnologias específicas vão piorar tudo.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
Veremos a ascensão de uma enorme onda de conteúdos sintéticos.
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
Vídeos e áudios falsos muito convincentes para o olhar humano.
08:03
And this will powered by two technologies.
143
483458
2754
Isso será alimentado por duas tecnologias.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
A primeira é conhecida por "rede generativa antagónica."
Trata-se de um modelo de aprendizagem de máquina com duas redes:
08:10
This is a machine-learning model with two networks:
145
490093
2563
08:12
a discriminator,
146
492680
1547
um discriminador,
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
cuja função é determinar se algo é verdadeiro ou falso,
08:18
and a generator,
148
498475
1167
e um gerador,
08:19
whose job it is to generate synthetic media.
149
499666
3150
cuja função é gerar conteúdos sintéticos.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
O gerador sintético produz áudios e vídeos sintéticos,
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
e o discriminador tenta dizer-nos: ''Isto é real ou é falso?"
08:32
And in fact, it is the job of the generator
152
512665
2874
A função do gerador
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
é maximizar a probabilidade de enganar o discriminador
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
para que este julgue que os áudios e vídeos sintéticos que está a criar
08:43
is actually true.
155
523633
1730
são, de facto, verdadeiros.
08:45
Imagine a machine in a hyperloop,
156
525387
2373
Imaginem uma máquina num ciclo
08:47
trying to get better and better at fooling us.
157
527784
2803
a tentar ser cada vez melhor no ato de nos enganar.
08:51
This, combined with the second technology,
158
531114
2500
Isto, combinado com a segunda tecnologia,
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
que é basicamente a democratização da inteligência artificial para as pessoas,
08:59
the ability for anyone,
160
539384
2189
a capacidade de qualquer pessoa,
09:01
without any background in artificial intelligence
161
541597
2830
sem nenhuma compreensão sobre inteligência artificial,
09:04
or machine learning,
162
544451
1182
ou aprendizagem de máquina,
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
para utilizar este tipo de algoritmos para gerar conteúdos sintéticos
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
faz com que seja muito mais fácil criar vídeos.
09:14
The White House issued a false, doctored video
165
554355
4421
A Casa Branca partilhou um vídeo falso, adulterado
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
de um jornalista a interagir com uma estagiária
que tentava tirar-lhe o microfone.
09:23
They removed frames from this video
167
563427
1999
Eles removeram partes desse vídeo
09:25
in order to make his actions seem more punchy.
168
565450
3287
para fazer a ação do jornalista parecer mais agressiva.
09:29
And when videographers and stuntmen and women
169
569157
3385
Quando videógrafos e duplos
09:32
were interviewed about this type of technique,
170
572566
2427
foram entrevistados sobre este tipo de técnica,
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
disseram: "Sim, usamo-la com frequência em filmes
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
"para fazer com que os nossos socos e pontapés pareçam mais agressivos."
09:44
They then put out this video
173
584268
1867
Eles partilharam este vídeo
09:46
and partly used it as justification
174
586159
2500
e usaram-no em parte como justificação
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
para cancelar a credencial do repórter Jim Acosta,
09:52
from the White House.
176
592706
1339
da Casa Branca.
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
A CNN teve de processar judicialmente para revalidar a credencial.
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
Ocorrem-me cinco caminhos que podemos seguir
10:06
to try and address some of these very difficult problems today.
179
606165
3739
para tentar resolver alguns destes problemas difíceis.
10:10
Each one of them has promise,
180
610379
1810
Cada um deles inclui uma promessa,
10:12
but each one of them has its own challenges.
181
612213
2999
mas cada um tem os seus próprios desafios.
10:15
The first one is labeling.
182
615236
2008
O primeiro é a rotulagem.
10:17
Think about it this way:
183
617268
1357
Pensemos da seguinte forma:
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
quando vamos ao supermercado comprar a comida que consumimos,
10:22
it's extensively labeled.
185
622284
1904
esta está extensivamente rotulada.
10:24
You know how many calories it has,
186
624212
1992
Sabemos quantas calorias tem,
10:26
how much fat it contains --
187
626228
1801
a gordura que contém
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
— no entanto, ao consumirmos informações não temos nenhum tipo de rótulo.
10:32
What is contained in this information?
189
632355
1928
Qual o conteúdo dessas informações?
10:34
Is the source credible?
190
634307
1453
A fonte é credível?
10:35
Where is this information gathered from?
191
635784
2317
Qual a proveniência dessas informações?
10:38
We have none of that information
192
638125
1825
Não temos esse tipo de informação
10:39
when we are consuming information.
193
639974
2103
quando consumimos informações.
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
É uma possibilidade, mas coloca alguns desafios.
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
Por exemplo, na sociedade, quem decide o que é verdadeiro ou falso?
10:52
Is it the governments?
196
652387
1642
É o governo?
10:54
Is it Facebook?
197
654053
1150
É o Facebook?
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
É um consórcio independente de verificadores de factos?
10:59
And who's checking the fact-checkers?
199
659387
2466
Quem verifica os verificadores de factos?
11:02
Another potential avenue is incentives.
200
662427
3084
Outra possibilidade são os incentivos.
11:05
We know that during the US presidential election
201
665535
2634
Sabemos que, durante as eleições presidenciais nos EUA,
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
houve uma onda de desinformação proveniente da Macedónia
11:11
that didn't have any political motive
203
671907
2337
sem qualquer motivação política
11:14
but instead had an economic motive.
204
674268
2460
mas com motivação económica.
11:16
And this economic motive existed,
205
676752
2148
Esta motivação económica existiu
11:18
because false news travels so much farther, faster
206
678924
3524
porque as notícias falsas chegam muito mais longe, mais depressa
11:22
and more deeply than the truth,
207
682472
2010
e mais profundamente do que a verdade,
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
porque podemos ganhar dinheiro em publicidade, atraindo as atenções
11:29
with this type of information.
209
689490
1960
com esse tipo de informações.
11:31
But if we can depress the spread of this information,
210
691474
3833
Mas se pudermos diminuir a propagação deste tipo de informações,
11:35
perhaps it would reduce the economic incentive
211
695331
2897
talvez isso reduza o incentivo económico
11:38
to produce it at all in the first place.
212
698252
2690
de produzir este tipo de informações.
11:40
Third, we can think about regulation,
213
700966
2500
Em terceiro lugar, podemos pensar em regulamentação,
11:43
and certainly, we should think about this option.
214
703490
2325
e certamente, devíamos considerar esta opção.
11:45
In the United States, currently,
215
705839
1611
Atualmente, nos EUA,
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
estamos a estudar o que aconteceria se o Facebook e outros fossem regulados.
11:52
While we should consider things like regulating political speech,
217
712346
3801
Embora devêssemos considerar coisas como regular o discurso político,
11:56
labeling the fact that it's political speech,
218
716171
2508
rotular o facto de se tratar de discurso político,
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
garantir que elementos estrangeiros não possam financiar o discurso político
12:02
it also has its own dangers.
220
722546
2547
isso também acarreta os seus perigos.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
Por exemplo, recentemente a Malásia instituiu uma sentença de 6 anos de prisão
12:10
for anyone found spreading misinformation.
222
730424
2734
para qualquer pessoa que propague desinformações.
12:13
And in authoritarian regimes,
223
733696
2079
Em regimes autoritários,
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
esta política pode ser usada para reprimir opiniões de minorias
12:20
and to continue to extend repression.
225
740489
3508
e manter a repressão.
12:24
The fourth possible option is transparency.
226
744680
3543
A quarta opção possível é a transparência.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
Queremos saber como funcionam os algoritmos do Facebook.
12:32
How does the data combine with the algorithms
228
752581
2880
Como é que os dados se combinam com os algoritmos
12:35
to produce the outcomes that we see?
229
755485
2838
para produzir os resultados que vemos?
12:38
We want them to open the kimono
230
758347
2349
Queremos que eles "abram o quimono"
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
e nos mostrem o funcionamento interno do Facebook.
12:44
And if we want to know social media's effect on society,
232
764958
2779
E se quisermos saber o impacto das redes sociais na sociedade
12:47
we need scientists, researchers
233
767761
2086
precisamos de cientistas e investigadores
12:49
and others to have access to this kind of information.
234
769871
3143
e outros meios de acesso a este tipo de informações.
12:53
But at the same time,
235
773038
1547
Mas, simultaneamente,
12:54
we are asking Facebook to lock everything down,
236
774609
3801
estamos a pedir ao Facebook para trancar tudo,
12:58
to keep all of the data secure.
237
778434
2173
para guardar todas as informações de forma segura.
13:00
So, Facebook and the other social media platforms
238
780631
3159
O Facebook e outras plataformas de redes sociais
13:03
are facing what I call a transparency paradox.
239
783814
3134
estão a enfrentar o que chamamos de paradoxo da transparência.
13:07
We are asking them, at the same time,
240
787266
2674
Pedimos-lhes para serem, simultaneamente
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
abertos, transparentes e seguros.
13:14
This is a very difficult needle to thread,
242
794797
2691
É uma linha muito difícil de traçar,
13:17
but they will need to thread this needle
243
797512
1913
mas deverão traçá-la
13:19
if we are to achieve the promise of social technologies
244
799449
3787
se o objetivo for cumprir a promessa das tecnologias sociais
13:23
while avoiding their peril.
245
803260
1642
enquanto evitamos os seus perigos.
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
O último aspeto são os algoritmos e a aprendizagem de máquina
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
Tecnologia criada para retirar notícias falsas, compreendê-las,
como se propagam e tentar diminuir o seu fluxo.
13:34
and to try and dampen its flow.
248
814942
2331
13:37
Humans have to be in the loop of this technology,
249
817824
2897
Precisamos de compreender esta tecnologia,
13:40
because we can never escape
250
820745
2278
porque nunca vamos escapar ao facto de que
13:43
that underlying any technological solution or approach
251
823047
4038
subjacentes a qualquer solução ou abordagem tecnológica
13:47
is a fundamental ethical and philosophical question
252
827109
4047
estão as questões éticas e filosóficas fundamentais
13:51
about how do we define truth and falsity,
253
831180
3270
sobre como definimos a verdade e a falsidade,
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
a quem atribuímos o poder para definir a verdade e a falsidade,
13:57
and which opinions are legitimate,
255
837678
2460
que opiniões são legítimas,
14:00
which type of speech should be allowed and so on.
256
840162
3706
e que tipo de discurso deve ser permitido, etc.
14:03
Technology is not a solution for that.
257
843892
2328
A tecnologia não é uma solução para isso.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
A solução é a ética e a filosofia.
14:10
Nearly every theory of human decision making,
259
850950
3318
Quase todas as teorias sobre a tomada de decisões humanas,
14:14
human cooperation and human coordination
260
854292
2761
a cooperação e coordenação humanas,
14:17
has some sense of the truth at its core.
261
857077
3674
têm, no seu cerne, um sentido do que é a verdade.
14:21
But with the rise of fake news,
262
861347
2056
Mas, com o aumento das notícias falsas,
14:23
the rise of fake video,
263
863427
1443
com o aumento dos vídeos falsos,
14:24
the rise of fake audio,
264
864894
1882
o aumento dos áudios falsos,
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
estamos no limiar do fim da realidade
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
em que não sabemos o que é a verdade e o que é a mentira.
14:34
And that's potentially incredibly dangerous.
267
874661
3039
E isso é potencialmente incrivelmente perigoso.
14:38
We have to be vigilant in defending the truth
268
878931
3948
Temos de ser vigilantes em defender a verdade
14:42
against misinformation.
269
882903
1534
contra a desinformação.
14:44
With our technologies, with our policies
270
884919
3436
Com as nossas tecnologias, com as nossas políticas
14:48
and, perhaps most importantly,
271
888379
1920
e, talvez, o mais importante,
14:50
with our own individual responsibilities,
272
890323
3214
com as nossas responsabilidades individuais,
14:53
decisions, behaviors and actions.
273
893561
3555
as decisões, os comportamentos e as ações.
14:57
Thank you very much.
274
897553
1437
Muito obrigado.
14:59
(Applause)
275
899014
3517
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7