We're building a dystopia just to make people click on ads | Zeynep Tufekci

738,629 views ・ 2017-11-17

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Patrícia André Revisora: Margarida Ferreira
00:12
So when people voice fears of artificial intelligence,
0
12760
3536
Quando as pessoas falam dos seus medos da inteligência artificial,
00:16
very often, they invoke images of humanoid robots run amok.
1
16320
3976
comummente, invocam figuras de robôs humanoides fora de controlo.
00:20
You know? Terminator?
2
20320
1240
Sabem? O Exterminador?
00:22
You know, that might be something to consider,
3
22400
2336
Bem, isso pode ser algo a considerar,
00:24
but that's a distant threat.
4
24760
1856
mas é uma ameaça distante.
00:26
Or, we fret about digital surveillance
5
26640
3456
Ou então, preocupamo-nos com a vigilância digital
00:30
with metaphors from the past.
6
30120
1776
com metáforas do passado.
00:31
"1984," George Orwell's "1984,"
7
31920
2656
"1984" de George Orwell
00:34
it's hitting the bestseller lists again.
8
34600
2280
está a chegar ao topo de vendas novamente.
00:37
It's a great book,
9
37960
1416
É um ótimo livro
00:39
but it's not the correct dystopia for the 21st century.
10
39400
3880
mas não é a distopia correta para o século XXI.
O que mais devemos temer
00:44
What we need to fear most
11
44080
1416
00:45
is not what artificial intelligence will do to us on its own,
12
45520
4776
não é o que a inteligência artificial nos vai fazer por si própria,
00:50
but how the people in power will use artificial intelligence
13
50320
4736
mas sim como as pessoas no poder vão usar a inteligência artificial
00:55
to control us and to manipulate us
14
55080
2816
para nos controlar e manipular
00:57
in novel, sometimes hidden,
15
57920
3136
de formas novas, e às vezes escondidas,
01:01
subtle and unexpected ways.
16
61080
3016
subtis e inesperadas.
01:04
Much of the technology
17
64120
1856
Muita da tecnologia
01:06
that threatens our freedom and our dignity in the near-term future
18
66000
4336
que ameaça a nossa libertade e a nossa dignidade, no futuro próximo
01:10
is being developed by companies
19
70360
1856
está a ser desenvolvida por empresas
01:12
in the business of capturing and selling our data and our attention
20
72240
4936
que estão no ramo de recolher e vender
as nossas informações e a nossa atenção
01:17
to advertisers and others:
21
77200
2256
a publicitários e outros
01:19
Facebook, Google, Amazon,
22
79480
3416
— o Facebook, a Google, a Amazon,
01:22
Alibaba, Tencent.
23
82920
1880
o Alibaba, o Tencent.
01:26
Now, artificial intelligence has started bolstering their business as well.
24
86040
5496
Agora, a inteligência artificial
também começou a reforçar os seus negócios.
01:31
And it may seem like artificial intelligence
25
91560
2096
E pode parecer que a inteligência artificial
01:33
is just the next thing after online ads.
26
93680
2856
é o que se seguirá aos anúncios "online".
01:36
It's not.
27
96560
1216
Não é.
01:37
It's a jump in category.
28
97800
2456
É uma subida de patamar.
01:40
It's a whole different world,
29
100280
2576
É um mundo completamente diferente
01:42
and it has great potential.
30
102880
2616
e tem um grande potencial.
01:45
It could accelerate our understanding of many areas of study and research.
31
105520
6920
Pode acelerar a nossa compreensão
de muitas áreas de estudo e investigação.
01:53
But to paraphrase a famous Hollywood philosopher,
32
113120
3496
Mas, para parafrasear um famoso filósofo de Hollywood,
01:56
"With prodigious potential comes prodigious risk."
33
116640
3640
"Com um prodigioso potencial, vem um prodigioso risco."
02:01
Now let's look at a basic fact of our digital lives, online ads.
34
121120
3936
Olhemos para factos básicos da nossa vida digital,
os anúncios "online".
02:05
Right? We kind of dismiss them.
35
125080
2896
Quase nos passam despercebidos.
02:08
They seem crude, ineffective.
36
128000
1976
Parecem brutos, ineficazes.
02:10
We've all had the experience of being followed on the web
37
130000
4256
Já todos tivemos a experiência de sermos perseguidos na Internet
02:14
by an ad based on something we searched or read.
38
134280
2776
por um anúncio, baseado em algo que pesquisámos ou lemos.
02:17
You know, you look up a pair of boots
39
137080
1856
Procuramos um par de botas
02:18
and for a week, those boots are following you around everywhere you go.
40
138960
3376
e, durante uma semana, aquelas botas perseguem-nos, aonde quer que vamos.
02:22
Even after you succumb and buy them, they're still following you around.
41
142360
3656
Mesmo após termos cedido e as termos comprado, ainda nos perseguem.
Estamos quase habituados a este tipo de manipulação, básica e barata.
02:26
We're kind of inured to that kind of basic, cheap manipulation.
42
146040
3016
02:29
We roll our eyes and we think, "You know what? These things don't work."
43
149080
3400
Reviramos os olhos e pensamos:
"Sabem que mais? Estas coisas não funcionam."
02:33
Except, online,
44
153720
2096
Mas "online", as tecnologias digitais não são apenas os anúncios.
02:35
the digital technologies are not just ads.
45
155840
3600
02:40
Now, to understand that, let's think of a physical world example.
46
160240
3120
Para percebermos isso, pensemos num exemplo do mundo físico.
02:43
You know how, at the checkout counters at supermarkets, near the cashier,
47
163840
4656
Sabem como, nos balcões à saída do supermercado, ao pé das caixas,
02:48
there's candy and gum at the eye level of kids?
48
168520
3480
há doces e pastilhas ao nível do olhar das crianças?
02:52
That's designed to make them whine at their parents
49
172800
3496
Isso foi feito para as fazer choramingar para os pais,
02:56
just as the parents are about to sort of check out.
50
176320
3080
quando os pais estão quase a pagar e sair.
03:00
Now, that's a persuasion architecture.
51
180040
2640
Isso é uma arquitetura de persuasão.
03:03
It's not nice, but it kind of works.
52
183160
3096
Não é simpático, mas até funciona.
03:06
That's why you see it in every supermarket.
53
186280
2040
É por isso que o vemos em todos os supermercados.
03:08
Now, in the physical world,
54
188720
1696
No mundo físico,
03:10
such persuasion architectures are kind of limited,
55
190440
2496
estas arquiteturas de persuasão são um pouco limitadas,
03:12
because you can only put so many things by the cashier. Right?
56
192960
4816
porque só dá para pôr algumas coisas ao pé da caixa, certo?
03:17
And the candy and gum, it's the same for everyone,
57
197800
4296
E os doces e as pastilhas são os mesmos para toda a gente,
03:22
even though it mostly works
58
202120
1456
apesar de funcionar maioritariamente
03:23
only for people who have whiny little humans beside them.
59
203600
4040
só com pessoas que têm aqueles seres birrentos ao lado.
03:29
In the physical world, we live with those limitations.
60
209160
3920
No mundo físico, vivemos com estas limitações.
03:34
In the digital world, though,
61
214280
1936
No entanto, no mundo digital, as arquiteturas de persuasão
03:36
persuasion architectures can be built at the scale of billions
62
216240
4320
podem ser construidas à escala de milhares de milhões
03:41
and they can target, infer, understand
63
221840
3856
e podem escolher o alvo, deduzir,
compreender e ser utilizadas em indivíduos, um a um,
03:45
and be deployed at individuals
64
225720
2896
03:48
one by one
65
228640
1216
03:49
by figuring out your weaknesses,
66
229880
2136
percebendo as suas fraquezas,
03:52
and they can be sent to everyone's phone private screen,
67
232040
5616
e podem ser enviadas para o ecrã do telefone privado de cada pessoa
03:57
so it's not visible to us.
68
237680
2256
e, por isso, nós não as vemos.
03:59
And that's different.
69
239960
1256
E isso é diferente.
04:01
And that's just one of the basic things that artificial intelligence can do.
70
241240
3576
E é só uma das coisas básicas que a inteligência artificial faz.
04:04
Now, let's take an example.
71
244840
1336
Vejamos um exemplo.
04:06
Let's say you want to sell plane tickets to Vegas. Right?
72
246200
2696
Suponhamos que queremos vender bilhetes de avião para Las Vegas.
04:08
So in the old world, you could think of some demographics to target
73
248920
3496
No mundo antigo, pensaríamos nalgumas demografias como alvo
04:12
based on experience and what you can guess.
74
252440
2520
com basea na experiência e em palpites.
04:15
You might try to advertise to, oh,
75
255560
2816
Poderíamos colocar anúncios para homens entre os 25 e os 35 anos,
04:18
men between the ages of 25 and 35,
76
258400
2496
04:20
or people who have a high limit on their credit card,
77
260920
3936
ou pessoas que tenham um limite elevado no cartão de crédito,
04:24
or retired couples. Right?
78
264880
1376
ou casais reformados, certo?
04:26
That's what you would do in the past.
79
266280
1816
Isso seria o que faríamos no passado.
04:28
With big data and machine learning,
80
268120
2896
Com a grande quantidade de informações e a aprendizagem de máquinas,
04:31
that's not how it works anymore.
81
271040
1524
já não é assim que funciona.
04:33
So to imagine that,
82
273320
2176
Para imaginar isso,
04:35
think of all the data that Facebook has on you:
83
275520
3856
pensemos em todas as informações que o Facebook tem sobre nós:
04:39
every status update you ever typed,
84
279400
2536
cada atualização de estado que escrevemos,
04:41
every Messenger conversation,
85
281960
2016
cada conversa no Messenger,
04:44
every place you logged in from,
86
284000
1880
cada local em que acedemos ao Facebook,
04:48
all your photographs that you uploaded there.
87
288400
3176
cada fotografia que carregámos para a plataforma.
04:51
If you start typing something and change your mind and delete it,
88
291600
3776
Se começamos a escrever uma coisa e mudamos de ideias e a apagamos
04:55
Facebook keeps those and analyzes them, too.
89
295400
3200
o Facebook guarda essas informações e também as analisa.
04:59
Increasingly, it tries to match you with your offline data.
90
299160
3936
Cada vez mais, tenta fazer a correspondência
entre nós e as nossas informações "offline".
05:03
It also purchases a lot of data from data brokers.
91
303120
3176
Também compra muitas informações a corretores de dados.
05:06
It could be everything from your financial records
92
306320
3416
Pode ser qualquer coisa, desde registos financeiros,
05:09
to a good chunk of your browsing history.
93
309760
2120
até uma boa parte do nosso histórico da Internet.
05:12
Right? In the US, such data is routinely collected,
94
312360
5416
Nos EUA estas informações são rotineiramente recolhidas,
05:17
collated and sold.
95
317800
1960
reunidas e vendidas.
05:20
In Europe, they have tougher rules.
96
320320
2440
Na Europa, há regras mais restritas.
05:23
So what happens then is,
97
323680
2200
Então o que acontece é que, ao remexer em todas estas informações
05:26
by churning through all that data, these machine-learning algorithms --
98
326920
4016
os algoritmos de aprendizagem destas máquinas,
05:30
that's why they're called learning algorithms --
99
330960
2896
— é por isso que são chamados, algoritmos de aprendizagem —
05:33
they learn to understand the characteristics of people
100
333880
4096
aprendem a detetar as características das pessoas
05:38
who purchased tickets to Vegas before.
101
338000
2520
que já compraram bilhetes para Las Vegas antes.
05:41
When they learn this from existing data,
102
341760
3536
Quando aprendem isto a partir de informações já existentes,
05:45
they also learn how to apply this to new people.
103
345320
3816
também aprendem como o aplicar a novas pessoas.
05:49
So if they're presented with a new person,
104
349160
3056
Se lhes apresentarem uma nova pessoa,
05:52
they can classify whether that person is likely to buy a ticket to Vegas or not.
105
352240
4640
eles conseguem classificar se essa pessoa
poderá comprar um bilhete para Las Vegas ou não.
05:57
Fine. You're thinking, an offer to buy tickets to Vegas.
106
357720
5456
Ok, vocês estão a pensar:
"Uma oferta para comprar um bilhete para Las Vegas?
06:03
I can ignore that.
107
363200
1456
"Consigo ignorar isso".
06:04
But the problem isn't that.
108
364680
2216
Mas o problema não é isso.
06:06
The problem is,
109
366920
1576
O problema é que já não percebemos como funcionam estes algoritmos complexos.
06:08
we no longer really understand how these complex algorithms work.
110
368520
4136
06:12
We don't understand how they're doing this categorization.
111
372680
3456
Nós não percebemos como estão a fazer essa categorização.
06:16
It's giant matrices, thousands of rows and columns,
112
376160
4416
São matrizes gigantes, milhares de linhas e colunas,
06:20
maybe millions of rows and columns,
113
380600
1960
talvez milhões de linhas e colunas.
06:23
and not the programmers
114
383320
2640
E já nem os programadores
06:26
and not anybody who looks at it,
115
386760
1680
nem alguém que olhe para aquilo,
06:29
even if you have all the data,
116
389440
1496
mesmo que tenha todas as informações,
06:30
understands anymore how exactly it's operating
117
390960
4616
percebem como, exatamente, é que aquilo funciona,
06:35
any more than you'd know what I was thinking right now
118
395600
3776
tal como vocês não saberiam em que é que eu estou a pensar agora,
06:39
if you were shown a cross section of my brain.
119
399400
3960
se eu vos mostrasse um corte transversal do meu cérebro.
06:44
It's like we're not programming anymore,
120
404360
2576
É como se já não estivéssemos a programar,
06:46
we're growing intelligence that we don't truly understand.
121
406960
4400
estamos a desenvolver inteligência que já não percebemos verdadeiramente.
06:52
And these things only work if there's an enormous amount of data,
122
412520
3976
Tudo isto só funciona se houver quantidades enormes de informações.
06:56
so they also encourage deep surveillance on all of us
123
416520
5096
Então, eles também encorajam uma forte vigilância sobre todos nós
07:01
so that the machine learning algorithms can work.
124
421640
2336
para que os algoritmos de aprendizagem funcionem.
07:04
That's why Facebook wants to collect all the data it can about you.
125
424000
3176
É por isso que o Facebook recolhe todas as informações possíveis.
07:07
The algorithms work better.
126
427200
1576
Os algoritmos funcionam melhor.
07:08
So let's push that Vegas example a bit.
127
428800
2696
Vamos forçar um pouco o exemplo de Las Vegas.
07:11
What if the system that we do not understand
128
431520
3680
E se o sistema, que nós não compreendemos,
07:16
was picking up that it's easier to sell Vegas tickets
129
436200
5136
estivesse a captar que é mais fácil vender bilhetes para Las Vegas
07:21
to people who are bipolar and about to enter the manic phase.
130
441360
3760
a pessoas que são bipolares
e estão prestes a entrar na fase maníaca?
07:25
Such people tend to become overspenders, compulsive gamblers.
131
445640
4920
Essas pessoas tendem a gastar demais e a serem jogadores compulsivos.
07:31
They could do this, and you'd have no clue that's what they were picking up on.
132
451280
4456
Eles podiam fazer isso, e nós não faríamos a ideia
que era esse o critério que estariam a usar.
07:35
I gave this example to a bunch of computer scientists once
133
455760
3616
Uma vez, dei este exemplo a um grupo de cientistas informáticos
07:39
and afterwards, one of them came up to me.
134
459400
2056
e no final, um deles veio ter comigo.
07:41
He was troubled and he said, "That's why I couldn't publish it."
135
461480
3520
Estava perturbado e disse:
"Foi por isso que eu não pude publicar."
07:45
I was like, "Couldn't publish what?"
136
465600
1715
E eu: "Não pôde publicar o quê?"
07:47
He had tried to see whether you can indeed figure out the onset of mania
137
467800
5856
Ele tinha tentado perceber se seria possível
apercebermo-nos do início de uma fase de mania
07:53
from social media posts before clinical symptoms,
138
473680
3216
a partir das publicações nas redes sociais antes de haver sintomas clínicos,
07:56
and it had worked,
139
476920
1776
e tinha conseguido.
07:58
and it had worked very well,
140
478720
2056
Tinha funcionado muito bem.
08:00
and he had no idea how it worked or what it was picking up on.
141
480800
4880
Ele não fazia ideia de como é que tinha funcionado
ou como é que lá tinha chegado
08:06
Now, the problem isn't solved if he doesn't publish it,
142
486840
4416
O problema não fica resolvido se ele não o publicar,
08:11
because there are already companies
143
491280
1896
porque já há empresas a desenvolver este tipo de tecnologia,
08:13
that are developing this kind of technology,
144
493200
2536
08:15
and a lot of the stuff is just off the shelf.
145
495760
2800
e há muita coisa já disponível.
08:19
This is not very difficult anymore.
146
499240
2576
Isto já não é muito difícil.
08:21
Do you ever go on YouTube meaning to watch one video
147
501840
3456
Já aconteceu irem ao Youtube com intenção de ver um vídeo
08:25
and an hour later you've watched 27?
148
505320
2360
e uma hora depois, já viram 27?
08:28
You know how YouTube has this column on the right
149
508760
2496
Sabem, o YouTube tem aquela coluna à direita,
08:31
that says, "Up next"
150
511280
2216
que diz "A seguir"
08:33
and it autoplays something?
151
513520
1816
e começa automaticamente outro vídeo?
08:35
It's an algorithm
152
515360
1216
É um algoritmo a escolher o que acha que nos pode interessar
08:36
picking what it thinks that you might be interested in
153
516600
3616
08:40
and maybe not find on your own.
154
520240
1536
e talvez não encontremos sozinhos.
08:41
It's not a human editor.
155
521800
1256
Não é um editor humano. É o que os algoritmos fazem.
08:43
It's what algorithms do.
156
523080
1416
08:44
It picks up on what you have watched and what people like you have watched,
157
524520
4736
Vê o que já vimos e o que pessoas como nós já viram,
08:49
and infers that that must be what you're interested in,
158
529280
4216
e presume que aquilo deve ser do nosso interesse,
08:53
what you want more of,
159
533520
1255
aquilo que queremos ver mais, e mostra-nos mais.
08:54
and just shows you more.
160
534799
1336
08:56
It sounds like a benign and useful feature,
161
536159
2201
Parece uma funcionalidade benigna e útil,
08:59
except when it isn't.
162
539280
1200
exceto quando não é.
09:01
So in 2016, I attended rallies of then-candidate Donald Trump
163
541640
6960
Em 2016, fui a comícios do então candidato, Donald Trump
09:09
to study as a scholar the movement supporting him.
164
549840
3336
para estudar, como especialista, o movimento que o apoiava.
09:13
I study social movements, so I was studying it, too.
165
553200
3456
Eu estudo movimentos sociais, então estava a estudar isso também.
09:16
And then I wanted to write something about one of his rallies,
166
556680
3336
Depois, quis escrever qualquer coisa sobre um dos comícios dele,
09:20
so I watched it a few times on YouTube.
167
560040
1960
portanto vi-o umas vezes no YouTube.
09:23
YouTube started recommending to me
168
563240
3096
O YouTube começou a recomendar-me
09:26
and autoplaying to me white supremacist videos
169
566360
4256
e a reproduzir automaticamente vídeos de supremacia da raça branca
09:30
in increasing order of extremism.
170
570640
2656
por ordem crescente de extremismo.
09:33
If I watched one,
171
573320
1816
Se eu visse um,
09:35
it served up one even more extreme
172
575160
2976
aparecer-me-ia outro ainda mais extremo
09:38
and autoplayed that one, too.
173
578160
1424
que também se reproduzia automaticamente.
09:40
If you watch Hillary Clinton or Bernie Sanders content,
174
580320
4536
Se virmos conteúdos de Hillary Clinton ou de Bernie Sanders,
09:44
YouTube recommends and autoplays conspiracy left,
175
584880
4696
o YouTube recomenda e reproduz vídeos de conspirações de esquerda,
09:49
and it goes downhill from there.
176
589600
1760
e a partir daí só piora.
09:52
Well, you might be thinking, this is politics, but it's not.
177
592480
3056
Podemos pensar que isto é política, mas não é.
09:55
This isn't about politics.
178
595560
1256
Não se trata de política.
09:56
This is just the algorithm figuring out human behavior.
179
596840
3096
Isto é só o algoritmo a desvendar o comportamento humano.
09:59
I once watched a video about vegetarianism on YouTube
180
599960
4776
Uma vez, vi um vídeo sobre vegetarianismo no YouTube
10:04
and YouTube recommended and autoplayed a video about being vegan.
181
604760
4936
e o YouTube recomendou e reproduziu um vídeo sobre ser vegan.
10:09
It's like you're never hardcore enough for YouTube.
182
609720
3016
É como se nunca fôssemos duros o suficiente para o YouTube.
10:12
(Laughter)
183
612760
1576
(Risos)
10:14
So what's going on?
184
614360
1560
Então o que é que se está a passar?
10:16
Now, YouTube's algorithm is proprietary,
185
616520
3536
O algoritmo do YouTube é patenteado,
10:20
but here's what I think is going on.
186
620080
2360
mas eis o que eu acho que se está a passar:
10:23
The algorithm has figured out
187
623360
2096
O algoritmo percebeu
10:25
that if you can entice people
188
625480
3696
que, se pudermos levar as pessoas a pensar
10:29
into thinking that you can show them something more hardcore,
189
629200
3736
que lhes podemos mostrar algo ainda mais forte,
10:32
they're more likely to stay on the site
190
632960
2416
é mais provável que elas se mantenham no "site"
10:35
watching video after video going down that rabbit hole
191
635400
4416
a ver vídeo atrás de vídeo, indo pela espiral abaixo,
10:39
while Google serves them ads.
192
639840
1680
enquanto o Google lhes apresenta anúncios.
10:43
Now, with nobody minding the ethics of the store,
193
643760
3120
Sem ninguém a preocupar-se com a ética da loja,
10:47
these sites can profile people
194
647720
4240
estes "sites" podem fazer o perfil das pessoas
10:53
who are Jew haters,
195
653680
1920
que odeiam judeus,
10:56
who think that Jews are parasites
196
656360
2480
que acham que os judeus são parasitas
11:00
and who have such explicit anti-Semitic content,
197
660320
4920
e que têm conteúdos explícitos antissemíticos
11:06
and let you target them with ads.
198
666080
2000
e deixa-os selecioná-los para anúncios.
11:09
They can also mobilize algorithms
199
669200
3536
Também podem mobilizar algoritmos
11:12
to find for you look-alike audiences,
200
672760
3136
para encontrarem audiências semelhantes para nós,
11:15
people who do not have such explicit anti-Semitic content on their profile
201
675920
5576
pessoas que não tenham conteúdos antissemíticos explícitos no seu perfil
11:21
but who the algorithm detects may be susceptible to such messages,
202
681520
6176
mas que o algoritmo detetou como possivelmente suscetíveis a tais mensagens
11:27
and lets you target them with ads, too.
203
687720
1920
e deixa que sejam também alvos desses anúncios.
11:30
Now, this may sound like an implausible example,
204
690680
2736
Isto pode parecer um exemplo pouco plausível,
11:33
but this is real.
205
693440
1320
mas é a realidade.
11:35
ProPublica investigated this
206
695480
2136
A ProPublica investigou isto
11:37
and found that you can indeed do this on Facebook,
207
697640
3616
e descobriu que se pode fazer isto no Facebook.
11:41
and Facebook helpfully offered up suggestions
208
701280
2416
E o Facebook, prestavelmente, oferecia sugestões
11:43
on how to broaden that audience.
209
703720
1600
para alargar essa audiência.
11:46
BuzzFeed tried it for Google, and very quickly they found,
210
706720
3016
O BuzzFeed tentou com o Google e rapidamente descobriram
11:49
yep, you can do it on Google, too.
211
709760
1736
que também dá para fazer com o Google.
11:51
And it wasn't even expensive.
212
711520
1696
E nem sequer era caro.
11:53
The ProPublica reporter spent about 30 dollars
213
713240
4416
O repórter da ProPublica gastou cerca de 30 dólares
11:57
to target this category.
214
717680
2240
para escolher o grupo-alvo.
12:02
So last year, Donald Trump's social media manager disclosed
215
722600
5296
No ano passado, o gestor das redes sociais de Donald Trump
revelou que estavam a usar "publicações negras" do Facebook
12:07
that they were using Facebook dark posts to demobilize people,
216
727920
5336
para desmobilizar as pessoas e não para as persuadir,
12:13
not to persuade them,
217
733280
1376
12:14
but to convince them not to vote at all.
218
734680
2800
mas para as convencer a não votar de todo.
12:18
And to do that, they targeted specifically,
219
738520
3576
Para o fazer, escolheram especificamente
12:22
for example, African-American men in key cities like Philadelphia,
220
742120
3896
por exemplo, homens afro-americanos de cidades-chave, como Filadélfia.
12:26
and I'm going to read exactly what he said.
221
746040
2456
Vou ler exatamente o que ele disse.
12:28
I'm quoting.
222
748520
1216
Estou a citar.
12:29
They were using "nonpublic posts
223
749760
3016
"Eles estavam a usar publicações não públicas
12:32
whose viewership the campaign controls
224
752800
2176
"cujas vizualizações são controladas pela campanha,
12:35
so that only the people we want to see it see it.
225
755000
3776
"de forma a que apenas as pessoas que nós queremos que vejam, as vejam.
12:38
We modeled this.
226
758800
1216
"Nós modelámos isto.
12:40
It will dramatically affect her ability to turn these people out."
227
760040
4720
"Vai afetar drasticamente a capacidade de afastar essas pessoas".
12:45
What's in those dark posts?
228
765720
2280
O que está nessas "publicações negras"?
12:48
We have no idea.
229
768480
1656
Não fazemos ideia.
12:50
Facebook won't tell us.
230
770160
1200
O Facebook não nos diz.
12:52
So Facebook also algorithmically arranges the posts
231
772480
4376
O Facebook também organiza algoritmicamente essas publicações
12:56
that your friends put on Facebook, or the pages you follow.
232
776880
3736
que os nossos amigos põem no Facebook ou nas páginas que nós seguimos.
13:00
It doesn't show you everything chronologically.
233
780640
2216
Não nos mostra as publicações por ordem cronológica.
13:02
It puts the order in the way that the algorithm thinks will entice you
234
782880
4816
Ordena as publicações pela ordem que o algoritmo acha
que nos vai levar a ficar mais tempo no "site".
13:07
to stay on the site longer.
235
787720
1840
13:11
Now, so this has a lot of consequences.
236
791040
3376
Isto tem muitas consequências.
13:14
You may be thinking somebody is snubbing you on Facebook.
237
794440
3800
Podemos achar que alguém nos está a ignorar no Facebook.
13:18
The algorithm may never be showing your post to them.
238
798800
3256
Mas o algoritmo pode não lhes estar a mostrar as nossas publicações.
13:22
The algorithm is prioritizing some of them and burying the others.
239
802080
5960
O algoritmo está a dar prioridade a algumas e a enterrar as outras.
13:29
Experiments show
240
809320
1296
As experiências mostram
13:30
that what the algorithm picks to show you can affect your emotions.
241
810640
4520
que o que o algoritmo escolhe mostrar pode afetar as nossas emoções.
13:36
But that's not all.
242
816600
1200
Mas isso não é tudo.
13:38
It also affects political behavior.
243
818280
2360
Também afeta o comportamento político.
13:41
So in 2010, in the midterm elections,
244
821360
4656
Em 2010, nas eleições intercalares,
13:46
Facebook did an experiment on 61 million people in the US
245
826040
5896
o Facebook fez uma experiência em 61 milhões de pessoas nos EUA
13:51
that was disclosed after the fact.
246
831960
1896
facto que foi revelado depois do facto.
13:53
So some people were shown, "Today is election day,"
247
833880
3416
Mostraram a algumas pessoas: "Hoje é dia de eleições",
13:57
the simpler one,
248
837320
1376
a versão mais simples,
13:58
and some people were shown the one with that tiny tweak
249
838720
3896
e a outras mostraram a versão com aquela barrinha
14:02
with those little thumbnails
250
842640
2096
com as pequenas fotos dos amigos que tinham clicado em "Eu votei".
14:04
of your friends who clicked on "I voted."
251
844760
2840
14:09
This simple tweak.
252
849000
1400
Essa simples barra, ok?
14:11
OK? So the pictures were the only change,
253
851520
4296
As fotografias eram a única diferença,
14:15
and that post shown just once
254
855840
3256
e essa publicação, mostrada apenas uma vez
14:19
turned out an additional 340,000 voters
255
859120
6056
mobilizou 340 mil votos adicionais
14:25
in that election,
256
865200
1696
naquelas eleições,
14:26
according to this research
257
866920
1696
de acordo com este estudo,
14:28
as confirmed by the voter rolls.
258
868640
2520
como foi confirmado pelos registos eleitorais.
14:32
A fluke? No.
259
872920
1656
Um mero acaso? Não.
14:34
Because in 2012, they repeated the same experiment.
260
874600
5360
Porque em 2012, repetiram a mesma experiência.
14:40
And that time,
261
880840
1736
E dessa vez, aquela mensagem cívica mostrada apenas uma vez,
14:42
that civic message shown just once
262
882600
3296
14:45
turned out an additional 270,000 voters.
263
885920
4440
mobilizou 270 mil votos adicionais.
14:51
For reference, the 2016 US presidential election
264
891160
5216
Como referência, as eleições presidenciais de 2016 nos EUA
14:56
was decided by about 100,000 votes.
265
896400
3520
foram decididas apenas por cerca de 100 mil votos.
15:01
Now, Facebook can also very easily infer what your politics are,
266
901360
4736
O Facebook consegue facilmente deduzir quais são os nossos ideais políticos,
15:06
even if you've never disclosed them on the site.
267
906120
2256
mesmo que nunca os tenhamos revelado no "site".
15:08
Right? These algorithms can do that quite easily.
268
908400
2520
Estes algoritmos conseguem fazer isso muito facilmente.
15:11
What if a platform with that kind of power
269
911960
3896
E se uma plataforma com este tipo de poder
15:15
decides to turn out supporters of one candidate over the other?
270
915880
5040
decidir mobilizar apoiantes de um candidato mais que de outro?
15:21
How would we even know about it?
271
921680
2440
Como é que sequer teríamos conhecimento disso?
15:25
Now, we started from someplace seemingly innocuous --
272
925560
4136
Começámos de um lugar supostamente inócuo
15:29
online adds following us around --
273
929720
2216
— anúncios "online" que nos perseguem —
15:31
and we've landed someplace else.
274
931960
1840
e chegámos a um local completamente diferente.
15:35
As a public and as citizens,
275
935480
2456
Como público e como cidadãos,
15:37
we no longer know if we're seeing the same information
276
937960
3416
nós já não sabemos se estamos a ver as mesmas informações
15:41
or what anybody else is seeing,
277
941400
1480
ou o que qualquer outra pessoa está a ver,
15:43
and without a common basis of information,
278
943680
2576
e sem uma base comum de informações,
15:46
little by little,
279
946280
1616
pouco a pouco, o debate público torna-se impossível,
15:47
public debate is becoming impossible,
280
947920
3216
15:51
and we're just at the beginning stages of this.
281
951160
2976
e estamos apenas no início de tudo isto.
15:54
These algorithms can quite easily infer
282
954160
3456
Estes algoritmos conseguem, com bastante facilidade,
deduzir coisas como a etnia das pessoas,
15:57
things like your people's ethnicity,
283
957640
3256
16:00
religious and political views, personality traits,
284
960920
2336
as crenças religiosas e políticas, traços de personalidade.
16:03
intelligence, happiness, use of addictive substances,
285
963280
3376
inteligência, felicidade, uso de substâncias aditivas,
16:06
parental separation, age and genders,
286
966680
3136
separações dos pais, idade e género,
16:09
just from Facebook likes.
287
969840
1960
apenas pelos likes do Facebook.
16:13
These algorithms can identify protesters
288
973440
4056
Estes algoritmos podem identificar manifestantes
16:17
even if their faces are partially concealed.
289
977520
2760
mesmo se as suas caras estiverem parcialmente escondidas.
16:21
These algorithms may be able to detect people's sexual orientation
290
981720
6616
Estes algoritmos podem conseguir detetar a orientação sexual duma pessoa
16:28
just from their dating profile pictures.
291
988360
3200
apenas pelas fotografias do perfil de encontros.
16:33
Now, these are probabilistic guesses,
292
993560
2616
Estes são palpites probabilísticos,
16:36
so they're not going to be 100 percent right,
293
996200
2896
por isso não vão estar 100% corretos.
16:39
but I don't see the powerful resisting the temptation to use these technologies
294
999120
4896
Mas eu não vejo os poderosos a resistir à tentação de usar estas tecnologias
16:44
just because there are some false positives,
295
1004040
2176
apenas porque há alguns falsos positivos,
16:46
which will of course create a whole other layer of problems.
296
1006240
3256
o que, claro, vai criar toda uma outra camada de problemas.
16:49
Imagine what a state can do
297
1009520
2936
Imaginem o que um Estado pode fazer
16:52
with the immense amount of data it has on its citizens.
298
1012480
3560
com a quantidade imensa de informações que tiver dos seus cidadãos.
16:56
China is already using face detection technology
299
1016680
4776
A China já está a usar tecnologia de reconhecimento facial.
17:01
to identify and arrest people.
300
1021480
2880
para identificar e deter pessoas.
17:05
And here's the tragedy:
301
1025280
2136
E a tragédia é esta:
17:07
we're building this infrastructure of surveillance authoritarianism
302
1027440
5536
estamos a construir esta infraestrutura de vigilância autoritária
17:13
merely to get people to click on ads.
303
1033000
2960
apenas para fazer as pessoas clicar em anúncios.
17:17
And this won't be Orwell's authoritarianism.
304
1037240
2576
Este não vai ser o autoritarismo de Orwell.
17:19
This isn't "1984."
305
1039839
1897
Não é o "1984".
17:21
Now, if authoritarianism is using overt fear to terrorize us,
306
1041760
4576
Se o autoritarismo usar medo explícito para nos aterrorizar
nós ficaremos assustados, mas temos consciência disso,
17:26
we'll all be scared, but we'll know it,
307
1046359
2897
17:29
we'll hate it and we'll resist it.
308
1049280
2200
vamos odiá-lo e vamos resistir-lhe.
17:32
But if the people in power are using these algorithms
309
1052880
4416
Mas se as pessoas no poder usarem estes algoritmos
17:37
to quietly watch us,
310
1057319
3377
para, silenciosamente, nos vigiarem,
17:40
to judge us and to nudge us,
311
1060720
2080
para nos julgarem e para nos influenciarem,
17:43
to predict and identify the troublemakers and the rebels,
312
1063720
4176
para preverem e para identificarem os desordeiros e os rebeldes,
17:47
to deploy persuasion architectures at scale
313
1067920
3896
para implementarem técnicas de persuação em larga escala
17:51
and to manipulate individuals one by one
314
1071840
4136
e para manipularem indivíduos, um por um,
17:56
using their personal, individual weaknesses and vulnerabilities,
315
1076000
5440
usando fraquezas e vulnerabilidades individuais e pessoais,
18:02
and if they're doing it at scale
316
1082720
2200
e se o estão a fazer em larga escala,
18:06
through our private screens
317
1086080
1736
através dos nossos ecrãs privados,
18:07
so that we don't even know
318
1087840
1656
para que nós nem saibamos
18:09
what our fellow citizens and neighbors are seeing,
319
1089520
2760
o que os outros cidadãos e vizinhos estão a ver,
18:13
that authoritarianism will envelop us like a spider's web
320
1093560
4816
esse autoritarismo vai envolver-nos como uma teia de aranha
18:18
and we may not even know we're in it.
321
1098400
2480
e podemos nem dar conta de que estamos nela.
18:22
So Facebook's market capitalization
322
1102440
2936
A capitalização de mercado do Facebook
18:25
is approaching half a trillion dollars.
323
1105400
3296
está a aproximar-se de meio bilião de dólares.
18:28
It's because it works great as a persuasion architecture.
324
1108720
3120
É porque funciona lindamente como arquitetura de persuasão.
18:33
But the structure of that architecture
325
1113760
2816
Mas a estrutura desta arquitetura
18:36
is the same whether you're selling shoes
326
1116600
3216
é a mesma, quer estejam a vender sapatos
18:39
or whether you're selling politics.
327
1119840
2496
ou a vender política.
18:42
The algorithms do not know the difference.
328
1122360
3120
Os algoritmos não sabem a diferença.
18:46
The same algorithms set loose upon us
329
1126240
3296
O mesmo algoritmo que faz o que quer connosco,
18:49
to make us more pliable for ads
330
1129560
3176
para nos deixar mais vulveráveis a anúncios,
18:52
are also organizing our political, personal and social information flows,
331
1132760
6736
também organiza o fluxo das nossas informações
políticas, pessoais e sociais
18:59
and that's what's got to change.
332
1139520
1840
e é isso que tem de mudar.
19:02
Now, don't get me wrong,
333
1142240
2296
Não me interpretem mal.
19:04
we use digital platforms because they provide us with great value.
334
1144560
3680
Nós usamos plataformas digitais porque são valiosas para nós.
Eu uso o Facebook para me manter em contacto
19:09
I use Facebook to keep in touch with friends and family around the world.
335
1149120
3560
com a família e amigos de todo o mundo.
19:14
I've written about how crucial social media is for social movements.
336
1154000
5776
Eu já escrevi sobre o quão cruciais são as redes sociais
para os movimentos sociais.
19:19
I have studied how these technologies can be used
337
1159800
3016
Já estudei o modo como estas tecnologias podem ser usadas
19:22
to circumvent censorship around the world.
338
1162840
2480
para contornar a censura a nível mundial.
19:27
But it's not that the people who run, you know, Facebook or Google
339
1167280
6416
Não que as pessoas que controlam o Facebook e o Google
estejam, maliciosa e deliberadamente,
19:33
are maliciously and deliberately trying
340
1173720
2696
a tentar tornar o país ou o mundo mais polarizado
19:36
to make the country or the world more polarized
341
1176440
4456
19:40
and encourage extremism.
342
1180920
1680
e a encorajar o extremismo.
19:43
I read the many well-intentioned statements
343
1183440
3976
Li as várias declarações bem-intencionadas
19:47
that these people put out.
344
1187440
3320
que essas pessoas publicaram.
19:51
But it's not the intent or the statements people in technology make that matter,
345
1191600
6056
Mas não é a intenção ou as declarações que as pessoas da tecnologia fazem
que importam.
19:57
it's the structures and business models they're building.
346
1197680
3560
São as estruturas e os modelos de negócio que estão a construir.
20:02
And that's the core of the problem.
347
1202360
2096
E isso é a base do problema.
20:04
Either Facebook is a giant con of half a trillion dollars
348
1204480
4720
Ou o Facebook é uma enorme fraude de meio bilião de dólares
20:10
and ads don't work on the site,
349
1210200
1896
e os anúncios não funcionam no "site",
20:12
it doesn't work as a persuasion architecture,
350
1212120
2696
não funcionam como uma arquitetura de persuasão,
20:14
or its power of influence is of great concern.
351
1214840
4120
ou o seu poder e influência são uma grande preocupação.
20:20
It's either one or the other.
352
1220560
1776
Ou é uma coisa ou é outra.
20:22
It's similar for Google, too.
353
1222360
1600
E passa-se o mesmo com o Google.
20:24
So what can we do?
354
1224880
2456
Então o que é que podemos fazer?
20:27
This needs to change.
355
1227360
1936
Isto tem de mudar.
20:29
Now, I can't offer a simple recipe,
356
1229320
2576
Não consigo apresentar uma receita simples
20:31
because we need to restructure
357
1231920
2256
porque é preciso reestruturar
20:34
the whole way our digital technology operates.
358
1234200
3016
toda a maneira como a nossa tecnologia digital funciona.
20:37
Everything from the way technology is developed
359
1237240
4096
Tudo, desde a maneira como a tecnologia é desenvolvida
20:41
to the way the incentives, economic and otherwise,
360
1241360
3856
até à maneira como os incentivos, económicos e não só,
20:45
are built into the system.
361
1245240
2280
estão construídos no sistema.
20:48
We have to face and try to deal with
362
1248480
3456
Temos de encarar e tentar lidar com a falta de transparência
20:51
the lack of transparency created by the proprietary algorithms,
363
1251960
4656
criada pelos algoritmos patenteados,
20:56
the structural challenge of machine learning's opacity,
364
1256640
3816
o problema estrutural da opacidade da aprendizagem de máquinas,
21:00
all this indiscriminate data that's being collected about us.
365
1260480
3400
e todas estas informações indiscriminadas que estão a ser recolhidas sobre nós.
21:05
We have a big task in front of us.
366
1265000
2520
Temos uma grande tarefa à nossa frente.
21:08
We have to mobilize our technology,
367
1268160
2680
Temos de mobilizar a nossa tecnologia,
21:11
our creativity
368
1271760
1576
a nossa criatividade
21:13
and yes, our politics
369
1273360
1880
e sim, a nossa política
21:16
so that we can build artificial intelligence
370
1276240
2656
para conseguirmos construir uma inteligência artificial
21:18
that supports us in our human goals
371
1278920
3120
que nos apoie nas nossas metas humanas
21:22
but that is also constrained by our human values.
372
1282800
3920
mas que também seja limitada pelos nossos valores humanos.
21:27
And I understand this won't be easy.
373
1287600
2160
Eu compreendo que não vai ser fácil.
21:30
We might not even easily agree on what those terms mean.
374
1290360
3600
Podemos até nem concordar facilmente no que significam estes termos.
21:34
But if we take seriously
375
1294920
2400
Mas, se levarmos a sério
21:38
how these systems that we depend on for so much operate,
376
1298240
5976
como funcionam estes sistemas de que dependemos para tanta coisa,
21:44
I don't see how we can postpone this conversation anymore.
377
1304240
4120
não vejo como podemos adiar mais esta conversa.
21:49
These structures
378
1309200
2536
Estas estruturas estão a organizar
21:51
are organizing how we function
379
1311760
4096
o modo como nós funcionamos
21:55
and they're controlling
380
1315880
2296
e estão a controlar
21:58
what we can and we cannot do.
381
1318200
2616
o que podemos fazer ou não.
22:00
And many of these ad-financed platforms,
382
1320840
2456
Muitas destas plataformas financiadas por anúncios
22:03
they boast that they're free.
383
1323320
1576
gabam-se de serem gratuitas.
22:04
In this context, it means that we are the product that's being sold.
384
1324920
4560
O que, neste contexto, quer dizer
que somos nós o produto que estão a vender.
22:10
We need a digital economy
385
1330840
2736
Precisamos de uma economia digital
22:13
where our data and our attention
386
1333600
3496
em que as nossas informações e a nossa atenção
22:17
is not for sale to the highest-bidding authoritarian or demagogue.
387
1337120
5080
não estejam à venda para o déspota ou o demagogo
que esteja disposto a pagar mais.
22:23
(Applause)
388
1343160
3800
(Aplausos)
22:30
So to go back to that Hollywood paraphrase,
389
1350480
3256
Para voltar à paráfrase de Hollywood,
22:33
we do want the prodigious potential
390
1353760
3736
nós queremos que o prodigioso potencial
22:37
of artificial intelligence and digital technology to blossom,
391
1357520
3200
da inteligência artificial e da tecnologia digital floresça
22:41
but for that, we must face this prodigious menace,
392
1361400
4936
mas, para isso, temos de enfrentar esta prodigiosa ameaça
22:46
open-eyed and now.
393
1366360
1936
de olhos bem abertos e já.
22:48
Thank you.
394
1368320
1216
Obrigada.
22:49
(Applause)
395
1369560
4640
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7