We're building a dystopia just to make people click on ads | Zeynep Tufekci

739,815 views ・ 2017-11-17

TED


Please double-click on the English subtitles below to play the video.

Translator: Antoni Rafel Rotger Prats Reviewer: Anna Comas-Quinn
00:12
So when people voice fears of artificial intelligence,
0
12760
3536
Quant la gent parla de la por a la intel·ligència artificial,
00:16
very often, they invoke images of humanoid robots run amok.
1
16320
3976
molt sovint imaginen robots humanoides fora de control.
00:20
You know? Terminator?
2
20320
1240
Us sona Terminator?
00:22
You know, that might be something to consider,
3
22400
2336
Això s'hauria de tenir en consideraciò,
00:24
but that's a distant threat.
4
24760
1856
però és una amenaça remota.
00:26
Or, we fret about digital surveillance
5
26640
3456
O ens preocupem per la vigilància digital
00:30
with metaphors from the past.
6
30120
1776
amb metàfores del passat.
00:31
"1984," George Orwell's "1984,"
7
31920
2656
"1984", el "1984" de George Orwell,
00:34
it's hitting the bestseller lists again.
8
34600
2280
està tornant a les llistes dels més venuts.
00:37
It's a great book,
9
37960
1416
És un llibre genial,
00:39
but it's not the correct dystopia for the 21st century.
10
39400
3880
però no és la distòpia correcta pel segle XXI.
00:44
What we need to fear most
11
44080
1416
El que hem de témer més
00:45
is not what artificial intelligence will do to us on its own,
12
45520
4776
no és el que la intel·ligència artificial ens farà per si sola,
00:50
but how the people in power will use artificial intelligence
13
50320
4736
sinó com la gent poderosa emprarà la intel·ligència artificial
00:55
to control us and to manipulate us
14
55080
2816
per a controlar-nos i manipular-nos
00:57
in novel, sometimes hidden,
15
57920
3136
en nous, a vegades ocults,
01:01
subtle and unexpected ways.
16
61080
3016
subtils i inesperats mitjans.
01:04
Much of the technology
17
64120
1856
Molta de la tecnologia
01:06
that threatens our freedom and our dignity in the near-term future
18
66000
4336
que amenaça la nostra llibertat i la nostra dignitat en un futur proper
01:10
is being developed by companies
19
70360
1856
està sent desenvolupada per companyies
01:12
in the business of capturing and selling our data and our attention
20
72240
4936
encarregades de recopilar i vendre la nostra informació i la nostra atenció
01:17
to advertisers and others:
21
77200
2256
als anunciants i altres:
01:19
Facebook, Google, Amazon,
22
79480
3416
Facebook, Google, Amazon,
01:22
Alibaba, Tencent.
23
82920
1880
Alibaba, Tencent.
01:26
Now, artificial intelligence has started bolstering their business as well.
24
86040
5496
La indústria d'intel·ligència artificial també ha començat a reforçar-se.
01:31
And it may seem like artificial intelligence
25
91560
2096
Pot semblar que la intel·ligència artificial
01:33
is just the next thing after online ads.
26
93680
2856
vindrà just després dels anuncis en línea.
01:36
It's not.
27
96560
1216
No serà així.
01:37
It's a jump in category.
28
97800
2456
És d'un tipus diferent.
01:40
It's a whole different world,
29
100280
2576
És un món ben distint,
01:42
and it has great potential.
30
102880
2616
i té un gran potencial.
01:45
It could accelerate our understanding of many areas of study and research.
31
105520
6920
Podria accelerar el nostre coneixement sobre moltes àrees d'estudi i recerca.
01:53
But to paraphrase a famous Hollywood philosopher,
32
113120
3496
Però, parafrasejant un famós filòsof de Hollywood,
01:56
"With prodigious potential comes prodigious risk."
33
116640
3640
"Un potencial prodigiós porta un risc prodigiós."
02:01
Now let's look at a basic fact of our digital lives, online ads.
34
121120
3936
Considerem un fet bàsic de les nostres vides digitals, els anuncis en línea.
02:05
Right? We kind of dismiss them.
35
125080
2896
No els donem importància.
02:08
They seem crude, ineffective.
36
128000
1976
Semblen bàsics, poc efectius.
02:10
We've all had the experience of being followed on the web
37
130000
4256
Tots hem tingut l'experiència de ser seguits per la web
02:14
by an ad based on something we searched or read.
38
134280
2776
per anuncis basats en quelcom que buscàrem o llegírem.
02:17
You know, you look up a pair of boots
39
137080
1856
Cerques unes botes
02:18
and for a week, those boots are following you around everywhere you go.
40
138960
3376
i durant una setmana les botes et segueixen per tot arreu.
02:22
Even after you succumb and buy them, they're still following you around.
41
142360
3656
Fins i tot després de sucumbir i comprar-les, encara et segueixen.
02:26
We're kind of inured to that kind of basic, cheap manipulation.
42
146040
3016
Estem acostumats a aquesta manipulació bàsica i barata.
02:29
We roll our eyes and we think, "You know what? These things don't work."
43
149080
3400
Ens resignem i pensem, "Saps què? Aquestes coses no funcionen."
02:33
Except, online,
44
153720
2096
Encara que, en línea,
02:35
the digital technologies are not just ads.
45
155840
3600
la tecnologia digital no només són anuncis.
02:40
Now, to understand that, let's think of a physical world example.
46
160240
3120
Per entendre-ho pensem en un exemple del món físic.
02:43
You know how, at the checkout counters at supermarkets, near the cashier,
47
163840
4656
Sabeu que en els estants dels supermercats, devora el caixer,
02:48
there's candy and gum at the eye level of kids?
48
168520
3480
hi ha dolços i xiclets a l'alçada visual dels nens?
02:52
That's designed to make them whine at their parents
49
172800
3496
Està pensat per a que demanin als pares
02:56
just as the parents are about to sort of check out.
50
176320
3080
just quan els pares estàn acabant de pagar.
03:00
Now, that's a persuasion architecture.
51
180040
2640
Això és una arquitectura de persuasió.
03:03
It's not nice, but it kind of works.
52
183160
3096
No és agradable, però funciona.
03:06
That's why you see it in every supermarket.
53
186280
2040
Per això la veus en tots els supermercats.
03:08
Now, in the physical world,
54
188720
1696
En el món físic,
03:10
such persuasion architectures are kind of limited,
55
190440
2496
aquestes arquitectures persuasives són limitades,
03:12
because you can only put so many things by the cashier. Right?
56
192960
4816
perquè només pots posar un nombre limitat de coses al costat del caixer, no?
03:17
And the candy and gum, it's the same for everyone,
57
197800
4296
I els dolços i els xiclets són iguals per a tothom,
03:22
even though it mostly works
58
202120
1456
encara que sol funcionar
03:23
only for people who have whiny little humans beside them.
59
203600
4040
només per persones amb humans petits i consentits al seu costat.
03:29
In the physical world, we live with those limitations.
60
209160
3920
En el món físic, vivim amb aquestes limitacions.
03:34
In the digital world, though,
61
214280
1936
En el món digital, en canvi,
03:36
persuasion architectures can be built at the scale of billions
62
216240
4320
les arquitectures persuasives es construeixen en magnituts de bilions
03:41
and they can target, infer, understand
63
221840
3856
i poden abordar, deduir, entendre
03:45
and be deployed at individuals
64
225720
2896
i ser usades amb individus
03:48
one by one
65
228640
1216
un per un
03:49
by figuring out your weaknesses,
66
229880
2136
descobrint les teves debilitats,
03:52
and they can be sent to everyone's phone private screen,
67
232040
5616
i es poden enviar a la pantalla privada de qualsevol mòbil,
03:57
so it's not visible to us.
68
237680
2256
així no és visible per nosaltres.
03:59
And that's different.
69
239960
1256
I això és diferent.
04:01
And that's just one of the basic things that artificial intelligence can do.
70
241240
3576
Aquesta és una de les coses bàsiques que la intel·ligència artificial fa.
04:04
Now, let's take an example.
71
244840
1336
Analitzem un exemple.
04:06
Let's say you want to sell plane tickets to Vegas. Right?
72
246200
2696
Imaginem que vols vendre bitllets d'avió a Las Vegas.
04:08
So in the old world, you could think of some demographics to target
73
248920
3496
En el món antic, podies pensar alguns sectors demogràfics que abordar
04:12
based on experience and what you can guess.
74
252440
2520
basats en l'experiència i en el que pots adivinar.
04:15
You might try to advertise to, oh,
75
255560
2816
Podies intentar crear anuncis per a
04:18
men between the ages of 25 and 35,
76
258400
2496
homes entre els 25 i 35 anys,
04:20
or people who have a high limit on their credit card,
77
260920
3936
o gent que té un límit alt a la targeta de crèdit,
04:24
or retired couples. Right?
78
264880
1376
o parelles retirades, no?
04:26
That's what you would do in the past.
79
266280
1816
Això és el que es feia en el passat.
04:28
With big data and machine learning,
80
268120
2896
Amb les dades massives i l'aprenentatge automàtic,
04:31
that's not how it works anymore.
81
271040
1524
ja no funciona així.
04:33
So to imagine that,
82
273320
2176
Així que imagineu-ho,
04:35
think of all the data that Facebook has on you:
83
275520
3856
penseu en tota la informació que Facebook té de tu:
04:39
every status update you ever typed,
84
279400
2536
cada actualització de l'estat que hagis teclejat,
04:41
every Messenger conversation,
85
281960
2016
cada conversació per Messenger,
04:44
every place you logged in from,
86
284000
1880
cada lloc des d'on hagis accedit,
04:48
all your photographs that you uploaded there.
87
288400
3176
totes les fotografies que hi hagis pujat.
04:51
If you start typing something and change your mind and delete it,
88
291600
3776
Si comences a escriure alguna cosa i canvies d'opinió i ho esborres,
04:55
Facebook keeps those and analyzes them, too.
89
295400
3200
Facebook ho guarda i també ho analitza.
04:59
Increasingly, it tries to match you with your offline data.
90
299160
3936
Cada cop més, intenta relacionar-te amb la teva informació fora de línea.
05:03
It also purchases a lot of data from data brokers.
91
303120
3176
També compra molta informació dels recol·lectors d'informació.
05:06
It could be everything from your financial records
92
306320
3416
Podria ser qualsevol cosa des del teu historial financer
05:09
to a good chunk of your browsing history.
93
309760
2120
fins a l'historial de navegació.
05:12
Right? In the US, such data is routinely collected,
94
312360
5416
Als Estats Units aquesta informació és recopilada rutinàriament,
05:17
collated and sold.
95
317800
1960
ordenada i venuda.
05:20
In Europe, they have tougher rules.
96
320320
2440
A Europa tenen lleis més estrictes.
05:23
So what happens then is,
97
323680
2200
Així que el que passa és que,
05:26
by churning through all that data, these machine-learning algorithms --
98
326920
4016
recercant entre tota la informació, els algoritmes d'aprenentatge automàtic --
05:30
that's why they're called learning algorithms --
99
330960
2896
per això es diuen algoritmes d'aprenentatge --
05:33
they learn to understand the characteristics of people
100
333880
4096
aprenen a entendre les característiques de la gent
05:38
who purchased tickets to Vegas before.
101
338000
2520
que va comprar bitllets a Las Vegas anteriorment.
05:41
When they learn this from existing data,
102
341760
3536
Quan ho aprenen de la informació existent,
05:45
they also learn how to apply this to new people.
103
345320
3816
també aprenen a aplicar-ho a gent nova.
05:49
So if they're presented with a new person,
104
349160
3056
Així que si es troben amb una persona nova,
05:52
they can classify whether that person is likely to buy a ticket to Vegas or not.
105
352240
4640
poden deduir si és probable que aquella persona compri bitllets a Las Vegas o no.
05:57
Fine. You're thinking, an offer to buy tickets to Vegas.
106
357720
5456
Molt bé. Esteu pensant: "una oferta per comprar bitllets a Las Vegas,
06:03
I can ignore that.
107
363200
1456
la puc ignorar".
06:04
But the problem isn't that.
108
364680
2216
Però aquest no és el problema.
06:06
The problem is,
109
366920
1576
El problema és,
06:08
we no longer really understand how these complex algorithms work.
110
368520
4136
que ja no acabem d'entendre com funcionen aquests algoritmes tan complexes.
06:12
We don't understand how they're doing this categorization.
111
372680
3456
No entenem com realitzen aquesta categorització.
06:16
It's giant matrices, thousands of rows and columns,
112
376160
4416
Són matrius gegants, milers de files i columnes,
06:20
maybe millions of rows and columns,
113
380600
1960
potser milions de files i columnes,
06:23
and not the programmers
114
383320
2640
i ni els programadors
06:26
and not anybody who looks at it,
115
386760
1680
ni algú que ho observi,
06:29
even if you have all the data,
116
389440
1496
ni si tinguessiu la informació
06:30
understands anymore how exactly it's operating
117
390960
4616
podríeu entendre com funciona exactament,
06:35
any more than you'd know what I was thinking right now
118
395600
3776
no més que el que podrieu saber del que ara estic pensant
06:39
if you were shown a cross section of my brain.
119
399400
3960
si us mostrassin una secció representativa del meu cervell.
06:44
It's like we're not programming anymore,
120
404360
2576
És com si ja no programàssim,
06:46
we're growing intelligence that we don't truly understand.
121
406960
4400
estem creant intel·ligència que ja no acabem d'entendre.
06:52
And these things only work if there's an enormous amount of data,
122
412520
3976
I aquestes coses només funcionen si hi ha una enorme quantitat d'informació,
06:56
so they also encourage deep surveillance on all of us
123
416520
5096
així que també motiven que ens vigilin a tots minuciosament,
07:01
so that the machine learning algorithms can work.
124
421640
2336
perquè els algoritmes automàtics funcionin.
07:04
That's why Facebook wants to collect all the data it can about you.
125
424000
3176
Per això Facebook vol recopilar tota la informació que pugui.
07:07
The algorithms work better.
126
427200
1576
Els algoritmes funcionen millor.
07:08
So let's push that Vegas example a bit.
127
428800
2696
Exprimim l'exemple de Las Vegas una mica.
07:11
What if the system that we do not understand
128
431520
3680
I si el sistema que no entenem
07:16
was picking up that it's easier to sell Vegas tickets
129
436200
5136
descobrís que és més fàcil vendre bitllets a Las Vegas
07:21
to people who are bipolar and about to enter the manic phase.
130
441360
3760
a gent bipolar i a punt d'entrar en fase de mania?
07:25
Such people tend to become overspenders, compulsive gamblers.
131
445640
4920
Aquesta gent tendeix a tornar-se malgastadora, jugadors compulsius.
07:31
They could do this, and you'd have no clue that's what they were picking up on.
132
451280
4456
Ho podrien fer, i no tindries ni idea que s'estan basant en això.
07:35
I gave this example to a bunch of computer scientists once
133
455760
3616
Una vegada vaig posar aquest exemple a un grup d'informàtics
07:39
and afterwards, one of them came up to me.
134
459400
2056
i després un d'ells va apropar-se.
07:41
He was troubled and he said, "That's why I couldn't publish it."
135
461480
3520
Estava preocupat i va dir: "Per això no ho podia publicar."
07:45
I was like, "Couldn't publish what?"
136
465600
1715
Jo vaig dir: "Publicar el què?"
07:47
He had tried to see whether you can indeed figure out the onset of mania
137
467800
5856
Havia intentat veure si es pot descobrir l'inici de la mania
07:53
from social media posts before clinical symptoms,
138
473680
3216
amb publicacions a la xarxa abans que amb símptomes clínics,
07:56
and it had worked,
139
476920
1776
i havia funcionat,
07:58
and it had worked very well,
140
478720
2056
havia funcionat molt bé,
08:00
and he had no idea how it worked or what it was picking up on.
141
480800
4880
i no tenia ni idea de com funcionava o en què es fixaven.
08:06
Now, the problem isn't solved if he doesn't publish it,
142
486840
4416
El problema no es solucionarà encara que no ho publiqui,
08:11
because there are already companies
143
491280
1896
perquè ja hi ha companyies
08:13
that are developing this kind of technology,
144
493200
2536
que ja estàn desenvolupant aquest tipus de tecnologia,
08:15
and a lot of the stuff is just off the shelf.
145
495760
2800
i moltes coses són per a un ús general.
08:19
This is not very difficult anymore.
146
499240
2576
Això ja no és tan difícil.
08:21
Do you ever go on YouTube meaning to watch one video
147
501840
3456
Alguna vegada entres a YouTube a mirar un vídeo
08:25
and an hour later you've watched 27?
148
505320
2360
i després d'una hora n'has mirat 27?
08:28
You know how YouTube has this column on the right
149
508760
2496
Saps que YouTube té la columna a la dreta
08:31
that says, "Up next"
150
511280
2216
que diu: "Següent"
08:33
and it autoplays something?
151
513520
1816
i reprodueix quelcom automàticament?
08:35
It's an algorithm
152
515360
1216
És un algoritme
08:36
picking what it thinks that you might be interested in
153
516600
3616
elegint el que creu que et pot interessar
08:40
and maybe not find on your own.
154
520240
1536
i potser no trobis tu mateix.
08:41
It's not a human editor.
155
521800
1256
No és un editor humà.
08:43
It's what algorithms do.
156
523080
1416
És el que fan el algoritmes.
08:44
It picks up on what you have watched and what people like you have watched,
157
524520
4736
Es fixa en el que has mirat i el que la gent com tu ha mirat,
08:49
and infers that that must be what you're interested in,
158
529280
4216
i dedueix que allò deu ser el que t'interessa,
08:53
what you want more of,
159
533520
1255
que en vols més,
08:54
and just shows you more.
160
534799
1336
i simplement te'n posa més.
08:56
It sounds like a benign and useful feature,
161
536159
2201
Sembla una característica benigna i útil,
08:59
except when it isn't.
162
539280
1200
excepte quan no ho és.
09:01
So in 2016, I attended rallies of then-candidate Donald Trump
163
541640
6960
El 2016 vaig anar a mítings del candidat Donald Trump
09:09
to study as a scholar the movement supporting him.
164
549840
3336
a estudiar acadèmicament el moviment de suport.
09:13
I study social movements, so I was studying it, too.
165
553200
3456
Estudio moviments socials, així que també ho vaig estudiar.
09:16
And then I wanted to write something about one of his rallies,
166
556680
3336
I després vaig voler escriure alguna cosa sobre un dels seus mítings,
09:20
so I watched it a few times on YouTube.
167
560040
1960
i el vaig mirar alguns cops per YouTube.
09:23
YouTube started recommending to me
168
563240
3096
YouTube em va començar a recomanar
09:26
and autoplaying to me white supremacist videos
169
566360
4256
i a reproduir vídeos de supremacia blanca
09:30
in increasing order of extremism.
170
570640
2656
en un ordre progressiu d'extremisme.
09:33
If I watched one,
171
573320
1816
Si en mirava un,
09:35
it served up one even more extreme
172
575160
2976
me'n mostrava un d'encara més extrem
09:38
and autoplayed that one, too.
173
578160
1424
i també me'l reproduïa.
09:40
If you watch Hillary Clinton or Bernie Sanders content,
174
580320
4536
Si mires continguts de Hillary Clinton o Bernie Sanders,
09:44
YouTube recommends and autoplays conspiracy left,
175
584880
4696
YouTube et recomana i reprodueix conspiració d'esquerres,
09:49
and it goes downhill from there.
176
589600
1760
i des d'allà empitjora.
09:52
Well, you might be thinking, this is politics, but it's not.
177
592480
3056
Podríeu pensar que això és política, però no ho és.
09:55
This isn't about politics.
178
595560
1256
No es tracta de política.
09:56
This is just the algorithm figuring out human behavior.
179
596840
3096
És l'algoritme desxifrant el comportament humà.
09:59
I once watched a video about vegetarianism on YouTube
180
599960
4776
Una vegada vaig mirar un vídeo sobre vegetarianisme al YouTube
10:04
and YouTube recommended and autoplayed a video about being vegan.
181
604760
4936
i YouTube em va recomanar i reproduir un vídeo sobre ser vegà.
10:09
It's like you're never hardcore enough for YouTube.
182
609720
3016
És com si per YouTube mai fossis suficientment radical.
10:12
(Laughter)
183
612760
1576
(Rialles)
10:14
So what's going on?
184
614360
1560
Què està passant, doncs?
10:16
Now, YouTube's algorithm is proprietary,
185
616520
3536
L'algoritme de YouTube està patentat,
10:20
but here's what I think is going on.
186
620080
2360
però us diré el que crec que està passant.
10:23
The algorithm has figured out
187
623360
2096
L'algoritme ha descobert
10:25
that if you can entice people
188
625480
3696
que si pots convèncer a la gent
10:29
into thinking that you can show them something more hardcore,
189
629200
3736
que els pots mostrar coses més radicals,
10:32
they're more likely to stay on the site
190
632960
2416
és més probable que romanguin a la web
10:35
watching video after video going down that rabbit hole
191
635400
4416
mirant vídeo rere vídeo caiguent pel forat del conill
10:39
while Google serves them ads.
192
639840
1680
mentre Google els envia anuncis.
10:43
Now, with nobody minding the ethics of the store,
193
643760
3120
Com no hi ha ningú que es preocupi per l'ètica del lloc,
10:47
these sites can profile people
194
647720
4240
aquestes pàgines poden crear perfils de persones
10:53
who are Jew haters,
195
653680
1920
que odien als jueus,
10:56
who think that Jews are parasites
196
656360
2480
que pensen que els jueus són paràsits
11:00
and who have such explicit anti-Semitic content,
197
660320
4920
i que tenen un contingut explícitament antisemita,
11:06
and let you target them with ads.
198
666080
2000
i et deixen atacar-los amb anuncis.
11:09
They can also mobilize algorithms
199
669200
3536
També poden mobilitzar algoritmes
11:12
to find for you look-alike audiences,
200
672760
3136
per trobar-te audiències similars,
11:15
people who do not have such explicit anti-Semitic content on their profile
201
675920
5576
gent que no té contingut antisemita tan explícit en el seu perfil
11:21
but who the algorithm detects may be susceptible to such messages,
202
681520
6176
però que l'algoritme pensa que poden ser susceptibles a aquest tipus de missatges,
11:27
and lets you target them with ads, too.
203
687720
1920
així que també ataquem-los amb anuncis.
11:30
Now, this may sound like an implausible example,
204
690680
2736
Això pot semblar un exemple poc probable,
11:33
but this is real.
205
693440
1320
però és real.
11:35
ProPublica investigated this
206
695480
2136
ProPublica ho va investigar
11:37
and found that you can indeed do this on Facebook,
207
697640
3616
i va descobrir que pots fer això a Facebook,
11:41
and Facebook helpfully offered up suggestions
208
701280
2416
i Facebook t'ofereix de bona voluntat suggerències
11:43
on how to broaden that audience.
209
703720
1600
de com augmentar aquest públic.
11:46
BuzzFeed tried it for Google, and very quickly they found,
210
706720
3016
BuzzFeed ho intentà amb Google, i tot d'una varen veure,
11:49
yep, you can do it on Google, too.
211
709760
1736
que sí, també es pot fer amb Google.
11:51
And it wasn't even expensive.
212
711520
1696
Ni tan sols fou car.
11:53
The ProPublica reporter spent about 30 dollars
213
713240
4416
El reporter de ProPublica va gastar uns 30 dòlars
11:57
to target this category.
214
717680
2240
per abordar aquesta categoria.
12:02
So last year, Donald Trump's social media manager disclosed
215
722600
5296
L'any passat, el director de xarxes socials de Donald Trump va revelar
12:07
that they were using Facebook dark posts to demobilize people,
216
727920
5336
que empraven publicacions amagades de Facebook per desmobilitzar a la gent,
12:13
not to persuade them,
217
733280
1376
no per persuadir-los,
12:14
but to convince them not to vote at all.
218
734680
2800
sinó pero convencer-los que no votessin.
12:18
And to do that, they targeted specifically,
219
738520
3576
I per fer-ho, abordaven específicament,
12:22
for example, African-American men in key cities like Philadelphia,
220
742120
3896
per exemple, homes afroamericans en ciutats importants com Filadèlfia,
12:26
and I'm going to read exactly what he said.
221
746040
2456
i llegiré exactament el que va dir.
12:28
I'm quoting.
222
748520
1216
Estic citant.
12:29
They were using "nonpublic posts
223
749760
3016
Usaven "publicacions privades
12:32
whose viewership the campaign controls
224
752800
2176
l'audiència de les quals la campanya controla
12:35
so that only the people we want to see it see it.
225
755000
3776
perquè només la gent que volem que ho vegi, ho vegi.
12:38
We modeled this.
226
758800
1216
Ho vam modelar.
12:40
It will dramatically affect her ability to turn these people out."
227
760040
4720
Afectarà dràsticament la seva habilitat perquè participi aquesta gent."
12:45
What's in those dark posts?
228
765720
2280
Què hi ha en aquestes publicacions amagades?
12:48
We have no idea.
229
768480
1656
No en tenim ni idea.
12:50
Facebook won't tell us.
230
770160
1200
Facebook no ens ho diu.
12:52
So Facebook also algorithmically arranges the posts
231
772480
4376
Facebook també organitza algorítmicament les publicacions
12:56
that your friends put on Facebook, or the pages you follow.
232
776880
3736
que els teus amics posen a Facebook, o de les pàgines que segueixes.
13:00
It doesn't show you everything chronologically.
233
780640
2216
No t'ho mostra tot cronològicament.
13:02
It puts the order in the way that the algorithm thinks will entice you
234
782880
4816
Ordena la manera en que l'algoritme creu que et pot convèncer
13:07
to stay on the site longer.
235
787720
1840
per quedar-te a la pàgina més temps.
13:11
Now, so this has a lot of consequences.
236
791040
3376
Això té moltes consequències.
13:14
You may be thinking somebody is snubbing you on Facebook.
237
794440
3800
Podeu pensar que algú us està ignorant a Facebook.
13:18
The algorithm may never be showing your post to them.
238
798800
3256
L'algoritme podria no mostrar-los mai la teva publicació.
13:22
The algorithm is prioritizing some of them and burying the others.
239
802080
5960
L'algoritme en prioritza algunes i n'amaga d'altres.
13:29
Experiments show
240
809320
1296
Els experiments mostren
13:30
that what the algorithm picks to show you can affect your emotions.
241
810640
4520
que el que l'algoritme elegeix mostrar-te pot afectar les teves emocions.
13:36
But that's not all.
242
816600
1200
Però això no és tot.
13:38
It also affects political behavior.
243
818280
2360
També afecta el comportament polític.
13:41
So in 2010, in the midterm elections,
244
821360
4656
El 2010, en les eleccions parcials,
13:46
Facebook did an experiment on 61 million people in the US
245
826040
5896
Facebook va fer un experiment a 61 milions de persones al Estats Units
13:51
that was disclosed after the fact.
246
831960
1896
que es va revelar després.
13:53
So some people were shown, "Today is election day,"
247
833880
3416
A algunes persones els van mostrar: "Avui són les eleccions,"
13:57
the simpler one,
248
837320
1376
el més simple,
13:58
and some people were shown the one with that tiny tweak
249
838720
3896
i a alguns els en van mostrar un amb la lleugera modificació
14:02
with those little thumbnails
250
842640
2096
de les imatges en miniatura
14:04
of your friends who clicked on "I voted."
251
844760
2840
dels teus amics que clicaren a "He votat".
14:09
This simple tweak.
252
849000
1400
Una simple modificació.
14:11
OK? So the pictures were the only change,
253
851520
4296
D'acord? Les imatges foren l'únic canvi,
14:15
and that post shown just once
254
855840
3256
i la publicació mostrada només un cop
14:19
turned out an additional 340,000 voters
255
859120
6056
va fer participar 340.000 votants més
14:25
in that election,
256
865200
1696
en aquelles eleccions,
14:26
according to this research
257
866920
1696
d'acord amb aquesta investigació
14:28
as confirmed by the voter rolls.
258
868640
2520
i confirmat per les llistes de votants.
14:32
A fluke? No.
259
872920
1656
Casualitat? No.
14:34
Because in 2012, they repeated the same experiment.
260
874600
5360
Perquè el 2012, repetiren el mateix experiment.
14:40
And that time,
261
880840
1736
I aquella vegada,
14:42
that civic message shown just once
262
882600
3296
aquell missatge cívic mostrat només una vegada
14:45
turned out an additional 270,000 voters.
263
885920
4440
va fer participar 270.000 votants més.
14:51
For reference, the 2016 US presidential election
264
891160
5216
Per tenir una referència, les eleccions presidencials als Estats Units de 2016
14:56
was decided by about 100,000 votes.
265
896400
3520
es varen decidir per uns 100.000 vots.
15:01
Now, Facebook can also very easily infer what your politics are,
266
901360
4736
Facebook també pot deduir fàcilment la teva orientació política,
15:06
even if you've never disclosed them on the site.
267
906120
2256
encara que mai l'hagis revelat a la pàgina.
15:08
Right? These algorithms can do that quite easily.
268
908400
2520
Aquests algoritmes ho poden fer fàcilment.
15:11
What if a platform with that kind of power
269
911960
3896
I si una plataforma amb aquest tipus de poder
15:15
decides to turn out supporters of one candidate over the other?
270
915880
5040
decideix que participin més seguidors d'un candidat que de l'altre?
15:21
How would we even know about it?
271
921680
2440
Com ens n'assebentaríem?
15:25
Now, we started from someplace seemingly innocuous --
272
925560
4136
Hem començat des d'un lloc aparentment innocu --
15:29
online adds following us around --
273
929720
2216
anuncis online que ens segueixen arreu --
15:31
and we've landed someplace else.
274
931960
1840
i hem acabat en un lloc diferent.
15:35
As a public and as citizens,
275
935480
2456
Com a públic i com a ciutadans,
15:37
we no longer know if we're seeing the same information
276
937960
3416
ja no sabem si estem veient la mateixa informació
15:41
or what anybody else is seeing,
277
941400
1480
o el que algú altre està veient,
15:43
and without a common basis of information,
278
943680
2576
i sense una base d'informació comuna,
15:46
little by little,
279
946280
1616
a poc a poc,
15:47
public debate is becoming impossible,
280
947920
3216
el debat públic s'està tornant impossible,
15:51
and we're just at the beginning stages of this.
281
951160
2976
i això són només les fases inicials de tot això.
15:54
These algorithms can quite easily infer
282
954160
3456
Aquests algoritmes poden deduir fàcilment
15:57
things like your people's ethnicity,
283
957640
3256
coses com l'etnicitat de la gent,
16:00
religious and political views, personality traits,
284
960920
2336
orientació religiosa i política, trets personals,
16:03
intelligence, happiness, use of addictive substances,
285
963280
3376
intel·ligència, felicitat, ús de substàncies addictives,
16:06
parental separation, age and genders,
286
966680
3136
separació parental, edat i gènere,
16:09
just from Facebook likes.
287
969840
1960
només pels "m'agrada" a Facebook.
16:13
These algorithms can identify protesters
288
973440
4056
Aquests algoritmes poden identificar els manifestants
16:17
even if their faces are partially concealed.
289
977520
2760
encara que les seves cares estiguin parcialment cobertes.
16:21
These algorithms may be able to detect people's sexual orientation
290
981720
6616
Aquests algoritmes podrien ser capaços de detectar l'orientació sexual de la gent
16:28
just from their dating profile pictures.
291
988360
3200
només per la foto de perfil de les seves cites.
16:33
Now, these are probabilistic guesses,
292
993560
2616
Això són només suposicions probables,
16:36
so they're not going to be 100 percent right,
293
996200
2896
així que no seran 100% correctes,
16:39
but I don't see the powerful resisting the temptation to use these technologies
294
999120
4896
però no m'imagino als poderosos resistint la temptació d'usar aquestes tecnologies
16:44
just because there are some false positives,
295
1004040
2176
només perquè hi ha alguns falsos positius,
16:46
which will of course create a whole other layer of problems.
296
1006240
3256
que és clar que afegiran una altra capa als problemes.
16:49
Imagine what a state can do
297
1009520
2936
Imagina el que un estat pot fer
16:52
with the immense amount of data it has on its citizens.
298
1012480
3560
amb la quantitat d'informació que té dels ciutadans.
16:56
China is already using face detection technology
299
1016680
4776
La Xina ja està usant tecnologia de detecció facial
17:01
to identify and arrest people.
300
1021480
2880
per a identificar i arrestar persones.
17:05
And here's the tragedy:
301
1025280
2136
I aquí ve la tragèdia:
17:07
we're building this infrastructure of surveillance authoritarianism
302
1027440
5536
estem construint aquesta infraestructura de vigilància autoritària
17:13
merely to get people to click on ads.
303
1033000
2960
merament per fer que la gent cliqui anuncis.
17:17
And this won't be Orwell's authoritarianism.
304
1037240
2576
I això no serà l'autoritarisme d'Orwell.
17:19
This isn't "1984."
305
1039839
1897
AIxò no és "1984".
17:21
Now, if authoritarianism is using overt fear to terrorize us,
306
1041760
4576
Si l'autoritarisme empra obertament la por per espantar-nos,
17:26
we'll all be scared, but we'll know it,
307
1046359
2897
ens espantarem, però ho sabrem,
17:29
we'll hate it and we'll resist it.
308
1049280
2200
ho odiarem i ens resistirem.
17:32
But if the people in power are using these algorithms
309
1052880
4416
Però si la gent en el poder empra aquests algoritmes
17:37
to quietly watch us,
310
1057319
3377
per observar-nos en silenci,
17:40
to judge us and to nudge us,
311
1060720
2080
per jutjat-nos i influir-nos,
17:43
to predict and identify the troublemakers and the rebels,
312
1063720
4176
per a predir i identificar els problemàtics i els rebels,
17:47
to deploy persuasion architectures at scale
313
1067920
3896
per aplicar arquitectures de persuassió a escala
17:51
and to manipulate individuals one by one
314
1071840
4136
i manipular els individus un a un
17:56
using their personal, individual weaknesses and vulnerabilities,
315
1076000
5440
emprant les seves debilitats i vulnerabilitats personals i individuals,
18:02
and if they're doing it at scale
316
1082720
2200
i si ho fan a escala
18:06
through our private screens
317
1086080
1736
a través de les pantalles privades
18:07
so that we don't even know
318
1087840
1656
perqué ni tan sols sapiguem
18:09
what our fellow citizens and neighbors are seeing,
319
1089520
2760
el que els nostres conciutadans i veïns estan veient,
18:13
that authoritarianism will envelop us like a spider's web
320
1093560
4816
aquest autoritarisme ens envoltarà com una teranyina
18:18
and we may not even know we're in it.
321
1098400
2480
i potser no sabrem que estem a dins.
18:22
So Facebook's market capitalization
322
1102440
2936
Per això la capitalització de mercat per part de Facebook
18:25
is approaching half a trillion dollars.
323
1105400
3296
s'acosta al trilió i mig de dòlars.
18:28
It's because it works great as a persuasion architecture.
324
1108720
3120
Es deu a que funciona de meravella com a arquitectura persuasiva.
18:33
But the structure of that architecture
325
1113760
2816
Però l'estructura d'aquesta arquitectura
18:36
is the same whether you're selling shoes
326
1116600
3216
és la mateix estiguis venent sabates
18:39
or whether you're selling politics.
327
1119840
2496
o venent política.
18:42
The algorithms do not know the difference.
328
1122360
3120
Els algoritmes no saben la diferència.
18:46
The same algorithms set loose upon us
329
1126240
3296
Els mateixos algoritmes que ens apliquen
18:49
to make us more pliable for ads
330
1129560
3176
per fer-nos més manipulables per part dels anuncis
18:52
are also organizing our political, personal and social information flows,
331
1132760
6736
també organitzen els nostres fluxes d'informació política, personal i social,
18:59
and that's what's got to change.
332
1139520
1840
i això és el que ha de canviar.
19:02
Now, don't get me wrong,
333
1142240
2296
No em malinterpreteu,
19:04
we use digital platforms because they provide us with great value.
334
1144560
3680
empram plataformes digitals perquè ens aporten molt.
19:09
I use Facebook to keep in touch with friends and family around the world.
335
1149120
3560
Jo faig servir Facebook per contactar amb amics i família arreu del món.
19:14
I've written about how crucial social media is for social movements.
336
1154000
5776
He escrit sobre l'enorme pes de les xarxes socials en els moviments socials.
19:19
I have studied how these technologies can be used
337
1159800
3016
He estudiat com aquestes tecnologies es podem emprar
19:22
to circumvent censorship around the world.
338
1162840
2480
per evitar la censura arreu del món.
19:27
But it's not that the people who run, you know, Facebook or Google
339
1167280
6416
Però no és que els directors de Facebook o Google
19:33
are maliciously and deliberately trying
340
1173720
2696
estiguin intentant maliciosament i deliberadament
19:36
to make the country or the world more polarized
341
1176440
4456
fer el país o el món més polaritzat
19:40
and encourage extremism.
342
1180920
1680
i animar l'extremisme.
19:43
I read the many well-intentioned statements
343
1183440
3976
Vaig llegir moltes declaracions ben intencionades
19:47
that these people put out.
344
1187440
3320
que aquesta gent va fer.
19:51
But it's not the intent or the statements people in technology make that matter,
345
1191600
6056
Però no són la intenció o les declaracions de la gent a la tecnologia el que importa,
19:57
it's the structures and business models they're building.
346
1197680
3560
són les estructures i els models de negoci que estan construint.
20:02
And that's the core of the problem.
347
1202360
2096
I això és el nucli del problema.
20:04
Either Facebook is a giant con of half a trillion dollars
348
1204480
4720
O Facebook és una estafa gegant d'un trilió i mig de dòlars
20:10
and ads don't work on the site,
349
1210200
1896
i els anuncis no funcionen a la pàgina,
20:12
it doesn't work as a persuasion architecture,
350
1212120
2696
i no funciona com a estructura persuasiva,
20:14
or its power of influence is of great concern.
351
1214840
4120
o el seu poder d'influència ens hauria de preocupar.
20:20
It's either one or the other.
352
1220560
1776
És una o l'altra.
20:22
It's similar for Google, too.
353
1222360
1600
És similar en el cas de Google.
20:24
So what can we do?
354
1224880
2456
Què podem fer?
20:27
This needs to change.
355
1227360
1936
Això ha de canviar.
20:29
Now, I can't offer a simple recipe,
356
1229320
2576
No puc oferir una recepta única,
20:31
because we need to restructure
357
1231920
2256
perquè necessitem reestructurar
20:34
the whole way our digital technology operates.
358
1234200
3016
per complet la manera com la tecnologia digital opera.
20:37
Everything from the way technology is developed
359
1237240
4096
Des de la manera com la tecnologia es desenvolupa
20:41
to the way the incentives, economic and otherwise,
360
1241360
3856
fins a la manera com els incentius, tant econòmics com d'altres,
20:45
are built into the system.
361
1245240
2280
s'encaixen en el sistema.
20:48
We have to face and try to deal with
362
1248480
3456
Ho hem d'afrontar i intentar lidiar amb
20:51
the lack of transparency created by the proprietary algorithms,
363
1251960
4656
la manca de transparència creada pels algoritmes patentats,
20:56
the structural challenge of machine learning's opacity,
364
1256640
3816
el repte estructural de l'opacitat de l'aprenentatge automàtic,
21:00
all this indiscriminate data that's being collected about us.
365
1260480
3400
tota aquesta informació indiscriminada que estan recollint.
21:05
We have a big task in front of us.
366
1265000
2520
Tenim una gran tasca al davant.
21:08
We have to mobilize our technology,
367
1268160
2680
Hem de mobilitzar la nostra tecnologia,
21:11
our creativity
368
1271760
1576
la nostra creativitat
21:13
and yes, our politics
369
1273360
1880
i sí, la nostra política
21:16
so that we can build artificial intelligence
370
1276240
2656
per a que puguem construir intel·ligència artificial
21:18
that supports us in our human goals
371
1278920
3120
que ens ajudi amb els objectius humans
21:22
but that is also constrained by our human values.
372
1282800
3920
però que estigui restringida pels nostres valors humans.
21:27
And I understand this won't be easy.
373
1287600
2160
I entenc que això no serà fàcil.
21:30
We might not even easily agree on what those terms mean.
374
1290360
3600
Potser ni tan sols ens posarem d'acord amb facilitat sobre aquest termes.
21:34
But if we take seriously
375
1294920
2400
Però si ens prenem seriosament
21:38
how these systems that we depend on for so much operate,
376
1298240
5976
com aquests sistemes, dels que depenem tant, funcionen
21:44
I don't see how we can postpone this conversation anymore.
377
1304240
4120
no veig com podem seguir posposant aquesta conversació.
21:49
These structures
378
1309200
2536
Aquestes estructures
21:51
are organizing how we function
379
1311760
4096
estan organitzant com funcionem
21:55
and they're controlling
380
1315880
2296
i estan controlant
21:58
what we can and we cannot do.
381
1318200
2616
el que podem i no podem fer.
22:00
And many of these ad-financed platforms,
382
1320840
2456
I moltes plataformes finançades per anuncis,
22:03
they boast that they're free.
383
1323320
1576
presumeixen de que són lliures.
22:04
In this context, it means that we are the product that's being sold.
384
1324920
4560
En aquest context significa que nosaltres som el producte que s'està venent.
22:10
We need a digital economy
385
1330840
2736
Necessitem una economia digital
22:13
where our data and our attention
386
1333600
3496
on la nostra informació i la nostra atenció
22:17
is not for sale to the highest-bidding authoritarian or demagogue.
387
1337120
5080
no sigui venuda a l'autoritari o al demagog que aposti més fort.
22:23
(Applause)
388
1343160
3800
(Aplaudiments)
22:30
So to go back to that Hollywood paraphrase,
389
1350480
3256
Així que per tornar a la paràfrasi de Hollywood,
22:33
we do want the prodigious potential
390
1353760
3736
sí que volem un potencial prodigiós
22:37
of artificial intelligence and digital technology to blossom,
391
1357520
3200
d'intel·ligència artificial i tecnologia que floreixi,
22:41
but for that, we must face this prodigious menace,
392
1361400
4936
però per això, hem de fer front a aquesta amenaça prodigiosa,
22:46
open-eyed and now.
393
1366360
1936
amb els ulls oberts i ara.
22:48
Thank you.
394
1368320
1216
Gràcies.
22:49
(Applause)
395
1369560
4640
(Aplaudiments)
About this website

This site will introduce you to YouTube videos that are useful for learning English. You will see English lessons taught by top-notch teachers from around the world. Double-click on the English subtitles displayed on each video page to play the video from there. The subtitles scroll in sync with the video playback. If you have any comments or requests, please contact us using this contact form.

https://forms.gle/WvT1wiN1qDtmnspy7