We're building a dystopia just to make people click on ads | Zeynep Tufekci

732,131 views ・ 2017-11-17

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Bálint Laza Lektor: Andi Vida
00:12
So when people voice fears of artificial intelligence,
0
12760
3536
Amikor az emberek aggódnak a mesterséges intelligencia miatt,
00:16
very often, they invoke images of humanoid robots run amok.
1
16320
3976
nagyon gyakran ámokfutó robotokra gondolnak.
00:20
You know? Terminator?
2
20320
1240
Ugye? A Terminátor?
00:22
You know, that might be something to consider,
3
22400
2336
Ez tényleg megfontolandó lehet,
00:24
but that's a distant threat.
4
24760
1856
de távoli fenyegetés.
00:26
Or, we fret about digital surveillance
5
26640
3456
Vagy múltból szedett metaforákkal idegeskedünk
00:30
with metaphors from the past.
6
30120
1776
a digitális megfigyelés miatt.
00:31
"1984," George Orwell's "1984,"
7
31920
2656
1984. George Orwell 1984-e
00:34
it's hitting the bestseller lists again.
8
34600
2280
újra bestseller.
00:37
It's a great book,
9
37960
1416
Remek könyv,
00:39
but it's not the correct dystopia for the 21st century.
10
39400
3880
de nem a 21. századról szóló disztópia.
Amitől sokkal jobban kell félnünk,
00:44
What we need to fear most
11
44080
1416
00:45
is not what artificial intelligence will do to us on its own,
12
45520
4776
nem az, hogy a mesterséges intelligencia mit fog tenni magától,
00:50
but how the people in power will use artificial intelligence
13
50320
4736
hanem hogy a hatalomban lévők mire fogják használni ezt,
00:55
to control us and to manipulate us
14
55080
2816
hogy szokatlan, néha rejtett,
00:57
in novel, sometimes hidden,
15
57920
3136
kifinomult és váratlan módokon
01:01
subtle and unexpected ways.
16
61080
3016
ellenőrizzenek és manipuláljanak minket.
01:04
Much of the technology
17
64120
1856
A technológia nagy részét,
01:06
that threatens our freedom and our dignity in the near-term future
18
66000
4336
ami szabadságunkat és méltóságunkat veszélyezteti a közeljövőben,
01:10
is being developed by companies
19
70360
1856
olyan cégek fejlesztik,
01:12
in the business of capturing and selling our data and our attention
20
72240
4936
akiknek üzleti érdekében áll megszerezni és eladni adatainkat, érdeklődési körünket
01:17
to advertisers and others:
21
77200
2256
hirdetőknek és másoknak:
01:19
Facebook, Google, Amazon,
22
79480
3416
Facebook, Google, Amazon
01:22
Alibaba, Tencent.
23
82920
1880
Alibaba, Tencent.
01:26
Now, artificial intelligence has started bolstering their business as well.
24
86040
5496
A mesterséges intelligencia már az ő üzleteiket is erősíti.
01:31
And it may seem like artificial intelligence
25
91560
2096
És úgy tűnhet, a mesterséges intelligencia
01:33
is just the next thing after online ads.
26
93680
2856
csak egy újabb lépés az online reklámok után.
01:36
It's not.
27
96560
1216
De nem az.
01:37
It's a jump in category.
28
97800
2456
Kategóriaugrás.
01:40
It's a whole different world,
29
100280
2576
Teljesen más világ,
01:42
and it has great potential.
30
102880
2616
és nagy lehetőségek vannak benne.
01:45
It could accelerate our understanding of many areas of study and research.
31
105520
6920
Segíthet megérteni sok terület tanulmányait és kutatásait.
01:53
But to paraphrase a famous Hollywood philosopher,
32
113120
3496
Egy híres hollywoodi filozófust idézve:
01:56
"With prodigious potential comes prodigious risk."
33
116640
3640
„A hatalmas lehetőségek hatalmas kockázattal járnak”
02:01
Now let's look at a basic fact of our digital lives, online ads.
34
121120
3936
Most nézzük meg digitális életünk alapvetését, az online hirdetéseket.
02:05
Right? We kind of dismiss them.
35
125080
2896
Észre sem vesszük őket, nem?
02:08
They seem crude, ineffective.
36
128000
1976
Erőszakosnak, hatástalannak tűnnek.
02:10
We've all had the experience of being followed on the web
37
130000
4256
Mindegyikünk megtapasztalta már, hogy olyan reklám követ minket a weben,
02:14
by an ad based on something we searched or read.
38
134280
2776
ami a kereséseink, olvasmányaink témájához kötődik.
02:17
You know, you look up a pair of boots
39
137080
1856
Rákeresünk például egy pár csizmára,
02:18
and for a week, those boots are following you around everywhere you go.
40
138960
3376
ami aztán hetekig a nyomunkban jár, bármerre járunk.
02:22
Even after you succumb and buy them, they're still following you around.
41
142360
3656
Még azután is, hogy megadjuk magunkat, és megvesszük.
02:26
We're kind of inured to that kind of basic, cheap manipulation.
42
146040
3016
Hozzászokhattunk már ehhez az egyszerű, olcsó manipulációhoz.
02:29
We roll our eyes and we think, "You know what? These things don't work."
43
149080
3400
Forgatjuk a szemünk, és azt gondoljuk, „Eh, ez nem működik.”
02:33
Except, online,
44
153720
2096
A digitális technológiák nemcsak reklámok,
02:35
the digital technologies are not just ads.
45
155840
3600
eltekintve online felületüktől.
02:40
Now, to understand that, let's think of a physical world example.
46
160240
3120
Ennek megértéséhez nézzünk egy példát a fizikai világból.
02:43
You know how, at the checkout counters at supermarkets, near the cashier,
47
163840
4656
Tudják, hogy a szupermarketekben a pénztár közelében
02:48
there's candy and gum at the eye level of kids?
48
168520
3480
nyalókák és rágógumik vannak a gyerekek szemmagasságában?
02:52
That's designed to make them whine at their parents
49
172800
3496
Ezt úgy tervezték, hogy sírjanak a szüleiknek,
02:56
just as the parents are about to sort of check out.
50
176320
3080
amikor épp sorban állnak a fizetéshez.
03:00
Now, that's a persuasion architecture.
51
180040
2640
Ez a meggyőzés architektúrája.
03:03
It's not nice, but it kind of works.
52
183160
3096
Nem szép, de láthatóan működik.
03:06
That's why you see it in every supermarket.
53
186280
2040
Ezért látjuk ezt minden szupermarketben.
03:08
Now, in the physical world,
54
188720
1696
Na most, a fizikai világban
03:10
such persuasion architectures are kind of limited,
55
190440
2496
ez az architektúra viszonylag korlátozott,
03:12
because you can only put so many things by the cashier. Right?
56
192960
4816
mert nem lehet mindent a pénztárhoz rakni, ugye?
03:17
And the candy and gum, it's the same for everyone,
57
197800
4296
A nyalóka meg a rágógumi mindenkinek ugyanolyan,
03:22
even though it mostly works
58
202120
1456
bár általában jobban működik
03:23
only for people who have whiny little humans beside them.
59
203600
4040
azoknál az embereknél, akik mellett kicsi síró alakok állnak.
03:29
In the physical world, we live with those limitations.
60
209160
3920
A fizikai világban együtt élünk ezekkel a korlátokkal.
03:34
In the digital world, though,
61
214280
1936
A digitális világban viszont
03:36
persuasion architectures can be built at the scale of billions
62
216240
4320
a meggyőzési architektúrák milliárdos nagyságrendűek lehetnek,
03:41
and they can target, infer, understand
63
221840
3856
és megcélozhatnak, felbecsülhetnek, kiismerhetnek egyéneket,
03:45
and be deployed at individuals
64
225720
2896
majd egyesével
03:48
one by one
65
228640
1216
bevethetők ellenük,
03:49
by figuring out your weaknesses,
66
229880
2136
rátapintva gyengeségeikre,
03:52
and they can be sent to everyone's phone private screen,
67
232040
5616
és bárki privát telefon-képernyőjére elküldhetők,
03:57
so it's not visible to us.
68
237680
2256
így a többiek nem látják.
03:59
And that's different.
69
239960
1256
És ettől más.
04:01
And that's just one of the basic things that artificial intelligence can do.
70
241240
3576
Ez csak egyetlen egyszerű dolog, amire a mesterséges intelligencia képes.
04:04
Now, let's take an example.
71
244840
1336
Nézzünk egy példát.
04:06
Let's say you want to sell plane tickets to Vegas. Right?
72
246200
2696
Mondjuk, repülőjegyeket akarunk eladni Las Vegasba. Jó?
04:08
So in the old world, you could think of some demographics to target
73
248920
3496
A régi világban tapasztalat és feltételezések alapján
04:12
based on experience and what you can guess.
74
252440
2520
némi demográfiai célt is tippelhetnénk.
04:15
You might try to advertise to, oh,
75
255560
2816
Tegyük fel, hogy mondjuk,
04:18
men between the ages of 25 and 35,
76
258400
2496
25 és 35 közötti férfiaknak hirdetjük meg,
04:20
or people who have a high limit on their credit card,
77
260920
3936
vagy olyanoknak, akiknek magas hitelkeret van a kártyájukon,
04:24
or retired couples. Right?
78
264880
1376
vagy nyugdíjas pároknak. Nem?
04:26
That's what you would do in the past.
79
266280
1816
Ezt tennénk a múltban.
04:28
With big data and machine learning,
80
268120
2896
Nagy adatmennyiséggel és gépi tanulással
04:31
that's not how it works anymore.
81
271040
1524
ez többé már nem így működik.
04:33
So to imagine that,
82
273320
2176
Úgyhogy képzeljék el,
04:35
think of all the data that Facebook has on you:
83
275520
3856
gondoljanak az összes adatra, amit a Facebook őriz önökről:
04:39
every status update you ever typed,
84
279400
2536
minden állapotfrissítés, amit valaha begépeltek,
04:41
every Messenger conversation,
85
281960
2016
minden Messenger-beszélgetés,
04:44
every place you logged in from,
86
284000
1880
minden hely, ahonnan bejelentkeztek,
04:48
all your photographs that you uploaded there.
87
288400
3176
minden fotó, amit feltöltöttek oda.
04:51
If you start typing something and change your mind and delete it,
88
291600
3776
Ha elkezdenek begépelni valamit, aztán meggondolják magukat, és törlik,
04:55
Facebook keeps those and analyzes them, too.
89
295400
3200
a Facebook azt is megtartja, és elemzi.
04:59
Increasingly, it tries to match you with your offline data.
90
299160
3936
Sőt, megpróbálja összekötni önöket offline adataikkal.
05:03
It also purchases a lot of data from data brokers.
91
303120
3176
Sok adatot vásárol adatkereskedőktől is.
05:06
It could be everything from your financial records
92
306320
3416
Ez bármi lehet: a pénzügyi nyilvántartásuktól kezdve
05:09
to a good chunk of your browsing history.
93
309760
2120
a böngészési előzményeik jó részéig.
05:12
Right? In the US, such data is routinely collected,
94
312360
5416
Értik? Az Államokban ezeket az adatokat rutinszerűen gyűjtik,
05:17
collated and sold.
95
317800
1960
elemzik és eladják.
05:20
In Europe, they have tougher rules.
96
320320
2440
Európában ezt szigorúbban szabályozzák.
05:23
So what happens then is,
97
323680
2200
Így az történik, hogy amint
05:26
by churning through all that data, these machine-learning algorithms --
98
326920
4016
ezek a gépi tanulásos algoritmusok végigfutnak az adatokon –
05:30
that's why they're called learning algorithms --
99
330960
2896
ezért hívjuk tanuló algoritmusoknak –,
05:33
they learn to understand the characteristics of people
100
333880
4096
megtanulják megérteni azok jellemzőit,
05:38
who purchased tickets to Vegas before.
101
338000
2520
akik korábban jegyet vettek Las Vegasba.
05:41
When they learn this from existing data,
102
341760
3536
Amikor meglévő adatból tanulnak,
05:45
they also learn how to apply this to new people.
103
345320
3816
megtanulják azt is, hogyan alkalmazzák új emberekre.
05:49
So if they're presented with a new person,
104
349160
3056
Így ha új személlyel találkoznak,
05:52
they can classify whether that person is likely to buy a ticket to Vegas or not.
105
352240
4640
be tudják sorolni hogy ő valószínűleg vesz-e jegyet Vegasba, vagy nem.
05:57
Fine. You're thinking, an offer to buy tickets to Vegas.
106
357720
5456
Rendben. Önök azt hiszik, ez egy ajánlat Vegasba.
06:03
I can ignore that.
107
363200
1456
Ezt figyelmen kívül hagyhatom.
06:04
But the problem isn't that.
108
364680
2216
A probléma azonban nem ez.
06:06
The problem is,
109
366920
1576
Hanem az, hogy többé
06:08
we no longer really understand how these complex algorithms work.
110
368520
4136
nem igazán értjük, hogyan működnek ezek az összetett algoritmusok.
06:12
We don't understand how they're doing this categorization.
111
372680
3456
Nem értjük, hogyan csoportosítanak.
06:16
It's giant matrices, thousands of rows and columns,
112
376160
4416
Hatalmas mátrixok, több ezernyi sor és oszlop,
06:20
maybe millions of rows and columns,
113
380600
1960
talán milliónyi sor vagy oszlop,
06:23
and not the programmers
114
383320
2640
és sem a programozók,
06:26
and not anybody who looks at it,
115
386760
1680
sem senki, aki ránéz,
06:29
even if you have all the data,
116
389440
1496
nem érti már a pontos működését,
06:30
understands anymore how exactly it's operating
117
390960
4616
még akkor sem, ha megvan az összes adat,
06:35
any more than you'd know what I was thinking right now
118
395600
3776
mint ahogy azt sem tudnák, mit gondolok éppen,
06:39
if you were shown a cross section of my brain.
119
399400
3960
még akkor sem, ha megmutatnám az agyam keresztmetszetét.
06:44
It's like we're not programming anymore,
120
404360
2576
Mintha többé nem programoznánk,
06:46
we're growing intelligence that we don't truly understand.
121
406960
4400
olyan intelligenciát fejlesztünk, amit nem értünk teljesen.
06:52
And these things only work if there's an enormous amount of data,
122
412520
3976
És mindezek csak akkor működnek, ha rengeteg adatunk van,
06:56
so they also encourage deep surveillance on all of us
123
416520
5096
így arra is ösztönöznek, hogy alaposan megfigyeljenek mindannyiunkat,
07:01
so that the machine learning algorithms can work.
124
421640
2336
hogy működhessenek a gépi tanulásos algoritmusok.
07:04
That's why Facebook wants to collect all the data it can about you.
125
424000
3176
Ezért gyűjt össze a Facebook minden adatot rólunk, amit csak tud.
07:07
The algorithms work better.
126
427200
1576
Az algoritmusok jobban működnek.
07:08
So let's push that Vegas example a bit.
127
428800
2696
Nézzük még kicsit a vegasi példát.
07:11
What if the system that we do not understand
128
431520
3680
Mi van, ha a rendszer, amit nem értünk,
07:16
was picking up that it's easier to sell Vegas tickets
129
436200
5136
rájött, hogy egyszerűbb vegasi jegyeket eladni azoknak,
07:21
to people who are bipolar and about to enter the manic phase.
130
441360
3760
akiknek bipoláris zavara éppen a mániákus szakaszba lép?
07:25
Such people tend to become overspenders, compulsive gamblers.
131
445640
4920
Ők gyakran lesznek túlköltekezők, kényszeres szerencsejátékosok.
07:31
They could do this, and you'd have no clue that's what they were picking up on.
132
451280
4456
Kiválaszthatja őket ennek alapján, és mi még csak nem is sejtjük.
07:35
I gave this example to a bunch of computer scientists once
133
455760
3616
Egyszer informatikusok körében mondtam el ezt a példát,
07:39
and afterwards, one of them came up to me.
134
459400
2056
utána egyikük odajött hozzám.
07:41
He was troubled and he said, "That's why I couldn't publish it."
135
461480
3520
Zavart volt, és azt mondta: „Ezért nem tudom kiadni.”
07:45
I was like, "Couldn't publish what?"
136
465600
1715
Mondom: „Mit nem tud kiadni?”
07:47
He had tried to see whether you can indeed figure out the onset of mania
137
467800
5856
Olyan szoftvert írt, ami azt vizsgálja: megállapítható-e a mánia megjelenése
07:53
from social media posts before clinical symptoms,
138
473680
3216
közösségi médiás bejegyzésekből a klinikai tünetek megjelenése előtt,
07:56
and it had worked,
139
476920
1776
és kiderült, hogy igen,
07:58
and it had worked very well,
140
478720
2056
a programja nagyon is jól működött,
08:00
and he had no idea how it worked or what it was picking up on.
141
480800
4880
ő pedig nem tudta, hogyan működik, vagy hogy milyen fogásra akadt.
08:06
Now, the problem isn't solved if he doesn't publish it,
142
486840
4416
A probléma nem oldódik meg, ha nem adja ki a szoftvert,
08:11
because there are already companies
143
491280
1896
mert már vannak cégek,
08:13
that are developing this kind of technology,
144
493200
2536
akik fejlesztenek ilyen technológiát,
08:15
and a lot of the stuff is just off the shelf.
145
495760
2800
és már sok minden elérhető.
08:19
This is not very difficult anymore.
146
499240
2576
Ez ma már nem túl bonyolult.
08:21
Do you ever go on YouTube meaning to watch one video
147
501840
3456
Mentek-e már úgy a Youtube-ra, hogy csak egy videót néznek meg,
08:25
and an hour later you've watched 27?
148
505320
2360
és egy óra múlva már a huszonhetediknél tartottak?
08:28
You know how YouTube has this column on the right
149
508760
2496
Ismerik-e a Youtube-on a jobb oldali oszlopot,
08:31
that says, "Up next"
150
511280
2216
ahol ez áll: „Következő”,
08:33
and it autoplays something?
151
513520
1816
és automatikusan lejátszik valamit?
08:35
It's an algorithm
152
515360
1216
Az egy algoritmus,
08:36
picking what it thinks that you might be interested in
153
516600
3616
ami kiválasztja, hogy feltehetően mi érdekli a látogatót,
és nem biztos, hogy magunktól rátalálnánk.
08:40
and maybe not find on your own.
154
520240
1536
08:41
It's not a human editor.
155
521800
1256
Ezt nem ember szerkeszti.
08:43
It's what algorithms do.
156
523080
1416
Így működnek az algoritmusok.
08:44
It picks up on what you have watched and what people like you have watched,
157
524520
4736
Annak alapján, amit mi és a hozzánk hasonló látogatók megnézünk,
08:49
and infers that that must be what you're interested in,
158
529280
4216
kiválasztja és kikövetkezteti, mi az, ami még érdekelhet minket,
08:53
what you want more of,
159
533520
1255
miből szeretnénk még,
08:54
and just shows you more.
160
534799
1336
és ezekből többet mutat.
08:56
It sounds like a benign and useful feature,
161
536159
2201
Jószándékú és hasznos funkciónak hangzik,
08:59
except when it isn't.
162
539280
1200
de nem mindig az.
09:01
So in 2016, I attended rallies of then-candidate Donald Trump
163
541640
6960
2016-ban részt vettem az akkor jelölt Donald Trump gyűlésein,
09:09
to study as a scholar the movement supporting him.
164
549840
3336
hogy kutatóként tanulmányozzam az őt támogató mozgalmat.
09:13
I study social movements, so I was studying it, too.
165
553200
3456
Társadalmi mozgalmakat kutatok, ezért ezt is tanulmányoztam.
09:16
And then I wanted to write something about one of his rallies,
166
556680
3336
Aztán írni akartam valamit az egyik gyűléséről,
09:20
so I watched it a few times on YouTube.
167
560040
1960
ezért megnéztem párszor a Youtube-on.
A Youtube fehér felsőbbrendűségről szóló videókat kezdett ajánlgatni
09:23
YouTube started recommending to me
168
563240
3096
09:26
and autoplaying to me white supremacist videos
169
566360
4256
és automatikusan lejátszani nekem,
09:30
in increasing order of extremism.
170
570640
2656
egyre szélsőségesebbeket.
09:33
If I watched one,
171
573320
1816
Ha megnéztem egyet,
09:35
it served up one even more extreme
172
575160
2976
még szélsőségesebbet kaptam,
09:38
and autoplayed that one, too.
173
578160
1424
és azt is magától lejátszotta.
09:40
If you watch Hillary Clinton or Bernie Sanders content,
174
580320
4536
Ha Hillary Clintonról vagy Bernie Sandersről nézünk tartalmakat,
09:44
YouTube recommends and autoplays conspiracy left,
175
584880
4696
a Youtube automatikusan összeesküvés-elméleteket kezd lejátszani,
09:49
and it goes downhill from there.
176
589600
1760
innentől már csak lejjebb van.
09:52
Well, you might be thinking, this is politics, but it's not.
177
592480
3056
Önök azt gondolhatják: ez politika, de nem az.
09:55
This isn't about politics.
178
595560
1256
Ez nem a politikáról szól.
09:56
This is just the algorithm figuring out human behavior.
179
596840
3096
Ez csak egy algoritmus, ami kitalálja az emberi viselkedést.
09:59
I once watched a video about vegetarianism on YouTube
180
599960
4776
Egyszer megnéztem egy videót a vegetarianizmusról a Youtube-on,
10:04
and YouTube recommended and autoplayed a video about being vegan.
181
604760
4936
a Youtube ajánlott és el is indított egy videót a vegán életmódról.
10:09
It's like you're never hardcore enough for YouTube.
182
609720
3016
Olyan, mintha sosem lennénk elég kemények a Youtube-nak.
10:12
(Laughter)
183
612760
1576
(Nevetés)
10:14
So what's going on?
184
614360
1560
Szóval, mi folyik itt?
10:16
Now, YouTube's algorithm is proprietary,
185
616520
3536
A Youtube algoritmusa szabadalommal védett,
10:20
but here's what I think is going on.
186
620080
2360
de elmondom, mit gondolok.
10:23
The algorithm has figured out
187
623360
2096
Az algoritmus rájött,
10:25
that if you can entice people
188
625480
3696
ha rá tudjuk venni az embereket, hogy azt gondolják:
10:29
into thinking that you can show them something more hardcore,
189
629200
3736
valami keményebbet tudunk nekik mutatni,
10:32
they're more likely to stay on the site
190
632960
2416
akkor nagyobb valószínűséggel maradnak az oldalon,
10:35
watching video after video going down that rabbit hole
191
635400
4416
és nézik egyik videót a másik után, egyre mélyebbre merülve,
10:39
while Google serves them ads.
192
639840
1680
míg a Google hirdetéseket mutat nekik.
10:43
Now, with nobody minding the ethics of the store,
193
643760
3120
Most, hogy senkit nem érdekel a boltok etikája,
10:47
these sites can profile people
194
647720
4240
ezek az oldalak pontosan meg tudják találni
10:53
who are Jew haters,
195
653680
1920
a zsidógyűlölőket,
10:56
who think that Jews are parasites
196
656360
2480
azokat, akik szerint a zsidók paraziták,
11:00
and who have such explicit anti-Semitic content,
197
660320
4920
azokat, akik kifejezetten antiszemita tartalmakat tesznek fel,
11:06
and let you target them with ads.
198
666080
2000
és célzott reklámokat küld nekik.
11:09
They can also mobilize algorithms
199
669200
3536
Arra is használhatják az algoritmusokat,
11:12
to find for you look-alike audiences,
200
672760
3136
hogy megtalálják a hasonló közönséget,
11:15
people who do not have such explicit anti-Semitic content on their profile
201
675920
5576
azokat, akiknek nincs ilyen határozott antiszemita tartalom a profilján,
11:21
but who the algorithm detects may be susceptible to such messages,
202
681520
6176
de az algoritmus felismeri, hogy fogékonyak lehetnek ilyen üzenetekre,
11:27
and lets you target them with ads, too.
203
687720
1920
és nekik is küldi a célzott hirdetéseket.
11:30
Now, this may sound like an implausible example,
204
690680
2736
Ez valószínűtlen példának tűnhet,
11:33
but this is real.
205
693440
1320
pedig valódi.
11:35
ProPublica investigated this
206
695480
2136
A ProPublica nyomozott az ügyben,
11:37
and found that you can indeed do this on Facebook,
207
697640
3616
és rájöttek, hogy ez tényleg megtehető a Facebookon,
11:41
and Facebook helpfully offered up suggestions
208
701280
2416
a Facebook még segítőkészen javaslatokat is tesz,
11:43
on how to broaden that audience.
209
703720
1600
hogyan bővítsük ezt a közönséget.
11:46
BuzzFeed tried it for Google, and very quickly they found,
210
706720
3016
A BuzzFeed tesztelte a Google-t, és nagyon gyorsan rájöttek,
11:49
yep, you can do it on Google, too.
211
709760
1736
hogy bizony rá is ugyanez vonatkozik.
11:51
And it wasn't even expensive.
212
711520
1696
És még csak drága sem volt.
11:53
The ProPublica reporter spent about 30 dollars
213
713240
4416
A ProPublica riportere 30 dollárt költött
11:57
to target this category.
214
717680
2240
ennek a kategóriának a bemérésére.
12:02
So last year, Donald Trump's social media manager disclosed
215
722600
5296
Tavaly tehát Donald Trump közösségimédia-menedzsere elmondta,
12:07
that they were using Facebook dark posts to demobilize people,
216
727920
5336
hogy úgynevezett "dark postokkal" igyekeznek otthon tartani az embereket,
12:13
not to persuade them,
217
733280
1376
nem azért, hogy meggyőzzék őket,
12:14
but to convince them not to vote at all.
218
734680
2800
hanem hogy egyáltalán ne szavazzanak.
12:18
And to do that, they targeted specifically,
219
738520
3576
És ehhez kifinomult módon állítottak be célcsoportokat,
12:22
for example, African-American men in key cities like Philadelphia,
220
742120
3896
például kulcsvárosokban, például Philadelphiában élő afro-amerikaiakat,
12:26
and I'm going to read exactly what he said.
221
746040
2456
és mindjárt felolvasom, mit mondott pontosan.
12:28
I'm quoting.
222
748520
1216
Idézem.
12:29
They were using "nonpublic posts
223
749760
3016
"Nem nyilvános posztokat" használtak,
12:32
whose viewership the campaign controls
224
752800
2176
"ezek olvasóit a kampány szabályozta,
12:35
so that only the people we want to see it see it.
225
755000
3776
hogy csak azok lássák, akiket erre célzottan kiválasztunk.
12:38
We modeled this.
226
758800
1216
Modelleztük ezt.
12:40
It will dramatically affect her ability to turn these people out."
227
760040
4720
Drasztikusan befolyásolja az embereket a szavazásból való kimaradásra."
12:45
What's in those dark posts?
228
765720
2280
Mi volt ezekben a "sötét bejegyzésekben"?
12:48
We have no idea.
229
768480
1656
Ötletünk sincs.
12:50
Facebook won't tell us.
230
770160
1200
A Facebook nem árulja el.
12:52
So Facebook also algorithmically arranges the posts
231
772480
4376
A Facebook tehát algoritmus szerint rendezi a bejegyzéseket,
12:56
that your friends put on Facebook, or the pages you follow.
232
776880
3736
amiket a barátaink kitesznek, vagy az oldalakat, amiket követünk.
13:00
It doesn't show you everything chronologically.
233
780640
2216
Nem időrend szerint jeleníti meg ezeket.
13:02
It puts the order in the way that the algorithm thinks will entice you
234
782880
4816
Az algoritmus elgondolása szerint olyan sorrendbe rendezi,
13:07
to stay on the site longer.
235
787720
1840
hogy minél több időt töltsünk ott.
Ez pedig rengeteg következményt von maga után.
13:11
Now, so this has a lot of consequences.
236
791040
3376
13:14
You may be thinking somebody is snubbing you on Facebook.
237
794440
3800
Azt gondolhatjuk, hogy valaki mellőz minket a Facebookon.
13:18
The algorithm may never be showing your post to them.
238
798800
3256
Pedig lehet, hogy az algoritmus elrejti előle a bejegyzéseinket.
13:22
The algorithm is prioritizing some of them and burying the others.
239
802080
5960
Az algoritmus egy részüket kiemeli, a többit eltemeti.
13:29
Experiments show
240
809320
1296
A kísérletek szerint
13:30
that what the algorithm picks to show you can affect your emotions.
241
810640
4520
az algoritmus választásai befolyásolhatják az érzelmeinket.
13:36
But that's not all.
242
816600
1200
De ez még nem minden.
13:38
It also affects political behavior.
243
818280
2360
A politikai viselkedést is befolyásolja.
13:41
So in 2010, in the midterm elections,
244
821360
4656
2010-ben a félidős választásokon
13:46
Facebook did an experiment on 61 million people in the US
245
826040
5896
a Facebook 61 millió amerikat tesztelt,
13:51
that was disclosed after the fact.
246
831960
1896
és ezt csak utólag mondták el.
13:53
So some people were shown, "Today is election day,"
247
833880
3416
Néhány embernek azt mutatták: "Ma vannak a választások",
13:57
the simpler one,
248
837320
1376
ez volt az egyszerűbb,
13:58
and some people were shown the one with that tiny tweak
249
838720
3896
másoknak bonyolultabbat,
14:02
with those little thumbnails
250
842640
2096
azokkal a kis bélyegképekkel
14:04
of your friends who clicked on "I voted."
251
844760
2840
a barátainkról, akik rákattintottak arra, hogy "Szavaztam".
14:09
This simple tweak.
252
849000
1400
Ez egyszerű különbség.
14:11
OK? So the pictures were the only change,
253
851520
4296
Értik? Csak a képek jelentették az egyetlen eltérést,
14:15
and that post shown just once
254
855840
3256
és a bejegyzést csak egyszer mutatták,
14:19
turned out an additional 340,000 voters
255
859120
6056
ez a kutatás szerint
14:25
in that election,
256
865200
1696
340 ezer plusz szavazót jelentett
14:26
according to this research
257
866920
1696
azon a választáson,
14:28
as confirmed by the voter rolls.
258
868640
2520
ezt a szavazólisták megerősítették.
14:32
A fluke? No.
259
872920
1656
Mázli? Nem.
14:34
Because in 2012, they repeated the same experiment.
260
874600
5360
Mert 2012-ben megismételték ugyanezt a kísérletet.
14:40
And that time,
261
880840
1736
Ekkor
14:42
that civic message shown just once
262
882600
3296
ez az egyszer megjelenített állampolgári üzenet
14:45
turned out an additional 270,000 voters.
263
885920
4440
270 ezer további szavazót hozott.
14:51
For reference, the 2016 US presidential election
264
891160
5216
Referenciaként, a 2016-os amerikai elnökválasztást
14:56
was decided by about 100,000 votes.
265
896400
3520
százezer szavazó döntötte el.
15:01
Now, Facebook can also very easily infer what your politics are,
266
901360
4736
A Facebook könnyedén kikövetkezteti politikai vonzódásunkat,
15:06
even if you've never disclosed them on the site.
267
906120
2256
akkor is, ha ezt soha nem tárjuk nyilvánosság elé.
15:08
Right? These algorithms can do that quite easily.
268
908400
2520
Ezeknek az algoritmusoknak ez nem kihívás.
15:11
What if a platform with that kind of power
269
911960
3896
Mi van, ha egy platform ezzel a típusú hatalommal
15:15
decides to turn out supporters of one candidate over the other?
270
915880
5040
úgy dönt, hogy egy jelöltet támogat egy másikkal szemben?
15:21
How would we even know about it?
271
921680
2440
Honnan fogunk egyáltalán tudni róla?
15:25
Now, we started from someplace seemingly innocuous --
272
925560
4136
Valami látszólag ártalmatlan dologgal kezdtünk –
15:29
online adds following us around --
273
929720
2216
minket követő online hirdetések –,
15:31
and we've landed someplace else.
274
931960
1840
és máshová lyukadtunk ki.
15:35
As a public and as citizens,
275
935480
2456
Közösségként és állampolgárokként
15:37
we no longer know if we're seeing the same information
276
937960
3416
többé nem tudjuk, hogy ugyanazt az információt látjuk,
15:41
or what anybody else is seeing,
277
941400
1480
vagy azt, amit bárki más lát,
15:43
and without a common basis of information,
278
943680
2576
és közös információs alapok nélkül,
15:46
little by little,
279
946280
1616
lépésről lépésre
15:47
public debate is becoming impossible,
280
947920
3216
lehetetlenné válnak a nyilvános viták,
15:51
and we're just at the beginning stages of this.
281
951160
2976
és ennek még csak az elején tartunk.
15:54
These algorithms can quite easily infer
282
954160
3456
Ezek az algoritmusok csak Facebook like-okból
15:57
things like your people's ethnicity,
283
957640
3256
képesek kikövetkeztetni olyan jellemzőket,
16:00
religious and political views, personality traits,
284
960920
2336
mint az emberek etnikuma, vallási és politikai nézetei,
16:03
intelligence, happiness, use of addictive substances,
285
963280
3376
személyiségjegyei, intelligenciája, boldogsága,
16:06
parental separation, age and genders,
286
966680
3136
függőséget okozó szerek használata,
16:09
just from Facebook likes.
287
969840
1960
válása, életkora, neme.
Ezek az algoritmusok képesek tüntetőket azonosítani
16:13
These algorithms can identify protesters
288
973440
4056
16:17
even if their faces are partially concealed.
289
977520
2760
akkor is, ha az arcuk részben el van takarva.
16:21
These algorithms may be able to detect people's sexual orientation
290
981720
6616
Ezek az algoritmusok képesek emberek szexuális orientációját behatárolni,
16:28
just from their dating profile pictures.
291
988360
3200
csak randiprofiljuk fotójából.
16:33
Now, these are probabilistic guesses,
292
993560
2616
Persze, ezek valószínűségi találgatások,
16:36
so they're not going to be 100 percent right,
293
996200
2896
ezért nem lesznek 100 százalékosan pontosak,
16:39
but I don't see the powerful resisting the temptation to use these technologies
294
999120
4896
de túl erősnek látom a technológia felhasználására irányuló kísértést,
16:44
just because there are some false positives,
295
1004040
2176
és nem győz meg néhány hamis eredmény,
16:46
which will of course create a whole other layer of problems.
296
1006240
3256
ami persze teljesen új problémahegyeket hoz létre.
16:49
Imagine what a state can do
297
1009520
2936
Képzeljük el, mit kezdhet egy állam
16:52
with the immense amount of data it has on its citizens.
298
1012480
3560
ezzel a rengeteg adattal saját állampolgárairól.
16:56
China is already using face detection technology
299
1016680
4776
Kína már használja az arcfelismerés technológiáját,
17:01
to identify and arrest people.
300
1021480
2880
hogy azonosítson és lecsukjon embereket.
17:05
And here's the tragedy:
301
1025280
2136
És itt a tragédia:
17:07
we're building this infrastructure of surveillance authoritarianism
302
1027440
5536
az önkényuralmi megfigyelés infrastruktúráját építjük
17:13
merely to get people to click on ads.
303
1033000
2960
csak azért, hogy az emberek hirdetésekre kattintsanak.
17:17
And this won't be Orwell's authoritarianism.
304
1037240
2576
És ez nem Orwell önkényuralma lesz.
17:19
This isn't "1984."
305
1039839
1897
Ez nem az "1984".
17:21
Now, if authoritarianism is using overt fear to terrorize us,
306
1041760
4576
Ha ez az önkényuralom nyílt fenyegetéssel félemlít meg minket,
17:26
we'll all be scared, but we'll know it,
307
1046359
2897
mind rettegni fogunk, de tisztában leszünk vele,
17:29
we'll hate it and we'll resist it.
308
1049280
2200
gyűlölni fogjuk, és ellenállunk.
17:32
But if the people in power are using these algorithms
309
1052880
4416
De ha a hatalomban lévők ezeket az algoritmusokat arra használják,
17:37
to quietly watch us,
310
1057319
3377
hogy csendben megfigyeljenek,
17:40
to judge us and to nudge us,
311
1060720
2080
hogy ítélkezzenek,
17:43
to predict and identify the troublemakers and the rebels,
312
1063720
4176
hogy előre lássák és azonosítsák a bajkeverőket és a lázadókat,
17:47
to deploy persuasion architectures at scale
313
1067920
3896
hogy a meggyőzés szerkezetét széles körben alkalmazzák,
17:51
and to manipulate individuals one by one
314
1071840
4136
hogy személyes, egyéni gyengeségeik és sebezhetőségeik felhasználásával
17:56
using their personal, individual weaknesses and vulnerabilities,
315
1076000
5440
egyenként manipuláljanak egyéneket,
18:02
and if they're doing it at scale
316
1082720
2200
és ha ezt nagy léptékben végzik
18:06
through our private screens
317
1086080
1736
privát képernyőinken
18:07
so that we don't even know
318
1087840
1656
úgy, hogy még azt sem tudjuk,
18:09
what our fellow citizens and neighbors are seeing,
319
1089520
2760
mit lát a többi állampolgár és a szomszédaink,
18:13
that authoritarianism will envelop us like a spider's web
320
1093560
4816
ez az önkényuralom behálóz minket, mint egy pók hálója,
18:18
and we may not even know we're in it.
321
1098400
2480
és talán észre sem vesszük majd, hogy benne vagyunk.
18:22
So Facebook's market capitalization
322
1102440
2936
A Facebook piaci értéke
18:25
is approaching half a trillion dollars.
323
1105400
3296
megközelíti a fél billió dollárt.
18:28
It's because it works great as a persuasion architecture.
324
1108720
3120
Mert jól működik mint meggyőzési technika.
18:33
But the structure of that architecture
325
1113760
2816
De ennek az architektúrának a szerkezete
18:36
is the same whether you're selling shoes
326
1116600
3216
ugyanaz akkor is, ha cipőket adunk el,
18:39
or whether you're selling politics.
327
1119840
2496
és akkor is, ha politikát adunk el.
18:42
The algorithms do not know the difference.
328
1122360
3120
Az algoritmusok nem tesznek különbséget.
18:46
The same algorithms set loose upon us
329
1126240
3296
Ugyanazok az algoritmusok, amelyek
18:49
to make us more pliable for ads
330
1129560
3176
befolyásolhatóbbá tesznek minket a hirdetésekkel szemben,
18:52
are also organizing our political, personal and social information flows,
331
1132760
6736
ugyanazok szervezik politikai személyes és társadalmi információnk áramlását,
18:59
and that's what's got to change.
332
1139520
1840
és ezen változtatnunk kell.
19:02
Now, don't get me wrong,
333
1142240
2296
Kérem, ne értsenek félre,
19:04
we use digital platforms because they provide us with great value.
334
1144560
3680
azért használjuk a digitális platformokat, mert értékesek számunkra.
19:09
I use Facebook to keep in touch with friends and family around the world.
335
1149120
3560
Facebookozom, hogy tartsam a kapcsolatot barátaimmal és családommal.
19:14
I've written about how crucial social media is for social movements.
336
1154000
5776
Írtam arról, milyen fontos a közösségi média társadalmi mozgalmainkhoz.
19:19
I have studied how these technologies can be used
337
1159800
3016
Azt kutattam, hogyan használhatjuk ezeket a technológiákat arra,
19:22
to circumvent censorship around the world.
338
1162840
2480
hogy világszerte megkerüljük a cenzúrát.
19:27
But it's not that the people who run, you know, Facebook or Google
339
1167280
6416
De nem azért, hogy azok, akik a Facebookot vagy a Google-t irányítják,
19:33
are maliciously and deliberately trying
340
1173720
2696
rosszindulatúan és szándékosan megpróbálják
19:36
to make the country or the world more polarized
341
1176440
4456
egyre jobban megosztani az országot vagy a világot,
19:40
and encourage extremism.
342
1180920
1680
és ösztönözni a szélsőségeket.
19:43
I read the many well-intentioned statements
343
1183440
3976
Olvastam a sok jó szándékú kijelentést
19:47
that these people put out.
344
1187440
3320
ezektől az emberektől.
19:51
But it's not the intent or the statements people in technology make that matter,
345
1191600
6056
De nem a szándék, és nem a technológián dolgozók kijelentései számítanak,
19:57
it's the structures and business models they're building.
346
1197680
3560
hanem azok a szerkezetek, üzleti modellek, amiket építenek.
20:02
And that's the core of the problem.
347
1202360
2096
És ez a probléma lényege.
20:04
Either Facebook is a giant con of half a trillion dollars
348
1204480
4720
A Facebook vagy egy hatalmas, félbillió dolláros cég,
20:10
and ads don't work on the site,
349
1210200
1896
és nem működnek hirdetések a felületén,
20:12
it doesn't work as a persuasion architecture,
350
1212120
2696
nem meggyőzési architektúraként működik,
20:14
or its power of influence is of great concern.
351
1214840
4120
vagy pedig befolyásoló hatalma aggodalomra ad okot.
20:20
It's either one or the other.
352
1220560
1776
Vagy az egyik, vagy a másik.
20:22
It's similar for Google, too.
353
1222360
1600
Ugyanez igaz a Google-ra.
20:24
So what can we do?
354
1224880
2456
Mit tehetünk tehát?
20:27
This needs to change.
355
1227360
1936
Ez nem maradhat így.
20:29
Now, I can't offer a simple recipe,
356
1229320
2576
Sajnos, nem tudok egyszerű receptet ajánlani,
20:31
because we need to restructure
357
1231920
2256
mert át kell alakítanunk
20:34
the whole way our digital technology operates.
358
1234200
3016
a digitális technológia egész működését.
20:37
Everything from the way technology is developed
359
1237240
4096
A technológia fejlesztésétől kezdve addig,
20:41
to the way the incentives, economic and otherwise,
360
1241360
3856
ahol a gazdasági és egyéb ösztönzők
20:45
are built into the system.
361
1245240
2280
beépülnek a rendszerbe.
20:48
We have to face and try to deal with
362
1248480
3456
Szembe kell néznünk és foglalkoznunk kell
20:51
the lack of transparency created by the proprietary algorithms,
363
1251960
4656
a védett algoritmusok átláthatóságának hiányával,
20:56
the structural challenge of machine learning's opacity,
364
1256640
3816
a gépi tanulás homályosságának szerkezeti kihívásaival,
21:00
all this indiscriminate data that's being collected about us.
365
1260480
3400
a rólunk válogatás nélkül gyűjtött összes adattal.
21:05
We have a big task in front of us.
366
1265000
2520
Nagy feladat áll előttünk.
21:08
We have to mobilize our technology,
367
1268160
2680
Mozgósítanunk kell a technológiánkat,
21:11
our creativity
368
1271760
1576
kreativitásunkat,
21:13
and yes, our politics
369
1273360
1880
és igen, a politikánkat,
21:16
so that we can build artificial intelligence
370
1276240
2656
hogy olyan mesterséges intelligenciát építsünk,
21:18
that supports us in our human goals
371
1278920
3120
ami támogatja emberi céljainkat,
21:22
but that is also constrained by our human values.
372
1282800
3920
de amit emberi értékeink korlátoznak is.
21:27
And I understand this won't be easy.
373
1287600
2160
Értem én, hogy ez nem lesz egyszerű.
21:30
We might not even easily agree on what those terms mean.
374
1290360
3600
Talán abban sem értünk teljesen egyet, hogy mit jelentenek ezek a feltételek.
21:34
But if we take seriously
375
1294920
2400
De ha komolyan vesszük,
21:38
how these systems that we depend on for so much operate,
376
1298240
5976
hogy ezek a rendszerek, amelyek működésétől annyira függünk,
21:44
I don't see how we can postpone this conversation anymore.
377
1304240
4120
nem látom be, hogy elhalaszthatnánk ezt a megbeszélést.
21:49
These structures
378
1309200
2536
Ezek a szerkezetek
21:51
are organizing how we function
379
1311760
4096
megszervezik, hogyan működünk,
21:55
and they're controlling
380
1315880
2296
és irányítják,
21:58
what we can and we cannot do.
381
1318200
2616
mit tehetünk, és mit nem.
22:00
And many of these ad-financed platforms,
382
1320840
2456
Sok, reklámokkal finanszírozott platform
22:03
they boast that they're free.
383
1323320
1576
büszkén hirdeti, hogy ingyenes.
22:04
In this context, it means that we are the product that's being sold.
384
1324920
4560
Ami ebben a környezetben azt jelenti, hogy mi vagyunk az eladott termék.
22:10
We need a digital economy
385
1330840
2736
Olyan digitális gazdaságra van szükségünk,
22:13
where our data and our attention
386
1333600
3496
ahol az adataink és az érdeklődési körünk
22:17
is not for sale to the highest-bidding authoritarian or demagogue.
387
1337120
5080
nem eladó a legnagyobb ajánlatot tevő önkényúrnak vagy demagógnak.
22:23
(Applause)
388
1343160
3800
(Taps)
22:30
So to go back to that Hollywood paraphrase,
389
1350480
3256
Szóval, vissza a hollywoodi idézethez:
22:33
we do want the prodigious potential
390
1353760
3736
a mesterséges intelligencia és a digitális technológia virágzásának
22:37
of artificial intelligence and digital technology to blossom,
391
1357520
3200
hatalmas lehetőségei tényleg kellenek,
22:41
but for that, we must face this prodigious menace,
392
1361400
4936
de ehhez szembe kell néznünk az óriási fenyegetéssel,
22:46
open-eyed and now.
393
1366360
1936
nyitott szemmel, és most azonnal.
22:48
Thank you.
394
1368320
1216
Köszönöm.
22:49
(Applause)
395
1369560
4640
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7