We're building a dystopia just to make people click on ads | Zeynep Tufekci

741,241 views ・ 2017-11-17

TED


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

Tłumaczenie: Korekta: Agnieszka Fijałkowska
Gdy ludzie mówią o obawach związanych ze sztuczną inteligencją,
przywołują obrazy siejących spustoszenie humanoidalnych robotów.
Prawda? Terminator?
Warto o tym pomyśleć,
00:12
So when people voice fears of artificial intelligence,
0
12760
3536
ale to dość odległe zagrożenie.
Boimy się też cyfrowej inwigilacji
00:16
very often, they invoke images of humanoid robots run amok.
1
16320
3976
przywołując metafory z przeszłości.
"Rok 1984" Georga Orwella
00:20
You know? Terminator?
2
20320
1240
00:22
You know, that might be something to consider,
3
22400
2336
znowu trafił na listy bestsellerów.
00:24
but that's a distant threat.
4
24760
1856
To świetna książka,
00:26
Or, we fret about digital surveillance
5
26640
3456
ale nie opisuje prawdziwej dystopii XXI wieku.
00:30
with metaphors from the past.
6
30120
1776
00:31
"1984," George Orwell's "1984,"
7
31920
2656
Najbardziej musimy się obawiać nie tego,
00:34
it's hitting the bestseller lists again.
8
34600
2280
co sztuczna inteligencja zrobi nam sama z siebie,
00:37
It's a great book,
9
37960
1416
ale tego, w jaki sposób ludzie u władzy wykorzystają ją
00:39
but it's not the correct dystopia for the 21st century.
10
39400
3880
do kontrolowania nas i manipulowania
00:44
What we need to fear most
11
44080
1416
00:45
is not what artificial intelligence will do to us on its own,
12
45520
4776
w nowatorski, czasem ukryty,
subtelny i nieoczekiwany sposób.
00:50
but how the people in power will use artificial intelligence
13
50320
4736
Większość technologii,
która wkrótce może zagrozić naszej wolności i godności
00:55
to control us and to manipulate us
14
55080
2816
00:57
in novel, sometimes hidden,
15
57920
3136
rozwijają firmy
zajmujące się zdobywaniem i sprzedażą naszych danych i uwagi
01:01
subtle and unexpected ways.
16
61080
3016
01:04
Much of the technology
17
64120
1856
firmom reklamowym i innym:
01:06
that threatens our freedom and our dignity in the near-term future
18
66000
4336
Facebook, Google, Amazon,
01:10
is being developed by companies
19
70360
1856
Alibaba, Tencent.
01:12
in the business of capturing and selling our data and our attention
20
72240
4936
Sztuczna inteligencja to podstawa ich biznesu.
01:17
to advertisers and others:
21
77200
2256
01:19
Facebook, Google, Amazon,
22
79480
3416
Może się wydawać, że sztuczna inteligencja
jest tylko kolejnym krokiem po reklamach w sieci.
01:22
Alibaba, Tencent.
23
82920
1880
Nie jest.
To ogromny skok.
01:26
Now, artificial intelligence has started bolstering their business as well.
24
86040
5496
To zupełnie inny świat
z ogromnym potencjałem.
01:31
And it may seem like artificial intelligence
25
91560
2096
01:33
is just the next thing after online ads.
26
93680
2856
Może nam pomóc w zrozumieniu wielu dziedzin i badań naukowych.
01:36
It's not.
27
96560
1216
01:37
It's a jump in category.
28
97800
2456
01:40
It's a whole different world,
29
100280
2576
Jednak parafrazując znanego filozofa z Hollywood:
01:42
and it has great potential.
30
102880
2616
“Z ogromnym potencjałem idzie ogromne ryzyko.”
01:45
It could accelerate our understanding of many areas of study and research.
31
105520
6920
Przyjrzyjmy się podstawom naszego cyfrowego życia, reklamom.
01:53
But to paraphrase a famous Hollywood philosopher,
32
113120
3496
Prawda? Często je pomijamy.
Wydają się nachalne i nieskuteczne.
01:56
"With prodigious potential comes prodigious risk."
33
116640
3640
Każdy z nas kiedyś miał wrażenie, reklama związana z czymś,
02:01
Now let's look at a basic fact of our digital lives, online ads.
34
121120
3936
czego szukaliśmy lub o czym czytaliśmy nas śledzi.
02:05
Right? We kind of dismiss them.
35
125080
2896
Na przykład szukacie butów,
a one podążają za wami wszędzie przez cały tydzień.
02:08
They seem crude, ineffective.
36
128000
1976
02:10
We've all had the experience of being followed on the web
37
130000
4256
Nawet jeśli się poddacie i je kupicie, to one tam nadal są.
02:14
by an ad based on something we searched or read.
38
134280
2776
Przyzwyczailiśmy się do tej prostej, taniej manipulacji.
02:17
You know, you look up a pair of boots
39
137080
1856
Przewracamy oczami i myślimy: “Wiecie co? To przecież nie działa.”
02:18
and for a week, those boots are following you around everywhere you go.
40
138960
3376
Jednak w internecie
02:22
Even after you succumb and buy them, they're still following you around.
41
142360
3656
cyfrowe technologie to nie tylko reklamy.
02:26
We're kind of inured to that kind of basic, cheap manipulation.
42
146040
3016
Żeby lepiej to zrozumieć podam przykład z realnego świata.
02:29
We roll our eyes and we think, "You know what? These things don't work."
43
149080
3400
Wiecie, dlaczego przy kasach w dużych supermarketach
02:33
Except, online,
44
153720
2096
02:35
the digital technologies are not just ads.
45
155840
3600
są półki z cukierkami i gumami na poziomie oczu dzieci?
02:40
Now, to understand that, let's think of a physical world example.
46
160240
3120
Żeby zaczęły jęczeć rodzicom,
02:43
You know how, at the checkout counters at supermarkets, near the cashier,
47
163840
4656
którzy podchodzą do kasy żeby zapłacić.
02:48
there's candy and gum at the eye level of kids?
48
168520
3480
To architektura perswazji.
Niezbyt fajna, ale działa.
02:52
That's designed to make them whine at their parents
49
172800
3496
Dlatego jest w każdym supermarkecie.
02:56
just as the parents are about to sort of check out.
50
176320
3080
W realnym świecie
ta metoda ma ograniczenia,
03:00
Now, that's a persuasion architecture.
51
180040
2640
bo przy kasie nie ma dużo miejsca.
03:03
It's not nice, but it kind of works.
52
183160
3096
03:06
That's why you see it in every supermarket.
53
186280
2040
Poza tym cukierki i gumy mają działać na wszystkich,
03:08
Now, in the physical world,
54
188720
1696
03:10
such persuasion architectures are kind of limited,
55
190440
2496
ale mimo to działają najbardziej na ludzi,
03:12
because you can only put so many things by the cashier. Right?
56
192960
4816
którzy tam przychodzą, z małymi, jęczącymi ludźmi.
03:17
And the candy and gum, it's the same for everyone,
57
197800
4296
W realnym świecie mamy te ograniczenia.
03:22
even though it mostly works
58
202120
1456
Jednak w cyfrowym świecie
03:23
only for people who have whiny little humans beside them.
59
203600
4040
metody perswazji można budować w skali miliardowej.
03:29
In the physical world, we live with those limitations.
60
209160
3920
Mogą wyszukiwać, studiować, rozumieć ludzi
a następnie się do nich wysyłać,
03:34
In the digital world, though,
61
214280
1936
03:36
persuasion architectures can be built at the scale of billions
62
216240
4320
jedna po drugiej,
rozpoznając nasze słabości,
wyświetlając się bezpośrednio na ekranie telefonu,
03:41
and they can target, infer, understand
63
221840
3856
03:45
and be deployed at individuals
64
225720
2896
z ukrycia.
Na tym polega różnica.
03:48
one by one
65
228640
1216
03:49
by figuring out your weaknesses,
66
229880
2136
To tylko jedna z rzeczy, jakie potrafi sztuczna inteligencja.
03:52
and they can be sent to everyone's phone private screen,
67
232040
5616
Weźmy taki przykład.
Załóżmy, że chcecie sprzedać bilety lotnicze do Vegas.
Kiedyś zapewne szukalibyście jakiejś grupy demograficznej,
03:57
so it's not visible to us.
68
237680
2256
03:59
And that's different.
69
239960
1256
w oparciu o doświadczenie i domysły.
04:01
And that's just one of the basic things that artificial intelligence can do.
70
241240
3576
Próbowalibyście adresować reklamę
04:04
Now, let's take an example.
71
244840
1336
04:06
Let's say you want to sell plane tickets to Vegas. Right?
72
246200
2696
do mężczyzn między 25 a 35 rokiem życia,
04:08
So in the old world, you could think of some demographics to target
73
248920
3496
ludzi z dużym limitem na karcie,
04:12
based on experience and what you can guess.
74
252440
2520
lub par na emeryturze. Prawda?
Tak by to wyglądało w przeszłości.
04:15
You might try to advertise to, oh,
75
255560
2816
Przy ogromnej ilości danych i uczeniu maszynowym,
04:18
men between the ages of 25 and 35,
76
258400
2496
działa to zupełnie inaczej.
04:20
or people who have a high limit on their credit card,
77
260920
3936
Zastanówcie się,
pomyślcie, ile informacji ma o was Facebook:
04:24
or retired couples. Right?
78
264880
1376
04:26
That's what you would do in the past.
79
266280
1816
każdy wpis na tablicy,
04:28
With big data and machine learning,
80
268120
2896
każda rozmowa na Messengerze,
04:31
that's not how it works anymore.
81
271040
1524
każde miejsce, z którego się logujecie,
04:33
So to imagine that,
82
273320
2176
04:35
think of all the data that Facebook has on you:
83
275520
3856
każde przesłane tam zdjęcie.
04:39
every status update you ever typed,
84
279400
2536
Jeśli coś piszecie, ale się rozmyślacie i kasujecie,
04:41
every Messenger conversation,
85
281960
2016
Facebook to przechowuje i analizuje.
04:44
every place you logged in from,
86
284000
1880
Coraz częściej próbuje powiązać was z danymi offline.
04:48
all your photographs that you uploaded there.
87
288400
3176
04:51
If you start typing something and change your mind and delete it,
88
291600
3776
Kupuje wasze dane od brokerów.
To może być cokolwiek, od dokumentacji finansowej
04:55
Facebook keeps those and analyzes them, too.
89
295400
3200
do ogromnej części historii przeglądarek.
04:59
Increasingly, it tries to match you with your offline data.
90
299160
3936
W USA takie dane zbiera się regularnie,
05:03
It also purchases a lot of data from data brokers.
91
303120
3176
porównuje i sprzedaje.
05:06
It could be everything from your financial records
92
306320
3416
Przepisy w Europie są bardziej restrykcyjne.
05:09
to a good chunk of your browsing history.
93
309760
2120
Dzieje się to:
05:12
Right? In the US, such data is routinely collected,
94
312360
5416
analizując wszystkie dane, uczące się algorytmy,
05:17
collated and sold.
95
317800
1960
dlatego nazywają się uczącymi się,
05:20
In Europe, they have tougher rules.
96
320320
2440
uczą się rozpoznawać cechy ludzi,
05:23
So what happens then is,
97
323680
2200
którzy kupili tamten bilet do Vegas.
05:26
by churning through all that data, these machine-learning algorithms --
98
326920
4016
Kiedy uczą się z istniejących źródeł,
05:30
that's why they're called learning algorithms --
99
330960
2896
05:33
they learn to understand the characteristics of people
100
333880
4096
uczą się też, jak to stosować u innych.
Więc jeśli przedstawi im się nową osobę,
05:38
who purchased tickets to Vegas before.
101
338000
2520
mogą stwierdzić, czy byłaby skłonna kupić bilet do Vegas.
05:41
When they learn this from existing data,
102
341760
3536
05:45
they also learn how to apply this to new people.
103
345320
3816
Możecie pomyśleć, że w porządku, to tylko oferta zakupu biletu do Vegas.
05:49
So if they're presented with a new person,
104
349160
3056
Można to zignorować.
05:52
they can classify whether that person is likely to buy a ticket to Vegas or not.
105
352240
4640
Ale nie tu jest problem.
Rzecz w tym, że już nie rozumiemy,
05:57
Fine. You're thinking, an offer to buy tickets to Vegas.
106
357720
5456
w jaki sposób działają te skomplikowane algorytmy.
Nie rozumiemy, jakich kryteriów używają do kategoryzacji.
06:03
I can ignore that.
107
363200
1456
06:04
But the problem isn't that.
108
364680
2216
To gigantyczne macierze z tysiącami rzędów i kolumn,
06:06
The problem is,
109
366920
1576
06:08
we no longer really understand how these complex algorithms work.
110
368520
4136
może nawet milionami.
Nawet sami programiści,
06:12
We don't understand how they're doing this categorization.
111
372680
3456
czy ktokolwiek, kto na nie spojrzy,
06:16
It's giant matrices, thousands of rows and columns,
112
376160
4416
nawet jeśli ma wszystkie dane,
już nie rozumie, jak one działają.
06:20
maybe millions of rows and columns,
113
380600
1960
06:23
and not the programmers
114
383320
2640
Tak samo, jak nie wiedzielibyście o czym teraz myślę,
06:26
and not anybody who looks at it,
115
386760
1680
na podstawie przekroju mojego mózgu.
06:29
even if you have all the data,
116
389440
1496
06:30
understands anymore how exactly it's operating
117
390960
4616
To jest tak, jakbyśmy już nie programowali,
ale hodowali inteligencję, której sami nie rozumiemy.
06:35
any more than you'd know what I was thinking right now
118
395600
3776
06:39
if you were shown a cross section of my brain.
119
399400
3960
Te systemy działają wyłącznie na ogromnych ilościach danych,
06:44
It's like we're not programming anymore,
120
404360
2576
co zachęca do głębszej inwigilacji,
06:46
we're growing intelligence that we don't truly understand.
121
406960
4400
żeby algorytmy mogły pracować.
Właśnie dlatego Facebook chce wiedzieć o nas jak najwięcej.
06:52
And these things only work if there's an enormous amount of data,
122
412520
3976
Żeby algorytmy lepiej działały.
06:56
so they also encourage deep surveillance on all of us
123
416520
5096
Pójdźmy z Vegas o krok dalej.
Co jeśli system, którego nie rozumiemy
07:01
so that the machine learning algorithms can work.
124
421640
2336
07:04
That's why Facebook wants to collect all the data it can about you.
125
424000
3176
zauważy, że łatwiej sprzedać nasz bilet
07:07
The algorithms work better.
126
427200
1576
07:08
So let's push that Vegas example a bit.
127
428800
2696
ludziom z zaburzeniem dwubiegunowym, wchodzących w fazę maniakalną?
07:11
What if the system that we do not understand
128
431520
3680
Te osoby mogą być bardziej rozrzutne, stać się kompulsywnymi hazardzistami.
07:16
was picking up that it's easier to sell Vegas tickets
129
436200
5136
Algorytmy mogłyby to wyłapać, a wy nie mielibyście o tym pojęcia.
07:21
to people who are bipolar and about to enter the manic phase.
130
441360
3760
Podałam kiedyś ten przykład naukowcom z dziedziny informatyki,
07:25
Such people tend to become overspenders, compulsive gamblers.
131
445640
4920
jeden z nich później do mnie podszedł.
Wyglądał na zaniepokojonego i powiedział, “Dlatego nie mogłem tego opublikować.”
07:31
They could do this, and you'd have no clue that's what they were picking up on.
132
451280
4456
Zapytałam: "Czego opublikować?"
07:35
I gave this example to a bunch of computer scientists once
133
455760
3616
Chciał sprawdzić, czy faktycznie można zauważyć początki manii
07:39
and afterwards, one of them came up to me.
134
459400
2056
07:41
He was troubled and he said, "That's why I couldn't publish it."
135
461480
3520
z postów w mediach społecznościowych nim pojawią się symptomy kliniczne.
07:45
I was like, "Couldn't publish what?"
136
465600
1715
Udało się.
Mechanizm zadziałał całkiem nieźle,
07:47
He had tried to see whether you can indeed figure out the onset of mania
137
467800
5856
jednak nie miał pojęcia w jaki sposób, ani co było wskaźnikiem.
07:53
from social media posts before clinical symptoms,
138
473680
3216
Problemu nie rozwiąże publikacja tego badania,
07:56
and it had worked,
139
476920
1776
07:58
and it had worked very well,
140
478720
2056
bo już istnieją firmy,
08:00
and he had no idea how it worked or what it was picking up on.
141
480800
4880
które rozwijają podobne technologie,
z których wiele już tylko czeka na półce.
08:06
Now, the problem isn't solved if he doesn't publish it,
142
486840
4416
To już nie jest takie trudne.
Zdarza wam się wejść YouTube z zamiarem obejrzenia jednego filmu,
08:11
because there are already companies
143
491280
1896
08:13
that are developing this kind of technology,
144
493200
2536
a po godzinie zauważacie, że obejrzeliście 27?
08:15
and a lot of the stuff is just off the shelf.
145
495760
2800
Po prawej stronie YouTube jest kolumna
08:19
This is not very difficult anymore.
146
499240
2576
z napisem "Następny",
08:21
Do you ever go on YouTube meaning to watch one video
147
501840
3456
która samoczynnie odtwarza filmy.
To algorytm wybierający to,
08:25
and an hour later you've watched 27?
148
505320
2360
co może być dla was interesujące,
08:28
You know how YouTube has this column on the right
149
508760
2496
czego moglibyście sami nie znaleźć.
Nie wybiera tego człowiek,
08:31
that says, "Up next"
150
511280
2216
tylko algorytm.
Wybiera na podstawie tego, co oglądaliście wy lub podobni do was,
08:33
and it autoplays something?
151
513520
1816
08:35
It's an algorithm
152
515360
1216
08:36
picking what it thinks that you might be interested in
153
516600
3616
i stwierdza, że tym się interesujecie,
08:40
and maybe not find on your own.
154
520240
1536
08:41
It's not a human editor.
155
521800
1256
że chcecie tego więcej
i to wyświetla.
08:43
It's what algorithms do.
156
523080
1416
08:44
It picks up on what you have watched and what people like you have watched,
157
524520
4736
Brzmi jak fajna i użyteczna rzecz,
ale nią nie jest.
08:49
and infers that that must be what you're interested in,
158
529280
4216
W 2016 roku chodziłam na wiece Trumpa kandydującego na prezydenta,
08:53
what you want more of,
159
533520
1255
08:54
and just shows you more.
160
534799
1336
08:56
It sounds like a benign and useful feature,
161
536159
2201
i badałam naukowo ludzi go wspierających.
08:59
except when it isn't.
162
539280
1200
09:01
So in 2016, I attended rallies of then-candidate Donald Trump
163
541640
6960
Badałam ruchy społeczne, więc postanowiłam zbadać i to.
Później chciałam napisać coś o jednym z wieców,
więc obejrzałam na YouTube kilka filmów z niego.
09:09
to study as a scholar the movement supporting him.
164
549840
3336
Dalej serwis zaczął mi polecać
09:13
I study social movements, so I was studying it, too.
165
553200
3456
i autoodtwarzać filmy o białej supremacji
09:16
And then I wanted to write something about one of his rallies,
166
556680
3336
z rosnącym poziomem ekstremizmu.
09:20
so I watched it a few times on YouTube.
167
560040
1960
Gdy obejrzałam jeden,
09:23
YouTube started recommending to me
168
563240
3096
dostawałam kolejny, ostrzejszy,
09:26
and autoplaying to me white supremacist videos
169
566360
4256
który też był autoodtwarzany.
Gdy ogląda się coś o Hilary Clinton, czy Bernie Sandersie,
09:30
in increasing order of extremism.
170
570640
2656
YouTube rekomenduje i autoodtwarza lewicowe teorie spiskowe,
09:33
If I watched one,
171
573320
1816
09:35
it served up one even more extreme
172
575160
2976
a później jest już z górki.
09:38
and autoplayed that one, too.
173
578160
1424
09:40
If you watch Hillary Clinton or Bernie Sanders content,
174
580320
4536
Wydaje się, że chodzi o politykę, ale to nieprawda.
To nie polityka.
09:44
YouTube recommends and autoplays conspiracy left,
175
584880
4696
To algorytm rozpoznający schematy ludzkiego zachowania.
Kiedyś obejrzałam na YouTube film o wegetarianizmie,
09:49
and it goes downhill from there.
176
589600
1760
09:52
Well, you might be thinking, this is politics, but it's not.
177
592480
3056
a serwis zaproponował i autoodtworzył film o weganach.
09:55
This isn't about politics.
178
595560
1256
09:56
This is just the algorithm figuring out human behavior.
179
596840
3096
Dla YouTube nigdy nie jesteśmy wystarczająco ekstremalni.
09:59
I once watched a video about vegetarianism on YouTube
180
599960
4776
(Śmiech)
Więc o co tutaj chodzi?
10:04
and YouTube recommended and autoplayed a video about being vegan.
181
604760
4936
Algorytm YouTube jest zastrzeżony,
ale myślę, że sprawa wygląda tak.
10:09
It's like you're never hardcore enough for YouTube.
182
609720
3016
Algorytm stwierdził,
10:12
(Laughter)
183
612760
1576
że jeśli może zachęcić ludzi do myślenia,
10:14
So what's going on?
184
614360
1560
10:16
Now, YouTube's algorithm is proprietary,
185
616520
3536
że mogą zobaczyć coś ostrzejszego,
10:20
but here's what I think is going on.
186
620080
2360
to chętniej pozostaną na stronie
10:23
The algorithm has figured out
187
623360
2096
oglądając filmik za filmikiem idąc w dół króliczej nory,
10:25
that if you can entice people
188
625480
3696
oglądając po drodze reklamy od Google.
10:29
into thinking that you can show them something more hardcore,
189
629200
3736
Jeśli nikt tego nie kontroluje,
10:32
they're more likely to stay on the site
190
632960
2416
10:35
watching video after video going down that rabbit hole
191
635400
4416
serwisy mogą profilować ludzi,
10:39
while Google serves them ads.
192
639840
1680
przykładowo antysemitów,
10:43
Now, with nobody minding the ethics of the store,
193
643760
3120
ludzi uważających, że Żydzi są pasożytami,
10:47
these sites can profile people
194
647720
4240
mających na profilu silne antysemickie treści
10:53
who are Jew haters,
195
653680
1920
i kierować do nich reklamy.
10:56
who think that Jews are parasites
196
656360
2480
Można też tworzyć algorytmy
11:00
and who have such explicit anti-Semitic content,
197
660320
4920
do wyszukiwania podobnych osób,
które nie mają aż tak silnych antysemickich treści na profilu,
11:06
and let you target them with ads.
198
666080
2000
11:09
They can also mobilize algorithms
199
669200
3536
ale które według algorytmu mogą być podatne na podobną zawartość,
11:12
to find for you look-alike audiences,
200
672760
3136
11:15
people who do not have such explicit anti-Semitic content on their profile
201
675920
5576
i do nich też kierować reklamy.
Może to brzmi nierealnie,
11:21
but who the algorithm detects may be susceptible to such messages,
202
681520
6176
ale istnieje naprawdę.
Organizacja ProPublica to zbadała
i wyszło, że można tak robić na Facebooku,
11:27
and lets you target them with ads, too.
203
687720
1920
który pomocnie sugeruje,
11:30
Now, this may sound like an implausible example,
204
690680
2736
jak zwiększać ilość takich odbiorców.
11:33
but this is real.
205
693440
1320
BuzzFeed robił to samo dla Google, co pokazało,
11:35
ProPublica investigated this
206
695480
2136
11:37
and found that you can indeed do this on Facebook,
207
697640
3616
że też można to tam zrobić.
To nie było nawet drogie.
11:41
and Facebook helpfully offered up suggestions
208
701280
2416
Dziennikarz ProPublica wydał około 30 dolarów
11:43
on how to broaden that audience.
209
703720
1600
na przebadanie tej kategorii.
11:46
BuzzFeed tried it for Google, and very quickly they found,
210
706720
3016
11:49
yep, you can do it on Google, too.
211
709760
1736
W zeszłym roku specjalista do spraw mediów społecznościowych
11:51
And it wasn't even expensive.
212
711520
1696
11:53
The ProPublica reporter spent about 30 dollars
213
713240
4416
Donalda Trumpa wyznał,
że używano ukrytych treści na Facebooku, aby zniechęcać ludzi,
11:57
to target this category.
214
717680
2240
nie wyperswadować im,
12:02
So last year, Donald Trump's social media manager disclosed
215
722600
5296
ale przekonać, żeby wcale nie głosowali.
Żeby to zrobić wzięli na cel
12:07
that they were using Facebook dark posts to demobilize people,
216
727920
5336
przykładowo afro-amerykanów w kluczowych miastach, jak Filadelfia,
12:13
not to persuade them,
217
733280
1376
12:14
but to convince them not to vote at all.
218
734680
2800
przytoczę teraz jego wypowiedź.
Cytuję.
Używali "niepublicznych treści
12:18
And to do that, they targeted specifically,
219
738520
3576
kontrolowanych przez działaczy kampanii,
12:22
for example, African-American men in key cities like Philadelphia,
220
742120
3896
przez co były dostępne wyłącznie dla wybranych ludzi.
12:26
and I'm going to read exactly what he said.
221
746040
2456
Sprawdziliśmy to.
12:28
I'm quoting.
222
748520
1216
Miało to znaczący wpływ na możliwość zdobycia głosów przez partię.”
12:29
They were using "nonpublic posts
223
749760
3016
12:32
whose viewership the campaign controls
224
752800
2176
Co było w tych treściach?
12:35
so that only the people we want to see it see it.
225
755000
3776
Nie mamy pojęcia.
12:38
We modeled this.
226
758800
1216
Fecebook tego nie wyjawi.
12:40
It will dramatically affect her ability to turn these people out."
227
760040
4720
Facebook też używa algorytmów przy ustalaniu kolejności postów,
jakie wasi znajomi umieszczają w serwisie, lub na śledzonych przez was stronach.
12:45
What's in those dark posts?
228
765720
2280
12:48
We have no idea.
229
768480
1656
Nie wyświetla ich chronologicznie.
12:50
Facebook won't tell us.
230
770160
1200
Algorytm tak ustala kolejność, żeby zachęcić nas
12:52
So Facebook also algorithmically arranges the posts
231
772480
4376
do jak najdłuższego pozostania na stronie.
12:56
that your friends put on Facebook, or the pages you follow.
232
776880
3736
To niesie ze sobą wiele konsekwencji.
13:00
It doesn't show you everything chronologically.
233
780640
2216
13:02
It puts the order in the way that the algorithm thinks will entice you
234
782880
4816
Można pomyśleć, że ktoś ze znajomych na Facebooku was lekceważy.
Ale algorytm może im wcale nie pokazywać waszych postów.
13:07
to stay on the site longer.
235
787720
1840
Algorytm daje pierwszeństwo jednym, a innych ukrywa.
13:11
Now, so this has a lot of consequences.
236
791040
3376
13:14
You may be thinking somebody is snubbing you on Facebook.
237
794440
3800
Eksperymenty wykazały,
13:18
The algorithm may never be showing your post to them.
238
798800
3256
że treści wybierane przez algorytm mogą wpływać na emocje.
13:22
The algorithm is prioritizing some of them and burying the others.
239
802080
5960
To jednak nie wszystko.
Ma też wpływ na zachowania polityczne.
13:29
Experiments show
240
809320
1296
Podczas śródkadencyjnych wyborów w 2010 roku
13:30
that what the algorithm picks to show you can affect your emotions.
241
810640
4520
Fecbook przeprowadził eksperyment na 61 milionach obywateli USA,
13:36
But that's not all.
242
816600
1200
13:38
It also affects political behavior.
243
818280
2360
który został ujawniony po fakcie.
13:41
So in 2010, in the midterm elections,
244
821360
4656
Część osób zobaczyło informację, “Dzisiaj są wybory”,
jej prostszą wersję,
13:46
Facebook did an experiment on 61 million people in the US
245
826040
5896
a inni zobaczyli wersję z niewielką modyfikacją
w formie miniatur znajomych
13:51
that was disclosed after the fact.
246
831960
1896
którzy zaznaczyli "Zagłosowałem".
13:53
So some people were shown, "Today is election day,"
247
833880
3416
Niewielka zmiana.
13:57
the simpler one,
248
837320
1376
13:58
and some people were shown the one with that tiny tweak
249
838720
3896
Miniatury były jedyną modyfikacją,
14:02
with those little thumbnails
250
842640
2096
a post pokazany tylko raz
14:04
of your friends who clicked on "I voted."
251
844760
2840
zaowocował dodatkowymi 340 tysiącami głosujących
14:09
This simple tweak.
252
849000
1400
14:11
OK? So the pictures were the only change,
253
851520
4296
w tych wyborach,
według tego badania,
14:15
and that post shown just once
254
855840
3256
co zostało potwierdzone ewidencją głosujących.
14:19
turned out an additional 340,000 voters
255
859120
6056
Szczęśliwy traf? Nie.
Ponieważ w 2012 roku badanie powtórzono.
14:25
in that election,
256
865200
1696
14:26
according to this research
257
866920
1696
14:28
as confirmed by the voter rolls.
258
868640
2520
Tym razem
wiadomość pokazana tylko raz,
14:32
A fluke? No.
259
872920
1656
dała w efekcie 270 tysięcy głosujących.
14:34
Because in 2012, they repeated the same experiment.
260
874600
5360
Dla porównania, wybory prezydenckie w 2016 roku
14:40
And that time,
261
880840
1736
14:42
that civic message shown just once
262
882600
3296
rozstrzygnęło około sto tysięcy głosów.
14:45
turned out an additional 270,000 voters.
263
885920
4440
Facebook może łatwo rozpoznać wasze preferencje polityczne,
14:51
For reference, the 2016 US presidential election
264
891160
5216
nawet jeśli ich tam nie wyjawiliście.
14:56
was decided by about 100,000 votes.
265
896400
3520
Algorytmy mają na to łatwy sposób.
Co jeśli narzędzie o takich możliwościach
15:01
Now, Facebook can also very easily infer what your politics are,
266
901360
4736
postanowi skupić się na jednych wyborcach, a innych odrzucić?
15:06
even if you've never disclosed them on the site.
267
906120
2256
15:08
Right? These algorithms can do that quite easily.
268
908400
2520
Jak to w ogóle rozpoznać?
15:11
What if a platform with that kind of power
269
911960
3896
Zaczęliśmy od czegoś nieszkodliwego na pierwszy rzut oka,
15:15
decides to turn out supporters of one candidate over the other?
270
915880
5040
podążających za nami reklam online,
a dotarliśmy w zupełnie inne miejsce.
15:21
How would we even know about it?
271
921680
2440
Jako społeczeństwo i obywatele,
15:25
Now, we started from someplace seemingly innocuous --
272
925560
4136
nie możemy być pewni, czy dostajemy te same informacje,
15:29
online adds following us around --
273
929720
2216
albo co widzą inni,
15:31
and we've landed someplace else.
274
931960
1840
a przy braku jednej platformy informacyjnej,
powoli,
15:35
As a public and as citizens,
275
935480
2456
debata publiczna staje się niemożliwa.
15:37
we no longer know if we're seeing the same information
276
937960
3416
A to dopiero początek.
15:41
or what anybody else is seeing,
277
941400
1480
Algorytmy w bardzo prosty sposób dedukują
15:43
and without a common basis of information,
278
943680
2576
takie rzeczy, jak przynależność etniczna,
15:46
little by little,
279
946280
1616
15:47
public debate is becoming impossible,
280
947920
3216
poglądy religijne, polityczne, cechy osobowości,
15:51
and we're just at the beginning stages of this.
281
951160
2976
inteligencja, szczęście, uzależnienia,
15:54
These algorithms can quite easily infer
282
954160
3456
separacja od rodziców, wiek i płeć,
15:57
things like your people's ethnicity,
283
957640
3256
na podstawie facebookowych lajków.
16:00
religious and political views, personality traits,
284
960920
2336
Te algorytmy potrafią rozpoznać demonstrantów
16:03
intelligence, happiness, use of addictive substances,
285
963280
3376
nawet jeśli mają częściowo zakryte twarze.
16:06
parental separation, age and genders,
286
966680
3136
16:09
just from Facebook likes.
287
969840
1960
Mogą wykryć orientację seksualną
16:13
These algorithms can identify protesters
288
973440
4056
na podstawie zdjęć w profilach randkowych.
16:17
even if their faces are partially concealed.
289
977520
2760
16:21
These algorithms may be able to detect people's sexual orientation
290
981720
6616
To założenia o pewnym poziomie prawdopodobieństwa,
więc nigdy nie będą dokładne w 100%,
ale wątpię żeby ludzie u władzy oparli się pokusie użycia tych technologii
16:28
just from their dating profile pictures.
291
988360
3200
tylko dlatego, że niektóre wyniki są fałszywie pozytywne,
16:33
Now, these are probabilistic guesses,
292
993560
2616
co tylko doprowadzi do nowych problemów.
16:36
so they're not going to be 100 percent right,
293
996200
2896
Pomyślcie, co może zrobić państwo,
16:39
but I don't see the powerful resisting the temptation to use these technologies
294
999120
4896
mając tak ogromną ilość danych o swoich obywatelach.
16:44
just because there are some false positives,
295
1004040
2176
Chiny już używają technologii rozpoznawania twarzy,
16:46
which will of course create a whole other layer of problems.
296
1006240
3256
16:49
Imagine what a state can do
297
1009520
2936
do identyfikowania i aresztowania ludzi.
16:52
with the immense amount of data it has on its citizens.
298
1012480
3560
Najgorsze jest to,
że budujemy machinę autorytarnego nadzoru
16:56
China is already using face detection technology
299
1016680
4776
po to, żeby ludzie klikali reklamy.
17:01
to identify and arrest people.
300
1021480
2880
17:05
And here's the tragedy:
301
1025280
2136
To nie autorytaryzm Orwella.
17:07
we're building this infrastructure of surveillance authoritarianism
302
1027440
5536
To nie "Rok 1984".
Jeśli rząd autorytarny użyje strachu by nas terroryzować,
17:13
merely to get people to click on ads.
303
1033000
2960
będziemy przerażeni, ale będziemy o tym wiedzieć,
17:17
And this won't be Orwell's authoritarianism.
304
1037240
2576
będziemy tego nienawidzić i sprzeciwiać się.
17:19
This isn't "1984."
305
1039839
1897
Ale jeśli ludzie u władzy użyją algorytmów
17:21
Now, if authoritarianism is using overt fear to terrorize us,
306
1041760
4576
by po cichu nas podglądać,
17:26
we'll all be scared, but we'll know it,
307
1046359
2897
oceniać i poszturchiwać,
17:29
we'll hate it and we'll resist it.
308
1049280
2200
aby przewidzieć i zidentyfikować potencjalnych buntowników
17:32
But if the people in power are using these algorithms
309
1052880
4416
używając architektury perswazji na szeroką skalę,
17:37
to quietly watch us,
310
1057319
3377
manipulując jednostkami,
17:40
to judge us and to nudge us,
311
1060720
2080
17:43
to predict and identify the troublemakers and the rebels,
312
1063720
4176
używając do tego ich wad i słabości,
17:47
to deploy persuasion architectures at scale
313
1067920
3896
jeśli będą to robić na szeroką skalę
17:51
and to manipulate individuals one by one
314
1071840
4136
przez ekrany naszych telefonów,
że nawet nie będziemy wiedzieli,
17:56
using their personal, individual weaknesses and vulnerabilities,
315
1076000
5440
co widzą nasi współobywatele i sąsiedzi.
Autorytaryzm otoczy nas niczym sieć pająka,
18:02
and if they're doing it at scale
316
1082720
2200
18:06
through our private screens
317
1086080
1736
a my nawet nie będziemy o tym wiedzieć.
18:07
so that we don't even know
318
1087840
1656
18:09
what our fellow citizens and neighbors are seeing,
319
1089520
2760
Wartość rynkowa Facebooka
18:13
that authoritarianism will envelop us like a spider's web
320
1093560
4816
dochodzi do pół biliona dolarów.
To dlatego, że świetnie sprawdza się jako narzędzie perswazji.
18:18
and we may not even know we're in it.
321
1098400
2480
Jednak jego struktura jest taka sama,
18:22
So Facebook's market capitalization
322
1102440
2936
18:25
is approaching half a trillion dollars.
323
1105400
3296
niezależnie czy sprzedajemy buty,
czy politykę.
18:28
It's because it works great as a persuasion architecture.
324
1108720
3120
Dla algorytmu to bez różnicy.
18:33
But the structure of that architecture
325
1113760
2816
Te same rozhamowane algorytmy,
18:36
is the same whether you're selling shoes
326
1116600
3216
stworzone żebyśmy klikali w reklamy,
18:39
or whether you're selling politics.
327
1119840
2496
ustalają przepływ naszych politycznych, osobistych i społecznych informacji,
18:42
The algorithms do not know the difference.
328
1122360
3120
18:46
The same algorithms set loose upon us
329
1126240
3296
i to musi się zmienić.
18:49
to make us more pliable for ads
330
1129560
3176
Nie zrozumcie mnie źle,
18:52
are also organizing our political, personal and social information flows,
331
1132760
6736
używamy platform cyfrowych, bo oferują dużo możliwości.
Używam Facebooka, żeby być w kontakcie z przyjaciółmi i rodziną na całym świecie.
18:59
and that's what's got to change.
332
1139520
1840
Pisałam o znaczeniu mediów społecznościowych
19:02
Now, don't get me wrong,
333
1142240
2296
19:04
we use digital platforms because they provide us with great value.
334
1144560
3680
w ruchach społecznych.
Badałam, jak można użyć tych technologii
19:09
I use Facebook to keep in touch with friends and family around the world.
335
1149120
3560
do ominięcia cenzury na całym świecie.
19:14
I've written about how crucial social media is for social movements.
336
1154000
5776
To nie jest tak, że ludzie zarządzający Facebookiem, czy Google
19:19
I have studied how these technologies can be used
337
1159800
3016
celowo i na złość starają się
19:22
to circumvent censorship around the world.
338
1162840
2480
podzielić kraj, albo świat
19:27
But it's not that the people who run, you know, Facebook or Google
339
1167280
6416
czy zachęcić do ekstremizmu.
Czytałam wiele oświadczeń dobrej woli
19:33
are maliciously and deliberately trying
340
1173720
2696
wygłaszanych przez tych ludzi.
19:36
to make the country or the world more polarized
341
1176440
4456
Ale w przypadku technologii, intencje i oświadczenia są bez znaczenia,
19:40
and encourage extremism.
342
1180920
1680
19:43
I read the many well-intentioned statements
343
1183440
3976
istotne są budowane struktury i modele biznesowe.
19:47
that these people put out.
344
1187440
3320
To jest sedno problemu.
19:51
But it's not the intent or the statements people in technology make that matter,
345
1191600
6056
Albo Facebook jest gigantycznym oszustem za pół biliona dolarów,
19:57
it's the structures and business models they're building.
346
1197680
3560
a reklamy są nieskuteczne,
i całe narzędzie perswazji nie działa,
20:02
And that's the core of the problem.
347
1202360
2096
albo jego ogromna siła wpływu jest niepokojąca.
20:04
Either Facebook is a giant con of half a trillion dollars
348
1204480
4720
Jedno albo drugie.
20:10
and ads don't work on the site,
349
1210200
1896
Tak samo jest z Google.
20:12
it doesn't work as a persuasion architecture,
350
1212120
2696
Co możemy zrobić?
20:14
or its power of influence is of great concern.
351
1214840
4120
To musi się zmienić.
Nie mam prostego sposobu,
bo należy zmienić sposób,
20:20
It's either one or the other.
352
1220560
1776
20:22
It's similar for Google, too.
353
1222360
1600
w jaki działają cyfrowe technologie.
20:24
So what can we do?
354
1224880
2456
Od ich rozwoju,
20:27
This needs to change.
355
1227360
1936
20:29
Now, I can't offer a simple recipe,
356
1229320
2576
do tego jak bodźce, ekonomiczne i inne,
20:31
because we need to restructure
357
1231920
2256
wbudowuje się w system.
20:34
the whole way our digital technology operates.
358
1234200
3016
Musimy stawić czoła i próbować radzić sobie
20:37
Everything from the way technology is developed
359
1237240
4096
z brakiem przejrzystości stworzonym przez prywatne algorytmy.
20:41
to the way the incentives, economic and otherwise,
360
1241360
3856
Ze strukturalnym wyzwaniem nieprzejrzystości uczących się maszyn,
20:45
are built into the system.
361
1245240
2280
20:48
We have to face and try to deal with
362
1248480
3456
bezkrytycznie zbieranymi o nas danymi.
20:51
the lack of transparency created by the proprietary algorithms,
363
1251960
4656
Przed nami stoi duże wyzwanie.
Musimy zmobilizować nasze technologie,
20:56
the structural challenge of machine learning's opacity,
364
1256640
3816
kreatywność
21:00
all this indiscriminate data that's being collected about us.
365
1260480
3400
i tak, politykę,
żebyśmy mogli stworzyć sztuczną inteligencję,
21:05
We have a big task in front of us.
366
1265000
2520
wspierającą nas w ludzkich dążeniach,
21:08
We have to mobilize our technology,
367
1268160
2680
ale też ograniczoną naszymi ludzkimi wartościami.
21:11
our creativity
368
1271760
1576
21:13
and yes, our politics
369
1273360
1880
Wiem, że nie będzie to proste,
21:16
so that we can build artificial intelligence
370
1276240
2656
21:18
that supports us in our human goals
371
1278920
3120
Możemy się nawet nie zgadzać, co to oznacza.
21:22
but that is also constrained by our human values.
372
1282800
3920
Jednak jeśli traktujemy poważnie
sposób, w jaki działają systemy na których się tak bardzo opieramy,
21:27
And I understand this won't be easy.
373
1287600
2160
21:30
We might not even easily agree on what those terms mean.
374
1290360
3600
nie możemy odkładać tego na później.
21:34
But if we take seriously
375
1294920
2400
Te algorytmy
21:38
how these systems that we depend on for so much operate,
376
1298240
5976
organizują sposób, w jaki funkcjonujemy
i kontrolują co możemy, a czego nie możemy zrobić.
21:44
I don't see how we can postpone this conversation anymore.
377
1304240
4120
Wiele platform finansowanych z reklam
21:49
These structures
378
1309200
2536
21:51
are organizing how we function
379
1311760
4096
chwali się, że są darmowe.
W tym kontekście, że to my jesteśmy obiektem handlu.
21:55
and they're controlling
380
1315880
2296
21:58
what we can and we cannot do.
381
1318200
2616
Potrzebujemy cyfrowej ekonomii,
22:00
And many of these ad-financed platforms,
382
1320840
2456
gdzie nasze dane i uwaga
22:03
they boast that they're free.
383
1323320
1576
22:04
In this context, it means that we are the product that's being sold.
384
1324920
4560
nie będą sprzedawane dającemu więcej despocie, czy demagogowi.
22:10
We need a digital economy
385
1330840
2736
(Brawa)
22:13
where our data and our attention
386
1333600
3496
22:17
is not for sale to the highest-bidding authoritarian or demagogue.
387
1337120
5080
Wracając do Hollywoodzkiej parafrazy,
chcemy ogromnego potencjału sztucznej inteligencji,
22:23
(Applause)
388
1343160
3800
oraz żeby technologie cyfrowe kwitły,
dlatego musimy zmierzyć się z ogromnym zagrożeniem,
22:30
So to go back to that Hollywood paraphrase,
389
1350480
3256
22:33
we do want the prodigious potential
390
1353760
3736
trzeźwym okiem, teraz.
Dziękuję.
22:37
of artificial intelligence and digital technology to blossom,
391
1357520
3200
(Brawa)
22:41
but for that, we must face this prodigious menace,
392
1361400
4936
22:46
open-eyed and now.
393
1366360
1936
22:48
Thank you.
394
1368320
1216
22:49
(Applause)
395
1369560
4640
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7