We're building a dystopia just to make people click on ads | Zeynep Tufekci

738,629 views ・ 2017-11-17

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Редактор: Anna Mo
00:12
So when people voice fears of artificial intelligence,
0
12760
3536
Когда люди выказывают опасения касательно искусственного интеллекта,
00:16
very often, they invoke images of humanoid robots run amok.
1
16320
3976
очень часто они строят образы гуманоидных роботов, ставших неуправляемыми.
00:20
You know? Terminator?
2
20320
1240
Знаете ведь? Терминатор?
00:22
You know, that might be something to consider,
3
22400
2336
Знаете, с этим можно согласиться,
00:24
but that's a distant threat.
4
24760
1856
но эта угроза от нас далека.
00:26
Or, we fret about digital surveillance
5
26640
3456
Или мы переживаем по поводу цифровой слежки
00:30
with metaphors from the past.
6
30120
1776
с метафорами из прошлого.
00:31
"1984," George Orwell's "1984,"
7
31920
2656
«1984», произведение Джорджа Оруэлла,
00:34
it's hitting the bestseller lists again.
8
34600
2280
снова попадает в списки бестселлеров.
00:37
It's a great book,
9
37960
1416
Это отличная книга,
00:39
but it's not the correct dystopia for the 21st century.
10
39400
3880
но эта антиутопия не подходит для XXI века.
00:44
What we need to fear most
11
44080
1416
Мы должны бояться
00:45
is not what artificial intelligence will do to us on its own,
12
45520
4776
не того, что сделает с нами искусственный интеллект самостоятельно,
00:50
but how the people in power will use artificial intelligence
13
50320
4736
а того, как люди у власти будут его использовать
00:55
to control us and to manipulate us
14
55080
2816
для контроля и управления нами
00:57
in novel, sometimes hidden,
15
57920
3136
новыми, иногда скрытыми,
01:01
subtle and unexpected ways.
16
61080
3016
коварными и неожиданными способами.
01:04
Much of the technology
17
64120
1856
Основная часть технологии,
01:06
that threatens our freedom and our dignity in the near-term future
18
66000
4336
что грозит нашим свободе и достоинству уже в обозримом будущем,
01:10
is being developed by companies
19
70360
1856
разрабатывается компаниями,
01:12
in the business of capturing and selling our data and our attention
20
72240
4936
работающими в бизнес-сфере сбора и продажи наших сведений и интересов
01:17
to advertisers and others:
21
77200
2256
рекламщикам и таким компаниям,
01:19
Facebook, Google, Amazon,
22
79480
3416
как Facebook, Google, Amazon,
01:22
Alibaba, Tencent.
23
82920
1880
Alibaba, Tencent.
01:26
Now, artificial intelligence has started bolstering their business as well.
24
86040
5496
Теперь искусственный интеллект также начал способствовать укреплению их бизнеса.
01:31
And it may seem like artificial intelligence
25
91560
2096
Может казаться, что искусственный интеллект —
01:33
is just the next thing after online ads.
26
93680
2856
лишь новая штука после онлайн-рекламы.
01:36
It's not.
27
96560
1216
Это не так.
01:37
It's a jump in category.
28
97800
2456
Это совершенно иная категория.
01:40
It's a whole different world,
29
100280
2576
Это совсем другой мир,
01:42
and it has great potential.
30
102880
2616
и у него большой потенциал.
01:45
It could accelerate our understanding of many areas of study and research.
31
105520
6920
Он может ускорить наше понимание многих сфер изучения и исследования.
01:53
But to paraphrase a famous Hollywood philosopher,
32
113120
3496
Но хочу парафразировать знаменитого голливудского философа:
01:56
"With prodigious potential comes prodigious risk."
33
116640
3640
«С огромным потенциалом приходит огромный риск».
02:01
Now let's look at a basic fact of our digital lives, online ads.
34
121120
3936
Теперь давайте обсудим основной факт из наших цифровых жизней, онлайн-рекламу.
02:05
Right? We kind of dismiss them.
35
125080
2896
Мы вроде бы не принимаем её всерьёз.
02:08
They seem crude, ineffective.
36
128000
1976
Она навязчива, неэффективна.
02:10
We've all had the experience of being followed on the web
37
130000
4256
Все мы имели опыт преследования нас в сети
02:14
by an ad based on something we searched or read.
38
134280
2776
рекламой, основанной на чём-то, что мы искали или прочли.
02:17
You know, you look up a pair of boots
39
137080
1856
Например, вы присмотрели пару ботинок,
02:18
and for a week, those boots are following you around everywhere you go.
40
138960
3376
а потом всю неделю они следуют за вами повсюду.
02:22
Even after you succumb and buy them, they're still following you around.
41
142360
3656
Даже когда вы сдаётесь и покупаете их, они всё ещё преследуют вас.
02:26
We're kind of inured to that kind of basic, cheap manipulation.
42
146040
3016
Нас задевает такая форма простой, дешёвой манипуляции.
02:29
We roll our eyes and we think, "You know what? These things don't work."
43
149080
3400
Мы закатываем глаза и думаем: «Знаете что? Эти штуки не работают».
02:33
Except, online,
44
153720
2096
Однако в интернете
02:35
the digital technologies are not just ads.
45
155840
3600
цифровые технологии не просто реклама.
02:40
Now, to understand that, let's think of a physical world example.
46
160240
3120
Для понимания этого представим пример из реального мира.
02:43
You know how, at the checkout counters at supermarkets, near the cashier,
47
163840
4656
Замечали ведь, что на кассах в супермаркетах, около кассира,
02:48
there's candy and gum at the eye level of kids?
48
168520
3480
конфетки и жевательные резинки лежат на зрительном уровне детей?
02:52
That's designed to make them whine at their parents
49
172800
3496
Так задумано, чтобы они хныкали, упрашивая своих родителей,
02:56
just as the parents are about to sort of check out.
50
176320
3080
пока те рассчитываются на кассе.
03:00
Now, that's a persuasion architecture.
51
180040
2640
Это называется архитектура убеждения.
03:03
It's not nice, but it kind of works.
52
183160
3096
Это неприятно, но это работает.
03:06
That's why you see it in every supermarket.
53
186280
2040
Потому вы видите это в каждом супермаркете.
03:08
Now, in the physical world,
54
188720
1696
В реальном же мире
03:10
such persuasion architectures are kind of limited,
55
190440
2496
такие архитектуры убеждения вроде как ограничены,
03:12
because you can only put so many things by the cashier. Right?
56
192960
4816
потому что набор товаров, который можно разместить возле кассира, конечен. Верно?
03:17
And the candy and gum, it's the same for everyone,
57
197800
4296
А конфеты и жевательная резинка — их одинаково покупают все,
03:22
even though it mostly works
58
202120
1456
хотя, конечно, чаще всего
03:23
only for people who have whiny little humans beside them.
59
203600
4040
те люди, что берут с собой маленьких хныкающих человечков.
03:29
In the physical world, we live with those limitations.
60
209160
3920
В реальном мире мы живём с такими ограничениями.
03:34
In the digital world, though,
61
214280
1936
Однако в виртуальном мире
03:36
persuasion architectures can be built at the scale of billions
62
216240
4320
архитектуры убеждения могут быть выстроены в масштабе миллиардов,
03:41
and they can target, infer, understand
63
221840
3856
и они могут обозначать, оценивать, понимать
03:45
and be deployed at individuals
64
225720
2896
и быть применены к индивидуумам,
03:48
one by one
65
228640
1216
по одиночке,
03:49
by figuring out your weaknesses,
66
229880
2136
выявляя ваши слабости,
03:52
and they can be sent to everyone's phone private screen,
67
232040
5616
и они могут быть разосланы каждому на телефон в частном порядке,
03:57
so it's not visible to us.
68
237680
2256
поэтому мы этого не замечаем.
03:59
And that's different.
69
239960
1256
И это отличается от всего.
04:01
And that's just one of the basic things that artificial intelligence can do.
70
241240
3576
И это лишь один из азов того, на что способен искусственный интеллект.
04:04
Now, let's take an example.
71
244840
1336
Давайте рассмотрим пример.
04:06
Let's say you want to sell plane tickets to Vegas. Right?
72
246200
2696
Вот вы хотите продать билеты на самолёт до Вегаса. Так?
04:08
So in the old world, you could think of some demographics to target
73
248920
3496
В прежние времена вы могли бы подумать о сборе демографических данных,
04:12
based on experience and what you can guess.
74
252440
2520
основываясь на опыте и ваших предположениях.
04:15
You might try to advertise to, oh,
75
255560
2816
Вы можете попробовать рекламировать
04:18
men between the ages of 25 and 35,
76
258400
2496
для мужчин в возрасте от 25 до 35,
04:20
or people who have a high limit on their credit card,
77
260920
3936
или людей, имеющих высокий лимит по кредитной карте,
04:24
or retired couples. Right?
78
264880
1376
или для супругов-пенсионеров. Так?
04:26
That's what you would do in the past.
79
266280
1816
Раньше вы бы действовали так.
04:28
With big data and machine learning,
80
268120
2896
С массивами данных и машинным обучением
04:31
that's not how it works anymore.
81
271040
1524
сейчас это уже работает по-другому.
04:33
So to imagine that,
82
273320
2176
Чтобы это представить,
04:35
think of all the data that Facebook has on you:
83
275520
3856
подумайте о тех данных, что хранит о вас Фейсбук:
04:39
every status update you ever typed,
84
279400
2536
каждый статус, что вы когда-то выставляли,
04:41
every Messenger conversation,
85
281960
2016
каждый ваш диалог,
04:44
every place you logged in from,
86
284000
1880
каждое место, с которого вы заходили,
04:48
all your photographs that you uploaded there.
87
288400
3176
все ваши фотографии, что были вами туда загружены.
04:51
If you start typing something and change your mind and delete it,
88
291600
3776
Если вы начали печать что-то, передумали и удалили,
04:55
Facebook keeps those and analyzes them, too.
89
295400
3200
Фейсбук сохраняет для анализа и это.
04:59
Increasingly, it tries to match you with your offline data.
90
299160
3936
Всё больше он старается сопоставить вас с вашими данными офлайн.
05:03
It also purchases a lot of data from data brokers.
91
303120
3176
Он также скупает множество информации от брокеров данных.
05:06
It could be everything from your financial records
92
306320
3416
Это может быть что угодно — от ваших финансовых ведомостей
05:09
to a good chunk of your browsing history.
93
309760
2120
до массива вашей истории браузера.
05:12
Right? In the US, such data is routinely collected,
94
312360
5416
Верно? В США такая информация собирается в рутинном порядке,
05:17
collated and sold.
95
317800
1960
сопоставляется и продаётся.
05:20
In Europe, they have tougher rules.
96
320320
2440
В Европе правила более строгие.
05:23
So what happens then is,
97
323680
2200
И вот что происходит в результате:
05:26
by churning through all that data, these machine-learning algorithms --
98
326920
4016
путём смешивания всех этих данных, эти машинно-обучаемые алгоритмы —
05:30
that's why they're called learning algorithms --
99
330960
2896
вот почему они называются алгоритмами обучения —
05:33
they learn to understand the characteristics of people
100
333880
4096
учатся понимать характеристики людей,
05:38
who purchased tickets to Vegas before.
101
338000
2520
ранее приобретавших билеты до Вегаса.
05:41
When they learn this from existing data,
102
341760
3536
Обучившись этому по имеющимся данным,
05:45
they also learn how to apply this to new people.
103
345320
3816
они также учатся тому, как применить это к новым клиентам.
05:49
So if they're presented with a new person,
104
349160
3056
И если они сталкиваются с новым для них человеком,
05:52
they can classify whether that person is likely to buy a ticket to Vegas or not.
105
352240
4640
они могут определить, захочет ли он приобретать билет до Вегаса или нет.
05:57
Fine. You're thinking, an offer to buy tickets to Vegas.
106
357720
5456
Хорошо. Вы думаете, это лишь предложение купить билет до Вегаса.
06:03
I can ignore that.
107
363200
1456
Я могу отклонить его.
06:04
But the problem isn't that.
108
364680
2216
Но проблема заключается не в этом.
06:06
The problem is,
109
366920
1576
Проблема в том,
06:08
we no longer really understand how these complex algorithms work.
110
368520
4136
что мы уже не понимаем, как работают эти комплексные алгоритмы.
06:12
We don't understand how they're doing this categorization.
111
372680
3456
Мы не понимаем, как они занимаются этой категоризацией.
06:16
It's giant matrices, thousands of rows and columns,
112
376160
4416
Это огромные матрицы, тысячи строк и столбцов,
06:20
maybe millions of rows and columns,
113
380600
1960
может, миллионы строк и столбцов,
06:23
and not the programmers
114
383320
2640
и ни программисты,
06:26
and not anybody who looks at it,
115
386760
1680
ни даже любой, кто взглянет на это,
06:29
even if you have all the data,
116
389440
1496
даже имея все данные,
06:30
understands anymore how exactly it's operating
117
390960
4616
уже не поймёт, как конкретно всё это работает.
06:35
any more than you'd know what I was thinking right now
118
395600
3776
Это как если бы вы знали, о чём я думаю в данный момент,
06:39
if you were shown a cross section of my brain.
119
399400
3960
словно вам показали профиль моего мозга.
06:44
It's like we're not programming anymore,
120
404360
2576
Мы словно уже не занимаемся программированием,
06:46
we're growing intelligence that we don't truly understand.
121
406960
4400
мы растим интеллект, который мы не понимаем полностью.
06:52
And these things only work if there's an enormous amount of data,
122
412520
3976
И всё это работает лишь при наличии доступа к громадному объёму информации,
06:56
so they also encourage deep surveillance on all of us
123
416520
5096
что подстёгивает к тотальной слежке за каждым из нас,
07:01
so that the machine learning algorithms can work.
124
421640
2336
дабы эти машинно-обучаемые алгоритмы действовали.
07:04
That's why Facebook wants to collect all the data it can about you.
125
424000
3176
Вот почему Facebook хочет собрать любую возможную информацию о вас.
07:07
The algorithms work better.
126
427200
1576
Так эти алгоритмы лучше работают.
07:08
So let's push that Vegas example a bit.
127
428800
2696
И давайте вернёмся ненадолго к тому примеру с Вегасом.
07:11
What if the system that we do not understand
128
431520
3680
Что, если бы система, работу которой мы полностью не понимаем,
07:16
was picking up that it's easier to sell Vegas tickets
129
436200
5136
подобрала такой вариант, что продать билет до Вегаса легче
07:21
to people who are bipolar and about to enter the manic phase.
130
441360
3760
людям с биполярным расстройством, готовым вот-вот перейти в маниакальную фазу.
07:25
Such people tend to become overspenders, compulsive gamblers.
131
445640
4920
Такие люди, как правило, становятся транжирами, заядлыми игроками.
07:31
They could do this, and you'd have no clue that's what they were picking up on.
132
451280
4456
Они могли сделать это, вы бы и не поняли, что это то, ради чего вёлся сбор данных.
07:35
I gave this example to a bunch of computer scientists once
133
455760
3616
Я однажды привела этот пример группе специалистов в области информатики,
07:39
and afterwards, one of them came up to me.
134
459400
2056
а после этого один из них подошёл ко мне.
07:41
He was troubled and he said, "That's why I couldn't publish it."
135
461480
3520
С озадаченным видом он сказал: «Вот почему я не смог опубликовать это».
07:45
I was like, "Couldn't publish what?"
136
465600
1715
Я в ответ: «Что не смогли опубликовать?»
07:47
He had tried to see whether you can indeed figure out the onset of mania
137
467800
5856
Он попытался понять, действительно ли можно выявить формирование мании
07:53
from social media posts before clinical symptoms,
138
473680
3216
исходя из сообщений в соцсетях, до проявления клинических симптомов,
07:56
and it had worked,
139
476920
1776
и это сработало,
07:58
and it had worked very well,
140
478720
2056
и это сработало очень хорошо,
08:00
and he had no idea how it worked or what it was picking up on.
141
480800
4880
и он понятия не имел, как это работало или на чём основывалось.
08:06
Now, the problem isn't solved if he doesn't publish it,
142
486840
4416
Если он не опубликует это, проблема не будет решена,
08:11
because there are already companies
143
491280
1896
потому что уже существуют компании,
08:13
that are developing this kind of technology,
144
493200
2536
занимающиеся разработкой такой технологии,
08:15
and a lot of the stuff is just off the shelf.
145
495760
2800
и многое из этого уже работает.
08:19
This is not very difficult anymore.
146
499240
2576
Это уже не так сложно.
08:21
Do you ever go on YouTube meaning to watch one video
147
501840
3456
Вы когда-нибудь заходили на YouTube, собираясь посмотреть одно видео,
08:25
and an hour later you've watched 27?
148
505320
2360
а спустя час вы уже посмотрели 27?
08:28
You know how YouTube has this column on the right
149
508760
2496
Знаете, на Youtube есть эта колонка справа,
08:31
that says, "Up next"
150
511280
2216
на которой указано: «Следующее»,
08:33
and it autoplays something?
151
513520
1816
и оно автоматически запускает что-то?
08:35
It's an algorithm
152
515360
1216
Это алгоритм,
08:36
picking what it thinks that you might be interested in
153
516600
3616
подбирающий то, чем вы можете заинтересоваться
08:40
and maybe not find on your own.
154
520240
1536
и, возможно, сами не найдёте.
08:41
It's not a human editor.
155
521800
1256
Это работа не человека.
08:43
It's what algorithms do.
156
523080
1416
Это то, что делают алгоритмы.
08:44
It picks up on what you have watched and what people like you have watched,
157
524520
4736
Они улавливают, что посмотрели вы и что посмотрели люди, подобные вам,
08:49
and infers that that must be what you're interested in,
158
529280
4216
и заключают, что это, должно быть, то, что вас интересует,
08:53
what you want more of,
159
533520
1255
то, что вы хотите видеть,
08:54
and just shows you more.
160
534799
1336
и просто показывает больше.
08:56
It sounds like a benign and useful feature,
161
536159
2201
Это звучит как хорошая и полезная функция,
08:59
except when it isn't.
162
539280
1200
но бывают и исключения.
09:01
So in 2016, I attended rallies of then-candidate Donald Trump
163
541640
6960
В 2016-м я присутствовала на собраниях тогда ещё кандидата Дональда Трампа
09:09
to study as a scholar the movement supporting him.
164
549840
3336
для изучения поддерживающих его масс.
09:13
I study social movements, so I was studying it, too.
165
553200
3456
Я изучаю социальные движения, поэтому изучала также и это.
09:16
And then I wanted to write something about one of his rallies,
166
556680
3336
И затем я хотела написать что-нибудь об одном из его собраний,
09:20
so I watched it a few times on YouTube.
167
560040
1960
и я пару раз просмотрела его на Youtube.
09:23
YouTube started recommending to me
168
563240
3096
YouTube начал рекомендовать мне
09:26
and autoplaying to me white supremacist videos
169
566360
4256
и включил автопроигрывание роликов на тему превосходства белых людей
09:30
in increasing order of extremism.
170
570640
2656
в растущем порядке экстремизма.
09:33
If I watched one,
171
573320
1816
Если я смотрела один,
09:35
it served up one even more extreme
172
575160
2976
он предлагал мне к просмотру ещё более экстремальный
09:38
and autoplayed that one, too.
173
578160
1424
и автопроигрывал его тоже.
09:40
If you watch Hillary Clinton or Bernie Sanders content,
174
580320
4536
Если вы смотрите контент, связанный с Хилари Клинтон или Берни Сандерсом,
09:44
YouTube recommends and autoplays conspiracy left,
175
584880
4696
YouTube рекомендует и автопроигрывает видео на тему заговора левых,
09:49
and it goes downhill from there.
176
589600
1760
и дальше — хуже.
09:52
Well, you might be thinking, this is politics, but it's not.
177
592480
3056
Что же, вы можете подумать, что это политика, но это не так.
09:55
This isn't about politics.
178
595560
1256
Это совсем не о политике.
09:56
This is just the algorithm figuring out human behavior.
179
596840
3096
Это лишь алгоритм, предугадывающий человеческое поведение.
09:59
I once watched a video about vegetarianism on YouTube
180
599960
4776
Я однажды посмотрела на Youtube ролик о вегетарианстве,
10:04
and YouTube recommended and autoplayed a video about being vegan.
181
604760
4936
и YouTube рекомендовал и автопроиграл видео о том, каково быть веганом.
10:09
It's like you're never hardcore enough for YouTube.
182
609720
3016
Вы словно никогда не бываете достаточно радикальны для YouTube.
10:12
(Laughter)
183
612760
1576
(Смех)
10:14
So what's going on?
184
614360
1560
Так что же происходит?
10:16
Now, YouTube's algorithm is proprietary,
185
616520
3536
Алгоритм YouTube запатентован,
10:20
but here's what I think is going on.
186
620080
2360
но вот что я думаю о том, как всё происходит.
10:23
The algorithm has figured out
187
623360
2096
Алгоритм вычислил,
10:25
that if you can entice people
188
625480
3696
что если ты сможешь заставить людей
10:29
into thinking that you can show them something more hardcore,
189
629200
3736
думать, что ты способен показать им нечто более жёсткое,
10:32
they're more likely to stay on the site
190
632960
2416
они с большей вероятностью останутся на сайте,
10:35
watching video after video going down that rabbit hole
191
635400
4416
просматривая ролик за роликом, спускаясь в эту кроличью нору,
10:39
while Google serves them ads.
192
639840
1680
пока Google снабжает их рекламой.
10:43
Now, with nobody minding the ethics of the store,
193
643760
3120
Поскольку никто не возражает против «коммерческой» этики,
10:47
these sites can profile people
194
647720
4240
такие сайты могут определять людей,
10:53
who are Jew haters,
195
653680
1920
ненавидящих евреев,
10:56
who think that Jews are parasites
196
656360
2480
тех, кто считает евреев паразитами,
11:00
and who have such explicit anti-Semitic content,
197
660320
4920
тех, у кого имеется столь явный антисемитский контент,
11:06
and let you target them with ads.
198
666080
2000
и позволяет вам направить рекламу на них.
11:09
They can also mobilize algorithms
199
669200
3536
Они также могут мобилизовать алгоритмы
11:12
to find for you look-alike audiences,
200
672760
3136
для поиска аудитории, разделяющей ваши взгляды,
11:15
people who do not have such explicit anti-Semitic content on their profile
201
675920
5576
людей, у которых нет столь явного антисемитского контента в профиле,
11:21
but who the algorithm detects may be susceptible to such messages,
202
681520
6176
но кто, согласно алгоритму, может быть восприимчив к такого рода сообщениям,
11:27
and lets you target them with ads, too.
203
687720
1920
позволяя вам направить рекламу и на них.
11:30
Now, this may sound like an implausible example,
204
690680
2736
Сейчас это может звучать как неправдоподобный пример,
11:33
but this is real.
205
693440
1320
но это реально.
11:35
ProPublica investigated this
206
695480
2136
ProPublica расследовала это
11:37
and found that you can indeed do this on Facebook,
207
697640
3616
и обнаружила, что вы в самом деле можете делать это в Facebook,
11:41
and Facebook helpfully offered up suggestions
208
701280
2416
и Facebook любезно предложил способы
11:43
on how to broaden that audience.
209
703720
1600
расширения этой аудитории.
11:46
BuzzFeed tried it for Google, and very quickly they found,
210
706720
3016
BuzzFeed попробовал это с Google, и очень быстро они выяснили,
11:49
yep, you can do it on Google, too.
211
709760
1736
да, вы можете делать это и с Google.
11:51
And it wasn't even expensive.
212
711520
1696
И это даже не было дорого.
11:53
The ProPublica reporter spent about 30 dollars
213
713240
4416
Журналист ProPublica потратил около 30 долларов
11:57
to target this category.
214
717680
2240
на обозначение этой категории.
12:02
So last year, Donald Trump's social media manager disclosed
215
722600
5296
В прошлом году менеджер социальных сетей из штаба Дональда Трампа раскрыл,
12:07
that they were using Facebook dark posts to demobilize people,
216
727920
5336
что они использовали тёмные посты в Facebook для демобилизации людей,
12:13
not to persuade them,
217
733280
1376
не чтобы их переубедить,
12:14
but to convince them not to vote at all.
218
734680
2800
а для того, чтобы убедить их не голосовать вовсе.
12:18
And to do that, they targeted specifically,
219
738520
3576
И чтобы сделать это, они особенно нацелились,
12:22
for example, African-American men in key cities like Philadelphia,
220
742120
3896
к примеру, на мужчин-афроамериканцев в ключевых городах типа Филадельфии,
12:26
and I'm going to read exactly what he said.
221
746040
2456
и я собираюсь прочесть именно то, что он сказал.
12:28
I'm quoting.
222
748520
1216
Я цитирую.
12:29
They were using "nonpublic posts
223
749760
3016
Они использовали «приватные посты,
12:32
whose viewership the campaign controls
224
752800
2176
чей просмотр в ходе кампании контролируется,
12:35
so that only the people we want to see it see it.
225
755000
3776
и потому их видят лишь те люди, которые нам требуются.
12:38
We modeled this.
226
758800
1216
Мы смоделировали это.
12:40
It will dramatically affect her ability to turn these people out."
227
760040
4720
Это кардинально повлияет на её возможность вернуть этих людей на свою сторону».
12:45
What's in those dark posts?
228
765720
2280
Что же собой являют эти тёмные посты?
12:48
We have no idea.
229
768480
1656
Мы не знаем.
12:50
Facebook won't tell us.
230
770160
1200
Facebook отказывается это раскрывать.
12:52
So Facebook also algorithmically arranges the posts
231
772480
4376
Facebook также алгоритмично располагает посты,
12:56
that your friends put on Facebook, or the pages you follow.
232
776880
3736
которые выкладывают ваши друзья, или странички, на которые вы подписаны.
13:00
It doesn't show you everything chronologically.
233
780640
2216
Он не показывает вам всё хронологически.
13:02
It puts the order in the way that the algorithm thinks will entice you
234
782880
4816
Он задаёт порядок так, как, по расчётам алгоритма, можно увлечь вас,
13:07
to stay on the site longer.
235
787720
1840
чтобы вы пробыли на сайте подольше.
13:11
Now, so this has a lot of consequences.
236
791040
3376
У этого есть множество последствий.
13:14
You may be thinking somebody is snubbing you on Facebook.
237
794440
3800
Вы можете подумать, что кто-то игнорирует вас в Facebook.
13:18
The algorithm may never be showing your post to them.
238
798800
3256
Возможно, алгоритм даже и не показывал им ваш пост.
13:22
The algorithm is prioritizing some of them and burying the others.
239
802080
5960
Алгоритм даёт приоритет некоторым из них и прячет другие.
13:29
Experiments show
240
809320
1296
Эксперименты показывают,
13:30
that what the algorithm picks to show you can affect your emotions.
241
810640
4520
что то, что алгоритм подбирает для показа вам, может влиять на ваши эмоции.
13:36
But that's not all.
242
816600
1200
Но это не всё.
13:38
It also affects political behavior.
243
818280
2360
Это также влияет на политическое поведение.
13:41
So in 2010, in the midterm elections,
244
821360
4656
В 2010-м, в ходе промежуточных выборов,
13:46
Facebook did an experiment on 61 million people in the US
245
826040
5896
Facebook провёл эксперимент над 61 млн человек в США,
13:51
that was disclosed after the fact.
246
831960
1896
который был раскрыт после проведения.
13:53
So some people were shown, "Today is election day,"
247
833880
3416
Так, некоторым людям показали объявление «Сегодня день выборов»,
13:57
the simpler one,
248
837320
1376
более простой вариант,
13:58
and some people were shown the one with that tiny tweak
249
838720
3896
а некоторым показали его же с крошечным изменением,
14:02
with those little thumbnails
250
842640
2096
с этакими небольшими иконками
14:04
of your friends who clicked on "I voted."
251
844760
2840
ваших друзей, уже кликнувших на кнопку «Я проголосовал».
14:09
This simple tweak.
252
849000
1400
Вот такое простое изменение.
14:11
OK? So the pictures were the only change,
253
851520
4296
Понятно? Эти картинки были единственной разницей,
14:15
and that post shown just once
254
855840
3256
и этот пост, показанный лишь раз,
14:19
turned out an additional 340,000 voters
255
859120
6056
обернулся дополнительными 340 000 избирателей
14:25
in that election,
256
865200
1696
на этих выборах,
14:26
according to this research
257
866920
1696
согласно этому исследованию,
14:28
as confirmed by the voter rolls.
258
868640
2520
как было подтверждено списками избирателей.
14:32
A fluke? No.
259
872920
1656
Счастливая случайность? Нет.
14:34
Because in 2012, they repeated the same experiment.
260
874600
5360
Поскольку в 2012-м они повторили тот же эксперимент.
14:40
And that time,
261
880840
1736
И в этот раз
14:42
that civic message shown just once
262
882600
3296
этот гражданский призыв, показанный лишь раз,
14:45
turned out an additional 270,000 voters.
263
885920
4440
обернулся 270 000 проголосовавших.
14:51
For reference, the 2016 US presidential election
264
891160
5216
Для сравнения, результат выборов президента США в 2016-м
14:56
was decided by about 100,000 votes.
265
896400
3520
решился голосами 100 000 избирателей.
15:01
Now, Facebook can also very easily infer what your politics are,
266
901360
4736
Сейчас Facebook может также легко вычислить ваши политические взгляды,
15:06
even if you've never disclosed them on the site.
267
906120
2256
даже если вы никогда не раскрывали их на сайте.
15:08
Right? These algorithms can do that quite easily.
268
908400
2520
Верно? Эти алгоритмы могут делать это очень легко.
15:11
What if a platform with that kind of power
269
911960
3896
Что, если платформа с такими возможностями
15:15
decides to turn out supporters of one candidate over the other?
270
915880
5040
решит сделать так, что на выборы придут больше сторонников одного кандидата?
15:21
How would we even know about it?
271
921680
2440
Откуда нам знать об этом?
15:25
Now, we started from someplace seemingly innocuous --
272
925560
4136
Мы начали с чего-то, казалось бы, безобидного —
15:29
online adds following us around --
273
929720
2216
онлайн реклама, преследующая нас всюду, —
15:31
and we've landed someplace else.
274
931960
1840
и мы добрались до чего-то иного.
15:35
As a public and as citizens,
275
935480
2456
Как народ и как отдельные граждане,
15:37
we no longer know if we're seeing the same information
276
937960
3416
мы больше не знаем, видим ли мы одну и ту же информацию,
15:41
or what anybody else is seeing,
277
941400
1480
или что видит кто-либо другой,
15:43
and without a common basis of information,
278
943680
2576
и без единой информационной базы,
15:46
little by little,
279
946280
1616
постепенно,
15:47
public debate is becoming impossible,
280
947920
3216
публичные дебаты становятся невозможны,
15:51
and we're just at the beginning stages of this.
281
951160
2976
и мы как раз на начальных стадиях этого.
15:54
These algorithms can quite easily infer
282
954160
3456
Эти алгоритмы крайне легко могут вычислить
15:57
things like your people's ethnicity,
283
957640
3256
такие вещи, как этническая принадлежность,
16:00
religious and political views, personality traits,
284
960920
2336
религиозные и политические взгляды, личность,
16:03
intelligence, happiness, use of addictive substances,
285
963280
3376
уровень интеллекта, довольства жизнью, наркозависимость,
16:06
parental separation, age and genders,
286
966680
3136
развод родителей, возраст и пол,
16:09
just from Facebook likes.
287
969840
1960
лишь по лайкам в Facebook.
16:13
These algorithms can identify protesters
288
973440
4056
Эти алгоритмы могут вычислить протестующих,
16:17
even if their faces are partially concealed.
289
977520
2760
даже если их лица частично скрыты.
16:21
These algorithms may be able to detect people's sexual orientation
290
981720
6616
Эти алгоритмы, возможно, способны определить сексуальную ориентацию людей
16:28
just from their dating profile pictures.
291
988360
3200
лишь по их фотографиям в профиле знакомств.
16:33
Now, these are probabilistic guesses,
292
993560
2616
Сейчас это лишь вероятные догадки,
16:36
so they're not going to be 100 percent right,
293
996200
2896
так что они необязательно будут на 100% верны,
16:39
but I don't see the powerful resisting the temptation to use these technologies
294
999120
4896
но я не вижу мощного сопротивления искушению использовать эти технологии
только потому, что есть какие-то ложноположительные результаты,
16:44
just because there are some false positives,
295
1004040
2176
16:46
which will of course create a whole other layer of problems.
296
1006240
3256
которые, конечно же, создадут целый ряд проблем.
16:49
Imagine what a state can do
297
1009520
2936
Представьте, что государство может сделать
16:52
with the immense amount of data it has on its citizens.
298
1012480
3560
с огромным объёмом данных, имеющихся у него на собственных жителей.
16:56
China is already using face detection technology
299
1016680
4776
В Китае уже используется технология опознавания лиц
17:01
to identify and arrest people.
300
1021480
2880
для вычисления и ареста людей.
17:05
And here's the tragedy:
301
1025280
2136
И вот в чём трагедия:
17:07
we're building this infrastructure of surveillance authoritarianism
302
1027440
5536
мы строим эту инфраструктуру авторитарного наблюдения,
17:13
merely to get people to click on ads.
303
1033000
2960
лишь чтобы побудить людей кликать на рекламу.
17:17
And this won't be Orwell's authoritarianism.
304
1037240
2576
И это не будет авторитаризм Оруэлла.
17:19
This isn't "1984."
305
1039839
1897
Это не «1984».
17:21
Now, if authoritarianism is using overt fear to terrorize us,
306
1041760
4576
Если авторитаризм явно использует страх, чтобы терроризировать нас,
17:26
we'll all be scared, but we'll know it,
307
1046359
2897
мы все будем напуганы, но мы будем знать об этом,
17:29
we'll hate it and we'll resist it.
308
1049280
2200
мы будем ненавидеть это и будем сопротивляться.
17:32
But if the people in power are using these algorithms
309
1052880
4416
Но если люди у власти используют эти алгоритмы,
17:37
to quietly watch us,
310
1057319
3377
чтобы незаметно следить за нами,
17:40
to judge us and to nudge us,
311
1060720
2080
оценивать нас и подначивать нас,
17:43
to predict and identify the troublemakers and the rebels,
312
1063720
4176
чтобы предугадывать и опознавать нарушителей порядка и бунтарей,
17:47
to deploy persuasion architectures at scale
313
1067920
3896
чтобы масштабно внедрять архитектуру убеждения
17:51
and to manipulate individuals one by one
314
1071840
4136
и манипулировать отдельными людьми по одиночке,
17:56
using their personal, individual weaknesses and vulnerabilities,
315
1076000
5440
используя их личные, уникальные слабости и уязвимости,
18:02
and if they're doing it at scale
316
1082720
2200
и если они масштабно занимаются этим
18:06
through our private screens
317
1086080
1736
через наши личные экраны так,
18:07
so that we don't even know
318
1087840
1656
что мы даже не знаем,
18:09
what our fellow citizens and neighbors are seeing,
319
1089520
2760
что видят наши сограждане и соседи,
18:13
that authoritarianism will envelop us like a spider's web
320
1093560
4816
этот авторитаризм окутает нас, словно паучья сеть,
18:18
and we may not even know we're in it.
321
1098400
2480
и мы даже не будем знать, что мы уже в ней.
18:22
So Facebook's market capitalization
322
1102440
2936
Итак, рыночная капитализация Facebook
18:25
is approaching half a trillion dollars.
323
1105400
3296
приближается к отметке в полтриллиона долларов.
18:28
It's because it works great as a persuasion architecture.
324
1108720
3120
Это потому, что он хорошо работает как архитектура убеждения.
18:33
But the structure of that architecture
325
1113760
2816
Но строение этой архитектуры
18:36
is the same whether you're selling shoes
326
1116600
3216
одинаково, продаёте ли вы туфли,
18:39
or whether you're selling politics.
327
1119840
2496
или продаёте политику.
18:42
The algorithms do not know the difference.
328
1122360
3120
Эти алгоритмы не осознают разницы.
18:46
The same algorithms set loose upon us
329
1126240
3296
Те же алгоритмы, что расслабили нас,
18:49
to make us more pliable for ads
330
1129560
3176
сделав нас более податливыми для рекламы,
18:52
are also organizing our political, personal and social information flows,
331
1132760
6736
также организуют наши политические, личные и социально-информационные потоки,
18:59
and that's what's got to change.
332
1139520
1840
и это то, что должно измениться.
19:02
Now, don't get me wrong,
333
1142240
2296
Не поймите меня неправильно,
19:04
we use digital platforms because they provide us with great value.
334
1144560
3680
мы используем цифровые платформы, потому что они очень ценны для нас.
19:09
I use Facebook to keep in touch with friends and family around the world.
335
1149120
3560
Я пользуюсь Facebook, чтобы быть на связи с друзьями и семьёй повсюду.
19:14
I've written about how crucial social media is for social movements.
336
1154000
5776
Я уже писала о том, как важны соцсети для социальных движений.
19:19
I have studied how these technologies can be used
337
1159800
3016
Я изучала, как эти технологии могут быть использованы,
19:22
to circumvent censorship around the world.
338
1162840
2480
чтобы обойти цензуру по всему миру.
19:27
But it's not that the people who run, you know, Facebook or Google
339
1167280
6416
Но это не значит, что люди, управляющие, скажем, Facebook или Google,
19:33
are maliciously and deliberately trying
340
1173720
2696
злостно и сознательно пытаются
19:36
to make the country or the world more polarized
341
1176440
4456
сделать страну или мир более поляризованными
19:40
and encourage extremism.
342
1180920
1680
и поощрять экстремизм.
19:43
I read the many well-intentioned statements
343
1183440
3976
Я читала много благоразумных утверждений,
19:47
that these people put out.
344
1187440
3320
которые выдвинули эти люди.
19:51
But it's not the intent or the statements people in technology make that matter,
345
1191600
6056
Но важны не намерения или утверждения людей в области технологий,
19:57
it's the structures and business models they're building.
346
1197680
3560
а структуры и бизнес-модели, которые они создают.
20:02
And that's the core of the problem.
347
1202360
2096
И в этом суть проблемы.
20:04
Either Facebook is a giant con of half a trillion dollars
348
1204480
4720
Или Facebook — гигантская афёра стоимостью в полтриллиона долларов,
20:10
and ads don't work on the site,
349
1210200
1896
а реклама на этом сайте не работает,
20:12
it doesn't work as a persuasion architecture,
350
1212120
2696
он не работает как архитектура убеждения,
20:14
or its power of influence is of great concern.
351
1214840
4120
или его сила влияния является поводом для большого беспокойства.
20:20
It's either one or the other.
352
1220560
1776
Это либо одно, либо другое.
20:22
It's similar for Google, too.
353
1222360
1600
Та же ситуация и с Google.
20:24
So what can we do?
354
1224880
2456
Так что мы можем сделать?
20:27
This needs to change.
355
1227360
1936
Это нужно менять.
20:29
Now, I can't offer a simple recipe,
356
1229320
2576
Сейчас я не могу предложить простой способ,
20:31
because we need to restructure
357
1231920
2256
потому что нам нужно реструктурировать
20:34
the whole way our digital technology operates.
358
1234200
3016
весь путь, по которому работают наши цифровые технологии.
20:37
Everything from the way technology is developed
359
1237240
4096
Всё — от того, как технология развивается,
20:41
to the way the incentives, economic and otherwise,
360
1241360
3856
до того, как стимулы, экономические и иные,
20:45
are built into the system.
361
1245240
2280
встроены в систему.
20:48
We have to face and try to deal with
362
1248480
3456
Мы должны смело встретить и попытаться справиться
20:51
the lack of transparency created by the proprietary algorithms,
363
1251960
4656
с отсутствием прозрачности, образованным собственными алгоритмами,
20:56
the structural challenge of machine learning's opacity,
364
1256640
3816
структурной проблемой непрозрачности процесса машинного обучения,
21:00
all this indiscriminate data that's being collected about us.
365
1260480
3400
всеми этими данными, которые бессистемно собираются о нас.
21:05
We have a big task in front of us.
366
1265000
2520
Перед нами стоит большая задача.
21:08
We have to mobilize our technology,
367
1268160
2680
Мы должны мобилизовать нашу технологию,
21:11
our creativity
368
1271760
1576
нашу креативность
21:13
and yes, our politics
369
1273360
1880
и да, нашу политику так,
21:16
so that we can build artificial intelligence
370
1276240
2656
чтобы мы могли создать искусственный интеллект,
21:18
that supports us in our human goals
371
1278920
3120
который поддерживает нас в наших человеческих целях,
21:22
but that is also constrained by our human values.
372
1282800
3920
но который также ограничен нашими человеческими ценностями.
21:27
And I understand this won't be easy.
373
1287600
2160
И я осознаю, что это будет непросто.
21:30
We might not even easily agree on what those terms mean.
374
1290360
3600
Мы могли бы даже не согласиться с тем, что значат эти термины.
21:34
But if we take seriously
375
1294920
2400
Но если мы серьёзно относимся к тому,
21:38
how these systems that we depend on for so much operate,
376
1298240
5976
как эти системы, от которых мы так сильно зависим, функционируют,
21:44
I don't see how we can postpone this conversation anymore.
377
1304240
4120
я уже не вижу, как мы можем откладывать этот разговор.
21:49
These structures
378
1309200
2536
Эти структуры
21:51
are organizing how we function
379
1311760
4096
организуют то, как мы работаем,
21:55
and they're controlling
380
1315880
2296
и они контролируют,
21:58
what we can and we cannot do.
381
1318200
2616
что мы можем делать, а что нет.
22:00
And many of these ad-financed platforms,
382
1320840
2456
И многие из этих платформ, финансируемых рекламой,
22:03
they boast that they're free.
383
1323320
1576
кичатся, что они бесплатны.
22:04
In this context, it means that we are the product that's being sold.
384
1324920
4560
В этом контексте это означает, что продаваемый продукт — это мы.
22:10
We need a digital economy
385
1330840
2736
Нам нужна цифровая экономика,
22:13
where our data and our attention
386
1333600
3496
где наши данные и наше внимание
22:17
is not for sale to the highest-bidding authoritarian or demagogue.
387
1337120
5080
не продаются деспоту или демагогу, предложившему наибольшую цену.
22:23
(Applause)
388
1343160
3800
(Аплодисменты)
22:30
So to go back to that Hollywood paraphrase,
389
1350480
3256
Итак, возвращаясь к тому голливудскому парафразу,
22:33
we do want the prodigious potential
390
1353760
3736
мы хотим огромного потенциала
22:37
of artificial intelligence and digital technology to blossom,
391
1357520
3200
от искусственного интеллекта и расцвета цифровых технологий,
22:41
but for that, we must face this prodigious menace,
392
1361400
4936
но для этого мы должны встретить эту огромную угрозу
22:46
open-eyed and now.
393
1366360
1936
с широко открытыми глазами уже сейчас.
22:48
Thank you.
394
1368320
1216
Спасибо вам.
22:49
(Applause)
395
1369560
4640
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7