What will a future without secrets look like? | Alessandro Acquisti

Алессандро Аквисти: О значимости конфиденциальности

202,219 views

2013-10-18 ・ TED


New videos

What will a future without secrets look like? | Alessandro Acquisti

Алессандро Аквисти: О значимости конфиденциальности

202,219 views ・ 2013-10-18

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Max Siz Редактор: Maria Golec
00:12
I would like to tell you a story
0
12641
2354
Я хотел бы рассказать вам историю,
00:14
connecting the notorious privacy incident
1
14995
3176
которая объединяет пресловутый случай
00:18
involving Adam and Eve,
2
18171
2769
с участием Адама и Евы
00:20
and the remarkable shift in the boundaries
3
20940
3446
и ту поразительную перемену границы
00:24
between public and private which has occurred
4
24386
2686
между публичным и личным, которая произошла
00:27
in the past 10 years.
5
27072
1770
за последние 10 лет.
00:28
You know the incident.
6
28842
1298
Случай вам известен.
00:30
Adam and Eve one day in the Garden of Eden
7
30140
3330
Как-то раз в Эдемском саду Адам и Ева
00:33
realize they are naked.
8
33470
1843
поняли, что они голые.
00:35
They freak out.
9
35313
1500
Они пришли в ужас.
00:36
And the rest is history.
10
36813
2757
А остальное — уже история.
00:39
Nowadays, Adam and Eve
11
39570
2188
Сегодня Адам и Ева
00:41
would probably act differently.
12
41758
2361
вели бы себя по-другому.
00:44
[@Adam Last nite was a blast! loved dat apple LOL]
13
44119
2268
@Адам: Прошлая ночь удалась! Прикольное яблочко LOL
00:46
[@Eve yep.. babe, know what happened to my pants tho?]
14
46387
1873
@Ева: да...детка, знаешь, что случилось с моими штанами?
00:48
We do reveal so much more information
15
48260
2636
Мы действительно раскрываем значительно больше информации
00:50
about ourselves online than ever before,
16
50896
3334
о самих себе, чем когда-либо раньше,
00:54
and so much information about us
17
54230
1704
и гораздо больше информации о нас
00:55
is being collected by organizations.
18
55934
2224
собирается организациями.
00:58
Now there is much to gain and benefit
19
58158
3282
Сегодня можно получить много полезного
01:01
from this massive analysis of personal information,
20
61440
2446
из анализа персональных данных
01:03
or big data,
21
63886
1946
или большого объёма информации,
01:05
but there are also complex tradeoffs that come
22
65832
2638
но так же приходится идти на ряд непростых компромиссов
01:08
from giving away our privacy.
23
68470
3098
из-за потери нашей конфиденциальности.
01:11
And my story is about these tradeoffs.
24
71568
4023
Мой рассказ об этих компромиссах.
01:15
We start with an observation which, in my mind,
25
75591
2584
Начнём мы с наблюдения, результат которого, по моему мнению,
01:18
has become clearer and clearer in the past few years,
26
78175
3327
становится всё более ясным за последние несколько лет,
01:21
that any personal information
27
81502
2097
а именно то, что любая персональная информация
01:23
can become sensitive information.
28
83599
2285
может стать деликатной.
01:25
Back in the year 2000, about 100 billion photos
29
85884
4125
Ещё в 2000 году в мире было сделано
01:30
were shot worldwide,
30
90009
1912
около 100 миллиардов фото,
01:31
but only a minuscule proportion of them
31
91921
3065
но лишь мизерная их часть
01:34
were actually uploaded online.
32
94986
1883
была действительно загружена онлайн.
01:36
In 2010, only on Facebook, in a single month,
33
96869
3361
В 2010 году только на Facebook ежемесячно
01:40
2.5 billion photos were uploaded,
34
100230
3270
загружалось 2,5 миллиарда фотографий,
01:43
most of them identified.
35
103500
1882
и большинство из них идентифицированы.
01:45
In the same span of time,
36
105382
1880
В то же самое время,
01:47
computers' ability to recognize people in photos
37
107262
4870
способность компьютеров распознавать людей на фото
01:52
improved by three orders of magnitude.
38
112132
3608
улучшилась на три порядка.
01:55
What happens when you combine
39
115740
1882
Что же происходит, когда вы соединяете
01:57
these technologies together:
40
117622
1501
эти технологии вместе:
01:59
increasing availability of facial data;
41
119123
2658
увеличение доступности персональных данных;
02:01
improving facial recognizing ability by computers;
42
121781
3648
улучшение компьютерного распознания лиц;
02:05
but also cloud computing,
43
125429
2182
а так же облачные вычисления,
02:07
which gives anyone in this theater
44
127611
1888
которые дают любому в этом зале
02:09
the kind of computational power
45
129499
1560
такую вычислительную мощность,
02:11
which a few years ago was only the domain
46
131059
1886
которая ещё несколько лет назад была
02:12
of three-letter agencies;
47
132945
1782
только у спецслужб;
02:14
and ubiquitous computing,
48
134727
1378
и распределённые вычисления,
02:16
which allows my phone, which is not a supercomputer,
49
136105
2892
которые позволяют моему телефону, не будучи суперкомпьютером,
02:18
to connect to the Internet
50
138997
1671
подключаться к интернету
02:20
and do there hundreds of thousands
51
140668
2334
и просматривать там сотни тысяч
02:23
of face metrics in a few seconds?
52
143002
2639
метрик лица за несколько секунд?
02:25
Well, we conjecture that the result
53
145641
2628
Ну, мы предполагаем, что результат
02:28
of this combination of technologies
54
148269
2064
такой комбинации технологий
02:30
will be a radical change in our very notions
55
150333
2888
радикально изменит наши понятия
02:33
of privacy and anonymity.
56
153221
2257
о конфиденциальности и анонимности.
02:35
To test that, we did an experiment
57
155478
1993
Чтобы проверить это, мы провели эксперимент
02:37
on Carnegie Mellon University campus.
58
157471
2121
на кампусе университета Карнеги-Меллон.
02:39
We asked students who were walking by
59
159592
2099
Мы попросили проходящих мимо студентов
02:41
to participate in a study,
60
161691
1779
участвовать в исследовании,
02:43
and we took a shot with a webcam,
61
163470
2562
потом мы сфотографировали их на вебкамеру
02:46
and we asked them to fill out a survey on a laptop.
62
166032
2782
и попросили заполнить опросник на компьютере.
02:48
While they were filling out the survey,
63
168814
1979
Пока они отвечали на вопросы,
02:50
we uploaded their shot to a cloud-computing cluster,
64
170793
2797
мы загрузили их фото в облачный вычислительный кластер
02:53
and we started using a facial recognizer
65
173590
1727
и запустили процесс распознавания лица,
02:55
to match that shot to a database
66
175317
2405
чтобы сравнить сделанные снимки с базой данных
02:57
of some hundreds of thousands of images
67
177722
2393
из нескольких сот тысяч изображений,
03:00
which we had downloaded from Facebook profiles.
68
180115
3596
которые мы загрузили из анкет на Facebook.
03:03
By the time the subject reached the last page
69
183711
3259
К тому времени как субъект доходил до последней страницы опросника,
03:06
on the survey, the page had been dynamically updated
70
186970
3347
страница была динамически обновлена
03:10
with the 10 best matching photos
71
190317
2313
10-ю самыми похожими фото,
03:12
which the recognizer had found,
72
192630
2285
обнаруженными программой;
03:14
and we asked the subjects to indicate
73
194915
1738
и мы просили опрашиваемого указать,
03:16
whether he or she found themselves in the photo.
74
196653
4120
находит ли он или она себя на этих фото.
03:20
Do you see the subject?
75
200773
3699
Вы видите субъекта?
03:24
Well, the computer did, and in fact did so
76
204472
2845
Компьютер видел, и по факту идентифицировал
03:27
for one out of three subjects.
77
207317
2149
одного из трёх опрошенных.
03:29
So essentially, we can start from an anonymous face,
78
209466
3184
Соответственно, мы можем начать с неизвестного лица,
03:32
offline or online, and we can use facial recognition
79
212650
3484
оффлайн или онлайн, мы можем использовать систему распознавания лиц,
03:36
to give a name to that anonymous face
80
216134
2360
чтобы определить имя неизвестного
03:38
thanks to social media data.
81
218494
2108
благодаря данным из социальных сетей.
03:40
But a few years back, we did something else.
82
220602
1872
А несколько лет назад мы делали кое-что другое.
03:42
We started from social media data,
83
222474
1823
Мы начинали с данных из социальных сетей,
03:44
we combined it statistically with data
84
224297
3051
статистически комбинировали их с данными
03:47
from U.S. government social security,
85
227348
2102
социальных служб правительства США,
03:49
and we ended up predicting social security numbers,
86
229450
3324
и мы доходили до предсказания номеров карточек социального страхования,
03:52
which in the United States
87
232774
1512
которые в Соединённых Штатах
03:54
are extremely sensitive information.
88
234286
2040
являются чрезвычайно конфиденциальной информацией.
03:56
Do you see where I'm going with this?
89
236326
2093
Понимаете, к чему я клоню?
03:58
So if you combine the two studies together,
90
238419
2922
Итак, если вы объедините эти два исследования вместе,
04:01
then the question becomes,
91
241341
1512
то возникает вопрос,
04:02
can you start from a face and,
92
242853
2720
можно ли начать с лица,
04:05
using facial recognition, find a name
93
245573
2311
используя систему распознавания, определить имя
04:07
and publicly available information
94
247884
2669
и общедоступную информацию
04:10
about that name and that person,
95
250553
1932
о лице и этом человеке,
04:12
and from that publicly available information
96
252485
2248
и через эту общедоступную информацию
04:14
infer non-publicly available information,
97
254733
2042
сделать предположение о личной информации,
04:16
much more sensitive ones
98
256775
1606
гораздо более конфиденциальной
04:18
which you link back to the face?
99
258381
1492
и связать её с этим лицом?
04:19
And the answer is, yes, we can, and we did.
100
259873
1916
И ответ — да, мы можем и уже сделали это.
04:21
Of course, the accuracy keeps getting worse.
101
261789
2568
Конечно, точность снижается.
04:24
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
102
264357
944
[определяются 27% первых 5 цифр номера карточки социального страхования (с 4 попыток)]
04:25
But in fact, we even decided to develop an iPhone app
103
265301
3827
Но на самом деле, мы даже решили разработать приложение для iPhone,
04:29
which uses the phone's internal camera
104
269128
2715
которое использует встроенную камеру телефона,
04:31
to take a shot of a subject
105
271843
1600
чтобы сделать фото человека,
04:33
and then upload it to a cloud
106
273443
1487
потом загрузить его в облако
04:34
and then do what I just described to you in real time:
107
274930
2662
и после сделать то, что я описал в реальном времени:
04:37
looking for a match, finding public information,
108
277592
2088
найти совпадения, используя публичную информацию,
04:39
trying to infer sensitive information,
109
279680
1730
попытаться связать с конфиденциальной информацией
04:41
and then sending back to the phone
110
281410
2591
и потом послать обратно на телефон
04:44
so that it is overlaid on the face of the subject,
111
284001
3609
полученную таким образом информацию об этом человеке,
04:47
an example of augmented reality,
112
287610
1901
как пример дополненной реальности,
04:49
probably a creepy example of augmented reality.
113
289511
2451
возможно, ужасный пример дополненной реальности.
04:51
In fact, we didn't develop the app to make it available,
114
291962
3339
Мы не разработали это приложение, чтобы сделать его доступным,
04:55
just as a proof of concept.
115
295301
1922
а лишь в качестве доказательства идеи.
04:57
In fact, take these technologies
116
297223
2313
Просто возьмите эти технологии
04:59
and push them to their logical extreme.
117
299536
1837
и преувеличьте их возможности.
05:01
Imagine a future in which strangers around you
118
301373
2719
Вообразите будущее, в котором незнакомые люди вокруг вас
05:04
will look at you through their Google Glasses
119
304092
2311
будут смотреть на вас через Google Glass
05:06
or, one day, their contact lenses,
120
306403
2307
или, однажды, через контактные линзы
05:08
and use seven or eight data points about you
121
308710
4020
и использовать 7 или 8 источников информации о вас,
05:12
to infer anything else
122
312730
2582
чтобы узнать, что ещё
05:15
which may be known about you.
123
315312
2603
может быть известно о вас.
05:17
What will this future without secrets look like?
124
317915
4794
Как вам такое будущее без секретов?
05:22
And should we care?
125
322709
1964
И должны ли мы беспокоиться?
05:24
We may like to believe
126
324673
1891
Возможно нам хотелось бы верить,
05:26
that the future with so much wealth of data
127
326564
3040
что будущее с таким огромным количеством данных,
05:29
would be a future with no more biases,
128
329604
2514
будет лишено предвзятости,
05:32
but in fact, having so much information
129
332118
3583
но на самом деле, обладание таким количеством информации
05:35
doesn't mean that we will make decisions
130
335701
2191
совершенно не означает, что мы будем принимать
05:37
which are more objective.
131
337892
1706
более объективные решения.
05:39
In another experiment, we presented to our subjects
132
339598
2560
В другом эксперименте, мы представляли нашим испытуемым
05:42
information about a potential job candidate.
133
342158
2246
информацию о потенциальном соискателе работы.
05:44
We included in this information some references
134
344404
3178
Мы включали в эту информацию некоторые ссылки
05:47
to some funny, absolutely legal,
135
347582
2646
на кое-какую забавную, абсолютно легальную,
05:50
but perhaps slightly embarrassing information
136
350228
2465
но, пожалуй, слегка неловкую информацию,
05:52
that the subject had posted online.
137
352693
2020
которую этот человек разместил о себе в сети.
05:54
Now interestingly, among our subjects,
138
354713
2366
Интересно то, что среди наших испытуемых
05:57
some had posted comparable information,
139
357079
3083
кто-то разместил о себе сопоставимую информацию,
06:00
and some had not.
140
360162
2362
а кто-то нет.
06:02
Which group do you think
141
362524
1949
Как вы думаете, какая из групп
06:04
was more likely to judge harshly our subject?
142
364473
4552
получила более строгое осуждение?
06:09
Paradoxically, it was the group
143
369025
1957
Парадоксально, но это была группа,
06:10
who had posted similar information,
144
370982
1733
которая предоставляла сходную информацию, —
06:12
an example of moral dissonance.
145
372715
2942
пример морального диссонанса.
06:15
Now you may be thinking,
146
375657
1750
Теперь вы, может быть, думаете,
06:17
this does not apply to me,
147
377407
1702
что к вам это не применимо,
06:19
because I have nothing to hide.
148
379109
2162
потому что вам нечего скрывать.
06:21
But in fact, privacy is not about
149
381271
2482
Но ведь на самом деле, частная жизнь —
06:23
having something negative to hide.
150
383753
3676
это не наличие чего-либо негативного, что нужно скрывать.
06:27
Imagine that you are the H.R. director
151
387429
2354
Представим, что вы директор по кадрам
06:29
of a certain organization, and you receive résumés,
152
389783
2947
некой организации, и вы получаете резюме
06:32
and you decide to find more information about the candidates.
153
392730
2473
и хотите узнать больше об этих кандидатах.
06:35
Therefore, you Google their names
154
395203
2460
Поэтому вы ищете их имена через Google
06:37
and in a certain universe,
155
397663
2240
и в каком-то месте
06:39
you find this information.
156
399903
2008
вы найдёте эту информацию.
06:41
Or in a parallel universe, you find this information.
157
401911
4437
Или в другом месте вы обнаружите другую информацию.
06:46
Do you think that you would be equally likely
158
406348
2717
Вы думаете, что вы равно вероятно
06:49
to call either candidate for an interview?
159
409065
2803
вызовете каждого из кандидатов на собеседование?
06:51
If you think so, then you are not
160
411868
2282
Если вы так думаете, то вы не похожи
06:54
like the U.S. employers who are, in fact,
161
414150
2582
на тех работодателей США, которые фактически
06:56
part of our experiment, meaning we did exactly that.
162
416732
3307
стали частью нашего эксперимента, а именно мы сделали вот что.
07:00
We created Facebook profiles, manipulating traits,
163
420039
3182
Мы создали страницы на Facebook, изменив характерные черты,
07:03
then we started sending out résumés to companies in the U.S.,
164
423221
2851
и начали рассылать резюме в компании США,
07:06
and we detected, we monitored,
165
426072
1908
и мы следили, наблюдали,
07:07
whether they were searching for our candidates,
166
427980
2393
будут ли они искать наших кандидатов,
07:10
and whether they were acting on the information
167
430373
1832
и воспользуются ли они информацией
07:12
they found on social media. And they were.
168
432205
1938
найденной в соцсетях. И они делали это.
07:14
Discrimination was happening through social media
169
434143
2101
Через социальные сети произошла дискриминация
07:16
for equally skilled candidates.
170
436244
3073
кандидатов с одинаковыми навыками.
07:19
Now marketers like us to believe
171
439317
4575
Маркетологи убеждают нас в том,
07:23
that all information about us will always
172
443892
2269
что вся информация о нас всегда
07:26
be used in a manner which is in our favor.
173
446161
3273
используется только в наших интересах.
07:29
But think again. Why should that be always the case?
174
449434
3715
Но задумаемся вновь. Почему это всегда должно быть так?
07:33
In a movie which came out a few years ago,
175
453149
2664
В фильме «Особое мнение», который вышел в прокат
07:35
"Minority Report," a famous scene
176
455813
2553
несколько лет назад, была знаменитая сцена,
07:38
had Tom Cruise walk in a mall
177
458366
2576
в которой Том Круз идёт по торговому центру
07:40
and holographic personalized advertising
178
460942
3776
и голографическая персонализированная реклама
07:44
would appear around him.
179
464718
1835
возникает вокруг него.
07:46
Now, that movie is set in 2054,
180
466553
3227
Действия фильма происходят в 2054 году,
07:49
about 40 years from now,
181
469780
1642
спустя 40 лет,
07:51
and as exciting as that technology looks,
182
471422
2908
но как бы захватывающе не выглядела та технология,
07:54
it already vastly underestimates
183
474330
2646
она уже существенно недооценивает
07:56
the amount of information that organizations
184
476976
2140
то количество информации, которую организации
07:59
can gather about you, and how they can use it
185
479116
2483
могут собирать о нас, и как они могут её использовать,
08:01
to influence you in a way that you will not even detect.
186
481599
3398
чтобы влиять на нас способом, который мы даже не замечаем.
08:04
So as an example, this is another experiment
187
484997
2103
Как пример — ещё один эксперимент,
08:07
actually we are running, not yet completed.
188
487100
2273
который мы уже запустили, но ещё не завершили.
08:09
Imagine that an organization has access
189
489373
2319
Представим, что организация имеет доступ
08:11
to your list of Facebook friends,
190
491692
2056
к списку ваших друзей на Facebook,
08:13
and through some kind of algorithm
191
493748
1772
и, через особого рода алгоритм,
08:15
they can detect the two friends that you like the most.
192
495520
3734
они могут выделить двух друзей, наиболее вам симпатичных.
08:19
And then they create, in real time,
193
499254
2280
И потом они создают в реальном времени,
08:21
a facial composite of these two friends.
194
501534
2842
фоторобот из лиц этих двух друзей.
08:24
Now studies prior to ours have shown that people
195
504376
3069
Исследования, проведённые до нас, показали, что люди уже
08:27
don't recognize any longer even themselves
196
507445
2885
не узнают даже самих себя
08:30
in facial composites, but they react
197
510330
2462
по фотороботу, но они реагируют
08:32
to those composites in a positive manner.
198
512792
2117
на такие составные изображения позитивно.
08:34
So next time you are looking for a certain product,
199
514909
3415
В следующий раз, когда вы будете искать определённый товар,
08:38
and there is an ad suggesting you to buy it,
200
518324
2559
появится объявление с предложением купить его,
08:40
it will not be just a standard spokesperson.
201
520883
2907
и это будет не просто персонаж рекламы.
08:43
It will be one of your friends,
202
523790
2313
Это будет один из ваших друзей,
08:46
and you will not even know that this is happening.
203
526103
3303
а вы даже не узнаете, что это случилось.
08:49
Now the problem is that
204
529406
2413
Проблема сейчас в том,
08:51
the current policy mechanisms we have
205
531819
2519
что существующие правила, которыми мы располагаем
08:54
to protect ourselves from the abuses of personal information
206
534338
3438
для защиты себя от злоупотреблений личными данными,
08:57
are like bringing a knife to a gunfight.
207
537776
2984
напоминают то, когда для перестрелки приносят нож.
09:00
One of these mechanisms is transparency,
208
540760
2913
Один из таких механизмов — это прозрачность,
09:03
telling people what you are going to do with their data.
209
543673
3200
объяснение людям того, что собираются делать с их данными.
09:06
And in principle, that's a very good thing.
210
546873
2106
И в принципе, это очень хорошая вещь.
09:08
It's necessary, but it is not sufficient.
211
548979
3667
Это необходимо, но не достаточно.
09:12
Transparency can be misdirected.
212
552646
3698
Прозрачность может быть притворной.
09:16
You can tell people what you are going to do,
213
556344
2104
Вы можете рассказывать людям, что вы собираетесь делать,
09:18
and then you still nudge them to disclose
214
558448
2232
а после всё равно вынудить их раскрыть
09:20
arbitrary amounts of personal information.
215
560680
2623
какое-то количество их персональных данных
09:23
So in yet another experiment, this one with students,
216
563303
2886
Так в ещё одном эксперименте с участием студентов
09:26
we asked them to provide information
217
566189
3058
мы просили их предоставить информацию
09:29
about their campus behavior,
218
569247
1813
о их поведении в учебном заведении,
09:31
including pretty sensitive questions, such as this one.
219
571060
2940
включая довольно деликатные вопросы, такие как:
09:34
[Have you ever cheated in an exam?]
220
574000
621
09:34
Now to one group of subjects, we told them,
221
574621
2300
[Вы когда-нибудь списывали на экзаменах?]
Одной группе испытуемых было сказано:
09:36
"Only other students will see your answers."
222
576921
2841
«Только остальные студенты будут видеть ваши ответы».
09:39
To another group of subjects, we told them,
223
579762
1579
Другой группе студентов мы сказали:
09:41
"Students and faculty will see your answers."
224
581341
3561
«Студенты и преподаватели будут видеть ваши ответы».
09:44
Transparency. Notification. And sure enough, this worked,
225
584902
2591
Прозрачность. Уведомление. И, конечно, это сработало,
09:47
in the sense that the first group of subjects
226
587493
1407
в том смысле, что первая группа студентов
09:48
were much more likely to disclose than the second.
227
588900
2568
гораздо более охотно признавалась, чем вторая.
09:51
It makes sense, right?
228
591468
1520
Это логично, верно?
09:52
But then we added the misdirection.
229
592988
1490
А потом мы добавили уловку.
09:54
We repeated the experiment with the same two groups,
230
594478
2760
Мы повторили эксперимент с теми же двумя группами,
09:57
this time adding a delay
231
597238
2427
добавив в этот раз задержку
09:59
between the time we told subjects
232
599665
2935
между тем моментом, когда мы сказали ребятам,
10:02
how we would use their data
233
602600
2080
как мы будем использовать их данные,
10:04
and the time we actually started answering the questions.
234
604680
4388
и моментом времени, когда они начали действительно отвечать на вопросы.
10:09
How long a delay do you think we had to add
235
609068
2561
Как вы думаете, насколько продолжительную задержку мы добавили,
10:11
in order to nullify the inhibitory effect
236
611629
4613
чтобы свести на нет тормозящее действие
10:16
of knowing that faculty would see your answers?
237
616242
3411
того факта, что преподаватели будут видеть их ответы?
10:19
Ten minutes?
238
619653
1780
10 минут?
10:21
Five minutes?
239
621433
1791
5 минут?
10:23
One minute?
240
623224
1776
Одна минута?
10:25
How about 15 seconds?
241
625000
2049
Как насчёт 15 секунд?
10:27
Fifteen seconds were sufficient to have the two groups
242
627049
2668
Пятнадцать секунд было достаточно для того,
10:29
disclose the same amount of information,
243
629717
1568
чтобы две группы раскрыли одинаковое количество информации,
10:31
as if the second group now no longer cares
244
631285
2746
и вторая группа больше не беспокоилась о том,
10:34
for faculty reading their answers.
245
634031
2656
что преподаватели читают их ответы.
10:36
Now I have to admit that this talk so far
246
636687
3336
Сейчас я могу допустить, что этот разговор до сих пор
10:40
may sound exceedingly gloomy,
247
640023
2480
может показаться излишне мрачным,
10:42
but that is not my point.
248
642503
1721
но я не это хочу сказать.
10:44
In fact, I want to share with you the fact that
249
644224
2699
В действительности, я хочу поделиться с вами тем фактом,
10:46
there are alternatives.
250
646923
1772
что альтернативы существуют.
10:48
The way we are doing things now is not the only way
251
648695
2499
То, как мы ведём дела сейчас — не единственный путь
10:51
they can done, and certainly not the best way
252
651194
3037
и совершенно точно не самый лучший
10:54
they can be done.
253
654231
2027
из возможных.
10:56
When someone tells you, "People don't care about privacy,"
254
656258
4171
Когда кто-либо говорит вам: «Люди не заботятся о тайне частной жизни», —
11:00
consider whether the game has been designed
255
660429
2642
примите во внимание, что игра разработана
11:03
and rigged so that they cannot care about privacy,
256
663071
2724
и инсценирована так, что они не могут заботиться о тайне частной жизни;
11:05
and coming to the realization that these manipulations occur
257
665795
3262
и приходя к осознанию того, что эти манипуляции происходят,
11:09
is already halfway through the process
258
669057
1607
вы уже на полпути к тому,
11:10
of being able to protect yourself.
259
670664
2258
чтобы суметь защитить себя самим.
11:12
When someone tells you that privacy is incompatible
260
672922
3710
Когда кто-то говорит вам, что тайна частной жизни несовместима
11:16
with the benefits of big data,
261
676632
1849
с преимуществами «больших данных»,
11:18
consider that in the last 20 years,
262
678481
2473
примите во внимание, что за последние 20 лет,
11:20
researchers have created technologies
263
680954
1917
исследователи создали технологии,
11:22
to allow virtually any electronic transactions
264
682871
3318
позволяющие практически любую электронную покупку
11:26
to take place in a more privacy-preserving manner.
265
686189
3749
производить более безопасным образом.
11:29
We can browse the Internet anonymously.
266
689938
2555
Мы можем анонимно искать информацию в интернете.
11:32
We can send emails that can only be read
267
692493
2678
Мы можем посылать электронные письма, которые могут быть прочитаны
11:35
by the intended recipient, not even the NSA.
268
695171
3709
только получателем, а не Управлением национальной безопасности.
11:38
We can have even privacy-preserving data mining.
269
698880
2997
Можно даже вести интеллектуальный анализ данных сохраняя конфиденциальность.
11:41
In other words, we can have the benefits of big data
270
701877
3894
Другими словами, мы можем пользоваться преимуществом «больших данных»
11:45
while protecting privacy.
271
705771
2132
сохраняя конфиденциальность частной жизни.
11:47
Of course, these technologies imply a shifting
272
707903
3791
Конечно, эти технологии подразумевают перераспределение
11:51
of cost and revenues
273
711694
1546
стоимости и доходов
11:53
between data holders and data subjects,
274
713240
2107
между владельцами и субъектами данных,
11:55
which is why, perhaps, you don't hear more about them.
275
715347
3453
именно поэтому, возможно, вы мало знаете о них.
11:58
Which brings me back to the Garden of Eden.
276
718800
3706
Это возвращает меня к саду Эдема.
12:02
There is a second privacy interpretation
277
722506
2780
Существует второе толкование частной жизни
12:05
of the story of the Garden of Eden
278
725286
1809
в истории Эдемского сада,
12:07
which doesn't have to do with the issue
279
727095
2096
которая не имеет отношения к вопросу о том,
12:09
of Adam and Eve feeling naked
280
729191
2225
как Адам и Ева ощутили себя голыми
12:11
and feeling ashamed.
281
731416
2381
и испытали стыд за это.
12:13
You can find echoes of this interpretation
282
733797
2781
Вы можете найти отголоски этой трактовки
12:16
in John Milton's "Paradise Lost."
283
736578
2782
в книге Джона Милтона «Потерянный рай».
12:19
In the garden, Adam and Eve are materially content.
284
739360
4197
В этом саду Адам и Ева удовлетворены материально.
12:23
They're happy. They are satisfied.
285
743557
2104
Они счастливы. Они довольны.
12:25
However, they also lack knowledge
286
745661
2293
Однако, им также не хватает знаний
12:27
and self-awareness.
287
747954
1640
и самосознания.
12:29
The moment they eat the aptly named
288
749594
3319
Момент, когда они вкусили яблоко, — называемое, кстати,
12:32
fruit of knowledge,
289
752913
1293
плодом познания, —
12:34
that's when they discover themselves.
290
754206
2605
это момент, когда они открывают сами себя.
12:36
They become aware. They achieve autonomy.
291
756811
4031
Они начинают осознавать. Они получают независимость.
12:40
The price to pay, however, is leaving the garden.
292
760842
3126
Однако приходится платить уходом из сада.
12:43
So privacy, in a way, is both the means
293
763968
3881
Так и тайна частной жизни, в некотором роде и возможность
12:47
and the price to pay for freedom.
294
767849
2962
и цена, которую нужно платить за свободу.
12:50
Again, marketers tell us
295
770811
2770
И вновь маркетологи говорят нам,
12:53
that big data and social media
296
773581
3019
что «большие данные» и социальные сети —
12:56
are not just a paradise of profit for them,
297
776600
2979
это не только их райская прибыль,
12:59
but a Garden of Eden for the rest of us.
298
779579
2457
но и Эдемский сад для всех остальных.
13:02
We get free content.
299
782036
1238
Мы получаем бесплатный контент.
13:03
We get to play Angry Birds. We get targeted apps.
300
783274
3123
Мы получаем игру в Angry Birds. Мы получаем целевые приложения.
13:06
But in fact, in a few years, organizations
301
786397
2897
Но через несколько лет организации
13:09
will know so much about us,
302
789294
1609
будут знать о нас так много,
13:10
they will be able to infer our desires
303
790903
2710
что они будут в состоянии делать выводы о наших желаниях
13:13
before we even form them, and perhaps
304
793613
2204
ещё до того, как мы их сформировали и, возможно,
13:15
buy products on our behalf
305
795817
2447
покупать продукты от нашего имени
13:18
before we even know we need them.
306
798264
2274
ещё до того, как мы узнаем, что нуждаемся в них.
13:20
Now there was one English author
307
800538
3237
Был один английский писатель,
13:23
who anticipated this kind of future
308
803775
3045
который предвидел такое будущее,
13:26
where we would trade away
309
806820
1405
где мы будем разменивать
13:28
our autonomy and freedom for comfort.
310
808225
3548
нашу независимость и свободу на комфорт.
13:31
Even more so than George Orwell,
311
811773
2161
В большей мере, чем Джордж Оруэлл,
13:33
the author is, of course, Aldous Huxley.
312
813934
2761
таким автором был, конечно, Олдос Хаксли.
13:36
In "Brave New World," he imagines a society
313
816695
2854
В своём романе «О дивный новый мир» он придумал мир,
13:39
where technologies that we created
314
819549
2171
в котором технологии, созданные нами
13:41
originally for freedom
315
821720
1859
первоначально для свободы,
13:43
end up coercing us.
316
823579
2567
в конечном итоге поработили нас.
13:46
However, in the book, he also offers us a way out
317
826146
4791
Однако в своей книге, он также предлагает и выход
13:50
of that society, similar to the path
318
830937
3438
для того общества, схожий с путём,
13:54
that Adam and Eve had to follow to leave the garden.
319
834375
3955
которым последовали Адам и Ева покинув сад.
13:58
In the words of the Savage,
320
838330
2147
Словами Дикаря [Джона],
14:00
regaining autonomy and freedom is possible,
321
840477
3069
вернуть независимость и свободу возможно,
14:03
although the price to pay is steep.
322
843546
2679
хотя и цена этого непомерно высока.
14:06
So I do believe that one of the defining fights
323
846225
5715
Я действительно верю, что одной из предстоящих битв
14:11
of our times will be the fight
324
851940
2563
нашего времени станет битва
14:14
for the control over personal information,
325
854503
2387
за контроль над персональными данными,
14:16
the fight over whether big data will become a force
326
856890
3507
битва за то, станут ли «большие данные»
14:20
for freedom,
327
860397
1289
силами свободы,
14:21
rather than a force which will hiddenly manipulate us.
328
861686
4746
или же силами, которые будут скрыто нами манипулировать.
14:26
Right now, many of us
329
866432
2593
Прямо сейчас многие из нас
14:29
do not even know that the fight is going on,
330
869025
2753
даже не подозревают, что эта битва уже идёт,
14:31
but it is, whether you like it or not.
331
871778
2672
и это так, нравится ли вам это или нет.
14:34
And at the risk of playing the serpent,
332
874450
2804
И, рискуя показаться змеем,
14:37
I will tell you that the tools for the fight
333
877254
2897
я скажу вам, что средства для этой битвы здесь,
14:40
are here, the awareness of what is going on,
334
880151
3009
в понимании того, что происходит,
14:43
and in your hands,
335
883160
1355
и [это средство] в ваших руках,
14:44
just a few clicks away.
336
884515
3740
всего лишь в нескольких кликах.
14:48
Thank you.
337
888255
1482
Спасибо!
14:49
(Applause)
338
889737
4477
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7