What will a future without secrets look like? | Alessandro Acquisti

202,332 views ・ 2013-10-18

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: Preslav Nikolov Reviewer: Yavor Ivanov
00:12
I would like to tell you a story
0
12641
2354
Бих искал да ви разкажа история
00:14
connecting the notorious privacy incident
1
14995
3176
за всеизвестния инцидент за поверителността
00:18
involving Adam and Eve,
2
18171
2769
при Адам и Ева
00:20
and the remarkable shift in the boundaries
3
20940
3446
и невероятната промяна на границата
00:24
between public and private which has occurred
4
24386
2686
между публичното и личното, настъпила
00:27
in the past 10 years.
5
27072
1770
през последните 10 години.
00:28
You know the incident.
6
28842
1298
Случката ви е позната.
00:30
Adam and Eve one day in the Garden of Eden
7
30140
3330
Един ден в Райската градина
00:33
realize they are naked.
8
33470
1843
Адам и Ева осъзнали, че са голи.
00:35
They freak out.
9
35313
1500
И откачили.
00:36
And the rest is history.
10
36813
2757
Останалото е история.
00:39
Nowadays, Adam and Eve
11
39570
2188
В днешно време
00:41
would probably act differently.
12
41758
2361
Адам и Ева сигурно ще реагират различно.
00:44
[@Adam Last nite was a blast! loved dat apple LOL]
13
44119
2268
[@Адам, снощи беше невероятно! Влюбих се в тази ябълка LOL]
00:46
[@Eve yep.. babe, know what happened to my pants tho?]
14
46387
1873
[@Ева, да.. скъпа, да знаеш какво е станало с гащите ми?]
00:48
We do reveal so much more information
15
48260
2636
Разкриваме много повече информация
00:50
about ourselves online than ever before,
16
50896
3334
за себе си онлайн от когато и да било
00:54
and so much information about us
17
54230
1704
и много повече информация за нас самите
00:55
is being collected by organizations.
18
55934
2224
се събира от различни организации.
00:58
Now there is much to gain and benefit
19
58158
3282
В днешно време могат да се извлекат много ползи
01:01
from this massive analysis of personal information,
20
61440
2446
от непрестанния анализ на лична информация,
01:03
or big data,
21
63886
1946
значима информация,
01:05
but there are also complex tradeoffs that come
22
65832
2638
но има и големи компромиси, които правим
01:08
from giving away our privacy.
23
68470
3098
когато се отказваме от своето лично пространство.
01:11
And my story is about these tradeoffs.
24
71568
4023
Моята история е за тези компромиси.
01:15
We start with an observation which, in my mind,
25
75591
2584
Започваме с наблюдението, което, според мен,
01:18
has become clearer and clearer in the past few years,
26
78175
3327
става все по-ясно и по-ясно през последните няколко години,
01:21
that any personal information
27
81502
2097
а именно че личната информация
01:23
can become sensitive information.
28
83599
2285
можа да е важна информация.
01:25
Back in the year 2000, about 100 billion photos
29
85884
4125
През 2000 година за били направени около 100 милиарда снимки
01:30
were shot worldwide,
30
90009
1912
по целия свят,
01:31
but only a minuscule proportion of them
31
91921
3065
но много малка част от тях
01:34
were actually uploaded online.
32
94986
1883
са били качени онлайн.
01:36
In 2010, only on Facebook, in a single month,
33
96869
3361
През 2010г., само във Facebook, само за един месец,
01:40
2.5 billion photos were uploaded,
34
100230
3270
са били качени повече от 2,5 милиарда снимки,
01:43
most of them identified.
35
103500
1882
повечето от тях с ясна идентификация.
01:45
In the same span of time,
36
105382
1880
За същия период от време
01:47
computers' ability to recognize people in photos
37
107262
4870
възможностите на компютрите да разпознават хора на снимки
01:52
improved by three orders of magnitude.
38
112132
3608
се е подобрила цели три пъти.
01:55
What happens when you combine
39
115740
1882
Какво се случва
01:57
these technologies together:
40
117622
1501
когато комбинирате следните технологии:
01:59
increasing availability of facial data;
41
119123
2658
по-лесен достъп до идентифициращи данни;
02:01
improving facial recognizing ability by computers;
42
121781
3648
подобрена способност на компютрите за разпознаване на лица;
02:05
but also cloud computing,
43
125429
2182
също това клауд компютинг,
02:07
which gives anyone in this theater
44
127611
1888
който дава на всеки в тази зала
02:09
the kind of computational power
45
129499
1560
такива изчислителни способности,
02:11
which a few years ago was only the domain
46
131059
1886
каквито преди няколко години са били достъпни
02:12
of three-letter agencies;
47
132945
1782
само на трибуквени агенции;
02:14
and ubiquitous computing,
48
134727
1378
както и повсеместен компютинг,
02:16
which allows my phone, which is not a supercomputer,
49
136105
2892
който позволява на телефона ми, който не е суперкомпютър,
02:18
to connect to the Internet
50
138997
1671
да се свърже с Интернет
02:20
and do there hundreds of thousands
51
140668
2334
и да извърши стотици хиляди
02:23
of face metrics in a few seconds?
52
143002
2639
лицеви анализи за секунди?
02:25
Well, we conjecture that the result
53
145641
2628
Според нас резултатът
02:28
of this combination of technologies
54
148269
2064
от това комбиниране на технологии
02:30
will be a radical change in our very notions
55
150333
2888
ще доведе до радикална промяна
02:33
of privacy and anonymity.
56
153221
2257
в разбиранията ни за лично пространство и анонимност.
02:35
To test that, we did an experiment
57
155478
1993
За да тестваме хипотезата си проведохме експеримент
02:37
on Carnegie Mellon University campus.
58
157471
2121
в университета „Карнеги Мелън“.
02:39
We asked students who were walking by
59
159592
2099
Поканихме преминаващи покрай нас студенти
02:41
to participate in a study,
60
161691
1779
да вземат участие в изследване,
02:43
and we took a shot with a webcam,
61
163470
2562
след което ги снимахме с уебкамера
02:46
and we asked them to fill out a survey on a laptop.
62
166032
2782
и ги помолихме да попълнят анкета на лаптоп.
02:48
While they were filling out the survey,
63
168814
1979
Докато попълваха анкетата
02:50
we uploaded their shot to a cloud-computing cluster,
64
170793
2797
ние качихме снимката им в клауд компютинг клъстър
02:53
and we started using a facial recognizer
65
173590
1727
и използвайки програма за лицево разпознаване
02:55
to match that shot to a database
66
175317
2405
започнахме да сравняваме снимката с база данни,
02:57
of some hundreds of thousands of images
67
177722
2393
включваща няколко стотин хиляди образа
03:00
which we had downloaded from Facebook profiles.
68
180115
3596
свалени предварително от Facebook.
03:03
By the time the subject reached the last page
69
183711
3259
За времето, за което субектите стигаха до последната страница на анкетата,
03:06
on the survey, the page had been dynamically updated
70
186970
3347
тя вече беше обновена
03:10
with the 10 best matching photos
71
190317
2313
с десетте най-близки съвпадения на снимки,
03:12
which the recognizer had found,
72
192630
2285
които програмата за разпознаване бе открила
03:14
and we asked the subjects to indicate
73
194915
1738
и помолихме субектите да споделят
03:16
whether he or she found themselves in the photo.
74
196653
4120
дали виждат себе си на снимките.
03:20
Do you see the subject?
75
200773
3699
Виждате ли субекта?
03:24
Well, the computer did, and in fact did so
76
204472
2845
Компютърът го разпознаваше и то правилно
03:27
for one out of three subjects.
77
207317
2149
за един от трима участници.
03:29
So essentially, we can start from an anonymous face,
78
209466
3184
На кратко, можем да започнем със снимка на анонимно лице,
03:32
offline or online, and we can use facial recognition
79
212650
3484
онлайн или не, и да използваме лицево разпознаване,
03:36
to give a name to that anonymous face
80
216134
2360
за да сложим име на лицето,
03:38
thanks to social media data.
81
218494
2108
благодарение на данни от социалните медии.
03:40
But a few years back, we did something else.
82
220602
1872
Няколко години по-рано обаче направихме нещо различно.
03:42
We started from social media data,
83
222474
1823
Започнахме с данни от социалните медии,
03:44
we combined it statistically with data
84
224297
3051
свързахме ги статистически с данни
03:47
from U.S. government social security,
85
227348
2102
от Управлението за социално осигуряване на САЩ
03:49
and we ended up predicting social security numbers,
86
229450
3324
и успяхме да предвидим Номера за социално осигуряване,
03:52
which in the United States
87
232774
1512
коeто в САЩ
03:54
are extremely sensitive information.
88
234286
2040
e изключително поверителна информация.
03:56
Do you see where I'm going with this?
89
236326
2093
Разбирате ли накъде отивам с това?
03:58
So if you combine the two studies together,
90
238419
2922
Ако комбинирате двете изследвания
04:01
then the question becomes,
91
241341
1512
въпросът, който се питаме, е
04:02
can you start from a face and,
92
242853
2720
дали може да се започне с лицето,
04:05
using facial recognition, find a name
93
245573
2311
използвайки лицево разпознаване да се намери име
04:07
and publicly available information
94
247884
2669
и публично достъпна информация
04:10
about that name and that person,
95
250553
1932
за името и самия човек
04:12
and from that publicly available information
96
252485
2248
и от тази публично достъпна информация
04:14
infer non-publicly available information,
97
254733
2042
да се направи извод за информация, която не е със свободен достъп,
04:16
much more sensitive ones
98
256775
1606
много по-значима информация,
04:18
which you link back to the face?
99
258381
1492
която да се свърже обратно с лицето?
04:19
And the answer is, yes, we can, and we did.
100
259873
1916
И отговорът е да, можем да го направим.
04:21
Of course, the accuracy keeps getting worse.
101
261789
2568
Разбира се точността става все по-лоша.
04:24
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
102
264357
944
[В 27% от случаите първите 5 цифри на Номера за социално осигуряване са разпознати (от 4 опита)]
04:25
But in fact, we even decided to develop an iPhone app
103
265301
3827
Всъщност, дори разработихме и апликация за iPhone,
04:29
which uses the phone's internal camera
104
269128
2715
която използва вградената камера на телефона,
04:31
to take a shot of a subject
105
271843
1600
за да направи снимка на субекта,
04:33
and then upload it to a cloud
106
273443
1487
да я качи в информационен облак
04:34
and then do what I just described to you in real time:
107
274930
2662
и да извърши това, което току-що обясних:
04:37
looking for a match, finding public information,
108
277592
2088
търси съвпадение, намира публично достъпна информация,
04:39
trying to infer sensitive information,
109
279680
1730
прави опит за извеждане на поверителна информация,
04:41
and then sending back to the phone
110
281410
2591
след което я изпраща обратно до телефона,
04:44
so that it is overlaid on the face of the subject,
111
284001
3609
който я налага върху лицето на субекта,
04:47
an example of augmented reality,
112
287610
1901
пример за добавена реалност,
04:49
probably a creepy example of augmented reality.
113
289511
2451
вероятно зловещ пример за такава.
04:51
In fact, we didn't develop the app to make it available,
114
291962
3339
Реално не създадохме апликацията, за да я предоставим на потребители,
04:55
just as a proof of concept.
115
295301
1922
а само като доказване на концепция.
04:57
In fact, take these technologies
116
297223
2313
Замислете се, вземете тези технологии
04:59
and push them to their logical extreme.
117
299536
1837
и ги доведете до екстремност.
05:01
Imagine a future in which strangers around you
118
301373
2719
Представете си бъдеще, в което непознати
05:04
will look at you through their Google Glasses
119
304092
2311
ви гледат през Гугъл очила
05:06
or, one day, their contact lenses,
120
306403
2307
или, някой ден, контактните си лещи
05:08
and use seven or eight data points about you
121
308710
4020
и използват седем или осем факта за вас
05:12
to infer anything else
122
312730
2582
и правят извод за всичко останало,
05:15
which may be known about you.
123
315312
2603
което може да се знае за вас.
05:17
What will this future without secrets look like?
124
317915
4794
Как ще изглежда такова бъдеще без тайни?
05:22
And should we care?
125
322709
1964
И трябва ли да ни интересува?
05:24
We may like to believe
126
324673
1891
Бихме искали да вярваме,
05:26
that the future with so much wealth of data
127
326564
3040
че бъдеще с такова изобилие от данни
05:29
would be a future with no more biases,
128
329604
2514
ще е бъдеще без предразсъдъци,
05:32
but in fact, having so much information
129
332118
3583
но всъщност достъпът до толкова много информация
05:35
doesn't mean that we will make decisions
130
335701
2191
не означава, че ще взимаме
05:37
which are more objective.
131
337892
1706
по-обективни решения.
05:39
In another experiment, we presented to our subjects
132
339598
2560
В друг експеримент представихме на субектите си информация
05:42
information about a potential job candidate.
133
342158
2246
за потенциален кандидат за работа.
05:44
We included in this information some references
134
344404
3178
В предоставената информация имаше и препратки
05:47
to some funny, absolutely legal,
135
347582
2646
към забавна, напълно законна,
05:50
but perhaps slightly embarrassing information
136
350228
2465
но може би малко засрамваща информация,
05:52
that the subject had posted online.
137
352693
2020
която кандидатите бяха публикували онлайн.
05:54
Now interestingly, among our subjects,
138
354713
2366
Интересното е, че сред нашите субекти имаше такива,
05:57
some had posted comparable information,
139
357079
3083
които бяха публикували сходна информация,
06:00
and some had not.
140
360162
2362
и такива, които не бяха.
06:02
Which group do you think
141
362524
1949
Коя група според вас
06:04
was more likely to judge harshly our subject?
142
364473
4552
бе по-критична към кандидата за работа?
06:09
Paradoxically, it was the group
143
369025
1957
Парадоксално, това бе групата,
06:10
who had posted similar information,
144
370982
1733
в която хората бяха публикували сходна информация,
06:12
an example of moral dissonance.
145
372715
2942
пример за морално несъответствие.
06:15
Now you may be thinking,
146
375657
1750
Може би си мислите
06:17
this does not apply to me,
147
377407
1702
"Това не се отнася до мен,
06:19
because I have nothing to hide.
148
379109
2162
защото нямам какво да крия".
06:21
But in fact, privacy is not about
149
381271
2482
Фактите са, че при поверителността
06:23
having something negative to hide.
150
383753
3676
не е задължително да криете нещо лошо.
06:27
Imagine that you are the H.R. director
151
387429
2354
Представете си, че сте на чело на отдел човешки ресурси
06:29
of a certain organization, and you receive résumés,
152
389783
2947
в дадена организация и получавате резюмета,
06:32
and you decide to find more information about the candidates.
153
392730
2473
и решавате да потърсите по-подробна информация за кандидатите.
06:35
Therefore, you Google their names
154
395203
2460
Следователно търсите имената им в Гугъл
06:37
and in a certain universe,
155
397663
2240
и в една реалност
06:39
you find this information.
156
399903
2008
откривате тази информация.
06:41
Or in a parallel universe, you find this information.
157
401911
4437
А в друга реалност откривате тази информация.
06:46
Do you think that you would be equally likely
158
406348
2717
Мислите ли, че ще бъдете еднакво склонен
06:49
to call either candidate for an interview?
159
409065
2803
да се обадите на някоя от кандидатките за интервю?
06:51
If you think so, then you are not
160
411868
2282
Ако мислите така, значи сте различни
06:54
like the U.S. employers who are, in fact,
161
414150
2582
от американските работодатели, които са, всъщност,
06:56
part of our experiment, meaning we did exactly that.
162
416732
3307
част от нашия експеримент, т.е. направихме точно това.
07:00
We created Facebook profiles, manipulating traits,
163
420039
3182
Създадохме профили във Facebook, изменяйки дадени характеристики,
07:03
then we started sending out résumés to companies in the U.S.,
164
423221
2851
след което започнахме да изпращаме резюмета до работодатели в САЩ
07:06
and we detected, we monitored,
165
426072
1908
и следяхме
07:07
whether they were searching for our candidates,
166
427980
2393
дали търсят кандидатите ни
07:10
and whether they were acting on the information
167
430373
1832
и дали взимаха под внимание информацията,
07:12
they found on social media. And they were.
168
432205
1938
намерена в социалните медии. Правеха точно това.
07:14
Discrimination was happening through social media
169
434143
2101
Кандидати с еднакви способности бяха дискриминирани
07:16
for equally skilled candidates.
170
436244
3073
на база социални медии.
07:19
Now marketers like us to believe
171
439317
4575
Маркетолозите искат да вярваме,
07:23
that all information about us will always
172
443892
2269
че всяка информация за нас
07:26
be used in a manner which is in our favor.
173
446161
3273
винаги ще се използва в наша полза.
07:29
But think again. Why should that be always the case?
174
449434
3715
Помислете отново. Защо мислите, че винаги ще е така?
07:33
In a movie which came out a few years ago,
175
453149
2664
Във филм отпреди няколко години,
07:35
"Minority Report," a famous scene
176
455813
2553
"Специален доклад", в известна сцена
07:38
had Tom Cruise walk in a mall
177
458366
2576
Том Круз влиза в мол
07:40
and holographic personalized advertising
178
460942
3776
и персонализирани холограмни реклами
07:44
would appear around him.
179
464718
1835
се появяват около него.
07:46
Now, that movie is set in 2054,
180
466553
3227
Действието се случва през 2054г.,
07:49
about 40 years from now,
181
469780
1642
след около 40 години,
07:51
and as exciting as that technology looks,
182
471422
2908
и колкото и вълнуваща да изглежда тази технология
07:54
it already vastly underestimates
183
474330
2646
тя вече подценява
07:56
the amount of information that organizations
184
476976
2140
количеството информация, което организациите
07:59
can gather about you, and how they can use it
185
479116
2483
могат да съберат за вас, и как могат да я използват,
08:01
to influence you in a way that you will not even detect.
186
481599
3398
за да ви повлияят по начин, който дори няма да осъзнаете.
08:04
So as an example, this is another experiment
187
484997
2103
Като пример ще ви дам друг експеримент,
08:07
actually we are running, not yet completed.
188
487100
2273
който провеждаме, все още незавършен.
08:09
Imagine that an organization has access
189
489373
2319
Представете си, че някоя организация има достъп
08:11
to your list of Facebook friends,
190
491692
2056
до списъка ви с приятели във Facebook
08:13
and through some kind of algorithm
191
493748
1772
и използвайки някакъв алгоритъм
08:15
they can detect the two friends that you like the most.
192
495520
3734
може да открие двамата приятели, които харесвате най-много.
08:19
And then they create, in real time,
193
499254
2280
Също така може, в реално време, да направят
08:21
a facial composite of these two friends.
194
501534
2842
нереално съчетание от тези двама приятели.
08:24
Now studies prior to ours have shown that people
195
504376
3069
Проведени изследвания преди нашето са показали,
08:27
don't recognize any longer even themselves
196
507445
2885
че хората не разпознават дори себе си
08:30
in facial composites, but they react
197
510330
2462
в лицеви компилации, но реагират
08:32
to those composites in a positive manner.
198
512792
2117
на компилациите по положителен начин.
08:34
So next time you are looking for a certain product,
199
514909
3415
И следващият път когато търсите определен продукт
08:38
and there is an ad suggesting you to buy it,
200
518324
2559
и има реклама, която ви предлага да го купите,
08:40
it will not be just a standard spokesperson.
201
520883
2907
няма да е просто обикновеният говорител.
08:43
It will be one of your friends,
202
523790
2313
Ще бъде един от приятелите ви,
08:46
and you will not even know that this is happening.
203
526103
3303
а вие дори няма да осъзнавате, че се случва нещо подобно.
08:49
Now the problem is that
204
529406
2413
Проблемът идва от това,
08:51
the current policy mechanisms we have
205
531819
2519
че механизмите, които имаме
08:54
to protect ourselves from the abuses of personal information
206
534338
3438
за защита от експлоатация на личните ни данни
08:57
are like bringing a knife to a gunfight.
207
537776
2984
са като нож по средата на престрелка.
09:00
One of these mechanisms is transparency,
208
540760
2913
Един от тези механизми е прозрачност,
09:03
telling people what you are going to do with their data.
209
543673
3200
да се казва на хората за какво ще се използват данните им.
09:06
And in principle, that's a very good thing.
210
546873
2106
По принцип това е нещо много хубаво.
09:08
It's necessary, but it is not sufficient.
211
548979
3667
Нужно е, но не е достатъчно.
09:12
Transparency can be misdirected.
212
552646
3698
Прозрачността може да е подвеждаща.
09:16
You can tell people what you are going to do,
213
556344
2104
Можеш да кажеш на човек какво ще направиш,
09:18
and then you still nudge them to disclose
214
558448
2232
след което да го подканваш да сподели
09:20
arbitrary amounts of personal information.
215
560680
2623
произволен набор лична информация.
09:23
So in yet another experiment, this one with students,
216
563303
2886
В един друг експеримент, проведен със студенти,
09:26
we asked them to provide information
217
566189
3058
ги помолихме да споделят информация
09:29
about their campus behavior,
218
569247
1813
за поведението си в университета,
09:31
including pretty sensitive questions, such as this one.
219
571060
2940
включително доста чувствителни въпроси като този.
09:34
[Have you ever cheated in an exam?]
220
574000
621
09:34
Now to one group of subjects, we told them,
221
574621
2300
[Преписвали ли сте на изпит?]
На една от групите студенти казахме:
09:36
"Only other students will see your answers."
222
576921
2841
"Само други студенти ще видят отговорите ви."
09:39
To another group of subjects, we told them,
223
579762
1579
На друга група студенти казахме:
09:41
"Students and faculty will see your answers."
224
581341
3561
"Студенти и преподаватели ще видят отговорите ви."
09:44
Transparency. Notification. And sure enough, this worked,
225
584902
2591
Прозрачност. Информиране. И естествено, проработи
09:47
in the sense that the first group of subjects
226
587493
1407
в смисъла, че студентите в първата група
09:48
were much more likely to disclose than the second.
227
588900
2568
бяха много по-склонни да си признаят от тези във втората.
09:51
It makes sense, right?
228
591468
1520
Има смисъл, нали?
09:52
But then we added the misdirection.
229
592988
1490
После обаче добавихме и заблуда.
09:54
We repeated the experiment with the same two groups,
230
594478
2760
Повторихме експеримента със същите две групи,
09:57
this time adding a delay
231
597238
2427
но прибавихме забавяне
09:59
between the time we told subjects
232
599665
2935
между момента, в който казахме на участниците
10:02
how we would use their data
233
602600
2080
как ще използваме данните им, и момента,
10:04
and the time we actually started answering the questions.
234
604680
4388
в който реално започнахме да им задаваме въпроси.
10:09
How long a delay do you think we had to add
235
609068
2561
Колко време трябваше да добавим, според вас,
10:11
in order to nullify the inhibitory effect
236
611629
4613
за да премахнем задръжките
10:16
of knowing that faculty would see your answers?
237
616242
3411
от факта, че преподаватели ще видят отговорите?
10:19
Ten minutes?
238
619653
1780
Десет минути?
10:21
Five minutes?
239
621433
1791
Пет минути?
10:23
One minute?
240
623224
1776
Една минута?
10:25
How about 15 seconds?
241
625000
2049
Какво ще кажете за 15 секунди?
10:27
Fifteen seconds were sufficient to have the two groups
242
627049
2668
Петнадесет секунди бяха достатъчни, за да се изравни
10:29
disclose the same amount of information,
243
629717
1568
количеството информация, споделено от двете групи,
10:31
as if the second group now no longer cares
244
631285
2746
сякаш втората група вече не се интересуваше,
10:34
for faculty reading their answers.
245
634031
2656
че преподаватели ще прочетат отговорите им.
10:36
Now I have to admit that this talk so far
246
636687
3336
Трябва да си призная, че до момента тази лекция
10:40
may sound exceedingly gloomy,
247
640023
2480
звучи изключително мрачно,
10:42
but that is not my point.
248
642503
1721
но не това е идеята ми.
10:44
In fact, I want to share with you the fact that
249
644224
2699
Всъщност бих искал да споделя с вас,
10:46
there are alternatives.
250
646923
1772
че има и алтернативи.
10:48
The way we are doing things now is not the only way
251
648695
2499
Начинът, по който вършим нещата сега, не е единственият начин,
10:51
they can done, and certainly not the best way
252
651194
3037
по който могат да се свършат, и със сигурност
10:54
they can be done.
253
654231
2027
не е най-добрият.
10:56
When someone tells you, "People don't care about privacy,"
254
656258
4171
Когато някой ви каже, че "хората не ги е грижа поверителността им"
11:00
consider whether the game has been designed
255
660429
2642
замислете се дали играта не е проектирана
11:03
and rigged so that they cannot care about privacy,
256
663071
2724
и изкривена по такъв начин, че хората да не могат да са загрижени
11:05
and coming to the realization that these manipulations occur
257
665795
3262
и осъзнавайки, че тези манипулации вече са на лице
11:09
is already halfway through the process
258
669057
1607
е половината от това
11:10
of being able to protect yourself.
259
670664
2258
да защитите личната си информация.
11:12
When someone tells you that privacy is incompatible
260
672922
3710
Когато някой ви каже, че поверителност и ползата от големи бази данни
11:16
with the benefits of big data,
261
676632
1849
не вървят ръка за ръка,
11:18
consider that in the last 20 years,
262
678481
2473
обмислете факта, че през последните 20 години
11:20
researchers have created technologies
263
680954
1917
изследователите са създали технологии,
11:22
to allow virtually any electronic transactions
264
682871
3318
които позволяват практически всеки вид електронна транзакция
11:26
to take place in a more privacy-preserving manner.
265
686189
3749
да бъде извършена по начин, запазващ поверителността ѝ.
11:29
We can browse the Internet anonymously.
266
689938
2555
Можем да сърфираме в Интернет анонимно.
11:32
We can send emails that can only be read
267
692493
2678
Можем да изпращаме е-писма, които да бъдат прочетени
11:35
by the intended recipient, not even the NSA.
268
695171
3709
само от избрания получател, защитени дори от Агенцията по национална сигурност.
11:38
We can have even privacy-preserving data mining.
269
698880
2997
Можем дори да търсим данни без да нарушаваме нечие лично пространство.
11:41
In other words, we can have the benefits of big data
270
701877
3894
С други думи можем да съчетаем
11:45
while protecting privacy.
271
705771
2132
голямото количество данни и поверителността.
11:47
Of course, these technologies imply a shifting
272
707903
3791
Разбира се, тези технологии биха предизвикали промяна
11:51
of cost and revenues
273
711694
1546
в цената и прихода
11:53
between data holders and data subjects,
274
713240
2107
за собствениците на данни и субектите на тези данни,
11:55
which is why, perhaps, you don't hear more about them.
275
715347
3453
което е причината, вероятно, да не се говори за тези технологии.
11:58
Which brings me back to the Garden of Eden.
276
718800
3706
Което ме връща отново към Райската градина.
12:02
There is a second privacy interpretation
277
722506
2780
Има и друга интерпретация на поверителността
12:05
of the story of the Garden of Eden
278
725286
1809
в историята за Райската градина,
12:07
which doesn't have to do with the issue
279
727095
2096
която не разглежда проблема
12:09
of Adam and Eve feeling naked
280
729191
2225
за голотата и срама
12:11
and feeling ashamed.
281
731416
2381
на Адам и Ева.
12:13
You can find echoes of this interpretation
282
733797
2781
Отзвук от тази интерпретация може да се открие
12:16
in John Milton's "Paradise Lost."
283
736578
2782
в поемата на Джон Милтън "Изгубеният рай".
12:19
In the garden, Adam and Eve are materially content.
284
739360
4197
В градината Адам и Ева са материално удовлетворени.
12:23
They're happy. They are satisfied.
285
743557
2104
Щастливи са. Задоволени са.
12:25
However, they also lack knowledge
286
745661
2293
От друга страна им липсва знание
12:27
and self-awareness.
287
747954
1640
и себе-осъзнатост.
12:29
The moment they eat the aptly named
288
749594
3319
Моментът, в който изяждат, уместно наречения,
12:32
fruit of knowledge,
289
752913
1293
плод на знанието,
12:34
that's when they discover themselves.
290
754206
2605
е моментът, в който откриват себе си.
12:36
They become aware. They achieve autonomy.
291
756811
4031
Осъзнават. Постигат автономност.
12:40
The price to pay, however, is leaving the garden.
292
760842
3126
Цената, която плащат обаче, е напускането на градината.
12:43
So privacy, in a way, is both the means
293
763968
3881
Следва, че поверителността е както средството,
12:47
and the price to pay for freedom.
294
767849
2962
така и цената на свободата.
12:50
Again, marketers tell us
295
770811
2770
И отново, маркетолозите ни казват,
12:53
that big data and social media
296
773581
3019
че изобилието от данни и социалните медии
12:56
are not just a paradise of profit for them,
297
776600
2979
са не просто рай за тях,
12:59
but a Garden of Eden for the rest of us.
298
779579
2457
но и Райска градина за всички нас.
13:02
We get free content.
299
782036
1238
Получаваме безплатни неща.
13:03
We get to play Angry Birds. We get targeted apps.
300
783274
3123
Можем да играем Angry Birds. Рекламите са насочени точно към нас.
13:06
But in fact, in a few years, organizations
301
786397
2897
Всъщност, след няколко години
13:09
will know so much about us,
302
789294
1609
организациите ще знаят толкова много за нас,
13:10
they will be able to infer our desires
303
790903
2710
че ще предвиждат желанията ни
13:13
before we even form them, and perhaps
304
793613
2204
преди дори да ги имаме и вероятно
13:15
buy products on our behalf
305
795817
2447
ще купуват продукти от наше име
13:18
before we even know we need them.
306
798264
2274
преди дори да осъзнаем, че ни трябват.
13:20
Now there was one English author
307
800538
3237
Имаше един английски автор,
13:23
who anticipated this kind of future
308
803775
3045
който очакваше такова бъдеще,
13:26
where we would trade away
309
806820
1405
в което ще се отказваме
13:28
our autonomy and freedom for comfort.
310
808225
3548
от автономност и свобода в замяна на удобство.
13:31
Even more so than George Orwell,
311
811773
2161
Повече дори от Джордж Оруел,
13:33
the author is, of course, Aldous Huxley.
312
813934
2761
този автор е, разбира се, Олдъс Хъксли.
13:36
In "Brave New World," he imagines a society
313
816695
2854
В „Прекрасният нов свят“ той си представя общество,
13:39
where technologies that we created
314
819549
2171
в което технологиите, разработени от нас
13:41
originally for freedom
315
821720
1859
по начало за по-голяма свобода,
13:43
end up coercing us.
316
823579
2567
в крайна сметка ни управляват.
13:46
However, in the book, he also offers us a way out
317
826146
4791
В книгата обаче авторът ни показва и пътя
13:50
of that society, similar to the path
318
830937
3438
водещ извън това общество, подобен на пътя,
13:54
that Adam and Eve had to follow to leave the garden.
319
834375
3955
който Адам и Ева поемат, за да излязат от градината.
13:58
In the words of the Savage,
320
838330
2147
По думите на Дивака,
14:00
regaining autonomy and freedom is possible,
321
840477
3069
възвръщането на автономност и свобода е възможно,
14:03
although the price to pay is steep.
322
843546
2679
дори цената да е висока.
14:06
So I do believe that one of the defining fights
323
846225
5715
Така че аз вярвам, че една от определящите битки на нашето време
14:11
of our times will be the fight
324
851940
2563
ще бъде битката за контрол
14:14
for the control over personal information,
325
854503
2387
върху личната информация,
14:16
the fight over whether big data will become a force
326
856890
3507
битката за определяне на голямото количество информация
14:20
for freedom,
327
860397
1289
като сила за освобождаване
14:21
rather than a force which will hiddenly manipulate us.
328
861686
4746
или инструмент за манипулиране.
14:26
Right now, many of us
329
866432
2593
В момента много от нас
14:29
do not even know that the fight is going on,
330
869025
2753
дори не знаят, че битката е започнала,
14:31
but it is, whether you like it or not.
331
871778
2672
но тя започна, дори това да не ни харесва.
14:34
And at the risk of playing the serpent,
332
874450
2804
И с риск да вляза в ролята на змията
14:37
I will tell you that the tools for the fight
333
877254
2897
ще ви кажа, че оръжията за битката са тук,
14:40
are here, the awareness of what is going on,
334
880151
3009
осъзнаване на случващото се,
14:43
and in your hands,
335
883160
1355
и във вашите ръце,
14:44
just a few clicks away.
336
884515
3740
само на няколко клика разстояние.
14:48
Thank you.
337
888255
1482
Благодаря ви.
14:49
(Applause)
338
889737
4477
(Аплодисменти)
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7