What will a future without secrets look like? | Alessandro Acquisti

202,332 views ・ 2013-10-18

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Μετάφραση: Chryssa Takahashi Επιμέλεια: Miriela Patrikiadou
00:12
I would like to tell you a story
0
12641
2354
Θα ήθελα να σας πω μια ιστορία
00:14
connecting the notorious privacy incident
1
14995
3176
που συνδέει το διαβόητο περιστατικό για την προστασία της ιδιωτικής ζωής
00:18
involving Adam and Eve,
2
18171
2769
που είχε να κάνει με τον Αδάμ και την Εύα
00:20
and the remarkable shift in the boundaries
3
20940
3446
και την αξιοσημείωτη μετατόπιση στα όρια
00:24
between public and private which has occurred
4
24386
2686
μεταξύ του δημοσίου και του ιδιωτικoύ,
00:27
in the past 10 years.
5
27072
1770
η οποία έγινε τα τελευταία 10 χρόνια.
00:28
You know the incident.
6
28842
1298
Ξέρετε το συμβάν.
00:30
Adam and Eve one day in the Garden of Eden
7
30140
3330
Ο Αδάμ και η Εύα, μία μέρα στον Κήπο της Εδέμ
00:33
realize they are naked.
8
33470
1843
συνειδητοποιούν ότι είναι γυμνοί.
00:35
They freak out.
9
35313
1500
Φρικάρουν.
00:36
And the rest is history.
10
36813
2757
Και τα υπόλοιπα είναι ιστορία.
00:39
Nowadays, Adam and Eve
11
39570
2188
Σήμερα, ο Αδάμ και η Εύα
00:41
would probably act differently.
12
41758
2361
μάλλον θα συμπεριφερόντουσαν διαφορετικά.
00:44
[@Adam Last nite was a blast! loved dat apple LOL]
13
44119
2268
[@Adam Χτες ήταν τζαμάτα! Το μήλο ήταν τέλειο LOL]
00:46
[@Eve yep.. babe, know what happened to my pants tho?]
14
46387
1873
[@Eve ναι.. μωρό, ξέρεις μήπως τι έγινε με το παντελόνι μου;]
00:48
We do reveal so much more information
15
48260
2636
Αποκαλύπτουμε πολύ περισσότερες πληροφορίες
00:50
about ourselves online than ever before,
16
50896
3334
για τους εαυτούς μας στο Διαδίκτυο παρά ποτέ
00:54
and so much information about us
17
54230
1704
και τόσες πληροφορίες για μας
00:55
is being collected by organizations.
18
55934
2224
συλλέγονται από εταιρίες.
00:58
Now there is much to gain and benefit
19
58158
3282
Είναι πολλά τα κέρδη και τα οφέλη
01:01
from this massive analysis of personal information,
20
61440
2446
από αυτή την μαζική ανάλυση προσωπικών πληροφοριών
01:03
or big data,
21
63886
1946
ή τα μεγάλα δεδομένα,
01:05
but there are also complex tradeoffs that come
22
65832
2638
αλλά υπάρχουν και πολύπλοκα ανταλλάγματα που έρχονται
01:08
from giving away our privacy.
23
68470
3098
με το να χαρίζουμε την προστασία των προσωπικών μας δεδομένων.
01:11
And my story is about these tradeoffs.
24
71568
4023
Και η ιστορία μου έχει να κάνει με αυτά τα ανταλλάγματα.
01:15
We start with an observation which, in my mind,
25
75591
2584
Ξεκινάμε με μία παρατήρηση, η οποία, στο μυαλό μου,
01:18
has become clearer and clearer in the past few years,
26
78175
3327
έχει γίνει όλο και πιο ξεκάθαρη τα τελευταία χρόνια,
01:21
that any personal information
27
81502
2097
ότι οποιαδήποτε προσωπική πληροφορία
01:23
can become sensitive information.
28
83599
2285
μπορεί να γίνει ευαίσθητη πληροφορία.
01:25
Back in the year 2000, about 100 billion photos
29
85884
4125
Το 2000, περίπου 100 δισεκατομμύρια φωτογραφίες
01:30
were shot worldwide,
30
90009
1912
τραβήχτηκαν σε όλο τον κόσμο,
01:31
but only a minuscule proportion of them
31
91921
3065
αλλά μόνο ένα μικροσκοπικό ποσοστό τους
01:34
were actually uploaded online.
32
94986
1883
ανέβηκαν στο διαδίκτυο.
01:36
In 2010, only on Facebook, in a single month,
33
96869
3361
Το 2010, μόνο στο Facebook, σε έναν μόνο μήνα,
01:40
2.5 billion photos were uploaded,
34
100230
3270
ανεβήκαν 2,5 δισεκατομμύρια φωτογραφίες,
01:43
most of them identified.
35
103500
1882
οι περισσότερες από αυτές έχουν εντοπιστεί.
01:45
In the same span of time,
36
105382
1880
Στο ίδιο χρονικό διάστημα,
01:47
computers' ability to recognize people in photos
37
107262
4870
η ικανότητα των υπολογιστών να αναγνωρίζουν άτομα σε φωτογραφίες
01:52
improved by three orders of magnitude.
38
112132
3608
βελτιώθηκε κατά τρεις τάξεις μεγέθους.
01:55
What happens when you combine
39
115740
1882
Τι συμβαίνει όταν συνδυάσετε
01:57
these technologies together:
40
117622
1501
αυτές τις τεχνολογίες:
01:59
increasing availability of facial data;
41
119123
2658
αύξηση της διαθεσιμότητας των δεδομένων του προσώπου,
02:01
improving facial recognizing ability by computers;
42
121781
3648
βελτίωση της ικανότητας αναγνώρισης προσώπου από υπολογιστές,
02:05
but also cloud computing,
43
125429
2182
αλλά και το υπολογιστικό νέφος,
02:07
which gives anyone in this theater
44
127611
1888
το οποίο δίνει σε οποιονδήποτε σε αυτή την αίθουσα
02:09
the kind of computational power
45
129499
1560
το είδος της υπολογιστικής δύναμης
02:11
which a few years ago was only the domain
46
131059
1886
η οποία πριν από λίγα χρόνια ήταν μόνο ο τομέας
02:12
of three-letter agencies;
47
132945
1782
οργανισμών με τρία γράμματα
02:14
and ubiquitous computing,
48
134727
1378
και πανταχού παρούσα υπολογιστική τεχνολογία,
02:16
which allows my phone, which is not a supercomputer,
49
136105
2892
η οποία επιτρέπει στο τηλέφωνό μου, το οποίο δεν είναι ένας υπερ-υπολογιστής
02:18
to connect to the Internet
50
138997
1671
να συνδέεται στο διαδίκτυο
02:20
and do there hundreds of thousands
51
140668
2334
και να κάνει εκεί εκατοντάδες χιλιάδες
02:23
of face metrics in a few seconds?
52
143002
2639
μετρήσεις προσώπων σε λίγα δευτερόλεπτα.
02:25
Well, we conjecture that the result
53
145641
2628
Λοιπόν, εικάζουμε ότι το αποτέλεσμα
02:28
of this combination of technologies
54
148269
2064
αυτού του συνδυασμού τεχνολογιών
02:30
will be a radical change in our very notions
55
150333
2888
θα είναι μία ριζική αλλαγή στις αντιλήψεις μας
02:33
of privacy and anonymity.
56
153221
2257
σχετικά με την προστασία προσωπικών δεδομένων και της ανωνυμίας.
02:35
To test that, we did an experiment
57
155478
1993
Για να το ελέγξουμε αυτό, κάναμε ένα πείραμα
02:37
on Carnegie Mellon University campus.
58
157471
2121
στην πανεπιστημιούπολη του Carnegie Mellon.
02:39
We asked students who were walking by
59
159592
2099
Ρωτήσαμε φοιτητές που περνούσαν
02:41
to participate in a study,
60
161691
1779
να πάρουν μέρος σε μία έρευνα
02:43
and we took a shot with a webcam,
61
163470
2562
και τραβήξαμε μία φωτογραφία με μία διαδικτυακή κάμερα
02:46
and we asked them to fill out a survey on a laptop.
62
166032
2782
και τους ζητήσαμε να συμπληρώσουν μία έρευνα σε έναν φορητό υπολογιστή.
02:48
While they were filling out the survey,
63
168814
1979
Καθώς συμπλήρωναν την έρευνα,
02:50
we uploaded their shot to a cloud-computing cluster,
64
170793
2797
ανεβάσαμε τη φωτογραφία τους σε ένα σύμπλεγμα υπολογιστικού νέφους
02:53
and we started using a facial recognizer
65
173590
1727
και αρχίσαμε να χρησιμοποιούμε αναγνώριση προσώπου
02:55
to match that shot to a database
66
175317
2405
για να ταιριάξουμε αυτή τη φωτογραφία σε μία βάση δεδομένων
02:57
of some hundreds of thousands of images
67
177722
2393
με μερικές εκατοντάδες χιλιάδες φωτογραφίες
03:00
which we had downloaded from Facebook profiles.
68
180115
3596
τις οποίες είχαμε κατεβάσει από προφίλ στο Facebook.
03:03
By the time the subject reached the last page
69
183711
3259
Μέχρι να φτάσει το άτομο στην τελευταία σελίδα της έρευνας,
03:06
on the survey, the page had been dynamically updated
70
186970
3347
η σελίδα είχε ανανεωθεί δυναμικά
03:10
with the 10 best matching photos
71
190317
2313
με τις 10 φωτογραφίες που ταίριαζαν καλύτερα
03:12
which the recognizer had found,
72
192630
2285
τις οποίες είχε βρεί ο αναγνωριστής
03:14
and we asked the subjects to indicate
73
194915
1738
και τους ζητήσαμε να υποδηλώσουν
03:16
whether he or she found themselves in the photo.
74
196653
4120
αν έβλεπαν τον εαυτό τους στη φωτογραφία.
03:20
Do you see the subject?
75
200773
3699
Βλέπετε το άτομο;
03:24
Well, the computer did, and in fact did so
76
204472
2845
Λοιπόν, ο υπολογίστής το είδε και στην πραγματικότητα το είδε
03:27
for one out of three subjects.
77
207317
2149
για ένα από τα τρία άτομα.
03:29
So essentially, we can start from an anonymous face,
78
209466
3184
Έτσι, ουσιαστικά, μπορούμε να ξεκινήσουμε από ένα ανώνυμο πρόσωπο,
03:32
offline or online, and we can use facial recognition
79
212650
3484
στο διαδίκτυο ή εκτός, και να χρησιμοποιήσουμε αναγνώριση προσώπου
03:36
to give a name to that anonymous face
80
216134
2360
για να δώσουμε ένα όνομα σε αυτό το ανώνυμο πρόσωπο
03:38
thanks to social media data.
81
218494
2108
χάρη στα δεδομένα κοινωνικών μέσων.
03:40
But a few years back, we did something else.
82
220602
1872
Αλλά πριν από μερικά χρόνια, κάναμε κάτι άλλο.
03:42
We started from social media data,
83
222474
1823
Ξεκινήσαμε από δεδομένα κοινωνικών μέσων,
03:44
we combined it statistically with data
84
224297
3051
τα συνδυάσαμε στατιστικά με δεδομένα
03:47
from U.S. government social security,
85
227348
2102
από την κοινωνική ασφάλιση της κυβέρνησης των ΗΠΑ
03:49
and we ended up predicting social security numbers,
86
229450
3324
και καταλήξαμε να προβλέπουμε αριθμούς κοινωνικών ασφαλίσεων,
03:52
which in the United States
87
232774
1512
οι οποίοι στις Ηνωμένες Πολιτείες
03:54
are extremely sensitive information.
88
234286
2040
είναι εξαιρετικά ευαίσθητη πληροφορία.
03:56
Do you see where I'm going with this?
89
236326
2093
Βλέπετε που το πάω;
03:58
So if you combine the two studies together,
90
238419
2922
Έτσι, αν συνδυάσετε τις δύο μελέτες,
04:01
then the question becomes,
91
241341
1512
το ερώτημα που προκύπτει είναι,
04:02
can you start from a face and,
92
242853
2720
μπορείτε να ξεκινήσετε από ένα πρόσωπο και
04:05
using facial recognition, find a name
93
245573
2311
χρησιμοποιώντας αναγνώριση προσώπου, να βρείτε ένα όνομα
04:07
and publicly available information
94
247884
2669
και δημόσια διαθέσιμες πληροφορίες
04:10
about that name and that person,
95
250553
1932
σχετικά με αυτό το όνομα και αυτό το άτομο
04:12
and from that publicly available information
96
252485
2248
και από αυτήν την δημόσια διαθέσιμη πληροφορία
04:14
infer non-publicly available information,
97
254733
2042
να εντοπίσουν μη-δημόσια διαθέσιμες πληροφορίες,
04:16
much more sensitive ones
98
256775
1606
πολύ πιο ευαίσθητες
04:18
which you link back to the face?
99
258381
1492
τις οποίες συνδέετε με το πρόσωπο;
04:19
And the answer is, yes, we can, and we did.
100
259873
1916
Και η απάντηση είναι, ναι, μπορούμε και το κάναμε.
04:21
Of course, the accuracy keeps getting worse.
101
261789
2568
Φυσικά, η ακρίβεια όλο και χειροτερεύει.
04:24
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
102
264357
944
[Βρέθηκαν τα 5 πρώτα ψηφία του αριθμού ΙΚΑ στο 27% των ατόμων (με 4 προσπάθειες)]
04:25
But in fact, we even decided to develop an iPhone app
103
265301
3827
Αλλά στην πραγματικότητα, αποφασίσαμε να αναπτύξουμε μία εφαρμογή για iPhone
04:29
which uses the phone's internal camera
104
269128
2715
η οποία χρησιμοποιεί την εσωτερική κάμερα του τηλεφώνου
04:31
to take a shot of a subject
105
271843
1600
για να βγάλει μία φωτογραφία του ατόμου
04:33
and then upload it to a cloud
106
273443
1487
και να την ανεβάσει στο σύννεφο
04:34
and then do what I just described to you in real time:
107
274930
2662
και μετά να κάνει αυτό που μόλις σας περιέγραψα σε πραγματικό χρόνο:
04:37
looking for a match, finding public information,
108
277592
2088
αναζήτηση ταύτισης, εύρεση δημοσίων πληροφοριών,
04:39
trying to infer sensitive information,
109
279680
1730
προσπάθεια εντοπισμού ευαίσθητων πληροφοριών
04:41
and then sending back to the phone
110
281410
2591
και μετά αποστολή τους πίσω στο τηλέφωνο
04:44
so that it is overlaid on the face of the subject,
111
284001
3609
έτσι ώστε να επικαλύψει το πρόσωπο του ατόμου.
04:47
an example of augmented reality,
112
287610
1901
Ένα παράδειγμα επαυξημένης πραγματικότητας,
04:49
probably a creepy example of augmented reality.
113
289511
2451
μάλλον ένα ανατριχιαστικό παράδειγμα επαυξημένης πραγματικότητας.
04:51
In fact, we didn't develop the app to make it available,
114
291962
3339
Στην πραγματικότητα, δεν αναπτύξαμε την εφαρμογή για να την διαθέσουμε,
04:55
just as a proof of concept.
115
295301
1922
απλώς ως απόδειξη της έννοιας.
04:57
In fact, take these technologies
116
297223
2313
Βασικά, πάρτε αυτές τις τεχνολογίες
04:59
and push them to their logical extreme.
117
299536
1837
και ωθήστε τις στα λογικά τους άκρα.
05:01
Imagine a future in which strangers around you
118
301373
2719
Φανταστείτε ένα μέλλον όπου οι άγνωστοι γύρω σας
05:04
will look at you through their Google Glasses
119
304092
2311
θα σας κοιτάνε μέσω των γυαλιών της Google
05:06
or, one day, their contact lenses,
120
306403
2307
ή, μία μέρα, τους φακούς επαφής τους
05:08
and use seven or eight data points about you
121
308710
4020
και θα χρησιμοποιούν επτά ή οκτώ σημεία δεδομένων για εσάς
05:12
to infer anything else
122
312730
2582
για να βρουν οτιδήποτε άλλο
05:15
which may be known about you.
123
315312
2603
μπορεί να είναι γνωστό για σας.
05:17
What will this future without secrets look like?
124
317915
4794
Πώς θα είναι αυτό το μέλλον χωρίς μυστικά;
05:22
And should we care?
125
322709
1964
Και πρέπει να νοιαστούμε;
05:24
We may like to believe
126
324673
1891
Ίσως θέλουμε να πιστεύουμε
05:26
that the future with so much wealth of data
127
326564
3040
ότι το μέλλον με τόσα πολλά δεδομένα
05:29
would be a future with no more biases,
128
329604
2514
θα είναι ένα μέλλον χωρίς προκαταλήψεις,
05:32
but in fact, having so much information
129
332118
3583
αλλά στην πραγματικότητα, το να έχεις τόσες πολλές πληροφορίες
05:35
doesn't mean that we will make decisions
130
335701
2191
δεν σημαίνει ότι θα κάνουμε επιλογές
05:37
which are more objective.
131
337892
1706
οι οποίες είναι πιο αντικειμενικές.
05:39
In another experiment, we presented to our subjects
132
339598
2560
Σε ένα άλλο πείραμα, παρουσιάσαμε στους συμμετέχοντες
05:42
information about a potential job candidate.
133
342158
2246
πληροφορίες σχετικά με έναν πιθανό υποψήφιο για δουλειά.
05:44
We included in this information some references
134
344404
3178
Συμπεριλάβαμε μερικές συστάσεις σε αυτές τις πληροφορίες
05:47
to some funny, absolutely legal,
135
347582
2646
μερικές αστείες, απολύτως νόμιμες,
05:50
but perhaps slightly embarrassing information
136
350228
2465
αλλά ίσως ελαφρώς ντροπιαστικές πληροφορίες
05:52
that the subject had posted online.
137
352693
2020
τις οποίες είχε ανεβάσει στο διαδίκτυο ο συμμετέχων.
05:54
Now interestingly, among our subjects,
138
354713
2366
Τώρα είναι πολύ ενδιαφέρον, ότι ανάμεσα στους συμμετέχοντές μας,
05:57
some had posted comparable information,
139
357079
3083
μερικοί είχαν ανεβάσει αντίστοιχες πληροφορίες,
06:00
and some had not.
140
360162
2362
και μερικοί όχι.
06:02
Which group do you think
141
362524
1949
Ποια ομάδα νομίζετε
06:04
was more likely to judge harshly our subject?
142
364473
4552
ότι ήταν πιο πιθανόν να κρίνει πιο σκληρά τον συμμετέχοντα?
06:09
Paradoxically, it was the group
143
369025
1957
Παραδόξως, ήταν η ομάδα
06:10
who had posted similar information,
144
370982
1733
που είχε ανεβάσει παρόμοιες πληροφορίες,
06:12
an example of moral dissonance.
145
372715
2942
ένα παράδειγμα ηθικής παραφωνίας.
06:15
Now you may be thinking,
146
375657
1750
Τώρα ίσως να σκέφτεστε,
06:17
this does not apply to me,
147
377407
1702
αυτό δεν με αφορά,
06:19
because I have nothing to hide.
148
379109
2162
επειδή δεν έχω τίποτα να κρύψω.
06:21
But in fact, privacy is not about
149
381271
2482
Όμως, στην πραγματικότητα, η προστασία των προσωπικών δεδομένων δεν έχει να κάνει
06:23
having something negative to hide.
150
383753
3676
με το να έχεις κάτι αρνητικό να κρύψεις.
06:27
Imagine that you are the H.R. director
151
387429
2354
Φανταστείτε ότι είστε ο διευθυντής ανθρώπινου δυναμικού
06:29
of a certain organization, and you receive résumés,
152
389783
2947
μίας συγκεκριμένης εταιρίας και λαμβάνετε βιογραφικά
06:32
and you decide to find more information about the candidates.
153
392730
2473
και αποφασίζετε να βρείτε περισσότερες πληροφορίες για τους υποψήφιους.
06:35
Therefore, you Google their names
154
395203
2460
Έτσι, γκουγκλάρετε τα ονόματά τους
06:37
and in a certain universe,
155
397663
2240
και σε κάποιο σύμπαν,
06:39
you find this information.
156
399903
2008
βρίσκετε αυτές τις πληροφορίες.
06:41
Or in a parallel universe, you find this information.
157
401911
4437
Ή σε ένα παράλληλο σύμπαν, βρίσκετε αυτές τις πληροφορίες.
06:46
Do you think that you would be equally likely
158
406348
2717
Πιστεύετε ότι θα ήταν εξίσου πιθανό
06:49
to call either candidate for an interview?
159
409065
2803
να καλέσετε κάποιον από τους υποψήφιους για μία συνέντευξη;
06:51
If you think so, then you are not
160
411868
2282
Αν το νομίζετε, τότε δεν είσαστε
06:54
like the U.S. employers who are, in fact,
161
414150
2582
σαν τους Αμερικανούς εργοδότες, οι οποίοι, στην πραγματικότητα,
06:56
part of our experiment, meaning we did exactly that.
162
416732
3307
είναι μέρος του πειράματός μας, που σημαίνει ότι κάναμε αυτό ακριβώς.
07:00
We created Facebook profiles, manipulating traits,
163
420039
3182
Δημιουργήσαμε προφίλ στο Facebook, χειραγωγώντας χαρακτηριστικά,
07:03
then we started sending out résumés to companies in the U.S.,
164
423221
2851
μετά αρχίσαμε να στέλνουμε βιογραφικά σε εταιρίες στις Η.Π.Α.
07:06
and we detected, we monitored,
165
426072
1908
και εντοπίσαμε, παρακολουθήσαμε,
07:07
whether they were searching for our candidates,
166
427980
2393
αν έψαχναν για τους υποψηφίους μας,
07:10
and whether they were acting on the information
167
430373
1832
και αν ενεργούσαν σύμφωνα με τις πληροφορίες
07:12
they found on social media. And they were.
168
432205
1938
που έβρισκαν στα κοινωνικά μέσα. Και το έκαναν.
07:14
Discrimination was happening through social media
169
434143
2101
Γινόντουσαν διακρίσεις μέσω των κοινωνικών μέσων
07:16
for equally skilled candidates.
170
436244
3073
για εξίσου έμπειρους υποψήφιους.
07:19
Now marketers like us to believe
171
439317
4575
Τώρα οι μαρκετίστες σαν κι εμάς θέλουν να πιστεύουν
07:23
that all information about us will always
172
443892
2269
ότι όλες οι πληροφορίες για μας
07:26
be used in a manner which is in our favor.
173
446161
3273
θα χρησιμοποιούνται πάντα με έναν ευνοϊκό για μας τρόπο.
07:29
But think again. Why should that be always the case?
174
449434
3715
Ξανασκεφτείτε το. Γιατί να είναι πάντα έτσι;
07:33
In a movie which came out a few years ago,
175
453149
2664
Σε μία ταινία που βγήκε πριν από μερικά χρόνια,
07:35
"Minority Report," a famous scene
176
455813
2553
το «Minority Report», σε μία διάσημη σκηνή
07:38
had Tom Cruise walk in a mall
177
458366
2576
ο Τομ Κρουζ περπατούσε σε ένα εμπορικό κέντρο
07:40
and holographic personalized advertising
178
460942
3776
και εμφανιζόταν γύρω του
07:44
would appear around him.
179
464718
1835
προσωποποιημένες διαφημίσεις σε ολόγραμμα.
07:46
Now, that movie is set in 2054,
180
466553
3227
Τώρα, αυτή η ταινία διαδραματίζεται στο 2054,
07:49
about 40 years from now,
181
469780
1642
σε περίπου 40 χρόνια από τώρα
07:51
and as exciting as that technology looks,
182
471422
2908
και όσο συναρπαστική κι αν φαίνεται αυτή η τεχνολογία,
07:54
it already vastly underestimates
183
474330
2646
ήδη υποτιμά αφάνταστα
07:56
the amount of information that organizations
184
476976
2140
τον όγκο των πληροφοριών που οι εταιρίες
07:59
can gather about you, and how they can use it
185
479116
2483
μπορούν να συλλέξουν για σας και πώς μπορούν να τις χρησιμοποιήσουν
08:01
to influence you in a way that you will not even detect.
186
481599
3398
για να σας επηρεάσουν με ένα τρόπο που δεν θα τον καταλάβετε καν.
08:04
So as an example, this is another experiment
187
484997
2103
Έτσι, σαν παράδειγμα, αυτό είναι ένα άλλο πείραμα
08:07
actually we are running, not yet completed.
188
487100
2273
που κάνουμε τώρα, που δεν έχει ολοκληρωθεί ακόμη.
08:09
Imagine that an organization has access
189
489373
2319
Φανταστείτε πως μία εταιρία έχει πρόσβαση
08:11
to your list of Facebook friends,
190
491692
2056
στη λίστα με τους φίλους σας στο Facebook
08:13
and through some kind of algorithm
191
493748
1772
και μέσω κάποιου αλγόριθμου
08:15
they can detect the two friends that you like the most.
192
495520
3734
μπορούν να εντοπίσουν ποιοι δύο φίλοι σας αρέσουν περισσότερο.
08:19
And then they create, in real time,
193
499254
2280
Και μετά δημιουργούν, σε πραγματικό χρόνο,
08:21
a facial composite of these two friends.
194
501534
2842
μία σύνθεση από τα πρόσωπα των δύο αυτών φίλων.
08:24
Now studies prior to ours have shown that people
195
504376
3069
Μελέτες, πριν από την δική μας, έχουν δείξει ότι οι άνθρωποι
08:27
don't recognize any longer even themselves
196
507445
2885
δεν αναγνωρίζουν ούτε τους εαυτούς τους
08:30
in facial composites, but they react
197
510330
2462
σε συνθέσεις προσώπων, αλλά αντιδρούν
08:32
to those composites in a positive manner.
198
512792
2117
σε αυτές τις συνθέσεις με θετικό τρόπο.
08:34
So next time you are looking for a certain product,
199
514909
3415
Έτσι την επόμενη φορά που θα ψάχνετε για ένα συγκεκριμένο προϊόν
08:38
and there is an ad suggesting you to buy it,
200
518324
2559
και μία διαφήμηση σας προτείνει να το αγοράσετε,
08:40
it will not be just a standard spokesperson.
201
520883
2907
δεν θα είναι απλώς ένας τυπικός εκπρόσωπος.
08:43
It will be one of your friends,
202
523790
2313
Θα είναι ένας από τους φίλους σας
08:46
and you will not even know that this is happening.
203
526103
3303
και δεν θα ξέρετε καν ότι συμβαίνει αυτό.
08:49
Now the problem is that
204
529406
2413
Τώρα το πρόβλημα είναι ότι
08:51
the current policy mechanisms we have
205
531819
2519
οι υπάρχοντες μηχανισμοί πολιτικής που έχουμε
08:54
to protect ourselves from the abuses of personal information
206
534338
3438
για να προστατεύσουμε τους εαυτούς μας από καταχρήσεις των προσωπικών πληροφοριών
08:57
are like bringing a knife to a gunfight.
207
537776
2984
είναι σα να φέρνουμε μαχαίρι σε ένα πιστολίδι.
09:00
One of these mechanisms is transparency,
208
540760
2913
Ο ένας από αυτούς τους μηχανισμούς είναι η διαφάνεια,
09:03
telling people what you are going to do with their data.
209
543673
3200
το να λες στον κόσμο τι θα κάνεις με τα δεδομένα τους.
09:06
And in principle, that's a very good thing.
210
546873
2106
Κατ 'αρχήν, αυτό είναι ένα πολύ καλό πράγμα.
09:08
It's necessary, but it is not sufficient.
211
548979
3667
Είναι απαραίτητο, αλλά δεν είναι αρκετό.
09:12
Transparency can be misdirected.
212
552646
3698
Η διαφάνεια μπορεί να πάει σε λανθασμένη κατεύθυνση.
09:16
You can tell people what you are going to do,
213
556344
2104
Μπορείτε να πείτε στον κόσμο τι θα κάνετε,
09:18
and then you still nudge them to disclose
214
558448
2232
αλλά μετά συνεχίζετε να τους ωθείτε να αποκαλύψουν
09:20
arbitrary amounts of personal information.
215
560680
2623
αυθαίρετες ποσότητες προσωπικών πληροφοριών.
09:23
So in yet another experiment, this one with students,
216
563303
2886
Σε ένα ακόμη πείραμα, αυτή τη φορά με φοιτητές,
09:26
we asked them to provide information
217
566189
3058
τους ζητήσαμε να παρέχουν πληροφορίες
09:29
about their campus behavior,
218
569247
1813
σχετικά με την συμπεριφορά τους στην πανεπιστημιούπολη,
09:31
including pretty sensitive questions, such as this one.
219
571060
2940
συμπεριλαμβανομένων πολύ ευαίσθητων ερωτήσεων, όπως αυτή.
09:34
[Have you ever cheated in an exam?]
220
574000
621
09:34
Now to one group of subjects, we told them,
221
574621
2300
[Έχεις αντιγράψει ποτέ σε εξετάσεις;]
Στην μία ομάδα είπαμε,
09:36
"Only other students will see your answers."
222
576921
2841
«Μόνο άλλοι φοιτητές θα δούνε τις απαντήσεις σας.»
09:39
To another group of subjects, we told them,
223
579762
1579
Στην άλλη ομάδα είπαμε,
09:41
"Students and faculty will see your answers."
224
581341
3561
«Φοιτητές και καθηγητές θα δούνε τις απαντήσεις σας.»
09:44
Transparency. Notification. And sure enough, this worked,
225
584902
2591
Διαφάνεια. Ειδοποίηση. Και φυσικά, δούλεψε,
09:47
in the sense that the first group of subjects
226
587493
1407
από την άποψη ότι η πρώτη ομάδα
09:48
were much more likely to disclose than the second.
227
588900
2568
ήταν πολύ πιο πιθανό να αποκαλύψει από ότι η δεύτερη.
09:51
It makes sense, right?
228
591468
1520
Κατανοητό, έτσι δεν είναι;
09:52
But then we added the misdirection.
229
592988
1490
Αλλα μετά προσθέσαμε την παραπλάνηση.
09:54
We repeated the experiment with the same two groups,
230
594478
2760
Επαναλάβαμε το πείραμα με τις δύο ίδιες ομάδες,
09:57
this time adding a delay
231
597238
2427
αλλά αυτή τη φορά προσθέσαμε μία καθυστέρηση
09:59
between the time we told subjects
232
599665
2935
μεταξύ της στιγμής που είπαμε στους συμμετέχοντες
10:02
how we would use their data
233
602600
2080
πώς θα χρησιμοποιήσουμε τα δεδομένα τους
10:04
and the time we actually started answering the questions.
234
604680
4388
και την ώρα που ξεκινήσαμε να απαντάμε στις ερωτήσεις.
10:09
How long a delay do you think we had to add
235
609068
2561
Πόση νομίζετε πως ήταν η καθυστέρηση που έπρεπε να προσθέσουμε
10:11
in order to nullify the inhibitory effect
236
611629
4613
για να μηδενίσουμε την ανασταλτική επίδραση
10:16
of knowing that faculty would see your answers?
237
616242
3411
της γνώσης ότι οι καθηγητές θα δουν τις απαντήσεις σας;
10:19
Ten minutes?
238
619653
1780
Δέκα λεπτά;
10:21
Five minutes?
239
621433
1791
Πέντε λεπτά;
10:23
One minute?
240
623224
1776
Ένα λεπτό;
10:25
How about 15 seconds?
241
625000
2049
Τι λέτε για 15 δευτερόλεπτα;
10:27
Fifteen seconds were sufficient to have the two groups
242
627049
2668
Δεκαπέντε δευτερόλεπττα ήταν αρκετά για να κάνουμε τις δύο ομάδες
10:29
disclose the same amount of information,
243
629717
1568
να αποκαλύψουν τον ίδιο όγκο πληροφοριών,
10:31
as if the second group now no longer cares
244
631285
2746
λες και η δεύτερη ομάδα δεν νοιαζόταν πια
10:34
for faculty reading their answers.
245
634031
2656
για το αν οι καθηγητές θα διάβαζαν τις απαντήσεις τους.
10:36
Now I have to admit that this talk so far
246
636687
3336
Τώρα πρέπει να ομολογήσω, ότι αυτή η ομιλία μέχρι τώρα
10:40
may sound exceedingly gloomy,
247
640023
2480
μπορεί να ακούγεται ιδιαίτερα απαισιόδοξη,
10:42
but that is not my point.
248
642503
1721
αλλά δεν είναι αυτό το θέμα μου.
10:44
In fact, I want to share with you the fact that
249
644224
2699
Στην πραγματικότητα, θέλω να μοιραστώ μαζί σας το γεγονός
10:46
there are alternatives.
250
646923
1772
ότι υπάρχουν εναλλακτικές.
10:48
The way we are doing things now is not the only way
251
648695
2499
Ο τρόπος με τον οποίο κάνουμε πράγματα τώρα δεν είναι ο μοναδικός τρόπος
10:51
they can done, and certainly not the best way
252
651194
3037
που μπορούν να γίνουν, και σίγουρα όχι ο καλύτερος τρόπος
10:54
they can be done.
253
654231
2027
που μπορούν να γίνουν.
10:56
When someone tells you, "People don't care about privacy,"
254
656258
4171
Όταν σας πουν, «Ο κόσμος δεν ενδιαφέρεται για την προστασία των προσωπικών του δεδομένων,»
11:00
consider whether the game has been designed
255
660429
2642
αναρωτηθείτε αν το παιχνίδι έχει σχεδιαστεί
11:03
and rigged so that they cannot care about privacy,
256
663071
2724
και στηθεί έτσι ώστε να μην νοιάζονται για την προστασία των προσωπικών τους δεδομένων
11:05
and coming to the realization that these manipulations occur
257
665795
3262
και όταν συνειδητοποιήσουν ότι γίνονται αυτοί οι χειρισμοί
11:09
is already halfway through the process
258
669057
1607
είναι ήδη στο μέσον της διαδικασίας
11:10
of being able to protect yourself.
259
670664
2258
της προστασίας του εαυτού σας.
11:12
When someone tells you that privacy is incompatible
260
672922
3710
Αν σας πουν ότι η προστασία των προσωπικών δεδομένων είναι ασύμβατη
11:16
with the benefits of big data,
261
676632
1849
με τα οφέλη των μεγάλων δεδομένων,
11:18
consider that in the last 20 years,
262
678481
2473
αναλογιστείτε ότι τα τελευταία 20 χρόνια,
11:20
researchers have created technologies
263
680954
1917
οι ερευνητές δημιούργησαν τεχνόλογίες
11:22
to allow virtually any electronic transactions
264
682871
3318
που επιτρέπουν σχεδόν κάθε ηλεκτρονική συναλλαγή
11:26
to take place in a more privacy-preserving manner.
265
686189
3749
να γίνεται με τρόπο που προστατεύει τα πρσωπικά δεδομένα περισσότερο.
11:29
We can browse the Internet anonymously.
266
689938
2555
Μπορούμε να πλοηγηθούμε στο διαδίκτυο ανώνυμα.
11:32
We can send emails that can only be read
267
692493
2678
Μπορούμε να στείλουμε email που μπορουν να διαβαστούν μόνο
11:35
by the intended recipient, not even the NSA.
268
695171
3709
από τον σκοπούμενο αποδέκτη, ούτε καν από την Yπηρεσία Εθνικής Ασφαλείας.
11:38
We can have even privacy-preserving data mining.
269
698880
2997
Μπορούμε να έχουμε ακόμη και εξόρυξη δεδομένων με διαφύλαξη της ιδιωτικής ζωής.
11:41
In other words, we can have the benefits of big data
270
701877
3894
Με άλλα λόγια, μπορούμε να έχουμε τα οφέλη των μεγάλων δεδομένων
11:45
while protecting privacy.
271
705771
2132
καθώς προστατεύουμε τα προσωπικά δεδομένα.
11:47
Of course, these technologies imply a shifting
272
707903
3791
Φυσικά, αυτές οι τεχνολογίες υποδηλώνουν μία μετατόπιση
11:51
of cost and revenues
273
711694
1546
κόστους και τζίρου
11:53
between data holders and data subjects,
274
713240
2107
μεταξύ των κατόχων των δεδομένων και των υποκειμένων των δεδομένων,
11:55
which is why, perhaps, you don't hear more about them.
275
715347
3453
και γι'αυτό, ίσως, να μην ακούτε πιο πολλά γι'αυτά.
11:58
Which brings me back to the Garden of Eden.
276
718800
3706
Κι επιστρέφω στον Κήπο της Εδέμ.
12:02
There is a second privacy interpretation
277
722506
2780
Υπάρχει και μία δεύτερη ερμηνεία για την προστασία προσωπικών δεδομένων
12:05
of the story of the Garden of Eden
278
725286
1809
στην ιστορία του Κήπου της Εδέμ
12:07
which doesn't have to do with the issue
279
727095
2096
η οποία δεν έχει να κάνει με το γεγονός ότι
12:09
of Adam and Eve feeling naked
280
729191
2225
ο Αδάμ και η Εύα νιώθουν γυμνοί
12:11
and feeling ashamed.
281
731416
2381
και νιώθουν ντροπή.
12:13
You can find echoes of this interpretation
282
733797
2781
Μπορείτε να βρείτε την ηχώ αυτής της ερμηνείας
12:16
in John Milton's "Paradise Lost."
283
736578
2782
στο «Χαμένος Παράδεισος» του Τζον Μίλτον.
12:19
In the garden, Adam and Eve are materially content.
284
739360
4197
Στον κήπο, ο Αδάμ και η Εύα είναι υλικά ικανοποιημένοι.
12:23
They're happy. They are satisfied.
285
743557
2104
Είναι ευτυχισμένοι. Είναι ικανοποιημένοι.
12:25
However, they also lack knowledge
286
745661
2293
Όμως δεν έχουν γνώση
12:27
and self-awareness.
287
747954
1640
και αυτογνωσία.
12:29
The moment they eat the aptly named
288
749594
3319
Τη στιγμή που τρώνε αυτό που εύστοχα ονομάστηκε
12:32
fruit of knowledge,
289
752913
1293
φρούτο της γνώσης,
12:34
that's when they discover themselves.
290
754206
2605
τότε ανακάλυψαν τους εαυτούς τους.
12:36
They become aware. They achieve autonomy.
291
756811
4031
Έχουν συνείδηση. Καταφέρνουν να έχουν αυτονομία.
12:40
The price to pay, however, is leaving the garden.
292
760842
3126
Όμως το τίμημα, είναι η δίωξη από τον κήπο.
12:43
So privacy, in a way, is both the means
293
763968
3881
Έτσι, η προστασία των προσωπικών δεδομένων, κατά κάποιο τρόπο, είναι και ο τρόπος
12:47
and the price to pay for freedom.
294
767849
2962
και το τίμημα της ελευθερίας.
12:50
Again, marketers tell us
295
770811
2770
Και πάλι, οι μαρκετίστες μας λένε
12:53
that big data and social media
296
773581
3019
ότι τα μεγάλα δεδομένα και τα κοινωνικά μέσα
12:56
are not just a paradise of profit for them,
297
776600
2979
δεν είναι απλώς ένας παράδεισος από κέρδη γι'αυτούς,
12:59
but a Garden of Eden for the rest of us.
298
779579
2457
αλλά ένας Κήπος της Εδέμ για τους υπόλοιπους από εμας.
13:02
We get free content.
299
782036
1238
Παίρνουμε δωρεάν περιεχόμενο.
13:03
We get to play Angry Birds. We get targeted apps.
300
783274
3123
Μπορούμε να παίξουμε Angry Birds. Παίρνουμε στοχευμένες εφαρμογές.
13:06
But in fact, in a few years, organizations
301
786397
2897
Αλλά στην πραγματικότητα, σε μερικά χρόνια, οι εταιρίες
13:09
will know so much about us,
302
789294
1609
θα γνωρίζουν τόσα πολλά για μας,
13:10
they will be able to infer our desires
303
790903
2710
που θα μπορούν να συμπεραίνουν τις επιθυμίες μας
13:13
before we even form them, and perhaps
304
793613
2204
πριν ακόμη τις σχηματίσουμε,
13:15
buy products on our behalf
305
795817
2447
και ίσως να αγοράζουν προϊόντα για λογαριασμό μας
13:18
before we even know we need them.
306
798264
2274
πριν καν ξέρουμε ότι τα χρειαζόμαστε.
13:20
Now there was one English author
307
800538
3237
Υπήρχε ένας Άγγλος συγγραφέας
13:23
who anticipated this kind of future
308
803775
3045
ο οποίος προέβλεψε ένα τέτοιο μέλλον
13:26
where we would trade away
309
806820
1405
όπου θα ανταλλάζαμε την αυτονομία μας
13:28
our autonomy and freedom for comfort.
310
808225
3548
και την ελευθερία μας για την άνεσή μας.
13:31
Even more so than George Orwell,
311
811773
2161
Ακόμη περισσότερο από τον Τζώρτζ Όργουελ,
13:33
the author is, of course, Aldous Huxley.
312
813934
2761
ο συγγραφέας είναι, φυσικά, ο Άλντους Χάξλεϋ.
13:36
In "Brave New World," he imagines a society
313
816695
2854
Στο «Θαυμαστός Καινούργιος Κόσμος», φαντάζεται μία κοινωνία
13:39
where technologies that we created
314
819549
2171
όπου οι τεχνολογίες που δημιουργήσαμε
13:41
originally for freedom
315
821720
1859
αρχικά για ελευθερία
13:43
end up coercing us.
316
823579
2567
κατέληξαν να μας εξαναγκάζουν.
13:46
However, in the book, he also offers us a way out
317
826146
4791
Όμως, στο βιβλίο, μας προσφέρει επίσης έναν τρόπο να ξεφύγουμε
13:50
of that society, similar to the path
318
830937
3438
από αυτή την κοινωνία, παρόμοιο με το μονοπάτι
13:54
that Adam and Eve had to follow to leave the garden.
319
834375
3955
που έπρεπε να ακολουθήσει ο Αδάμ και η Εύα για να φύγουν από τον κήπο.
13:58
In the words of the Savage,
320
838330
2147
Σύμφωνα με τα λόγια του Άγριου,
14:00
regaining autonomy and freedom is possible,
321
840477
3069
είναι δυνατή η επανάκτηση της αυτονομίας και της ελευθερίας,
14:03
although the price to pay is steep.
322
843546
2679
αλλά το τίμημα είναι υψηλό.
14:06
So I do believe that one of the defining fights
323
846225
5715
Έτσι πιστεύω ότι μία από τις καθοριστικές μάχες
14:11
of our times will be the fight
324
851940
2563
των καιρών μας θα είναι η μάχη
14:14
for the control over personal information,
325
854503
2387
για το έλεγχο των προσωπικών πληροφοριών,
14:16
the fight over whether big data will become a force
326
856890
3507
η μάχη για το αν τα μεγάλα δεδομένα θα γίνουν μία δύναμη
14:20
for freedom,
327
860397
1289
για ελευθερία,
14:21
rather than a force which will hiddenly manipulate us.
328
861686
4746
αντί για μία δύναμη που θα μας χειρίζεται στα κρυφά.
14:26
Right now, many of us
329
866432
2593
Τώρα, πολλοί από εμάς
14:29
do not even know that the fight is going on,
330
869025
2753
δεν ξέρουν καν ότι γίνεται αυτή η μάχη,
14:31
but it is, whether you like it or not.
331
871778
2672
αλλά γίνεται, είτε σας αρέσει, είτε όχι.
14:34
And at the risk of playing the serpent,
332
874450
2804
Και με το ρίσκο του να παίξω τον όφι,
14:37
I will tell you that the tools for the fight
333
877254
2897
θα σας πω ότι τα εργαλεία για τη μάχη
14:40
are here, the awareness of what is going on,
334
880151
3009
είναι εδώ, η επίγνωση του τι συμβαίνει,
14:43
and in your hands,
335
883160
1355
στα χέρια σας,
14:44
just a few clicks away.
336
884515
3740
απλώς λίγα κλικ μακρυά.
14:48
Thank you.
337
888255
1482
Σας ευχαριστώ.
14:49
(Applause)
338
889737
4477
(Χειροκρότημα)
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7