What will a future without secrets look like? | Alessandro Acquisti

202,219 views ・ 2013-10-18

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Michael van Rhee Nagekeken door: Christel Foncke
00:12
I would like to tell you a story
0
12641
2354
Ik wil jullie graag een verhaal vertellen
00:14
connecting the notorious privacy incident
1
14995
3176
dat het beruchte privacy-incident
00:18
involving Adam and Eve,
2
18171
2769
van Adam en Eva
00:20
and the remarkable shift in the boundaries
3
20940
3446
verbindt met de merkwaardige verschuiving van de grenzen
00:24
between public and private which has occurred
4
24386
2686
tussen openbaar en privé
00:27
in the past 10 years.
5
27072
1770
in de laatste 10 jaar.
00:28
You know the incident.
6
28842
1298
Je kent het voorval.
00:30
Adam and Eve one day in the Garden of Eden
7
30140
3330
Op een dag realiseren Adam en Eva zich in het Hof van Eden
00:33
realize they are naked.
8
33470
1843
dat ze naakt zijn.
00:35
They freak out.
9
35313
1500
Ze schrikken zich rot ...
00:36
And the rest is history.
10
36813
2757
en de rest is geschiedenis.
00:39
Nowadays, Adam and Eve
11
39570
2188
Vandaag zouden Adam en Eva
00:41
would probably act differently.
12
41758
2361
waarschijnlijk anders reageren.
00:44
[@Adam Last nite was a blast! loved dat apple LOL]
13
44119
2268
[@Adam Gisteravond was geweldig! heerlijk die appel LOL]
00:46
[@Eve yep.. babe, know what happened to my pants tho?]
14
46387
1873
[@Eva yep.. schatje, maar weet je waar mijn onderbroek is?]
00:48
We do reveal so much more information
15
48260
2636
We geven veel meer informatie
00:50
about ourselves online than ever before,
16
50896
3334
over onszelf prijs op het internet dan ooit tevoren,
00:54
and so much information about us
17
54230
1704
en er wordt heel veel informatie over ons
00:55
is being collected by organizations.
18
55934
2224
verzameld door organisaties.
00:58
Now there is much to gain and benefit
19
58158
3282
Er valt veel winst te halen
01:01
from this massive analysis of personal information,
20
61440
2446
uit deze gigantische analyse van persoonlijke informatie,
01:03
or big data,
21
63886
1946
of grote hoeveelheden data,
01:05
but there are also complex tradeoffs that come
22
65832
2638
maar er komen ook complexe afwegingen kijken
01:08
from giving away our privacy.
23
68470
3098
bij het weggeven van onze privacy.
01:11
And my story is about these tradeoffs.
24
71568
4023
Mijn verhaal gaat over die afwegingen.
01:15
We start with an observation which, in my mind,
25
75591
2584
We beginnen met een vaststelling die voor mij
01:18
has become clearer and clearer in the past few years,
26
78175
3327
steeds duidelijker werd in de afgelopen jaren:
01:21
that any personal information
27
81502
2097
alle persoonlijke informatie kan
01:23
can become sensitive information.
28
83599
2285
ook gevoelige informatie worden.
01:25
Back in the year 2000, about 100 billion photos
29
85884
4125
In het jaar 2000 werden ongeveer 100 miljard foto's
01:30
were shot worldwide,
30
90009
1912
genomen over de hele wereld,
01:31
but only a minuscule proportion of them
31
91921
3065
maar slechts een minuscuul deel daarvan
01:34
were actually uploaded online.
32
94986
1883
werd daadwerkelijk online gezet.
01:36
In 2010, only on Facebook, in a single month,
33
96869
3361
In 2010 werden alleen op Facebook al, in één maand,
01:40
2.5 billion photos were uploaded,
34
100230
3270
2,5 miljard foto's geüpload,
01:43
most of them identified.
35
103500
1882
waarvan de meeste geïdentificeerd waren.
01:45
In the same span of time,
36
105382
1880
In dezelfde periode
01:47
computers' ability to recognize people in photos
37
107262
4870
werd het vermogen van computers voor gezichtsherkenning
01:52
improved by three orders of magnitude.
38
112132
3608
drie ordes van grootte beter.
01:55
What happens when you combine
39
115740
1882
Wat gebeurt er zodra je de volgende
01:57
these technologies together:
40
117622
1501
technologieën combineert:
01:59
increasing availability of facial data;
41
119123
2658
grotere beschikbaarheid van gezichtsdata,
02:01
improving facial recognizing ability by computers;
42
121781
3648
verbeterde gezichtsherkenning,
02:05
but also cloud computing,
43
125429
2182
én cloud computing,
02:07
which gives anyone in this theater
44
127611
1888
wat iedereen in deze zaal
02:09
the kind of computational power
45
129499
1560
de rekenkracht geeft
02:11
which a few years ago was only the domain
46
131059
1886
waarover een paar jaar geleden
02:12
of three-letter agencies;
47
132945
1782
enkel agentschappen met drie letters beschikten,
02:14
and ubiquitous computing,
48
134727
1378
en alomtegenwoordig computergebruik,
02:16
which allows my phone, which is not a supercomputer,
49
136105
2892
wat mijn telefoon in staat stelt, en dat is geen supercomputer,
02:18
to connect to the Internet
50
138997
1671
om verbinding te maken met het internet
02:20
and do there hundreds of thousands
51
140668
2334
en daar honderdduizenden
02:23
of face metrics in a few seconds?
52
143002
2639
gezichtsberekeningen te maken in een paar seconden?
02:25
Well, we conjecture that the result
53
145641
2628
We vermoeden dat als gevolg
02:28
of this combination of technologies
54
148269
2064
van de combinatie van deze technologieën
02:30
will be a radical change in our very notions
55
150333
2888
onze opvattingen over privacy en anonimiteit radicaal zullen veranderen
02:33
of privacy and anonymity.
56
153221
2257
onze opvattingen over privacy en anonimiteit radicaal zullen veranderen
02:35
To test that, we did an experiment
57
155478
1993
Als test voerden we een experiment uit
02:37
on Carnegie Mellon University campus.
58
157471
2121
op de campus van Carnegie Mellon University.
02:39
We asked students who were walking by
59
159592
2099
We vroegen studenten
02:41
to participate in a study,
60
161691
1779
om deel te nemen aan een onderzoek,
02:43
and we took a shot with a webcam,
61
163470
2562
we namen hun foto met een webcam.
02:46
and we asked them to fill out a survey on a laptop.
62
166032
2782
Daarna moesten ze een vragenlijst invullen op een laptop.
02:48
While they were filling out the survey,
63
168814
1979
Terwijl zij de vragenlijst invulden,
02:50
we uploaded their shot to a cloud-computing cluster,
64
170793
2797
uploadden wij hun foto naar een cloud computing wolk.
02:53
and we started using a facial recognizer
65
173590
1727
We gebruikten een gezichtsherkenner
02:55
to match that shot to a database
66
175317
2405
om de foto te vergelijken
02:57
of some hundreds of thousands of images
67
177722
2393
met honderdduizenden foto's
03:00
which we had downloaded from Facebook profiles.
68
180115
3596
die we hadden gedownload van Facebookprofielen.
03:03
By the time the subject reached the last page
69
183711
3259
Toen de deelnemer de laatste pagina
03:06
on the survey, the page had been dynamically updated
70
186970
3347
van de vragenlijst bereikte, was de pagina dynamisch geüpdatet
03:10
with the 10 best matching photos
71
190317
2313
met de 10 best overeenstemmende foto's
03:12
which the recognizer had found,
72
192630
2285
die de gezichtsherkenner had gevonden.
03:14
and we asked the subjects to indicate
73
194915
1738
We vroegen de deelnemers
03:16
whether he or she found themselves in the photo.
74
196653
4120
of ze zichzelf herkenden in één van de foto's.
03:20
Do you see the subject?
75
200773
3699
Zie je de deelnemer?
03:24
Well, the computer did, and in fact did so
76
204472
2845
De computer in ieder geval wel, en die deed dat zelfs
03:27
for one out of three subjects.
77
207317
2149
in één op de drie gevallen.
03:29
So essentially, we can start from an anonymous face,
78
209466
3184
We kunnen dus gewoon beginnen met een anoniem gezicht,
03:32
offline or online, and we can use facial recognition
79
212650
3484
offline of online, en gezichtsherkenning gebruiken
03:36
to give a name to that anonymous face
80
216134
2360
om een naam te plakken op dat anonieme gezicht
03:38
thanks to social media data.
81
218494
2108
dankzij gegevens van sociale media.
03:40
But a few years back, we did something else.
82
220602
1872
Een paar jaar geleden deden we iets anders.
03:42
We started from social media data,
83
222474
1823
We begonnen met data van sociale media,
03:44
we combined it statistically with data
84
224297
3051
en combineerden die met statistisch data
03:47
from U.S. government social security,
85
227348
2102
van de Amerikaanse overheid over sociale zekerheid,
03:49
and we ended up predicting social security numbers,
86
229450
3324
en uiteindelijk konden we sofinummers voorspellen,
03:52
which in the United States
87
232774
1512
wat in de Verenigde Staten
03:54
are extremely sensitive information.
88
234286
2040
extreem gevoelige informatie is.
03:56
Do you see where I'm going with this?
89
236326
2093
Volgen jullie mij?
03:58
So if you combine the two studies together,
90
238419
2922
Als je de twee onderzoeken samenvoegt,
04:01
then the question becomes,
91
241341
1512
dan wordt de vraag:
04:02
can you start from a face and,
92
242853
2720
kun je met een foto van een gezicht,
04:05
using facial recognition, find a name
93
245573
2311
met behulp van gezichtsherkenning een naam
04:07
and publicly available information
94
247884
2669
en openbaar beschikbare informatie
04:10
about that name and that person,
95
250553
1932
over die naam en die persoon vinden,
04:12
and from that publicly available information
96
252485
2248
en uit die openbare informatie
04:14
infer non-publicly available information,
97
254733
2042
afgeschermde informatie afleiden,
04:16
much more sensitive ones
98
256775
1606
veel gevoeligere informatie,
04:18
which you link back to the face?
99
258381
1492
die je weer koppelt aan het gezicht?
04:19
And the answer is, yes, we can, and we did.
100
259873
1916
Het antwoord is ja, dat kunnen we, en dat hebben we ook gedaan.
04:21
Of course, the accuracy keeps getting worse.
101
261789
2568
Natuurlijk neemt de nauwkeurigheid steeds meer af.
04:24
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
102
264357
944
[27% van de eerste 5 cijfers van de sofinummers van de deelnemers geïdentificeerd (met 4 pogingen)]
04:25
But in fact, we even decided to develop an iPhone app
103
265301
3827
We ontwikkelden zelfs een iPhone app
04:29
which uses the phone's internal camera
104
269128
2715
die gebruikmaakt van de camera van de telefoon
04:31
to take a shot of a subject
105
271843
1600
om een foto te nemen van een deelnemer,
04:33
and then upload it to a cloud
106
273443
1487
die uploadt naar een wolk,
04:34
and then do what I just described to you in real time:
107
274930
2662
en vervolgens doet wat ik jullie zojuist heb uitgelegd:
04:37
looking for a match, finding public information,
108
277592
2088
zoeken naar een overeenkomst, openbare informatie opsporen,
04:39
trying to infer sensitive information,
109
279680
1730
gevoelige informatie afleiden,
04:41
and then sending back to the phone
110
281410
2591
en vervolgens terugsturen naar de telefoon,
04:44
so that it is overlaid on the face of the subject,
111
284001
3609
en bij het gezicht voegen.
04:47
an example of augmented reality,
112
287610
1901
Een voorbeeld van toegevoegde realiteit,
04:49
probably a creepy example of augmented reality.
113
289511
2451
een eng voorbeeld van toegevoegde realiteit.
04:51
In fact, we didn't develop the app to make it available,
114
291962
3339
We hebben deze app niet ontwikkeld om ze beschikbaar te maken,
04:55
just as a proof of concept.
115
295301
1922
maar alleen om te bewijzen dat het kan.
04:57
In fact, take these technologies
116
297223
2313
Stel dat je deze technologieën neemt
04:59
and push them to their logical extreme.
117
299536
1837
en ze tot het uiterste drijft.
05:01
Imagine a future in which strangers around you
118
301373
2719
Stel je eens een toekomst voor waarin onbekenden
05:04
will look at you through their Google Glasses
119
304092
2311
je aankijken door hun Google-bril
05:06
or, one day, their contact lenses,
120
306403
2307
of, ooit, hun contactlenzen,
05:08
and use seven or eight data points about you
121
308710
4020
en zeven of acht datapunten van jou gebruiken
05:12
to infer anything else
122
312730
2582
om alles af te leiden
05:15
which may be known about you.
123
315312
2603
wat er bekend is over jou.
05:17
What will this future without secrets look like?
124
317915
4794
Hoe zal deze toekomst zonder geheimen eruit zien?
05:22
And should we care?
125
322709
1964
Moeten we ons daarover zorgen maken?
05:24
We may like to believe
126
324673
1891
We geloven misschien graag
05:26
that the future with so much wealth of data
127
326564
3040
dat de toekomst, met die overvloed aan data,
05:29
would be a future with no more biases,
128
329604
2514
een toekomst zonder vooroordelen zal zijn.
05:32
but in fact, having so much information
129
332118
3583
Beschikken over een grote hoeveelheid informatie,
05:35
doesn't mean that we will make decisions
130
335701
2191
betekent niet dat we beslissingen gaan nemen
05:37
which are more objective.
131
337892
1706
die objectiever zijn.
05:39
In another experiment, we presented to our subjects
132
339598
2560
In een ander experiment legden we onze deelnemers
05:42
information about a potential job candidate.
133
342158
2246
informatie voor over een sollicitant.
05:44
We included in this information some references
134
344404
3178
Deze informatie bevatte wat verwijzingen
05:47
to some funny, absolutely legal,
135
347582
2646
naar wat grappige, volledig juiste,
05:50
but perhaps slightly embarrassing information
136
350228
2465
maar wellicht lichtelijk gênante informatie
05:52
that the subject had posted online.
137
352693
2020
die de deelnemer online had gedeeld.
05:54
Now interestingly, among our subjects,
138
354713
2366
Het was interessant dat, van onze deelnemers,
05:57
some had posted comparable information,
139
357079
3083
sommigen vergelijkbare informatie hadden gedeeld,
06:00
and some had not.
140
360162
2362
en sommigen niet.
06:02
Which group do you think
141
362524
1949
Welke groep denk je,
06:04
was more likely to judge harshly our subject?
142
364473
4552
beoordeelde onze deelnemer strenger?
06:09
Paradoxically, it was the group
143
369025
1957
Paradoxaal genoeg was het de groep
06:10
who had posted similar information,
144
370982
1733
die vergelijkbare informatie had gedeeld,
06:12
an example of moral dissonance.
145
372715
2942
een voorbeeld van morele dissonantie.
06:15
Now you may be thinking,
146
375657
1750
Nu denk je misschien,
06:17
this does not apply to me,
147
377407
1702
dit gaat niet op voor mij,
06:19
because I have nothing to hide.
148
379109
2162
want ik heb niets te verbergen.
06:21
But in fact, privacy is not about
149
381271
2482
Maar privacy gaat niet echt over
06:23
having something negative to hide.
150
383753
3676
het verbergen van iets negatiefs.
06:27
Imagine that you are the H.R. director
151
387429
2354
Stel je eens voor dat jij de H.R. directeur bent
06:29
of a certain organization, and you receive résumés,
152
389783
2947
van een bepaalde organisatie, en je ontvangt cv's,
06:32
and you decide to find more information about the candidates.
153
392730
2473
en je besluit meer informatie te zoeken over de kandidaten.
06:35
Therefore, you Google their names
154
395203
2460
Om die reden google je hun namen,
06:37
and in a certain universe,
155
397663
2240
en in een bepaalde werkelijkheid
06:39
you find this information.
156
399903
2008
vind je déze informatie.
06:41
Or in a parallel universe, you find this information.
157
401911
4437
In een alternatieve werkelijkheid vind je déze informatie.
06:46
Do you think that you would be equally likely
158
406348
2717
Denk je dat het je niet zou uitmaken
06:49
to call either candidate for an interview?
159
409065
2803
welke kandidaat je uitnodigt voor een sollicitatiegesprek?
06:51
If you think so, then you are not
160
411868
2282
Als je dat denkt, dan ben je niet
06:54
like the U.S. employers who are, in fact,
161
414150
2582
zoals Amerikaanse werkgevers,
06:56
part of our experiment, meaning we did exactly that.
162
416732
3307
die deel uitmaken van exact ditzelfde experiment.
07:00
We created Facebook profiles, manipulating traits,
163
420039
3182
We creëerden Facebookprofielen, manipuleerden eigenschappen,
07:03
then we started sending out résumés to companies in the U.S.,
164
423221
2851
waarna we cv's begonnen te verzenden naar bedrijven in de V.S.,
07:06
and we detected, we monitored,
165
426072
1908
en we achterhaalden, we controleerden,
07:07
whether they were searching for our candidates,
166
427980
2393
of ze op zoek waren naar onze kandidaten,
07:10
and whether they were acting on the information
167
430373
1832
en of ze reageerden op de informatie
07:12
they found on social media. And they were.
168
432205
1938
die ze vonden in sociale media. Dat deden ze.
07:14
Discrimination was happening through social media
169
434143
2101
Ze discrimineerden op basis van sociale media
07:16
for equally skilled candidates.
170
436244
3073
bij even bekwame kandidaten.
07:19
Now marketers like us to believe
171
439317
4575
Marketeers doen ons graag geloven
07:23
that all information about us will always
172
443892
2269
dat alle informatie over ons
07:26
be used in a manner which is in our favor.
173
446161
3273
altijd in ons voordeel gebruikt zal worden.
07:29
But think again. Why should that be always the case?
174
449434
3715
Maar denk eens na: waarom zou dat altijd het geval zijn?
07:33
In a movie which came out a few years ago,
175
453149
2664
'Minority Report', een film van een paar jaar geleden, heeft een beroemde scène
07:35
"Minority Report," a famous scene
176
455813
2553
'Minority Report', een film van een paar jaar geleden, heeft een beroemde scène
07:38
had Tom Cruise walk in a mall
177
458366
2576
waarin Tom Cruise in een winkelcentrum loopt
07:40
and holographic personalized advertising
178
460942
3776
en er holografische, gepersonaliseerde reclames
07:44
would appear around him.
179
464718
1835
om hem heen verschijnen.
07:46
Now, that movie is set in 2054,
180
466553
3227
Die film speelde zich af in 2054,
07:49
about 40 years from now,
181
469780
1642
binnen ongeveer 40 jaar dus,
07:51
and as exciting as that technology looks,
182
471422
2908
en hoe opwindend die technologie ook lijkt,
07:54
it already vastly underestimates
183
474330
2646
het onderschat al enorm
07:56
the amount of information that organizations
184
476976
2140
hoeveel informatie organisaties
07:59
can gather about you, and how they can use it
185
479116
2483
over jou te weten komen, en hoe ze het kunnen gebruiken
08:01
to influence you in a way that you will not even detect.
186
481599
3398
om je te beïnvloeden op zó'n manier, dat je het niet eens doorhebt.
08:04
So as an example, this is another experiment
187
484997
2103
Ter illustratie nog een lopend,
08:07
actually we are running, not yet completed.
188
487100
2273
nog niet voltooid experiment.
08:09
Imagine that an organization has access
189
489373
2319
Stel je een organisatie voor die toegang heeft
08:11
to your list of Facebook friends,
190
491692
2056
tot je vriendenlijst op Facebook.
08:13
and through some kind of algorithm
191
493748
1772
Met een bepaald algoritme
08:15
they can detect the two friends that you like the most.
192
495520
3734
kunnen ze achterhalen wie je twee beste vrienden zijn.
08:19
And then they create, in real time,
193
499254
2280
Vervolgens creëren ze, in het echt,
08:21
a facial composite of these two friends.
194
501534
2842
een samenstelling van de gezichten van je vrienden.
08:24
Now studies prior to ours have shown that people
195
504376
3069
Eerder onderzoeken toonden aan dat mensen
08:27
don't recognize any longer even themselves
196
507445
2885
zichzelf dan niet meer herkennen
08:30
in facial composites, but they react
197
510330
2462
in de samenstelling, maar ze reageren er wel
08:32
to those composites in a positive manner.
198
512792
2117
op een positieve manier op.
08:34
So next time you are looking for a certain product,
199
514909
3415
Als je binnenkort op zoek bent naar een bepaald product,
08:38
and there is an ad suggesting you to buy it,
200
518324
2559
en reclame ziet die je aanmoedigt om het te kopen,
08:40
it will not be just a standard spokesperson.
201
520883
2907
dan zal dat niet een gemiddelde woordvoerder zijn,
08:43
It will be one of your friends,
202
523790
2313
maar één van je vrienden,
08:46
and you will not even know that this is happening.
203
526103
3303
en je zal het niet eens doorhebben dat dat gebeurt.
08:49
Now the problem is that
204
529406
2413
Het probleem is dat
08:51
the current policy mechanisms we have
205
531819
2519
onze huidige beleidsmechanismen
08:54
to protect ourselves from the abuses of personal information
206
534338
3438
om onszelf te beschermen tegen misbruik van persoonlijke informatie,
08:57
are like bringing a knife to a gunfight.
207
537776
2984
volstrekt nutteloos zijn.
09:00
One of these mechanisms is transparency,
208
540760
2913
Eén van deze mechanismen is transparantie:
09:03
telling people what you are going to do with their data.
209
543673
3200
aan mensen vertellen wat je gaat doen met hun data.
09:06
And in principle, that's a very good thing.
210
546873
2106
In principe is dat iets heel goeds.
09:08
It's necessary, but it is not sufficient.
211
548979
3667
Het is noodzakelijk, maar het is niet voldoende.
09:12
Transparency can be misdirected.
212
552646
3698
Transparantie kan de verkeerde kant uitgaan.
09:16
You can tell people what you are going to do,
213
556344
2104
Je kunt mensen wel vertellen wat je gaat doen,
09:18
and then you still nudge them to disclose
214
558448
2232
en ze toch porren willekeurige hoeveelheden persoonlijke informatie prijs te geven.
09:20
arbitrary amounts of personal information.
215
560680
2623
en ze toch porren willekeurige hoeveelheden persoonlijke informatie prijs te geven.
09:23
So in yet another experiment, this one with students,
216
563303
2886
In nog een ander experiment, ditmaal met studenten,
09:26
we asked them to provide information
217
566189
3058
vroegen we om informatie te geven
09:29
about their campus behavior,
218
569247
1813
over hun gedrag op de campus,
09:31
including pretty sensitive questions, such as this one.
219
571060
2940
inclusief vrij gevoelige vragen, zoals de volgende.
09:34
[Have you ever cheated in an exam?]
220
574000
621
09:34
Now to one group of subjects, we told them,
221
574621
2300
[Spiekte je ooit op een examen?]
De ene groep vertelden we:
09:36
"Only other students will see your answers."
222
576921
2841
"Alleen medestudenten zullen je antwoorden te zien krijgen."
09:39
To another group of subjects, we told them,
223
579762
1579
Een andere groep vertelden we:
09:41
"Students and faculty will see your answers."
224
581341
3561
"Zowel studenten als de faculteit zullen je antwoorden te zien krijgen."
09:44
Transparency. Notification. And sure enough, this worked,
225
584902
2591
Transparantie. Bekendmaking. En inderdaad, het werkte:
09:47
in the sense that the first group of subjects
226
587493
1407
de eerste deelnemersgroep
09:48
were much more likely to disclose than the second.
227
588900
2568
gaf veel sneller informatie prijs.
09:51
It makes sense, right?
228
591468
1520
Dat is logisch, toch?
09:52
But then we added the misdirection.
229
592988
1490
Maar toen voegden we de misleiding toe.
09:54
We repeated the experiment with the same two groups,
230
594478
2760
We herhaalden het experiment met dezelfde groepen,
09:57
this time adding a delay
231
597238
2427
maar ditmaal met een vertraging
09:59
between the time we told subjects
232
599665
2935
tussen het moment dat we de deelnemers vertelden
10:02
how we would use their data
233
602600
2080
hoe we hun data zouden gebruiken
10:04
and the time we actually started answering the questions.
234
604680
4388
en het moment waarop we daadwerkelijk de vragen afnamen.
10:09
How long a delay do you think we had to add
235
609068
2561
Hoeveel vertraging denk je dat er nodig was
10:11
in order to nullify the inhibitory effect
236
611629
4613
om het remmende effect teniet te doen
10:16
of knowing that faculty would see your answers?
237
616242
3411
van de kennis dat de faculteit je antwoorden te zien krijgt?
10:19
Ten minutes?
238
619653
1780
Tien minuten?
10:21
Five minutes?
239
621433
1791
Vijf minuten?
10:23
One minute?
240
623224
1776
Eén minuut?
10:25
How about 15 seconds?
241
625000
2049
Wat dacht je van 15 seconden?
10:27
Fifteen seconds were sufficient to have the two groups
242
627049
2668
Vijftien seconden was genoeg om de twee groepen
10:29
disclose the same amount of information,
243
629717
1568
evenveel informatie te laten onthullen,
10:31
as if the second group now no longer cares
244
631285
2746
alsof het de tweede groep niet meer uitmaakte
10:34
for faculty reading their answers.
245
634031
2656
dat de faculteit hun antwoorden te lezen zou krijgen.
10:36
Now I have to admit that this talk so far
246
636687
3336
Ik moet toegeven dat deze toespraak tot nu toe
10:40
may sound exceedingly gloomy,
247
640023
2480
misschien buitengewoon somber klinkt,
10:42
but that is not my point.
248
642503
1721
maar dat is niet mijn punt.
10:44
In fact, I want to share with you the fact that
249
644224
2699
Ik wil dat jullie weten dat er alternatieven zijn.
10:46
there are alternatives.
250
646923
1772
Ik wil dat jullie weten dat er alternatieven zijn.
10:48
The way we are doing things now is not the only way
251
648695
2499
De manier waarop we dingen nu doen, is niet de enige mogelijke manier,
10:51
they can done, and certainly not the best way
252
651194
3037
en zeker niet de beste manier
10:54
they can be done.
253
654231
2027
waarop het kan gedaan worden.
10:56
When someone tells you, "People don't care about privacy,"
254
656258
4171
Als iemand tegen je zegt: "Mensen geven niet om privacy,"
11:00
consider whether the game has been designed
255
660429
2642
ga dan na of het spelletje dusdanig ontworpen
11:03
and rigged so that they cannot care about privacy,
256
663071
2724
en gemanipuleerd is, dat ze niet om privacy kunnen geven.
11:05
and coming to the realization that these manipulations occur
257
665795
3262
Als je tot het besef komt dat deze manipulaties gebeuren,
11:09
is already halfway through the process
258
669057
1607
ben je al halverwege het proces
11:10
of being able to protect yourself.
259
670664
2258
om jezelf te beschermen.
11:12
When someone tells you that privacy is incompatible
260
672922
3710
Als iemand je vertelt dat privacy onverenigbaar is
11:16
with the benefits of big data,
261
676632
1849
met de voordelen van grote hoeveelheden data,
11:18
consider that in the last 20 years,
262
678481
2473
bedenk dan dat onderzoekers in de laatste 20 jaar
11:20
researchers have created technologies
263
680954
1917
technologieën hebben gecreëerd
11:22
to allow virtually any electronic transactions
264
682871
3318
die het mogelijk maken dat vrijwel elke elektronische transactie
11:26
to take place in a more privacy-preserving manner.
265
686189
3749
gebeurt op een privacybeschermende manier.
11:29
We can browse the Internet anonymously.
266
689938
2555
We kunnen anoniem surfen op het internet.
11:32
We can send emails that can only be read
267
692493
2678
We kunnen e-mails versturen die alleen gelezen kunnen worden
11:35
by the intended recipient, not even the NSA.
268
695171
3709
door de bedoelde ontvanger, niet eens de NSA.
11:38
We can have even privacy-preserving data mining.
269
698880
2997
We kunnen zelfs op privacybeschermende wijze doen aan datamining.
11:41
In other words, we can have the benefits of big data
270
701877
3894
Met andere woorden, we kunnen profiteren van grote hoeveelheden data,
11:45
while protecting privacy.
271
705771
2132
terwijl we onze privacy beschermen.
11:47
Of course, these technologies imply a shifting
272
707903
3791
Deze technologieën betekenen wel een verschuiving
11:51
of cost and revenues
273
711694
1546
van kosten en opbrengsten
11:53
between data holders and data subjects,
274
713240
2107
tussen gegevenshouders en de betrokkenen,
11:55
which is why, perhaps, you don't hear more about them.
275
715347
3453
wat misschien de reden is dat je niet erg veel over ze hoort.
11:58
Which brings me back to the Garden of Eden.
276
718800
3706
Dat brengt me terug bij het Hof van Eden.
12:02
There is a second privacy interpretation
277
722506
2780
Er is nog een tweede interpretatie van de privacy
12:05
of the story of the Garden of Eden
278
725286
1809
in het verhaal van het Hof van Eden,
12:07
which doesn't have to do with the issue
279
727095
2096
en die heeft niets te maken met het feit dat
12:09
of Adam and Eve feeling naked
280
729191
2225
Adam en Eva zich naakt voelen
12:11
and feeling ashamed.
281
731416
2381
en zich schamen.
12:13
You can find echoes of this interpretation
282
733797
2781
Je kunt de naklank van deze interpretatie vinden
12:16
in John Milton's "Paradise Lost."
283
736578
2782
in John Milton's "Paradise Lost".
12:19
In the garden, Adam and Eve are materially content.
284
739360
4197
In de tuin worden Adam en Eva voorzien in al hun behoeftes.
12:23
They're happy. They are satisfied.
285
743557
2104
Ze zijn blij. Ze zijn tevreden.
12:25
However, they also lack knowledge
286
745661
2293
Maar het ontbreekt ze aan kennis
12:27
and self-awareness.
287
747954
1640
en zelfbewustzijn.
12:29
The moment they eat the aptly named
288
749594
3319
Pas op het moment dat ze de zo treffend genoemde
12:32
fruit of knowledge,
289
752913
1293
'vrucht van kennis' opeten,
12:34
that's when they discover themselves.
290
754206
2605
ontdekken ze zichzelf.
12:36
They become aware. They achieve autonomy.
291
756811
4031
Ze worden bewust. Ze worden autonoom.
12:40
The price to pay, however, is leaving the garden.
292
760842
3126
Daarvoor moeten ze echter wel de tuin verlaten.
12:43
So privacy, in a way, is both the means
293
763968
3881
Privacy is dus zowel het middel
12:47
and the price to pay for freedom.
294
767849
2962
als de prijs die we betalen voor vrijheid.
12:50
Again, marketers tell us
295
770811
2770
Nogmaals, marketeers vertellen ons
12:53
that big data and social media
296
773581
3019
dat grote hoeveelheden data en sociale media
12:56
are not just a paradise of profit for them,
297
776600
2979
niet alleen een winstparadijs voor hen is,
12:59
but a Garden of Eden for the rest of us.
298
779579
2457
maar ook een Hof van Eden voor de rest van ons.
13:02
We get free content.
299
782036
1238
We krijgen gratis content.
13:03
We get to play Angry Birds. We get targeted apps.
300
783274
3123
We kunnen Angry Birds spelen. We krijgen doelgerichte apps.
13:06
But in fact, in a few years, organizations
301
786397
2897
Maar in feite zullen organisaties over een paar jaar
13:09
will know so much about us,
302
789294
1609
zoveel over ons weten,
13:10
they will be able to infer our desires
303
790903
2710
dat ze onze wensen zullen kunnen afleiden
13:13
before we even form them, and perhaps
304
793613
2204
nog voor we ze hebben gevormd, en misschien
13:15
buy products on our behalf
305
795817
2447
namens ons producten kopen,
13:18
before we even know we need them.
306
798264
2274
nog voordat we weten dat we ze nodig hebben.
13:20
Now there was one English author
307
800538
3237
Er was één Engelse auteur
13:23
who anticipated this kind of future
308
803775
3045
die anticipeerde op het soort toekomst
13:26
where we would trade away
309
806820
1405
waarin we onze autonomie en vrijheid
13:28
our autonomy and freedom for comfort.
310
808225
3548
zouden verhandelen voor comfort.
13:31
Even more so than George Orwell,
311
811773
2161
Meer nog dan George Orwell,
13:33
the author is, of course, Aldous Huxley.
312
813934
2761
want ik heb het natuurlijk over Aldous Huxley.
13:36
In "Brave New World," he imagines a society
313
816695
2854
In "Brave New World" beeldt hij zich een maatschappij in
13:39
where technologies that we created
314
819549
2171
waarin technologieën die we oorspronkelijk
13:41
originally for freedom
315
821720
1859
creëerden voor vrijheid,
13:43
end up coercing us.
316
823579
2567
ons uiteindelijk gaan bedwingen.
13:46
However, in the book, he also offers us a way out
317
826146
4791
Hij biedt ons in het boek ook een uitweg
13:50
of that society, similar to the path
318
830937
3438
van die maatschappij, vergelijkbaar met het pad
13:54
that Adam and Eve had to follow to leave the garden.
319
834375
3955
dat Adam en Eva moesten volgen om het Hof te verlaten.
13:58
In the words of the Savage,
320
838330
2147
In de woorden van de Savage,
14:00
regaining autonomy and freedom is possible,
321
840477
3069
het is mogelijk om autonomie en vrijheid terug te krijgen,
14:03
although the price to pay is steep.
322
843546
2679
maar daar hangt een duur prijskaartje aan.
14:06
So I do believe that one of the defining fights
323
846225
5715
Ik geloof dus dat één van de bepalende gevechten
14:11
of our times will be the fight
324
851940
2563
van onze tijd, het gevecht
14:14
for the control over personal information,
325
854503
2387
om de controle van persoonlijke informatie zal zijn,
14:16
the fight over whether big data will become a force
326
856890
3507
het gevecht dat bepaalt of grote hoeveelheden data een kracht worden
14:20
for freedom,
327
860397
1289
voor vrijheid,
14:21
rather than a force which will hiddenly manipulate us.
328
861686
4746
in plaats van een kracht die ons ongemerkt manipuleert.
14:26
Right now, many of us
329
866432
2593
Op dit moment weten velen van ons
14:29
do not even know that the fight is going on,
330
869025
2753
niet eens dat dit gevecht gaande is,
14:31
but it is, whether you like it or not.
331
871778
2672
maar dat is het wel, of je dat nou leuk vindt of niet.
14:34
And at the risk of playing the serpent,
332
874450
2804
Om te voorkomen dat wij de slang gaan spelen,
14:37
I will tell you that the tools for the fight
333
877254
2897
zal ik je vertellen dat de middelen voor dit gevecht
14:40
are here, the awareness of what is going on,
334
880151
3009
in je hoofd zitten, het besef van wat er gaande is,
14:43
and in your hands,
335
883160
1355
en in je handen,
14:44
just a few clicks away.
336
884515
3740
want het scheelt slechts een paar klikken.
14:48
Thank you.
337
888255
1482
Dankjewel.
14:49
(Applause)
338
889737
4477
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7