What will a future without secrets look like? | Alessandro Acquisti

Alessandro Acquisti: Was Datenschutz ausmacht

202,332 views

2013-10-18 ・ TED


New videos

What will a future without secrets look like? | Alessandro Acquisti

Alessandro Acquisti: Was Datenschutz ausmacht

202,332 views ・ 2013-10-18

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Philipp Bock Lektorat: Judith Matz
00:12
I would like to tell you a story
0
12641
2354
Ich möchte eine Geschichte erzählen,
00:14
connecting the notorious privacy incident
1
14995
3176
die den berüchtigten Datenschutz-Zwischenfall
00:18
involving Adam and Eve,
2
18171
2769
von Adam und Eva
00:20
and the remarkable shift in the boundaries
3
20940
3446
und die bemerkenswerte Verschiebung der Grenzen
00:24
between public and private which has occurred
4
24386
2686
zwischen „öffentlich“ und „privat“ in den
00:27
in the past 10 years.
5
27072
1770
letzten 10 Jahren vereint.
00:28
You know the incident.
6
28842
1298
Sie kennen den Fall.
00:30
Adam and Eve one day in the Garden of Eden
7
30140
3330
Eines Tages bemerken Adam und Eva im Garten Eden,
00:33
realize they are naked.
8
33470
1843
dass sie nackt sind.
00:35
They freak out.
9
35313
1500
Sie drehen durch.
00:36
And the rest is history.
10
36813
2757
Und der Rest ist Geschichte.
00:39
Nowadays, Adam and Eve
11
39570
2188
Heute würden sich Adam und Eva
00:41
would probably act differently.
12
41758
2361
wahrscheinlich anders verhalten.
00:44
[@Adam Last nite was a blast! loved dat apple LOL]
13
44119
2268
[@Adam Letzte Nacht war wahnsinn! leckerer Apfel LOL]
00:46
[@Eve yep.. babe, know what happened to my pants tho?]
14
46387
1873
[@Eva ja.. schatz, was ist denn mit meiner Hose passiert?]
00:48
We do reveal so much more information
15
48260
2636
Im Internet geben wir wirklich so viel mehr
00:50
about ourselves online than ever before,
16
50896
3334
Informationen über uns preis als je zuvor,
00:54
and so much information about us
17
54230
1704
und so viel mehr davon
00:55
is being collected by organizations.
18
55934
2224
wird von Organisationen gesammelt.
00:58
Now there is much to gain and benefit
19
58158
3282
Diese massive Auswertung persönlicher Daten
01:01
from this massive analysis of personal information,
20
61440
2446
– oder „Big Data“ – kann eine große
01:03
or big data,
21
63886
1946
Bereicherung sein,
01:05
but there are also complex tradeoffs that come
22
65832
2638
aber wir lassen uns auf komplexe Kompromisse ein,
01:08
from giving away our privacy.
23
68470
3098
wenn wir unsere Privatsphäre aufgeben.
01:11
And my story is about these tradeoffs.
24
71568
4023
Und davon handelt meine Geschichte.
01:15
We start with an observation which, in my mind,
25
75591
2584
Wir beginnen mit einer Beobachtung, die für mich
01:18
has become clearer and clearer in the past few years,
26
78175
3327
in den letzten Jahren immer eindeutiger geworden ist,
01:21
that any personal information
27
81502
2097
dass jede persönliche Information
01:23
can become sensitive information.
28
83599
2285
zu sensibler Information werden kann.
01:25
Back in the year 2000, about 100 billion photos
29
85884
4125
Im Jahr 2000 wurden weltweit etwa 100 Milliarden
01:30
were shot worldwide,
30
90009
1912
Fotos geschossen,
01:31
but only a minuscule proportion of them
31
91921
3065
aber nur ein winziger Teil davon
01:34
were actually uploaded online.
32
94986
1883
wurde ins Netz geladen.
01:36
In 2010, only on Facebook, in a single month,
33
96869
3361
2010 wurden allein auf Facebook in einem Monat
01:40
2.5 billion photos were uploaded,
34
100230
3270
2,5 Milliarden Fotos hochgeladen,
01:43
most of them identified.
35
103500
1882
die meisten mit Namen beschriftet.
01:45
In the same span of time,
36
105382
1880
In derselben Zeit
01:47
computers' ability to recognize people in photos
37
107262
4870
hat sich die Gesichtserkennung von Computern
01:52
improved by three orders of magnitude.
38
112132
3608
um drei Größenordnungen verbessert.
01:55
What happens when you combine
39
115740
1882
Was passiert, wenn man diese beiden
01:57
these technologies together:
40
117622
1501
Technologien kombiniert:
01:59
increasing availability of facial data;
41
119123
2658
Erhöhte Verfügbarkeit von Gesichtsdaten;
02:01
improving facial recognizing ability by computers;
42
121781
3648
verbesserte Gesichtserkennung durch Computer;
02:05
but also cloud computing,
43
125429
2182
aber auch Cloud-Computing,
02:07
which gives anyone in this theater
44
127611
1888
das jedem in diesem Saal
02:09
the kind of computational power
45
129499
1560
Rechenkapazitäten in die Hände legt,
02:11
which a few years ago was only the domain
46
131059
1886
die vor ein paar Jahren nur Behörden
02:12
of three-letter agencies;
47
132945
1782
mit drei Buchstaben hatten;
02:14
and ubiquitous computing,
48
134727
1378
und allgegenwärtige Computer,
02:16
which allows my phone, which is not a supercomputer,
49
136105
2892
die es meinem Telefon, das nun kein Supercomputer ist,
02:18
to connect to the Internet
50
138997
1671
ermöglichen, ins Internet zu gehen
02:20
and do there hundreds of thousands
51
140668
2334
und dort hunderttausende Gesichter
02:23
of face metrics in a few seconds?
52
143002
2639
in ein paar Sekunden zu vergleichen?
02:25
Well, we conjecture that the result
53
145641
2628
Wir mutmaßen, dass das Ergebnis
02:28
of this combination of technologies
54
148269
2064
dieser Kombination von Technologien
02:30
will be a radical change in our very notions
55
150333
2888
eine radikaler Wandel in unserer Auffassung
02:33
of privacy and anonymity.
56
153221
2257
von Privatsphäre und Anonymität sein wird.
02:35
To test that, we did an experiment
57
155478
1993
Mit einem Experiment auf dem Campus
02:37
on Carnegie Mellon University campus.
58
157471
2121
unserer Universität haben wir das getestet.
02:39
We asked students who were walking by
59
159592
2099
Wir baten vorbeilaufende Studenten,
02:41
to participate in a study,
60
161691
1779
an einer Studie teilzunehmen,
02:43
and we took a shot with a webcam,
61
163470
2562
machten ein Foto mit einer Webcam,
02:46
and we asked them to fill out a survey on a laptop.
62
166032
2782
und baten sie, auf einem Laptop einen Fragebogen auszufüllen.
02:48
While they were filling out the survey,
63
168814
1979
Während sie das taten,
02:50
we uploaded their shot to a cloud-computing cluster,
64
170793
2797
schickten wir ihr Foto an einen Großrechner
02:53
and we started using a facial recognizer
65
173590
1727
und fingen an, dieses Foto
02:55
to match that shot to a database
66
175317
2405
per Gesichtserkennung mit einer Datenbank
02:57
of some hundreds of thousands of images
67
177722
2393
von ein paar hunderttausend Fotos abzugleichen,
03:00
which we had downloaded from Facebook profiles.
68
180115
3596
die wir von Facebook-Profilen gesammelt hatten.
03:03
By the time the subject reached the last page
69
183711
3259
Bevor die Testperson die letzte Seite erreichte,
03:06
on the survey, the page had been dynamically updated
70
186970
3347
wurde sie automatisch mit den zehn Fotos aktualisiert,
03:10
with the 10 best matching photos
71
190317
2313
die laut Gesichtserkennung
03:12
which the recognizer had found,
72
192630
2285
die größte Übereinstimmung hatten,
03:14
and we asked the subjects to indicate
73
194915
1738
und wir fragten die Teilnehmer,
03:16
whether he or she found themselves in the photo.
74
196653
4120
ob sie sich selbst auf einem Foto erkannten.
03:20
Do you see the subject?
75
200773
3699
Erkennen Sie die Testperson?
03:24
Well, the computer did, and in fact did so
76
204472
2845
Der Computer schon, und zwar
03:27
for one out of three subjects.
77
207317
2149
bei einem von drei Teilnehmern.
03:29
So essentially, we can start from an anonymous face,
78
209466
3184
Im Grunde können wir also ein unbekanntes Gesicht nehmen,
03:32
offline or online, and we can use facial recognition
79
212650
3484
offline oder online, und ihm durch Gesichtserkennung
03:36
to give a name to that anonymous face
80
216134
2360
dank Daten aus den sozialen Medien
03:38
thanks to social media data.
81
218494
2108
einen Namen geben.
03:40
But a few years back, we did something else.
82
220602
1872
Aber vor ein paar Jahren taten wir etwas anderes.
03:42
We started from social media data,
83
222474
1823
Wir nahmen Daten aus sozialen Medien,
03:44
we combined it statistically with data
84
224297
3051
kombinierten sie statistisch mit Daten
03:47
from U.S. government social security,
85
227348
2102
der US-amerikanischen Sozialversicherung,
03:49
and we ended up predicting social security numbers,
86
229450
3324
und konnten damit Sozialversicherungsnummern vorhersagen –
03:52
which in the United States
87
232774
1512
in den USA sind das
03:54
are extremely sensitive information.
88
234286
2040
extrem sensible Daten.
03:56
Do you see where I'm going with this?
89
236326
2093
Sehen Sie, worauf ich hinauswill?
03:58
So if you combine the two studies together,
90
238419
2922
Wenn man diese beiden Studien kombiniert,
04:01
then the question becomes,
91
241341
1512
ist die Frage, ob man
04:02
can you start from a face and,
92
242853
2720
von einem Gesicht ausgehen kann,
04:05
using facial recognition, find a name
93
245573
2311
dazu per Gesichtserkennung einen Namen
04:07
and publicly available information
94
247884
2669
und anhand des Namens
04:10
about that name and that person,
95
250553
1932
öffentliche Informationen finden kann,
04:12
and from that publicly available information
96
252485
2248
und aus diesen öffentlichen Informationen
04:14
infer non-publicly available information,
97
254733
2042
auf nicht-öffentliche schließen kann,
04:16
much more sensitive ones
98
256775
1606
die viel sensibler sind,
04:18
which you link back to the face?
99
258381
1492
die man dann zum Gesicht zurückführt?
04:19
And the answer is, yes, we can, and we did.
100
259873
1916
Die Antwort ist: Ja, können und haben wir.
04:21
Of course, the accuracy keeps getting worse.
101
261789
2568
Natürlich leidet darunter die Genauigkeit.
04:24
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
102
264357
944
[27 % der ersten 5 Ziffern der SV-Nummern gefunden (bei 4 Versuchen)]
04:25
But in fact, we even decided to develop an iPhone app
103
265301
3827
Aber wir haben sogar eine App fürs iPhone entwickelt,
04:29
which uses the phone's internal camera
104
269128
2715
die mit der Kamera des Geräts ein Foto
04:31
to take a shot of a subject
105
271843
1600
von einer Person macht,
04:33
and then upload it to a cloud
106
273443
1487
es an die Cloud schickt,
04:34
and then do what I just described to you in real time:
107
274930
2662
und dann in Echtzeit tut, was ich gerade beschrieben habe:
04:37
looking for a match, finding public information,
108
277592
2088
Sie vergleicht Gesichter, findet öffentliche Informationen,
04:39
trying to infer sensitive information,
109
279680
1730
versucht, auf sensible Informationen zu schließen,
04:41
and then sending back to the phone
110
281410
2591
sendet sie an das Telefon zurück,
04:44
so that it is overlaid on the face of the subject,
111
284001
3609
und zeigt sie über dem Gesicht der Person an;
04:47
an example of augmented reality,
112
287610
1901
Ein Beispiel für erweiterte Realität,
04:49
probably a creepy example of augmented reality.
113
289511
2451
und wohl eher ein unheimliches Beispiel.
04:51
In fact, we didn't develop the app to make it available,
114
291962
3339
Wir haben diese App nicht entwickelt, um sie zu veröffentlichen,
04:55
just as a proof of concept.
115
295301
1922
sondern um die Machbarkeit zu beweisen.
04:57
In fact, take these technologies
116
297223
2313
Aber nehmen wir diese Technologien
04:59
and push them to their logical extreme.
117
299536
1837
und treiben wir sie auf die logische Spitze.
05:01
Imagine a future in which strangers around you
118
301373
2719
Stellen Sie sich eine Zukunft vor, in der Fremde
05:04
will look at you through their Google Glasses
119
304092
2311
Sie durch ihre Google-Brille sehen,
05:06
or, one day, their contact lenses,
120
306403
2307
oder irgendwann durch ihre Kontaktlinsen,
05:08
and use seven or eight data points about you
121
308710
4020
und mit sieben, acht Datenpunkten über Sie
05:12
to infer anything else
122
312730
2582
auf alles andere schließen,
05:15
which may be known about you.
123
315312
2603
das man über Sie wissen kann.
05:17
What will this future without secrets look like?
124
317915
4794
Wie sieht diese Zukunft ohne Geheimnisse aus?
05:22
And should we care?
125
322709
1964
Und spielt das für uns eine Rolle?
05:24
We may like to believe
126
324673
1891
Vielleicht glauben wir gerne,
05:26
that the future with so much wealth of data
127
326564
3040
dass eine Zukunft mit solchen Datenreichtümern
05:29
would be a future with no more biases,
128
329604
2514
eine Zukunft ohne Vorurteile ist,
05:32
but in fact, having so much information
129
332118
3583
aber tatsächlich bedeutet diese Fülle
05:35
doesn't mean that we will make decisions
130
335701
2191
an Information nicht, dass wir objektivere
05:37
which are more objective.
131
337892
1706
Entscheidungen treffen.
05:39
In another experiment, we presented to our subjects
132
339598
2560
In einem anderen Experiment gaben wir den Teilnehmern
05:42
information about a potential job candidate.
133
342158
2246
Informationen über einen Bewerber auf einen Job.
05:44
We included in this information some references
134
344404
3178
Ein Teil dieser Informationen betraf Situationen,
05:47
to some funny, absolutely legal,
135
347582
2646
die zwar lustig und völlig legal,
05:50
but perhaps slightly embarrassing information
136
350228
2465
aber vielleicht etwas peinlich waren,
05:52
that the subject had posted online.
137
352693
2020
die die „Bewerber“ ins Netz gestellt hatten.
05:54
Now interestingly, among our subjects,
138
354713
2366
Interessant war, dass manche Teilnehmer
05:57
some had posted comparable information,
139
357079
3083
so etwas auch schon einmal gepostet hatten
06:00
and some had not.
140
360162
2362
und andere nicht.
06:02
Which group do you think
141
362524
1949
Welche Gruppe, glauben Sie,
06:04
was more likely to judge harshly our subject?
142
364473
4552
hat die Bewerber strenger beurteilt?
06:09
Paradoxically, it was the group
143
369025
1957
Paradoxerweise war es die Gruppe,
06:10
who had posted similar information,
144
370982
1733
die selbst ähnliche Posts geschrieben hatte –
06:12
an example of moral dissonance.
145
372715
2942
ein Beispiel für moralische Dissonanz.
06:15
Now you may be thinking,
146
375657
1750
Vielleicht denken Sie jetzt:
06:17
this does not apply to me,
147
377407
1702
„Das betrifft mich nicht,
06:19
because I have nothing to hide.
148
379109
2162
weil ich nichts zu verbergen habe.“
06:21
But in fact, privacy is not about
149
381271
2482
Aber Privatsphäre bedeutet nicht,
06:23
having something negative to hide.
150
383753
3676
etwas Negatives verbergen zu wollen.
06:27
Imagine that you are the H.R. director
151
387429
2354
Stellen Sie sich vor, Sie seien Personalchef
06:29
of a certain organization, and you receive résumés,
152
389783
2947
einer Organisation. Man schickt Ihnen Lebensläufe
06:32
and you decide to find more information about the candidates.
153
392730
2473
und Sie wollen mehr Informationen über die Bewerber finden.
06:35
Therefore, you Google their names
154
395203
2460
Also googlen Sie ihre Namen
06:37
and in a certain universe,
155
397663
2240
und in einem gewissen Universum
06:39
you find this information.
156
399903
2008
finden Sie diese Information.
06:41
Or in a parallel universe, you find this information.
157
401911
4437
Oder in einem Paralleluniversum finden Sie diese.
06:46
Do you think that you would be equally likely
158
406348
2717
Glauben Sie, Sie würden beide Bewerberinnen
06:49
to call either candidate for an interview?
159
409065
2803
mit derselben Wahrscheinlichkeit zum Gespräch einladen?
06:51
If you think so, then you are not
160
411868
2282
Wenn ja, dann denken Sie anders
06:54
like the U.S. employers who are, in fact,
161
414150
2582
als die Arbeitgeber der USA, die tatsächlich
06:56
part of our experiment, meaning we did exactly that.
162
416732
3307
Teil unseres Experimentes waren, denn genau das taten wir:
07:00
We created Facebook profiles, manipulating traits,
163
420039
3182
Wir erstellten Facebook-Profile mit verschiedenen Eigenschaften
07:03
then we started sending out résumés to companies in the U.S.,
164
423221
2851
und schickten Bewerbungen an Firmen in den USA,
07:06
and we detected, we monitored,
165
426072
1908
wir zeichneten auf,
07:07
whether they were searching for our candidates,
166
427980
2393
ob sie nach unseren Bewerbern suchten,
07:10
and whether they were acting on the information
167
430373
1832
und ob sie anhand der Informationen
07:12
they found on social media. And they were.
168
432205
1938
aus sozialen Medien handelten. Und das taten sie.
07:14
Discrimination was happening through social media
169
434143
2101
Durch soziale Medien wurden Bewerber
07:16
for equally skilled candidates.
170
436244
3073
trotz gleicher Fähigkeiten diskriminiert.
07:19
Now marketers like us to believe
171
439317
4575
Vermarkter hätten gerne, dass wir glauben,
07:23
that all information about us will always
172
443892
2269
dass Informationen über uns immer
07:26
be used in a manner which is in our favor.
173
446161
3273
zu unseren Gunsten genutzt werden.
07:29
But think again. Why should that be always the case?
174
449434
3715
Aber denken Sie noch mal nach. Warum sollten sie?
07:33
In a movie which came out a few years ago,
175
453149
2664
In einem Film, der vor ein paar Jahren lief,
07:35
"Minority Report," a famous scene
176
455813
2553
„Minority Report“, läuft Tom Cruise
07:38
had Tom Cruise walk in a mall
177
458366
2576
durch ein Einkaufszentrum
07:40
and holographic personalized advertising
178
460942
3776
und um ihn herum taucht personalisierte
07:44
would appear around him.
179
464718
1835
holografische Werbung auf.
07:46
Now, that movie is set in 2054,
180
466553
3227
Dieser Film spielt im Jahr 2054,
07:49
about 40 years from now,
181
469780
1642
also in ungefähr 40 Jahren,
07:51
and as exciting as that technology looks,
182
471422
2908
und so spannnend diese Technologie aussieht,
07:54
it already vastly underestimates
183
474330
2646
unterschätzt sie schon jetzt zutiefst,
07:56
the amount of information that organizations
184
476976
2140
wie viele Informationen Organisationen
07:59
can gather about you, and how they can use it
185
479116
2483
über Sie sammeln können, und wie sie diese nutzen können,
08:01
to influence you in a way that you will not even detect.
186
481599
3398
um Sie so zu beeinflussen, dass Sie es nicht einmal merken.
08:04
So as an example, this is another experiment
187
484997
2103
Als Beispiel ist hier noch ein Experiment,
08:07
actually we are running, not yet completed.
188
487100
2273
das wir gerade durchführen, es läuft noch.
08:09
Imagine that an organization has access
189
489373
2319
Stellen Sie sich vor, eine Organisation
08:11
to your list of Facebook friends,
190
491692
2056
hat eine Liste Ihrer Facebook-Freunde,
08:13
and through some kind of algorithm
191
493748
1772
und mit irgendeinem Algorithmus
08:15
they can detect the two friends that you like the most.
192
495520
3734
können sie Ihre zwei besten Freunde herausfinden.
08:19
And then they create, in real time,
193
499254
2280
Und dann vermischen sie in Echtzeit
08:21
a facial composite of these two friends.
194
501534
2842
die Gesichter dieser beiden Freunde.
08:24
Now studies prior to ours have shown that people
195
504376
3069
Frühere Studien haben gezeigt, dass Menschen
08:27
don't recognize any longer even themselves
196
507445
2885
sich in diesen digital vermischten Gesichtern
08:30
in facial composites, but they react
197
510330
2462
nicht einmal selbst erkennen, dass sie aber
08:32
to those composites in a positive manner.
198
512792
2117
auf diese Bilder positiv reagieren.
08:34
So next time you are looking for a certain product,
199
514909
3415
Wenn Sie also das nächste Mal ein Produkt suchen
08:38
and there is an ad suggesting you to buy it,
200
518324
2559
und Sie Werbung dafür sehen,
08:40
it will not be just a standard spokesperson.
201
520883
2907
dann wird darin nicht irgendein Model sein.
08:43
It will be one of your friends,
202
523790
2313
Es wird einer Ihrer Freunde sein,
08:46
and you will not even know that this is happening.
203
526103
3303
und Sie werden es nicht einmal merken.
08:49
Now the problem is that
204
529406
2413
Das Problem ist,
08:51
the current policy mechanisms we have
205
531819
2519
dass die aktuellen Datenschutzmechanismen
08:54
to protect ourselves from the abuses of personal information
206
534338
3438
gegen den Missbrauch persönlicher Informationen
08:57
are like bringing a knife to a gunfight.
207
537776
2984
so nützlich sind wie ein Messer bei einer Schießerei.
09:00
One of these mechanisms is transparency,
208
540760
2913
Ein solcher Mechanismus ist Transparenz,
09:03
telling people what you are going to do with their data.
209
543673
3200
man sagt Menschen, was man mit ihren Daten vorhat.
09:06
And in principle, that's a very good thing.
210
546873
2106
Und im Prinzip ist das etwas sehr Gutes.
09:08
It's necessary, but it is not sufficient.
211
548979
3667
Es ist notwendig, aber nicht hinreichend.
09:12
Transparency can be misdirected.
212
552646
3698
Transparenz kann in die Irre führen.
09:16
You can tell people what you are going to do,
213
556344
2104
Sie können Menschen sagen, was Sie vorhaben,
09:18
and then you still nudge them to disclose
214
558448
2232
und ihnen dann doch beliebige Mengen
09:20
arbitrary amounts of personal information.
215
560680
2623
persönlicher Informationen herauslocken.
09:23
So in yet another experiment, this one with students,
216
563303
2886
In noch einem anderen Experiment baten wir Studierende,
09:26
we asked them to provide information
217
566189
3058
uns Informationen über ihr Verhalten
09:29
about their campus behavior,
218
569247
1813
an der Uni zu geben,
09:31
including pretty sensitive questions, such as this one.
219
571060
2940
darunter ziemlich sensible Fragen, so wie diese hier.
09:34
[Have you ever cheated in an exam?]
220
574000
621
09:34
Now to one group of subjects, we told them,
221
574621
2300
[Haben Sie je in einer Prüfung betrogen?]
Einer Gruppe der Teilnehmer sagten wir:
09:36
"Only other students will see your answers."
222
576921
2841
„Nur Kommilitonen lesen Ihre Antworten.“
09:39
To another group of subjects, we told them,
223
579762
1579
Einer zweiten Gruppe sagten wir:
09:41
"Students and faculty will see your answers."
224
581341
3561
„Studierende und Lehrende lesen Ihre Antworten.“
09:44
Transparency. Notification. And sure enough, this worked,
225
584902
2591
Transparenz. Aufklärung. Und natürlich funktionierte das,
09:47
in the sense that the first group of subjects
226
587493
1407
nämlich so, dass die erste Gruppe
09:48
were much more likely to disclose than the second.
227
588900
2568
viel eher „Ja“ antwortete als die zweite.
09:51
It makes sense, right?
228
591468
1520
Das ist logisch, oder?
09:52
But then we added the misdirection.
229
592988
1490
Aber dann führten wir sie in die Irre.
09:54
We repeated the experiment with the same two groups,
230
594478
2760
Wir wiederholten das Experiment mit den gleichen Gruppen,
09:57
this time adding a delay
231
597238
2427
fügten aber eine Verzögerung ein
09:59
between the time we told subjects
232
599665
2935
zwischen der Aufklärung darüber,
10:02
how we would use their data
233
602600
2080
wie wir mit den Daten umgehen,
10:04
and the time we actually started answering the questions.
234
604680
4388
und dem eigentlichen Beginn des Fragebogens.
10:09
How long a delay do you think we had to add
235
609068
2561
Wie lange musste die Verzögerung sein,
10:11
in order to nullify the inhibitory effect
236
611629
4613
um die Hemmungen der Teilnehmer aufzuheben,
10:16
of knowing that faculty would see your answers?
237
616242
3411
deren Antworten auch Dozenten lesen würden?
10:19
Ten minutes?
238
619653
1780
Zehn Minuten?
10:21
Five minutes?
239
621433
1791
Fünf Minuten?
10:23
One minute?
240
623224
1776
Eine Minute?
10:25
How about 15 seconds?
241
625000
2049
Wie wär’s mit 15 Sekunden?
10:27
Fifteen seconds were sufficient to have the two groups
242
627049
2668
15 Sekunden waren genug, damit die beiden Gruppen
10:29
disclose the same amount of information,
243
629717
1568
dieselbe Menge an Informationen preisgaben,
10:31
as if the second group now no longer cares
244
631285
2746
als wäre es der zweiten Gruppe plötzlich egal,
10:34
for faculty reading their answers.
245
634031
2656
dass Dozenten ihre Antworten lesen.
10:36
Now I have to admit that this talk so far
246
636687
3336
Ich muss zugeben, dass meine Rede bis hierhin
10:40
may sound exceedingly gloomy,
247
640023
2480
vielleicht äußerst finster klang,
10:42
but that is not my point.
248
642503
1721
aber darum geht es mir nicht.
10:44
In fact, I want to share with you the fact that
249
644224
2699
Ich will mit Ihnen über die Tatsache reden,
10:46
there are alternatives.
250
646923
1772
dass es Alternativen gibt.
10:48
The way we are doing things now is not the only way
251
648695
2499
Unsere jetzige Vorgehensweise ist nicht die einzige
10:51
they can done, and certainly not the best way
252
651194
3037
und bestimmt nicht die beste Weise,
10:54
they can be done.
253
654231
2027
die Dinge anzugehen.
10:56
When someone tells you, "People don't care about privacy,"
254
656258
4171
Wenn Ihnen jemand sagt: „Den Leuten ist Datenschutz egal,“
11:00
consider whether the game has been designed
255
660429
2642
dann überlegen Sie, ob die Würfel
11:03
and rigged so that they cannot care about privacy,
256
663071
2724
so gezinkt sind, dass ihnen Datenschutz egal sein muss,
11:05
and coming to the realization that these manipulations occur
257
665795
3262
und mit der Einsicht, dass diese Manipulationen geschehen,
11:09
is already halfway through the process
258
669057
1607
haben Sie die halbe Strecke
11:10
of being able to protect yourself.
259
670664
2258
zum Schutz Ihrer Daten schon geschafft.
11:12
When someone tells you that privacy is incompatible
260
672922
3710
Wenn Ihnen jemand sagt, Datenschutz sei unvereinbar
11:16
with the benefits of big data,
261
676632
1849
mit den Vorteilen von Big Data,
11:18
consider that in the last 20 years,
262
678481
2473
überlegen Sie, dass Wissenschaftler
11:20
researchers have created technologies
263
680954
1917
seit 20 Jahren Technologien geschaffen haben,
11:22
to allow virtually any electronic transactions
264
682871
3318
mit sich denen nahezu jeder elektronische Vorgang
11:26
to take place in a more privacy-preserving manner.
265
686189
3749
datenschutzfreundlicher abwickeln lässt.
11:29
We can browse the Internet anonymously.
266
689938
2555
Wir können anonym im Internet surfen.
11:32
We can send emails that can only be read
267
692493
2678
Wir können E-Mails verschicken, die nur
11:35
by the intended recipient, not even the NSA.
268
695171
3709
der Empfänger lesen kann, nicht einmal die NSA.
11:38
We can have even privacy-preserving data mining.
269
698880
2997
Und sogar datenschutzfreundlich nach Daten schürfen.
11:41
In other words, we can have the benefits of big data
270
701877
3894
Mit anderen Worten, wir können die Vorteile von Big Data genießen
11:45
while protecting privacy.
271
705771
2132
und dabei die Privatsphäre schützen.
11:47
Of course, these technologies imply a shifting
272
707903
3791
Voraussetzung für diese Technologien ist eine Verschiebung
11:51
of cost and revenues
273
711694
1546
von Kosten und Nutzen
11:53
between data holders and data subjects,
274
713240
2107
zwischen Inhaber und Gegenstand von Daten,
11:55
which is why, perhaps, you don't hear more about them.
275
715347
3453
was erklären mag, warum Sie nicht viel davon hören.
11:58
Which brings me back to the Garden of Eden.
276
718800
3706
Und das bringt mich zurück zum Garten Eden.
12:02
There is a second privacy interpretation
277
722506
2780
Es gibt eine zweite Datenschutz-Interpretation
12:05
of the story of the Garden of Eden
278
725286
1809
der Geschichte aus dem Garten Eden,
12:07
which doesn't have to do with the issue
279
727095
2096
die nichts damit zu tun hat,
12:09
of Adam and Eve feeling naked
280
729191
2225
dass Adam und Eva sich nackt fühlen
12:11
and feeling ashamed.
281
731416
2381
und schämen.
12:13
You can find echoes of this interpretation
282
733797
2781
Ein Echo dieser Interpretation finden Sie
12:16
in John Milton's "Paradise Lost."
283
736578
2782
in John Miltons „Paradise Lost“.
12:19
In the garden, Adam and Eve are materially content.
284
739360
4197
Im Paradies sind Adam und Eva materiell zufrieden.
12:23
They're happy. They are satisfied.
285
743557
2104
Sie sind glücklich. Sie sind zufrieden.
12:25
However, they also lack knowledge
286
745661
2293
Gleichzeitig fehlt ihnen aber Wissen
12:27
and self-awareness.
287
747954
1640
und Selbstwahrnehmung.
12:29
The moment they eat the aptly named
288
749594
3319
In dem Moment, in dem sie die treffend benannte
12:32
fruit of knowledge,
289
752913
1293
„Frucht der Erkenntnis“ essen,
12:34
that's when they discover themselves.
290
754206
2605
genau dann erkennen sie sich selbst.
12:36
They become aware. They achieve autonomy.
291
756811
4031
Sie erreichen Bewusstsein und Selbständigkeit.
12:40
The price to pay, however, is leaving the garden.
292
760842
3126
Der Preis dafür ist die Vertreibung aus dem Paradies.
12:43
So privacy, in a way, is both the means
293
763968
3881
Privatsphäre ist also gewissermaßen
12:47
and the price to pay for freedom.
294
767849
2962
zugleich Mittel und Preis der Freiheit.
12:50
Again, marketers tell us
295
770811
2770
Vermarkter erzählen uns,
12:53
that big data and social media
296
773581
3019
Big Data und Soziale Medien
12:56
are not just a paradise of profit for them,
297
776600
2979
seien nicht nur ein Profit-Paradies für sie,
12:59
but a Garden of Eden for the rest of us.
298
779579
2457
sondern auch ein Garten Eden für alle.
13:02
We get free content.
299
782036
1238
Wir bekommen kostenlose Inhalte,
13:03
We get to play Angry Birds. We get targeted apps.
300
783274
3123
dürfen Angry Birds spielen, bekommen bessere Werbung.
13:06
But in fact, in a few years, organizations
301
786397
2897
Aber in ein paar Jahren werden Organisationen
13:09
will know so much about us,
302
789294
1609
so viel über uns wissen,
13:10
they will be able to infer our desires
303
790903
2710
dass sie unsere Wünsche ablesen können,
13:13
before we even form them, and perhaps
304
793613
2204
bevor wir sie überhaupt geformt haben,
13:15
buy products on our behalf
305
795817
2447
und vielleicht Produkte für uns kaufen,
13:18
before we even know we need them.
306
798264
2274
bevor wir wissen, dass wir sie brauchen.
13:20
Now there was one English author
307
800538
3237
Es gibt einen englischen Schriftsteller,
13:23
who anticipated this kind of future
308
803775
3045
der diese Zukunft vorhergesehen hat,
13:26
where we would trade away
309
806820
1405
in der wir Freiheit und
13:28
our autonomy and freedom for comfort.
310
808225
3548
Selbständigkeit gegen Bequemlichkeit tauschen.
13:31
Even more so than George Orwell,
311
811773
2161
Viel mehr noch als George Orwell,
13:33
the author is, of course, Aldous Huxley.
312
813934
2761
ich meine natürlich Aldous Huxley.
13:36
In "Brave New World," he imagines a society
313
816695
2854
In „Schöne neue Welt“ beschreibt er eine Gesellschaft,
13:39
where technologies that we created
314
819549
2171
in der Technologien, die ursprünglich
13:41
originally for freedom
315
821720
1859
unserer Freiheit dienten,
13:43
end up coercing us.
316
823579
2567
uns schließlich unterdrücken.
13:46
However, in the book, he also offers us a way out
317
826146
4791
Aber im Buch schlägt er auch einen Ausweg
13:50
of that society, similar to the path
318
830937
3438
aus dieser Gesellschaft vor, ähnlich dem Weg
13:54
that Adam and Eve had to follow to leave the garden.
319
834375
3955
dem Adam und Eva aus dem Paradies folgen mussten.
13:58
In the words of the Savage,
320
838330
2147
In den Worten des Wilden,
14:00
regaining autonomy and freedom is possible,
321
840477
3069
man kann Autonomie und Freiheit zurück erobern,
14:03
although the price to pay is steep.
322
843546
2679
aber der Preis dafür ist hoch.
14:06
So I do believe that one of the defining fights
323
846225
5715
Ich glaube, einer der entscheidenden Kämpfe
14:11
of our times will be the fight
324
851940
2563
unserer Zeit wird der Kampf
14:14
for the control over personal information,
325
854503
2387
um die Kontrolle über persönliche Informationen sein,
14:16
the fight over whether big data will become a force
326
856890
3507
der Kampf darüber, ob Big Data eine Macht
14:20
for freedom,
327
860397
1289
der Freiheit wird,
14:21
rather than a force which will hiddenly manipulate us.
328
861686
4746
und nicht eine Macht, die uns heimlich manipuliert.
14:26
Right now, many of us
329
866432
2593
Noch wissen viele von uns nicht,
14:29
do not even know that the fight is going on,
330
869025
2753
dass dieser Kampf gerade geführt wird,
14:31
but it is, whether you like it or not.
331
871778
2672
aber das wird er, ob Sie wollen oder nicht.
14:34
And at the risk of playing the serpent,
332
874450
2804
Und auf die Gefahr hin, die Schlange zu sein,
14:37
I will tell you that the tools for the fight
333
877254
2897
sage ich Ihnen, dass die Waffen für den Kampf
14:40
are here, the awareness of what is going on,
334
880151
3009
hier drin sind – die Erkenntnis darüber, was geschieht –,
14:43
and in your hands,
335
883160
1355
und in Ihren Händen –
14:44
just a few clicks away.
336
884515
3740
nur ein paar Klicks entfernt.
14:48
Thank you.
337
888255
1482
Vielen Dank.
14:49
(Applause)
338
889737
4477
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7