What will a future without secrets look like? | Alessandro Acquisti

202,332 views ・ 2013-10-18

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Shlomo Adam מבקר: Ido Dekkers
00:12
I would like to tell you a story
0
12641
2354
ברצוני לספר לכם סיפור
00:14
connecting the notorious privacy incident
1
14995
3176
המקשר את תקרית הפרטיות הידועה לשמצה
00:18
involving Adam and Eve,
2
18171
2769
בין אדם לחווה,
00:20
and the remarkable shift in the boundaries
3
20940
3446
עם התזוזה הבולטת בגבולות
00:24
between public and private which has occurred
4
24386
2686
שבין הפרטי לציבורי, שהתרחשה
00:27
in the past 10 years.
5
27072
1770
ב-10 השנים האחרונות.
00:28
You know the incident.
6
28842
1298
התקרית ההיא מוכרת לכם.
00:30
Adam and Eve one day in the Garden of Eden
7
30140
3330
אדם וחווה, יום אחד בגן-עדן,
00:33
realize they are naked.
8
33470
1843
תופשים שהם עירומים.
00:35
They freak out.
9
35313
1500
הם מתחרפנים.
00:36
And the rest is history.
10
36813
2757
והשאר כתוב בדברי הימים.
00:39
Nowadays, Adam and Eve
11
39570
2188
היום, אדם וחווה
00:41
would probably act differently.
12
41758
2361
היו ודאי נוהגים אחרת.
00:44
[@Adam Last nite was a blast! loved dat apple LOL]
13
44119
2268
[@אדם אתמול בלילה היה פיצוץ! היה אחלה תפוח:)))]
00:46
[@Eve yep.. babe, know what happened to my pants tho?]
14
46387
1873
[@חווה כן... מותק, יודעת איפה המכנסיים שלי?]
00:48
We do reveal so much more information
15
48260
2636
אנו חושפים מידע רב
00:50
about ourselves online than ever before,
16
50896
3334
על עצמנו ברשת, יותר מאי-פעם,
00:54
and so much information about us
17
54230
1704
והמון מידע אודותינו
00:55
is being collected by organizations.
18
55934
2224
נאסף ע"י ארגונים.
00:58
Now there is much to gain and benefit
19
58158
3282
יש הרבה יתרונות ותועלת
01:01
from this massive analysis of personal information,
20
61440
2446
בניתוח המסיבי הזה של מידע אישי,
01:03
or big data,
21
63886
1946
או צבירת הנתונים,
01:05
but there are also complex tradeoffs that come
22
65832
2638
אבל יש גם חסרונות מורכבים
01:08
from giving away our privacy.
23
68470
3098
שנלווים לוויתור על פרטיותנו. [הסוכנות לבטחון לאומי בין החברים ב"פייסבוק"]
01:11
And my story is about these tradeoffs.
24
71568
4023
והסיפור שלי עוסק בחסרונות האלה.
01:15
We start with an observation which, in my mind,
25
75591
2584
נפתח בהבחנה, שלדעתי,
01:18
has become clearer and clearer in the past few years,
26
78175
3327
הפכה ברורה יותר ויותר בשנים האחרונות,
01:21
that any personal information
27
81502
2097
והיא שכל מידע אישי
01:23
can become sensitive information.
28
83599
2285
עלול להפוך למידע רגיש.
01:25
Back in the year 2000, about 100 billion photos
29
85884
4125
בשנת 2000, כ-100 מיליארד תמונות
01:30
were shot worldwide,
30
90009
1912
צולמו בכל העולם,
01:31
but only a minuscule proportion of them
31
91921
3065
אבל רק חלקיק זעיר מהן
01:34
were actually uploaded online.
32
94986
1883
הועלו לרשת.
01:36
In 2010, only on Facebook, in a single month,
33
96869
3361
ב-2010, רק ב"פייסבוק" ורק בחודש אחד,
01:40
2.5 billion photos were uploaded,
34
100230
3270
הועלו 2.5 מיליארד צילומים,
01:43
most of them identified.
35
103500
1882
רובם מזוהים.
01:45
In the same span of time,
36
105382
1880
באותה תקופה,
01:47
computers' ability to recognize people in photos
37
107262
4870
יכולת המחשבים לזהות אנשים בצילומים
01:52
improved by three orders of magnitude.
38
112132
3608
השתפרה בשלושה סדרי-גודל.
01:55
What happens when you combine
39
115740
1882
מה קורה כשמשלבים
01:57
these technologies together:
40
117622
1501
בין שתי הטכנולוגיות האלה:
01:59
increasing availability of facial data;
41
119123
2658
עליה בזמינות נתוני הפנים
02:01
improving facial recognizing ability by computers;
42
121781
3648
ושיפור יכולת זיהוי הפנים ע"י מחשבים,
02:05
but also cloud computing,
43
125429
2182
אבל גם מיחשוב הענן
02:07
which gives anyone in this theater
44
127611
1888
שמעניק לכל אדם בזירה הזו
02:09
the kind of computational power
45
129499
1560
כוח מיחשוב מהסוג
02:11
which a few years ago was only the domain
46
131059
1886
שלפני שנים ספורות היה שייך בלעדית
02:12
of three-letter agencies;
47
132945
1782
לסוכנויות ששמן מורכב מ-3 אותיות,
02:14
and ubiquitous computing,
48
134727
1378
והמיחשוב שנמצא בכל,
02:16
which allows my phone, which is not a supercomputer,
49
136105
2892
שמאפשר לטלפון שלי, שאיננו מחשב-על,
02:18
to connect to the Internet
50
138997
1671
להתחבר לאינטרנט
02:20
and do there hundreds of thousands
51
140668
2334
ולבצע שם מאות אלפי
02:23
of face metrics in a few seconds?
52
143002
2639
מדידות פנים בכמה שניות?
02:25
Well, we conjecture that the result
53
145641
2628
ובכן, אנו משערים שהתוצאה
02:28
of this combination of technologies
54
148269
2064
של שילוב הטכנולוגיות הזה
02:30
will be a radical change in our very notions
55
150333
2888
תהיה שינוי קיצוני במושגים שלנו עצמם
02:33
of privacy and anonymity.
56
153221
2257
בקשר לפרטיות ואלמוניות.
02:35
To test that, we did an experiment
57
155478
1993
כדי לבחון זאת, ערכנו ניסוי
02:37
on Carnegie Mellon University campus.
58
157471
2121
בקמפוס של אוניברסיטת קרנגי מלון.
02:39
We asked students who were walking by
59
159592
2099
ביקשנו מסטודנטים עוברים ושבים
02:41
to participate in a study,
60
161691
1779
להשתתף במחקר מסוים,
02:43
and we took a shot with a webcam,
61
163470
2562
צילמנו אותם במצלמת רשת,
02:46
and we asked them to fill out a survey on a laptop.
62
166032
2782
וביקשנו מהם למלא טופס של סקר במחשב אישי.
02:48
While they were filling out the survey,
63
168814
1979
ובזמן שהם מילאו את הטופס,
02:50
we uploaded their shot to a cloud-computing cluster,
64
170793
2797
העלינו את תמונתם למיחשוב הענן,
02:53
and we started using a facial recognizer
65
173590
1727
והתחלנו להשתמש בתוכנת זיהוי פנים
02:55
to match that shot to a database
66
175317
2405
כדי להתאים את התצלום לבסיס נתונים
02:57
of some hundreds of thousands of images
67
177722
2393
של כמה מאות אלפי תמונות
03:00
which we had downloaded from Facebook profiles.
68
180115
3596
שהורדנו מפרופילים ב"פייסבוק".
03:03
By the time the subject reached the last page
69
183711
3259
עד שהנבדק סיים למלא את העמוד האחרון בטופס הסקר,
03:06
on the survey, the page had been dynamically updated
70
186970
3347
הדף התעדכן באופן דינמי
03:10
with the 10 best matching photos
71
190317
2313
עם 10 התמונות התואמות ביותר
03:12
which the recognizer had found,
72
192630
2285
שתוכנת הזיהוי מצאה,
03:14
and we asked the subjects to indicate
73
194915
1738
ואז ביקשנו מהנבדקים לציין
03:16
whether he or she found themselves in the photo.
74
196653
4120
אם הוא או היא מצאו את עצמם ביניהם.
03:20
Do you see the subject?
75
200773
3699
אתם מזהים את הנבדק?
03:24
Well, the computer did, and in fact did so
76
204472
2845
המחשב בהחלט זיהה, ולמעשה הצליח בכך
03:27
for one out of three subjects.
77
207317
2149
עם אחד מכל שלושה נבדקים.
03:29
So essentially, we can start from an anonymous face,
78
209466
3184
כך שבעצם, אנו יכולים להתחיל מפרצוף אלמוני,
03:32
offline or online, and we can use facial recognition
79
212650
3484
מקוון או לא מקוון, ולהשתמש בזיהוי פנים
03:36
to give a name to that anonymous face
80
216134
2360
כדי להצמיד שם לאותו פרצוף אלמוני
03:38
thanks to social media data.
81
218494
2108
הודות לנתוני המדיה החברתית.
03:40
But a few years back, we did something else.
82
220602
1872
אך לפני כמה שנים עשינו משהו אחר.
03:42
We started from social media data,
83
222474
1823
התחלנו מנתוני המדיה החברתית,
03:44
we combined it statistically with data
84
224297
3051
שילבנו אותם באופן סטטיסטי עם נתונים
03:47
from U.S. government social security,
85
227348
2102
מהביטוח הלאומי של ממשלת ארה"ב,
03:49
and we ended up predicting social security numbers,
86
229450
3324
והצלחנו לגלות מראש מספרי ביטוח לאומי,
03:52
which in the United States
87
232774
1512
ובארה"ב,
03:54
are extremely sensitive information.
88
234286
2040
זהו מידע רגיש ביותר.
03:56
Do you see where I'm going with this?
89
236326
2093
אתם מבינים מה אני אומר כאן?
03:58
So if you combine the two studies together,
90
238419
2922
אם משלבים בין שני המחקרים,
04:01
then the question becomes,
91
241341
1512
אז השאלה היא,
04:02
can you start from a face and,
92
242853
2720
האם אפשר להתחיל מפרצוף,
04:05
using facial recognition, find a name
93
245573
2311
ובעזרת זיהוי פנים, למצוא שם
04:07
and publicly available information
94
247884
2669
ומידע זמין לציבור
04:10
about that name and that person,
95
250553
1932
על השם והאדם האלה,
04:12
and from that publicly available information
96
252485
2248
ומתוך אותו מידע זמין לציבור,
04:14
infer non-publicly available information,
97
254733
2042
להפיק מידע שאיננו זמין לציבור,
04:16
much more sensitive ones
98
256775
1606
מידע הרבה יותר רגיש
04:18
which you link back to the face?
99
258381
1492
שניתן לקשרו עם אותו פרצוף?
04:19
And the answer is, yes, we can, and we did.
100
259873
1916
והתשובה היא כן, אנו יכולים, ואנו עשינו זאת.
04:21
Of course, the accuracy keeps getting worse.
101
261789
2568
כמובן, שהדיוק הולך ויורד.
04:24
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
102
264357
944
[זוהו 27% ממספרי הביטוח הלאומי של הנבדקים (ב-4 נסיונות)]
04:25
But in fact, we even decided to develop an iPhone app
103
265301
3827
אך למעשה החלטנו אפילו לפתח יישומון ל"אייפון"
04:29
which uses the phone's internal camera
104
269128
2715
שמנצל את המצלמה הפנימית של הטלפון
04:31
to take a shot of a subject
105
271843
1600
כדי לצלם את הנבדק,
04:33
and then upload it to a cloud
106
273443
1487
להעלות את זה לענן
04:34
and then do what I just described to you in real time:
107
274930
2662
ואז לעשות את מה שזה עתה תיארתי, בזמן אמת:
04:37
looking for a match, finding public information,
108
277592
2088
לחפש התאמה, לאתר מידע גלוי,
04:39
trying to infer sensitive information,
109
279680
1730
לנסות להסיק ממנו מידע רגיש,
04:41
and then sending back to the phone
110
281410
2591
ולשלוח את זה בחזרה אל הטלפון
04:44
so that it is overlaid on the face of the subject,
111
284001
3609
כדי לרבד את זה על פרצופו של הנבדק,
04:47
an example of augmented reality,
112
287610
1901
כדוגמה של מציאות מורחבת,
04:49
probably a creepy example of augmented reality.
113
289511
2451
אולי דוגמה חולנית של מציאות מורחבת.
04:51
In fact, we didn't develop the app to make it available,
114
291962
3339
לא פיתחנו את היישומון כדי שיהיה זמין לציבור,
04:55
just as a proof of concept.
115
295301
1922
אלא רק כדי להוכיח רעיון.
04:57
In fact, take these technologies
116
297223
2313
בעצם, כדי לקחת את הטכנולוגיות האלה
04:59
and push them to their logical extreme.
117
299536
1837
עד לקיצוניות הלוגית שלהן.
05:01
Imagine a future in which strangers around you
118
301373
2719
תארו לעצמכן עתיד שבו אנשים זרים סביבכם
05:04
will look at you through their Google Glasses
119
304092
2311
יביטו בכם דרך משקפי ה"גוגל" שלהם
05:06
or, one day, their contact lenses,
120
306403
2307
או, יום אחד, דרך עדשות המגע שלהם,
05:08
and use seven or eight data points about you
121
308710
4020
וישתמשו ב-7 או 8 נקודות מידע אודותיכם
05:12
to infer anything else
122
312730
2582
כדי להסיק את כל יתר המידע
05:15
which may be known about you.
123
315312
2603
שאפשר למצוא אודותיכם.
05:17
What will this future without secrets look like?
124
317915
4794
איך ייראה עתיד ללא סודות?
05:22
And should we care?
125
322709
1964
והאם זה צריך להיות חשוב לנו?
05:24
We may like to believe
126
324673
1891
אולי אנו אוהבים להאמין
05:26
that the future with so much wealth of data
127
326564
3040
שעתיד שיש בו עושר כזה של נתונים
05:29
would be a future with no more biases,
128
329604
2514
יהיה עתיד שבו כבר לא יהיו דעות מוטות,
05:32
but in fact, having so much information
129
332118
3583
אך למעשה, זמינותו של מידע כה רב
05:35
doesn't mean that we will make decisions
130
335701
2191
אינה אומרת שאנו נקבל החלטות
05:37
which are more objective.
131
337892
1706
אובייקטיביות יותר.
05:39
In another experiment, we presented to our subjects
132
339598
2560
בניסוי אחר הצגנו לנבדקים שלנו
05:42
information about a potential job candidate.
133
342158
2246
מידע אודות מועמד פוטנציאלי למשרה כלשהי.
05:44
We included in this information some references
134
344404
3178
כללנו במידע זה כמה התייחסויות
05:47
to some funny, absolutely legal,
135
347582
2646
למידע קצת משעשע, חוקי לגמרי,
05:50
but perhaps slightly embarrassing information
136
350228
2465
אך אולי מעט מביך
05:52
that the subject had posted online.
137
352693
2020
שהנבדק העלה לרשת.
05:54
Now interestingly, among our subjects,
138
354713
2366
המעניין הוא שבין הנבדקים שלנו,
05:57
some had posted comparable information,
139
357079
3083
אחדים העלו מידע דומה,
06:00
and some had not.
140
360162
2362
ואחרים לא.
06:02
Which group do you think
141
362524
1949
איזו קבוצה לדעתכם
06:04
was more likely to judge harshly our subject?
142
364473
4552
נטתה לשפוט בחומרה את הנבדק שלנו?
06:09
Paradoxically, it was the group
143
369025
1957
באופן פרדוקסלי, היתה זו הקבוצה
06:10
who had posted similar information,
144
370982
1733
שהעלתה לרשת מידע דומה,
06:12
an example of moral dissonance.
145
372715
2942
דוגמה לעיוות מוסרי.
06:15
Now you may be thinking,
146
375657
1750
אולי תחשבו:
06:17
this does not apply to me,
147
377407
1702
"זה לא נוגע לי,
06:19
because I have nothing to hide.
148
379109
2162
"כי אין לי דבר להסתיר."
06:21
But in fact, privacy is not about
149
381271
2482
אך האמת היא שפרטיות איננה
06:23
having something negative to hide.
150
383753
3676
הסתרה של משהו שלילי.
06:27
Imagine that you are the H.R. director
151
387429
2354
תארו לעצמכם שאתם מנהלי משאבי-אנוש
06:29
of a certain organization, and you receive résumés,
152
389783
2947
בארגון כלשהו, ואתם מקבלים קורות חיים
06:32
and you decide to find more information about the candidates.
153
392730
2473
ומחליטים לחפש מידע נוסף אודות המועמדים שלכם.
06:35
Therefore, you Google their names
154
395203
2460
אז אתם "מגגלים" את שמותיהם
06:37
and in a certain universe,
155
397663
2240
ובמציאות מסוימת,
06:39
you find this information.
156
399903
2008
אתם מגלים את המידע הזה.
06:41
Or in a parallel universe, you find this information.
157
401911
4437
או במציאות מקבילה אחרת, את המידע הזה.
06:46
Do you think that you would be equally likely
158
406348
2717
האם נראה לכם סביר שתזמינו באופן שוויוני
06:49
to call either candidate for an interview?
159
409065
2803
את המועמדות האלה לראיון?
06:51
If you think so, then you are not
160
411868
2282
אם אתם חושבים שכן, הרי שאינכם
06:54
like the U.S. employers who are, in fact,
161
414150
2582
כמו המעסיקים בארה"ב, שלמעשה,
06:56
part of our experiment, meaning we did exactly that.
162
416732
3307
משתתפים בניסוי שלנו, כלומר: זה בדיוק מה שעשינו.
07:00
We created Facebook profiles, manipulating traits,
163
420039
3182
יצרנו פרופילי "פייסבוק", המצאנו תכונות אופי,
07:03
then we started sending out résumés to companies in the U.S.,
164
423221
2851
ואז התחלנו לשלוח קורות חיים לחברות בארה"ב,
07:06
and we detected, we monitored,
165
426072
1908
וגילינו, עקבנו,
07:07
whether they were searching for our candidates,
166
427980
2393
אם הם חיפשו מידע אודות מועמדינו,
07:10
and whether they were acting on the information
167
430373
1832
ואם הם פעלו על סמך המידע
07:12
they found on social media. And they were.
168
432205
1938
שמצאו במדיה החברתית. והם בהחלט כן.
07:14
Discrimination was happening through social media
169
434143
2101
התרחשה אפליה בכל המדיה החברתית
07:16
for equally skilled candidates.
170
436244
3073
לגבי מועמדים זהים מבחינת כישורים.
07:19
Now marketers like us to believe
171
439317
4575
המשווקים רוצים שנאמין
07:23
that all information about us will always
172
443892
2269
שכל המידע עלינו ישמש תמיד
07:26
be used in a manner which is in our favor.
173
446161
3273
לתועלתנו.
07:29
But think again. Why should that be always the case?
174
449434
3715
אבל אם תחשבו על זה, למה שזה תמיד יהיה כך?
07:33
In a movie which came out a few years ago,
175
453149
2664
בסרט שיצא לפני כמה שנים,
07:35
"Minority Report," a famous scene
176
455813
2553
"דוח מיוחד", בסצנה מפורסמת
07:38
had Tom Cruise walk in a mall
177
458366
2576
רואים את טום קרוז עובר בקניון
07:40
and holographic personalized advertising
178
460942
3776
ופרסום הולוגרפי מותאם-אישית
07:44
would appear around him.
179
464718
1835
מופיע סביבו.
07:46
Now, that movie is set in 2054,
180
466553
3227
הסרט מתרחש ב-2054,
07:49
about 40 years from now,
181
469780
1642
כ-40 שנה מהיום,
07:51
and as exciting as that technology looks,
182
471422
2908
וככל שהטכנולוגיה הזו נראית מלהיבה,
07:54
it already vastly underestimates
183
474330
2646
היא כבר ממעיטה מאד באומדן
07:56
the amount of information that organizations
184
476976
2140
כמות המידע שארגונים
07:59
can gather about you, and how they can use it
185
479116
2483
יכולים לאסוף אודותיכם, וכיצד הם יכולים להשתמש בו
08:01
to influence you in a way that you will not even detect.
186
481599
3398
כדי להשפיע עליכם בדרך שאפילו לא תגלו.
08:04
So as an example, this is another experiment
187
484997
2103
בתור דוגמה, זהו ניסוי נוסף
08:07
actually we are running, not yet completed.
188
487100
2273
שאנו עורכים בימים אלה, הוא טרם הושלם.
08:09
Imagine that an organization has access
189
489373
2319
תארו לעצמכם שלארגון כלשהו יש גישה
08:11
to your list of Facebook friends,
190
491692
2056
לרשימת חבריכם ב"פייסבוק",
08:13
and through some kind of algorithm
191
493748
1772
ובאמצעות אלגוריתם מסוים
08:15
they can detect the two friends that you like the most.
192
495520
3734
הוא יכול לזהות את שני החברים הכי אהובים שלכם.
08:19
And then they create, in real time,
193
499254
2280
ואז הוא יוצר, בזמן אמת,
08:21
a facial composite of these two friends.
194
501534
2842
קלסתרון משולב של שני החברים האלה.
08:24
Now studies prior to ours have shown that people
195
504376
3069
מחקרים שנערכו לפנינו הראו שאנשים
08:27
don't recognize any longer even themselves
196
507445
2885
כבר לא מזהים אפילו את עצמם
08:30
in facial composites, but they react
197
510330
2462
בקלסתרונים, אבל הם מגיבים
08:32
to those composites in a positive manner.
198
512792
2117
לקלסתרונים אלה באופן חיובי.
08:34
So next time you are looking for a certain product,
199
514909
3415
כך שבפעם הבאה שתחפשו מוצר כלשהו,
08:38
and there is an ad suggesting you to buy it,
200
518324
2559
ותהיה איזו פרסומת שתציע לכם לקנות אותו,
08:40
it will not be just a standard spokesperson.
201
520883
2907
המציג לא יהיה דובר רגיל,
08:43
It will be one of your friends,
202
523790
2313
אלא אחד מחבריכם,
08:46
and you will not even know that this is happening.
203
526103
3303
ואתם אפילו לא תדעו שזה מה שקורה.
08:49
Now the problem is that
204
529406
2413
הבעיה היא,
08:51
the current policy mechanisms we have
205
531819
2519
שמנגנוני המדיניות הנוכחיים שלנו
08:54
to protect ourselves from the abuses of personal information
206
534338
3438
שמטרתם להגן על עצמנו מניצול לרעה של מידע אישי
08:57
are like bringing a knife to a gunfight.
207
537776
2984
הם כמו להשתמש בסכין בקרב אקדחים.
09:00
One of these mechanisms is transparency,
208
540760
2913
אחד המנגנונים האלה הוא שקיפות,
09:03
telling people what you are going to do with their data.
209
543673
3200
לומר לאנשים מה תעשה עם המידע אודותיהם,
09:06
And in principle, that's a very good thing.
210
546873
2106
ועקרונית, זה טוב מאד.
09:08
It's necessary, but it is not sufficient.
211
548979
3667
זה הכרחי, אבל זה לא מספיק.
09:12
Transparency can be misdirected.
212
552646
3698
אפשר להשתמש בשקיפות באופן מטעה.
09:16
You can tell people what you are going to do,
213
556344
2104
אפשר לומר לאנשים מה עומדים לעשות,
09:18
and then you still nudge them to disclose
214
558448
2232
ולהמשיך להציק להם בדרישות למסור
09:20
arbitrary amounts of personal information.
215
560680
2623
כמויות שרירותיות של מידע אישי.
09:23
So in yet another experiment, this one with students,
216
563303
2886
אז בניסוי נוסף, הפעם בהשתתפות סטודנטים,
09:26
we asked them to provide information
217
566189
3058
ביקשנו מהם לספק מידע
09:29
about their campus behavior,
218
569247
1813
לגבי התנהלותם בקמפוס,
09:31
including pretty sensitive questions, such as this one.
219
571060
2940
כולל שאלות רגישות למדי, כמו זאת.
09:34
[Have you ever cheated in an exam?]
220
574000
621
09:34
Now to one group of subjects, we told them,
221
574621
2300
[האם אי-פעם רימית במבחן?] לקבוצה אחת של נבדקים אמרנו:
[האם אי-פעם רימית במבחן?] לקבוצה אחת של נבדקים אמרנו:
09:36
"Only other students will see your answers."
222
576921
2841
"רק סטודנטים אחרים יראו את תשובותיכם."
09:39
To another group of subjects, we told them,
223
579762
1579
לקבוצת נבדקים שניה אמרנו:
09:41
"Students and faculty will see your answers."
224
581341
3561
"הסטודנטים והסגל יראו את תשובותיכם."
09:44
Transparency. Notification. And sure enough, this worked,
225
584902
2591
שקיפות. הודעה מראש. וזה בהחלט עבד,
09:47
in the sense that the first group of subjects
226
587493
1407
במובן זה שקבוצת הנבדקים הראשונה
09:48
were much more likely to disclose than the second.
227
588900
2568
נטתה הרבה יותר למסור מידע מאשר השניה.
09:51
It makes sense, right?
228
591468
1520
הגיוני, נכון?
09:52
But then we added the misdirection.
229
592988
1490
אבל הוספנו הטעיה.
09:54
We repeated the experiment with the same two groups,
230
594478
2760
חזרנו על הניסוי עם אותן שתי קבוצות,
09:57
this time adding a delay
231
597238
2427
והפעם הוספנו השהיה
09:59
between the time we told subjects
232
599665
2935
בין הזמן בו הודענו לנבדקים
10:02
how we would use their data
233
602600
2080
איך בדעתנו להשתמש בנתונים
10:04
and the time we actually started answering the questions.
234
604680
4388
ובין הזמן שבו הם החלו בפועל לענות על השאלות.
10:09
How long a delay do you think we had to add
235
609068
2561
מה אורך ההשהייה, לדעתכם, היה עלינו להכניס
10:11
in order to nullify the inhibitory effect
236
611629
4613
כדי לבטל את האפקט המעכב
10:16
of knowing that faculty would see your answers?
237
616242
3411
שבידיעה שהסגל עתיד לראות את התשובות?
10:19
Ten minutes?
238
619653
1780
10 דקות?
10:21
Five minutes?
239
621433
1791
5 דקות?
10:23
One minute?
240
623224
1776
דקה אחת?
10:25
How about 15 seconds?
241
625000
2049
מה תאמרו על 15 שניות?
10:27
Fifteen seconds were sufficient to have the two groups
242
627049
2668
די היה ב-15 שניות כדי ששתי הקבוצות
10:29
disclose the same amount of information,
243
629717
1568
תמסורנה את אותה כמות מידע,
10:31
as if the second group now no longer cares
244
631285
2746
כאילו שלחברי הקבוצה השניה כבר לא היה איכפת
10:34
for faculty reading their answers.
245
634031
2656
אם הסגל יראה את תשובותיהם.
10:36
Now I have to admit that this talk so far
246
636687
3336
עלי להודות שההרצאה הזו נראית עד עתה
10:40
may sound exceedingly gloomy,
247
640023
2480
קודרת ביותר,
10:42
but that is not my point.
248
642503
1721
אבל לא זה המסר שלי.
10:44
In fact, I want to share with you the fact that
249
644224
2699
למעשה, אני רוצה לגלות לכם את העובדה
10:46
there are alternatives.
250
646923
1772
שיש חלופות.
10:48
The way we are doing things now is not the only way
251
648695
2499
הדרך בה אנו עושים דברים כיום אינה הדרך היחידה
10:51
they can done, and certainly not the best way
252
651194
3037
בה ניתן לעשותם, ואין ספק שהיא לא הדרך הכי טובה
10:54
they can be done.
253
654231
2027
בה ניתן לעשותם.
10:56
When someone tells you, "People don't care about privacy,"
254
656258
4171
כשמישהו אומר לכם: "לאנשים לא איכפת מפרטיות",
11:00
consider whether the game has been designed
255
660429
2642
שאלו את עצמכם האם המשחק לא תוכנן וטופל מראש
11:03
and rigged so that they cannot care about privacy,
256
663071
2724
כך שלא יהיה להם איכפת לגבי הפרטיות,
11:05
and coming to the realization that these manipulations occur
257
665795
3262
וההבנה שנעשות מניפולציות כאלה
11:09
is already halfway through the process
258
669057
1607
היא כבר חצי מהפתרון
11:10
of being able to protect yourself.
259
670664
2258
של היכולת להגן על עצמכם.
11:12
When someone tells you that privacy is incompatible
260
672922
3710
כשמישהו אומר לכם שהפרטיות אינה עולה בקנה אחד
11:16
with the benefits of big data,
261
676632
1849
עם התועלת שבצבירת נתונים,
11:18
consider that in the last 20 years,
262
678481
2473
חישבו על כך שב-20 השנה האחרונות,
11:20
researchers have created technologies
263
680954
1917
חוקרים יצרו טכנולוגיות
11:22
to allow virtually any electronic transactions
264
682871
3318
שתאפשרנה לבצע למעשה כל עיסקה אלקטרונית
11:26
to take place in a more privacy-preserving manner.
265
686189
3749
באופן שמגן יותר על הפרטיות.
11:29
We can browse the Internet anonymously.
266
689938
2555
אנו יכולים לגלוש באינטרנט באלמוניות.
11:32
We can send emails that can only be read
267
692493
2678
אנו יכולים לשלוח דוא"ל שיכול להיקרא
11:35
by the intended recipient, not even the NSA.
268
695171
3709
רק ע"י הנמען, אפילו לא ע"י הסוכנות לבטחון לאומי.
11:38
We can have even privacy-preserving data mining.
269
698880
2997
אנו יכולים לבצע אפילו כריית-נתונים מכבדת פרטיות.
11:41
In other words, we can have the benefits of big data
270
701877
3894
במלים אחרות, אנו יכולים לקבל את יתרונות צבירת הנתונים
11:45
while protecting privacy.
271
705771
2132
תוך שמירה על הפרטיות.
11:47
Of course, these technologies imply a shifting
272
707903
3791
מובן שמהטכנולוגיות האלה משתמע שינוי
11:51
of cost and revenues
273
711694
1546
מבחינת עלות והכנסות
11:53
between data holders and data subjects,
274
713240
2107
בין בעלי הנתונים לבין נושאי המידע,
11:55
which is why, perhaps, you don't hear more about them.
275
715347
3453
ואולי בגלל זה לא מרבים לשמוע עליהן.
11:58
Which brings me back to the Garden of Eden.
276
718800
3706
וזה מחזיר אותי לגן-עדן.
12:02
There is a second privacy interpretation
277
722506
2780
יש פרשנות נוספת, שקשורה בפרטיות,
12:05
of the story of the Garden of Eden
278
725286
1809
לסיפור גן העדן
12:07
which doesn't have to do with the issue
279
727095
2096
שלא בהכרח מתעסק עם הסוגיה
12:09
of Adam and Eve feeling naked
280
729191
2225
של עירומם של אדם וחווה
12:11
and feeling ashamed.
281
731416
2381
ותחושת הבושה שלהם.
12:13
You can find echoes of this interpretation
282
733797
2781
אפשר למצוא הדים לפרשנות זו
12:16
in John Milton's "Paradise Lost."
283
736578
2782
ב"גן העדן האבוד" של ג'ון מילטון.
12:19
In the garden, Adam and Eve are materially content.
284
739360
4197
בגן העדן, אדם וחווה מסופקים מבחינה חומרית.
12:23
They're happy. They are satisfied.
285
743557
2104
הם מאושרים. הם שבעי-רצון.
12:25
However, they also lack knowledge
286
745661
2293
אבל גם אין להם ידע
12:27
and self-awareness.
287
747954
1640
ומודעות עצמית.
12:29
The moment they eat the aptly named
288
749594
3319
ברגע שהם אוכלים מהפרי בעל השם ההולם,
12:32
fruit of knowledge,
289
752913
1293
פרי עץ הדעת,
12:34
that's when they discover themselves.
290
754206
2605
הם מגלים את עצמם.
12:36
They become aware. They achieve autonomy.
291
756811
4031
הם נעשים מודעים. הם רוכשים עצמאות.
12:40
The price to pay, however, is leaving the garden.
292
760842
3126
אבל המחיר שעליהם לשלם הוא עזיבת גן העדן.
12:43
So privacy, in a way, is both the means
293
763968
3881
כך שהפרטיות, במובן מסוים, היא גם האמצעי
12:47
and the price to pay for freedom.
294
767849
2962
וגם המחיר של החופש.
12:50
Again, marketers tell us
295
770811
2770
שוב, המשווקים מספרים לנו
12:53
that big data and social media
296
773581
3019
שצבירת נתונים והמידה החברתית
12:56
are not just a paradise of profit for them,
297
776600
2979
הם לא רק גן-עדן של רווחים עבורם,
12:59
but a Garden of Eden for the rest of us.
298
779579
2457
אלא גן-עדן עבור כולנו.
13:02
We get free content.
299
782036
1238
אנו מקבלים תוכן בחינם.
13:03
We get to play Angry Birds. We get targeted apps.
300
783274
3123
אנו זוכים לשחק "אנגרי בירדס", אנו מקבלים יישומונים ייעודיים.
13:06
But in fact, in a few years, organizations
301
786397
2897
אך האמת היא שתוך שנים ספורות, הארגונים
13:09
will know so much about us,
302
789294
1609
ידעו כל-כך הרבה עלינו,
13:10
they will be able to infer our desires
303
790903
2710
שהם יוכלו להסיק מהם רצונותינו
13:13
before we even form them, and perhaps
304
793613
2204
עוד לפני שאנו נדע מהם, ואולי
13:15
buy products on our behalf
305
795817
2447
לרכוש מוצרים בשמנו
13:18
before we even know we need them.
306
798264
2274
עוד לפני שנדע שאנו זקוקים להם.
13:20
Now there was one English author
307
800538
3237
היה סופר אנגלי,
13:23
who anticipated this kind of future
308
803775
3045
שצפה עתיד מעין זה,
13:26
where we would trade away
309
806820
1405
שבו נוכל לסחור
13:28
our autonomy and freedom for comfort.
310
808225
3548
בעצמאותנו ובחירותנו תמורת נוחות.
13:31
Even more so than George Orwell,
311
811773
2161
יותר מכפי שחזה ג'ורג' אורוול,
13:33
the author is, of course, Aldous Huxley.
312
813934
2761
הסופר הוא כמובן אלדוס הקסלי.
13:36
In "Brave New World," he imagines a society
313
816695
2854
ב"עולם חדש מופלא" הוא תיאר חברה
13:39
where technologies that we created
314
819549
2171
שבה הטכנולוגיות שיצרנו
13:41
originally for freedom
315
821720
1859
במקור למען החופש,
13:43
end up coercing us.
316
823579
2567
בסופו של דבר מדכאות אותנו.
13:46
However, in the book, he also offers us a way out
317
826146
4791
אבל באותו ספר הוא גם הציע דרך מוצא
13:50
of that society, similar to the path
318
830937
3438
מאותה חברה, בדומה לדרך
13:54
that Adam and Eve had to follow to leave the garden.
319
834375
3955
שאדם וחווה נאלצו ללכת בה כדי לעזוב את הגן.
13:58
In the words of the Savage,
320
838330
2147
כפי שאומר הפרא, מתוך הספר,
14:00
regaining autonomy and freedom is possible,
321
840477
3069
השבת העצמאות והחירות היא אפשרית,
14:03
although the price to pay is steep.
322
843546
2679
אם כי המחיר שיש לשלם הוא גבוה.
14:06
So I do believe that one of the defining fights
323
846225
5715
כך שאני אכן מאמין שאחד הקרבות
14:11
of our times will be the fight
324
851940
2563
שיגדירו את תקופתנו יהיה הקרב
14:14
for the control over personal information,
325
854503
2387
על השליטה במידע האישי שלנו,
14:16
the fight over whether big data will become a force
326
856890
3507
הקרב שיקבע אם צבירת הנתונים תהפוך לכוח
14:20
for freedom,
327
860397
1289
למען החירות,
14:21
rather than a force which will hiddenly manipulate us.
328
861686
4746
ולא לכוח שיפעיל עלינו מניפולציות סמויות.
14:26
Right now, many of us
329
866432
2593
לעת עתה, רבים מאיתנו
14:29
do not even know that the fight is going on,
330
869025
2753
אפילו לא יודעים שהקרב הזה בכלל מתחולל,
14:31
but it is, whether you like it or not.
331
871778
2672
אך הוא בהחלט ניטש, אם זה מוצא חן בעיניכם ואם לא.
14:34
And at the risk of playing the serpent,
332
874450
2804
ומתוך הסתכנות בגילום דמות הנחש,
14:37
I will tell you that the tools for the fight
333
877254
2897
אגלה לכם שהכלים לניהול הקרב
14:40
are here, the awareness of what is going on,
334
880151
3009
הם כאן - המודעות למה שקורה,
14:43
and in your hands,
335
883160
1355
וכאן, בקצות אצבעותיכם.
14:44
just a few clicks away.
336
884515
3740
נחוצות רק כמה הקשות מקש.
14:48
Thank you.
337
888255
1482
תודה לכם.
14:49
(Applause)
338
889737
4477
[מחיאות כפיים]
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7