What will a future without secrets look like? | Alessandro Acquisti

202,332 views ・ 2013-10-18

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: المدقّق: Ayman Mahmoud
00:12
I would like to tell you a story
0
12641
2354
أريد أن أخبركم بقصة تربط ما بين
00:14
connecting the notorious privacy incident
1
14995
3176
الحادثة الشهيرة المتعلقة بالخصوصية
00:18
involving Adam and Eve,
2
18171
2769
لآدم و حواء،
00:20
and the remarkable shift in the boundaries
3
20940
3446
و التغير المهم في الحدود
00:24
between public and private which has occurred
4
24386
2686
بين ما هو عام و ما هو خاص الحادث
00:27
in the past 10 years.
5
27072
1770
في السنوات ال10 الماضية.
00:28
You know the incident.
6
28842
1298
أنت تعلم الحادثة.
00:30
Adam and Eve one day in the Garden of Eden
7
30140
3330
في يوم من الأيام في جنة عدن قد لاحظ آدم و حواء
00:33
realize they are naked.
8
33470
1843
أنهم عراة.
00:35
They freak out.
9
35313
1500
لقد فزعوا.
00:36
And the rest is history.
10
36813
2757
و حصل ما حصل.
00:39
Nowadays, Adam and Eve
11
39570
2188
لو عاش آدم و حواء في عصرنا هذا
00:41
would probably act differently.
12
41758
2361
لتصرفوا بشكل مختلف على الأرجح.
00:44
[@Adam Last nite was a blast! loved dat apple LOL]
13
44119
2268
[الليلة الماضية كانت رائعة! لقد أحببت هذه التفاحة هاهاها Adam@]
00:46
[@Eve yep.. babe, know what happened to my pants tho?]
14
46387
1873
[أجل عزيزي، لكن هل تعلم ماذا حصل لبنطالي؟ Eve@]
00:48
We do reveal so much more information
15
48260
2636
نحن نكشف العديد من المعلومات
00:50
about ourselves online than ever before,
16
50896
3334
عن أنفسنا على الإنترنت أكثر من أي وقت مضى،
00:54
and so much information about us
17
54230
1704
و الكثير من المعلومات عنا
00:55
is being collected by organizations.
18
55934
2224
تُجمع عن طريق المؤسسات.
00:58
Now there is much to gain and benefit
19
58158
3282
الآن، هناك فائدة كبيرة
01:01
from this massive analysis of personal information,
20
61440
2446
من التحليل العملاق للبيانات الشخصية،
01:03
or big data,
21
63886
1946
أو المعلومات الكثيرة،
01:05
but there are also complex tradeoffs that come
22
65832
2638
لكن هناك أيضاً مقايضات معقدة تنتج عن
01:08
from giving away our privacy.
23
68470
3098
تنازلنا عن خصوصيتنا.
01:11
And my story is about these tradeoffs.
24
71568
4023
و قصتي هي عن ثلاثة مقايضات.
01:15
We start with an observation which, in my mind,
25
75591
2584
دعنا نبدأ بملاحظة و التي، في رأيي،
01:18
has become clearer and clearer in the past few years,
26
78175
3327
تزداد وضوحاً منذ سنوات قليلة،
01:21
that any personal information
27
81502
2097
و هي أن أي معلومة شخصية
01:23
can become sensitive information.
28
83599
2285
يمكن أن تصبح معلومة حساسة.
01:25
Back in the year 2000, about 100 billion photos
29
85884
4125
في سنة 2000، تم التقاط حوالي
01:30
were shot worldwide,
30
90009
1912
100 بليون صورة حول العالم،
01:31
but only a minuscule proportion of them
31
91921
3065
لكن جزء صغير منها فقط
01:34
were actually uploaded online.
32
94986
1883
تم تحميله على الإنترنت.
01:36
In 2010, only on Facebook, in a single month,
33
96869
3361
في عام 2010، على موقع فيسبوك وحده، في شهر واحد،
01:40
2.5 billion photos were uploaded,
34
100230
3270
تم تحميل 2.5 بليون صورة،
01:43
most of them identified.
35
103500
1882
معظمها متعرف عليها.
01:45
In the same span of time,
36
105382
1880
في نفس الفترة الزمنية،
01:47
computers' ability to recognize people in photos
37
107262
4870
قد زادت قدرة الحواسيب على تعرف على الناس
01:52
improved by three orders of magnitude.
38
112132
3608
في الصور إلى ثلاثة أضعاف.
01:55
What happens when you combine
39
115740
1882
الأمر الذي يحدث عندما تدمج
01:57
these technologies together:
40
117622
1501
هاتين التقنيتين معاً:
01:59
increasing availability of facial data;
41
119123
2658
هو زيادة في توفر البيانات عن الوجوه؛
02:01
improving facial recognizing ability by computers;
42
121781
3648
مما يزيد من قدرة الحواسيب على التعرف على الوجوه؛
02:05
but also cloud computing,
43
125429
2182
لكن أيضاً اتصال الحواسيب الآني،
02:07
which gives anyone in this theater
44
127611
1888
الذي يوفر لجميع الموجودين في هذا المسرح
02:09
the kind of computational power
45
129499
1560
نفس القدرة الحاسوبية
02:11
which a few years ago was only the domain
46
131059
1886
التي كانت منذ سنوات قليلة
02:12
of three-letter agencies;
47
132945
1782
حكراً على المنظمات الأمنية؛
02:14
and ubiquitous computing,
48
134727
1378
و وجود قدرة الحاسوبية في كل الأجهزة،
02:16
which allows my phone, which is not a supercomputer,
49
136105
2892
مما يسمح لهاتفي، و هو ليس حاسوب فائق،
02:18
to connect to the Internet
50
138997
1671
بالاتصال بالانترنت
02:20
and do there hundreds of thousands
51
140668
2334
و عمل تطابق للمئات من الآلاف
02:23
of face metrics in a few seconds?
52
143002
2639
من صور الوجوه في ثواني قليلة.
02:25
Well, we conjecture that the result
53
145641
2628
حسناً، يخبرنا حدسنا أن نتيجة
02:28
of this combination of technologies
54
148269
2064
دمج هذه التقنيات
02:30
will be a radical change in our very notions
55
150333
2888
سوف يحدث تغير جذري في مفاهيمنا الخاصة
02:33
of privacy and anonymity.
56
153221
2257
للخصوصية و إخفاء الهوية.
02:35
To test that, we did an experiment
57
155478
1993
لاختبار ذلك، قمنا بعمل تجربة
02:37
on Carnegie Mellon University campus.
58
157471
2121
في حرم جامعة كارينجي ميلون.
02:39
We asked students who were walking by
59
159592
2099
طلبنا من الطلاب الذين كانوا يسيرون في المكان
02:41
to participate in a study,
60
161691
1779
أن يشاركوا في الدراسة،
02:43
and we took a shot with a webcam,
61
163470
2562
و أخذنا صورة لهم باستخدام كاميرا كمبيوتر،
02:46
and we asked them to fill out a survey on a laptop.
62
166032
2782
و طلبنا منهم أن يعبئوا استبيان على اللابتوب.
02:48
While they were filling out the survey,
63
168814
1979
و بينما كانوا يعبئون الاستبيان،
02:50
we uploaded their shot to a cloud-computing cluster,
64
170793
2797
قمنا بتحميل صورهم على شبكة من الحواسيب المتصلة،
02:53
and we started using a facial recognizer
65
173590
1727
و بدأنا باستخدام محلل صور
02:55
to match that shot to a database
66
175317
2405
لإيجاد تطابق للصورة على قاعدة بيانات
02:57
of some hundreds of thousands of images
67
177722
2393
تحتوي على المئات من الآلاف من الصور
03:00
which we had downloaded from Facebook profiles.
68
180115
3596
قمنا بتنزيلها من صفحات الفيسبوك الشخصية،
03:03
By the time the subject reached the last page
69
183711
3259
في الوقت الذي وصل فيه المشارك إلى آخر صفحة
03:06
on the survey, the page had been dynamically updated
70
186970
3347
في الاستبيان، تم تحديث الصفحة
03:10
with the 10 best matching photos
71
190317
2313
بأقرب 10 صور للمشارك
03:12
which the recognizer had found,
72
192630
2285
قد وجدها المتعرف،
03:14
and we asked the subjects to indicate
73
194915
1738
و طلبنا من المشاركين إخبارنا
03:16
whether he or she found themselves in the photo.
74
196653
4120
إن وجدوا أنفسهم في الصور.
03:20
Do you see the subject?
75
200773
3699
هل تستطيع رؤية المشارك؟
03:24
Well, the computer did, and in fact did so
76
204472
2845
حسناً، استطاع الحاسوب فعل ذلك، بالحقيقة استطاع
03:27
for one out of three subjects.
77
207317
2149
التعرف على واحد من كل ثلاثة مشاركين.
03:29
So essentially, we can start from an anonymous face,
78
209466
3184
إذاً الفكرة الرئيسية، هي أننا نستطيع أن نبدأ بوجه شخص غير معروف الهوية
03:32
offline or online, and we can use facial recognition
79
212650
3484
سواء موجود على أرض الواقع أو على الانترنت، ثم باستخدام خاصية التعرف على الوجوه
03:36
to give a name to that anonymous face
80
216134
2360
نستطيع معرفة اسم صاحب هذا الوجه
03:38
thanks to social media data.
81
218494
2108
بفضل بيانات شبكات التواصل الاجتماعي.
03:40
But a few years back, we did something else.
82
220602
1872
لكن، منذ بضع سنوات، كنا نقوم بأمر آخر.
03:42
We started from social media data,
83
222474
1823
كنا نبدأ ببيانات شبكات التواصل الاجتماعي،
03:44
we combined it statistically with data
84
224297
3051
و ندمجها إحصائياً ببيانات
03:47
from U.S. government social security,
85
227348
2102
من الأمن القومي الأمريكي،
03:49
and we ended up predicting social security numbers,
86
229450
3324
و استطعنا توقع أرقام الضمان الاجتماعي،
03:52
which in the United States
87
232774
1512
و التي تعد في الولايات المتحدة الأمريكية
03:54
are extremely sensitive information.
88
234286
2040
معلومات حساسة للغاية.
03:56
Do you see where I'm going with this?
89
236326
2093
هل ترون ما الذي أرمي إليه بهذا؟
03:58
So if you combine the two studies together,
90
238419
2922
إذاً إن دمجت الدراستين سوياً،
04:01
then the question becomes,
91
241341
1512
يصبح السؤال،
04:02
can you start from a face and,
92
242853
2720
هل يمكنك البدء بوجه شخص،
04:05
using facial recognition, find a name
93
245573
2311
و باستخدام خاصية التعرف على الوجوه، إيجاد اسم
04:07
and publicly available information
94
247884
2669
و معلومات متوفرة للعموم
04:10
about that name and that person,
95
250553
1932
عن هذا الاسم و هذا الشخص،
04:12
and from that publicly available information
96
252485
2248
و استخلاص من هذه المعلومات العامة
04:14
infer non-publicly available information,
97
254733
2042
معلومات خاصة،
04:16
much more sensitive ones
98
256775
1606
أكثر حساسية بكثير
04:18
which you link back to the face?
99
258381
1492
يمكنك ربطها بالوجه؟
04:19
And the answer is, yes, we can, and we did.
100
259873
1916
و الإجابة هي، نعم، تستطيع، و استطعنا نحن فعل ذلك.
04:21
Of course, the accuracy keeps getting worse.
101
261789
2568
بالطبع، إن الدقة تزداد سوءاً.
04:24
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
102
264357
944
[تم معرفة أول خمسة أرقام من رقم الضمان الاجتماعي ل27% من المشاركين بالدراسة (بعد أربعة محاولات)]
04:25
But in fact, we even decided to develop an iPhone app
103
265301
3827
لكن في الحقيقة، لقد قررنا حتى تطوير تطبيق للآيفون
04:29
which uses the phone's internal camera
104
269128
2715
الذي يستخدم الكاميرا الداخلية للهاتف
04:31
to take a shot of a subject
105
271843
1600
لأخذ صورة الشخص
04:33
and then upload it to a cloud
106
273443
1487
ثم تحميلها على قاعدة بيانات على الانترنت
04:34
and then do what I just described to you in real time:
107
274930
2662
ثم يتم عمل ما قد وصفته لكم للتو آنياً:
04:37
looking for a match, finding public information,
108
277592
2088
البحث عن صورة مطابقة، إيجاد معلومات عامة،
04:39
trying to infer sensitive information,
109
279680
1730
محاولة استنتاج معلومات حساسة،
04:41
and then sending back to the phone
110
281410
2591
ثم إعادة إرسالها إلى الهاتف
04:44
so that it is overlaid on the face of the subject,
111
284001
3609
بحيث تضاف إلى صورة وجه المشارك،
04:47
an example of augmented reality,
112
287610
1901
إنه مثال للحقيقة المدمجة مع التكنولوجيا،
04:49
probably a creepy example of augmented reality.
113
289511
2451
على الأغلب هو مثال مريب للحقيقة المدمجة.
04:51
In fact, we didn't develop the app to make it available,
114
291962
3339
في الواقع، نحن لم نطور التطبيق لجعله متوفراً،
04:55
just as a proof of concept.
115
295301
1922
فقط لإثبات المبدأ.
04:57
In fact, take these technologies
116
297223
2313
في الواقع، خذ هذه التقنيات
04:59
and push them to their logical extreme.
117
299536
1837
و ادفع بها إلى أقصى حدود المنطق.
05:01
Imagine a future in which strangers around you
118
301373
2719
تخيل مستقبلاً حيث ينظر إليك الغرباء من حولك
05:04
will look at you through their Google Glasses
119
304092
2311
من خلال نظارات جوجل الخاصة بهم
05:06
or, one day, their contact lenses,
120
306403
2307
أو، في يوم ما، عدساتهم اللاصقة،
05:08
and use seven or eight data points about you
121
308710
4020
و يستخدموا سبعة أو ثمانية معلومات عنك
05:12
to infer anything else
122
312730
2582
لاستنتاج أي معلومة أخرى
05:15
which may be known about you.
123
315312
2603
يمكن أن تكون معروفة عنك.
05:17
What will this future without secrets look like?
124
317915
4794
كيف سوف يبدو هذا المستقبل الخالي من الأسرار؟
05:22
And should we care?
125
322709
1964
و هل علينا إبداء الاهتمام؟
05:24
We may like to believe
126
324673
1891
قد نود تصديق
05:26
that the future with so much wealth of data
127
326564
3040
أن المستقبل المليء بكم هائل من البيانات
05:29
would be a future with no more biases,
128
329604
2514
سوف يكون مستقبل بلا تحيز،
05:32
but in fact, having so much information
129
332118
3583
لكن في الحقيقة، امتلاك كم هائل من المعلومات
05:35
doesn't mean that we will make decisions
130
335701
2191
لا يعني أننا سوف نتخذ قرارات
05:37
which are more objective.
131
337892
1706
أكثر موضوعية.
05:39
In another experiment, we presented to our subjects
132
339598
2560
في تجربة أخرى، قدمنا للمشاركين لدينا
05:42
information about a potential job candidate.
133
342158
2246
معلومات عن متقدم محتمل لوظيفة.
05:44
We included in this information some references
134
344404
3178
لقد قمنا بإرفاق هذه المعلومة ببعض المصادر
05:47
to some funny, absolutely legal,
135
347582
2646
لبعض المعلومات المضحكة، و القانونية تماماً،
05:50
but perhaps slightly embarrassing information
136
350228
2465
لكن قد تكون محرجة قليلاً
05:52
that the subject had posted online.
137
352693
2020
قد أدخلها المشارك على شبكة الإنترنت.
05:54
Now interestingly, among our subjects,
138
354713
2366
الآن بشكل مفاجئ، من بين المشاركين،
05:57
some had posted comparable information,
139
357079
3083
بعضهم قد أدخل معلومات قابلة للمقارنة،
06:00
and some had not.
140
360162
2362
و البعض الآخر لم يفعل.
06:02
Which group do you think
141
362524
1949
أي المجموعتين تعتقدوا
06:04
was more likely to judge harshly our subject?
142
364473
4552
أنها كانت أقسى في تقييم مشاركنا؟
06:09
Paradoxically, it was the group
143
369025
1957
بشكل متناقض، لقد كانت المجموعة
06:10
who had posted similar information,
144
370982
1733
التي أدخلت معلومات مماثلة،
06:12
an example of moral dissonance.
145
372715
2942
إنه مثال على عدم الانسجام الأخلاقي.
06:15
Now you may be thinking,
146
375657
1750
الآن إنك قد تفكر،
06:17
this does not apply to me,
147
377407
1702
إن هذا لا ينطبق علي،
06:19
because I have nothing to hide.
148
379109
2162
لأن ليس لدي ما أخفيه.
06:21
But in fact, privacy is not about
149
381271
2482
لكن في الحقيقة، إن الخصوصية ليست متعلقة
06:23
having something negative to hide.
150
383753
3676
بإخفاء الأمور السلبية.
06:27
Imagine that you are the H.R. director
151
387429
2354
تخيل أنك مدير لقسم الموارد البشرية
06:29
of a certain organization, and you receive résumés,
152
389783
2947
في منظمة معينة، و وصلتك سيَر ذاتية،
06:32
and you decide to find more information about the candidates.
153
392730
2473
و قررت أن تجد معلومات أكثر عن المتقدمين.
06:35
Therefore, you Google their names
154
395203
2460
لهذا، فإنك تقوم بالبحث عن أسمائهم في جوجل
06:37
and in a certain universe,
155
397663
2240
و في وجود معين،
06:39
you find this information.
156
399903
2008
وجدت هذه المعلومة.
06:41
Or in a parallel universe, you find this information.
157
401911
4437
أو في وجود آخر، وجدت هذه المعلومة.
06:46
Do you think that you would be equally likely
158
406348
2717
هل تعتقد أنه سوف تكون احتمالات اتصالك
06:49
to call either candidate for an interview?
159
409065
2803
بأي منهما متساوية لإجراء مقابلة؟
06:51
If you think so, then you are not
160
411868
2282
إن كنت تعتقد كذلك، إذاً أنت لست
06:54
like the U.S. employers who are, in fact,
161
414150
2582
كأصحاب العمل الأمريكيين الذين، في الواقع،
06:56
part of our experiment, meaning we did exactly that.
162
416732
3307
جزء من تجربتنا، أي أننا قمنا باختبار ذلك تماماً.
07:00
We created Facebook profiles, manipulating traits,
163
420039
3182
قمنا بإنشاء صفحات شخصية على الفيسبوك، متلاعبين بالصفات،
07:03
then we started sending out résumés to companies in the U.S.,
164
423221
2851
ثم بدأنا بإرسال سير شخصية لشركات في الولايات المتحدة الأمريكية،
07:06
and we detected, we monitored,
165
426072
1908
و قمنا بالكشف، و بمتابعة،
07:07
whether they were searching for our candidates,
166
427980
2393
إن كانوا يبحثون عن مرشحينا،
07:10
and whether they were acting on the information
167
430373
1832
و إن كانوا يتصرفون حيال المعلومات
07:12
they found on social media. And they were.
168
432205
1938
التي وجدوها على شبكات التواصل الاجتماعي. و بالفعل قاموا بذلك.
07:14
Discrimination was happening through social media
169
434143
2101
التفرقة بين المتقدمين ذي الكفاءة المتماثلة كانت حاصلة
07:16
for equally skilled candidates.
170
436244
3073
بناء على شبكات التواصل الاجتماعي.
07:19
Now marketers like us to believe
171
439317
4575
الآن يفضل المسوّقين أن نعتقد
07:23
that all information about us will always
172
443892
2269
أن كل المعلومات المتعلقة بنا سوف تستخدم دائماً
07:26
be used in a manner which is in our favor.
173
446161
3273
فيما يصب في مصلحتنا.
07:29
But think again. Why should that be always the case?
174
449434
3715
لكن فكر مرة أخرى. لماذا يجب ذلك أن يكون صحيحاً في كل مرة؟
07:33
In a movie which came out a few years ago,
175
453149
2664
في فيلم قد عرض منذ بضع سنوات،
07:35
"Minority Report," a famous scene
176
455813
2553
"تقرير الأقلية"، في لقطة مشهورة
07:38
had Tom Cruise walk in a mall
177
458366
2576
يسير توم كروز في مجمع تجاري
07:40
and holographic personalized advertising
178
460942
3776
و يظهر حوله إعلان ثلاثي الأبعاد من حوله تم تخصيصه
07:44
would appear around him.
179
464718
1835
تم تخصيصه ليتناسب مع شخصه.
07:46
Now, that movie is set in 2054,
180
466553
3227
الآن، تدور أحداث هذا الفيلم في عام 2054،
07:49
about 40 years from now,
181
469780
1642
حوالي 40 سنة من الآن.
07:51
and as exciting as that technology looks,
182
471422
2908
بقدر ما تبدو هذه التقنية مثيرة للاهتمام،
07:54
it already vastly underestimates
183
474330
2646
إلّا أن قدرها يستهان به بشكل كبير
07:56
the amount of information that organizations
184
476976
2140
كمية المعلومات التي تستطيع
07:59
can gather about you, and how they can use it
185
479116
2483
المنظمات جمعها عنك، و الكيفية التي تستخدمها بها
08:01
to influence you in a way that you will not even detect.
186
481599
3398
للتأثير بك بطريقة لن يمكنك حتى كشفها.
08:04
So as an example, this is another experiment
187
484997
2103
فكمثال، هذه تجربة أخرى
08:07
actually we are running, not yet completed.
188
487100
2273
لا تزال قيد الدراسة، لم تكتمل بعد.
08:09
Imagine that an organization has access
189
489373
2319
تخيل أن لمنظمة القدرة على الولوج
08:11
to your list of Facebook friends,
190
491692
2056
إلى قائمة أصدقاؤك على الفيسبوك،
08:13
and through some kind of algorithm
191
493748
1772
و من خلال خوارزمية معينة
08:15
they can detect the two friends that you like the most.
192
495520
3734
يستطيعون معرفة الصديقين المفضلين لديك.
08:19
And then they create, in real time,
193
499254
2280
و من ثم ينشئون، آنياً،
08:21
a facial composite of these two friends.
194
501534
2842
تركيب للوجه لهذين الصديقين.
08:24
Now studies prior to ours have shown that people
195
504376
3069
الآن أظهرت الدراسات السابقة لدراستنا أن الناس
08:27
don't recognize any longer even themselves
196
507445
2885
لا تستطيع التعرف حتى على أنفسها في
08:30
in facial composites, but they react
197
510330
2462
في رسومات تركيب الوجه، لكنهم يستجيبون
08:32
to those composites in a positive manner.
198
512792
2117
لهذه التراكيب بطريقة إيجابية.
08:34
So next time you are looking for a certain product,
199
514909
3415
لذا في المرة التالية التي تبحث فيها عن منتج معين،
08:38
and there is an ad suggesting you to buy it,
200
518324
2559
و هناك إعلان يقترح أن تشتريه،
08:40
it will not be just a standard spokesperson.
201
520883
2907
فإنه لن يتضمن متحدث عادي.
08:43
It will be one of your friends,
202
523790
2313
بل سيكون أحد أصدقاؤك،
08:46
and you will not even know that this is happening.
203
526103
3303
و لن تدرك حتى مالذي يحدث.
08:49
Now the problem is that
204
529406
2413
الآن المشكلة في ذلك
08:51
the current policy mechanisms we have
205
531819
2519
أن آليات السياسة التي نمتلكها
08:54
to protect ourselves from the abuses of personal information
206
534338
3438
لحماية أنفسنا من سوء استخدام المعلومات الشخصية
08:57
are like bringing a knife to a gunfight.
207
537776
2984
هي كإحضار سكين إلى قتال بالأسلحة النارية.
09:00
One of these mechanisms is transparency,
208
540760
2913
أحد هذه الآليات هي الشفافية،
09:03
telling people what you are going to do with their data.
209
543673
3200
إخبار الناس بما سوف تفعله ببياناتهم.
09:06
And in principle, that's a very good thing.
210
546873
2106
و كمبدأ، فإنه أمر جيد جداً.
09:08
It's necessary, but it is not sufficient.
211
548979
3667
إنه ضروري، لكنه ليس كافي.
09:12
Transparency can be misdirected.
212
552646
3698
يمكن للشفافية أن يتم توجيهها بصورة خاطئة.
09:16
You can tell people what you are going to do,
213
556344
2104
يمكنك إخبار الناس بما سوف تقوم به،
09:18
and then you still nudge them to disclose
214
558448
2232
ثم لاتزال تدفعهم إلى الإدلاء
09:20
arbitrary amounts of personal information.
215
560680
2623
بكميات كبيرة من المعلومات الشخصية.
09:23
So in yet another experiment, this one with students,
216
563303
2886
لذا في تجربة أخرى، هذه المرة مع طلاب،
09:26
we asked them to provide information
217
566189
3058
فقد طلبنا منهم توفير معلومات
09:29
about their campus behavior,
218
569247
1813
عن تصرفاتهم داخل الحرم الجامعي،
09:31
including pretty sensitive questions, such as this one.
219
571060
2940
تتضمن أسئلة حساسة للغاية، كهذا.
09:34
[Have you ever cheated in an exam?]
220
574000
621
09:34
Now to one group of subjects, we told them,
221
574621
2300
[هل غششت مرة في إمتحان؟]
الآن أحد المجموعات من المشاركين، قلنا لهم،
09:36
"Only other students will see your answers."
222
576921
2841
"فقط الطلاب الآخرون سوف يروا إجاباتكم."
09:39
To another group of subjects, we told them,
223
579762
1579
لمجموعة أخرى من المشاركين، قلنا لهم،
09:41
"Students and faculty will see your answers."
224
581341
3561
"إن الطلاب و أعضاء الهيئة التدريسية سوف يروا إجاباتكم."
09:44
Transparency. Notification. And sure enough, this worked,
225
584902
2591
شفافية. إخطار. و بالطبع، نجح الأمر،
09:47
in the sense that the first group of subjects
226
587493
1407
من ناحية أن المجموعة الأولى من المشاركين
09:48
were much more likely to disclose than the second.
227
588900
2568
كانت أكثر قابلية للإدلاء من المجموعة الثانية.
09:51
It makes sense, right?
228
591468
1520
إنه أمر منطقي، أليس كذلك؟
09:52
But then we added the misdirection.
229
592988
1490
لكننا أضفنا سوء التوجيه بعد ذلك.
09:54
We repeated the experiment with the same two groups,
230
594478
2760
لقد كررنا التجربة مع نفس المجموعتين،
09:57
this time adding a delay
231
597238
2427
لكن بإضافة تأخير هذه المرة
09:59
between the time we told subjects
232
599665
2935
بين زمن إخبار المشتركين
10:02
how we would use their data
233
602600
2080
بالكيفية التي سيتم استخدام بياناتهم بها
10:04
and the time we actually started answering the questions.
234
604680
4388
و زمن الإجابة على الأسئلة.
10:09
How long a delay do you think we had to add
235
609068
2561
كم طول التأخير الذي تتوقعون كان علينا إضافته
10:11
in order to nullify the inhibitory effect
236
611629
4613
لإزالة التأثير الممانع
10:16
of knowing that faculty would see your answers?
237
616242
3411
لمعرفة أن أحد أعضاء هيئة التدريس سوف يرى إجابتك؟
10:19
Ten minutes?
238
619653
1780
عشرة دقائق؟
10:21
Five minutes?
239
621433
1791
خمسة دقائق؟
10:23
One minute?
240
623224
1776
دقيقة؟
10:25
How about 15 seconds?
241
625000
2049
ماذا عن 15 ثانية؟
10:27
Fifteen seconds were sufficient to have the two groups
242
627049
2668
كانت 15 ثانية كافية لجعل المجموعتين تدليان
10:29
disclose the same amount of information,
243
629717
1568
تدليان بنفس الكمية من المعلومات،
10:31
as if the second group now no longer cares
244
631285
2746
و كأن المجموعة الثانية لم تعد تهتم الآن
10:34
for faculty reading their answers.
245
634031
2656
بأمر قراءة أعضاء هيئة الدريس لأجوبتهم.
10:36
Now I have to admit that this talk so far
246
636687
3336
الآن عليّ الاعتراف أن هذا الحديث حتى الآن
10:40
may sound exceedingly gloomy,
247
640023
2480
قد يبدو كئيب لدرجة كبيرة،
10:42
but that is not my point.
248
642503
1721
لكن هذا ليس هدفي.
10:44
In fact, I want to share with you the fact that
249
644224
2699
بالواقع، أود أن أشارككم حقيقة أنه
10:46
there are alternatives.
250
646923
1772
هناك بدائل.
10:48
The way we are doing things now is not the only way
251
648695
2499
إن الطريقة التي نستخدمها في إنجاز الأمور الآن هي ليست الطريقة الوحيدة
10:51
they can done, and certainly not the best way
252
651194
3037
لإنجازها، و مؤكداً هي ليست أفضل طريقة
10:54
they can be done.
253
654231
2027
لإنجازها.
10:56
When someone tells you, "People don't care about privacy,"
254
656258
4171
عندما يخبرك شخص ما: "إن الناس لا تهتم بالخصوصية،"
11:00
consider whether the game has been designed
255
660429
2642
فكر إن كان تم تصميم اللعبة
11:03
and rigged so that they cannot care about privacy,
256
663071
2724
و تزويرها كي لا يستطيعوا الاهتمام بالخصوصية،
11:05
and coming to the realization that these manipulations occur
257
665795
3262
و إدراك أن هذه التلاعبات حاصلة
11:09
is already halfway through the process
258
669057
1607
هو نصف الطريق في عملية
11:10
of being able to protect yourself.
259
670664
2258
حماية نفسك.
11:12
When someone tells you that privacy is incompatible
260
672922
3710
عندما يخبرك شخص أن الخصوصية لا تتوافق
11:16
with the benefits of big data,
261
676632
1849
مع فوائد البيانات الهائلة،
11:18
consider that in the last 20 years,
262
678481
2473
فكر أن في ال20 سنة الماضية،
11:20
researchers have created technologies
263
680954
1917
طور الباحثون تقنيات
11:22
to allow virtually any electronic transactions
264
682871
3318
للسماح عملياً لأي عملية إلكترونية
11:26
to take place in a more privacy-preserving manner.
265
686189
3749
أن تحصل بطريقة أكثر حفظاً للسرية.
11:29
We can browse the Internet anonymously.
266
689938
2555
نحن نستطيع تصفح الانترنت بسرية.
11:32
We can send emails that can only be read
267
692493
2678
نستطيع إرسال رسائل إلكترونية يمكن قراءتها فقط
11:35
by the intended recipient, not even the NSA.
268
695171
3709
بواسطة الشخص المستقبل، و لا حتى الإن أس أيه (وكالة الأمن القومي) يمكنها ذلك.
11:38
We can have even privacy-preserving data mining.
269
698880
2997
يمكننا حتى استخراج البيانات بطريقة تحفظ السرية.
11:41
In other words, we can have the benefits of big data
270
701877
3894
بمعنى آخر، نحن بإمكاننا التمتع بفوائد البيانات الهائلة
11:45
while protecting privacy.
271
705771
2132
مع حماية السرية.
11:47
Of course, these technologies imply a shifting
272
707903
3791
بالطبع، هذه التقنيات تعني تغير
11:51
of cost and revenues
273
711694
1546
في التكاليف و الإيرادات
11:53
between data holders and data subjects,
274
713240
2107
بين حافظين البيانات و أصحاب البيانات،
11:55
which is why, perhaps, you don't hear more about them.
275
715347
3453
يمكن، لهذا السبب، أنت لا تسمع المزيد عنها.
11:58
Which brings me back to the Garden of Eden.
276
718800
3706
الأمر الذي يعيدني إلى جنة عدن.
12:02
There is a second privacy interpretation
277
722506
2780
هناك تفسير آخر متعلق بالخصوصية
12:05
of the story of the Garden of Eden
278
725286
1809
في قصة جنة عدن
12:07
which doesn't have to do with the issue
279
727095
2096
و هو ليس له علاقة بقضية
12:09
of Adam and Eve feeling naked
280
729191
2225
شعور آدم و حواء بالعري
12:11
and feeling ashamed.
281
731416
2381
و بالحرج.
12:13
You can find echoes of this interpretation
282
733797
2781
تستطيع إيجاد لمحات عن هذا التفسير
12:16
in John Milton's "Paradise Lost."
283
736578
2782
في قصيدة جون ملتون "الفردوس المفقود".
12:19
In the garden, Adam and Eve are materially content.
284
739360
4197
في الجنة، إن آدم و حواء مكتفيين مادياً.
12:23
They're happy. They are satisfied.
285
743557
2104
إنهما سعداء. إنهما مكتفيين.
12:25
However, they also lack knowledge
286
745661
2293
على الرغم من ذلك، فإنهم أيضاً يفتقرون المعرفة
12:27
and self-awareness.
287
747954
1640
و إدراك الذات.
12:29
The moment they eat the aptly named
288
749594
3319
و في لحظة إلتقامهما الفاكهة المسماة
12:32
fruit of knowledge,
289
752913
1293
بفاكهة المعرفة،
12:34
that's when they discover themselves.
290
754206
2605
هنا قد اكتشفا نفسيهما.
12:36
They become aware. They achieve autonomy.
291
756811
4031
لقد أصبحا مدركين. لقد حصلا على الاستقلالية الذاتية.
12:40
The price to pay, however, is leaving the garden.
292
760842
3126
لكن، الثمن الذي يجب دفعة، هو ترك الجنة.
12:43
So privacy, in a way, is both the means
293
763968
3881
إذا فالخصوصية، بطريقة ما، هي الوسيلة
12:47
and the price to pay for freedom.
294
767849
2962
و الثمن الذي يجب دفعه مقابل الحرية.
12:50
Again, marketers tell us
295
770811
2770
مجدداً، يخبرنا المسوّقون
12:53
that big data and social media
296
773581
3019
أن البيانات الهائلة و شبكات التواصل الاجتماعي
12:56
are not just a paradise of profit for them,
297
776600
2979
هي ليست فقط مصدر كبير للربح بالنسبة لهم،
12:59
but a Garden of Eden for the rest of us.
298
779579
2457
لكنها جنة عدن بالنسبة لبقيتنا.
13:02
We get free content.
299
782036
1238
نحن نحصل على محتويات مجانية.
13:03
We get to play Angry Birds. We get targeted apps.
300
783274
3123
نستطيع لعب "أنجري بيردز". نستطيع الحصول على تطبيقات موجهة.
13:06
But in fact, in a few years, organizations
301
786397
2897
لكن في الحقيقة، بعد عدة سنوات، سوف
13:09
will know so much about us,
302
789294
1609
تعلم المنظمات الكثير عنا،
13:10
they will be able to infer our desires
303
790903
2710
سوف يستطيعوا استنتاج رغباتنا
13:13
before we even form them, and perhaps
304
793613
2204
قبل حتى تكويننا لها، و ربما
13:15
buy products on our behalf
305
795817
2447
قد يشتروا منتجات باسمنا
13:18
before we even know we need them.
306
798264
2274
حتى قبل معرفتنا أننا نحتاجها.
13:20
Now there was one English author
307
800538
3237
الأن لقد كان هناك مؤلف بريطاني
13:23
who anticipated this kind of future
308
803775
3045
قد توقع هذا النوع من المستقبل
13:26
where we would trade away
309
806820
1405
حيث سوف نتخلى عن
13:28
our autonomy and freedom for comfort.
310
808225
3548
استقلالنا الذاتي و حريتنا من أجل الراحة.
13:31
Even more so than George Orwell,
311
811773
2161
حتى أكثر من جورج أرويل،
13:33
the author is, of course, Aldous Huxley.
312
813934
2761
إن المؤلف هو، بالطبع، ألدوس هكسلي.
13:36
In "Brave New World," he imagines a society
313
816695
2854
في كتابه "العالم الجديد الشجاع،" إنه يتصور مجتمع
13:39
where technologies that we created
314
819549
2171
حيث تصبح التكنولوجيا التي طورناها
13:41
originally for freedom
315
821720
1859
أساساً من أجل الحرية
13:43
end up coercing us.
316
823579
2567
مصدر إجبار لنا.
13:46
However, in the book, he also offers us a way out
317
826146
4791
لكن، في الكتاب، هو يوفر لنا مخرج
13:50
of that society, similar to the path
318
830937
3438
من ذلك المجتمع، كالذي
13:54
that Adam and Eve had to follow to leave the garden.
319
834375
3955
اضطر آدم و حواء اتخاذه للخروج من الجنة.
13:58
In the words of the Savage,
320
838330
2147
بكلمات مقتبسة من فلم "الوحش"،
14:00
regaining autonomy and freedom is possible,
321
840477
3069
"إن استرجاع الاستقلالية الذاتية و الحرية ممكن،
14:03
although the price to pay is steep.
322
843546
2679
على الرغم من أن الثمن باهظ."
14:06
So I do believe that one of the defining fights
323
846225
5715
فإذاً إنني أؤمن أن أحد النضالات الحاسمة
14:11
of our times will be the fight
324
851940
2563
في زمننا سوف يكون النضال
14:14
for the control over personal information,
325
854503
2387
من أجل التحكم بالمعلومات الشخصية،
14:16
the fight over whether big data will become a force
326
856890
3507
النضال حول إذا ما كانت البيانات الهائلة سوف تصبح قوة
14:20
for freedom,
327
860397
1289
دافعة للحرية،
14:21
rather than a force which will hiddenly manipulate us.
328
861686
4746
بدلاً من أن تكون قوة تتلاعب بنا بالخفاء.
14:26
Right now, many of us
329
866432
2593
الآن، الكثير منا
14:29
do not even know that the fight is going on,
330
869025
2753
لا يعلم أن القتال جاري،
14:31
but it is, whether you like it or not.
331
871778
2672
لكنه كذلك، سواء شئت أم أبيت.
14:34
And at the risk of playing the serpent,
332
874450
2804
و مع مجازفة اللعب مع الأفعى،
14:37
I will tell you that the tools for the fight
333
877254
2897
سوف أخبركم أن الأدوات للقتال
14:40
are here, the awareness of what is going on,
334
880151
3009
موجودة، إن إدراك الحاصل،
14:43
and in your hands,
335
883160
1355
في يديك،
14:44
just a few clicks away.
336
884515
3740
فقط على بعد نقرات.
14:48
Thank you.
337
888255
1482
شكراً.
14:49
(Applause)
338
889737
4477
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7