Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,125 views ・ 2014-04-03

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: khalid marbou المدقّق: Abd Al-Rahman Al-Azhurry
00:12
If you remember that first decade of the web,
0
12738
1997
إن كنت تتذكر العقد الأول من الويب،
00:14
it was really a static place.
1
14735
2255
كان مكانا جامدا بالفعل.
00:16
You could go online, you could look at pages,
2
16990
2245
يمكنك أن تدخل إلى الإنترنت، وتطلع على الصفحات،
00:19
and they were put up either by organizations
3
19235
2513
وهي موضوعة إما من طرف المنظمات
00:21
who had teams to do it
4
21748
1521
التي كانت تتوفر لديها فرق للقيام بذلك
00:23
or by individuals who were really tech-savvy
5
23269
2229
أو من طرف أفراد بارعين في التكنولوجيا
00:25
for the time.
6
25498
1737
آنذاك.
00:27
And with the rise of social media
7
27235
1575
ومع بزوغ الوسائط الاجتماعية
00:28
and social networks in the early 2000s,
8
28810
2399
والشبكات الاجتماعية في مطلع القرن 21،
00:31
the web was completely changed
9
31209
2149
تغير الويب بشكل كامل
00:33
to a place where now the vast majority of content
10
33358
3608
إلى مكان حيث أغلب المحتوى
00:36
we interact with is put up by average users,
11
36966
3312
الذي نتفاعل معه، تم وضعه من طرف أعضاء عاديين،
00:40
either in YouTube videos or blog posts
12
40278
2697
سواء في فيديوهات اليوتيوب أو التدوينات
00:42
or product reviews or social media postings.
13
42975
3315
أو تقييمات المنتجات أو منشورات الوسائط الاجتماعية.
00:46
And it's also become a much more interactive place,
14
46290
2347
كما أصبح كذلك مكانًا أكثر تفاعلية بكثير،
00:48
where people are interacting with others,
15
48637
2637
حيث يتفاعل الناس مع بعضهم البعض،
00:51
they're commenting, they're sharing,
16
51274
1696
فيعلقون ويتشاركون،
00:52
they're not just reading.
17
52970
1614
ولا يقرؤون فقط.
00:54
So Facebook is not the only place you can do this,
18
54584
1866
إذن فالفيسبوك ليس المكان الوحيد الذي يمكنك القيام بهذا فيه،
00:56
but it's the biggest,
19
56450
1098
لكنه الأكبر،
00:57
and it serves to illustrate the numbers.
20
57548
1784
ومن المفيد أن نوضح ذلك بالأرقام.
00:59
Facebook has 1.2 billion users per month.
21
59332
3477
يرتاد الفيسبوك 1.2 مليار مستخدم في الشهر.
01:02
So half the Earth's Internet population
22
62809
1930
إذن فنصف مستخدمي الإنترنت من سكان الأرض
01:04
is using Facebook.
23
64739
1653
يستخدمون الفيسبوك.
01:06
They are a site, along with others,
24
66392
1932
إنه موقع، إلى جانب مواقع أخرى،
01:08
that has allowed people to create an online persona
25
68324
3219
تسمح للناس بإنشاء شخصيات افتراضية
01:11
with very little technical skill,
26
71543
1782
بالقليل جدا من المهارات التقنية،
01:13
and people responded by putting huge amounts
27
73325
2476
وقد تجاوب الناس من خلال وضع كم هائل
01:15
of personal data online.
28
75801
1983
من البيانات الشخصية على الإنترنيت.
01:17
So the result is that we have behavioral,
29
77784
2543
والنتيجة أننا نحصل على بيانات حول
01:20
preference, demographic data
30
80327
1986
السلوكيات والتفضيلات والديموغرافية
01:22
for hundreds of millions of people,
31
82313
2101
لمئات الملايين من الأشخاص،
01:24
which is unprecedented in history.
32
84414
2026
وهو أمر غير مسبوق تاريخيًا،
01:26
And as a computer scientist, what this means is that
33
86440
2560
وكعالمة حاسوب، ما يعنيه هذا هو أنني
01:29
I've been able to build models
34
89000
1664
استطعت بناء نماذج
01:30
that can predict all sorts of hidden attributes
35
90664
2322
يمكنها التنبؤ بمختلف السمات الخفية
01:32
for all of you that you don't even know
36
92986
2284
لجميعكم، مما لا تعرفون حتى
01:35
you're sharing information about.
37
95270
2202
أنكم تشاركون معلومات بخصوصه.
01:37
As scientists, we use that to help
38
97472
2382
كعلماء، نستخدم هذا لتيسير
01:39
the way people interact online,
39
99854
2114
الطريقة التي يتفاعل بها الناس على الإنترنت
01:41
but there's less altruistic applications,
40
101968
2499
لكن هناك تطبيقات أكثر أنانية،
01:44
and there's a problem in that users don't really
41
104467
2381
وهناك مشكلة في كون المستخدمين لا يفهمون حقا
01:46
understand these techniques and how they work,
42
106848
2470
هذه التقنيات وكيف تعمل،
01:49
and even if they did, they don't have a lot of control over it.
43
109318
3128
وحتى إن فهموا ذلك، فليس لديهم الكثير من التحكم فيها.
01:52
So what I want to talk to you about today
44
112446
1490
لذا فما أود التحدث إليكم بخصوصه اليوم
01:53
is some of these things that we're able to do,
45
113936
2702
هو بعض من هذه الأمور التي يمكننا القيام بها،
01:56
and then give us some ideas of how we might go forward
46
116638
2763
وإعطاؤكم بعض الأفكار حول الكيفية التي يمكن بها أن نمضي قدمًا
01:59
to move some control back into the hands of users.
47
119401
2769
لإرجاع بعض من التحكم لأيادي المستخدمين.
02:02
So this is Target, the company.
48
122170
1586
هذه تارغيت، الشركة.
02:03
I didn't just put that logo
49
123756
1324
لم أقم بوضع هذا الشعار
02:05
on this poor, pregnant woman's belly.
50
125080
2170
على بطن هذه المرأة الحامل المسكينة.
02:07
You may have seen this anecdote that was printed
51
127250
1840
قد تكونون رأيتم هذه الطرفة التي طبعت
02:09
in Forbes magazine where Target
52
129090
2061
في مجلة فوربز، حيث قامت تارغيت
02:11
sent a flyer to this 15-year-old girl
53
131151
2361
بإرسال نشرة إعلانية لفتاة في 15 من عمرها
02:13
with advertisements and coupons
54
133512
1710
فيها إعلانات وقسائم شرائية
02:15
for baby bottles and diapers and cribs
55
135222
2554
لرضاعات وحفاضات ومهاد
02:17
two weeks before she told her parents
56
137776
1684
قبل أسبوعين من إخبارها لوالديها
02:19
that she was pregnant.
57
139460
1864
بأنها حامل.
02:21
Yeah, the dad was really upset.
58
141324
2704
نعم، الأب كان غاضبا بالفعل.
02:24
He said, "How did Target figure out
59
144028
1716
فقال: "كيف عرفت تارغيت
02:25
that this high school girl was pregnant
60
145744
1824
بأن هذه الفتاة في مرحلة الثانوية حامل
02:27
before she told her parents?"
61
147568
1960
قبل إخبارها لوالديها؟"
02:29
It turns out that they have the purchase history
62
149528
2621
وقد اتضح أنهم يحتفظون بتاريخ المشتريات
02:32
for hundreds of thousands of customers
63
152149
2301
لمئات الآلاف من الزبائن
02:34
and they compute what they call a pregnancy score,
64
154450
2730
ويقومون بحساب ما يسمونه بدرجة الحمل،
02:37
which is not just whether or not a woman's pregnant,
65
157180
2332
والذي لا يشير فقط إلى ما إذا كانت المرأة حاملًا أم لا،
02:39
but what her due date is.
66
159512
1730
لكن كذلك إلى تاريخ الولادة المحتمل.
02:41
And they compute that
67
161242
1304
ويقومون بحساب ذلك
02:42
not by looking at the obvious things,
68
162546
1768
ليس من خلال النظر إلى الأمور الواضحة،
02:44
like, she's buying a crib or baby clothes,
69
164314
2512
كشرائها لمهد أو ملابس طفل،
02:46
but things like, she bought more vitamins
70
166826
2943
ولكن لأشياء مثل أنها اشترت فيتامينات أكثر
02:49
than she normally had,
71
169769
1717
مما تشتريه في العادة،
02:51
or she bought a handbag
72
171486
1464
أو أنها اشترت حقيبة يدوية
02:52
that's big enough to hold diapers.
73
172950
1711
كبيرة بما يكفي لتحمل الحفاظات.
02:54
And by themselves, those purchases don't seem
74
174661
1910
وعمليات الشراء المنفردة تلك لا تبدو
02:56
like they might reveal a lot,
75
176571
2469
بأنها تبدي الكثير،
02:59
but it's a pattern of behavior that,
76
179040
1978
لكنه نمط سلوكي
03:01
when you take it in the context of thousands of other people,
77
181018
3117
حين تضعه في سياق آلاف الأشخاص الآخرين،
03:04
starts to actually reveal some insights.
78
184135
2757
يبدأ في إظهار بعض التبصرات.
03:06
So that's the kind of thing that we do
79
186892
1793
إذن فهذا هو ما نقوم به
03:08
when we're predicting stuff about you on social media.
80
188685
2567
حين نتنبأ بأشياء حولك في الوسائط الاجتماعية.
03:11
We're looking for little patterns of behavior that,
81
191252
2796
نبحث عن الأنماط الصغيرة للسلوكات والتي
03:14
when you detect them among millions of people,
82
194048
2682
حين تكتشفها ضمن ملايين الأشخاص،
03:16
lets us find out all kinds of things.
83
196730
2706
تسمح لنا بمعرفة أشياء كثيرة.
03:19
So in my lab and with colleagues,
84
199436
1747
إذن ففي مختبري ومع زملائي،
03:21
we've developed mechanisms where we can
85
201183
1777
قمنا بتطوير آلية حيث يمكننا
03:22
quite accurately predict things
86
202960
1560
توقع أمور بدقة كبيرة
03:24
like your political preference,
87
204520
1725
مثل توجهك السياسي،
03:26
your personality score, gender, sexual orientation,
88
206245
3752
ونمط شخصيتك وجنسك وتوجهك الجنسي،
03:29
religion, age, intelligence,
89
209997
2873
وديانتك وعمرك وذكائك،
03:32
along with things like
90
212870
1394
بالإضافة إلى أشياء مثل
03:34
how much you trust the people you know
91
214264
1937
كم تثق في الأشخاص الذين تعرفهم
03:36
and how strong those relationships are.
92
216201
1804
ومدى متانة علاقتك بهم.
03:38
We can do all of this really well.
93
218005
1785
يمكننا القيام بكل هذا بشكل جيد.
03:39
And again, it doesn't come from what you might
94
219790
2197
ومجدداً، فإن هذا لا يأتي مما قد
03:41
think of as obvious information.
95
221987
2102
تعتقد أنها معلومات بديهية.
03:44
So my favorite example is from this study
96
224089
2281
والمثال المفضل لدي من هذه الدراسة
03:46
that was published this year
97
226370
1240
التي تم نشرها هذه السنة
03:47
in the Proceedings of the National Academies.
98
227610
1795
في أشغال الأكاديميات الوطنية.
03:49
If you Google this, you'll find it.
99
229405
1285
إن قمتم بالبحث عن هذا في غوغل ستجدونها.
03:50
It's four pages, easy to read.
100
230690
1872
إنها دراسة من أربعة صفحات، سهلة القراءة.
03:52
And they looked at just people's Facebook likes,
101
232562
3003
وقد نظروا فقط إلى إعجابات الأشخاص على الفيسبوك،
03:55
so just the things you like on Facebook,
102
235565
1920
فقط الأمور التي تسجل إعجابك بها على الفيسبوك،
03:57
and used that to predict all these attributes,
103
237485
2138
واستخدموا ذلك للتنبؤ بكل هذه السمات،
03:59
along with some other ones.
104
239623
1645
بالإضافة إلى تنبؤات أخرى.
04:01
And in their paper they listed the five likes
105
241268
2961
وفي منشورهم عدّدوا أكثر خمسة إعجابات
04:04
that were most indicative of high intelligence.
106
244229
2787
تدل على الذكاء العالي.
04:07
And among those was liking a page
107
247016
2324
ومن بينهم، كان تسجيل الإعجاب بصفحة
04:09
for curly fries. (Laughter)
108
249340
1905
للبطاطس المقلية المجعّدة. (ضحك)
04:11
Curly fries are delicious,
109
251245
2093
البطاطس المقلية المجعّدة لذيذة،
04:13
but liking them does not necessarily mean
110
253338
2530
لكن تسجيل الإعجاب بها لا يعني بالضرورة
04:15
that you're smarter than the average person.
111
255868
2080
أنك أذكى من الشخص العادي.
04:17
So how is it that one of the strongest indicators
112
257948
3207
فكيف يعتبر ذلك إذن بأنه من أقوى الأدلة
04:21
of your intelligence
113
261155
1570
على ذكائك
04:22
is liking this page
114
262725
1447
أن تسجل إعجابك بهذه الصفحة
04:24
when the content is totally irrelevant
115
264172
2252
في حين أن المحتوى غير ذي صلة
04:26
to the attribute that's being predicted?
116
266424
2527
بالسمات التي يتم التنبؤ بها؟
04:28
And it turns out that we have to look at
117
268951
1584
وقد اتضح أنه علينا أن ننظر إلى
04:30
a whole bunch of underlying theories
118
270535
1618
كم من النظريات الكامنة
04:32
to see why we're able to do this.
119
272153
2569
لمعرفة سبب قدرتنا على القيام بهذا.
04:34
One of them is a sociological theory called homophily,
120
274722
2913
أحدها نظرية اجتماعية تدعى "الهوموفيليا (الإمعة)"
04:37
which basically says people are friends with people like them.
121
277635
3092
والتي تقول أساسا بأن الناس يصادقون من هم مثلهم.
04:40
So if you're smart, you tend to be friends with smart people,
122
280727
2014
وبالتالي إن كنت ذكيًّا ، فإنك تميل إلى مصادقة الأذكياء،
04:42
and if you're young, you tend to be friends with young people,
123
282741
2630
وإن كنت شابًا، فإنك تميل إلى مصادقة الشباب،
04:45
and this is well established
124
285371
1627
وهذا أمر مؤكد
04:46
for hundreds of years.
125
286998
1745
على مدى مئات السنين.
04:48
We also know a lot
126
288743
1232
نعرف كذلك الكثير
04:49
about how information spreads through networks.
127
289975
2550
عن كيفية انتشار المعلومات عبر الشبكات.
04:52
It turns out things like viral videos
128
292525
1754
وقد اتضح أن أشياء مثل الفيديوهات سريعة الانتشار
04:54
or Facebook likes or other information
129
294279
2406
أو إعجابات الفيسبوك أو معلومات أخرى
04:56
spreads in exactly the same way
130
296685
1888
تنتشر بنفس الطريقة
04:58
that diseases spread through social networks.
131
298573
2454
التي تنتشر بها الأمراض في الشبكات الاجتماعية.
05:01
So this is something we've studied for a long time.
132
301027
1791
فهذا أمر درسناه لمدة طويلة.
05:02
We have good models of it.
133
302818
1576
ولدينا نماذج جيدة له.
05:04
And so you can put those things together
134
304394
2157
لذا فيمكنك أن تضع هذه الأمور معاً
05:06
and start seeing why things like this happen.
135
306551
3088
وتبدأ في رؤية سبب حدوث أمور كهذه.
05:09
So if I were to give you a hypothesis,
136
309639
1814
إذاً لو أردت أن أعطيكم فرضيةً،
05:11
it would be that a smart guy started this page,
137
311453
3227
كانت لتكون أن شخصًا ذكيًا أنشأ هذه الصفحة،
05:14
or maybe one of the first people who liked it
138
314680
1939
أو ربما أحد الأشخاص الأوائل الذين سجلو الإعجاب بها
05:16
would have scored high on that test.
139
316619
1736
كانت درجاتهم مرتفعة في ذلك الاختبار.
05:18
And they liked it, and their friends saw it,
140
318355
2288
فسجلوا إعجابهم بها، فلاحظ أصدقاؤهم الصفحة،
05:20
and by homophily, we know that he probably had smart friends,
141
320643
3122
وبإعمال مبدأ الهوموفيليا، ندرك أنه قد كان لديه أصدقاء أذكياء،
05:23
and so it spread to them, and some of them liked it,
142
323765
3056
وبالتالي انتشر الأمر بينهم، وبعضهم سجل إعجابه،
05:26
and they had smart friends,
143
326821
1189
وقد كان لديهم أصدقاء أذكياء،
05:28
and so it spread to them,
144
328010
807
05:28
and so it propagated through the network
145
328817
1973
فانتشرت بينهم كذلك،
وهكذا انتشرت عبر الشبكة
05:30
to a host of smart people,
146
330790
2569
عبر أشخاص أذكياء،
05:33
so that by the end, the action
147
333359
2056
ليصبح في النهاية، فعل
05:35
of liking the curly fries page
148
335415
2544
تسجيل الإعجاب بصفحة البطاطس المقلية المجعّدة
05:37
is indicative of high intelligence,
149
337959
1615
دليلًا على الذكاء العالي،
05:39
not because of the content,
150
339574
1803
ليس بسبب المحتوى،
05:41
but because the actual action of liking
151
341377
2522
ولكن بسبب أن فعل تسجيل الإعجاب نفسه
05:43
reflects back the common attributes
152
343899
1900
يعكس السمات العامة
05:45
of other people who have done it.
153
345799
2468
للأشخاص الآخرين الذين قاموا بذلك.
05:48
So this is pretty complicated stuff, right?
154
348267
2897
هذه أشياء في غاية التعقيد، صحيح؟
05:51
It's a hard thing to sit down and explain
155
351164
2199
من الصعب أن يتم الجلوس لشرحها
05:53
to an average user, and even if you do,
156
353363
2848
لمستخدم عادي، وحتى إن تم ذلك،
05:56
what can the average user do about it?
157
356211
2188
ماذا يمكن للمستخدم العادي أن يفعل تجاه هذا الأمر؟
05:58
How do you know that you've liked something
158
358399
2048
كيف تعرف أنك إن قمت بتسجيل إعجابك بشيء
06:00
that indicates a trait for you
159
360447
1492
فهذا يدل على إحدى سماتك
06:01
that's totally irrelevant to the content of what you've liked?
160
361939
3545
التي لا علاقة لها بالمحتوى الذي قمت بتسجيل إعجابك به؟
06:05
There's a lot of power that users don't have
161
365484
2546
هناك الكثير من القدرة التي لا يمتلكها المستخدمون
06:08
to control how this data is used.
162
368030
2230
للتحكم في كيفية استخدام هذه البيانات.
06:10
And I see that as a real problem going forward.
163
370260
3112
وبرأيي أن هذا يشكل مشكلة حقيقية في المستقبل.
06:13
So I think there's a couple paths
164
373372
1977
لذا أعتقد أن هناك مسارين
06:15
that we want to look at
165
375349
1001
يجدر بنا النظر إليهما
06:16
if we want to give users some control
166
376350
1910
إن أردنا إعطاء بعض التحكم للمستخدمين
06:18
over how this data is used,
167
378260
1740
حول كيفية استخدام هذه البيانات،
06:20
because it's not always going to be used
168
380000
1940
لأنه لن يتم استخدامها دائما
06:21
for their benefit.
169
381940
1381
لمصحلتهم.
06:23
An example I often give is that,
170
383321
1422
مثال أضربه عادة لهذا،
06:24
if I ever get bored being a professor,
171
384743
1646
أنني إن أحسست بالملل كأستاذة جامعية،
06:26
I'm going to go start a company
172
386389
1653
سأنشئ شركة
06:28
that predicts all of these attributes
173
388042
1454
تتنبأ بكل هذه السمات
06:29
and things like how well you work in teams
174
389496
1602
وأشياء مثل مدى اشتغالك في إطار الفريق
06:31
and if you're a drug user, if you're an alcoholic.
175
391098
2671
أو إن كنت مستخدمًا للمخدرات، أو مدمنًا للكحول.
06:33
We know how to predict all that.
176
393769
1440
نعرف كيف نخمن كل ذلك.
06:35
And I'm going to sell reports
177
395209
1761
وسأقوم ببيع التقارير
06:36
to H.R. companies and big businesses
178
396970
2100
لشركات الموارد البشرية والشركات الكبرى
06:39
that want to hire you.
179
399070
2273
التي تريد توظيفك.
06:41
We totally can do that now.
180
401343
1177
نستطيع القيام بذلك بكل سهولة الآن.
06:42
I could start that business tomorrow,
181
402520
1788
أستطيع أن أبدأ ذلك المشروع من الغد،
06:44
and you would have absolutely no control
182
404308
2052
ولن يكون لديك أي تحكم على الإطلاق
06:46
over me using your data like that.
183
406360
2138
في استخدامي لبياناتك بهذه الطريقة.
06:48
That seems to me to be a problem.
184
408498
2292
وهذه في نظري مشكلة.
06:50
So one of the paths we can go down
185
410790
1910
لذا فأحد المسارات التي يمكن أن نسلكها
06:52
is the policy and law path.
186
412700
2032
هو المسار القانوني.
06:54
And in some respects, I think that that would be most effective,
187
414732
3046
وأظن أنه في بعض النواحي، سيكون ذلك أكثر فاعلية،
06:57
but the problem is we'd actually have to do it.
188
417778
2756
لكن المشكلة هي أننا سيتوجب علينا القيام بذلك.
07:00
Observing our political process in action
189
420534
2780
والنظر إلى سيرورة العملية السياسية لدينا
07:03
makes me think it's highly unlikely
190
423314
2379
يجعلني أظن أنه من الصعب
07:05
that we're going to get a bunch of representatives
191
425693
1597
أن نقنع مجموعة من المندوبين
07:07
to sit down, learn about this,
192
427290
1986
ليجلسوا ويتعلموا عن ذلك،
07:09
and then enact sweeping changes
193
429276
2106
ثم يسنّو تغييرات شاملة
07:11
to intellectual property law in the U.S.
194
431382
2157
على قوانين الملكية الفكرية في الولايات المتحدة
07:13
so users control their data.
195
433539
2461
بحيث يسمح للمستخدمين بالتحكم في بياناتهم.
07:16
We could go the policy route,
196
436000
1304
نستطيع أن نسلك المسار السياسي،
07:17
where social media companies say,
197
437304
1479
حيث تقول شركات الوسائط الاجتماعية،
07:18
you know what? You own your data.
198
438783
1402
أتعلمون أمرًا؟ أنتم تمتلكون بياناتكم.
07:20
You have total control over how it's used.
199
440185
2489
أنتم تتحكمون في كيفية استخدامها.
07:22
The problem is that the revenue models
200
442674
1848
والمشكلة هي أن نظام موارد
07:24
for most social media companies
201
444522
1724
معظم شركات الوسائط الاجتماعية
07:26
rely on sharing or exploiting users' data in some way.
202
446246
4031
يعتمد على مشاركة أو استغلال بيانات المستخدمين بطريقة ما.
07:30
It's sometimes said of Facebook that the users
203
450277
1833
ويقال أحيانا عن الفيسبوك بأن المستخدمين
07:32
aren't the customer, they're the product.
204
452110
2528
ليسوا زبائنًا، لكنهم المنتج.
07:34
And so how do you get a company
205
454638
2714
إذن فكيف تجعل شركة
07:37
to cede control of their main asset
206
457352
2558
تتنازل عن التحكم في أصولها الرئيسية
07:39
back to the users?
207
459910
1249
للمستخدمين؟
07:41
It's possible, but I don't think it's something
208
461159
1701
الأمر ممكن، لكن لا أظنه أمرًا
07:42
that we're going to see change quickly.
209
462860
2320
سنراه يتغير بسرعة.
07:45
So I think the other path
210
465180
1500
لذلك أعتقد أن المسار الآخر
07:46
that we can go down that's going to be more effective
211
466680
2288
الذي يمكننا أن نسلكه هو الأكثر فاعلية
07:48
is one of more science.
212
468968
1508
وهو أن نكثف الجهود العلمية.
07:50
It's doing science that allowed us to develop
213
470476
2510
وهو أن نكثف من الجهود العلمية التي تسمح لنا بتطوير
07:52
all these mechanisms for computing
214
472986
1750
كل هذه الآليات لحساب
07:54
this personal data in the first place.
215
474736
2052
هذه البيانات الشخصية في المقام الأول.
07:56
And it's actually very similar research
216
476788
2106
وهو في الواقع بحث مشابه جدًا
07:58
that we'd have to do
217
478894
1438
سيكون علينا القيام به
08:00
if we want to develop mechanisms
218
480332
2386
إن أردنا تطوير آليات
08:02
that can say to a user,
219
482718
1421
يمكنها القول لمستخدم،
08:04
"Here's the risk of that action you just took."
220
484139
2229
"ها هي مخاطر العملية التي أقدمت عليها للتو."
08:06
By liking that Facebook page,
221
486368
2080
من خلال تسجيل الإعجاب بصفحة فيسبوك،
08:08
or by sharing this piece of personal information,
222
488448
2535
أو مشاركة تلك المعلومات الشخصية،
08:10
you've now improved my ability
223
490983
1502
قد قمت بتحسين مقدرتي
08:12
to predict whether or not you're using drugs
224
492485
2086
على توقع ما إذا كنت تستخدم المخدرات أم لا
08:14
or whether or not you get along well in the workplace.
225
494571
2862
أو ما إذا كنت منسجما في مكان عملك أم لا.
08:17
And that, I think, can affect whether or not
226
497433
1848
وأظن أن ذلك سيؤثر على مدى
08:19
people want to share something,
227
499281
1510
رغبة الناس في مشاركة شيء،
08:20
keep it private, or just keep it offline altogether.
228
500791
3239
أو إبقائه خاصًّا، أو بعيدًا نهائيًّا عن الإنترنت.
08:24
We can also look at things like
229
504030
1563
يمكننا كذلك النظر إلى أشياء مثل
08:25
allowing people to encrypt data that they upload,
230
505593
2728
السماح للأشخاص بتشفير البيانات التي يرفعونها،
08:28
so it's kind of invisible and worthless
231
508321
1855
فتصبح بذلك خفيةً وغير ذات فائدة
08:30
to sites like Facebook
232
510176
1431
لمواقع مثل الفيسبوك
08:31
or third party services that access it,
233
511607
2629
أو أي جهاتٍ خارجيةِ تصل إليها،
08:34
but that select users who the person who posted it
234
514236
3247
ولكن المستخدمين الذين يود الشخص الذي نشرها
08:37
want to see it have access to see it.
235
517483
2670
أن يطلعوا عليها وحدهم يستطيعون رؤيتها.
08:40
This is all super exciting research
236
520153
2166
هذا مجالٌ بحثي مثيرٌ للغاية
08:42
from an intellectual perspective,
237
522319
1620
من منظورٍ فكري،
08:43
and so scientists are going to be willing to do it.
238
523939
1859
لذلك سيكون العلماء مستعدين للقيام به.
08:45
So that gives us an advantage over the law side.
239
525798
3610
وهذا يعطيه الأفضلية مقارنةً بالجانب القانوني.
08:49
One of the problems that people bring up
240
529408
1725
أحد المشاكل التي يطرحها الناس
08:51
when I talk about this is, they say,
241
531133
1595
حين أتحدث عن هذا، قولهم:
08:52
you know, if people start keeping all this data private,
242
532728
2646
أتعلمين أنه إن بدأ الناس بجعل كل هذا البيانات خاصة،
08:55
all those methods that you've been developing
243
535374
2113
كل تلك الطرق التي كنت تطورينها
08:57
to predict their traits are going to fail.
244
537487
2653
لتخمين سماتهم ستفشل.
09:00
And I say, absolutely, and for me, that's success,
245
540140
3520
وأقول، بكل تأكيد، وبالنسبة لي، فذلك نجاح،
09:03
because as a scientist,
246
543660
1786
لأنني كعالمة،
09:05
my goal is not to infer information about users,
247
545446
3688
هدفي ليس أن أستنتج معلومات عن المستخدمين،
09:09
it's to improve the way people interact online.
248
549134
2767
بل أن أحسّن من الطريقة التي يتفاعل بها الناس على الإنترنت.
09:11
And sometimes that involves inferring things about them,
249
551901
3218
وأحيانا يعني ذلك استنتاج أشياء عنهم،
09:15
but if users don't want me to use that data,
250
555119
3022
لكن إن لم يرد المستخدمون مني أن أستخدم تلك البيانات،
09:18
I think they should have the right to do that.
251
558141
2038
فأظن أنه يجب أن يتم إعطاؤهم الحق في القيام بذلك.
09:20
I want users to be informed and consenting
252
560179
2651
أريد من المستخدمين أن يكونو مستخدمين واعيين وراضين
09:22
users of the tools that we develop.
253
562830
2112
عن الأدوات التي نطورها.
09:24
And so I think encouraging this kind of science
254
564942
2952
لذا أعتقد أن تشجيع هذا النوع من العلوم
09:27
and supporting researchers
255
567894
1346
ودعم الباحثين
09:29
who want to cede some of that control back to users
256
569240
3023
الذين يريدون التخلي عن بعض من ذلك التحكم وإعادته للمستخدمين
09:32
and away from the social media companies
257
572263
2311
وبعيداً عن شركات الوسائط الاجتماعية
09:34
means that going forward, as these tools evolve
258
574574
2671
يعني أن المضي قدمًا، وبتطور هذه الأدوات
09:37
and advance,
259
577245
1476
وتقدمها،
09:38
means that we're going to have an educated
260
578721
1414
يعني أنه ستكون لدينا قاعدة مستخدمين
09:40
and empowered user base,
261
580135
1694
متعلمة وممكّنة،
09:41
and I think all of us can agree
262
581829
1100
وأظن أن معظمنا متفقين على
09:42
that that's a pretty ideal way to go forward.
263
582929
2564
أن ذلك مسار مثالي للمضي قدمًا.
09:45
Thank you.
264
585493
2184
شكرا لكم.
09:47
(Applause)
265
587677
3080
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7