Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,892 views

2014-04-03 ・ TED


New videos

Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,892 views ・ 2014-04-03

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Ali Mousavi Reviewer: Leila Ataei
00:12
If you remember that first decade of the web,
0
12738
1997
اگر دهه اول وب را به خاطر داشته باشید،
00:14
it was really a static place.
1
14735
2255
محیطی کاملا یک نواخت بود.
00:16
You could go online, you could look at pages,
2
16990
2245
می توانستید آنلاین شوید، به صفحات نگاه کنید،
00:19
and they were put up either by organizations
3
19235
2513
و آنها توسط سازمانهایی طراحی شده بودند
00:21
who had teams to do it
4
21748
1521
که تیمهایی برای این کار داشتند
00:23
or by individuals who were really tech-savvy
5
23269
2229
یا توسط افرادی که در آن دوره
00:25
for the time.
6
25498
1737
واقعا عاشق تکنولوژی محسوب می شدند.
00:27
And with the rise of social media
7
27235
1575
و با پیدایش رسانه های اجتماعی
00:28
and social networks in the early 2000s,
8
28810
2399
و شبکه های اجتماعی از سالهای ۲۰۰۰ به بعد،
00:31
the web was completely changed
9
31209
2149
وب فضایی کاملا
00:33
to a place where now the vast majority of content
10
33358
3608
تغییر پیدا کرد که در حال حاضر بیشتر مطالبی که
00:36
we interact with is put up by average users,
11
36966
3312
با آن سر و کار داریم توسط کاربران معمولی تامین شده اند،
00:40
either in YouTube videos or blog posts
12
40278
2697
یا همینطور در ویدیوهای یوتیوب و یا پست های وبلاگ
00:42
or product reviews or social media postings.
13
42975
3315
یا در انتقادات از یک محصول و یا پست های رسانه های اجتماعی.
00:46
And it's also become a much more interactive place,
14
46290
2347
و همین طور به محل تعاملی تر تبدیل شده است،
00:48
where people are interacting with others,
15
48637
2637
جایی که افراد با دیگران در تعامل اند،
00:51
they're commenting, they're sharing,
16
51274
1696
نظر می گذارند، به اشتراک می گذارند،
00:52
they're not just reading.
17
52970
1614
فقط مشغول خواندن نیستند.
00:54
So Facebook is not the only place you can do this,
18
54584
1866
فیس بوک تنها محل برای این کار نیست،
00:56
but it's the biggest,
19
56450
1098
اما بزرگ ترین محل است،
00:57
and it serves to illustrate the numbers.
20
57548
1784
و برای نمایش آماری ما مناسب است.
00:59
Facebook has 1.2 billion users per month.
21
59332
3477
فیس بوک ۱/۲ بیلیون کاربر در ماه دارد.
01:02
So half the Earth's Internet population
22
62809
1930
یعنی نیمی از جمعیت اینترنت دنیا
01:04
is using Facebook.
23
64739
1653
از فیس بوک استفاده می کنند.
01:06
They are a site, along with others,
24
66392
1932
فیس بوک یک سایت مثل سایر سایت ها بود،
01:08
that has allowed people to create an online persona
25
68324
3219
که به افراد اجازه ایجاد یک نمایه آنلاین را
01:11
with very little technical skill,
26
71543
1782
با حداقل دانش فنی داد،
01:13
and people responded by putting huge amounts
27
73325
2476
و مردم هم با قراردادن مقدار زیادی از اطلاعات شخصی
01:15
of personal data online.
28
75801
1983
به فیس بوک پاسخ گفتند.
01:17
So the result is that we have behavioral,
29
77784
2543
بنابراین نتیجه این شد که اطلاعات رفتاری،
01:20
preference, demographic data
30
80327
1986
تمایلات و اطلاعات آمارنگاری
01:22
for hundreds of millions of people,
31
82313
2101
درباره صدها میلیون نفر در اختیار ماست،
01:24
which is unprecedented in history.
32
84414
2026
که در تاریخ بی سابقه بوده است.
01:26
And as a computer scientist, what this means is that
33
86440
2560
و به عنوان یک دانشمند کامپیوتر،
01:29
I've been able to build models
34
89000
1664
یعنی توانسته ام مدل هایی بسازم
01:30
that can predict all sorts of hidden attributes
35
90664
2322
که قادر به پیش بینی ویژگیهای پنهانی
01:32
for all of you that you don't even know
36
92986
2284
افرادی مثل شما هستند که حتی نمی دانید که
01:35
you're sharing information about.
37
95270
2202
اطلاعات آن ها را به اشتراک گذاشته اید.
01:37
As scientists, we use that to help
38
97472
2382
به عنوان دانشمند، ما از این برای کمک
01:39
the way people interact online,
39
99854
2114
به نحوه ارتباط افراد آنلاین استفاده می کنیم،
01:41
but there's less altruistic applications,
40
101968
2499
اما ابزارهای غیر انسان دوستانه هم وجود دارند،
01:44
and there's a problem in that users don't really
41
104467
2381
و مشکل این است که مردم واقعا نمی دانند
01:46
understand these techniques and how they work,
42
106848
2470
که این تکنیک ها چگونه کار می کنند،
01:49
and even if they did, they don't have a lot of control over it.
43
109318
3128
و حتی اگر می دانستند، کاری از دستشان بر نمی آمد.
01:52
So what I want to talk to you about today
44
112446
1490
اما چیزی که امروز می خواهم بگویم
01:53
is some of these things that we're able to do,
45
113936
2702
کارهاییست که می شود انجام دهیم،
01:56
and then give us some ideas of how we might go forward
46
116638
2763
و سپس طرح چند ایده برای ما، که بتوانیم به سمتی حرکت کنیم
01:59
to move some control back into the hands of users.
47
119401
2769
که کنترل برخی از اطلاعاتمان را به دست کاربر برگردانیم.
02:02
So this is Target, the company.
48
122170
1586
خوب این مربوط به شرکت تارگت است.
02:03
I didn't just put that logo
49
123756
1324
من لوگوی شرکت را روی این
02:05
on this poor, pregnant woman's belly.
50
125080
2170
خانم حامله بیچاره نگذاشتم.
02:07
You may have seen this anecdote that was printed
51
127250
1840
ممکن است آن داستان جالبی را که
02:09
in Forbes magazine where Target
52
129090
2061
در مجله فوربز چاپ شد، دیده باشید که تارگت
02:11
sent a flyer to this 15-year-old girl
53
131151
2361
یک بروشور به آدرس دختر ۱۵ ساله ای می فرستد
02:13
with advertisements and coupons
54
133512
1710
با محتوای تبلیغات و کوپن هایی
02:15
for baby bottles and diapers and cribs
55
135222
2554
درباره شیشه شیر بچه و پوشک و گهواره
02:17
two weeks before she told her parents
56
137776
1684
۲ هفته قبل از آنکه به والدینش بگوید
02:19
that she was pregnant.
57
139460
1864
که باردار شده است.
02:21
Yeah, the dad was really upset.
58
141324
2704
آره، باباش خیلی ناراحت شده بود.
02:24
He said, "How did Target figure out
59
144028
1716
خوب تارگت چطور متوجه شد
02:25
that this high school girl was pregnant
60
145744
1824
که این دختر دبیرستانی باردار است
02:27
before she told her parents?"
61
147568
1960
دو هفته قبل از این که والدینش بدانند؟
02:29
It turns out that they have the purchase history
62
149528
2621
معلوم شد که آنها یک تاریخچه خرید
02:32
for hundreds of thousands of customers
63
152149
2301
از صدها هزار مشتری خود دارند
02:34
and they compute what they call a pregnancy score,
64
154450
2730
و عددی که اسمش را نمره بارداری گذاشته اند محاسبه می کنند.
02:37
which is not just whether or not a woman's pregnant,
65
157180
2332
که فقط این نیست که یک زن باردار هست یا نه
02:39
but what her due date is.
66
159512
1730
بلکه تاریخ وضع حملش کی است.
02:41
And they compute that
67
161242
1304
و آن ها این را فقط توسط
02:42
not by looking at the obvious things,
68
162546
1768
محاسبه بدیهیاتی مثل این که
02:44
like, she's buying a crib or baby clothes,
69
164314
2512
او گهواره یا لباس بچه می خرد حساب نمی کنند،
02:46
but things like, she bought more vitamins
70
166826
2943
بلکه چیزهایی مثل این که او بیشتر ویتامین خرید می کند
02:49
than she normally had,
71
169769
1717
نسبت به خریدهای قبلی اش،
02:51
or she bought a handbag
72
171486
1464
یا او کیف دستی ای خریده است
02:52
that's big enough to hold diapers.
73
172950
1711
که برای حمل پوشک مناسب است.
02:54
And by themselves, those purchases don't seem
74
174661
1910
و به خودی خود، این خریدها به نظر
02:56
like they might reveal a lot,
75
176571
2469
چیز زیادی را آشکار نمی کنند،
02:59
but it's a pattern of behavior that,
76
179040
1978
اما این الگوی رفتاری است که،
03:01
when you take it in the context of thousands of other people,
77
181018
3117
زمانی که آن را در کنار الگوی هزاران فرد دیگر قرار می دهید،
03:04
starts to actually reveal some insights.
78
184135
2757
شروع به آشکار کردن بعضی چیزها می کند.
03:06
So that's the kind of thing that we do
79
186892
1793
بنابراین این کاری است که می کنیم
03:08
when we're predicting stuff about you on social media.
80
188685
2567
وقتی چیزی درباره شما روی شبکه های اجتماعی حدس می زنیم.
03:11
We're looking for little patterns of behavior that,
81
191252
2796
ما به دنبال الگوهای رفتاری کوچکی هستیم،
03:14
when you detect them among millions of people,
82
194048
2682
که وقتی در کنار میلیون ها فرد دیگر بگذاریدشان،
03:16
lets us find out all kinds of things.
83
196730
2706
به ما اجازه دانستن همه نوع چیز را می دهد.
03:19
So in my lab and with colleagues,
84
199436
1747
بنابراین من و همکارانم در آزمایشگاه،
03:21
we've developed mechanisms where we can
85
201183
1777
مکانیزمی طراحی کرده ایم که می توانیم
03:22
quite accurately predict things
86
202960
1560
به خوبی چیزهایی رو پیش بینی کنیم
03:24
like your political preference,
87
204520
1725
مثل تمایلات سیاسی شما،
03:26
your personality score, gender, sexual orientation,
88
206245
3752
امتیاز شخصیتی، جنسیت، گرایش جنسی،
03:29
religion, age, intelligence,
89
209997
2873
دین، سن، هوش،
03:32
along with things like
90
212870
1394
به همراه چیزهایی مثل
03:34
how much you trust the people you know
91
214264
1937
این که چقدر به آشنایانتان اعتماد دارید
03:36
and how strong those relationships are.
92
216201
1804
و چقدر روابطتان عمیق هستند.
03:38
We can do all of this really well.
93
218005
1785
ما این ها را به خوبی انجام می دهیم.
03:39
And again, it doesn't come from what you might
94
219790
2197
و این هم از چیزهایی که شما ممکن است به عنوان
03:41
think of as obvious information.
95
221987
2102
اطلاعات بدیهی تصور کنید به دست نمی آید.
03:44
So my favorite example is from this study
96
224089
2281
خوب مثال مورد علاقه من از مطالعاتی است که
03:46
that was published this year
97
226370
1240
امسال منتشر شد در ژورنال
03:47
in the Proceedings of the National Academies.
98
227610
1795
Proceedings of the National Academies
03:49
If you Google this, you'll find it.
99
229405
1285
می شود در گوگل جستجو کردش.
03:50
It's four pages, easy to read.
100
230690
1872
چهار صفحه است و به راحتی قابل خواندن.
03:52
And they looked at just people's Facebook likes,
101
232562
3003
و فقط در مورد لایک های افراد در فیس بوک تحقیق کرده اند،
03:55
so just the things you like on Facebook,
102
235565
1920
پس فقط آن چه در فیس بوک لایک می کنید،
03:57
and used that to predict all these attributes,
103
237485
2138
و از آن برای پیش بینی همه این ویژگی های شخصی،
03:59
along with some other ones.
104
239623
1645
به همراه سایر چیزها استفاده کردند.
04:01
And in their paper they listed the five likes
105
241268
2961
و در مقاله شان ۵ لایکی را نام بردند
04:04
that were most indicative of high intelligence.
106
244229
2787
که بیشترین تاثیر را در تشخیص هوش بالا داشت.
04:07
And among those was liking a page
107
247016
2324
و در میان آن ها صفحه ای بود
04:09
for curly fries. (Laughter)
108
249340
1905
درباره سیب زمینی سرخ کرده پیچی. (خنده)
04:11
Curly fries are delicious,
109
251245
2093
سیب زمینی سرخ کرده پیچی خوشمزه است،
04:13
but liking them does not necessarily mean
110
253338
2530
اما لایک کردنش لزوما به این معنی نیست
04:15
that you're smarter than the average person.
111
255868
2080
که شما باهوش تر از یک آدم معمولی هستید.
04:17
So how is it that one of the strongest indicators
112
257948
3207
پس چطور می شود که یکی از مهمترین مشخصه های
04:21
of your intelligence
113
261155
1570
هوش شما
04:22
is liking this page
114
262725
1447
لایک کردن این صفحه است
04:24
when the content is totally irrelevant
115
264172
2252
وقتی محتوای آن کاملا بی ارتباط
04:26
to the attribute that's being predicted?
116
266424
2527
با ویژگی شخصیتی ای است که پیش بینی می شود؟
04:28
And it turns out that we have to look at
117
268951
1584
این طور به نظر می رسد که باید
04:30
a whole bunch of underlying theories
118
270535
1618
کلا به یک سری تئوری پنهان بنگریم
04:32
to see why we're able to do this.
119
272153
2569
که متوجه شویم چرا این اتفاق می افتد.
04:34
One of them is a sociological theory called homophily,
120
274722
2913
یکی از آن ها یک نظریه جامعه شناسی به اسم هوموفیلی است،
04:37
which basically says people are friends with people like them.
121
277635
3092
که اساسا می گوید افراد، با آدمهای شبیه خودشان دوست می شوند.
04:40
So if you're smart, you tend to be friends with smart people,
122
280727
2014
پس اگر با هوشید، با باهوش ها دوست می شوید،
04:42
and if you're young, you tend to be friends with young people,
123
282741
2630
و اگر جوان هستید، با جوان ها دوست می شوید،
04:45
and this is well established
124
285371
1627
و این مساله برای
04:46
for hundreds of years.
125
286998
1745
هزاران سال وجود داشته است.
04:48
We also know a lot
126
288743
1232
ما همچینین زیاد درباره
04:49
about how information spreads through networks.
127
289975
2550
اینکه چطور اطلاعات در شبکه ها پخش می شوند می دانیم.
04:52
It turns out things like viral videos
128
292525
1754
ظاهرا چیزهایی مثل کلیپ ویدیویی
04:54
or Facebook likes or other information
129
294279
2406
یا لایک های فیسبوک و سایر اطلاعات
04:56
spreads in exactly the same way
130
296685
1888
دقیقا به شکلی منتشر می شوند،
04:58
that diseases spread through social networks.
131
298573
2454
که بیماری ها در بخشهای جامعه انتشار می یابند.
05:01
So this is something we've studied for a long time.
132
301027
1791
بر روی این موضوع زیاد تحقیق کرده ایم.
05:02
We have good models of it.
133
302818
1576
مدل های خوبی برای آن داریم.
05:04
And so you can put those things together
134
304394
2157
و می توانید همه این ها را کنار هم بگذارید
05:06
and start seeing why things like this happen.
135
306551
3088
و ببینید که چرا اتفاقات این چنینی می افتند.
05:09
So if I were to give you a hypothesis,
136
309639
1814
بنابراین اگر بخواهم نظریه بدهم،
05:11
it would be that a smart guy started this page,
137
311453
3227
این است که فرد باهوشی که این صفحه را ایجاد کرده است،
05:14
or maybe one of the first people who liked it
138
314680
1939
یا شاید کسی که اولین بار لایکش کرده است.
05:16
would have scored high on that test.
139
316619
1736
در آزمون امتیاز بالایی می گرفتند.
05:18
And they liked it, and their friends saw it,
140
318355
2288
و لایک کردند، و دوستانشان دیدند،
05:20
and by homophily, we know that he probably had smart friends,
141
320643
3122
و بر اساس هموفیلی، می دانیم که او احتمالا دوستان باهوشی داشته است،
05:23
and so it spread to them, and some of them liked it,
142
323765
3056
پس بین آنها منشتر شد، و بعضی از آنها هم لایک کردند،
05:26
and they had smart friends,
143
326821
1189
و دوستانشان باهوش بودند،
05:28
and so it spread to them,
144
328010
807
05:28
and so it propagated through the network
145
328817
1973
بینشان منتقل شد،
و به همین شکل در شبکه
05:30
to a host of smart people,
146
330790
2569
بین افراد باهوش گسترش یافت،
05:33
so that by the end, the action
147
333359
2056
تا در نهایت، فعل
05:35
of liking the curly fries page
148
335415
2544
لایک کردن صفحه سیب زمینی پیچان
05:37
is indicative of high intelligence,
149
337959
1615
مشخص کننده هوش بالاست،
05:39
not because of the content,
150
339574
1803
نه به دلیل محتوای آن،
05:41
but because the actual action of liking
151
341377
2522
بلکه فقط به خاطر اینکه لایک کردنش
05:43
reflects back the common attributes
152
343899
1900
ویژگیهای مشابه افرادی را که
05:45
of other people who have done it.
153
345799
2468
آن را لایک کرده اند بازتاب می دهد.
05:48
So this is pretty complicated stuff, right?
154
348267
2897
این خیلی موضوع پیچیده ای است، نه؟
05:51
It's a hard thing to sit down and explain
155
351164
2199
نشستن و توضیح دادنش برای
05:53
to an average user, and even if you do,
156
353363
2848
یک کاربر معمولی کار سختی است، و حتی اگر چنین کاری بکنیم،
05:56
what can the average user do about it?
157
356211
2188
یک کاربر معمولی چه کاری از دستش بر می آید؟
05:58
How do you know that you've liked something
158
358399
2048
چطور متوجه می شوید که چیزی را لایک کرده اید
06:00
that indicates a trait for you
159
360447
1492
که نشان دهنده یک ویژگی شخصیتیست
06:01
that's totally irrelevant to the content of what you've liked?
160
361939
3545
که کاملا با محتوایی که آن را لایک کرده اید بی ارتباط است.
06:05
There's a lot of power that users don't have
161
365484
2546
برای کنترل استفاده از داده ها، قدرت زیادی لازم است،
06:08
to control how this data is used.
162
368030
2230
که کاربران ندارند.
06:10
And I see that as a real problem going forward.
163
370260
3112
و من این را به عنوان مشکلی که در حال بزرگتر شدن است می بینم.
06:13
So I think there's a couple paths
164
373372
1977
و فکر می کنم چند راه وجود دارد که
06:15
that we want to look at
165
375349
1001
باید مدنظر قرار دهیم
06:16
if we want to give users some control
166
376350
1910
اکر می خواهیم به کاربران اجازه کنترل
06:18
over how this data is used,
167
378260
1740
نحوه استفاده از اطلاعاتشان را بدهیم،
06:20
because it's not always going to be used
168
380000
1940
چرا که اطلاعات همیشه به سود آنها
06:21
for their benefit.
169
381940
1381
استفاده نمی شود.
06:23
An example I often give is that,
170
383321
1422
مثال معمول من این است که،
06:24
if I ever get bored being a professor,
171
384743
1646
اگر زمانی از استادی خسته شدم،
06:26
I'm going to go start a company
172
386389
1653
یک شرکت به راه خواهم انداخت
06:28
that predicts all of these attributes
173
388042
1454
برای پیش بینی تمام این ویژگیها
06:29
and things like how well you work in teams
174
389496
1602
و چیزهایی مثل طرز فکر در کار تیمی
06:31
and if you're a drug user, if you're an alcoholic.
175
391098
2671
و آیا معتاد هستید، آیا الکلی هستید.
06:33
We know how to predict all that.
176
393769
1440
می دانیم چطور پیش بینی کنیم.
06:35
And I'm going to sell reports
177
395209
1761
و این گونه گزارشات را
06:36
to H.R. companies and big businesses
178
396970
2100
به شرکتهای تجاری بزرگ
06:39
that want to hire you.
179
399070
2273
که قصد استخدام دارند می فروشیم.
06:41
We totally can do that now.
180
401343
1177
ما واقعا می توانیم.
06:42
I could start that business tomorrow,
181
402520
1788
می توانم همین فردا تجارت را شروع کنم،
06:44
and you would have absolutely no control
182
404308
2052
و شما هیچ کنترلی نخواهید داشت
06:46
over me using your data like that.
183
406360
2138
که من از داده های شما این گونه استفاده کنم.
06:48
That seems to me to be a problem.
184
408498
2292
این از نظر من یک مشکل است.
06:50
So one of the paths we can go down
185
410790
1910
یکی از راه های پبش روی ما
06:52
is the policy and law path.
186
412700
2032
راه قانون و خط مشی است.
06:54
And in some respects, I think that that would be most effective,
187
414732
3046
و به دلایلی، فکر می کنم این کاربردی ترین راه است.
06:57
but the problem is we'd actually have to do it.
188
417778
2756
اما مشکل اینجاست که که ما واقعا باید این کار را انجام دهیم.
07:00
Observing our political process in action
189
420534
2780
در نظر گرفتن پروسه سیاسی مان در عمل
07:03
makes me think it's highly unlikely
190
423314
2379
به من این حس را می دهد که خیلی بعید است
07:05
that we're going to get a bunch of representatives
191
425693
1597
که ما چند نفر نماینده پیدا کنیم
07:07
to sit down, learn about this,
192
427290
1986
که بنشینند، در این باره آموزش ببینند،
07:09
and then enact sweeping changes
193
429276
2106
و شروع به انجام تغییرات در
07:11
to intellectual property law in the U.S.
194
431382
2157
قوانین مالکیت عمومی آمریکا کنند،
07:13
so users control their data.
195
433539
2461
تا کاربران قدرت کنترل داده هایشان را داشته باشند.
07:16
We could go the policy route,
196
436000
1304
می توان راه خط مشی را رفت،
07:17
where social media companies say,
197
437304
1479
که رسانه های اجتماعی بگویند،
07:18
you know what? You own your data.
198
438783
1402
اختیار اطلاعاتتان را دارید.
07:20
You have total control over how it's used.
199
440185
2489
و بر نحوه استفاده از آن کنترل دارید.
07:22
The problem is that the revenue models
200
442674
1848
مشکل این جاست که مدل درآمد در
07:24
for most social media companies
201
444522
1724
بیشتر شبکه های اجتماعی
07:26
rely on sharing or exploiting users' data in some way.
202
446246
4031
به نوعی بر پایه اشتراک و بهره برداری از اطلاعات کاربران بنا شده است.
07:30
It's sometimes said of Facebook that the users
203
450277
1833
گاهی درباره فیس بوک گفته می شود که
07:32
aren't the customer, they're the product.
204
452110
2528
کاربران مشتری نیستند، بلکه کالا هستند.
07:34
And so how do you get a company
205
454638
2714
و خب شما چطور می توانید شرکتی را وادار کنید
07:37
to cede control of their main asset
206
457352
2558
که کنترل مهمترین داراییشان را
07:39
back to the users?
207
459910
1249
به کاربران برگردانند؟
07:41
It's possible, but I don't think it's something
208
461159
1701
ممکن است، ولی من فکر نمی کنم که
07:42
that we're going to see change quickly.
209
462860
2320
به این زودی تغییری ببینیم.
07:45
So I think the other path
210
465180
1500
پس فکر می کنم که راه دیگری
07:46
that we can go down that's going to be more effective
211
466680
2288
که می توان رفت و کارآمد تر خواهد بود
07:48
is one of more science.
212
468968
1508
راه علم است.
07:50
It's doing science that allowed us to develop
213
470476
2510
این علم است که به ما اجازه طراحی
07:52
all these mechanisms for computing
214
472986
1750
مکانیزم هایی برای محاسبه
07:54
this personal data in the first place.
215
474736
2052
اطلاعات شخصی را داد.
07:56
And it's actually very similar research
216
476788
2106
و در واقع ما باید
07:58
that we'd have to do
217
478894
1438
تحقیقات مشابهی انجام دهیم
08:00
if we want to develop mechanisms
218
480332
2386
تا مکانیزم هایی طراحی کنیم
08:02
that can say to a user,
219
482718
1421
که بتوانند به کاربران بگویند،
08:04
"Here's the risk of that action you just took."
220
484139
2229
«این ریسک کاری است که تو انجام دادی.»
08:06
By liking that Facebook page,
221
486368
2080
با لایک آن صفحه فیس بوک،
08:08
or by sharing this piece of personal information,
222
488448
2535
یا به اشتراک گذاری آن تکه از اطلاعات شخصی،
08:10
you've now improved my ability
223
490983
1502
تو قابلیت مرا برای پیش بینی
08:12
to predict whether or not you're using drugs
224
492485
2086
این که معتاد هستی یا نه افزایش دادی
08:14
or whether or not you get along well in the workplace.
225
494571
2862
یا این که شرایطتت در محل کار خوب است یا بد.
08:17
And that, I think, can affect whether or not
226
497433
1848
و فکر می کنم این، بر روی تمایل افراد
08:19
people want to share something,
227
499281
1510
برای اشتراک گذاری یک چیز،
08:20
keep it private, or just keep it offline altogether.
228
500791
3239
خصوصی کردن، یا حتی فقط ذخیره کردن در کامپیوترشان موثر است.
08:24
We can also look at things like
229
504030
1563
همچنین می توان روی کارهایی مثل
08:25
allowing people to encrypt data that they upload,
230
505593
2728
اجازه رمزنگاری اطلاعاتی که آپلود می کنند کار کنیم،
08:28
so it's kind of invisible and worthless
231
508321
1855
تا اطلاعات برای سایت هایی مثل فیس بوک
08:30
to sites like Facebook
232
510176
1431
یا هر سرویس دیگری
08:31
or third party services that access it,
233
511607
2629
مخفی و غیرقابل استفاده باشد،
08:34
but that select users who the person who posted it
234
514236
3247
اما کاربرانی که شخص آپلود کننده انتخاب می کند،
08:37
want to see it have access to see it.
235
517483
2670
اجازه دسترسی به اطلاعات را داشته باشند.
08:40
This is all super exciting research
236
520153
2166
با یک نگاه عقلانی
08:42
from an intellectual perspective,
237
522319
1620
این تحقیقات خیلی هیجان آور هستند،
08:43
and so scientists are going to be willing to do it.
238
523939
1859
و دانشمندان تمایل به انجام آن را دارند.
08:45
So that gives us an advantage over the law side.
239
525798
3610
و این یک مزیت نسبت به راه قانون است.
08:49
One of the problems that people bring up
240
529408
1725
یکی از مشکلاتی که مردم هنگام صحبت در
08:51
when I talk about this is, they say,
241
531133
1595
این رابطه بیان می کنند این است که
08:52
you know, if people start keeping all this data private,
242
532728
2646
می گویند اگر افراد شروع به مخفی کردن این اطلاعات کنند،
08:55
all those methods that you've been developing
243
535374
2113
تمامی روشهایی که شما برای پیش بینی
08:57
to predict their traits are going to fail.
244
537487
2653
شخصیتشان طراحی کردید، از کار خواهند افتاد.
09:00
And I say, absolutely, and for me, that's success,
245
540140
3520
و من می گویم، کاملا درسته، و برای من، این یعنی موفقیت،
09:03
because as a scientist,
246
543660
1786
چرا که به عنوان یک دانشمند،
09:05
my goal is not to infer information about users,
247
545446
3688
هدف من کشف اطلاعات درباره مردم نیست،
09:09
it's to improve the way people interact online.
248
549134
2767
بلکه بهبود روش تعاملشان در اینترنت است.
09:11
And sometimes that involves inferring things about them,
249
551901
3218
و گاهی این کار با کسب اطلاعات، درباره آنها انجام می شود،
09:15
but if users don't want me to use that data,
250
555119
3022
اما اگر کاربران نخواهند که از اطلاعاتشان استفاده کنم،
09:18
I think they should have the right to do that.
251
558141
2038
به نظرم باید این حق را داشته باشند.
09:20
I want users to be informed and consenting
252
560179
2651
من می خواهم کاربران ابزارهایی که ما طراحی می کنیم
09:22
users of the tools that we develop.
253
562830
2112
مطلع و راضی باشند.
09:24
And so I think encouraging this kind of science
254
564942
2952
و یه همین دلیل فکر می کنم ترغیب کردن این نوع علم
09:27
and supporting researchers
255
567894
1346
و پشتیبانی از محققینی که
09:29
who want to cede some of that control back to users
256
569240
3023
قصد دارند بخشی از کنترل را به کاربران برگردانند،
09:32
and away from the social media companies
257
572263
2311
و جلوی شرکت های رسانه های اجتماعی را بگیرند،
09:34
means that going forward, as these tools evolve
258
574574
2671
به معنی پیشرفت است، همچنان که این ابزارها بهتر
09:37
and advance,
259
577245
1476
و پیشرفته تر می شوند،
09:38
means that we're going to have an educated
260
578721
1414
به این معنی است که کاربرانی
09:40
and empowered user base,
261
580135
1694
تحصیل کرده و قدرتمند خواهیم داشت،
09:41
and I think all of us can agree
262
581829
1100
و فکر می کنم که همه
09:42
that that's a pretty ideal way to go forward.
263
582929
2564
می پذیریم که این هدف ایده آلی است برای دنبال کردن.
09:45
Thank you.
264
585493
2184
متشکرم.
09:47
(Applause)
265
587677
3080
(تشویق حضار)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7