Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,856 views

2014-04-03 ・ TED


New videos

Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,856 views ・ 2014-04-03

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Ido Dekkers מבקר: Tal Dekkers
00:12
If you remember that first decade of the web,
0
12738
1997
אם אתם זוכרים את העשור הראשון של האינטרנט,
00:14
it was really a static place.
1
14735
2255
זה היה באמת מקום סטטי.
00:16
You could go online, you could look at pages,
2
16990
2245
יכולתם להיכנס לרשת, להסתכל על דפים,
00:19
and they were put up either by organizations
3
19235
2513
והם הועלו או על ידי ארגונים
00:21
who had teams to do it
4
21748
1521
שהיו להם צוותים שעשו את זה
00:23
or by individuals who were really tech-savvy
5
23269
2229
או על ידי אנשים פרטיים שהיו ממש טכנולגיים
00:25
for the time.
6
25498
1737
באותו הזמן.
00:27
And with the rise of social media
7
27235
1575
ועם העליה של המדיה החברתית
00:28
and social networks in the early 2000s,
8
28810
2399
והרשתות החברתיות בתחילת שנות ה 2000,
00:31
the web was completely changed
9
31209
2149
הרשת השתנתה לגמרי
00:33
to a place where now the vast majority of content
10
33358
3608
למקום שבו עכשיו רוב התוכן
00:36
we interact with is put up by average users,
11
36966
3312
אותו אנו צורכים מועלה על ידי המשתמש הממוצע,
00:40
either in YouTube videos or blog posts
12
40278
2697
בין אם בסרטוני יוטיוב או פוסטים בבלוג
00:42
or product reviews or social media postings.
13
42975
3315
או ביקורות מוצרים או פוסטים במדיה החברתית.
00:46
And it's also become a much more interactive place,
14
46290
2347
וזה גם הפך למקום הרבה יותר אינטראקטיבי,
00:48
where people are interacting with others,
15
48637
2637
שם אנשים מתקשרים עם אחרים,
00:51
they're commenting, they're sharing,
16
51274
1696
הם מגיבים, הם חולקים,
00:52
they're not just reading.
17
52970
1614
הם לא רק קוראים.
00:54
So Facebook is not the only place you can do this,
18
54584
1866
אז פייסבוק הוא לא המקום היחיד לעשות זאת.
00:56
but it's the biggest,
19
56450
1098
אבל הוא הגדול ביותר,
00:57
and it serves to illustrate the numbers.
20
57548
1784
והוא משמש כדי להדגים את המספרים.
00:59
Facebook has 1.2 billion users per month.
21
59332
3477
לפייסבוק יש 1.2 מיליארד משתמשים לחודש.
01:02
So half the Earth's Internet population
22
62809
1930
אז חצי מאוכלוסית האינטרנט העולמית
01:04
is using Facebook.
23
64739
1653
משתמשת בפייסבוק.
01:06
They are a site, along with others,
24
66392
1932
הם אתר, יחד עם אחרים,
01:08
that has allowed people to create an online persona
25
68324
3219
שאיפשר לאנשים ליצור ישות אינטרנטית
01:11
with very little technical skill,
26
71543
1782
עם מעט מאוד כישורים טכניים,
01:13
and people responded by putting huge amounts
27
73325
2476
ואנשים הגיבו בלהעלות כמויות עצומות
01:15
of personal data online.
28
75801
1983
של מידע אישי לרשת.
01:17
So the result is that we have behavioral,
29
77784
2543
אז התוצאה היא שיש לנו מידע
01:20
preference, demographic data
30
80327
1986
התנהגותי, דמוגרפי והעדפות
01:22
for hundreds of millions of people,
31
82313
2101
של מאות מליוני אנשים,
01:24
which is unprecedented in history.
32
84414
2026
שזה מעולם לא קרה בהסטוריה.
01:26
And as a computer scientist, what this means is that
33
86440
2560
וכמדענית מחשב, מה שזה אומר
01:29
I've been able to build models
34
89000
1664
זה שהייתי מסוגלת לבנות מודלים
01:30
that can predict all sorts of hidden attributes
35
90664
2322
שיכולים לצפות כל מיני תכונות חבויות
01:32
for all of you that you don't even know
36
92986
2284
עבור כולכם שאתם אפילו לא ידעתם
01:35
you're sharing information about.
37
95270
2202
שאתם חולקים מידע עליהן.
01:37
As scientists, we use that to help
38
97472
2382
כמדענים, אנחנו משתמשים בזה כדי לעזור
01:39
the way people interact online,
39
99854
2114
לאנשים בדרך שבה הם מתקשרים ברשת.
01:41
but there's less altruistic applications,
40
101968
2499
אבל יש ישומים פחות אלטרואיסטים,
01:44
and there's a problem in that users don't really
41
104467
2381
ויש בעיה בזה שמתשמשים לא באמת
01:46
understand these techniques and how they work,
42
106848
2470
מבינים את הטכניקות ואיך הן עובדות,
01:49
and even if they did, they don't have a lot of control over it.
43
109318
3128
ואפילו אם הם הבינו, אין להם הרבה שליטה על זה.
01:52
So what I want to talk to you about today
44
112446
1490
אז מה שאני רוצה לספר לכם היום
01:53
is some of these things that we're able to do,
45
113936
2702
זה חלק מהדברים שאנחנו יכולים לעשות,
01:56
and then give us some ideas of how we might go forward
46
116638
2763
ואז לתת לכם כמה רעיונות על איך נמשיך מפה
01:59
to move some control back into the hands of users.
47
119401
2769
להזיז קצת שליטה חזרה לידיים של המשתמשים.
02:02
So this is Target, the company.
48
122170
1586
אז זו טארגט, החברה.
02:03
I didn't just put that logo
49
123756
1324
לא סתם שמתי את הלוגו
02:05
on this poor, pregnant woman's belly.
50
125080
2170
על הבטן של האישה ההריונית המסכנה הזו.
02:07
You may have seen this anecdote that was printed
51
127250
1840
אתם אולי ראיתם את האנקדוטה הזו מודפסת
02:09
in Forbes magazine where Target
52
129090
2061
במגזין פורבס כשטארגט
02:11
sent a flyer to this 15-year-old girl
53
131151
2361
שלחה עלון לבת ה15 הזו
02:13
with advertisements and coupons
54
133512
1710
עם פרסומות וקופונים
02:15
for baby bottles and diapers and cribs
55
135222
2554
לבקבוקי תינוקות וחיתולים ועריסות
02:17
two weeks before she told her parents
56
137776
1684
שבועיים לפני שאמרה להוריה
02:19
that she was pregnant.
57
139460
1864
שהיא בהריון,
02:21
Yeah, the dad was really upset.
58
141324
2704
כן, האבא היה ממש עצבני.
02:24
He said, "How did Target figure out
59
144028
1716
הוא אמר, "איך טארגט הבינו
02:25
that this high school girl was pregnant
60
145744
1824
שנערה בתיכון בהריון
02:27
before she told her parents?"
61
147568
1960
לפני שהיא אמרה להוריה?"
02:29
It turns out that they have the purchase history
62
149528
2621
מסתבר שיש להם את הסטורית הרכישות
02:32
for hundreds of thousands of customers
63
152149
2301
למאות אלפי לקוחות
02:34
and they compute what they call a pregnancy score,
64
154450
2730
והם מחשבים את מה שהם קוראים לו ציון הריון,
02:37
which is not just whether or not a woman's pregnant,
65
157180
2332
שזה לא רק אם אישה בהריון,
02:39
but what her due date is.
66
159512
1730
אלא מתי התאריך המיועד.
02:41
And they compute that
67
161242
1304
והם מחשבים את זה
02:42
not by looking at the obvious things,
68
162546
1768
לא על ידי הסתכלות על דברים ברורים,
02:44
like, she's buying a crib or baby clothes,
69
164314
2512
כמו, היא קונה עריסה או בגדי תינוק,
02:46
but things like, she bought more vitamins
70
166826
2943
אלא דברים כמו, היא קנתה יותר ויטמינים
02:49
than she normally had,
71
169769
1717
משהיא בדרך כלל קונה,
02:51
or she bought a handbag
72
171486
1464
או שהיא קנתה תיק
02:52
that's big enough to hold diapers.
73
172950
1711
שמספיק גדול להחזיק חיתולים.
02:54
And by themselves, those purchases don't seem
74
174661
1910
ובעצמן, למרות שהקניות האלה לא נראות
02:56
like they might reveal a lot,
75
176571
2469
כאילו הן מגלות הרבה,
02:59
but it's a pattern of behavior that,
76
179040
1978
אבל זו תבנית התנהגות,
03:01
when you take it in the context of thousands of other people,
77
181018
3117
שכשאתם מכניסים את זה להקשר של אלפי אנשים אחרים,
03:04
starts to actually reveal some insights.
78
184135
2757
מתחילה למעשה לגלות תובנות.
03:06
So that's the kind of thing that we do
79
186892
1793
אז זה סוג הדברים שאנחנו עושים
03:08
when we're predicting stuff about you on social media.
80
188685
2567
כשאנחנו חוזים דברים עליכם במדיה החברתית.
03:11
We're looking for little patterns of behavior that,
81
191252
2796
אנחנו מחפשים תבניות זעירות של התנהגות,
03:14
when you detect them among millions of people,
82
194048
2682
שכשמזהים אותן בין מליוני אנשים,
03:16
lets us find out all kinds of things.
83
196730
2706
נותנות לנו למצוא כל מיני דברים.
03:19
So in my lab and with colleagues,
84
199436
1747
אז במעבדה שלי ועם שותפים,
03:21
we've developed mechanisms where we can
85
201183
1777
אנחנו פיתחנו מכאניזמים איתם אנחנו יכולים
03:22
quite accurately predict things
86
202960
1560
לחזות די במדוייק דברים
03:24
like your political preference,
87
204520
1725
כמו העדפות פוליטיות,
03:26
your personality score, gender, sexual orientation,
88
206245
3752
ציון האישיות שלכם, מין, העדפות מיניות,
03:29
religion, age, intelligence,
89
209997
2873
דת, גיל, רמת אינטיליגנציה,
03:32
along with things like
90
212870
1394
יחד עם דברים כמו
03:34
how much you trust the people you know
91
214264
1937
כמה אתם בוטחים באנשים אותם אתם מכירים
03:36
and how strong those relationships are.
92
216201
1804
וכמה חזקים הקשרים האלה.
03:38
We can do all of this really well.
93
218005
1785
אנחנו יכולים לעשות את זה ממש טוב.
03:39
And again, it doesn't come from what you might
94
219790
2197
ושוב, זה לא מגיע ממה שאתם אולי
03:41
think of as obvious information.
95
221987
2102
חושבים כמידע ברור.
03:44
So my favorite example is from this study
96
224089
2281
אז הדוגמה האהובה עלי היא ממחקר
03:46
that was published this year
97
226370
1240
שפורסם השנה
03:47
in the Proceedings of the National Academies.
98
227610
1795
בפרסומים של האקדמיה הלאומית.
03:49
If you Google this, you'll find it.
99
229405
1285
אם תגגלו את זה, אתם תמצאו אותו.
03:50
It's four pages, easy to read.
100
230690
1872
זה ארבעה דפים, קלים לקריאה.
03:52
And they looked at just people's Facebook likes,
101
232562
3003
והם הסתכלו רק על לייקים של אנשים בפייסבוק,
03:55
so just the things you like on Facebook,
102
235565
1920
אז רק הדברים שאתם אוהבים בפייסבוק,
03:57
and used that to predict all these attributes,
103
237485
2138
והשתמשו בזה כדי לחזות את כל התכונות האלה,
03:59
along with some other ones.
104
239623
1645
יחד עם כמה אחרות.
04:01
And in their paper they listed the five likes
105
241268
2961
ובמאמר שלהם הם ציינו את חמשת הלייקים
04:04
that were most indicative of high intelligence.
106
244229
2787
שהכי הראו אינטיליגנציה גבוהה.
04:07
And among those was liking a page
107
247016
2324
ובינהם היה לייק לדף
04:09
for curly fries. (Laughter)
108
249340
1905
לצ'יפסים מקורזלים. (צחוק)
04:11
Curly fries are delicious,
109
251245
2093
צ'יפסים מקורזלים הם ממש טעימים,
04:13
but liking them does not necessarily mean
110
253338
2530
אבל אהבה שלהם לא בהכרח אומרת
04:15
that you're smarter than the average person.
111
255868
2080
שאתם אדם חכם מהממוצע.
04:17
So how is it that one of the strongest indicators
112
257948
3207
אז איך אחד המדדים החזקים ביותר
04:21
of your intelligence
113
261155
1570
לאינטליגנציה שלכם
04:22
is liking this page
114
262725
1447
הוא אהבת הדף הזה
04:24
when the content is totally irrelevant
115
264172
2252
כשהתוכן לחלוטין לא רלוונטי
04:26
to the attribute that's being predicted?
116
266424
2527
לתכונות שנצפות?
04:28
And it turns out that we have to look at
117
268951
1584
ומסתבר שאנחנו צריכים להביט
04:30
a whole bunch of underlying theories
118
270535
1618
בקבוצה שלמה של תאוריות
04:32
to see why we're able to do this.
119
272153
2569
כדי לראות למה אנחנו מסוגלים לעשות את זה.
04:34
One of them is a sociological theory called homophily,
120
274722
2913
אחת מהן היא תאוריה סוציולוגית שנקראת הומופיליה,
04:37
which basically says people are friends with people like them.
121
277635
3092
שאומרת בעיקרון שאנשים חברים עם אנשים שדומים להם.
04:40
So if you're smart, you tend to be friends with smart people,
122
280727
2014
אז אם אתה חכם, אתה נוטה להיות חבר של אנשים חכמים,
04:42
and if you're young, you tend to be friends with young people,
123
282741
2630
ואם אתה הצעיר, אתה נוטה להיות חבר של אנשים צעירים,
04:45
and this is well established
124
285371
1627
וזה מוכח היטב
04:46
for hundreds of years.
125
286998
1745
מאות שנים.
04:48
We also know a lot
126
288743
1232
אנחנו גם יודעים הרבה
04:49
about how information spreads through networks.
127
289975
2550
על איך מידע מתפשט ברשתות.
04:52
It turns out things like viral videos
128
292525
1754
מסתבר שדברים כמו סרטונים ויראליים
04:54
or Facebook likes or other information
129
294279
2406
או לייקים של פייסבוק או מידע אחר
04:56
spreads in exactly the same way
130
296685
1888
מתפשטים בדיוק באותה דרך
04:58
that diseases spread through social networks.
131
298573
2454
שמחלות מתפשטות ברשתות חברתיות.
05:01
So this is something we've studied for a long time.
132
301027
1791
אז זה משהו שחקרנו הרבה זמן.
05:02
We have good models of it.
133
302818
1576
יש לנו מודלים טובים של זה.
05:04
And so you can put those things together
134
304394
2157
וכך אתם יכולים לחבר את הדברים האלה
05:06
and start seeing why things like this happen.
135
306551
3088
ולהתחיל לראות למה דברים כאלה קורים.
05:09
So if I were to give you a hypothesis,
136
309639
1814
אז אם הייתי נותנת לכם השערה,
05:11
it would be that a smart guy started this page,
137
311453
3227
היא תהיה שאדם חכם התחיל את הדף הזה,
05:14
or maybe one of the first people who liked it
138
314680
1939
או אולי אחד האנשים הראשונים שאהבו אותו
05:16
would have scored high on that test.
139
316619
1736
היה מקבל ציון גבוה במבחן הזה.
05:18
And they liked it, and their friends saw it,
140
318355
2288
והם אהבו אותו, וחברים שלהם ראו אותו,
05:20
and by homophily, we know that he probably had smart friends,
141
320643
3122
ודרך ההומופיליה, אנחנו יודעים שכנראה היו לו חברים חכמים,
05:23
and so it spread to them, and some of them liked it,
142
323765
3056
אז זה התפשט אליהם, וכמה מהם אהבו את זה,
05:26
and they had smart friends,
143
326821
1189
ולהם היו חברים חכמים,
05:28
and so it spread to them,
144
328010
807
05:28
and so it propagated through the network
145
328817
1973
וכך זה התפשט אליהם,
ואז זה חלחל דרך הרשת
05:30
to a host of smart people,
146
330790
2569
להרבה אנשים חכמים,
05:33
so that by the end, the action
147
333359
2056
אז בסוף, הפעולה
05:35
of liking the curly fries page
148
335415
2544
של אהבת דף הצ'יפסים המקורזלים
05:37
is indicative of high intelligence,
149
337959
1615
מעידה של אינטליגנציה גבוהה,
05:39
not because of the content,
150
339574
1803
לא בגלל התוכן,
05:41
but because the actual action of liking
151
341377
2522
אלא בגלל הפעולה עצמה של אהבה
05:43
reflects back the common attributes
152
343899
1900
משקפת את התכונות המשותפות
05:45
of other people who have done it.
153
345799
2468
של אנשים אחרים שעשו את זה.
05:48
So this is pretty complicated stuff, right?
154
348267
2897
אז אלה דברים די מסובכים, נכון?
05:51
It's a hard thing to sit down and explain
155
351164
2199
זה קשה לשבת להסביר
05:53
to an average user, and even if you do,
156
353363
2848
למשתמש ממוצע, ואפילו אם אתם עושים זאת,
05:56
what can the average user do about it?
157
356211
2188
מה המשתמש הממוצע יכול לעשות בנוגע לזה?
05:58
How do you know that you've liked something
158
358399
2048
איך אתם יודעים שאהבתם משהו
06:00
that indicates a trait for you
159
360447
1492
שמשקף תכונה שלכם
06:01
that's totally irrelevant to the content of what you've liked?
160
361939
3545
שלגמרי לא רלוונטית לתוכן של מה שאהבתם?
06:05
There's a lot of power that users don't have
161
365484
2546
יש הרבה כוח שאין למשתמשים
06:08
to control how this data is used.
162
368030
2230
כדי לשלוט באיך משתמשים במידע הזה.
06:10
And I see that as a real problem going forward.
163
370260
3112
ואני רואה בזה בעיה אמיתית בעתיד.
06:13
So I think there's a couple paths
164
373372
1977
אז אני חושבת שיש כמה כיוונים
06:15
that we want to look at
165
375349
1001
שנרצה לבחון
06:16
if we want to give users some control
166
376350
1910
אם אנחנו רוצים לתת למשתמשים מעט שליטה
06:18
over how this data is used,
167
378260
1740
על איך משתמשים במידע הזה,
06:20
because it's not always going to be used
168
380000
1940
מפני שלא תמיד הוא יהיה בשימוש
06:21
for their benefit.
169
381940
1381
לתועלתם.
06:23
An example I often give is that,
170
383321
1422
דוגמה שאני נותנת לזה הרבה היא,
06:24
if I ever get bored being a professor,
171
384743
1646
שאם אי פעם אשתעמם להיות פרופסורית,
06:26
I'm going to go start a company
172
386389
1653
אני אקים חברה
06:28
that predicts all of these attributes
173
388042
1454
שחוזה את כל התכונות האלה
06:29
and things like how well you work in teams
174
389496
1602
ודברים כמו כמה טוב אתם עובדים בצוות
06:31
and if you're a drug user, if you're an alcoholic.
175
391098
2671
ואם אתם משתמשים בסמים, אם אתם אלכוהוליסטים.
06:33
We know how to predict all that.
176
393769
1440
אנחנו יודעים איך לחזות את כל זה.
06:35
And I'm going to sell reports
177
395209
1761
ואני אמכור דוחות
06:36
to H.R. companies and big businesses
178
396970
2100
לחברות כוח אדם ועסקים גדולים
06:39
that want to hire you.
179
399070
2273
שרוצים להעסיק אתכם.
06:41
We totally can do that now.
180
401343
1177
אנחנו לגמרי יכולים לעשות את זה עכשיו.
06:42
I could start that business tomorrow,
181
402520
1788
הייתי יכולה להתחיל את העסק הזה מחר,
06:44
and you would have absolutely no control
182
404308
2052
ולא היתה לכם שליטה בכלל
06:46
over me using your data like that.
183
406360
2138
על השימוש שלי במידע שלכם כך.
06:48
That seems to me to be a problem.
184
408498
2292
זו נראית לי בעיה גדולה.
06:50
So one of the paths we can go down
185
410790
1910
אז אחת הדרכים שאננחו יכולים לבחור בה
06:52
is the policy and law path.
186
412700
2032
היא המדיניות והחוק.
06:54
And in some respects, I think that that would be most effective,
187
414732
3046
ובכמה הבטים, אני חושב שזה יהיה הכי אפקטיבי,
06:57
but the problem is we'd actually have to do it.
188
417778
2756
אבל הבעיה היא שלמעשה נצטרך לעשות את זה.
07:00
Observing our political process in action
189
420534
2780
בהסתכלות על התהליך הפוליטי שלנו בפעולה
07:03
makes me think it's highly unlikely
190
423314
2379
גורם לי לחשוב שזה מאוד לא סביר
07:05
that we're going to get a bunch of representatives
191
425693
1597
שנשיג כמה נבחרים
07:07
to sit down, learn about this,
192
427290
1986
לשבת, ללמוד את הנושא,
07:09
and then enact sweeping changes
193
429276
2106
ואז להחיל שינויים מקיפים
07:11
to intellectual property law in the U.S.
194
431382
2157
על חוקי רכוש רעיוני בארה"ב.
07:13
so users control their data.
195
433539
2461
כך שמשתמשים ישלטו במידע שלהם.
07:16
We could go the policy route,
196
436000
1304
נוכל ללכת בדרך המדיניות,
07:17
where social media companies say,
197
437304
1479
שם חברות מדיה חברתית אומרות,
07:18
you know what? You own your data.
198
438783
1402
אתם יודעים מה? המידע בבעלותכם.
07:20
You have total control over how it's used.
199
440185
2489
יש לכם שליטה מלאה בשימוש בו.
07:22
The problem is that the revenue models
200
442674
1848
הבעיה היא שמודלי הרווחיות
07:24
for most social media companies
201
444522
1724
לרוב חברות המדיה החברתית
07:26
rely on sharing or exploiting users' data in some way.
202
446246
4031
נסמכים על ניצול המידע של המשתמש בדרך כלשהי.
07:30
It's sometimes said of Facebook that the users
203
450277
1833
לפעמים נאמר על פייסבוק שהמשתמשים
07:32
aren't the customer, they're the product.
204
452110
2528
הם לא לקוחות, הם המוצר.
07:34
And so how do you get a company
205
454638
2714
וכך איך אתם גורמים לחברה
07:37
to cede control of their main asset
206
457352
2558
לוותר על שליטה בנכס העיקרי שלהם
07:39
back to the users?
207
459910
1249
בחזרה למשתמשים?
07:41
It's possible, but I don't think it's something
208
461159
1701
זה אפשרי, אבל אני לא חושב שזה משהו
07:42
that we're going to see change quickly.
209
462860
2320
שאנחנו נראה משתנה במהירות.
07:45
So I think the other path
210
465180
1500
אז אני חושבת שהדרך הנוספת
07:46
that we can go down that's going to be more effective
211
466680
2288
שאנחנו יכולים ללכת בה שתהיה יותר יעילה
07:48
is one of more science.
212
468968
1508
היא זו של יותר מדע.
07:50
It's doing science that allowed us to develop
213
470476
2510
לעשות מדע זה מה שאפשר לנו לפתח
07:52
all these mechanisms for computing
214
472986
1750
את כל המנגנונים למחשוב
07:54
this personal data in the first place.
215
474736
2052
המידע האישי מראש.
07:56
And it's actually very similar research
216
476788
2106
וזה למעשה מחקר מאוד דומה
07:58
that we'd have to do
217
478894
1438
שאנחנו צריכים לעשות
08:00
if we want to develop mechanisms
218
480332
2386
אם נרצה לפתח מנגנונים
08:02
that can say to a user,
219
482718
1421
שיכולים להגיד למשתמש,
08:04
"Here's the risk of that action you just took."
220
484139
2229
"הנה הסיכונים של הפעולה הזו שעשית."
08:06
By liking that Facebook page,
221
486368
2080
על ידי לחיצת לייק על דף פייסבוק מסויים,
08:08
or by sharing this piece of personal information,
222
488448
2535
או עלי ידי שיתוף פיסה זו של מידע אישי,
08:10
you've now improved my ability
223
490983
1502
שיפרתם עכשיו את היכולת שלי
08:12
to predict whether or not you're using drugs
224
492485
2086
לחזות אם אתם משתמשים בסמים
08:14
or whether or not you get along well in the workplace.
225
494571
2862
או אם אתם מסתדרים במקום העבודה.
08:17
And that, I think, can affect whether or not
226
497433
1848
וזה, אני חושבת, יכול להשפיע על אם
08:19
people want to share something,
227
499281
1510
אנשים ירצו לחלוק משהו,
08:20
keep it private, or just keep it offline altogether.
228
500791
3239
לשמור על זה פרטי, או פשוט לשמור על זה מחוץ לרשת.
08:24
We can also look at things like
229
504030
1563
אנחנו יכולים להביט גם בדברים
08:25
allowing people to encrypt data that they upload,
230
505593
2728
כמו לאפשר לאנשים להצפין את המידע שהם מעלים,
08:28
so it's kind of invisible and worthless
231
508321
1855
אז הוא סוג של בלתי נראה וחסר תועלת
08:30
to sites like Facebook
232
510176
1431
לאתרים כמו פייסבוק
08:31
or third party services that access it,
233
511607
2629
או שרותי צד שלישי שניגשים אליו,
08:34
but that select users who the person who posted it
234
514236
3247
אבל למשתמשים הנבחרים שהאדם שהעלה את זה
08:37
want to see it have access to see it.
235
517483
2670
רוצה שיראו את זה, תהיה גישה אליו.
08:40
This is all super exciting research
236
520153
2166
כל זה מחקר סופר מרגש
08:42
from an intellectual perspective,
237
522319
1620
מנקודת מבט אינטלקטואלית,
08:43
and so scientists are going to be willing to do it.
238
523939
1859
וכך מדענים יהיו מוכנים לעשות את זה.
08:45
So that gives us an advantage over the law side.
239
525798
3610
אז זה נותן לנו יתרון על אפשרות החוק.
08:49
One of the problems that people bring up
240
529408
1725
אחת הבעיות שאנשים מעלים
08:51
when I talk about this is, they say,
241
531133
1595
כשאני מדברת על זה, הם אומרים,
08:52
you know, if people start keeping all this data private,
242
532728
2646
את יודעת, אם אנשים מתחילים לשמור על כל המידע פרטי,
08:55
all those methods that you've been developing
243
535374
2113
כל השיטות האלה שפיתחתם
08:57
to predict their traits are going to fail.
244
537487
2653
לחזות את התכונות שלהם יכשלו.
09:00
And I say, absolutely, and for me, that's success,
245
540140
3520
ואני אומרת, בהחלט, ובשבילי, זו הצלחה,
09:03
because as a scientist,
246
543660
1786
מפני שכמדענית,
09:05
my goal is not to infer information about users,
247
545446
3688
המטרה שלי היא לא להסיק מידע על משתמשים,
09:09
it's to improve the way people interact online.
248
549134
2767
זה כדי לשפר את הדרך בה אנשים מתקשרים ברשת.
09:11
And sometimes that involves inferring things about them,
249
551901
3218
ולפעמים זה דורש להסיק דברים עליהם,
09:15
but if users don't want me to use that data,
250
555119
3022
אבל אם משתמשים לא רוצים שאני אשתמש במידע הזה,
09:18
I think they should have the right to do that.
251
558141
2038
אני חושבת שצריכה להיות להם הזכות לעשות את זה.
09:20
I want users to be informed and consenting
252
560179
2651
אני רוצה שמשתמשים יהיו מיודעים ומסכימים
09:22
users of the tools that we develop.
253
562830
2112
לכלים שאנחנו מפתחים.
09:24
And so I think encouraging this kind of science
254
564942
2952
אז אני חושבת שלעודד סוג זה של מדע
09:27
and supporting researchers
255
567894
1346
ולתמוך בחוקרים
09:29
who want to cede some of that control back to users
256
569240
3023
שרוצים להחזיר חלק מהשליטה למשתמשים
09:32
and away from the social media companies
257
572263
2311
ולקחת אותו מחברות המדיה החברתית
09:34
means that going forward, as these tools evolve
258
574574
2671
אומר שכשנמשיך הלאה, כשהכלים האלה יתפתחו
09:37
and advance,
259
577245
1476
ויתקדמו,
09:38
means that we're going to have an educated
260
578721
1414
אומר שיהיה לנו בסיס משתמשים
09:40
and empowered user base,
261
580135
1694
מיודע ובעל כוח,
09:41
and I think all of us can agree
262
581829
1100
ואני חושבת שכולנו יכולים להסכים
09:42
that that's a pretty ideal way to go forward.
263
582929
2564
שזה דרך מאוד אידיאלית להתקדם.
09:45
Thank you.
264
585493
2184
תודה לכם.
09:47
(Applause)
265
587677
3080
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7