Beware online "filter bubbles" | Eli Pariser

1,593,210 views ・ 2011-05-02

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Yubal Masalker מבקר: Ido Dekkers
00:15
Mark Zuckerberg,
0
15260
2000
מארק צוקרברג,
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
עיתונאי שאל אותו על עדכון חדשות שוטף.
00:20
And the journalist was asking him,
2
20260
2000
הוא שאל אותו,
00:22
"Why is this so important?"
3
22260
2000
"מדוע זה כה חשוב?"
00:24
And Zuckerberg said,
4
24260
2000
וצוקרברג ענה
00:26
"A squirrel dying in your front yard
5
26260
2000
שסנאי גוסס בחזית ביתנו
00:28
may be more relevant to your interests right now
6
28260
3000
עשוי להיות יותר רלוונטי לאינטרסים המיידיים שלנו
00:31
than people dying in Africa."
7
31260
3000
מאשר אנשים גוססים באפריקה.
00:34
And I want to talk about
8
34260
2000
אז ברצוני לדבר על
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
איך אינטרנט המתבסס על הרעיון הנ"ל עשוי להיראות.
00:40
So when I was growing up
10
40260
2000
כאשר גדלתי
00:42
in a really rural area in Maine,
11
42260
2000
באזור כפרי במיין,
00:44
the Internet meant something very different to me.
12
44260
3000
האינטרנט היה בשבילי משהו אחר לגמרי.
00:47
It meant a connection to the world.
13
47260
2000
הוא היה עבורי קשר לעולם.
00:49
It meant something that would connect us all together.
14
49260
3000
הוא היה עבורי משהו העשוי לקשר את כולנו ביחד.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
והייתי בטוח שהוא הולך להיות נפלא בשביל הדמוקרטיה
00:55
and for our society.
16
55260
3000
והחברה שלנו.
00:58
But there's this shift
17
58260
2000
אבל מול עינינו מתחולל שינוי
01:00
in how information is flowing online,
18
60260
2000
באופן בו המידע זורם ברשת,
01:02
and it's invisible.
19
62260
3000
והשינוי הוא בלתי נראה.
01:05
And if we don't pay attention to it,
20
65260
2000
ואם לא נשים לב לזה,
01:07
it could be a real problem.
21
67260
3000
זו עלולה להיות בעיה רצינית.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
בפעם הראשונה הבחנתי בזה היכן שאני מבלה המון זמן --
01:13
my Facebook page.
23
73260
2000
דף הפייסבוק שלי.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
אני ליברל מבחינה פוליטית -- איזו הפתעה --
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
אבל תמיד עשיתי הכל כדי לפגוש שמרנים.
01:20
I like hearing what they're thinking about;
26
80260
2000
אני אוהב לשמוע על מה הם חושבים;
01:22
I like seeing what they link to;
27
82260
2000
אני אוהב לראות עם מה הם מקושרים;
01:24
I like learning a thing or two.
28
84260
2000
אני אוהב ללמוד דברים חדשים.
01:26
And so I was surprised when I noticed one day
29
86260
3000
ולכן הופתעתי כאשר הבחנתי יום אחד
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
שהשמרנים נעלמו מעדכוני הפייסבוק שלי.
01:33
And what it turned out was going on
31
93260
2000
ומה שהתברר הוא
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
שפייסבוק עקבה אחריי -- על איזה קישורים אני מקליק,
01:39
and it was noticing that, actually,
33
99260
2000
והיא שמה לב שבעצם
01:41
I was clicking more on my liberal friends' links
34
101260
2000
אני מקליק יותר על קישורים של
01:43
than on my conservative friends' links.
35
103260
3000
חברים ליברליים מאשר אלו של חברים שמרניים.
01:46
And without consulting me about it,
36
106260
2000
ומבלי להתייעץ איתי על כך,
01:48
it had edited them out.
37
108260
2000
היא סיננה אותם החוצה.
01:50
They disappeared.
38
110260
3000
הם נעלמו.
01:54
So Facebook isn't the only place
39
114260
2000
אבל פייסבוק אינה המקום היחיד
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
אשר מבצע סוג כזה של עריכה
01:58
editing of the Web.
41
118260
3000
אלגוריתמית בלתי נראית ברשת.
02:01
Google's doing it too.
42
121260
2000
גם גוגל עושה את זה.
02:03
If I search for something, and you search for something,
43
123260
3000
אם אני מחפש משהו, ואתם מחפשים משהו,
02:06
even right now at the very same time,
44
126260
2000
אפילו עכשיו, בו-זמנית,
02:08
we may get very different search results.
45
128260
3000
אנו עשויים לקבל תוצאות חיפוש מאוד שונות.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
גם כאשר יוצאים מהמערכת, סיפר לי מהנדס אחד,
02:14
there are 57 signals
47
134260
2000
ישנם 57 סימנים
02:16
that Google looks at --
48
136260
3000
שגוגל עוקבת אחריהם --
02:19
everything from what kind of computer you're on
49
139260
3000
כל דבר החל מאיזה מחשב אנו משתמשים
02:22
to what kind of browser you're using
50
142260
2000
דרך באיזה דפדפן משתמשים
02:24
to where you're located --
51
144260
2000
ועד למקום בו אנו נמצאים --
02:26
that it uses to personally tailor your query results.
52
146260
3000
והיא משתמשת בהם כדי לתפור לנו את תוצאות חיפושנו.
02:29
Think about it for a second:
53
149260
2000
תחשבו על זה שניה:
02:31
there is no standard Google anymore.
54
151260
4000
אין יותר גוגל זהה לכולם.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
ומה שמצחיק בכל זה הוא שקשה להבחין בזה.
02:38
You can't see how different your search results are
56
158260
2000
אי-אפשר לראות כמה שונים תוצאות החיפוש שלך
02:40
from anyone else's.
57
160260
2000
מאלו של מישהו אחר.
02:42
But a couple of weeks ago,
58
162260
2000
אבל לפני כמה שבועות,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
ביקשתי ממספר חברים לחפש בגוגל "מצרים"
02:47
and to send me screen shots of what they got.
60
167260
3000
ולשלוח לי צילומי מסך של התוצאות שלהם.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
אז הנה צילום מסך של חברי סקוט.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
וזה של חברי דניאל.
02:57
When you put them side-by-side,
63
177260
2000
כאשר מניחים אותם זה לצד זה,
02:59
you don't even have to read the links
64
179260
2000
אין אפילו צורך לקרוא מה כתוב בתוצאות
03:01
to see how different these two pages are.
65
181260
2000
כדי לראות עד כמה שונים שני העמודים.
03:03
But when you do read the links,
66
183260
2000
אבל כאשר קוראים את התוצאות,
03:05
it's really quite remarkable.
67
185260
3000
זה באמת די מוזר.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
דניאל לא קיבל שום דבר על ההפגנות במצרים
03:12
in his first page of Google results.
69
192260
2000
בעמוד הראשון של התוצאות.
03:14
Scott's results were full of them.
70
194260
2000
אבל התוצאות שסקוט קיבל מלאות בהן.
03:16
And this was the big story of the day at that time.
71
196260
2000
וזה היה אז ה-סיפור של אותו יום.
03:18
That's how different these results are becoming.
72
198260
3000
זה כמה שהתוצאות נעשות שונות.
03:21
So it's not just Google and Facebook either.
73
201260
3000
אבל זה לא רק גוגל ופייסבוק.
03:24
This is something that's sweeping the Web.
74
204260
2000
זה משהו שסוחף איתו את כל הרשת.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
יש מגוון של חברות אשר מבצעות סינון אישי כזה.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
"חדשות יאהו", אתר החדשות הכי גדול ברשת,
03:32
is now personalized -- different people get different things.
77
212260
3000
הוא עכשיו בעל סינון אישי -- כל אחד מקבל משהו אחר.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
"הפינגטון פוסט", ה"וושינגטון פוסט", ה"ניו-יורק טיימס" --
03:39
all flirting with personalization in various ways.
79
219260
3000
כולם מפלרטטים עם סינונים אישיים באופנים שונים.
03:42
And this moves us very quickly
80
222260
3000
וזה לוקח אותנו במהירות
03:45
toward a world in which
81
225260
2000
אל עולם שבו
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
האינטרנט מראה לנו את מה שנדמה לו שאנו רוצים לראות,
03:51
but not necessarily what we need to see.
83
231260
3000
אבל לא בהכרח את מה שאנו צריכים לראות.
03:54
As Eric Schmidt said,
84
234260
3000
כפי שאריק שמידט אמר,
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"יהיה זה בלתי אפשרי לאנשים לראות או לצרוך משהו
04:00
that has not in some sense
86
240260
2000
שבמובן מסויים
04:02
been tailored for them."
87
242260
3000
לא נתפר עבורם."
04:05
So I do think this is a problem.
88
245260
2000
לכן אני סבור שזו אכן בעיה.
04:07
And I think, if you take all of these filters together,
89
247260
3000
ואני חושב שאם נוטלים את כל המסננים ביחד,
04:10
you take all these algorithms,
90
250260
2000
נוטלים את כל האלגוריתמים הללו,
04:12
you get what I call a filter bubble.
91
252260
3000
מקבלים את מה שאני מכנה בועת סינון.
04:16
And your filter bubble is your own personal,
92
256260
3000
ובועת הסינון שלך היא עולם המידע האישי
04:19
unique universe of information
93
259260
2000
והמיוחד שלך
04:21
that you live in online.
94
261260
2000
שאתה חי בו ברשת.
04:23
And what's in your filter bubble
95
263260
3000
ומה שבתוך בועת הסינון שלך
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
תלוי במי שאתה, וזה תלוי במה שאתה עושה.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
אבל העניין הוא שאינך מחליט מה נכנס לתוכה.
04:33
And more importantly,
98
273260
2000
ויותר חשוב,
04:35
you don't actually see what gets edited out.
99
275260
3000
אינך רואה את מה שמסננים החוצה.
04:38
So one of the problems with the filter bubble
100
278260
2000
את אחת הבעיות
04:40
was discovered by some researchers at Netflix.
101
280260
3000
של בועות הסינון גילו כמה חוקרים מנטפליקס.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
הם היו מסתכלים בטורי נטפליקס והם שמו לב לדבר מצחיק
04:46
that a lot of us probably have noticed,
103
286260
2000
שרבים מאיתנו בטח שמו לב אליו,
04:48
which is there are some movies
104
288260
2000
והוא שיש כמה סרטים
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
שמגיעים במהירות היישר לביתינו.
04:53
They enter the queue, they just zip right out.
106
293260
3000
הם נכנסים לתור ונפתחים מייד לפנינו.
04:56
So "Iron Man" zips right out,
107
296260
2000
כך ש-"Iron man" נפתח מייד,
04:58
and "Waiting for Superman"
108
298260
2000
ו-"Waiting for Superman"
05:00
can wait for a really long time.
109
300260
2000
יכול לחכות ממש הרבה זמן.
05:02
What they discovered
110
302260
2000
מה שהם מצאו
05:04
was that in our Netflix queues
111
304260
2000
היה שבטורי הנטפליקס שלנו
05:06
there's this epic struggle going on
112
306260
3000
מתנהל מאבק איתנים
05:09
between our future aspirational selves
113
309260
3000
בין העצמי העתידי, השאפתני שלנו
05:12
and our more impulsive present selves.
114
312260
3000
לבין העצמי היותר אימפולסיבי שלנו השייך להווה.
05:15
You know we all want to be someone
115
315260
2000
אנו כולנו שואפים להיות זה
05:17
who has watched "Rashomon,"
116
317260
2000
שראה כבר את "Rashomon",
05:19
but right now
117
319260
2000
אבל ברגע זה ממש
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
אנו רוצים לצפות ב-"Ace Ventura" בפעם הרביעית.
05:24
(Laughter)
119
324260
3000
(צחוק)
05:27
So the best editing gives us a bit of both.
120
327260
2000
אז העריכה המוצלחת ביותר נותנת לנו קצת משניהם.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
היא נותנת לנו קצת מג'סטין ביבר
05:31
and a little bit of Afghanistan.
122
331260
2000
וקצת מאפגניסטן.
05:33
It gives us some information vegetables;
123
333260
2000
היא נותנת לנו קצת מידע על ירקות,
05:35
it gives us some information dessert.
124
335260
3000
וקצת מידע על קינוח.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
והקושי עם מסננים אלגוריתמיים כאלה,
05:40
these personalized filters,
126
340260
2000
עם המסננים הללו המותאמים אישית,
05:42
is that, because they're mainly looking
127
342260
2000
הוא שבגלל שהם מסתכלים בעיקר
05:44
at what you click on first,
128
344260
4000
על מה שאנו מקליקים עליו ראשון,
05:48
it can throw off that balance.
129
348260
4000
זה יכול להפר את האיזון.
05:52
And instead of a balanced information diet,
130
352260
3000
ואז במקום דיאטת מידע מאוזנת,
05:55
you can end up surrounded
131
355260
2000
נמצא את עצמנו מוקפים
05:57
by information junk food.
132
357260
2000
בג'נק-פוד של מידע.
05:59
What this suggests
133
359260
2000
כל זה מצביע על כך
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
שאנו מפספסים את כל מטרת האינטרנט.
06:04
In a broadcast society --
135
364260
2000
בחברה מבוססת שידורים --
06:06
this is how the founding mythology goes --
136
366260
2000
כך על-פי מיתוס ההיווסדות --
06:08
in a broadcast society,
137
368260
2000
בחברה מבוססת שידורים,
06:10
there were these gatekeepers, the editors,
138
370260
2000
היו אלה שומרי-הסף, העורכים,
06:12
and they controlled the flows of information.
139
372260
3000
והם שלטו על ברז המידע.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
ואז בא האינטרנט וניפנף אותם הצידה,
06:18
and it allowed all of us to connect together,
141
378260
2000
וזה איפשר לנו להתחבר זה לזה,
06:20
and it was awesome.
142
380260
2000
וזה היה פשוט נפלא.
06:22
But that's not actually what's happening right now.
143
382260
3000
אבל לא זה מה שקורה כעת.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
מה שאנו עדים לו זה העברת המפתחות
06:29
from human gatekeepers
145
389260
2000
משומרי-סף אנושיים
06:31
to algorithmic ones.
146
391260
3000
לשומרי-סף אלגוריתמיים.
06:34
And the thing is that the algorithms
147
394260
3000
והעניין הוא שהאלגוריתמים
06:37
don't yet have the kind of embedded ethics
148
397260
3000
חסרים עדיין את האתיקה הפנימית
06:40
that the editors did.
149
400260
3000
שהיתה לעורכים.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
כך שאם האלגוריתמים הולכים לנהל לנו את העולם,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
אם הם הולכים להחליט מה נזכה לראות ומה לא נזכה,
06:49
then we need to make sure
152
409260
2000
אז עלינו לוודא
06:51
that they're not just keyed to relevance.
153
411260
3000
שהם לא מכווננים רק לפי מידת הרלוונטיות.
06:54
We need to make sure that they also show us things
154
414260
2000
עלינו לוודא שהם גם מראים לנו דברים
06:56
that are uncomfortable or challenging or important --
155
416260
3000
שאינם נוחים או שהם מאתגרים או שהם חשובים --
06:59
this is what TED does --
156
419260
2000
זה מה ש-TED עושה --
07:01
other points of view.
157
421260
2000
נקודות מבט שונות.
07:03
And the thing is, we've actually been here before
158
423260
2000
והעניין הוא שכבר היינו בסרט הזה
07:05
as a society.
159
425260
2000
כחברה.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
ב-1915, זה לא שלעיתונים היה יותר מדי איכפת
07:11
about their civic responsibilities.
161
431260
3000
מהאחריות האזרחית שלהם.
07:14
Then people noticed
162
434260
2000
ואז אנשים שמו לב
07:16
that they were doing something really important.
163
436260
3000
שהעיתונים עושים משהו באמת חשוב.
07:19
That, in fact, you couldn't have
164
439260
2000
שלמעשה, קשה לקיים
07:21
a functioning democracy
165
441260
2000
דמוקרטיה מתפקדת
07:23
if citizens didn't get a good flow of information,
166
443260
4000
אם אזרחים לא זוכים לזרם שוטף ויעיל של מידע.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
שהעיתונים היו דבר קריטי, היות והם פעלו בתור מסננים,
07:31
and then journalistic ethics developed.
168
451260
2000
וכך התפתחה אתיקה עיתונאית.
07:33
It wasn't perfect,
169
453260
2000
היא לא היתה מושלמת,
07:35
but it got us through the last century.
170
455260
3000
אבל היא ליוותה אותנו בכל המאה שעברה.
07:38
And so now,
171
458260
2000
ועכשיו,
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
אנו שוב בחזרה במין אותו מצב של 1915, אבל ברשת.
07:44
And we need the new gatekeepers
173
464260
3000
ואנו צריכים ששומרי-הסף החדשים
07:47
to encode that kind of responsibility
174
467260
2000
יקודדו את האחריות הזו,
07:49
into the code that they're writing.
175
469260
2000
בתוך התוכנות שהם כותבים.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
אני יודע שיש כאן הרבה אנשים מפייסבוק וגוגל --
07:54
Larry and Sergey --
177
474260
2000
לארי וסרגיי --
07:56
people who have helped build the Web as it is,
178
476260
2000
אנשים שתרמו לבניית הרשת כפי שהיא,
07:58
and I'm grateful for that.
179
478260
2000
ואני אסיר-תודה על כך.
08:00
But we really need you to make sure
180
480260
3000
אבל אנו באמת צריכים שאתם תוודאו
08:03
that these algorithms have encoded in them
181
483260
3000
שבתוך האלגוריתמים הללו יקודדו
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
גם המודעות לציבור, המודעות לאחריות אזרחית.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
אנו צריכים שאתם תבטיחו שהם יהיו שקופים מספיק
08:12
that we can see what the rules are
184
492260
2000
כדי שנוכל לראות מה הם הכללים
08:14
that determine what gets through our filters.
185
494260
3000
אשר קובעים מה יעבור את הסינון.
08:17
And we need you to give us some control
186
497260
2000
ואנו צריכים שתתנו לנו שליטה מסויימת,
08:19
so that we can decide
187
499260
2000
כך שנוכל להחליט
08:21
what gets through and what doesn't.
188
501260
3000
מה יעבור ומה לא.
08:24
Because I think
189
504260
2000
כי אני סבור
08:26
we really need the Internet to be that thing
190
506260
2000
שאנו באמת צריכים שהאינטרנט יהיה הדבר
08:28
that we all dreamed of it being.
191
508260
2000
שכולנו חלמנו שהוא יהיה.
08:30
We need it to connect us all together.
192
510260
3000
אנו צריכים שהוא יחבר את כולנו זה לזה.
08:33
We need it to introduce us to new ideas
193
513260
3000
אנו צריכים שהוא יביא לפנינו רעיונות חדשים
08:36
and new people and different perspectives.
194
516260
3000
ואנשים חדשים ונקודות מבט שונות.
08:40
And it's not going to do that
195
520260
2000
וזה לא יוכל לקרות
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
אם זה ישאיר את כולנו מבודדים ברשת השייכת ליחיד.
08:45
Thank you.
197
525260
2000
תודה לכם.
08:47
(Applause)
198
527260
11000
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7