Beware online "filter bubbles" | Eli Pariser

ایلای پاریسر: مواظب " حباب‌‌های فیلتر " آنلاین باشید

1,588,934 views

2011-05-02 ・ TED


New videos

Beware online "filter bubbles" | Eli Pariser

ایلای پاریسر: مواظب " حباب‌‌های فیلتر " آنلاین باشید

1,588,934 views ・ 2011-05-02

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Sepideh Sekehchi Reviewer: soheila Jafari
00:15
Mark Zuckerberg,
0
15260
2000
یک روزنامه‌نگار
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
از "مارک زاکربرگ " (مؤسس فیس‌بوک)
00:20
And the journalist was asking him,
2
20260
2000
دربارۀ خوراک خبری پرسید.
00:22
"Why is this so important?"
3
22260
2000
« چرا این اینقدر مهم است؟ »
00:24
And Zuckerberg said,
4
24260
2000
و "مارک زاکربرگ " گفت:
00:26
"A squirrel dying in your front yard
5
26260
2000
« یک سنجاب در حال مرگ در حیاط خانۀ شما
00:28
may be more relevant to your interests right now
6
28260
3000
ممکن است در حال حاضر بیشتر مورد علاقه و توجه شما
00:31
than people dying in Africa."
7
31260
3000
تا مردم در حال مرگ در آفریقا »
00:34
And I want to talk about
8
34260
2000
و من می‌خواهم بگویم اینترنت بر اساس
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
ایدۀ مرتبط بودن با علاقه، چه شکلی خواهد بود.
00:40
So when I was growing up
10
40260
2000
وقتی در یک ناحیه روستایی در " مین "
00:42
in a really rural area in Maine,
11
42260
2000
بزرگ می‌شدم،
00:44
the Internet meant something very different to me.
12
44260
3000
اینترنت برای من معنای خیلی متفاوتی داشت.
00:47
It meant a connection to the world.
13
47260
2000
به معنی اتصال با دنیا بود.
00:49
It meant something that would connect us all together.
14
49260
3000
به معنی چیزی بود که همۀ ما را به هم متصل می‌کند.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
و مطمئن بودم که برای دموکراسی و برای جامعۀ ما
00:55
and for our society.
16
55260
3000
فوق‌العاده خواهد بود.
00:58
But there's this shift
17
58260
2000
اما تغییری در
01:00
in how information is flowing online,
18
60260
2000
نحوۀ جریان اطلاعات آنلاین
01:02
and it's invisible.
19
62260
3000
به وجود آمده که نامرئی است.
01:05
And if we don't pay attention to it,
20
65260
2000
و اگر به آن توجه نکنیم
01:07
it could be a real problem.
21
67260
3000
می‌تواند یک مشکل اساسی شود.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
من اولین بار در جایی که زمان خیلی زیادی را در صفحه فیس بوک صرف کردم
01:13
my Facebook page.
23
73260
2000
این را متوجه شدم.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
من از لحاظ سیاسی ترقی‌خواه هستم -- شگفتی بزرگ--
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
ولی همیشه برای ملاقات با محافظه‌کاران مسیرم را کج کرده‌ام.
01:20
I like hearing what they're thinking about;
26
80260
2000
دوست دارم بشنوم به چی فکر می‌کنند.
01:22
I like seeing what they link to;
27
82260
2000
دوست دارم ببینم به چی لینک می‌دهند.
01:24
I like learning a thing or two.
28
84260
2000
دوست دارم یکی دوتا چیز یاد بگیرم.
01:26
And so I was surprised when I noticed one day
29
86260
3000
پس سوپرایز شدم وقتی یک روز متوجه شدم
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
که محافظه‌کارها از خوراک فیس بوک من حذف شده‌اند.
01:33
And what it turned out was going on
31
93260
2000
و معلوم شد که جریان این بوده که
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
فیس بوک به لینک‌‌هایی که روی آنها کلیک می‌کردم
01:39
and it was noticing that, actually,
33
99260
2000
نگاه می‌کرده و متوجه شده که ، در واقع
01:41
I was clicking more on my liberal friends' links
34
101260
2000
من بیشتر روی لینک‌‌های دوستان لیبرالم کلیک می‌کردم
01:43
than on my conservative friends' links.
35
103260
3000
تا روی لینک‌‌های دوستان محافظه‌کارم.
01:46
And without consulting me about it,
36
106260
2000
و بدون مشورت با من
01:48
it had edited them out.
37
108260
2000
آنان را حذف کرده بود.
01:50
They disappeared.
38
110260
3000
آنان ناپدید شدند.
01:54
So Facebook isn't the only place
39
114260
2000
خب فیس بوک تنها جایی نیست که
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
این ویرایش نامرئی و الگوریتمی
01:58
editing of the Web.
41
118260
3000
را انجام می‌دهد.
02:01
Google's doing it too.
42
121260
2000
گوگل هم این کار را می‌کند.
02:03
If I search for something, and you search for something,
43
123260
3000
اگر من چیزی را جستجو کنم و شما هم جستجو کنید
02:06
even right now at the very same time,
44
126260
2000
حتی اگر هم زمان باشد
02:08
we may get very different search results.
45
128260
3000
احتمالا" نتایج خیلی متفاوتی را می گیریم.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
یک مهندس به من گفت
02:14
there are 57 signals
47
134260
2000
حتی اگر خارج از حساب کاربریتان باشید،
02:16
that Google looks at --
48
136260
3000
گوگل به 57 نشانه نگاه می‌کند.
02:19
everything from what kind of computer you're on
49
139260
3000
همه چیز از نوع کامپیوتری که با آن به شبکه وصل شده‌اید
02:22
to what kind of browser you're using
50
142260
2000
تا مرورگری که از آن استفاده می‌کنید
02:24
to where you're located --
51
144260
2000
و تا موقعیت مکانی شما.
02:26
that it uses to personally tailor your query results.
52
146260
3000
که گوگل از آنها برای انجام اصلاحات بر روی نتایج جستجو استفاده می‌کند.
02:29
Think about it for a second:
53
149260
2000
یک ثانیه به این فکر کنید
02:31
there is no standard Google anymore.
54
151260
4000
دیگر هیچ گوگل استانداردی وجود ندارد.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
و مسخره‌ترین چیز این است که این سخت قابل تشخیص است.
02:38
You can't see how different your search results are
56
158260
2000
شما نمی‌توانید ببینید نتایج جستجوی شما
02:40
from anyone else's.
57
160260
2000
چقدر با بقیه تفاوت دارد.
02:42
But a couple of weeks ago,
58
162260
2000
ولی چند هفته پیش
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
من از چندتا دوست خواستم " مصر " را در گوگل جستچو کنند
02:47
and to send me screen shots of what they got.
60
167260
3000
و تصویر صفحۀ نتایج را برای من بفرستند.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
خب این تصویر صفحه نمایش دوستم " اسکات " است.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
و این تصویر صفحه دوستم " دانیل " است.
02:57
When you put them side-by-side,
63
177260
2000
اگر آنها را کنار هم بگذارید
02:59
you don't even have to read the links
64
179260
2000
حتی لازم نیست لینک‌‌ها را بخوانید تا
03:01
to see how different these two pages are.
65
181260
2000
متوجه بشوید چقدر این دو صفحه با هم فرق دارند.
03:03
But when you do read the links,
66
183260
2000
ولی وقتی که لینک‌‌ها را بخوانید
03:05
it's really quite remarkable.
67
185260
3000
این تفاوت واقعا چشمگیر است.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
" دانیل " در صفحۀ اول نتایج گوگل
03:12
in his first page of Google results.
69
192260
2000
هیچ اطلاعاتی از تظاهرات در " مصر" نگرفت.
03:14
Scott's results were full of them.
70
194260
2000
نتایج جستجوی " اسکات " پر از آنها بود.
03:16
And this was the big story of the day at that time.
71
196260
2000
و این تظاهرات خبر اصلی روز در آن زمان بود.
03:18
That's how different these results are becoming.
72
198260
3000
این نتایج تا این اندازه در حال متفاوت شدن هستند.
03:21
So it's not just Google and Facebook either.
73
201260
3000
خوب فقط گوگل و فیس بوک نیستند.
03:24
This is something that's sweeping the Web.
74
204260
2000
این چیزی است که در سراسر اینترنت پخش شده است.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
انبوهی از شرکت‌‌ها هستند که این نوع شخصی سازی را انجام می‌دهند.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
" یاهو نیوز " بزرگترین سایت خبری اینترنت
03:32
is now personalized -- different people get different things.
77
212260
3000
دیگر الان شخصی سازی شده -- افراد مختلف، اخبار مختلف می‌گیرند.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
" هافینگتون پست "، " واشنگتن پست "، " نیویورک تایمز "
03:39
all flirting with personalization in various ways.
79
219260
3000
همه از راه‌های متنوع با شخصی سازی سر و کار دارند.
03:42
And this moves us very quickly
80
222260
3000
و این ما را به سرعت به طرف
03:45
toward a world in which
81
225260
2000
جهانی سوق می‌دهد که در آن
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
اینترنت چیزی را به ما نشان می‌دهد که فکر می‌کند می‌خواهیم ببینیم
03:51
but not necessarily what we need to see.
83
231260
3000
ولی نه لزوما چیزی را که نیاز داریم ببینیم.
03:54
As Eric Schmidt said,
84
234260
3000
همانطور که " اریک اشمیت " گفت:
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
« برای مردم خیلی سخت خواهد بود که چیزی را تماشا کنند یا مصرف کنند
04:00
that has not in some sense
86
240260
2000
که احساس نمی کنند
04:02
been tailored for them."
87
242260
3000
برای آنان تهیه شده است »
04:05
So I do think this is a problem.
88
245260
2000
من واقعا فکر می‌کنم این یک مشکل است.
04:07
And I think, if you take all of these filters together,
89
247260
3000
و فکر می‌کنم اگر همۀ این فیلترها،
04:10
you take all these algorithms,
90
250260
2000
همۀ این الگوریتم‌ها را در نظر بگیرید
04:12
you get what I call a filter bubble.
91
252260
3000
به همان حباب‌‌ فیلتری که می‌گویم می‌رسید.
04:16
And your filter bubble is your own personal,
92
256260
3000
و حباب فیلتر شما، همان دنیای شخصی و خاص شما
04:19
unique universe of information
93
259260
2000
از اطلاعات است که
04:21
that you live in online.
94
261260
2000
در فضای مجازی در آن زندگی می‌کنید.
04:23
And what's in your filter bubble
95
263260
3000
و چیزی که در حباب فیلتر شما وجود دارد
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
بستگی به این دارد که شما چه کسی هستید و چکارمی کننید.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
ولی مسئله این است که شما دربارۀ محتوای آن تصمیم نمی‌گیرید.
04:33
And more importantly,
98
273260
2000
و مهمتر اینکه
04:35
you don't actually see what gets edited out.
99
275260
3000
شما در واقع نمی‌بینید چه چیزی حذف شده.
04:38
So one of the problems with the filter bubble
100
278260
2000
خب یک مشکل ناشی از این حباب‌‌های فیلتر
04:40
was discovered by some researchers at Netflix.
101
280260
3000
توسط چند محقق در " نتفلیکس" ( شرکت اجارۀ فیلم) کشف شد.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
وقتی به لیست‌‌های نتفلیکس نگاه می‌کردند متوجه چیز جالبی شدند
04:46
that a lot of us probably have noticed,
103
286260
2000
که بیشتر ما احتمالا متوجه شده‌ایم.
04:48
which is there are some movies
104
288260
2000
اینکه بعضی فیلم‌ها
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
به سرعت به خانه‌های ما وارد و به سرعت خارج می‌شوند.
04:53
They enter the queue, they just zip right out.
106
293260
3000
وارد لیست می‌شوند و سریع می‌پرند بیرون.
04:56
So "Iron Man" zips right out,
107
296260
2000
" مرد آهنی " می‌پره بیرون
04:58
and "Waiting for Superman"
108
298260
2000
ولی " انتظار برای سوپرمن "
05:00
can wait for a really long time.
109
300260
2000
مدت‌‌ها در لیست می‌ماند.
05:02
What they discovered
110
302260
2000
چیزی که آنان کشف کردند
05:04
was that in our Netflix queues
111
304260
2000
این بود که در لیست‌‌های نتفلیکس ما،
05:06
there's this epic struggle going on
112
306260
3000
کشمکش عظیمی میان
05:09
between our future aspirational selves
113
309260
3000
خودِ هدفدار و آرزومند ما در آینده
05:12
and our more impulsive present selves.
114
312260
3000
و خودِ بلهوس ما در زمان حال، وجود دارد.
05:15
You know we all want to be someone
115
315260
2000
ما همه می‌خواهیم کسی باشیم که
05:17
who has watched "Rashomon,"
116
317260
2000
" راشمون " (فیلم جنایی ژاپنی) را دیده است
05:19
but right now
117
319260
2000
ولی الان
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
می‌خواهیم " آیس ونتورا " ( کمدی) را برای چهارمین بار تماشا کنیم.
05:24
(Laughter)
119
324260
3000
( خنده )
05:27
So the best editing gives us a bit of both.
120
327260
2000
پس بهترین ویرایش ، به ما کمی از هر دو نوع را می‌دهد.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
کمی به ما " جاستین بیبر " ( خواننده- بازیگر نوجوان) را می‌دهد
05:31
and a little bit of Afghanistan.
122
331260
2000
و کمی هم از افغانستان در اختیار ما می‌گذارد.
05:33
It gives us some information vegetables;
123
333260
2000
مقداری اطلاعاتِ سبزیجات مانند،
05:35
it gives us some information dessert.
124
335260
3000
و مقداری اطلاعاتِ دسر مانند، را می دهد.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
و چالش موجود در این نوع فیلترهای الگوریتمی
05:40
these personalized filters,
126
340260
2000
این فیلترهای شخصی شده ،
05:42
is that, because they're mainly looking
127
342260
2000
که عموما" آنها به دنبال آنند،
05:44
at what you click on first,
128
344260
4000
آنهایی هستند که شما اول بر روی آنها کلیک می کنید.
05:48
it can throw off that balance.
129
348260
4000
این می تواند تعادل را بر هم زند.
05:52
And instead of a balanced information diet,
130
352260
3000
و به جای یک رژیم اطلاعاتی متعادل،
05:55
you can end up surrounded
131
355260
2000
شما ممکن است در میان
05:57
by information junk food.
132
357260
2000
اطلاعاتِ هله هوله مانند، قرار بگیرید.
05:59
What this suggests
133
359260
2000
این نشان می‌دهد که در واقع
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
داستانی که ما از اینترنت داریم اشتباه است.
06:04
In a broadcast society --
135
364260
2000
در یک جامعۀ رادیو تلویزیونی
06:06
this is how the founding mythology goes --
136
366260
2000
آنطور که در اساطیر آمده است،
06:08
in a broadcast society,
137
368260
2000
دربان‌هایی وجود داشتند،
06:10
there were these gatekeepers, the editors,
138
370260
2000
یعنی تدوین‌کننده‌ها یا سانسورچی‌ ها،
06:12
and they controlled the flows of information.
139
372260
3000
و آنان جریان اطلاعات را کنترل می‌کردند
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
تا اینکه اینترنت از راه رسید و آنان را از سر راه برداشت
06:18
and it allowed all of us to connect together,
141
378260
2000
و این به ما اجازه داد به هم وصل شویم
06:20
and it was awesome.
142
380260
2000
و همه چیز عالی بود.
06:22
But that's not actually what's happening right now.
143
382260
3000
ولی این آن چیزی نیست که الان در جریان است.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
آنچه ما شاهدش هستیم دست به دست شدن مشعل
06:29
from human gatekeepers
145
389260
2000
از دربان‌های انسان
06:31
to algorithmic ones.
146
391260
3000
به دربان‌های الگوریتمی است.
06:34
And the thing is that the algorithms
147
394260
3000
و نکته این است که این الگوریتم‌ها
06:37
don't yet have the kind of embedded ethics
148
397260
3000
آن اصول اخلاقی نهادینه شده را
06:40
that the editors did.
149
400260
3000
که تصحیح کننده‌ها داشتند، ندارند.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
پس اگر قرار است الگوریتم‌ها، دنیا را برای ما سازماندهی کنند،
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
اگر قرار است آنها تصمیم بگیرند چه چیزی را ببینیم و چه چیز را نبینیم،
06:49
then we need to make sure
152
409260
2000
ما باید مطمئن شویم
06:51
that they're not just keyed to relevance.
153
411260
3000
که آنها تنها برای ربطِ علایق، تنظیم نشده باشند.
06:54
We need to make sure that they also show us things
154
414260
2000
باید مطمئن شویم آنها به ما چیزهایی را که
06:56
that are uncomfortable or challenging or important --
155
416260
3000
ناراحت کننده، چالش برانگیز و مهم هستند، نشان می‌دهند.
06:59
this is what TED does --
156
419260
2000
این کاری است که TED انجام می‌دهد
07:01
other points of view.
157
421260
2000
-- یعنی نشان دادن نقطه نظرهای دیگر --
07:03
And the thing is, we've actually been here before
158
423260
2000
و موضوع این است که ما قبلا به عنوان یک جامعه
07:05
as a society.
159
425260
2000
این را تجربه کرده‌ایم.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
در سال 1915، روزنامه‌ها خیلی هم برای
07:11
about their civic responsibilities.
161
431260
3000
مسئولیت‌‌های شهروندی خود عرق نمی‌ریختند.
07:14
Then people noticed
162
434260
2000
بعد مردم متوجه شدند که
07:16
that they were doing something really important.
163
436260
3000
کار روزنامه‌ها بسیار مهم است.
07:19
That, in fact, you couldn't have
164
439260
2000
شما در واقع نمی‌توانید
07:21
a functioning democracy
165
441260
2000
یک دموکراسی کارآمد داشته باشید
07:23
if citizens didn't get a good flow of information,
166
443260
4000
اگر مردم یک جریان خوب اطلاعاتی نداشته باشند.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
وضعیت روزنامه‌ها وخیم بود چون آنها مانند فیلتر عمل می‌کردند.
07:31
and then journalistic ethics developed.
168
451260
2000
آن وقت بود که اخلاق روزنامه نگاری پرورانده شد.
07:33
It wasn't perfect,
169
453260
2000
بی‌نقص نبود
07:35
but it got us through the last century.
170
455260
3000
ولی ما را از قرن گذشته به سلامت عبور داد.
07:38
And so now,
171
458260
2000
و بنابراین حالا
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
تا حدی در اینترنت به شرایط 1915 برگشته‌ایم
07:44
And we need the new gatekeepers
173
464260
3000
و به دربان‌های جدید نیاز داریم
07:47
to encode that kind of responsibility
174
467260
2000
که همان نوع تعهد را در کدها و اصولی که مشغول نوشتنشان هستند، وارد کنند.
07:49
into the code that they're writing.
175
469260
2000
که همان نوع تعهد را در کدها و اصولی که مشغول نوشتنشان هستند، وارد کنند.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
می‌دانم که در گوگل و فیس بوک افراد زیادی مثل
07:54
Larry and Sergey --
177
474260
2000
" لری " و " سرگی " هستند که
07:56
people who have helped build the Web as it is,
178
476260
2000
برای ساختن اینترنت به صورتی که امروز هست، کمک کرده‌اند
07:58
and I'm grateful for that.
179
478260
2000
و من بسیار بابت آن سپاسگزار هستم
08:00
But we really need you to make sure
180
480260
3000
ولی ما نیاز داریم که مطمئن شویم
08:03
that these algorithms have encoded in them
181
483260
3000
درک و فهم زندگی اجتماعی و حس مسئولیت شهروندی
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
در این الگوریتم‌ها کد و وارد شده است.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
ما باید مطمئن شویم که آنها به اندازۀ کافی شفاف هستند
08:12
that we can see what the rules are
184
492260
2000
که ما بتوانیم قوانینی که مشخص می‌کنند
08:14
that determine what gets through our filters.
185
494260
3000
چه چیزی از فیلترها عبور کنند، ببینیم.
08:17
And we need you to give us some control
186
497260
2000
و نیاز است که به ما این امکان داده شود
08:19
so that we can decide
187
499260
2000
تا بتوانیم تصمیم بگیریم
08:21
what gets through and what doesn't.
188
501260
3000
چه چیزی از فیلتر عبور کند و چه چیزی عبور نکند.
08:24
Because I think
189
504260
2000
چون فکر می‌کنم
08:26
we really need the Internet to be that thing
190
506260
2000
ما واقعا نیاز داریم اینترنت همان چیزی باشد که
08:28
that we all dreamed of it being.
191
508260
2000
همۀ ما رویای آن را در سر داریم.
08:30
We need it to connect us all together.
192
510260
3000
احتیاج داریم همۀ ما را به هم وصل کند
08:33
We need it to introduce us to new ideas
193
513260
3000
و ایده‌های نو، افراد جدید
08:36
and new people and different perspectives.
194
516260
3000
و چشم‌اندازهای جدید به ما نشان دهد.
08:40
And it's not going to do that
195
520260
2000
و این کار انجام نخواهد شد
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
اگر اینترنت ما را در فضای مجازی یک نفره ، از بقیه جدا کند.
08:45
Thank you.
197
525260
2000
ممنون.
08:47
(Applause)
198
527260
11000
( تشویق )
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7