Beware online "filter bubbles" | Eli Pariser

Eli Pariser: Thận trọng với những "bong bóng lọc"

1,593,210 views

2011-05-02 ・ TED


New videos

Beware online "filter bubbles" | Eli Pariser

Eli Pariser: Thận trọng với những "bong bóng lọc"

1,593,210 views ・ 2011-05-02

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Minh Dung Tran Reviewer: Minh Trang Lai
00:15
Mark Zuckerberg,
0
15260
2000
Mark Zuckerberg,
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
một phóng viên đã hỏi ông một câu hỏi liên quan đến các thông tin cập nhật trên Facebook (news feed)
00:20
And the journalist was asking him,
2
20260
2000
người phóng viên đó hỏi,
00:22
"Why is this so important?"
3
22260
2000
"Tại sao chúng lại quan trọng đến vậy?"
00:24
And Zuckerberg said,
4
24260
2000
Và Zuckerberg đã trả lời,
00:26
"A squirrel dying in your front yard
5
26260
2000
"1 con sóc chết ở sân trước nhà bạn
00:28
may be more relevant to your interests right now
6
28260
3000
có thể liên quan đến những mối quan tâm của bạn lúc này
00:31
than people dying in Africa."
7
31260
3000
hơn là những người chết ở châu Phi."
00:34
And I want to talk about
8
34260
2000
Và tôi muốn đề cập tới
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
một trang web dựa trên ý tưởng về sự liên quan ấy sẽ như thế nào.
00:40
So when I was growing up
10
40260
2000
Khi tôi lớn lên
00:42
in a really rural area in Maine,
11
42260
2000
ở 1 vùng nông thôn thuộc Maine,
00:44
the Internet meant something very different to me.
12
44260
3000
Internet là là một điều gì đó thực sự khác biệt.
00:47
It meant a connection to the world.
13
47260
2000
Đó là sự liên kết với thế giới,
00:49
It meant something that would connect us all together.
14
49260
3000
Đó là điều gì đó có thể kết nối tất cả chúng ta với nhau.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
Và tôi chắc rằng nó sẽ thật tuyệt đối với nền dân chủ
00:55
and for our society.
16
55260
3000
và cho xã hội của chúng ta.
00:58
But there's this shift
17
58260
2000
Nhưng rồi có 1 sự thay đổi
01:00
in how information is flowing online,
18
60260
2000
trong việc luân chuyển các thông tin trên mạng,
01:02
and it's invisible.
19
62260
3000
và nó diễn ra một cách thầm lặng.
01:05
And if we don't pay attention to it,
20
65260
2000
Và nếu chúng ta ko để ý tới nó,
01:07
it could be a real problem.
21
67260
3000
nó có thể trở thành 1 vấn đề thực sự.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
Tôi chú ý tới điều này lần đầu tiên ở 1 nơi mà tôi đã dành rất nhiều thời gian --
01:13
my Facebook page.
23
73260
2000
Facebook của tôi.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
Tôi là người tiến bộ, về mặt chính trị -- bất ngờ lớn phải không --
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
nhưng tôi luôn luôn tìm gặp những người bảo thủ.
01:20
I like hearing what they're thinking about;
26
80260
2000
Tôi thích nghe những điều họ đang nghĩ tới;
01:22
I like seeing what they link to;
27
82260
2000
tôi muốn thấy họ liên kết với cái gì;
01:24
I like learning a thing or two.
28
84260
2000
tôi muốn học được 1 điều gì đó.
01:26
And so I was surprised when I noticed one day
29
86260
3000
Và tôi thực sự ngạc nhiên khi tới 1 ngày, tôi nhận ra
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
rằng những người bảo thủ dần biến mất trong phần cập nhật Facebook của tôi.
01:33
And what it turned out was going on
31
93260
2000
Hóa ra là
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
Facebook đã quan sát những đường link mà tôi đã truy cập,
01:39
and it was noticing that, actually,
33
99260
2000
và nhận ra rằng
01:41
I was clicking more on my liberal friends' links
34
101260
2000
tôi đã truy cập vào các đường link của những người theo chủ nghĩa tự do nhiều hơn
01:43
than on my conservative friends' links.
35
103260
3000
là của những người bảo thủ.
01:46
And without consulting me about it,
36
106260
2000
Không hề hỏi ý kiến tôi về điều này,
01:48
it had edited them out.
37
108260
2000
Facebook đã tự loại bỏ họ.
01:50
They disappeared.
38
110260
3000
Và rồi họ biến mất.
01:54
So Facebook isn't the only place
39
114260
2000
Facebook không phải là nơi duy nhất
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
làm những công việc biên tập vô hình, dựa trên những thuật toán,
01:58
editing of the Web.
41
118260
3000
cho trang web của họ.
02:01
Google's doing it too.
42
121260
2000
Google cũng đang làm điều tương tự.
02:03
If I search for something, and you search for something,
43
123260
3000
Nếu tôi tìm kiếm điều gì đó, và bạn cũng tìm kiếm 1 điều tương tự,
02:06
even right now at the very same time,
44
126260
2000
thậm chí là ngay bây giờ, tại cùng 1 thời điểm,
02:08
we may get very different search results.
45
128260
3000
chúng ta có thể sẽ nhận được những kết quả rất khác nhau.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Thậm chí nếu bạn đã đăng xuất, 1 kĩ sư đã nói với tôi,
02:14
there are 57 signals
47
134260
2000
có tới 57 dấu hiệu
02:16
that Google looks at --
48
136260
3000
để Google quan sát --
02:19
everything from what kind of computer you're on
49
139260
3000
từ loại máy tính mà bạn đang dùng,
02:22
to what kind of browser you're using
50
142260
2000
trình duyệt bạn sử dụng
02:24
to where you're located --
51
144260
2000
cho tới vị trí của bạn --
02:26
that it uses to personally tailor your query results.
52
146260
3000
họ đã sử dụng chúng để điều chỉnh các kết quả tìm kiếm cho phù hợp với cá nhân bạn.
02:29
Think about it for a second:
53
149260
2000
Hãy nghĩ về điều này 1 chút --
02:31
there is no standard Google anymore.
54
151260
4000
không còn 1 Google chuẩn nữa đâu.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
Và bạn biết đấy, điều khôi hài là thực sự rất khó để nhận ra nó.
02:38
You can't see how different your search results are
56
158260
2000
Bạn không thể biết các kết quả của bạn khác biệt thế nào
02:40
from anyone else's.
57
160260
2000
so với của 1 người khác.
02:42
But a couple of weeks ago,
58
162260
2000
Nhưng khoảng hai tuần trước,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
tôi đã đề nghị 1 nhóm bạn cùng tìm kiếm trên Google với từ khóa "Egypt" (Ai Cập)
02:47
and to send me screen shots of what they got.
60
167260
3000
rồi gửi tôi bản chụp màn hình mà họ có.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Và đây là bản chụp từ anh bạn Scott của tôi.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
Còn đây là của Daniel.
02:57
When you put them side-by-side,
63
177260
2000
Khi tôi đặt chúng cạnh nhau,
02:59
you don't even have to read the links
64
179260
2000
thậm chí bạn không cần đọc những đường link
03:01
to see how different these two pages are.
65
181260
2000
để thấy chúng khác nhau đến thế nào.
03:03
But when you do read the links,
66
183260
2000
Nhưng khi bạn đọc những đường link này,
03:05
it's really quite remarkable.
67
185260
3000
chúng khá là khác thường đấy.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Daniel không hề nhận được bất kỳ thứ gì về cuộc biểu tình ở Ai Cập
03:12
in his first page of Google results.
69
192260
2000
ở trang đầu tiên của kết quả tìm kiếm.
03:14
Scott's results were full of them.
70
194260
2000
Còn của Scott thì đầy những thứ như vậy.
03:16
And this was the big story of the day at that time.
71
196260
2000
Và đây thực sự là 1 vấn đề lớn ở thời điểm này,
03:18
That's how different these results are becoming.
72
198260
3000
về việc các kết quả tìm kiếm đang trở nên khác nhau như thế nào.
03:21
So it's not just Google and Facebook either.
73
201260
3000
Không chỉ là Google hay Facebook đâu.
03:24
This is something that's sweeping the Web.
74
204260
2000
Đó là 1 thứ đang lan tràn trong các trang web.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Có rất nhiều công ty đang thực hiện việc cá nhân hóa như vậy.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo News, trang tin tức lớn nhất trên mạng,
03:32
is now personalized -- different people get different things.
77
212260
3000
đang được cá nhân hóa -- những người khác nhau sẽ nhận được những thứ khác nhau.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Huffington Post, the Washington Post, the New York Times --
03:39
all flirting with personalization in various ways.
79
219260
3000
tất cả đều đang thực hiện việc cá nhân hóa theo nhiều cách khác nhau.
03:42
And this moves us very quickly
80
222260
3000
Và nó hướng chúng ta, 1 cách rất nhanh chóng,
03:45
toward a world in which
81
225260
2000
tới 1 thế giới mà ở đó
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
Internet sẽ cho chúng ta thấy cái mà nó nghĩ chúng ta muốn thấy,
03:51
but not necessarily what we need to see.
83
231260
3000
nhưng không phải luôn là những gì chúng ta cần.
03:54
As Eric Schmidt said,
84
234260
3000
Như Eric Schimidt đã nói,
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"Se rất khó khăn cho mọi người để xem hay sử dụng một thứ
04:00
that has not in some sense
86
240260
2000
mà chưa hề
04:02
been tailored for them."
87
242260
3000
được điều chỉnh để phù hợp với họ."
04:05
So I do think this is a problem.
88
245260
2000
Và tôi cho rằng đây chính là vấn đề.
04:07
And I think, if you take all of these filters together,
89
247260
3000
Tôi cho rằng, nếu chúng ta để tất cả những hệ thống "lọc" này lại với nhau,
04:10
you take all these algorithms,
90
250260
2000
cùng với tất cả những thuật toán,
04:12
you get what I call a filter bubble.
91
252260
3000
chúng ta sẽ nhận được cái mà tôi gọi là "bong bóng lọc." (filter bubble)
04:16
And your filter bubble is your own personal,
92
256260
3000
Và cái bong bóng lọc của bạn là một thế giới thông tin
04:19
unique universe of information
93
259260
2000
duy nhất của riêng bạn
04:21
that you live in online.
94
261260
2000
mà bạn sống trong đó trên thế giới mạng.
04:23
And what's in your filter bubble
95
263260
3000
Và những thứ có trong đó
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
phụ thuộc vào việc bạn là ai, và bạn làm gì.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Nhưng vấn đề là bạn không thể quyết định điều gì sẽ được đưa vào.
04:33
And more importantly,
98
273260
2000
Và quan trọng hơn,
04:35
you don't actually see what gets edited out.
99
275260
3000
bạn thực sự không thể thấy điều gì đã được bỏ đi.
04:38
So one of the problems with the filter bubble
100
278260
2000
Và một trong những vấn đề đối với bong bóng lọc
04:40
was discovered by some researchers at Netflix.
101
280260
3000
đã được phát hiện bởi 1 nhóm các nhà nghiên cứu ở Netflix.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
Khi họ quan sát các hàng đợi tại Netflix, họ nhận ra 1 điều rất khôi hài
04:46
that a lot of us probably have noticed,
103
286260
2000
như phần lớn chúng ta đã nhận thấy,
04:48
which is there are some movies
104
288260
2000
đó là có 1 số bộ phim
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
bằng cách nào đó đã được sắp xếp để đưa đến cho chúng ta
04:53
They enter the queue, they just zip right out.
106
293260
3000
Những bộ phim này được đưa vào hàng đợi, và sẽ được đưa ra một cách nhanh chóng.
04:56
So "Iron Man" zips right out,
107
296260
2000
Và "Người sắt" (Iron Man) được đưa ra,
04:58
and "Waiting for Superman"
108
298260
2000
và "Waiting for Superman"
05:00
can wait for a really long time.
109
300260
2000
cũng ko phải đợi lâu.
05:02
What they discovered
110
302260
2000
Cái mà họ khám phá ra
05:04
was that in our Netflix queues
111
304260
2000
là trong những hàng đợi Netflix của chúng ta
05:06
there's this epic struggle going on
112
306260
3000
có 1 cuộc đấu tranh lớn đang diễn ra
05:09
between our future aspirational selves
113
309260
3000
giữa những điều mong muốn lâu dài
05:12
and our more impulsive present selves.
114
312260
3000
và những ý muốn nhất thời.
05:15
You know we all want to be someone
115
315260
2000
Bạn biết tất cả chúng ta đều muốn là người
05:17
who has watched "Rashomon,"
116
317260
2000
đã xem "Rashomon,"
05:19
but right now
117
319260
2000
nhưng ngay lúc này
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
chúng ta lại muốn xem "Ace Ventura" lần thứ tư.
05:24
(Laughter)
119
324260
3000
(Tiếng cười)
05:27
So the best editing gives us a bit of both.
120
327260
2000
Vậy nên sự biên tập tốt nhất cần đưa đến cho chúng ta 1 phần từ cả 2.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
Nó đưa đến cho chúng 1 chút về Justin Bieber
05:31
and a little bit of Afghanistan.
122
331260
2000
và 1 chút về Afghanistan.
05:33
It gives us some information vegetables;
123
333260
2000
Nó mang đến 1 vài thông tin về rau quả,
05:35
it gives us some information dessert.
124
335260
3000
và 1 vài thông tin về bữa tráng miệng.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
Và sự thách thức đối với những bộ lọc dựa trên thuật toán,
05:40
these personalized filters,
126
340260
2000
những bộ lọc hướng tới cá nhân này,
05:42
is that, because they're mainly looking
127
342260
2000
chính là, bởi vì chúng hầu như chỉ quan sát
05:44
at what you click on first,
128
344260
4000
những thứ chúng ta truy cập đầu tiên,
05:48
it can throw off that balance.
129
348260
4000
nó có thể loại bỏ sự cân bằng đó.
05:52
And instead of a balanced information diet,
130
352260
3000
Thay vì nhận được thông tin về một bữa ăn cân bằng,
05:55
you can end up surrounded
131
355260
2000
bạn có thể bị bao vây
05:57
by information junk food.
132
357260
2000
bởi thông tin về đủ thứ thức ăn tạp nham.
05:59
What this suggests
133
359260
2000
Qua đó chúng ta có thể thấy
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
rằng thực tế chúng ta có vấn đề với những sai lầm của Internet.
06:04
In a broadcast society --
135
364260
2000
Trong thế giới truyền hình --
06:06
this is how the founding mythology goes --
136
366260
2000
đó là cách mà những điều không thể tưởng tượng được đang diễn ra --
06:08
in a broadcast society,
137
368260
2000
trong thế giới truyền hình,
06:10
there were these gatekeepers, the editors,
138
370260
2000
có những người gác cửa, những biên tập viên,
06:12
and they controlled the flows of information.
139
372260
3000
họ kiểm soát các luồng thông tin.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
Rồi internet ra đời, nó thổi bay họ đi
06:18
and it allowed all of us to connect together,
141
378260
2000
và nó cho phép chúng ta liên kết với nhau,
06:20
and it was awesome.
142
380260
2000
điều đó thật tuyệt vời.
06:22
But that's not actually what's happening right now.
143
382260
3000
Nhưng đó không hẳn là những gì đang diễn ra lúc này.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
Những gì chúng ta thấy dường như là sự truyền đi ngọn đuốc
06:29
from human gatekeepers
145
389260
2000
từ những người gác cửa
06:31
to algorithmic ones.
146
391260
3000
tới những cơ chế dựa trên thuật toán.
06:34
And the thing is that the algorithms
147
394260
3000
Và vấn đề là những thuật toán này
06:37
don't yet have the kind of embedded ethics
148
397260
3000
chưa được cài đặt trong nó những quy tắc xử thế
06:40
that the editors did.
149
400260
3000
như là những nhà biên tập đã làm.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
Vậy nếu những thuật toán tổ chức thế giới cho chúng ta,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
nếu chúng quyết định cái chúng ta được thấy và không được thấy,
06:49
then we need to make sure
152
409260
2000
thì chúng ta cần chắc chắn rằng
06:51
that they're not just keyed to relevance.
153
411260
3000
chúng không chỉ hướng tới với sự liên quan.
06:54
We need to make sure that they also show us things
154
414260
2000
Chúng ta cần chắc chắn rằng chúng đồng thời chỉ ra
06:56
that are uncomfortable or challenging or important --
155
416260
3000
những thứ không dễ chịu hay đầy thử thách hay quan trọng --
06:59
this is what TED does --
156
419260
2000
đó là điều mà TED đang làm --
07:01
other points of view.
157
421260
2000
những quan điểm khác biệt.
07:03
And the thing is, we've actually been here before
158
423260
2000
Và chúng ta thực sự đã ở đây từ trước đó
07:05
as a society.
159
425260
2000
như là 1 xã hội.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
Vào năm 1915, không nhiều tờ báo đổ mồ hôi công sức
07:11
about their civic responsibilities.
161
431260
3000
cho những trách nhiệm công dân của họ.
07:14
Then people noticed
162
434260
2000
Rồi họ nhận ra rằng
07:16
that they were doing something really important.
163
436260
3000
mình đang làm 1 việc thực sự quan trọng.
07:19
That, in fact, you couldn't have
164
439260
2000
Rằng, trong thực tế, bạn không thể có được
07:21
a functioning democracy
165
441260
2000
một nền dân chủ thực sự
07:23
if citizens didn't get a good flow of information,
166
443260
4000
nếu công dân không nhận được những luồng thông tin tốt.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
Rằng những tờ báo là quan trọng, bởi vì chúng đóng vai trò như 1 bộ lọc,
07:31
and then journalistic ethics developed.
168
451260
2000
rồi đạo đức nhà báo được nâng lên.
07:33
It wasn't perfect,
169
453260
2000
Nó đã chưa thực sự hoàn hảo,
07:35
but it got us through the last century.
170
455260
3000
nhưng nó đã đi cùng chúng ta trong suốt thế kỷ trước.
07:38
And so now,
171
458260
2000
Và tới giờ,
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
chúng ta dường như quay trở lại năm 1915 với các trang web.
07:44
And we need the new gatekeepers
173
464260
3000
Và chúng ta cần những người gác cửa mới
07:47
to encode that kind of responsibility
174
467260
2000
để mã hóa trách nhiệm đó
07:49
into the code that they're writing.
175
469260
2000
thành những dòng mã nguồn mà họ đang viết.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Tôi biết rằng có rất nhiều người ở đây đang làm việc cho Facebook và Google --
07:54
Larry and Sergey --
177
474260
2000
như Larry và Sergey --
07:56
people who have helped build the Web as it is,
178
476260
2000
những người đã góp phần xây dựng nên nền tảng web như bây giờ,
07:58
and I'm grateful for that.
179
478260
2000
và tôi thực sự biết ơn về điều đó.
08:00
But we really need you to make sure
180
480260
3000
Nhưng chúng tôi cần các bạn chắc chắn rằng
08:03
that these algorithms have encoded in them
181
483260
3000
những thuật toán này sẽ được mã hóa trong chúng
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
một ý thức về cuộc sống cộng đồng, một ý thức về trách nhiệm công dân.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Chúng tôi cần các bạn chắc chắn rằng, chúng đủ rõ ràng
08:12
that we can see what the rules are
184
492260
2000
để chúng tôi có thể nhìn thấy những quy tắc
08:14
that determine what gets through our filters.
185
494260
3000
quyết định những gì sẽ đi qua hệ thống lọc của các bạn.
08:17
And we need you to give us some control
186
497260
2000
Và chúng tôi cần các bạn cung cấp cho chúng tôi sự kiểm soát,
08:19
so that we can decide
187
499260
2000
để chúng tôi có thể quyết định
08:21
what gets through and what doesn't.
188
501260
3000
điều gì sẽ bị lọc hay không.
08:24
Because I think
189
504260
2000
Bởi vì tôi cho rằng
08:26
we really need the Internet to be that thing
190
506260
2000
chúng ta thực sự cần Internet như là 1 thứ
08:28
that we all dreamed of it being.
191
508260
2000
mà chúng ta từng mơ tới.
08:30
We need it to connect us all together.
192
510260
3000
Chúng ta cần nó để liên kết tất cả mọi người lại.
08:33
We need it to introduce us to new ideas
193
513260
3000
Chúng ta cần nó để giới thiệu với chúng ta những ý tưởng mới,
08:36
and new people and different perspectives.
194
516260
3000
những con người mới và những triển vọng mới.
08:40
And it's not going to do that
195
520260
2000
Và nó sẽ không như vậy
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
nếu nó khiến chúng ta bị cách ly trong 1 hệ thống web của cá nhân.
08:45
Thank you.
197
525260
2000
Cảm ơn các bạn.
08:47
(Applause)
198
527260
11000
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7