Dear Facebook, this is how you're breaking democracy | Yael Eisenstat

113,626 views ・ 2020-09-24

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Trang Lê Reviewer: Thu Ha Tran
Khoảng năm năm trước,
tôi cảm thấy khó có thể
nói chuyện với những người khác suy nghĩ.
Việc thảo luận về những vấn đề nóng với những người Mỹ khác
00:13
Around five years ago,
0
13000
2018
00:15
it struck me that I was losing the ability
1
15042
2392
khiến tôi khó chịu
00:17
to engage with people who aren't like-minded.
2
17458
2500
đặc biệt là với những người theo xu hướng cực đoan.
00:20
The idea of discussing hot-button issues with my fellow Americans
3
20917
3642
Tôi bắt đầu cảm thấy bực tức và thất vọng nhiều hơn.
00:24
was starting to give me more heartburn
4
24583
2393
Và cứ như thế,
00:27
than the times that I engaged with suspected extremists overseas.
5
27000
4125
sự tập trung của tôi chuyển từ
những mối đe dọa an ninh quốc gia toàn cầu
00:31
It was starting to leave me feeling more embittered and frustrated.
6
31750
3601
sang việc tìm ra nguyên nhân gây ra
00:35
And so just like that,
7
35375
1434
sự phân cực này tại Mỹ.
00:36
I shifted my entire focus
8
36833
1810
00:38
from global national security threats
9
38667
2434
Từng là nhân viên CIA và nhà ngoại giao,
00:41
to trying to understand what was causing this push
10
41125
3226
tôi đã dành nhiều năm tìm hiểu về vấn đề chống chủ nghĩa cực đoan,
00:44
towards extreme polarization at home.
11
44375
3226
tôi lo sợ rằng đây sẽ là mối đe dọa lớn đối với nền dân chủ của chúng ta
00:47
As a former CIA officer and diplomat
12
47625
2351
hơn bất kì tác nhân bên ngoài nào khác.
00:50
who spent years working on counterextremism issues,
13
50000
3434
Và thế là tôi tìm hiểu sâu
00:53
I started to fear that this was becoming a far greater threat to our democracy
14
53458
3851
và bày tỏ quan điểm của mình.
Để rồi cuối cùng, tôi được Facebook thuê.
00:57
than any foreign adversary.
15
57333
2518
Và hôm nay, tôi có mặt ở đây
00:59
And so I started digging in,
16
59875
1809
để đưa ra cảnh báo về cách những nền tảng công nghệ
01:01
and I started speaking out,
17
61708
1518
01:03
which eventually led me to being hired at Facebook
18
63250
2809
đang thao túng cũng như khiến chúng ta trở nên cực đoan,
01:06
and ultimately brought me here today
19
66083
2685
đồng thời, tôi sẽ nói về cách để cải tạo lại dư luận chung.
01:08
to continue warning you about how these platforms
20
68792
2809
Tôi từng là nhân viên đối ngoại tại Kenya
01:11
are manipulating and radicalizing so many of us
21
71625
4018
chỉ vài năm sau vụ tấn công ngày 11/9,
01:15
and to talk about how to reclaim our public square.
22
75667
2958
và tôi đã thực hiện các chiến dịch “Trái tim và lý trí”
dọc biên giới Somalia.
01:19
I was a foreign service officer in Kenya
23
79625
1976
Vai trò chính của tôi là tạo dựng niềm tin với các cộng đồng
01:21
just a few years after the September 11 attacks,
24
81625
3059
01:24
and I led what some call "hearts and minds" campaigns
25
84708
2560
nhạy cảm, dễ bị lung lay nhất khi nhận được tin nhắn cực đoan.
01:27
along the Somalia border.
26
87292
1934
Tôi dành hàng giờ trò chuyện với các mục sư thẳng thắn chống phương Tây
01:29
A big part of my job was to build trust with communities
27
89250
3309
và thậm chí tôi đã thẩm vấn một số kẻ tình nghi khủng bố.
01:32
deemed the most susceptible to extremist messaging.
28
92583
2709
Mặc dù những cuộc gặp này đều bắt đầu bằng sự nghi ngờ lẫn nhau,
01:36
I spent hours drinking tea with outspoken anti-Western clerics
29
96125
4184
tôi không nhớ ai trong số họ từng la hét hay buông lời xúc phạm,
01:40
and even dialogued with some suspected terrorists,
30
100333
3226
và thi thoảng, chúng tôi đã cùng nhau bàn về các lĩnh vực mà cả hai đều hứng thú.
01:43
and while many of these engagements began with mutual suspicion,
31
103583
3393
01:47
I don't recall any of them resulting in shouting or insults,
32
107000
3809
Chìa khóa cho sự kết nối này chỉ đơn giản là chúng tôi lắng nghe, học hỏi
01:50
and in some case we even worked together on areas of mutual interest.
33
110833
4084
và dành cho nhau sự đồng cảm.
Đây là bản chất hòa hợp của lý trí và cảm xúc
01:56
The most powerful tools we had were to simply listen, learn
34
116000
4143
bởi lẽ tôi biết thứ mà mọi người muốn
là được lắng nghe, được công nhận giá trị và được người khác tôn trọng.
02:00
and build empathy.
35
120167
1726
02:01
This is the essence of hearts and minds work,
36
121917
3059
Và tôi tin rằng hầu hết chúng ta đều khao khát điều đó.
02:05
because what I found again and again is that what most people wanted
37
125000
3268
Những gì đang xảy ra trên mạng hàng ngày thực sự đáng buồn
02:08
was to feel heard, validated and respected.
38
128292
3767
và là một vấn đề nan giải.
02:12
And I believe that's what most of us want.
39
132083
2643
Chúng ta đang bị thao túng bởi hệ sinh thái thông tin
02:14
So what I see happening online today is especially heartbreaking
40
134750
3309
gắn chặt chúng ta với sự chuyên chế
02:18
and a much harder problem to tackle.
41
138083
2084
02:20
We are being manipulated by the current information ecosystem
42
140917
3767
vốn đã tồi tệ.
Bởi vì ngay lúc này đây,
02:24
entrenching so many of us so far into absolutism
43
144708
3768
các công ty mạng xã hội như Facebook
kiếm lợi nhuận từ việc phân nhóm chúng ta và cho chúng ta thấy những nội dung
02:28
that compromise has become a dirty word.
44
148500
2976
có thể khẳng định và khai thác thành kiến của chúng ta.
02:31
Because right now,
45
151500
1309
02:32
social media companies like Facebook
46
152833
2143
Điểm mấu chốt nằm ở chỗ họ khơi dậy một cảm xúc mãnh liệt
02:35
profit off of segmenting us and feeding us personalized content
47
155000
3851
để giữ chân người dùng Facebook,
02:38
that both validates and exploits our biases.
48
158875
3851
khơi gợi những quan điểm kích động và phân cực,
02:42
Their bottom line depends on provoking a strong emotion
49
162750
3434
đến mức không còn chỗ cho cái chung nữa.
02:46
to keep us engaged,
50
166208
1685
02:47
often incentivizing the most inflammatory and polarizing voices,
51
167917
4267
Và mặc dù ngày càng có nhiều người kêu gọi các nền tảng thay đổi,
02:52
to the point where finding common ground no longer feels possible.
52
172208
4435
nhưng như thế vẫn chưa đủ.
Do đó Chính phủ phải chịu trách nhiệm
02:56
And despite a growing chorus of people crying out for the platforms to change,
53
176667
4226
trước những tác hại thực tế gây ra bởi loại hình kinh doanh này
03:00
it's clear they will not do enough on their own.
54
180917
3309
và đặt ra mức phí thực tế đối với những ảnh hưởng tiêu cực
03:04
So governments must define the responsibility
55
184250
2893
lên sức khỏe, không gian bàn luận và nền dân chủ của chúng ta.
03:07
for the real-world harms being caused by these business models
56
187167
3809
Nhưng không may, cuộc bầu cử tổng thống khiến vấn đề vẫn chưa được giải quyết,
03:11
and impose real costs on the damaging effects
57
191000
2768
03:13
they're having to our public health, our public square and our democracy.
58
193792
5309
thế nên tôi vẫn đang lên tiếng cảnh tỉnh,
bởi vì dù cho một ngày nào đó chúng ta có các quy tắc chặt chẽ,
03:19
But unfortunately, this won't happen in time for the US presidential election,
59
199125
4643
thì vẫn sẽ cần tất cả chúng ta cùng nhau giải quyết.
03:23
so I am continuing to raise this alarm,
60
203792
2767
Khi tôi dừng chú ý đến các mối nguy ở nước ngoài
03:26
because even if one day we do have strong rules in place,
61
206583
3060
và tập trung sự chia rẽ trong nước,
03:29
it will take all of us to fix this.
62
209667
2750
tôi nghĩ chúng ta có thể thực hiện các chiến dịch “trái tim và lý trí”
03:33
When I started shifting my focus from threats abroad
63
213417
2601
để hàn gắn những chia rẽ nội bộ này.
Nền dân chủ được duy trì trong hơn 200 năm
03:36
to the breakdown in civil discourse at home,
64
216042
2142
03:38
I wondered if we could repurpose some of these hearts and minds campaigns
65
218208
4060
ở nhiều bang vì chúng ta có thể cùng nhau thảo luận nhiệt tình và cởi mở
03:42
to help heal our divides.
66
222292
2101
để tìm ra giải pháp tốt nhất.
03:44
Our more than 200-year experiment with democracy works
67
224417
3809
Nhưng trong lúc tôi tin tưởng
03:48
in large part because we are able to openly and passionately
68
228250
3893
vào các cuộc bàn luận dân sự trực tiếp
thì tôi nhận ra chúng ta
03:52
debate our ideas for the best solutions.
69
232167
2809
không thể chống lại ảnh hưởng phân cực và quy mô của mạng xã hội.
03:55
But while I still deeply believe
70
235000
1809
03:56
in the power of face-to-face civil discourse,
71
236833
2268
Những người rơi vào vòng luẩn quẩn
do mạng xã hội tạo ra
03:59
it just cannot compete
72
239125
1643
thường cảm thấy khó khăn khi phá vỡ tư duy ý thức của chính họ
04:00
with the polarizing effects and scale of social media right now.
73
240792
3809
hơn là những người dễ bị tổn thương mà tôi đã từng làm việc cùng.
04:04
The people who are sucked down these rabbit holes
74
244625
2351
04:07
of social media outrage
75
247000
1309
Năm 2008, Facebook liên hệ với tôi
04:08
often feel far harder to break of their ideological mindsets
76
248333
3643
và giao cho tôi vị trí
hướng đến các hoạt động bầu cử liêm chính phục vụ mục đích quảng bá chính trị,
04:12
than those vulnerable communities I worked with ever were.
77
252000
3476
tôi đã nhận lời.
04:15
So when Facebook called me in 2018
78
255500
2309
Tôi không ảo tưởng mình sẽ giải quyết triệt để nhiệm vụ.
04:17
and offered me this role
79
257833
1310
04:19
heading its elections integrity operations for political advertising,
80
259167
3976
Nhưng khi được trao cho cơ hội
giúp đưa con tàu đi về đúng hướng,
04:23
I felt I had to say yes.
81
263167
2017
ít nhất tôi phải dám làm.
04:25
I had no illusions that I would fix it all,
82
265208
2726
Tôi không trực tiếp khắc phục sự phân cực
04:27
but when offered the opportunity
83
267958
1643
nhưng tôi xem xét về vấn đề gây chia rẽ nhất trong xã hội
04:29
to help steer the ship in a better direction,
84
269625
2184
04:31
I had to at least try.
85
271833
1542
và cả những nỗ lực can thiệp bầu cử
04:34
I didn't work directly on polarization,
86
274667
2267
04:36
but I did look at which issues were the most divisive in our society
87
276958
4435
trong thủ đoạn của Nga trước năm 2016.
Vậy nên tôi bắt đầu bằng việc đặt câu hỏi.
04:41
and therefore the most exploitable in elections interference efforts,
88
281417
3809
Tôi muốn nắm rõ vấn đề gốc rễ
04:45
which was Russia's tactic ahead of 2016.
89
285250
2583
gây ra sự chia rẽ nội bộ
để có thể tìm ra cách khắc phục nó.
04:48
So I started by asking questions.
90
288583
2351
04:50
I wanted to understand the underlying systemic issues
91
290958
2893
Đến nay tôi vẫn tin tưởng vào sức mạnh của Internet
04:53
that were allowing all of this to happen,
92
293875
2434
sẽ giúp nhiều tiếng nói được đưa ra,
04:56
in order to figure out how to fix it.
93
296333
2084
nhưng dù họ đã xác định mục tiêu xây dựng cộng đồng
04:59
Now I still do believe in the power of the internet
94
299625
2559
các công ty mạng xã hội lớn nhất hiện nay
05:02
to bring more voices to the table,
95
302208
2518
đang đi ngược lại với sự thảo luận duy lý.
05:04
but despite their stated goal of building community,
96
304750
3101
Không có cách tuyên dương sự lắng nghe
05:07
the largest social media companies as currently constructed
97
307875
3309
để khơi dậy thảo luận công chúng
và để bảo vệ những người thực sự muốn đặt câu hỏi
05:11
are antithetical to the concept of reasoned discourse.
98
311208
3601
05:14
There's no way to reward listening,
99
314833
2518
với doanh nghiệp mà tối ưu hóa mức độ tương tác và số lượng người dùng
05:17
to encourage civil debate
100
317375
1601
là hai thước đo chính của thành công.
05:19
and to protect people who sincerely want to ask questions
101
319000
3643
Không có ưu đãi nào để mọi người sống chậm lại
05:22
in a business where optimizing engagement and user growth
102
322667
3351
để tạo đủ ma sát khiến mọi người dừng lại,
05:26
are the two most important metrics for success.
103
326042
3226
nhìn nhận phản ứng cảm xúc của bản thân với thứ khác
05:29
There's no incentive to help people slow down,
104
329292
3434
và tự hỏi mình về các giả định trước khi tham gia.
05:32
to build in enough friction that people have to stop,
105
332750
3226
Thực tế đáng tiếc là:
05:36
recognize their emotional reaction to something,
106
336000
2601
lời nói dối trên mạng thường hấp dẫn hơn sự thật,
05:38
and question their own assumptions before engaging.
107
338625
2667
và sự tục tĩu lấn át những lý luận thực tế
05:42
The unfortunate reality is:
108
342625
1976
trong thế giới tối ưu hóa sự phổ biến.
05:44
lies are more engaging online than truth,
109
344625
2893
Nếu mục tiêu của các thuật toán là khiến chúng ta tương tác,
05:47
and salaciousness beats out wonky, fact-based reasoning
110
347542
3726
chúng sẽ tiếp tục nhồi cho ta thứ độc hại và chơi đùa với những bản năng xấu xa
05:51
in a world optimized for frictionless virality.
111
351292
3041
và yếu điểm của con người.
05:55
As long as algorithms' goals are to keep us engaged,
112
355167
3434
Đúng vậy, giận dữ, nghi ngờ,
05:58
they will continue to feed us the poison that plays to our worst instincts
113
358625
4059
lo sợ và sự căm ghét:
đều không phải cảm xúc gì mới ở Mỹ.
06:02
and human weaknesses.
114
362708
1459
06:04
And yes, anger, mistrust,
115
364958
3018
Nhưng trong vài năm gần đây, mạng xã hội đã khai thác tất cả cảm xúc ấy
và, theo tôi, nó đột ngột thay đổi cục diện.
06:08
the culture of fear, hatred:
116
368000
1726
06:09
none of this is new in America.
117
369750
2851
Và Facebook biết điều này.
06:12
But in recent years, social media has harnessed all of that
118
372625
3351
Gần đây, tờ “Wall Street Journal”
đã hé lộ một buổi thuyết trình nội bộ của Facebook từ năm 2018,
06:16
and, as I see it, dramatically tipped the scales.
119
376000
3601
06:19
And Facebook knows it.
120
379625
2393
cụ thể nhắm vào các thuật toán của công ty.
06:22
A recent "Wall Street Journal" article
121
382042
1892
06:23
exposed an internal Facebook presentation from 2018
122
383958
4143
Để gia tăng sự hiện diện của các nhóm cực đoạn trên diễn đàn của họ
và phân nhóm người dùng.
06:28
that specifically points to the companies' own algorithms
123
388125
3768
Để kiếm tiền, họ khiến ta tiếp tục đắm chìm vào các nền tảng mạng xã hội.
06:31
for growing extremist groups' presence on their platform
124
391917
3517
Nền tảng thông tin hiện đại đang định hình
06:35
and for polarizing their users.
125
395458
2167
06:38
But keeping us engaged is how they make their money.
126
398708
3685
và sau đó chia chúng ta thành các nhóm nhỏ hơn
để hoàn thành quá trình cá nhân hóa.
06:42
The modern information environment is crystallized around profiling us
127
402417
4226
Chúng ta sẽ bị ngợp trong mớ thông tin có cùng quan điểm với ta,
06:46
and then segmenting us into more and more narrow categories
128
406667
2976
củng cố thành kiến,
06:49
to perfect this personalization process.
129
409667
3309
và cho ta cảm giác sở hữu thứ gì đó.
06:53
We're then bombarded with information confirming our views,
130
413000
3809
Những thủ thuật này tương tự như cách quân khủng bố sử dụng
06:56
reinforcing our biases,
131
416833
1851
để lối kéo thanh thiếu niên,
06:58
and making us feel like we belong to something.
132
418708
3518
mặc dù những thủ thuật đó đã được bản địa hóa ở nền tảng mạng xã hội
07:02
These are the same tactics we would see terrorist recruiters
133
422250
3393
với mục đích cuối cùng là thao túng hành vi người dùng.
07:05
using on vulnerable youth,
134
425667
2184
Điều không may là, tôi chưa từng được Facebook phân việc cụ thể gì.
07:07
albeit in smaller, more localized ways before social media,
135
427875
3851
07:11
with the ultimate goal of persuading their behavior.
136
431750
3268
Vào ngày làm việc thứ hai, chức vụ và nhiệm vụ của tôi đã bị thay đổi
07:15
Unfortunately, I was never empowered by Facebook to have an actual impact.
137
435042
5267
và tôi không được tham gia các cuộc họp quan trọng.
Nỗ lực lên kế hoạch chống
07:20
In fact, on my second day, my title and job description were changed
138
440333
3768
thông tin sai lệch, đàn áp cử tri trong các quảng cáo chính trị của tôi
07:24
and I was cut out of decision-making meetings.
139
444125
2976
đã bị từ chối.
Tôi đã chịu đựng làm việc ở đó sáu tháng.
07:27
My biggest efforts,
140
447125
1309
07:28
trying to build plans
141
448458
1393
07:29
to combat disinformation and voter suppression in political ads,
142
449875
3601
Nhưng khoảng thời gian đó đã cho tôi một bài học lớn.
07:33
were rejected.
143
453500
1559
Hàng nghìn người ở Facebook
07:35
And so I lasted just shy of six months.
144
455083
2500
hăng say làm việc để tạo ra một sản phẩm
mà họ tin là khiến thế giới tốt đẹp hơn,
07:38
But here is my biggest takeaway from my time there.
145
458125
3601
07:41
There are thousands of people at Facebook
146
461750
2476
nhưng nếu Facebook tiếp tục xâu xé
07:44
who are passionately working on a product
147
464250
2018
các nội dung chính trị và kiểm duyệt,
07:46
that they truly believe makes the world a better place,
148
466292
3684
thay vì xem xét
cách nền tảng được thiết lập và vận hành,
07:50
but as long as the company continues to merely tinker around the margins
149
470000
3684
họ sẽ chẳng bao giờ biết rằng nền tảng họ gây dựng đang góp phần
07:53
of content policy and moderation,
150
473708
2726
gây ra sự ganh ghét, chia rẽ và cực đoan.
07:56
as opposed to considering
151
476458
1310
07:57
how the entire machine is designed and monetized,
152
477792
3226
Trong suốt thời gian làm việc ở đó, tôi chưa từng thấy ai nhận ra điều này.
08:01
they will never truly address how the platform is contributing
153
481042
3351
08:04
to hatred, division and radicalization.
154
484417
4184
Bởi vì nó đòi hỏi Facebook phải thừa nhận
rằng thứ mà họ mang đến cho xã hội không phải là thứ tốt nhất
08:08
And that's the one conversation I never heard happen during my time there,
155
488625
4268
và phải thay đổi toàn bộ mô hình sản phẩm cũng như lợi nhuận.
08:12
because that would require fundamentally accepting
156
492917
3059
08:16
that the thing you built might not be the best thing for society
157
496000
4143
Vậy ta phải làm sao với vấn đề này?
Tôi không nói rằng mạng xã hội phải chịu toàn bộ trách nhiệm
08:20
and agreeing to alter the entire product and profit model.
158
500167
3125
với tình huống mà chúng ta đang gặp phải.
08:24
So what can we do about this?
159
504500
1833
Rõ ràng là có những vấn đề xã hội sâu sắc cần chúng ta giải quyết.
08:27
I'm not saying that social media bears the sole responsibility
160
507042
3601
Việc Facebook phản hồi rằng đây chỉ là vấn đề nhỏ đối với xã hội
08:30
for the state that we're in today.
161
510667
2142
08:32
Clearly, we have deep-seated societal issues that we need to solve.
162
512833
5435
là nỗ lực để họ chối bỏ trách nhiệm
rằng nền tảng của họ đang tạo ra nội dung tiêu cực
08:38
But Facebook's response, that it is just a mirror to society,
163
518292
4142
và lôi kéo người dùng ngày càng có quan điểm cực đoan.
08:42
is a convenient attempt to deflect any responsibility
164
522458
3018
08:45
from the way their platform is amplifying harmful content
165
525500
4268
Và nếu Facebook muốn, họ có thể khắc phục điều này.
08:49
and pushing some users towards extreme views.
166
529792
3041
Họ có thể dừng phóng đại và đề xuất những người có thuyết âm mưu,
08:53
And Facebook could, if they wanted to,
167
533583
2851
nhóm thù ghét, những người cung cấp thông tin sai lệch
08:56
fix some of this.
168
536458
1851
và trong vài trường hợp, cả tổng thống Mỹ nữa.
08:58
They could stop amplifying and recommending the conspiracy theorists,
169
538333
3851
Facebook có thể dừng việc sử dụng kỹ thuật cá nhân hóa người dùng
09:02
the hate groups, the purveyors of disinformation
170
542208
2685
để truyền tải luận điệu mà họ dùng để rao bán sản phẩm.
09:04
and, yes, in some cases even our president.
171
544917
3851
Họ có thể viết lại các thuật toán
09:08
They could stop using the same personalization techniques
172
548792
3392
dựa trên chỉ số khác ngoài mức độ tương tác,
và Facebook có thể thiết lập hàng rào ảo ngăn chặn những nội dung cụ thể phổ biến
09:12
to deliver political rhetoric that they use to sell us sneakers.
173
552208
4226
09:16
They could retrain their algorithms
174
556458
1726
trước khi được đánh giá kĩ lưỡng.
09:18
to focus on a metric other than engagement,
175
558208
2185
Họ có thể làm tất cả những điều trên
09:20
and they could build in guardrails to stop certain content from going viral
176
560417
4309
dù không phải là người phán quyết sự thật.
09:24
before being reviewed.
177
564750
1667
Tuy nhiên, rõ ràng họ sẽ không dừng
09:26
And they could do all of this
178
566875
2268
những việc sai trái nếu không ngăn cản,
09:29
without becoming what they call the arbiters of truth.
179
569167
4184
thẳng thắn mà nói, tại sao họ phải làm vậy.
09:33
But they've made it clear that they will not go far enough
180
573375
2809
Thị trường ưa chuộng Facebook và họ cùng không phạm luật.
09:36
to do the right thing without being forced to,
181
576208
2810
Bởi vì,
luật pháp Hoa Kỳ không cản trở Facebook hay bất kì nền tảng mạng xã hội nào khác
09:39
and, to be frank, why should they?
182
579042
2934
09:42
The markets keep rewarding them, and they're not breaking the law.
183
582000
3934
để bảo vệ lập trường của công dân,
09:45
Because as it stands,
184
585958
1310
nền dân chủ của chúng ta
và thậm chí là cả những cuộc bầu cử.
09:47
there are no US laws compelling Facebook, or any social media company,
185
587292
4892
Chúng ta đã trao quyền quyết định nên ban luật gì và nên thi hành luật gì
09:52
to protect our public square,
186
592208
1768
cho CEO của các công ty mạng hoạt động vì lợi nhuận.
09:54
our democracy
187
594000
1309
09:55
and even our elections.
188
595333
2435
09:57
We have ceded the decision-making on what rules to write and what to enforce
189
597792
4101
Đây có phải điều mà chúng ta mong muốn?
Một thế giới giả dối chỉ toàn thông tin độc hại và thành kiến
10:01
to the CEOs of for-profit internet companies.
190
601917
3083
sẽ lấn át sự liên kết và đồng thuận giữa con người?
10:05
Is this what we want?
191
605750
2018
Tôi vẫn giữ thái độ lạc quan rằng chúng ta có nhiều điểm chung với nhau
10:07
A post-truth world where toxicity and tribalism
192
607792
3226
hơn là những gì mang xã hội và truyền thông đang mô phỏng,
10:11
trump bridge-building and consensus-seeking?
193
611042
2625
và tôi tin rằng tồn tại nhiều quan điểm
10:14
I do remain optimistic that we still have more in common with each other
194
614667
4101
sẽ khiến nền dân chủ phát triển mạnh và toàn diện hơn.
10:18
than the current media and online environment portray,
195
618792
3642
Nhưng tình hình hiện tại khá quan ngại.
10:22
and I do believe that having more perspective surface
196
622458
3101
Tôi muốn nhấn mạnh rằng tôi không muốn xóa bỏ những công ty mạng xã hội.
10:25
makes for a more robust and inclusive democracy.
197
625583
3601
Tôi chỉ muốn họ chịu trách nhiệm giải trình một số vấn đề nhất định
10:29
But not the way it's happening right now.
198
629208
2810
giống như những người khác trong xã hội.
10:32
And it bears emphasizing, I do not want to kill off these companies.
199
632042
4226
Đã đến lúc các chính phủ can thiệp và thực hiện nghĩa vụ
10:36
I just want them held to a certain level of accountability,
200
636292
3226
bảo vệ cho toàn bộ công dân.
10:39
just like the rest of society.
201
639542
1916
Trong khi không có luật pháp nhiệm màu nào
10:42
It is time for our governments to step up and do their jobs
202
642542
4351
có thể giải quyết triệt để,
tôi tin là chính phủ có thể và phải tìm ra cách để cân bằng
10:46
of protecting our citizenry.
203
646917
1642
10:48
And while there isn't one magical piece of legislation
204
648583
3060
giữa bảo vệ quyền tự do ngôn luận
10:51
that will fix this all,
205
651667
1476
và buộc nền tảng mạng xã hội chịu trách nhiệm với ảnh hưởng của họ với xã hội.
10:53
I do believe that governments can and must find the balance
206
653167
4684
Họ có thể yêu cầu các công ty minh bạch
10:57
between protecting free speech
207
657875
2143
11:00
and holding these platforms accountable for their effects on society.
208
660042
4309
về hoạt động của các công cụ đề xuất,
các quản lý và nhắm đến người dùng.
11:04
And they could do so in part by insisting on actual transparency
209
664375
4309
11:08
around how these recommendation engines are working,
210
668708
3143
Tôi muốn công ty mạng xã hội phải chịu trách nhiệm
không chỉ với cá nhân đăng những thông tin sai lệch
11:11
around how the curation, amplification and targeting are happening.
211
671875
4643
hay luận điệu cực đoan,
mà cả việc ứng dụng của họ đề xuất và lan truyền những thông tin đó,
11:16
You see, I want these companies held accountable
212
676542
2434
11:19
not for if an individual posts misinformation
213
679000
3101
kể cả việc họ dùng thuật toán để thao túng người dùng
11:22
or extreme rhetoric,
214
682125
1476
cũng như nhắm đến người dùng nhất định.
11:23
but for how their recommendation engines spread it,
215
683625
3851
Tôi đã cố gắng thay đổi cách Facebook hoạt động, nhưng đã thất bại,
11:27
how their algorithms are steering people towards it,
216
687500
3226
11:30
and how their tools are used to target people with it.
217
690750
3292
vì vậy, tôi phải lên tiếng lần nữa
để tiếp tục gióng lên hồi chuông cảnh tỉnh
11:35
I tried to make change from within Facebook and failed,
218
695417
3684
và hy vọng sẽ có nhiều người đòi Facebook chịu trách nhiệm.
11:39
and so I've been using my voice again for the past few years
219
699125
3143
Thông điệp mà tôi muốn gửi tới các bạn đơn giản là:
11:42
to continue sounding this alarm
220
702292
2226
hãy gia tăng áp lực lên đại diện chính phủ
11:44
and hopefully inspire more people to demand this accountability.
221
704542
4392
để họ dừng dung túng các công ty lợi nhuận phá hoại quan điểm của chúng ta.
11:48
My message to you is simple:
222
708958
2643
Hãy nói với bạn bè và người thân bạn
11:51
pressure your government representatives
223
711625
2184
rằng mạng xã hội đang thao túng chúng ta.
11:53
to step up and stop ceding our public square to for-profit interests.
224
713833
5435
Và hãy khích lệ bản thân tương tác với những người không cùng chí hướng.
11:59
Help educate your friends and family
225
719292
1851
Hãy ưu tiên vấn đề này lên hàng đầu.
12:01
about how they're being manipulated online.
226
721167
3142
Vấn đề này cần cả xã hội giải quyết.
12:04
Push yourselves to engage with people who aren't like-minded.
227
724333
3518
Và thông điệp tôi muốn gửi tới lãnh đạo của Facebook, nơi tôi từng làm việc rằng:
12:07
Make this issue a priority.
228
727875
2643
12:10
We need a whole-society approach to fix this.
229
730542
3416
Bây giờ, mọi người đang sử dụng Facebook như cách nó được thiết kế,
12:15
And my message to the leaders of my former employer Facebook is this:
230
735250
5559
để gieo rắc sự thù hận, chia rẽ, và nghi ngờ lẫn nhau,
12:20
right now, people are using your tools exactly as they were designed
231
740833
5810
và là người lãnh đạo, bạn đã tiếp tay cho điều này diễn ra.
Có vô vàn những câu chuyện tốt đẹp
12:26
to sow hatred, division and distrust,
232
746667
2601
về những điều tích cực được chia sẻ trên Facebook ở khắp thế giới,
12:29
and you're not just allowing it, you are enabling it.
233
749292
4142
Nhưng điều đó không thể tẩy trắng Facebook.
12:33
And yes, there are lots of great stories
234
753458
2476
Và tồi tệ hơn khi chúng ta đang tiến gần hơn với cuộc bầu cử
12:35
of positive things happening on your platform around the globe,
235
755958
3685
thậm chí đáng quan ngại hơn là,
12:39
but that doesn't make any of this OK.
236
759667
3226
khủng hoảng xã hội xảy ra,
Nếu kết quả bầu cử có gian lận, bạo lực chắc chắn sẽ nổ ra.
12:42
And it's only getting worse as we're heading into our election,
237
762917
2976
12:45
and even more concerning,
238
765917
1767
Năm 2021, bạn đã nói: “Chúng tôi biết cần phải làm tốt hơn”,
12:47
face our biggest potential crisis yet,
239
767708
2476
12:50
if the results aren't trusted, and if violence breaks out.
240
770208
4143
Tôi muốn bạn hãy nhớ lấy khoảng khắc này
bởi vì nó không chỉ là lời kêu gọi xa vời.
12:54
So when in 2021 you once again say, "We know we have to do better,"
241
774375
5018
Các lãnh đạo về nhân quyền, học giả
12:59
I want you to remember this moment,
242
779417
2684
nhà báo, đối tác quảng cáo và nhân viên của bạn
13:02
because it's no longer just a few outlier voices.
243
782125
3226
đang lên tiếng phản bác
do các chính sách và hoạt động của Facebook
13:05
Civil rights leaders, academics,
244
785375
2268
đang gây hại cho con người và nền dân chủ.
13:07
journalists, advertisers, your own employees,
245
787667
2976
13:10
are shouting from the rooftops
246
790667
2059
Bạn làm chủ quyết định của mình,
13:12
that your policies and your business practices
247
792750
2601
nhưng bạn không thể nói rằng bạn không hề thấy những hậu quả tiềm ẩn.
13:15
are harming people and democracy.
248
795375
2417
Xin cảm ơn.
13:18
You own your decisions,
249
798875
2351
13:21
but you can no longer say that you couldn't have seen it coming.
250
801250
3667
13:26
Thank you.
251
806167
1250
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7