How we can protect truth in the age of misinformation | Sinan Aral

216,072 views ・ 2020-01-16

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Translator: Ivana Korom Reviewer: Thu Ha Tran
00:13
So, on April 23 of 2013,
1
13468
5222
Vào ngày 23 tháng 4 năm 2013,
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
tờ Associated Press đăng tải dòng trạng thái sau lên Twitter:
00:24
It said, "Breaking news:
3
24252
2397
"Tin nóng: Hai vụ nổ xảy ra ở Nhà Trắng
00:26
Two explosions at the White House
4
26673
2571
00:29
and Barack Obama has been injured."
5
29268
2333
và tổng thống Obama đã bị thương."
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
Mẩu tin này nhận được 4000 lượt chia sẻ trong vòng chưa đầy năm phút.
00:37
and it went viral thereafter.
7
37661
2217
Sau đó, thông tin vẫn tiếp tục lan truyền.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
Nhưng đây không phải là tin thật được đăng bởi Associated Press.
Thực tế, đó là một tin tức giả mạo,
00:45
In fact it was false news, or fake news,
9
45134
3333
00:48
that was propagated by Syrian hackers
10
48491
2825
được phát tán bởi những tin tặc Syria
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
được cho là đã xâm nhập vào tài khoản Twitter của Associated Press.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
Mục đích của chúng là phá rối cộng đồng
nhưng chúng đã đạt được nhiều hơn thế.
01:00
Because automated trading algorithms
13
60320
2476
Bởi các giao dịch thuật toán tự động
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
đã nhanh chóng lợi dụng những quan điểm quá khích
trên mẩu tin này
01:06
and began trading based on the potential
15
66204
2968
và bắt tay vào giao dịch dựa trên khả năng
tổng thống Mỹ đã bị thương hoặc đã chết
01:09
that the president of the United States had been injured or killed
16
69196
3381
01:12
in this explosion.
17
72601
1200
trong vụ nổ này.
01:14
And as they started tweeting,
18
74188
1992
Ngay khi bắt đầu đăng tin,
chúng đã làm cho thị trường chứng khoán sụt giảm nhanh chóng,
01:16
they immediately sent the stock market crashing,
19
76204
3349
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
xóa sạch 140 tỷ đô-la vốn cổ phần chỉ trong một ngày.
Robert Mueller, một công tố viên đặc biệt tại Hoa Kì
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
01:29
issued indictments against three Russian companies
22
89562
3892
đã quyết định khởi tố ba công ty Nga,
01:33
and 13 Russian individuals
23
93478
2619
cùng 13 người nước này
01:36
on a conspiracy to defraud the United States
24
96121
3167
về tội âm mưu lừa gạt nước Mỹ
bằng cách can thiệp vào cuộc bầu cử tổng thống năm 2016.
01:39
by meddling in the 2016 presidential election.
25
99312
3780
01:43
And what this indictment tells as a story
26
103855
3564
Và nội dung bản cáo trạng này
01:47
is the story of the Internet Research Agency,
27
107443
3142
kể về câu chuyện của Hãng Internet Research,
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
một thế lực ngầm của điện Kremlin trên mạng xã hội.
01:54
During the presidential election alone,
29
114815
2777
Chỉ riêng trong cuộc bầu cử tổng thống,
01:57
the Internet Agency's efforts
30
117616
1889
những nỗ lực truyền thông của hãng này
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
đã đạt 126 triệu lượt theo dõi trên Facebook tại Mỹ,
02:04
issued three million individual tweets
32
124720
3277
phát hành ba triệu mẩu tin trên Twitter
và chiếm 43 thời lượng giờ chiếu trên Youtube.
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
02:11
All of which was fake --
34
131887
1652
Tất cả đều là tin giả hay những thông tin sai lệch
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
được tạo ra nhằm gieo rắc sự bất hoà trong cuộc bầu cử tổng thống Mỹ.
02:20
A recent study by Oxford University
36
140996
2650
Một nghiên cứu gần đây của đại học Oxford
02:23
showed that in the recent Swedish elections,
37
143670
3270
cho thấy trong các cuộc bầu cử vừa diễn ra ở Thụy Điển,
02:26
one third of all of the information spreading on social media
38
146964
4375
một phần ba lượng thông tin được phát tán trên mạng xã hội
02:31
about the election
39
151363
1198
về cuộc bầu cử
02:32
was fake or misinformation.
40
152585
2087
là giả mạo hoặc sai lệch.
Thêm vào đó, các dạng chiến dịch phát tán tin tức sai lệch trên mạng xã hội này
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
có thể truyền bá cái gọi là "tuyên truyền diệt chủng"
02:44
for instance against the Rohingya in Burma,
43
164314
3111
chằng hạn như phản đối những người Rohingya ở Myanmar,
02:47
triggering mob killings in India.
44
167449
2303
khơi mào vụ thảm sát ở Ấn Độ.
02:49
We studied fake news
45
169776
1494
Chúng tôi đã và đang nghiên cứu tin giả
02:51
and began studying it before it was a popular term.
46
171294
3219
trước khi cụm từ này trở thành một thuật ngữ phổ biến.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
Gần đây, chúng tôi đã công bố
công trình nghiên cứu dài nhất từ trước đến nay
về sự lan truyền của tin giả trên mạng
03:00
of the spread of fake news online
48
180094
2286
03:02
on the cover of "Science" in March of this year.
49
182404
3204
trên trang bìa của tạp chí Khoa học vào tháng ba năm nay.
03:06
We studied all of the verified true and false news stories
50
186523
4161
Chúng tôi đã nghiên cứu tất cả các tin tức được xác minh là thật hay bịa
03:10
that ever spread on Twitter,
51
190708
1753
từng "làm mưa làm gió" trên trang Twitter,
03:12
from its inception in 2006 to 2017.
52
192485
3818
kể từ đầu năm 2006 đến 2017.
03:16
And when we studied this information,
53
196612
2314
Và khi nghiên cứu thông tin này
03:18
we studied verified news stories
54
198950
2876
chúng tôi đã nghiên cứu những mẩu tin tức
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
được xác thực bởi sáu tổ chức độc lập chuyên về kiểm chứng sự thật.
03:25
So we knew which stories were true
56
205792
2762
Nhờ đó, chúng tôi biết được chuyện nào là thật
03:28
and which stories were false.
57
208578
2126
và chuyện nào là giả.
03:30
We can measure their diffusion,
58
210728
1873
Chúng tôi có thể đo lường được mức độ,
03:32
the speed of their diffusion,
59
212625
1651
tốc độ,
03:34
the depth and breadth of their diffusion,
60
214300
2095
chiều sâu và bề rộng mà các thông tin trên phát tán
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
hay số người bị vướng vào tầng tầng lớp lớp các thông tin này, v.v.
03:40
And what we did in this paper
62
220942
1484
Và trên bài báo cáo này,
chúng tôi đã so sánh sự lan truyền của nguồn tin chính thống
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
với sự lan truyền của các tin sai lệch.
03:46
And here's what we found.
64
226339
1683
Và đây là những gì chúng tôi tìm ra.
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
Chúng tôi thấy rằng
tin giả đi xa hơn, nhanh hơn, sâu hơn
03:52
and more broadly than the truth
66
232049
1806
và rộng hơn những tin thật
03:53
in every category of information that we studied,
67
233879
3003
trong mọi loại thông tin mà chúng tôi nghiên cứu
03:56
sometimes by an order of magnitude.
68
236906
2499
đôi khi theo một cấp độ rất lớn.
03:59
And in fact, false political news was the most viral.
69
239842
3524
Và trên thực tế,
các tin chính trị sai lệch có sức lan truyền chóng mặt nhất.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
Chúng phát tán xa hơn, nhanh hơn, sâu hơn và rộng hơn
04:06
than any other type of false news.
71
246561
2802
bất kì loại tin giả nào.
04:09
When we saw this,
72
249387
1293
Khi nhận thấy điều này,
04:10
we were at once worried but also curious.
73
250704
2841
chúng ta vừa lo lắng, vừa thắc mắc.
04:13
Why?
74
253569
1151
Tại sao?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
Tại sao tin giả lại đi xa hơn, nhanh hơn, sâu hơn
04:18
and more broadly than the truth?
76
258141
1864
và rộng hơn cả tin thật?
04:20
The first hypothesis that we came up with was,
77
260339
2961
Giả thuyết đầu tiên mà chúng tôi đưa ra là
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
"Có lẽ những người loan tin giả
được nhiều người theo dõi
hoặc theo dõi nhiều người hơn,
04:28
or tweet more often,
79
268140
1557
hoặc đăng bài trên Twitter thường xuyên hơn,
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
cũng có thể họ thường được 'xác minh' là người dùng Twitter
04:33
or maybe they've been on Twitter longer."
81
273871
2182
với độ tin cậy cao hơn
cũng có thể họ dùng Twitter lâu hơn."
04:36
So we checked each one of these in turn.
82
276077
2298
Vì thế, chúng tôi đã lần lượt kiểm tra từng khả năng một.
04:38
And what we found was exactly the opposite.
83
278691
2920
Và những gì chúng tôi tìm thấy thì hoàn toàn trái ngược.
04:41
False-news spreaders had fewer followers,
84
281635
2436
Những người tung tin giả có ít lượt theo dõi hơn
04:44
followed fewer people, were less active,
85
284095
2254
theo dõi ít người hơn,
có ít hoạt động hơn
04:46
less often "verified"
86
286373
1460
ít được "xác minh" hơn
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
và dùng Twitter trong thời gian ngắn hơn.
04:50
And yet,
88
290841
1189
Tuy nhiên,
những tin tức sai lệch
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
có khả năng được chia sẻ nhiều hơn 70% so với tin thật
04:57
controlling for all of these and many other factors.
90
297111
3363
chi phối toàn bộ các yếu tố này và nhiều yếu tố khác.
05:00
So we had to come up with other explanations.
91
300498
2690
Vì thế, chúng tôi buộc phải đưa ra những cách giải thích khác.
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
Và chúng tôi đã nghĩ ra một thứ gọi là "giả thuyết mới lạ".
Nếu bạn đọc các tài liệu chuyên ngành,
05:07
So if you read the literature,
93
307038
1960
bạn cũng biết rằng
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
con người bị thu hút bởi sự mới lạ,
05:12
things that are new in the environment.
95
312800
2519
những điều mới mẻ xung quanh họ.
05:15
And if you read the sociology literature,
96
315343
1985
Và nếu bạn đọc các tài liệu xã hội học,
05:17
you know that we like to share novel information.
97
317352
4300
bạn biết rằng chúng ta muốn chia sẻ những thông tin mới mẻ.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
Chúng khiến ta có cảm giác như thể ta có thể kết nối
với thông tin bên trong
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
và đạt được trạng thái này bằng cách lan truyền chúng.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
Vì thế, những gì chúng tôi làm là đo mức độ mới lạ
của các dòng trạng thái mới,
05:36
compared to the corpus of what that individual had seen
101
336268
4055
so sánh với những gì người đó đã xem
trong 60 ngày trước trên Twitter.
05:40
in the 60 days prior on Twitter.
102
340347
2952
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
Nhưng như thế là không đủ, bởi vì chúng tôi đã cho rằng
"Có thể tin giả mới lạ hơn trên lý thuyết
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
nhưng có lẽ mọi người không nhận thấy được điều đó"
05:53
So to understand people's perceptions of false news,
106
353849
3927
Vậy, để hiểu được nhận thức của mọi người về tin giả,
05:57
we looked at the information and the sentiment
107
357800
3690
chúng tôi đã xem xét thông tin và cảm xúc
06:01
contained in the replies to true and false tweets.
108
361514
4206
có trong những câu trả lời cho các trạng thái thật và giả.
Và những gì chúng tôi tìm thấy
06:06
And what we found
109
366022
1206
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
là qua một loạt các mức độ cảm xúc khác nhau
06:11
surprise, disgust, fear, sadness,
111
371490
3301
ngạc nhiên, ghê tởm, sợ hãi, buồn bã,
06:14
anticipation, joy and trust --
112
374815
2484
hy vọng, niềm vui và tin tưởng.
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
Tin tức giả đã thể hiện nhiều ngạc nhiên và ghê tởm hơn
06:23
in the replies to false tweets.
114
383204
2806
trong lời hồi âm cho các bài đăng giả.
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
Và tin thật thể hiện nhiều sự kì vọng,
06:30
joy and trust
116
390205
1547
niềm vui sướng và sự tin tưởng
06:31
in reply to true tweets.
117
391776
2547
khi đáp lại những bài đăng thật.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
Sự ngạc nhiên này đã chứng thực cho giả thuyết mới của chúng tôi.
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
Điều này mới và đầy ngạc nhiên, nên chúng tôi sẽ chia sẻ nó.
06:43
At the same time, there was congressional testimony
120
403092
2925
Đồng thời, đã có xác thực từ quốc hội
06:46
in front of both houses of Congress in the United States,
121
406041
3036
trước cả hai viện của Quốc hội Hoa Kỳ,
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
xem xét vai trò của các bot trong việc lan truyền thông tin sai lệch.
06:52
So we looked at this too --
123
412863
1354
Vì thế, chúng tôi cũng để mắt đến điều này
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
chúng tôi đã sử dụng những thuật toán truy tìm bot phức tạp
06:57
to find the bots in our data and to pull them out.
125
417863
3074
để tìm ra các bot trong dữ liệu và lấy chúng ra ngoài.
07:01
So we pulled them out, we put them back in
126
421347
2659
Sau khi lấy chúng ra, chúng tôi trả chúng lại như cũ
07:04
and we compared what happens to our measurement.
127
424030
3119
rồi so sánh xem điều gì đã xảy ra với kết quả điều tra.
07:07
And what we found was that, yes indeed,
128
427173
2293
Và chúng tôi phát hiện ra rằng,
07:09
bots were accelerating the spread of false news online,
129
429490
3682
vâng, thật vậy,
các bot đã tăng tốc độ phát tán tin giả trực tuyến,
07:13
but they were accelerating the spread of true news
130
433196
2651
nhưng chúng cũng tăng tốc độ phát tán tin thật
07:15
at approximately the same rate.
131
435871
2405
ở một tỷ lệ gần như bằng nhau.
07:18
Which means bots are not responsible
132
438300
2858
Điều này có nghĩa là các bot không chịu trách nhiệm
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
cho sự khác biệt trong việc phát tán tin giả và thật trực tuyến.
07:25
We can't abdicate that responsibility,
134
445919
2849
Chúng ta không thể chối bỏ trách nhiệm trong việc này,
07:28
because we, humans, are responsible for that spread.
135
448792
4259
bởi vì chính chúng ta, loài người, là nguyên nhân cho sự lan truyền đó.
07:34
Now, everything that I have told you so far,
136
454472
3334
Mọi thứ mà tôi nói với các bạn nãy giờ,
07:37
unfortunately for all of us,
137
457830
1754
thật không may cho tất cả chúng ta,
07:39
is the good news.
138
459608
1261
là những tin tích cực.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
Lí do là vì chúng ta sắp đối mặt những điều tồi tệ hơn.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
Có hai công nghệ cụ thể sẽ làm nó tệ hơn.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
Chúng ta sắp chứng kiến sự gia tăng của một làn sóng truyền thông nhân tạo.
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
Video giả, âm thanh giả rất thuyết phục người xem.
08:03
And this will powered by two technologies.
143
483458
2754
Điều này được hỗ trợ bởi hai công nghệ.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
Công nghệ đầu tiên được biết đến là "mạng đối nghịch thế hệ."
08:10
This is a machine-learning model with two networks:
145
490093
2563
Đây là một mô hình machine learning với hai mạng lưới:
08:12
a discriminator,
146
492680
1547
một thiết bị phân biệt
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
có nhiệm vụ xác định đúng, sai
08:18
and a generator,
148
498475
1167
và thiết bị tạo tin,
08:19
whose job it is to generate synthetic media.
149
499666
3150
có nhiệm vụ tạo ra phương tiện tổng hợp.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
Vì vậy, trình tạo tổng hợp tạo ra video hoặc âm thanh tổng hợp
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
và thiết bị phân biệt phát tín hiệu: "Thông tin này thật hay giả?"
08:32
And in fact, it is the job of the generator
152
512665
2874
Trên thực tế,
công việc của thiết bị tạo tin
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
là tối đa hoá khả năng đánh lừa thiết bị phân biệt rằng
video và âm thanh tổng hợp mà nó tạo ra
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
08:43
is actually true.
155
523633
1730
là thực sự đúng.
08:45
Imagine a machine in a hyperloop,
156
525387
2373
Hãy thử tưởng tượng một chiếc máy sử dụng công nghệ hyperloop,
08:47
trying to get better and better at fooling us.
157
527784
2803
đang ngày càng hoàn thiện để đánh lừa chúng ta.
08:51
This, combined with the second technology,
158
531114
2500
Mạng đối nghịch thế hệ, kết hợp với công nghệ thứ hai,
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
về cơ bản là dân chủ hoá trí tuệ nhân tạo,
08:59
the ability for anyone,
160
539384
2189
cho phép những người
09:01
without any background in artificial intelligence
161
541597
2830
dù không có nền tảng kiến thức nào về trí tuệ nhân tạo
09:04
or machine learning,
162
544451
1182
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
hay machine learning
cũng có thể triển khai các loại thuật toán này
để tạo ra phương tiện tổng hợp,
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
cuối cùng là tạo các video dễ dàng hơn.
09:14
The White House issued a false, doctored video
165
554355
4421
Nhà Trắng đã phát hành một video sai sự thật
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
về hình ảnh một nhà báo tương tác với một thực tập sinh trong khi cô này
đang cố lấy chiếc mic.
09:23
They removed frames from this video
167
563427
1999
Họ đã xoá vài cảnh ra khỏi video
09:25
in order to make his actions seem more punchy.
168
565450
3287
để làm cho hành động của anh nhà báo trở nên thô lỗ hơn.
09:29
And when videographers and stuntmen and women
169
569157
3385
Và khi những người ghi hình, hay diễn viên đóng thế
09:32
were interviewed about this type of technique,
170
572566
2427
được phỏng vấn về loại kĩ thuật này,
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
họ nói: "Vâng, chúng tôi luôn sử dụng kĩ thuật này trong các bộ phim
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
để giúp những cú đấm và đá của chúng tôi trông có vẻ vồ vập và mạnh bạo hơn."
09:44
They then put out this video
173
584268
1867
Sau đó, họ công khai video này
09:46
and partly used it as justification
174
586159
2500
và dùng nó làm cái cớ để thu hồi thẻ phóng viên của Jim Acosta
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
09:52
from the White House.
176
592706
1339
từ Nhà Trắng.
CNN sau đó đã phải kiện để lấy lại chiếc thẻ.
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
Tôi nghĩ ra được năm hướng đi khác nhau
mà chúng ta có thể thử và giải quyết một số vấn đề khó khăn hiện nay.
10:06
to try and address some of these very difficult problems today.
179
606165
3739
10:10
Each one of them has promise,
180
610379
1810
Mỗi hướng đi đều có thuận lợi
10:12
but each one of them has its own challenges.
181
612213
2999
và thách thức riêng.
10:15
The first one is labeling.
182
615236
2008
Đầu tiên là gán nhãn.
10:17
Think about it this way:
183
617268
1357
Hãy nghĩ theo cách này:
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
khi bạn mua thức ăn tại cửa hàng,
10:22
it's extensively labeled.
185
622284
1904
mọi thông tin đều được ghi trên bao bì.
10:24
You know how many calories it has,
186
624212
1992
Bạn sẽ biết sản phẩm đó có bao nhiêu calo,
10:26
how much fat it contains --
187
626228
1801
bao nhiêu chất béo
còn khi tiếp nhận thông tin,
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
chúng ta lại không hề kiểm chứng xem: thông tin này chứa đựng điều gì?
10:32
What is contained in this information?
189
632355
1928
10:34
Is the source credible?
190
634307
1453
Nguồn đáng tin hay không?
10:35
Where is this information gathered from?
191
635784
2317
Được thu thập từ đâu?
Ta không hề đặt ra các câu hỏi đó
10:38
We have none of that information
192
638125
1825
10:39
when we are consuming information.
193
639974
2103
khi tiếp nhận thông tin.
Đó là một lựa chọn tiềm năng, nhưng đi kèm thách thức.
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
Chẳng hạn, trong xã hội,
ai sẽ quyết định điều gì là đúng, điều gì là sai?
10:52
Is it the governments?
196
652387
1642
Có phải là chính phủ?
Có phải là Facebook không?
10:54
Is it Facebook?
197
654053
1150
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
Nó có phải là một tập đoàn độc lập của những người xác minh dữ kiện?
10:59
And who's checking the fact-checkers?
199
659387
2466
Và ai sẽ chịu trách nhiệm giám sát họ?
11:02
Another potential avenue is incentives.
200
662427
3084
Một lựa chọn tiềm năng khác là động cơ.
11:05
We know that during the US presidential election
201
665535
2634
Chúng tôi biết rằng trong cuộc bầu cử tổng thống Mỹ,
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
có một luồng tin sai lệch đến từ Vương quốc Macedonia
11:11
that didn't have any political motive
203
671907
2337
với động cơ kinh tế
11:14
but instead had an economic motive.
204
674268
2460
chứ không phải động cơ chính trị.
11:16
And this economic motive existed,
205
676752
2148
Động cơ kinh tế này tồn tại,
11:18
because false news travels so much farther, faster
206
678924
3524
bởi vì tin giả truyền đi xa hơn, nhanh hơn
11:22
and more deeply than the truth,
207
682472
2010
và sâu hơn tin thật,
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
và bạn có thể kiếm được tiền quảng cáo khi thu hút được sự chú ý
11:29
with this type of information.
209
689490
1960
vào loại thông tin này.
11:31
But if we can depress the spread of this information,
210
691474
3833
Nhưng nếu chúng ta có thể làm giảm sự lan truyền của thông tin này,
11:35
perhaps it would reduce the economic incentive
211
695331
2897
có lẽ động cơ kinh tế sinh ra nó
sẽ giảm ngay từ đầu.
11:38
to produce it at all in the first place.
212
698252
2690
11:40
Third, we can think about regulation,
213
700966
2500
Thứ ba, chúng ta có thể nghĩ về các quy tắc,
11:43
and certainly, we should think about this option.
214
703490
2325
chúng ta nên nghĩ về lựa chọn này.
11:45
In the United States, currently,
215
705839
1611
Hiện nay, ở Hoa Kỳ, chúng tôi đang khám phá những khả năng
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
nếu Facebook và những trang mạng xã hội khác
được áp vào khuôn khổ.
11:52
While we should consider things like regulating political speech,
217
712346
3801
Mặc dù ta nên xem xét những thứ như quy định bài phát biểu chính trị,
11:56
labeling the fact that it's political speech,
218
716171
2508
dán nhãn nó là bài phát biểu chính trị,
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
đảm bảo rằng các diễn viên nước ngoài không thể tài trợ
cho các phát biểu chính trị.
12:02
it also has its own dangers.
220
722546
2547
Điều đó cũng có những nguy hiểm riêng.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
Chẳng hạn, Malaysia vừa đưa ra hình thức phạt tù sáu năm
12:10
for anyone found spreading misinformation.
222
730424
2734
cho những ai bị phát hiện tung tin giả.
12:13
And in authoritarian regimes,
223
733696
2079
Và trong các chế độ độc tài
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
hình thức này có thể được sử dụng để đàn áp các ý kiến thiểu số
12:20
and to continue to extend repression.
225
740489
3508
hay tiếp tục mở rộng phạm vi đàn áp.
12:24
The fourth possible option is transparency.
226
744680
3543
Tùy chọn thứ tư là tính minh bạch.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
Chúng tôi muốn biết cách các thuật toán của Facebook làm việc.
12:32
How does the data combine with the algorithms
228
752581
2880
Các dữ liệu và thuật toán đã kết hợp như thế nào
12:35
to produce the outcomes that we see?
229
755485
2838
để tạo ra kết quả mà ta thấy?
12:38
We want them to open the kimono
230
758347
2349
Chúng ta muốn họ mở kimono
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
và cho chúng ta thấy hoạt động bên trong của Facebook một cách chính xác.
12:44
And if we want to know social media's effect on society,
232
764958
2779
Và nếu chúng ta muốn biết ảnh hưởng của mạng xã hội
lên xã hội ngoài đời
12:47
we need scientists, researchers
233
767761
2086
chúng ta cần các nhà khoa học, các nhà nghiên cứu
12:49
and others to have access to this kind of information.
234
769871
3143
và những người khác để được tiếp cận loại thông tin này.
12:53
But at the same time,
235
773038
1547
Nhưng đồng thời,
12:54
we are asking Facebook to lock everything down,
236
774609
3801
chúng ta cũng yêu cầu Facebook khóa tất cả dữ liệu
12:58
to keep all of the data secure.
237
778434
2173
để đảm bảo an toàn.
13:00
So, Facebook and the other social media platforms
238
780631
3159
Facebook và các nền tảng truyền thông xã hội khác
13:03
are facing what I call a transparency paradox.
239
783814
3134
đang phải đối mặt với cái mà tôi gọi là nghịch lý minh bạch.
13:07
We are asking them, at the same time,
240
787266
2674
Chúng tôi đang yêu cầu họ,
vừa công khai, minh bạch vừa phải bảo mật.
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
13:14
This is a very difficult needle to thread,
242
794797
2691
Đây là một bài toán khó,
13:17
but they will need to thread this needle
243
797512
1913
nhưng họ buộc phải tìm lời giải
13:19
if we are to achieve the promise of social technologies
244
799449
3787
nếu muốn khai thác tiềm năng của công nghệ trực tuyến
13:23
while avoiding their peril.
245
803260
1642
đồng thời tránh được các nguy cơ tiềm ẩn.
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
Điều cuối cùng mà chúng ta có thể nghĩ đến là thuật toán và machine learning.
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
Công nghệ được phát minh để đào sâu và tìm hiểu tin giả,
cách chúng lan truyền và nỗ lực ngăn chặn.
13:34
and to try and dampen its flow.
248
814942
2331
13:37
Humans have to be in the loop of this technology,
249
817824
2897
Con người cần nắm bắt công nghệ này,
13:40
because we can never escape
250
820745
2278
bởi các giải pháp hay cách tiếp cận công nghệ của chúng ta
13:43
that underlying any technological solution or approach
251
823047
4038
không bao giờ nằm ngoài
13:47
is a fundamental ethical and philosophical question
252
827109
4047
vấn đề đạo đức và triết học cốt yếu,
13:51
about how do we define truth and falsity,
253
831180
3270
về cách ta định nghĩa thật giả,
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
người mà ta sẽ trao quyền để định nghĩa thật giả,
13:57
and which opinions are legitimate,
255
837678
2460
những quan điểm nào là hợp lí,
14:00
which type of speech should be allowed and so on.
256
840162
3706
và cách nói nào được chấp nhận, v.v.
14:03
Technology is not a solution for that.
257
843892
2328
Công nghệ không phải là giải pháp cho vấn đề.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
Đạo đức và triết học mới thực sự là chìa khóa.
14:10
Nearly every theory of human decision making,
259
850950
3318
Hầu như mọi lí thuyết đều thuộc về quyết định của con người,
14:14
human cooperation and human coordination
260
854292
2761
hợp tác hay điều phối giữa người với người
14:17
has some sense of the truth at its core.
261
857077
3674
đều lấy chân lí làm cốt lõi.
14:21
But with the rise of fake news,
262
861347
2056
Nhưng với sự gia tăng của các tin thất thiệt,
14:23
the rise of fake video,
263
863427
1443
của các video,
14:24
the rise of fake audio,
264
864894
1882
các tệp âm thanh giả mạo
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
chúng ta đang bước đi chệnh choạng trên lằn ranh của thực tế,
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
nơi ta không thể phân định được sự thật giữa những điều giả dối.
14:34
And that's potentially incredibly dangerous.
267
874661
3039
Điều đó là cực kỳ nguy hiểm.
14:38
We have to be vigilant in defending the truth
268
878931
3948
Chúng ta phải luôn cảnh giác trong việc bảo vệ sự thật
14:42
against misinformation.
269
882903
1534
cũng như chống lại các thông tin sai lệch.
14:44
With our technologies, with our policies
270
884919
3436
Bằng những cải tiến công nghệ, các chính sách chúng ta có
14:48
and, perhaps most importantly,
271
888379
1920
và đặc biệt là
14:50
with our own individual responsibilities,
272
890323
3214
với tinh thần trách nhiệm của từng cá nhân,
14:53
decisions, behaviors and actions.
273
893561
3555
quyết định, thái độ và hành động của riêng mình.
14:57
Thank you very much.
274
897553
1437
Xin cảm ơn rất nhiều.
14:59
(Applause)
275
899014
3517
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7