How deepfakes undermine truth and threaten democracy | Danielle Citron

86,286 views ・ 2019-10-07

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Reviewer: 24 Anh
[Bài nói chuyện này có chứa nội dung người lớn]
Rana Ayyub là một nhà báo ở Ấn Độ
00:12
[This talk contains mature content]
0
12535
2767
đã vạch trần các vụ tham nhũng nhà nước
và vi phạm nhân quyền.
00:17
Rana Ayyub is a journalist in India
1
17762
2992
Qua nhiều năm,
cô đã quen với những lời đả kích và tranh cãi về công việc của mình.
00:20
whose work has exposed government corruption
2
20778
2602
Nhưng không gì giúp cô lường trước chuyện mà cô phải đối mặt hồi tháng 4 năm 2018.
00:24
and human rights violations.
3
24411
2157
00:26
And over the years,
4
26990
1167
00:28
she's gotten used to vitriol and controversy around her work.
5
28181
3303
Cô ấy đang ngồi trong quán cà phê cùng bạn thì lần đầu nhìn thấy nó:
00:32
But none of it could have prepared her for what she faced in April 2018.
6
32149
5109
một đoạn video dài 2 phút 20 giây với hình ảnh cô đang làm “chuyện ấy”.
00:38
She was sitting in a café with a friend when she first saw it:
7
38125
3651
Và cô ấy đã không thể tin vào mắt mình.
00:41
a two-minute, 20-second video of her engaged in a sex act.
8
41800
4943
Cô chưa bao giờ quay cảnh nhạy cảm.
Nhưng không may, hàng ngàn người
00:47
And she couldn't believe her eyes.
9
47188
2349
sẽ tin đó là cô ấy.
00:49
She had never made a sex video.
10
49561
2273
Tôi đã phỏng vấn cô Ayyub khoảng ba tháng trước,
00:52
But unfortunately, thousands upon thousands of people
11
52506
3465
về cuốn sách của tôi về quyền riêng tư tình dục.
00:55
would believe it was her.
12
55995
1666
Tôi là giáo sư luật, luật sư và người ủng hộ quyền công dân.
00:58
I interviewed Ms. Ayyub about three months ago,
13
58673
2944
Vì vậy, thật khó chịu khi biết rằng hiện nay,
01:01
in connection with my book on sexual privacy.
14
61641
2504
01:04
I'm a law professor, lawyer and civil rights advocate.
15
64681
3198
luật pháp ít giúp ích được cho cô ấy.
Và khi chúng tôi nói chuyện,
01:08
So it's incredibly frustrating knowing that right now,
16
68204
4611
cô giải thích lẽ ra mình nên lường trước sẽ có đoạn video nhạy cảm giả.
01:12
law could do very little to help her.
17
72839
2238
Cô nói: “Sau cùng, tình dục vẫn thường được dùng để hạ bệ và bôi nhọ phụ nữ,
01:15
And as we talked,
18
75458
1547
01:17
she explained that she should have seen the fake sex video coming.
19
77029
4512
đặc biệt là những người phụ nữ thiểu số,
và nhất là những người phụ nữ thiểu số dám thách thức đàn ông quyền lực”,
01:22
She said, "After all, sex is so often used to demean and to shame women,
20
82038
5596
như điều cô đã làm.
01:27
especially minority women,
21
87658
2428
Đoạn video nhạy cảm giả mạo lan truyền rộng rãi chỉ trong 48 giờ.
01:30
and especially minority women who dare to challenge powerful men,"
22
90110
4312
Tất cả các tài khoản trực tuyến của cô tràn ngập ảnh chụp màn hình của video,
01:34
as she had in her work.
23
94446
1533
01:37
The fake sex video went viral in 48 hours.
24
97191
3976
với những lời đe dọa chết chóc và hiếp dâm
cùng lời lẽ chỉ trích về đức tin Hồi giáo của cô.
01:42
All of her online accounts were flooded with screenshots of the video,
25
102064
5307
Các bài đăng trực tuyến gợi ý rằng cô ấy “sẵn sàng” làm “chuyện ấy”.
01:47
with graphic rape and death threats
26
107395
2627
Và cô bị người ta tọc mạch,
01:50
and with slurs about her Muslim faith.
27
110046
2533
có nghĩa là địa chỉ nhà và số điện thoại cá nhân
01:53
Online posts suggested that she was "available" for sex.
28
113426
4564
bị phát tán khắp internet.
Video này được chia sẻ hơn 40.000 lần.
01:58
And she was doxed,
29
118014
1610
01:59
which means that her home address and her cell phone number
30
119648
2778
Khi ai đó là mục tiêu tấn công của cộng đồng mạng,
02:02
were spread across the internet.
31
122450
1746
02:04
The video was shared more than 40,000 times.
32
124879
4084
tác hại sẽ cực kỳ lớn.
Cuộc sống của Rana Ayyub bị đảo lộn.
02:09
Now, when someone is targeted with this kind of cybermob attack,
33
129760
3936
Trong nhiều tuần, cô hầu như không thể ăn hay nói chuyện.
02:13
the harm is profound.
34
133720
2063
Cô dừng viết và đóng cửa tất cả tài khoản mạng xã hội của mình,
02:16
Rana Ayyub's life was turned upside down.
35
136482
3039
mà bạn biết đấy, đó là một việc khó khăn đối với một nhà báo.
02:20
For weeks, she could hardly eat or speak.
36
140211
3334
Và cô ấy sợ đi ra khỏi nhà.
02:23
She stopped writing and closed all of her social media accounts,
37
143919
3689
Sẽ ra sao nếu những người đăng bài biến lời đe dọa thành thật?
02:27
which is, you know, a tough thing to do when you're a journalist.
38
147632
3158
Hội đồng Nhân quyền Liên Hợp Quốc xác nhận cô ấy không điên.
02:31
And she was afraid to go outside her family's home.
39
151188
3484
02:34
What if the posters made good on their threats?
40
154696
3022
Họ đã đưa ra một tuyên bố công khai rằng họ lo lắng về sự an toàn của cô.
02:38
The UN Council on Human Rights confirmed that she wasn't being crazy.
41
158395
4365
Những gì Rana Ayyub phải đối mặt là công nghệ deepfake:
02:42
It issued a public statement saying that they were worried about her safety.
42
162784
4637
công nghệ học máy
có khả năng thao túng hoặc ngụy tạo bản ghi âm và video
02:48
What Rana Ayyub faced was a deepfake:
43
168776
4229
để thể hiện con người làm hoặc nói những điều
02:53
machine-learning technology
44
173029
2540
mà họ chưa từng làm hoặc nói.
02:55
that manipulates or fabricates audio and video recordings
45
175593
4111
Công nghệ deepfake trông chân thật và thực tế, nhưng không phải vậy;
02:59
to show people doing and saying things
46
179728
2723
tất cả đều là giả dối.
03:02
that they never did or said.
47
182475
1866
Mặc dù công nghệ này vẫn đang phát triển cùng với sự phức tạp,
03:04
Deepfakes appear authentic and realistic, but they're not;
48
184807
3361
nó có mặt ở khắp mọi nơi.
03:08
they're total falsehoods.
49
188192
1772
Giờ, sự chú ý gần đây nhất tới công nghệ deepfake đang nổi lên,
03:11
Although the technology is still developing in its sophistication,
50
191228
3794
khi có quá nhiều thứ trực tuyến
có nội dung khiêu dâm.
03:15
it is widely available.
51
195046
1614
Đầu năm 2018,
03:17
Now, the most recent attention to deepfakes arose,
52
197371
3072
ai đó đăng một công cụ lên Reddit
03:20
as so many things do online,
53
200467
2161
cho phép người dùng ghép khuôn mặt vào video khiêu dâm.
03:22
with pornography.
54
202652
1255
03:24
In early 2018,
55
204498
2111
Và sau đó là một chuỗi các video khiêu dâm giả
03:26
someone posted a tool on Reddit
56
206633
2468
có mặt những ngôi sao nữ mà mọi người yêu thích.
03:29
to allow users to insert faces into porn videos.
57
209125
4412
Ngày nay, bạn có thể lên YouTube
03:33
And what followed was a cascade of fake porn videos
58
213561
3440
và tìm thấy vô số các hướng dẫn từng bước
03:37
featuring people's favorite female celebrities.
59
217025
2797
để tạo công nghệ deepfake trên ứng dụng máy tính để bàn của bạn.
03:40
And today, you can go on YouTube and pull up countless tutorials
60
220712
3477
Và chẳng mấy chốc, ta cũng có thể thao tác trên điện thoại di động.
03:44
with step-by-step instructions
61
224213
2286
03:46
on how to make a deepfake on your desktop application.
62
226523
3163
Đó là sự kết hợp giữa một số điểm yếu cơ bản nhất của con người
03:50
And soon we may be even able to make them on our cell phones.
63
230260
3706
và các công cụ mạng
có khả năng biến deepfake thành vũ khí.
03:55
Now, it's the interaction of some of our most basic human frailties
64
235072
5382
Hãy để tôi giải thích.
Là con người, ta có phản ứng bản năng với âm thanh và video.
04:00
and network tools
65
240478
1682
04:02
that can turn deepfakes into weapons.
66
242184
2666
Ta tin chúng là thật,
04:04
So let me explain.
67
244874
1200
với quan niệm rằng dĩ nhiên bạn có thể tin
04:06
As human beings, we have a visceral reaction to audio and video.
68
246875
4566
điều mà mắt thấy, tai nghe.
Và chính cơ chế đó
04:11
We believe they're true,
69
251860
1488
có thể phá hoại nhận thức chung của chúng ta về sự thật.
04:13
on the notion that of course you can believe
70
253372
2078
04:15
what your eyes and ears are telling you.
71
255474
2478
Dù ta tin rằng deepfake là thật, sự thật lại không phải vậy.
04:18
And it's that mechanism
72
258476
1699
Và ta thường bị thu hút bởi thứ nhạy cảm và khiêu khích.
04:20
that might undermine our shared sense of reality.
73
260199
3698
04:23
Although we believe deepfakes to be true, they're not.
74
263921
3147
Chúng ta có xu hướng tin và chia sẻ thông tin
tiêu cực và lạ thường.
04:27
And we're attracted to the salacious, the provocative.
75
267604
4157
Các nhà nghiên cứu khám phá ra rằng tin vịt lan truyền nhanh hơn gấp mười lần
04:32
We tend to believe and to share information
76
272365
3047
so với những câu chuyện chính xác.
04:35
that's negative and novel.
77
275436
2023
04:37
And researchers have found that online hoaxes spread 10 times faster
78
277809
5019
Ta cũng bị lôi cuốn bởi thông tin
trùng khớp với quan điểm của chúng ta.
04:42
than accurate stories.
79
282852
1627
Các nhà tâm lý học gọi xu hướng đó là “thiên kiến xác nhận.”
04:46
Now, we're also drawn to information
80
286015
4380
Và các nền tảng truyền thông xã hội siêu dung nạp xu hướng ấy,
04:50
that aligns with our viewpoints.
81
290419
1892
04:52
Psychologists call that tendency "confirmation bias."
82
292950
3561
bằng cách cho phép ta chia sẻ liên tục và rộng rãi những thông tin
04:57
And social media platforms supercharge that tendency,
83
297300
4387
phù hợp với quan điểm của mình.
Công nghệ deepfake có khả năng gây ra tác hại cá nhân và xã hội nghiêm trọng.
05:01
by allowing us to instantly and widely share information
84
301711
3881
05:05
that accords with our viewpoints.
85
305616
1792
Hãy tưởng tượng một sản phẩm deepfake
05:08
Now, deepfakes have the potential to cause grave individual and societal harm.
86
308735
5568
chiếu cảnh những người lính Mỹ ở Afganistan đốt Kinh Koran.
Bạn có thể tưởng tượng được rằng deepfake đó sẽ kích động bạo lực
05:15
So, imagine a deepfake
87
315204
2024
05:17
that shows American soldiers in Afganistan burning a Koran.
88
317252
4182
chống lại những người lính.
Và sẽ ra sao nếu ngay ngày hôm sau,
05:22
You can imagine that that deepfake would provoke violence
89
322807
3024
có một sản phẩm deepfake khác xuất hiện,
cho thấy một lãnh đạo Hồi giáo có uy thế ở London
05:25
against those soldiers.
90
325855
1533
05:27
And what if the very next day
91
327847
2873
kêu gọi tấn công những người lính kia?
05:30
there's another deepfake that drops,
92
330744
2254
Chúng ta có thể chứng kiến bạo lực và bất ổn dân sự,
05:33
that shows a well-known imam based in London
93
333022
3317
không chỉ ở Afganistan và Vương quốc Anh,
05:36
praising the attack on those soldiers?
94
336363
2467
mà còn trên toàn thế giới.
05:39
We might see violence and civil unrest,
95
339617
3163
Bạn có thể bảo tôi,
"Thôi nào, Danielle, xa vời quá."
05:42
not only in Afganistan and the United Kingdom,
96
342804
3249
Nhưng không đâu.
Chúng ta đã thấy sự giả dối lan rộng
05:46
but across the globe.
97
346077
1515
trên WhatsApp và các dịch vụ nhắn tin trực tuyến khác
05:48
And you might say to me,
98
348251
1158
05:49
"Come on, Danielle, that's far-fetched."
99
349433
2247
dẫn đến bạo lực chống lại nhóm người dân tộc thiểu số.
05:51
But it's not.
100
351704
1150
Và đó mới chỉ là văn bản -
05:53
We've seen falsehoods spread
101
353293
2191
hãy tưởng tượng nếu đó là video.
05:55
on WhatsApp and other online message services
102
355508
2722
05:58
lead to violence against ethnic minorities.
103
358254
2761
Deepfake có khả năng ăn mòn niềm tin của chúng ta
06:01
And that was just text --
104
361039
1887
06:02
imagine if it were video.
105
362950
2024
về các thể chế dân chủ.
06:06
Now, deepfakes have the potential to corrode the trust that we have
106
366593
5357
Hãy tưởng tượng đêm trước một cuộc bầu cử.
Có một sản phẩm deepfake cho thấy một ứng cử viên của Đảng chủ chốt
06:11
in democratic institutions.
107
371974
1992
bị ốm nặng.
Sản phẩm deepkfake có thể làm chuyển hướng cuộc bầu cử
06:15
So, imagine the night before an election.
108
375006
2667
06:17
There's a deepfake showing one of the major party candidates
109
377996
3238
và làm lung lay cảm nhận của ta rằng cuộc bầu cử hợp pháp.
06:21
gravely sick.
110
381258
1150
Hãy tưởng tượng nếu đêm trước đợt chào bán lần đầu ra công chúng
06:23
The deepfake could tip the election
111
383202
2333
06:25
and shake our sense that elections are legitimate.
112
385559
3375
của một ngân hàng toàn cầu lớn,
có một sản phẩm deepfake cho thấy CEO của ngân hàng
06:30
Imagine if the night before an initial public offering
113
390515
3326
phun ra những thuyết âm mưu khi đang say.
06:33
of a major global bank,
114
393865
2333
Deepfake có thể làm IPO thất bại,
06:36
there was a deepfake showing the bank's CEO
115
396222
3149
và tệ hơn, làm lung lay cảm nhận của ta rằng thị trường tài chính ổn định.
06:39
drunkenly spouting conspiracy theories.
116
399395
2697
06:42
The deepfake could tank the IPO,
117
402887
3047
Vậy là, deepfakes có thể khai thác và phóng đại
06:45
and worse, shake our sense that financial markets are stable.
118
405958
4115
sự ngờ vực sâu thẳm mà ta vốn có
với các chính trị gia, chủ doanh nghiệp
06:51
So deepfakes can exploit and magnify the deep distrust that we already have
119
411385
6989
và những người đứng đầu có ảnh hưởng khác.
Chúng tìm kiếm người xem sẵn sàng tin chúng.
06:58
in politicians, business leaders and other influential leaders.
120
418398
4214
Và việc theo đuổi sự thật cũng nằm ở ranh giới mong manh.
07:02
They find an audience primed to believe them.
121
422945
3284
Các nhà khoa học công nghệ tiên liệu rằng với những tiến bộ của AI,
sớm muộn cũng sẽ khó khăn, hoặc nếu không muốn nói là bất khả thi
07:07
And the pursuit of truth is on the line as well.
122
427287
2765
để chỉ ra điểm khác biệt giữa video thật và giả.
07:11
Technologists expect that with advances in AI,
123
431077
3564
07:14
soon it may be difficult if not impossible
124
434665
3682
Vậy làm thế nào để sự thật trỗi dậy trong thời kỳ đầy rẫy ý tưởng deepfake?
07:18
to tell the difference between a real video and a fake one.
125
438371
3769
Chúng ta sẽ tiếp tục con đường ít kháng cự nhất
07:23
So how can the truth emerge in a deepfake-ridden marketplace of ideas?
126
443022
5341
và tin những gì chúng ta muốn tin,
sự thật bị phớt lờ ư?
07:28
Will we just proceed along the path of least resistance
127
448752
3420
Và có thể ta không chỉ tin vào sự giả dối,
mà còn có thể bắt đầu không tin vào sự thật.
07:32
and believe what we want to believe,
128
452196
2437
07:34
truth be damned?
129
454657
1150
Ta đã từng thấy mọi người viện dẫn hiện tượng deepfake
07:36
And not only might we believe the fakery,
130
456831
3175
để gieo rắc nghi ngờ về bằng chứng thật liên quan tới việc làm sai trái của họ.
07:40
we might start disbelieving the truth.
131
460030
3326
07:43
We've already seen people invoke the phenomenon of deepfakes
132
463887
4079
Ta đã nghe các chính trị gia nói về những bình luận đáng lo ngại của họ,
07:47
to cast doubt on real evidence of their wrongdoing.
133
467990
3920
"Thôi nào, đó là tin giả.
07:51
We've heard politicians say of audio of their disturbing comments,
134
471934
5969
Bạn không thể tin vào điều mắt thấy, tai nghe.”
Và đó là rủi ro
07:57
"Come on, that's fake news.
135
477927
1746
mà giáo sư Robert Chesney và tôi gọi là “lợi tức của kẻ nói dối”:
07:59
You can't believe what your eyes and ears are telling you."
136
479697
3920
nguy cơ kẻ nói dối sẽ viện dẫn deepfake
08:04
And it's that risk
137
484402
1731
08:06
that professor Robert Chesney and I call the "liar's dividend":
138
486157
5436
để thoát khỏi trách nhiệm từ hành vi sai trái của họ.
Vậy, ta phải cắt giảm công việc cho chính ta, không nghi ngờ gì.
08:11
the risk that liars will invoke deepfakes
139
491617
3357
Và chúng ta sẽ cần một giải pháp chủ động
08:14
to escape accountability for their wrongdoing.
140
494998
2905
từ các công ty công nghệ, nhà lập pháp,
08:18
So we've got our work cut out for us, there's no doubt about it.
141
498963
3071
bên thực thi pháp luật và truyền thông.
08:22
And we're going to need a proactive solution
142
502606
3325
Và ta sẽ cần sự phục hồi mang tính xã hội ở mức độ hợp lý.
08:25
from tech companies, from lawmakers,
143
505955
3511
Bây giờ, chúng ta đang tham gia một cuộc trò chuyện rất công khai
08:29
law enforcers and the media.
144
509490
1984
08:32
And we're going to need a healthy dose of societal resilience.
145
512093
4016
về trách nhiệm của các công ty công nghệ.
Và lời khuyên của tôi cho các nền tảng truyền thông xã hội
08:37
So now, we're right now engaged in a very public conversation
146
517506
3896
là thay đổi điều khoản dịch vụ của họ và các hướng dẫn cộng đồng
08:41
about the responsibility of tech companies.
147
521426
2913
sang cấm những sản phẩm deepfake gây hại.
08:44
And my advice to social media platforms
148
524926
3032
Quyết tâm ấy, điều sẽ đòi hỏi sự đánh giácủa con người,
08:47
has been to change their terms of service and community guidelines
149
527982
3873
và nó rất đắt đỏ.
08:51
to ban deepfakes that cause harm.
150
531879
2336
Nhưng ta cần con người
08:54
That determination, that's going to require human judgment,
151
534712
3960
nhìn vào nội dung và bối cảnh của deepfake
08:58
and it's expensive.
152
538696
1571
để xác định nó có phải là sự mạo danh gây hại
09:00
But we need human beings
153
540673
2285
hay là sản phẩm trào phúng, nghệ thuật hoặc giáo dục có giá trị.
09:02
to look at the content and context of a deepfake
154
542982
3873
09:06
to figure out if it is a harmful impersonation
155
546879
3682
Vậy còn pháp luật thì sao?
09:10
or instead, if it's valuable satire, art or education.
156
550585
4382
Pháp luật là nhà giáo dục của chúng ta.
Nó dạy cho chúng ta cái gì có hại và cái gì sai.
09:16
So now, what about the law?
157
556118
1495
Nó định hình hành vi cần răn đe bằng cách trừng phạt kẻ vi phạm
09:18
Law is our educator.
158
558666
2349
09:21
It teaches us about what's harmful and what's wrong.
159
561515
4038
và đảm bảo biện pháp khắc phục dành cho nạn nhân.
Ngay bây giờ, pháp luật chưa thể đối đầu được với deepfake.
09:25
And it shapes behavior it deters by punishing perpetrators
160
565577
4555
Trên toàn thế giới,
09:30
and securing remedies for victims.
161
570156
2267
chúng ta thiếu các quy định chặt chẽ
09:33
Right now, law is not up to the challenge of deepfakes.
162
573148
4280
được thiết kế để giải quyết những vụ mạo danh kỹ thuật số
xâm phạm quyền riêng tư tình dục cá nhân,
09:38
Across the globe,
163
578116
1390
09:39
we lack well-tailored laws
164
579530
2444
hủy hoại danh tiếng
và gây ra tổn thương về mặt cảm xúc.
09:41
that would be designed to tackle digital impersonations
165
581998
3570
Chuyện xảy ra với Rana Ayyub ngày càng trở nên phổ biến.
09:45
that invade sexual privacy,
166
585592
2231
09:47
that damage reputations
167
587847
1387
Khi cô ấy tìm đến pháp luật ở Delhi,
09:49
and that cause emotional distress.
168
589258
1951
người ta bảo cô chuyện này vô phương cứu chữa.
09:51
What happened to Rana Ayyub is increasingly commonplace.
169
591725
3873
Và sự thật đáng buồn là điều đó cũng đúng
ở cả Hoa Kỳ và châu Âu.
09:56
Yet, when she went to law enforcement in Delhi,
170
596074
2214
09:58
she was told nothing could be done.
171
598312
2135
Vậy là ta có một lỗ hổng pháp lý cần phải được lấp đầy.
10:01
And the sad truth is that the same would be true
172
601101
3183
Đồng nghiệp là Tiến sĩ Mary Anne Franks và tôi
10:04
in the United States and in Europe.
173
604308
2266
đang làm việc với nhà lập pháp Hoa Kỳ
10:07
So we have a legal vacuum that needs to be filled.
174
607300
4356
để đưa ra quy định cấm các vụ mạo danh kỹ thuật số gây hại
10:12
My colleague Dr. Mary Anne Franks and I are working with US lawmakers
175
612292
4092
tương đương với ăn cắp danh tính.
Và chúng tôi đã thấy những động thái tương tự
10:16
to devise legislation that would ban harmful digital impersonations
176
616408
4804
ở Iceland, Vương quốc Anh và Úc.
10:21
that are tantamount to identity theft.
177
621236
2533
Nhưng dĩ nhiên, đó chỉ là một phần nhỏ của bài toán về quy định pháp luật.
10:24
And we've seen similar moves
178
624252
2126
10:26
in Iceland, the UK and Australia.
179
626402
3301
Tôi hiểu luật pháp không phải là phương thuốc chữa bách bệnh, nhỉ?
Đó chỉ là dụng cụ đã cùn.
10:30
But of course, that's just a small piece of the regulatory puzzle.
180
630157
3259
Ta phải sử dụng nó khôn ngoan.
Nó cũng có một số trở ngại thực tế.
10:34
Now, I know law is not a cure-all. Right?
181
634911
3169
Bạn không thể áp dụng luật với kẻ mà bạn không thể xác định danh tính và tìm thấy.
10:38
It's a blunt instrument.
182
638104
1600
10:40
And we've got to use it wisely.
183
640346
1539
10:42
It also has some practical impediments.
184
642411
2812
Và nếu thủ phạm sống bên ngoài quốc gia
10:45
You can't leverage law against people you can't identify and find.
185
645657
5044
mà nạn nhân sinh sống,
có lẽ bạn không thể gắng sức đưa kẻ đó tới tòa án địa phương
10:51
And if a perpetrator lives outside the country
186
651463
3286
để đối mặt với công lý.
Và vì vậy chúng ta sẽ cần sự hưởng ứng có quốc tế phối hợp.
10:54
where a victim lives,
187
654773
1754
10:56
then you may not be able to insist
188
656551
1629
10:58
that the perpetrator come into local courts
189
658204
2349
Giáo dục cũng là một phần của sự hưởng ứng của chúng ta.
11:00
to face justice.
190
660577
1150
11:02
And so we're going to need a coordinated international response.
191
662236
4063
Những người thực thi pháp luật sẽ không thi hành luật
mà họ không biết
11:07
Education has to be part of our response as well.
192
667819
3333
và nêu lên vấn đề mà họ không hiểu.
11:11
Law enforcers are not going to enforce laws
193
671803
3731
Trong nghiên cứu về việc rình rập trên mạng,
tôi thấy rằng việc thực thi pháp luật thiếu bước đào tạo
11:15
they don't know about
194
675558
1458
11:17
and proffer problems they don't understand.
195
677040
2596
để nhận thức những điều luật liên quan
11:20
In my research on cyberstalking,
196
680376
2191
và vấn đề lạm dụng trực tuyến.
11:22
I found that law enforcement lacked the training
197
682591
3499
Và thường họ nói với nạn nhân,
“Tắt máy tính đi. Mặc kệ nó. Nó sẽ biến mất.”
11:26
to understand the laws available to them
198
686114
2582
11:28
and the problem of online abuse.
199
688720
2349
Và ta đã thấy điều đó trong vụ việc của Rana Ayyub.
11:31
And so often they told victims,
200
691093
2682
Người ta nói với cô: “Thôi nào, cô đang làm quá vấn đề này lên đấy.
11:33
"Just turn your computer off. Ignore it. It'll go away."
201
693799
3971
Phái nam làm vậy là lẽ thường mà.”
11:38
And we saw that in Rana Ayyub's case.
202
698261
2466
Và vì thế chúng ta cần kết hợp quy định pháp luật mới
11:41
She was told, "Come on, you're making such a big deal about this.
203
701102
3468
với nỗ lực trong đào tạo.
11:44
It's boys being boys."
204
704594
1743
Và giáo dục cũng phải được các phương tiện truyền thông hướng đến.
11:47
And so we need to pair new legislation with efforts at training.
205
707268
5252
Nhà báo cần được giáo dục về hiện tượng deepfake
để họ không khuếch đại và truyền bá chúng.
11:54
And education has to be aimed on the media as well.
206
714053
3429
Đây là phần mà tất cả chúng ta đều liên quan.
11:58
Journalists need educating about the phenomenon of deepfakes
207
718180
4260
Mỗi người trong chúng ta đều cần giáo dục.
12:02
so they don't amplify and spread them.
208
722464
3039
Chúng ta bấm vào, chia sẻ, thích và thậm chí còn chẳng nghĩ ngợi về nó.
12:06
And this is the part where we're all involved.
209
726583
2168
12:08
Each and every one of us needs educating.
210
728775
3855
Ta cần phải làm tốt hơn.
Ta cần nhận biết sự giả dối tốt hơn.
12:13
We click, we share, we like, and we don't even think about it.
211
733375
3675
12:17
We need to do better.
212
737551
1547
Vì vậy, khi chúng ta nghiên cứu những giải pháp này,
12:19
We need far better radar for fakery.
213
739726
2809
sẽ có rất nhiều đau khổ xảy ra xung quanh.
Rana Ayyub vẫn đang vật lộn với hậu quả.
12:25
So as we're working through these solutions,
214
745744
3841
Cô ấy vẫn không cảm thấy thoải mái thể hiện bản thân ngoài đời và trên mạng.
12:29
there's going to be a lot of suffering to go around.
215
749609
2563
Và như cô ấy nói với tôi,
12:33
Rana Ayyub is still wrestling with the fallout.
216
753093
2746
cô ấy vẫn cảm thấy như có hàng ngàn đôi mắt nhìn cơ thể trần trụi của cô,
12:36
She still doesn't feel free to express herself on- and offline.
217
756669
4189
mặc dù, theo đúng nghĩa, cô biết đó không phải là cơ thể mình.
12:41
And as she told me,
218
761566
1365
12:42
she still feels like there are thousands of eyes on her naked body,
219
762955
5074
Và cô ấy thường xuyên bị hoảng loạn,
đặc biệt là khi một người mà cô ấy không quen biết chụp ảnh cô.
12:48
even though, intellectually, she knows it wasn't her body.
220
768053
3661
“Điều gì sẽ xảy ra nếu họ tạo ra sản phẩm deepfake khác?“, cô tự nhủ.
12:52
And she has frequent panic attacks,
221
772371
2349
12:54
especially when someone she doesn't know tries to take her picture.
222
774744
4100
Và vì lợi ích của những người như Rana Ayyub
12:58
"What if they're going to make another deepfake?" she thinks to herself.
223
778868
3511
và nền dân chủ của chúng ta,
chúng ta cần hành động ngay bây giờ.
Cảm ơn các bạn.
13:03
And so for the sake of individuals like Rana Ayyub
224
783082
3921
(Tiếng vỗ tay)
13:07
and the sake of our democracy,
225
787027
2306
13:09
we need to do something right now.
226
789357
2182
13:11
Thank you.
227
791563
1151
13:12
(Applause)
228
792738
2508
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7