How a Deepfake Almost Ruined My Political Career | Cara Hunter | TED

38,024 views

2024-12-18 ・ TED


New videos

How a Deepfake Almost Ruined My Political Career | Cara Hunter | TED

38,024 views ・ 2024-12-18

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Nhàn Katherine Reviewer: Nguyen Hue
00:03
This talk contains mature language
0
3620
3720
Bài nói chuyện này có ngôn ngữ người lớn
00:08
“You’re a little whore,
1
8700
1840
“Mày là con điếm,
00:10
and we've all seen your little video."
2
10540
2560
chúng tao đều đã xem video của mày.”
00:14
That was the text message that was sent to me in April of 2022.
3
14300
5280
Đó là tin nhắn được gửi cho tôi vào tháng 4 năm 2022.
00:20
I'm sitting in my grandmother's living room
4
20300
2480
Tôi đang ngồi trong phòng khách nhà bà
00:22
in what is her 90th birthday,
5
22820
2640
vào ngày sinh nhật 90 tuổi của bà
00:25
surrounded by family and friends
6
25460
2360
gia đình và bạn bè xung quanh
00:27
as my phone blows up with messages from strangers
7
27820
4480
khi điện thoại của tôi nổ tung với tin nhắn từ những người lạ
00:32
right across the country
8
32300
1840
trên khắp đất nước
00:34
who say they have seen a video of me
9
34140
3160
nói rằng họ đã xem video tôi
00:37
engaging in hardcore pornographic activity with a man.
10
37340
4720
có hoạt động khiêu dâm hạng nặng với một người đàn ông.
00:42
I knew this was impossible.
11
42740
1600
Tôi biết điều này là không thể.
00:44
With just three weeks out from my election,
12
44900
2000
Chỉ ba tuần trước cuộc bầu cử,
00:46
I felt as though my career was crumbling before my very eyes.
13
46940
4080
tôi cảm thấy như thể sự nghiệp của mình đang nát vụn ngay trước mắt.
00:51
My heart pounded,
14
51420
1440
Tim tôi đập thình thịch
00:52
my mind raced, sweat beaded on my skin.
15
52860
3160
tâm trí hoảng loạn, mồ hôi đầm đìa.
00:56
And then I watched the video, and my worst fear was realized.
16
56380
4880
Sau đó tôi xem video, và nỗi sợ hãi tồi tệ nhất của tôi đã được nhận ra.
01:01
Although this woman in the video was not me,
17
61980
3560
Mặc dù người phụ nữ này trong video không phải là tôi,
01:05
she looked exactly like me.
18
65540
2720
nhưng cô ấy trông giống hệt tôi.
01:09
Impossibly like me.
19
69020
2360
Giống không tưởng.
01:11
Eerily like me.
20
71380
1200
Giống tôi kỳ lạ.
01:13
I had so many questions running through my mind.
21
73140
3040
Có nhiều câu hỏi chạy trong tâm trí tôi.
01:16
Was this AI?
22
76500
1360
Đây có phải là AI?
01:17
Was it not?
23
77900
1280
Hay là không?
01:19
Who made this?
24
79220
1160
Ai đã làm cái này?
01:20
How did they make it?
25
80420
1360
Làm thế nào họ làm được?
01:21
Why did they make it?
26
81820
1320
Tại sao họ lại làm được?
01:23
So I did what anyone would do,
27
83140
2360
Nên tôi đã làm điều ai cũng sẽ làm,
01:25
and I approached my local police service to ask for advice, for guidance.
28
85500
4680
tôi đến sở cảnh sát địa phương xin tham vấn và hướng dẫn.
01:30
And really, where did I go from there?
29
90220
2280
Và thực sự, tôi đã đi đâu từ đó?
01:32
But they informed me that they wouldn't have the cybercrime technology to assist,
30
92540
4280
Nhưng họ nói họ không có công nghệ tội phạm mạng để giúp tôi,
01:36
to find out where this video came from.
31
96860
2240
để tìm ra video này đến từ đâu.
01:39
And it was from that moment I knew that I was on my own.
32
99140
3520
Từ lúc đó tôi đã biết rằng tôi chỉ có 1 mình.
01:43
Now to set the stage, as you can probably tell,
33
103380
2440
Bây giờ để chuẩn bị, như bạn có thể biết,
01:45
I’m from Ireland,
34
105820
1240
tôi đến từ Ireland,
01:47
and to be exact, I'm from Northern Ireland,
35
107100
2480
và chính xác hơn, tôi đến từ Bắc Ireland,
01:49
which is an even smaller place.
36
109580
2000
một nơi thậm chí còn nhỏ hơn.
01:51
We have just 1.8 million people,
37
111620
2680
Chúng tôi chỉ có 1,8 triệu người,
01:54
very similar to the size of Vienna.
38
114340
2840
rất giống với quy mô của Vienna.
01:57
So you can imagine a rumor of this sinister nature,
39
117180
3440
Vì vậy, bạn có thể tưởng tượng một tin đồn nguy hiểm này,
02:00
particularly in the world of politics, can go very far, very fast.
40
120620
5920
đặc biệt là trong giới chính trị, có thể đi rất xa, rất nhanh.
02:06
And that old saying, “seeing is believing” began to haunt me.
41
126540
4480
Và câu nói cũ, “thấy mới tin” bắt đầu ám ảnh tôi.
02:11
And in the weeks leading up to my election,
42
131060
2520
Trong những tuần trước cuộc bầu cử của tôi,
02:13
this video, this false video,
43
133620
1920
video giả mạo này,
02:15
was shared thousands and thousands of times across WhatsApp.
44
135540
4240
được chia sẻ hàng ngàn và hàng ngàn lần trên WhatsApp.
02:20
And attached to this video was photos of me at work,
45
140260
3720
Và đính kèm với video này là những bức ảnh chụp tôi tại nơi làm việc,
02:24
smiling, campaigning,
46
144020
2760
đang cười, vận động chiến dịch,
02:26
building a sense of trust with my constituents.
47
146820
2680
tạo dựng niềm tin với người ủng hộ tôi.
02:29
And as the weeks went on,
48
149540
1480
Khi hàng tuần trôi qua
02:31
messages flooded in faster and faster,
49
151020
3920
các tin nhắn tràn vào ngày càng nhanh hơn,
02:34
and they were of a very vile and sexual nature.
50
154980
3040
rất hèn hạ và khiêu dục
02:38
Ding!
51
158340
1200
Đinh!
02:39
"We've all seen your little video."
52
159540
2000
“Chúng tao xem video của mày rồi”
02:41
Ding!
53
161940
1120
Đinh!
02:43
"You should be ashamed of yourself."
54
163100
2480
“Mày nên thấy nhục về mình đấy”
02:45
Ding!
55
165620
1200
Đinh!
02:46
"Ah, now I see how you got your position in politics."
56
166820
4280
“À, giờ tao đã hiểu làm sao mày có chỗ đứng chính trị nhé”
02:53
It was very difficult.
57
173100
1960
Rất khó khăn.
02:55
And having been in politics since the age of 23,
58
175540
3160
Tôi tham gia chính trị từ năm 23 tuổi,
02:58
and at this point I've been in it for about four to five years,
59
178740
3560
tại thời điểm đó, tôi đã trải qua được 5 năm
03:02
and I'm from Northern Ireland, which is a post-conflict society,
60
182300
3280
tôi đến từ Bắc Ireland, một xã hội hậu xung đột,
03:05
still very deeply divided.
61
185620
1920
vẫn còn chia rẽ rất sâu sắc.
03:07
So I anticipated challenges,
62
187580
2600
Tôi đã đoán trước thử thách
03:10
I anticipated disagreements,
63
190220
2600
đã lường trước những bất đồng,
03:12
I even anticipated attacks, is politics after all.
64
192860
2800
tôi thậm chí đoán các vụ tấn công đều từ là do chính trị.
03:16
But what I did not anticipate was this moment.
65
196100
3520
Nhưng điều tôi không lường trước được là khoảnh khắc này.
03:19
This was different.
66
199660
1400
Nó khác lắm.
03:21
This was the moment where misogyny meets the misuse of technology,
67
201060
5800
Là thời điểm sự coi thường phụ nữ dựa vào lạm dụng công nghệ,
03:26
and even had the potential to impact the outcome of a democratic election.
68
206900
5560
và thậm chí có khả năng tác động đến kết quả của một cuộc bầu cử dân chủ.
03:32
And the sad thing for me was this lie became so far spread,
69
212820
5080
Và điều đáng buồn đối với tôi là sự dối trá này đã lan truyền quá xa,
03:37
so far, so fast,
70
217940
1840
quá xa, quá nhanh,
03:39
that even my own family started to believe it.
71
219820
2880
đến nỗi ngay cả gia đình tôi cũng bắt đầu tin vào điều đó.
03:42
Some would say that they'd heard it at a golf club,
72
222700
2760
Vài người nói họ đã nghe tin từ câu lạc bộ golf
03:45
others would say they heard it at the bar,
73
225500
2520
những người khác nói rằng họ nghe thấy từ quán bar,
03:48
and of course, some even said they heard it in a locker room.
74
228060
4320
và tất nhiên, một số thậm chí còn nói rằng họ nghe thấy nó trong phòng thay đồ.
03:52
A really good example of how far this went
75
232420
2480
Một ví dụ điển hình về việc nó đi xa đến mức nào
03:54
was people that I knew my entire life
76
234900
2520
là có những người mà tôi biết cả đời
03:57
would pass me in the street without whispering a word.
77
237460
3000
băng qua tôi trên đường chẳng nói chẳng rằng.
04:00
People like school teachers,
78
240460
1360
Như các giáo viên ở trường,
04:01
people I had a sense of trust with
79
241860
1720
người mà tôi có cảm giác tin tưởng
04:03
and, you know, an affinity with.
80
243620
2360
và, bạn biết đấy, thân thiết.
04:05
And that was really hard.
81
245980
1320
Thực sự rất khó khăn.
04:07
It felt like overnight I was wearing a scarlet letter.
82
247300
3920
Cảm giác như tôi mặc lên bộ đồ kỳ thị chỉ qua 1 đêm.
04:11
And as things moved on
83
251660
1320
Khi mọi thứ tiếp diễn
04:12
and were about two, three weeks out from the election,
84
252980
2880
và khoảng hai, ba tuần nữa là đến cuộc bầu cử,
04:15
I kept receiving messages, and it got wider and wider.
85
255900
3120
tôi tiếp tục nhận được tin nhắn, và nó ngày lan rộng hơn.
04:19
It was global.
86
259060
1160
Ra toàn cầu.
04:20
Not only was I receiving messages from Dublin and from London,
87
260220
3680
Tôi không chỉ nhận được tin nhắn từ Dublin và London,
04:23
but I was also receiving messages from Massachusetts, Manhattan,
88
263900
4040
mà còn nhận được tin nhắn từ Massachusetts, Manhattan,
04:27
and I was getting so many follows on my political social media,
89
267940
3920
từ rất nhiều người theo dõi tôi trên mạng xã hội chính trị của mình,
04:31
predominantly from men hungry for more of this scandal.
90
271900
3920
chủ yếu từ những người đàn ông thèm khát nhiều thông tin hơn nữa.
04:35
And this intersection of online harms impacting my real life
91
275860
5120
Sự gặp gỡ những mối nguy hại online này mà tác động đến cuộc đời thực của tôi
04:40
was something I found utterly strange and surreal.
92
280980
4000
là điều tôi thấy hoàn toàn kỳ lạ và siêu thực.
Nó đến mức tôi được nhận ra trên phố
04:45
But it got to the point where I was recognized on the street
93
285500
3800
04:49
and approached by a stranger who asked me for a sexual favor.
94
289340
6040
bởi một người lạ tiếp cận mình yêu cầu quan hệ tình dục.
04:55
And it was just, for me, it was like in the blink of an eye,
95
295420
3080
Như thế với tôi, chỉ trong chớp mắt
04:58
everything had just changed,
96
298500
2640
mọi thứ đã thay đổi,
05:01
and it was utterly humiliating.
97
301140
1600
hoàn toàn sỉ nhục.
05:02
I didn't want to leave the house,
98
302780
1680
Tôi không muốn rời khỏi nhà,
05:04
and I had turned notifications off in my phone
99
304460
2880
và tôi đã tắt thông báo trong điện thoại của mình
05:07
just so I could kind of catch my breath,
100
307380
1920
chỉ để có thể bắt được hơi thở.
05:09
but this wasn't ideal in the lead up, of course, to an election.
101
309340
4280
nhưng điều này chẳng hay ho cho một cuộc bầu cử sắp tới.
05:13
And for me, I think that was the purpose of this false video, was to do just that.
102
313620
4960
Với mình, tôi nghĩ đó chính là mục đích của video giả mạo này, để tôi làm điều đó.
05:19
But what hurt the most for me
103
319660
2440
Nhưng điều đau đớn nhất đối với tôi
05:22
was sitting down my father
104
322140
2720
là phải ngồi xuống cùng cha
05:24
and having to explain to him this strange, surreal situation.
105
324860
5760
giải thích cho ông hiểu tình huống kỳ lạ, không thực này.
05:30
My father is an Irishman,
106
330620
1760
Cha tôi là một người Ireland,
05:32
completely disconnected from tech,
107
332420
2160
hoàn toàn không biết gì về công nghệ
05:34
and so having to explain
108
334620
1920
nên phải giải thích
05:36
this horrific situation was an entire fabrication
109
336580
4320
việc khủng khiếp này là sự bịa đặt hoàn toàn
05:40
was very hard to do.
110
340940
1600
là rất khó khăn.
05:42
This was this strange moment
111
342860
2120
Đây là khoảnh khắc kỳ lạ
05:45
where the online world met my life, my reality.
112
345020
4880
khi thế giới trực tuyến gặp cuộc đời thật của tôi.
05:50
Not only having the impact to ruin my reputation,
113
350460
4520
Nó không chỉ hủy hoại danh tiếng của tôi
05:54
but have the capacity to change the outcome
114
354980
2800
mà còn có khả năng thay đổi kết quả
05:57
of a democratic election.
115
357820
2200
của một cuộc bầu cử dân chủ.
06:00
And, you know,
116
360500
1160
Bạn biết đấy
06:01
for years I spent so much time building trust with my constituents.
117
361700
4040
tôi đã dành rất nhiều thời gian để xây dựng lòng tin với các cử tri của mình.
06:05
I mean, we all know how much people like politicians.
118
365780
3360
Chúng ta đều biết mọi người thích các chính trị gia đến mức nào.
06:09
You know, we’re as likeable as the tax man.
119
369180
2000
Chúng tôi cũng dễ mến như người nộp thuế
06:11
So for me, it was hard.
120
371220
2880
Vì vậy, đối với tôi, nó thật khó khăn.
06:14
It was really hard
121
374100
1200
Nó thực sự khó khăn
06:15
because it was years of hard work.
122
375300
2280
vì tôi đã làm việc chăm chỉ nhiều năm
Tôi rất đam mê công việc,
06:18
You know, I’m so passionate about my job,
123
378100
2160
06:20
and this video, this complete falsehood,
124
380260
2920
và video này, hoàn toàn giả mạo này,
06:23
had the ability to just undermine years of hard work in mere seconds.
125
383180
4600
có khả năng xóa sổ nhiều năm chăm chỉ của tôi chỉ trong vài giây.
06:28
But instead of succumbing entirely to victimhood,
126
388220
3200
Nhưng thay vì khuất phục hoàn toàn trở thành nạn nhân
06:31
I ask myself today,
127
391420
1360
tôi tự hỏi mình,
06:32
you know, where do we go from here?
128
392820
2280
Chúng ta sẽ đi đến đâu từ đây?
06:35
And how can AI evolve to prevent something like this happening again?
129
395140
5560
Làm cách nào AI ngăn chặn được những điều tương tự xảy ra lần nữa?
06:40
Not only has it happened to me,
130
400740
1480
Nó không chỉ đã xảy ra với tôi,
06:42
but we want to future-proof and ensure that this doesn't happen
131
402220
3000
chúng tôi muốn đảm bảo rằng tương lai nó không xảy ra
06:45
to the women of tomorrow.
132
405260
1760
với phụ nữ sau này.
06:47
How can we, you and I, people who care about people,
133
407060
4280
Làm thế nào chúng ta, bạn và tôi, những người quan tâm đến mọi người,
06:51
ensure that this is a tech for good?
134
411380
2400
đảm bảo rằng đây là một công nghệ hữu ích?
06:54
How can we, the policymakers, the creators, the consumers,
135
414300
4680
Làm thế nào chúng ta, những nhà làm chính sách,
người sáng tạo, người tiêu dùng,
06:58
ensure we regulate AI and things like social media,
136
418980
3480
đảm bảo rằng ta quản lý AI và những thứ như mạng xã hội
07:02
putting humans and humanity at the center of artificial intelligence?
137
422500
5320
đặt con người và nhân loại vào trung tâm của trí tuệ nhân tạo?
07:08
AI can change the world.
138
428740
2280
AI có thể thay đổi thế giới.
07:11
In fact, as we've heard today, it already has.
139
431060
2880
Thực tế, như ta đã biết ngày này, nó đã làm được vậy.
07:13
In a matter of seconds,
140
433940
1520
Chỉ trong vài giây,
07:15
people who speak completely different languages
141
435460
2240
con người nói những ngôn ngữ hoàn toàn khác nhau
07:17
can connect and understand one another.
142
437700
2160
có thể kết nối và hiểu nhau.
07:19
And we've even seen the Pope as a style icon in a puffer jacket.
143
439860
3960
Thậm chí ta còn thấy Giáo Hoàng như 1 biểu tưởng phong cách trong áo phao
07:24
So some really important uses right there.
144
444180
2240
Có những tính năng rất quan trọng.
07:27
But then in my case as well,
145
447220
1600
Nhưng với trường hợp của tôi
07:28
we can also see how it is weaponized against the truth.
146
448860
3440
ta còn thấy nó được vũ khí hóa chống lại sự thật
07:32
And good examples of this would be art that appears like reality,
147
452620
4120
Những ví dụ điển hình là nghệ thuật nhìn giống như thực,
07:36
AI-generated reviews unfairly boosting certain products
148
456740
3840
Những review được tạo ra từ AI quảng bá không lành mạnh cho các sản phẩm
07:40
and things like chatbot propaganda.
149
460580
2760
và những thứ như tin nhắn chatbot.
07:43
And then, politically speaking,
150
463340
1760
Xét về mặt chính trị,
07:45
we've seen over the years deepfakes of Nancy Pelosi slurring,
151
465140
4320
nhiều năm qua, chúng ta đã xem
gương mặt giả mạo của Nancy Pelosi lắp bắp,
07:49
Joe Biden cursing
152
469500
1480
Joe Biden chửi thề
07:51
and even President Zelensky
153
471020
1760
và thậm chí cả Tổng thống Zelensky
07:52
asking his soldiers to surrender their weapons.
154
472820
3160
yêu cầu binh lính của mình giao nộp vũ khí của họ.
07:57
So when AI is used like this, to manipulate,
155
477220
3560
Vì vậy, khi AI được sử dụng như thế này, để thao túng,
08:00
it can be a threat to our democracy.
156
480780
2960
nó có thể là mối đe dọa đối với nền dân chủ của chúng ta.
08:03
And the tech is becoming so advanced
157
483740
2680
Và công nghệ đang trở nên quá tiên tiến
08:06
that it's hard to differentiate fact from fiction.
158
486460
3400
đến mức khó phân biệt thực tế với hư cấu.
08:10
So how does AI interfere with politics?
159
490660
4000
AI can thiệp vào chính trị như thế nào?
08:14
And for us as politicians, what should we be worried about?
160
494660
3840
Và đối với chúng tôi là các chính trị gia, chúng tôi nên lo lắng về điều gì?
08:18
Could truth and democracy become shattered by AI?
161
498820
3760
Liệu sự thật và dân chủ có bị AI làm cho tan tành?
08:22
Has it already?
162
502580
1320
Hay nó đã làm rồi?
08:24
Well, to dive a little deeper here,
163
504300
2160
Để đi sâu hơn một chút ở đây,
08:26
I think firstly we need to talk about the concept of truth.
164
506500
3440
tôi nghĩ trước tiên chúng ta cần nói về khái niệm sự thật.
08:30
Without truth, democracy collapses.
165
510300
2920
Không có sự thật, nền dân chủ sụp đổ.
08:33
Truth allows us to make informed decisions,
166
513700
3520
Sự thật cho phép chúng ta đưa ra quyết định sáng suốt,
08:37
it enables us to hold leaders accountable, which is very important.
167
517220
4040
nó cho phép chúng ta buộc các nhà lãnh đạo chịu trách nhiệm, điều này rất quan trọng.
08:41
And it also allows us, as political representatives,
168
521300
3400
Và nó cũng cho phép chúng ta, với tư cách là đại diện chính trị,
08:44
to create a sense of trust with our citizens and our constituents.
169
524700
3840
tạo ra cảm giác tin tưởng với công dân và cử tri của chúng ta.
08:49
But without that truth,
170
529020
1680
Nhưng nếu không có sự thật đó,
08:50
democracy is vulnerable to misinformation,
171
530740
3280
dân chủ tổn thương vì thông tin sai lệch
08:54
manipulation, and, of course, corruption.
172
534020
3400
sự thao túng và dĩ nhiên cả tham nhũng.
08:57
When AI erodes truth,
173
537940
2920
Khi AI làm xói mòn sự thật,
09:00
it erodes trust,
174
540860
2000
nó làm xói mòn niềm tin,
09:02
and it undermines our democracy.
175
542860
2240
và nó làm suy yếu nền dân chủ.
09:05
And for me, in my experience with a deepfake,
176
545500
3760
Đối với tôi, trong kinh nghiệm của tôi với deepfake,
09:09
I've seen what a fantastic distortion tool that deepfakes really are.
177
549260
4960
tôi đã thấy một công cụ biến dạng tuyệt vời như deepfake thực sự có.
09:14
So how can we safeguard democracy from this ever-advancing technology?
178
554220
5080
Làm thế nào ta có thể bảo vệ nền dân chủ khỏi công nghệ ngày càng phát triển này?
09:19
It's becoming ever harder to distinguish between real and synthetic content.
179
559620
4960
Ngày càng khó phân biệt giữa nội dung thực và tổng hợp.
09:24
And politically, what role does AI play in the future?
180
564620
4160
Về mặt chính trị, AI đóng vai trò gì trong tương lai?
09:28
And I can't talk about politics without talking about media as well.
181
568820
4080
Tôi không thể nói về chính trị mà không nói về truyền thông.
09:32
They're undeniably linked, they're intertwined.
182
572900
2360
Chúng liên kết không thể phủ nhận, chúng đan xen.
09:35
And I think journalism has its own battle here as well.
183
575300
3600
Tôi nghĩ rằng báo chí cũng có một cuộc chiến riêng ở đây.
09:39
From AI algorithms boosting articles unfairly
184
579220
3600
Từ thuật toán AI thúc đẩy các bài viết nhanh chóng
09:42
to clickbait headlines,
185
582860
1520
đến tiêu đề câu khách,
09:44
and then also moments where they can manipulate the public as well.
186
584420
4800
và sau đó là những khoảnh khắc mà chúng cũng có thể thao túng công chúng.
09:49
But politically speaking,
187
589220
1240
Nhưng về mặt chính trị,
09:50
we've seen AI-tailored political messaging
188
590500
3000
chúng ta đã thấy thông điệp chính trị phù hợp với AI
09:53
influencing voters,
189
593540
1160
ảnh hưởng đến cử tri,
09:54
we’ve seen it adding to existing bias.
190
594740
3240
chúng ta đã thấy nó làm tăng thêm thành kiến hiện có.
09:58
And definitely I think we all have that aunt that’s on Facebook
191
598020
2960
Tôi nghĩ chắc tất cả chúng ta đều có người dì dùng Facebook
10:00
and kind of believes anything.
192
600980
1840
mà tin bất cứ điều gì.
10:02
So for me, as a politician,
193
602860
1440
Vậy với tôi, là chính trị gia,
10:04
I think it's really important we dive a little deeper
194
604340
2480
tôi nghĩ thứ thực sự quan trọng là ta đào sâu hơn nữa
10:06
into the relationship of AI, journalism and media.
195
606820
3880
vào mối quan hệ giữa AI, báo chí và truyền thông.
10:11
But it also puts us at risk
196
611220
1840
Nhưng nó cũng đặt chúng ta vào nguy cơ
10:13
of creating a more divided and reactionary society,
197
613100
4000
tạo ra một xã hội bị chia rẽ và manh động hơn,
10:17
because falsehoods can create a lot of reaction.
198
617140
3000
bởi vì sự giả dối có thể tạo ra rất nhiều phản ứng.
10:20
And for myself, coming from Northern Ireland,
199
620140
2320
Đối với bản thân tôi, đến từ Bắc Ireland,
10:22
which is that post-conflict society,
200
622500
2320
đó là xã hội hậu xung đột,
10:24
I do have concerns about how it could shape our political landscape
201
624860
3960
tôi có những lo ngại về cách nó có thể định hình bối cảnh chính trị của chúng ta
10:28
and other places across the globe.
202
628820
2320
và những nơi khác trên toàn cầu.
10:32
Sadly, this deepfake video
203
632060
2320
Đáng buồn thay, video deepfake này
10:34
is not the only instance of me having experienced abuse with AI.
204
634380
5400
không phải chỉ tôi bị AI lạm dụng
10:39
Just six months ago,
205
639780
1280
Chỉ sáu tháng trước,
10:41
I received 15 deepfake images of myself in lingerie
206
641100
5400
tôi đã nhận được 15 hình ảnh deepfake của mình trong bộ đồ lót ren
10:46
posing provocatively.
207
646540
1640
tạo dáng khiêu khích.
10:48
And I thought to myself, here we go again.
208
648620
3240
Tôi tự nhủ, lại bắt đầu rồi.
10:52
And you know, I spoke with some other female politicians.
209
652460
3720
Bạn biết đấy, tôi đã nói chuyện với một số nữ chính trị gia khác.
10:56
Thankfully, where I represent, we have more women getting into politics.
210
656980
4280
Rất may, nơi tôi đại diện, chúng tôi có nhiều phụ nữ tham gia chính trị.
11:01
But I had a really good conversation with them,
211
661300
2200
Tôi có một cuộc trò chuyện thực sự tốt với họ,
11:03
and it’s around, if this is happening to you now,
212
663500
2320
nó ở mọi nơi, nếu nó diễn ra với bạn bây giờ,
11:05
what happens to me tomorrow?
213
665860
1760
gì sẽ xảy ra với tôi vào ngày mai?
11:07
And I think this really strikes at the heart of the climate of fear
214
667660
3960
Tôi nghĩ điều này thực sự đánh vào tâm điển của nỗi sợ
11:11
that AI can create for those in public life.
215
671660
3840
mà AI có thể tạo ra cho những người của công chúng.
11:15
And I don't blame women.
216
675500
1160
Tôi không đổ lỗi phụ nữ.
11:16
It's very sad.
217
676700
1160
Nó rất buồn.
11:17
I don't blame women for not wanting to get into politics
218
677860
2640
Tôi không đổ lỗi phụ nữ vì không muốn tham gia chính trị
11:20
when they see this kind of technology come forward,
219
680540
2400
khi họ thấy kiểu công nghệ này xuất hiện,
11:22
so that's so important that we safeguard it.
220
682940
2480
nên nó quan trọng đến mức chúng ta phải bảo vệ nó.
11:25
What also concerned me was the position of elderly voters
221
685420
4680
Điều cũng khiến tôi lo lắng là vị trí của cử tri cao tuổi
11:30
and perhaps their media literacy,
222
690100
1880
có lẽ kiến thức truyền thông của họ
11:32
their comprehension of this technology.
223
692020
2200
sự hiểu biết của họ về công nghệ này.
11:34
People who don't use the internet,
224
694260
2120
Những người không sử dụng internet,
11:36
who perhaps are not aware of AI and its many, many uses.
225
696420
3920
những người có lẽ không biết về AI và rất nhiều công dụng của nó.
11:40
So that was really concerning as well.
226
700340
2400
Vậy điều đó cũng thực sự đáng quan tâm.
11:43
But it doesn't have to be this way.
227
703060
1800
Nó không nhất thiết phải thế này.
11:44
We can be part of the change.
228
704900
1760
Ta có thể là 1 phần của sự thay đổi.
11:47
For me and my video,
229
707260
1920
Đối với tôi và video của tôi,
11:49
I still don't know, to this day, who did this.
230
709220
3520
tôi vẫn không biết, cho đến ngày nay, ai đã làm điều này.
11:52
I can imagine why they did it, but I don't know who did it.
231
712780
3400
Tôi có thể tưởng tượng tại sao họ, nhưng tôi không biết ai đã làm.
11:56
And sadly for me and for across the globe,
232
716180
3200
Đáng buồn cho tôi và trên toàn thế giới,
11:59
it still wouldn't be considered a crime.
233
719420
2920
nó vẫn sẽ không được coi là một tội ác.
12:03
So from being the enemy of fair, transparent,
234
723260
2840
Vì vậy, từ việc trở thành kẻ thù của chính trị công bằng,
12:06
good-natured politics,
235
726100
1600
minh bạch, tử tế,
12:07
to warfare, to international interference,
236
727740
3240
đến chiến tranh, đến can thiệp quốc tế,
12:11
despite its beauty and its potential,
237
731020
2880
bất chấp vẻ đẹp và tiềm năng của nó,
12:13
AI is still a cause for concern.
238
733940
2880
AI vẫn là một nguyên nhân đáng lo ngại.
12:16
But it doesn't have to be this way.
239
736820
2080
Nhưng nó không nhất thiết phải thế này.
12:19
I feel passionately that AI can be a humanistic technology
240
739260
3720
Tôi cảm thấy say mê rằng AI có thể là một công nghệ nhân văn
12:23
with human values
241
743020
1560
với các giá trị nhân văn
12:24
that complements the lives that we live
242
744620
2640
giúp cuộc sống của chúng ta
12:27
to make us the very best versions of ourselves.
243
747300
3440
giúp chúng ta trở thành phiên bản tốt nhất của chính mình.
12:31
But to do that,
244
751100
1560
Nhưng để làm được điều đó,
12:32
I think we need to embed ethics into this technology,
245
752700
3920
tôi nghĩ chúng ta cần đưa đạo đức vào công nghệ này,
12:36
to eliminate bias, to install empathy
246
756620
4160
để loại bỏ sự đình kiến, tạo sự đồng cảm
12:40
and make sure it is aligned with human values and human principles.
247
760820
4760
và đảm bảo nó phù hợp với các giá trị con người và nguyên tắc nhân văn.
12:45
Who knows, our democracy could depend on it.
248
765900
3400
Ai biết được, nền dân chủ của chúng ta có thể phụ thuộc vào nó.
12:49
And today I know we have some of the brightest minds in this room.
249
769300
3840
Và hôm nay tôi biết chúng ta có một số bộ óc thông minh nhất trong căn phòng này.
12:53
I heard some of the talks earlier, and I'm certain of that.
250
773180
4120
Tôi đã nghe vài cuộc nói chuyện trước đó, và tôi chắc chắn về điều đó.
12:57
And I know each and every one of you have weight on your shoulders
251
777340
3120
Tôi biết mỗi người trong các bạn đều có trọng trách trên vai
13:00
when looking to the future.
252
780500
1680
khi hướng tới tương lai.
13:02
But I also know each and every one of you want to see this tech for good.
253
782220
5400
Nhưng tôi cũng biết tất cả các bạn đều muốn thấy công nghệ này theo cách tốt đẹp
13:07
And what gives me hope
254
787980
1800
Điều này cho tôi hy vọng
13:09
is witnessing the movement right across the globe
255
789780
3320
là chứng kiến phong trào khắp toàn cầu
13:13
to see this hard journey begin,
256
793140
2800
ngắm cuộc hành trình khó khăn này bắt đầu
13:15
to regulate this ever-advancing technology,
257
795940
2840
để điều chỉnh công nghệ ngày càng tiến bộ này,
13:18
which can be used for bad or for good.
258
798780
3000
thứ được dùng cho việc tốt hoặc xấu.
13:22
But perhaps we, each and every one of us in this room,
259
802140
3720
Có lẽ chúng ta, mỗi người trong chúng ta trong căn phòng này,
13:25
can be part of finding the solution.
260
805860
2360
có thể là 1 phần tìm ra giải pháp.
13:28
(Applause)
261
808860
2200
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7