How a Deepfake Almost Ruined My Political Career | Cara Hunter | TED

40,512 views ・ 2024-12-18

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: chloe park 검토: DK Kim
00:03
This talk contains mature language
0
3620
3720
[이 강연에는 선정적 표현이 나옵니다]
00:08
“You’re a little whore,
1
8700
1840
“창녀 같으니라고,
00:10
and we've all seen your little video."
2
10540
2560
네 영상 다 봤어.”
00:14
That was the text message that was sent to me in April of 2022.
3
14300
5280
제가 2022년 4월에 받은 문자입니다.
00:20
I'm sitting in my grandmother's living room
4
20300
2480
할머니 집 거실에서 아흔 살이 되신 할머니를 축하하려고
00:22
in what is her 90th birthday,
5
22820
2640
00:25
surrounded by family and friends
6
25460
2360
가족과 친구들과 함께 앉아 있었는데
00:27
as my phone blows up with messages from strangers
7
27820
4480
전국 각지 모르는 사람들이 보낸 문자로 전화에 불이 났어요.
00:32
right across the country
8
32300
1840
00:34
who say they have seen a video of me
9
34140
3160
어떤 영상에 제가 나오는데
00:37
engaging in hardcore pornographic activity with a man.
10
37340
4720
어떤 남자와 노골적인 성관계를 한다는 내용이었죠.
00:42
I knew this was impossible.
11
42740
1600
막지 못할 걸 알았어요.
00:44
With just three weeks out from my election,
12
44900
2000
선거를 겨우 3주 앞두고 있는데
00:46
I felt as though my career was crumbling before my very eyes.
13
46940
4080
제 경력이 눈앞에서 무너지는 느낌이었습니다.
00:51
My heart pounded,
14
51420
1440
심장이 두근거리고 머리가 핑 돌고 온몸에 식은땀이 났어요.
00:52
my mind raced, sweat beaded on my skin.
15
52860
3160
00:56
And then I watched the video, and my worst fear was realized.
16
56380
4880
그러고 나서 영상을 확인했는데
최악의 공포가 현실이 됐죠.
01:01
Although this woman in the video was not me,
17
61980
3560
영상에 나오는 여자는 제가 아니었지만
01:05
she looked exactly like me.
18
65540
2720
저랑 똑 닮았습니다.
믿기 어려울 정도로요.
01:09
Impossibly like me.
19
69020
2360
01:11
Eerily like me.
20
71380
1200
섬뜩하게 닮았죠.
수많은 의문이 머릿속에 맴돌았습니다.
01:13
I had so many questions running through my mind.
21
73140
3040
01:16
Was this AI?
22
76500
1360
AI인가? 아닌가?
01:17
Was it not?
23
77900
1280
01:19
Who made this?
24
79220
1160
누가 만들었지? 어떻게 만든 거지?
01:20
How did they make it?
25
80420
1360
01:21
Why did they make it?
26
81820
1320
왜 만들었지?
01:23
So I did what anyone would do,
27
83140
2360
그래서 저도 다른 사람들처럼
01:25
and I approached my local police service to ask for advice, for guidance.
28
85500
4680
경찰에 연락해 조언과 도움을 구했습니다.
01:30
And really, where did I go from there?
29
90220
2280
그래서 어떻게 됐냐고요?
01:32
But they informed me that they wouldn't have the cybercrime technology to assist,
30
92540
4280
경찰은 이 영상 출처를 알아내는 데 필요한
01:36
to find out where this video came from.
31
96860
2240
사이버 범죄 기술이 없다고 했습니다.
그때 전 혼자라는 걸 깨달았죠.
01:39
And it was from that moment I knew that I was on my own.
32
99140
3520
01:43
Now to set the stage, as you can probably tell,
33
103380
2440
제 소개를 하자면, 아시겠지만
01:45
I’m from Ireland,
34
105820
1240
저는 아일랜드 출신이고, 정확히 말하자면
01:47
and to be exact, I'm from Northern Ireland,
35
107100
2480
북아일랜드로 아일랜드보다 더 작죠.
01:49
which is an even smaller place.
36
109580
2000
01:51
We have just 1.8 million people,
37
111620
2680
인구가 180만 명밖에 안 돼요.
01:54
very similar to the size of Vienna.
38
114340
2840
비엔나 인구와 아주 비슷하죠.
01:57
So you can imagine a rumor of this sinister nature,
39
117180
3440
아시겠지만 이런 고약한 소문은,
02:00
particularly in the world of politics, can go very far, very fast.
40
120620
5920
특히 정치계에선, 아주 빠르게 멀리 퍼집니다.
02:06
And that old saying, “seeing is believing” began to haunt me.
41
126540
4480
‘아니 땐 굴뚝에 연기 날까’라는 속담이 저를 괴롭혔죠.
02:11
And in the weeks leading up to my election,
42
131060
2520
선거를 앞둔 몇 주 동안 이 영상, 가짜 영상은
02:13
this video, this false video,
43
133620
1920
02:15
was shared thousands and thousands of times across WhatsApp.
44
135540
4240
왓츠앱에서 수백만 번 공유됐습니다.
02:20
And attached to this video was photos of me at work,
45
140260
3720
영상에 사용된 제 사진들은 사무실에서 일하는 모습이거나
웃거나, 선거 운동을 하거나
02:24
smiling, campaigning,
46
144020
2760
02:26
building a sense of trust with my constituents.
47
146820
2680
유권자들과 신뢰를 쌓는 모습이었습니다.
02:29
And as the weeks went on,
48
149540
1480
시간이 지나면서 문자는 더 미친 듯이 쏟아졌고
02:31
messages flooded in faster and faster,
49
151020
3920
02:34
and they were of a very vile and sexual nature.
50
154980
3040
몹시 불쾌하고 성적인 내용이었습니다.
02:38
Ding!
51
158340
1200
딩!
02:39
"We've all seen your little video."
52
159540
2000
‘네 영상 다 봤어!’
02:41
Ding!
53
161940
1120
딩!
‘부끄러운 줄 알아!’
02:43
"You should be ashamed of yourself."
54
163100
2480
02:45
Ding!
55
165620
1200
딩!
02:46
"Ah, now I see how you got your position in politics."
56
166820
4280
‘정계에 어떻게 진출했는지 알겠군!’
(한숨)
정말 힘들었어요.
02:53
It was very difficult.
57
173100
1960
02:55
And having been in politics since the age of 23,
58
175540
3160
저는 23살에 정계에 진출했고
02:58
and at this point I've been in it for about four to five years,
59
178740
3560
이제 약 4~5년 된 시점이었습니다.
03:02
and I'm from Northern Ireland, which is a post-conflict society,
60
182300
3280
저는 북아일랜드 출신인데
분쟁을 겪었고 여전히 심각하게 분단된 사회입니다.
03:05
still very deeply divided.
61
185620
1920
03:07
So I anticipated challenges,
62
187580
2600
그래서 고될 걸 예상했고
03:10
I anticipated disagreements,
63
190220
2600
의견 충돌도 예상했고 공격까지도 예상했습니다.
03:12
I even anticipated attacks, is politics after all.
64
192860
2800
정치란 그런 거니까요.
하지만 이건 예상하지 못했습니다.
03:16
But what I did not anticipate was this moment.
65
196100
3520
03:19
This was different.
66
199660
1400
이건 달랐습니다.
이건 여성 혐오에 기술이 악용된 것이었고
03:21
This was the moment where misogyny meets the misuse of technology,
67
201060
5800
03:26
and even had the potential to impact the outcome of a democratic election.
68
206900
5560
민주적인 선거 결과에 영향을 줄 수도 있었습니다.
03:32
And the sad thing for me was this lie became so far spread,
69
212820
5080
제가 정말 슬펐던 건
거짓말이 너무나 순식간에 너무나 멀리 퍼져서
03:37
so far, so fast,
70
217940
1840
03:39
that even my own family started to believe it.
71
219820
2880
가족들까지 믿기 시작했다는 겁니다.
03:42
Some would say that they'd heard it at a golf club,
72
222700
2760
누구는 골프 모임에서 들었다고 하고
03:45
others would say they heard it at the bar,
73
225500
2520
누구는 술집에서 들었다고 하고
또 누구는 탈의실에서 들었다고도 했죠.
03:48
and of course, some even said they heard it in a locker room.
74
228060
4320
03:52
A really good example of how far this went
75
232420
2480
이 거짓말이 얼마나 멀리 퍼졌는지
03:54
was people that I knew my entire life
76
234900
2520
평생을 알고 지내던 사람들이
03:57
would pass me in the street without whispering a word.
77
237460
3000
저를 길거리에서 마주쳐도 말 한마디 없이 지나쳤어요.
04:00
People like school teachers,
78
240460
1360
학교 선생님, 신뢰하던 사람들,
04:01
people I had a sense of trust with
79
241860
1720
04:03
and, you know, an affinity with.
80
243620
2360
친밀감을 느꼈던 사람들이었죠.
04:05
And that was really hard.
81
245980
1320
그건 너무 힘들었어요.
04:07
It felt like overnight I was wearing a scarlet letter.
82
247300
3920
하루아침에 주홍 글씨가 새겨진 것 같았죠.
04:11
And as things moved on
83
251660
1320
시간이 지나고 선거까지 2~3주 남았을 때도
04:12
and were about two, three weeks out from the election,
84
252980
2880
04:15
I kept receiving messages, and it got wider and wider.
85
255900
3120
문자는 계속 왔고
거짓말은 더 멀리 퍼져서 전 세계에서 왔죠.
04:19
It was global.
86
259060
1160
04:20
Not only was I receiving messages from Dublin and from London,
87
260220
3680
더블린과 런던에서 보낸 것도 모자라
04:23
but I was also receiving messages from Massachusetts, Manhattan,
88
263900
4040
매사추세츠와 맨해튼에서도 보냈습니다.
04:27
and I was getting so many follows on my political social media,
89
267940
3920
제 정치 소셜 계정은 구독자가 마구 늘어났는데
04:31
predominantly from men hungry for more of this scandal.
90
271900
3920
대부분이 이 추문에 굶주린 남자였죠.
04:35
And this intersection of online harms impacting my real life
91
275860
5120
온라인에서 받은 피해가 현실에서도 영향을 미치니
04:40
was something I found utterly strange and surreal.
92
280980
4000
정말 이상하고 비현실적이었습니다.
04:45
But it got to the point where I was recognized on the street
93
285500
3800
결국 길에서 누구나 저를 알아보게 됐고
04:49
and approached by a stranger who asked me for a sexual favor.
94
289340
6040
낯선 사람이 저에게 성적 요구를 하기까지 이르렀죠.
04:55
And it was just, for me, it was like in the blink of an eye,
95
295420
3080
제가 느끼기에는 정말 눈 깜짝할 사이에
04:58
everything had just changed,
96
298500
2640
모든 게 변한 것 같았습니다.
05:01
and it was utterly humiliating.
97
301140
1600
너무 치욕스러웠고 집 밖에 나가기 싫었습니다.
05:02
I didn't want to leave the house,
98
302780
1680
05:04
and I had turned notifications off in my phone
99
304460
2880
숨통이 조금 트이도록 핸드폰 알람을 전부 껐습니다만
05:07
just so I could kind of catch my breath,
100
307380
1920
05:09
but this wasn't ideal in the lead up, of course, to an election.
101
309340
4280
선거를 앞둔 상황에 그럴 수도 없었죠.
05:13
And for me, I think that was the purpose of this false video, was to do just that.
102
313620
4960
이 가짜 영상이 노린 게 바로 그거라고 생각해요.
05:19
But what hurt the most for me
103
319660
2440
그런데 가장 마음 아팠던 건
아빠를 앉혀 놓고
05:22
was sitting down my father
104
322140
2720
05:24
and having to explain to him this strange, surreal situation.
105
324860
5760
이상하고 비현실적인 이 일을 설명하는 거였습니다.
05:30
My father is an Irishman,
106
330620
1760
저희 아빠는 아일랜드인이고
05:32
completely disconnected from tech,
107
332420
2160
기술은 전혀 모르시기 때문에
05:34
and so having to explain
108
334620
1920
이 끔찍한 상황이
05:36
this horrific situation was an entire fabrication
109
336580
4320
전부 완전한 조작이라고 설명하는 건
05:40
was very hard to do.
110
340940
1600
너무나 어려웠습니다.
05:42
This was this strange moment
111
342860
2120
온라인 세상이
제 현실 세상과 만나다니 참으로 이상했죠.
05:45
where the online world met my life, my reality.
112
345020
4880
05:50
Not only having the impact to ruin my reputation,
113
350460
4520
이 영상은 제 평판을 망칠 뿐만 아니라
05:54
but have the capacity to change the outcome
114
354980
2800
민주적인 선거 결과를 바꿀 힘도 있습니다.
05:57
of a democratic election.
115
357820
2200
06:00
And, you know,
116
360500
1160
유권자들과 신뢰를 쌓는 데 수년간 많은 시간을 썼어요.
06:01
for years I spent so much time building trust with my constituents.
117
361700
4040
06:05
I mean, we all know how much people like politicians.
118
365780
3360
사람들이 정치인을 얼마나 좋아하는지 잘 아시잖아요.
(웃음)
06:09
You know, we’re as likeable as the tax man.
119
369180
2000
세무서 직원만큼 호감형이죠.
06:11
So for me, it was hard.
120
371220
2880
그래서 힘들었습니다, 정말 힘들었죠.
06:14
It was really hard
121
374100
1200
06:15
because it was years of hard work.
122
375300
2280
수년간 공을 들였었거든요.
06:18
You know, I’m so passionate about my job,
123
378100
2160
전 제 일에 정말 열정적인데
06:20
and this video, this complete falsehood,
124
380260
2920
완벽히 조작된 이 영상은
06:23
had the ability to just undermine years of hard work in mere seconds.
125
383180
4600
단 몇 초 만에 수년간의 노력을 무너뜨릴 수 있었죠.
06:28
But instead of succumbing entirely to victimhood,
126
388220
3200
전 피해자라는 사실에 좌절하는 대신 제 자신에게 물었습니다.
06:31
I ask myself today,
127
391420
1360
06:32
you know, where do we go from here?
128
392820
2280
’이제 어떡해야 할까?
06:35
And how can AI evolve to prevent something like this happening again?
129
395140
5560
이런 참사가 재발하는 걸 막으려면 AI는 어떻게 발전해야 할까?
06:40
Not only has it happened to me,
130
400740
1480
이런 일을 나뿐 아니라 훗날의 여성들도
06:42
but we want to future-proof and ensure that this doesn't happen
131
402220
3000
당하지 않도록 대비하고 싶은데.
06:45
to the women of tomorrow.
132
405260
1760
다른 사람을 아끼는 사람들, 즉, 여러분과 나, 우리들이
06:47
How can we, you and I, people who care about people,
133
407060
4280
06:51
ensure that this is a tech for good?
134
411380
2400
어떻게 이 기술이 선을 위한 것이 되도록 만들 수 있을까?
06:54
How can we, the policymakers, the creators, the consumers,
135
414300
4680
정책 입안자, 창작가, 소비자가
06:58
ensure we regulate AI and things like social media,
136
418980
3480
인공 지능의 중심에 인류와 인간성을 두도록
07:02
putting humans and humanity at the center of artificial intelligence?
137
422500
5320
어떻게 AI와 SNS 같은 것들을 규제할 수 있을까?′
07:08
AI can change the world.
138
428740
2280
AI는 세상을 바꿀 수 있습니다.
실은 오늘 들었듯이 이미 바꾸었죠.
07:11
In fact, as we've heard today, it already has.
139
431060
2880
07:13
In a matter of seconds,
140
433940
1520
서로 언어가 완전히 다르더라도 사람들은 단 몇 초 만에
07:15
people who speak completely different languages
141
435460
2240
07:17
can connect and understand one another.
142
437700
2160
서로를 만나고 이해할 수 있습니다.
07:19
And we've even seen the Pope as a style icon in a puffer jacket.
143
439860
3960
교황이 유행하는 패딩 점퍼를 입은 것도 봤잖아요.
07:24
So some really important uses right there.
144
444180
2240
유용하게 쓰일 때도 있긴 하죠.
07:27
But then in my case as well,
145
447220
1600
하지만 제 경우처럼 진실을 공격하는 무기도 됩니다.
07:28
we can also see how it is weaponized against the truth.
146
448860
3440
07:32
And good examples of this would be art that appears like reality,
147
452620
4120
예로 현실 같은 미술 작품을 만들거나
07:36
AI-generated reviews unfairly boosting certain products
148
456740
3840
AI가 쓴 후기로 특정 제품을 부당하게 홍보하거나
07:40
and things like chatbot propaganda.
149
460580
2760
챗봇으로 선전하는 경우가 있죠.
07:43
And then, politically speaking,
150
463340
1760
또 정치적인 면에선
수년간 딥페이크 영상으로 낸시 펠로시가 횡설수설하는 것과
07:45
we've seen over the years deepfakes of Nancy Pelosi slurring,
151
465140
4320
07:49
Joe Biden cursing
152
469500
1480
조 바이든이 욕하는 것과
젤렌스키 대통령이 자기 군인들에게 무기를 버리라고 명령한 걸 봤죠.
07:51
and even President Zelensky
153
471020
1760
07:52
asking his soldiers to surrender their weapons.
154
472820
3160
07:57
So when AI is used like this, to manipulate,
155
477220
3560
따라서 AI를 이런 식으로, 조작에 사용한다면
08:00
it can be a threat to our democracy.
156
480780
2960
민주주의에 위협이 될지도 모릅니다.
08:03
And the tech is becoming so advanced
157
483740
2680
또 기술이 엄청나게 발전해서
08:06
that it's hard to differentiate fact from fiction.
158
486460
3400
사실과 허구를 구별하기가 어려워지고 있죠.
08:10
So how does AI interfere with politics?
159
490660
4000
그렇다면 AI는 어떻게 정치에 간섭할까요?
08:14
And for us as politicians, what should we be worried about?
160
494660
3840
우리 정치인은 무엇을 걱정해야 할까요?
08:18
Could truth and democracy become shattered by AI?
161
498820
3760
AI가 진실과 민주주의를 무너뜨릴 수 있을까요?
08:22
Has it already?
162
502580
1320
이미 무너뜨렸을까요?
08:24
Well, to dive a little deeper here,
163
504300
2160
여기서 좀 더 깊게 들어가려면
08:26
I think firstly we need to talk about the concept of truth.
164
506500
3440
먼저 진실이란 무엇인지를 우선 얘기해야 할 것 같습니다.
08:30
Without truth, democracy collapses.
165
510300
2920
진실이 없으면 민주주의는 무너져요.
08:33
Truth allows us to make informed decisions,
166
513700
3520
진실은 정보를 바탕으로 결정하게 하고
08:37
it enables us to hold leaders accountable, which is very important.
167
517220
4040
지도자들에게 책임을 물을 수 있게 합니다.
아주 중요한 부분이죠.
08:41
And it also allows us, as political representatives,
168
521300
3400
또한 우리 같은 정치인들이
08:44
to create a sense of trust with our citizens and our constituents.
169
524700
3840
시민과 유권자들과 신뢰감을 형성하게 합니다.
하지만 이런 진실이 없다면
08:49
But without that truth,
170
529020
1680
08:50
democracy is vulnerable to misinformation,
171
530740
3280
민주주의는 허위 정보나
조작, 부패에 당하기 쉽습니다.
08:54
manipulation, and, of course, corruption.
172
534020
3400
08:57
When AI erodes truth,
173
537940
2920
AI가 진실을 갉아먹으면
09:00
it erodes trust,
174
540860
2000
신뢰가 흔들리고 민주주의도 무너집니다.
09:02
and it undermines our democracy.
175
542860
2240
09:05
And for me, in my experience with a deepfake,
176
545500
3760
제가 딥페이크를 직접 당해 보니
09:09
I've seen what a fantastic distortion tool that deepfakes really are.
177
549260
4960
딥페이크는 사실을 왜곡하는 데 가장 적절한 도구라는 걸 느꼈습니다.
09:14
So how can we safeguard democracy from this ever-advancing technology?
178
554220
5080
그럼 계속 발전하는 기술로부터 어떻게 민주주의를 지킬 수 있을까요?
09:19
It's becoming ever harder to distinguish between real and synthetic content.
179
559620
4960
실제 정보와 가짜 정보를 구분하는 게 더 어려워지고 있습니다.
09:24
And politically, what role does AI play in the future?
180
564620
4160
미래에 AI는 정치적으로 어떤 역할을 할까요?
09:28
And I can't talk about politics without talking about media as well.
181
568820
4080
정치를 얘기할 때 미디어가 빠질 수 없죠.
09:32
They're undeniably linked, they're intertwined.
182
572900
2360
둘은 명백히 연결되어 있고 서로 얽혀 있습니다.
09:35
And I think journalism has its own battle here as well.
183
575300
3600
언론 역시 자신의 싸움을 벌이고 있죠.
09:39
From AI algorithms boosting articles unfairly
184
579220
3600
기사를 부당하게 노출하는 AI 알고리즘과 낚시성 표제,
09:42
to clickbait headlines,
185
582860
1520
09:44
and then also moments where they can manipulate the public as well.
186
584420
4800
대중을 쉽게 조종할 수 있는 상황까지 말이죠.
09:49
But politically speaking,
187
589220
1240
그런데 정치적인 면에선 AI가 조작한 정치 메시지가
09:50
we've seen AI-tailored political messaging
188
590500
3000
09:53
influencing voters,
189
593540
1160
유권자들에게 영항을 주고 기존의 편견을 심화합니다.
09:54
we’ve seen it adding to existing bias.
190
594740
3240
페이스북에서 본 건 다 믿는 친척 한 명쯤은 아시잖아요.
09:58
And definitely I think we all have that aunt that’s on Facebook
191
598020
2960
10:00
and kind of believes anything.
192
600980
1840
10:02
So for me, as a politician,
193
602860
1440
저는 정치인으로서
10:04
I think it's really important we dive a little deeper
194
604340
2480
AI, 언론, 미디어의 관계를
10:06
into the relationship of AI, journalism and media.
195
606820
3880
좀 더 깊게 살펴야 한다고 봅니다.
10:11
But it also puts us at risk
196
611220
1840
자칫하면 분열되고 시대에 역행하는 사회가 될 위험도 있습니다.
10:13
of creating a more divided and reactionary society,
197
613100
4000
거짓은 큰 반응을 이끌어 낼 수 있으니까요.
10:17
because falsehoods can create a lot of reaction.
198
617140
3000
10:20
And for myself, coming from Northern Ireland,
199
620140
2320
분쟁을 겪은 북아일랜드 출신으로서
10:22
which is that post-conflict society,
200
622500
2320
10:24
I do have concerns about how it could shape our political landscape
201
624860
3960
AI가 정치 환경과 세계 곳곳에 어떤 영향을 미칠지 심히 우려됩니다.
10:28
and other places across the globe.
202
628820
2320
슬프게도
10:32
Sadly, this deepfake video
203
632060
2320
제가 경험한 AI 악용은 이 딥페이크 영상만이 아닙니다.
10:34
is not the only instance of me having experienced abuse with AI.
204
634380
5400
10:39
Just six months ago,
205
639780
1280
불과 6개월 전에 딥페이크 사진 15장을 받았는데
10:41
I received 15 deepfake images of myself in lingerie
206
641100
5400
제가 속옷을 입고 자극적인 자세를 취하고 있었죠.
10:46
posing provocatively.
207
646540
1640
10:48
And I thought to myself, here we go again.
208
648620
3240
속으로 생각했습니다, ‘또 시작이네.’
10:52
And you know, I spoke with some other female politicians.
209
652460
3720
저는 다른 여성 정치인들과 얘기를 나눴어요.
10:56
Thankfully, where I represent, we have more women getting into politics.
210
656980
4280
다행히 제가 대표하는 곳엔 정치에 입문하는 여성이 많죠.
11:01
But I had a really good conversation with them,
211
661300
2200
정말 좋은 대화를 나눴고
11:03
and it’s around, if this is happening to you now,
212
663500
2320
지금 당신한테 일어나는 일이 내일은 나한테 일어나겠죠 같은 얘기였습니다.
11:05
what happens to me tomorrow?
213
665860
1760
11:07
And I think this really strikes at the heart of the climate of fear
214
667660
3960
저는 이것이 공인들에게 AI가 공포감을 주는
11:11
that AI can create for those in public life.
215
671660
3840
진짜 근원이라고 생각했습니다.
11:15
And I don't blame women.
216
675500
1160
저는 여성들을 탓하지 않아요, 그건 몹시 안된 일이죠.
11:16
It's very sad.
217
676700
1160
11:17
I don't blame women for not wanting to get into politics
218
677860
2640
이런 기술 발전을 보고 정치 입문을 꺼리는 여성을 탓할 게 아니라
11:20
when they see this kind of technology come forward,
219
680540
2400
11:22
so that's so important that we safeguard it.
220
682940
2480
이들을 안전하게 보호해야 하는 것입니다.
11:25
What also concerned me was the position of elderly voters
221
685420
4680
또 제가 우려했던 점은 나이 든 유권자들의 상황과
매체 이해력 및 이 기술의 이해도였습니다.
11:30
and perhaps their media literacy,
222
690100
1880
11:32
their comprehension of this technology.
223
692020
2200
11:34
People who don't use the internet,
224
694260
2120
이들은 인터넷을 쓰지 않으며
11:36
who perhaps are not aware of AI and its many, many uses.
225
696420
3920
AI와 그 수많은 용도를 잘 모를 것입니다.
11:40
So that was really concerning as well.
226
700340
2400
그래서 이 점도 심히 우려됐죠.
하지만 꼭 이런 식일 필요는 없어요.
11:43
But it doesn't have to be this way.
227
703060
1800
11:44
We can be part of the change.
228
704900
1760
우리가 변화의 일부가 될 수 있죠.
11:47
For me and my video,
229
707260
1920
제 영상 같은 경우엔
11:49
I still don't know, to this day, who did this.
230
709220
3520
오늘까지 여전히 누가 만든 건지 모릅니다.
11:52
I can imagine why they did it, but I don't know who did it.
231
712780
3400
이유는 짐작이 가지만 누군지는 모르겠어요.
11:56
And sadly for me and for across the globe,
232
716180
3200
저와 전 세계 사람들에겐 안타깝지만
11:59
it still wouldn't be considered a crime.
233
719420
2920
여전히 범죄로 간주되지도 않습니다.
12:03
So from being the enemy of fair, transparent,
234
723260
2840
따라서 공정과 정직, 그리고 선한 정치인들의 적부터
12:06
good-natured politics,
235
726100
1600
12:07
to warfare, to international interference,
236
727740
3240
전쟁과 국제적 혼란까지,
AI는 그 장점과 잠재력이 있지만,
12:11
despite its beauty and its potential,
237
731020
2880
12:13
AI is still a cause for concern.
238
733940
2880
여전히 우려 대상입니다.
12:16
But it doesn't have to be this way.
239
736820
2080
하지만 꼭 이런 식일 필요는 없죠.
12:19
I feel passionately that AI can be a humanistic technology
240
739260
3720
전 AI가 인간 가치를 담은 인본주의적 기술로
12:23
with human values
241
743020
1560
12:24
that complements the lives that we live
242
744620
2640
우리의 삶을 보완하고
12:27
to make us the very best versions of ourselves.
243
747300
3440
더 나은 사람이 되도록 해 준다고 믿습니다.
그런데 그러기 위해선
12:31
But to do that,
244
751100
1560
12:32
I think we need to embed ethics into this technology,
245
752700
3920
이 기술에 윤리를 결합해서
12:36
to eliminate bias, to install empathy
246
756620
4160
편견을 없애고 공감을 형성하고
12:40
and make sure it is aligned with human values and human principles.
247
760820
4760
인간의 가치와 원칙에 부합하도록 해야 합니다.
12:45
Who knows, our democracy could depend on it.
248
765900
3400
우리 민주주의가 AI를 잘 활용할 수 있을지도 모르죠.
12:49
And today I know we have some of the brightest minds in this room.
249
769300
3840
오늘 지성인들이 한곳에 모였습니다.
12:53
I heard some of the talks earlier, and I'm certain of that.
250
773180
4120
아까 몇몇 강연을 듣고 확신했죠.
12:57
And I know each and every one of you have weight on your shoulders
251
777340
3120
여러분 모두가 미래를 바라보며 책임감을 느낀다는 걸 압니다.
13:00
when looking to the future.
252
780500
1680
13:02
But I also know each and every one of you want to see this tech for good.
253
782220
5400
또 이 기술을 앞으로도 계속 보고 싶어 한다는 것도 알죠.
13:07
And what gives me hope
254
787980
1800
제게 희망을 주는 것은
13:09
is witnessing the movement right across the globe
255
789780
3320
전 세계에서 이런 힘든 일을 시작하는 움직임이 보인다는 겁니다.
13:13
to see this hard journey begin,
256
793140
2800
13:15
to regulate this ever-advancing technology,
257
795940
2840
선과 악 양날을 지닌 채 계속 발전하는 이 기술을 규제하고 있는 것입니다.
13:18
which can be used for bad or for good.
258
798780
3000
이 자리에 있는 우리 모두가
13:22
But perhaps we, each and every one of us in this room,
259
802140
3720
해결책을 찾는 데 일부가 될 수 있을지도 모릅니다.
13:25
can be part of finding the solution.
260
805860
2360
13:28
(Applause)
261
808860
2200
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7