아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: JISU BANG
검토: Hyunjin Lee
00:03
It's getting harder, isn't it,
to spot real from fake,
0
3583
3879
진짜와 가짜, AI가 만든 것과
사람이 만든 것을 구별하기가
00:07
AI-generated from human-generated.
1
7504
2252
점점 더 어려워지고 있지 않나요?
00:10
With generative AI,
2
10340
1126
생성형 AI와
00:11
along with other advances in deep fakery,
3
11508
2419
다른 딥페이크 기술이 발달함에 따라,
00:13
it doesn't take
many seconds of your voice,
4
13969
2252
여러분의 복제품을
만드는데 필요한
00:16
many images of your face,
5
16263
1459
여러분의 음성과 사진은
00:17
to fake you,
6
17764
1251
더 적게 필요하게 되고
00:19
and the realism keeps increasing.
7
19015
2628
현실감은 더욱 증가하고 있습니다.
00:21
I first started working
on deepfakes in 2017,
8
21685
3086
제가 딥페이크 연구를 처음
시작한 때는 2017년도 입니다.
00:24
when the threat to our trust
in information was overhyped,
9
24813
3962
그 때는
정보 신용에 대한 우려가 과했었고,
00:28
and the big harm, in reality,
was falsified sexual images.
10
28775
3670
현실에서의 큰 피해는
선정적인 이미지 위조였습니다.
00:32
Now that problem keeps growing,
harming women and girls worldwide.
11
32904
4171
이제 그 문제는 계속 커져서
전 세계 여성에게 피해를 주고 있죠.
00:38
But also, with advances in generative AI,
we're now also approaching a world
12
38159
4713
뿐만 아니라, 생성형 AI의 발전으로
우리는 이제 훨씬 더 쉽게
00:42
where it's broadly easier
to make fake reality,
13
42872
3462
거짓 현실을
만들어 낼 수 있을 뿐만 아니라
00:46
but also to dismiss reality
as possibly faked.
14
46376
3879
현실이 조작일 거라고 외면하는
세상에 접어들고 있습니다.
00:50
Now, deceptive and malicious
audiovisual AI
15
50755
3420
이제,
기만적이고 악의적인 AI 영상이
00:54
is not the root of our societal problems,
16
54217
2669
우리 사회 문제의 근원은 아니더라도
00:56
but it's likely to contribute to them.
17
56928
2252
문제들에 많은 기여를 하고 있습니다.
00:59
Audio clones are proliferating
in a range of electoral contexts.
18
59180
4213
다양한 선거 상황에서
복제음성이 급증하고 있습니다.
01:03
"Is it, isn't it" claims cloud
human-rights evidence from war zones,
19
63435
5130
“사실인가 아닌가” 하는 주장이
전쟁지역 인권문제 증언에 혼란을 주고,
01:08
sexual deepfakes target women
in public and in private,
20
68565
4129
성적 딥페이크는
공적 또는 사적인 곳에서
01:12
and synthetic avatars
impersonate news anchors.
21
72736
3336
여성을 표적으로 삼고 있으며,
모조 아바타는 뉴스 앵커를 모방합니다.
01:16
I lead WITNESS.
22
76656
1460
저는 WITNESS를 이끌고 있고,
01:18
We're a human-rights group
23
78116
1376
저희는 사람들이 비디오기술을 사용해
01:19
that helps people use video and technology
to protect and defend their rights.
24
79492
3671
자신의 권리를 보호하고 지키도록 돕는
인권 단체입니다.
01:23
And for the last five years,
we've coordinated a global effort,
25
83163
3003
그리고 지난 5년 동안 우리는
현실을 조작하고 합성하는
01:26
"Prepare, Don't Panic,"
26
86333
1167
이러한 새로운 방법과
01:27
around these new ways
to manipulate and synthesize reality,
27
87500
3045
일선 언론인과 인권옹호자들의
진실을 강화하는 방법을 중심으로
01:30
and on how to fortify the truth
28
90587
2377
“당황하지 말고, 준비하라.”라는
01:32
of critical frontline journalists
and human-rights defenders.
29
92964
3420
전 세계적 노력을
기울여 왔습니다.
01:37
Now, one element in that
is a deepfakes rapid-response task force,
30
97218
5423
그 노력 중 하나가 바로
딥페이크 신속 대응 전담 조직이고,
01:42
made up of media-forensics experts
31
102641
2127
이는 미디어 포렌식 전문가와
01:44
and companies who donate
their time and skills
32
104768
2168
딥페이크 의혹을
밝혀내기 위해
01:46
to debunk deepfakes
and claims of deepfakes.
33
106978
3087
기술과 시간을 할애하는 기업들로
구성되어 있습니다.
01:50
The task force recently received
three audio clips,
34
110899
3211
이 전담 팀은 최근
수단, 서아프리카, 인도로부터
01:54
from Sudan, West Africa and India.
35
114110
2670
세 개의 오디오 클립을 받았습니다.
01:57
People were claiming that the clips
were deepfaked, not real.
36
117155
3879
사람들은 오디오 클립이 진짜가 아닌
조작된 클립이라고 주장했습니다.
02:01
In the Sudan case,
37
121451
1210
수단의 경우,
02:02
experts used a machine-learning algorithm
38
122702
2002
전문가들이 100만 개 이상의
02:04
trained on over a million examples
of synthetic speech
39
124746
2628
합성 음성 예제를 학습한
머신 러닝 알고리즘을 사용하여
02:07
to prove, almost
without a shadow of a doubt,
40
127374
2294
대부분 의심의 여지 없이
그 클립이 진짜임을
02:09
that it was authentic.
41
129709
1335
증명했습니다.
02:11
In the West Africa case,
42
131586
1835
서아프리카의 경우,
02:13
they couldn't reach
a definitive conclusion
43
133463
2002
트위터에서 나오는
오디오를 분석하는 데
02:15
because of the challenges
of analyzing audio from Twitter,
44
135507
2794
배경 소음 문제 때문에
확실한 결론에
02:18
and with background noise.
45
138301
1752
도달할 수 없었습니다.
02:20
The third clip was leaked audio
of a politician from India.
46
140095
3712
세 번째 클립은
인도 정치인 음성의 유출본이었습니다.
02:23
Nilesh Christopher of “Rest of World”
brought the case to the task force.
47
143848
3796
“Rest of World”의
닐레쉬 크리스토퍼는 사건을 제출했고
02:27
The experts used almost an hour of samples
48
147644
2961
전문가들은 1시간 분량의 샘플을 사용해
02:30
to develop a personalized model
of the politician's authentic voice.
49
150605
3879
정치인의 실제 목소리를 담은
맞춤형 모델을 개발했습니다.
02:35
Despite his loud and fast claims
that it was all falsified with AI,
50
155151
4380
모든 게 AI로 위조됐다는
정치인의 강건한 주장에도 불구하고,
02:39
experts concluded that it at least
was partially real, not AI.
51
159572
4255
전문가들은 최소한 부분적으로
AI가 아니라고 결론을 내렸습니다.
02:44
As you can see,
52
164369
1335
보시다시피,
02:45
even experts cannot rapidly
and conclusively separate true from false,
53
165745
5089
전문가들조차 진실과 거짓을 빠르고
확실하게 구별할 수 없고,
02:50
and the ease of calling
"that's deepfaked" on something real
54
170875
4421
진짜를
“딥페이크”라고 하는 상황이
02:55
is increasing.
55
175296
1168
점점 늘어나고 있습니다.
02:57
The future is full of profound challenges,
56
177132
2002
미래는 진실을 보호하고,
02:59
both in protecting the real
and detecting the fake.
57
179175
3420
거짓을 색출하는
중대한 문제들로 가득합니다.
03:03
We're already seeing the warning signs
58
183888
1919
우리는 이미 사실과 허구를 분별하는
03:05
of this challenge
of discerning fact from fiction.
59
185807
2711
문제의 경고 신호를 보고 있습니다.
03:08
Audio and video deepfakes
have targeted politicians,
60
188560
3128
오디오 및
비디오 딥페이크는
03:11
major political leaders in the EU,
Turkey and Mexico,
61
191688
3587
EU의 주요 정치 지도자,
터키, 멕시코의 주요 정치 지도자,
03:15
and US mayoral candidates.
62
195316
1710
미국 시장 후보를 표적으로 삼았습니다.
03:17
Political ads are incorporating footage
of events that never happened,
63
197444
3503
정치 광고에는 전혀 일어난 적이 없는
사건의 영상이 포함되고 있으며,
03:20
and people are sharing
AI-generated imagery from crisis zones,
64
200947
4546
사람들은
위험 지역에서 AI로 생성한 이미지를
03:25
claiming it to be real.
65
205535
1418
실제라고 주장하며 공유하고 있습니다.
03:27
Now, again, this problem
is not entirely new.
66
207454
3211
다시 말씀드리지만,
이 문제는 전혀 새로운 것이 아닙니다.
03:31
The human-rights defenders
and journalists I work with
67
211207
2628
저와 함께 일하는
인권 운동가들과 저널리스트들은
03:33
are used to having
their stories dismissed,
68
213835
2794
자신들의 이야기를
기각하는 데 익숙합니다.
03:36
and they're used to widespread,
deceptive, shallow fakes,
69
216671
3462
또 그들은 광범위하고 기만적인
가짜 동영상과 이미지에 익숙합니다.
03:40
videos and images taken
from one context or time or place
70
220175
3670
이는 한 상황이나 시간 또는
장소에서 촬영한 것을
03:43
and claimed as if they're in another,
71
223887
2460
마치 다른 곳에 있는 것 처럼 주장하며
03:46
used to share confusion
and spread disinformation.
72
226347
3129
혼란을 일으키고
허위정보를 퍼뜨립니다.
03:49
And of course, we live in a world
that is full of partisanship
73
229934
3170
물론 우리는
당파주의와 확증 편향이 가득한
03:53
and plentiful confirmation bias.
74
233146
2127
세상에 살고 있습니다.
03:57
Given all that,
75
237317
1209
이 모든 것을 고려했을 때,
03:58
the last thing we need
is a diminishing baseline
76
238526
3045
우리에게 필요한 것은
민주주의가 번영하는
04:01
of the shared, trustworthy information
upon which democracies thrive,
77
241613
3962
공유되고 신뢰 가능한 정보들의
기준선 감소이며,
04:05
where the specter of AI
78
245617
1418
여기서 AI의 망령은
04:07
is used to plausibly believe
things you want to believe,
79
247076
3462
우리가 믿고 싶은 것은
타당하게 믿고,
04:10
and plausibly deny things
you want to ignore.
80
250538
2336
무시하고 싶은 것은
타당하게 무시할 수 있게 하는 겁니다.
04:15
But I think there's a way
we can prevent that future,
81
255084
2628
하지만 지금 행동한다면
그 미래를 막을 수 있는 방법이
04:17
if we act now;
82
257754
1501
있다고 생각합니다.
04:19
that if we "Prepare, Don't Panic,"
83
259255
2211
“준비하고, 당황하지 마세요.” 처럼
04:21
we'll kind of make our way
through this somehow.
84
261508
3253
우리가 어떻게든
이 문제를 헤쳐나갈 수 있다는 거죠.
04:25
Panic won't serve us well.
85
265929
2627
당황하는 것은 도움이 되지 않아요.
04:28
[It] plays into the hands
of governments and corporations
86
268681
2711
이는
우리의 공포를 악용하려는
04:31
who will abuse our fears,
87
271392
1669
정부와 기업의 손에도 영향을 미치며,
04:33
and into the hands of people
who want a fog of confusion
88
273102
3045
혼란의 안개를 피해
AI를 핑계로 삼으려는
04:36
and will use AI as an excuse.
89
276147
2461
사람들의 손에도 영향을 미칩니다.
04:40
How many people were taken in,
just for a minute,
90
280610
2419
얼마나 많은 사람들이
단 1분 동안
04:43
by the Pope in his dripped-out
puffer jacket?
91
283029
2336
롱패팅 재킷을 입은 교황에게
매료되었을까요?
04:45
You can admit it.
92
285406
1168
인정하셔도 됩니다.
04:46
(Laughter)
93
286574
1210
(웃음)
04:47
More seriously,
94
287784
1209
더 진지하게는,
04:49
how many of you know someone
who's been scammed
95
289035
2503
얼마나 많은 사람들이
그들의 자녀와 비슷한 목소리로 인해
04:51
by an audio that sounds like their kid?
96
291579
2044
사기를 당했는지 알고 계신가요?
04:54
And for those of you
who are thinking "I wasn't taken in,
97
294624
2920
그리고 “난 안 당했어,
딥페이크를 찾아내는 방법을 알아.”
04:57
I know how to spot a deepfake,"
98
297544
1584
라고 생각하는 분들에게 말씀드리자면,
04:59
any tip you know now is already outdated.
99
299170
3003
알고 계신 것들은 이미 예전 것입니다.
05:02
Deepfakes didn't blink, they do now.
100
302757
2544
예전 딥페이크는 눈도 깜빡이지않고
05:06
Six-fingered hands were more common
in deepfake land than real life --
101
306177
3587
여섯손가락의 손이
자주 보이곤 했지만
05:09
not so much.
102
309806
1126
지금은 그렇지 않습니다.
05:11
Technical advances erase
those visible and audible clues
103
311307
3754
기술의 발전은 가시적이고 청각적인
단서들을 지워버렸습니다.
05:15
that we so desperately want to hang on to
104
315061
2002
우리가 진짜와 가짜를 구별하기 위해
05:17
as proof we can discern real from fake.
105
317105
2252
간절히 매달렸던 증거들을 말이죠
05:20
But it also really shouldn’t be on us
to make that guess without any help.
106
320191
4713
하지만 도움 없이 추측을 하는 것이
우리의 몫이 되어서는 안 됩니다.
05:24
Between real deepfakes
and claimed deepfakes,
107
324946
2127
실제 딥페이크와
주장이 제기된 딥페이크 사이에는
05:27
we need big-picture, structural solutions.
108
327073
2961
거시적, 구조적인 솔루션이 필요합니다.
05:30
We need robust foundations
109
330034
1502
우리는
05:31
that enable us to discern
authentic from simulated,
110
331578
3128
시물레이션과 진짜를 구별할 수 있는
견고한 기반,
05:34
tools to fortify the credibility
of critical voices and images,
111
334747
3921
중요한 음성 및 이미지의
신뢰성을 강화하는 도구,
05:38
and powerful detection technology
112
338668
2336
그리고 해결하는 것 보다
05:41
that doesn't raise more doubts
than it fixes.
113
341045
2670
더 많은 의심을 불러일으키지 않는
강력한 탐지 기술이 필요합니다.
05:45
There are three steps we need to take
to get to that future.
114
345091
3045
이러한 미래를 향해 나아가려면
다음 세 단계를 거쳐야 합니다.
05:48
Step one is to ensure
that the detection skills and tools
115
348887
3712
첫 번째 단계는
탐지 기술과 도구들이
05:52
are in the hands
of the people who need them.
116
352599
2168
그것을 필요로 하는 사람들에게
이용되도록 하는 것입니다.
05:54
I've talked to hundreds of journalists,
117
354767
2253
저는 수백 명의 언론인,
05:57
community leaders
and human-rights defenders,
118
357020
2252
커뮤니티 리더, 인권 운동가들과
이야기를 나눴습니다.
05:59
and they're in the same boat
as you and me and us.
119
359272
2919
그들은 여러분과 저,
그리고 우리와 같은 입장에 서 있습니다.
06:02
They're listening to the audio,
trying to think, "Can I spot a glitch?"
120
362191
3421
그들은 오디오를 들으며 “결함을 발견할
수 있을까?” 라고 생각하려고 합니다.
06:05
Looking at the image, saying,
"Oh, does that look right or not?"
121
365612
3295
이미지를 보며 “아, 이게 맞는건가,
아닌가?” 라고 말합니다.
06:08
Or maybe they're going online
to find a detector.
122
368907
3336
아니면 탐지기를 찾기 위해
온라인에 접속할 수도 있겠죠.
06:12
And the detector they find,
123
372285
1335
그리고 그들이 찾아낸 탐지기로는
06:13
they don't know whether they're getting
a false positive, a false negative,
124
373661
3545
결과가 위양성인지,위음성인지,
신뢰할 수 있는 결과를 얻었는지
06:17
or a reliable result.
125
377248
1251
알 수 없습니다.
06:18
Here's an example.
126
378541
1168
예를 하나 보여드릴게요.
06:19
I used a detector, which got the Pope
in the puffer jacket right.
127
379751
3712
저는 탐지기를 사용했는데,
교황은 패딩을 입으신 게 맞다네요.
06:23
But then, when I put in the Easter bunny
image that I made for my kids,
128
383796
4255
그런데 제가 아이들을 위해 만든
부활절 토끼 이미지를 넣었더니
06:28
it said that it was human-generated.
129
388092
1961
사람이 만든 것이라고 하죠.
06:30
This is because of some big challenges
in deepfake detection.
130
390637
3253
이는 딥페이크 탐지가 어려운
몇 가지 이유 때문입니다.
06:34
Detection tools often only work
on one single way to make a deepfake,
131
394474
3295
탐지 도구는 종종
한 가지 방법으로만 작동하기에
06:37
so you need multiple tools,
132
397769
1543
여러 도구가 필요하며
06:39
and they don't work well
on low-quality social media content.
133
399354
4337
품질이 낮은 소셜 미디어 콘텐츠에서는
제대로 작동하지 않습니다.
06:43
Confidence score, 0.76-0.87,
134
403691
3337
신뢰도 점수, 0.76-0.87인 이 기술이
06:47
how do you know whether that's reliable,
135
407028
1919
어떻게 믿을 만 한지 알 수 있을까요.
06:48
if you don't know if the underlying
technology is reliable,
136
408988
2795
기본 기술이 믿을 만 한지
알 수 없고,
06:51
or whether it works on the manipulation
that is being used?
137
411824
2795
지금 사용되는 조작에 효과적인지 아닌지
알 수 없다면 말이죠.
06:54
And tools to spot an AI manipulation
don't spot a manual edit.
138
414661
5046
그리고 AI 조작을 찾아내는 도구로는
수동 편집을 찾아낼 수 없습니다.
07:00
These tools also won't be
available to everyone.
139
420583
3587
또한 모든 사람이 이러한 도구를
사용할 수 있는 것은 아닙니다.
07:04
There's a trade-off
between security and access,
140
424212
3128
보안과 액세스 사이에는
절충점이 있습니다.
07:07
which means if we make them
available to anyone,
141
427382
2544
즉,
누구나 사용할 수 있게 하면
07:09
they become useless to everybody,
142
429926
2586
모든 사람이 사용할 수 없게 됩니다.
07:12
because the people designing
the new deception techniques
143
432512
2711
새로운 속임수 기법을
설계하는 사람들이
07:15
will test them on the publicly
available detectors
144
435264
3087
공개적으로 사용가능한 탐지기로
이를 테스트하고는
07:18
and evade them.
145
438393
1209
그 탐지망을 피할 것이기 때문입니다.
07:20
But we do need to make sure
these are available
146
440061
2920
하지만 우리는
우리의 1차 방어선인
07:22
to the journalists, the community leaders,
147
442981
2085
전 세계 언론인, 커뮤니티 리더,
07:25
the election officials, globally,
who are our first line of defense,
148
445108
3628
선거 관계자들이
실제 접근성과 사용에
07:28
thought through with attention
to real-world accessibility and use.
149
448736
3254
주의를 기울이며
이용할 수 있도록 해야 합니다.
07:32
Though at the best circumstances,
150
452991
2544
최상의 상황이라면
07:35
detection tools will be
85 to 95 percent effective,
151
455576
3003
탐지 도구가
85~ 95% 의 효과를 낼 것인데,
07:38
they have to be in the hands
of that first line of defense,
152
458579
2795
그 도구가
최전방 방어선에 있어야만 합니다.
07:41
and they're not, right now.
153
461374
1543
하지만 지금은 그렇지 않습니다.
07:43
So for step one, I've been talking
about detection after the fact.
154
463710
3128
그래서, 첫 번째 단계에서는
사후 탐지에 대해 말씀드렸습니다.
07:46
Step two -- AI is going to be everywhere
in our communication,
155
466838
4462
2단계 -- AI는 창작, 변경, 편집 등
커뮤니케이션의
07:51
creating, changing, editing.
156
471300
2169
모든 곳에 사용될 것입니다.
07:53
It's not going to be a simple binary
of "yes, it's AI" or "phew, it's not."
157
473469
4755
“네, AI예요”, “휴, 아니에요”의
단순한 이진법이 아닐 겁니다.
07:58
AI is part of all of our communication,
158
478224
3086
AI는 모든 커뮤니케이션의 일부이므로
08:01
so we need to better understand
the recipe of what we're consuming.
159
481352
4046
우리가 소비하는 식품의 제조법을
더 잘 이해해야 합니다.
08:06
Some people call this
content provenance and disclosure.
160
486232
3754
어떤 사람들은 이를
콘텐츠 출처 및 공개라고 부릅니다.
08:10
Technologists have been building ways
to add invisible watermarking
161
490028
3503
기술자들은 AI 생성 미디어에
보이지 않는 워터마킹을
08:13
to AI-generated media.
162
493573
1877
추가하는 방법을 개발해 왔습니다.
08:15
They've also been designing ways --
163
495491
1752
또한 C2PA라는 표준 내에서
08:17
and I've been part of these efforts --
164
497243
1877
암호화된 방식으로 서명된
08:19
within a standard called the C2PA,
165
499162
1710
메타데이터를 파일에 추가하는 방법을
08:20
to add cryptographically signed
metadata to files.
166
500872
2669
설계하고 있으며
저도 이러한 노력에 참여했습니다.
08:24
This means data that provides details
about the content,
167
504125
4379
이는 콘텐츠에 대한 세부 정보를 제공하고
해당정보에 대한
08:28
cryptographically signed
in a way that reinforces our trust
168
508546
3712
우리의 신뢰를 강화하는 방식으로
암호화 방식으로 서명된 데이터를
08:32
in that information.
169
512300
1501
의미합니다.
08:33
It's an updating record
of how AI was used to create or edit it,
170
513801
5297
AI를 사용하여
콘텐츠를 만들거나 편집한 방법,
08:39
where humans and other
technologies were involved,
171
519098
2670
사람과 다른 기술이 사용된 곳,
배포 방식에 대한
08:41
and how it was distributed.
172
521809
1919
최신 기록입니다.
08:43
It's basically a recipe
and serving instructions
173
523770
3003
이는 기본적으로
여러분이 보고 듣는 것에 사용되는
08:46
for the mix of AI and human
174
526814
1961
AI와 인간을 혼합하기 위한
08:48
that's in what you're seeing and hearing.
175
528816
2336
레시피이자 설명서입니다.
08:51
And it's a critical part of a new
AI-infused media literacy.
176
531903
4462
그리고 이는 새로운 AI 기반
미디어 리터러시의 중요한 부분입니다.
08:57
And this actually
shouldn't sound that crazy.
177
537116
2461
사실 이게 그렇게 이상하게
들리지는 않을 거예요.
08:59
Our communication is moving
in this direction already.
178
539577
3212
우리의 커뮤니케이션은 이미
이 방향으로 나아가고 있습니다.
09:02
If you're like me -- you can admit it --
179
542789
2002
저와 같은 분이라면 인정하실 겁니다.
09:04
you browse your TikTok “For You” page,
180
544832
2419
틱톡 “For You”를 둘러보면
09:07
and you're used to seeing videos
that have an audio source,
181
547251
4213
오디오 소스, AI 필터,
그린 스크린, 배경,
09:11
an AI filter, a green screen,
a background,
182
551464
2419
다른 편집이 있는
스티치가 있는 동영상을 보는 데
09:13
a stitch with another edit.
183
553883
1752
익숙할 것입니다.
09:15
This, in some sense, is the alpha version
of this transparency
184
555676
3337
어떤 의미에서는
이것이 오늘날 우리가 사용하는
09:19
in some of the major
platforms we use today.
185
559055
2377
주요 플랫폼들이 가진 투명성의
알파 버전이라고 할 수 있습니다.
09:21
It's just that it does not yet travel
across the internet,
186
561474
2753
단지 아직 인터넷을 통해
전송되지 않았다는 것 뿐입니다.
09:24
it’s not reliable, updatable,
and it’s not secure.
187
564268
3128
신뢰할 수도, 업데이트 할 수도 없고
안전하지도 않습니다.
09:27
Now, there are also big challenges
188
567980
2628
하지만 이러한 유형의 인프라에는
09:30
in this type of infrastructure
for authenticity.
189
570650
2544
신뢰성에 대한
큰 과제도 있습니다.
09:34
As we create these durable signs
of how AI and human were mixed,
190
574278
4088
AI와 인간이 어떻게 혼합되었는지,
미디어가 어떻게 만들어지는지 보여주는
09:38
that carry across the trajectory
of how media is made,
191
578366
3086
궤적을 가로지르는 이러한 흔적을
지속적으로 만들어내고 있기 때문에,
09:41
we need to ensure they don't compromise
privacy or backfire globally.
192
581494
4129
미디어가 세계적으로 사생활을 침해하거나
역효과를 내지 않도록 해야 합니다.
09:46
We have to get this right.
193
586249
1710
우리는 이 문제를 바로 잡아야 합니다.
09:48
We can't oblige a citizen journalist
filming in a repressive context
194
588584
4255
우리는 억압적인 상황에서 촬영하는
시민 저널리스트나
09:52
or a satirical maker
using novel gen-AI tools
195
592839
3169
새로운 Gen-AI 도구를 사용하여
힘있는 사람들을 패러디하는
09:56
to parody the powerful ...
196
596008
1252
풍자적 제작자에게
09:58
to have to disclose their identity
or personally identifiable information
197
598845
4879
카메라나 챗GPT를 사용하기 위해
신원이나 개인 식별 정보를 공개하라고
10:03
in order to use their camera or ChatGPT.
198
603766
2961
강요할 수 없습니다.
10:08
Because it's important they be able
to retain their ability to have anonymity,
199
608312
3712
그들이 익명성을
유지할 수 있으면서도
10:12
at the same time as the tool
to create is transparent.
200
612066
3378
동시에 제작을 위한 도구가 투명한것이
중요하기 떄문입니다.
10:16
This needs to be about the how
of AI-human media making,
201
616112
4171
이것은 AI-Human 미디어 제작이
누가 만드느냐가 아니라
10:20
not the who.
202
620283
1167
어떻게 만드는지에 대한 것이어야 합니다.
10:22
This brings me to the final step.
203
622952
2211
이제 마지막 단계로 넘어가죠.
10:25
None of this works
without a pipeline of responsibility
204
625163
4462
책임감 있는
파이프라인이 없으면
10:29
that runs from the foundation models
and the open-source projects
205
629667
4254
기본 모델 및 오픈 소스 프로젝트부터
시스템, API 및 앱에 배포되는 방식,
10:33
through to the way that is deployed
into systems, APIs and apps,
206
633963
4213
미디어를 소비하고 커뮤니케이션하는
플랫폼에 이르기까지
10:38
to the platforms where we consume
media and communicate.
207
638217
3379
이 모든 것이
작동하지 않습니다.
10:43
I've spent much of the last 15 years
fighting, essentially, a rearguard action,
208
643139
4171
저는 지난 15년 동안
인권계에 있는 다른 많은 동료들처럼
10:47
like so many of my colleagues
in the human rights world,
209
647310
2919
근본적으로 소셜 미디어의 실패에 맞서
후위적 조치를 취하기 위해
10:50
against the failures of social media.
210
650229
2169
싸워왔습니다.
10:52
We can't make those mistakes again
in this next generation of technology.
211
652899
5380
이 차세대 기술에서는 이런 실수를
다시 저지를 수 없습니다.
10:59
What this means is that governments
212
659572
1835
이것이 의미하는 바는
11:01
need to ensure that within this pipeline
of responsibility for AI,
213
661449
4254
정부가 AI에 대한
책임 파이프라인 내에서
11:05
there is transparency,
accountability and liability.
214
665703
3253
투명성과 책임성을
보장해야 한다는 것입니다.
11:10
Without these three steps --
215
670666
2086
이 세 단계, 즉
11:12
detection for the people who need it most,
216
672793
3129
가장 필요로 하는 사람들을 위한 탐지,
11:15
provenance that is rights-respecting
217
675922
2502
권리를 존중하는 증명,
11:18
and that pipeline of responsibility,
218
678466
2169
책임 파이프라인 없이는
11:20
we're going to get stuck looking in vain
for the six-fingered hand,
219
680635
3545
여섯 손가락의 손이나
깜박이지 않는 눈을 찾느라
11:24
or the eyes that don't blink.
220
684222
1543
헛수고만 남게 될 것입니다.
11:26
We need to take these steps.
221
686390
1836
우리는 이러한 조치를 취해야 합니다.
11:28
Otherwise, we risk a world
where it gets easier and easier
222
688226
3294
그렇지 않으면 현실을 속이고
현실을 잠재적으로
11:31
to both fake reality
223
691520
1502
위조된 것으로 치부하는 것이 쉬워져
11:33
and dismiss reality as potentially faked.
224
693064
2669
세상을 위험에 빠뜨릴 수 있습니다.
11:36
And that is a world that the political
philosopher Hannah Arendt
225
696234
3086
이것이 바로 정치 철학자
한나 아렌트가 이런 용어로
11:39
described in these terms:
226
699320
1460
묘사한 세계입니다.
11:40
"A people that no longer
can believe anything
227
700821
2628
“더 이상 아무것도
믿을 수 없는 사람들은
11:43
cannot make up its own mind.
228
703491
2294
스스로 결정을 내릴 수 없습니다.
11:45
It is deprived not only
of its capacity to act
229
705785
3211
인간의
행동 능력뿐 아니라
11:48
but also of its capacity
to think and to judge.
230
708996
3504
사고하고 판단하는 능력도
박탈당했습니다.
11:52
And with such a people
you can then do what you please."
231
712959
3211
그리고 그런 사람들과 함께라면
마음대로 할 수 있습니다.”
11:56
That's a world I know none of us want,
232
716712
2044
우리 중 누구도 원하지 않는 세상이죠.
11:58
that I think we can prevent.
233
718798
2002
우리가 막을 수 있다고 생각합니다.
12:00
Thanks.
234
720800
1168
고마워요.
12:02
(Cheers and applause)
235
722009
2544
(환호와 박수)
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.