When AI Can Fake Reality, Who Can You Trust? | Sam Gregory | TED

131,836 views ・ 2023-12-26

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: JISU BANG 검토: Hyunjin Lee
00:03
It's getting harder, isn't it, to spot real from fake,
0
3583
3879
진짜와 가짜, AI가 만든 것과 사람이 만든 것을 구별하기가
00:07
AI-generated from human-generated.
1
7504
2252
점점 더 어려워지고 있지 않나요?
00:10
With generative AI,
2
10340
1126
생성형 AI와
00:11
along with other advances in deep fakery,
3
11508
2419
다른 딥페이크 기술이 발달함에 따라,
00:13
it doesn't take many seconds of your voice,
4
13969
2252
여러분의 복제품을 만드는데 필요한
00:16
many images of your face,
5
16263
1459
여러분의 음성과 사진은
00:17
to fake you,
6
17764
1251
더 적게 필요하게 되고
00:19
and the realism keeps increasing.
7
19015
2628
현실감은 더욱 증가하고 있습니다.
00:21
I first started working on deepfakes in 2017,
8
21685
3086
제가 딥페이크 연구를 처음 시작한 때는 2017년도 입니다.
00:24
when the threat to our trust in information was overhyped,
9
24813
3962
그 때는 정보 신용에 대한 우려가 과했었고,
00:28
and the big harm, in reality, was falsified sexual images.
10
28775
3670
현실에서의 큰 피해는 선정적인 이미지 위조였습니다.
00:32
Now that problem keeps growing, harming women and girls worldwide.
11
32904
4171
이제 그 문제는 계속 커져서 전 세계 여성에게 피해를 주고 있죠.
00:38
But also, with advances in generative AI, we're now also approaching a world
12
38159
4713
뿐만 아니라, 생성형 AI의 발전으로 우리는 이제 훨씬 더 쉽게
00:42
where it's broadly easier to make fake reality,
13
42872
3462
거짓 현실을 만들어 낼 수 있을 뿐만 아니라
00:46
but also to dismiss reality as possibly faked.
14
46376
3879
현실이 조작일 거라고 외면하는 세상에 접어들고 있습니다.
00:50
Now, deceptive and malicious audiovisual AI
15
50755
3420
이제, 기만적이고 악의적인 AI 영상이
00:54
is not the root of our societal problems,
16
54217
2669
우리 사회 문제의 근원은 아니더라도
00:56
but it's likely to contribute to them.
17
56928
2252
문제들에 많은 기여를 하고 있습니다.
00:59
Audio clones are proliferating in a range of electoral contexts.
18
59180
4213
다양한 선거 상황에서 복제음성이 급증하고 있습니다.
01:03
"Is it, isn't it" claims cloud human-rights evidence from war zones,
19
63435
5130
“사실인가 아닌가” 하는 주장이 전쟁지역 인권문제 증언에 혼란을 주고,
01:08
sexual deepfakes target women in public and in private,
20
68565
4129
성적 딥페이크는 공적 또는 사적인 곳에서
01:12
and synthetic avatars impersonate news anchors.
21
72736
3336
여성을 표적으로 삼고 있으며, 모조 아바타는 뉴스 앵커를 모방합니다.
01:16
I lead WITNESS.
22
76656
1460
저는 WITNESS를 이끌고 있고,
01:18
We're a human-rights group
23
78116
1376
저희는 사람들이 비디오기술을 사용해
01:19
that helps people use video and technology to protect and defend their rights.
24
79492
3671
자신의 권리를 보호하고 지키도록 돕는 인권 단체입니다.
01:23
And for the last five years, we've coordinated a global effort,
25
83163
3003
그리고 지난 5년 동안 우리는 현실을 조작하고 합성하는
01:26
"Prepare, Don't Panic,"
26
86333
1167
이러한 새로운 방법과
01:27
around these new ways to manipulate and synthesize reality,
27
87500
3045
일선 언론인과 인권옹호자들의 진실을 강화하는 방법을 중심으로
01:30
and on how to fortify the truth
28
90587
2377
“당황하지 말고, 준비하라.”라는
01:32
of critical frontline journalists and human-rights defenders.
29
92964
3420
전 세계적 노력을 기울여 왔습니다.
01:37
Now, one element in that is a deepfakes rapid-response task force,
30
97218
5423
그 노력 중 하나가 바로 딥페이크 신속 대응 전담 조직이고,
01:42
made up of media-forensics experts
31
102641
2127
이는 미디어 포렌식 전문가와
01:44
and companies who donate their time and skills
32
104768
2168
딥페이크 의혹을 밝혀내기 위해
01:46
to debunk deepfakes and claims of deepfakes.
33
106978
3087
기술과 시간을 할애하는 기업들로 구성되어 있습니다.
01:50
The task force recently received three audio clips,
34
110899
3211
이 전담 팀은 최근 수단, 서아프리카, 인도로부터
01:54
from Sudan, West Africa and India.
35
114110
2670
세 개의 오디오 클립을 받았습니다.
01:57
People were claiming that the clips were deepfaked, not real.
36
117155
3879
사람들은 오디오 클립이 진짜가 아닌 조작된 클립이라고 주장했습니다.
02:01
In the Sudan case,
37
121451
1210
수단의 경우,
02:02
experts used a machine-learning algorithm
38
122702
2002
전문가들이 100만 개 이상의
02:04
trained on over a million examples of synthetic speech
39
124746
2628
합성 음성 예제를 학습한 머신 러닝 알고리즘을 사용하여
02:07
to prove, almost without a shadow of a doubt,
40
127374
2294
대부분 의심의 여지 없이 그 클립이 진짜임을
02:09
that it was authentic.
41
129709
1335
증명했습니다.
02:11
In the West Africa case,
42
131586
1835
서아프리카의 경우,
02:13
they couldn't reach a definitive conclusion
43
133463
2002
트위터에서 나오는 오디오를 분석하는 데
02:15
because of the challenges of analyzing audio from Twitter,
44
135507
2794
배경 소음 문제 때문에 확실한 결론에
02:18
and with background noise.
45
138301
1752
도달할 수 없었습니다.
02:20
The third clip was leaked audio of a politician from India.
46
140095
3712
세 번째 클립은 인도 정치인 음성의 유출본이었습니다.
02:23
Nilesh Christopher of “Rest of World” brought the case to the task force.
47
143848
3796
“Rest of World”의 닐레쉬 크리스토퍼는 사건을 제출했고
02:27
The experts used almost an hour of samples
48
147644
2961
전문가들은 1시간 분량의 샘플을 사용해
02:30
to develop a personalized model of the politician's authentic voice.
49
150605
3879
정치인의 실제 목소리를 담은 맞춤형 모델을 개발했습니다.
02:35
Despite his loud and fast claims that it was all falsified with AI,
50
155151
4380
모든 게 AI로 위조됐다는 정치인의 강건한 주장에도 불구하고,
02:39
experts concluded that it at least was partially real, not AI.
51
159572
4255
전문가들은 최소한 부분적으로 AI가 아니라고 결론을 내렸습니다.
02:44
As you can see,
52
164369
1335
보시다시피,
02:45
even experts cannot rapidly and conclusively separate true from false,
53
165745
5089
전문가들조차 진실과 거짓을 빠르고 확실하게 구별할 수 없고,
02:50
and the ease of calling "that's deepfaked" on something real
54
170875
4421
진짜를 “딥페이크”라고 하는 상황이
02:55
is increasing.
55
175296
1168
점점 늘어나고 있습니다.
02:57
The future is full of profound challenges,
56
177132
2002
미래는 진실을 보호하고,
02:59
both in protecting the real and detecting the fake.
57
179175
3420
거짓을 색출하는 중대한 문제들로 가득합니다.
03:03
We're already seeing the warning signs
58
183888
1919
우리는 이미 사실과 허구를 분별하는
03:05
of this challenge of discerning fact from fiction.
59
185807
2711
문제의 경고 신호를 보고 있습니다.
03:08
Audio and video deepfakes have targeted politicians,
60
188560
3128
오디오 및 비디오 딥페이크는
03:11
major political leaders in the EU, Turkey and Mexico,
61
191688
3587
EU의 주요 정치 지도자, 터키, 멕시코의 주요 정치 지도자,
03:15
and US mayoral candidates.
62
195316
1710
미국 시장 후보를 표적으로 삼았습니다.
03:17
Political ads are incorporating footage of events that never happened,
63
197444
3503
정치 광고에는 전혀 일어난 적이 없는 사건의 영상이 포함되고 있으며,
03:20
and people are sharing AI-generated imagery from crisis zones,
64
200947
4546
사람들은 위험 지역에서 AI로 생성한 이미지를
03:25
claiming it to be real.
65
205535
1418
실제라고 주장하며 공유하고 있습니다.
03:27
Now, again, this problem is not entirely new.
66
207454
3211
다시 말씀드리지만, 이 문제는 전혀 새로운 것이 아닙니다.
03:31
The human-rights defenders and journalists I work with
67
211207
2628
저와 함께 일하는 인권 운동가들과 저널리스트들은
03:33
are used to having their stories dismissed,
68
213835
2794
자신들의 이야기를 기각하는 데 익숙합니다.
03:36
and they're used to widespread, deceptive, shallow fakes,
69
216671
3462
또 그들은 광범위하고 기만적인 가짜 동영상과 이미지에 익숙합니다.
03:40
videos and images taken from one context or time or place
70
220175
3670
이는 한 상황이나 시간 또는 장소에서 촬영한 것을
03:43
and claimed as if they're in another,
71
223887
2460
마치 다른 곳에 있는 것 처럼 주장하며
03:46
used to share confusion and spread disinformation.
72
226347
3129
혼란을 일으키고 허위정보를 퍼뜨립니다.
03:49
And of course, we live in a world that is full of partisanship
73
229934
3170
물론 우리는 당파주의와 확증 편향이 가득한
03:53
and plentiful confirmation bias.
74
233146
2127
세상에 살고 있습니다.
03:57
Given all that,
75
237317
1209
이 모든 것을 고려했을 때,
03:58
the last thing we need is a diminishing baseline
76
238526
3045
우리에게 필요한 것은 민주주의가 번영하는
04:01
of the shared, trustworthy information upon which democracies thrive,
77
241613
3962
공유되고 신뢰 가능한 정보들의 기준선 감소이며,
04:05
where the specter of AI
78
245617
1418
여기서 AI의 망령은
04:07
is used to plausibly believe things you want to believe,
79
247076
3462
우리가 믿고 싶은 것은 타당하게 믿고,
04:10
and plausibly deny things you want to ignore.
80
250538
2336
무시하고 싶은 것은 타당하게 무시할 수 있게 하는 겁니다.
04:15
But I think there's a way we can prevent that future,
81
255084
2628
하지만 지금 행동한다면 그 미래를 막을 수 있는 방법이
04:17
if we act now;
82
257754
1501
있다고 생각합니다.
04:19
that if we "Prepare, Don't Panic,"
83
259255
2211
“준비하고, 당황하지 마세요.” 처럼
04:21
we'll kind of make our way through this somehow.
84
261508
3253
우리가 어떻게든 이 문제를 헤쳐나갈 수 있다는 거죠.
04:25
Panic won't serve us well.
85
265929
2627
당황하는 것은 도움이 되지 않아요.
04:28
[It] plays into the hands of governments and corporations
86
268681
2711
이는 우리의 공포를 악용하려는
04:31
who will abuse our fears,
87
271392
1669
정부와 기업의 손에도 영향을 미치며,
04:33
and into the hands of people who want a fog of confusion
88
273102
3045
혼란의 안개를 피해 AI를 핑계로 삼으려는
04:36
and will use AI as an excuse.
89
276147
2461
사람들의 손에도 영향을 미칩니다.
04:40
How many people were taken in, just for a minute,
90
280610
2419
얼마나 많은 사람들이 단 1분 동안
04:43
by the Pope in his dripped-out puffer jacket?
91
283029
2336
롱패팅 재킷을 입은 교황에게 매료되었을까요?
04:45
You can admit it.
92
285406
1168
인정하셔도 됩니다.
04:46
(Laughter)
93
286574
1210
(웃음)
04:47
More seriously,
94
287784
1209
더 진지하게는,
04:49
how many of you know someone who's been scammed
95
289035
2503
얼마나 많은 사람들이 그들의 자녀와 비슷한 목소리로 인해
04:51
by an audio that sounds like their kid?
96
291579
2044
사기를 당했는지 알고 계신가요?
04:54
And for those of you who are thinking "I wasn't taken in,
97
294624
2920
그리고 “난 안 당했어, 딥페이크를 찾아내는 방법을 알아.”
04:57
I know how to spot a deepfake,"
98
297544
1584
라고 생각하는 분들에게 말씀드리자면,
04:59
any tip you know now is already outdated.
99
299170
3003
알고 계신 것들은 이미 예전 것입니다.
05:02
Deepfakes didn't blink, they do now.
100
302757
2544
예전 딥페이크는 눈도 깜빡이지않고
05:06
Six-fingered hands were more common in deepfake land than real life --
101
306177
3587
여섯손가락의 손이 자주 보이곤 했지만
05:09
not so much.
102
309806
1126
지금은 그렇지 않습니다.
05:11
Technical advances erase those visible and audible clues
103
311307
3754
기술의 발전은 가시적이고 청각적인 단서들을 지워버렸습니다.
05:15
that we so desperately want to hang on to
104
315061
2002
우리가 진짜와 가짜를 구별하기 위해
05:17
as proof we can discern real from fake.
105
317105
2252
간절히 매달렸던 증거들을 말이죠
05:20
But it also really shouldn’t be on us to make that guess without any help.
106
320191
4713
하지만 도움 없이 추측을 하는 것이 우리의 몫이 되어서는 안 됩니다.
05:24
Between real deepfakes and claimed deepfakes,
107
324946
2127
실제 딥페이크와 주장이 제기된 딥페이크 사이에는
05:27
we need big-picture, structural solutions.
108
327073
2961
거시적, 구조적인 솔루션이 필요합니다.
05:30
We need robust foundations
109
330034
1502
우리는
05:31
that enable us to discern authentic from simulated,
110
331578
3128
시물레이션과 진짜를 구별할 수 있는 견고한 기반,
05:34
tools to fortify the credibility of critical voices and images,
111
334747
3921
중요한 음성 및 이미지의 신뢰성을 강화하는 도구,
05:38
and powerful detection technology
112
338668
2336
그리고 해결하는 것 보다
05:41
that doesn't raise more doubts than it fixes.
113
341045
2670
더 많은 의심을 불러일으키지 않는 강력한 탐지 기술이 필요합니다.
05:45
There are three steps we need to take to get to that future.
114
345091
3045
이러한 미래를 향해 나아가려면 다음 세 단계를 거쳐야 합니다.
05:48
Step one is to ensure that the detection skills and tools
115
348887
3712
첫 번째 단계는 탐지 기술과 도구들이
05:52
are in the hands of the people who need them.
116
352599
2168
그것을 필요로 하는 사람들에게 이용되도록 하는 것입니다.
05:54
I've talked to hundreds of journalists,
117
354767
2253
저는 수백 명의 언론인,
05:57
community leaders and human-rights defenders,
118
357020
2252
커뮤니티 리더, 인권 운동가들과 이야기를 나눴습니다.
05:59
and they're in the same boat as you and me and us.
119
359272
2919
그들은 여러분과 저, 그리고 우리와 같은 입장에 서 있습니다.
06:02
They're listening to the audio, trying to think, "Can I spot a glitch?"
120
362191
3421
그들은 오디오를 들으며 “결함을 발견할 수 있을까?” 라고 생각하려고 합니다.
06:05
Looking at the image, saying, "Oh, does that look right or not?"
121
365612
3295
이미지를 보며 “아, 이게 맞는건가, 아닌가?” 라고 말합니다.
06:08
Or maybe they're going online to find a detector.
122
368907
3336
아니면 탐지기를 찾기 위해 온라인에 접속할 수도 있겠죠.
06:12
And the detector they find,
123
372285
1335
그리고 그들이 찾아낸 탐지기로는
06:13
they don't know whether they're getting a false positive, a false negative,
124
373661
3545
결과가 위양성인지,위음성인지, 신뢰할 수 있는 결과를 얻었는지
06:17
or a reliable result.
125
377248
1251
알 수 없습니다.
06:18
Here's an example.
126
378541
1168
예를 하나 보여드릴게요.
06:19
I used a detector, which got the Pope in the puffer jacket right.
127
379751
3712
저는 탐지기를 사용했는데, 교황은 패딩을 입으신 게 맞다네요.
06:23
But then, when I put in the Easter bunny image that I made for my kids,
128
383796
4255
그런데 제가 아이들을 위해 만든 부활절 토끼 이미지를 넣었더니
06:28
it said that it was human-generated.
129
388092
1961
사람이 만든 것이라고 하죠.
06:30
This is because of some big challenges in deepfake detection.
130
390637
3253
이는 딥페이크 탐지가 어려운 몇 가지 이유 때문입니다.
06:34
Detection tools often only work on one single way to make a deepfake,
131
394474
3295
탐지 도구는 종종 한 가지 방법으로만 작동하기에
06:37
so you need multiple tools,
132
397769
1543
여러 도구가 필요하며
06:39
and they don't work well on low-quality social media content.
133
399354
4337
품질이 낮은 소셜 미디어 콘텐츠에서는 제대로 작동하지 않습니다.
06:43
Confidence score, 0.76-0.87,
134
403691
3337
신뢰도 점수, 0.76-0.87인 이 기술이
06:47
how do you know whether that's reliable,
135
407028
1919
어떻게 믿을 만 한지 알 수 있을까요.
06:48
if you don't know if the underlying technology is reliable,
136
408988
2795
기본 기술이 믿을 만 한지 알 수 없고,
06:51
or whether it works on the manipulation that is being used?
137
411824
2795
지금 사용되는 조작에 효과적인지 아닌지 알 수 없다면 말이죠.
06:54
And tools to spot an AI manipulation don't spot a manual edit.
138
414661
5046
그리고 AI 조작을 찾아내는 도구로는 수동 편집을 찾아낼 수 없습니다.
07:00
These tools also won't be available to everyone.
139
420583
3587
또한 모든 사람이 이러한 도구를 사용할 수 있는 것은 아닙니다.
07:04
There's a trade-off between security and access,
140
424212
3128
보안과 액세스 사이에는 절충점이 있습니다.
07:07
which means if we make them available to anyone,
141
427382
2544
즉, 누구나 사용할 수 있게 하면
07:09
they become useless to everybody,
142
429926
2586
모든 사람이 사용할 수 없게 됩니다.
07:12
because the people designing the new deception techniques
143
432512
2711
새로운 속임수 기법을 설계하는 사람들이
07:15
will test them on the publicly available detectors
144
435264
3087
공개적으로 사용가능한 탐지기로 이를 테스트하고는
07:18
and evade them.
145
438393
1209
그 탐지망을 피할 것이기 때문입니다.
07:20
But we do need to make sure these are available
146
440061
2920
하지만 우리는 우리의 1차 방어선인
07:22
to the journalists, the community leaders,
147
442981
2085
전 세계 언론인, 커뮤니티 리더,
07:25
the election officials, globally, who are our first line of defense,
148
445108
3628
선거 관계자들이 실제 접근성과 사용에
07:28
thought through with attention to real-world accessibility and use.
149
448736
3254
주의를 기울이며 이용할 수 있도록 해야 합니다.
07:32
Though at the best circumstances,
150
452991
2544
최상의 상황이라면
07:35
detection tools will be 85 to 95 percent effective,
151
455576
3003
탐지 도구가 85~ 95% 의 효과를 낼 것인데,
07:38
they have to be in the hands of that first line of defense,
152
458579
2795
그 도구가 최전방 방어선에 있어야만 합니다.
07:41
and they're not, right now.
153
461374
1543
하지만 지금은 그렇지 않습니다.
07:43
So for step one, I've been talking about detection after the fact.
154
463710
3128
그래서, 첫 번째 단계에서는 사후 탐지에 대해 말씀드렸습니다.
07:46
Step two -- AI is going to be everywhere in our communication,
155
466838
4462
2단계 -- AI는 창작, 변경, 편집 등 커뮤니케이션의
07:51
creating, changing, editing.
156
471300
2169
모든 곳에 사용될 것입니다.
07:53
It's not going to be a simple binary of "yes, it's AI" or "phew, it's not."
157
473469
4755
“네, AI예요”, “휴, 아니에요”의 단순한 이진법이 아닐 겁니다.
07:58
AI is part of all of our communication,
158
478224
3086
AI는 모든 커뮤니케이션의 일부이므로
08:01
so we need to better understand the recipe of what we're consuming.
159
481352
4046
우리가 소비하는 식품의 제조법을 더 잘 이해해야 합니다.
08:06
Some people call this content provenance and disclosure.
160
486232
3754
어떤 사람들은 이를 콘텐츠 출처 및 공개라고 부릅니다.
08:10
Technologists have been building ways to add invisible watermarking
161
490028
3503
기술자들은 AI 생성 미디어에 보이지 않는 워터마킹을
08:13
to AI-generated media.
162
493573
1877
추가하는 방법을 개발해 왔습니다.
08:15
They've also been designing ways --
163
495491
1752
또한 C2PA라는 표준 내에서
08:17
and I've been part of these efforts --
164
497243
1877
암호화된 방식으로 서명된
08:19
within a standard called the C2PA,
165
499162
1710
메타데이터를 파일에 추가하는 방법을
08:20
to add cryptographically signed metadata to files.
166
500872
2669
설계하고 있으며 저도 이러한 노력에 참여했습니다.
08:24
This means data that provides details about the content,
167
504125
4379
이는 콘텐츠에 대한 세부 정보를 제공하고 해당정보에 대한
08:28
cryptographically signed in a way that reinforces our trust
168
508546
3712
우리의 신뢰를 강화하는 방식으로 암호화 방식으로 서명된 데이터를
08:32
in that information.
169
512300
1501
의미합니다.
08:33
It's an updating record of how AI was used to create or edit it,
170
513801
5297
AI를 사용하여 콘텐츠를 만들거나 편집한 방법,
08:39
where humans and other technologies were involved,
171
519098
2670
사람과 다른 기술이 사용된 곳, 배포 방식에 대한
08:41
and how it was distributed.
172
521809
1919
최신 기록입니다.
08:43
It's basically a recipe and serving instructions
173
523770
3003
이는 기본적으로 여러분이 보고 듣는 것에 사용되는
08:46
for the mix of AI and human
174
526814
1961
AI와 인간을 혼합하기 위한
08:48
that's in what you're seeing and hearing.
175
528816
2336
레시피이자 설명서입니다.
08:51
And it's a critical part of a new AI-infused media literacy.
176
531903
4462
그리고 이는 새로운 AI 기반 미디어 리터러시의 중요한 부분입니다.
08:57
And this actually shouldn't sound that crazy.
177
537116
2461
사실 이게 그렇게 이상하게 들리지는 않을 거예요.
08:59
Our communication is moving in this direction already.
178
539577
3212
우리의 커뮤니케이션은 이미 이 방향으로 나아가고 있습니다.
09:02
If you're like me -- you can admit it --
179
542789
2002
저와 같은 분이라면 인정하실 겁니다.
09:04
you browse your TikTok “For You” page,
180
544832
2419
틱톡 “For You”를 둘러보면
09:07
and you're used to seeing videos that have an audio source,
181
547251
4213
오디오 소스, AI 필터, 그린 스크린, 배경,
09:11
an AI filter, a green screen, a background,
182
551464
2419
다른 편집이 있는 스티치가 있는 동영상을 보는 데
09:13
a stitch with another edit.
183
553883
1752
익숙할 것입니다.
09:15
This, in some sense, is the alpha version of this transparency
184
555676
3337
어떤 의미에서는 이것이 오늘날 우리가 사용하는
09:19
in some of the major platforms we use today.
185
559055
2377
주요 플랫폼들이 가진 투명성의 알파 버전이라고 할 수 있습니다.
09:21
It's just that it does not yet travel across the internet,
186
561474
2753
단지 아직 인터넷을 통해 전송되지 않았다는 것 뿐입니다.
09:24
it’s not reliable, updatable, and it’s not secure.
187
564268
3128
신뢰할 수도, 업데이트 할 수도 없고 안전하지도 않습니다.
09:27
Now, there are also big challenges
188
567980
2628
하지만 이러한 유형의 인프라에는
09:30
in this type of infrastructure for authenticity.
189
570650
2544
신뢰성에 대한 큰 과제도 있습니다.
09:34
As we create these durable signs of how AI and human were mixed,
190
574278
4088
AI와 인간이 어떻게 혼합되었는지, 미디어가 어떻게 만들어지는지 보여주는
09:38
that carry across the trajectory of how media is made,
191
578366
3086
궤적을 가로지르는 이러한 흔적을 지속적으로 만들어내고 있기 때문에,
09:41
we need to ensure they don't compromise privacy or backfire globally.
192
581494
4129
미디어가 세계적으로 사생활을 침해하거나 역효과를 내지 않도록 해야 합니다.
09:46
We have to get this right.
193
586249
1710
우리는 이 문제를 바로 잡아야 합니다.
09:48
We can't oblige a citizen journalist filming in a repressive context
194
588584
4255
우리는 억압적인 상황에서 촬영하는 시민 저널리스트나
09:52
or a satirical maker using novel gen-AI tools
195
592839
3169
새로운 Gen-AI 도구를 사용하여 힘있는 사람들을 패러디하는
09:56
to parody the powerful ...
196
596008
1252
풍자적 제작자에게
09:58
to have to disclose their identity or personally identifiable information
197
598845
4879
카메라나 챗GPT를 사용하기 위해 신원이나 개인 식별 정보를 공개하라고
10:03
in order to use their camera or ChatGPT.
198
603766
2961
강요할 수 없습니다.
10:08
Because it's important they be able to retain their ability to have anonymity,
199
608312
3712
그들이 익명성을 유지할 수 있으면서도
10:12
at the same time as the tool to create is transparent.
200
612066
3378
동시에 제작을 위한 도구가 투명한것이 중요하기 떄문입니다.
10:16
This needs to be about the how of AI-human media making,
201
616112
4171
이것은 AI-Human 미디어 제작이 누가 만드느냐가 아니라
10:20
not the who.
202
620283
1167
어떻게 만드는지에 대한 것이어야 합니다.
10:22
This brings me to the final step.
203
622952
2211
이제 마지막 단계로 넘어가죠.
10:25
None of this works without a pipeline of responsibility
204
625163
4462
책임감 있는 파이프라인이 없으면
10:29
that runs from the foundation models and the open-source projects
205
629667
4254
기본 모델 및 오픈 소스 프로젝트부터 시스템, API 및 앱에 배포되는 방식,
10:33
through to the way that is deployed into systems, APIs and apps,
206
633963
4213
미디어를 소비하고 커뮤니케이션하는 플랫폼에 이르기까지
10:38
to the platforms where we consume media and communicate.
207
638217
3379
이 모든 것이 작동하지 않습니다.
10:43
I've spent much of the last 15 years fighting, essentially, a rearguard action,
208
643139
4171
저는 지난 15년 동안 인권계에 있는 다른 많은 동료들처럼
10:47
like so many of my colleagues in the human rights world,
209
647310
2919
근본적으로 소셜 미디어의 실패에 맞서 후위적 조치를 취하기 위해
10:50
against the failures of social media.
210
650229
2169
싸워왔습니다.
10:52
We can't make those mistakes again in this next generation of technology.
211
652899
5380
이 차세대 기술에서는 이런 실수를 다시 저지를 수 없습니다.
10:59
What this means is that governments
212
659572
1835
이것이 의미하는 바는
11:01
need to ensure that within this pipeline of responsibility for AI,
213
661449
4254
정부가 AI에 대한 책임 파이프라인 내에서
11:05
there is transparency, accountability and liability.
214
665703
3253
투명성과 책임성을 보장해야 한다는 것입니다.
11:10
Without these three steps --
215
670666
2086
이 세 단계, 즉
11:12
detection for the people who need it most,
216
672793
3129
가장 필요로 하는 사람들을 위한 탐지,
11:15
provenance that is rights-respecting
217
675922
2502
권리를 존중하는 증명,
11:18
and that pipeline of responsibility,
218
678466
2169
책임 파이프라인 없이는
11:20
we're going to get stuck looking in vain for the six-fingered hand,
219
680635
3545
여섯 손가락의 손이나 깜박이지 않는 눈을 찾느라
11:24
or the eyes that don't blink.
220
684222
1543
헛수고만 남게 될 것입니다.
11:26
We need to take these steps.
221
686390
1836
우리는 이러한 조치를 취해야 합니다.
11:28
Otherwise, we risk a world where it gets easier and easier
222
688226
3294
그렇지 않으면 현실을 속이고 현실을 잠재적으로
11:31
to both fake reality
223
691520
1502
위조된 것으로 치부하는 것이 쉬워져
11:33
and dismiss reality as potentially faked.
224
693064
2669
세상을 위험에 빠뜨릴 수 있습니다.
11:36
And that is a world that the political philosopher Hannah Arendt
225
696234
3086
이것이 바로 정치 철학자 한나 아렌트가 이런 용어로
11:39
described in these terms:
226
699320
1460
묘사한 세계입니다.
11:40
"A people that no longer can believe anything
227
700821
2628
“더 이상 아무것도 믿을 수 없는 사람들은
11:43
cannot make up its own mind.
228
703491
2294
스스로 결정을 내릴 수 없습니다.
11:45
It is deprived not only of its capacity to act
229
705785
3211
인간의 행동 능력뿐 아니라
11:48
but also of its capacity to think and to judge.
230
708996
3504
사고하고 판단하는 능력도 박탈당했습니다.
11:52
And with such a people you can then do what you please."
231
712959
3211
그리고 그런 사람들과 함께라면 마음대로 할 수 있습니다.”
11:56
That's a world I know none of us want,
232
716712
2044
우리 중 누구도 원하지 않는 세상이죠.
11:58
that I think we can prevent.
233
718798
2002
우리가 막을 수 있다고 생각합니다.
12:00
Thanks.
234
720800
1168
고마워요.
12:02
(Cheers and applause)
235
722009
2544
(환호와 박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7