What you need to know about face surveillance | Kade Crockford

141,735 views ・ 2020-05-29

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Chanhong Park 검토: Jihyeon J. Kim
00:12
How many of you have ever heard someone say
0
12643
2048
사생활은 사라졌다고 들어보신 분들 몇 분이나 계신가요?
00:14
privacy is dead?
1
14715
1166
00:15
Raise your hand.
2
15905
1150
손 들어보세요.
00:17
How many of you have heard someone say
3
17849
2460
자신은 숨길 게 없기 때문에
00:20
they don't care about their privacy because they don't have anything to hide?
4
20333
3934
자신의 사생활에 대해 신경쓰지 않는다는 사람들을 본 적 있나요?
00:24
Go on.
5
24665
1160
들어보세요.
00:25
(Laughter)
6
25849
1442
(웃음)
00:27
Now, how many of you use any kind of encryption software?
7
27721
4256
암호화 소프트웨어를 사용해보신 분은 몇이나 계신가요?
00:32
Raise your hand.
8
32283
1151
손 들어보세요.
00:33
Or a password to protect an online account?
9
33458
3347
온라인 계정을 보호하기 위해 비밀번호를 사용하시는 분은요?
00:37
Or curtains or blinds on your windows at home?
10
37529
3920
집에서 커튼으로 가리시는 분도 계신가요?
00:41
(Laughter)
11
41473
1556
(웃음)
00:43
OK, so that's everyone, I think.
12
43053
2033
다들 그러시는 것 같네요.
00:45
(Laughter)
13
45110
1150
(웃음)
00:46
So why do you do these things?
14
46752
2000
그럼 왜들 그러시는 건가요?
00:49
My guess is,
15
49165
1151
제 생각엔
00:50
it's because you care about your privacy.
16
50340
2388
자신의 사생활을 보호하기 위해서입니다.
00:52
The idea that privacy is dead is a myth.
17
52752
2999
사생활이 사라졌다는 말은 근거 없는 믿음입니다.
00:55
The idea that people don't care about their privacy
18
55775
2738
자기 사생활을 보호에 신경쓰지 않는 이유가
00:58
because "they have nothing to hide"
19
58537
1700
숨길 게 없어서라든가
01:00
or they've done nothing wrong
20
60261
1642
잘못한 게 없다는 생각도
01:01
is also a myth.
21
61927
1243
마찬가지로 근거 없는 믿음입니다.
01:04
I'm guessing that you would not want to publicly share on the internet,
22
64433
4063
여러분들은 자신의 모든 의료기록이 누구나 볼 수 있게
01:08
for the world to see,
23
68520
1412
인터넷에 공유되는 것을
01:09
all of your medical records.
24
69956
1802
원하지 않을 겁니다.
01:11
Or your search histories from your phone or your computer.
25
71782
3436
또는 휴대 전화나 컴퓨터의 검색기록도요.
01:16
And I bet
26
76289
1206
그리고
01:17
that if the government wanted to put a chip in your brain
27
77519
2674
정부가 여러분의 머릿속에 칩을 심어
01:20
to transmit every one of your thoughts to a centralized government computer,
28
80217
4638
생각을 속속들이 정부 중앙 컴퓨터로 전송하는 것도
01:24
you would balk at that.
29
84879
1485
꺼리실 거라 장담합니다.
01:26
(Laughter)
30
86388
2435
(웃음)
01:28
That's because you care about your privacy,
31
88847
2008
그렇기 때문에 여러분들은 사생활을 지키려 한다는 겁니다,
01:30
like every human being.
32
90879
1533
다른 모든 사람들처럼요.
01:33
So, our world has changed fast.
33
93347
2744
세계는 빠르게 변화하고 있습니다.
01:36
And today, there is understandably a lot of confusion
34
96395
3833
당연하게도 사생활의 정의와 그것이 왜 중요한지에 대해
01:40
about what privacy is and why it matters.
35
100252
3142
오늘날 많은 논란이 있습니다.
01:44
Privacy is not secrecy.
36
104260
1864
사생활이 곧 비밀은 아닙니다.
01:46
It's control.
37
106490
1166
사생활이란 통제하는 겁니다.
01:48
I share information with my doctor about my body and my health,
38
108817
3920
저는 제 신체와 건강에 대한 정보를 의사와 공유하지만
01:52
expecting that she is not going to turn around
39
112761
2476
의사가 그 정보를 제 부모님이나
01:55
and share that information with my parents,
40
115261
3110
직장 또는 제 아이에게
01:58
or my boss or my kids.
41
118395
2126
알리게 하지는 않습니다.
02:01
That information is private, not secret.
42
121585
2539
이런 정보는 비밀이 아니라 사생활입니다.
02:05
I'm in control over how that information is shared.
43
125085
3257
제 정보가 어디까지 공유되는지 스스로 통제가 가능합니다.
02:09
You've probably heard people say that there's a fundamental tension
44
129686
3159
여러분은 사생활과 보안 사이에
02:12
between privacy on the one hand
45
132869
1762
근본적으로 긴장상태가 존재한다는
02:14
and safety on the other.
46
134655
2023
주장을 들어보셨을 겁니다.
02:17
But the technologies that advance our privacy
47
137963
2532
하지만 과학기술은 사생활 보호뿐 아니라
02:20
also advance our safety.
48
140519
1579
보안도 향상시켰습니다.
02:22
Think about fences, door locks,
49
142122
2421
담장이나, 도어록,
02:24
curtains on our windows, passwords,
50
144567
2753
창문 커튼, 비밀번호,
02:27
encryption software.
51
147344
1333
암호화 소프트웨어 같은 거죠.
02:29
All of these technologies
52
149522
1491
이 모든 기술들은
02:31
simultaneously protect our privacy and our safety.
53
151037
4325
사생활과 보안을 동시에 지켜줍니다.
02:36
Dragnet surveillance, on the other hand, protects neither.
54
156910
3493
반면 저인망식 감시는 그렇지 않습니다.
02:41
In recent years,
55
161486
1166
최근 몇 년,
02:42
the federal government tasked a group of experts
56
162676
2921
정부는 사생활 보호 및 시민 자유 검토 위원회라는
02:45
called The Privacy and Civil Liberties Oversight Board
57
165621
2936
전문가들에게 9.11사건 이후의
02:48
with examining post-9/11 government surveillance programs,
58
168581
3322
정부 감시 프로그램을 검토하도록 지시했습니다,
02:51
dragnet surveillance programs.
59
171927
1956
저인망식 감시 프로그램이죠.
02:54
Those experts could not find a single example
60
174307
3135
전문가들은 이 프로그램이 안전을 보장해준다는
02:57
of that dragnet surveillance advancing any safety --
61
177466
3784
단 하나의 사례도 찾지 못 했습니다.
03:01
didn't identify or stop a single terrorist attack.
62
181274
2867
터레러리스트의 공격을 사전에 예방하지도 못했고요.
03:05
You know what that information was useful for, though?
63
185369
2881
수집된 정보가 어디에 유용했을까요?
03:08
Helping NSA employees spy on their romantic interests.
64
188274
3157
NSA 직원들이 연애상대를 감시하는 데는 좋았죠.
03:11
(Laughter)
65
191455
1141
(웃음)
03:12
(Audience: Wow.)
66
192620
1301
(청중: 와.)
03:14
Another example is closer to home.
67
194892
1690
또 다른 사례는 가정과 밀접합니다.
03:16
So millions of people across the United States and the world
68
196606
2858
미국과 전 세계에서 수백 만 명이
03:19
are adopting so-called "smart home" devices,
69
199488
2288
인터넷으로 연결된 감시 카메라 같은
03:21
like internet-connected surveillance cameras.
70
201800
2563
"스마트 홈'이라는 장치를 사용합니다.
03:24
But we know that any technology connected to the internet
71
204712
3262
하지만 인터넷이 연결되어 있다면
03:27
can be hacked.
72
207998
1150
해킹당할 수도 있죠.
03:30
And so if a hacker
73
210514
1714
그래서 만약 해커가
03:32
gets into your internet-connected surveillance camera at home,
74
212252
3302
인터넷에 연결된 가정용 감시 카메라를 해킹하게 되면,
03:35
they can watch you and your family coming and going,
75
215578
2698
여러분이나 가족이 드나드는 것을 볼 수 있을 거고,
03:38
finding just the right time to strike.
76
218300
2448
침입하기 좋은 시간을 알 수 있겠죠.
03:41
You know what can't be hacked remotely?
77
221553
2309
해킹되지 않는 게 뭔지 아세요?
03:44
Curtains.
78
224418
1156
커튼입니다.
03:45
(Laughter)
79
225598
1001
(웃음)
03:46
Fences.
80
226623
1414
담장과
03:48
Door locks.
81
228061
1160
문 잠금장치가 있죠
03:49
(Laughter)
82
229245
1141
(웃음)
03:50
Privacy is not the enemy of safety.
83
230410
2346
사생활은 안전의 적이 아닙니다.
03:53
It is its guarantor.
84
233113
1452
보증인이죠.
03:56
Nonetheless, we daily face a propaganda onslaught
85
236129
3985
그럼에도 감시 프로그램에 의해 사생활이 침해되는 것이
04:00
telling us that we have to give up some privacy in exchange for safety
86
240138
4090
안전의 대가로 당연하다는 선전물을
04:04
through surveillance programs.
87
244252
2000
우린 매일 마주합니다.
04:07
Face surveillance is the most dangerous of these technologies.
88
247085
3999
여러 기술 중 가장 위험한 것이 안면 인식 감시 기술입니다.
04:11
There are two primary ways today governments use technologies like this.
89
251966
5167
정부는 현재 이 기술에 주로 두 가지 방법을 사용합니다.
04:17
One is face recognition.
90
257157
1753
첫 번째는 안면 인식입니다.
04:19
That's to identify someone in an image.
91
259243
2271
사진 속의 인물을 특정하는 겁니다.
04:21
The second is face surveillance,
92
261538
2833
두 번째는 안면 감시인데,
04:24
which can be used in concert
93
264395
2055
콘서트장에서 조차
04:26
with surveillance-camera networks and databases
94
266474
2856
감시카메라 네크워크와 데이터베이스를 통해
04:29
to create records of all people's public movements,
95
269354
3477
모든 사람들의 행동과 습성, 상호교류 등을 기록할 수 있습니다.
04:32
habits and associations,
96
272855
2405
04:35
effectively creating a digital panopticon.
97
275284
2912
효과적으로 디지털 원형 교도소를 설계하는 겁니다.
04:38
This is a panopticon.
98
278903
1857
이게 원형 교도소입니다.
04:40
It's a prison designed to allow a few guards in the center
99
280784
4222
중앙에 있는 교도관들이 주위의 모든 감방에서 일어나는
04:45
to monitor everything happening in the cells around the perimeter.
100
285030
3944
모든 일을 감시할 수 있도록 설계된 교도소입니다.
04:49
The people in those prison cells can't see inside the guard tower,
101
289482
4667
이 감방의 수감자들은 감시탑 내부를 볼 수 없지만,
04:54
but the guards can see into every inch of those cells.
102
294173
3666
교도관들은 감방 구석구석을 감시할 수 있습니다.
04:59
The idea here
103
299268
2055
여기서 생각할 수 있는 것은
05:01
is that if the people in those prison cells
104
301347
2595
만약 이 감방의 수감자들이
05:03
know they're being watched all the time,
105
303966
1929
자신이 항상 감시당하고 있거나,
05:05
or could be,
106
305919
1460
그럴 수 있다는 것을 안다면,
05:07
they'll behave accordingly.
107
307403
1968
그에 부응해 행동할 겁니다.
05:09
Similarly, face surveillance enables a centralized authority --
108
309395
3774
마찬가지로, 안면 감시 역시 집중된 권한을 부여합니다.
05:13
in this case, the state --
109
313193
1884
정부에게 말이죠.
05:15
to monitor the totality of human movement and association
110
315101
3357
공공장소에서의 사람들의 움직임과 상호교류를 완벽히
05:18
in public space.
111
318482
1150
지켜볼 수 있습니다.
05:20
And here's what it looks like
112
320053
1397
현실세계에서의 모습은 이렇습니다.
05:21
in real life.
113
321474
1372
05:22
In this case, it's not a guard in a tower,
114
322870
2802
이 경우는 감시탑의 교도관이 아니라,
05:25
but rather a police analyst in a spy center.
115
325696
3278
경찰 관제센터의 영상분석가들입니다.
05:29
The prison expands beyond its walls,
116
329506
3150
교도소는 그 영역을 확장해,
05:32
encompassing everyone,
117
332680
1882
언제 어디서든 모든 사람을
05:34
everywhere, all the time.
118
334586
2491
가두둘 수 있게 된 겁니다.
05:38
In a free society,
119
338189
1309
자유사회에서,
05:39
this should terrify us all.
120
339522
2404
이는 분명 모두에게 위협적입니다.
05:43
For decades now, we've watched cop shows
121
343927
2390
수십 년간, 경찰드라마에서는
05:46
that push a narrative that says
122
346341
1722
안면 감시 같은 기술들이
05:48
technologies like face surveillance ultimately serve the public good.
123
348087
3740
궁극적으로 공공의 이익을 지켜주는 것처럼 비쳤습니다.
05:52
But real life is not a cop drama.
124
352419
2200
하지만 현실은 드라마가 아닙니다.
05:56
The bad guy didn't always do it,
125
356149
1968
나쁜 사람이라고 해서 항상 나쁜 일을 하는 것도 아니고,
05:58
the cops definitely aren't always the good guys
126
358141
3269
경찰이라고 해서 모두 좋은 사람은 아닙니다.
06:01
and the technology doesn't always work.
127
361434
2600
기술이 항상 제대로 기능하는 것도 아니죠.
06:04
Take the case of Steve Talley,
128
364602
1896
콜로라도의 재무분석가,
06:06
a financial analyst from Colorado.
129
366522
2492
스티브 탤리의 사례를 보죠.
06:09
In 2015, Talley was arrested, and he was charged with bank robbery
130
369038
3905
2015년, 탤리는 은행강도 혐의로 체포됐는데
06:12
on the basis of an error in a facial recognition system.
131
372967
3288
안면 인식 시스템의 오류 때문이었습니다.
06:16
Talley fought that case
132
376985
1183
탤리는 소송을 통해
06:18
and he eventually was cleared of those charges,
133
378192
2222
결국 혐의를 벗었지만,
06:20
but while he was being persecuted by the state,
134
380438
2594
주정부에 의해 기소되는 동안,
06:23
he lost his house, his job and his kids.
135
383056
3511
집과 직장, 아이들을 잃었습니다.
06:27
Steve Talley's case is an example
136
387941
1677
스티브 탤리의 사례는
06:29
of what can happen when the technology fails.
137
389642
2501
기술의 오류로 생길 수 있는 문제들 중 하나입니다.
06:33
But face surveillance is just as dangerous when it works as advertized.
138
393219
4248
하지만 안면 감시는 정상적으로 작동해도 위험합니다.
06:38
Just consider how trivial it would be
139
398875
2818
익명의 알콜중독자 모임이 있는
06:41
for a government agency to put a surveillance camera
140
401717
2443
건물 바깥에 정부가 감시카메라를
06:44
outside a building where people meet for Alcoholics Anonymous meetings.
141
404184
3944
설치하는 게 얼마나 손쉬운지 생각해보세요.
06:49
They could connect that camera
142
409194
1522
카메라를 통해
06:50
to a face-surveillance algorithm and a database,
143
410740
2652
안면 감시 알고리즘과 데이터베이스에 접근하면
06:53
press a button and sit back and collect
144
413416
1927
버튼 하나만 누르고 앉아
06:55
a record of every person receiving treatment for alcoholism.
145
415367
3220
알콜중독치료를 받는 모든 참석자들의 정보를 수집할 수 있습니다.
07:00
It would be just as easy for a government agency
146
420204
2307
정부가 이 기술을 여성 행진이나
07:02
to use this technology to automatically identify
147
422535
2629
흑인 민권 운동 참석자들 개개인을
07:05
every person who attended the Women's March
148
425188
2381
자동으로 특정하기 위해 사용하는 것도 아주 쉬울 겁니다.
07:07
or a Black Lives Matter protest.
149
427593
2133
07:11
Even the technology industry is aware of the gravity of this problem.
150
431163
3881
심지어 이쪽 기술 업계도 문제의 심각성을 알고 있습니다.
07:15
Microsoft's president Brad Smith has called on Congress to intervene.
151
435910
4390
마이크로소프트의 사장 브래드 스미스는 의회의 개입을 요청했습니다.
07:21
Google, for its part,
152
441188
1382
한편 구글은,
07:22
has publicly declined to ship a face surveillance product,
153
442594
3602
안면 감시 상품의 이용을 공식적으로 거부했는데,
07:26
in part because of these grave human and civil rights concerns.
154
446220
3547
부분적으로는 심각한 인권 문제를 인식한 거죠.
07:30
And that's a good thing.
155
450514
1600
바람직한 일입니다.
07:32
Because ultimately,
156
452840
1611
왜냐하면 궁극적으로,
07:34
protecting our open society is much more important
157
454475
3501
열린 사회를 보호하는 게 기업 이윤 보다
07:38
than corporate profit.
158
458000
1467
훨씬 더 중요하기 때문입니다.
07:41
The ACLU's nationwide campaign
159
461078
2342
ACLU는 이 위험한 기술 도입에
07:43
to get the government to pump the brakes
160
463444
1928
정부가 제동을 걸어야 한다며
07:45
on the adoption of this dangerous technology
161
465396
2331
전국적인 캠페인을 벌여왔는데
07:47
has prompted reasonable questions from thoughtful people.
162
467751
2929
이는 양식 있는 사람들의 합리적 의심을 유발했습니다.
07:51
What makes this technology in particular so dangerous?
163
471807
3666
어떤 특별한 게 이 기술을 위험하게 만드는 건가?
07:55
Why can't we just regulate it?
164
475791
2237
우리가 통제할 수는 없는가?
07:58
In short, why the alarm?
165
478052
2168
간단히 말해, 왜 경계해야 하는가?
08:01
Face surveillance is uniquely dangerous for two related reasons.
166
481236
4412
안면 감시는 상호연관된 두 가지 이유로 특히 위험합니다.
08:06
One is the nature of the technology itself.
167
486133
3174
하나는 기술 그 자체의 본질입니다.
08:09
And the second is that our system
168
489331
2272
다른 하나는 우리 시스템이
08:11
fundamentally lacks the oversight and accountability mechanisms
169
491627
4410
정부의 기술 남용 우려가 없도록 할 수 있는
08:16
that would be necessary
170
496061
1406
감독 기능과 책임 체계가
08:17
to ensure it would not be abused in the government's hands.
171
497491
3602
근본적으로 취약하다는 것입니다.
08:22
First, face surveillance enables a totalizing form of surveillance
172
502562
4912
첫째, 안면 감시는 과거에는 불가능했던 모든 형태의 감시를
08:27
never before possible.
173
507498
1467
가능하게 합니다.
08:30
Every single person's every visit to a friend's house,
174
510006
3960
개개인의 모든 방문은 그곳이 친구집이든,
08:33
a government office,
175
513990
1563
관공서,
08:35
a house of worship,
176
515577
2087
교회,
08:37
a Planned Parenthood,
177
517688
1413
가족 계획 연맹,
08:39
a cannabis shop,
178
519125
1500
대마초 가게,
08:40
a strip club;
179
520649
1467
스트립 클럽이든요.
08:42
every single person's public movements, habits and associations
180
522958
4317
모든 개개인의 사회적 행동과 습성, 상호교류가
08:47
documented and catalogued,
181
527299
1635
기록되고 분류됩니다,
08:48
not on one day, but on every day,
182
528958
2365
하루만이 아니라, 매일요,
08:51
merely with the push of a button.
183
531347
1945
버튼 하나만 누르면 됩니다.
08:54
This kind of totalizing mass surveillance
184
534276
3142
이 총체적이면서도 대량적 감시는
08:57
fundamentally threatens what it means to live in a free society.
185
537442
3032
자유사회에서의 삶에 필요한 요소에 근본적인 위협이 됩니다.
09:00
Our freedom of speech, freedom of association,
186
540498
2729
언론의 자유와 결사의 자유,
09:03
freedom of religion,
187
543251
1335
종교의 자유,
09:04
freedom of the press,
188
544610
1253
출판의 자유,
09:05
our privacy,
189
545887
1214
우리의 사생활,
09:07
our right to be left alone.
190
547125
1800
혼자 있을 권리 등에 말입니다.
09:10
You may be thinking,
191
550467
1460
이렇게 생각하실 지도 모릅니다,
09:11
"OK, come on, but there are tons of ways the government can spy on us."
192
551951
3335
"그래, 하지만 정부가 우리를 감시하는 방법은 수도 없이 많다고."
09:15
And yes, it's true,
193
555310
1197
네, 맞습니다,
09:16
the government can track us through our cell phones,
194
556531
2453
정부는 휴대 전화를 통해 우릴 추적할 수 있습니다,
09:19
but if I want to go to get an abortion,
195
559008
3632
하지만 낙태를 하러 가거나,
09:22
or attend a political meeting,
196
562664
1786
정치적 모임에 참석하거나,
09:24
or even just call in sick and play hooky and go to the beach ...
197
564474
4278
꾀병으로 병가를 내고 해변으로 놀러 가고 싶다면...
09:28
(Laughter)
198
568776
1341
(웃음)
09:30
I can leave my phone at home.
199
570141
1933
집에 휴대 전화를 놓고 가면 됩니다.
09:33
I cannot leave my face at home.
200
573101
2254
하지만 얼굴은 그렇지 않습니다.
09:37
And that brings me to my second primary concern:
201
577165
2539
이런 점들이 제게 두 번째 염려를 하게 합니다.
09:39
How we might meaningfully regulate this technology.
202
579728
3327
어떻게 하면 이 기술을 의미있게 통제할 수 있는가.
09:44
Today, if the government wants to know where I was last week,
203
584315
3714
아직은 지난주 제가 어디 있었는지 정부가 알고 싶다고 해서,
09:48
they can't just hop into a time machine and go back in time and follow me.
204
588053
4524
타임머신을 타고 과거로 가 절 찾을 순 없습니다.
09:53
And they also, the local police right now,
205
593585
2736
그리고 아직은 경찰이,
09:56
don't maintain any centralized system of tracking,
206
596345
3293
차후 유용한 정보로 쓰기 위해,
09:59
where they're cataloging every person's public movements all the time,
207
599662
3366
상시 모든 사람들의 행동을 분류하는,
10:03
just in case that information some day becomes useful.
208
603052
3383
집중된 추적 시스템을 운영하지도 않습니다.
10:06
Today, if the government wants to know where I was last week,
209
606783
3102
지금은, 만약 정부가 지난주 또는 지난 달,
10:09
or last month or last year,
210
609909
1605
작년의 제 소재를 알고 싶다면
10:11
they have to go to a judge, get a warrant
211
611538
2360
판사로부터 영장을 받아
10:13
and then serve that warrant on my phone company,
212
613922
2290
제 사생활을 지키도록 계약관계에 있는
10:16
which by the way, has a financial interest in protecting my privacy.
213
616236
3612
휴대 전화 통신사에 집행해야 하죠.
10:21
With face surveillance,
214
621027
1627
하지만 안면 감시를 한다면
10:22
no such limitations exist.
215
622678
2055
이런 제약은 있을 수 없습니다.
10:25
This is technology that is 100 percent controlled by the government itself.
216
625226
4620
이 기술은 정부가 완전히 통제하고 있습니다.
10:31
So how would a warrant requirement work in this context?
217
631363
3967
이런 경우 영장이 의미 있을까요?
10:36
Is the government going to go to a judge
218
636307
2000
정부가 판사로부터
10:38
and get a warrant,
219
638331
1166
영장을 받아
10:39
and then serve the warrant on themselves?
220
639521
2015
스스로에게 집행을 하는데요?
10:42
That would be like me giving you my diary,
221
642109
2016
이건 마치 제가 여러분에게 제 일기장을 주고는,
10:44
and saying, "Here, you can hold on to this forever,
222
644149
2595
"평생 이거 가지고 있어도 돼,
10:46
but you can't read it until I say it's OK."
223
646768
2638
근데 내가 허락하기 전까진 읽어보면 안 돼."하는 것과 같습니다.
10:50
So what can we do?
224
650102
1200
그럼 우린 어떻게 해야 할까요?
10:53
The only answer to the threat
225
653221
2132
정부의 안면 감시로 인한 위협에
10:55
posed by the government's use of face surveillance
226
655377
3431
대처할 수 있는 유일한 방법은
10:58
is to deny the government the capacity to violate the public's trust,
227
658832
4958
정부 조직 내에 안면 감시 네트워크를
11:03
by denying the government the ability
228
663814
2064
갖추지 못하게 함으로써
11:05
to build these in-house face-surveillance networks.
229
665902
3235
공공의 신뢰를 저버리는 일을 할 수 없게 하는 것입니다.
11:09
And that's exactly what we're doing.
230
669711
2008
그게 바로 저희가 하는 일입니다.
11:12
The ACLU is part of a nationwide campaign
231
672567
3269
ACLU는 정부가 이런 위험한 기술을
11:15
to pump the brakes on the government's use of this dangerous technology.
232
675860
3706
사용하는 것에 반대하는 전국적인 캠페인 단체 중 하나입니다.
11:20
We've already been successful,
233
680138
1445
저희는 매사추세츠 주의 서머빌부터,
11:21
from San Francisco to Somerville, Massachusetts,
234
681607
3114
샌프란시스코에 이르기까지 이런 기술 사용을
11:24
we have passed municipal bans
235
684745
2127
금지하는 지방정부의 법안을
11:26
on the government's use of this technology.
236
686896
2246
통과시키는데 성공적으로 임했습니다.
11:29
And plenty of other communities here in Massachusetts
237
689166
2548
그리고 여기 매사추세츠 주와
11:31
and across the country
238
691738
1189
전국의 많은 단체들이
11:32
are debating similar measures.
239
692951
1445
비슷한 정책을 논의 중입니다.
11:34
Some people have told me that this movement is bound to fail.
240
694420
3514
어떤 사람들은 저의 이런 활동이 실패할 거라고 합니다.
11:38
That ultimately,
241
698625
1631
결국은
11:40
merely because the technology exists,
242
700280
2075
이미 존재하는 기술이기에
11:42
it will be deployed in every context
243
702379
3087
어느 나라에서든
11:45
by every government everywhere.
244
705490
2444
사용될 거라고 합니다.
11:50
Privacy is dead, right?
245
710070
1533
사생활은 사라졌습니다, 맞나요?
11:52
So the narrative goes.
246
712388
1466
항상 그렇게들 말합니다.
11:55
Well, I refuse to accept that narrative.
247
715030
2310
하지만 전 그 말을 거부합니다.
11:57
And you should, too.
248
717364
1266
여러분들도 그래야 하고요.
12:00
We can't allow Jeff Bezos or the FBI
249
720214
3793
우린 제프 베조스나 FBI가
12:04
to determine the boundaries of our freedoms in the 21st century.
250
724031
4159
21세기 우리의 자유를 제한하도록 내버려 둬선 안 됩니다.
12:09
If we live in a democracy,
251
729413
2149
우리가 민주국가에서 살면서
12:11
we are in the driver's seat,
252
731586
1999
주도적인 위치에서
12:13
shaping our collective future.
253
733609
2000
모두의 미래를 만들고 있다면요.
12:16
We are at a fork in the road right now.
254
736704
2111
우린 지금 갈림길에 서 있습니다.
12:19
We can either continue with business as usual,
255
739379
2444
우린 정부가 이 검증되지 않은 기술을
12:21
allowing governments to adopt and deploy these technologies unchecked,
256
741847
4007
지금껏 하던대로 자신이 사는 지역, 거리, 학교에서
12:25
in our communities, our streets and our schools,
257
745878
3317
사용하도록 허용하거나
12:29
or we can take bold action now
258
749219
4889
사생활을 지키고
12:34
to press pause on the government's use of face surveillance,
259
754132
4333
우리 모두의 더 안전하고 자유로운 미래를 위해
12:38
protect our privacy
260
758489
1587
정부의 안면 감시를
12:40
and to build a safer, freer future
261
760100
3087
당장 멈추도록
12:43
for all of us.
262
763211
1357
행동을 취할 수도 있습니다.
12:44
Thank you.
263
764592
1151
감사합니다.
12:45
(Applause and cheers)
264
765767
2427
(박수와 환호)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7