What you need to know about face surveillance | Kade Crockford

140,608 views ・ 2020-05-29

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Nargess Tahmasbi Reviewer: Masoud Motamedifar
00:12
How many of you have ever heard someone say
0
12643
2048
چند نفر ازشما تا به‌حال شنیده‌اید که بگویند
00:14
privacy is dead?
1
14715
1166
حریم شخصی وجود ندارد؟
00:15
Raise your hand.
2
15905
1150
دستهایتان را بالا ببرید.
00:17
How many of you have heard someone say
3
17849
2460
چند نفر از شما از کسی شنیده‌اید که
00:20
they don't care about their privacy because they don't have anything to hide?
4
20333
3934
حریم شخصی برایشان مهم نیست چون که چیزی برای پنهان کردن ندارند؟
00:24
Go on.
5
24665
1160
ادامه بدهید.
00:25
(Laughter)
6
25849
1442
(خنده)
00:27
Now, how many of you use any kind of encryption software?
7
27721
4256
حالا، چند نفر از شما از نرم‌افزارهای رمزگذاری استفاده می‌کنید؟
00:32
Raise your hand.
8
32283
1151
دستهایتان را بالا ببرید.
00:33
Or a password to protect an online account?
9
33458
3347
یا از پسورد برای حفظ حساب کاربری آنلاین استفاده می کنید؟
00:37
Or curtains or blinds on your windows at home?
10
37529
3920
یا از پرده و کرکره برای پنجره‌ی خانه استفاده می‌کنید؟
00:41
(Laughter)
11
41473
1556
(خنده)
00:43
OK, so that's everyone, I think.
12
43053
2033
خیلی خب، پس فکر کنم همه استفاده می‌کنند.
00:45
(Laughter)
13
45110
1150
(خنده)
00:46
So why do you do these things?
14
46752
2000
خب چرا این کارها را انجام می‌دهید؟
00:49
My guess is,
15
49165
1151
حدس من این هست که،
00:50
it's because you care about your privacy.
16
50340
2388
به خاطر این که به حریم خصوصی خودتان اهمیت می دهید.
00:52
The idea that privacy is dead is a myth.
17
52752
2999
این که حریم خصوصی وجود ندارد افسانه است.
00:55
The idea that people don't care about their privacy
18
55775
2738
این که مردم به حریم خصوصی‌شان اهمیت نمی دهند
00:58
because "they have nothing to hide"
19
58537
1700
چون «چیزی برای پنهان کردن ندارند»
01:00
or they've done nothing wrong
20
60261
1642
یا کار اشتباهی انجام نداده‌اند
01:01
is also a myth.
21
61927
1243
این هم یک افسانه است.
01:04
I'm guessing that you would not want to publicly share on the internet,
22
64433
4063
حدس می زنم که شما دوست ندارید در اینترنت چیزهایی را به صورت عمومی منتشر کنید،
01:08
for the world to see,
23
68520
1412
تا همه‌ی دنیا ببینند،
01:09
all of your medical records.
24
69956
1802
مثل سوابق پزشکی.
01:11
Or your search histories from your phone or your computer.
25
71782
3436
یا تاریخچه‌ی جست‌وجوهایتان در گوشی تلفن یا کامپیوترتان.
01:16
And I bet
26
76289
1206
و شرط می‌بندم که
01:17
that if the government wanted to put a chip in your brain
27
77519
2674
اگر دولت بخواهد که یک تراشه در مغز شما قرار دهد
01:20
to transmit every one of your thoughts to a centralized government computer,
28
80217
4638
تا همه‌ی افکار شما را به یک کامپیوتر مرکزی دولتی مخابره کند،
01:24
you would balk at that.
29
84879
1485
سخت جلویش می‌ایستید.
01:26
(Laughter)
30
86388
2435
(خنده)
01:28
That's because you care about your privacy,
31
88847
2008
چون‌ حریم خصوصی‌تان برایتان مهم است.
01:30
like every human being.
32
90879
1533
مثل هر انسان دیگر.
01:33
So, our world has changed fast.
33
93347
2744
پس، جهان ما به سرعت تغییر کرده است.
01:36
And today, there is understandably a lot of confusion
34
96395
3833
و امروزه، به طرز قابل درکی سردرگمی‌های زیادی وجود دارد
01:40
about what privacy is and why it matters.
35
100252
3142
در مورد حریم خصوصی و اینکه چرا اهمیت دارد.
01:44
Privacy is not secrecy.
36
104260
1864
حریم خصوصی پنهان‌کاری نیست.
01:46
It's control.
37
106490
1166
کنترل است.
01:48
I share information with my doctor about my body and my health,
38
108817
3920
من با پزشکم اطلاعاتی را در مورد بدنم و سلامتی‌ام به اشتراک می گذارم،
01:52
expecting that she is not going to turn around
39
112761
2476
و انتظار دارم که نرود
01:55
and share that information with my parents,
40
115261
3110
آن اطلاعات را با پدر و مادرم،
01:58
or my boss or my kids.
41
118395
2126
یا رئیسم یا فرزندانم به اشتراک بگذارد.
02:01
That information is private, not secret.
42
121585
2539
این اطلاعات خصوصی هستند، راز نیستند.
02:05
I'm in control over how that information is shared.
43
125085
3257
من روی این که چه طور این اطلاعات به اشتراک گذاشته شود کنترل دارم.
02:09
You've probably heard people say that there's a fundamental tension
44
129686
3159
احتمالا تا به حال شنیده‌اید که بگویند که یک تنش بنیادی وجود دارد
02:12
between privacy on the one hand
45
132869
1762
بین حریم خصوصی از یک سو
02:14
and safety on the other.
46
134655
2023
و امنیت از سوی دیگر.
02:17
But the technologies that advance our privacy
47
137963
2532
اما فن‌آوری‌هایی که باعث پیشرفت حریم خصوصی هستند
02:20
also advance our safety.
48
140519
1579
باعث پیشرفت امنیت هم هستند.
02:22
Think about fences, door locks,
49
142122
2421
برای مثال نرده‌ها را در نظر بگیرید یا قفل درها را،
02:24
curtains on our windows, passwords,
50
144567
2753
پرده‌های پنجره‌هامان، پسوردها،
02:27
encryption software.
51
147344
1333
نرم‌افزارهای رمزگذاری.
02:29
All of these technologies
52
149522
1491
همه‌ی این فن‌آوری‌ها
02:31
simultaneously protect our privacy and our safety.
53
151037
4325
همزمان از حریم خصوصی و امنیت ما محافظت می‌کنند.
02:36
Dragnet surveillance, on the other hand, protects neither.
54
156910
3493
نظارت جهت به دام‌اندازی، از سوی دیگر، هیچ کدام را محافظت نمی کند.
02:41
In recent years,
55
161486
1166
در سال‌های اخیر،
02:42
the federal government tasked a group of experts
56
162676
2921
دولت فدرال به یک گروه خبره
02:45
called The Privacy and Civil Liberties Oversight Board
57
165621
2936
به نام هیات نظارت بر حریم خصوصی و آزادی‌های مدنی
02:48
with examining post-9/11 government surveillance programs,
58
168581
3322
ماموریت داد تا برنامه‌های نظارتی دولت پس از ١١ سپتامبر را بررسی کند،
02:51
dragnet surveillance programs.
59
171927
1956
برنامه‌های نظارتی جهت به دام‌اندازی.
02:54
Those experts could not find a single example
60
174307
3135
این افراد خبره نتوانستند حتی یک نمونه
02:57
of that dragnet surveillance advancing any safety --
61
177466
3784
از آن برنامه‌های نظارتی پیدا کنند که در جهت پیشبرد امنیت باشند--
03:01
didn't identify or stop a single terrorist attack.
62
181274
2867
هیچ حمله‌ی تروریستی را شناسایی نکردند یا جلویش را نگرفتند.
03:05
You know what that information was useful for, though?
63
185369
2881
ولی، می‌دانید که آن اطلاعات به چه دردی می‌خوردند؟
03:08
Helping NSA employees spy on their romantic interests.
64
188274
3157
کمک به آژانس امنیت ملی برای جاسوسی برای منافع عاشقانه خودشان.
03:11
(Laughter)
65
191455
1141
(خنده)
03:12
(Audience: Wow.)
66
192620
1301
(حضار: عجب.)
03:14
Another example is closer to home.
67
194892
1690
یک مثال دیگر که به ما نزدیک‌تر است.
03:16
So millions of people across the United States and the world
68
196606
2858
میلیون‌ها انسان در امریکا و دیگر کشورها
03:19
are adopting so-called "smart home" devices,
69
199488
2288
از دستگاه‎‌های «خانه‌ی هوشمند» استفاده می‌کنند،
03:21
like internet-connected surveillance cameras.
70
201800
2563
مثل دوربین‌های مداربسته که با اینترنت به هم وصل هستند.
03:24
But we know that any technology connected to the internet
71
204712
3262
اما می‌دانیم که هر فن‌آوری‌ که به اینترنت وصل شود
03:27
can be hacked.
72
207998
1150
می‌تواند هک شود.
03:30
And so if a hacker
73
210514
1714
پس اگر یک هکر
03:32
gets into your internet-connected surveillance camera at home,
74
212252
3302
وارد دوربین‌های مداربسته‌ی متصل به اینترنت در خانه شود،
03:35
they can watch you and your family coming and going,
75
215578
2698
می تواند شما و خانواده‌تان را ببیند که می‌آیید و می‌روید،
03:38
finding just the right time to strike.
76
218300
2448
و زمان مناسب را پیدا کند که ضربه بزند.
03:41
You know what can't be hacked remotely?
77
221553
2309
می‌دانید چه چیزی را نمی‌توان از راه دور هک کرد؟
03:44
Curtains.
78
224418
1156
پرده‌ها را.
03:45
(Laughter)
79
225598
1001
(خنده)
03:46
Fences.
80
226623
1414
نرده‌ها را.
03:48
Door locks.
81
228061
1160
قفل درها را.
03:49
(Laughter)
82
229245
1141
(خنده)
03:50
Privacy is not the enemy of safety.
83
230410
2346
حریم خصوصی دشمن امنیت نیست.
03:53
It is its guarantor.
84
233113
1452
ضامن آن هست.
03:56
Nonetheless, we daily face a propaganda onslaught
85
236129
3985
به هر حال، ما روزانه با یک هجمه‌ی تبلیغاتی مواجه هستیم
04:00
telling us that we have to give up some privacy in exchange for safety
86
240138
4090
که به ما می‌گویند که باید از یک سری حریم‌های خصوصی در جهت کسب امنیت
04:04
through surveillance programs.
87
244252
2000
از طریق برنامه‌های نظارتی بگذریم.
04:07
Face surveillance is the most dangerous of these technologies.
88
247085
3999
نظارت بر چهره از خطرناک‌ترین گونه این‌ فن‌آوری‌هاست.
04:11
There are two primary ways today governments use technologies like this.
89
251966
5167
دولت‌های امروز به دو روش اصلی این فن‌آوری‌ها را به کار می‌گیرند.
04:17
One is face recognition.
90
257157
1753
یکی تشخیص چهره است.
04:19
That's to identify someone in an image.
91
259243
2271
که برای شناسایی فرد در تصویر به کار می‌رود.
04:21
The second is face surveillance,
92
261538
2833
دومی نظارت بر چهره است،
04:24
which can be used in concert
93
264395
2055
که در کنسرت‌ها می‌توان از آن استفاده کرد
04:26
with surveillance-camera networks and databases
94
266474
2856
با استفاده از شبکه‌ دوربین‌های نظارتی و پایگاه‌های داده
04:29
to create records of all people's public movements,
95
269354
3477
تا تمامی حرکات، عادات و ارتباطات افراد را
04:32
habits and associations,
96
272855
2405
در فضای عمومی را ضبط کند،
04:35
effectively creating a digital panopticon.
97
275284
2912
که به طور موثری یک زندان دیجیتالی مدور بسازد.
04:38
This is a panopticon.
98
278903
1857
این یک پانوپتیکون است.
04:40
It's a prison designed to allow a few guards in the center
99
280784
4222
یک زندان که به نحوی طراحی شده که چند نگهبان در مرکزحلقه بتوانند
04:45
to monitor everything happening in the cells around the perimeter.
100
285030
3944
هر چه که در سلول‌های محیط حلقه‌ی زندان اتفاق می‌افتد را نظارت کنند.
04:49
The people in those prison cells can't see inside the guard tower,
101
289482
4667
افراد داخل این سلول‌ها نمی‌توانند داخل برج نگهبانی را ببینند،
04:54
but the guards can see into every inch of those cells.
102
294173
3666
اما نگهبان‌ها می توانند سانت به سانت سلول‌ها را ببینند.
04:59
The idea here
103
299268
2055
ایده اصلی اینجاست که
05:01
is that if the people in those prison cells
104
301347
2595
اگر آدم‌های درون سلول زندان
05:03
know they're being watched all the time,
105
303966
1929
بدانند که در تمام لحظات تحت نظر هستند،
05:05
or could be,
106
305919
1460
یا می‌توانند باشند،
05:07
they'll behave accordingly.
107
307403
1968
رفتارشان را تطبیق خواهند داد.
05:09
Similarly, face surveillance enables a centralized authority --
108
309395
3774
به طریق مشابه، نظارت بر چهره به قدرت مرکزی -- در این مورد، دولت--
05:13
in this case, the state --
109
313193
1884
این اجازه را می‌دهد
05:15
to monitor the totality of human movement and association
110
315101
3357
که کلیت حرکات و ارتباطات انسانی را در فضای عمومی
05:18
in public space.
111
318482
1150
تحت نظر بگیرد.
05:20
And here's what it looks like
112
320053
1397
و در دنیای واقعی هم
05:21
in real life.
113
321474
1372
به همین صورت است.
05:22
In this case, it's not a guard in a tower,
114
322870
2802
در این حالت، نگهبان برج نداریم،
05:25
but rather a police analyst in a spy center.
115
325696
3278
ولی به جایش یک تحلیلگر پلیس در مرکز جاسوسی داریم.
05:29
The prison expands beyond its walls,
116
329506
3150
زندان ازمحدوده‌ی دیوارهایش فراتر می‌رود،
05:32
encompassing everyone,
117
332680
1882
همه را شامل می‌شود،
05:34
everywhere, all the time.
118
334586
2491
هر جا، هر زمان.
05:38
In a free society,
119
338189
1309
در یک جامعه‌ی آزاد،
05:39
this should terrify us all.
120
339522
2404
این خیلی هراس‌انگیز به نظر می‌سد.
05:43
For decades now, we've watched cop shows
121
343927
2390
دهه‌هاست که، ما شاهد سریال‌های پلیسی هستیم
05:46
that push a narrative that says
122
346341
1722
که این روایت رو القا می‌کنند که
05:48
technologies like face surveillance ultimately serve the public good.
123
348087
3740
فن‌آوری‌هایی مثل نظارت بر چهره در نهایت در خدمت منافع عمومی هستند.
05:52
But real life is not a cop drama.
124
352419
2200
اما دنیای واقعی سریال پلیسی نیست.
05:56
The bad guy didn't always do it,
125
356149
1968
آدم بده همیشه واقعا خلاف نکرده،
05:58
the cops definitely aren't always the good guys
126
358141
3269
پلیس‌ها قطعا همیشه آدم خوبه نیستند
06:01
and the technology doesn't always work.
127
361434
2600
و فن‌آوری‌ها همیشه درست کار نمی‌کنند.
06:04
Take the case of Steve Talley,
128
364602
1896
مثال استیو تالی را در نظر بگیرید،
06:06
a financial analyst from Colorado.
129
366522
2492
یک تحلیلگر اقتصادی اهل کلرادو.
06:09
In 2015, Talley was arrested, and he was charged with bank robbery
130
369038
3905
در سال ٢٠١٥، تالی دست‌گیر شد، و به سرقت بانک متهم شد
06:12
on the basis of an error in a facial recognition system.
131
372967
3288
بر اساس یک اشتباه که در سیستم تشخیص چهره رخ داده بود.
06:16
Talley fought that case
132
376985
1183
تالی با این پرونده‌ جنگید
06:18
and he eventually was cleared of those charges,
133
378192
2222
و سر آخر از آن اتهامات پاک شد،
06:20
but while he was being persecuted by the state,
134
380438
2594
اما زمانی که توسط دولت تحت تعقیب و بازجویی بود،
06:23
he lost his house, his job and his kids.
135
383056
3511
خانه‌اش، شغلش و فرزندانش را از دست داد.
06:27
Steve Talley's case is an example
136
387941
1677
پرونده‌ی استیو تالی یک نمونه است
06:29
of what can happen when the technology fails.
137
389642
2501
از آن‌چه که می‌تواند در اثر شکست فن‌آوری اتفاق بیافتد.
06:33
But face surveillance is just as dangerous when it works as advertized.
138
393219
4248
اما نظارت بر چهره حتی وقتی که به درستی کار کند هم به همان اندازه خطرناک است.
06:38
Just consider how trivial it would be
139
398875
2818
فقط در نظر بگیرید که چقدر
06:41
for a government agency to put a surveillance camera
140
401717
2443
برای یک آژانس حکومتی ساده است که بیرون ساختمانی که
06:44
outside a building where people meet for Alcoholics Anonymous meetings.
141
404184
3944
افراد برای جلسات الکلی‌های ناشناس ملاقات دارند، دوربین نظارت قرار دهد.
06:49
They could connect that camera
142
409194
1522
می‌توانند آن دوربین را
06:50
to a face-surveillance algorithm and a database,
143
410740
2652
به الگوریتم نظارت چهره و یک پایگاه داده وصل کنند،
06:53
press a button and sit back and collect
144
413416
1927
یک دکمه را بزنند و بنشینند و
06:55
a record of every person receiving treatment for alcoholism.
145
415367
3220
پیشینه‌ی هر فردی که برای درمان اعتیاد به الکل مراجعه کرده را ضبط کنند.
07:00
It would be just as easy for a government agency
146
420204
2307
همین قدر برای آژانس حکومتی ساده است که
07:02
to use this technology to automatically identify
147
422535
2629
از این فن‌آوری برای تشخیص خودکار
07:05
every person who attended the Women's March
148
425188
2381
هر شخصی که در راهپیمایی زنان
07:07
or a Black Lives Matter protest.
149
427593
2133
یا تظاهرات سیاه‌پوستان شرکت می کند استفاده کند.
07:11
Even the technology industry is aware of the gravity of this problem.
150
431163
3881
حتی صنعت فن‌آوری‌ هم از سنگینی این مساله آگاه است.
07:15
Microsoft's president Brad Smith has called on Congress to intervene.
151
435910
4390
برد اسمیت رییس مایکروسافت از کنگره خواست تا مداخله کند.
07:21
Google, for its part,
152
441188
1382
گوگل، از سوی خودش،
07:22
has publicly declined to ship a face surveillance product,
153
442594
3602
به صورت عمومی از فرستادن محصولات نظارت بر چهره سر باز زد،
07:26
in part because of these grave human and civil rights concerns.
154
446220
3547
بخشی‌ از آن به خاطر نگرانی‌های عمیق حقوق مدنی و انسانی بود.
07:30
And that's a good thing.
155
450514
1600
و این چیز خوبی‌ است.
07:32
Because ultimately,
156
452840
1611
چرا که در نهایت،
07:34
protecting our open society is much more important
157
454475
3501
حفاظت از جامعه‌ی آزاد خیلی بیشتر اهمیت دارد
07:38
than corporate profit.
158
458000
1467
تا سود شرکت‌های بزرگ.
07:41
The ACLU's nationwide campaign
159
461078
2342
پویش ملی اتحادیه آزادی‌های مدنی آمریکا
07:43
to get the government to pump the brakes
160
463444
1928
برای این که دولت را در به‌کارگیری
07:45
on the adoption of this dangerous technology
161
465396
2331
این فن‌آوری خطرناک وادار به عقب‌نشینی کند
07:47
has prompted reasonable questions from thoughtful people.
162
467751
2929
یک سوال منطقی برای آدم‌های اهل تفکر طرح کرد.
07:51
What makes this technology in particular so dangerous?
163
471807
3666
چه چیزی این فن‌آوری خاص را تا این حد خطرناک کرده؟
07:55
Why can't we just regulate it?
164
475791
2237
چرا نمی‌توانیم برای آن مقررات وضع کنیم؟
07:58
In short, why the alarm?
165
478052
2168
خلاصه کلام، این زنگ خطر برای چیست؟
08:01
Face surveillance is uniquely dangerous for two related reasons.
166
481236
4412
نظارت بر چهره به طور منحصر به فردی خطرناک است به دو دلیل مرتبط.
08:06
One is the nature of the technology itself.
167
486133
3174
یکی طبیعت خود فن‌آوری است.
08:09
And the second is that our system
168
489331
2272
و دومی این است که سیستم ما
08:11
fundamentally lacks the oversight and accountability mechanisms
169
491627
4410
به طور اساسی فاقد سازوکار نظارتی و مسوولیت‌پذیری است
08:16
that would be necessary
170
496061
1406
که لازمه‌ی این است
08:17
to ensure it would not be abused in the government's hands.
171
497491
3602
که اطمینان حاصل کنیم که نمی تواند به دست دولت مورد سو استفاده قرار گیرد.
08:22
First, face surveillance enables a totalizing form of surveillance
172
502562
4912
اول این که، نظارت بر چهره یک نوع نظارت جامع را فراهم می‌کند
08:27
never before possible.
173
507498
1467
که در گذشته غیرممکن بود.
08:30
Every single person's every visit to a friend's house,
174
510006
3960
هر دفعه که شخصی دوستی را ملاقات می‌کند،
08:33
a government office,
175
513990
1563
به اداره‌ی دولتی می‌رود،
08:35
a house of worship,
176
515577
2087
یا به مکان مذهبی،
08:37
a Planned Parenthood,
177
517688
1413
مرکز تنظیم خانواده،
08:39
a cannabis shop,
178
519125
1500
دخانیات و ماریجوانا فروشی،
08:40
a strip club;
179
520649
1467
کلاب برهنگی؛
08:42
every single person's public movements, habits and associations
180
522958
4317
کوچک‌ترین حرکات عمومی تک تک افراد، و عادت‌ها و ارتباطاتشان
08:47
documented and catalogued,
181
527299
1635
مستند و ثبت می‌شود،
08:48
not on one day, but on every day,
182
528958
2365
نه یک روز، بلکه هر روز،
08:51
merely with the push of a button.
183
531347
1945
تنها با فشردن یک دکمه.
08:54
This kind of totalizing mass surveillance
184
534276
3142
این نوع نظارت انبوه جامع
08:57
fundamentally threatens what it means to live in a free society.
185
537442
3032
اساساٌ معنی زندگی در جامعه‌‌ی آزاد را زیر سوال می‎برد.
09:00
Our freedom of speech, freedom of association,
186
540498
2729
آزادی بیان، آزادی وابستگی،
09:03
freedom of religion,
187
543251
1335
آزادی مذهب،
09:04
freedom of the press,
188
544610
1253
آزادی رسانه‌ای،
09:05
our privacy,
189
545887
1214
حریم خصوصی‌مان،
09:07
our right to be left alone.
190
547125
1800
حق این که به حال خودمان رها باشیم.
09:10
You may be thinking,
191
550467
1460
شاید فکر کنید،
09:11
"OK, come on, but there are tons of ways the government can spy on us."
192
551951
3335
«خیلی خب، بی‌خیال، هزاران راه هست که دولت بتواند جاسوسی‌مان را بکند.»
09:15
And yes, it's true,
193
555310
1197
و بله، درست است،
09:16
the government can track us through our cell phones,
194
556531
2453
دولت می‌تواند ما را از طریق تلفن همراه‌ ردیابی کند،
09:19
but if I want to go to get an abortion,
195
559008
3632
اما اگر بخواهم بروم بچه‌ام را سقط کنم،
09:22
or attend a political meeting,
196
562664
1786
یا در یک جلسه‌ی سیاسی شرکت کنم،
09:24
or even just call in sick and play hooky and go to the beach ...
197
564474
4278
یا حتی فقط به بهانه مریضی سر کار نروم و به جایش در ساحل تفریح کنم ...
09:28
(Laughter)
198
568776
1341
(خنده)
09:30
I can leave my phone at home.
199
570141
1933
می‌توانم گوشی‌ام را در خانه جا بگذارم.
09:33
I cannot leave my face at home.
200
573101
2254
ولی چهره‌ام را نمی‌توانم در خانه بگذارم.
09:37
And that brings me to my second primary concern:
201
577165
2539
و این باعث نگرانی اصلی بعدی من می‌شود:
09:39
How we might meaningfully regulate this technology.
202
579728
3327
چگونه می‌توان مقررات معناداری برای این فن‌آوری وضع کرد.
09:44
Today, if the government wants to know where I was last week,
203
584315
3714
امروز، اگر دولت بخواهد بداند که من هفته‌ی پیش کجا بوده‌ام،
09:48
they can't just hop into a time machine and go back in time and follow me.
204
588053
4524
نمی‌تواند به‌ سادگی سوار ماشین زمان شود و مرا در گذشته تعقیب کند.
09:53
And they also, the local police right now,
205
593585
2736
و همچنین، در حال حاضر پلیس محلی،
09:56
don't maintain any centralized system of tracking,
206
596345
3293
هیچ سیستم مرکزی برای ردیابی برقرار نکرده،
09:59
where they're cataloging every person's public movements all the time,
207
599662
3366
که در آن حرکات عمومی تک تک افراد را در هر زمان ثبت کند،
10:03
just in case that information some day becomes useful.
208
603052
3383
برای مواقعی که این اطلاعات به کار بیایند.
10:06
Today, if the government wants to know where I was last week,
209
606783
3102
امروز، اگر دولت بخواهد بداند که من هفته‌ی پیش،
10:09
or last month or last year,
210
609909
1605
یا ماه یا سال پیش کجا بوده‌ام،
10:11
they have to go to a judge, get a warrant
211
611538
2360
باید برود پیش یک قاضی، و حکم بگیرد
10:13
and then serve that warrant on my phone company,
212
613922
2290
و حکم را نشان ارائه‌دهنده سرویس تلفن من بدهد،
10:16
which by the way, has a financial interest in protecting my privacy.
213
616236
3612
که از قضا، نفع مالی‌اش در این است که حریم خصوصی من را حفظ کند.
10:21
With face surveillance,
214
621027
1627
با وجود سیستم‌های نظارت بر چهره،
10:22
no such limitations exist.
215
622678
2055
چنین محدودیتی وجود ندارد.
10:25
This is technology that is 100 percent controlled by the government itself.
216
625226
4620
این فن‌آوری‌ است که ١٠٠ درصد توسط خود دولت کنترل می‌شود.
10:31
So how would a warrant requirement work in this context?
217
631363
3967
خب چه‌طور استلزام به داشتن حکم اینجا رعایت می‌شود؟
10:36
Is the government going to go to a judge
218
636307
2000
آیا قرار است دولت برود پیش قاضی
10:38
and get a warrant,
219
638331
1166
و حکم بگیرد،
10:39
and then serve the warrant on themselves?
220
639521
2015
و بعد حکم را به خودش ارائه دهد؟
10:42
That would be like me giving you my diary,
221
642109
2016
مثل این که من دفتر خاطراتم را بدهم به شما،
10:44
and saying, "Here, you can hold on to this forever,
222
644149
2595
و بگویم، «بفرمایید، می‌توانید برای همیشه نگهش دارید،
10:46
but you can't read it until I say it's OK."
223
646768
2638
اما نمی‌توانید تا زمانی که من نگفتم آن را بخوانید.»
10:50
So what can we do?
224
650102
1200
پس چه‌ کار می‎‌شود کرد؟
10:53
The only answer to the threat
225
653221
2132
تنها جواب به این تهدید
10:55
posed by the government's use of face surveillance
226
655377
3431
از سوی دولت در مورد استفاده از نظارت چهره
10:58
is to deny the government the capacity to violate the public's trust,
227
658832
4958
این است که ظرفیت‌های دولت برای زیر پا گذاشتن اعتماد عمومی را محدود کنیم،
11:03
by denying the government the ability
228
663814
2064
با اجازه ندادن به دولت
11:05
to build these in-house face-surveillance networks.
229
665902
3235
برای ساختن شبکه‌های نظارت بر چهره در تاسیسات خودشان
11:09
And that's exactly what we're doing.
230
669711
2008
و این دقیقا همان کار‌ی‌ است که داریم می‌کنیم.
11:12
The ACLU is part of a nationwide campaign
231
672567
3269
اتحادیه آزادی‌های مدنی آمریکا بخشی از یک پویش ملی‌ است
11:15
to pump the brakes on the government's use of this dangerous technology.
232
675860
3706
که مانع استفاده‌ی دولت از این فن‌آوری خطرناک می‌شود.
11:20
We've already been successful,
233
680138
1445
در این زمینه موفق بوده‌ایم،
11:21
from San Francisco to Somerville, Massachusetts,
234
681607
3114
از سان‌فرانسیسکو تا سامرویل در ماساچوست،
11:24
we have passed municipal bans
235
684745
2127
قانون شهری برای منع
11:26
on the government's use of this technology.
236
686896
2246
استفاده دولت از این فن‌آوری وضع کرده‌ایم.
11:29
And plenty of other communities here in Massachusetts
237
689166
2548
و خیلی از انجمن‌های دیگر اینجا در ماساچوست
11:31
and across the country
238
691738
1189
و در سطح کشور
11:32
are debating similar measures.
239
692951
1445
دارند روی تدابیر مشابه مذاکره می‌کنند.
11:34
Some people have told me that this movement is bound to fail.
240
694420
3514
یک سری افراد به من گفته‌اند که این جنبش آخرش به شکست منجر می‌شود.
11:38
That ultimately,
241
698625
1631
و این که در نهایت،
11:40
merely because the technology exists,
242
700280
2075
همین که این فن‌آوری وجود دارد،
11:42
it will be deployed in every context
243
702379
3087
در هر زمینه‌ای به کار گرفته می‌شود
11:45
by every government everywhere.
244
705490
2444
توسط همه‌ی دوات‌ها هرجا که باشند.
11:50
Privacy is dead, right?
245
710070
1533
حریم خصوصی دیگر معنا ندارد، درست است؟
11:52
So the narrative goes.
246
712388
1466
روایت که حاکی از این است.
11:55
Well, I refuse to accept that narrative.
247
715030
2310
خب، من از قبول این روایت سر باز می‌زنم.
11:57
And you should, too.
248
717364
1266
و شما هم، باید ردش بکنید.
12:00
We can't allow Jeff Bezos or the FBI
249
720214
3793
نباید بگذاریم جف بیزوس یا اف بی آی
12:04
to determine the boundaries of our freedoms in the 21st century.
250
724031
4159
حد و مرز آزادی ما را در قرن ٢١ تعیین کنند.
12:09
If we live in a democracy,
251
729413
2149
اگر در دموکراسی زندگی می‌کنیم،
12:11
we are in the driver's seat,
252
731586
1999
این ماییم که در صندلی راننده نشسته‌ایم،
12:13
shaping our collective future.
253
733609
2000
و آینده جمعی‌مان را شکل می‌دهیم.
12:16
We are at a fork in the road right now.
254
736704
2111
در حال حاضر به خروجی جاده رسیده‌ایم.
12:19
We can either continue with business as usual,
255
739379
2444
می توانیم مثل همیشه مستقیم ادامه بدهیم،
12:21
allowing governments to adopt and deploy these technologies unchecked,
256
741847
4007
و به دولت اجازه بدهیم این فن‌آوری‌ها را بدون بررسی به کار بگیرد و توسعه بدهد،
12:25
in our communities, our streets and our schools,
257
745878
3317
در محله‌ها، خیابان‌ها و مدارس‌مان،
12:29
or we can take bold action now
258
749219
4889
یا این که همین حالا یک قدم بزرگ برداریم
12:34
to press pause on the government's use of face surveillance,
259
754132
4333
تا به دولت فشار بیاوریم که استفاده از نظارت چهره را متوقف کند،
12:38
protect our privacy
260
758489
1587
از حریم خصوصی‌مان محافظت کنیم
12:40
and to build a safer, freer future
261
760100
3087
و آینده‌ی امن‌تر، و آزادتری بسازیم
12:43
for all of us.
262
763211
1357
برای همه‌مان.
12:44
Thank you.
263
764592
1151
سپاسگزارم.
12:45
(Applause and cheers)
264
765767
2427
(تشویق و هورا)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7