What you need to know about face surveillance | Kade Crockford

140,608 views ・ 2020-05-29

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Anamaria Gogu Corector: Bianca-Ioanidia Mirea
00:12
How many of you have ever heard someone say
0
12643
2048
Câți ați auzit pe cineva spunând că nu mai există intimitate?
00:14
privacy is dead?
1
14715
1166
00:15
Raise your hand.
2
15905
1150
Sus mâna!
00:17
How many of you have heard someone say
3
17849
2460
Câți ați auzit pe cineva spunând
00:20
they don't care about their privacy because they don't have anything to hide?
4
20333
3934
că nu le pasă de intimitatea lor pentru că nu au nimic de ascuns?
00:24
Go on.
5
24665
1160
Haideți!
00:25
(Laughter)
6
25849
1442
(Râsete)
00:27
Now, how many of you use any kind of encryption software?
7
27721
4256
Câți folosiți programe de criptare?
00:32
Raise your hand.
8
32283
1151
Sus mâna!
00:33
Or a password to protect an online account?
9
33458
3347
Sau o parolă la un cont online?
Sau perdele și jaluzele la geamurile de acasă?
00:37
Or curtains or blinds on your windows at home?
10
37529
3920
00:41
(Laughter)
11
41473
1556
(Râsete)
Bine, toți, cred.
00:43
OK, so that's everyone, I think.
12
43053
2033
(Râsete)
00:45
(Laughter)
13
45110
1150
00:46
So why do you do these things?
14
46752
2000
Așadar, de ce faceți asta?
Bănuiala mea e:
00:49
My guess is,
15
49165
1151
pentru că vă pasă de intimitatea voastră.
00:50
it's because you care about your privacy.
16
50340
2388
00:52
The idea that privacy is dead is a myth.
17
52752
2999
Ideea că intimitatea nu mai există e un mit.
00:55
The idea that people don't care about their privacy
18
55775
2738
Ideea că oamenilor nu le pasă de intimitatea lor
00:58
because "they have nothing to hide"
19
58537
1700
pentru că „n-au ce ascunde”
sau că n-au greșit cu nimic
01:00
or they've done nothing wrong
20
60261
1642
01:01
is also a myth.
21
61927
1243
este de asemenea un mit.
01:04
I'm guessing that you would not want to publicly share on the internet,
22
64433
4063
Bănuiesc că nu ai vrea să distribui public pe internet,
01:08
for the world to see,
23
68520
1412
ca toți să vadă,
01:09
all of your medical records.
24
69956
1802
tot istoricul tău medical.
01:11
Or your search histories from your phone or your computer.
25
71782
3436
Sau istoricul de căutare de pe telefon sau computer.
01:16
And I bet
26
76289
1206
Și pun pariu
01:17
that if the government wanted to put a chip in your brain
27
77519
2674
că dacă guvernul ar vrea să îți pună un cip în creier
01:20
to transmit every one of your thoughts to a centralized government computer,
28
80217
4638
care să-ți transmită toate gândurile către un computer al guvernului,
01:24
you would balk at that.
29
84879
1485
ai respinge ideea.
01:26
(Laughter)
30
86388
2435
(Râsete)
01:28
That's because you care about your privacy,
31
88847
2008
Pentru că îți pasă de intimitatea ta,
01:30
like every human being.
32
90879
1533
ca oricărui om.
01:33
So, our world has changed fast.
33
93347
2744
Deci, lumea noastră s-a schimbat rapid.
01:36
And today, there is understandably a lot of confusion
34
96395
3833
Iar azi e de înțeles că există multă confuzie
01:40
about what privacy is and why it matters.
35
100252
3142
despre ce e intimitatea și de ce contează.
01:44
Privacy is not secrecy.
36
104260
1864
Intimitatea nu este un secret.
01:46
It's control.
37
106490
1166
E o putere.
01:48
I share information with my doctor about my body and my health,
38
108817
3920
Împărtășesc informații cu doctorul despre corpul și sănătatea mea,
01:52
expecting that she is not going to turn around
39
112761
2476
așteptându-mă că nu va încerca
să împărtășească asta și cu părinții mei,
01:55
and share that information with my parents,
40
115261
3110
01:58
or my boss or my kids.
41
118395
2126
cu șeful sau copiii mei.
02:01
That information is private, not secret.
42
121585
2539
Aceste informații sunt confidențiale, nu secrete.
02:05
I'm in control over how that information is shared.
43
125085
3257
Eu dețin controlul asupra modului în care sunt împărtășite.
02:09
You've probably heard people say that there's a fundamental tension
44
129686
3159
Probabil ați auzit oameni spunând că există un conflict fundamental
02:12
between privacy on the one hand
45
132869
1762
între intimitate, pe de o parte,
02:14
and safety on the other.
46
134655
2023
și siguranță, pe de altă parte.
02:17
But the technologies that advance our privacy
47
137963
2532
Dar tehnologiile care promovează intimitatea
02:20
also advance our safety.
48
140519
1579
promovează și siguranța noastră.
02:22
Think about fences, door locks,
49
142122
2421
Gândiți-vă la garduri, încuietori de uși,
02:24
curtains on our windows, passwords,
50
144567
2753
perdele la geamurile noastre, parole,
programe de criptare.
02:27
encryption software.
51
147344
1333
02:29
All of these technologies
52
149522
1491
Toate tehnologiile acestea
02:31
simultaneously protect our privacy and our safety.
53
151037
4325
protejează simultan intimitatea și siguranța noastră.
02:36
Dragnet surveillance, on the other hand, protects neither.
54
156910
3493
Supravegherea electronică prin Dragnet nu protejează niciuna.
02:41
In recent years,
55
161486
1166
În ultimii ani,
02:42
the federal government tasked a group of experts
56
162676
2921
guvernul federal a însărcinat un grup de experți
02:45
called The Privacy and Civil Liberties Oversight Board
57
165621
2936
denumit Consiliul de Supraveghere al Vieții Private și Libertății Civile,
02:48
with examining post-9/11 government surveillance programs,
58
168581
3322
după atentatele din 11 septembrie, cu examinarea programelor e supraveghere
02:51
dragnet surveillance programs.
59
171927
1956
cum ar fi cele dragnet.
02:54
Those experts could not find a single example
60
174307
3135
Experții n-au găsit niciun exemplu
02:57
of that dragnet surveillance advancing any safety --
61
177466
3784
cum că supravegherea dragnet promovează siguranță,
03:01
didn't identify or stop a single terrorist attack.
62
181274
2867
n-a identificat sau oprit niciun atac terorist.
03:05
You know what that information was useful for, though?
63
185369
2881
Știți măcar la ce foloseau acele informații?
03:08
Helping NSA employees spy on their romantic interests.
64
188274
3157
Ajutau angajații NSA să spioneze idilele lor romantice.
03:11
(Laughter)
65
191455
1141
(Râsete)
03:12
(Audience: Wow.)
66
192620
1301
(Publicul: Wow!)
03:14
Another example is closer to home.
67
194892
1690
Un alt exemplu ne e mai cunoscut.
03:16
So millions of people across the United States and the world
68
196606
2858
Milioane de oameni din SUA și din lume
03:19
are adopting so-called "smart home" devices,
69
199488
2288
folosesc dispozitive inteligente pentru casă,
03:21
like internet-connected surveillance cameras.
70
201800
2563
precum camere de supraveghere conectate la internet.
03:24
But we know that any technology connected to the internet
71
204712
3262
Dar știm că orice tehnologie care e conectată la internet
03:27
can be hacked.
72
207998
1150
poate fi spartă.
03:30
And so if a hacker
73
210514
1714
Deci dacă un hacker
03:32
gets into your internet-connected surveillance camera at home,
74
212252
3302
accesează camerele de supraveghere conectate la internet,
03:35
they can watch you and your family coming and going,
75
215578
2698
te poate urmări pe tine și pe familia ta când veniți sau plecați,
03:38
finding just the right time to strike.
76
218300
2448
găsind momentul oportun să atace.
03:41
You know what can't be hacked remotely?
77
221553
2309
Știi ce nu pot fi sparte de la distanță?
03:44
Curtains.
78
224418
1156
Perdelele.
03:45
(Laughter)
79
225598
1001
(Râsete)
03:46
Fences.
80
226623
1414
Gardurile.
Încuietorile de la ușă.
03:48
Door locks.
81
228061
1160
(Râsete)
03:49
(Laughter)
82
229245
1141
03:50
Privacy is not the enemy of safety.
83
230410
2346
Intimitatea nu e inamicul siguranței.
03:53
It is its guarantor.
84
233113
1452
Este garantul acesteia.
03:56
Nonetheless, we daily face a propaganda onslaught
85
236129
3985
Totuși, zilnic ne confruntăm cu un atac propagandistic
04:00
telling us that we have to give up some privacy in exchange for safety
86
240138
4090
care ne spune să renunțăm la intimitate în schimbul siguranței,
04:04
through surveillance programs.
87
244252
2000
prin programe de supraveghere.
04:07
Face surveillance is the most dangerous of these technologies.
88
247085
3999
Cea mai periculoasă e însă supravegherea prin recunoaștere facială.
04:11
There are two primary ways today governments use technologies like this.
89
251966
5167
Există două moduri principale prin care guvernul folosește astfel de tehnologii.
Una e recunoașterea facială.
04:17
One is face recognition.
90
257157
1753
04:19
That's to identify someone in an image.
91
259243
2271
Identifică o persoană dintr-o imagine.
04:21
The second is face surveillance,
92
261538
2833
A doua e supravegherea prin recunoaștere facială,
04:24
which can be used in concert
93
264395
2055
folosită la concerte
04:26
with surveillance-camera networks and databases
94
266474
2856
prin rețele de supraveghere video și baze de date,
04:29
to create records of all people's public movements,
95
269354
3477
pentru a crea o evidență a mișcării publice a oamenilor,
04:32
habits and associations,
96
272855
2405
a obiceiurilor și prieteniilor lor,
04:35
effectively creating a digital panopticon.
97
275284
2912
creând astfel un panoptic digital.
04:38
This is a panopticon.
98
278903
1857
Asta e un panoptic.
04:40
It's a prison designed to allow a few guards in the center
99
280784
4222
Este o închisoare creată pentru a permite câtorva gardieni
să monitorizeze tot ce se întâmplă în celulele din jurul perimetrului.
04:45
to monitor everything happening in the cells around the perimeter.
100
285030
3944
04:49
The people in those prison cells can't see inside the guard tower,
101
289482
4667
Oamenii din celule nu văd în interiorul turnul de pază,
04:54
but the guards can see into every inch of those cells.
102
294173
3666
dar gardienii pot vedea fiecare centimetru din acele celule.
04:59
The idea here
103
299268
2055
Ideea este
05:01
is that if the people in those prison cells
104
301347
2595
că dacă oamenii din celule
05:03
know they're being watched all the time,
105
303966
1929
știu că sunt priviți mereu,
05:05
or could be,
106
305919
1460
sau că ar putea fi,
05:07
they'll behave accordingly.
107
307403
1968
se vor purta în consecință.
05:09
Similarly, face surveillance enables a centralized authority --
108
309395
3774
La fel, supravegherea prin recunoaștere facială permite unei autorități,
05:13
in this case, the state --
109
313193
1884
în cazul acesta, statul,
să monitorizeze totalitatea mișcărilor oamenilor
05:15
to monitor the totality of human movement and association
110
315101
3357
05:18
in public space.
111
318482
1150
în spațiile publice.
05:20
And here's what it looks like
112
320053
1397
Și așa arată în viața reală.
05:21
in real life.
113
321474
1372
05:22
In this case, it's not a guard in a tower,
114
322870
2802
În acest caz, nu este un paznic în turn,
05:25
but rather a police analyst in a spy center.
115
325696
3278
ci mai degrabă un analist al poliției într-un centru de spionaj.
05:29
The prison expands beyond its walls,
116
329506
3150
Închisoarea se extinde după ziduri,
05:32
encompassing everyone,
117
332680
1882
cuprinzând pe toată lumea,
05:34
everywhere, all the time.
118
334586
2491
peste tot, tot timpul.
05:38
In a free society,
119
338189
1309
Într-o societate liberă,
05:39
this should terrify us all.
120
339522
2404
asta ar trebui să ne sperie pe toți.
05:43
For decades now, we've watched cop shows
121
343927
2390
De zeci de ani am început să urmărim seriale polițiste
05:46
that push a narrative that says
122
346341
1722
care argumentează faptul că tehnologiile
05:48
technologies like face surveillance ultimately serve the public good.
123
348087
3740
precum supravegherea facială servesc binelui comun.
05:52
But real life is not a cop drama.
124
352419
2200
Dar viața reală nu e un serial polițist.
Nu e întotdeauna vina personajului negativ,
05:56
The bad guy didn't always do it,
125
356149
1968
polițiștii nu sunt mereu personajele pozitive,
05:58
the cops definitely aren't always the good guys
126
358141
3269
06:01
and the technology doesn't always work.
127
361434
2600
iar tehnologia nu funcționează mereu.
06:04
Take the case of Steve Talley,
128
364602
1896
Să luăm exemplul lui Steve Talley,
06:06
a financial analyst from Colorado.
129
366522
2492
un analist financiar din Colorado.
06:09
In 2015, Talley was arrested, and he was charged with bank robbery
130
369038
3905
În 2015 a fost arestat și acuzat de jefuirea unei bănci
06:12
on the basis of an error in a facial recognition system.
131
372967
3288
pe baza unei erori a sistemul de recunoaștere facială.
06:16
Talley fought that case
132
376985
1183
Talley i-a dat în judecată și în final a scăpat de acuzații,
06:18
and he eventually was cleared of those charges,
133
378192
2222
dar în timpul în care a fost persecutat de stat,
06:20
but while he was being persecuted by the state,
134
380438
2594
și-a pierdut casa, locul de muncă și copiii.
06:23
he lost his house, his job and his kids.
135
383056
3511
06:27
Steve Talley's case is an example
136
387941
1677
Cazul lui Steve Talley e un exemplu
06:29
of what can happen when the technology fails.
137
389642
2501
de ce se poate întâmpla când tehnologia eșuează.
06:33
But face surveillance is just as dangerous when it works as advertized.
138
393219
4248
Dar supravegherea facială e la fel de periculoasă și când e eficientă.
06:38
Just consider how trivial it would be
139
398875
2818
Imaginează-ți cât de banal ar fi
06:41
for a government agency to put a surveillance camera
140
401717
2443
ca o agenție guvernamentală să instaleze o cameră video
în afara unei clădiri destinate pentru Alcoolicii Anonimi.
06:44
outside a building where people meet for Alcoholics Anonymous meetings.
141
404184
3944
06:49
They could connect that camera
142
409194
1522
Pot conecta acea cameră
06:50
to a face-surveillance algorithm and a database,
143
410740
2652
la un algoritm cu recunoaștere facială și la o bază de date,
06:53
press a button and sit back and collect
144
413416
1927
apasă un buton și află astfel
06:55
a record of every person receiving treatment for alcoholism.
145
415367
3220
toate persoanele aflate sub tratament pentru alcoolism.
07:00
It would be just as easy for a government agency
146
420204
2307
Ar fi la fel de simplu pentru o agenție guvernamentală
07:02
to use this technology to automatically identify
147
422535
2629
să folosească tehnologia pentru a identifica automat
07:05
every person who attended the Women's March
148
425188
2381
cine a participat la Marșul Femeilor
07:07
or a Black Lives Matter protest.
149
427593
2133
sau la un protest Black Lives Matter.
Chiar și industria tehnologiei e conștientă de gravitatea problemei.
07:11
Even the technology industry is aware of the gravity of this problem.
150
431163
3881
07:15
Microsoft's president Brad Smith has called on Congress to intervene.
151
435910
4390
Președintele de la Microsoft, Brad Smith, a solicitat intervenția Congresului.
Google, la rândul său,
07:21
Google, for its part,
152
441188
1382
07:22
has publicly declined to ship a face surveillance product,
153
442594
3602
a refuzat public transmiterea unui produs cu astfel de supraveghere,
07:26
in part because of these grave human and civil rights concerns.
154
446220
3547
din cauza preocupărilor legate de drepturile omului și drepturile civile.
07:30
And that's a good thing.
155
450514
1600
Și este un lucru bun.
07:32
Because ultimately,
156
452840
1611
Pentru că în cele din urmă,
07:34
protecting our open society is much more important
157
454475
3501
protejarea societății noastre e mult mai importantă
decât profitul corporativ.
07:38
than corporate profit.
158
458000
1467
Campania națională ACLU de a opri guvernul să adopte
07:41
The ACLU's nationwide campaign
159
461078
2342
07:43
to get the government to pump the brakes
160
463444
1928
07:45
on the adoption of this dangerous technology
161
465396
2331
această tehnologie periculoasă
07:47
has prompted reasonable questions from thoughtful people.
162
467751
2929
a atras întrebări firești din partea oamenilor preocupați.
07:51
What makes this technology in particular so dangerous?
163
471807
3666
De ce e această tehnologie atât de periculoasă?
07:55
Why can't we just regulate it?
164
475791
2237
De ce n-o putem reglementa?
Pe scurt, de ce atâta agitație?
07:58
In short, why the alarm?
165
478052
2168
08:01
Face surveillance is uniquely dangerous for two related reasons.
166
481236
4412
Supravegherea prin recunoaștere facială e periculoasă din două motive.
08:06
One is the nature of the technology itself.
167
486133
3174
Primul motiv e natura tehnologiei.
08:09
And the second is that our system
168
489331
2272
Iar al doilea e că sistemului nostru
08:11
fundamentally lacks the oversight and accountability mechanisms
169
491627
4410
îi lipsește controlul și mecanismele de responsabilizare
08:16
that would be necessary
170
496061
1406
care sunt necesare
08:17
to ensure it would not be abused in the government's hands.
171
497491
3602
pentru a ne asigura că guvernul nu va abuza de ele.
08:22
First, face surveillance enables a totalizing form of surveillance
172
502562
4912
În primul rând, supravegherea facială permite o formă de supraveghere
08:27
never before possible.
173
507498
1467
ce nu a mai fost posibilă vreodată.
Toate vizitele unei persoane la prieteni,
08:30
Every single person's every visit to a friend's house,
174
510006
3960
08:33
a government office,
175
513990
1563
la o instituție,
08:35
a house of worship,
176
515577
2087
la un lăcaș de cult,
08:37
a Planned Parenthood,
177
517688
1413
la o clinică de avort,
08:39
a cannabis shop,
178
519125
1500
la un magazin de canabis,
08:40
a strip club;
179
520649
1467
la un club de striptease;
08:42
every single person's public movements, habits and associations
180
522958
4317
toate mișcările publice, obiceiurile și prieteniile fiecăruia,
documentate și catalogate,
08:47
documented and catalogued,
181
527299
1635
08:48
not on one day, but on every day,
182
528958
2365
nu doar o zi, ci zilnic,
08:51
merely with the push of a button.
183
531347
1945
cu doar o apăsare de buton.
08:54
This kind of totalizing mass surveillance
184
534276
3142
Acest tip de supraveghere în masă
amenință în mod fundamental ceea ce înseamnă o societate liberă.
08:57
fundamentally threatens what it means to live in a free society.
185
537442
3032
09:00
Our freedom of speech, freedom of association,
186
540498
2729
Libertatea noastră de exprimare, libertatea de asociere,
09:03
freedom of religion,
187
543251
1335
libertatea credinței,
09:04
freedom of the press,
188
544610
1253
libertatea presei,
09:05
our privacy,
189
545887
1214
intimitatea noastră,
09:07
our right to be left alone.
190
547125
1800
dreptul de a fi lăsați în pace.
09:10
You may be thinking,
191
550467
1460
Poate te gândești:
09:11
"OK, come on, but there are tons of ways the government can spy on us."
192
551951
3335
„Bun, dar există mii de moduri cu care guvernul ne poate spiona.”
09:15
And yes, it's true,
193
555310
1197
Și da, e adevărat,
09:16
the government can track us through our cell phones,
194
556531
2453
guvernul ne poate urmări prin telefoane,
dar dacă vreau să fac un avort,
09:19
but if I want to go to get an abortion,
195
559008
3632
09:22
or attend a political meeting,
196
562664
1786
sau să particip la o întrunire politică,
09:24
or even just call in sick and play hooky and go to the beach ...
197
564474
4278
sau doar să-mi iau concediu medical ca să pot juca hochei și să merg la plajă,
09:28
(Laughter)
198
568776
1341
(Râsete)
îmi pot lăsa telefonul acasă.
09:30
I can leave my phone at home.
199
570141
1933
Nu-mi pot lăsa fața acasă.
09:33
I cannot leave my face at home.
200
573101
2254
09:37
And that brings me to my second primary concern:
201
577165
2539
Ceea ce mă duce la a doua problemă principală:
09:39
How we might meaningfully regulate this technology.
202
579728
3327
cum putem reglementa această tehnologie.
09:44
Today, if the government wants to know where I was last week,
203
584315
3714
Azi, dacă guvernul vrea să știe unde am fost săptămâna trecută,
09:48
they can't just hop into a time machine and go back in time and follow me.
204
588053
4524
nu pot să călătorească în timp și să mă urmărească.
09:53
And they also, the local police right now,
205
593585
2736
Și de asemenea, în prezent poliția locală
09:56
don't maintain any centralized system of tracking,
206
596345
3293
nu deține un sistem centralizat de urmărire
09:59
where they're cataloging every person's public movements all the time,
207
599662
3366
prin care înregistrează mereu mișcările publice ale fiecărui om,
în caz că acea informație va fi cândva de folos.
10:03
just in case that information some day becomes useful.
208
603052
3383
10:06
Today, if the government wants to know where I was last week,
209
606783
3102
Azi, dacă guvernul vrea să știe unde am fost săptămâna trecută,
10:09
or last month or last year,
210
609909
1605
sau luna trecută sau anul trecut,
10:11
they have to go to a judge, get a warrant
211
611538
2360
trebuie să obțină un mandat de la judecător
10:13
and then serve that warrant on my phone company,
212
613922
2290
și să arate mandatul companiei mele telefonice,
10:16
which by the way, has a financial interest in protecting my privacy.
213
616236
3612
care, apropo, are un interes financiar în protejarea intimității mele.
Cu recunoașterea facială,
10:21
With face surveillance,
214
621027
1627
10:22
no such limitations exist.
215
622678
2055
nu mai există astfel de limite.
10:25
This is technology that is 100 percent controlled by the government itself.
216
625226
4620
E o tehnologie controlată 100% de guvern.
10:31
So how would a warrant requirement work in this context?
217
631363
3967
Deci, cum ar funcționa un mandat în acest context?
10:36
Is the government going to go to a judge
218
636307
2000
Va merge guvernul la un judecător
10:38
and get a warrant,
219
638331
1166
să ceară un mandat,
10:39
and then serve the warrant on themselves?
220
639521
2015
și apoi vor prezenta mandatul lor înșiși?
Ar fi ca și cum ți-aș da jurnalul meu și aș spune:
10:42
That would be like me giving you my diary,
221
642109
2016
10:44
and saying, "Here, you can hold on to this forever,
222
644149
2595
„Poți să-l păstrezi toată viața, dar nu-l poți citi până când zic eu.”
10:46
but you can't read it until I say it's OK."
223
646768
2638
Deci ce putem face?
10:50
So what can we do?
224
650102
1200
10:53
The only answer to the threat
225
653221
2132
Singurul răspuns la amenințarea
10:55
posed by the government's use of face surveillance
226
655377
3431
guvernului de a folosi supravegherea prin recunoaștere facială
10:58
is to deny the government the capacity to violate the public's trust,
227
658832
4958
e să nu permitem de la început ca guvernul să poată încălca încrederea cetățenilor,
11:03
by denying the government the ability
228
663814
2064
nepermițând guvernului
11:05
to build these in-house face-surveillance networks.
229
665902
3235
să construiască aceste rețele de supraveghere prin recunoaștere facială.
11:09
And that's exactly what we're doing.
230
669711
2008
Și asta e exact ce facem.
11:12
The ACLU is part of a nationwide campaign
231
672567
3269
ACLU face parte dintr-o campanie națională
11:15
to pump the brakes on the government's use of this dangerous technology.
232
675860
3706
de a împiedica guvernul să folosească această tehnologie periculoasă.
11:20
We've already been successful,
233
680138
1445
Am avut deja succes,
11:21
from San Francisco to Somerville, Massachusetts,
234
681607
3114
din San Francisco până în Somerville, Massachusetts,
11:24
we have passed municipal bans
235
684745
2127
am reușit să interzicem în orașe
11:26
on the government's use of this technology.
236
686896
2246
folosirea de către guvern a acestei tehnologii.
11:29
And plenty of other communities here in Massachusetts
237
689166
2548
Și multe comunități din Massachusetts
11:31
and across the country
238
691738
1189
și din toată țara
11:32
are debating similar measures.
239
692951
1445
dezbat măsuri similare.
11:34
Some people have told me that this movement is bound to fail.
240
694420
3514
Câțiva oameni mi-au spus că această mișcare va eșua.
11:38
That ultimately,
241
698625
1631
Că în final,
11:40
merely because the technology exists,
242
700280
2075
doar pentru că tehnologia există,
11:42
it will be deployed in every context
243
702379
3087
va fi folosită în orice context
11:45
by every government everywhere.
244
705490
2444
de către fiecare guvern, peste tot.
Intimitatea nu mai există, așa-i?
11:50
Privacy is dead, right?
245
710070
1533
11:52
So the narrative goes.
246
712388
1466
Așa se spune.
Ei bine, refuz să accept asta.
11:55
Well, I refuse to accept that narrative.
247
715030
2310
11:57
And you should, too.
248
717364
1266
Și la fel ar trebui și voi.
12:00
We can't allow Jeff Bezos or the FBI
249
720214
3793
Nu putem permite lui Jeff Bezos sau FBI-ului
să stabilească limitele libertății noastre în secolul XXI.
12:04
to determine the boundaries of our freedoms in the 21st century.
250
724031
4159
12:09
If we live in a democracy,
251
729413
2149
Dacă trăim în democrație,
12:11
we are in the driver's seat,
252
731586
1999
noi stăm pe locul șoferului,
12:13
shaping our collective future.
253
733609
2000
noi ne construim viitorul comun.
12:16
We are at a fork in the road right now.
254
736704
2111
Suntem la o răscruce de drumuri acum.
12:19
We can either continue with business as usual,
255
739379
2444
Putem continua la fel ca până acum,
12:21
allowing governments to adopt and deploy these technologies unchecked,
256
741847
4007
permițând guvernelor să adopte și să instaleze aceste tehnologii,
12:25
in our communities, our streets and our schools,
257
745878
3317
în comunitățile, străzile și în școlile noastre,
12:29
or we can take bold action now
258
749219
4889
sau putem acționa hotărât acum
12:34
to press pause on the government's use of face surveillance,
259
754132
4333
pentru a opri folosirea de către guverne a supravegherii prin recunoaștere facială,
12:38
protect our privacy
260
758489
1587
să ne protejăm intimitatea
și să ne construim un viitor mai sigur și mai liber
12:40
and to build a safer, freer future
261
760100
3087
12:43
for all of us.
262
763211
1357
pentru fiecare dintre noi.
12:44
Thank you.
263
764592
1151
Vă mulțumesc!
12:45
(Applause and cheers)
264
765767
2427
(Aplauze și urale)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7