When technology can read minds, how will we protect our privacy? | Nita Farahany

158,926 views ・ 2018-12-18

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Claudia Pravat Corector: Cristina Nicolae
00:13
In the months following the 2009 presidential election in Iran,
0
13096
4714
În lunile care au urmat alegerilor prezidențiale din Iran, în 2009,
00:17
protests erupted across the country.
1
17834
2894
au izbucnit proteste în toată țara.
00:21
The Iranian government violently suppressed
2
21685
2896
Guvernul iranian a suprimat violent
00:24
what came to be known as the Iranian Green Movement,
3
24605
3979
ceea ce a ajuns să fie cunoscut sub numele de Mișcarea Verde Iraniană,
00:28
even blocking mobile signals
4
28608
2053
blocând rețeaua de telefonie mobilă
00:30
to cut off communication between the protesters.
5
30685
2714
pentru a opri comunicarea dintre demonstranți.
00:34
My parents, who emigrated to the United States in the late 1960s,
6
34316
4669
Părinții mei, emigrați în Statele Unite la sfârșitul anilor '60,
00:39
spend substantial time there,
7
39009
1794
petrec timp însemnat acolo,
00:40
where all of my large, extended family live.
8
40827
3153
unde se află întreaga mea familie.
00:44
When I would call my family in Tehran
9
44832
3129
Când îi sun la Teheran,
00:47
during some of the most violent crackdowns of the protest,
10
47985
3452
în timpul unei represiuni violente,
00:51
none of them dared discuss with me what was happening.
11
51461
3252
niciunul dintre ei nu îndrăznește să-mi spună ce se întâmplă.
00:55
They or I knew to quickly steer the conversation to other topics.
12
55196
3529
Și ei, și eu știm să schimbăm discuția către alte subiecte.
00:59
All of us understood what the consequences could be
13
59163
3380
Am înțeles cu toții care ar putea fi consecințele
01:02
of a perceived dissident action.
14
62567
2540
unei acțiuni considerate dizidente.
01:06
But I still wish I could have known what they were thinking
15
66095
3469
Dar tot îmi doresc să fi știut ce-au gândit
01:09
or what they were feeling.
16
69588
1418
sau ce-au simțit.
01:12
What if I could have?
17
72217
1393
Cum ar fi fost să pot?
01:14
Or more frighteningly,
18
74149
1151
Sau, mai îngrozitor,
01:15
what if the Iranian government could have?
19
75324
2761
dacă guvernul iranian ar fi putut?
01:18
Would they have arrested them based on what their brains revealed?
20
78695
3244
I-ar aresta pe baza informațiilor dezvăluite de creierul lor?
01:22
That day may be closer than you think.
21
82933
2944
Acea zi e mai aproape decât vă imaginați.
01:26
With our growing capabilities in neuroscience, artificial intelligence
22
86527
3811
Cu noile capacități ale neuroștiinței, ale inteligenței artificiale
01:30
and machine learning,
23
90362
1703
și ale învățării automate,
01:32
we may soon know a lot more of what's happening in the human brain.
24
92089
4075
s-ar putea să știm în curând mult mai mult din ceea ce se întâmplă în creierul uman.
01:37
As a bioethicist, a lawyer, a philosopher
25
97083
3310
Ca bioetician, avocat, filozof
01:40
and an Iranian-American,
26
100417
1867
și cetățean iranian și american,
01:42
I'm deeply concerned about what this means for our freedoms
27
102308
3787
sunt foarte îngrijorată de ce înseamnă acest lucru pentru libertățile noastre
01:46
and what kinds of protections we need.
28
106119
2171
și cum am putea să ne protejăm.
01:48
I believe we need a right to cognitive liberty,
29
108993
3460
Cred că avem nevoie de dreptul la libertate cognitivă,
01:52
as a human right that needs to be protected.
30
112477
2892
ca drept al omului ce trebuie protejat.
01:55
If not, our freedom of thought,
31
115772
2643
În caz contrar, libertatea de gândire
01:58
access and control over our own brains
32
118439
3024
accesul și controlul propriilor noastre creiere
02:01
and our mental privacy will be threatened.
33
121487
2841
și intimitatea noastră mintală vor fi în pericol.
02:05
Consider this:
34
125698
1158
Gândiți-vă la asta:
02:06
the average person thinks thousands of thoughts each day.
35
126880
3314
o persoană medie are mii de gânduri în fiecare zi.
02:10
As a thought takes form,
36
130697
1151
Când se formează un gând,
02:11
like a math calculation or a number, a word,
37
131872
5056
cum ar fi un calcul matematic, un număr sau un cuvânt,
02:16
neurons are interacting in the brain,
38
136952
2885
neuronii interacționează în creier,
02:19
creating a miniscule electrical discharge.
39
139861
3088
generând o minusculă descărcare electrică.
02:23
When you have a dominant mental state, like relaxation,
40
143713
3452
Când predomină o stare mintală, cum ar fi relaxarea,
02:27
hundreds and thousands of neurons are firing in the brain,
41
147189
4175
sute și mii de neuroni se activează în creier,
02:31
creating concurrent electrical discharges in characteristic patterns
42
151388
4218
generând descărcări electrice simultane în structurile caracteristice,
02:35
that can be measured with electroencephalography, or EEG.
43
155630
4865
care pot fi măsurate folosind electroencefalograful (EEG).
02:41
In fact, that's what you're seeing right now.
44
161118
2160
E, de fapt, ceea ce vedeți acum.
02:43
You're seeing my brain activity that was recorded in real time
45
163956
3964
Vedeți activitatea creierului meu, care a fost înregistrată în timp real
02:47
with a simple device that was worn on my head.
46
167944
2735
cu un dispozitiv simplu pe care l-am purtat pe cap.
02:51
What you're seeing is my brain activity when I was relaxed and curious.
47
171669
5653
Ce vedeți e activitatea creierului meu în stare de relaxare și curiozitate.
02:58
To share this information with you,
48
178097
1755
Pentru a împărtăși aceste informații,
02:59
I wore one of the early consumer-based EEG devices
49
179876
3020
am purtat unul dintre primele dispozitive EEG,
03:02
like this one,
50
182920
1211
ca acesta,
03:04
which recorded the electrical activity in my brain in real time.
51
184155
3988
care a înregistrat în timp real activitatea electrică din creierul meu.
03:08
It's not unlike the fitness trackers that some of you may be wearing
52
188849
3826
Nu este diferit de dispozitivele de fitness pe care le purtăm
03:12
to measure your heart rate or the steps that you've taken,
53
192699
3586
ca să măsurăm bătăile inimii sau pașii pe care îi facem
03:16
or even your sleep activity.
54
196309
1587
sau chiar somnul.
03:19
It's hardly the most sophisticated neuroimaging technique on the market.
55
199154
3824
Nu este deloc cea mai sofisticată tehnologie neuroimagistică de pe piață.
03:23
But it's already the most portable
56
203597
2378
Dar e deja cea mai portabilă
03:25
and the most likely to impact our everyday lives.
57
205999
3152
și cu cel mai mare impact asupra vieții noastre.
03:29
This is extraordinary.
58
209915
1503
Este nemaipomenit.
03:31
Through a simple, wearable device,
59
211442
2505
Printr-un simplu dispozitiv portabil,
03:33
we can literally see inside the human brain
60
213971
3548
putem vedea în interiorul creierului uman
03:37
and learn aspects of our mental landscape without ever uttering a word.
61
217543
6476
și îi putem descoperi caracteristicile fără a rosti niciun cuvânt.
03:44
While we can't reliably decode complex thoughts just yet,
62
224829
3653
Deși nu putem descifra încă gândurile complicate,
03:48
we can already gauge a person's mood,
63
228506
2519
putem măsura dispoziția cuiva
03:51
and with the help of artificial intelligence,
64
231049
2873
și, cu ajutorul inteligenței artificiale,
03:53
we can even decode some single-digit numbers
65
233946
4341
putem decodifica numere de o cifră,
03:58
or shapes or simple words that a person is thinking
66
238311
4882
forme sau cuvinte simple pe care cineva le gândește,
04:03
or hearing, or seeing.
67
243217
2189
le aude sau le vede.
04:06
Despite some inherent limitations in EEG,
68
246345
3365
În ciuda limitărilor firești ale EEG,
04:09
I think it's safe to say that with our advances in technology,
69
249734
4720
cred că se poate spune că odată cu progresul nostru în tehnologie,
04:14
more and more of what's happening in the human brain
70
254478
3809
tot mai mult din ce se întâmplă în creierul uman
04:18
can and will be decoded over time.
71
258311
2310
poate și va fi descifrat în timp.
04:21
Already, using one of these devices,
72
261362
2746
Deja, folosind un asemenea dispozitiv,
04:24
an epileptic can know they're going to have an epileptic seizure
73
264132
3255
o persoană cu epilepsie știe când va avea o criză
04:27
before it happens.
74
267411
1436
înainte ca ea să se întâmple.
04:28
A paraplegic can type on a computer with their thoughts alone.
75
268871
4603
O persoană paraplegică poate scrie pe calculator cu ajutorul gândului.
04:34
A US-based company has developed a technology to embed these sensors
76
274485
4183
O companie din America a dezvoltat o tehnologie ce integrează acești senzori
04:38
into the headrest of automobilies
77
278692
2230
în tetierele mașinilor,
04:40
so they can track driver concentration,
78
280946
2505
astfel încât să poată urmări concentrarea șoferului,
04:43
distraction and cognitive load while driving.
79
283475
2667
distragerea atenției și oboseala mintală în timp ce conduce.
04:46
Nissan, insurance companies and AAA have all taken note.
80
286912
4058
Nissan, companiile de asigurare și AAA țin seama de aceasta.
04:51
You could even watch this choose-your-own-adventure movie
81
291949
4508
Puteți chiar să vedeți acest film în care vă alegeți acțiunea,
04:56
"The Moment," which, with an EEG headset,
82
296481
4240
„Momentul”, care, cu o cască EEG,
05:00
changes the movie based on your brain-based reactions,
83
300745
3926
schimbă filmul pe baza reacțiilor din creierul vostru,
05:04
giving you a different ending every time your attention wanes.
84
304695
4353
oferindu-vă un alt final de fiecare dată când atenția voastră scade.
05:11
This may all sound great,
85
311154
2763
Toate acestea pot părea minunate
05:13
and as a bioethicist,
86
313941
2189
și, ca bioetician,
05:16
I am a huge proponent of empowering people
87
316154
3613
susțin posibilitatea oamenilor
05:19
to take charge of their own health and well-being
88
319791
2616
de a se ocupa de propria sănătate și bunăstare,
05:22
by giving them access to information about themselves,
89
322431
2918
oferindu-le acces la informații despre ei,
05:25
including this incredible new brain-decoding technology.
90
325373
2976
inclusiv la această excelentă tehnologie de descifrare a creierului.
05:29
But I worry.
91
329878
1167
Dar sunt îngrijorată.
05:31
I worry that we will voluntarily or involuntarily give up
92
331736
4760
Mi-e teamă că vom renunța, cu voie sau fără voie,
05:36
our last bastion of freedom, our mental privacy.
93
336520
4118
la ultimul bastion al libertății, intimitatea noastră mintală.
05:41
That we will trade our brain activity
94
341302
2925
Că vom oferi activitatea creierului
05:44
for rebates or discounts on insurance,
95
344251
3046
pentru promoții, reduceri la asigurare,
05:48
or free access to social-media accounts ...
96
348391
2603
sau acces liber la rețelele sociale,
05:52
or even to keep our jobs.
97
352444
1848
sau pentru a ne păstra locul de muncă.
05:54
In fact, in China,
98
354900
1913
În China,
05:58
the train drivers on the Beijing-Shanghai high-speed rail,
99
358199
5897
conductorii trenurilor de mare viteză de pe ruta Beijing-Shanghai,
06:04
the busiest of its kind in the world,
100
364120
2532
cea mai aglomerată de acest gen din lume,
06:06
are required to wear EEG devices
101
366676
2476
sunt obligați să poarte dispozitive EEG
06:09
to monitor their brain activity while driving.
102
369176
2427
ce urmăresc activitatea creierului în timp ce conduc.
06:12
According to some news sources,
103
372157
2226
Potrivit unor surse de știri,
06:14
in government-run factories in China,
104
374407
2679
în fabricile guvernamentale din China,
06:17
the workers are required to wear EEG sensors to monitor their productivity
105
377110
5364
muncitorii trebuie să poarte senzori EEG pentru a li se monitoriza productivitatea
06:22
and their emotional state at work.
106
382498
2115
și starea emoțională la locul de muncă.
06:25
Workers are even sent home
107
385267
2310
Unii dintre ei chiar sunt trimiși acasă
06:27
if their brains show less-than-stellar concentration on their jobs,
108
387601
4054
dacă creierul lor indică o concentrare mai scăzută la serviciu
06:31
or emotional agitation.
109
391679
2122
sau o stare de agitație emoțională.
06:35
It's not going to happen tomorrow,
110
395189
1745
Nu se va întâmpla mâine,
06:36
but we're headed to a world of brain transparency.
111
396958
3086
dar ne îndreptăm către o lume de transparență a creierului.
06:40
And I don't think people understand that that could change everything.
112
400537
3440
Și nu cred că oamenii înțeleg că asta ar putea schimba totul.
06:44
Everything from our definitions of data privacy to our laws,
113
404474
3675
De la ce înțelegem prin confidențialitatea datelor, a regulilor,
06:48
to our ideas about freedom.
114
408173
1800
până la ideea noastră de libertate.
06:50
In fact, in my lab at Duke University,
115
410731
3077
În laboratorul meu de la Universitatea Duke,
06:53
we recently conducted a nationwide study in the United States
116
413832
3175
am efectuat recent un studiu la nivel național,
06:57
to see if people appreciated
117
417031
1959
pentru a vedea dacă oamenii apreciază
06:59
the sensitivity of their brain information.
118
419014
2071
sensibilitatea informațiilor despre creier.
07:02
We asked people to rate their perceived sensitivity
119
422356
3356
Le-am cerut să evalueze cum percep sensibilitatea
07:05
of 33 different kinds of information,
120
425736
2231
a 33 de tipuri diferite de informații,
07:07
from their social security numbers
121
427991
2220
de la codul numeric personal
07:10
to the content of their phone conversations,
122
430235
2597
la conținutul unei convorbiri telefonice,
07:12
their relationship history,
123
432856
2193
istoricul relațiilor lor,
07:15
their emotions, their anxiety,
124
435073
1942
sentimentele, anxietatea,
07:17
the mental images in their mind
125
437039
1946
imaginile mintale
07:19
and the thoughts in their mind.
126
439009
1538
și gândurile din mintea lor.
07:21
Shockingly, people rated their social security number as far more sensitive
127
441481
5229
Surprinzător, oamenii își evaluează codul numeric personal mai mult
07:26
than any other kind of information,
128
446734
2203
decât orice alt tip de informație,
07:28
including their brain data.
129
448961
2435
chiar și despre creierul lor.
07:32
I think this is because people don't yet understand
130
452380
3216
Cred că asta se întâmplă deoarece oamenii nu înțeleg încă
07:35
or believe the implications of this new brain-decoding technology.
131
455620
4063
sau nu cred implicațiile tehnologiei de decodificare a creierului.
07:40
After all, if we can know the inner workings of the human brain,
132
460629
3289
La urma urmei, dacă știm cum funcționează creierul uman,
07:43
our social security numbers are the least of our worries.
133
463942
2706
codul numeric personal e ultima noastră grijă.
07:46
(Laughter)
134
466672
1285
(Râsete)
07:47
Think about it.
135
467981
1167
Gândiți-vă puțin.
07:49
In a world of total brain transparency,
136
469172
2396
Într-o lume de transparență absolută a creierului
07:51
who would dare have a politically dissident thought?
137
471592
2429
cine ar îndrăzni să aibă un gând dizident politic?
07:55
Or a creative one?
138
475279
1541
Sau unul creativ?
07:57
I worry that people will self-censor
139
477503
3476
Mi-e teamă că oamenii se vor auto-cenzura
08:01
in fear of being ostracized by society,
140
481003
3302
de frica de a fi ostracizați de societate,
08:04
or that people will lose their jobs because of their waning attention
141
484329
3813
sau că își vor pierde locul de muncă pentru că nu mai sunt atenți,
08:08
or emotional instability,
142
488166
2150
sunt instabili emoțional,
08:10
or because they're contemplating collective action against their employers.
143
490340
3550
sau gândesc să se organizeze împotriva angajatorului.
08:14
That coming out will no longer be an option,
144
494478
3177
Dezvăluirea orientării sexuale nu va mai fi o alegere,
08:17
because people's brains will long ago have revealed their sexual orientation,
145
497679
5067
deoarece creierul va putea spune orientarea sexuală,
08:22
their political ideology
146
502770
1822
ideologia politică
08:24
or their religious preferences,
147
504616
2025
sau preferințele religioase,
08:26
well before they were ready to consciously share that information
148
506665
3080
cu mult înainte ca cineva să poată să împărtășească aceste informații
08:29
with other people.
149
509769
1253
altor persoane.
08:31
I worry about the ability of our laws to keep up with technological change.
150
511565
4912
Mi-e teamă că legile nu vor ține pasul cu schimbările tehnologice.
08:36
Take the First Amendment of the US Constitution,
151
516986
2320
De exemplu primul amendament al Constituției SUA,
08:39
which protects freedom of speech.
152
519330
1958
care protejează libertatea de exprimare.
08:41
Does it also protect freedom of thought?
153
521312
1927
Protejează și libertatea de gândire?
08:43
And if so, does that mean that we're free to alter our thoughts however we want?
154
523944
4169
Dacă da, asta înseamnă că putem să ne schimbăm gândurile cum dorim?
08:48
Or can the government or society tell us what we can do with our own brains?
155
528137
4674
Sau guvernul și societatea ne pot dicta ce putem face cu propriul creier?
08:53
Can the NSA spy on our brains using these new mobile devices?
156
533591
3717
Poate NSA să ne spioneze creierul folosind noile dispozitive mobile?
08:58
Can the companies that collect the brain data through their applications
157
538053
4119
Companiile care folosesc aplicații ce colectează informații despre creier
09:02
sell this information to third parties?
158
542196
2074
pot să le vândă către terți?
09:05
Right now, no laws prevent them from doing so.
159
545174
3222
Acum nu există nicio lege care să le interzică asta.
09:09
It could be even more problematic
160
549203
2025
Ar putea fi și mai grav
09:11
in countries that don't share the same freedoms
161
551252
2519
în țările în care nu există aceleași libertăți
09:13
enjoyed by people in the United States.
162
553795
2103
de care se bucură Statele Unite.
09:16
What would've happened during the Iranian Green Movement
163
556883
3787
Ce s-ar fi întâmplat în timpul Mișcării Iraniene
09:20
if the government had been monitoring my family's brain activity,
164
560694
3901
dacă guvernul ar fi monitorizat creierele familiei mele
09:24
and had believed them to be sympathetic to the protesters?
165
564619
4007
și ar fi dedus că simpatizează cu protestatarii?
09:30
Is it so far-fetched to imagine a society
166
570091
3047
E atât de nefiresc să ne imaginăm o societate
09:33
in which people are arrested based on their thoughts
167
573162
2842
unde oamenii sunt arestați pentru că se gândesc să comită o infracțiune,
09:36
of committing a crime,
168
576028
1167
09:37
like in the science-fiction dystopian society in "Minority Report."
169
577219
4312
ca în societatea distopică SF din „Minority Report”.
09:42
Already, in the United States, in Indiana,
170
582286
4323
Deja în Statele Unite, în Indiana,
09:46
an 18-year-old was charged with attempting to intimidate his school
171
586633
4937
un tânăr de 18 ani a fost acuzat că încearcă să-și terorizeze școala
09:51
by posting a video of himself shooting people in the hallways ...
172
591594
3309
prin postarea unui video în care împușcă oameni pe culoare.
09:55
Except the people were zombies
173
595881
3007
Doar că oamenii erau zombii
09:58
and the video was of him playing an augmented-reality video game,
174
598912
5047
și video-ul era despre el jucând un joc de realitate augmentată,
10:03
all interpreted to be a mental projection of his subjective intent.
175
603983
4772
iar asta a fost interpretat ca fiind o proiecție mintală a intențiilor lui.
10:10
This is exactly why our brains need special protection.
176
610456
4612
Tocmai de aceea creierele noastre au nevoie de protecție specială.
10:15
If our brains are just as subject to data tracking and aggregation
177
615092
3556
Dacă creierul nostru e subiectul urmăririi și cumulării de informații
10:18
as our financial records and transactions,
178
618672
2532
la fel ca tranzacțiile și situația noastră financiară,
10:21
if our brains can be hacked and tracked like our online activities,
179
621228
4285
dacă creierul nostru poate fi atacat și urmărit precum activitatea online,
10:25
our mobile phones and applications,
180
625537
2361
telefonul mobil și aplicațiile,
10:27
then we're on the brink of a dangerous threat to our collective humanity.
181
627922
4269
atunci suntem la un pas de o gravă amenințare la adresa umanității.
10:33
Before you panic,
182
633406
1309
Înainte să vă panicați,
10:36
I believe that there are solutions to these concerns,
183
636012
3144
cred că există soluții la aceste probleme,
10:39
but we have to start by focusing on the right things.
184
639180
2825
dar trebuie să ne concentrăm pe ceea ce trebuie.
10:42
When it comes to privacy protections in general,
185
642580
2921
Când vine vorba de protecția intimității în general,
10:45
I think we're fighting a losing battle
186
645525
1826
cred că lupta noastră e în zadar,
10:47
by trying to restrict the flow of information.
187
647375
2858
dacă încercăm să oprim fluxul de informații.
10:50
Instead, we should be focusing on securing rights and remedies
188
650257
4057
În schimb, ar trebui să ne concentrăm pe garantarea de drepturi și măsuri
10:54
against the misuse of our information.
189
654338
2275
împotriva utilizării abuzive a informațiilor noastre.
10:57
If people had the right to decide how their information was shared,
190
657291
3285
Dacă oamenii ar putea să decidă cum sunt folosite informațiile lor
11:00
and more importantly, have legal redress
191
660600
2921
și chiar să primească despăgubiri
11:03
if their information was misused against them,
192
663545
2428
dacă au fost utilizate abuziv împotriva lor,
11:05
say to discriminate against them in an employment setting
193
665997
2786
de exemplu ca să-i discrimineze la locul de muncă,
11:08
or in health care or education,
194
668807
2785
în serviciile medicale sau educație,
11:11
this would go a long way to build trust.
195
671616
2571
ar fi un pas important pentru a consolida încrederea.
11:14
In fact, in some instances,
196
674843
1718
De fapt, în unele cazuri,
11:16
we want to be sharing more of our personal information.
197
676585
3524
dorim să împărtășim mai mult din informațiile personale.
11:20
Studying aggregated information can tell us so much
198
680697
3047
Studierea informațiilor cumulate ne poate spune multe
11:23
about our health and our well-being,
199
683768
2747
despre sănătatea și bunăstarea noastră,
11:26
but to be able to safely share our information,
200
686539
3313
dar pentru a putea folosi în siguranță informațiile noastre,
11:29
we need special protections for mental privacy.
201
689876
3223
avem nevoie de protecții speciale pentru intimitatea mintală.
11:33
This is why we need a right to cognitive liberty.
202
693832
3147
De aceea avem nevoie de dreptul la libertatea de gândire.
11:37
This right would secure for us our freedom of thought and rumination,
203
697543
4079
Acesta ne-ar asigura libertatea de gândire și reflectare,
11:41
our freedom of self-determination,
204
701646
2540
libertatea de autodeterminare
11:44
and it would insure that we have the right to consent to or refuse
205
704210
4390
și ar stabili că avem dreptul de a accepta sau refuza
11:48
access and alteration of our brains by others.
206
708624
2857
accesul și modificarea creierului nostru de către alții.
11:51
This right could be recognized
207
711811
2112
Acest drept ar putea fi recunoscut
11:53
as part of the Universal Declaration of Human Rights,
208
713947
2883
ca parte a Declarației Universale a Drepturilor Omului,
11:56
which has established mechanisms
209
716854
2388
care stabilește mecanismele
11:59
for the enforcement of these kinds of social rights.
210
719266
2856
pentru aplicarea acestor tipuri de drepturi sociale.
12:03
During the Iranian Green Movement,
211
723872
2070
În timpul Mișcării Iraniene,
12:05
the protesters used the internet and good old-fashioned word of mouth
212
725966
5186
protestatarii au folosit internetul și metoda viului grai
12:11
to coordinate their marches.
213
731176
1948
pentru a coordona demonstrațiile.
12:14
And some of the most oppressive restrictions in Iran
214
734238
2769
Iar cele mai opresive restricții din Iran
12:17
were lifted as a result.
215
737031
1877
au fost eliminate ca rezultat.
12:20
But what if the Iranian government had used brain surveillance
216
740047
4087
Dar dacă guvernul iranian ar fi utilizat supravegherea creierelor
12:24
to detect and prevent the protest?
217
744158
3061
pentru a detecta și împiedica protestul?
12:28
Would the world have ever heard the protesters' cries?
218
748847
3176
Ar fi auzit vreodată lumea strigătele demonstranților?
12:33
The time has come for us to call for a cognitive liberty revolution.
219
753732
5121
E vremea unei revoluții a libertății cognitive.
12:39
To make sure that we responsibly advance technology
220
759559
3264
Pentru a fi siguri că dezvoltăm în mod responsabil o tehnologie
12:42
that could enable us to embrace the future
221
762847
2978
care să ne pregătească pentru viitor,
12:45
while fiercely protecting all of us from any person, company or government
222
765849
6717
protejându-ne de orice altă persoană, companie sau guvern
12:52
that attempts to unlawfully access or alter our innermost lives.
223
772590
5040
ce încearcă să acceseze ilegal sau să modifice viața noastră cea mai intimă.
12:58
Thank you.
224
778659
1174
Vă mulțumesc!
12:59
(Applause)
225
779857
3492
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7