Julian Assange: Why the world needs WikiLeaks

733,215 views ・ 2010-07-19

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: anca Iorgulescu Corector: Laszlo Kereszturi
00:15
Chris Anderson: Julian, welcome.
0
15260
2000
Chris Anderson: Julian, bine ai venit!
00:17
It's been reported that WikiLeaks, your baby,
1
17260
2000
A fost semnalat că WikiLeaks, ‘copilaşul’ tău,
00:19
has, in the last few years
2
19260
2000
în ultimii ani... a
00:21
has released more classified documents
3
21260
3000
a publicat mai multe documente clasificate
00:24
than the rest of the world's media combined.
4
24260
2000
decât toată presa mondială la un loc.
00:26
Can that possibly be true?
5
26260
2000
Ar putea fi adevărat?
00:28
Julian Assange: Yeah, can it possibly be true?
6
28260
2000
Da, chiar aşa, ar putea fi adevărat?
00:30
It's a worry -- isn't it? -- that the rest of the world's media
7
30260
3000
Este îngrijorător, nu-i aşa, că restul presei internaţionale
00:33
is doing such a bad job
8
33260
2000
face o treabă aşa proastă,
00:35
that a little group of activists
9
35260
2000
că un mic grup de activişti
00:37
is able to release more
10
37260
2000
reuşeşte să publice mai multe
00:39
of that type of information
11
39260
2000
informaţii din acestea
00:41
than the rest of the world press combined.
12
41260
2000
decât toată presa internaţională la un loc.
00:43
CA: How does it work?
13
43260
2000
CA: Cum funcţionează?
00:45
How do people release the documents?
14
45260
3000
Cum publică oamenii documentele?
00:48
And how do you secure their privacy?
15
48260
3000
Cum le asiguraţi confidenţialitatea?
00:51
JA: So these are -- as far as we can tell --
16
51260
2000
JA: Aceştia sunt, din câte putem spune,
00:53
classical whistleblowers,
17
53260
2000
informatorii clasici, cei ce raportează ilegalităţile unui sistem.
00:55
and we have a number of ways for them
18
55260
2000
Şi avem mai multe căi pe care ei
00:57
to get information to us.
19
57260
2000
ne pot furniza informaţia.
00:59
So we use this state-of-the-art encryption
20
59260
2000
Astfel, folosim o codificare avansată pentru a
01:01
to bounce stuff around the Internet, to hide trails,
21
61260
2000
muta informaţiile dintr-o parte într-alta, pe Internet, ca să ascundem urmele,
01:03
pass it through legal jurisdictions
22
63260
2000
le trecem prin jurisdicţii
01:05
like Sweden and Belgium
23
65260
3000
ca Suedia sau Belgia
01:08
to enact those legal protections.
24
68260
3000
pentru a constitui aceste protecţii legale.
01:12
We get information in the mail,
25
72260
2000
Primim informaţii prin mail,
01:14
the regular postal mail,
26
74260
3000
prin poştă,
01:17
encrypted or not,
27
77260
2000
codificate sau nu,
01:19
vet it like a regular news organization, format it --
28
79260
3000
le verificăm, ca orice redacţie, le aranjăm pentru publicare --
01:22
which is sometimes something that's quite hard to do,
29
82260
3000
ceea ce, uneori, poate fi destul de dificil,
01:25
when you're talking about
30
85260
2000
atunci când vorbim
01:27
giant databases of information --
31
87260
2000
despre baze de date imense --
01:29
release it to the public
32
89260
2000
le publicăm
01:31
and then defend ourselves
33
91260
2000
şi apoi ne apărăm
01:33
against the inevitable legal and political attacks.
34
93260
3000
împotriva inevitabilelor atacuri legale şi politice.
01:36
CA: So you make an effort to ensure
35
96260
2000
CA: Aşadar faceţi eforturi pentru a fi siguri că
01:38
the documents are legitimate,
36
98260
2000
documentele sunt autentice.
01:40
but you actually
37
100260
2000
Dar, de fapt,
01:42
almost never know who the identity of the source is?
38
102260
3000
nu aflaţi aproape niciodată identitatea sursei.
01:45
JA: That's right, yeah. Very rarely do we ever know,
39
105260
3000
JA: Da, într-adevăr. O aflăm destul de rar.
01:49
and if we find out at some stage
40
109260
3000
Şi dacă aflăm pe parcurs,
01:52
then we destroy that information as soon as possible.
41
112260
3000
distrugem imediat toate informaţiile.
01:55
(Phone ring) God damn it.
42
115260
2000
(Sună telefonul) La naiba!
01:57
(Laughter)
43
117260
4000
(Râsete)
02:01
CA: I think that's the CIA asking what the code is
44
121260
2000
CA: Cred că sunt cei de la C.I.A. vrând să ştie care e codul
02:03
for a TED membership.
45
123260
2000
pentru a deveni membru TED.
02:05
(Laughter)
46
125260
3000
(Râsete)
02:08
So let's take [an] example, actually.
47
128260
2000
De fapt, hai să luăm un exemplu.
02:10
This is something
48
130260
2000
Asta e ceva
02:12
you leaked a few years ago.
49
132260
2000
ce aţi divulgat acum câţiva ani
02:14
If we can have this document up ...
50
134260
2000
Dacă avem documentul pregătit pentru vizionare ...
02:16
So this was a story in Kenya a few years ago.
51
136260
2000
Aceasta este o poveste care se întâmpla acum câţiva ani în Kenya.
02:18
Can you tell us what you leaked and what happened?
52
138260
3000
Poţi să ne spui ce aţi divulgat şi ce s-a întâmplat?
02:21
JA: So this is the Kroll Report.
53
141260
2000
JA: Acesta este raportul Kroll.
02:23
This was a secret intelligence report
54
143260
3000
Este un raport al Serviciului Secret de Informaţii
02:26
commissioned by the Kenyan government
55
146260
2000
comandat de guvernul kenyan
02:28
after its election in 2004.
56
148260
3000
după ce a fost ales, în 2004.
02:31
Prior to 2004, Kenya was ruled
57
151260
2000
Înainte de 2004, Kenya a fost condusă
02:33
by Daniel arap Moi
58
153260
2000
de Daniel arap Moi
02:35
for about 18 years.
59
155260
2000
timp de 18 ani.
02:37
He was a soft dictator of Kenya.
60
157260
3000
El a fost un dictator moderat al Kenyei.
02:40
And when Kibaki got into power --
61
160260
2000
Iar când Kibaki a venit la putere --
02:42
through a coalition of forces that were trying
62
162260
2000
susţinut de o coaliţie care a încercat
02:44
to clean up corruption in Kenya --
63
164260
2000
să eradicheze corupţia în Kenya --
02:46
they commissioned this report,
64
166260
2000
au comandat acest raport,
02:48
spent about two million pounds
65
168260
2000
cheltuind aproximativ două milioane de lire
02:50
on this and an associated report.
66
170260
2000
pentru acesta şi un raport asociat.
02:52
And then the government sat on it
67
172260
3000
Ulterior, guvernul l-a ţinut secret
02:55
and used it for political leverage on Moi,
68
175260
2000
şi l-a folosit ca avantaj politic împotriva lui Moi,
02:57
who was the richest man --
69
177260
2000
care era --
02:59
still is the richest man -- in Kenya.
70
179260
3000
-- şi încă este -- cel mai bogat om din Kenya.
03:02
It's the Holy Grail of Kenyan journalism.
71
182260
3000
Este Sfântul Graal al jurnalismului kenyan.
03:05
So I went there in 2007,
72
185260
3000
Aşa că am mers acolo în 2007,
03:08
and we managed to get hold of this
73
188260
2000
şi am reuşit să intrăm în posesia acestuia
03:10
just prior to the election --
74
190260
2000
exact înainte de alegeri --
03:12
the national election, December 28.
75
192260
3000
alegerile naţionale din 28 decembrie.
03:17
When we released that report,
76
197260
3000
Când am publicat acest raport,
03:20
we did so three days after the new president, Kibaki,
77
200260
3000
am făcut-o la trei zile după ce noul preşedinte, Kibaki,
03:23
had decided to pal up with
78
203260
2000
a hotărât să bată palma cu
03:25
the man that he was going to clean out,
79
205260
2000
omul pe care voia să-l înlăture,
03:27
Daniel arap Moi,
80
207260
2000
Daniel arap Moi.
03:29
so this report then
81
209260
3000
Aşa că raportul ăsta
03:32
became a dead albatross
82
212260
2000
a devenit o povară
03:34
around President Kibaki's neck.
83
214260
3000
pentru preşedintele Kibaki.
03:38
CA: And -- I mean, to cut a long story short --
84
218260
3000
CA: Şi -- ca să rezumăm --
03:41
word of the report leaked into Kenya,
85
221260
3000
detalii despre raport au fost divulgate în Kenya,
03:44
not from the official media, but indirectly,
86
224260
3000
nu de presa oficială, ci indirect.
03:47
and in your opinion, it actually shifted the election.
87
227260
3000
Şi, în opinia ta, asta a schimbat cursul alegerilor.
03:50
JA: Yeah. So this became front page of the Guardian
88
230260
3000
JA: Da. [Întâmplarea] a apărut pe prima pagină în cotidianul 'The Guardian'
03:53
and was then printed in all the surrounding countries of Kenya,
89
233260
3000
şi apoi a fost publicată în toate ţările vecine Kenyei,
03:56
in Tanzanian and South African press.
90
236260
3000
în publicaţii din Tanzania şi din Africa de Sud.
03:59
And so it came in from the outside.
91
239260
2000
Aşa că a pătruns înăuntru din afară.
04:01
And that, after a couple of days,
92
241260
2000
Iar după vreo două zile,
04:03
made the Kenyan press feel safe to talk about it.
93
243260
2000
presa kenyană s-a simţit în siguranţă să scrie despre eveniment.
04:05
And it ran for 20 nights straight on Kenyan TV,
94
245260
3000
A fost prezentat ca ştire timp de 20 de seri la televiziunea kenyană,
04:08
shifted the vote by 10 percent,
95
248260
3000
făcând 10% din electorat să-şi schimbe opinia,
04:11
according to a Kenyan intelligence report,
96
251260
2000
conform unui raport al serviciilor secrete kenyene,
04:13
which changed the result of the election.
97
253260
2000
ceea ce a modificat rezultatul alegerilor.
04:15
CA: Wow, so your leak
98
255260
2000
CA: Oau, deci dezvăluirea voastră
04:17
really substantially changed the world?
99
257260
2000
a schimbat cu adevărat lumea?
04:19
JA: Yep.
100
259260
2000
JA: Da.
04:21
(Applause)
101
261260
4000
(Aplauze)
04:25
CA: Here's -- We're going to just show
102
265260
2000
CA: Uite -- O să prezentăm
04:27
a short clip from this
103
267260
3000
un extras din
04:30
Baghdad airstrike video.
104
270260
2000
înregistrarea atacului aerian din Bagdad.
04:32
The video itself is longer,
105
272260
2000
Înregistrarea este mai lungă,
04:34
but here's a short clip.
106
274260
2000
dar avem aici un extras.
04:36
This is -- this is intense material, I should warn you.
107
276260
3000
Trebuie să vă avertizez că înregistrarea conţine imagini şocante.
04:39
Radio: ... just fuckin', once you get on 'em just open 'em up.
108
279260
3000
Radio: ... la naiba, o dată ce îi ai în vizor, trage!
04:42
I see your element, uh, got about four Humvees, uh, out along ...
109
282260
4000
Văd ţinta, ah, am vreo patru maşini militare Hummer...
04:46
You're clear. All right. Firing.
110
286260
3000
Ok, am înţeles. Trageţi.
04:49
Let me know when you've got them. Let's shoot.
111
289260
3000
Anunţaţi-mă când i-aţi terminat. Hai să deschidem focul!
04:52
Light 'em all up.
112
292260
2000
Arde-i pe toţi!
04:54
C'mon, fire!
113
294260
2000
Haide, trageţi!
04:56
(Machine gun fire)
114
296260
3000
(Sunet de împuşcături)
04:59
Keep shoot 'n. Keep shoot 'n.
115
299260
3000
Continuaţi să trageţi! Continuaţi să trageţi!
05:02
(Machine gun fire)
116
302260
3000
(Sunet de împuşcături)
05:05
Keep shoot 'n.
117
305260
3000
Continuaţi să trageţi!
05:08
Hotel ... Bushmaster Two-Six, Bushmaster Two-Six,
118
308260
2000
Doi-Şase, o maşină militară, Doi-Şase,
05:10
we need to move, time now!
119
310260
2000
Trebuie să plecăm acum! E timpul!
05:12
All right, we just engaged all eight individuals.
120
312260
3000
În regulă, tocmai am atacat opt indivizi.
05:15
Yeah, we see two birds [helicopters], and we're still firing.
121
315260
3000
Da, văd două ‘păsări’ [elicoptere] şi continuăm să tragem.
05:18
Roger. I got 'em.
122
318260
2000
Recepţionat. Le-am văzut.
05:20
Two-Six, this is Two-Six, we're mobile.
123
320260
2000
Doi-Şase, aici Doi-Şase, ne mişcăm.
05:22
Oops, I'm sorry. What was going on?
124
322260
2000
Ups, îmi pare rău! Ce s-a întâmplat?
05:24
God damn it, Kyle. All right, hahaha. I hit 'em.
125
324260
2000
La naiba, Kyle! E în regulă, hahaha. I-am nimicit!
05:29
CA: So, what was the impact of that?
126
329260
3000
CA: Care a fost impactul înregistrării?
05:32
JA: The impact on the people who worked on it
127
332260
3000
JA: Impactul asupra celor care au lucrat cu materialul
05:35
was severe.
128
335260
2000
a fost grav.
05:37
We ended up sending two people to Baghdad
129
337260
2000
A trebuit să trimitem doi oameni la Bagdad
05:39
to further research that story.
130
339260
2000
pentru a investiga povestea în continuare.
05:41
So this is just the first of three attacks
131
341260
3000
Acesta este doar primul din cele trei atacuri.
05:44
that occurred in that scene.
132
344260
2000
care s-au întâmplat în acel loc.
05:46
CA: So, I mean, 11 people died in that attack, right,
133
346260
2000
CA: Deci, 11 oameni au murit în acel atac, nu-i aşa,
05:48
including two Reuters employees?
134
348260
2000
inclusiv doi angajaţi ai agenţiei de presă Reuters?
05:50
JA: Yeah. Two Reuters employees,
135
350260
2000
JA: Da. Doi angajaţi Reuters,
05:52
two young children were wounded.
136
352260
3000
doi copii au fost răniţi.
05:55
There were between 18 and 26 people killed all together.
137
355260
3000
În total au murit între 18 şi 26 de oameni.
05:58
CA: And releasing this caused
138
358260
2000
CA: Şi publicarea materialului a stârnit
06:00
widespread outrage.
139
360260
2000
indignarea foarte multor persoane.
06:02
What was the key element of this
140
362260
2000
Care crezi că a fost elementul
06:04
that actually caused the outrage, do you think?
141
364260
3000
declanşator al acestei indignări?
06:07
JA: I don't know. I guess people can see
142
367260
2000
JA: Nu ştiu, bănuiesc că oamenii au putut vedea
06:09
the gross disparity in force.
143
369260
3000
disparitatea flagrantă dintre forţe.
06:12
You have guys walking in a relaxed way down the street,
144
372260
2000
Vedem câţiva tipi care se plimbă relaxaţi pe o stradă,
06:14
and then an Apache helicopter sitting up at one kilometer
145
374260
3000
şi apoi, într-un colţ, un elicopter Apache
06:17
firing 30-millimeter cannon shells
146
377260
2000
trăgând cu gloanţe de 30 de milimetri
06:19
on everyone --
147
379260
2000
asupra tuturor --
06:21
looking for any excuse to do so --
148
381260
3000
căutând scuze ca să o facă --
06:24
and killing people rescuing the wounded.
149
384260
2000
şi omorându-i pe cei care încearcă să îi salveze pe răniţi.
06:26
And there was two journalists involved that clearly weren't insurgents
150
386260
3000
Şi au fost doi jurnalişti implicaţi, care, în mod evident, nu erau insurgenţi
06:29
because that's their full-time job.
151
389260
2000
pentru că asta este slujba lor.
06:33
CA: I mean, there's been this U.S. intelligence analyst,
152
393260
3000
CA: A fost arestat acest analist al Serviciilor Secrete Americane,
06:36
Bradley Manning, arrested,
153
396260
2000
Bradley Manning.
06:38
and it's alleged that he confessed in a chat room
154
398260
3000
Se presupune că a mărturisit pe un canal de chat
06:41
to have leaked this video to you,
155
401260
3000
că el v-a trimis acest video,
06:44
along with 280,000
156
404260
2000
împreună cu alte 280.000
06:46
classified U.S. embassy cables.
157
406260
2000
rapoarte oficiale clasificate ale ambasadelor Statelor Unite.
06:48
I mean, did he?
158
408260
3000
Ceea ce vreau să ştiu, a făcut-o?
06:51
JA: We have denied receiving those cables.
159
411260
2000
JA: Ei bine, am negat primirea acelor rapoarte.
06:53
He has been charged,
160
413260
2000
El a fost acuzat,
06:55
about five days ago,
161
415260
2000
acum cinci zile,
06:57
with obtaining 150,000 cables
162
417260
3000
pentru obţinerea a 150.000 de rapoarte
07:00
and releasing 50.
163
420260
2000
şi publicarea a 50.
07:02
Now, we had released,
164
422260
3000
Într-adevăr, am publicat
07:05
early in the year,
165
425260
2000
mai devreme anul acesta
07:07
a cable from the Reykjavik U.S. embassy,
166
427260
3000
rapoarte provenind de la ambasada Statelor Unite din Reykjavik.
07:11
but this is not necessarily connected.
167
431260
2000
Dar cele două nu au neapărat o legătură.
07:13
I mean, I was a known visitor of that embassy.
168
433260
2000
Adică se ştie că eram un vizitator cunoscut al ambasadei.
07:15
CA: I mean, if you did receive thousands
169
435260
2000
CA: Ce vreau să te intreb, dacă aţi fi primit aceste mii
07:17
of U.S. embassy diplomatic cables ...
170
437260
3000
de rapoarte diplomatice de la ambasada Statelor Unite ...
07:20
JA: We would have released them. (CA: You would?)
171
440260
2000
JA: Le-am fi publicat. (CA: Da, le-aţi fi publicat?)
07:22
JA: Yeah. (CA: Because?)
172
442260
3000
JA: Da. (CA: De ce?)
07:25
JA: Well, because these sort of things
173
445260
2000
JA: Ei bine, pentru că lucrurile de genul acesta
07:27
reveal what the true state
174
447260
3000
relevă cum sunt, de fapt,
07:30
of, say,
175
450260
2000
să zicem,
07:32
Arab governments are like,
176
452260
2000
guvernele arabe,
07:34
the true human-rights abuses in those governments.
177
454260
3000
şi gravele încălcări ale drepturilor umane permise de aceste guverne.
07:37
If you look at declassified cables,
178
457260
2000
Dacă te uiţi la rapoartele declasifcate,
07:39
that's the sort of material that's there.
179
459260
2000
acesta este tipul de informaţie pe care o găseşti acolo.
07:41
CA: So let's talk a little more broadly about this.
180
461260
2000
CA: Hai să abordăm subiectul mai pe larg.
07:43
I mean, in general, what's your philosophy?
181
463260
2000
În general, care e filosofia ta?
07:45
Why is it right
182
465260
2000
De ce e în regulă
07:47
to encourage leaking of secret information?
183
467260
3000
să încurajăm divulgarea de informaţii secrete?
07:51
JA: Well, there's a question as to what sort of information is important in the world,
184
471260
3000
JA: Ei bine, întrebarea se leagă de relevanţa informaţiei pentru lume,
07:54
what sort of information
185
474260
2000
ce fel de informaţie
07:56
can achieve reform.
186
476260
2000
poate să conducă spre reformă.
07:58
And there's a lot of information.
187
478260
2000
Şi aici există multe tipuri de informaţie.
08:00
So information that organizations
188
480260
2000
Astfel, în cazul informaţiilor pentru care organizaţiile
08:02
are spending economic effort into concealing,
189
482260
3000
depun un efort economic încearcând să le ascundă,
08:05
that's a really good signal
190
485260
2000
acesta este un indice
08:07
that when the information gets out,
191
487260
2000
că, o dată ce informaţia devine publică,
08:09
there's a hope of it doing some good --
192
489260
2000
există speranţa că va avea un impact pozitiv.
08:11
because the organizations that know it best,
193
491260
2000
Pentru că organizaţiile care o cunosc cel mai bine,
08:13
that know it from the inside out,
194
493260
2000
care o cunosc din interior,
08:15
are spending work to conceal it.
195
495260
3000
depun eforturi pentru a o ascunde.
08:18
And that's what we've found in practice,
196
498260
2000
Şi asta s-a dovedit adevărat în practică.
08:20
and that's what the history of journalism is.
197
500260
3000
Iar asta este şi istoria jurnalismului.
08:23
CA: But are there risks with that,
198
503260
3000
CA: Există, însă, riscuri, legate de asta,
08:26
either to the individuals concerned
199
506260
3000
în ceea ce priveşte indivizii implicaţi
08:29
or indeed to society at large,
200
509260
2000
sau chiar societatea, în general,
08:31
where leaking can actually have
201
511260
2000
când divulgarea poate avea
08:33
an unintended consequence?
202
513260
2000
consecinţe nedorite?
08:35
JA: Not that we have seen with anything we have released.
203
515260
2000
JA: Nu, din câte am văzut cu ceea ce am publicat.
08:37
I mean, we have a harm immunization policy.
204
517260
2000
Pentru că avem o politică de imunizare împotriva vătămării.
08:39
We have a way of dealing with information
205
519260
2000
Avem un mod de a trata informaţia
08:41
that has sort of personal --
206
521260
2000
care are un caracter personal --
08:43
personally identifying information in it.
207
523260
2000
de informaţia care divulgă aspecte personale.
08:46
But there are legitimate secrets --
208
526260
3000
Există secrete legitime --
08:49
you know, your records with your doctor;
209
529260
3000
de exemplu, antecedentele medicale,
08:52
that's a legitimate secret --
210
532260
2000
sunt un secret legitim.
08:54
but we deal with whistleblowers that are coming forward
211
534260
2000
Dar lucrăm cu informatori care vin înspre noi
08:56
that are really sort of well-motivated.
212
536260
3000
care sunt destul de puternic motivaţi.
08:59
CA: So they are well-motivated.
213
539260
2000
CA: Deci sunt bine motivaţi.
09:01
And what would you say to, for example,
214
541260
2000
Şi ce i-ai spune, de exemplu,
09:03
the, you know, the parent of someone
215
543260
3000
unui părinte --
09:06
whose son is out serving the U.S. military,
216
546260
3000
al cărui fiu este înrolat în armata Statelor Unite,
09:09
and he says, "You know what,
217
549260
2000
şi care-ţi spune: "Ştii ceva,"
09:11
you've put up something that someone had an incentive to put out.
218
551260
2000
aţi stârnit ceva pentru care alţii au fost plătiţi să domolească.
09:13
It shows a U.S. soldier laughing
219
553260
2000
[Înregistrarea] arată un soldat american râzând
09:15
at people dying.
220
555260
2000
în timp ce oamenii mor.
09:17
That gives the impression, has given the impression,
221
557260
2000
Asta creează impresia -- a creat impresia
09:19
to millions of people around the world
222
559260
2000
pentru milioane de oameni din lume
09:21
that U.S. soldiers are inhuman people.
223
561260
2000
că soldaţii americani sunt cruzi.
09:23
Actually, they're not. My son isn't. How dare you?"
224
563260
2000
Şi, de fapt, nu sunt. Fiul meu nu este. Cum îndrăzniţi?"
09:25
What would you say to that?
225
565260
2000
Cum ai răspunde la aşa ceva?
09:27
JA: Yeah, we do get a lot of that.
226
567260
2000
JA: De fapt, primim destule replici din acestea.
09:29
But remember, the people in Baghdad,
227
569260
2000
Dar, nu uitaţi că oamenii din Bagdad,
09:31
the people in Iraq, the people in Afghanistan --
228
571260
3000
oamenii din Irak, oamenii din Afganistan --
09:34
they don't need to see the video;
229
574260
2000
nu au nevoie să vadă acest videoclip;
09:36
they see it every day.
230
576260
2000
ei asta văd zilnic.
09:38
So it's not going to change their opinion. It's not going to change their perception.
231
578260
3000
Deci nu le va schimba opinia. Nu le va schimba percepţia.
09:41
That's what they see every day.
232
581260
2000
Ei asta văd zilnic.
09:43
It will change the perception and opinion
233
583260
3000
Le va schimba percepţia şi opinia
09:46
of the people who are paying for it all,
234
586260
2000
oamenilor care plătesc pentru toate acestea.
09:48
and that's our hope.
235
588260
3000
Asta este speranţa noastră.
09:51
CA: So you found a way to shine light
236
591260
3000
CA: Deci aţi găsit o soluţie ca să faceţi lumină
09:54
into what you see
237
594260
3000
în ceea ce voi consideraţi a fi
09:57
as these sort of dark secrets in companies and in government.
238
597260
3000
informaţii conspirative, ascunse de companii şi de guverne.
10:01
Light is good.
239
601260
2000
E bine să faci lumină.
10:03
But do you see any irony in the fact that,
240
603260
2000
Însă nu resimţi o mică ironie în faptul că,
10:05
in order for you to shine that light,
241
605260
2000
pentru a face lumină,
10:07
you have to, yourself,
242
607260
2000
trebuie, la rândul vostru,
10:09
create secrecy around your sources?
243
609260
3000
să vă învăluiţi sursele în mister?
10:12
JA: Not really. I mean, we don't have
244
612260
3000
JA: Nu chiar. Vreau să spun că nu aveam, încă,
10:15
any WikiLeaks dissidents yet.
245
615260
3000
niciun disident WikiLeaks.
10:19
We don't have sources who are dissidents on other sources.
246
619260
3000
Nu avem surse care au păreri diferite faţă de alte surse.
10:23
Should they come forward, that would be a tricky situation for us,
247
623260
3000
Dacă vor exista, asta va fi o situaţie complicată pentru noi.
10:26
but we're presumably acting in such a way
248
626260
3000
Dar, se pare că ne comportăm într-un fel în care
10:29
that people feel
249
629260
2000
oamenii se simt
10:31
morally compelled
250
631260
2000
îndatoraţi moral
10:33
to continue our mission, not to screw it up.
251
633260
3000
să contribuie la misiunea noastra, nu să o saboteze.
10:37
CA: I'd actually be interested, just based on what we've heard so far --
252
637260
3000
CA: Aş fi interesat, de fapt, plecând de la ce am auzit până acum --
10:40
I'm curious as to the opinion in the TED audience.
253
640260
3000
Sunt curios să aflu opinia audienţei TED.
10:45
You know, there might be a couple of views
254
645260
2000
Ştii, există mai multe perspective
10:47
of WikiLeaks and of Julian.
255
647260
2000
asupra WikiLeaks şi asupra lui Julian.
10:49
You know, hero -- people's hero --
256
649260
3000
Există, pe de-o parte, eroul -- salvatorul omenirii --
10:52
bringing this important light.
257
652260
3000
care face lumină în aceste probleme.
10:55
Dangerous troublemaker.
258
655260
2000
Perturbator periculos.
10:58
Who's got the hero view?
259
658260
3000
Cine este pentru imaginea eroului?
11:02
Who's got the dangerous troublemaker view?
260
662260
3000
Cine are imaginea perturbatorului periculos?
11:06
JA: Oh, come on. There must be some.
261
666260
2000
JA: Haideţi! Trebuie să fie câţiva!
11:09
CA: It's a soft crowd, Julian, a soft crowd.
262
669260
2000
CA: Sunt indulgenţi, Julian, sunt indulgenţi.
11:11
We have to try better. Let's show them another example.
263
671260
2000
Trebuie să ne dăm mai tare silinţa. Hai să le mai arătăm un exemplu.
11:13
Now here's something that you haven't yet leaked,
264
673260
3000
Uite ceva ce nu aţi divulgat încă,
11:16
but I think for TED you are.
265
676260
3000
însă cred că pentru TED o veţi face.
11:19
I mean it's an intriguing story that's just happened, right?
266
679260
2000
Este o poveste interesantă care tocmai s-a întâmplat, nu-i aşa?
11:21
What is this?
267
681260
2000
Despre ce e vorba?
11:23
JA: So this is a sample of what we do
268
683260
2000
JA: Este o mostră din ceea ce facem
11:25
sort of every day.
269
685260
2000
cam în fiecare zi.
11:27
So late last year -- in November last year --
270
687260
3000
Astfel, anul trecut -- în noiembrie anul trecut --
11:30
there was a series of well blowouts
271
690260
2000
s-a întâmplat o serie de explozii
11:32
in Albania,
272
692260
2000
de puţuri petroliere în Albania,
11:34
like the well blowout in the Gulf of Mexico,
273
694260
3000
asemănătoare cu explozia din Golful Mexic,
11:37
but not quite as big.
274
697260
2000
dar nu atât de puternice.
11:39
And we got a report --
275
699260
3000
Şi am primit un raport --
11:42
a sort of engineering analysis into what happened --
276
702260
3000
un fel de analiză tehnică a ceea ce s-a întâmplat,
11:45
saying that, in fact, security guards
277
705260
3000
care spunea că, de fapt, gărzile de securitate
11:48
from some rival, various competing oil firms
278
708260
3000
de la nişte companii petroliere rivale
11:51
had, in fact, parked trucks there and blown them up.
279
711260
3000
au parcat acolo camioane şi le-au aruncat în aer.
11:55
And part of the Albanian government was in this, etc., etc.
280
715260
3000
Iar o parte a guvernului albanez era implicată în asta etc. etc.
11:59
And the engineering report
281
719260
1000
Iar raportul tehnic
12:00
had nothing on the top of it,
282
720260
2000
nu avea nimic care să-l fundamenteze.
12:02
so it was an extremely difficult document for us.
283
722260
2000
Aşa că, pentru noi, a fost un document extrem de dificil de prelucrat.
12:04
We couldn't verify it because we didn't know
284
724260
2000
Nu îl puteam verifica pentru că nu ştiam
12:06
who wrote it and knew what it was about.
285
726260
2000
cine l-a scris şi cât de în măsură era să scrie despre asta.
12:08
So we were kind of skeptical that maybe it was
286
728260
2000
Am fost destul de sceptici crezând că poate era
12:10
a competing oil firm just sort of playing the issue up.
287
730260
2000
o companie petrolieră concurentă pusă pe glume.
12:12
So under that basis, we put it out and said,
288
732260
2000
Aşa că ţinând cont de acestea, am făcut raportul public spunând:
12:14
"Look, we're skeptical about this thing.
289
734260
2000
"Uite cum stau lucrurile, suntem sceptici în privinţa acestei chestiuni.
12:16
We don't know, but what can we do?
290
736260
2000
Nu ştim, dar ce putem face?
12:18
The material looks good, it feels right,
291
738260
2000
Materialul pare să fie veridic,
12:20
but we just can't verify it."
292
740260
2000
însă nu îl putem verifica."
12:22
And we then got a letter
293
742260
3000
Apoi am primit o scrisoare
12:25
just this week
294
745260
3000
chiar săptămâna aceasta
12:28
from the company who wrote it,
295
748260
3000
de la compania care îl redactase,
12:31
wanting to track down the source --
296
751260
3000
vrând să depisteze sursa --
12:34
(Laughter)
297
754260
3000
(Râsete)
12:38
saying, "Hey, we want to track down the source."
298
758260
3000
spunând: "Hei, vrem să depistăm sursa."
12:41
And we were like, "Oh, tell us more.
299
761260
2000
Şi noi am zis: "Ah, spuneţi-ne mai multe.
12:43
What document is it, precisely, you're talking about?
300
763260
3000
Mai exact, despre ce document vorbiţi?
12:46
Can you show that you had legal authority over that document?
301
766260
3000
Puteţi demonstra că aţi avut autoritate legală asupra documentului?
12:49
Is it really yours?"
302
769260
2000
Este cu adevărat al dumneavoastră?"
12:51
So they sent us this screen shot
303
771260
3000
Şi atunci ne-au trimis fotografia ecranului calculatorului
12:54
with the author
304
774260
2000
cu identitatea autorul
12:56
in the Microsoft Word ID.
305
776260
3000
cuprinsă în antetul documentul Word.
13:01
Yeah.
306
781260
2000
Mda.
13:03
(Applause)
307
783260
5000
(Aplauze)
13:08
That's happened quite a lot though.
308
788260
2000
Asta se întâmplă destul de des.
13:10
This is like one of our methods
309
790260
2000
Este una din metodele noastre
13:12
of identifying, of verifying, what a material is,
310
792260
3000
de a identifica -- de a verifica natura materialul,
13:15
is to try and get these guys to write letters.
311
795260
2000
încercăm să-i facem pe tipii ăştia să ne scrie.
13:17
CA: Yeah. Have you had information
312
797260
3000
CA: Mda. Aţi avut vreo informaţie
13:20
from inside BP?
313
800260
2000
dinăuntrul BP?
13:22
JA: Yeah, we have a lot, but I mean, at the moment,
314
802260
3000
JA: Dap, avem destule, dar, în acest moment,
13:25
we are undergoing a sort of serious fundraising and engineering effort.
315
805260
3000
ne confruntăm cu probleme tehnice şi de strângere de fonduri.
13:28
So our publication rate
316
808260
2000
Aşa că rata de publicare
13:30
over the past few months
317
810260
2000
din ultimele câteva luni
13:32
has been sort of minimized
318
812260
2000
s-a cam diminuat
13:34
while we're re-engineering our back systems
319
814260
3000
în timp ce noi ne reactualizam sistemul computerizat
13:37
for the phenomenal public interest that we have.
320
817260
3000
pentru a face faţă interesului public imens de care ne bucurăm.
13:40
That's a problem.
321
820260
2000
Asta e o problemă.
13:42
I mean, like any sort of growing startup organization,
322
822260
3000
În sensul că, precum orice organizaţie la început de drum,
13:45
we are sort of overwhelmed
323
825260
2000
suntem copleşiţi
13:47
by our growth,
324
827260
2000
de dezvoltarea noastră.
13:49
and that means we're getting enormous quantity
325
829260
2000
Şi asta înseamnă că primim o cantitate enormă
13:51
of whistleblower disclosures
326
831260
2000
de informaţii divulgate
13:53
of a very high caliber
327
833260
2000
de o importanţă capitală,
13:55
but don't have enough people to actually
328
835260
2000
însă nu avem suficienţi oameni care
13:57
process and vet this information.
329
837260
2000
să proceseze şi să verifice aceste informaţii.
13:59
CA: So that's the key bottleneck,
330
839260
2000
CA: Deci, în fond, astea sunt principalele impedimente,
14:01
basically journalistic volunteers
331
841260
2000
jurnaliştii voluntari
14:03
and/or the funding of journalistic salaries?
332
843260
3000
şi/sau remunerarea jurnaliştilor salariaţi?
14:06
JA: Yep. Yeah, and trusted people.
333
846260
2000
Dap. Mda, şi oameni de încredere.
14:08
I mean, we're an organization
334
848260
2000
Vreau să spun că suntem o organizaţie,
14:10
that is hard to grow very quickly
335
850260
2000
care nu poate să crească aşa rapid
14:12
because of the sort of material we deal with,
336
852260
2000
din cauza tipului de informaţie cu care lucrează.
14:14
so we have to restructure
337
854260
3000
Aşa că trebuie să ne restructurăm
14:17
in order to have people
338
857260
2000
ca să avem oameni
14:19
who will deal with the highest national security stuff,
339
859260
3000
care pot lucra cu chestiuni de cel mai înalt grad de securitate naţională,
14:22
and then lower security cases.
340
862260
2000
şi apoi cu situaţii de o mai mică importanţă.
14:24
CA: So help us understand a bit about you personally
341
864260
3000
CA: Ajută-ne să te înţelegem pe tine
14:27
and how you came to do this.
342
867260
2000
şi cum ai ajuns să faci asta.
14:29
And I think I read that as a kid
343
869260
2000
Cred că am citit că, în copilărie
14:31
you went to 37 different schools.
344
871260
3000
ai umblat la 37 de şcoli diferite.
14:34
Can that be right?
345
874260
2000
Poate fi asta adevărat?
14:36
JA: Well, my parents were in the movie business
346
876260
3000
JA: Părinţii mei lucrau în domeniul cinematografiei
14:39
and then on the run from a cult,
347
879260
2000
şi, fugind de o sectă,
14:41
so the combination between the two ...
348
881260
2000
deci combinaţia celor două ...
14:43
(Laughter)
349
883260
4000
(Râsete)
14:47
CA: I mean, a psychologist might say
350
887260
2000
CA: Un psiholog ar putea spune
14:49
that's a recipe for breeding paranoia.
351
889260
3000
că asta e reţeta sigură pentru a dezvolta paranoia.
14:52
JA: What, the movie business?
352
892260
2000
JA: Care, cinematografia?
14:54
(Laughter)
353
894260
3000
(Râsete)
14:57
(Applause)
354
897260
3000
(Aplauze)
15:00
CA: And you were also -- I mean,
355
900260
2000
CA: Şi, de asemenea, ai fost -- vreau să zic,
15:02
you were also a hacker at an early age
356
902260
2000
ai fost hacker la o vârstă fragedă
15:04
and ran into the authorities early on.
357
904260
3000
şi ai intrat de tânăr în conflict cu autorităţile.
15:07
JA: Well, I was a journalist.
358
907260
3000
JA: Ei bine, eram jurnalist.
15:10
You know, I was a very young journalist activist at an early age.
359
910260
2000
Deci eram un jurnalist foarte tânăr şi activist la o vârstă fragedă.
15:12
I wrote a magazine,
360
912260
2000
Am lansat o publicaţie,
15:14
was prosecuted for it when I was a teenager.
361
914260
3000
şi am fost pus sub acuzaţie când eram adolescent.
15:17
So you have to be careful with hacker.
362
917260
2000
Deci, trebuie să fii mai atent la termenul "hacker".
15:19
I mean there's like -- there's a method
363
919260
2000
Vreau să zic că e -- o metodă
15:21
that can be deployed for various things.
364
921260
2000
care poate fi folosită pentru chestiuni diverse.
15:23
Unfortunately, at the moment,
365
923260
2000
Din nefericire, la momentul actual,
15:25
it's mostly deployed by the Russian mafia
366
925260
2000
este cel mai des implementată de mafia rusească
15:27
in order to steal your grandmother's bank accounts.
367
927260
2000
pentru a fura conturile bancare ale bunicii tale.
15:29
So this phrase is not,
368
929260
3000
Aşa că sintagma nu mai are --
15:32
not as nice as it used to be.
369
932260
2000
conotaţia simpatică pe care a avut-o odată.
15:34
CA: Yeah, well, I certainly don't think
370
934260
2000
CA: Mda, cu siguranţă nu cred
15:36
you're stealing anyone's grandmother's bank account,
371
936260
3000
că furi conturile bancare ale vreunei bunicuţe.
15:39
but what about
372
939260
2000
Dar care sunt
15:41
your core values?
373
941260
2000
valorile tale fundamentale?
15:43
Can you give us a sense of what they are
374
943260
3000
Poti să ne spui ceva despre ele
15:46
and maybe some incident in your life
375
946260
2000
şi, poate, să le exemplifici printr-o întâmplare din viaţa ta
15:48
that helped determine them?
376
948260
3000
care te-a ajutat să le stabileşti ca valori.
15:53
JA: I'm not sure about the incident.
377
953260
2000
JA: Nu sunt sigur despre întâmplare,
15:55
But the core values:
378
955260
3000
însă valorile fundamentale:
15:58
well, capable, generous men
379
958260
3000
oamenii buni, capabili, generoşi
16:01
do not create victims;
380
961260
2000
nu fac victime,
16:03
they nurture victims.
381
963260
2000
ci au grijă de ele.
16:05
And that's something from my father
382
965260
2000
Asta este ceva ce m-a învăţat tatăl meu
16:07
and something from other capable, generous men
383
967260
3000
şi alţi oameni capabili şi generoşi
16:10
that have been in my life.
384
970260
3000
pe care i-am cunoscut în viaţa mea.
16:13
CA: Capable, generous men do not create victims;
385
973260
2000
CA: Oamenii capabili şi generoşi nu creează victime;
16:15
they nurture victims?
386
975260
2000
ei le îngrijesc?
16:17
JA: Yeah. And you know,
387
977260
2000
JA: Exact. Şi vrei să ştii ceva,
16:19
I'm a combative person,
388
979260
4000
sunt o persoană combativă,
16:23
so I'm not actually so big on the nurture,
389
983260
2000
deci nu sunt fan al îngrijirii.
16:25
but some way --
390
985260
3000
Însă, într-un fel --
16:28
there is another way of nurturing victims,
391
988260
3000
există o altă cale de a avea grijă de victime,
16:31
which is to police perpetrators
392
991260
3000
şi aceea este de a-i supraveghea
16:34
of crime.
393
994260
2000
pe răufăcători.
16:36
And so that is something
394
996260
2000
Aşa că asta e ceva
16:38
that has been in my character
395
998260
2000
ce face parte din caracterul meu
16:40
for a long time.
396
1000260
2000
de ceva vreme.
16:42
CA: So just tell us, very quickly in the last minute, the story:
397
1002260
3000
CA: Spune-ne, repede, în ultimul minut, povestea:
16:45
what happened in Iceland?
398
1005260
3000
ce s-a întâmplat în Islanda?
16:48
You basically published something there,
399
1008260
3000
Ai publicat ceva acolo,
16:51
ran into trouble with a bank,
400
1011260
3000
ai intrat în conflict cu o bancă,
16:54
then the news service there
401
1014260
2000
apoi televiziunii publice
16:56
was injuncted from running the story.
402
1016260
3000
i s-a interzis să publice ştirea.
16:59
Instead, they publicized your side.
403
1019260
2000
În schimb, au publicat versiunea ta.
17:01
That made you very high-profile in Iceland. What happened next?
404
1021260
3000
Ai devenit celebru în Islanda. Ce s-a întâmplat în continuare?
17:04
JA: Yeah, this is a great case, you know.
405
1024260
2000
JA: Mda, vezi tu, ăsta este un caz grozav.
17:06
Iceland went through this financial crisis.
406
1026260
2000
Islanda a trecut prin această criza financiară.
17:08
It was the hardest hit of any country in the world.
407
1028260
2000
A fost cea mai grav afectată ţară din lume.
17:10
Its banking sector was 10 times the GDP
408
1030260
2000
Sectorul său bancar reprezenta de 10 ori Produsul Intern Brut (PIB)
17:12
of the rest of the economy.
409
1032260
2000
al restului economiei.
17:14
Anyway, so we release this report
410
1034260
3000
Pe scurt, am publicat raportul
17:17
in July last year.
411
1037260
3000
în iulie anul trecut.
17:20
And the national TV station was injuncted
412
1040260
2000
Şi televiziunea naţională a primit ordin de interzicere
17:22
five minutes before it went on air,
413
1042260
2000
cu cinci minute înainte de a intra în direct.
17:24
like out of a movie: injunction landed on the news desk,
414
1044260
2000
Ca într-o scenă dintr-un film, ordinul de interzicere a aterizat pe pupitru
17:26
and the news reader was like,
415
1046260
2000
iar prezentatorul a zis ceva de genul:
17:28
"This has never happened before. What do we do?"
416
1048260
2000
"Asta nu s-a mai întâmplat niciodată. Ce facem?"
17:30
Well, we just show the website instead,
417
1050260
2000
Ei bine, prezentăm siteul web în schimb,
17:32
for all that time, as a filler,
418
1052260
3000
ca să umplem timpul.
17:35
and we became very famous in Iceland,
419
1055260
2000
Şi am devenit faimoşi în Islanda,
17:37
went to Iceland and spoke about this issue.
420
1057260
3000
am mers în Islanda şi am vorbit despre acest subiect.
17:40
And there was a feeling in the community
421
1060260
2000
Şi în comunitate exista sentimentul
17:42
that that should never happen again,
422
1062260
2000
că ceea ce se întâmplase nu trebuia să se mai întâmple vreodată.
17:44
and as a result,
423
1064260
2000
În concluzie,
17:46
working with Icelandic politicians
424
1066260
2000
colaborând cu politicieni islandezi
17:48
and some other international legal experts,
425
1068260
2000
şi cu alţi experţi legali internaţionali,
17:50
we put together a new sort of
426
1070260
2000
am construit un nou
17:52
package of legislation for Iceland
427
1072260
3000
pachet legislativ pentru ca Islanda
17:55
to sort of become an offshore haven
428
1075260
3000
să devină un fel de paradis îndepărtat
17:58
for the free press,
429
1078260
3000
pentru presa liberă,
18:01
with the strongest journalistic protections in the world,
430
1081260
3000
cu cele mai solide mecanisme din lume pentru protecţia jurnaliştilor,
18:04
with a new Nobel Prize
431
1084260
2000
cu un Premiu Nobel
18:06
for freedom of speech.
432
1086260
2000
pentru libertatea de exprimare.
18:08
Iceland's a Nordic country,
433
1088260
2000
Islanda e o ţară nordică
18:10
so, like Norway, it's able to tap into the system.
434
1090260
3000
şi, la fel ca Norvegia, reuşeşte să forţeze sistemul.
18:13
And just a month ago,
435
1093260
2000
Iar numai acum o lună,
18:15
this was passed by the Icelandic parliament unanimously.
436
1095260
3000
proiectul legislativ a fost votat în unanimitate de Parlamentul Islandez.
18:18
CA: Wow.
437
1098260
2000
CA: Oau!
18:20
(Applause)
438
1100260
6000
(Aplauze)
18:26
Last question, Julian.
439
1106260
2000
Ultima întrebare, Julian.
18:28
When you think of the future then,
440
1108260
2000
Când te gândeşti la viitor,
18:30
do you think it's more likely to be
441
1110260
2000
crezi că mai degrabă
18:32
Big Brother exerting more control,
442
1112260
2000
Big Brother va exercita mai mult control,
18:34
more secrecy,
443
1114260
2000
va ţine mai multe informaţii ascunse,
18:36
or us watching
444
1116260
2000
sau noi îl vom supraveghea
18:38
Big Brother,
445
1118260
2000
pe Big Brother
18:40
or it's just all to be played for either way?
446
1120260
3000
sau se va întâmpla în ambele sensuri?
18:43
JA: I'm not sure which way it's going to go.
447
1123260
2000
JA: Nu ştiu cum o să fie.
18:45
I mean, there's enormous pressures
448
1125260
2000
În sensul că există presiuni uriaşe
18:47
to harmonize freedom of speech legislation
449
1127260
3000
pentru a pune în concordanţă legislaţia libertăţii de exprimare
18:50
and transparency legislation around the world --
450
1130260
3000
şi legislaţia de transparenţă din lume --
18:53
within the E.U.,
451
1133260
2000
în interiorul Uniunii Europene
18:55
between China and the United States.
452
1135260
2000
între China şi Statele Unite.
18:57
Which way is it going to go? It's hard to see.
453
1137260
3000
În ce fel de vor desfăşura lucrurile? E greu de spus!
19:00
That's why it's a very interesting time to be in --
454
1140260
2000
De aceea trăim vremuri interesante.
19:02
because with just a little bit of effort,
455
1142260
2000
Pentru că numai cu puţin efort
19:04
we can shift it one way or the other.
456
1144260
3000
putem să schimbăm cursul lucrurilor într-o direcţie sau într-alta.
19:07
CA: Well, it looks like I'm reflecting the audience's opinion
457
1147260
3000
CA: Ei bine, se pare că exprim opinia audienţei
19:10
to say, Julian, be careful,
458
1150260
2000
spunând, Julian, ai grijă
19:12
and all power to you.
459
1152260
2000
şi multă putere!
19:14
JA: Thank you, Chris. (CA: Thank you.)
460
1154260
2000
JA: Mulţumesc, Chris! (CA: Mulţumesc!)
19:16
(Applause)
461
1156260
10000
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7