The price of a "clean" internet | Hans Block and Moritz Riesewieck

66,430 views ・ 2019-11-21

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Mirona Sărăroiu Corector: Mirel-Gabriel Alexa
00:12
[This talk contains mature content]
0
12360
3221
[Discurs cu puternic impact emoțional]
00:16
Moritz Riesewieck: On March 23, 2013,
1
16913
4452
Moritz Riesewieck: Pe 23 martie 2013
00:21
users worldwide discovered in their news feed
2
21389
4057
utilizatori din toată lumea au găsit pe paginile lor
00:25
a video of a young girl being raped by an older man.
3
25470
5063
un videoclip cu o fetiță care era violată de un bărbat mai în vârstă.
00:31
Before this video was removed from Facebook,
4
31478
3856
Înainte ca acest clip să fie șters de pe Facebook,
00:35
it was already shared 16,000 times,
5
35358
4616
deja fusese redistribuit de 16.000 de ori
00:39
and it was even liked 4,000 times.
6
39998
3642
și chiar a primit 4.000 de like-uri.
00:45
This video went viral and infected the net.
7
45268
3663
Clipul a devenit viral, infectând internetul.
00:49
Hans Block: And that was the moment we asked ourselves
8
49873
3095
Hans Block: Ne-am întrebat, în acel moment:
00:52
how could something like this get on Facebook?
9
52992
2778
cum a putut așa ceva să ajungă pe Facebook?
00:55
And at the same time, why don't we see such content more often?
10
55794
4402
Pe de altă parte, cum de nu vedem mai des astfel de conținuturi?
01:00
After all, there's a lot of revolting material online,
11
60220
3683
În fond, mediul online chiar e plin de materiale revoltătoare.
01:03
but why do we so rarely see such crap on Facebook, Twitter or Google?
12
63927
4455
Deci cum de vedem atât de rar asemenea grozăvii pe Facebook, Twitter sau Google?
01:08
MR: While image-recognition software
13
68958
2241
MR: Deși aplicațiile de recunoaștere a imaginilor
01:11
can identify the outlines of sexual organs,
14
71223
4283
pot identifica în poze și clipuri conturul organelor sexuale,
01:15
blood or naked skin in images and videos,
15
75530
4928
sângele sau nuditatea,
01:20
it has immense difficulties to distinguish pornographic content
16
80482
5540
ele nu pot totuși face diferența între pornografie
01:26
from holiday pictures, Adonis statues
17
86046
4348
și nuditatea unei poze de vacanță sau a unei statui,
01:30
or breast-cancer screening campaigns.
18
90418
2698
sau a unei campanii pentru depistarea cancerului la sân.
01:33
It can't distinguish Romeo and Juliet dying onstage
19
93140
4255
Nu pot face diferența dintre Romeo și Julieta murind pe scenă
01:37
from a real knife attack.
20
97419
2555
și un atac armat real.
01:39
It can't distinguish satire from propaganda
21
99998
5222
Nu pot face diferența dintre satiră și propagandă,
01:45
or irony from hatred, and so on and so forth.
22
105244
3968
dintre ironie și ură, și așa mai departe.
01:50
Therefore, humans are needed to decide
23
110077
4078
Prin urmare, e nevoie de oameni care să decidă
01:54
which of the suspicious content should be deleted,
24
114179
4001
care conținuturi suspecte ar trebui șterse
01:58
and which should remain.
25
118204
1600
și care pot rămâne.
02:00
Humans whom we know almost nothing about,
26
120909
2811
Oameni despre care nu știm mai nimic,
02:03
because they work in secret.
27
123744
1867
pentru că ei lucrează în secret.
02:06
They sign nondisclosure agreements,
28
126053
1905
Semnează acorduri de confidențialitate
02:07
which prohibit them from talking and sharing
29
127982
2953
care le interzic să vorbească și să împărtășească
02:10
what they see on their screens and what this work does to them.
30
130959
3585
despre ce văd pe ecrane și despre ce efect are asta asupra lor.
02:14
They are forced to use code words in order to hide who they work for.
31
134887
4270
Sunt obligați să folosească un limbaj codificat
ca să nu se afle pentru cine lucrează.
02:19
They are monitored by private security firms
32
139585
2905
Sunt monitorizați de firme de securitate private,
02:22
in order to ensure that they don't talk to journalists.
33
142514
3510
ca să nu poată vorbi cu presa.
02:26
And they are threatened by fines in case they speak.
34
146048
3539
Sunt amenințați cu amenzi în cazul în care vorbesc.
02:30
All of this sounds like a weird crime story,
35
150421
3762
Toate acestea sună ca o poveste polițistă ciudată,
02:34
but it's true.
36
154207
1330
dar e purul adevăr.
02:35
These people exist,
37
155561
1492
Acești oameni chiar există
02:37
and they are called content moderators.
38
157633
4181
și se numesc moderatori de conținut.
02:42
HB: We are the directors of the feature documentary film "The Cleaners,"
39
162942
3445
HB: Noi suntem realizatorii filmului documentar „Curățătorii”
02:46
and we would like to take you
40
166411
1960
și am vrea să vă luăm cu noi
02:48
to a world that many of you may not know yet.
41
168395
2587
într-o lume pe care mulți dintre voi nu o cunosc încă.
02:51
Here's a short clip of our film.
42
171006
2133
Iată o scurtă secvență din filmul nostru.
02:58
(Music)
43
178639
3620
(Muzică)
03:04
(Video) Moderator: I need to be anonymous, because we have a contract signed.
44
184400
3686
(Video) Moderatorul de conținut: Trebuie să rămân anonim,
deoarece am semnat un contract.
03:09
We are not allowed to declare whom we are working with.
45
189784
3621
Nu avem voie să spunem pentru cine lucrăm.
03:14
The reason why I speak to you
46
194807
1763
Motivul pentru care vorbesc cu tine
03:16
is because the world should know that we are here.
47
196594
4380
e că lumea ar trebui să știe că existăm.
03:22
There is somebody who is checking the social media.
48
202544
2803
Că cineva verifică social media.
03:26
We are doing our best to make this platform
49
206317
3604
Noi facem tot posibilul ca aceste platforme
03:29
safe for all of them.
50
209945
1790
să fie sigure pentru toată lumea.
03:42
Delete.
51
222438
1150
Șterge.
03:44
Ignore.
52
224278
1294
Ignoră.
03:45
Delete.
53
225596
1150
Șterge.
03:47
Ignore.
54
227279
1297
Ignoră.
03:48
Delete.
55
228600
1151
Șterge.
03:50
Ignore.
56
230680
1151
Ignoră.
03:51
Ignore.
57
231855
1150
Ignoră.
03:53
Delete.
58
233625
1150
Șterge.
03:58
HB: The so-called content moderators
59
238030
1977
HB: Așa-numiții moderatori de conținut
04:00
don't get their paychecks from Facebook, Twitter or Google themselves,
60
240031
4000
nu sunt plătiți direct de Facebook, Twitter sau Google.
04:04
but from outsourcing firms around the world
61
244055
2317
Ei sunt angajați de firme de leasing de personal,
04:06
in order to keep the wages low.
62
246396
2067
ca să poată fi ținuți pe salarii mici.
04:08
Tens of thousands of young people
63
248833
1967
Zeci de mii de tineri
04:10
looking at everything we are not supposed to see.
64
250824
3213
se uită la lucruri pe care nimeni nu ar trebui să le vadă.
04:14
And we are talking about decapitations, mutilations,
65
254061
3548
Și ne referim la decapitări, mutilări,
04:17
executions, necrophilia, torture, child abuse.
66
257633
3696
execuții, necrofilie, tortură, abuzuri asupra minorilor.
04:21
Thousands of images in one shift --
67
261743
2274
Mii de imagini pe tură;
04:24
ignore, delete, day and night.
68
264041
2915
ignoră sau șterge, zi și noapte.
04:27
And much of this work is done in Manila,
69
267393
3398
Mare parte din această muncă se face în Manila,
04:30
where the analog toxic waste from the Western world
70
270815
3302
locul către care deșeurile toxice analogice ale lumii occidentale
04:34
was transported for years by container ships,
71
274141
2608
au fost ani de zile expediate în cargoboturi,
04:36
now the digital waste is dumped there via fiber-optic cable.
72
276773
4003
iar acum deșeurile digitale sunt de asemenea „deversate” aici,
pe calea fibrei optice.
04:40
And just as the so-called scavengers
73
280800
3047
Și exact cum așa-numiții căutători prin gunoaie
04:43
rummage through gigantic tips on the edge of the city,
74
283871
3476
scormonesc prin mormanele imense de la marginea orașelor,
04:47
the content moderators click their way through an endless toxic ocean
75
287371
4833
moderatorii de conținut navighează printr-un ocean toxic nesfârșit
04:52
of images and videos and all manner of intellectual garbage,
76
292228
4087
de imagini, clipuri și tot soiul de gunoaie digitale,
04:56
so that we don't have to look at it.
77
296339
2302
pentru ca noi să nu fim nevoiți să le vedem.
04:58
MR: But unlike the wounds of the scavengers,
78
298665
3540
MR: Dar spre deosebire de rănile căutătorilor prin gunoaie,
05:02
those of the content moderators remain invisible.
79
302229
3451
cele ale moderatorilor de conținut sunt invizibile.
05:06
Full of shocking and disturbing content,
80
306117
3080
Pline de conținut șocant și tulburător,
05:09
these pictures and videos burrow into their memories
81
309221
3263
aceste imagini și clipuri le rămân întipărite în memorie
05:12
where, at any time, they can have unpredictable effects:
82
312508
3445
iar de acolo, oricând, pot declanșa efecte neprevăzute:
05:15
eating disorders, loss of libido,
83
315977
3357
tulburări de alimentație, pierderea apetitului sexual,
05:19
anxiety disorders, alcoholism,
84
319358
3259
tulburări anxioase, alcoolism,
05:22
depression, which can even lead to suicide.
85
322641
2912
depresie și chiar suicid.
05:26
The pictures and videos infect them,
86
326100
2445
Imaginile și clipurile îi infectează
05:28
and often never let them go again.
87
328569
2389
și efectele sunt adesea ireversibile.
05:30
If they are unlucky, they develop post-traumatic stress disorders,
88
330982
4841
Dacă sunt ghinioniști, dezvoltă sindromul post-traumatic
05:35
like soldiers after war missions.
89
335847
2200
exact ca soldații întorși din misiune.
05:39
In our film, we tell the story of a young man
90
339445
3643
În documentarul nostru relatăm povestea unui tânăr
05:43
who had to monitor livestreams of self-mutilations and suicide attempts,
91
343112
5198
care avea de monitorizat transmisii live de automutilări și tentative de suicid,
05:48
again and again,
92
348334
1675
din nou și din nou,
05:50
and who eventually committed suicide himself.
93
350033
3066
până când, într-un final, el însuși s-a sinucis.
05:53
It's not an isolated case, as we've been told.
94
353787
2740
Și, după cum ni s-a spus, nu e un caz izolat.
05:57
This is the price all of us pay
95
357184
3980
Acesta e prețul pe care îl plătim cu toții
06:01
for our so-called clean and safe and "healthy"
96
361188
5327
pentru așa-numitele noastre rețele sociale online
curate, sigure și „sănătoase”.
06:06
environments on social media.
97
366539
2284
06:10
Never before in the history of mankind
98
370482
2595
Niciodată în istoria umanității
06:13
has it been easier to reach millions of people around the globe
99
373101
3332
n-a fost mai ușor să ajungi la milioane de oameni din toată lumea
06:16
in a few seconds.
100
376457
1667
în câteva secunde.
06:18
What is posted on social media spreads so quickly,
101
378148
3945
Postările de pe social media se răspândesc extrem de rapid,
06:22
becomes viral and excites the minds of people all around the globe.
102
382117
3936
pot deveni virale și pot incita mințile oamenilor din toată lumea.
06:26
Before it is deleted,
103
386450
2064
Până să fie șterse,
06:28
it is often already too late.
104
388538
1933
de multe ori e prea târziu.
06:30
Millions of people have already been infected
105
390966
2230
Milioane de oameni deja au fost contaminați
06:33
with hatred and anger,
106
393220
1857
cu ură și furie,
06:35
and they either become active online,
107
395101
2730
iar aceștia fie devin activi online,
06:37
by spreading or amplifying hatred,
108
397855
3143
împrăștiind și amplificând ura,
06:41
or they take to the streets and take up arms.
109
401022
3793
fie ies pe stradă și folosesc armele.
06:45
HB: Therefore, an army of content moderators
110
405236
2540
HB: Prin urmare, o armată de moderatori de conținut
06:47
sit in front of a screen to avoid new collateral damage.
111
407800
3895
stă în fața calculatoarelor pentru a evita și mai multe daune colaterale.
06:52
And they are deciding, as soon as possible,
112
412434
2119
Și ei trebuie să decidă instantaneu
06:54
whether the content stays on the platform -- ignore;
113
414577
4095
dacă respectivul conținut rămâne pe platformă: ignoră;
06:58
or disappears -- delete.
114
418696
2340
sau dispare: șterge.
07:01
But not every decision is as clear
115
421823
2627
Dar nu toate deciziile sunt atât de clare
07:04
as the decision about a child-abuse video.
116
424474
2897
precum cea despre un clip cu un abuz asupra unui minor.
07:07
What about controversial content, ambivalent content,
117
427395
2777
Mai sunt și conținuturi controversate, ambivalente,
07:10
uploaded by civil rights activists or citizen journalists?
118
430196
3153
încărcate de apărători ai drepturilor omului sau jurnaliști.
07:14
The content moderators often decide on such cases
119
434048
3222
Moderatorii de conținut decid adesea și în aceste cazuri
07:17
at the same speed as the [clear] cases.
120
437294
2733
cu aceeași viteză cu care decid în situațiile clare.
07:21
MR: We will show you a video now,
121
441515
2659
MR: Vă vom arăta un clip
07:24
and we would like to ask you to decide:
122
444198
3309
și o să vă rugăm pe voi să decideți:
07:27
Would you delete it,
123
447531
1690
l-ați șterge de pe internet
07:29
or would you not delete it?
124
449245
1801
sau nu?
07:31
(Video) (Air strike sounds)
125
451070
1667
(Video) (Sunete de atac aerian)
07:33
(Explosion)
126
453100
2550
(Explozie)
07:40
(People speaking in Arabic)
127
460076
5953
(Oameni vorbind în arabă)
07:46
MR: Yeah, we did some blurring for you.
128
466053
2230
MR: Da, am estompat unele imagini.
07:49
A child would potentially be dangerously disturbed
129
469196
3755
E posibil ca un copil să fie serios afectat
07:52
and extremely frightened by such content.
130
472975
2809
și foarte înspăimântat de un asemenea conținut.
07:55
So, you rather delete it?
131
475808
2297
Așadar, l-ați șterge?
07:59
But what if this video could help investigate the war crimes in Syria?
132
479610
4639
Dar dacă acest clip ar putea ajuta la investigarea crimelor de război din Siria?
08:04
What if nobody would have heard about this air strike,
133
484717
3167
Dacă nimeni nu ar fi aflat despre acest atac aerian
08:07
because Facebook, YouTube, Twitter would have decided to take it down?
134
487908
3738
din cauză că Facebook, YouTube, Twitter ar fi decis să-l șteargă?
08:12
Airwars, a nongovernmental organization based in London,
135
492895
4325
Airwars, o organizație non-guvernamentală cu sediul în Londra
08:17
tries to find those videos as quickly as possible
136
497244
2897
încearcă să găsească astfel de clipuri cât mai repede,
08:20
whenever they are uploaded to social media,
137
500165
2560
de îndată ce sunt încărcate pe social media,
08:22
in order to archive them.
138
502749
1600
cu scopul de a le arhiva.
08:24
Because they know, sooner or later,
139
504693
2833
Asta pentru că ei știu că, mai devreme sau mai târziu,
08:27
Facebook, YouTube, Twitter would take such content down.
140
507550
3310
Facebook, YouTube, Twitter vor șterge astfel de conținuturi.
08:31
People armed with their mobile phones
141
511345
2208
Oameni înarmați cu telefoane mobile
08:33
can make visible what journalists often do not have access to.
142
513577
4199
pot face vizibile lucruri la care jurnaliștii adesea nu au acces.
08:37
Civil rights groups often do not have any better option
143
517800
3063
De multe ori, apărătorii drepturilor omului nu au altă opțiune mai bună
08:40
to quickly make their recordings accessible to a large audience
144
520887
3801
de a mediatiza la scară largă abuzurile înregistrate,
08:44
than by uploading them to social media.
145
524712
2600
decât dacă le încarcă pe platformele sociale.
08:47
Wasn't this the empowering potential the World Wide Web should have?
146
527950
4286
Și nu e aceasta însăși puterea pe care ar trebui să ne-o dea internetul?
08:52
Weren't these the dreams
147
532966
1960
Nu sunt acestea visurile
08:54
people in its early stages had about the World Wide Web?
148
534950
4111
pe care oamenii și le făceau în anii de început ai internetului?
08:59
Can't pictures and videos like these
149
539608
2795
Nu ar trebui ca astfel de imagini și de clipuri
09:02
persuade people who have become insensitive to facts
150
542427
5134
să-i oblige pe oamenii care au devenit insensibili la ce se întâmplă
09:07
to rethink?
151
547585
1150
să-și revizuiască atitudinea?
09:09
HB: But instead, everything that might be disturbing is deleted.
152
549917
3602
HB: În schimb, orice ar putea deranja este șters.
09:13
And there's a general shift in society.
153
553543
2058
A devenit o tendință generală în societate.
09:15
Media, for example, more and more often use trigger warnings
154
555625
3897
Mass media, de pildă, utilizează tot mai des mesaje de avertizare
09:19
at the top of articles
155
559546
1793
la începutul articolelor
09:21
which some people may perceive as offensive or troubling.
156
561363
3309
care ar putea fi percepute de unii cititori drept deranjante și ofensatoare.
09:24
Or more and more students at universities in the United States
157
564696
3914
Sau tot mai mulți studenți ai universităților americane
09:28
demand the banishment of antique classics
158
568634
2817
cer interzicerea din programa școlară a clasicilor antici
09:31
which depict sexual violence or assault from the curriculum.
159
571475
3115
care descriu în operele lor violențe sexuale și abuzuri.
09:34
But how far should we go with that?
160
574991
2333
Oare cât de departe să mergem cu asta?
09:37
Physical integrity is guaranteed as a human right
161
577875
3380
Integritatea fizică e obligatorie, ca drept constituțional al omului,
09:41
in constitutions worldwide.
162
581279
1800
peste tot în lume.
09:43
In the Charter of Fundamental Rights of the European Union,
163
583422
3754
În Carta Drepturilor Fundamentale a Uniunii Europene
09:47
this right expressly applies to mental integrity.
164
587200
3354
este în mod expres specificat și dreptul la integritate mintală.
09:51
But even if the potentially traumatic effect
165
591347
2658
Dar chiar dacă efectul potențial traumatic
09:54
of images and videos is hard to predict,
166
594029
2826
al imaginilor și clipurilor e dificil de anticipat,
09:56
do we want to become so cautious
167
596879
1957
chiar vrem să devenim atât de precauți
09:58
that we risk losing social awareness of injustice?
168
598860
3727
încât să riscăm să pierdem conștientizarea societății asupra nedreptății?
10:03
So what to do?
169
603203
1150
Atunci, ce e de făcut?
10:04
Mark Zuckerberg recently stated that in the future,
170
604942
2992
Mark Zuckerberg a declarat recent că în viitor
10:07
the users, we, or almost everybody,
171
607958
3802
utilizatorii, adică noi toți,
10:11
will decide individually
172
611784
2261
vom decide fiecare în parte
10:14
what they would like to see on the platform,
173
614069
2048
ce vrem să vedem pe pagina noastră
10:16
by personal filter settings.
174
616141
2031
prin aplicarea unor filtre de personalizare.
10:18
So everyone could easily claim to remain undisturbed
175
618196
3072
Astfel, oricine poate cu ușurință să ceară să nu fie deranjat
10:21
by images of war or other violent conflicts, like ...
176
621292
3739
de imagini cu războaie sau alt gen de conflicte violente, cam așa:
10:25
MR: I'm the type of guy who doesn't mind seeing breasts
177
625849
4446
MR: Sunt genul de bărbat pe care nu-l deranjează să vadă sâni
10:30
and I'm very interested in global warming,
178
630319
3766
și sunt foarte interesat de încălzirea globală.
10:34
but I don't like war so much.
179
634109
2564
În schimb, războiul nu-mi prea place.
10:37
HB: Yeah, I'm more the opposite,
180
637109
1722
HB: Iar eu sunt cam invers,
10:38
I have zero interest in naked breasts or naked bodies at all.
181
638855
4053
adică sânii și nuditatea în general mă lasă total indiferent.
10:43
But why not guns? I like guns, yes.
182
643209
2911
Dar arme, de ce nu? Armele îmi plac.
10:46
MR: Come on, if we don't share a similar social consciousness,
183
646901
3745
MR: Păi dacă nu împărtășim aceeași conștiință socială,
10:50
how shall we discuss social problems?
184
650670
2669
cum să discutăm despre problemele sociale?
10:53
How shall we call people to action?
185
653363
2397
Cum să cerem cetățenilor să acționeze?
10:55
Even more isolated bubbles would emerge.
186
655784
3285
Vom fi și mai izolați ca până acum.
10:59
One of the central questions is: "How, in the future,
187
659665
3231
Una din întrebările cheie este: „Cum vom gestiona pe viitor
11:02
freedom of expression will be weighed against the people's need for protection."
188
662920
4903
relația dintre libertatea de exprimare și nevoia de protecție a oamenilor?”
11:08
It's a matter of principle.
189
668441
1467
E o chestiune de principiu.
11:10
Do we want to design an either open or closed society
190
670602
4248
Vrem să creăm în spațiul digital o societate deschisă
11:14
for the digital space?
191
674874
1639
sau izolată?
11:17
At the heart of the matter is "freedom versus security."
192
677054
5912
În esență, este vorba despre „libertate versus securitate”.
11:24
Facebook has always wanted to be a "healthy" platform.
193
684388
4484
Facebook și-a dorit dintotdeauna să fie o platformă „sănătoasă”.
11:28
Above all, users should feel safe and secure.
194
688896
3698
Mai presus de orice,
toți utilizatorii ar trebui să-și simtă intimitatea protejată.
11:32
It's the same choice of words
195
692618
2120
Exact aceste cuvinte le-au folosit
11:34
the content moderators in the Philippines used
196
694762
2958
și moderatorii de conținut din Filipine
11:37
in a lot of our interviews.
197
697744
1800
în multe din interviurile noastre.
11:40
(Video) The world that we are living in right now,
198
700188
2381
(Video) Lumea în care trăim acum
11:42
I believe, is not really healthy.
199
702593
2166
cred că nu e prea sănătoasă.
11:44
(Music)
200
704783
1548
(Muzică)
11:46
In this world, there is really an evil who exists.
201
706355
3158
În această lume, răul există cu adevărat.
11:49
(Music)
202
709537
3238
(Muzică)
11:52
We need to watch for it.
203
712799
2063
Trebuie să fim atenți la el.
11:54
(Music)
204
714886
1882
(Muzică)
11:56
We need to control it -- good or bad.
205
716792
3250
Trebuie să-l controlăm.
12:00
(Music)
206
720646
7000
(Muzică)
12:10
[Look up, Young man! --God]
207
730193
4103
[„Tinere, ai grijă!” - Dumnezeu]
12:14
MR: For the young content moderators in the strictly Catholic Philippines,
208
734952
4278
MR: Pentru tinerii moderatori de conținut din acest Filipine foarte catolic
12:19
this is linked to a Christian mission.
209
739254
2793
această misiune este una creștină.
12:22
To counter the sins of the world
210
742833
2966
Să țină piept păcatelor lumii
12:25
which spread across the web.
211
745823
2174
care se răspândesc pe internet.
12:28
"Cleanliness is next to godliness,"
212
748641
3412
„Curățirea te aduce mai aproape de Dumnezeu”
12:32
is a saying everybody in the Philippines knows.
213
752077
3434
e o vorbă pe care tot poporul filipinez o știe.
12:36
HB: And others motivate themselves
214
756035
1659
HB: Alții se automotivează
12:37
by comparing themselves with their president, Rodrigo Duterte.
215
757718
3731
comparându-se cu președintele lor, Rodrigo Duterte.
12:41
He has been ruling the Philippines since 2016,
216
761837
3491
El conduce statul Filipine din 2016
12:45
and he won the election with the promise: "I will clean up."
217
765352
3993
și a câștigat alegerile cu promisiunea: „Voi face curățenie.”
12:49
And what that means is eliminating all kinds of problems
218
769892
3317
Asta înseamnă eliminarea tuturor problemelor, de orice fel,
12:53
by literally killing people on the streets
219
773233
2455
prin a ucide la propriu oamenii pe stradă,
12:55
who are supposed to be criminals, whatever that means.
220
775712
2865
dacă sunt suspectați că sunt infractori, orice ar putea însemna asta.
12:58
And since he was elected,
221
778601
1270
Într-adevăr, de când a fost ales,
12:59
an estimated 20,000 people have been killed.
222
779895
3436
se presupune că 20.000 de oameni au fost omorâți.
13:03
And one moderator in our film says,
223
783655
2501
Iar în documentarul nostru, un moderator de conținut spune:
13:06
"What Duterte does on the streets,
224
786180
2055
„Ce face Duerte pe străzi,
13:08
I do for the internet."
225
788259
1714
eu fac pe internet.”
13:10
And here they are, our self-proclaimed superheroes,
226
790934
3564
Iată-i, deci, pe acești super-eroi autoproclamați
13:14
who enforce law and order in our digital world.
227
794522
2976
care impun legea și ordinea în lumea noastră digitală.
13:17
They clean up, they polish everything clean,
228
797522
2381
Ei curăță, mușamalizează,
13:19
they free us from everything evil.
229
799927
2333
ne țin la distanță de tot ce-i rău.
13:22
Tasks formerly reserved to state authorities
230
802284
3729
Responsabilități aflate odată în slujba autorităților statului
13:26
have been taken over by college graduates in their early 20s,
231
806037
3675
au fost preluate de tineri absolvenți de douăzeci și ceva de ani,
13:29
equipped with three- to five-day training --
232
809736
2893
„echipați” cu trei-cinci zile de instruire,
13:32
this is the qualification --
233
812653
1936
în asta constă calificarea lor,
13:34
who work on nothing less than the world's rescue.
234
814613
3067
care lucrează la nici mai mult nici mai puțin decât salvarea acestei lumi.
13:38
MR: National sovereignties have been outsourced to private companies,
235
818756
4219
MR: Responsabilități guvernamentale au fost externalizate
13:42
and they pass on their responsibilities to third parties.
236
822999
4008
către companii private, iar ele le dau mai departe către subcontractori.
13:47
It's an outsourcing of the outsourcing of the outsourcing,
237
827031
3063
Este o externalizare a externalizării a externalizării
13:50
which takes place.
238
830118
1150
ceea ce se întâmplă.
13:51
With social networks,
239
831618
1396
Din cauza rețelelor sociale
13:53
we are dealing with a completely new infrastructure,
240
833038
3015
avem de-a face cu o infrastructură complet nouă,
13:56
with its own mechanisms,
241
836077
1516
cu propriile ei mecanisme,
13:57
its own logic of action
242
837617
1579
propria ei logică a acțiunii
13:59
and therefore, also, its own new dangers,
243
839220
5245
și, prin urmare, cu propriile ei noi pericole
14:04
which had not yet existed in the predigitalized public sphere.
244
844489
4025
care nu existau în spațiul public al erei pre-digitale.
14:08
HB: When Mark Zuckerberg was at the US Congress
245
848538
2209
HB: Când Mark Zuckerberg a vorbit în fața congresului american
14:10
or at the European Parliament,
246
850771
1770
sau a Parlamentului European,
14:12
he was confronted with all kinds of critics.
247
852565
2635
i s-au adus tot felul de critici.
14:15
And his reaction was always the same:
248
855224
2580
Răspunsul lui a fost mereu același:
14:18
"We will fix that,
249
858501
1468
„Vom remedia asta,
14:19
and I will follow up on that with my team."
250
859993
2551
iar eu și echipa mea vom monitoriza pe viitor.”
14:23
But such a debate shouldn't be held in back rooms of Facebook,
251
863167
3778
Dar astfel de discuții nu ar trebui purtate în birourile Facebook,
14:26
Twitter or Google --
252
866969
1285
Twitter sau Google,
14:28
such a debate should be openly discussed in new, cosmopolitan parliaments,
253
868278
4816
astfel de discuții ar trebui purtate deschis în noile parlamente moderne,
14:33
in new institutions that reflect the diversity of people
254
873118
4860
în noile instituții care reflectă diversitatea umană,
14:38
contributing to a utopian project of a global network.
255
878002
4542
contribuind astfel la proiectul utopic al unei rețele globale.
14:42
And while it may seem impossible to consider the values
256
882568
3377
Chiar dacă pare imposibil să ținem cont de valorile
14:45
of users worldwide,
257
885969
2242
utilizatorilor din lumea întreagă,
14:48
it's worth believing
258
888235
1682
merită să păstrăm convingerea
14:49
that there's more that connects us than separates us.
259
889941
3286
că sunt mai multe lucrurile care ne apropie decât cele care ne separă.
14:53
MR: Yeah, at a time when populism is gaining strength,
260
893624
3707
MR: În vremurile în care populismul capătă putere
14:57
it becomes popular to justify the symptoms,
261
897355
3198
devine la modă să ne concentrăm doar pe simptome,
15:00
to eradicate them,
262
900577
1278
să le eliminăm,
15:01
to make them invisible.
263
901879
1888
să le ascundem.
15:04
This ideology is spreading worldwide,
264
904919
3349
Această ideologie se răspândește în toată lumea,
15:08
analog as well as digital,
265
908292
2785
atât în spațiul analog cât și în cel digital,
15:11
and it's our duty to stop it
266
911903
3492
și e de datoria noastră să o oprim,
15:15
before it's too late.
267
915419
1626
până nu e prea târziu.
15:17
The question of freedom and democracy
268
917665
3984
Principiul libertății și democrației
15:21
must not only have these two options.
269
921673
2967
nu ar trebui să se rezume la aceste două opțiuni.
15:25
HB: Delete.
270
925053
1166
HB: Șterge.
15:26
MR: Or ignore.
271
926243
2147
MR: Sau ignoră.
15:29
HB: Thank you very much.
272
929300
1597
HB: Vă mulțumim foarte mult!
15:30
(Applause)
273
930921
5269
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7