Dear Facebook, this is how you're breaking democracy | Yael Eisenstat

113,612 views ・ 2020-09-24

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Claudia Pravat Corector: Iosif Szenasi
00:13
Around five years ago,
0
13000
2018
Cu vreo cinci ani în urmă,
00:15
it struck me that I was losing the ability
1
15042
2392
mi-am dat seama că îmi pierdeam capacitatea
00:17
to engage with people who aren't like-minded.
2
17458
2500
de a interacționa cu cei care nu gândesc ca mine.
00:20
The idea of discussing hot-button issues with my fellow Americans
3
20917
3642
Ideea de a dezbate subiecte sensibile cu colegii mei americani
00:24
was starting to give me more heartburn
4
24583
2393
începuse să îmi dea mai multe dureri de stomac
00:27
than the times that I engaged with suspected extremists overseas.
5
27000
4125
decât discuțiile cu presupușii extremiști de peste hotare.
00:31
It was starting to leave me feeling more embittered and frustrated.
6
31750
3601
Începuseră să-mi dea o senzație de ură și frustrare.
00:35
And so just like that,
7
35375
1434
Așa că, brusc,
00:36
I shifted my entire focus
8
36833
1810
mi-am mutat toată atenția
00:38
from global national security threats
9
38667
2434
de la amenințările la adresa securității naționale
00:41
to trying to understand what was causing this push
10
41125
3226
la încercarea de a înțelege de unde venea acest impuls
00:44
towards extreme polarization at home.
11
44375
3226
spre o polarizare exagerată.
00:47
As a former CIA officer and diplomat
12
47625
2351
Ca fost ofițer CIA și diplomat
00:50
who spent years working on counterextremism issues,
13
50000
3434
care a petrecut mulți ani în probleme de antiterorism,
00:53
I started to fear that this was becoming a far greater threat to our democracy
14
53458
3851
mă temeam că acest lucru e o amenințare mult mai mare pentru democrație
00:57
than any foreign adversary.
15
57333
2518
decât orice adversar extern.
00:59
And so I started digging in,
16
59875
1809
Așadar, am început să cercetez
01:01
and I started speaking out,
17
61708
1518
și să-mi exprim părerea,
01:03
which eventually led me to being hired at Facebook
18
63250
2809
lucru care a dus la angajarea mea la Facebook
01:06
and ultimately brought me here today
19
66083
2685
și în final m-a adus azi aici,
01:08
to continue warning you about how these platforms
20
68792
2809
ca să vă avertizez despre faptul că aceste platforme
01:11
are manipulating and radicalizing so many of us
21
71625
4018
ne manipulează și radicalizează pe foarte mulți dintre noi,
01:15
and to talk about how to reclaim our public square.
22
75667
2958
și să vedem cum ne recâștigăm spațiul public.
01:19
I was a foreign service officer in Kenya
23
79625
1976
Am fost diplomat în Kenya
01:21
just a few years after the September 11 attacks,
24
81625
3059
la câțiva ani după atacurile din 11 septembrie,
01:24
and I led what some call "hearts and minds" campaigns
25
84708
2560
și am condus așa numitele campanii „inimi și minți”
01:27
along the Somalia border.
26
87292
1934
de-a lungul graniței cu Somalia.
01:29
A big part of my job was to build trust with communities
27
89250
3309
O parte importantă era să consolidez încrederea în comunitățile
01:32
deemed the most susceptible to extremist messaging.
28
92583
2709
considerate cele mai expuse la mesaje extremiste.
01:36
I spent hours drinking tea with outspoken anti-Western clerics
29
96125
4184
Am petrecut ore întregi bând ceai cu clerici declarați antioccidentali
01:40
and even dialogued with some suspected terrorists,
30
100333
3226
și chiar am stat de vorbă cu câțiva presupuși teroriști;
01:43
and while many of these engagements began with mutual suspicion,
31
103583
3393
și deși multe dintre aceste întâlniri au început cu suspiciune reciprocă,
01:47
I don't recall any of them resulting in shouting or insults,
32
107000
3809
nu-mi amintesc să fi degenerat niciuna în strigăte și insulte,
01:50
and in some case we even worked together on areas of mutual interest.
33
110833
4084
iar în unele cazuri chiar am colaborat în domenii de interes reciproc.
01:56
The most powerful tools we had were to simply listen, learn
34
116000
4143
Cele mai puternice instrumente sunt să ascultăm, să înțelegem
02:00
and build empathy.
35
120167
1726
și să dezvoltăm empatie.
02:01
This is the essence of hearts and minds work,
36
121917
3059
Aceasta e esența programului „inimi și minți”,
02:05
because what I found again and again is that what most people wanted
37
125000
3268
deoarece am descoperit în repetate rânduri că ceea ce își doresc oamenii
02:08
was to feel heard, validated and respected.
38
128292
3767
este să se simtă auziți, recunoscuți și respectați.
02:12
And I believe that's what most of us want.
39
132083
2643
Și cred că asta ne dorim cu toții.
02:14
So what I see happening online today is especially heartbreaking
40
134750
3309
E dureros să văd ce se întâmplă azi în mediul online
02:18
and a much harder problem to tackle.
41
138083
2084
și e o problemă mult mai greu de rezolvat.
02:20
We are being manipulated by the current information ecosystem
42
140917
3767
Suntem manipulați de ecosistemul informațional actual,
02:24
entrenching so many of us so far into absolutism
43
144708
3768
care a încrâncenat pe mulți dintre noi în absolutism,
02:28
that compromise has become a dirty word.
44
148500
2976
încât compromisul a devenit un cuvânt murdar.
02:31
Because right now,
45
151500
1309
Pentru că în acest moment,
02:32
social media companies like Facebook
46
152833
2143
rețelele sociale precum Facebook
02:35
profit off of segmenting us and feeding us personalized content
47
155000
3851
profită de pe urma diviziunii noastre și ne furnizează conținut personalizat
02:38
that both validates and exploits our biases.
48
158875
3851
care ne validează și în același timp ne exploatează prejudecățile.
02:42
Their bottom line depends on provoking a strong emotion
49
162750
3434
Rezultatul lor final se bazează pe provocarea unei emoții puternice
02:46
to keep us engaged,
50
166208
1685
care să ne țină conectați,
02:47
often incentivizing the most inflammatory and polarizing voices,
51
167917
4267
stimulând adesea vocile cele mai instigatoare și polarizante,
02:52
to the point where finding common ground no longer feels possible.
52
172208
4435
până când nu mai e posibilă găsirea unul numitor comun.
02:56
And despite a growing chorus of people crying out for the platforms to change,
53
176667
4226
Și deși sunt multe voci care cer ca platformele să se schimbe,
03:00
it's clear they will not do enough on their own.
54
180917
3309
e limpede că nu vor face suficient din proprie inițiativă.
03:04
So governments must define the responsibility
55
184250
2893
Prin urmare, guvernele trebuie să stabilească responsabilitatea
03:07
for the real-world harms being caused by these business models
56
187167
3809
pentru daunele din viața reală provocate de aceste modele de business
03:11
and impose real costs on the damaging effects
57
191000
2768
și să impună costuri reale pentru efectele dăunătoare
03:13
they're having to our public health, our public square and our democracy.
58
193792
5309
pe care le au asupra sănătății publice, a spațiului public și a democrației.
03:19
But unfortunately, this won't happen in time for the US presidential election,
59
199125
4643
Din păcate, asta nu se va întâmpla înainte de alegerile prezidențiale,
03:23
so I am continuing to raise this alarm,
60
203792
2767
așa că voi continua să trag acest semnal de alarmă,
03:26
because even if one day we do have strong rules in place,
61
206583
3060
deoarece, chiar dacă vom avea cândva reguli care să funcționeze,
03:29
it will take all of us to fix this.
62
209667
2750
e nevoie de noi toți pentru a rezolva acest lucru.
03:33
When I started shifting my focus from threats abroad
63
213417
2601
Când mi-am mutat atenția de la amenințările externe
03:36
to the breakdown in civil discourse at home,
64
216042
2142
la criza din discursul public de acasă,
03:38
I wondered if we could repurpose some of these hearts and minds campaigns
65
218208
4060
m-am întrebat dacă putem schimba unele campanii de inimi și minți,
03:42
to help heal our divides.
66
222292
2101
pentru a ajuta să ne vindecăm dezbinările.
03:44
Our more than 200-year experiment with democracy works
67
224417
3809
Experiența noastră cu democrația, veche de peste 200 de ani,
03:48
in large part because we are able to openly and passionately
68
228250
3893
funcționează în parte datorită faptului că putem dezbate deschis și cu pasiune
03:52
debate our ideas for the best solutions.
69
232167
2809
ideile pe care le avem, ca să găsim cele mai bune soluții.
03:55
But while I still deeply believe
70
235000
1809
Dar, deși cred cu adevărat
03:56
in the power of face-to-face civil discourse,
71
236833
2268
în puterea dialogului față în față,
03:59
it just cannot compete
72
239125
1643
acesta nu se poate compara
04:00
with the polarizing effects and scale of social media right now.
73
240792
3809
cu efectele polarizatoare și amploarea rețelelor sociale în acest moment.
04:04
The people who are sucked down these rabbit holes
74
244625
2351
Oamenii care cad în aceste capcane
ale revoltei din social media
04:07
of social media outrage
75
247000
1309
04:08
often feel far harder to break of their ideological mindsets
76
248333
3643
renunță mai greu la mentalitățile lor ideologice
04:12
than those vulnerable communities I worked with ever were.
77
252000
3476
decât acele comunități defavorizate cu care am lucrat.
04:15
So when Facebook called me in 2018
78
255500
2309
Așadar, când m-au sunat cei de la Facebook în 2018
04:17
and offered me this role
79
257833
1310
și mi-au oferit această poziție,
04:19
heading its elections integrity operations for political advertising,
80
259167
3976
să conduc operațiunile de integritate a alegerilor în publicitatea politică,
04:23
I felt I had to say yes.
81
263167
2017
am simțit că trebuie să accept.
04:25
I had no illusions that I would fix it all,
82
265208
2726
Nu aveam iluzii că voi rezolva totul,
04:27
but when offered the opportunity
83
267958
1643
dar când mi s-a oferit ocazia
04:29
to help steer the ship in a better direction,
84
269625
2184
de a dirija nava într-o direcție mai bună,
04:31
I had to at least try.
85
271833
1542
trebuia măcar să încerc.
04:34
I didn't work directly on polarization,
86
274667
2267
Nu am lucrat direct pe polarizare,
04:36
but I did look at which issues were the most divisive in our society
87
276958
4435
ci am căutat problemele care dezbinau cel mai mult societatea,
04:41
and therefore the most exploitable in elections interference efforts,
88
281417
3809
fiind cele mai utilizate în încercările de amestec în alegeri,
04:45
which was Russia's tactic ahead of 2016.
89
285250
2583
care a fost tactica Rusiei înainte de 2016.
04:48
So I started by asking questions.
90
288583
2351
Am început prin a pune întrebări.
04:50
I wanted to understand the underlying systemic issues
91
290958
2893
Voiam să înțeleg problemele de bază ale acestui sistem
04:53
that were allowing all of this to happen,
92
293875
2434
care au permis ca toate acestea să se întâmple,
04:56
in order to figure out how to fix it.
93
296333
2084
pentru a ști cum să le rezolvăm.
04:59
Now I still do believe in the power of the internet
94
299625
2559
Încă mai cred în puterea internetului
05:02
to bring more voices to the table,
95
302208
2518
de a aduce mai multe voci laolaltă,
05:04
but despite their stated goal of building community,
96
304750
3101
dar în ciuda scopului declarat de a construi o comunitate,
05:07
the largest social media companies as currently constructed
97
307875
3309
cum sunt construite acum cele mai mari companii de social media,
05:11
are antithetical to the concept of reasoned discourse.
98
311208
3601
sunt în antiteză cu conceptul de discurs rațional.
05:14
There's no way to reward listening,
99
314833
2518
Nu e nicio modalitate de a răsplăti ascultarea,
05:17
to encourage civil debate
100
317375
1601
de a încuraja dialogul civilizat
05:19
and to protect people who sincerely want to ask questions
101
319000
3643
și de a proteja oamenii care chiar vor să pună întrebări,
05:22
in a business where optimizing engagement and user growth
102
322667
3351
în domeniul unde optimizarea implicării și creșterea numărului de utilizatori
05:26
are the two most important metrics for success.
103
326042
3226
sunt cei mai importanți indicatori ai succesului.
05:29
There's no incentive to help people slow down,
104
329292
3434
Nu există interes de a-i ajuta pe oameni să se calmeze,
05:32
to build in enough friction that people have to stop,
105
332750
3226
de a crea suficientă presiune încât oamenii să se oprească,
05:36
recognize their emotional reaction to something,
106
336000
2601
să-și dea seama de reacția lor emoțională
05:38
and question their own assumptions before engaging.
107
338625
2667
și să-și examineze propriile opinii înainte să răspundă.
05:42
The unfortunate reality is:
108
342625
1976
Din păcate, realitatea stă cam așa:
05:44
lies are more engaging online than truth,
109
344625
2893
minciunile sunt mai interesante decât adevărul,
05:47
and salaciousness beats out wonky, fact-based reasoning
110
347542
3726
iar scandalul întrece argumentul rațional, bazat pe realitate,
05:51
in a world optimized for frictionless virality.
111
351292
3041
într-o lume optimizată pentru viralitate fără divergențe.
05:55
As long as algorithms' goals are to keep us engaged,
112
355167
3434
Atâta vreme cât scopurile algoritmilor sunt să ne țină conectați,
05:58
they will continue to feed us the poison that plays to our worst instincts
113
358625
4059
vor continua să ne furnizeze otrava care ne manevrează
06:02
and human weaknesses.
114
362708
1459
cele mai rele instincte și slăbiciuni umane.
06:04
And yes, anger, mistrust,
115
364958
3018
Desigur, furia, neîncrederea,
06:08
the culture of fear, hatred:
116
368000
1726
cultura fricii, ura...
06:09
none of this is new in America.
117
369750
2851
nimic din toate acestea nu sunt ceva nou în America.
06:12
But in recent years, social media has harnessed all of that
118
372625
3351
Dar în ultimii ani, social media a folosit aceste lucruri
06:16
and, as I see it, dramatically tipped the scales.
119
376000
3601
și, după părerea mea, a înclinat simțitor balanța.
06:19
And Facebook knows it.
120
379625
2393
Iar Facebook știe asta.
06:22
A recent "Wall Street Journal" article
121
382042
1892
Un articol recent din „Wall Street Journal”
06:23
exposed an internal Facebook presentation from 2018
122
383958
4143
a dezvăluit o prezentare internă din 2018 de la Facebook,
06:28
that specifically points to the companies' own algorithms
123
388125
3768
care arată în mod specific că algoritmii companiei sunt responsabili
06:31
for growing extremist groups' presence on their platform
124
391917
3517
pentru creșterea prezenței grupurilor extremiste pe platforma lor
06:35
and for polarizing their users.
125
395458
2167
și pentru polarizarea utilizatorilor.
06:38
But keeping us engaged is how they make their money.
126
398708
3685
Dar pentru ca ei să facă bani, trebuie să ne țină implicați.
06:42
The modern information environment is crystallized around profiling us
127
402417
4226
Mediul informațional modern e axat pe crearea profilului nostru,
06:46
and then segmenting us into more and more narrow categories
128
406667
2976
iar apoi pe împărțirea în categorii din ce în ce mai mici,
06:49
to perfect this personalization process.
129
409667
3309
pentru a perfecționa procesul de personalizare.
06:53
We're then bombarded with information confirming our views,
130
413000
3809
Suntem apoi bombardați cu informații care ne confirmă opiniile,
06:56
reinforcing our biases,
131
416833
1851
întărindu-ne propriile prejudecăți
06:58
and making us feel like we belong to something.
132
418708
3518
și dându-ne senzația că aparținem undeva.
07:02
These are the same tactics we would see terrorist recruiters
133
422250
3393
Sunt aceleași tactici pe care le folosesc teroriștii
07:05
using on vulnerable youth,
134
425667
2184
când vor să recruteze tineri vulnerabili,
07:07
albeit in smaller, more localized ways before social media,
135
427875
3851
deși cu metode mai reduse și localizate, înainte de apariția rețelelor sociale,
07:11
with the ultimate goal of persuading their behavior.
136
431750
3268
având ca scop influențarea comportamentului.
07:15
Unfortunately, I was never empowered by Facebook to have an actual impact.
137
435042
5267
Din păcate, Facebook nu mi-a permis niciodată să am un impact real.
07:20
In fact, on my second day, my title and job description were changed
138
440333
3768
De fapt, în a doua zi, mi-au schimbat titlul și fișa postului
07:24
and I was cut out of decision-making meetings.
139
444125
2976
și am fost exclusă din ședințele unde se luau decizii.
07:27
My biggest efforts,
140
447125
1309
Eforturile mele
07:28
trying to build plans
141
448458
1393
de a elabora planuri
07:29
to combat disinformation and voter suppression in political ads,
142
449875
3601
de combatere a dezinformării și suprimării alegătorilor în reclamele electorale
07:33
were rejected.
143
453500
1559
au fost respinse.
07:35
And so I lasted just shy of six months.
144
455083
2500
Așadar, am rezistat puțin sub șase luni.
07:38
But here is my biggest takeaway from my time there.
145
458125
3601
Dar am plecat de acolo cu ceva foarte important.
07:41
There are thousands of people at Facebook
146
461750
2476
Sunt mii de oameni la Facebook
07:44
who are passionately working on a product
147
464250
2018
care lucrează cu pasiune la un proiect
07:46
that they truly believe makes the world a better place,
148
466292
3684
despre care cred cu adevărat că va schimba lumea,
07:50
but as long as the company continues to merely tinker around the margins
149
470000
3684
dar atâta timp cât compania va continua să cârpească doar pe la marginile
07:53
of content policy and moderation,
150
473708
2726
conținutului politic și ale moderării,
07:56
as opposed to considering
151
476458
1310
în loc să se gândească
07:57
how the entire machine is designed and monetized,
152
477792
3226
la cum e proiectată și monetizată întreaga mașinărie,
08:01
they will never truly address how the platform is contributing
153
481042
3351
nu vor aborda cu adevărat modul în care platforma
08:04
to hatred, division and radicalization.
154
484417
4184
contribuie la ură, dezbinare și radicalizare.
08:08
And that's the one conversation I never heard happen during my time there,
155
488625
4268
Și asta e o discuție pe care n-am auzit-o cât am lucrat acolo,
08:12
because that would require fundamentally accepting
156
492917
3059
pentru că asta ar fi însemnat acceptarea în esență
08:16
that the thing you built might not be the best thing for society
157
496000
4143
a faptului că ceea ce construiești s-ar putea să nu fie bun pentru societate
08:20
and agreeing to alter the entire product and profit model.
158
500167
3125
și să fii gata să modifici întregul produs și model de profit.
08:24
So what can we do about this?
159
504500
1833
Ce putem face?
08:27
I'm not saying that social media bears the sole responsibility
160
507042
3601
Nu spun că social media poartă întreaga responsabilitate
08:30
for the state that we're in today.
161
510667
2142
pentru starea în care suntem azi.
08:32
Clearly, we have deep-seated societal issues that we need to solve.
162
512833
5435
În mod cert, avem de rezolvat probleme sociale profunde.
08:38
But Facebook's response, that it is just a mirror to society,
163
518292
4142
Dar răspunsul Facebook, că e doar o oglindă a societății,
08:42
is a convenient attempt to deflect any responsibility
164
522458
3018
e o încercare convenabilă de a respinge orice responsabilitate
08:45
from the way their platform is amplifying harmful content
165
525500
4268
a modului în care platforma lor amplifică conținut dăunător
08:49
and pushing some users towards extreme views.
166
529792
3041
și împinge anumiți utilizatori către opinii extremiste.
08:53
And Facebook could, if they wanted to,
167
533583
2851
Iar Facebook ar putea, dacă ar dori,
08:56
fix some of this.
168
536458
1851
să remedieze aceste lucruri.
08:58
They could stop amplifying and recommending the conspiracy theorists,
169
538333
3851
Ar putea să oprească amplificarea și favorizarea de teorii ale conspirației,
09:02
the hate groups, the purveyors of disinformation
170
542208
2685
ale grupurilor xenofobe, ale furnizorilor de dezinformare
09:04
and, yes, in some cases even our president.
171
544917
3851
și, da, în unele cazuri chiar a președintelui nostru.
09:08
They could stop using the same personalization techniques
172
548792
3392
Ar putea să nu mai folosească același procedeu de personalizare
09:12
to deliver political rhetoric that they use to sell us sneakers.
173
552208
4226
pentru a furniza și retorică politică și pentru a vinde teniși.
09:16
They could retrain their algorithms
174
556458
1726
Ar putea să reprogrameze algoritmii
09:18
to focus on a metric other than engagement,
175
558208
2185
să se axeze pe alt parametru diferit de implicare,
09:20
and they could build in guardrails to stop certain content from going viral
176
560417
4309
și ar putea construi bariere care să împiedice viralizarea conținutului
09:24
before being reviewed.
177
564750
1667
înainte de a fi analizat.
09:26
And they could do all of this
178
566875
2268
Și ar putea face toate astea
09:29
without becoming what they call the arbiters of truth.
179
569167
4184
fără să se transforme în arbitrul adevărului.
09:33
But they've made it clear that they will not go far enough
180
573375
2809
Însă au explicat clar că nu vor merge până acolo
09:36
to do the right thing without being forced to,
181
576208
2810
încât să facă ce trebuie fără a fi obligați,
09:39
and, to be frank, why should they?
182
579042
2934
și de ce s-o facă, sincer vorbind?
09:42
The markets keep rewarding them, and they're not breaking the law.
183
582000
3934
Piețele continuă să-i recompenseze și nu încalcă nicio lege.
09:45
Because as it stands,
184
585958
1310
Deoarece în forma actuală,
09:47
there are no US laws compelling Facebook, or any social media company,
185
587292
4892
nu există nicio lege în SUA care să oblige Facebook sau altă companie de social media
09:52
to protect our public square,
186
592208
1768
să protejeze spațiul public,
09:54
our democracy
187
594000
1309
democrația
09:55
and even our elections.
188
595333
2435
sau chiar alegerile.
09:57
We have ceded the decision-making on what rules to write and what to enforce
189
597792
4101
Am cedat luarea deciziilor cu privire la ce reguli să scriem și să le impunem
10:01
to the CEOs of for-profit internet companies.
190
601917
3083
directorilor de la companiile de internet care fac profit.
10:05
Is this what we want?
191
605750
2018
Asta ne dorim?
10:07
A post-truth world where toxicity and tribalism
192
607792
3226
O lume post-adevăr, unde intoxicarea și tribalismul
10:11
trump bridge-building and consensus-seeking?
193
611042
2625
ne împiedică să stabilim legături și să ne dorim consensul?
10:14
I do remain optimistic that we still have more in common with each other
194
614667
4101
Rămân însă optimistă că încă avem mai multe lucruri în comun
10:18
than the current media and online environment portray,
195
618792
3642
decât prezintă mass-media actuală și mediul online,
10:22
and I do believe that having more perspective surface
196
622458
3101
și cred că având o vedere de ansamblu
10:25
makes for a more robust and inclusive democracy.
197
625583
3601
contribuie la o democrație mai robustă și incluzivă.
10:29
But not the way it's happening right now.
198
629208
2810
Dar nu așa cum se întâmplă acum.
10:32
And it bears emphasizing, I do not want to kill off these companies.
199
632042
4226
Și merită să menționez că nu vreau să distrugem aceste companii,
10:36
I just want them held to a certain level of accountability,
200
636292
3226
vreau doar să fie trase la răspundere
10:39
just like the rest of society.
201
639542
1916
cum se întâmplă în restul societății.
10:42
It is time for our governments to step up and do their jobs
202
642542
4351
E timpul ca guvernele noastre să înceapă să-și facă datoria
10:46
of protecting our citizenry.
203
646917
1642
de a proteja cetățenii.
10:48
And while there isn't one magical piece of legislation
204
648583
3060
Deși nu există o lege fermecată
10:51
that will fix this all,
205
651667
1476
care să rezolve toate astea,
10:53
I do believe that governments can and must find the balance
206
653167
4684
cred că guvernele pot și trebuie să găsească balanța
10:57
between protecting free speech
207
657875
2143
între a apăra libertatea de exprimare
11:00
and holding these platforms accountable for their effects on society.
208
660042
4309
și a trage la răspundere aceste platforme pentru efectele asupra societății.
11:04
And they could do so in part by insisting on actual transparency
209
664375
4309
Ar putea face acest lucru punând accent pe transparență
11:08
around how these recommendation engines are working,
210
668708
3143
în modul în care funcționează motoarele de căutare,
11:11
around how the curation, amplification and targeting are happening.
211
671875
4643
modul în care se desfășoară căutarea, răspândirea și targetarea.
11:16
You see, I want these companies held accountable
212
676542
2434
Vreau ca aceste companii să fie trase la răspundere
11:19
not for if an individual posts misinformation
213
679000
3101
nu pentru că o persoană postează informații false
11:22
or extreme rhetoric,
214
682125
1476
sau retorică extremistă,
11:23
but for how their recommendation engines spread it,
215
683625
3851
ci pentru cum sunt răspândite de motoarele de căutare,
11:27
how their algorithms are steering people towards it,
216
687500
3226
cum algoritmii direcționează oamenii către ele
11:30
and how their tools are used to target people with it.
217
690750
3292
și cum sunt folosite aceste instrumente pentru a-i urmări pe oameni.
11:35
I tried to make change from within Facebook and failed,
218
695417
3684
Am încercat să schimb lucrurile din interiorul Facebook și n-am reușit,
11:39
and so I've been using my voice again for the past few years
219
699125
3143
așa că mi-am folosit vocea în ultimii ani
11:42
to continue sounding this alarm
220
702292
2226
pentru a trage un semnal de alarmă,
11:44
and hopefully inspire more people to demand this accountability.
221
704542
4392
sperând că voi inspira mai mulți oameni să ceară această responsabilizare.
11:48
My message to you is simple:
222
708958
2643
Mesajul meu e simplu:
11:51
pressure your government representatives
223
711625
2184
Puneți presiune pe reprezentanții guvernului,
11:53
to step up and stop ceding our public square to for-profit interests.
224
713833
5435
să ia atitudine și să nu mai cedeze spațiul public în interes financiar.
11:59
Help educate your friends and family
225
719292
1851
Educați-vă prietenii și familia
12:01
about how they're being manipulated online.
226
721167
3142
despre cum sunt manipulați online.
12:04
Push yourselves to engage with people who aren't like-minded.
227
724333
3518
Străduiți-vă să interacționați cu persoane care nu gândesc ca voi.
12:07
Make this issue a priority.
228
727875
2643
Faceți din asta o prioritate.
12:10
We need a whole-society approach to fix this.
229
730542
3416
E nevoie de întreaga societate pentru a rezolva această problemă.
12:15
And my message to the leaders of my former employer Facebook is this:
230
735250
5559
Iar mesajul meu pentru șefii de la Facebook e acesta:
12:20
right now, people are using your tools exactly as they were designed
231
740833
5810
În prezent, aceste mijloace sunt folosite așa cum au fost gândite,
12:26
to sow hatred, division and distrust,
232
746667
2601
să semene ură, dezbinare și neîncredere,
12:29
and you're not just allowing it, you are enabling it.
233
749292
4142
și nu numai că le acceptați, ci le permiteți să facă asta.
12:33
And yes, there are lots of great stories
234
753458
2476
Desigur că sunt și povești minunate,
12:35
of positive things happening on your platform around the globe,
235
755958
3685
despre lucruri bune care se întâmplă pe această platformă în întreaga lume,
12:39
but that doesn't make any of this OK.
236
759667
3226
dar asta nu face ca totul să fie bine.
12:42
And it's only getting worse as we're heading into our election,
237
762917
2976
Iar lucrurile se înrăutățesc pe măsură ce se apropie alegerile,
12:45
and even more concerning,
238
765917
1767
iar faptul cel mai îngrijorător
12:47
face our biggest potential crisis yet,
239
767708
2476
e că ne confruntăm cu cea mai mare criză de până acum,
12:50
if the results aren't trusted, and if violence breaks out.
240
770208
4143
dacă rezultatele nu prezintă încredere și vor izbucni violențe.
12:54
So when in 2021 you once again say, "We know we have to do better,"
241
774375
5018
Iar în 2021, când veți spune „Trebuie să ne străduim mai mult”,
12:59
I want you to remember this moment,
242
779417
2684
vreau să vă amintiți acest moment,
13:02
because it's no longer just a few outlier voices.
243
782125
3226
pentru că nu mai e vorba doar de câteva voci răzlețe.
13:05
Civil rights leaders, academics,
244
785375
2268
Liderii mișcării pentru drepturi civile, academicieni,
13:07
journalists, advertisers, your own employees,
245
787667
2976
jurnaliști, agenții de publicitate, angajații dumneavoastră,
13:10
are shouting from the rooftops
246
790667
2059
strigă din toate puterile
13:12
that your policies and your business practices
247
792750
2601
că politicile și practicile voastre
13:15
are harming people and democracy.
248
795375
2417
fac rău oamenilor și democrației.
13:18
You own your decisions,
249
798875
2351
Sunteți stăpâni pe deciziile voastre,
13:21
but you can no longer say that you couldn't have seen it coming.
250
801250
3667
dar nu mai puteți spune că nu v-ați așteptat la așa ceva.
13:26
Thank you.
251
806167
1250
Vă mulțumesc!
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7