Inside the bizarre world of internet trolls and propagandists | Andrew Marantz

197,173 views ・ 2019-10-01

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Dănuț Vornicu Corector: Mirel-Gabriel Alexa
00:12
I spent the past three years
0
12612
1611
Am petrecut ultimii trei ani
00:14
talking to some of the worst people on the internet.
1
14247
3183
vorbind cu unii dintre cei mai răi oameni de pe internet.
00:18
Now, if you've been online recently,
2
18441
2196
Dacă ați fost online recent,
00:20
you may have noticed that there's a lot of toxic garbage out there:
3
20661
3804
poate ați observat că există o mulțime de gunoaie toxice acolo:
00:24
racist memes, misogynist propaganda, viral misinformation.
4
24489
4953
glume rasiste, propagandă misogină, dezinformare virală.
00:29
So I wanted to know who was making this stuff.
5
29466
2199
Așa că am vrut să știu cine face lucrurile astea.
00:31
I wanted to understand how they were spreading it.
6
31689
2338
Am vrut să înțeleg cum le răspândeau.
În cele din urmă, am vrut să știu
00:34
Ultimately, I wanted to know
7
34051
1387
00:35
what kind of impact it might be having on our society.
8
35462
2569
ce fel de impact ar putea avea asupra societății noastre.
00:38
So in 2016, I started tracing some of these memes back to their source,
9
38055
4011
Astfel, în 2016 am început să urmăresc unele glume înapoi spre sursa lor,
înapoi la oamenii care le făceau, sau care le făceau să devină virale.
00:42
back to the people who were making them or who were making them go viral.
10
42090
3502
00:45
I'd approach those people and say,
11
45616
1634
Mă adresam acestor persoane:
„Hei, sunt jurnalist. Pot veni să urmăresc să faci?”
00:47
"Hey, I'm a journalist. Can I come watch you do what you do?"
12
47274
2906
Adesea răspunsul era:
00:50
Now, often the response would be,
13
50204
1596
00:51
"Why in hell would I want to talk to
14
51824
1747
„De ce aș vrea să vorbesc cu un fătălău,
00:53
some low-t soy-boy Brooklyn globalist Jew cuck
15
53595
2199
un evreu slăbănog și globalist din Brooklyn,
00:55
who's in cahoots with the Democrat Party?"
16
55818
2087
care e în cârdășie cu Partidul Democrat?”
00:57
(Laughter)
17
57929
1252
(Râsete)
00:59
To which my response would be, "Look, man, that's only 57 percent true."
18
59205
3835
La care răspunsul meu era: „Uite, omule, asta e doar 57% adevărat.”
01:03
(Laughter)
19
63064
1172
(Râsete)
01:04
But often I got the opposite response.
20
64633
1840
Dar de multe ori am primit răspunsul opus.
01:06
"Yeah, sure, come on by."
21
66497
1288
„Da, sigur, vino.”
01:08
So that's how I ended up in the living room
22
68625
2081
Așa am ajuns în sufrageria
01:10
of a social media propagandist in Southern California.
23
70730
3125
a unui propagandist social media din sudul Californiei.
01:14
He was a married white guy in his late 30s.
24
74386
2381
Era un tip alb căsătorit aproape de 40 de ani.
01:16
He had a table in front of him with a mug of coffee,
25
76791
3182
Avea o masă în fața lui cu o cană de cafea,
01:19
a laptop for tweeting,
26
79997
1570
un laptop pentru tweeting,
01:21
a phone for texting
27
81591
1848
un telefon pentru mesaje
01:23
and an iPad for livestreaming to Periscope and YouTube.
28
83463
3236
și un iPad pentru transmisie în direct pe Periscope și YouTube.
01:27
That was it.
29
87258
1161
Asta era tot.
01:28
And yet, with those tools,
30
88998
1270
Și totuși, cu aceste unelte,
01:30
he was able to propel his fringe, noxious talking points
31
90292
3715
a fost capabil să-și propulseze subiectele lui de discuție îngrozitoare și nocive
01:34
into the heart of the American conversation.
32
94031
2411
în inima dezbaterilor americane.
01:37
For example, one of the days I was there,
33
97144
2023
De exemplu, într-o zi când eram acolo,
01:39
a bomb had just exploded in New York,
34
99191
3152
o bombă tocmai explodase în New York,
01:42
and the guy accused of planting the bomb had a Muslim-sounding name.
35
102367
3475
iar bărbatul acuzat că a plantat bomba avea un nume ce părea musulman.
01:45
Now, to the propagandist in California, this seemed like an opportunity,
36
105866
4142
Pentru propagandistul din California, aceasta părea o oportunitate,
fiindcă unul din lucrurile pe care și le dorea
01:50
because one of the things he wanted
37
110032
1716
01:51
was for the US to cut off almost all immigration,
38
111772
2562
era ca SUA să reducă aproape toată imigrația,
01:54
especially from Muslim-majority countries.
39
114358
2559
în special din țările majoritar musulmane.
01:57
So he started livestreaming,
40
117424
2055
Așa că a început să transmită în direct,
01:59
getting his followers worked up into a frenzy
41
119503
2236
făcând ca urmăritorii lui să comenteze frenetic
02:01
about how the open borders agenda was going to kill us all
42
121763
2775
despre cum agenda frontierelor deschise urma să ne omoare pe toți,
02:04
and asking them to tweet about this,
43
124562
1768
cerându-le să scrie pe Twitter asta,
02:06
and use specific hashtags,
44
126354
1469
utilizând cuvinte specifice,
02:07
trying to get those hashtags trending.
45
127847
1858
încercând să facă cuvintele populare.
02:09
And tweet they did --
46
129729
1219
Și au scris,
02:10
hundreds and hundreds of tweets,
47
130972
1864
sute și sute de mesaje,
02:12
a lot of them featuring images like this one.
48
132860
2379
multe dintre ele prezentând imagini ca aceasta.
02:15
So that's George Soros.
49
135263
1777
Acesta e George Soros.
E un miliardar și filantrop maghiar,
02:17
He's a Hungarian billionaire and philanthropist,
50
137064
2645
02:19
and in the minds of some conspiracists online,
51
139733
2595
iar în mintea unor conspiraționiști online,
02:22
George Soros is like a globalist bogeyman,
52
142352
2568
George Soros e un baubau globalist,
02:24
one of a few elites who is secretly manipulating all of global affairs.
53
144944
4110
unul din cele câteva elite ce manipulează în secret toate treburile globale.
02:29
Now, just to pause here: if this idea sounds familiar to you,
54
149078
3592
Acum, fac o pauză aici: dacă această idee vă sună familiară,
02:32
that there are a few elites who control the world
55
152694
2392
că există câteva elite care controlează lumea
02:35
and a lot of them happen to be rich Jews,
56
155110
2581
și mulți dintre ei se întâmplă să fie evrei bogați,
02:37
that's because it is one of the most anti-Semitic tropes in existence.
57
157715
3704
asta e pentru că e una dintre cele mai antisemitice idei existente.
02:42
I should also mention that the guy in New York who planted that bomb,
58
162296
3398
Ar trebui să menționez, de asemenea, că cel ce a plantat bomba în New York,
02:45
he was an American citizen.
59
165718
1491
era cetățean american.
02:47
So whatever else was going on there,
60
167785
2204
Deci, orice altceva s-a întâmplat acolo,
02:50
immigration was not the main issue.
61
170013
2173
imigrația nu era problema principală.
02:53
And the propagandist in California, he understood all this.
62
173332
2832
Și propagandistul din California, a înțeles toate acestea.
02:56
He was a well-read guy. He was actually a lawyer.
63
176188
2521
Era un tip citit. Era de fapt avocat.
02:58
He knew the underlying facts,
64
178733
1687
Știa faptele de bază,
03:00
but he also knew that facts do not drive conversation online.
65
180444
3191
dar știa și că faptele nu stârnesc discuții online.
03:03
What drives conversation online
66
183659
1707
Ce stârnește discuții online
03:05
is emotion.
67
185390
1229
e emoția.
03:07
See, the original premise of social media
68
187451
2010
Premisa principală a social media
03:09
was that it was going to bring us all together,
69
189485
2249
a fost să ne aducă pe toți împreună,
03:11
make the world more open and tolerant and fair ...
70
191758
2379
să facă lumea mai deschisă, mai tolerantă și mai corectă,
03:14
And it did some of that.
71
194161
1254
și a făcut asta uneori.
03:16
But the social media algorithms have never been built
72
196503
2723
Dar algoritmii social media nu au fost niciodată construiți
03:19
to distinguish between what's true or false,
73
199250
2338
pentru a distinge adevărul de fals,
03:21
what's good or bad for society, what's prosocial and what's antisocial.
74
201612
3910
ce e bine sau rău pentru societate, ce e prosocial de ce e antisocial.
03:25
That's just not what those algorithms do.
75
205965
2237
Acești algoritmi nu fac asta.
03:28
A lot of what they do is measure engagement:
76
208226
2555
Ei doar măsoară implicarea:
03:30
clicks, comments, shares, retweets, that kind of thing.
77
210805
3021
clicuri, comentarii, partajări, repostări, acest fel de lucruri.
03:33
And if you want your content to get engagement,
78
213850
2701
Și dacă doriți un conținut atrăgător,
03:36
it has to spark emotion,
79
216575
1658
trebuie să nască o emoție,
03:38
specifically, what behavioral scientists call "high-arousal emotion."
80
218257
3500
ceea ce oamenii de știință numesc „emoție excitativă ridicată”.
03:42
Now, "high arousal" doesn't only mean sexual arousal,
81
222343
2490
„Excitație ridicată” nu înseamnă doar excitare sexuală,
03:44
although it's the internet, obviously that works.
82
224857
2735
deși pe internet, evident că există.
03:47
It means anything, positive or negative, that gets people's hearts pumping.
83
227616
4009
Înseamnă orice, pozitiv sau negativ, care face ca inima oamenilor să pompeze.
03:51
So I would sit with these propagandists,
84
231649
1969
Deci, stăteam cu acești propagandiști,
03:53
not just the guy in California, but dozens of them,
85
233642
2409
nu doar cu tipul din California, ci cu zeci dintre ei,
03:56
and I would watch as they did this again and again successfully,
86
236075
3748
și urmăream cum făceau asta din nou și din nou cu succes,
03:59
not because they were Russian hackers, not because they were tech prodigies,
87
239847
3608
nu pentru că erau hackeri ruși, nu pentru că erau genii ale tehnologiei,
04:03
not because they had unique political insights --
88
243479
2289
nu pentru că aveau idei politice unice,
04:05
just because they understood how social media worked,
89
245772
2473
doar pentru că au înțeles cum funcționează social media
04:08
and they were willing to exploit it to their advantage.
90
248269
2582
și erau dispuși să o exploateze în avantajul lor.
04:10
Now, at first I was able to tell myself this was a fringe phenomenon,
91
250865
3243
La început mi-am spus că e un fenomen extrem,
ceva ce a ajuns pe internet.
04:14
something that was relegated to the internet.
92
254132
2229
04:16
But there's really no separation anymore between the internet and everything else.
93
256385
4352
Dar nu mai există separare între internet și orice altceva.
04:20
This is an ad that ran on multiple TV stations
94
260761
2184
Aceasta e o reclamă difuzată pe multe posturi TV
04:22
during the 2018 congressional elections,
95
262969
2607
în timpul alegerii congresului din 2018,
04:25
alleging with very little evidence that one of the candidates
96
265600
2880
susținând cu foarte puține dovezi că unul dintre candidați
04:28
was in the pocket of international manipulator George Soros,
97
268504
2886
era în buzunarul manipulatorului internațional George Soros,
04:31
who is awkwardly photoshopped here next to stacks of cash.
98
271414
3252
care e puternic editat aici lângă stive de numerar.
04:35
This is a tweet from the President of the United States,
99
275296
2654
Acesta e un mesaj al președintelui Statelor Unite,
04:37
alleging, again with no evidence,
100
277974
1633
invocând, din nou, fără probe,
04:39
that American politics is being manipulated by George Soros.
101
279631
3431
că politica americană e manipulată de George Soros.
04:43
This stuff that once seemed so shocking and marginal and, frankly, just ignorable,
102
283086
3974
Lucruri care odată păreau atât de șocante, marginale și, sincer, de ignorat,
04:47
it's now so normalized that we hardly even notice it.
103
287084
2945
acum sunt atât de normal, încât abia le mai observăm.
Așa că am stat aproape trei ani în această lume.
04:50
So I spent about three years in this world.
104
290053
2066
04:52
I talked to a lot of people.
105
292143
1670
Am vorbit cu o mulțime de oameni.
04:53
Some of them seemed to have no core beliefs at all.
106
293837
2466
Unii dintre ei păreau să nu aibă deloc convingeri.
04:56
They just seemed to be betting, perfectly rationally,
107
296327
2583
Păreau doar să parieze, perfect rațional,
04:58
that if they wanted to make some money online
108
298934
2163
că dacă vor să câștige bani online
05:01
or get some attention online,
109
301121
1412
sau să obțină atenție online,
05:02
they should just be as outrageous as possible.
110
302557
2213
trebuie să fie cât se poate de extremi.
05:04
But I talked to other people who were true ideologues.
111
304794
2589
Dar am vorbit cu alți oameni care erau adevărați ideologi.
05:08
And to be clear, their ideology was not traditional conservatism.
112
308173
3881
Și ca să fie clar, ideologia lor nu era conservatorismul tradițional.
05:12
These were people who wanted to revoke female suffrage.
113
312078
3378
Aceștia erau oameni ce doreau să revoce votul feminin.
05:15
These were people who wanted to go back to racial segregation.
114
315480
2967
Aceștia doreau revenirea la segregarea rasială.
05:18
Some of them wanted to do away with democracy altogether.
115
318471
2809
Unii dintre ei doreau îndepărtarea totală a democrației.
05:21
Now, obviously these people were not born believing these things.
116
321304
3112
E evident că acești oameni nu s-au născut crezând aceste lucruri.
05:24
They didn't pick them up in elementary school.
117
324440
2392
Nu le-au învățat în școala primară.
05:26
A lot of them, before they went down some internet rabbit hole,
118
326856
2992
Mulți dintre ei, înainte de a intra în obscuritățile internetului
05:29
they had been libertarian or they had been socialist
119
329872
2468
fuseseră libertarieni sau socialiști
05:32
or they had been something else entirely.
120
332364
2187
sau fuseseră cu totul altceva.
05:34
So what was going on?
121
334575
1291
Deci, ce se întâmpla?
05:36
Well, I can't generalize about every case,
122
336918
2062
Ei bine, nu pot generaliza pentru fiecare caz,
05:39
but a lot of the people I spoke to,
123
339004
1687
dar mulți oameni cu care am vorbit,
05:40
they seem to have a combination of a high IQ and a low EQ.
124
340715
3880
par să aibă o combinație între un IQ mare și un EQ mic.
05:44
They seem to take comfort in anonymous, online spaces
125
344619
3511
Par să se simtă confortabil în spații online anonime
05:48
rather than connecting in the real world.
126
348154
1987
mai degrabă decât conectați în lumea reală.
05:50
So often they would retreat to these message boards
127
350810
2453
Așa că de multe ori se retrag în aceste forumuri
05:53
or these subreddits,
128
353287
1172
sau subreddit-uri,
05:54
where their worst impulses would be magnified.
129
354483
2454
unde impulsurile lor cele mai rele vor fi amplificate.
05:56
They might start out saying something just as a sick joke,
130
356961
3059
Ar putea începe spunând ceva ca o glumă bolnavă,
06:00
and then they would get so much positive reinforcement for that joke,
131
360044
3344
iar apoi vor primi atât de multe aprecieri pentru această glumă,
06:03
so many meaningless "internet points," as they called it,
132
363412
2821
atât de multe „puncte pe internet” fără sens, cum le numesc ei,
06:06
that they might start believing their own joke.
133
366257
2532
încât încep să creadă în propria lor glumă.
06:10
I talked a lot with one young woman who grew up in New Jersey,
134
370014
3524
Am vorbit mult cu o tânără care a crescut în New Jersey,
06:13
and then after high school, she moved to a new place
135
373562
2476
care după liceu s-a mutat într-un loc nou,
06:16
and suddenly she just felt alienated and cut off
136
376062
2254
unde brusc s-a simțit înstrăinată și izolată
06:18
and started retreating into her phone.
137
378340
1864
și a început să se retragă în telefonul ei.
06:20
She found some of these spaces on the internet
138
380850
2172
A găsit unele din aceste spații pe internet
06:23
where people would post the most shocking, heinous things.
139
383046
2866
unde oamenii postează cele mai șocante și amețitoare lucruri.
06:25
And she found this stuff really off-putting
140
385936
2269
Și a considerat aceste lucruri complet dezgustătoare,
06:28
but also kind of engrossing,
141
388229
1775
dar de asemenea captivante,
06:30
kind of like she couldn't look away from it.
142
390754
2084
ceva de care nu se putea dezlipi.
06:33
She started interacting with people in these online spaces,
143
393304
2832
A început să interacționeze cu cei din aceste spații online,
06:36
and they made her feel smart, they made her feel validated.
144
396160
2799
și au făcut-o să se simtă inteligentă, autentică.
06:38
She started feeling a sense of community,
145
398983
1977
A început să simtă un sentiment de comunitate,
06:40
started wondering if maybe some of these shocking memes
146
400984
2658
a început să se întrebe dacă unele dintre aceste idei șocante
06:43
might actually contain a kernel of truth.
147
403666
2461
ar putea conține un miez de adevăr.
06:46
A few months later, she was in a car with some of her new internet friends
148
406151
3515
Câteva luni mai târziu, era în mașină cu noii ei prieteni de pe internet
06:49
headed to Charlottesville, Virginia,
149
409690
1826
în drum spre Charlottesville, Virginia,
06:51
to march with torches in the name of the white race.
150
411540
2688
pentru a manifesta cu torțe în numele rasei albe.
A trecut în câteva luni, din a-l susține pe Obama,
06:55
She'd gone, in a few months, from Obama supporter
151
415033
2291
06:57
to fully radicalized white supremacist.
152
417338
2487
la a susține radical rasa albă.
07:01
Now, in her particular case,
153
421030
2281
În cazul ei particular,
07:03
she actually was able to find her way out of the cult of white supremacy.
154
423335
4132
ea a putut să renunțe la cultul supremației albe.
07:08
But a lot of the people I spoke to were not.
155
428418
2060
Dar mulți oameni cu care am vorbit nu au putut.
07:10
And just to be clear:
156
430502
1722
Și doar ca să fie clar:
07:12
I was never so convinced that I had to find common ground
157
432248
2966
nu am fost atât de convins că trebuia să găsesc o bază comună
07:15
with every single person I spoke to
158
435238
2063
cu fiecare persoană cu care vorbeam,
07:17
that I was willing to say,
159
437325
1254
încât să fiu dispus să spun:
07:18
"You know what, man, you're a fascist propagandist, I'm not,
160
438603
3141
„Știi ce, omule, ești un propagandist fascist, eu nu sunt,
07:21
whatever, let's just hug it out, all our differences will melt away."
161
441768
3416
oricum, hai să ne îmbrățișăm, și toate diferențele noastre se vor topi.”
07:25
No, absolutely not.
162
445208
1714
Nu, absolut nu.
07:28
But I did become convinced that we cannot just look away from this stuff.
163
448056
3521
Dar am devenit convins că nu putem să facem abstracție de aceste lucruri.
07:31
We have to try to understand it, because only by understanding it
164
451601
3216
Trebuie să încercăm să le înțelegem, pentru că numai înțelegându-le
07:34
can we even start to inoculate ourselves against it.
165
454841
3198
putem să începem să ne inoculăm împotriva lor.
07:39
In my three years in this world, I got a few nasty phone calls,
166
459361
3349
În cei trei ani în această lume, am avut câteva apeluri telefonice urâte,
07:42
even some threats,
167
462734
1520
chiar unele amenințări,
07:44
but it wasn't a fraction of what female journalists get on this beat.
168
464278
3430
dar a fost puțin comparativ cu ce primesc jurnalistele în această luptă.
07:48
And yeah, I am Jewish,
169
468791
1391
Și da, sunt evreu,
07:50
although, weirdly, a lot of the Nazis couldn't tell I was Jewish,
170
470206
3649
deși, în mod ciudat, mulți naziști nu și-au dat seama că sunt evreu,
07:53
which I frankly just found kind of disappointing.
171
473879
2861
ceea ce, sincer, e dezamăgitor.
07:56
(Laughter)
172
476764
1800
(Râsete)
07:58
Seriously, like, your whole job is being a professional anti-Semite.
173
478588
3966
Serios, toată treaba ta e să fii un antisemit profesionist.
08:03
Nothing about me is tipping you off at all?
174
483228
2422
Nimic la mine nu te intrigă deloc?
08:05
Nothing?
175
485674
1076
Chiar nimic?
08:06
(Laughter)
176
486774
2303
(Râsete)
08:09
This is not a secret.
177
489983
1195
Nu e un secret.
08:11
My name is Andrew Marantz, I write for "The New Yorker,"
178
491202
2683
Mă numesc Andrew Marantz, scriu pentru „The New Yorker”,
08:13
my personality type is like if a Seinfeld episode
179
493909
2521
personalitatea mea e ca și cum un episod din Seinfeld
08:16
was taped at the Park Slope Food Coop.
180
496454
1837
a fost filmat la Park Slope Food Coop.
08:18
Nothing?
181
498315
1162
Nimic?
08:19
(Laughter)
182
499501
2513
(Râsete)
08:24
Anyway, look -- ultimately, it would be nice
183
504804
2231
Oricum, în cele din urmă
ar fi frumos dacă ar exista o formulă simplă:
08:27
if there were, like, a simple formula:
184
507059
2348
08:29
smartphone plus alienated kid equals 12 percent chance of Nazi.
185
509431
3988
smartphone plus un copil înstrăinat egal 12% mai multe șanse să devii nazist.
08:33
It's obviously not that simple.
186
513918
1604
Evident, nu e atât de simplu.
08:36
And in my writing,
187
516190
1163
Și în scrierile mele,
08:37
I'm much more comfortable being descriptive, not prescriptive.
188
517377
3215
sunt mult mai confortabil să fiu descriptiv, nu prescriptiv.
08:41
But this is TED,
189
521049
2641
Dar acesta este TED,
08:43
so let's get practical.
190
523714
1987
deci să devenim practici.
08:45
I want to share a few suggestions
191
525725
1626
Vreau să împărtășesc câteva sugestii,
08:47
of things that citizens of the internet like you and I
192
527375
3126
lucruri pe care cetățenii de pe internet, ca voi și ca mine,
08:50
might be able to do to make things a little bit less toxic.
193
530525
3137
le-ar putea face pentru ca lucrurile să devină mai puțin toxice.
08:54
So the first one is to be a smart skeptic.
194
534799
2300
Primul e să fii un sceptic inteligent.
08:57
So, I think there are two kinds of skepticism.
195
537964
2197
Eu cred că există două tipuri de scepticism.
09:00
And I don't want to drown you in technical epistemological information here,
196
540185
4228
Și nu vreau să intru în informații tehnice epistemologice aici,
09:04
but I call them smart and dumb skepticism.
197
544437
2628
dar eu le numesc scepticism inteligent și prost.
09:08
So, smart skepticism:
198
548176
2507
Deci, scepticism inteligent:
09:10
thinking for yourself,
199
550707
1204
gândiți pentru voi,
09:11
questioning every claim,
200
551935
1192
vă îndoiți de orice afirmație,
09:13
demanding evidence --
201
553151
1442
solicitați dovezi,
09:14
great, that's real skepticism.
202
554617
1717
grozav, acesta e scepticism adevărat.
09:17
Dumb skepticism: it sounds like skepticism,
203
557397
2630
Scepticism prost: suna a scepticism,
09:20
but it's actually closer to knee-jerk contrarianism.
204
560051
2991
dar e de fapt mai aproape de o reacție contra automată.
09:23
Everyone says the earth is round,
205
563817
1573
Toți spun că Pământul e rotund,
09:25
you say it's flat.
206
565414
1356
tu spui că e plat.
09:26
Everyone says racism is bad,
207
566794
1567
Toți spun că rasismul e rău,
09:28
you say, "I dunno, I'm skeptical about that."
208
568385
2585
tu spui: „Nu știu, sunt sceptic în privința asta.”
09:31
I cannot tell you how many young white men I have spoken to in the last few years
209
571682
4119
Foarte mulți tineri bărbați albi cu care am vorbit în ultimii ani
09:35
who have said,
210
575825
1156
mi-au spus:
09:37
"You know, the media, my teachers, they're all trying to indoctrinate me
211
577005
3400
„Știi, mass-media, profesorii mei, toți încearcă să mă îndoctrineze
09:40
into believing in male privilege and white privilege,
212
580429
2523
să cred în privilegiul masculin și al albilor,
09:42
but I don't know about that, man, I don't think so."
213
582976
2452
dar nu știu ce să zic, nu cred asta.”
09:45
Guys -- contrarian white teens of the world --
214
585452
3137
Tinerilor, adolescenți albi ai lumii,
09:48
look:
215
588613
2118
uite:
09:50
if you are being a round earth skeptic and a male privilege skeptic
216
590755
3713
dacă sunteți sceptici că Pământul e rotund, că bărbații sunt privilegiați,
09:54
and a racism is bad skeptic,
217
594492
2310
și că rasismul este rău,
09:56
you're not being a skeptic, you're being a jerk.
218
596826
2325
nu sunteți sceptici, sunteți ticăloși.
09:59
(Applause)
219
599175
3593
(Aplauze)
10:04
It's great to be independent-minded, we all should be independent-minded,
220
604394
3460
E minunat să gândim critic, cu toții ar trebui să gândim critic,
10:07
but just be smart about it.
221
607878
1541
dar fiți deștepți în acest sens.
10:09
So this next one is about free speech.
222
609906
1863
Următoarea e despre libertatea de exprimare.
10:11
You will hear smart, accomplished people who will say, "Well, I'm pro-free speech,"
223
611793
3964
Veți auzi oameni deștepți spunând: „Sunt pentru exprimare liberă.”
10:15
and they say it in this way that it's like they're settling a debate,
224
615781
3273
Și spun asta ca și cum ar încheia o dezbatere,
10:19
when actually, that is the very beginning of any meaningful conversation.
225
619078
3815
când de fapt, ăsta e chiar începutul oricărei conversații semnificative.
10:23
All the interesting stuff happens after that point.
226
623554
2473
Toate lucrurile interesante se întâmplă după acest punct.
10:26
OK, you're pro-free speech. What does that mean?
227
626051
2304
Bine, ești pro exprimare liberă. Ce înseamnă asta?
10:28
Does it mean that David Duke and Richard Spencer
228
628379
2287
Înseamnă că David Duke și Richard Spencer
10:30
need to have active Twitter accounts?
229
630690
1845
trebuie să aibă conturi Twitter active?
10:32
Does it mean that anyone can harass anyone else online
230
632888
2643
Înseamnă că oricine poate hărțui pe oricine altcineva online
10:35
for any reason?
231
635555
1452
pentru orice motiv?
10:37
You know, I looked through the entire list of TED speakers this year.
232
637031
3288
Am analizat întreaga listă de vorbitori TED de anul acesta.
10:40
I didn't find a single round earth skeptic.
233
640343
2036
Nu am găsit niciun sceptic că Pământul e rotund.
10:42
Is that a violation of free speech norms?
234
642403
2142
E o încălcare a normelor de exprimare liberă?
10:45
Look, we're all pro-free speech, it's wonderful to be pro-free speech,
235
645086
3542
Suntem toți pro exprimare liberă, e minunat să avem exprimare liberă,
10:48
but if that's all you know how to say again and again,
236
648652
2621
dar dacă asta e tot ce știi să spui mereu,
10:51
you're standing in the way of a more productive conversation.
237
651297
2991
te opui unei conversații mai productive.
10:56
Making decency cool again, so ...
238
656105
3135
Deci, să facem politețea din nou grozavă...
10:59
Great!
239
659264
1198
Minunat!
11:00
(Applause)
240
660486
1541
(Aplauze)
11:02
Yeah. I don't even need to explain it.
241
662051
2106
Da. Nici nu trebuie să explic.
11:04
So in my research, I would go to Reddit or YouTube or Facebook,
242
664181
3846
În cercetarea mea aș fi mers pe Reddit, pe YouTube sau pe Facebook,
11:08
and I would search for "sharia law"
243
668051
2300
și aș fi căutat „legea sharia”
11:10
or I would search for "the Holocaust,"
244
670375
2116
sau „Holocaustul”,
11:12
and you might be able to guess what the algorithms showed me, right?
245
672515
3374
și puteți ghici ce mi-au arătat algoritmii, nu?
11:16
"Is sharia law sweeping across the United States?"
246
676386
2930
„Legea sharia mătura toate Statele Unite?”
11:19
"Did the Holocaust really happen?"
247
679340
2094
„Holocaustul s-a întâmplat cu adevărat?”
11:22
Dumb skepticism.
248
682291
1258
Scepticism prost.
11:24
So we've ended up in this bizarre dynamic online,
249
684835
2381
Așa că am ajuns în această dinamică bizară online,
11:27
where some people see bigoted propaganda
250
687240
2092
când unii văd propaganda intolerantă
11:29
as being edgy or being dangerous and cool,
251
689356
2666
ca fiind tăioasă sau periculoasă și mișto,
11:32
and people see basic truth and human decency as pearl-clutching
252
692046
3327
iar oamenii văd adevărul de bază și decența umană ca fiind șocante,
11:35
or virtue-signaling or just boring.
253
695397
2544
sau ca virtuți sau doar plictisitoare.
11:38
And the social media algorithms, whether intentionally or not,
254
698329
3289
Și algoritmii social media, intenționat sau nu,
11:41
they have incentivized this,
255
701642
2023
au stimulat asta,
11:43
because bigoted propaganda is great for engagement.
256
703689
2928
pentru că propaganda intolerantă e grozavă pentru implicare.
11:46
Everyone clicks on it, everyone comments on it,
257
706641
2266
Toți dau clic pe ea, toți comentează,
11:48
whether they love it or they hate it.
258
708931
1810
fie că o iubesc, fie că o urăsc.
11:51
So the number one thing that has to happen here
259
711463
2288
Deci, primul lucru care trebuie făcut aici
11:53
is social networks need to fix their platforms.
260
713775
2938
e ca rețelele sociale să-și repare platformele.
11:57
(Applause)
261
717069
4149
(Aplauze)
12:01
So if you're listening to my voice and you work at a social media company
262
721600
3430
Deci, dacă mă ascultați acum și lucrați la o companie de socializare
12:05
or you invest in one or, I don't know, own one,
263
725054
2464
sau investiți într-una sau, nu știu, dețineți una,
12:08
this tip is for you.
264
728598
1461
acest sfat e pentru voi.
12:10
If you have been optimizing for maximum emotional engagement
265
730083
3921
Dacă ați optimizat-o pentru o implicare emoțională maximă,
12:14
and maximum emotional engagement turns out to be actively harming the world,
266
734028
4113
iar implicarea emoțională maximă se dovedește că dăunează lumii,
12:18
it's time to optimize for something else.
267
738165
2536
e timpul să o optimizați pentru altceva.
12:20
(Applause)
268
740725
3704
(Aplauze)
12:26
But in addition to putting pressure on them to do that
269
746939
3513
Dar pe lângă faptul de a pune presiune pe ei să facă asta
12:30
and waiting for them and hoping that they'll do that,
270
750476
2634
și să așteptăm și să sperăm că vor face asta,
12:33
there's some stuff that the rest of us can do, too.
271
753134
2502
există și alte lucruri pe care noi ceilalți le putem face.
12:35
So, we can create some better pathways or suggest some better pathways
272
755660
4497
Așadar, putem crea câteva căi mai bune sau sugera câteva căi mai bune
12:40
for angsty teens to go down.
273
760181
1991
încât numărul tinerilor revoltați să se reducă.
12:42
If you see something that you think is really creative and thoughtful
274
762196
3279
Dacă vedeți ceva și credeți că e cu adevărat creativ și profund
12:45
and you want to share that thing, you can share that thing,
275
765499
2799
și doriți să distribuiți acel lucru, distribuiți-l,
12:48
even if it's not flooding you with high arousal emotion.
276
768322
2656
chiar dacă nu vă inundă cu o emoție puternică.
12:51
Now that is a very small step, I realize,
277
771002
2020
E un pas foarte mic, îmi dau seama,
12:53
but in the aggregate, this stuff does matter,
278
773046
2184
dar per total, aceste lucruri contează,
12:55
because these algorithms, as powerful as they are,
279
775254
2406
pentru că acești algoritmi, pe cât de puternici sunt,
12:57
they are taking their behavioral cues from us.
280
777684
2205
își iau indiciile comportamentale de la noi.
13:01
So let me leave you with this.
281
781556
1513
Deci, lasați-mă să închei cu asta.
13:03
You know, a few years ago it was really fashionable
282
783701
2489
Acum câțiva ani era la modă
13:06
to say that the internet was a revolutionary tool
283
786214
2313
să spun că internetul e un instrument revoluționar,
13:08
that was going to bring us all together.
284
788551
2012
ce avea să ne unească pe toți.
13:11
It's now more fashionable to say
285
791074
1589
Acum e mai la modă să spunem
13:12
that the internet is a huge, irredeemable dumpster fire.
286
792687
3094
că internetul e un incendiu uriaș, iremediabil.
13:16
Neither caricature is really true.
287
796787
1832
Niciuna nu e adevărată.
13:18
We know the internet is just too vast and complex
288
798643
2373
Știm că internetul e prea vast și complex
13:21
to be all good or all bad.
289
801040
1499
pentru a fi total bun sau rău.
13:22
And the danger with these ways of thinking,
290
802563
2087
Și pericolul cu aceste moduri de a gândi,
13:24
whether it's the utopian view that the internet will inevitably save us
291
804674
3463
fie că e vorba despre ideea utopică că internetul ne va salva inevitabil
13:28
or the dystopian view that it will inevitably destroy us,
292
808161
3448
sau părerea distopică că ne va distruge inevitabil,
13:31
either way, we're letting ourselves off the hook.
293
811633
2444
oricare ar fi cazul, suntem prea permisivi.
13:35
There is nothing inevitable about our future.
294
815564
2606
Nu e nimic inevitabil la viitorul nostru.
13:38
The internet is made of people.
295
818878
2001
Internetul e format din oameni.
13:40
People make decisions at social media companies.
296
820903
2984
Oamenii iau decizii în companiile de socializare.
13:43
People make hashtags trend or not trend.
297
823911
2651
Oamenii stabilesc trendul unui hashtag sau nu.
13:46
People make societies progress or regress.
298
826586
3129
Oamenii fac ca societățile să progreseze sau să regreseze.
13:51
When we internalize that fact,
299
831120
1535
Dacă internalizăm acest adevăr,
13:52
we can stop waiting for some inevitable future to arrive
300
832679
3048
ne putem opri din așteptarea unui viitor inevitabil
13:55
and actually get to work now.
301
835751
1664
și putem începe să-l construim acum.
13:58
You know, we've all been taught that the arc of the moral universe is long
302
838842
3519
Cu toții am fost învățați că arcul universului moral e lung,
dar că se îndoaie spre dreptate.
14:02
but that it bends toward justice.
303
842385
1702
14:06
Maybe.
304
846489
1230
Poate.
14:08
Maybe it will.
305
848814
1200
Poate o va face.
14:10
But that has always been an aspiration.
306
850776
2477
Dar asta a fost întotdeauna o aspirație.
14:13
It is not a guarantee.
307
853277
1571
Nu e o garanție.
14:15
The arc doesn't bend itself.
308
855856
2165
Arcul nu se îndoaie de la sine.
14:18
It's not bent inevitably by some mysterious force.
309
858045
3675
Nu e îndoit inevitabil de o forță misterioasă.
14:21
The real truth,
310
861744
1672
Adevărul real,
14:23
which is scarier and also more liberating,
311
863440
2391
care e mai înfricoșător și de asemenea mai eliberator,
14:26
is that we bend it.
312
866847
1215
e că noi îl îndoim.
14:28
Thank you.
313
868943
1209
Vă mulțumesc!
14:30
(Applause)
314
870176
2617
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7