How we can protect truth in the age of misinformation | Sinan Aral

235,868 views ・ 2020-01-16

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Traducător: Andra Mocanu Corector: Mirel-Gabriel Alexa
00:13
So, on April 23 of 2013,
1
13468
5222
Pe 23 aprilie 2013,
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
Associated Press a postat următorul tweet pe Twitter,
00:24
It said, "Breaking news:
3
24252
2397
citez: „Informație de ultimă oră:
00:26
Two explosions at the White House
4
26673
2571
Două explozii la Casa Albă
00:29
and Barack Obama has been injured."
5
29268
2333
și Barack Obama a fost rănit.”
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
Acest tweet a fost redistribuit de 4.000 de ori în mai puțin de cinci minute,
00:37
and it went viral thereafter.
7
37661
2217
și a devenit ulterior viral.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
Acest tweet nu a fost publicat de Associated Press.
00:45
In fact it was false news, or fake news,
9
45134
3333
De fapt, erau o știre falsă sau fake news,
00:48
that was propagated by Syrian hackers
10
48491
2825
care au fost publicată de hackerii sirieni
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
care spărseseră contul de Twitter al celor de la Associated Press.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
Scopul a fost să tulbure societatea, dar au făcut mai mult decât atât.
01:00
Because automated trading algorithms
13
60320
2476
Deoarece algoritmii automați de la bursă
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
au sesizat imediat vâlva din jurul acestui tweet
01:06
and began trading based on the potential
15
66204
2968
și au început să tranzacționeze pe premisa
01:09
that the president of the United States had been injured or killed
16
69196
3381
că președintele Statelor Unite a fost rănit sau ucis
01:12
in this explosion.
17
72601
1200
în această explozie.
01:14
And as they started tweeting,
18
74188
1992
Și pe măsură ce au apărut tweeturile,
01:16
they immediately sent the stock market crashing,
19
76204
3349
bursa a suferit pierderi imense
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
de peste 140 de miliarde de dolari într-o singură zi.
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
Robert Mueller, procurorul special al SUA,
01:29
issued indictments against three Russian companies
22
89562
3892
a pus sub acuzare trei companii ruse
01:33
and 13 Russian individuals
23
93478
2619
și 13 persoane de cetățenie rusă
01:36
on a conspiracy to defraud the United States
24
96121
3167
pentru conspirație la fraudă împotriva Statelor Unite
01:39
by meddling in the 2016 presidential election.
25
99312
3780
prin implicarea în alegerile prezidențiale din 2016.
01:43
And what this indictment tells as a story
26
103855
3564
Și ce ne spune, de fapt, această acuzare?
01:47
is the story of the Internet Research Agency,
27
107443
3142
E despre Internet Research Agency,
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
arma ascunsă a Kremlinului de pe rețelele sociale.
01:54
During the presidential election alone,
29
114815
2777
Numai în timpul alegerilor prezidențiale
01:57
the Internet Agency's efforts
30
117616
1889
eforturile Agenției
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
au ajuns la 126 de milioane de oameni pe Facebook în Statele Unite,
02:04
issued three million individual tweets
32
124720
3277
s-au postat trei milioane de tweeturi
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
și 43 de ore de conținut pe YouTube.
02:11
All of which was fake --
34
131887
1652
Tot acest conținut fiind fals;
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
o dezinformare menită să afecteze alegerile prezidențiale ale SUA.
02:20
A recent study by Oxford University
36
140996
2650
Un studiu recent al Universității Oxford
02:23
showed that in the recent Swedish elections,
37
143670
3270
a arătat că în recentele alegeri din Suedia,
02:26
one third of all of the information spreading on social media
38
146964
4375
o treime din toate informațiile distribuite pe rețelele sociale
02:31
about the election
39
151363
1198
despre alegeri
02:32
was fake or misinformation.
40
152585
2087
erau false sau dezinformau.
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
În plus, aceste tipuri de campanii de dezinformare
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
pot răspândi așa-numita „propagandă genocid”,
02:44
for instance against the Rohingya in Burma,
43
164314
3111
ce a afectat populația rohingya din Myanmar
02:47
triggering mob killings in India.
44
167449
2303
și a declanșat linșări publice în India.
02:49
We studied fake news
45
169776
1494
Am studiat știrile false
02:51
and began studying it before it was a popular term.
46
171294
3219
și am început să facem asta înainte să devină un termen popular.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
Și recent am publicat cel mai mare studiu longitudinal
03:00
of the spread of fake news online
48
180094
2286
despre răspândirea online a știrilor false
03:02
on the cover of "Science" in March of this year.
49
182404
3204
în numărul din martie al revistei „Science”.
03:06
We studied all of the verified true and false news stories
50
186523
4161
Am studiat toate știrile adevărate și false
03:10
that ever spread on Twitter,
51
190708
1753
care au fost răspândite pe Twitter,
03:12
from its inception in 2006 to 2017.
52
192485
3818
de la apariția sa în 2006 până în 2017.
03:16
And when we studied this information,
53
196612
2314
Cercetând aceste informații,
03:18
we studied verified news stories
54
198950
2876
am studiat știri verificate
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
de șase organizații independente care se ocupă cu acest lucru.
03:25
So we knew which stories were true
56
205792
2762
Așadar, am știut care știri erau adevărate
03:28
and which stories were false.
57
208578
2126
și care erau false.
03:30
We can measure their diffusion,
58
210728
1873
Le-am putut măsura răspândirea,
03:32
the speed of their diffusion,
59
212625
1651
viteza,
03:34
the depth and breadth of their diffusion,
60
214300
2095
anvergura și densitatea răspândirii,
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
cât de mulți oameni au fost implicați și așa mai departe.
03:40
And what we did in this paper
62
220942
1484
În această lucrare
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
am comparat răspândirea știrilor adevărate cu a celor false.
03:46
And here's what we found.
64
226339
1683
Și iată ce am descoperit.
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
Am aflat că știrile false au fost distribuite mai departe, mai repede
03:52
and more broadly than the truth
66
232049
1806
și mai mult decât cele adevărate
03:53
in every category of information that we studied,
67
233879
3003
în toate categoriile de informații studiate,
03:56
sometimes by an order of magnitude.
68
236906
2499
uneori chiar de zece ori mai mult.
03:59
And in fact, false political news was the most viral.
69
239842
3524
De fapt, știrile politice false au fost cele mai virale.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
S-au răspândit mai departe, mai rapid și mai larg
04:06
than any other type of false news.
71
246561
2802
decât orice alt tip de știri false.
04:09
When we saw this,
72
249387
1293
Când am văzut asta,
04:10
we were at once worried but also curious.
73
250704
2841
am fost îngrijorați și curioși deopotrivă.
04:13
Why?
74
253569
1151
De ce?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
De ce știrile false se răspândesc mult mai departe, mai rapid
04:18
and more broadly than the truth?
76
258141
1864
și mai larg decât adevărul?
04:20
The first hypothesis that we came up with was,
77
260339
2961
Prima ipoteză la care ne-am gândit a fost:
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
„Poate că oamenii care distribuie știri false au mai mulți urmăritori,
04:28
or tweet more often,
79
268140
1557
sau postează mai des,
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
sau sunt poate utilizatori 'verificați', cu mai multă credibilitate,
04:33
or maybe they've been on Twitter longer."
81
273871
2182
sau poate au Twitter de mai mult timp.”
04:36
So we checked each one of these in turn.
82
276077
2298
Și am verificat fiecare premisă în parte.
04:38
And what we found was exactly the opposite.
83
278691
2920
Ce am descoperit a fost exact opusul.
04:41
False-news spreaders had fewer followers,
84
281635
2436
Aceștia aveau mai puțini urmăritori,
04:44
followed fewer people, were less active,
85
284095
2254
urmăreau mai puțini oameni, erau rar activi,
04:46
less often "verified"
86
286373
1460
adeseori 'neverificați',
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
și aveau Twitter de mai puțin timp.
04:50
And yet,
88
290841
1189
Cu toate astea,
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
știrile false erau cu 70% mai redistribuite decât adevărul,
04:57
controlling for all of these and many other factors.
90
297111
3363
dacă luăm în considerare acești factori și alții.
05:00
So we had to come up with other explanations.
91
300498
2690
Așa că a trebuit să venim cu alte explicații.
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
Și am venit cu așa-numita „ipoteză a noutății”.
05:07
So if you read the literature,
93
307038
1960
Dacă ai citit literatura de specialitate,
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
e binecunoscut faptul că atenția umană este atrasă de noutate,
05:12
things that are new in the environment.
95
312800
2519
de tot ceea ce este nou în mediu.
05:15
And if you read the sociology literature,
96
315343
1985
Dacă ai citit cărți de sociologie,
05:17
you know that we like to share novel information.
97
317352
4300
știi faptul că ne place să distribuim informații noi.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
Ne face să părem că avem acces la informații din interior,
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
și devenim mai populari prin distribuirea acestui tip de informație.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
Așa că am măsurat gradul de noutate al unui nou tweet adevărat sau fals,
05:36
compared to the corpus of what that individual had seen
101
336268
4055
comparat cu tot ce a văzut acea persoană
05:40
in the 60 days prior on Twitter.
102
340347
2952
pe Twitter în ultimele 60 de zile.
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
Dar asta nu a fost de ajuns, pentru că ne-am gândit:
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
„Poate că știrile false sunt, teoretic, mai noi,
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
dar poate că oamenii nu o percep ca fiind mai nouă.”
05:53
So to understand people's perceptions of false news,
106
353849
3927
Deci, pentru a înțelege percepția oamenilor despre știrile false,
05:57
we looked at the information and the sentiment
107
357800
3690
ne-am uitat la informațiile și la sentimentele
06:01
contained in the replies to true and false tweets.
108
361514
4206
din răspunsurile la tweet-urile adevărate și false.
06:06
And what we found
109
366022
1206
Și am descoperit
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
că dintre toate tipurile diferite de sentimente:
06:11
surprise, disgust, fear, sadness,
111
371490
3301
surprindere, dezgust, frică, tristețe,
06:14
anticipation, joy and trust --
112
374815
2484
optimism, bucurie și încredere,
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
știrile false au avut mult mai multe reacții
06:23
in the replies to false tweets.
114
383204
2806
de surprindere și de dezgust,
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
iar știrile reale aveau răspunsuri
06:30
joy and trust
116
390205
1547
cu mai mult optimism,
06:31
in reply to true tweets.
117
391776
2547
bucurie și încredere.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
Surpriza ne confirmă ipoteza noutății.
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
E nou și surprinzător și suntem mai predispuși să-l redistribuim.
06:43
At the same time, there was congressional testimony
120
403092
2925
În același timp, există o mărturie a congresului
06:46
in front of both houses of Congress in the United States,
121
406041
3036
în fața ambelor case ale congresului Statelor Unite
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
despre rolul boților în răspândirea dezinformării.
06:52
So we looked at this too --
123
412863
1354
Așa că am aruncat o privire.
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
Am folosit multipli algoritmi sofisticați de identificare a boților
06:57
to find the bots in our data and to pull them out.
125
417863
3074
pentru a găsi acești boți în datele noastre pentru a-i elimina.
07:01
So we pulled them out, we put them back in
126
421347
2659
Așa că i-am scos, i-am introdus la loc
07:04
and we compared what happens to our measurement.
127
424030
3119
și am comparat ce se întâmplă cu măsurătorile noastre.
07:07
And what we found was that, yes indeed,
128
427173
2293
Am descoperit că da, într-adevăr,
07:09
bots were accelerating the spread of false news online,
129
429490
3682
boții accelerau răspândirea știrilor false online,
07:13
but they were accelerating the spread of true news
130
433196
2651
dar accelerau și răspândirea celor adevărate
07:15
at approximately the same rate.
131
435871
2405
într-un ritm aproape similar.
07:18
Which means bots are not responsible
132
438300
2858
Ceea ce înseamnă că boții nu sunt responsabili
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
pentru diferența dintre răspândirea adevărului și falsurilor în online.
07:25
We can't abdicate that responsibility,
134
445919
2849
Nu putem spune că nu e responsabilitatea noastră,
07:28
because we, humans, are responsible for that spread.
135
448792
4259
pentru că noi suntem responsabili pentru această diferență.
07:34
Now, everything that I have told you so far,
136
454472
3334
Din păcate pentru noi,
07:37
unfortunately for all of us,
137
457830
1754
tot ce v-am spus până acum
07:39
is the good news.
138
459608
1261
reprezintă veștile bune.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
Motivul e că totul e pe cale să devină mult mai rău.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
Două tehnologii în principal vor înrăutăți situația.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
Vom observa ascensiunea unui imens val de știri artificiale.
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
Înregistrări video și audio false care sunt foarte convingătoare.
08:03
And this will powered by two technologies.
143
483458
2754
Și acestea vor fi susținute de două tehnologii.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
Prima dintre acestea e cunoscută ca „rețele adverse generative”.
08:10
This is a machine-learning model with two networks:
145
490093
2563
Este un model de învățare automată cu două rețele:
08:12
a discriminator,
146
492680
1547
un discriminator,
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
al cărui scop este să determine dacă ceva este adevărat sau fals.
08:18
and a generator,
148
498475
1167
și un generator,
08:19
whose job it is to generate synthetic media.
149
499666
3150
care creează știri artificiale.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
Așadar, generatorul sintetic creează o înregistrare video sau audio,
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
iar discriminatorul încearcă să determine dacă este adevărată sau falsă.
08:32
And in fact, it is the job of the generator
152
512665
2874
De fapt, obiectivul generatorului
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
să maximizeze probabilitatea de a păcăli discriminatorul
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
și de a-l face să creadă că acel conținut video sau audio creat
08:43
is actually true.
155
523633
1730
este veridic.
08:45
Imagine a machine in a hyperloop,
156
525387
2373
Imaginați-vă o mașinărie într-o continuă buclă,
08:47
trying to get better and better at fooling us.
157
527784
2803
devenind din ce în ce mai bună în a ne păcăli.
08:51
This, combined with the second technology,
158
531114
2500
Aceasta, împreună cu cealaltă tehnologie,
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
adică democratizarea inteligenței artificiale,
08:59
the ability for anyone,
160
539384
2189
oferă posibilitatea ca oricine,
09:01
without any background in artificial intelligence
161
541597
2830
fără cunoștințe în domeniul inteligenței artificiale
09:04
or machine learning,
162
544451
1182
sau al învățării automate,
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
să dezvolte astfel de algoritmi ce creează știri artificiale,
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
face crearea de conținut video extrem de ușoară.
09:14
The White House issued a false, doctored video
165
554355
4421
Casa Albă a publicat o înregistrare video editată
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
cu un jurnalist ce interacționează cu o stagiară
care încerca să îi ia microfonul.
09:23
They removed frames from this video
167
563427
1999
Au eliminat anumite cadre din video
09:25
in order to make his actions seem more punchy.
168
565450
3287
pentru a-i face acțiunile să pară mai violente.
09:29
And when videographers and stuntmen and women
169
569157
3385
Iar când videografi și cascadori
09:32
were interviewed about this type of technique,
170
572566
2427
au fost întrebați despre această tehnică,
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
au răspuns: „Da, o folosim tot timpul în filme
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
pentru ca loviturile noastre să pară mai rapide și mai agresive."
09:44
They then put out this video
173
584268
1867
Apoi au postat acest video
09:46
and partly used it as justification
174
586159
2500
și l-au folosit ca justificare
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
pentru a-i revoca jurnalistului Jim Acosta permisul de presă
09:52
from the White House.
176
592706
1339
pentru Casa Albă.
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
CNN a trebuit să meargă în fața judecătorilor pentru a recăpăta permisul.
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
Există în jur de cinci căi diferite pe care le putem urma
10:06
to try and address some of these very difficult problems today.
179
606165
3739
pentru a rezolva câteva dintre aceste probleme dificile ale zilelor noastre.
10:10
Each one of them has promise,
180
610379
1810
Fiecare dintre ele e promițătoare,
10:12
but each one of them has its own challenges.
181
612213
2999
însă fiecare are provocările sale.
10:15
The first one is labeling.
182
615236
2008
Prima dintre ele este etichetarea.
10:17
Think about it this way:
183
617268
1357
Gândiți-vă astfel:
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
când mergi la magazin pentru a cumpăra mâncare,
10:22
it's extensively labeled.
185
622284
1904
ea e etichetată în detaliu.
10:24
You know how many calories it has,
186
624212
1992
Știi câte calorii are,
10:26
how much fat it contains --
187
626228
1801
câtă grăsime are,
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
și totuși când consumăm informații, nu ai niciun fel de etichetă.
10:32
What is contained in this information?
189
632355
1928
Ce conține această informație?
10:34
Is the source credible?
190
634307
1453
Sursa ei este credibilă?
10:35
Where is this information gathered from?
191
635784
2317
De unde provin aceste informații?
10:38
We have none of that information
192
638125
1825
Nu știm toate aceste lucruri
10:39
when we are consuming information.
193
639974
2103
atunci când consumăm informații.
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
Aceasta e o posibilă soluție, însă are și provocări.
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
De exemplu, la nivel de societate, cine decide ce e adevărat și ce e fals?
10:52
Is it the governments?
196
652387
1642
Guvernele?
10:54
Is it Facebook?
197
654053
1150
Facebook?
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
O organizație independentă de verificare?
10:59
And who's checking the fact-checkers?
199
659387
2466
Și cine îi verifică pe cei care verifică?
11:02
Another potential avenue is incentives.
200
662427
3084
O altă potențială soluție sunt stimulentele.
11:05
We know that during the US presidential election
201
665535
2634
Știm că în timpul alegerilor prezidențiale din SUA
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
a fost un val de dezinformare venit din Macedonia
11:11
that didn't have any political motive
203
671907
2337
care nu avea în spate vreun motiv politic,
11:14
but instead had an economic motive.
204
674268
2460
ci unul economic.
11:16
And this economic motive existed,
205
676752
2148
Acest motiv exista
11:18
because false news travels so much farther, faster
206
678924
3524
pentru că știrile false ajung mult mai rapid, mai departe
11:22
and more deeply than the truth,
207
682472
2010
și mai profund decât cele adevărate,
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
și poți câștiga bani din reclame pe măsură ce captezi atenția
11:29
with this type of information.
209
689490
1960
cu acest tip de informație.
11:31
But if we can depress the spread of this information,
210
691474
3833
Dar dacă putem reduce răspândirea acestor informații,
11:35
perhaps it would reduce the economic incentive
211
695331
2897
poate vom reduce și stimulentele economice
11:38
to produce it at all in the first place.
212
698252
2690
care au motivat producerea acestora de la bun început.
11:40
Third, we can think about regulation,
213
700966
2500
În al treilea rând, putem vorbi despre reglementări,
11:43
and certainly, we should think about this option.
214
703490
2325
și trebuie să luăm în serios această opțiune.
11:45
In the United States, currently,
215
705839
1611
Azi, în Statele Unite
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
explorăm ce s-ar putea întâmpla dacă Facebook și alții ar fi reglementați.
11:52
While we should consider things like regulating political speech,
217
712346
3801
Ar trebui să reglementăm discursul politic,
11:56
labeling the fact that it's political speech,
218
716171
2508
să menționăm că este un discurs politic,
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
să ne asigurăm că străinii nu pot finanța un discurs politic,
12:02
it also has its own dangers.
220
722546
2547
și totuși are pericolele sale.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
De exemplu, în Malaezia s-a instituit o pedeapsă cu închisoarea de șase ani
12:10
for anyone found spreading misinformation.
222
730424
2734
pentru oricine răspândește știri false.
12:13
And in authoritarian regimes,
223
733696
2079
Iar în regimurile totalitare,
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
aceste tipuri de practici pot fi folosite pentru a suprima opiniile minorității
12:20
and to continue to extend repression.
225
740489
3508
și pentru a extinde represiunile.
12:24
The fourth possible option is transparency.
226
744680
3543
Cea de-a patra opțiune posibilă este transparența.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
Vrem să știm cum funcționează algoritmii Facebook.
12:32
How does the data combine with the algorithms
228
752581
2880
Cum sunt datele incorporate în algoritmi
12:35
to produce the outcomes that we see?
229
755485
2838
pentru a produce ceea ce vedem?
12:38
We want them to open the kimono
230
758347
2349
Vrem ca ei să fie transparenți
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
și să ne arate din interior cum lucrează Facebook.
12:44
And if we want to know social media's effect on society,
232
764958
2779
Dacă vrem să știm efectele rețelelor sociale în societate,
12:47
we need scientists, researchers
233
767761
2086
trebuie ca oameni de știință, cercetători
12:49
and others to have access to this kind of information.
234
769871
3143
și mulți alții să aibă acces la acest tip de informații.
12:53
But at the same time,
235
773038
1547
Dar în același timp,
12:54
we are asking Facebook to lock everything down,
236
774609
3801
i-am ruga pe cei de la Facebook să țină totul sub control,
12:58
to keep all of the data secure.
237
778434
2173
să asigure siguranța datelor.
13:00
So, Facebook and the other social media platforms
238
780631
3159
Deci, Facebook și alte rețele sociale
13:03
are facing what I call a transparency paradox.
239
783814
3134
se confruntă cu așa-numitul paradox al transparenței.
13:07
We are asking them, at the same time,
240
787266
2674
Îi rugăm simultan
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
să fie deschiși, transparenți, dar și siguri.
13:14
This is a very difficult needle to thread,
242
794797
2691
E o provocare foarte dificilă,
13:17
but they will need to thread this needle
243
797512
1913
dar ei vor trebui să o rezolve
13:19
if we are to achieve the promise of social technologies
244
799449
3787
dacă vrem să ne bucurăm în continuare de tehnologiile sociale
13:23
while avoiding their peril.
245
803260
1642
fără a le pierde.
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
Ultimul lucru la care ne putem gândi sunt algoritmii și învățarea automată.
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
Tehnologie creată pentru a separa și înțelege știrile false, răspândirea lor
13:34
and to try and dampen its flow.
248
814942
2331
și pentru a le reduce frecvența de apariție.
13:37
Humans have to be in the loop of this technology,
249
817824
2897
Oamenii trebuie să fie conștienți de aceste tehnologii,
13:40
because we can never escape
250
820745
2278
pentru că nu putem evita faptul că
13:43
that underlying any technological solution or approach
251
823047
4038
sub orice soluție sau abordare tehnologică
13:47
is a fundamental ethical and philosophical question
252
827109
4047
există o întrebare etică și filozofică fundamentală
13:51
about how do we define truth and falsity,
253
831180
3270
despre cum definim adevărul și falsul,
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
cui îi oferim puterea de a le defini,
13:57
and which opinions are legitimate,
255
837678
2460
și care opinii sunt veridice,
14:00
which type of speech should be allowed and so on.
256
840162
3706
ce tip de discurs ar trebui permis și așa mai departe.
14:03
Technology is not a solution for that.
257
843892
2328
Tehnologia nu este o soluție aici.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
Etica și filozofia sunt.
14:10
Nearly every theory of human decision making,
259
850950
3318
Aproape toate teoriile despre modul în care oamenii iau decizii,
14:14
human cooperation and human coordination
260
854292
2761
modul în care cooperează și sunt coordonați
14:17
has some sense of the truth at its core.
261
857077
3674
au un sâmbure de adevăr.
14:21
But with the rise of fake news,
262
861347
2056
Dar, odată cu apariția știrilor false,
14:23
the rise of fake video,
263
863427
1443
a videoclipurilor false,
14:24
the rise of fake audio,
264
864894
1882
a înregistrărilor false,
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
ne îndreptăm spre marginea realității,
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
unde nu putem distinge adevărul de minciună.
14:34
And that's potentially incredibly dangerous.
267
874661
3039
Și asta e incredibil de periculos.
14:38
We have to be vigilant in defending the truth
268
878931
3948
Trebuie să fim vigilenți în apărarea adevărului
14:42
against misinformation.
269
882903
1534
împotriva dezinformării.
14:44
With our technologies, with our policies
270
884919
3436
Ajutați de tehnologiile noastre, de politicile noastre
14:48
and, perhaps most importantly,
271
888379
1920
și, probabil, cel mai important,
14:50
with our own individual responsibilities,
272
890323
3214
de responsabilitățile noastre individuale,
14:53
decisions, behaviors and actions.
273
893561
3555
deciziile, comportamentele și acțiunile noastre.
14:57
Thank you very much.
274
897553
1437
Vă mulțumesc mult!
14:59
(Applause)
275
899014
3517
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7