How we can protect truth in the age of misinformation | Sinan Aral

213,712 views ・ 2020-01-16

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Translator: Niya Koleva Reviewer: Petya Pavlova
Така, на 23 април 2013 г.,
00:13
So, on April 23 of 2013,
1
13468
5222
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
Асошиейтид Прес публикуваха следното в Туитър.
00:24
It said, "Breaking news:
3
24252
2397
В него се казваше: "Новини от последните минути:
00:26
Two explosions at the White House
4
26673
2571
Две експлозии в Белия дом
00:29
and Barack Obama has been injured."
5
29268
2333
и Барак Обама е ранен".
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
Този туийт беше ретуитнат 4000 пъти за по-малко от пет минути
00:37
and it went viral thereafter.
7
37661
2217
и след това стана широко популярен.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
Този туит не беше истинска новина качена от Асошиейтид Прес.
00:45
In fact it was false news, or fake news,
9
45134
3333
Всъщност беше грешна новина или фалшива новина,
00:48
that was propagated by Syrian hackers
10
48491
2825
разпространена от сирийски хакери,
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
проникнали в туитър акаунта на Асошиейтид прес.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
Тяхната цел била да смутят обществото, но те смущават много повече.
01:00
Because automated trading algorithms
13
60320
2476
Тъй като автоматизираните алгоритми за търговия
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
веднага прихванали настроението на този туийт,
01:06
and began trading based on the potential
15
66204
2968
те започнали търгуване, основано на възможността
01:09
that the president of the United States had been injured or killed
16
69196
3381
президентът на Съединените Американски Щати да е ранен или убит
01:12
in this explosion.
17
72601
1200
при тази експлозия.
01:14
And as they started tweeting,
18
74188
1992
Щом започнали да туитват
01:16
they immediately sent the stock market crashing,
19
76204
3349
веднага докарали фондовия пазар до срив
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
унищожавайки 140 милиарда долара стойност на собствения капитал за един ден.
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
Робърт Мюлер, специален адвокат прокурор в САЩ,
01:29
issued indictments against three Russian companies
22
89562
3892
издава обвинителни актове срещу три руски компании
01:33
and 13 Russian individuals
23
93478
2619
и 13 руснаци
01:36
on a conspiracy to defraud the United States
24
96121
3167
за конспирация с цел измама на САЩ
01:39
by meddling in the 2016 presidential election.
25
99312
3780
като се намесват в президентските избори през 2016 г.
01:43
And what this indictment tells as a story
26
103855
3564
Това, което обвинението разказва като история,
01:47
is the story of the Internet Research Agency,
27
107443
3142
е историята на Агенцията за проучвания в интернет,
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
сенчестата ръка на Кремъл в социалните медии.
01:54
During the presidential election alone,
29
114815
2777
Само по време на президентските избори
01:57
the Internet Agency's efforts
30
117616
1889
усилията на Интернет агенцията
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
достигат 126 милиона души във Фейсбук в САЩ,
02:04
issued three million individual tweets
32
124720
3277
публикува 3 милиона отделни туийта
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
и 43 часа съдържание в ЮТюб.
02:11
All of which was fake --
34
131887
1652
Като всичкото е фалшиво --
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
дезинформация, създадена да сее раздор в президентските избори на САЩ.
02:20
A recent study by Oxford University
36
140996
2650
Скорошно изследване на Оксфордския университет
02:23
showed that in the recent Swedish elections,
37
143670
3270
показва, че в последните шведски избори
02:26
one third of all of the information spreading on social media
38
146964
4375
една трета от цялата информация, разпространявана в интернет
02:31
about the election
39
151363
1198
за изборите,
02:32
was fake or misinformation.
40
152585
2087
била фалшива или дезинформация.
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
Допълнително, тези типове кампании на дезинформация в социалните медии
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
могат да разпространят т.нар. "геноцидна пропаганда",
02:44
for instance against the Rohingya in Burma,
43
164314
3111
например срещу малцинството рохинджа в Бирма,
02:47
triggering mob killings in India.
44
167449
2303
което задейства масови убийства в Индия.
02:49
We studied fake news
45
169776
1494
Изучавахме фалшиви новини
02:51
and began studying it before it was a popular term.
46
171294
3219
и започнахме да ги изучаваме преди да станат популярен термин.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
И скоро публикувахме най-голямото досега лонгитюдно изследване
03:00
of the spread of fake news online
48
180094
2286
на разпространението на фалшиви новини онлайн
03:02
on the cover of "Science" in March of this year.
49
182404
3204
на корицата на "Сайънс" през март тази година.
03:06
We studied all of the verified true and false news stories
50
186523
4161
Изследвахме всички потвърдени верни и неверни новини,
03:10
that ever spread on Twitter,
51
190708
1753
разпространявани в Туитър
03:12
from its inception in 2006 to 2017.
52
192485
3818
от създаването му през 2006 г. до 2017 г.
03:16
And when we studied this information,
53
196612
2314
И след това изследвахме тази информация,
03:18
we studied verified news stories
54
198950
2876
изследвахме потвърдените новини,
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
които бяха потвърдени от шест независими организации, проверяващи факти.
03:25
So we knew which stories were true
56
205792
2762
Така че знаехме кои истории са верни
03:28
and which stories were false.
57
208578
2126
и кои истории са неверни.
03:30
We can measure their diffusion,
58
210728
1873
Можем да измерим тяхното разпространение,
03:32
the speed of their diffusion,
59
212625
1651
скоростта на това разпространение,
03:34
the depth and breadth of their diffusion,
60
214300
2095
дълбочината и обхвата на разпространението,
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
колко хора са били въвличани в тази информационна каскада и т.н.
03:40
And what we did in this paper
62
220942
1484
Това, което направихме с труда,
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
бе да сравним разпространението на истинските спрямо неверните новини.
03:46
And here's what we found.
64
226339
1683
И ето какво открихме.
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
Открихме, че неверните новини се разпростират повече, по-бързо и по-дълбоко
03:52
and more broadly than the truth
66
232049
1806
и в по-голям обхват от истината
03:53
in every category of information that we studied,
67
233879
3003
във всички категории информация, които изследвахме,
03:56
sometimes by an order of magnitude.
68
236906
2499
понякога с огромна разлика.
03:59
And in fact, false political news was the most viral.
69
239842
3524
Действително неверните политически новини бяха най-широко разпространени.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
Разпространяваха се далеч, по-бързо, по-дълбоко и в по-голям обхват
04:06
than any other type of false news.
71
246561
2802
от много други типове неверни новини.
04:09
When we saw this,
72
249387
1293
Щом видяхме това
04:10
we were at once worried but also curious.
73
250704
2841
веднага се разтревожихме, но бяхме и любопитни.
04:13
Why?
74
253569
1151
Защо?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
Защо неверните новини пътуват толкова по-надалеч, по-бързо и по-дълбоко
04:18
and more broadly than the truth?
76
258141
1864
и в по-голям обхват от истината?
04:20
The first hypothesis that we came up with was,
77
260339
2961
Първата хипотеза, която съставихме, беше:
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
"Може би хората, които разпространяват неверните новини имат повече последователи
или следват повече хора, или туийтват по-често.
04:28
or tweet more often,
79
268140
1557
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
Или може би те са "потвърдени" Туитър потребители, с повече правдоподобност,
04:33
or maybe they've been on Twitter longer."
81
273871
2182
или са в Туитър по-дълго време".
04:36
So we checked each one of these in turn.
82
276077
2298
Проверихме всяко едно от тези неща.
04:38
And what we found was exactly the opposite.
83
278691
2920
И това, което открихме, беше точно обратното.
04:41
False-news spreaders had fewer followers,
84
281635
2436
Разпространяващите неверни новини, имаха по-малко последователи,
04:44
followed fewer people, were less active,
85
284095
2254
следваха по-малко хора, по-малко активни са,
04:46
less often "verified"
86
286373
1460
по-рядко са "потвърдени"
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
и ползват Туитър от по-кратък период.
04:50
And yet,
88
290841
1189
И все пак вероятността
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
неверните новини да бъдат ретуитнати беше 70% по-висока от тази на истината,
04:57
controlling for all of these and many other factors.
90
297111
3363
като се вземат предвид тези и много други фактори.
05:00
So we had to come up with other explanations.
91
300498
2690
Така че трябваше да намерим други обяснения.
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
И създадохме т. нар. "хипотеза на новостта".
05:07
So if you read the literature,
93
307038
1960
Ако прочетете литературата,
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
добре известно е, че човешкото внимание се привлича от новостите,
05:12
things that are new in the environment.
95
312800
2519
нещата, които са нови в средата.
05:15
And if you read the sociology literature,
96
315343
1985
Ако четете литературата на социологията,
05:17
you know that we like to share novel information.
97
317352
4300
знаете, че обичаме да споделяме нова информация.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
Кара ни да изглеждаме все едно имаме достъп до вътрешна информация
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
и покачваме статута си като разпространяваме такава информация.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
Измерихме новостта на постъпващ верен и неверен туит
05:36
compared to the corpus of what that individual had seen
101
336268
4055
сравнено с всичко, което човек е видял
05:40
in the 60 days prior on Twitter.
102
340347
2952
през 60-те дни преди това в Туитър.
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
Но това не беше достатъчно, защото се замислихме
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
"Може би неверните новини са по-нови в информационно-теоретичен смисъл,
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
но може би хората не ги възприемат като по-нови"
05:53
So to understand people's perceptions of false news,
106
353849
3927
За да разберем възприятията на хората спрямо неверните новини
05:57
we looked at the information and the sentiment
107
357800
3690
разгледахме информацията и усещанията,
06:01
contained in the replies to true and false tweets.
108
361514
4206
съдържащи се в отговорите на истински и неистински туитове.
06:06
And what we found
109
366022
1206
И това, което открихме,
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
беше, че сред няколко различни мерки на усещане --
06:11
surprise, disgust, fear, sadness,
111
371490
3301
изненада, отвращение, страх, тъга,
06:14
anticipation, joy and trust --
112
374815
2484
очакване, радост и доверие --
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
при неверните новини се наблюдаваше значително повече изненада и отвращение
06:23
in the replies to false tweets.
114
383204
2806
в отговорите на неверните туитове.
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
А сред истинските новини се наблюдаваше значително повече очакване,
06:30
joy and trust
116
390205
1547
радост и доверие
06:31
in reply to true tweets.
117
391776
2547
в отговорите на верните туитове.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
Изненадата потвърди нашата теория на новостта.
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
Това е ново и изненадващо, затова сме по-склонни да го споделим.
06:43
At the same time, there was congressional testimony
120
403092
2925
Междувременно се случваха конгресните изслушвания
06:46
in front of both houses of Congress in the United States,
121
406041
3036
пред двете камари на Конгреса в САЩ,
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
където се разглеждаше ролята на ботовете при разпространението на дезинформацията.
06:52
So we looked at this too --
123
412863
1354
Затова разгледахме и това --
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
използвахме множество изпипани алгоритми за засичане на ботове,
06:57
to find the bots in our data and to pull them out.
125
417863
3074
за да открием ботовете в нашите данни и да ги извадим от изследването.
07:01
So we pulled them out, we put them back in
126
421347
2659
Изтеглихме ги, после ги вкарахме отново
07:04
and we compared what happens to our measurement.
127
424030
3119
и сравнихме какво се случва с измерванията ни.
07:07
And what we found was that, yes indeed,
128
427173
2293
И открихме, че действително
07:09
bots were accelerating the spread of false news online,
129
429490
3682
ботовете увеличават скоростта на разпространение на неверни новини онлайн,
07:13
but they were accelerating the spread of true news
130
433196
2651
но те ускоряват и разпространението на истинските новини
07:15
at approximately the same rate.
131
435871
2405
с приблизително същия темп.
07:18
Which means bots are not responsible
132
438300
2858
Което означава, че ботовете не са причината
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
за диференциалното разпространение на истината и неистината онлайн.
07:25
We can't abdicate that responsibility,
134
445919
2849
Не можем да избегнем отговорност,
07:28
because we, humans, are responsible for that spread.
135
448792
4259
защото ние хората сме отговорни за това разпространение.
07:34
Now, everything that I have told you so far,
136
454472
3334
Всичко, което ви казах досега,
07:37
unfortunately for all of us,
137
457830
1754
за съжаление на всички нас,
07:39
is the good news.
138
459608
1261
е добрата новина.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
Причината е, защото сега ще стане много по-лошо.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
И две конкретни технологии ще влошат нещата.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
Ще видим възхода на огромна вълна на синтетичните медии.
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
Фалшиви видеа, фалшиво аудио, които са много убедителни за човешкото око.
08:03
And this will powered by two technologies.
143
483458
2754
И това ще бъде задвижено от две технологии.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
Първата е позната като "генеративно-състезателни мрежи".
08:10
This is a machine-learning model with two networks:
145
490093
2563
Това е модел на машинно самообучение с две мрежи:
08:12
a discriminator,
146
492680
1547
дискриминатор,
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
чиято работа е да определи дали нещо е истина или лъжа,
08:18
and a generator,
148
498475
1167
и генератор,
08:19
whose job it is to generate synthetic media.
149
499666
3150
чиято работа е да генерира синтетична медия.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
Синтетичният генератор създава синтетично видео или аудио,
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
а дискриминаторът се опитва да различи "дали това е истинско, или е фалшиво?"
08:32
And in fact, it is the job of the generator
152
512665
2874
И всъщност е работа на генератора
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
да максимизира вероятността, да заблуди дискриминатора,
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
че синтетичното видео или аудио, което създава,
08:43
is actually true.
155
523633
1730
е всъщност истинско.
08:45
Imagine a machine in a hyperloop,
156
525387
2373
Представете си машина в хиперлууп,
08:47
trying to get better and better at fooling us.
157
527784
2803
опитваща се да стане по-добра и по-добра в това да ни заблуждава.
08:51
This, combined with the second technology,
158
531114
2500
Това в комбинация с втората технология,
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
която по същество е демократизацията на изкуствения интелект към хората,
08:59
the ability for anyone,
160
539384
2189
възможността всеки,
09:01
without any background in artificial intelligence
161
541597
2830
без какъвто и да е опит с изкуствения интелект
09:04
or machine learning,
162
544451
1182
или машинното самообучение,
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
да използва такъв вид алгоритми, за да генерира синтетични медии,
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
по същество прави създаването на видеа много по-лесно.
09:14
The White House issued a false, doctored video
165
554355
4421
Белият дом публикува невярно и подправено видео
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
от спречкването на журналист със стажант, който опитва да му вземе микрофона.
09:23
They removed frames from this video
167
563427
1999
Изрязани са кадри от видеото,
09:25
in order to make his actions seem more punchy.
168
565450
3287
за да изглеждат действията му по-груби.
09:29
And when videographers and stuntmen and women
169
569157
3385
И когато видеографи и каскадьори
09:32
were interviewed about this type of technique,
170
572566
2427
са интервюирани за този вид техника
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
те казват "Да, използваме я във филмите през цялото време,
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
за да изглеждат ударите и ритниците по-резки и по-агресивни."
09:44
They then put out this video
173
584268
1867
След това пуснаха това видео
09:46
and partly used it as justification
174
586159
2500
и в известна степен го използваха като оправдание
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
да изземат журналистическия пропуск на репортера Джим Акоста
09:52
from the White House.
176
592706
1339
от Белия дом.
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
И СиЕнЕн трябваше да водят дело, за да възстановят журналистическия пропуск.
Има около 5 различни пътя, за които се сещам и, по които можем да поемем,
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
10:06
to try and address some of these very difficult problems today.
179
606165
3739
за да се опитаме да решим някои от тези много трудни проблеми днес.
10:10
Each one of them has promise,
180
610379
1810
Всеки от тях дава надежда,
10:12
but each one of them has its own challenges.
181
612213
2999
но всеки от тях има своите предизвикателства.
10:15
The first one is labeling.
182
615236
2008
Първият е "поставяне на етикети".
10:17
Think about it this way:
183
617268
1357
Помислете по следния начин:
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
когато отидете в магазина, за да си купите храна за консумация
10:22
it's extensively labeled.
185
622284
1904
тя е с информативен етикет.
10:24
You know how many calories it has,
186
624212
1992
Знаете колко калории има в нея,
10:26
how much fat it contains --
187
626228
1801
колко мазнини съдържа --
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
но когато консумираме информация, няма никакви етикети.
10:32
What is contained in this information?
189
632355
1928
Какво се съдържа в тази информация?
10:34
Is the source credible?
190
634307
1453
Източникът надежден ли е?
10:35
Where is this information gathered from?
191
635784
2317
Откъде е събрана тази информация?
10:38
We have none of that information
192
638125
1825
Не разполагаме с тази информация,
10:39
when we are consuming information.
193
639974
2103
когато консумираме информация.
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
Това е потенциално решение, но то съдържа предизвикателства.
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
Например, кой в обществото ще решава кое е вярно и кое е невярно?
10:52
Is it the governments?
196
652387
1642
Правителствата?
10:54
Is it Facebook?
197
654053
1150
Фейсбук?
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
Независим консорциум на проверяващите фактите?
10:59
And who's checking the fact-checkers?
199
659387
2466
И кой проверява проверяващите?
11:02
Another potential avenue is incentives.
200
662427
3084
Друг възможен път е този на стимулите.
11:05
We know that during the US presidential election
201
665535
2634
Знаем, че по време на президентските избори в САЩ
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
имаше вълна на дезинформация с произход Македония,
11:11
that didn't have any political motive
203
671907
2337
която нямаше политически мотив,
11:14
but instead had an economic motive.
204
674268
2460
а вместо това имаше икономически мотив.
11:16
And this economic motive existed,
205
676752
2148
И този икономически мотив съществуваше,
11:18
because false news travels so much farther, faster
206
678924
3524
защото неверните новини се движат по-далеч, по-бързо,
11:22
and more deeply than the truth,
207
682472
2010
и по-дълбоко от истината
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
и можеш да спечелиш пари от реклама докато събираш погледи и внимание
11:29
with this type of information.
209
689490
1960
с този вид информация.
11:31
But if we can depress the spread of this information,
210
691474
3833
Ако можем да ограничим разпространението на тази информация
11:35
perhaps it would reduce the economic incentive
211
695331
2897
това вероятно ще намали икономическия стимул
11:38
to produce it at all in the first place.
212
698252
2690
за самото ѝ създаване.
11:40
Third, we can think about regulation,
213
700966
2500
Трето, можем да мислим за регулации
11:43
and certainly, we should think about this option.
214
703490
2325
и със сигурност трябва да помислим за този вариант.
11:45
In the United States, currently,
215
705839
1611
В САЩ в момента
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
разглеждаме какво може да се случи, ако Фейсбук и други се регулират.
11:52
While we should consider things like regulating political speech,
217
712346
3801
Докато трябва да помислим за неща като това да регулираме политическата реч,
11:56
labeling the fact that it's political speech,
218
716171
2508
да обозначим факта, че е политическа реч,
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
да се уверим, че чуждестранни лица не могат да финансират политическа реч,
12:02
it also has its own dangers.
220
722546
2547
това също води до своите опасности.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
Например, Малайзия тъкмо въведе шестгодишна ефективна присъда
12:10
for anyone found spreading misinformation.
222
730424
2734
за всеки, който разпространява дезинформация.
12:13
And in authoritarian regimes,
223
733696
2079
И в авторитарните режими
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
този тип политики могат да се използват за потискане на мнението на малцинствата
12:20
and to continue to extend repression.
225
740489
3508
и за продължаване на репресиите.
12:24
The fourth possible option is transparency.
226
744680
3543
Четвъртата възможност е прозрачността.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
Искаме да знаем как работят алгоритмите на Фейсбук.
12:32
How does the data combine with the algorithms
228
752581
2880
Как данните се комбинират с алгоритмите,
12:35
to produce the outcomes that we see?
229
755485
2838
за да произвеждат резултатите, които виждаме?
12:38
We want them to open the kimono
230
758347
2349
Искаме да отворят кимоното
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
и да ни покажат точно зъбните колела на начина на работа на Фейсбук.
12:44
And if we want to know social media's effect on society,
232
764958
2779
И ако искаме да разберем ефектът на социалните медии върху обществото
12:47
we need scientists, researchers
233
767761
2086
трябва учени, изследователи
12:49
and others to have access to this kind of information.
234
769871
3143
и други да имат достъп до този вид информация.
12:53
But at the same time,
235
773038
1547
Но същевременно,
12:54
we are asking Facebook to lock everything down,
236
774609
3801
искаме Фейсбук да заключи всичко,
12:58
to keep all of the data secure.
237
778434
2173
да съхранява данните по сигурен начин.
13:00
So, Facebook and the other social media platforms
238
780631
3159
Фейсбук и другите платформи на социалните медии
13:03
are facing what I call a transparency paradox.
239
783814
3134
са изправени пред това, което наричам парадоск на прозрачността.
13:07
We are asking them, at the same time,
240
787266
2674
Едновременно искаме от тях
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
да са отворени и прозрачни, и в същотото време, да са сигурни.
13:14
This is a very difficult needle to thread,
242
794797
2691
Това е много трудна игла за вдяване,
13:17
but they will need to thread this needle
243
797512
1913
но те ще трябва да вдянат конеца в иглата,
13:19
if we are to achieve the promise of social technologies
244
799449
3787
ако искаме да достигнем потенциала на социалните технологии,
13:23
while avoiding their peril.
245
803260
1642
и да избегнем рисковете им.
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
Последното нещо, за което се сетихме са алгоритмите и машинното самообучение.
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
Технология, създадена, да намира и разбира фалшивите новини, разпространението им
13:34
and to try and dampen its flow.
248
814942
2331
и да се опита да ограничи потока им.
13:37
Humans have to be in the loop of this technology,
249
817824
2897
Хората трябва да са в течение с тази технология,
13:40
because we can never escape
250
820745
2278
защото не можем да избягаме
13:43
that underlying any technological solution or approach
251
823047
4038
от това, че при всяко технологично решение или подход
13:47
is a fundamental ethical and philosophical question
252
827109
4047
съществува фундаментален етически и философски въпрос
13:51
about how do we define truth and falsity,
253
831180
3270
как да дефинираме истината и неистната,
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
на кого даваме властта да дефинира истината и неистината
13:57
and which opinions are legitimate,
255
837678
2460
и кои мнения са легитимни,
14:00
which type of speech should be allowed and so on.
256
840162
3706
кой тип реч трябва да се позволява и т.н.
14:03
Technology is not a solution for that.
257
843892
2328
Технологията не е решение за това.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
Етиката и философията са решение за това.
14:10
Nearly every theory of human decision making,
259
850950
3318
Почти всяка теория за взимането на решения от хората,
14:14
human cooperation and human coordination
260
854292
2761
сътрудничеството и координацията между хората
14:17
has some sense of the truth at its core.
261
857077
3674
в същността си има идея за истината.
14:21
But with the rise of fake news,
262
861347
2056
Но с възхода на фалшивите новини,
14:23
the rise of fake video,
263
863427
1443
възхода на фалшивите видеа,
14:24
the rise of fake audio,
264
864894
1882
възхода на фалшивото аудио,
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
пълзим по ръба на края на реалността.
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
където не можем да кажем кое е истинско и кое - фалшиво.
14:34
And that's potentially incredibly dangerous.
267
874661
3039
И това потенциално е невероятно опасно.
14:38
We have to be vigilant in defending the truth
268
878931
3948
Трябва да сме бдителни при защитаването на истината
14:42
against misinformation.
269
882903
1534
срещу дезинформацията.
14:44
With our technologies, with our policies
270
884919
3436
С нашите технологии, с нашите политики
14:48
and, perhaps most importantly,
271
888379
1920
и може би най-важното
14:50
with our own individual responsibilities,
272
890323
3214
с нашите индивидуални отговорности,
14:53
decisions, behaviors and actions.
273
893561
3555
решения, поведение и действия.
14:57
Thank you very much.
274
897553
1437
Много ви благодаря.
14:59
(Applause)
275
899014
3517
(аплодисменти)
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7