How we can protect truth in the age of misinformation | Sinan Aral

235,810 views ・ 2020-01-16

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Перекладач: Мирослава Кругляк Утверджено: Khrystyna Romashko
00:13
So, on April 23 of 2013,
1
13468
5222
Якось, 23 квітня 2013 року,
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
Associated Press розмістила у Твіттері запис,
00:24
It said, "Breaking news:
3
24252
2397
де було сказано:
00:26
Two explosions at the White House
4
26673
2571
"Екстрене повідомлення:
два вибухи у Білому домі,
00:29
and Barack Obama has been injured."
5
29268
2333
поранено Барака Обаму!"
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
Це повідомлення набрало 4 тисячі ретвітів менш, ніж за п'ять хвилин,
00:37
and it went viral thereafter.
7
37661
2217
і згодом набуло вірусного поширення.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
Але ця новина була не справжньою, її випустила не Associated Press.
00:45
In fact it was false news, or fake news,
9
45134
3333
Насправді це був фейк, тобто, фейкова новина,
00:48
that was propagated by Syrian hackers
10
48491
2825
поширювана сирійськими хакерами,
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
які зламали сторінку Associated Press у Твіттері.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
Хакери хотіли посіяти суспільну паніку, але наслідки виявились значно гіршими.
01:00
Because automated trading algorithms
13
60320
2476
Тому що автоматизовані алгоритми торгівлі
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
відразу ж вловили настрій, виражений у цьому твіті,
01:06
and began trading based on the potential
15
66204
2968
і почали робити поправку на те,
01:09
that the president of the United States had been injured or killed
16
69196
3381
що президент США був поранений чи навіть загинув від вибуху.
01:12
in this explosion.
17
72601
1200
01:14
And as they started tweeting,
18
74188
1992
Щойно вони почали твіттити,
01:16
they immediately sent the stock market crashing,
19
76204
3349
це відразу ж призвело до обвалу на біржі,
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
який лише за один день завдав збитків на 140 млрд. доларів.
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
Роберт Мюллер, спеціальний прокурор США,
01:29
issued indictments against three Russian companies
22
89562
3892
висунув обвинувачення проти трьох російських компаній
01:33
and 13 Russian individuals
23
93478
2619
і тринадцяти російських громадян,
01:36
on a conspiracy to defraud the United States
24
96121
3167
звинувативши їх у змові, що мала на меті
01:39
by meddling in the 2016 presidential election.
25
99312
3780
за допомогою обману вплинути на президентські вибори в США в 2016-му.
01:43
And what this indictment tells as a story
26
103855
3564
У обвинуваченні йдеться
01:47
is the story of the Internet Research Agency,
27
107443
3142
про діяльність Агентства інтернет-досліджень,
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
що було тіньовою армією Кремля в соціальних медіа.
01:54
During the presidential election alone,
29
114815
2777
Тільки впродовж минулих президентських виборів
01:57
the Internet Agency's efforts
30
117616
1889
це інтернет-агентство
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
охопило 126 мільйонів користувачів Фейсбуку в США,
02:04
issued three million individual tweets
32
124720
3277
опублікувало 3 мільйони окремих твітів
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
і відеоконтент на ютубі, загальною тривалістю 43 години.
02:11
All of which was fake --
34
131887
1652
Весь цей контент був фейковим,
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
дезінформацією з метою сіяти розбрат під час президентських виборів у США.
02:20
A recent study by Oxford University
36
140996
2650
Недавнє дослідження Оксфордського університету
02:23
showed that in the recent Swedish elections,
37
143670
3270
виявило, що під час минулих виборів у Швеції
02:26
one third of all of the information spreading on social media
38
146964
4375
третина інформації, поширюваної в соціальних медіа
02:31
about the election
39
151363
1198
з приводу виборів,
02:32
was fake or misinformation.
40
152585
2087
була фейком чи дезінформацією.
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
До того ж, такі види дезінформаційних кампаній в соціальних медіа
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
можуть поширювати так звану "пропаганду геноциду",
02:44
for instance against the Rohingya in Burma,
43
164314
3111
наприклад, проти рохінджа в М'янмі,
02:47
triggering mob killings in India.
44
167449
2303
що спровокувало погроми в Індії.
02:49
We studied fake news
45
169776
1494
Ми досліджували фейкові новини,
02:51
and began studying it before it was a popular term.
46
171294
3219
і почали їх досліджувати ще до того, як цей термін став популярним.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
Недавно ми опублікували найбільше з відомих довготривалих досліджень
03:00
of the spread of fake news online
48
180094
2286
щодо поширення фейкових новин.
03:02
on the cover of "Science" in March of this year.
49
182404
3204
Воно вийшло на першій сторінці "Science" в березні цього року.
03:06
We studied all of the verified true and false news stories
50
186523
4161
Ми вивчали всі історії, істинність чи хибність яких була встановлена,
03:10
that ever spread on Twitter,
51
190708
1753
з тих, що циркулювали в Твіттері,
03:12
from its inception in 2006 to 2017.
52
192485
3818
за період, починаючи від заснування Твіттера в 2006-му до 2017-го.
03:16
And when we studied this information,
53
196612
2314
При відборі інформації
03:18
we studied verified news stories
54
198950
2876
ми вивчали перевірені новини, а саме, ті новини,
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
які були перевірені шістьма незалежними факт-чекінговими організаціями.
03:25
So we knew which stories were true
56
205792
2762
Тож ми знали, які з них були правдивими,
03:28
and which stories were false.
57
208578
2126
а які – неправдивими.
03:30
We can measure their diffusion,
58
210728
1873
Ми могли виміряти їхнє розповсюдження,
03:32
the speed of their diffusion,
59
212625
1651
швидкість їхнього поширення,
03:34
the depth and breadth of their diffusion,
60
214300
2095
як глибоко й широко вони розповсюджувались,
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
скільки людей втягались в цей інформаційний каскад, тощо.
03:40
And what we did in this paper
62
220942
1484
І в згаданій статті
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
ми порівняли поширення правдивих та неправдивих новин.
03:46
And here's what we found.
64
226339
1683
І ось що ми виявили.
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
Ми встановили, що неправдиві новини поширюються більше, швидше, глибше
03:52
and more broadly than the truth
66
232049
1806
і ширше, ніж правдиві.
03:53
in every category of information that we studied,
67
233879
3003
Різні інформаційні сфери суттєво відрізняються,
03:56
sometimes by an order of magnitude.
68
236906
2499
іноді на порядок, за масштабами цього явища.
03:59
And in fact, false political news was the most viral.
69
239842
3524
І, до речі, неправдиві політичні новини поширюються найефективніше.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
Вони розповсюджуються більше, швидше, глибше і ширше
04:06
than any other type of false news.
71
246561
2802
за будь-який інший тип неправдивих новин.
04:09
When we saw this,
72
249387
1293
Коли ми таке виявили,
04:10
we were at once worried but also curious.
73
250704
2841
це нас стривожило, але водночас і зацікавило.
04:13
Why?
74
253569
1151
Чому це так?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
Чому неправдиві новини поширюються значно далі, швидше, більше
04:18
and more broadly than the truth?
76
258141
1864
і ширше, ніж правдиві?
04:20
The first hypothesis that we came up with was,
77
260339
2961
Перша гіпотеза, яка нам спала на думку:
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
можливо, поширювачі неправдивих новин мають більше підписників і підписок;
04:28
or tweet more often,
79
268140
1557
чи пишуть частіше;
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
чи серед них більше "підтверджених" користувачів Твіттеру, що збільшує довіру;
04:33
or maybe they've been on Twitter longer."
81
273871
2182
чи вони вже тривалий час мають акаунт.
04:36
So we checked each one of these in turn.
82
276077
2298
Тож ми перевірили ці припущення,
04:38
And what we found was exactly the opposite.
83
278691
2920
і виявили, що насправді все навпаки.
04:41
False-news spreaders had fewer followers,
84
281635
2436
Поширювачі неправдивих новин мали менше підписників,
04:44
followed fewer people, were less active,
85
284095
2254
і менше підписок, вони були менш активними,
04:46
less often "verified"
86
286373
1460
зазвичай не "підтвердженими",
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
і зареєстрованими не так давно.
04:50
And yet,
88
290841
1189
І тим не менш,
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
неправдиві новини мали на 70% більше поширень, ніж правдиві,
04:57
controlling for all of these and many other factors.
90
297111
3363
і це з поправкою на згадані, а також на багато інших чинників.
05:00
So we had to come up with other explanations.
91
300498
2690
Тож нам потрібно було знайти інше пояснення.
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
Ми запропонували гіпотезу, яку назвали "гіпотеза новизни".
05:07
So if you read the literature,
93
307038
1960
У дослідницькій літературі
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
широко відомий факт, що увагу людей привертає новизна,
05:12
things that are new in the environment.
95
312800
2519
щось нове, щось незвичне для їхнього середовища.
05:15
And if you read the sociology literature,
96
315343
1985
А якщо ви вивчали соціологію,
05:17
you know that we like to share novel information.
97
317352
4300
то знаєте, що люди люблять ділитись новою інформацією.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
Це викликає враження, ніби вони володіють інформацією для втаємничених,
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
і передача такого типу інформації підвищує їхній статус.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
Тож ми виміряли новизну правдивих і неправдивих твітів,
05:36
compared to the corpus of what that individual had seen
101
336268
4055
порівняно з корпусом твітів, які користувачі бачили
05:40
in the 60 days prior on Twitter.
102
340347
2952
впродовж попередніх 60 днів.
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
Проте це ще не все, адже ми подумали:
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
"Може, у фейкових новин більше новизни в інформаційно-теоретичному сенсі,
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
але, можливо, люди не вважають, що в них більше новизни".
05:53
So to understand people's perceptions of false news,
106
353849
3927
Тож щоб дослідити, як люди сприймають фейкові новини,
05:57
we looked at the information and the sentiment
107
357800
3690
ми вивчили зміст і емоційний настрій коментарів
06:01
contained in the replies to true and false tweets.
108
361514
4206
до правдивих і неправдивих новин.
06:06
And what we found
109
366022
1206
І ми виявили,
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
що серед значної кількості досліджуваних емоцій –
06:11
surprise, disgust, fear, sadness,
111
371490
3301
подиву, відрази, страху, суму,
06:14
anticipation, joy and trust --
112
374815
2484
очікування, радощів і довіри –
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
у коментарях до фейкових новин були значно помітніше присутні
06:23
in the replies to false tweets.
114
383204
2806
подив і відраза.
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
А в коментарях до правдивих новин значно більшою мірою
06:30
joy and trust
116
390205
1547
були присутні очікування,
06:31
in reply to true tweets.
117
391776
2547
радощі та довіра.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
Дані про подив підтверджують нашу гіпотезу новизни.
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
Якщо щось нове й незвичне, то більша ймовірність, що ми це поширимо.
06:43
At the same time, there was congressional testimony
120
403092
2925
Разом із тим, були свідчення в Конгресі,
06:46
in front of both houses of Congress in the United States,
121
406041
3036
перед обома палатами Конгресу Сполучених Штатів,
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
у яких було заявлено про роль ботів у поширенні дезінформації.
06:52
So we looked at this too --
123
412863
1354
Тож ми дослідили і це,
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
використавши численні складні алгоритми,
06:57
to find the bots in our data and to pull them out.
125
417863
3074
щоб виявити ботів і виключити їх із наших даних.
07:01
So we pulled them out, we put them back in
126
421347
2659
Зрештою, ми їх виключили, а потім повернули знов,
07:04
and we compared what happens to our measurement.
127
424030
3119
і порівняли, як зміняться дані наших вимірювань.
07:07
And what we found was that, yes indeed,
128
427173
2293
І ми встановили,
07:09
bots were accelerating the spread of false news online,
129
429490
3682
що хоча боти справді прискорюють поширення фейкових новин,
07:13
but they were accelerating the spread of true news
130
433196
2651
але вони прискорюють і поширення правдивих новин
07:15
at approximately the same rate.
131
435871
2405
приблизно на тому ж рівні.
07:18
Which means bots are not responsible
132
438300
2858
Це означає, що боти не впливають
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
на різницю в поширенні мережею правди та брехні.
07:25
We can't abdicate that responsibility,
134
445919
2849
Ми не можемо зняти із себе відповідальність,
07:28
because we, humans, are responsible for that spread.
135
448792
4259
адже це саме від нас, людей, залежить, що буде поширюватись.
07:34
Now, everything that I have told you so far,
136
454472
3334
Все те, що я досі вам розповів,
07:37
unfortunately for all of us,
137
457830
1754
на жаль для всіх нас,
07:39
is the good news.
138
459608
1261
є хорошими новинами.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
Я так кажу тому, що далі може бути набагато гірше.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
Є дві технології, які можуть зробити ситуацію значно гіршою.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
Ми стоїмо на порозі величезної хвилі синтетичних медіа.
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
Фейкових відео, фейкових аудіо, які виглядають дуже переконливо.
08:03
And this will powered by two technologies.
143
483458
2754
Вони спиратимуться на дві технології.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
Перша з них відома як генеративна змагальна мережа.
08:10
This is a machine-learning model with two networks:
145
490093
2563
Це модель машинного навчання, яка містить дві мережі:
08:12
a discriminator,
146
492680
1547
дискримінатор,
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
який визначає істинність чи хибність чогось,
08:18
and a generator,
148
498475
1167
і генератор,
08:19
whose job it is to generate synthetic media.
149
499666
3150
який створює синтезований контент.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
Отож, генератор створює штучне відео чи аудіо,
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
а дискримінатор намагається визначити, справжнє воно чи фейкове.
08:32
And in fact, it is the job of the generator
152
512665
2874
І, фактично, завдання генератора – це створювати
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
якомога реалістичніші зображення, які б змогли обдурити дискримінатора,
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
щоб він розцінив ці штучно синтезовані відео й аудіо
08:43
is actually true.
155
523633
1730
як справжні.
08:45
Imagine a machine in a hyperloop,
156
525387
2373
Уявіть машину, яка з величезною швидкістю
08:47
trying to get better and better at fooling us.
157
527784
2803
вдосконалюється у мистецтві обману.
08:51
This, combined with the second technology,
158
531114
2500
І це поєднано з другою технологією,
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
а саме, з все більшою доступністю штучного інтелекту для пересічної людини,
08:59
the ability for anyone,
160
539384
2189
можливістю для будь-кого
09:01
without any background in artificial intelligence
161
541597
2830
без жодної освіти в галузі штучного інтелекту
09:04
or machine learning,
162
544451
1182
чи машинного навчання,
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
користуватись цими алгоритмами, щоб створювати штучний контент,
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
значно легше створювати відео.
09:14
The White House issued a false, doctored video
165
554355
4421
Білий дім поширив відредаговане відео,
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
де журналіст хапає за руку стажерку, що намагається забрати в нього мікрофон.
09:23
They removed frames from this video
167
563427
1999
Це відео відкоригували так, щоб здавалось,
09:25
in order to make his actions seem more punchy.
168
565450
3287
ніби журналіст зробив різкіший рух, ніж насправді.
09:29
And when videographers and stuntmen and women
169
569157
3385
І коли відеооператорів та каскадерів
09:32
were interviewed about this type of technique,
170
572566
2427
запитали про прийом, застосований у тому відео,
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
вони сказали: "Так, ми постійно використовуємо цей прийом,
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
щоб наші удари й копняки виглядали різкіше й агресивніше".
09:44
They then put out this video
173
584268
1867
Білий дім поширив це відео
09:46
and partly used it as justification
174
586159
2500
і використав його як одну з причин
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
для відкликання акредитації Джима Акости
09:52
from the White House.
176
592706
1339
на заходи в Білому домі.
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
CNN мусила подати позов, щоб відновити акредитацію.
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
На мою думку, існує півдесятка шляхів, якими можна скористатись,
10:06
to try and address some of these very difficult problems today.
179
606165
3739
щоб спробувати розв'язати декотрі з цих дуже складних сьогоднішніх проблем.
10:10
Each one of them has promise,
180
610379
1810
Кожен із них дає надію,
10:12
but each one of them has its own challenges.
181
612213
2999
але водночас кожен із них породжує й виклики.
10:15
The first one is labeling.
182
615236
2008
Перший шлях – це маркування.
10:17
Think about it this way:
183
617268
1357
Давайте поміркуємо:
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
коли ви йдете до бакалійної крамниці, щоб купити харчі,
10:22
it's extensively labeled.
185
622284
1904
вони детально марковані.
10:24
You know how many calories it has,
186
624212
1992
Ви знаєте, скільки вони містять калорій,
10:26
how much fat it contains --
187
626228
1801
який у них вміст жиру –
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
однак коли ми споживаємо інформацію, для неї не існує жодного маркування.
10:32
What is contained in this information?
189
632355
1928
Що містить ця інформація?
10:34
Is the source credible?
190
634307
1453
Чи варте довіри це джерело?
10:35
Where is this information gathered from?
191
635784
2317
Звідки отримано дану інформацію?
10:38
We have none of that information
192
638125
1825
У нас немає цих даних,
10:39
when we are consuming information.
193
639974
2103
коли ми споживаємо інформацію.
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
Тут криється потенційна можливість, та водночас є й виклики.
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
Наприклад, кому суспільство довірить вирішувати, де істина, а де брехня?
10:52
Is it the governments?
196
652387
1642
Це будуть органи влади?
10:54
Is it Facebook?
197
654053
1150
Чи, може, Фейсбук?
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
А, можливо, незалежний консорціум факт-чекерів?
10:59
And who's checking the fact-checkers?
199
659387
2466
А хто перевірятиме факт-чекерів?
11:02
Another potential avenue is incentives.
200
662427
3084
Інша потенційна можливість криється в спонуках.
11:05
We know that during the US presidential election
201
665535
2634
Ми знаємо, що впродовж президентських виборів у США
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
здійнялась хвиля дезінформації, що походила з Македонії.
11:11
that didn't have any political motive
203
671907
2337
За цією хвилею не стояв жоден політичний мотив,
11:14
but instead had an economic motive.
204
674268
2460
зате був присутній економічний.
11:16
And this economic motive existed,
205
676752
2148
Цей економічний мотив виник,
11:18
because false news travels so much farther, faster
206
678924
3524
бо фейкові новини поширюються значно далі, швидше
11:22
and more deeply than the truth,
207
682472
2010
і глибше, ніж правдиві,
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
тож вони збільшують прибуток від реклами, привертаючи увагу
11:29
with this type of information.
209
689490
1960
більшої кількості користувачів.
11:31
But if we can depress the spread of this information,
210
691474
3833
Але якщо можна сповільнити поширення хибної інформації,
11:35
perhaps it would reduce the economic incentive
211
695331
2897
можливо, це зменшить економічні стимули,
11:38
to produce it at all in the first place.
212
698252
2690
які змушують продукувати фейки.
11:40
Third, we can think about regulation,
213
700966
2500
По-третє, можна обміркувати регулювання,
11:43
and certainly, we should think about this option.
214
703490
2325
таку можливість слід серйозно розглянути.
11:45
In the United States, currently,
215
705839
1611
Наразі в Сполучених Штатах
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
ми досліджуємо, що може статись, якщо регулювати Фейсбук та інші мережі.
11:52
While we should consider things like regulating political speech,
217
712346
3801
Хоча потрібно розглянути можливість регулювання політичної пропаганди,
11:56
labeling the fact that it's political speech,
218
716171
2508
маркування матеріалів, які є політичною пропагандою,
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
перевірки, щоб іноземні сили не спонсорували політичну пропаганду –
12:02
it also has its own dangers.
220
722546
2547
та всі ці заходи містять в собі небезпеку.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
Наприклад, у Малайзії прийняли закон, який передбачає 6-річне ув'язнення
12:10
for anyone found spreading misinformation.
222
730424
2734
за поширення дезінформації.
12:13
And in authoritarian regimes,
223
733696
2079
І за умов авторитарного режиму,
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
такі засоби регулювання можуть використовуватись
12:20
and to continue to extend repression.
225
740489
3508
для придушення думки меншості і для посилення репресій.
12:24
The fourth possible option is transparency.
226
744680
3543
По-четверте, одним зі шляхів може стати прозорість.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
Ми хочемо знати, як працюють алгоритми Фейсбуку.
12:32
How does the data combine with the algorithms
228
752581
2880
Яким чином алгоритм відбирає інформацію,
12:35
to produce the outcomes that we see?
229
755485
2838
яку ми бачимо у своїй стрічці?
12:38
We want them to open the kimono
230
758347
2349
Ми вимагаємо підняти завісу
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
і показати деталі внутрішньої роботи алгоритмів Фейсбуку.
12:44
And if we want to know social media's effect on society,
232
764958
2779
І якщо ми хочемо дізнатись про вплив соціальних мереж
12:47
we need scientists, researchers
233
767761
2086
на суспільство, потрібно, щоб вчені,
12:49
and others to have access to this kind of information.
234
769871
3143
дослідники та інші люди мали доступ до такої інформації.
12:53
But at the same time,
235
773038
1547
Але водночас
12:54
we are asking Facebook to lock everything down,
236
774609
3801
ми просимо Фейсбук підтримувати секретність,
12:58
to keep all of the data secure.
237
778434
2173
щоб тримати наші дані у безпеці.
13:00
So, Facebook and the other social media platforms
238
780631
3159
Тож Фейсбук та інші платформи соціальних медіа
13:03
are facing what I call a transparency paradox.
239
783814
3134
стикаються з тим, що я називаю парадоксом прозорості.
13:07
We are asking them, at the same time,
240
787266
2674
Ми хочемо, щоб вони були водночас
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
відкритими та прозорими, і разом з тим безпечними.
13:14
This is a very difficult needle to thread,
242
794797
2691
Це дуже складне завдання,
13:17
but they will need to thread this needle
243
797512
1913
але вони повинні будуть його виконати,
13:19
if we are to achieve the promise of social technologies
244
799449
3787
якщо ми хочемо користуватись благами соціальних технологій,
13:23
while avoiding their peril.
245
803260
1642
уникнувши при цьому небезпек.
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
І, по-п'яте, нам потрібно подумати про алгоритми й машинне навчання.
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
Технології для розпізнавання фейкових новин та механізмів їх поширення,
13:34
and to try and dampen its flow.
248
814942
2331
з метою сповільнити їхній потік.
13:37
Humans have to be in the loop of this technology,
249
817824
2897
Люди повинні бути в курсі, як працюють ці технології,
13:40
because we can never escape
250
820745
2278
бо ми ніколи не уникнемо того,
13:43
that underlying any technological solution or approach
251
823047
4038
що в основі будь-якого технологічного рішення чи підходу,
13:47
is a fundamental ethical and philosophical question
252
827109
4047
лежать фундаментальні етичні і філософські питання
13:51
about how do we define truth and falsity,
253
831180
3270
про те, як визначати істину й хибність,
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
кого ми наділяємо владою це робити,
13:57
and which opinions are legitimate,
255
837678
2460
і чия думка є легітимною,
14:00
which type of speech should be allowed and so on.
256
840162
3706
які типи висловлювань мають бути прийнятними і т.п.
14:03
Technology is not a solution for that.
257
843892
2328
Це вирішує не технологія.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
Ці питання має вирішувати етика й філософія.
14:10
Nearly every theory of human decision making,
259
850950
3318
Майже кожна теорія прийняття рішень,
14:14
human cooperation and human coordination
260
854292
2761
людської співпраці й взаємодії
14:17
has some sense of the truth at its core.
261
857077
3674
спирається на певне розуміння правди.
14:21
But with the rise of fake news,
262
861347
2056
Та за умов зростання фейкових новин,
14:23
the rise of fake video,
263
863427
1443
фейкових відео
14:24
the rise of fake audio,
264
864894
1882
та фейкових аудіо,
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
ми балансуємо на межі кінця реальності,
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
коли ми не можемо відрізнити правду від фейку.
14:34
And that's potentially incredibly dangerous.
267
874661
3039
І це містить величезну потенційну загрозу.
14:38
We have to be vigilant in defending the truth
268
878931
3948
Ми маємо пильнувати, ставши на захист істини
14:42
against misinformation.
269
882903
1534
проти дезінформації,
14:44
With our technologies, with our policies
270
884919
3436
застосовуючи наші технології, наші політичні засоби,
14:48
and, perhaps most importantly,
271
888379
1920
і, мабуть, найважливіше,
14:50
with our own individual responsibilities,
272
890323
3214
нашу особисту відповідальність,
14:53
decisions, behaviors and actions.
273
893561
3555
рішення, поведінку і вчинки.
14:57
Thank you very much.
274
897553
1437
Дуже дякую.
14:59
(Applause)
275
899014
3517
(Оплески)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7