How you can help transform the internet into a place of trust | Claire Wardle

53,671 views ・ 2019-11-15

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Мирослава Кругляк Утверджено: Khrystyna Romashko
00:13
No matter who you are or where you live,
0
13548
2516
Незалежно від того, хто ви, і де ви мешкаєте,
00:16
I'm guessing that you have at least one relative
1
16088
2356
припускаю, що у вас є принаймні один родич,
00:18
that likes to forward those emails.
2
18468
2334
який любить поширювати такі повідомлення.
00:21
You know the ones I'm talking about --
3
21206
1900
Ви знаєте, що я маю на увазі –
00:23
the ones with dubious claims or conspiracy videos.
4
23130
2854
сумнівні повідомлення чи відео в стилі теорії змови.
00:26
And you've probably already muted them on Facebook
5
26315
2668
Можливо, ви вже відключили його сповіщення на Фейсбуці,
00:29
for sharing social posts like this one.
6
29007
2348
не бажаючи бачити репостів, подібних до цього.
00:31
It's an image of a banana
7
31379
1404
На цій картинці банан
00:32
with a strange red cross running through the center.
8
32807
2667
із дивним червоним хрестиком всередині.
00:35
And the text around it is warning people
9
35498
2139
Текст, що супроводжує картинку,
00:37
not to eat fruits that look like this,
10
37661
2158
застерігає не їсти такі фрукти,
00:39
suggesting they've been injected with blood
11
39843
2028
припускаючи, що у ці фрукти ввели кров,
00:41
contaminated with the HIV virus.
12
41895
2130
заражену вірусом СНІДу.
00:44
And the social share message above it simply says,
13
44049
2603
А повідомлення вгорі містить просте прохання:
00:46
"Please forward to save lives."
14
46676
2181
"Поширте це, щоб врятувати життя".
00:49
Now, fact-checkers have been debunking this one for years,
15
49672
3294
Хоча факт-чекери вже кілька років розвінчують це хибне вкидання,
00:52
but it's one of those rumors that just won't die.
16
52990
2809
але воно належить до тих чуток, які все ще живуть і далі.
00:55
A zombie rumor.
17
55823
1271
Це чутка-зомбі.
00:57
And, of course, it's entirely false.
18
57513
2093
І, звісно, вона цілком неправдива.
01:00
It might be tempting to laugh at an example like this, to say,
19
60180
2959
Хтось може просто посміятися над такими прикладами, кажучи:
01:03
"Well, who would believe this, anyway?"
20
63163
1884
"Ну, хіба хтось цьому повірить?"
01:05
But the reason it's a zombie rumor
21
65419
1626
Але ці чутки-зомбі існують тому,
01:07
is because it taps into people's deepest fears about their own safety
22
67069
3889
що вони пробуджують найглибші страхи щодо власної безпеки,
01:10
and that of the people they love.
23
70982
2175
і безпеки найближчих людей.
01:13
And if you spend as enough time as I have looking at misinformation,
24
73783
3273
Якщо ви витратите на вивчення дезінформації стільки ж часу, скільки я,
01:17
you know that this is just one example of many
25
77080
2420
ви побачите, що цей приклад лише один із багатьох,
01:19
that taps into people's deepest fears and vulnerabilities.
26
79524
3047
які спираються на найглибші страхи і побоювання.
01:23
Every day, across the world, we see scores of new memes on Instagram
27
83214
4369
Щодня по всьому світу в Інстаграмі поширюються нові меми,
01:27
encouraging parents not to vaccinate their children.
28
87607
3039
які спонукають батьків відмовитись від вакцинації дітей.
01:30
We see new videos on YouTube explaining that climate change is a hoax.
29
90670
4532
Ми бачимо на YouTube нові відео, де кажуть, що зміна клімату – це неправда.
01:35
And across all platforms, we see endless posts designed to demonize others
30
95226
4302
І на всіх платформах ми бачимо незліченні дописи, де інших демонізують
01:39
on the basis of their race, religion or sexuality.
31
99552
3501
на підставі їхньої раси, релігії чи сексуальної належності.
01:44
Welcome to one of the central challenges of our time.
32
104314
3030
Ласкаво прошу до одного з головних викликів нашого часу.
01:47
How can we maintain an internet with freedom of expression at the core,
33
107647
4025
Як можна забезпечити свободу вираження в Інтернеті,
01:51
while also ensuring that the content that's being disseminated
34
111696
3303
гарантуючи при цьому, що поширюваний контент
01:55
doesn't cause irreparable harms to our democracies, our communities
35
115023
3886
не завдасть непоправної шкоди нашій демократії, нашим спільнотам
01:58
and to our physical and mental well-being?
36
118933
2238
і нашому фізичному й психічному благополуччю?
02:01
Because we live in the information age,
37
121998
2087
Оскільки ми живемо в інформаційну епоху,
02:04
yet the central currency upon which we all depend -- information --
38
124109
3547
інформація стала головною валютою, від якої ми всі залежимо,
02:07
is no longer deemed entirely trustworthy
39
127680
2357
але на неї більше не можна цілковито покладатись,
02:10
and, at times, can appear downright dangerous.
40
130061
2328
а іноді вона може становити пряму небезпеку.
02:12
This is thanks in part to the runaway growth of social sharing platforms
41
132811
3937
Однією із причин цього є нестримне зростання соціальних мереж,
02:16
that allow us to scroll through,
42
136772
1642
коли у нашій стрічці
02:18
where lies and facts sit side by side,
43
138438
2222
брехня може сусідити із фактами,
02:20
but with none of the traditional signals of trustworthiness.
44
140684
3071
але при цьому відсутні традиційні маркери достовірності.
02:24
And goodness -- our language around this is horribly muddled.
45
144268
3619
І, як на зло, у нас дуже заплутана мова, якою ми це описуємо.
02:27
People are still obsessed with the phrase "fake news,"
46
147911
3103
Люди ще досі мусолять фразу "фейкові новини",
02:31
despite the fact that it's extraordinarily unhelpful
47
151038
2531
незважаючи на те, що від неї дуже мало користі,
02:33
and used to describe a number of things that are actually very different:
48
153593
3460
вона позначає чимало дуже відмінних між собою речей:
02:37
lies, rumors, hoaxes, conspiracies, propaganda.
49
157077
3386
брехню, чутки, містифікації, змови, пропаганду.
02:40
And I really wish we could stop using a phrase
50
160911
2912
І я дуже хотіла б, щоб ми перестали вживати фразу,
02:43
that's been co-opted by politicians right around the world,
51
163847
2862
яку використовують політики в усьому світі,
02:46
from the left and the right,
52
166733
1471
праві і ліві,
02:48
used as a weapon to attack a free and independent press.
53
168228
3222
як зброю для атаки на вільну й незалежну пресу.
02:52
(Applause)
54
172307
4702
(Оплески)
02:57
Because we need our professional news media now more than ever.
55
177033
3462
Тому що зараз професійні ЗМІ нам потрібні як ніколи.
03:00
And besides, most of this content doesn't even masquerade as news.
56
180882
3373
Крім того, більшість такого контенту навіть не маскується під новини.
03:04
It's memes, videos, social posts.
57
184279
2642
Це меми, відео, дописи із соцмереж.
03:06
And most of it is not fake; it's misleading.
58
186945
3453
І чимало з них не є фейками, але вони вводять в оману.
03:10
We tend to fixate on what's true or false.
59
190422
3015
Ми зосереджуємось на питанні про істинність чи хибність.
03:13
But the biggest concern is actually the weaponization of context.
60
193461
4032
Однак найбільше нас має непокоїти маніпуляція контекстом.
03:18
Because the most effective disinformation
61
198855
1968
Адже найбільш дієва дезінформація –
03:20
has always been that which has a kernel of truth to it.
62
200847
3048
це та, яка містить зерно правди.
03:23
Let's take this example from London, from March 2017,
63
203919
3476
Розгляньмо цей приклад, Лондон, березень 2017-го,
03:27
a tweet that circulated widely
64
207419
1540
масово поширюваний твіт
03:28
in the aftermath of a terrorist incident on Westminster Bridge.
65
208983
3587
після теракту на Вестмінстерському мосту.
03:32
This is a genuine image, not fake.
66
212594
2428
Це справжнє фото, не фейк.
03:35
The woman who appears in the photograph was interviewed afterwards,
67
215046
3169
Пізніше жінка на фотографії пояснила в інтерв'ю,
03:38
and she explained that she was utterly traumatized.
68
218239
2409
що вона була дуже шокована.
03:40
She was on the phone to a loved one,
69
220672
1738
Вона розмовляла з коханим,
03:42
and she wasn't looking at the victim out of respect.
70
222434
2618
і, з поваги до жертв, уникала дивитись на них.
03:45
But it still was circulated widely with this Islamophobic framing,
71
225076
3960
Але фото широко циркулювало, у ісламофобському контексті,
03:49
with multiple hashtags, including: #BanIslam.
72
229060
3046
з численними хештегами, включно з #BanIslam.
03:52
Now, if you worked at Twitter, what would you do?
73
232425
2398
Що б ви зробили на місці команди Твіттера?
03:54
Would you take that down, or would you leave it up?
74
234847
2562
Ви б заблокували це фото, чи дозволили його поширювати?
03:58
My gut reaction, my emotional reaction, is to take this down.
75
238553
3429
Моя інтуїтивна, емоційна реакція – таке фото слід заблокувати.
04:02
I hate the framing of this image.
76
242006
2142
Я ненавиджу контекст, в якому його використали.
04:04
But freedom of expression is a human right,
77
244585
2388
Але свобода самовираження належить до прав людини,
04:06
and if we start taking down speech that makes us feel uncomfortable,
78
246997
3225
і якщо ми почнемо усувати дописи, які в нас викликають дискомфорт,
04:10
we're in trouble.
79
250246
1230
це небезпечний симптом.
04:11
And this might look like a clear-cut case,
80
251500
2294
Я навела дуже явний, очевидний приклад,
04:13
but, actually, most speech isn't.
81
253818
1698
але більшість дописів не такі.
04:15
These lines are incredibly difficult to draw.
82
255540
2436
Дуже важко провести чітку межу.
04:18
What's a well-meaning decision by one person
83
258000
2281
Те, що для когось є цілком виправданим рішенням,
04:20
is outright censorship to the next.
84
260305
2077
для іншого є відвертою цензурою.
04:22
What we now know is that this account, Texas Lone Star,
85
262759
2929
Зараз ми знаємо, що цей акаунт, Техаська Самотня Зірка,
04:25
was part of a wider Russian disinformation campaign,
86
265712
3230
був частиною ширшої російської дезінформаційної кампанії,
04:28
one that has since been taken down.
87
268966
2151
це один із акаунтів, які зрештою ліквідували.
04:31
Would that change your view?
88
271141
1563
Це змінює вашу думку?
04:33
It would mine,
89
273322
1159
Мою змінює,
04:34
because now it's a case of a coordinated campaign
90
274505
2301
бо це вже інша річ, тут скоординована кампанія,
04:36
to sow discord.
91
276830
1215
щоб сіяти розбрат.
04:38
And for those of you who'd like to think
92
278069
1961
Ті ж із вас, хто вважає,
04:40
that artificial intelligence will solve all of our problems,
93
280054
2831
що штучний інтелект вирішить всі наші проблеми,
04:42
I think we can agree that we're a long way away
94
282909
2225
думаю, погодяться, що ми ще дуже далеко
04:45
from AI that's able to make sense of posts like this.
95
285158
2587
від ШІ, який здатний буде розуміти такі дописи, як цей.
04:48
So I'd like to explain three interlocking issues
96
288856
2507
Тож я хочу висвітлити три взаємопов'язані проблеми,
04:51
that make this so complex
97
291387
2373
які роблять це завдання таким складним,
04:53
and then think about some ways we can consider these challenges.
98
293784
3122
і також обміркувати декотрі можливі підходи до цих викликів.
04:57
First, we just don't have a rational relationship to information,
99
297348
3890
Насамперед, наше ставлення до інформації є не раціональним,
05:01
we have an emotional one.
100
301262
1468
а емоційним.
05:02
It's just not true that more facts will make everything OK,
101
302754
3794
Ідея, що потрібно більше фактів, просто не відповідає дійсності,
05:06
because the algorithms that determine what content we see,
102
306572
3100
бо алгоритми, що визначають, який контент ми побачимо,
05:09
well, they're designed to reward our emotional responses.
103
309696
3127
розраховані на наші емоційні потреби.
05:12
And when we're fearful,
104
312847
1381
І коли ми відчуваємо страх,
05:14
oversimplified narratives, conspiratorial explanations
105
314252
3174
то спрощені пояснення, конспіративні теорії
05:17
and language that demonizes others is far more effective.
106
317450
3418
і ярлики, що демонізують інших, виявляються значно дієвішими.
05:21
And besides, many of these companies,
107
321538
1874
Крім того, чимало компаній
05:23
their business model is attached to attention,
108
323436
2546
використовують бізнес-модель, розраховану на емоції,
05:26
which means these algorithms will always be skewed towards emotion.
109
326006
3690
що означає, що в цих алгоритмах завжди буде перекіс на користь емоцій.
05:30
Second, most of the speech I'm talking about here is legal.
110
330371
4298
По-друге, більшість із того, про що я тут розповідаю, не порушує закон.
05:35
It would be a different matter
111
335081
1446
Інша річ, якби йшлося
05:36
if I was talking about child sexual abuse imagery
112
336551
2341
про дитячу порнографію
05:38
or content that incites violence.
113
338916
1927
чи заклики до насильства.
05:40
It can be perfectly legal to post an outright lie.
114
340867
3270
Поширення ж відвертої брехні може ніяк не суперечити закону.
05:45
But people keep talking about taking down "problematic" or "harmful" content,
115
345130
4034
Але люди подумують про блокування "проблемного" чи "шкідливого" контенту,
05:49
but with no clear definition of what they mean by that,
116
349188
2609
не наводячи при цьому чіткого визначення цих термінів.
05:51
including Mark Zuckerberg,
117
351821
1264
Як-от Марк Цукерберг,
05:53
who recently called for global regulation to moderate speech.
118
353109
3412
який недавно закликав створити глобальні принципи модерації.
05:56
And my concern is that we're seeing governments
119
356870
2215
Мене непокоїть, що владні інституції
05:59
right around the world
120
359109
1292
по всьому світу
06:00
rolling out hasty policy decisions
121
360425
2676
приймають поквапні політичні рішення,
06:03
that might actually trigger much more serious consequences
122
363125
2746
які можуть викликати значно серйозніші наслідки,
06:05
when it comes to our speech.
123
365895
1714
коли йдеться про свободу слова.
06:08
And even if we could decide which speech to take up or take down,
124
368006
3706
Та навіть якби ми могли вирішувати, які повідомлення блокувати,
06:11
we've never had so much speech.
125
371736
2174
ми б ніколи не змогли з цим впоратись.
06:13
Every second, millions of pieces of content
126
373934
2131
Щосекунди люди у всьому світі
06:16
are uploaded by people right around the world
127
376089
2107
розміщують мільйони нових повідомлень,
06:18
in different languages,
128
378220
1168
різними мовами,
06:19
drawing on thousands of different cultural contexts.
129
379412
2768
вплетені в тисячі різних культурних контекстів.
06:22
We've simply never had effective mechanisms
130
382204
2532
У нас просто ніколи б не було ефективних механізмів,
06:24
to moderate speech at this scale,
131
384760
1738
для модерації в такому масштабі,
06:26
whether powered by humans or by technology.
132
386522
2801
це завдання було б не під силу ні людям, ні технологіям.
06:30
And third, these companies -- Google, Twitter, Facebook, WhatsApp --
133
390284
3944
І, по-третє, ці компанії – Google, Twitter, Facebook, WhatsApp –
06:34
they're part of a wider information ecosystem.
134
394252
2841
є частиною ширшої інформаційної екосистеми.
06:37
We like to lay all the blame at their feet, but the truth is,
135
397117
3352
Ми любимо перекладати всю провину на них, але правда полягає в тому,
06:40
the mass media and elected officials can also play an equal role
136
400493
3830
що ЗМІ й урядовці при владі можуть відігравати не меншу роль
06:44
in amplifying rumors and conspiracies when they want to.
137
404347
2913
у поширенні чуток і конспіративних теорій, коли їм це вигідно.
06:47
As can we, when we mindlessly forward divisive or misleading content
138
407800
4944
І ми так само, коли бездумно репостимо образливу чи оманливу інформацію,
06:52
without trying.
139
412768
1285
не перевіряючи її.
06:54
We're adding to the pollution.
140
414077
1800
Ми сприяємо забрудненню.
06:57
I know we're all looking for an easy fix.
141
417236
2618
Я знаю, нам всім хочеться знайти простий вихід.
06:59
But there just isn't one.
142
419878
1667
Але його просто не існує.
07:01
Any solution will have to be rolled out at a massive scale, internet scale,
143
421950
4445
Будь-яке із пропонованих рішень має впроваджуватись у масовому масштабі,
07:06
and yes, the platforms, they're used to operating at that level.
144
426419
3261
на рівні Інтернету, і так, платформи теж діють на цьому рівні.
07:09
But can and should we allow them to fix these problems?
145
429704
3472
Але чи можемо і чи маємо ми їм дозволити вирішувати такі проблеми?
07:13
They're certainly trying.
146
433668
1232
Звісно, вони намагаються.
07:14
But most of us would agree that, actually, we don't want global corporations
147
434924
4086
Та більшість із нас згодні, що насправді ми не хочемо, щоб глобальні корпорації
07:19
to be the guardians of truth and fairness online.
148
439034
2332
здійснювали нагляд за правдивістю онлайн.
07:21
And I also think the platforms would agree with that.
149
441390
2537
Я думаю, що з цим погодяться і платформи.
07:24
And at the moment, they're marking their own homework.
150
444257
2881
На даний момент, вони працюють над своїми уроками.
07:27
They like to tell us
151
447162
1198
Вони люблять запевняти,
07:28
that the interventions they're rolling out are working,
152
448384
2579
що втручання, до яких вони вдаються, є дієвими,
07:30
but because they write their own transparency reports,
153
450987
2540
але оскільки вони спираються на власні внутрішні дані,
07:33
there's no way for us to independently verify what's actually happening.
154
453551
3618
у нас немає можливості незалежної перевірки, якою ж ситуація є насправді.
07:38
(Applause)
155
458431
3342
(Оплески)
07:41
And let's also be clear that most of the changes we see
156
461797
2952
Також слід усвідомлювати, що більшість змін стаються
07:44
only happen after journalists undertake an investigation
157
464773
2994
лише після того, коли журналісти здійснять розслідування
07:47
and find evidence of bias
158
467791
1611
і знайдуть упереджену інформацію,
07:49
or content that breaks their community guidelines.
159
469426
2829
чи контент, який порушує правила їхньої спільноти.
07:52
So yes, these companies have to play a really important role in this process,
160
472815
4595
Тож так, компанії мають відігравати значну роль у цьому процесі, але вони
07:57
but they can't control it.
161
477434
1560
не можуть його контролювати.
07:59
So what about governments?
162
479855
1518
А як щодо влади?
08:01
Many people believe that global regulation is our last hope
163
481863
3096
Багато хто вважає, що глобальне регулювання – наша остання надія,
08:04
in terms of cleaning up our information ecosystem.
164
484983
2880
коли йдеться про очистку нашої інформаційної екосистеми.
08:07
But what I see are lawmakers who are struggling to keep up to date
165
487887
3166
Але, за моїми спостереженнями, законодавці намагаються
08:11
with the rapid changes in technology.
166
491077
2341
бігти навздогін за швидкими змінами в технології.
08:13
And worse, they're working in the dark,
167
493442
1904
Гірше того, вони діють всліпу,
08:15
because they don't have access to data
168
495370
1821
бо їм бракує даних,
08:17
to understand what's happening on these platforms.
169
497215
2650
щоб зрозуміти, що ж діється на цих платформах.
08:20
And anyway, which governments would we trust to do this?
170
500260
3071
До того ж, урядам яких держав ми б це довірили?
08:23
We need a global response, not a national one.
171
503355
2770
Потрібна глобальна відповідь, а не національна.
08:27
So the missing link is us.
172
507419
2277
Отож, ланка, якої бракує – це ми.
08:29
It's those people who use these technologies every day.
173
509720
3123
Це ми використовуємо дані технології щодня.
08:33
Can we design a new infrastructure to support quality information?
174
513260
4591
Можемо ми створити нову інфраструктуру, щоб дбати про якість інформації?
08:38
Well, I believe we can,
175
518371
1230
Я вірю, що можемо,
08:39
and I've got a few ideas about what we might be able to actually do.
176
519625
3357
і в мене є кілька ідей, що ми справді можемо зробити.
08:43
So firstly, if we're serious about bringing the public into this,
177
523006
3103
По-перше, якщо ми хочемо залучити до цього публіку,
08:46
can we take some inspiration from Wikipedia?
178
526133
2381
чи не могли б ми скористатись досвідом Вікіпедії?
08:48
They've shown us what's possible.
179
528538
1824
Вона демонструє, що для нас можливо.
08:50
Yes, it's not perfect,
180
530386
1151
Так, вона не досконала,
08:51
but they've demonstrated that with the right structures,
181
531561
2634
але вона показує, що хороша структура,
08:54
with a global outlook and lots and lots of transparency,
182
534219
2635
глобальний масштаб і значна, дуже значна прозорість
08:56
you can build something that will earn the trust of most people.
183
536878
3096
дозволяє створити продукт, якому довірятиме більшість людей.
08:59
Because we have to find a way to tap into the collective wisdom
184
539998
3162
Адже нам потрібно знайти спосіб залучити колективну мудрість
09:03
and experience of all users.
185
543184
2309
і досвід усіх користувачів.
09:05
This is particularly the case for women, people of color
186
545517
2646
Особливо це стосується жінок, представників расових
09:08
and underrepresented groups.
187
548187
1346
та інших меншин.
09:09
Because guess what?
188
549557
1166
Здогадуєтесь, чому?
09:10
They are experts when it comes to hate and disinformation,
189
550747
2735
Вони експерти, коли йдеться про ненависть і дезінформацію,
09:13
because they have been the targets of these campaigns for so long.
190
553506
3516
адже вони тривалий час були жертвами таких кампаній.
09:17
And over the years, they've been raising flags,
191
557046
2350
Вони боролись роками,
09:19
and they haven't been listened to.
192
559420
1665
але їх не слухали.
09:21
This has got to change.
193
561109
1280
Це потрібно змінити.
09:22
So could we build a Wikipedia for trust?
194
562807
4326
Хіба нам не вдалось створити Вікіпедію на принципі довіри?
09:27
Could we find a way that users can actually provide insights?
195
567157
4189
Хіба не можна знайти спосіб справді враховувати думку користувачів?
09:31
They could offer insights around difficult content-moderation decisions.
196
571370
3697
В тому числі й думку щодо складних рішень з приводу модерації змісту.
09:35
They could provide feedback
197
575091
1463
Зворотній зв'язок користувачів
09:36
when platforms decide they want to roll out new changes.
198
576578
3041
міг би впливати на зміни, які впроваджуються на платформах.
09:40
Second, people's experiences with the information is personalized.
199
580241
4162
По-друге, наш досвід взаємодії з інформацією персоналізований.
09:44
My Facebook news feed is very different to yours.
200
584427
2643
Моя новинна стрічка у Фейсбуці дуже відмінна від вашої.
09:47
Your YouTube recommendations are very different to mine.
201
587094
2745
Вам YouTube рекомендує для перегляду інші відео, ніж мені.
09:49
That makes it impossible for us to actually examine
202
589863
2492
Це унеможливлює для нас перевірку того,
09:52
what information people are seeing.
203
592379
2023
яку інформацію люди бачать.
09:54
So could we imagine
204
594815
1389
Тож чи не могли б ми уявити
09:56
developing some kind of centralized open repository for anonymized data,
205
596228
4778
певний тип централізованого відкритого репозитарію анонімних даних,
10:01
with privacy and ethical concerns built in?
206
601030
2864
у якому враховано принципи етики й приватності?
10:04
Because imagine what we would learn
207
604220
1778
Адже уявіть, що б нам відкрилось,
10:06
if we built out a global network of concerned citizens
208
606022
3261
якби ми створили глобальну мережу небайдужих громадян,
10:09
who wanted to donate their social data to science.
209
609307
3294
які б хотіли передати свої соціальні дані для наукового використання.
10:13
Because we actually know very little
210
613141
1722
Наразі нам дуже мало відомо
10:14
about the long-term consequences of hate and disinformation
211
614887
2881
про довготривалий вплив ненависті й дезінформації
10:17
on people's attitudes and behaviors.
212
617792
1975
на установки й поведінку людей.
10:20
And what we do know,
213
620236
1167
А те, що нам відомо,
10:21
most of that has been carried out in the US,
214
621427
2193
спирається переважно на дані зі США,
10:23
despite the fact that this is a global problem.
215
623644
2381
попри те, що йдеться про глобальну проблему.
10:26
We need to work on that, too.
216
626049
1635
Тож нам треба працювати і над цим.
10:28
And third,
217
628192
1150
І, по-третє,
10:29
can we find a way to connect the dots?
218
629366
2310
чи можемо ми поєднати всіх?
10:31
No one sector, let alone nonprofit, start-up or government,
219
631700
3438
Жодний сектор, чи то громадський, чи стартапи, чи урядовий,
10:35
is going to solve this.
220
635162
1422
не може вирішити цю проблему.
10:36
But there are very smart people right around the world
221
636608
2564
Але по всьому світу є дуже розумні люди,
10:39
working on these challenges,
222
639196
1381
яких турбують ці виклики,
10:40
from newsrooms, civil society, academia, activist groups.
223
640601
3576
це журналісти, громадські діячі, науковці, активісти.
10:44
And you can see some of them here.
224
644201
1898
Ви бачите тут декотрих із них.
10:46
Some are building out indicators of content credibility.
225
646123
2927
Декотрі розробляють індикатори надійності контенту.
10:49
Others are fact-checking,
226
649074
1246
Інші є факт-чекерами,
10:50
so that false claims, videos and images can be down-ranked by the platforms.
227
650344
3591
вони допомагають платформам знижувати рейтинги хибних заяв, відео і зображень.
10:53
A nonprofit I helped to found, First Draft,
228
653959
2213
Я співзасновниця громадської організації First Draft,
10:56
is working with normally competitive newsrooms around the world
229
656196
2968
мета якої – допомогти редакціям з різних куточків світу
10:59
to help them build out investigative, collaborative programs.
230
659188
3503
створити дослідницькі програми, націлені на співпрацю.
11:03
And Danny Hillis, a software architect,
231
663231
2309
А Денні Гілліс, архітектор програмного забезпечення,
11:05
is designing a new system called The Underlay,
232
665564
2381
працює над новою системою під назвою The Underlay,
11:07
which will be a record of all public statements of fact
233
667969
2775
яка стане підбіркою всіх публічно озвучених фактів,
11:10
connected to their sources,
234
670768
1329
з посиланням на джерела,
11:12
so that people and algorithms can better judge what is credible.
235
672121
3654
тож люди й алгоритми зможуть краще визначати, що заслуговує на довіру.
11:16
And educators around the world are testing different techniques
236
676800
3356
А освітяни по всьому світу випробовують різні техніки,
11:20
for finding ways to make people critical of the content they consume.
237
680180
3484
щоб підвищити здатність людей критично сприймати інформацію.
11:24
All of these efforts are wonderful, but they're working in silos,
238
684633
3141
Вони роблять чудову роботу, але вони працюють розрізнено,
11:27
and many of them are woefully underfunded.
239
687798
2680
і чимало з них жахливо недофінансовані.
11:30
There are also hundreds of very smart people
240
690502
2053
А також сотні дуже розумних людей
11:32
working inside these companies,
241
692579
1652
працюють в цих компаніях,
11:34
but again, these efforts can feel disjointed,
242
694255
2325
та, знову ж таки, їхні зусилля нескоординовані,
11:36
because they're actually developing different solutions to the same problems.
243
696604
3937
бо вони насправді працюють над різними рішеннями одних і тих же проблем.
11:41
How can we find a way to bring people together
244
701205
2269
Чи можемо ми знайти спосіб зібрати цих людей
11:43
in one physical location for days or weeks at a time,
245
703498
3278
в одному просторі, на кілька днів чи тижнів,
11:46
so they can actually tackle these problems together
246
706800
2396
щоб вони змогли взятись за ці проблеми разом,
11:49
but from their different perspectives?
247
709220
1818
але виходячи зі своїх різних перспектив?
11:51
So can we do this?
248
711062
1340
Чи можемо ми це зробити?
11:52
Can we build out a coordinated, ambitious response,
249
712426
3239
Чи можемо ми запропонувати узгоджену, масштабну відповідь,
11:55
one that matches the scale and the complexity of the problem?
250
715689
3709
яка відповідатиме розмаху і складності проблеми?
11:59
I really think we can.
251
719819
1373
Я вважаю, ми справді можемо.
12:01
Together, let's rebuild our information commons.
252
721216
2959
Тож давайте разом перебудовувати наш інформаційний простір.
12:04
Thank you.
253
724819
1190
Дякую.
12:06
(Applause)
254
726033
3728
(Оплески)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7