How you can help transform the internet into a place of trust | Claire Wardle

53,671 views ・ 2019-11-15

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Yulia Alexeychuk Редактор: Yulia Kallistratova
00:13
No matter who you are or where you live,
0
13548
2516
Неважно, кто вы и где вы живёте,
00:16
I'm guessing that you have at least one relative
1
16088
2356
я думаю, что у вас есть хотя бы один родственник,
00:18
that likes to forward those emails.
2
18468
2334
который любит рассылать те самые сообщения.
00:21
You know the ones I'm talking about --
3
21206
1900
Вы понимаете, какие я имею в виду —
00:23
the ones with dubious claims or conspiracy videos.
4
23130
2854
те самые со спорными заявлениями и видео о теориях заговора.
00:26
And you've probably already muted them on Facebook
5
26315
2668
И, возможно, вы уже скрыли их публикации в Facebook
00:29
for sharing social posts like this one.
6
29007
2348
из-за постов, которыми они делятся.
00:31
It's an image of a banana
7
31379
1404
Здесь изображён банан,
00:32
with a strange red cross running through the center.
8
32807
2667
в центре которого странное красное пятно.
00:35
And the text around it is warning people
9
35498
2139
И текст над ним предупреждает людей,
00:37
not to eat fruits that look like this,
10
37661
2158
чтобы они не ели подобного рода фрукты,
00:39
suggesting they've been injected with blood
11
39843
2028
предполагая, что в них впрыснули кровь,
00:41
contaminated with the HIV virus.
12
41895
2130
заражённую ВИЧ-инфекцией.
00:44
And the social share message above it simply says,
13
44049
2603
И сверху в репосте просто написано:
00:46
"Please forward to save lives."
14
46676
2181
«Разошлите всем, чтобы спасти жизни».
00:49
Now, fact-checkers have been debunking this one for years,
15
49672
3294
Фактчекеры развенчивают этот слух уже годами,
00:52
but it's one of those rumors that just won't die.
16
52990
2809
но он из тех, что просто так не забываются.
00:55
A zombie rumor.
17
55823
1271
Зомби-слух.
00:57
And, of course, it's entirely false.
18
57513
2093
И, конечно же, он совершенно ложный.
01:00
It might be tempting to laugh at an example like this, to say,
19
60180
2959
И, может быть, сложно не засмеяться над подобным примером:
01:03
"Well, who would believe this, anyway?"
20
63163
1884
«Ну кто в такое поверит?»
01:05
But the reason it's a zombie rumor
21
65419
1626
Но слух этот зомбирует потому,
01:07
is because it taps into people's deepest fears about their own safety
22
67069
3889
что пробуждает самые потаённые страхи людей за свою безопасность
01:10
and that of the people they love.
23
70982
2175
и безопасность тех, кого они любят.
01:13
And if you spend as enough time as I have looking at misinformation,
24
73783
3273
А если вы прочитаете так же много ложной информации, как и я,
01:17
you know that this is just one example of many
25
77080
2420
вы увидите, что это лишь один пример из многих,
01:19
that taps into people's deepest fears and vulnerabilities.
26
79524
3047
что пробуждают самые потаённые страхи и слабости людей.
01:23
Every day, across the world, we see scores of new memes on Instagram
27
83214
4369
Каждый день по всему миру публикуются всё новые и новые посты в Instagram,
01:27
encouraging parents not to vaccinate their children.
28
87607
3039
которые призывают родителей не делать прививки своим детям.
01:30
We see new videos on YouTube explaining that climate change is a hoax.
29
90670
4532
А в новых видео на Youtube объясняют, что изменения климата — это «утка».
01:35
And across all platforms, we see endless posts designed to demonize others
30
95226
4302
И на всех платформах мы видим бесконечные посты, оскорбляющие других
01:39
on the basis of their race, religion or sexuality.
31
99552
3501
по признаку их расы, религии или сексуальной ориентации.
01:44
Welcome to one of the central challenges of our time.
32
104314
3030
Представляю вам одну из ключевых задач нашего времени.
01:47
How can we maintain an internet with freedom of expression at the core,
33
107647
4025
Как мы можем сохранить в основе интернета свободу слова
01:51
while also ensuring that the content that's being disseminated
34
111696
3303
и при этом сделать так, чтобы распространяемый контент
01:55
doesn't cause irreparable harms to our democracies, our communities
35
115023
3886
не причинял непоправимый вред нашей демократии, нашему обществу
01:58
and to our physical and mental well-being?
36
118933
2238
и нашему физическому и душевному благополучию?
02:01
Because we live in the information age,
37
121998
2087
Поскольку мы живём в век информации,
02:04
yet the central currency upon which we all depend -- information --
38
124109
3547
основная валюта, от которой все мы зависим, — информация —
02:07
is no longer deemed entirely trustworthy
39
127680
2357
больше не считается в полной мере надёжной,
02:10
and, at times, can appear downright dangerous.
40
130061
2328
а порой она может быть просто опасной.
02:12
This is thanks in part to the runaway growth of social sharing platforms
41
132811
3937
Отчасти это благодаря стремительному росту обмена в соцсетях,
02:16
that allow us to scroll through,
42
136772
1642
который позволяет нам пролистывать
02:18
where lies and facts sit side by side,
43
138438
2222
ленту, где ложь и правда стоят бок о бок,
02:20
but with none of the traditional signals of trustworthiness.
44
140684
3071
без единого привычного признака надёжности.
02:24
And goodness -- our language around this is horribly muddled.
45
144268
3619
И о боже — наш язык в этой теме ужасно запутан.
02:27
People are still obsessed with the phrase "fake news,"
46
147911
3103
Люди одержимы этой фразой «фейковые новости»,
02:31
despite the fact that it's extraordinarily unhelpful
47
151038
2531
несмотря на то, что она абсолютно бесполезная
02:33
and used to describe a number of things that are actually very different:
48
153593
3460
и обозначает несколько понятий, которые на самом деле сильно различаются:
02:37
lies, rumors, hoaxes, conspiracies, propaganda.
49
157077
3386
ложь, слухи, «утки», заговоры, пропаганда.
02:40
And I really wish we could stop using a phrase
50
160911
2912
И я бы хотела, чтобы мы перестали использовать фразу,
02:43
that's been co-opted by politicians right around the world,
51
163847
2862
которую применяют политики по всему миру,
02:46
from the left and the right,
52
166733
1471
от левых до правых,
02:48
used as a weapon to attack a free and independent press.
53
168228
3222
в качестве оружия против свободной и независимой прессы.
02:52
(Applause)
54
172307
4702
(Аплодисменты)
02:57
Because we need our professional news media now more than ever.
55
177033
3462
Ведь сейчас мы нуждаемся в наших профессиональных СМИ как никогда.
03:00
And besides, most of this content doesn't even masquerade as news.
56
180882
3373
И кроме того, бóльшую часть контента не маскируют под новости.
03:04
It's memes, videos, social posts.
57
184279
2642
Это мемы, видео, посты.
03:06
And most of it is not fake; it's misleading.
58
186945
3453
И бóльшая часть из них не фейк; они просто вводят нас в заблуждение.
03:10
We tend to fixate on what's true or false.
59
190422
3015
Мы привыкли заострять внимание на том, что верно или неверно.
03:13
But the biggest concern is actually the weaponization of context.
60
193461
4032
Но самая большая проблема — это применение контекста в качестве оружия.
03:18
Because the most effective disinformation
61
198855
1968
Потому что самой эффективной
03:20
has always been that which has a kernel of truth to it.
62
200847
3048
дезинформацией всегда была та, в которой есть доля правды.
03:23
Let's take this example from London, from March 2017,
63
203919
3476
Возьмём вот этот пример из Лондона, март 2017 года,
03:27
a tweet that circulated widely
64
207419
1540
твит, широко распространённый
03:28
in the aftermath of a terrorist incident on Westminster Bridge.
65
208983
3587
вследствие теракта на Вестминстерском мосту.
03:32
This is a genuine image, not fake.
66
212594
2428
Это настоящая фотография, не фейк.
03:35
The woman who appears in the photograph was interviewed afterwards,
67
215046
3169
Потом у женщины с этой фотографии взяли интервью,
03:38
and she explained that she was utterly traumatized.
68
218239
2409
и она объяснила, что была глубоко шокирована.
03:40
She was on the phone to a loved one,
69
220672
1738
По телефону она говорила с близкими
03:42
and she wasn't looking at the victim out of respect.
70
222434
2618
и не смотрела на жертву из уважения.
03:45
But it still was circulated widely with this Islamophobic framing,
71
225076
3960
Но этот твит по-прежнему распространяли в исламофобском ключе
03:49
with multiple hashtags, including: #BanIslam.
72
229060
3046
с множеством хэштегов, включая #BanIslam («Запретить ислам»).
03:52
Now, if you worked at Twitter, what would you do?
73
232425
2398
Если бы вы работали в Твиттере, что бы вы сделали?
03:54
Would you take that down, or would you leave it up?
74
234847
2562
Вы бы его удалили или оставили?
03:58
My gut reaction, my emotional reaction, is to take this down.
75
238553
3429
Моей инстинктивной, эмоциональной реакцией было бы удалить это.
04:02
I hate the framing of this image.
76
242006
2142
Я против того, в каком ключе это представлено.
04:04
But freedom of expression is a human right,
77
244585
2388
Но свобода слова — это право человека,
04:06
and if we start taking down speech that makes us feel uncomfortable,
78
246997
3225
и если мы начнём удалять высказывания, от которых нам некомфортно,
04:10
we're in trouble.
79
250246
1230
то мы окажемся в беде.
04:11
And this might look like a clear-cut case,
80
251500
2294
И этот случай может показаться очевидным,
04:13
but, actually, most speech isn't.
81
253818
1698
но чаще всего это не так.
04:15
These lines are incredibly difficult to draw.
82
255540
2436
И границы невероятно сложно провести.
04:18
What's a well-meaning decision by one person
83
258000
2281
То, что для одного человека решение во благо,
04:20
is outright censorship to the next.
84
260305
2077
для другого — явная цензура.
04:22
What we now know is that this account, Texas Lone Star,
85
262759
2929
Мы знаем, что аккаунт Texas Lone Star
04:25
was part of a wider Russian disinformation campaign,
86
265712
3230
был частью более широкой российской кампании по дезинформации,
04:28
one that has since been taken down.
87
268966
2151
который после этого был удалён.
04:31
Would that change your view?
88
271141
1563
Изменило бы это ваш взгляд?
04:33
It would mine,
89
273322
1159
Мой бы изменило,
04:34
because now it's a case of a coordinated campaign
90
274505
2301
потому что теперь это случай намеренной кампании
04:36
to sow discord.
91
276830
1215
с целью сеять распри.
04:38
And for those of you who'd like to think
92
278069
1961
А те из вас, кому хотелось бы думать,
04:40
that artificial intelligence will solve all of our problems,
93
280054
2831
что искусственный интеллект решит все наши проблемы,
04:42
I think we can agree that we're a long way away
94
282909
2225
думаю, вы согласитесь, что нам ещё далеко
04:45
from AI that's able to make sense of posts like this.
95
285158
2587
до ИИ, который бы смог осмыслить подобные посты.
04:48
So I'd like to explain three interlocking issues
96
288856
2507
Я хотела бы объяснить три взаимосвязанных аспекта,
04:51
that make this so complex
97
291387
2373
которые всё это сильно усложняют,
04:53
and then think about some ways we can consider these challenges.
98
293784
3122
и затем поразмышлять о том, как мы можем эти задачи решить.
04:57
First, we just don't have a rational relationship to information,
99
297348
3890
Во-первых, у нас нет рациональных взаимоотношений с информацией,
05:01
we have an emotional one.
100
301262
1468
а есть лишь эмоциональные.
05:02
It's just not true that more facts will make everything OK,
101
302754
3794
И большее количество фактов ситуацию не улучшит,
05:06
because the algorithms that determine what content we see,
102
306572
3100
ведь алгоритмы, которые определяют контент в нашей ленте, —
05:09
well, they're designed to reward our emotional responses.
103
309696
3127
что ж, они призваны поощрять наши эмоциональные порывы.
05:12
And when we're fearful,
104
312847
1381
А когда мы напуганы,
05:14
oversimplified narratives, conspiratorial explanations
105
314252
3174
поверхностная информация, объяснения заговоров
05:17
and language that demonizes others is far more effective.
106
317450
3418
и уничижающие других слова более чем эффективны.
05:21
And besides, many of these companies,
107
321538
1874
Кроме того, у многих из этих компаний
05:23
their business model is attached to attention,
108
323436
2546
бизнес-модель связана с вниманием,
05:26
which means these algorithms will always be skewed towards emotion.
109
326006
3690
что означает: эти алгоритмы всегда будут склоняться в сторону эмоций.
05:30
Second, most of the speech I'm talking about here is legal.
110
330371
4298
Во-вторых, бóльшая часть высказываний, о которых я говорю, законны.
05:35
It would be a different matter
111
335081
1446
И было бы совсем другое дело,
05:36
if I was talking about child sexual abuse imagery
112
336551
2341
если бы я говорила о растлении детей
05:38
or content that incites violence.
113
338916
1927
или о контенте, провоцирующем насилие.
05:40
It can be perfectly legal to post an outright lie.
114
340867
3270
Публиковать откровенную ложь может быть совершенно законно.
05:45
But people keep talking about taking down "problematic" or "harmful" content,
115
345130
4034
Но люди продолжают говорить об удалении «проблемного» или «вредоносного» контента,
05:49
but with no clear definition of what they mean by that,
116
349188
2609
причём не давая чёткого определения тому, о чём говорят,
05:51
including Mark Zuckerberg,
117
351821
1264
включая Марка Цукерберга,
05:53
who recently called for global regulation to moderate speech.
118
353109
3412
который недавно призывал разработать единые правила регулирования сети.
05:56
And my concern is that we're seeing governments
119
356870
2215
И я обеспокоена тем, что у нас на глазах
05:59
right around the world
120
359109
1292
государства по всему миру
06:00
rolling out hasty policy decisions
121
360425
2676
принимают поспешные политические решения,
06:03
that might actually trigger much more serious consequences
122
363125
2746
которые могут повлечь намного более серьёзные последствия
06:05
when it comes to our speech.
123
365895
1714
в отношении свободы слова.
06:08
And even if we could decide which speech to take up or take down,
124
368006
3706
И даже если бы мы могли решить, какое высказывание удалить или оставить,
06:11
we've never had so much speech.
125
371736
2174
у нас никогда их не было в таком количестве.
06:13
Every second, millions of pieces of content
126
373934
2131
Каждую секунду люди со всего мира
06:16
are uploaded by people right around the world
127
376089
2107
загружают миллионы единиц контента
06:18
in different languages,
128
378220
1168
на разных языках,
06:19
drawing on thousands of different cultural contexts.
129
379412
2768
относящихся к тысячам разных культурных контекстов.
06:22
We've simply never had effective mechanisms
130
382204
2532
У нас просто никогда не было эффективных механизмов
06:24
to moderate speech at this scale,
131
384760
1738
проверки постов в таком масштабе,
06:26
whether powered by humans or by technology.
132
386522
2801
с которыми бы справились люди или технологии.
06:30
And third, these companies -- Google, Twitter, Facebook, WhatsApp --
133
390284
3944
И в-третьих, эти компании — Google, Twitter, Facebook, WhatsApp —
06:34
they're part of a wider information ecosystem.
134
394252
2841
являются частью более широкой информационной экосистемы.
06:37
We like to lay all the blame at their feet, but the truth is,
135
397117
3352
Мы любим возлагать всю вину на них, но правда в том,
06:40
the mass media and elected officials can also play an equal role
136
400493
3830
что СМИ и депутаты могут играть такую же роль
06:44
in amplifying rumors and conspiracies when they want to.
137
404347
2913
в распространении слухов и заговоров, когда они этого захотят.
06:47
As can we, when we mindlessly forward divisive or misleading content
138
407800
4944
Как и мы, когда бездумно рассылаем спорный или недостоверный контент
06:52
without trying.
139
412768
1285
без особых усилий.
06:54
We're adding to the pollution.
140
414077
1800
Мы способствуем засорению.
06:57
I know we're all looking for an easy fix.
141
417236
2618
Я знаю, что все мы ищем простое решение.
06:59
But there just isn't one.
142
419878
1667
Но такого нет.
07:01
Any solution will have to be rolled out at a massive scale, internet scale,
143
421950
4445
Любое решение должно применяться глобально в масштабе интернета,
07:06
and yes, the platforms, they're used to operating at that level.
144
426419
3261
и да, эти платформы привыкли действовать на этом уровне.
07:09
But can and should we allow them to fix these problems?
145
429704
3472
Но можем ли и должны ли мы позволять им решать эти проблемы?
07:13
They're certainly trying.
146
433668
1232
Они, безусловно, стараются.
07:14
But most of us would agree that, actually, we don't want global corporations
147
434924
4086
Но большинство из нас согласится, мы не хотим, чтобы всемирные корпорации
07:19
to be the guardians of truth and fairness online.
148
439034
2332
стояли на страже правды и справедливости в сети.
07:21
And I also think the platforms would agree with that.
149
441390
2537
И я также думаю, что платформы с этим согласятся.
07:24
And at the moment, they're marking their own homework.
150
444257
2881
И в настоящий момент они выполняют своё домашнее задание.
07:27
They like to tell us
151
447162
1198
Они любят говорить нам,
07:28
that the interventions they're rolling out are working,
152
448384
2579
что изменения, которые они проводят, работают,
07:30
but because they write their own transparency reports,
153
450987
2540
но они пишут собственные отчёты о прозрачности,
07:33
there's no way for us to independently verify what's actually happening.
154
453551
3618
и у нас нет возможности самим проверить, как обстоят дела в действительности.
07:38
(Applause)
155
458431
3342
(Аплодисменты)
07:41
And let's also be clear that most of the changes we see
156
461797
2952
И будем честны, бóльшую часть изменений мы видим
07:44
only happen after journalists undertake an investigation
157
464773
2994
лишь после того, как журналисты предпринимают расследование
07:47
and find evidence of bias
158
467791
1611
и находят доказательства
07:49
or content that breaks their community guidelines.
159
469426
2829
предвзятости или контент, нарушающий правила их платформы.
07:52
So yes, these companies have to play a really important role in this process,
160
472815
4595
Так что да, эти компании должны сыграть очень важную роль в этом процессе,
07:57
but they can't control it.
161
477434
1560
но они не должны им управлять.
07:59
So what about governments?
162
479855
1518
Что насчёт государств?
08:01
Many people believe that global regulation is our last hope
163
481863
3096
Многие верят, что единое регулирование — наша последняя надежда
08:04
in terms of cleaning up our information ecosystem.
164
484983
2880
в рамках очищения нашей информационной экосистемы.
08:07
But what I see are lawmakers who are struggling to keep up to date
165
487887
3166
Но что я вижу, так это законотворцев, пытающихся идти в ногу
08:11
with the rapid changes in technology.
166
491077
2341
с быстрым развитием технологий.
08:13
And worse, they're working in the dark,
167
493442
1904
И что хуже, они работают вслепую,
08:15
because they don't have access to data
168
495370
1821
потому что у них нет доступа к данным,
08:17
to understand what's happening on these platforms.
169
497215
2650
чтобы понять, что происходит на этих платформах.
08:20
And anyway, which governments would we trust to do this?
170
500260
3071
К тому же, каким государствам мы бы доверились в этом вопросе?
08:23
We need a global response, not a national one.
171
503355
2770
Нам нужно действовать на мировом уровне, а не национальном.
08:27
So the missing link is us.
172
507419
2277
Так что недостающее звено — это мы.
08:29
It's those people who use these technologies every day.
173
509720
3123
Те люди, что используют эти технологии каждый день.
08:33
Can we design a new infrastructure to support quality information?
174
513260
4591
Можем ли мы создать новую инфраструктуру, чтобы защитить качественную информацию?
08:38
Well, I believe we can,
175
518371
1230
Что ж, я верю в это,
08:39
and I've got a few ideas about what we might be able to actually do.
176
519625
3357
и у меня есть несколько идей о том, что мы могли бы сделать.
08:43
So firstly, if we're serious about bringing the public into this,
177
523006
3103
Во-первых, если мы всерьёз хотим вовлечь в это общественность,
08:46
can we take some inspiration from Wikipedia?
178
526133
2381
почему бы не взять пример с Википедии?
08:48
They've shown us what's possible.
179
528538
1824
Они показали нам, что возможно.
08:50
Yes, it's not perfect,
180
530386
1151
Да, она не идеальна,
08:51
but they've demonstrated that with the right structures,
181
531561
2634
но они показали, что с правильными структурами,
08:54
with a global outlook and lots and lots of transparency,
182
534219
2635
глобальным видением и высокой степенью прозрачности
08:56
you can build something that will earn the trust of most people.
183
536878
3096
можно создать то, что заслужит доверие многих людей.
08:59
Because we have to find a way to tap into the collective wisdom
184
539998
3162
Ведь мы должны найти способ проникнуть в коллективную мудрость
09:03
and experience of all users.
185
543184
2309
и опыт всех пользователей.
09:05
This is particularly the case for women, people of color
186
545517
2646
Особенно это актуально для женщин, «цветных» людей
09:08
and underrepresented groups.
187
548187
1346
и недопредставленных групп.
09:09
Because guess what?
188
549557
1166
Потому что знаете что?
09:10
They are experts when it comes to hate and disinformation,
189
550747
2735
Они эксперты по части ненависти и дезинформации,
09:13
because they have been the targets of these campaigns for so long.
190
553506
3516
потому что они так долго были мишенями этих кампаний.
09:17
And over the years, they've been raising flags,
191
557046
2350
И в течение этих лет они поднимали флаги,
09:19
and they haven't been listened to.
192
559420
1665
но никто их не слушал.
09:21
This has got to change.
193
561109
1280
Это должно измениться.
09:22
So could we build a Wikipedia for trust?
194
562807
4326
Так смогли бы мы создать Википедию, основанную на доверии?
09:27
Could we find a way that users can actually provide insights?
195
567157
4189
Смогли бы мы найти способ, чтобы пользователи могли предлагать идеи?
09:31
They could offer insights around difficult content-moderation decisions.
196
571370
3697
Они могли бы предлагать идеи по сложным решениям в модерации контента.
09:35
They could provide feedback
197
575091
1463
Они могли бы давать отклик,
09:36
when platforms decide they want to roll out new changes.
198
576578
3041
когда платформы решат, что хотят внести новые изменения.
09:40
Second, people's experiences with the information is personalized.
199
580241
4162
Во-вторых, у людей индивидуальные отношения с информацией.
09:44
My Facebook news feed is very different to yours.
200
584427
2643
Моя лента в Facebook сильно отличается от вашей.
09:47
Your YouTube recommendations are very different to mine.
201
587094
2745
Ваши рекомендации в Youtube сильно отличаются от моих.
09:49
That makes it impossible for us to actually examine
202
589863
2492
Из-за этого мы не можем по-настоящему проверить,
09:52
what information people are seeing.
203
592379
2023
какую информацию видят люди.
09:54
So could we imagine
204
594815
1389
Но что если бы мы
09:56
developing some kind of centralized open repository for anonymized data,
205
596228
4778
разработали что-то вроде централизованной открытой базы анонимных данных
10:01
with privacy and ethical concerns built in?
206
601030
2864
с сохранением конфиденциальности и соблюдением этики?
10:04
Because imagine what we would learn
207
604220
1778
Ведь представьте, что мы узнали бы,
10:06
if we built out a global network of concerned citizens
208
606022
3261
создай мы всемирную сеть заинтересованных граждан,
10:09
who wanted to donate their social data to science.
209
609307
3294
желающих пожертвовать свои социальные данные науке.
10:13
Because we actually know very little
210
613141
1722
Ведь на самом деле мы мало знаем
10:14
about the long-term consequences of hate and disinformation
211
614887
2881
о долгосрочных последствиях ненависти и дезинформации
10:17
on people's attitudes and behaviors.
212
617792
1975
в отношениях и поведении людей.
10:20
And what we do know,
213
620236
1167
А то, что нам известно,
10:21
most of that has been carried out in the US,
214
621427
2193
по большей части исследовано в США,
10:23
despite the fact that this is a global problem.
215
623644
2381
несмотря на то, что это всемирная проблема.
10:26
We need to work on that, too.
216
626049
1635
Нам тоже нужно работать над этим.
10:28
And third,
217
628192
1150
И в-третьих,
10:29
can we find a way to connect the dots?
218
629366
2310
можно ли найти способ связать всё это воедино?
10:31
No one sector, let alone nonprofit, start-up or government,
219
631700
3438
Ни один сектор, тем более некоммерческий, стартап или государство,
10:35
is going to solve this.
220
635162
1422
не решат эту проблему.
10:36
But there are very smart people right around the world
221
636608
2564
Но по всему миру находятся очень умные люди,
10:39
working on these challenges,
222
639196
1381
работающие над этим,
10:40
from newsrooms, civil society, academia, activist groups.
223
640601
3576
из редакций, гражданского общества, академии, групп активистов.
10:44
And you can see some of them here.
224
644201
1898
Некоторых из них вы видите здесь.
10:46
Some are building out indicators of content credibility.
225
646123
2927
Одни определяют факторы надёжности контента.
10:49
Others are fact-checking,
226
649074
1246
Другие проверяют факты,
10:50
so that false claims, videos and images can be down-ranked by the platforms.
227
650344
3591
чтобы платформы могли снизить охват ложных утверждений, видео и картинок.
10:53
A nonprofit I helped to found, First Draft,
228
653959
2213
НКО First Draft, которую я помогла основать,
10:56
is working with normally competitive newsrooms around the world
229
656196
2968
работает с конкурентноспособными редакциями по всему миру,
10:59
to help them build out investigative, collaborative programs.
230
659188
3503
чтобы помочь им создать исследовательские коллективные программы.
11:03
And Danny Hillis, a software architect,
231
663231
2309
И Дэнни Хиллис, разработчик структуры ПО,
11:05
is designing a new system called The Underlay,
232
665564
2381
работает над новой системой The Underlay,
11:07
which will be a record of all public statements of fact
233
667969
2775
которая будет содержать записи всех публичных утверждений
11:10
connected to their sources,
234
670768
1329
с указанием их источника,
11:12
so that people and algorithms can better judge what is credible.
235
672121
3654
так люди и алгоритмы смогут лучше оценить, чему можно доверять.
11:16
And educators around the world are testing different techniques
236
676800
3356
А эксперты по образованию во всём мире тестируют разные методы,
11:20
for finding ways to make people critical of the content they consume.
237
680180
3484
чтобы научить людей критически относиться к потребляемому контенту.
11:24
All of these efforts are wonderful, but they're working in silos,
238
684633
3141
Все эти усилия чудесны, но они действуют разрозненно,
11:27
and many of them are woefully underfunded.
239
687798
2680
и многие из них крайне мало финансируются.
11:30
There are also hundreds of very smart people
240
690502
2053
К тому же есть сотни очень умных людей,
11:32
working inside these companies,
241
692579
1652
работающих внутри этих компаний,
11:34
but again, these efforts can feel disjointed,
242
694255
2325
но опять же, эти усилия разрозненны,
11:36
because they're actually developing different solutions to the same problems.
243
696604
3937
потому что по сути они предлагают разные решения для одной и той же проблемы.
11:41
How can we find a way to bring people together
244
701205
2269
Как нам найти способ собрать людей вместе
11:43
in one physical location for days or weeks at a time,
245
703498
3278
в одном физическом пространстве на дни и недели за раз,
11:46
so they can actually tackle these problems together
246
706800
2396
чтобы они могли решать эти проблемы вместе,
11:49
but from their different perspectives?
247
709220
1818
но с разных точек зрения?
11:51
So can we do this?
248
711062
1340
Так можем ли мы это сделать?
11:52
Can we build out a coordinated, ambitious response,
249
712426
3239
Можем ли мы создать совместное перспективное решение,
11:55
one that matches the scale and the complexity of the problem?
250
715689
3709
которое бы соотносилось с масштабом и сложностью проблемы?
11:59
I really think we can.
251
719819
1373
Я думаю, что мы можем.
12:01
Together, let's rebuild our information commons.
252
721216
2959
Давайте вместе изменим нашу общую информационную систему.
12:04
Thank you.
253
724819
1190
Спасибо.
12:06
(Applause)
254
726033
3728
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7