How Twitter needs to change | Jack Dorsey

183,583 views ・ 2019-06-07

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Tatiana Lebedeva Редактор: Yulia Kallistratova
00:13
Chris Anderson: What worries you right now?
0
13131
2408
Крис Андерсон: Что вас сейчас беспокоит?
00:15
You've been very open about lots of issues on Twitter.
1
15563
2853
Вы так открыто говорили о многих проблемах на Твиттере.
00:18
What would be your top worry
2
18440
2299
Что волнует вас прежде всего
00:20
about where things are right now?
3
20763
2049
в нынешнем положении вещей?
00:23
Jack Dorsey: Right now, the health of the conversation.
4
23447
2929
Джек Дорси: В данный момент — это здоровье диалога.
00:26
So, our purpose is to serve the public conversation,
5
26400
3660
Наша задача — служить общественному диалогу,
00:30
and we have seen a number of attacks on it.
6
30084
5056
и мы видели, как он подвергается различным атакам.
00:35
We've seen abuse, we've seen harassment,
7
35164
2425
Мы видели оскорбления и запугивание,
00:37
we've seen manipulation,
8
37613
3222
видели манипулирование,
00:40
automation, human coordination, misinformation.
9
40859
4265
автоматизацию, групповые действия, дезинформацию.
00:46
So these are all dynamics that we were not expecting
10
46134
4034
Всё это — процессы, которых мы не предвидели,
00:50
13 years ago when we were starting the company.
11
50192
3718
когда создавали нашу компанию 13 лет назад.
00:53
But we do now see them at scale,
12
53934
2664
Сейчас мы видим их в огромных масштабах,
00:56
and what worries me most is just our ability to address it
13
56622
5278
и прежде всего меня беспокоит вопрос, сможем ли мы найти способ
01:01
in a systemic way that is scalable,
14
61924
3108
бороться с этим системно и масштабно,
01:05
that has a rigorous understanding of how we're taking action,
15
65056
6976
с чётким пониманием того, какие именно действия мы предпринимаем,
01:12
a transparent understanding of how we're taking action
16
72056
3105
с ясным представлением о том, как мы действуем,
01:15
and a rigorous appeals process for when we're wrong,
17
75185
3101
и с чётким апелляционным процессом на случай нашей неправоты,
01:18
because we will be wrong.
18
78310
2169
потому что мы будем неправы.
01:20
Whitney Pennington Rodgers: I'm really glad to hear
19
80503
2397
Уитни Пеннингтон Роджерс: Я рада слышать,
01:22
that that's something that concerns you,
20
82924
1928
что вы думаете об этом,
01:24
because I think there's been a lot written about people
21
84876
2630
потому что есть много случаев, когда люди чувствуют,
01:27
who feel they've been abused and harassed on Twitter,
22
87530
2477
что они подверглись нападкам и оскорблениям на Твиттере,
01:30
and I think no one more so than women and women of color
23
90031
4102
и чаще всего это затрагивает женщин различных национальностей,
включая темнокожих женщин.
01:34
and black women.
24
94157
1170
01:35
And there's been data that's come out --
25
95351
1913
И мы получили больше новых данных:
01:37
Amnesty International put out a report a few months ago
26
97288
2909
Amnesty International опубликовала доклад пару месяцев назад,
01:40
where they showed that a subset of active black female Twitter users
27
100221
4480
который показал, что подборка темнокожих женщин, активно использующих Твиттер,
01:44
were receiving, on average, one in 10 of their tweets
28
104725
3456
в среднем получала оскорбления в реакциях
01:48
were some form of harassment.
29
108205
2099
к одному из десяти твиттов.
01:50
And so when you think about health for the community on Twitter,
30
110328
3907
Так что когда вы говорите о здоровье сообщества Твиттера,
01:54
I'm interested to hear, "health for everyone,"
31
114259
4024
мне бы хотелось услышать: «здоровье для каждого»,
01:58
but specifically: How are you looking to make Twitter a safe space
32
118307
3125
и в особенности, как вы представляете превращение Твиттера
02:01
for that subset, for women, for women of color and black women?
33
121456
4164
в безопасное место для женщин, женщин различных рас, для темнокожих женщин?
02:05
JD: Yeah.
34
125644
1164
ДД: Так...
02:06
So it's a pretty terrible situation
35
126832
2643
Да, это возмутительно,
02:09
when you're coming to a service
36
129499
1619
когда вы приходите за тем,
02:11
that, ideally, you want to learn something about the world,
37
131142
4321
чтобы узнать что-то новое о мире,
02:15
and you spend the majority of your time reporting abuse, receiving abuse,
38
135487
5443
а в итоге проводите бóльшую часть времени, сообщая об оскорблениях,
02:20
receiving harassment.
39
140954
1804
нападках и угрозах в ваш адрес.
02:23
So what we're looking most deeply at is just the incentives
40
143373
6321
Так что сейчас мы особенно пристально наблюдаем за стимулами,
02:29
that the platform naturally provides and the service provides.
41
149718
3823
которое эта платформа предоставляет естественным образом.
02:34
Right now, the dynamic of the system makes it super-easy to harass
42
154262
4577
В настоящий момент система позволяет с лёгкостью
02:38
and to abuse others through the service,
43
158863
3664
оскорблять и преследовать других пользователей,
02:42
and unfortunately, the majority of our system in the past
44
162551
3262
и, к сожалению, в прошлом наша система полностью полагалась
02:45
worked entirely based on people reporting harassment and abuse.
45
165837
5596
на то, чтобы пользователи сообщали о нападках и оскорблении.
02:51
So about midway last year, we decided that we were going to apply
46
171457
5075
Примерно в половине прошлого года мы решили начать применять
02:56
a lot more machine learning, a lot more deep learning to the problem,
47
176556
3982
намного больше машинного обучения и в разы больше глубокого обучения
03:00
and try to be a lot more proactive around where abuse is happening,
48
180562
4538
и стараться предупреждать события, когда дело доходит до оскорблений,
03:05
so that we can take the burden off the victim completely.
49
185124
3960
для того, чтобы мы могли целиком снять груз с плеч жертвы.
03:09
And we've made some progress recently.
50
189108
2435
Недавно у нас появились первые успехи.
03:11
About 38 percent of abusive tweets are now proactively identified
51
191567
6689
Примерно 38% твитов оскорбительного характера уже проактивно распознано
03:18
by machine learning algorithms
52
198280
1715
при помощи машинного обучения,
03:20
so that people don't actually have to report them.
53
200019
2334
так что о них не придётся сообщать.
03:22
But those that are identified are still reviewed by humans,
54
202377
3305
Но даже те, что уже распознаны, всё равно потом проверяют люди,
03:25
so we do not take down content or accounts without a human actually reviewing it.
55
205706
5384
так что мы не удаляем контент или аккаунты без прямого рассмотрения человеком.
03:31
But that was from zero percent just a year ago.
56
211114
2759
И это подъём с нуля процентов год назад.
03:33
So that meant, at that zero percent,
57
213897
1931
Ноль процентов означало то, что каждому,
03:35
every single person who received abuse had to actually report it,
58
215852
3650
кто столкнулся с оскорблениями, приходилось сообщать о них,
03:39
which was a lot of work for them, a lot of work for us
59
219526
3579
что означало много работы для них, много — для нас,
03:43
and just ultimately unfair.
60
223129
2018
и было совершенно несправедливо.
03:46
The other thing that we're doing is making sure that we, as a company,
61
226528
3780
Помимо этого, нам как компании нужно позаботиться о том, что мы
03:50
have representation of all the communities that we're trying to serve.
62
230332
3333
представляем интересы всех сообществ, для которых мы работаем.
03:53
We can't build a business that is successful
63
233689
2159
Мы не сможем построить успешный бизнес
03:55
unless we have a diversity of perspective inside of our walls
64
235872
3300
до тех пор, пока он не будет основан на многообразии взглядов нашего сообщества,
03:59
that actually feel these issues every single day.
65
239196
3732
которое действительно сталкивается с этими проблемами.
04:02
And that's not just with the team that's doing the work,
66
242952
3738
И я не говорю только о команде тех, кто делает эту работу,
04:06
it's also within our leadership as well.
67
246714
2096
это касается и нашего руководства.
04:08
So we need to continue to build empathy for what people are experiencing
68
248834
5757
Нам необходимо научиться сопереживанию этим людям и их печальному опыту
04:14
and give them better tools to act on it
69
254615
3316
и дать им более эффективные орудия для борьбы,
04:17
and also give our customers a much better and easier approach
70
257955
4252
а также снабдить наших пользователей более простыми способами
04:22
to handle some of the things that they're seeing.
71
262231
2382
разбираться с тем, что они видят.
04:24
So a lot of what we're doing is around technology,
72
264637
3266
Многое из того, что мы делаем, касается технологий,
04:27
but we're also looking at the incentives on the service:
73
267927
4308
но мы также наблюдаем за стимулами нашего сервиса:
04:32
What does Twitter incentivize you to do when you first open it up?
74
272259
5183
что Твиттер побуждает вас делать, как только вы туда заходите?
04:37
And in the past,
75
277466
1294
В прошлом
04:40
it's incented a lot of outrage, it's incented a lot of mob behavior,
76
280670
5544
он мотивировал возмущение и стадное поведение,
04:46
it's incented a lot of group harassment.
77
286238
2459
он стимулировал групповую травлю.
04:48
And we have to look a lot deeper at some of the fundamentals
78
288721
3648
Так что нам необходимо лучше изучить несколько основ
04:52
of what the service is doing to make the bigger shifts.
79
292393
2958
работы этого сервиса, чтобы добиться бóльших изменений.
04:55
We can make a bunch of small shifts around technology, as I just described,
80
295375
4031
Мы можем слегка поменять какие-то технологические детали, как я и сказал,
04:59
but ultimately, we have to look deeply at the dynamics in the network itself,
81
299430
4386
но в конечном счёте нам нужно детально изучить динамику самой сети,
05:03
and that's what we're doing.
82
303840
1368
чем мы и занимаемся.
05:05
CA: But what's your sense --
83
305232
2060
КА: Но что именно, на ваш взгляд,
05:07
what is the kind of thing that you might be able to change
84
307316
3963
вы могли бы изменить,
05:11
that would actually fundamentally shift behavior?
85
311303
2749
чтобы произошёл кардинальный сдвиг в поведении?
05:15
JD: Well, one of the things --
86
315386
1480
ДД: Для начала...
05:16
we started the service with this concept of following an account,
87
316890
5340
когда мы создавали этот сервис, идея была следить за чьей-то страницей,
05:22
as an example,
88
322254
1725
например,
05:24
and I don't believe that's why people actually come to Twitter.
89
324003
4349
но я не думаю, что люди пользуются Твиттером именно для этого.
05:28
I believe Twitter is best as an interest-based network.
90
328376
4857
Я считаю, что Твиттер, прежде всего — это сеть, основанная на интересах.
05:33
People come with a particular interest.
91
333257
3453
Люди приходят сюда с интересом к чему-то.
05:36
They have to do a ton of work to find and follow the related accounts
92
336734
3487
И им нужно проделать кучу работы, чтобы найти и отслеживать
05:40
around those interests.
93
340245
1405
интересующие их аккаунты.
05:42
What we could do instead is allow you to follow an interest,
94
342217
3397
Вместо этого мы могли бы позволить вам следить за вашим увлеченем —
05:45
follow a hashtag, follow a trend,
95
345638
2103
за хэштегом, за трендом,
05:47
follow a community,
96
347765
1754
за сообществом,
05:49
which gives us the opportunity to show all of the accounts,
97
349543
4637
что даёт нам возможность показывать все аккаунты,
05:54
all the topics, all the moments, all the hashtags
98
354204
3323
все темы, все моменты, все хэштеги,
05:57
that are associated with that particular topic and interest,
99
357551
3992
которые относятся к определённой теме или увлечению,
06:01
which really opens up the perspective that you see.
100
361567
4600
что действительно открывает то многообразие, которое вы видите.
06:06
But that is a huge fundamental shift
101
366191
2157
Но это огромный, кардинальный сдвиг —
06:08
to bias the entire network away from just an account bias
102
368372
3792
сместить целую сеть с предвзятости только к аккаунту
06:12
towards a topics and interest bias.
103
372188
2587
на предвзятость к теме или увлечению.
06:15
CA: Because isn't it the case
104
375283
3148
КА: Разве дело не в том,
06:19
that one reason why you have so much content on there
105
379375
3541
что одна из причин, почему у вас столько контента, —
06:22
is a result of putting millions of people around the world
106
382940
3591
это результат того, что миллионы людей по всему миру
06:26
in this kind of gladiatorial contest with each other
107
386555
3142
оказались на гладиаторской арене, чтобы сражаться друг с другом
06:29
for followers, for attention?
108
389721
2090
за подписчиков и внимание?
06:31
Like, from the point of view of people who just read Twitter,
109
391835
4117
С точки зрения тех, кто только читает Твиттер,
06:35
that's not an issue,
110
395976
1155
это не проблема,
06:37
but for the people who actually create it, everyone's out there saying,
111
397155
3350
но все те, кто его создают, те кто пишут, говорят:
06:40
"You know, I wish I had a few more 'likes,' followers, retweets."
112
400529
3236
«Знаешь, вот бы мне ещё больше "лайков", подписчиков, "ретвитов"».
06:43
And so they're constantly experimenting,
113
403789
2148
Так что они постоянно экспериментируют,
06:45
trying to find the path to do that.
114
405961
1961
пытаясь найти новые пути добиться этого.
06:47
And what we've all discovered is that the number one path to do that
115
407946
4126
И всем нам стало ясно, что самый верный способ —
06:52
is to be some form of provocative,
116
412096
3406
устроить какую-то провокацию
06:55
obnoxious, eloquently obnoxious,
117
415526
2980
и быть нахалом, и при этом отличаться красноречием,
06:58
like, eloquent insults are a dream on Twitter,
118
418530
3516
ведь красноречивые оскорбления — мечта Твиттера,
07:02
where you rapidly pile up --
119
422070
2603
где вы моментально с кем-то сцепляетесь
07:04
and it becomes this self-fueling process of driving outrage.
120
424697
4608
и начинается такая перепалка, которая сам себя разжигает.
07:09
How do you defuse that?
121
429329
2351
Как разрядить такую обстановку?
07:12
JD: Yeah, I mean, I think you're spot on,
122
432624
2947
ДД: Да, прямо в точку,
07:15
but that goes back to the incentives.
123
435595
1886
но это о тех же стимулах.
07:17
Like, one of the choices we made in the early days was
124
437505
2632
Одним из решений, которые мы приняли на начальном этапе,
07:20
we had this number that showed how many people follow you.
125
440161
4701
было показывать количество ваших подписчиков.
07:24
We decided that number should be big and bold,
126
444886
2959
Мы решили выделить эту цифру крупным жирным шрифтом,
07:27
and anything that's on the page that's big and bold has importance,
127
447869
3740
а всё написанное крупным жирным шрифтом и есть самое важное
07:31
and those are the things that you want to drive.
128
451633
2278
и как раз то, что вы хотите продвигать.
07:33
Was that the right decision at the time?
129
453935
1907
Было ли это верным решением тогда?
07:35
Probably not.
130
455866
1153
Скорее всего, нет.
07:37
If I had to start the service again,
131
457043
1805
Если бы я запускал этот сервис снова,
07:38
I would not emphasize the follower count as much.
132
458872
2398
я бы не стал так сильно выделять число подписчиков.
07:41
I would not emphasize the "like" count as much.
133
461294
2295
Я бы не стал так сильно выделять количество «лайков».
07:43
I don't think I would even create "like" in the first place,
134
463613
3120
Мне кажется, прежде всего, я бы даже не создал сами «лайки»,
07:46
because it doesn't actually push
135
466757
3267
потому что на самом деле они не продвигают то,
07:50
what we believe now to be the most important thing,
136
470048
3179
что мы считаем самым важным сейчас,
07:53
which is healthy contribution back to the network
137
473251
3039
то есть здоровый вклад в жизнь сети
07:56
and conversation to the network,
138
476314
2652
и диалог в сети,
07:58
participation within conversation,
139
478990
2072
участие в диалоге,
08:01
learning something from the conversation.
140
481086
2493
возможность научиться чему-то через этот диалог.
08:03
Those are not things that we thought of 13 years ago,
141
483603
2824
Это не то, о чём мы думали 13 лет назад,
08:06
and we believe are extremely important right now.
142
486451
2439
но как раз то, что чрезвычайно важно сегодня.
08:08
So we have to look at how we display the follower count,
143
488914
3023
Так что нам нужно пересмотреть, как отображать число подписчиков,
08:11
how we display retweet count,
144
491961
2365
как показывать число «ретвитов»,
08:14
how we display "likes,"
145
494350
1401
как показывать «лайки»,
08:15
and just ask the deep question:
146
495775
2254
и задать один серьёзный вопрос:
08:18
Is this really the number that we want people to drive up?
147
498053
3048
действительно ли это то число, которое мы хотим продвигать?
08:21
Is this the thing that, when you open Twitter,
148
501125
2545
Действительно ли это то, о чём вы думаете:
08:23
you see, "That's the thing I need to increase?"
149
503694
2516
«вот чего мне нужно больше», когда открываете Твиттер?
08:26
And I don't believe that's the case right now.
150
506234
2144
И я не думаю, что это так.
08:28
(Applause)
151
508402
2103
(Аплодисменты)
08:30
WPR: I think we should look at some of the tweets
152
510529
2352
УПР: Мне кажется, пора посмотреть на твиты,
08:32
that are coming in from the audience as well.
153
512905
2169
которые приходят от зрителей.
08:35
CA: Let's see what you guys are asking.
154
515868
2436
КА: Давайте-ка взглянем, о чём вы спрашиваете.
08:38
I mean, this is -- generally, one of the amazing things about Twitter
155
518328
3294
Твиттер тем и замечателен,
08:41
is how you can use it for crowd wisdom,
156
521646
2294
что он помогает нам использовать мудрость толпы,
08:43
you know, that more knowledge, more questions, more points of view
157
523964
4840
то есть больше знаний, больше вопросов, больше точек зрения,
08:48
than you can imagine,
158
528828
1238
чем вы можете представить,
08:50
and sometimes, many of them are really healthy.
159
530090
3689
и порой многие из них очень здравы.
08:53
WPR: I think one I saw that passed already quickly down here,
160
533803
2900
УПР: Я сейчас увидела один твит — он уже убежал вниз:
08:56
"What's Twitter's plan to combat foreign meddling in the 2020 US election?"
161
536717
3524
«Твиттер планирует бороться с иностранным вмешательством в выборы в США в 2020?»
09:00
I think that's something that's an issue we're seeing
162
540265
2571
Мне кажется, это часть проблемы, которая существует
09:02
on the internet in general,
163
542860
1901
в интернете вцелом:
09:04
that we have a lot of malicious automated activity happening.
164
544785
3667
происходит много вредоносной автоматизированной деятельности.
09:08
And on Twitter, for example, in fact, we have some work
165
548476
5373
У нас есть подборка данных с Твиттера,
09:13
that's come from our friends at Zignal Labs,
166
553873
2758
от наших друзей в Zignal Labs,
09:16
and maybe we can even see that to give us an example
167
556655
2656
и возможно, мы даже увидим, чтобы у нас был пример,
09:19
of what exactly I'm talking about,
168
559335
1927
о чём конкретно я говорю,
09:21
where you have these bots, if you will,
169
561286
3204
о так называемых ботах,
09:24
or coordinated automated malicious account activity,
170
564514
4550
или координированной автоматизированной вредоносной деятельности аккаунтов,
09:29
that is being used to influence things like elections.
171
569088
2764
которую используют для влияния на такие события, как выборы.
09:31
And in this example we have from Zignal which they've shared with us
172
571876
3843
И в этом примере от Zignal, которым они поделились с нами,
09:35
using the data that they have from Twitter,
173
575743
2198
используются данные Твиттера,
09:37
you actually see that in this case,
174
577965
2441
и вы можете увидеть, что в этом случае
09:40
white represents the humans -- human accounts, each dot is an account.
175
580430
4370
белый — это аккаунты людей, где каждая точка — один аккаунт.
09:44
The pinker it is,
176
584824
1359
Чем розовее точка, тем более
09:46
the more automated the activity is.
177
586207
1740
автоматизированы действия.
09:47
And you can see how you have a few humans interacting with bots.
178
587971
5970
И здесь также видно взаимодействие людей и ботов.
09:53
In this case, it's related to the election in Israel
179
593965
4419
В этом случае речь о выборах в Израиле
09:58
and spreading misinformation about Benny Gantz,
180
598408
2833
и распространении дезинформации о Бени Ганц,
10:01
and as we know, in the end, that was an election
181
601265
2662
и, как мы знаем, в конце концов, это были выборы,
10:03
that Netanyahu won by a slim margin,
182
603951
3724
которые Нетаньяху выиграл с очень малым перевесом,
10:07
and that may have been in some case influenced by this.
183
607699
2842
и в некотором роде как раз этот процесс и мог повлиять.
10:10
And when you think about that happening on Twitter,
184
610565
2615
И думая о том, что такие вещи происходят на Твиттере,
10:13
what are the things that you're doing, specifically,
185
613204
2456
какие именно действия вы предпринимаете для того,
10:15
to ensure you don't have misinformation like this spreading in this way,
186
615684
3702
чтобы предотвратить распространение ложной информации этим путём
10:19
influencing people in ways that could affect democracy?
187
619410
4181
и не позволить ей поставить под угрозу демократию?
10:23
JD: Just to back up a bit,
188
623615
1771
ДД: Я немного вернусь назад.
10:25
we asked ourselves a question:
189
625410
2975
Мы спрашивали себя:
10:28
Can we actually measure the health of a conversation,
190
628409
3816
можем ли мы в действительности измерить здоровье диалога,
10:32
and what does that mean?
191
632249
1288
и что это значит?
10:33
And in the same way that you have indicators
192
633561
3382
Точно так же, как существуют показатели
10:36
and we have indicators as humans in terms of are we healthy or not,
193
636967
3467
здоровья нашего организма,
10:40
such as temperature, the flushness of your face,
194
640458
4658
такие, как температура и цвет лица,
10:45
we believe that we could find the indicators of conversational health.
195
645140
4560
мы считаем, что можно найти показатели состояния здоровья диалога.
10:49
And we worked with a lab called Cortico at MIT
196
649724
3843
Мы сотрудничали с лабораторией Cortico в МТИ,
10:54
to propose four starter indicators
197
654479
6091
чтобы предложить четыре начальных индикатора,
11:00
that we believe we could ultimately measure on the system.
198
660594
3670
которые, по нашему мнению, мы могли бы применить к этой системе.
11:05
And the first one is what we're calling shared attention.
199
665249
5604
Первый из них мы называем совместным вниманием.
11:10
It's a measure of how much of the conversation is attentive
200
670877
3581
Это измерение того, какая часть диалога проявляет внимание к какой-то теме
11:14
on the same topic versus disparate.
201
674482
2630
в соотношении с разрозненностью.
11:17
The second one is called shared reality,
202
677739
2783
Второй называется совместной реальностью,
11:21
and this is what percentage of the conversation
203
681217
2259
он показывает, какой процент диалога
11:23
shares the same facts --
204
683500
2005
имеет одни и те же факты —
11:25
not whether those facts are truthful or not,
205
685529
3113
и дело не в том, достоверны они или нет,
11:28
but are we sharing the same facts as we converse?
206
688666
3009
а в том, разделяем ли мы те же факты, как участники диалога?
11:32
The third is receptivity:
207
692235
2353
Третий — благожелательность:
11:34
How much of the conversation is receptive or civil
208
694612
3959
какая часть диалога благожелательна или конструктивна,
11:38
or the inverse, toxic?
209
698595
2944
и наоборот — пагубна?
11:42
And then the fourth is variety of perspective.
210
702213
3222
Четвёртый показатель — это разнообразие точек зрения.
11:45
So, are we seeing filter bubbles or echo chambers,
211
705459
3145
Что мы видим на самом деле — пузыри фильтров
11:48
or are we actually getting a variety of opinions
212
708628
3057
и эхо-камеры, или же настоящее многообразие мнений
11:51
within the conversation?
213
711709
1635
внутри диалога?
11:53
And implicit in all four of these is the understanding that,
214
713368
4018
Эти четыре показателя подразумевают,
11:57
as they increase, the conversation gets healthier and healthier.
215
717410
3390
что с их увеличением диалог становится более и более здоровым.
12:00
So our first step is to see if we can measure these online,
216
720824
4869
Так что наш первый шаг — понять, возможно ли измерить их онлайн,
12:05
which we believe we can.
217
725717
1308
и мы считаем, что возможно.
12:07
We have the most momentum around receptivity.
218
727049
3167
Наш основной интерес — это доброжелательность.
12:10
We have a toxicity score, a toxicity model, on our system
219
730240
4317
У нас есть оценка токсичности, модель токсичности в нашей системе,
12:14
that can actually measure whether you are likely to walk away
220
734581
4124
которая способна измерить, насколько вероятно, что вы уйдёте
12:18
from a conversation that you're having on Twitter
221
738729
2313
от переписки на Твиттере,
12:21
because you feel it's toxic,
222
741066
1633
потому что вам кажется,
12:22
with some pretty high degree.
223
742723
2512
что она в высокой степени токсична.
12:26
We're working to measure the rest,
224
746369
2199
Мы работаем над возможностью других измерений,
12:28
and the next step is,
225
748592
1964
и наш следующий шаг,
12:30
as we build up solutions,
226
750580
3359
по мере того, как мы находим решения, —
12:33
to watch how these measurements trend over time
227
753963
3491
это наблюдать за тем, как эти измерения развиваются с течением времени,
12:37
and continue to experiment.
228
757478
1873
и продолжать экспериментировать.
12:39
And our goal is to make sure that these are balanced,
229
759375
4041
Наша цель — убедиться, что они находятся в равновесии,
12:43
because if you increase one, you might decrease another.
230
763440
3066
потому что если увеличить одно, уменьшится и другое.
12:46
If you increase variety of perspective,
231
766530
2147
Если увеличить количество различных взглядов,
12:48
you might actually decrease shared reality.
232
768701
3091
можно в действительности уменьшить общую для группы реальность.
12:51
CA: Just picking up on some of the questions flooding in here.
233
771816
4989
КА: Я просто выбираю пару вопросов из всего этого потока.
12:56
JD: Constant questioning.
234
776829
1271
ДД: Бесконечные вопросы.
12:58
CA: A lot of people are puzzled why,
235
778996
3620
КА: Многих интересует,
13:02
like, how hard is it to get rid of Nazis from Twitter?
236
782640
4247
насколько сложно избавиться от нацистов на Твиттере?
13:08
JD: (Laughs)
237
788309
1322
ДД: (Cмех)
13:09
So we have policies around violent extremist groups,
238
789655
6995
У нас есть политика касательно воинствующих экстремистских группировок,
13:16
and the majority of our work and our terms of service
239
796674
4426
и бóльшая часть нашей работы и наших условий использования
13:21
works on conduct, not content.
240
801124
3729
основана на поведении, а не на контенте.
13:24
So we're actually looking for conduct.
241
804877
2551
Так что в действительности мы смотрим на поведение.
13:27
Conduct being using the service
242
807452
3014
Под поведением здесь имеется в виду использование сервиса
13:30
to repeatedly or episodically harass someone,
243
810490
3867
для повторных или эпизодических нападок на кого-либо,
13:34
using hateful imagery
244
814381
2493
с использованием выражений, разжигающих ненависть,
13:36
that might be associated with the KKK
245
816898
2106
связанных, например, с Ку-клукс-кланом
13:39
or the American Nazi Party.
246
819028
3281
или Американской нацистской партией.
13:42
Those are all things that we act on immediately.
247
822333
4156
Всё это мы пресекаем немедленно.
13:47
We're in a situation right now where that term is used fairly loosely,
248
827002
5452
Сейчас дела обстоят так, что этот термин используется довольно свободно,
13:52
and we just cannot take any one mention of that word
249
832478
5313
и мы не можем взять каждое упоминание этого слова
13:57
accusing someone else
250
837815
2117
для обвинения кого-либо,
13:59
as a factual indication that they should be removed from the platform.
251
839956
3755
как фактический показатель того, что их нужно удалить с платформы.
14:03
So a lot of our models are based around, number one:
252
843735
2627
Множество наших моделей интересуются прежде всего тем,
14:06
Is this account associated with a violent extremist group?
253
846386
3140
связан ли аккаунт с воинствующими экстремистскими группировками?
14:09
And if so, we can take action.
254
849550
1983
Если да, то мы можем принять меры.
14:11
And we have done so on the KKK and the American Nazi Party and others.
255
851557
3852
Так мы и поступили с ККК, Американской нацистской партией и c другими.
14:15
And number two: Are they using imagery or conduct
256
855433
4183
Второй пункт: используется ли образная речь или поведение,
14:19
that would associate them as such as well?
257
859640
2372
которое бы указывало ни их связь?
14:22
CA: How many people do you have working on content moderation
258
862416
2932
КА: Сколько человек работает над модерацией контента,
14:25
to look at this?
259
865372
1250
чтобы за этим следить?
14:26
JD: It varies.
260
866646
1496
ДД: По-разному.
14:28
We want to be flexible on this,
261
868166
1595
Мы хотим иметь гибкий подход,
14:29
because we want to make sure that we're, number one,
262
869785
2646
потому что для нас важно, что мы, в первую очередь,
14:32
building algorithms instead of just hiring massive amounts of people,
263
872455
4424
создаём алгоритмы вместо того, чтобы нанимать огромное количество человек,
14:36
because we need to make sure that this is scalable,
264
876903
2824
потому что нам нужно знать, что это масштабируемый процесс,
14:39
and there are no amount of people that can actually scale this.
265
879751
3454
и человеческих сил не хватит для работы в таких масштабах.
14:43
So this is why we've done so much work around proactive detection of abuse
266
883229
6629
Именно поэтому мы уделили столько внимания проактивному распознаванию оскорблений,
14:49
that humans can then review.
267
889882
1391
которые потом проверяет человек.
14:51
We want to have a situation
268
891297
2861
Мы хотим добиться того,
14:54
where algorithms are constantly scouring every single tweet
269
894182
3741
чтобы алгоритмы непрестанно просматривали каждый твит
14:57
and bringing the most interesting ones to the top
270
897947
2342
и выносили самые интересные на поверхность,
15:00
so that humans can bring their judgment to whether we should take action or not,
271
900313
3902
чтобы люди могли решить, нужно ли принимать меры
15:04
based on our terms of service.
272
904239
1524
по нашим правилам пользования.
15:05
WPR: But there's not an amount of people that are scalable,
273
905787
2803
УПР: Нет такого масштабного количества человек,
15:08
but how many people do you currently have monitoring these accounts,
274
908614
3497
но сколько у вас есть на данный момент для наблюдения за этими аккаунтами?
15:12
and how do you figure out what's enough?
275
912135
2546
и как вы понимаете, сколько достаточно?
15:14
JD: They're completely flexible.
276
914705
2272
ДД: Это гибкое число.
15:17
Sometimes we associate folks with spam.
277
917001
2941
Иной раз нам нужны люди для работы над спамом.
15:19
Sometimes we associate folks with abuse and harassment.
278
919966
3845
Иногда — для домогательств, угроз и оскорблений.
15:23
We're going to make sure that we have flexibility in our people
279
923835
3062
Мы постараемся достичь гибкости в работе нашего персонала,
15:26
so that we can direct them at what is most needed.
280
926921
2350
чтобы задействовать их для самых важных задач.
15:29
Sometimes, the elections.
281
929295
1204
Иногда — для выборов.
15:30
We've had a string of elections in Mexico, one coming up in India,
282
930523
4927
У нас был ряд выборов в Мексике, будут выборы в Индии,
15:35
obviously, the election last year, the midterm election,
283
935474
4447
само собой, выборы в прошлом году, промежуточные выборы —
15:39
so we just want to be flexible with our resources.
284
939945
2472
мы хотим чтобы наш персонал мог подстраиваться.
15:42
So when people --
285
942441
2129
Так что когда люди —
15:44
just as an example, if you go to our current terms of service
286
944594
6389
к примеру, если вы сейчас зайдёте на наши действующие условия использования
15:51
and you bring the page up,
287
951007
1641
и прокрутите страницу вверх,
15:52
and you're wondering about abuse and harassment that you just received
288
952672
3682
и вы смотрите, нарушают ли правила использования оскорбления и травля,
15:56
and whether it was against our terms of service to report it,
289
956378
3634
которым вы подверглись, для того чтобы сообщить об этом, —
16:00
the first thing you see when you open that page
290
960036
2559
первое, что вы увидите, открыв эту страницу,
16:02
is around intellectual property protection.
291
962619
3088
будет информация о защите интеллектуальной собственности.
16:06
You scroll down and you get to abuse, harassment
292
966504
5323
Вы прокручиваете вниз и увидите жестокое обращение, домогательства
16:11
and everything else that you might be experiencing.
293
971851
2382
и всё остальное, с чем вы могли бы столкнуться.
16:14
So I don't know how that happened over the company's history,
294
974257
3195
И я не знаю, как так произошло за историю компании,
16:17
but we put that above the thing that people want
295
977476
4797
но мы поместили именно это перед тем,
о чём людям действительно нужно больше информации и где нужно действие.
16:24
the most information on and to actually act on.
296
984146
3222
16:27
And just our ordering shows the world what we believed was important.
297
987392
5241
И такой порядок говорит о том, что мы считали тогда самым важным.
16:32
So we're changing all that.
298
992657
2881
Так что сейчас мы это меняем.
16:35
We're ordering it the right way,
299
995562
1563
Мы наводим порядок
16:37
but we're also simplifying the rules so that they're human-readable
300
997149
3451
и упрощаем правила, чтобы людям было удобнее их читать,
16:40
so that people can actually understand themselves
301
1000624
4067
чтобы люди могли сами понять,
16:44
when something is against our terms and when something is not.
302
1004715
3448
когда что-то нарушает наши правила, а когда — нет.
16:48
And then we're making --
303
1008187
2161
Также мы делаем...
16:50
again, our big focus is on removing the burden of work from the victims.
304
1010372
5200
опять же, наша задача — это избавить от работы тех, кто стал жертвой.
16:55
So that means push more towards technology,
305
1015596
3734
А это значит переложить работу
16:59
rather than humans doing the work --
306
1019354
1873
с людей на технологии,
17:01
that means the humans receiving the abuse
307
1021251
2413
то есть с тех, кто подвергся жестокости,
17:03
and also the humans having to review that work.
308
1023688
3026
и тех, кому приходится это проверять.
17:06
So we want to make sure
309
1026738
1673
Так что мы хотим убедиться,
17:08
that we're not just encouraging more work
310
1028435
2841
что мы не просто призываем к большему труду
17:11
around something that's super, super negative,
311
1031300
2629
над чем-то очень, очень неприятным,
17:13
and we want to have a good balance between the technology
312
1033953
2674
а хотим добиться равновесия между технологиями
17:16
and where humans can actually be creative,
313
1036651
2852
и тем, где человек может проявлять творческий подход,
17:19
which is the judgment of the rules,
314
1039527
3090
то есть в оценке правил,
17:22
and not just all the mechanical stuff of finding and reporting them.
315
1042641
3267
а не в механической работе по поиску и сообщениям о нарушениях.
17:25
So that's how we think about it.
316
1045932
1530
Вот наши мысли на этот счёт.
17:27
CA: I'm curious to dig in more about what you said.
317
1047486
2406
КА: Давайте углубимся в то, о чём вы сейчас сказали.
17:29
I mean, I love that you said you are looking for ways
318
1049916
2605
Здорово, что вы ищете способы
17:32
to re-tweak the fundamental design of the system
319
1052545
3462
поправить основные принципы работы этой системы,
17:36
to discourage some of the reactive behavior, and perhaps --
320
1056031
4875
чтобы менее способствовать негативным реакциям, и, возможно,
17:40
to use Tristan Harris-type language --
321
1060930
2705
используя терминологию Тристана Харриса,
17:43
engage people's more reflective thinking.
322
1063659
4288
сильнее задействовать рефлексивное мышление людей.
17:47
How far advanced is that?
323
1067971
1854
Насколько это возможно?
17:49
What would alternatives to that "like" button be?
324
1069849
4305
Какими бы могли быть альтернативы кнопки «лайк»?
17:55
JD: Well, first and foremost,
325
1075518
3575
ДД: Прежде всего,
17:59
my personal goal with the service is that I believe fundamentally
326
1079117
5753
лично я глубоко убеждён, что для нашего сервиса
18:04
that public conversation is critical.
327
1084894
2702
критически важен общественный диалог.
18:07
There are existential problems facing the world
328
1087620
2647
Мир столкнулся с жизненно важными проблемами,
18:10
that are facing the entire world, not any one particular nation-state,
329
1090291
4163
которые касаются всех, а не одного отдельного национального государства,
18:14
that global public conversation benefits.
330
1094478
2649
которому приносит пользу общественный диалог.
18:17
And that is one of the unique dynamics of Twitter,
331
1097151
2372
Твиттер уникален тем,
18:19
that it is completely open,
332
1099547
1814
что он полностью открытый,
18:21
it is completely public,
333
1101385
1596
полностью общественный,
18:23
it is completely fluid,
334
1103005
1399
полностью податливый,
18:24
and anyone can see any other conversation and participate in it.
335
1104428
4038
и каждый может читать и принять участие в любой дискуссии.
18:28
So there are conversations like climate change.
336
1108490
2206
Там обсуждают изменение климата,
18:30
There are conversations like the displacement in the work
337
1110720
2682
там обсуждают темы, такие, как потеря рабочих мест
18:33
through artificial intelligence.
338
1113426
2000
и замещение искусственным интеллектом.
18:35
There are conversations like economic disparity.
339
1115450
3006
Там обсуждают экономическое неравенство и так далее.
18:38
No matter what any one nation-state does,
340
1118480
2765
Неважно, что предпринимает какое-либо государство,
18:41
they will not be able to solve the problem alone.
341
1121269
2421
они не справятся с этими проблемами самостоятельно.
18:43
It takes coordination around the world,
342
1123714
2643
Необходимо объединить усилия всего мира,
18:46
and that's where I think Twitter can play a part.
343
1126381
3047
и как раз здесь Твиттер может сыграть свою роль.
18:49
The second thing is that Twitter, right now, when you go to it,
344
1129452
5642
Второе — если вы сейчас зайдёте на Твиттер,
18:55
you don't necessarily walk away feeling like you learned something.
345
1135118
3746
вы не обязательно уйдёте с ощущением, что вы узнали что-то новое и полезное.
18:58
Some people do.
346
1138888
1276
Хотя кому-то удаётся.
19:00
Some people have a very, very rich network,
347
1140188
3107
У некоторых людей очень и очень богатая сеть,
19:03
a very rich community that they learn from every single day.
348
1143319
3117
большое сообщество, откуда они могут ежедневно черпать знания.
19:06
But it takes a lot of work and a lot of time to build up to that.
349
1146460
3691
Однако, нужно проделать много работы и отдать много времени на его создание.
19:10
So we want to get people to those topics and those interests
350
1150175
3448
Мы хотим сделать так, чтобы люди смогли попасть в такие беседы
19:13
much, much faster
351
1153647
1579
намного быстрее
19:15
and make sure that they're finding something that,
352
1155250
2566
и чтобы они могли найти что-то, что...
19:18
no matter how much time they spend on Twitter --
353
1158728
2360
независимо от времени, проводённом на Твиттере, —
19:21
and I don't want to maximize the time on Twitter,
354
1161112
2358
и я не хочу увеличивать время на Твиттере,
19:23
I want to maximize what they actually take away from it
355
1163494
2910
я хочу увеличить его отдачу.
19:26
and what they learn from it, and --
356
1166428
2030
И сколько нового узнают люди, и...
19:29
CA: Well, do you, though?
357
1169598
1328
КА: Но так ли это?
19:30
Because that's the core question that a lot of people want to know.
358
1170950
3244
Ведь это и есть главный вопрос, который интересует очень многих.
19:34
Surely, Jack, you're constrained, to a huge extent,
359
1174218
3638
Само собой, Джек, вас во многом сдерживает то,
19:37
by the fact that you're a public company,
360
1177880
2007
что вы публичная компания,
19:39
you've got investors pressing on you,
361
1179911
1774
и на вас давят инвесторы,
19:41
the number one way you make your money is from advertising --
362
1181709
3559
и ваша прибыль, прежде всего, поступает от рекламы —
19:45
that depends on user engagement.
363
1185292
2772
и это зависит от участия пользователей.
19:48
Are you willing to sacrifice user time, if need be,
364
1188088
4700
Готовы ли вы пожертвовать временем пользователей, если будет нужно,
19:52
to go for a more reflective conversation?
365
1192812
3729
ради более осмысленного диалога?
19:56
JD: Yeah; more relevance means less time on the service,
366
1196565
3111
ДД: Да, чем релевантнее контент, тем меньше времени на платформе,
19:59
and that's perfectly fine,
367
1199700
1937
и это совершенно нормально,
20:01
because we want to make sure that, like, you're coming to Twitter,
368
1201661
3099
потому что мы хотим сделать так, чтобы вы заходили на Твиттер
20:04
and you see something immediately that you learn from and that you push.
369
1204784
4520
и сразу видели что-то новое и важное для вас.
20:09
We can still serve an ad against that.
370
1209328
3420
Мы всё ещё можем показать рекламу.
20:12
That doesn't mean you need to spend any more time to see more.
371
1212772
2921
Но видеть больше не значит тратить больше времени.
20:15
The second thing we're looking at --
372
1215717
1733
Второе, на что мы смотрим...
20:17
CA: But just -- on that goal, daily active usage,
373
1217474
2698
КА: Минутку... насчёт цели активно проведённого времени,
20:20
if you're measuring that, that doesn't necessarily mean things
374
1220196
3245
если вы его измеряете, это ещё не значит, что это то,
20:23
that people value every day.
375
1223465
1738
которые люди высоко ценят.
20:25
It may well mean
376
1225227
1161
Это может быть и тем,
20:26
things that people are drawn to like a moth to the flame, every day.
377
1226412
3306
на что люди ежедневно слетаются, как мотыльки на огонь.
20:29
We are addicted, because we see something that pisses us off,
378
1229742
3022
Мы зависимы, так как каждый день мы видим что-то, что нас бесит,
20:32
so we go in and add fuel to the fire,
379
1232788
3178
и продолжаем подливать масла в огонь,
20:35
and the daily active usage goes up,
380
1235990
1927
число активных пользователей в день растёт
20:37
and there's more ad revenue there,
381
1237941
1715
и реклама приносит больше дохода,
20:39
but we all get angrier with each other.
382
1239680
2752
но мы всё больше злимся друг на друга.
20:42
How do you define ...
383
1242456
2509
Как вы определяете...
20:44
"Daily active usage" seems like a really dangerous term to be optimizing.
384
1244989
4126
«Ежедневные активные пользователи» звучит как очень опасный критерий оптимизации.
20:49
(Applause)
385
1249139
5057
(Аплодисменты)
20:54
JD: Taken alone, it is,
386
1254220
1268
ДД: Да, отдельно взятое,
20:55
but you didn't let me finish the other metric,
387
1255512
2346
но вы не дали мне закончить с другим показателем,
20:57
which is, we're watching for conversations
388
1257882
3727
мы следим за диалогами
21:01
and conversation chains.
389
1261633
2129
и цепочками диалогов.
21:03
So we want to incentivize healthy contribution back to the network,
390
1263786
5076
Мы хотим стимулировать здоровый вклад в сеть,
21:08
and what we believe that is is actually participating in conversation
391
1268886
4181
а это, по нашему мнению, — участие в диалоге,
21:13
that is healthy,
392
1273091
1197
который нетоксичен
21:14
as defined by those four indicators I articulated earlier.
393
1274312
5037
согласно четырем индикаторам, о которых я вам рассказал.
21:19
So you can't just optimize around one metric.
394
1279373
2657
Нельзя оптимизировать по одному параметру.
21:22
You have to balance and look constantly
395
1282054
2752
Нужно постоянно совмещать и смотреть на то, что
21:24
at what is actually going to create a healthy contribution to the network
396
1284830
4083
на самом деле принесёт здоровый вклад в сеть
21:28
and a healthy experience for people.
397
1288937
2341
и здоровое общение людям.
21:31
Ultimately, we want to get to a metric
398
1291302
1866
Наша цель — получить такой показатель,
21:33
where people can tell us, "Hey, I learned something from Twitter,
399
1293192
3757
чтобы люди смогли бы сказать нам: «Твиттер научил меня чему-то,
21:36
and I'm walking away with something valuable."
400
1296973
2167
и я унесу нечто ценное с собой».
21:39
That is our goal ultimately over time,
401
1299164
2043
Это наша долгосрочная цель,
21:41
but that's going to take some time.
402
1301231
1809
и чтобы прийти к ней, нужно время.
21:43
CA: You come over to many, I think to me, as this enigma.
403
1303064
5282
КА: Мне кажется, что для многих, и для меня, вы — человек-загадка.
21:48
This is possibly unfair, but I woke up the other night
404
1308370
4396
Возможно, это несправедливо, но как-то ночью я проснулся,
21:52
with this picture of how I found I was thinking about you and the situation,
405
1312790
3879
поймав себя на том, что я думал о вас и об этой ситуации, как будто
21:56
that we're on this great voyage with you on this ship called the "Twittanic" --
406
1316693
6903
мы отправились в большое путешествие на корабле под названием «Твиттаник»,
22:03
(Laughter)
407
1323620
1281
(Смех)
22:04
and there are people on board in steerage
408
1324925
4357
и пассажиры в третьем классе
22:09
who are expressing discomfort,
409
1329306
2203
беспокоятся,
22:11
and you, unlike many other captains,
410
1331533
2543
и вы, в отличие от других капитанов,
22:14
are saying, "Well, tell me, talk to me, listen to me, I want to hear."
411
1334100
3431
говорите: «Давайте, говорите со мной, послушайте меня, я хочу услышать».
22:17
And they talk to you, and they say, "We're worried about the iceberg ahead."
412
1337555
3619
И они говорят вам: «Нас тревожит айсберг перед нами».
А вы отвечаете: «Знаете, это неоспоримый факт,
22:21
And you go, "You know, that is a powerful point,
413
1341198
2242
22:23
and our ship, frankly, hasn't been built properly
414
1343464
2430
и наш корабль, по правде, построен не очень качественно
22:25
for steering as well as it might."
415
1345918
1669
чтобы вырулить так, как хотелось бы».
22:27
And we say, "Please do something."
416
1347611
1658
Мы просим: «Сделайте что-нибудь».
22:29
And you go to the bridge,
417
1349293
1411
И вы идёте на мостик,
22:30
and we're waiting,
418
1350728
2295
пока мы ждём
22:33
and we look, and then you're showing this extraordinary calm,
419
1353047
4548
и смотрим, а вы держитесь необычайно спокойно,
22:37
but we're all standing outside, saying, "Jack, turn the fucking wheel!"
420
1357619
3883
но мы все стоим снаружи, говоря: «Джек, поверни же чёртов штурвал!»
22:41
You know?
421
1361526
1151
Представляете?
22:42
(Laughter)
422
1362701
1335
(Смех)
22:44
(Applause)
423
1364060
2381
(Аплодисменты)
22:46
I mean --
424
1366465
1166
Я к тому, что...
22:47
(Applause)
425
1367655
1734
(Аплодисменты)
22:49
It's democracy at stake.
426
1369413
4594
На карту поставлена демократия.
На карту поставлена наша культура. На карту поставлен наш мир.
22:54
It's our culture at stake. It's our world at stake.
427
1374031
2821
22:56
And Twitter is amazing and shapes so much.
428
1376876
4706
Твиттер потрясающий, он влияет на многое.
23:01
It's not as big as some of the other platforms,
429
1381606
2233
Он не такой большой, как некоторые другие платформы,
23:03
but the people of influence use it to set the agenda,
430
1383863
2804
но влиятельные люди пользуются им, чтобы задать приоритеты,
23:06
and it's just hard to imagine a more important role in the world than to ...
431
1386691
6787
и трудно себе представить более важную роль в мире, чем...
23:13
I mean, you're doing a brilliant job of listening, Jack, and hearing people,
432
1393502
3784
Я хочу сказать, что вам здорово удаётся слушать и слышать людей,
23:17
but to actually dial up the urgency and move on this stuff --
433
1397310
4445
но по-настоящему оценить срочность и сдвинуть всё с места...
23:21
will you do that?
434
1401779
2201
вы сделаете это?
23:24
JD: Yes, and we have been moving substantially.
435
1404750
3815
ДД: Да, и мы серьёзно продвигаемся.
23:28
I mean, there's been a few dynamics in Twitter's history.
436
1408589
3225
Было несколько изменений в истории Твиттера.
23:31
One, when I came back to the company,
437
1411838
2083
Первое — когда я вернулся в компанию,
23:35
we were in a pretty dire state in terms of our future,
438
1415477
6256
мы находились в довольно тяжёлом положении в отношении нашего будущего
23:41
and not just from how people were using the platform,
439
1421757
4634
не просто от того, как люди пользовались платформой,
23:46
but from a corporate narrative as well.
440
1426415
2047
но и из-за нашей корпоративной риторики.
23:48
So we had to fix a bunch of the foundation,
441
1428486
3204
Так что нам пришлось поправить несколько основных деталей,
23:51
turn the company around,
442
1431714
1969
развернуть компанию,
23:53
go through two crazy layoffs,
443
1433707
3111
пережить два безумных периода увольнений,
23:56
because we just got too big for what we were doing,
444
1436842
3793
потому что мы слишком разрослись для того, чем мы занимались,
24:00
and we focused all of our energy
445
1440659
2060
и мы направили все свои силы
24:02
on this concept of serving the public conversation.
446
1442743
3508
на службу общественному диалогу.
24:06
And that took some work.
447
1446275
1451
Нам пришлось потрудиться.
24:07
And as we dived into that,
448
1447750
2608
Как только мы погрузились в дело,
24:10
we realized some of the issues with the fundamentals.
449
1450382
2992
мы осознали некоторые проблемы с основными принципами.
24:14
We could do a bunch of superficial things to address what you're talking about,
450
1454120
4656
Мы могли бы принять много поверхностных действий, чтобы повлиять на происходящее,
24:18
but we need the changes to last,
451
1458800
1790
но важно, чтобы изменения удержались,
24:20
and that means going really, really deep
452
1460614
2459
а это значит, что нам нужно копнуть очень глубоко
24:23
and paying attention to what we started 13 years ago
453
1463097
4350
и быть внимательными к тому, что мы начали 13 лет назад,
24:27
and really questioning
454
1467471
2261
и действительно спрашивать себя,
24:29
how the system works and how the framework works
455
1469756
2566
как работает система, как работает основная концепция,
24:32
and what is needed for the world today,
456
1472346
3833
и что нужно миру сегодня,
24:36
given how quickly everything is moving and how people are using it.
457
1476203
4024
учитывая то, как быстро всё меняется и как люди этим пользуются.
Мы работаем так быстро, как можем, но скорость не решит все вопросы.
24:40
So we are working as quickly as we can, but quickness will not get the job done.
458
1480251
6544
24:46
It's focus, it's prioritization,
459
1486819
2611
Нужен фокус, расстановка приоритетов,
24:49
it's understanding the fundamentals of the network
460
1489454
2946
понимание основ сети
24:52
and building a framework that scales
461
1492424
2842
и создание масштабируемой схемы,
24:55
and that is resilient to change,
462
1495290
2351
устойчивой к переменам;
24:57
and being open about where we are and being transparent about where are
463
1497665
5429
открытость о наших действиях и принцип прозрачности,
25:03
so that we can continue to earn trust.
464
1503118
2179
чтобы мы могли заслуживать доверия и дальше.
25:06
So I'm proud of all the frameworks that we've put in place.
465
1506141
3331
Так что я горжусь тем, что мы создали.
25:09
I'm proud of our direction.
466
1509496
2888
Я горжусь нашим направлением.
25:12
We obviously can move faster,
467
1512915
2718
Само собой, мы можем двигаться быстрее,
25:15
but that required just stopping a bunch of stupid stuff we were doing in the past.
468
1515657
4719
но для этого нужно остановить те глупости, которые мы сделали в прошлом.
25:21
CA: All right.
469
1521067
1164
КА: Хорошо.
25:22
Well, I suspect there are many people here who, if given the chance,
470
1522255
4067
Наверняка здесь много тех, кто бы очень хотел, будь у них возможность,
25:26
would love to help you on this change-making agenda you're on,
471
1526346
3989
помочь вам с этой темой перемен,
25:30
and I don't know if Whitney --
472
1530359
1542
и я не знаю насчёт Уитни...
25:31
Jack, thank you for coming here and speaking so openly.
473
1531925
2761
Джек, спасибо, что пришли и что вы так открыто говорили.
25:34
It took courage.
474
1534710
1527
Это смело.
25:36
I really appreciate what you said, and good luck with your mission.
475
1536261
3384
Я очень признателен за этот разговор и желаю удачи в вашей миссии.
25:39
JD: Thank you so much. Thanks for having me.
476
1539669
2095
ДД: Большое спасибо. Спасибо за приглашение.
25:41
(Applause)
477
1541788
3322
(Aплодисменты)
25:45
Thank you.
478
1545134
1159
Спасибо.
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7