How Twitter needs to change | Jack Dorsey

185,541 views ・ 2019-06-07

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Maisam Sheblaq المدقّق: Ahmed Fatthey
00:13
Chris Anderson: What worries you right now?
0
13131
2408
كريس أنيدرسون: ما الذي يقلقك الآن؟
00:15
You've been very open about lots of issues on Twitter.
1
15563
2853
كنت صريحًا جدًا بخصوص الكثير من المشاكل فى تويتر.
00:18
What would be your top worry
2
18440
2299
ما أكثر شيء يقلقك
00:20
about where things are right now?
3
20763
2049
فيما آلت إليه الأمور الآن؟
00:23
Jack Dorsey: Right now, the health of the conversation.
4
23447
2929
جاك دورسي: ما يقلقني الآن هو صحة المحادثات.
00:26
So, our purpose is to serve the public conversation,
5
26400
3660
هدفنا هو خدمة الحوار الاجتماعي،
00:30
and we have seen a number of attacks on it.
6
30084
5056
ولكننا رأينا عددًا من التعدّيات عليه.
00:35
We've seen abuse, we've seen harassment,
7
35164
2425
لقد رأينا الإساءة، والمضايقة،
00:37
we've seen manipulation,
8
37613
3222
رأينا التلاعب،
00:40
automation, human coordination, misinformation.
9
40859
4265
والأوتوماتية، والتنسيق البشري، والتضليل.
00:46
So these are all dynamics that we were not expecting
10
46134
4034
لذا كل هذه المتغيرات لم نتوقعها
00:50
13 years ago when we were starting the company.
11
50192
3718
حين أسّسنا الشركة قبل 13 عامًا.
00:53
But we do now see them at scale,
12
53934
2664
لكننا نراها الآن على نطاق واسع،
00:56
and what worries me most is just our ability to address it
13
56622
5278
وأكثر ما يقلقني هو فقط قدرتنا على معالجة هذا
01:01
in a systemic way that is scalable,
14
61924
3108
بطريقة ممنهجة ويمكن قياسها،
01:05
that has a rigorous understanding of how we're taking action,
15
65056
6976
والقائمة على فهم دقيق لكيفية اتخاذنا للإجراءات،
01:12
a transparent understanding of how we're taking action
16
72056
3105
فهم واضح لكيفية اتخاذنا للقرارات،
01:15
and a rigorous appeals process for when we're wrong,
17
75185
3101
وعملية استئناف صارمة حين نخطئ،
01:18
because we will be wrong.
18
78310
2169
لأننا حتمًا سنخطئ.
01:20
Whitney Pennington Rodgers: I'm really glad to hear
19
80503
2397
ويتني بينينغتون: أنا سعيدة حقًا لسماع
01:22
that that's something that concerns you,
20
82924
1928
أن هذا شيء يهمّك،
01:24
because I think there's been a lot written about people
21
84876
2630
لأنني أعتقد أن هناك الكثير من الكلام عن أناس
أسيء معاملتهم وتعرضوا للمضايقة على تويتر،
01:27
who feel they've been abused and harassed on Twitter,
22
87530
2477
01:30
and I think no one more so than women and women of color
23
90031
4102
وأعتقد أن لا أحد أوذي أكثر من النساء والنساء من غير البيض
01:34
and black women.
24
94157
1170
وذوات البشر السوداء.
01:35
And there's been data that's come out --
25
95351
1913
وهناك بيانات منشورة...
01:37
Amnesty International put out a report a few months ago
26
97288
2909
أصدرت منظمة العفو الدولية تقريرًا منذ أشهر
01:40
where they showed that a subset of active black female Twitter users
27
100221
4480
جاء فيه أن مجموعة من مستخدمات تويتر النشِطات من أصحاب البشرة السوداء
01:44
were receiving, on average, one in 10 of their tweets
28
104725
3456
كن يتعرضن لشكل من أشكال المضايقة
01:48
were some form of harassment.
29
108205
2099
بمعدل تغريدة من كل 10 تغريدات في المتوسط.
01:50
And so when you think about health for the community on Twitter,
30
110328
3907
ولذا عندما تفكر في صحة مجتمع تويتر،
01:54
I'm interested to hear, "health for everyone,"
31
114259
4024
أنا مهتمة بسماع كلمة (الصحة للجميع)،
01:58
but specifically: How are you looking to make Twitter a safe space
32
118307
3125
لكن على وجه الخصوص، كيف تنوي أن تجعل تويتر مكانًا آمنًا
02:01
for that subset, for women, for women of color and black women?
33
121456
4164
لتلك الفئة من النساء من غير البيض والبشرة السوداء؟
02:05
JD: Yeah.
34
125644
1164
نعم.
02:06
So it's a pretty terrible situation
35
126832
2643
إنه موقف رهيب جدًا
02:09
when you're coming to a service
36
129499
1619
عندما تقبل على خدمة
02:11
that, ideally, you want to learn something about the world,
37
131142
4321
لكي -في الظروف المثالية- تتعلم شيئًا ما عن العالم،
02:15
and you spend the majority of your time reporting abuse, receiving abuse,
38
135487
5443
ولكنك تجد نفسك تقضي معظم وقتك في التبليغ عن الإساءة، وتتعرض للإساءة،
02:20
receiving harassment.
39
140954
1804
وتتلقى المضايقات.
02:23
So what we're looking most deeply at is just the incentives
40
143373
6321
لذا ما نبحث عنه الآن باهتمام هو الحوافز
02:29
that the platform naturally provides and the service provides.
41
149718
3823
التي تقدمها المنصة والخدمة بشكل طبيعي.
02:34
Right now, the dynamic of the system makes it super-easy to harass
42
154262
4577
حاليًا، دينامية النظام تسهل جدًا مضايقة
02:38
and to abuse others through the service,
43
158863
3664
وإساءة معاملة المستخدمين الآخرين في نفس الخدمة،
02:42
and unfortunately, the majority of our system in the past
44
162551
3262
وللأسف، الجزء الأكبر من نظامنا في الماضي
02:45
worked entirely based on people reporting harassment and abuse.
45
165837
5596
كان يعتمد كليًا على بلاغات الناس عن المضايقة والإساءة.
02:51
So about midway last year, we decided that we were going to apply
46
171457
5075
لذا في منتصف العام الماضي تقريبًا، قررنا أننا سنطبّق
02:56
a lot more machine learning, a lot more deep learning to the problem,
47
176556
3982
المزيد من تعلم الآلة، والمزيد من التعلم العميق لحل المشكلة،
03:00
and try to be a lot more proactive around where abuse is happening,
48
180562
4538
وحاولنا أن نكون أكثر استباقية في تحديد مكان الإساءة ومنعها قبل حدوثها
03:05
so that we can take the burden off the victim completely.
49
185124
3960
حتى نزيح العبء عن كاهل الضحية تمامًا.
03:09
And we've made some progress recently.
50
189108
2435
ولقد أحرزنا بعض التقدم مؤخرًا.
03:11
About 38 percent of abusive tweets are now proactively identified
51
191567
6689
38% من التغريدات المسيئة يتم التعرف عليها استباقيًا
03:18
by machine learning algorithms
52
198280
1715
باستخدام خوارزميات التعلم الآلي؛
03:20
so that people don't actually have to report them.
53
200019
2334
لذا لا يحتاج الناس حقًا للتبليغ عنها.
03:22
But those that are identified are still reviewed by humans,
54
202377
3305
لكن تلك التغريدات التي تم التعرف عليها يتم مراجعتها من قبل بشر
03:25
so we do not take down content or accounts without a human actually reviewing it.
55
205706
5384
لذا فإننا لا نحذف أي محتوى أو حسابات قبل أن يراجعها بشري.
03:31
But that was from zero percent just a year ago.
56
211114
2759
كل هذا لم يكن موجودًا قبل عام فقط.
03:33
So that meant, at that zero percent,
57
213897
1931
وهذا عنى حينها أن كل شخص يتعرض لإساءة ما كان عليه أن يبلغ عنها بنفسه،
03:35
every single person who received abuse had to actually report it,
58
215852
3650
03:39
which was a lot of work for them, a lot of work for us
59
219526
3579
وهذا عنى الكثير من العمل بالنسبة لهم، وبالنسبة لنا أيضًا،
03:43
and just ultimately unfair.
60
223129
2018
وهذا غير عادل أبدًا.
03:46
The other thing that we're doing is making sure that we, as a company,
61
226528
3780
الشيء الآخر الذى نفعله هو التأكد -كشركة-
03:50
have representation of all the communities that we're trying to serve.
62
230332
3333
من أننا نحظى بتمثيل من كل المجتمعات التي نحاول خدمتها.
03:53
We can't build a business that is successful
63
233689
2159
لا نستطيع بناء مشروع عمل ناجح
03:55
unless we have a diversity of perspective inside of our walls
64
235872
3300
إلا إذا كان لدينا تنوع في خلفيات الموظفين داخل شركتنا
03:59
that actually feel these issues every single day.
65
239196
3732
والذين يختبرون هذه المشاكل كل يوم.
04:02
And that's not just with the team that's doing the work,
66
242952
3738
وهذا ليس فقط مع الفريق القائم بالعمل،
04:06
it's also within our leadership as well.
67
246714
2096
بل أيضًا مع قيادتنا كذلك.
04:08
So we need to continue to build empathy for what people are experiencing
68
248834
5757
لذا فإننا نحتاج لبناء تعاطف مع ما يختبره الناس،
04:14
and give them better tools to act on it
69
254615
3316
وإعطائهم أدواتٍ أفضل للتصرف معه،
04:17
and also give our customers a much better and easier approach
70
257955
4252
وكذلك تزويد عملائنا بمدخل أفضل وأسهل
04:22
to handle some of the things that they're seeing.
71
262231
2382
لمعالجة بعض الأشياء التي يرونها.
04:24
So a lot of what we're doing is around technology,
72
264637
3266
لذا فالكثير مما نفعله يتمحور حول التكنولوجيا،
04:27
but we're also looking at the incentives on the service:
73
267927
4308
لكننا أيضًا ننظر إلى الحوافز في هذه الخدمة:
04:32
What does Twitter incentivize you to do when you first open it up?
74
272259
5183
ما الذي يدفعك تويتر لفعله بمجرد الدخول إليه؟
04:37
And in the past,
75
277466
1294
وفي الماضي،
04:40
it's incented a lot of outrage, it's incented a lot of mob behavior,
76
280670
5544
كان يحفّز الكثير من الغضب والسلوك الغوغائي،
04:46
it's incented a lot of group harassment.
77
286238
2459
وكان يحفّز الكثير من المضايقات الجماعية.
04:48
And we have to look a lot deeper at some of the fundamentals
78
288721
3648
وينبغي علينا أن ننظر بتعمق أكبر في بعض أساسيات
04:52
of what the service is doing to make the bigger shifts.
79
292393
2958
ما تفعله الخدمة لإحداث التحولات الكبيرة.
04:55
We can make a bunch of small shifts around technology, as I just described,
80
295375
4031
نستطيع تحقيق بعض النقلات الصغيرة في التكنولوجيا كما ذكرت توًا،
04:59
but ultimately, we have to look deeply at the dynamics in the network itself,
81
299430
4386
لكن في النهاية، يجب النظر بتعمق في التغيرات في الشبكة نفسها،
05:03
and that's what we're doing.
82
303840
1368
وهذا ما نفعله.
05:05
CA: But what's your sense --
83
305232
2060
ولكن ما هو تصورك...
05:07
what is the kind of thing that you might be able to change
84
307316
3963
ما نوع الشيء الذي يمكنك تغييره
05:11
that would actually fundamentally shift behavior?
85
311303
2749
والذي حقًا سيغير السلوك بشكل كبير؟
05:15
JD: Well, one of the things --
86
315386
1480
حسنًا، أحد الأشياء هي...
05:16
we started the service with this concept of following an account,
87
316890
5340
أننا بدأنا الخدمة بمبدأ اتجاه الناس لمتابعة حساب ما،
05:22
as an example,
88
322254
1725
كمثال.
05:24
and I don't believe that's why people actually come to Twitter.
89
324003
4349
ولكني لا أعتقد أن هذا هو سبب استخدام الناس لتويتر.
05:28
I believe Twitter is best as an interest-based network.
90
328376
4857
أعتقد أن تويتر شبكة مبنية على الاهتمامات المشتركة.
05:33
People come with a particular interest.
91
333257
3453
الناس يستخدمونه لمتابعة اهتمام معين لديهم.
05:36
They have to do a ton of work to find and follow the related accounts
92
336734
3487
ويبذلون الكثير من الجهد لإيجاد ومتابعة حسابات
05:40
around those interests.
93
340245
1405
متعلقة باهتماماتهم.
05:42
What we could do instead is allow you to follow an interest,
94
342217
3397
بدلاً من ذلك، يمكننا أن نتيح لك خيار متابعة اهتمام ما،
05:45
follow a hashtag, follow a trend,
95
345638
2103
بأن تتابع الهاشتاج، أو التريند،
05:47
follow a community,
96
347765
1754
أو مجتمعًا معينًا،
05:49
which gives us the opportunity to show all of the accounts,
97
349543
4637
وهذا يسمح لنا بإظهار جميع الحسابات،
05:54
all the topics, all the moments, all the hashtags
98
354204
3323
وكل الموضوعات، وكل اللحظات، وكل الهاشتاجات
05:57
that are associated with that particular topic and interest,
99
357551
3992
المرتبطة بهذا الموضوع والاهتمام المحدد،
06:01
which really opens up the perspective that you see.
100
361567
4600
مما يجعل منظورك أكثر شمولية.
06:06
But that is a huge fundamental shift
101
366191
2157
ولكن هذا يمثل نقلة أساسية كبيرة؛
06:08
to bias the entire network away from just an account bias
102
368372
3792
أن توجّه الشبكة بأكملها بعيدًا عن متابعة حساب معين
06:12
towards a topics and interest bias.
103
372188
2587
إلى متابعة موضوعات واهتمامات معينة.
06:15
CA: Because isn't it the case
104
375283
3148
ولكن...
06:19
that one reason why you have so much content on there
105
379375
3541
أليس أحد أسباب وجود هذا القدر الكبير من المحتوى هناك
06:22
is a result of putting millions of people around the world
106
382940
3591
هو وضع الملايين من الناس حول العالم
06:26
in this kind of gladiatorial contest with each other
107
386555
3142
في هذه المنافسة الملحمية مع بعضهم البعض
06:29
for followers, for attention?
108
389721
2090
من أجل المتابعين والحظي بالانتباه؟
06:31
Like, from the point of view of people who just read Twitter,
109
391835
4117
بالنسبة للأشخاص الذي يقرأون فقط تويتر،
06:35
that's not an issue,
110
395976
1155
لن يمثل هذا مشكلة جمة،
06:37
but for the people who actually create it, everyone's out there saying,
111
397155
3350
أما بالنسبة للناس الذين يصنعون هذا المحتوى، فكل واحد منهم يقول:
06:40
"You know, I wish I had a few more 'likes,' followers, retweets."
112
400529
3236
"أتمنى لو كان لدي المزيد من الإعجابات والمتابعين وإعادة التغريد."
06:43
And so they're constantly experimenting,
113
403789
2148
ولذلك فهم يجربون باستمرار
06:45
trying to find the path to do that.
114
405961
1961
محاولين إيجاد وسيلة لتحقيق ذلك.
06:47
And what we've all discovered is that the number one path to do that
115
407946
4126
والذي اكتشفناه جميعًا أن الوسيلة الأبرز لتحقيق ذلك
06:52
is to be some form of provocative,
116
412096
3406
هو أن تكون مستفزًا نوعًا ما،
06:55
obnoxious, eloquently obnoxious,
117
415526
2980
أو بغيضًا، بغيضًا فصيحًا،
06:58
like, eloquent insults are a dream on Twitter,
118
418530
3516
فالإهانات البليغة هي حلم على تويتر،
07:02
where you rapidly pile up --
119
422070
2603
حيث تستشيط غضبًا بسرعة
07:04
and it becomes this self-fueling process of driving outrage.
120
424697
4608
وتصير أشبه بعملية ذاتية الاشتعال من الغضب العارم.
07:09
How do you defuse that?
121
429329
2351
كيف يمكنك نزع فتيل ذلك؟
07:12
JD: Yeah, I mean, I think you're spot on,
122
432624
2947
نعم، أعني، أعتقد أنك محق تمامًا،
07:15
but that goes back to the incentives.
123
435595
1886
لكن هذا يعود للحوافز.
07:17
Like, one of the choices we made in the early days was
124
437505
2632
مثلاً، أحد الخيارات التي أنشأناها في الأيام الأولى كان
07:20
we had this number that showed how many people follow you.
125
440161
4701
ذلك الرقم الذي يظهر عدد متابعيك.
07:24
We decided that number should be big and bold,
126
444886
2959
قررنا أن ذلك الرقم يجب أن يكون كبيرًا وبالخط العريض،
07:27
and anything that's on the page that's big and bold has importance,
127
447869
3740
وأي شيء على الصفحة كبير وعريض فهو مهم،
07:31
and those are the things that you want to drive.
128
451633
2278
هذه هي الأشياء التي تريد تنميتها.
07:33
Was that the right decision at the time?
129
453935
1907
هل كان ذلك قرارًا صحيحًا في ذلك الوقت؟
07:35
Probably not.
130
455866
1153
ربما لا.
07:37
If I had to start the service again,
131
457043
1805
إذا كنت سأعيد بناء الخدمة من البداية،
07:38
I would not emphasize the follower count as much.
132
458872
2398
فلن أبرز عدد المتابعين بهذا القدر.
07:41
I would not emphasize the "like" count as much.
133
461294
2295
ولن أبرز عدد الإعجابات بهذا القدر.
07:43
I don't think I would even create "like" in the first place,
134
463613
3120
ولا أظن أنني كنت سأنشئ زر الإعجاب في المقام الأول؛
07:46
because it doesn't actually push
135
466757
3267
لأنه في الواقع لا يخدم
07:50
what we believe now to be the most important thing,
136
470048
3179
ما نعتقده الآن أهم شيء،
07:53
which is healthy contribution back to the network
137
473251
3039
وهو المساهمة الصحية في الشبكة،
07:56
and conversation to the network,
138
476314
2652
والتحاور مع باقي مستخدمي الشبكة،
07:58
participation within conversation,
139
478990
2072
والمشاركة في الحوار،
08:01
learning something from the conversation.
140
481086
2493
وتعلم شيء من الحوار.
08:03
Those are not things that we thought of 13 years ago,
141
483603
2824
هذه ليست الأشياء التي كنا نفكر فيها قبل 13 عامًا،
08:06
and we believe are extremely important right now.
142
486451
2439
ونعتقد أنها مهمة جدًا الآن.
08:08
So we have to look at how we display the follower count,
143
488914
3023
لذا علينا أن ننظر إلى طريقة عرض عدد المتابعين،
08:11
how we display retweet count,
144
491961
2365
وطريقة عرض عدد إعادات التغريد،
08:14
how we display "likes,"
145
494350
1401
وطريقة عرض الإعجابات،
08:15
and just ask the deep question:
146
495775
2254
وأن نسأل السؤال العميق:
08:18
Is this really the number that we want people to drive up?
147
498053
3048
هل هذا حقًا الرقم الذي نريد من الناس أن يضاعفوه؟
08:21
Is this the thing that, when you open Twitter,
148
501125
2545
هل هذا هو الشيء الذي عندما تفتح تويتر
08:23
you see, "That's the thing I need to increase?"
149
503694
2516
تراه وتقول: "هذا هو الشيء الذي أحتاج لزيادته؟"
08:26
And I don't believe that's the case right now.
150
506234
2144
ولا أعتقد أن هذا هو الوضع الآن.
08:28
(Applause)
151
508402
2103
(تصفيق)
08:30
WPR: I think we should look at some of the tweets
152
510529
2352
أعتقد أننا يجب أن ننظر إلى بعض التغريدات
08:32
that are coming in from the audience as well.
153
512905
2169
التي تأتي من الجمهور أيضًا.
08:35
CA: Let's see what you guys are asking.
154
515868
2436
لنر ما الذي تسألون عنه يا رفاق.
08:38
I mean, this is -- generally, one of the amazing things about Twitter
155
518328
3294
أعني، هذا بشكل عام واحد من الأشياء الرائعة بخصوص تويتر
08:41
is how you can use it for crowd wisdom,
156
521646
2294
أنك يمكن أن تستخدمه لنشر الحكمة بين الجموع،
08:43
you know, that more knowledge, more questions, more points of view
157
523964
4840
كما تعرف، ذلك يتضمن معرفة أوسع، وأسئلة، ووجهات نظر
08:48
than you can imagine,
158
528828
1238
أكثر مما تتخيل،
08:50
and sometimes, many of them are really healthy.
159
530090
3689
وأحيانا، العديد منهم صحي جدًا.
08:53
WPR: I think one I saw that passed already quickly down here,
160
533803
2900
أعتقد أني رأيت سؤالاً يمر بسرعة هنا،
08:56
"What's Twitter's plan to combat foreign meddling in the 2020 US election?"
161
536717
3524
"ما هي خطة تويتر لمكافحة التدخل الأجنبي في انتخابات الولايات المتحدة 2020؟"
09:00
I think that's something that's an issue we're seeing
162
540265
2571
أعتقد أن هذا أمر يمثل مشكلة
09:02
on the internet in general,
163
542860
1901
نراها على الإنترنت بشكل عام،
09:04
that we have a lot of malicious automated activity happening.
164
544785
3667
أن هناك الكثير من النشاط الآلي الخبيث يحدث.
09:08
And on Twitter, for example, in fact, we have some work
165
548476
5373
وعلى تويتر، على سبيل المثال، لدينا بعض العمل في الحقيقة
09:13
that's come from our friends at Zignal Labs,
166
553873
2758
من أصدقائنا في مختبرات زيجنال،
09:16
and maybe we can even see that to give us an example
167
556655
2656
وربما يمكننا حتى أن نرى ذلك لنعطي مثالاً
09:19
of what exactly I'm talking about,
168
559335
1927
عما أتحدث عنه بالضبط،
09:21
where you have these bots, if you will,
169
561286
3204
أينما تمتلك روبوتات -إذا كنت تنوي ذلك-
09:24
or coordinated automated malicious account activity,
170
564514
4550
أو نشاط حسابي آلي خبيث منسق،
09:29
that is being used to influence things like elections.
171
569088
2764
فإنها تُستخدَم للتأثير على أشياء مثل الانتخابات.
09:31
And in this example we have from Zignal which they've shared with us
172
571876
3843
وفي هذا المثال التي تشاركه زيجنال معنا
09:35
using the data that they have from Twitter,
173
575743
2198
باستخدام البيانات التي لديهم من تويتر،
09:37
you actually see that in this case,
174
577965
2441
يمكنك أن ترى ذلك في هذه الحالة
09:40
white represents the humans -- human accounts, each dot is an account.
175
580430
4370
أن الأبيض يمثل البشر، الحسابات البشرية، حيث أن كل نقطة هي حساب.
09:44
The pinker it is,
176
584824
1359
وكلما زاد لونها الوردي،
09:46
the more automated the activity is.
177
586207
1740
كلما كان النشاط آليًا أكثر.
09:47
And you can see how you have a few humans interacting with bots.
178
587971
5970
ويمكنك أن ترى أن هناك بعض البشر يتفاعلون مع الروبوتات
09:53
In this case, it's related to the election in Israel
179
593965
4419
هذه الحالة متعلقة بالانتخابات في إسرائيل
09:58
and spreading misinformation about Benny Gantz,
180
598408
2833
ونشر معلومات مضللة عن بيني غانتز،
10:01
and as we know, in the end, that was an election
181
601265
2662
وكما نعرف، في النهاية،
10:03
that Netanyahu won by a slim margin,
182
603951
3724
فاز نتنياهو بفارق ضئيل،
10:07
and that may have been in some case influenced by this.
183
607699
2842
وهذا قد يكون تأثر بذلك بشكل أو بآخر.
10:10
And when you think about that happening on Twitter,
184
610565
2615
وعندما تفكر فيما يحدث على تويتر،
10:13
what are the things that you're doing, specifically,
185
613204
2456
ما الأشياء التي تقوم بها خصيصًا
10:15
to ensure you don't have misinformation like this spreading in this way,
186
615684
3702
للتأكد من عدم انتشار المعلومات المضللة بهذه الدرجة
10:19
influencing people in ways that could affect democracy?
187
619410
4181
وتأثيرها على الناس بطرق يمكن أن تؤثر على الديمقراطية؟
10:23
JD: Just to back up a bit,
188
623615
1771
من أجل حشد بعض الدعم،
10:25
we asked ourselves a question:
189
625410
2975
سألنا أنفسنا سؤالاً:
10:28
Can we actually measure the health of a conversation,
190
628409
3816
هل يمكننا قياس صحة المحادثة؟
10:32
and what does that mean?
191
632249
1288
وما الذي يعنيه ذلك؟
10:33
And in the same way that you have indicators
192
633561
3382
وكما أن لديك مؤشرات
10:36
and we have indicators as humans in terms of are we healthy or not,
193
636967
3467
ولدينا مؤشرات كبشر من حيث هل نحن أصحاء أم لا
10:40
such as temperature, the flushness of your face,
194
640458
4658
مثل درجة الحرارة واحمرار وجهك،
10:45
we believe that we could find the indicators of conversational health.
195
645140
4560
فإننا نعتقد أننا يمكننا إيجاد مؤشرات لصحة المحادثة.
10:49
And we worked with a lab called Cortico at MIT
196
649724
3843
وعملنا مع مختبر يدعى كورتيكو في معهد ماساتشوستس للتكنولوجيا
10:54
to propose four starter indicators
197
654479
6091
ليقترحوا علينا أربعة مؤشرات أولية
11:00
that we believe we could ultimately measure on the system.
198
660594
3670
يمكننا أن نقيسها في النظام.
11:05
And the first one is what we're calling shared attention.
199
665249
5604
الأول هو ما نسميه الاهتمام المشترك.
11:10
It's a measure of how much of the conversation is attentive
200
670877
3581
هو مقياس لمدى كون المحادثة مثيرة للانتباه
11:14
on the same topic versus disparate.
201
674482
2630
حول هذا الموضوع مقارنة بسواه.
11:17
The second one is called shared reality,
202
677739
2783
الثاني يسمى الواقعية المشتركة،
11:21
and this is what percentage of the conversation
203
681217
2259
وهذه هي النسبة المئوية من المحادثة
11:23
shares the same facts --
204
683500
2005
التي نتشارك فيها نفس الحقائق،
11:25
not whether those facts are truthful or not,
205
685529
3113
لا يهم سواء كانت تلك الحقائق صادقة أم لا،
11:28
but are we sharing the same facts as we converse?
206
688666
3009
المهم هو: هل نتشارك نفس الحقائق بينما نتحدث؟
11:32
The third is receptivity:
207
692235
2353
والثالث هو التقبل:
11:34
How much of the conversation is receptive or civil
208
694612
3959
كم بالمئة من المحادثة يتسم بالتقبل والتحضر؟
11:38
or the inverse, toxic?
209
698595
2944
أو على النقيض بالسُمّية؟
11:42
And then the fourth is variety of perspective.
210
702213
3222
ثم الرابع هو اختلاف وجهات النظر:
11:45
So, are we seeing filter bubbles or echo chambers,
211
705459
3145
إذن، هل نحن بصدد فقاعة المرشح أو غرفة الصدى؟
11:48
or are we actually getting a variety of opinions
212
708628
3057
أم أننا نحن في الواقع نحصل على مجموعة متنوعة من الآراء
11:51
within the conversation?
213
711709
1635
خلال المحادثة؟
11:53
And implicit in all four of these is the understanding that,
214
713368
4018
ومفهوم ضمنيًا في هذه المؤشرات
11:57
as they increase, the conversation gets healthier and healthier.
215
717410
3390
أنها كلما زادت، تصبح المحادثة صحية أكثر وأكثر.
12:00
So our first step is to see if we can measure these online,
216
720824
4869
لذا خطوتنا الأولى هي أن نرى إن كنا بإمكاننا قياس هذا على الإنترنت،
12:05
which we believe we can.
217
725717
1308
ونعتقد أننا قادرون على ذلك.
12:07
We have the most momentum around receptivity.
218
727049
3167
لدينا الزخم الأكبر حول التقبل.
12:10
We have a toxicity score, a toxicity model, on our system
219
730240
4317
لدينا مقياس أو نموذج للسُمّية على نظامنا
12:14
that can actually measure whether you are likely to walk away
220
734581
4124
يمكنه أن يقيس فعلاً متى ينبغي أن تبتعد
12:18
from a conversation that you're having on Twitter
221
738729
2313
عن محادثة تجريها على تويتر
12:21
because you feel it's toxic,
222
741066
1633
لأنها سامة
12:22
with some pretty high degree.
223
742723
2512
بدرجة كبيرة.
12:26
We're working to measure the rest,
224
746369
2199
نحن أيضًا نعمل على قياس البقية،
12:28
and the next step is,
225
748592
1964
والخطوة التالية هي
12:30
as we build up solutions,
226
750580
3359
-بينما نخلق حلولاً-
12:33
to watch how these measurements trend over time
227
753963
3491
أن نتابع التغيرات في هذه القياسات مع مرور الوقت
12:37
and continue to experiment.
228
757478
1873
ومواصلة التجربة.
12:39
And our goal is to make sure that these are balanced,
229
759375
4041
وهدفنا أن نتأكد من توازنها؛
12:43
because if you increase one, you might decrease another.
230
763440
3066
لأن الزيادة في إحداها تأتي على حساب النقص في أخرى.
12:46
If you increase variety of perspective,
231
766530
2147
إذا زاد تنوع وجهات النظر
12:48
you might actually decrease shared reality.
232
768701
3091
فقد تقل الواقعية المشتركة.
12:51
CA: Just picking up on some of the questions flooding in here.
233
771816
4989
فقط لنأخذ بعض الأسئلة المتدفقة هنا.
12:56
JD: Constant questioning.
234
776829
1271
السؤال الثابت.
12:58
CA: A lot of people are puzzled why,
235
778996
3620
الكثير من الناس متحيرون
13:02
like, how hard is it to get rid of Nazis from Twitter?
236
782640
4247
حول مدى صعوبة التخلص من النازيين على تويتر؟
13:08
JD: (Laughs)
237
788309
1322
(ضحك)
13:09
So we have policies around violent extremist groups,
238
789655
6995
لدينا سياسات حول الجماعات المتطرفة العنيفة،
13:16
and the majority of our work and our terms of service
239
796674
4426
وغالبية عملنا وشروط خدمتنا
13:21
works on conduct, not content.
240
801124
3729
تستهدف السلوك وليس المحتوى.
13:24
So we're actually looking for conduct.
241
804877
2551
لذا نحن في الحقيقة نبحث عن السلوك.
13:27
Conduct being using the service
242
807452
3014
كأن يستخدم أحدهم هذه الخدمة
13:30
to repeatedly or episodically harass someone,
243
810490
3867
لمضايقة شخص ما بشكل متكرر أو دوري،
13:34
using hateful imagery
244
814381
2493
باستخدام الصور البغيضة
13:36
that might be associated with the KKK
245
816898
2106
المرتبطة بمنظمة (كو كلوكس كلان)
13:39
or the American Nazi Party.
246
819028
3281
أو الحزب النازي الأمريكي.
13:42
Those are all things that we act on immediately.
247
822333
4156
هذه كلها أشياء نتصرف بخصوصها على الفور.
13:47
We're in a situation right now where that term is used fairly loosely,
248
827002
5452
نحن في وضع الآن حيث يُستخدَم هذا المصطلح بشكل فضفاض،
13:52
and we just cannot take any one mention of that word
249
832478
5313
وبالتالي لا نستطيع أن نعتبر هذه الكلمة
13:57
accusing someone else
250
837815
2117
دليلاً كافيًا لاتهام شخص آخر
13:59
as a factual indication that they should be removed from the platform.
251
839956
3755
أو مؤشرًا واقعيًا على ضرورة حذفه من المنصة.
14:03
So a lot of our models are based around, number one:
252
843735
2627
لذا الكثير من نماذجنا مبنية حول: أولاً:
14:06
Is this account associated with a violent extremist group?
253
846386
3140
هل هذا الحساب مرتبط بجماعة متطرفة عنيفة؟
14:09
And if so, we can take action.
254
849550
1983
وإذا كان الأمر كذلك، يمكننا اتخاذ إجراء.
14:11
And we have done so on the KKK and the American Nazi Party and others.
255
851557
3852
وفعلنا ذلك مع (كو كلوكس كلان) والحزب النازي الأمريكي وآخرين.
14:15
And number two: Are they using imagery or conduct
256
855433
4183
ثانيًا: هل يستخدمون صورًا أو يسلكون سلوكًا
14:19
that would associate them as such as well?
257
859640
2372
من شأنه أن يدرجهم في هذا التصنيف أيضًا؟
14:22
CA: How many people do you have working on content moderation
258
862416
2932
كم عدد الناس لديك الذين يعملون على ضمان الاعتدال في المحتوى
14:25
to look at this?
259
865372
1250
وينظرون في هذه الأمور؟
14:26
JD: It varies.
260
866646
1496
إنه يتفاوت.
14:28
We want to be flexible on this,
261
868166
1595
نريد أن نكون مرنين حول هذا،
14:29
because we want to make sure that we're, number one,
262
869785
2646
لأننا نريد أن نتأكد من أننا: رقم واحد:
14:32
building algorithms instead of just hiring massive amounts of people,
263
872455
4424
نبني خوارزميات بدلاً من مجرد توظيف أعداد هائلة من الناس،
14:36
because we need to make sure that this is scalable,
264
876903
2824
لأننا بحاجة للتأكد من أن ذلك قابل للقياس،
14:39
and there are no amount of people that can actually scale this.
265
879751
3454
وليس هناك عدد من الناس يستطيعون حقًا قياس ذلك.
14:43
So this is why we've done so much work around proactive detection of abuse
266
883229
6629
لهذا قمنا بالكثير من العمل للكشف استباقيًا عن إساءة المعاملة،
14:49
that humans can then review.
267
889882
1391
والتي يراجعها البشر بعدها.
14:51
We want to have a situation
268
891297
2861
نريد أن نصل لمرحلة
14:54
where algorithms are constantly scouring every single tweet
269
894182
3741
حيث الخوارزميات تجوب باستمرار كل تغريدة
14:57
and bringing the most interesting ones to the top
270
897947
2342
وتضع الأكثر إثارة للشك في الأعلى
15:00
so that humans can bring their judgment to whether we should take action or not,
271
900313
3902
حتى يستطيع الموظفون البشر أن يحكموا ما إذا كان علينا أن نتخذ إجراءًا أم لا،
15:04
based on our terms of service.
272
904239
1524
بناء على شروط خدمتنا.
15:05
WPR: But there's not an amount of people that are scalable,
273
905787
2803
ليس هناك عدد من الناس قابل للقياس،
15:08
but how many people do you currently have monitoring these accounts,
274
908614
3497
لكن كم من الناس لديك حاليا يراقبون هذه الحسابات؟
15:12
and how do you figure out what's enough?
275
912135
2546
وكيف تحدد ما هو كافٍ لاحتياجاتك؟
15:14
JD: They're completely flexible.
276
914705
2272
إنهم مرِنون تمامًا.
15:17
Sometimes we associate folks with spam.
277
917001
2941
أحيانا نخص بعضهم بالتعامل مع الرسائل المزعجة.
15:19
Sometimes we associate folks with abuse and harassment.
278
919966
3845
ونخصّ البعض الآخر بالتعامل مع الإساءة والمضايقة.
15:23
We're going to make sure that we have flexibility in our people
279
923835
3062
سنتأكد من وجود المرونة في موظفينا
15:26
so that we can direct them at what is most needed.
280
926921
2350
حتى نتمكن من توجيههم نحو الجهات الأكثر احتياجًا،
15:29
Sometimes, the elections.
281
929295
1204
وأحيانًا، الانتخابات.
15:30
We've had a string of elections in Mexico, one coming up in India,
282
930523
4927
لقد كان لدينا سلسلة من الانتخابات: في المكسيك، وواحدة قادمة في الهند،
15:35
obviously, the election last year, the midterm election,
283
935474
4447
وانتخابات العام الماضي بالتأكيد، وانتخابات التجديد النصفي،
15:39
so we just want to be flexible with our resources.
284
939945
2472
لذا نريد فقط أن نكون مرِنين مع مواردنا.
15:42
So when people --
285
942441
2129
لذا عندما الناس...
15:44
just as an example, if you go to our current terms of service
286
944594
6389
سأضرب مثالاً، إذا ذهبت إلى شروط خدمتنا الحالية
15:51
and you bring the page up,
287
951007
1641
وحرّكت الصفحة للأعلى،
15:52
and you're wondering about abuse and harassment that you just received
288
952672
3682
بينما تتساءل عن الإساءة والمضايقة التي تعرضت لها للتو
15:56
and whether it was against our terms of service to report it,
289
956378
3634
وما إذا كانت ضد شروط خدمتنا للإبلاغ عنها،
16:00
the first thing you see when you open that page
290
960036
2559
فإن أول شيء تراه عندما تفتح تلك الصفحة
16:02
is around intellectual property protection.
291
962619
3088
هو حول حماية الملكية الفكرية.
16:06
You scroll down and you get to abuse, harassment
292
966504
5323
حرّك الصفحة للأسفل وستجد عناوين الإساءة والمضايقة
16:11
and everything else that you might be experiencing.
293
971851
2382
وأي شيء آخر قد تعاني منه.
16:14
So I don't know how that happened over the company's history,
294
974257
3195
لذا أنا لا أعرف كيف حدث ذلك على مر تاريخ الشركة،
16:17
but we put that above the thing that people want
295
977476
4797
لكننا وضعنا حقوق الملكية الفكرية
فوق الشيء الذي يريد الناس معرفة ما يكفي من المعلومات عنه واتخاذ رد فعل ضده.
16:24
the most information on and to actually act on.
296
984146
3222
16:27
And just our ordering shows the world what we believed was important.
297
987392
5241
وذلك الترتيب يظهر للعالم ما كنا نعتقد أنه مهم.
16:32
So we're changing all that.
298
992657
2881
لذا نحن نغير كل ذلك.
16:35
We're ordering it the right way,
299
995562
1563
نرتّبه بالطريقة الصحيحة،
16:37
but we're also simplifying the rules so that they're human-readable
300
997149
3451
لكننا أيضا نقوم بتبسيط القواعد بحيث يسهل قراءتها،
16:40
so that people can actually understand themselves
301
1000624
4067
لكي يفهم الناس أنفسهم،
16:44
when something is against our terms and when something is not.
302
1004715
3448
وإذا كان هناك شيء ضد شروطنا أو لا.
16:48
And then we're making --
303
1008187
2161
ثم إننا...
16:50
again, our big focus is on removing the burden of work from the victims.
304
1010372
5200
مرة أخرى، تركيزنا الكبير ينصبّ على إزالة عبء العمل عن الضحايا.
16:55
So that means push more towards technology,
305
1015596
3734
وهذا يعني الدفع باتجاه التكنولوجيا،
16:59
rather than humans doing the work --
306
1019354
1873
بدلاً من أن يقوم البشر بالعمل،
17:01
that means the humans receiving the abuse
307
1021251
2413
وهذا يشمل الأشخاص الذين تعرضوا للإساءة،
17:03
and also the humans having to review that work.
308
1023688
3026
وأيضا الأشخاص الذين يراجعون هذا العمل.
17:06
So we want to make sure
309
1026738
1673
لذا نريد أن نتأكد
17:08
that we're not just encouraging more work
310
1028435
2841
من أننا لا نكلف البشر بالمزيد من العمل
17:11
around something that's super, super negative,
311
1031300
2629
المتعلق بشيء سلبي، سلبي للغاية،
17:13
and we want to have a good balance between the technology
312
1033953
2674
ونريد أن يكون لدينا توازن جيد بين التكنولوجيا
17:16
and where humans can actually be creative,
313
1036651
2852
وبين ما يمكن للبشر أن يكونوا مبدعين فيه:
17:19
which is the judgment of the rules,
314
1039527
3090
وهو الحكم على القواعد،
17:22
and not just all the mechanical stuff of finding and reporting them.
315
1042641
3267
وليس فقط كل الاشياء الميكانيكية المختصة بتحديد الانتهاكات والإبلاغ عنها.
17:25
So that's how we think about it.
316
1045932
1530
إذن، هكذا ننظر للأمر.
17:27
CA: I'm curious to dig in more about what you said.
317
1047486
2406
كريس: أنا فضولي لمعرفة المزيد عما قلته.
17:29
I mean, I love that you said you are looking for ways
318
1049916
2605
أعني، أحب أنك قلت أنك تبحث عن طرق
17:32
to re-tweak the fundamental design of the system
319
1052545
3462
لإعادة تعديل التصميم الأساسي للنظام
17:36
to discourage some of the reactive behavior, and perhaps --
320
1056031
4875
لتثبيط بعض السلوك التفاعلي، وربما...
17:40
to use Tristan Harris-type language --
321
1060930
2705
لاستخدام لغة من نوع تريستان هاريس
17:43
engage people's more reflective thinking.
322
1063659
4288
وتشجيع التفكير النقدي عند الناس.
17:47
How far advanced is that?
323
1067971
1854
ما مدى تقدم ذلك؟
17:49
What would alternatives to that "like" button be?
324
1069849
4305
ما هي البدائل لزر الإعجاب؟
17:55
JD: Well, first and foremost,
325
1075518
3575
حسنًا، أولاً وقبل كل شيء،
17:59
my personal goal with the service is that I believe fundamentally
326
1079117
5753
هدفي الشخصي من الخدمة هو أنني أؤمن بشكل أساسي
18:04
that public conversation is critical.
327
1084894
2702
أن الحوار الاجتماعي بالغ الأهمية.
18:07
There are existential problems facing the world
328
1087620
2647
هناك مشاكل وجودية تواجه العالم
18:10
that are facing the entire world, not any one particular nation-state,
329
1090291
4163
وتواجه العالم بأسره، وليس دولة بعينها،
18:14
that global public conversation benefits.
330
1094478
2649
والتي يفيدها ذلك الحوار الاجتماعي.
18:17
And that is one of the unique dynamics of Twitter,
331
1097151
2372
وهذه واحدة من الديناميكيات الفريدة في تويتر،
18:19
that it is completely open,
332
1099547
1814
أنه مفتوح تمامًا،
18:21
it is completely public,
333
1101385
1596
وأنه عام تمامًا،
18:23
it is completely fluid,
334
1103005
1399
وأنه سلس تمامًا،
18:24
and anyone can see any other conversation and participate in it.
335
1104428
4038
ويمكن لأي شخص أن يرى أي محادثة أخرى ويشارك فيها.
18:28
So there are conversations like climate change.
336
1108490
2206
لذا هناك نقاشات عن التغير المناخي.
18:30
There are conversations like the displacement in the work
337
1110720
2682
هناك مناقشات عن اختفاء الوظائف
18:33
through artificial intelligence.
338
1113426
2000
لصالح الذكاء الاصطناعي.
18:35
There are conversations like economic disparity.
339
1115450
3006
هناك محادثات عن التفاوت في المستوى الاقتصادي.
18:38
No matter what any one nation-state does,
340
1118480
2765
مهما كان ما تفعله أي دولة،
18:41
they will not be able to solve the problem alone.
341
1121269
2421
فلن تتمكن من حل المشكلة بمفردها.
18:43
It takes coordination around the world,
342
1123714
2643
هذه المشاكل تتطلب تنسيقًا حول العالم،
18:46
and that's where I think Twitter can play a part.
343
1126381
3047
وهذا هو الموضع الذي أعتقد أن تويتر يمكن أن يلعب دورًا فيه.
18:49
The second thing is that Twitter, right now, when you go to it,
344
1129452
5642
الشيء الثاني هو أن تويتر -حاليًا- عندما تذهب إليه،
18:55
you don't necessarily walk away feeling like you learned something.
345
1135118
3746
ليس شرطًا أن ترحل وأنت تشعر أنك تعلمت شيئًا،
18:58
Some people do.
346
1138888
1276
لكن بعض الناس يفعلون.
19:00
Some people have a very, very rich network,
347
1140188
3107
بعض الناس لديهم شبكة غنية جدًا جدًا،
19:03
a very rich community that they learn from every single day.
348
1143319
3117
لديهم مجتمع غني جدًا يتعلمون منه كل يوم.
19:06
But it takes a lot of work and a lot of time to build up to that.
349
1146460
3691
لكنه يتطلب الكثير من العمل والكثير من الوقت للوصول إلى ذلك.
19:10
So we want to get people to those topics and those interests
350
1150175
3448
لذا نريد أن نوصّل الناس إلى تلك المواضيع وتلك الاهتمامات
19:13
much, much faster
351
1153647
1579
بسرعة أكبر كثيرًا،
19:15
and make sure that they're finding something that,
352
1155250
2566
وأن نتأكد من أنهم سيجدون شيئًا...
19:18
no matter how much time they spend on Twitter --
353
1158728
2360
مهما كان الوقت الذي يقضونه على تويتر،
19:21
and I don't want to maximize the time on Twitter,
354
1161112
2358
ولا أستهدف زيادة الوقت على تويتر،
19:23
I want to maximize what they actually take away from it
355
1163494
2910
لكنني أهدف لزيادة ما يأخذونه منه،
19:26
and what they learn from it, and --
356
1166428
2030
وما يتعلمونه منه، و...
19:29
CA: Well, do you, though?
357
1169598
1328
حسنا، هل تفعل ذلك؟
19:30
Because that's the core question that a lot of people want to know.
358
1170950
3244
لأن هذا هو السؤال الجوهري الذي يريد الكثير من الناس أن يعرفوا إجابته
19:34
Surely, Jack, you're constrained, to a huge extent,
359
1174218
3638
بالتأكيد، جاك، أنت مقيد، إلى حد كبير،
19:37
by the fact that you're a public company,
360
1177880
2007
بحقيقة أنك شركة عامة،
19:39
you've got investors pressing on you,
361
1179911
1774
لديك مستثمرون يضغطون عليك،
19:41
the number one way you make your money is from advertising --
362
1181709
3559
والطريقة الأولى لكسب المال هي من خلال الإعلانات
19:45
that depends on user engagement.
363
1185292
2772
والتي تعتمد على تفاعل المستخدم.
19:48
Are you willing to sacrifice user time, if need be,
364
1188088
4700
هل أنت على استعداد للتضحية بوقت المستخدم -إذا لزم الأمر-
19:52
to go for a more reflective conversation?
365
1192812
3729
من أجل توفير حوار أكثر عمقًا؟
19:56
JD: Yeah; more relevance means less time on the service,
366
1196565
3111
نعم، زيادة وثاقة الصلة بالموضوع تعني تقضية وقت أقل على الخدمة،
19:59
and that's perfectly fine,
367
1199700
1937
وهذا جيد جدًا،
20:01
because we want to make sure that, like, you're coming to Twitter,
368
1201661
3099
لأننا نريد أن نتأكد من أنك تأتي إلى تويتر
20:04
and you see something immediately that you learn from and that you push.
369
1204784
4520
وترى شيئًا على الفور تتعلم منه وتشجعه.
20:09
We can still serve an ad against that.
370
1209328
3420
لا زال بإمكاننا وضع إعلان بجانب ذلك.
20:12
That doesn't mean you need to spend any more time to see more.
371
1212772
2921
لا يعني هذا أنك بحاجة لقضاء المزيد من الوقت لرؤية المزيد.
20:15
The second thing we're looking at --
372
1215717
1733
الشيء الثاني الذي ننظر إليه...
20:17
CA: But just -- on that goal, daily active usage,
373
1217474
2698
ولكن، فيما يخص هذا الهدف، الاستخدام النشط اليومي...
20:20
if you're measuring that, that doesn't necessarily mean things
374
1220196
3245
إذا كنت تقيس ذلك، هذا لا يعني بالضرورة أشياءً
20:23
that people value every day.
375
1223465
1738
يقدّرها الناس كل يوم.
20:25
It may well mean
376
1225227
1161
قد يعني ذلك
20:26
things that people are drawn to like a moth to the flame, every day.
377
1226412
3306
الأشياء التي ينجذب إليها الناس كل يوم كالعثة إلى اللهب.
20:29
We are addicted, because we see something that pisses us off,
378
1229742
3022
نحن مدمنون، لأننا نرى شيئًا يغضبنا،
20:32
so we go in and add fuel to the fire,
379
1232788
3178
لذا ندخل ونضيف الوقود إلى النار،
20:35
and the daily active usage goes up,
380
1235990
1927
والاستخدام النشط اليومي يزداد،
20:37
and there's more ad revenue there,
381
1237941
1715
مما يزيد من عائدات الإعلانات.
20:39
but we all get angrier with each other.
382
1239680
2752
لكننا جميعًا نصبح أكثر حنقًا على بعضنا البعض.
20:42
How do you define ...
383
1242456
2509
كيف تعرّف...
20:44
"Daily active usage" seems like a really dangerous term to be optimizing.
384
1244989
4126
الاستخدام النشط اليومي يبدو وكأنه مصطلح خطير حقًا لتعزيزه.
20:49
(Applause)
385
1249139
5057
(تصفيق)
جاك: حين نتحدث عنه منفردًا، فهو كذلك.
20:54
JD: Taken alone, it is,
386
1254220
1268
20:55
but you didn't let me finish the other metric,
387
1255512
2346
لكنك لم تدعني أنهي المقياس الآخر،
20:57
which is, we're watching for conversations
388
1257882
3727
الذي هو: أننا نبحث عن المحادثات
21:01
and conversation chains.
389
1261633
2129
وسلاسل المحادثات.
21:03
So we want to incentivize healthy contribution back to the network,
390
1263786
5076
لذا نريد أن نحفز المساهمة الصحية إلى الشبكة،
21:08
and what we believe that is is actually participating in conversation
391
1268886
4181
وما نعتقد أنه عامل مشترك في المحادثات الصحية
21:13
that is healthy,
392
1273091
1197
21:14
as defined by those four indicators I articulated earlier.
393
1274312
5037
كما هو محدد في المؤشرات الأربعة التي أوضحتها سابقًا.
21:19
So you can't just optimize around one metric.
394
1279373
2657
لذلك لا يمكنك فقط التعزيز في مقياس واحد.
21:22
You have to balance and look constantly
395
1282054
2752
يجب أن توازن الأمور وتتطلع باستمرار
21:24
at what is actually going to create a healthy contribution to the network
396
1284830
4083
إلى ما سيخلق حقًا مساهمة صحية للشبكة
21:28
and a healthy experience for people.
397
1288937
2341
وتجربة صحية للناس.
21:31
Ultimately, we want to get to a metric
398
1291302
1866
في النهاية، نريد أن نصل إلى مقياس
21:33
where people can tell us, "Hey, I learned something from Twitter,
399
1293192
3757
حيث يخبرنا الناس: "مهلاً، لقد تعلمت شيئًا من تويتر،
21:36
and I'm walking away with something valuable."
400
1296973
2167
وها أنا أغادره بشيء قيم."
21:39
That is our goal ultimately over time,
401
1299164
2043
هذا هو هدفنا في نهاية المطاف مع مرور الوقت،
21:41
but that's going to take some time.
402
1301231
1809
لكن هذا سيستغرق بعض الوقت.
21:43
CA: You come over to many, I think to me, as this enigma.
403
1303064
5282
أنت تصل إلى العديدين، وإليّ على ما أعتقد، وكذلك الحال مع هذه المعضلة.
21:48
This is possibly unfair, but I woke up the other night
404
1308370
4396
هذا غير عادل غالبًا، لكني استيقظت الليلة الماضية
21:52
with this picture of how I found I was thinking about you and the situation,
405
1312790
3879
بصورة عن أنني كنت أفكر بك وبالموقف،
21:56
that we're on this great voyage with you on this ship called the "Twittanic" --
406
1316693
6903
وأننا في هذه الرحلة العظيمة معك على هذه السفينة المسماة "تويتانيك،"
22:03
(Laughter)
407
1323620
1281
(ضحك)
22:04
and there are people on board in steerage
408
1324925
4357
وهناك أشخاص على متن السفينة في منصة القيادة
22:09
who are expressing discomfort,
409
1329306
2203
يبدون عدم ارتياحهم
22:11
and you, unlike many other captains,
410
1331533
2543
وأنت، على عكس العديد من القباطنة الآخرين،
22:14
are saying, "Well, tell me, talk to me, listen to me, I want to hear."
411
1334100
3431
تقول: "حسنًا، أخبروني، تكلموا معي، استمعوا إليّ، أريد أن أسمع."
22:17
And they talk to you, and they say, "We're worried about the iceberg ahead."
412
1337555
3619
وهم يتحدثون إليك ويقولون: "نحن قلقون بشأن جبل الجليد أمامنا."
22:21
And you go, "You know, that is a powerful point,
413
1341198
2242
وأنت تردّ: "أنت تعرف، هذه نقطة مهمة،
22:23
and our ship, frankly, hasn't been built properly
414
1343464
2430
وسفينتنا -بصراحة- ليست مهيأة جيدًا
22:25
for steering as well as it might."
415
1345918
1669
للانحراف كما ينبغي."
22:27
And we say, "Please do something."
416
1347611
1658
ونحن نقول: "أرجوك افعل شيئًا."
22:29
And you go to the bridge,
417
1349293
1411
وأنت تذهب إلى الجسر،
22:30
and we're waiting,
418
1350728
2295
ونحن ننتظر،
22:33
and we look, and then you're showing this extraordinary calm,
419
1353047
4548
ثم ننظر إليك، ونراك تتحلى بذلك الهدوء غير العادي،
22:37
but we're all standing outside, saying, "Jack, turn the fucking wheel!"
420
1357619
3883
لكننا جميعا واقفون في الخارج نصرخ: "جاك، أدر العجلة اللعينة!"
22:41
You know?
421
1361526
1151
أنت تعرف؟
22:42
(Laughter)
422
1362701
1335
(ضحك)
22:44
(Applause)
423
1364060
2381
(تصفيق)
22:46
I mean --
424
1366465
1166
أعني...
22:47
(Applause)
425
1367655
1734
(تصفيق)
22:49
It's democracy at stake.
426
1369413
4594
إنها الديمقراطية على المحك.
22:54
It's our culture at stake. It's our world at stake.
427
1374031
2821
إنها ثقافتنا على المحك. إنه عالمنا على المحك.
22:56
And Twitter is amazing and shapes so much.
428
1376876
4706
وتويتر مدهش ويساهم في تشكيل الكثير.
23:01
It's not as big as some of the other platforms,
429
1381606
2233
صحيح أنه ليس كبيرًا كبعض المنصات الأخرى،
23:03
but the people of influence use it to set the agenda,
430
1383863
2804
لكن أصحاب النفوذ يستخدمونه لتحقيق أهدافهم،
23:06
and it's just hard to imagine a more important role in the world than to ...
431
1386691
6787
ومن الصعب تخيل دور أكثر أهمية في العالم من أن...
23:13
I mean, you're doing a brilliant job of listening, Jack, and hearing people,
432
1393502
3784
أعني... أنت تقوم بعمل رائع بالاستماع يا چاك وسماع الناس،
23:17
but to actually dial up the urgency and move on this stuff --
433
1397310
4445
لكن حين يأتي الدور فعلاً لطلب النجدة والمضي قدمًا في هذه الأمور،
23:21
will you do that?
434
1401779
2201
هل ستفعل ذلك؟
23:24
JD: Yes, and we have been moving substantially.
435
1404750
3815
نعم، ونحن نتحرك بقوة منذ فترة.
23:28
I mean, there's been a few dynamics in Twitter's history.
436
1408589
3225
أعني... كان هناك بعض التغيرات في تاريخ تويتر.
23:31
One, when I came back to the company,
437
1411838
2083
أولاً، عندما عدت إلى الشركة،
23:35
we were in a pretty dire state in terms of our future,
438
1415477
6256
كنا في حالة مزرية جدًا من حيث مستقبلنا،
23:41
and not just from how people were using the platform,
439
1421757
4634
وليس فقط من حيث كيفية استخدام الناس للمنصة،
23:46
but from a corporate narrative as well.
440
1426415
2047
لكن من الناحية الإدارية أيضًا.
23:48
So we had to fix a bunch of the foundation,
441
1428486
3204
لذا كان علينا أن نصلح جزءًا من المؤسسة،
23:51
turn the company around,
442
1431714
1969
قلبنا الشركة رأسًا على عقب،
23:53
go through two crazy layoffs,
443
1433707
3111
ومررنا بمرحلتين جنونيتين من تسريح العمال،
23:56
because we just got too big for what we were doing,
444
1436842
3793
فقط لأن عددنا كان أكبر من احتياجاتنا،
24:00
and we focused all of our energy
445
1440659
2060
وركزنا كل طاقتنا
24:02
on this concept of serving the public conversation.
446
1442743
3508
حول هذا المفهوم المتعلق بخدمة الحوار الاجتماعي.
24:06
And that took some work.
447
1446275
1451
وهذا تطلب بعض العمل.
24:07
And as we dived into that,
448
1447750
2608
وأثناء استغراقنا في ذلك،
24:10
we realized some of the issues with the fundamentals.
449
1450382
2992
أدركنا بعض المشاكل في الأساسيات.
24:14
We could do a bunch of superficial things to address what you're talking about,
450
1454120
4656
يمكننا أن نفعل مجموعة من الأشياء السطحية لمعالجة ما تتحدث عنه،
24:18
but we need the changes to last,
451
1458800
1790
لكننا نحتاج من التغييرات أن تدوم،
24:20
and that means going really, really deep
452
1460614
2459
وهذا يعني التعمق في الأمر إلى حد بعيد حقًا،
24:23
and paying attention to what we started 13 years ago
453
1463097
4350
وإعارة الانتباه لما بدأناه قبل 13 سنة،
24:27
and really questioning
454
1467471
2261
والتساؤل بجدية
24:29
how the system works and how the framework works
455
1469756
2566
عن كيفية عمل النظام، وكيفية عمل الإطار،
24:32
and what is needed for the world today,
456
1472346
3833
وما يتطلبه العالم اليوم،
24:36
given how quickly everything is moving and how people are using it.
457
1476203
4024
مع الأخذ في الاعتبار حقيقة أن كل شيء يتحرك بسرعة، وكيفية استخدام الناس له.
24:40
So we are working as quickly as we can, but quickness will not get the job done.
458
1480251
6544
لذلك نحن نعمل بأسرع ما يمكننا، ولكن ليست السرعة هي ما ستحقق المطلوب،
24:46
It's focus, it's prioritization,
459
1486819
2611
ولكنه التركيز، وتحديد الأولويات،
24:49
it's understanding the fundamentals of the network
460
1489454
2946
وفهم أساسيات الشبكة،
24:52
and building a framework that scales
461
1492424
2842
ووضع إطار للقياس
24:55
and that is resilient to change,
462
1495290
2351
والذي هو مرن وقابل للتغيير،
24:57
and being open about where we are and being transparent about where are
463
1497665
5429
وأن نكون منفتحين حول وضعنا حاليًا، وأن نكون شفافين حول وضعنا حاليًا،
25:03
so that we can continue to earn trust.
464
1503118
2179
حتى نتمكن من مواصلة كسب الثقة.
25:06
So I'm proud of all the frameworks that we've put in place.
465
1506141
3331
لذا أنا فخور بكل الأطر التي وضعناها.
25:09
I'm proud of our direction.
466
1509496
2888
أنا فخور باتجاهنا.
25:12
We obviously can move faster,
467
1512915
2718
من الواضح أنه يمكننا التحرك أسرع،
25:15
but that required just stopping a bunch of stupid stuff we were doing in the past.
468
1515657
4719
لكن هذا تطلب التوقف عن بعض الأشياء الغبية التي كنا نفعلها في الماضي.
25:21
CA: All right.
469
1521067
1164
صحيح.
25:22
Well, I suspect there are many people here who, if given the chance,
470
1522255
4067
حسنًا، أعتقد أن هناك الكثير من الناس هنا الذين -إذا حظوا بالفرصة-
25:26
would love to help you on this change-making agenda you're on,
471
1526346
3989
سيحبون المساعدة في استراتيجية التغيير التي أنت بصددها،
25:30
and I don't know if Whitney --
472
1530359
1542
وأنا لا أعرف إن كانت ويتني...
25:31
Jack, thank you for coming here and speaking so openly.
473
1531925
2761
چاك، شكرًا لقدومك إلى هنا وتحدثك بهذه الصراحة.
25:34
It took courage.
474
1534710
1527
تطلب الأمر شجاعة.
25:36
I really appreciate what you said, and good luck with your mission.
475
1536261
3384
أنا حقًا أقدر ما قلته، وحظًا موفقًا في مهمتك.
25:39
JD: Thank you so much. Thanks for having me.
476
1539669
2095
شكرًا جزيلًا لك. شكرًا لاستضافتكم لي.
25:41
(Applause)
477
1541788
3322
(تصفيق)
25:45
Thank you.
478
1545134
1159
شكرًا لك.
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7