How Twitter needs to change | Jack Dorsey

185,541 views ・ 2019-06-07

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Masoud Motamedifar Reviewer: Mansoureh Hadavand
00:13
Chris Anderson: What worries you right now?
0
13131
2408
کریس اندرسون: در حال حاضر چه چیزی نگرانت می‌کند؟
00:15
You've been very open about lots of issues on Twitter.
1
15563
2853
تو در مورد مسائل زیادی با صراحت در توییتر صحبت کرده‌ای.
00:18
What would be your top worry
2
18440
2299
در حال حاضر بزرگترین دغدغه‌ات
00:20
about where things are right now?
3
20763
2049
در مورد این مسائل چیست؟
00:23
Jack Dorsey: Right now, the health of the conversation.
4
23447
2929
جک دورسی: درحال حاضر، سلامت مکالمه است.
00:26
So, our purpose is to serve the public conversation,
5
26400
3660
هدف ما، خدمت به مکالمه عمومی است،
00:30
and we have seen a number of attacks on it.
6
30084
5056
ما شاهد مخالفت‌هایی با این موضوع بودیم.
00:35
We've seen abuse, we've seen harassment,
7
35164
2425
ما سوء استفاده، آزارواذیت،
00:37
we've seen manipulation,
8
37613
3222
دغل کاری،
00:40
automation, human coordination, misinformation.
9
40859
4265
کنترل خودکار، دخالت انسانی و اطلاعت نادرست را تجربه کرده‌ایم.
00:46
So these are all dynamics that we were not expecting
10
46134
4034
اینها تحرکاتی هستند که انتظارشان را
00:50
13 years ago when we were starting the company.
11
50192
3718
۱۳ سال پیش وقتی شرکت را تأسیس کردیم، نداشتیم.
00:53
But we do now see them at scale,
12
53934
2664
اما حالا آنها را در مقیاس بزرگ می‌بینیم،
00:56
and what worries me most is just our ability to address it
13
56622
5278
و آنچه بیشتر از همه نگرانم می‌کند، توانایی ما برای رسیدگی به آنها
01:01
in a systemic way that is scalable,
14
61924
3108
به صورت نظا‌م‌‌مند و در مقیاس‌های مختلف است،
01:05
that has a rigorous understanding of how we're taking action,
15
65056
6976
با درک دقیق از اینکه چگونه اقدام می‌کنیم،
01:12
a transparent understanding of how we're taking action
16
72056
3105
درکی شفاف ازنحوه‌ی اقداماتمان
01:15
and a rigorous appeals process for when we're wrong,
17
75185
3101
و فرایند تجدید نظری سختگیرانه برای زمانی که اشتباه می‌کنیم،
01:18
because we will be wrong.
18
78310
2169
زیرا بی‌شک اشتباه خواهیم کرد.
01:20
Whitney Pennington Rodgers: I'm really glad to hear
19
80503
2397
ویتنی پنینگتون راجرز: واقعاً خوشحالم که می شنوم
01:22
that that's something that concerns you,
20
82924
1928
این چیزی است که نگرانت می‌کند،
01:24
because I think there's been a lot written about people
21
84876
2630
چون فکر می‌کنم خیلی درباره افرادی نوشته شده
01:27
who feel they've been abused and harassed on Twitter,
22
87530
2477
که فکرمی‌کنند در توییتر مورد سواستفاده قرارگرفته‌اند
01:30
and I think no one more so than women and women of color
23
90031
4102
فکر می‌کنم بیشترین آزار برای زنان و زنان رنگین پوست
01:34
and black women.
24
94157
1170
و زنان سیاه پوست است.
01:35
And there's been data that's come out --
25
95351
1913
و داده‌هایی ازآن منتشر شده --
01:37
Amnesty International put out a report a few months ago
26
97288
2909
عفو بین الملل چند ماه پیش گزارشی منتشر کرد
01:40
where they showed that a subset of active black female Twitter users
27
100221
4480
که نشان می‌داد بخشی از کاربران زن سیاهپوست فعال در توییتر
01:44
were receiving, on average, one in 10 of their tweets
28
104725
3456
به طور میانگین یک دهمِ توییت‌هایی که دریافت می‌کردند،
01:48
were some form of harassment.
29
108205
2099
نوعی آزار و اذیت بوده است.
01:50
And so when you think about health for the community on Twitter,
30
110328
3907
وقتی به سلامت جامعه‌ی توییتر فکر می‌کنید،
01:54
I'm interested to hear, "health for everyone,"
31
114259
4024
من مایل به شنیدن، «سلامت همه» هستم،
01:58
but specifically: How are you looking to make Twitter a safe space
32
118307
3125
اما به طور خاص: چگونه می‌خواهید توییتر را به فضایی امن
02:01
for that subset, for women, for women of color and black women?
33
121456
4164
برای گروه‌هایی مانند زنان، زنان رنگین پوست و سیاه پوست تبدیل کنید؟
02:05
JD: Yeah.
34
125644
1164
جک دورسی: بله.
02:06
So it's a pretty terrible situation
35
126832
2643
وضعیت هولناکی است
02:09
when you're coming to a service
36
129499
1619
وقتی از سیستمی استفاده می‌کنید
02:11
that, ideally, you want to learn something about the world,
37
131142
4321
که در حالت ایده‌آل، از آن چیزی درباره جهان فرا بگیرید،
02:15
and you spend the majority of your time reporting abuse, receiving abuse,
38
135487
5443
و بخش عمده‌ای از وقتتان را به گزارش دهی آزار،
02:20
receiving harassment.
39
140954
1804
دریافت آزار و اذیت می‌گذرانید.
02:23
So what we're looking most deeply at is just the incentives
40
143373
6321
چیزی که ما عمیق‌تر بررسی می‌کنیم، تنها انگیزه‌هایی است
02:29
that the platform naturally provides and the service provides.
41
149718
3823
که این سرویس و این برنامه به طور طبیعی ایجاد می‌کند.
02:34
Right now, the dynamic of the system makes it super-easy to harass
42
154262
4577
در حال حاضر، نحوه کار این سیستم، آزار و اذیت دیگران را
02:38
and to abuse others through the service,
43
158863
3664
از طریق این شبکه بسیار ساده کرده است،
02:42
and unfortunately, the majority of our system in the past
44
162551
3262
و متأسفانه، بخش عمده‌ای از سیستم ما در گذشته
02:45
worked entirely based on people reporting harassment and abuse.
45
165837
5596
کاملاً بر اساس دریافت گزارش آزار و اذیت از مردم کار می‌کرد.
02:51
So about midway last year, we decided that we were going to apply
46
171457
5075
اواسط سال گذشته، ما تصمیم گرفتیم استفاده بسیار بیشتری
02:56
a lot more machine learning, a lot more deep learning to the problem,
47
176556
3982
از یادگیری ماشینی و یادگیری عمیق برای این مشکل داشته باشیم،
03:00
and try to be a lot more proactive around where abuse is happening,
48
180562
4538
و سعی کنیم بسیار بیشتر در زمینه سواستفاده فعال باشیم،
03:05
so that we can take the burden off the victim completely.
49
185124
3960
تا این بار را کاملاً از دوش قربانی برداریم.
03:09
And we've made some progress recently.
50
189108
2435
و اخیراً پیشرفتهایی داشته‌ایم.
03:11
About 38 percent of abusive tweets are now proactively identified
51
191567
6689
حدود ۳۸ درصد از توییت‌های توهین‌آمیز اکنون به صورت فعالانه شناسایی می‌شوند
03:18
by machine learning algorithms
52
198280
1715
با الگوریتم‌های یادگیری ماشینی
03:20
so that people don't actually have to report them.
53
200019
2334
تا دیگر نیازی به گزارش‌دهی آنها توسط مردم نباشد.
03:22
But those that are identified are still reviewed by humans,
54
202377
3305
اما موارد شناسایی شده، همچنان توسط انسان‌ها مرور می‌شوند،
03:25
so we do not take down content or accounts without a human actually reviewing it.
55
205706
5384
پس ما محتوا یا اکانت‌ها را بدون مرور آنها توسط انسان، حذف نمی‌کنیم.
03:31
But that was from zero percent just a year ago.
56
211114
2759
اما در سال گذشته صفر درصد بود.
03:33
So that meant, at that zero percent,
57
213897
1931
و این به این معناست که در آن صفر درصد،
03:35
every single person who received abuse had to actually report it,
58
215852
3650
هر فردی که مورد سواستفاده قرارمی‌گرفت باید آن را گزارش می‌داد،
03:39
which was a lot of work for them, a lot of work for us
59
219526
3579
که کار زیادی برای آنها و برای ما بود.
03:43
and just ultimately unfair.
60
223129
2018
و در نهایت غیرمنصفانه بود.
03:46
The other thing that we're doing is making sure that we, as a company,
61
226528
3780
کار دیگری که انجام می‌دهیم، این است که به عنوان یک شرکت مطمئن شویم که،
03:50
have representation of all the communities that we're trying to serve.
62
230332
3333
نمایی از تمام جوامعی که سعی داریم به آنها خدمات دهیم داشته باشیم.
03:53
We can't build a business that is successful
63
233689
2159
ما نمی‌توانیم کسب و کار موفقی را بسازیم
03:55
unless we have a diversity of perspective inside of our walls
64
235872
3300
مگر اینکه دیدگاه‌های متفاوتی داخل مجموعه خودمان داشته باشیم
03:59
that actually feel these issues every single day.
65
239196
3732
که در واقع هر روز این مسائل را احساس کند.
04:02
And that's not just with the team that's doing the work,
66
242952
3738
و این فقط برای گروهی که کار را انجام می‌دهد نیست،
04:06
it's also within our leadership as well.
67
246714
2096
بلکه برای رهبری سازمان هم هست.
04:08
So we need to continue to build empathy for what people are experiencing
68
248834
5757
پس ما باید برای ایجاد همدلی با چیزی که مردم تجربه می‌کنند ادامه دهیم
04:14
and give them better tools to act on it
69
254615
3316
و ابزارهای بهتری برای استفاده به آنها بدهیم
04:17
and also give our customers a much better and easier approach
70
257955
4252
و همچنین به مشتریانمان رویکرد بسیار بهتر و آسانتری
04:22
to handle some of the things that they're seeing.
71
262231
2382
برای حل مشکلاتی که با آن روبه رو هستند ارائه کنیم.
04:24
So a lot of what we're doing is around technology,
72
264637
3266
بیشتراقدامات ما در حیطه تکنولوژی است،
04:27
but we're also looking at the incentives on the service:
73
267927
4308
اما همچنان به کارهایی که مشوق ماست دقت می‌کنیم:
04:32
What does Twitter incentivize you to do when you first open it up?
74
272259
5183
وقتی برا اولین بار توییتر را باز می‌کنید انگیزه چه کاری را به شما می‌دهد؟
04:37
And in the past,
75
277466
1294
و در گذشته،
04:40
it's incented a lot of outrage, it's incented a lot of mob behavior,
76
280670
5544
محرک خشونت بسیار زیاد، و محرک رفتار زشت اراذل اوباش،
04:46
it's incented a lot of group harassment.
77
286238
2459
باعث اذیت و آزار گروهی زیادی می‌شد.
04:48
And we have to look a lot deeper at some of the fundamentals
78
288721
3648
و ما باید نگاه عمیق‌تری به برخی از اصولی داشته باشیم
04:52
of what the service is doing to make the bigger shifts.
79
292393
2958
که این خدمات در جهت تغییرات بزرگتر انجام می‌دهد.
04:55
We can make a bunch of small shifts around technology, as I just described,
80
295375
4031
ما می‌توانیم تغییرات زیادی را در حیطه تکنولوژی ایجاد کنیم، همانطور که گفتم،
04:59
but ultimately, we have to look deeply at the dynamics in the network itself,
81
299430
4386
در نهایت ما باید در پویایی خود شبکه بی نقص باشیم،
05:03
and that's what we're doing.
82
303840
1368
و داریم آن را انجام می‌دهیم.
05:05
CA: But what's your sense --
83
305232
2060
کریس اندرسون: اما حس شما چیست--
05:07
what is the kind of thing that you might be able to change
84
307316
3963
چه نوع کاری هست که شما احتمالا قادر هستید تغییرش دهید
05:11
that would actually fundamentally shift behavior?
85
311303
2749
که در واقع به طور اساسی رفتار را تغییر دهد؟
05:15
JD: Well, one of the things --
86
315386
1480
جک دورسی: خب، یکی از کارها--
05:16
we started the service with this concept of following an account,
87
316890
5340
ما این شبکه را با هدف دنبال کردن یک حساب کاربری آغاز کردیم،
05:22
as an example,
88
322254
1725
به عنوان مثال،
05:24
and I don't believe that's why people actually come to Twitter.
89
324003
4349
ما دقیقا نمی‌دانیم که مردم چرا وارد توییتر می‌شوند.
05:28
I believe Twitter is best as an interest-based network.
90
328376
4857
من معتقدم که توییتر بهترین برنامه به عنوان یک شبکه مبتنی بر علاقه است.
05:33
People come with a particular interest.
91
333257
3453
مردم با علایق به خصوصی وارد می‌شوند.
05:36
They have to do a ton of work to find and follow the related accounts
92
336734
3487
آنها باید اعمال زیادی را برای پیدا کردن و دنبال کردن صفحه موردنظر
05:40
around those interests.
93
340245
1405
مورد علاقه‌شان انجام ‌دهند.
05:42
What we could do instead is allow you to follow an interest,
94
342217
3397
کاری که در عوض می‌توانیم انجام دهیم اجازه‌ی دنبال کردن علاقه،
05:45
follow a hashtag, follow a trend,
95
345638
2103
دنبال کردن یک هشتگ، دنبال کردن یک ترند،
05:47
follow a community,
96
347765
1754
دنبال کردن یک گروه است،
05:49
which gives us the opportunity to show all of the accounts,
97
349543
4637
که به ما فرصت نمایش همه‌ی حساب‌ها،
05:54
all the topics, all the moments, all the hashtags
98
354204
3323
موضوع‌ها، لحظه‌ها، هشتگ‌ها
05:57
that are associated with that particular topic and interest,
99
357551
3992
که مطابق با علاقه و موضوعی خاص است،
06:01
which really opens up the perspective that you see.
100
361567
4600
که واقعا نگرش شما را باز می‌کند.
06:06
But that is a huge fundamental shift
101
366191
2157
اما این یک تغییر اساسی است
06:08
to bias the entire network away from just an account bias
102
368372
3792
که سوگیری کل شبکه را از سوگیری یک حساب
06:12
towards a topics and interest bias.
103
372188
2587
به سوگیری به یک موضوع یا علاقه‌ خاص ببریم.
06:15
CA: Because isn't it the case
104
375283
3148
کریس اندرسون: آیا اینطور نیست
06:19
that one reason why you have so much content on there
105
379375
3541
یکی از دلایلی که شما اینقدر مطلب در آنجا زیاد دارید
06:22
is a result of putting millions of people around the world
106
382940
3591
در نتیجه رقابت میلیون‌ها نفر در سراسر دنیا
06:26
in this kind of gladiatorial contest with each other
107
386555
3142
درنوعی مسابقه‌ی گلادیاتوری با یکدیگر
06:29
for followers, for attention?
108
389721
2090
برای جذب دنبال کننده و یا جلب توجه است؟
06:31
Like, from the point of view of people who just read Twitter,
109
391835
4117
لایک، از نظر افرادی که فقط توییتر را می‌خوانند،
06:35
that's not an issue,
110
395976
1155
مهم نیست،
06:37
but for the people who actually create it, everyone's out there saying,
111
397155
3350
اما برای افرادی که آن را می آفرینند، می‌گویند:
06:40
"You know, I wish I had a few more 'likes,' followers, retweets."
112
400529
3236
«ای کاش بیشتر لایک، دنبال کننده و باز توییت داشتم.»
06:43
And so they're constantly experimenting,
113
403789
2148
و آنها همیشه در حال تجربه
06:45
trying to find the path to do that.
114
405961
1961
راه‌هایی برای دستیابی به آن هستند.
06:47
And what we've all discovered is that the number one path to do that
115
407946
4126
و همه‌ی ما دریافته‌ایم که کاری که مسیر شماره یک انجام می‌دهد
06:52
is to be some form of provocative,
116
412096
3406
این است که به نوعی تحریک‌ کننده،
06:55
obnoxious, eloquently obnoxious,
117
415526
2980
نفرت انگیز و شدیدا ناخوشایند باشند،
06:58
like, eloquent insults are a dream on Twitter,
118
418530
3516
انگار، توهین‌های آشکار در توییتر یک آرزو هستند،
07:02
where you rapidly pile up --
119
422070
2603
جایی که شما به سرعت آنها را جمع می‌کنید--
07:04
and it becomes this self-fueling process of driving outrage.
120
424697
4608
و همین موضوع عاملی خودجوش است برای عصبانیت شما.
07:09
How do you defuse that?
121
429329
2351
چگونه این موضوع را حل و فصل می‌کنید؟
07:12
JD: Yeah, I mean, I think you're spot on,
122
432624
2947
جک دورسی: فکر می‌کنم که کاملا درست گفتی،
07:15
but that goes back to the incentives.
123
435595
1886
و این موضوع به انگیزه‌ برمی‌گردد.
07:17
Like, one of the choices we made in the early days was
124
437505
2632
مثلا، یکی ازتصمیماتی که در روزهای اولیه گرفتیم
07:20
we had this number that showed how many people follow you.
125
440161
4701
این بود که باید تعداد افرادی که شما را دنبال می‌کنند را نشان دهیم.
07:24
We decided that number should be big and bold,
126
444886
2959
و تصمیم ما براین بود که این عدد باید بزرگ و برجسته باشد،
07:27
and anything that's on the page that's big and bold has importance,
127
447869
3740
و هرچه که در آن صفحه هست بزرگ، برجسته و مهم است،
07:31
and those are the things that you want to drive.
128
451633
2278
و مطالبی است که شما خواهان مدیریت آن هستید.
07:33
Was that the right decision at the time?
129
453935
1907
آیا این تصمیم درستی در آن زمان بود؟
07:35
Probably not.
130
455866
1153
احتمالا نه.
07:37
If I had to start the service again,
131
457043
1805
اگر قرار بود دوباره کار را شروع کنم،
07:38
I would not emphasize the follower count as much.
132
458872
2398
این اندازه تاکیدی بر تعداد دنبال کننده‌ها نمی‌کنم.
07:41
I would not emphasize the "like" count as much.
133
461294
2295
تاکیدی روی تعداد لایک‌ها نخواهم داشت.
07:43
I don't think I would even create "like" in the first place,
134
463613
3120
حتی فکر نمی‌کنم که لایک را در جایگاه اول قرار قرار دهم،
07:46
because it doesn't actually push
135
466757
3267
زیرا این موضوع حتی
07:50
what we believe now to be the most important thing,
136
470048
3179
ما را به سمت چیزی که باور داریم مهم است نمی‌برد،
07:53
which is healthy contribution back to the network
137
473251
3039
که مشارکت سالم در شبکه
07:56
and conversation to the network,
138
476314
2652
و مکالمه در شبکه،
07:58
participation within conversation,
139
478990
2072
شرکت در گفتگو،
08:01
learning something from the conversation.
140
481086
2493
و آموزش از طریق گفتگو است.
08:03
Those are not things that we thought of 13 years ago,
141
483603
2824
آنها مطالبی که ۱۳ سال پیش به انها فکر کنیم نیستند،
08:06
and we believe are extremely important right now.
142
486451
2439
و معتقدیم که در حال حاضر بسیار حائز اهمیت‌اند.
08:08
So we have to look at how we display the follower count,
143
488914
3023
پس در حال حاضر باید نحوه نشان‌دادن تعداد دنبال کنندگان،
08:11
how we display retweet count,
144
491961
2365
نشان دادن بازتوییت‌ها،
08:14
how we display "likes,"
145
494350
1401
لایک‌ها را بررسی کنیم.
08:15
and just ask the deep question:
146
495775
2254
و از شما این سوال پیچیده را بپرسم:
08:18
Is this really the number that we want people to drive up?
147
498053
3048
آیا این واقعا همان عددی است که ما از افراد می‌خواهیم بالا ببرند؟
08:21
Is this the thing that, when you open Twitter,
148
501125
2545
آیا این همان چیزیست که، که وقتی توییتر را باز می‌کنید،
08:23
you see, "That's the thing I need to increase?"
149
503694
2516
می‌بینید، «آیا این چیزی است که می‌خواهم افزایش بدهم؟»
08:26
And I don't believe that's the case right now.
150
506234
2144
و فکر نمی‌کنم که این الان هدفم باشد.
08:28
(Applause)
151
508402
2103
(تشویق حضار)
08:30
WPR: I think we should look at some of the tweets
152
510529
2352
ویتنی: فکرمی‌کنم باید به توییت‌ها نگاهی بیندازیم
08:32
that are coming in from the audience as well.
153
512905
2169
که از طرف حاضرین هم در حال ارسال است.
08:35
CA: Let's see what you guys are asking.
154
515868
2436
کریس اندرسون: بیایید ببینیم شما چه پرسیده‌اید؟
08:38
I mean, this is -- generally, one of the amazing things about Twitter
155
518328
3294
به طور کلی منظورم این هست که، یکی از موضوعات جالب راجب توییتر
08:41
is how you can use it for crowd wisdom,
156
521646
2294
استفاده از آن به عنوان یک بینش همه‌گیر،
08:43
you know, that more knowledge, more questions, more points of view
157
523964
4840
شما دانش بیشتر، سوالات بیشتر، دیدگاههای بیشتری را یاد می‌گیرید
08:48
than you can imagine,
158
528828
1238
که بتوانید فکرش را بکنید،
08:50
and sometimes, many of them are really healthy.
159
530090
3689
که بعضی اوقات، بیشتر آنها واقعا مفید است.
08:53
WPR: I think one I saw that passed already quickly down here,
160
533803
2900
ویتنی پنینگتون راجرز: فکر می‌کنم که این موضوع به سرعت نقل شده،
08:56
"What's Twitter's plan to combat foreign meddling in the 2020 US election?"
161
536717
3524
«برنامه توییتربرای مبارزه با دخالت خارجی در انتخابات ۲۰۲۰ چیست؟»
09:00
I think that's something that's an issue we're seeing
162
540265
2571
به نظر من این مسئله‌ و مشکلی است
09:02
on the internet in general,
163
542860
1901
که عموما در اینترنت شاهد آن هستیم،
09:04
that we have a lot of malicious automated activity happening.
164
544785
3667
که فعالیتهای مخرب و خودکار زیادی اتفاق می‌افتد.
09:08
And on Twitter, for example, in fact, we have some work
165
548476
5373
و برای مثال، در توییتر یک سری کارهایی داریم
09:13
that's come from our friends at Zignal Labs,
166
553873
2758
که حاصل تحقیقات دوستانمان در آزمایشگاه زیگنال است،
09:16
and maybe we can even see that to give us an example
167
556655
2656
و ممکن است که این موضوع به عنوان مثالی،
09:19
of what exactly I'm talking about,
168
559335
1927
از چیزی که دارم از آن صحبت می‌کنم باشد،
09:21
where you have these bots, if you will,
169
561286
3204
جایی که این رباتها را داشته باشید، اگر بخواهید،
09:24
or coordinated automated malicious account activity,
170
564514
4550
یا فعالیت مخرب خودکار حساب کاربری،
09:29
that is being used to influence things like elections.
171
569088
2764
می‌تواند بر موضوعاتی چون انتخابات تاثیر بگذارد.
09:31
And in this example we have from Zignal which they've shared with us
172
571876
3843
و در این مثال که زیگنال با ما به اشتراک گذاشته
09:35
using the data that they have from Twitter,
173
575743
2198
با استفاده از اطلاعاتی که از توییتر داریم،
09:37
you actually see that in this case,
174
577965
2441
می‌توانید متوجه شوید که در این مورد،
09:40
white represents the humans -- human accounts, each dot is an account.
175
580430
4370
رنگ سفید نشان دهنده افراد یا حساب است، هر نقطه یک حساب کاربری است.
09:44
The pinker it is,
176
584824
1359
هر چه بیشتر صورتی باشد،
09:46
the more automated the activity is.
177
586207
1740
فعالیت ماشینی‌تر است.
09:47
And you can see how you have a few humans interacting with bots.
178
587971
5970
و می‌توانید چگونگی تعامل انسان و ربات‌ها را ببینید.
09:53
In this case, it's related to the election in Israel
179
593965
4419
این موضوع در رابطه با انتخابات در اسرائیل است
09:58
and spreading misinformation about Benny Gantz,
180
598408
2833
و انتشار اخبار غلط در رابطه با بنی گنتز،
10:01
and as we know, in the end, that was an election
181
601265
2662
و همانطور که می‌دانیم، در نهایت، انتخاباتی بود،
10:03
that Netanyahu won by a slim margin,
182
603951
3724
که نتانیاهو با اختلاف کمی برنده شد،
10:07
and that may have been in some case influenced by this.
183
607699
2842
و ممکن است به نحوی از این موضوع تاثیر گرفته باشد.
10:10
And when you think about that happening on Twitter,
184
610565
2615
و زمانی که به رخ دادن این موضوع در توییتر فکر می‌کنید،
10:13
what are the things that you're doing, specifically,
185
613204
2456
به طور خاص، چه کارهایی
10:15
to ensure you don't have misinformation like this spreading in this way,
186
615684
3702
برای اطمینان از غلط نبودن اطلاعات و انتشار آنها به این شکل،
10:19
influencing people in ways that could affect democracy?
187
619410
4181
و تاثیر آن بر انسان‌ها و دموکراسی انجام می‌دهید؟
10:23
JD: Just to back up a bit,
188
623615
1771
جک دورسی: کمی به عقب برگردیم،
10:25
we asked ourselves a question:
189
625410
2975
ما یک سوال از خودمان پرسیدیم:
10:28
Can we actually measure the health of a conversation,
190
628409
3816
آیا ما می‌توانیم عفت کلاممان را اندازه‌گیری کنیم،
10:32
and what does that mean?
191
632249
1288
و این به چه معناست؟
10:33
And in the same way that you have indicators
192
633561
3382
همانطور که شما معیارهایی دارید،
10:36
and we have indicators as humans in terms of are we healthy or not,
193
636967
3467
و ما به عنوان انسان از لحاظ سلامتی یا عدم سلامتی معیارهایی داریم،
10:40
such as temperature, the flushness of your face,
194
640458
4658
مانند دما، سرخی صورت،
10:45
we believe that we could find the indicators of conversational health.
195
645140
4560
ما معتقدیم که می‌توانیم معیار‌هایی برای عفت کلام پیدا کنیم.
10:49
And we worked with a lab called Cortico at MIT
196
649724
3843
و ما با یک آزمایشگاه به نام کورتیکو در مؤسسهٔ فناوری ماساچوست
10:54
to propose four starter indicators
197
654479
6091
برای پیشنهاد چهار معیار ابتدایی
11:00
that we believe we could ultimately measure on the system.
198
660594
3670
و ما معتقدیم که درنهایت می‌توانیم به سنجش این سیستم بپردازیم.
11:05
And the first one is what we're calling shared attention.
199
665249
5604
و اولین مسئله چیزیست که ما به آن توجه مشترک می‌گوییم.
11:10
It's a measure of how much of the conversation is attentive
200
670877
3581
این یک سنجش از مقیاسی است که طی آن مشخص می‌شود گفتگو
11:14
on the same topic versus disparate.
201
674482
2630
به چه میزان متمرکز و یا پراکنده است.
11:17
The second one is called shared reality,
202
677739
2783
دومین مسئله واقعیت مشترک نامیده می‌شود،
11:21
and this is what percentage of the conversation
203
681217
2259
و مشخص کننده این است که چه در صدی از مکالمه
11:23
shares the same facts --
204
683500
2005
واقعیت‌های یکسان را بیان می‌کند
11:25
not whether those facts are truthful or not,
205
685529
3113
آیا این حقایق واقعی هستند یا خیر،
11:28
but are we sharing the same facts as we converse?
206
688666
3009
آیا ما حقایق را همانطور که نقل می‌کنیم به اشتراک می‌گذاریم؟
11:32
The third is receptivity:
207
692235
2353
سومین مورد پذیرش است:
11:34
How much of the conversation is receptive or civil
208
694612
3959
چه مقدار از مکالمات قابل پذیرش و مودبانه
11:38
or the inverse, toxic?
209
698595
2944
و یا برعکس آن نامناسب است؟
11:42
And then the fourth is variety of perspective.
210
702213
3222
و سپس مورد چهارم دیدگاه‌های مختلف است.
11:45
So, are we seeing filter bubbles or echo chambers,
211
705459
3145
آیا ما فقط فضای فیلتر شده یا اتاقهای پژواک را می‌بینیم؟
11:48
or are we actually getting a variety of opinions
212
708628
3057
یا اینکه مجموعه‌ای از ایده‌های متفاوت را
11:51
within the conversation?
213
711709
1635
در یک مکالمه دریافت می‌کنیم؟
11:53
And implicit in all four of these is the understanding that,
214
713368
4018
و نکته ضمنی در هر چهار مورد درک این است که،
11:57
as they increase, the conversation gets healthier and healthier.
215
717410
3390
هر چه آنها افزایش پیدا کنند مکالمه سالم‌تر و سالم‌تر می‌شود.
12:00
So our first step is to see if we can measure these online,
216
720824
4869
بنابراین اولین قدم ما این است که بتوانیم این‌ها را به صورت آنلاین اندازه‌گیری کنیم،
12:05
which we believe we can.
217
725717
1308
که معتقدیم می‌توانیم.
12:07
We have the most momentum around receptivity.
218
727049
3167
ما بیشترین اقدامات را در ارتباط با قدرت پذیرش داریم.
12:10
We have a toxicity score, a toxicity model, on our system
219
730240
4317
ما یک درجه نامناسب بودن داریم، یک مدل روی سیستممان
12:14
that can actually measure whether you are likely to walk away
220
734581
4124
که در حقیقت می‌تواند اندازه‌گیری کند
12:18
from a conversation that you're having on Twitter
221
738729
2313
از گفتگویی که در توییتر می‌بینید صرف‌نظر کنید
12:21
because you feel it's toxic,
222
741066
1633
زیرا شما آن را،
12:22
with some pretty high degree.
223
742723
2512
با درصد زیادی نامناسب می‌دانید.
12:26
We're working to measure the rest,
224
746369
2199
ما درحال اندازه‌گیری بقیه‌ی آن هستیم،
12:28
and the next step is,
225
748592
1964
و قدم بعدی،
12:30
as we build up solutions,
226
750580
3359
همزمان با پیدا کردن راه حل،
12:33
to watch how these measurements trend over time
227
753963
3491
بررسی این است که چگونه این اقدامات در طول زمان رواج پیدا کرده
12:37
and continue to experiment.
228
757478
1873
و آزمایش شوند.
12:39
And our goal is to make sure that these are balanced,
229
759375
4041
و هدف ما اطمینان پیدا کردن از توازن آنها است،
12:43
because if you increase one, you might decrease another.
230
763440
3066
زیرا اگر شما یکی را بالا می‌برید، شاید دیگری را پایین بیاورید.
12:46
If you increase variety of perspective,
231
766530
2147
اگر شما تنوع دیدگاه را بالا ببرید،
12:48
you might actually decrease shared reality.
232
768701
3091
باید واقعیت مشترک را کاهش دهید.
12:51
CA: Just picking up on some of the questions flooding in here.
233
771816
4989
کریس اندرسون: برخی سوالاتی که این جا وجود دارد را انتخاب می‌کنیم.
12:56
JD: Constant questioning.
234
776829
1271
جک دورسی: سوالات مداوم.
12:58
CA: A lot of people are puzzled why,
235
778996
3620
کریس اندرسون: بسیاری از مردم می‌پرسند که چرا،
13:02
like, how hard is it to get rid of Nazis from Twitter?
236
782640
4247
بیرون کردن نازی‌ها از توییتر اینقدر سخت است؟
13:08
JD: (Laughs)
237
788309
1322
جک دورسی: (خنده)
13:09
So we have policies around violent extremist groups,
238
789655
6995
ما سیاست‌هایی در رابطه با گروه‌های افراطی داریم،
13:16
and the majority of our work and our terms of service
239
796674
4426
و بیشتر کار و شرایط استفاده از خدمات ما
13:21
works on conduct, not content.
240
801124
3729
کار کردن بر روی رفتار است نه محتوا.
13:24
So we're actually looking for conduct.
241
804877
2551
در واقع ما دنبال راهبرد هستیم.
13:27
Conduct being using the service
242
807452
3014
راهبردی برای استفاده از خدماتی که
13:30
to repeatedly or episodically harass someone,
243
810490
3867
به صورت مداوم یا نامنسجم به آزار فردی،
13:34
using hateful imagery
244
814381
2493
با استفاده از تصاویر تنفرآمیز می‌پردازند
13:36
that might be associated with the KKK
245
816898
2106
که ممکن است با انجمن کوکلاکس کلان
13:39
or the American Nazi Party.
246
819028
3281
یا نازی‌های آمریکایی در ارتباط باشند.
13:42
Those are all things that we act on immediately.
247
822333
4156
اینها مواردی هستند که ما به سرعت به آن واکنش نشان می‌دهیم.
13:47
We're in a situation right now where that term is used fairly loosely,
248
827002
5452
الان در شرایطی هستیم که این لغت نسبتا آزادانه استفاده می‌شود،
13:52
and we just cannot take any one mention of that word
249
832478
5313
و ما نمی‌توانیم یک فرد که این لغت برای او اشاره شده درنظر بگیریم
13:57
accusing someone else
250
837815
2117
و دیگری را متهم کنیم
13:59
as a factual indication that they should be removed from the platform.
251
839956
3755
به عنوان یک نشانه واقعی که آنها باید از برنامه حذف شوند.
14:03
So a lot of our models are based around, number one:
252
843735
2627
بسیاری از نمونه‌های ما پیرامون شماره یک است:
14:06
Is this account associated with a violent extremist group?
253
846386
3140
آیا این حساب با یک گروه خشن افراطی در ارتباط است؟
14:09
And if so, we can take action.
254
849550
1983
اگر باشد، ما می‌توانیم اقدام کنیم.
14:11
And we have done so on the KKK and the American Nazi Party and others.
255
851557
3852
و همین کار را در مقابل ک ک ک ونازی‌های آمریکایی کرده‌ایم.
14:15
And number two: Are they using imagery or conduct
256
855433
4183
و شماره دو: آیا آنها از تصاویر یا رفتارهایی
14:19
that would associate them as such as well?
257
859640
2372
که آنها را به هم مرتبط می‌کند، استفاده می‌کنند؟
14:22
CA: How many people do you have working on content moderation
258
862416
2932
کریس اندرسون: چند نفر در رابطه با تعدیل محتوا دارید
14:25
to look at this?
259
865372
1250
تا این را بررسی کنند؟
14:26
JD: It varies.
260
866646
1496
جک دورسی: متفاوت است.
14:28
We want to be flexible on this,
261
868166
1595
می‌خواهیم دراین رابطه منعطف باشیم
14:29
because we want to make sure that we're, number one,
262
869785
2646
می‌خواهیم مطمئن شویم که اولین نفر هستیم،
14:32
building algorithms instead of just hiring massive amounts of people,
263
872455
4424
که به جای استخدام تعداد زیادی از افراد الگوریتم می‌سازیم،
14:36
because we need to make sure that this is scalable,
264
876903
2824
زیرا باید مطمئن شویم، که این موضوع مقیاس‌پذیر است،
14:39
and there are no amount of people that can actually scale this.
265
879751
3454
وهیچ تعدادی از مردم نیست که بتوانند این موضوع را اندازه‌گیری کنند.
14:43
So this is why we've done so much work around proactive detection of abuse
266
883229
6629
و به همین علت است که ما برای موضوع تشخیص پیشگیرانه‌ی سوءاستفاده اهمیت زیادی قائلیم
14:49
that humans can then review.
267
889882
1391
که انسانها بتوانندبازبینی کنند
14:51
We want to have a situation
268
891297
2861
ما می‌خواهیم موقعیتی ایجاد کنیم
14:54
where algorithms are constantly scouring every single tweet
269
894182
3741
که در آن الگوریتم‌ها مرتبا هر توییت را بررسی می‌کنند.
14:57
and bringing the most interesting ones to the top
270
897947
2342
و جالب‌ترین آنها را در ابتدای صفحه قرار دهند
15:00
so that humans can bring their judgment to whether we should take action or not,
271
900313
3902
تا مردم تشخیص دهند که ما باید با توجه به شرایط استفاده
15:04
based on our terms of service.
272
904239
1524
از خدمات اقدامی بکنیم یا خیر.
15:05
WPR: But there's not an amount of people that are scalable,
273
905787
2803
ویتنی پنینگتون: اما افرادی که مقیاس‌پذیر باشند وجود ندارند،
15:08
but how many people do you currently have monitoring these accounts,
274
908614
3497
اما در حال حاضر چند نفر این حساب‌ها را زیر نظر دارند؟
15:12
and how do you figure out what's enough?
275
912135
2546
و چگونه متوجه می‌شوید چه چیزی کافیست؟
15:14
JD: They're completely flexible.
276
914705
2272
جک دورسی: این موضوع کاملا متغییر است.
15:17
Sometimes we associate folks with spam.
277
917001
2941
گاهی اوقات ما افراد را به بخش هرزنامه‌ها منتقل می‌کنیم.
15:19
Sometimes we associate folks with abuse and harassment.
278
919966
3845
گاهی آنها را به سوءاستفاده و آزار و اذیت مرتبط می‌کنیم.
15:23
We're going to make sure that we have flexibility in our people
279
923835
3062
ما می‌خواهیم مطمئن شویم در افراد خود انعطاف‌پذیری داریم
15:26
so that we can direct them at what is most needed.
280
926921
2350
تا بتوانیم آنها را به چیزی که ضروری‌‌تر است ببریم
15:29
Sometimes, the elections.
281
929295
1204
گاهی، برای انتخابات.
15:30
We've had a string of elections in Mexico, one coming up in India,
282
930523
4927
ما یک رشته انتخابات داشتیم در مکزیک، یکی در هند،
15:35
obviously, the election last year, the midterm election,
283
935474
4447
مسلما، انتخابات سال گذشته، انتخابات میان دوره‌ای،
15:39
so we just want to be flexible with our resources.
284
939945
2472
بنابراین می‌خواهیم در منابع خود منعطف باشیم.
15:42
So when people --
285
942441
2129
بنابراین وقتی انسان‌ها--
15:44
just as an example, if you go to our current terms of service
286
944594
6389
برای مثال، به شرایط فعلی استفاده از خدمات ما سری بزنید
15:51
and you bring the page up,
287
951007
1641
و صفحه را بالا بیاورید،
15:52
and you're wondering about abuse and harassment that you just received
288
952672
3682
و در مورد سوء استفاده و آزار و اذیتی که دریافت کردید مطمئن نیستید
15:56
and whether it was against our terms of service to report it,
289
956378
3634
و اگر برخلاف شرایط استفاده از سرویس ما بود که آن را گزارش دهید،
16:00
the first thing you see when you open that page
290
960036
2559
وقتی صفحه را باز می‌کنید اولین چیزی که می‌بینید
16:02
is around intellectual property protection.
291
962619
3088
پیرامون حفاظت از مالکیت معنوی است.
16:06
You scroll down and you get to abuse, harassment
292
966504
5323
صفحه را پایین می‌کشید و موقعیت این را دارید که به سوءاستفاده و آزار
16:11
and everything else that you might be experiencing.
293
971851
2382
و هر چیزی که تجربه کرده بودید برسید.
16:14
So I don't know how that happened over the company's history,
294
974257
3195
من نمی‌دانم آن اتفاق چطور در تاریخ شرکت افتاد،
16:17
but we put that above the thing that people want
295
977476
4797
ما آن را بالاتر از چیزی که مردم می‌خواهند قرار دادیم
16:24
the most information on and to actually act on.
296
984146
3222
بیشترین اطلاعات در مورد آن و اقدام کردن در خصوص آن.
16:27
And just our ordering shows the world what we believed was important.
297
987392
5241
و برنامه‌های ما به جهان نشان داد چیزی که ما به آن معتقدیم حائز اهمیت است.
16:32
So we're changing all that.
298
992657
2881
پس داریم همه‌ی آنها را تغییر می‌دهیم.
16:35
We're ordering it the right way,
299
995562
1563
آنها را به شکل درست مرتب می‌کنیم،
16:37
but we're also simplifying the rules so that they're human-readable
300
997149
3451
ما همچنان قوانین را ساده می‌کنیم تا توسط انسان‌ها قابل خواندن باشد
16:40
so that people can actually understand themselves
301
1000624
4067
تا در واقع با این روش افراد خودشان درک کنند
16:44
when something is against our terms and when something is not.
302
1004715
3448
چه‌موقع چیزی برخلاف شرایط استفاده از توییتر هست یا نه.
16:48
And then we're making --
303
1008187
2161
سپس ما دوباره--
16:50
again, our big focus is on removing the burden of work from the victims.
304
1010372
5200
به تمرکز بر روی برداشتن کار از دوش قربانیان می‌پردازیم.
16:55
So that means push more towards technology,
305
1015596
3734
و این به معنای حرکت بیشتر به سمت تکنولوژی،
16:59
rather than humans doing the work --
306
1019354
1873
تا انسان‌هایی است که کار را انجام می‌دهند
17:01
that means the humans receiving the abuse
307
1021251
2413
یعنی انسان‌هایی که مورد سواستفاده قرار می‌گیرند
17:03
and also the humans having to review that work.
308
1023688
3026
و همینطور انسان‌هایی که باید این کار را بازبینی کنند.
17:06
So we want to make sure
309
1026738
1673
ما می‌خواهیم مطمئن شویم
17:08
that we're not just encouraging more work
310
1028435
2841
که نه تنها کار بیشتری را برای یک کار
17:11
around something that's super, super negative,
311
1031300
2629
بسیار، بسیار منفی و ناخوشایند صرف نمی‌کنیم،
17:13
and we want to have a good balance between the technology
312
1033953
2674
و می‌خواهیم تعادل مناسبی را بین تکنولوژی
17:16
and where humans can actually be creative,
313
1036651
2852
و خلاقیت انسانها به وجود آوریم،
17:19
which is the judgment of the rules,
314
1039527
3090
که قضاوت در رابطه با قوانین است،
17:22
and not just all the mechanical stuff of finding and reporting them.
315
1042641
3267
و نه فقط چیزهای مکانیکی برای پیدا کردن و گزارش آنها.
17:25
So that's how we think about it.
316
1045932
1530
و این رویکرد ما به موضوع است.
17:27
CA: I'm curious to dig in more about what you said.
317
1047486
2406
ک. ا: من مایلم به چیزهایی که گفتید بیشتر بپردازیم
17:29
I mean, I love that you said you are looking for ways
318
1049916
2605
منظورم این است که شما گفتید که دنبال راه‌هایی برای
17:32
to re-tweak the fundamental design of the system
319
1052545
3462
تغییر اصول اساسی طراحی سیستم هستید
17:36
to discourage some of the reactive behavior, and perhaps --
320
1056031
4875
برای تضعیف واکنش‌های احتمالی و شاید--
17:40
to use Tristan Harris-type language --
321
1060930
2705
با استفاده از زبان تریسان هریس--
17:43
engage people's more reflective thinking.
322
1063659
4288
مردم را بیشتر به تفکر وا دارید.
17:47
How far advanced is that?
323
1067971
1854
این موضوع چقدر پیشرفت کرده؟
17:49
What would alternatives to that "like" button be?
324
1069849
4305
جایگیزین‌های احتمالی آن دکمه‌ی «لایک» چیست؟
17:55
JD: Well, first and foremost,
325
1075518
3575
جک دورسی: خب، اولین و مهم ترین موضوع،
17:59
my personal goal with the service is that I believe fundamentally
326
1079117
5753
هدف شخصی من در رابطه با این سرویس این است که معتقدم که اساسا
18:04
that public conversation is critical.
327
1084894
2702
گفتگوی عمومی مهم است.
18:07
There are existential problems facing the world
328
1087620
2647
جهان با مشکلات زیادی روبه روست
18:10
that are facing the entire world, not any one particular nation-state,
329
1090291
4163
که تمام دنیا را درگیر کرده، نه فقط یک کشور خاص،
18:14
that global public conversation benefits.
330
1094478
2649
که گفتگوی سراسری جهانی فوایدی دارد.
18:17
And that is one of the unique dynamics of Twitter,
331
1097151
2372
و این یکی از پویایی‌های منحصر به فرد توییتر است،
18:19
that it is completely open,
332
1099547
1814
که کاملا صریح،
18:21
it is completely public,
333
1101385
1596
کاملا همگانی،
18:23
it is completely fluid,
334
1103005
1399
کاملا سیال،
18:24
and anyone can see any other conversation and participate in it.
335
1104428
4038
و هرکس می‌تواند در آن گفتگو و فعالیت داشته باشد.
18:28
So there are conversations like climate change.
336
1108490
2206
گفتگوهایی مانند تغییرات آب و هوا.
18:30
There are conversations like the displacement in the work
337
1110720
2682
مکالمه‌هایی چون جابه جایی محل کار
18:33
through artificial intelligence.
338
1113426
2000
به وسیله هوش مصنوعی.
18:35
There are conversations like economic disparity.
339
1115450
3006
گفتگوهایی نظیر نابرابری‌های اقتصادی.
18:38
No matter what any one nation-state does,
340
1118480
2765
مهم نیست هر کشور چه کار می‌کند،
18:41
they will not be able to solve the problem alone.
341
1121269
2421
آنها نمی‌توانند مشکلشان را به تنهایی حل و فصل کنند.
18:43
It takes coordination around the world,
342
1123714
2643
این موضوع هماهنگی در کل جهان را می‌طلبد،
18:46
and that's where I think Twitter can play a part.
343
1126381
3047
و فکر می‌کنم این همان جایی است که توییتر می‌تواند نقشی ایفا کند.
18:49
The second thing is that Twitter, right now, when you go to it,
344
1129452
5642
دومین مورد در رابطه با توییتر این است، که وقتی واردش می‌شوید،
18:55
you don't necessarily walk away feeling like you learned something.
345
1135118
3746
الزاما احساس نمی‌کنید که چیزی یاد گرفته‌اید و بیرون آمده‌اید.
18:58
Some people do.
346
1138888
1276
بعضی‌ها یاد می‌گیرند.
19:00
Some people have a very, very rich network,
347
1140188
3107
بعضی افراد شبکه‌ی قدرتمندی دارند،
19:03
a very rich community that they learn from every single day.
348
1143319
3117
گروهی قدرتمند که هر روز از آن یاد می‌گیرند.
19:06
But it takes a lot of work and a lot of time to build up to that.
349
1146460
3691
اما ساخت این موضوع بسیار کار می‌برد و زمان زیادی می‌خواهد.
19:10
So we want to get people to those topics and those interests
350
1150175
3448
ما می‌خواهیم که مردم را در این موضوعات و علایق وارد کنیم
19:13
much, much faster
351
1153647
1579
بسیار، بسیار سریع‌تر
19:15
and make sure that they're finding something that,
352
1155250
2566
و مطمئن شویم که چیزی پیدا می‌کنند که،
19:18
no matter how much time they spend on Twitter --
353
1158728
2360
مهم نیست چقدر از زمانشان را در توییتر می‌گذرانند--
19:21
and I don't want to maximize the time on Twitter,
354
1161112
2358
ونمی‌خواهم زمان حضور در توییتر را به حداکثر برسانم
19:23
I want to maximize what they actually take away from it
355
1163494
2910
می‌خواهم مواردی را که از آن می‌گیرند به بالاترین سطح برسانم
19:26
and what they learn from it, and --
356
1166428
2030
و چیزی که یاد می‌گیرند و --
19:29
CA: Well, do you, though?
357
1169598
1328
ک. ا: خب، این کار را کردید؟
19:30
Because that's the core question that a lot of people want to know.
358
1170950
3244
زیرا این سوالی است که خیلی‌ها می‌خواهند بدانند.
19:34
Surely, Jack, you're constrained, to a huge extent,
359
1174218
3638
جک، بی شک تو تحت فشار بسیاری هستی،
19:37
by the fact that you're a public company,
360
1177880
2007
با این حقیقت که یک شرکت عمومی هستید،
19:39
you've got investors pressing on you,
361
1179911
1774
تحت فشار سرمایه گذاران زیادی هستید،
19:41
the number one way you make your money is from advertising --
362
1181709
3559
تبلیغات اولین چیزیست که از آن پول درمی‌آورید
19:45
that depends on user engagement.
363
1185292
2772
که وابسته به سرگرمی کاربران است.
19:48
Are you willing to sacrifice user time, if need be,
364
1188088
4700
آیا شما در صورت نیاز، زمان مخاطب را،
19:52
to go for a more reflective conversation?
365
1192812
3729
قربانی یک مکالمه توام با تفکر می‌کنید؟
19:56
JD: Yeah; more relevance means less time on the service,
366
1196565
3111
جک د: بله، مکالمه توام با تفکر به معنای زمان کمتر است،
19:59
and that's perfectly fine,
367
1199700
1937
و بسیار عالی است،
20:01
because we want to make sure that, like, you're coming to Twitter,
368
1201661
3099
زیرا ما می‌خواهیم مطمئن شویم که، شما به توییتر آمده‌اید،
20:04
and you see something immediately that you learn from and that you push.
369
1204784
4520
و در لحظه چیزی را برای یادگیری یافتید و سپس از آن رد می‌شوید.
20:09
We can still serve an ad against that.
370
1209328
3420
ما هنوز می‌توانیم کنار آن تبلیغ کنیم.
20:12
That doesn't mean you need to spend any more time to see more.
371
1212772
2921
به این معنی نیست که باید زمان بیشتری صرف کنید تا بیشتر ببینید.
20:15
The second thing we're looking at --
372
1215717
1733
دومین موردی که به آن دقت می‌کنیم--
20:17
CA: But just -- on that goal, daily active usage,
373
1217474
2698
کریس اندرسون: اما با توجه به هدف مصرف روزانه،
20:20
if you're measuring that, that doesn't necessarily mean things
374
1220196
3245
اگر آن را اندازه‌گیری کنید الزاما به معنای چیزی که
20:23
that people value every day.
375
1223465
1738
مردم هر روز به آن اهمیت می‌دهند نیست.
20:25
It may well mean
376
1225227
1161
ممکن است به معنای
20:26
things that people are drawn to like a moth to the flame, every day.
377
1226412
3306
چیزهایی باشد که مردم هرروزه مانند پروانه‌ای به نور شمع جذب آن شوند.
20:29
We are addicted, because we see something that pisses us off,
378
1229742
3022
ما به آن معتادیم، زیرا چیزهایی را می‌بینیم که ما راعصبانی می‌کند
20:32
so we go in and add fuel to the fire,
379
1232788
3178
بنابراین وارد می‌شویم و درواقع به آتش دامن می‌زنیم،
20:35
and the daily active usage goes up,
380
1235990
1927
و سرانه مصرف را بالا می‌رود،
20:37
and there's more ad revenue there,
381
1237941
1715
و سود تبلیغاتی بیشتری به وجود می‌آید
20:39
but we all get angrier with each other.
382
1239680
2752
اما نسبت به هم خشمگین‌تر می‌شویم.
20:42
How do you define ...
383
1242456
2509
شما چگونه تعریف می‌کنید
20:44
"Daily active usage" seems like a really dangerous term to be optimizing.
384
1244989
4126
«استفاده فعال روزانه» اصطلاح خطرناکی برای بهینه سازی به نظر می‌رسد.
20:49
(Applause)
385
1249139
5057
(تشویق)
20:54
JD: Taken alone, it is,
386
1254220
1268
ج. د: به تنهایی، بله هست،
20:55
but you didn't let me finish the other metric,
387
1255512
2346
اما نگذاشتید که معیار بعدی را به پایان برسانم،
20:57
which is, we're watching for conversations
388
1257882
3727
که جستجوی مکالمات،
21:01
and conversation chains.
389
1261633
2129
و زنجیره‌ی مکالمات توسط ماست.
21:03
So we want to incentivize healthy contribution back to the network,
390
1263786
5076
ما می‌خواهیم انگیزه‌هایی برای بازگشت مشارکت سالم به شبکه ایجاد کنیم.
21:08
and what we believe that is is actually participating in conversation
391
1268886
4181
و چیزی که به آن ایمان داریم، یعنی مشارکت در گفتگو
21:13
that is healthy,
392
1273091
1197
که سالم است،
21:14
as defined by those four indicators I articulated earlier.
393
1274312
5037
توسط همان چهار شاخصی که عنوان کردم.
21:19
So you can't just optimize around one metric.
394
1279373
2657
بنابراین تنها یک معیار برای بهینه سازی ندارید.
21:22
You have to balance and look constantly
395
1282054
2752
باید تعادل داشته باشید و مدام مراقب باشید
21:24
at what is actually going to create a healthy contribution to the network
396
1284830
4083
چه چیزی مشارکتی سالم و تجربه‌ای سالم را در شبکه‌های اجتماعی
21:28
and a healthy experience for people.
397
1288937
2341
برای مردم ایجاد می‌کند.
21:31
Ultimately, we want to get to a metric
398
1291302
1866
در نهایت ما می‌خواهیم به معیاری برسیم
21:33
where people can tell us, "Hey, I learned something from Twitter,
399
1293192
3757
که مردم به ما بگویند، «هی، من از توییتر چیزی را یاد گرفتم،
21:36
and I'm walking away with something valuable."
400
1296973
2167
و من با فرا گرفتن چیزی با ارزش از آن رد شدم.»
21:39
That is our goal ultimately over time,
401
1299164
2043
این هدف نهایی ما در طول زمان است،
21:41
but that's going to take some time.
402
1301231
1809
اما این هدف کمی زمان بر است.
21:43
CA: You come over to many, I think to me, as this enigma.
403
1303064
5282
کریس اندرسون: فکر کنم این حس معماگونه برای من و خیلی‌ها وجود دارد.
21:48
This is possibly unfair, but I woke up the other night
404
1308370
4396
شاید ناعادلانه باشد، اما من چند شب پیش با این تصویر بیدار شدم
21:52
with this picture of how I found I was thinking about you and the situation,
405
1312790
3879
از تصورم به شما و وضعیتی که در آن قرار دارید،
21:56
that we're on this great voyage with you on this ship called the "Twittanic" --
406
1316693
6903
که ما در این سفرعالی با شما هستیم در یک کشتی به نام «توییتانیک» --
22:03
(Laughter)
407
1323620
1281
(خنده)
22:04
and there are people on board in steerage
408
1324925
4357
و افرادی هستند که سکان هدایت کشتی را در دست دارند
22:09
who are expressing discomfort,
409
1329306
2203
و ابراز ناراحتی می‌کنند،
22:11
and you, unlike many other captains,
410
1331533
2543
و شما، برخلاف خیلی دیگر از ناخدایان،
22:14
are saying, "Well, tell me, talk to me, listen to me, I want to hear."
411
1334100
3431
می‌گویید، «خب، بگویید، با من سخن بگویید، به من گوش کنید، گوشم با شماست.»
22:17
And they talk to you, and they say, "We're worried about the iceberg ahead."
412
1337555
3619
و آنها با شما سخن می‌گویند و ابراز می‌کنند «ما نگران کوه یخ پیش رو هستیم.»
22:21
And you go, "You know, that is a powerful point,
413
1341198
2242
شما می‌گویید، «می‌دانید که این موضوعی مهم است،
22:23
and our ship, frankly, hasn't been built properly
414
1343464
2430
و صادقانه، فرمان کشتی ما به طرز صحیحی
22:25
for steering as well as it might."
415
1345918
1669
برای هدایت طراحی نشده.»
22:27
And we say, "Please do something."
416
1347611
1658
و ما می‌گوییم «لطفا کاری بکنید»
22:29
And you go to the bridge,
417
1349293
1411
سپس شما به پل فرماندهی می‌روید
22:30
and we're waiting,
418
1350728
2295
و ما منتظریم،
22:33
and we look, and then you're showing this extraordinary calm,
419
1353047
4548
ما نگاه می‌کنیم و شما این آرامش فوق العاده را بروز می‌دهید،
22:37
but we're all standing outside, saying, "Jack, turn the fucking wheel!"
420
1357619
3883
اما همه ی ما بیرون ایستاده‌ایم و می‌گوییم، «جک، چرخ لعنتی را بچرخان.»
22:41
You know?
421
1361526
1151
می‌دانید؟
22:42
(Laughter)
422
1362701
1335
(خنده)
22:44
(Applause)
423
1364060
2381
(تشویق حضار)
22:46
I mean --
424
1366465
1166
منظورم این است--
22:47
(Applause)
425
1367655
1734
(تشویق حضار)
22:49
It's democracy at stake.
426
1369413
4594
دموکراسی در خطر است.
22:54
It's our culture at stake. It's our world at stake.
427
1374031
2821
فرهنگ و جهان ما در معرض خطر است.
22:56
And Twitter is amazing and shapes so much.
428
1376876
4706
و توییتر شگفت انگیز است و خیلی چیزها را شکل می‌دهد.
23:01
It's not as big as some of the other platforms,
429
1381606
2233
اندازه بعضی از سیستم‌های دیگر بزرگ نیست،
23:03
but the people of influence use it to set the agenda,
430
1383863
2804
اما افراد با نفوذ برای اهداف خود از آن استفاده می‌کنند،
23:06
and it's just hard to imagine a more important role in the world than to ...
431
1386691
6787
و تصور نقشی مهم‌تر از این در جهان سخت است ...
23:13
I mean, you're doing a brilliant job of listening, Jack, and hearing people,
432
1393502
3784
منظورم این است، که شما کار عالی را انجام می‌دهید جک و صدای مردم را می‌شنوید،
23:17
but to actually dial up the urgency and move on this stuff --
433
1397310
4445
اما برای جدی‌تر گرفتن ضرورت و عبور از این مسائل--
23:21
will you do that?
434
1401779
2201
آیا آن را انجام خواهی داد؟
23:24
JD: Yes, and we have been moving substantially.
435
1404750
3815
جک دورسی: بله و ما به طور مداوم در حرکت بوده‌ایم.
23:28
I mean, there's been a few dynamics in Twitter's history.
436
1408589
3225
منظورم این است، که تعدادی تغییرات در تاریخ توییتر وجود دارد.
23:31
One, when I came back to the company,
437
1411838
2083
اول، وقتی که به شرکت بازگشتم،
23:35
we were in a pretty dire state in terms of our future,
438
1415477
6256
ما در وضعیت بسیار بدی از لحاظ آینده خودمان قرار داشتیم،
23:41
and not just from how people were using the platform,
439
1421757
4634
نه فقط این موضوع که مردم چگونه از این سیستم استفاده می‌کردند،
23:46
but from a corporate narrative as well.
440
1426415
2047
بلکه همینطور از لحاظ شرکتی.
23:48
So we had to fix a bunch of the foundation,
441
1428486
3204
ما باید بسیاری از تاسیسات را سروسامان می‌دادیم،
23:51
turn the company around,
442
1431714
1969
تا شرکت را دوباره به مسیر موفقیت ببریم،
23:53
go through two crazy layoffs,
443
1433707
3111
در دو مقطع کم‌کاری دیوانه‌کننده‌ای را تجربه کردیم،
23:56
because we just got too big for what we were doing,
444
1436842
3793
زیرا ما برای کاری که انجام می‌دادیم زیادی بزرگ شده بودیم،
24:00
and we focused all of our energy
445
1440659
2060
و تمام انژیمان را صرف
24:02
on this concept of serving the public conversation.
446
1442743
3508
خدمت به گفتگوی عمومی کرده بودیم.
24:06
And that took some work.
447
1446275
1451
و این موضوع کمی کار لازم داشت.
24:07
And as we dived into that,
448
1447750
2608
و همانطور که وارد آن شدیم،
24:10
we realized some of the issues with the fundamentals.
449
1450382
2992
برخی مسائل را با اصول اساسی تشخیص دادیم.
24:14
We could do a bunch of superficial things to address what you're talking about,
450
1454120
4656
ما می‌توانیم به کارهایی سطحی در ارتباط با چیزیکه در موردش صحبت می‌کنید، بپردازیم،
24:18
but we need the changes to last,
451
1458800
1790
اما ما تا آخر به تغییرات نیازمندیم،
24:20
and that means going really, really deep
452
1460614
2459
و این به معنای بسیار، بسیار عمیق شدن است
24:23
and paying attention to what we started 13 years ago
453
1463097
4350
و توجه به موضوعی که ۱۳ سال پیش شروع شده
24:27
and really questioning
454
1467471
2261
و بسیار سوال برانگیز است
24:29
how the system works and how the framework works
455
1469756
2566
که سیستم و چارچوبها چگونه کار می‌کنند
24:32
and what is needed for the world today,
456
1472346
3833
و جهان امروزه به چه چیزی نیاز دارد،
24:36
given how quickly everything is moving and how people are using it.
457
1476203
4024
با توجه به اینکه همه چیز به سرعت در حال حرکت است و مردم چگونه از آن استفاده کنند.
24:40
So we are working as quickly as we can, but quickness will not get the job done.
458
1480251
6544
ما تا جایی که بتوانیم با سرعت کار می‌کنیم، اما سرعت کار را تمام نمی‌کند.
24:46
It's focus, it's prioritization,
459
1486819
2611
دقت، اولویت بندی آن
24:49
it's understanding the fundamentals of the network
460
1489454
2946
درک اصول شبکه
24:52
and building a framework that scales
461
1492424
2842
و ایجاد چارچوبی است که مقیاس‌پذیر باشد
24:55
and that is resilient to change,
462
1495290
2351
و مقیاس‌هایش در برابر تغییر مقاوم باشند،
24:57
and being open about where we are and being transparent about where are
463
1497665
5429
و در رابطه با اینکه کجا هستیم صریح باشیم و در رابطه با اینکه کجا هستیم شفاف باشیم
25:03
so that we can continue to earn trust.
464
1503118
2179
تا بتوانیم باز هم به کسب اعتماد ادامه دهیم.
25:06
So I'm proud of all the frameworks that we've put in place.
465
1506141
3331
من به تمام چارچوب‌هایی که در آن قرار داریم افتخار می‌کنم.
25:09
I'm proud of our direction.
466
1509496
2888
من به مسیرمان افتخار می‌کنم.
25:12
We obviously can move faster,
467
1512915
2718
بدیهی است که ما می‌توانیم سریع‌تر به پیش برویم،
25:15
but that required just stopping a bunch of stupid stuff we were doing in the past.
468
1515657
4719
اما این کار نیازمند توقف انجام دادن بعضی اشتباهاتی است که در گذشته انجام می‌دادیم.
25:21
CA: All right.
469
1521067
1164
کریس اندرسون: بسیار خب.
25:22
Well, I suspect there are many people here who, if given the chance,
470
1522255
4067
من گمان می‌کنم که خیلی از افرادی که اینجا حضور دارند اگر شانسش را داشته باشند،
25:26
would love to help you on this change-making agenda you're on,
471
1526346
3989
دوست دارند که در مسیر این تغییر به شما کمک کنند،
25:30
and I don't know if Whitney --
472
1530359
1542
و نمی‌دانم اگر ویتنی ...
25:31
Jack, thank you for coming here and speaking so openly.
473
1531925
2761
جک، ممنون از اینکه اینجا آمدی و بسیار صریح صحبت کردی.
25:34
It took courage.
474
1534710
1527
این موضوع شجاعت می‌طلبید.
25:36
I really appreciate what you said, and good luck with your mission.
475
1536261
3384
بسیار حرفتان را تحسین می‌کنم و آرزوی موفقیت برای ماموریتتان می‌کنم.
25:39
JD: Thank you so much. Thanks for having me.
476
1539669
2095
جک دورسی: بسیار ممنونم. ممنون که دعوتم کردید.
25:41
(Applause)
477
1541788
3322
(تشویق)
25:45
Thank you.
478
1545134
1159
متشکرم.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7