How Twitter needs to change | Jack Dorsey

185,541 views ・ 2019-06-07

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Cihan Ekmekçi Gözden geçirme: Figen Ergürbüz
00:13
Chris Anderson: What worries you right now?
0
13131
2408
Chris Anderson: Bugün seni kaygılandıran ne?
00:15
You've been very open about lots of issues on Twitter.
1
15563
2853
Twitter'la ilgili çok sorun hakkında hep çok dürüst oldun.
00:18
What would be your top worry
2
18440
2299
Şu anki gidişatla ilgili
00:20
about where things are right now?
3
20763
2049
en büyük endişen nedir?
00:23
Jack Dorsey: Right now, the health of the conversation.
4
23447
2929
Jack Dorsey: Şu anki endişem, sohbetiin sağlığı.
00:26
So, our purpose is to serve the public conversation,
5
26400
3660
Amacımız herkese açık sohbete hizmet etmek
00:30
and we have seen a number of attacks on it.
6
30084
5056
ve buna yönelik bir dizi saldırı oldu.
00:35
We've seen abuse, we've seen harassment,
7
35164
2425
Suistimal oldu, taciz oldu,
00:37
we've seen manipulation,
8
37613
3222
manipülasyon oldu,
00:40
automation, human coordination, misinformation.
9
40859
4265
otomasyon, insan koordinasyonu, yanlış bilgi aktarımı oldu.
00:46
So these are all dynamics that we were not expecting
10
46134
4034
Bundan 13 yıl önce şirketi ilk kurduğumuzda
00:50
13 years ago when we were starting the company.
11
50192
3718
tüm bunlar beklemediğimiz dinamiklerdi.
00:53
But we do now see them at scale,
12
53934
2664
Ama şimdi gözle görülebilir boyuttalar,
00:56
and what worries me most is just our ability to address it
13
56622
5278
beni en çok endişelendiren de buna yanıt verme yeteneğimiz;
01:01
in a systemic way that is scalable,
14
61924
3108
ölçeklendirilebilecek sistematik bir şekilde,
01:05
that has a rigorous understanding of how we're taking action,
15
65056
6976
özenli bir şekilde harekete geçtiğimizi gösterecek,
01:12
a transparent understanding of how we're taking action
16
72056
3105
şeffaf bir şekilde harekete geçtiğimizi gösterecek,
01:15
and a rigorous appeals process for when we're wrong,
17
75185
3101
yanıldığımızda da özenli bir itiraz süreci olacak bir şekilde
01:18
because we will be wrong.
18
78310
2169
çünkü yanılacağız da.
01:20
Whitney Pennington Rodgers: I'm really glad to hear
19
80503
2397
Whitney Rodgers: Bunun seni endişelendirdiğini söylemene
01:22
that that's something that concerns you,
20
82924
1928
gerçekten memnun oldum
01:24
because I think there's been a lot written about people
21
84876
2630
çünkü Twitter'da rahatsız ve taciz edildiğini söyleyen
01:27
who feel they've been abused and harassed on Twitter,
22
87530
2477
insanlar hakkında çok şey yazıldı,
01:30
and I think no one more so than women and women of color
23
90031
4102
bence bunlar, özellikle de kadınlar ve farklı etnisiteden kadınlar
01:34
and black women.
24
94157
1170
ve siyahi kadınlar.
01:35
And there's been data that's come out --
25
95351
1913
Yeni çıkan bazı veriler var --
01:37
Amnesty International put out a report a few months ago
26
97288
2909
Amnesty International birkaç ay önce bir rapor çıkardı,
01:40
where they showed that a subset of active black female Twitter users
27
100221
4480
buna göre, bir aktif, siyahi kadın Twitter kullanı grubunun
01:44
were receiving, on average, one in 10 of their tweets
28
104725
3456
ortalama olarak her 10 tweetinden biri
01:48
were some form of harassment.
29
108205
2099
bir tür taciz oluyormuş.
01:50
And so when you think about health for the community on Twitter,
30
110328
3907
Twitter'daki topluluğun sağlığı hakkında konuşmuşken
01:54
I'm interested to hear, "health for everyone,"
31
114259
4024
''herkesin sağlığı'' benim için önemli
01:58
but specifically: How are you looking to make Twitter a safe space
32
118307
3125
ama şunu bilmek istiyorum, Twitter'ı bu grup için, kadınlar için,
02:01
for that subset, for women, for women of color and black women?
33
121456
4164
farklı etnisiteden ve siyahi kadınlar için nasıl güvenli kılmayı düşünüyorsun?
02:05
JD: Yeah.
34
125644
1164
JD: Evet.
02:06
So it's a pretty terrible situation
35
126832
2643
Bu oldukça kötü bir durum,
02:09
when you're coming to a service
36
129499
1619
bir ortama giriyorsunuz,
02:11
that, ideally, you want to learn something about the world,
37
131142
4321
tercihen dünya hakkında bir şey öğrenmek istiyorsunuz
02:15
and you spend the majority of your time reporting abuse, receiving abuse,
38
135487
5443
ve zamanınızın çoğunu taciz ve saldırıya uğrayarak,
02:20
receiving harassment.
39
140954
1804
bunları bildirerek geçiriyorsunuz.
02:23
So what we're looking most deeply at is just the incentives
40
143373
6321
Bizim de en derin baktığımız şey
02:29
that the platform naturally provides and the service provides.
41
149718
3823
bu platform ve hizmetin doğal olarak sağladığı özendirici ögeler.
02:34
Right now, the dynamic of the system makes it super-easy to harass
42
154262
4577
Şu anda sistemin dinamiği bu hizmet aracılığıyla
02:38
and to abuse others through the service,
43
158863
3664
başkalarını saldırmayı ve onları taciz etmeyi çok kolay kılıyor
02:42
and unfortunately, the majority of our system in the past
44
162551
3262
ve ne yazık ki geçmişte sistemimizin çoğunluğu
02:45
worked entirely based on people reporting harassment and abuse.
45
165837
5596
tamamen saldırı ve tacizi bildiren insanlar için çalıştı.
02:51
So about midway last year, we decided that we were going to apply
46
171457
5075
Geçen yılın ortasında bu soruna yönelik olarak
02:56
a lot more machine learning, a lot more deep learning to the problem,
47
176556
3982
çok daha fazla makine öğrenimi ve derin öğrenme uygulamaya karar verdik,
03:00
and try to be a lot more proactive around where abuse is happening,
48
180562
4538
ve saldırının olduğu yerde daha proaktif olacağız,
03:05
so that we can take the burden off the victim completely.
49
185124
3960
böylece yükü mağdurun üstünden tamamen alabileceğiz.
03:09
And we've made some progress recently.
50
189108
2435
Son zamanlarda biraz ilerleme kaydettik.
03:11
About 38 percent of abusive tweets are now proactively identified
51
191567
6689
Saldırı nitelikle tweetlerin yüzde 38'i artık proaktif şekilde belirleniyor,
03:18
by machine learning algorithms
52
198280
1715
makine öğrenimli algoritmalar tarafından,
03:20
so that people don't actually have to report them.
53
200019
2334
böylece insanlar bildirmek zorunda kalmıyor.
03:22
But those that are identified are still reviewed by humans,
54
202377
3305
Ama belirlenen tweetler hâlâ insanlar tarafından denetleniyor,
03:25
so we do not take down content or accounts without a human actually reviewing it.
55
205706
5384
yani bir insan denetim yapmadan hiçbir içerik veya hesabı kaldırmıyoruz.
03:31
But that was from zero percent just a year ago.
56
211114
2759
Ama bu aşamaya geçen yıldan bu yana yüzde sıfırdan geldik.
03:33
So that meant, at that zero percent,
57
213897
1931
Yüzde sıfır dediğim durumda,
03:35
every single person who received abuse had to actually report it,
58
215852
3650
saldırı alan her kişinin bunu bildirmesi gerekiyordu,
03:39
which was a lot of work for them, a lot of work for us
59
219526
3579
ki bu da hem onlar için hem de bizim için çok iş demek
03:43
and just ultimately unfair.
60
223129
2018
ve sonuç olarak da adil değildi.
03:46
The other thing that we're doing is making sure that we, as a company,
61
226528
3780
Yaptığımız diğer şey de şirket olarak şundan emin olmak;
03:50
have representation of all the communities that we're trying to serve.
62
230332
3333
hizmet etmeye çalıştığımız tüm toplulukların temsil edilmesi.
03:53
We can't build a business that is successful
63
233689
2159
Kendi aramızda bu sorunları her gün hisseden
03:55
unless we have a diversity of perspective inside of our walls
64
235872
3300
bir bakış açısı çeşitliliğimiz olmazsa
03:59
that actually feel these issues every single day.
65
239196
3732
başarılı bir işletme kuramayız.
04:02
And that's not just with the team that's doing the work,
66
242952
3738
Bu yalnızca asıl işi yapan ekip için değil
04:06
it's also within our leadership as well.
67
246714
2096
yönetimimiz için de geçerli.
04:08
So we need to continue to build empathy for what people are experiencing
68
248834
5757
Bu yüzden insanların yaşadıkları için empati kurmaya devam etmeli
04:14
and give them better tools to act on it
69
254615
3316
ve onlara daha iyi araçlar sunmalı
04:17
and also give our customers a much better and easier approach
70
257955
4252
ve ayrıca kullanıcılarımıza daha iyi ve daha kolay bir yaklaşım vermeliyiz ki
04:22
to handle some of the things that they're seeing.
71
262231
2382
gördüklerinin bir kısmını daha iyi kullanabilsinler.
04:24
So a lot of what we're doing is around technology,
72
264637
3266
Yaptığımız şeyin çoğu teknoloji ekseninde dönüyor
04:27
but we're also looking at the incentives on the service:
73
267927
4308
ama ayrıca bu hizmetin özendirici ögeleri de söz konusu:
04:32
What does Twitter incentivize you to do when you first open it up?
74
272259
5183
İlk açtığınızda Twitter sizi ne yapmaya teşvik ediyor?
04:37
And in the past,
75
277466
1294
Geçmişte,
04:40
it's incented a lot of outrage, it's incented a lot of mob behavior,
76
280670
5544
çok fazla öfke, çok fazla çete davranışı,
04:46
it's incented a lot of group harassment.
77
286238
2459
çok fazla grup tacizi teşvik ediyordu.
04:48
And we have to look a lot deeper at some of the fundamentals
78
288721
3648
Hizmetin daha büyük değişiklikler geçirebilmesi için
04:52
of what the service is doing to make the bigger shifts.
79
292393
2958
bunun temeline daha derin inmemiz lazım.
04:55
We can make a bunch of small shifts around technology, as I just described,
80
295375
4031
Teknoloji ekseninde pek çok küçük değişiklik yapabiliriz
04:59
but ultimately, we have to look deeply at the dynamics in the network itself,
81
299430
4386
ama sonuç olarak bu sosyal ağın dinamiklerine derinden bakmamız lazım
05:03
and that's what we're doing.
82
303840
1368
ve yaptığımız da bu.
05:05
CA: But what's your sense --
83
305232
2060
CA: Peki ya senin bakış açın --
05:07
what is the kind of thing that you might be able to change
84
307316
3963
Temelden davranışı değiştirecek
05:11
that would actually fundamentally shift behavior?
85
311303
2749
senin değiştirebileceğin şey ne olurdu?
05:15
JD: Well, one of the things --
86
315386
1480
JD: Bunlardan biri...
05:16
we started the service with this concept of following an account,
87
316890
5340
biz bu hizmeti bir hesap takip etme konseptiyle başlattık,
05:22
as an example,
88
322254
1725
örnek olarak,
05:24
and I don't believe that's why people actually come to Twitter.
89
324003
4349
insanların Twitter'a gelme sebebinin bu olduğunu düşünmüyorum.
05:28
I believe Twitter is best as an interest-based network.
90
328376
4857
Bence Twitter'in en iyi kullanım amacı ilgi temelli ağ olarak görülmesi.
05:33
People come with a particular interest.
91
333257
3453
İnsanlar belli bir ilgi alanıyla geliyorlar.
05:36
They have to do a ton of work to find and follow the related accounts
92
336734
3487
Bu ilgi alanları hakkında hesaplar bulmak ve takip etmek için
05:40
around those interests.
93
340245
1405
bir sürü şey yapmak zorundalar.
05:42
What we could do instead is allow you to follow an interest,
94
342217
3397
Bunun yerine bir ilgi alanını takip etmelerini sağlayabiliriz;
05:45
follow a hashtag, follow a trend,
95
345638
2103
bir etiketi, bir trendi,
05:47
follow a community,
96
347765
1754
bir topluluğu,
05:49
which gives us the opportunity to show all of the accounts,
97
349543
4637
bu da bize o konu ve ilgi alanıyla alakalı
05:54
all the topics, all the moments, all the hashtags
98
354204
3323
tüm hesapları, tüm anları, tüm etiketleri
05:57
that are associated with that particular topic and interest,
99
357551
3992
gösterme imkânu sunar
06:01
which really opens up the perspective that you see.
100
361567
4600
ve bu da sizin gördüğünüz bakış açısına kapı açar.
06:06
But that is a huge fundamental shift
101
366191
2157
Ama bu dev bir temel değişiklik,
06:08
to bias the entire network away from just an account bias
102
368372
3792
tüm sosyal ağı, hesap temelinden uzaklaştırıp
06:12
towards a topics and interest bias.
103
372188
2587
bir konu ve ilgi alanı temeline döndürmek.
06:15
CA: Because isn't it the case
104
375283
3148
CA: Çünkü durum aslında şu sanırım,
06:19
that one reason why you have so much content on there
105
379375
3541
platformda bu kadar içerik olmasının başlıca sebebi,
06:22
is a result of putting millions of people around the world
106
382940
3591
dünyanın her yanından milyonlarca insanı
06:26
in this kind of gladiatorial contest with each other
107
386555
3142
birbirleriyle bu tür bir gladyatör yarışına sokmanın sonucu,
06:29
for followers, for attention?
108
389721
2090
takipçi için, ilgi çekmek için?
06:31
Like, from the point of view of people who just read Twitter,
109
391835
4117
Twitter'ı yalnızca okuma amaçlı kullanan insanların bakış açısından
06:35
that's not an issue,
110
395976
1155
bu bir sorun değil,
06:37
but for the people who actually create it, everyone's out there saying,
111
397155
3350
peki ya onu yaratanlar için... Çünkü herkes şöyle düşünüyor,
06:40
"You know, I wish I had a few more 'likes,' followers, retweets."
112
400529
3236
''Kesşke daha çok beğeni alsaydım, daha çok takipçi, daha çok retweet.''
06:43
And so they're constantly experimenting,
113
403789
2148
Bu yüzden de sürekli deneme hâlindeler,
06:45
trying to find the path to do that.
114
405961
1961
o yola ulaşmaya çalışıyorlar.
06:47
And what we've all discovered is that the number one path to do that
115
407946
4126
Şunu da hepimiz artık biliyoruz ki bunu yapabilmenin bir numaralı yolu
06:52
is to be some form of provocative,
116
412096
3406
bir şekilde provokatif olmak,
06:55
obnoxious, eloquently obnoxious,
117
415526
2980
etkileyici bir tonda aşağılaycı olmak,
06:58
like, eloquent insults are a dream on Twitter,
118
418530
3516
etkileyici hakaretler Twitter'da bir hayal,
07:02
where you rapidly pile up --
119
422070
2603
hızla yığılıyorlar
07:04
and it becomes this self-fueling process of driving outrage.
120
424697
4608
ve kendi kendine yeten bir kızgınlık sürecine dönüşüyor.
07:09
How do you defuse that?
121
429329
2351
Bunu nasıl ortadan kaldırabilirsin?
07:12
JD: Yeah, I mean, I think you're spot on,
122
432624
2947
JD: Bence tam üstüne bastınız
07:15
but that goes back to the incentives.
123
435595
1886
ama konu yine özendiricilere gidiyor.
07:17
Like, one of the choices we made in the early days was
124
437505
2632
İlk günlerde verdiğimiz kararlardan biri,
07:20
we had this number that showed how many people follow you.
125
440161
4701
sizi kaç kişinin takip ettiğini size göstermekti.
07:24
We decided that number should be big and bold,
126
444886
2959
Bunun büyük ve kalın yazı tipiyle olmasına karar vermiştik
07:27
and anything that's on the page that's big and bold has importance,
127
447869
3740
ve sayfada büyük ve kalın yazı tipli her şey önemli olacaktı
07:31
and those are the things that you want to drive.
128
451633
2278
ve üzerinde uğraşmak istediğiniz şeyler bunlar.
07:33
Was that the right decision at the time?
129
453935
1907
Bu doğru bir karar mıydı?
07:35
Probably not.
130
455866
1153
Muhtemelen hayır.
07:37
If I had to start the service again,
131
457043
1805
Bu hizmeti yeniden başlatacak olsam
07:38
I would not emphasize the follower count as much.
132
458872
2398
Takipçi sayısı üzerinde bu kadar durmam.
07:41
I would not emphasize the "like" count as much.
133
461294
2295
"Beğeni" sayısı üzerinde bu kadar durmam.
07:43
I don't think I would even create "like" in the first place,
134
463613
3120
Hatta sanırım "beğen"i hiç yaratmam bile
07:46
because it doesn't actually push
135
466757
3267
çünkü bizim için artık önemli olanı
07:50
what we believe now to be the most important thing,
136
470048
3179
gerçekten yansıtmıyor,
07:53
which is healthy contribution back to the network
137
473251
3039
bu da sosyal ağa sağlıklı katkılar
07:56
and conversation to the network,
138
476314
2652
ve sosyal ağda sohbet,
07:58
participation within conversation,
139
478990
2072
sohbet içine katılım,
08:01
learning something from the conversation.
140
481086
2493
sohbetten bir şey öğrenme.
08:03
Those are not things that we thought of 13 years ago,
141
483603
2824
13 yıl önce düşündüğümüz şeyler bunlar değildi
08:06
and we believe are extremely important right now.
142
486451
2439
ve şu an bunların çok önemli olduğuna inanıyoruz.
08:08
So we have to look at how we display the follower count,
143
488914
3023
Takipçi sayısını nasıl görüntülediğimize yeniden bakmamız lazım,
08:11
how we display retweet count,
144
491961
2365
retweet sayısını,
08:14
how we display "likes,"
145
494350
1401
''beğeni'' görüntüleyişimizi
08:15
and just ask the deep question:
146
495775
2254
ve şu soruyu sormamız lazım:
08:18
Is this really the number that we want people to drive up?
147
498053
3048
İnsanları teşvik etmek istediğimiz sayı bu mu?
08:21
Is this the thing that, when you open Twitter,
148
501125
2545
Twitter'ı açtığınız zaman
08:23
you see, "That's the thing I need to increase?"
149
503694
2516
''Arttırmam gereken işte bu'' demelerini mi istiyoruz?
08:26
And I don't believe that's the case right now.
150
506234
2144
Bunun doğru olduğunu sanmıyorum.
08:28
(Applause)
151
508402
2103
(Alkışlar)
08:30
WPR: I think we should look at some of the tweets
152
510529
2352
WPR: Bence izleyicilerden gelmekte olan
08:32
that are coming in from the audience as well.
153
512905
2169
tweetlere de bakmalıyız.
08:35
CA: Let's see what you guys are asking.
154
515868
2436
CA: Neler sorulduğuna bir bakalım.
08:38
I mean, this is -- generally, one of the amazing things about Twitter
155
518328
3294
Twitter'ın harika yanlarından biri bu,
08:41
is how you can use it for crowd wisdom,
156
521646
2294
topluluğun fikri için kullanabiliyoruz,
08:43
you know, that more knowledge, more questions, more points of view
157
523964
4840
daha fazla bilgi, daha fazla soru, daha fazla bakış açısı,
08:48
than you can imagine,
158
528828
1238
düşündüğümüzden de fazla
08:50
and sometimes, many of them are really healthy.
159
530090
3689
ve bazen çoğu gerçekten sağlıklı yorumlar.
08:53
WPR: I think one I saw that passed already quickly down here,
160
533803
2900
WPR: Sanırım gözümün önünden geçen bir tanesi şöyleydi,
08:56
"What's Twitter's plan to combat foreign meddling in the 2020 US election?"
161
536717
3524
"Twitter'ın 2020 ABD seçiminde yabancı müdahalesiyle savaşmak için planı ne?"
09:00
I think that's something that's an issue we're seeing
162
540265
2571
Sanırım bu internette genel olarak gördüğümüz
09:02
on the internet in general,
163
542860
1901
sorunlardan bir tanesi,
09:04
that we have a lot of malicious automated activity happening.
164
544785
3667
çok fazla otomatik kötü amaçlı aktivitenin yaşandığı bir sorun.
09:08
And on Twitter, for example, in fact, we have some work
165
548476
5373
Twitter'da da örneğin
09:13
that's come from our friends at Zignal Labs,
166
553873
2758
Zignal Labs'tan arkadaşlarımızın çalışmaları var,
09:16
and maybe we can even see that to give us an example
167
556655
2656
belki de bunu tam olarak ne anlatmaya çalıştığıma
09:19
of what exactly I'm talking about,
168
559335
1927
bir örnek olarak kullanabiliriz,
09:21
where you have these bots, if you will,
169
561286
3204
bazı botlar var
09:24
or coordinated automated malicious account activity,
170
564514
4550
veya koordineli otomatik kötü amaçlı aktivite,
09:29
that is being used to influence things like elections.
171
569088
2764
seçim gibi şeyleri etkilemek için kullanılıyor.
09:31
And in this example we have from Zignal which they've shared with us
172
571876
3843
Zignal'in bizimle paylaştığı bu örnekte
09:35
using the data that they have from Twitter,
173
575743
2198
Twitter'dan veriler kullandılar,
09:37
you actually see that in this case,
174
577965
2441
gerçekten görüyorsunuz ki
09:40
white represents the humans -- human accounts, each dot is an account.
175
580430
4370
beyaz, insanları temsil ediyor -- insan hesapları, her nokta bir hesap.
09:44
The pinker it is,
176
584824
1359
Pembeleştikçe
09:46
the more automated the activity is.
177
586207
1740
aktivite daha otomatik hâle geliyor.
09:47
And you can see how you have a few humans interacting with bots.
178
587971
5970
Botlarla etkileşime geçen birkaç insan olduğunu da görebilirsiniz.
09:53
In this case, it's related to the election in Israel
179
593965
4419
Böyle bir durumda, İsrail'deki seçimlerle de alakalı
09:58
and spreading misinformation about Benny Gantz,
180
598408
2833
ve Benny Gantz hakkında yanlış bilgi yayılmasıyla
10:01
and as we know, in the end, that was an election
181
601265
2662
ve bildiğimiz üzere, sonuç olarak bir seçim yaşandı
10:03
that Netanyahu won by a slim margin,
182
603951
3724
ve Netanyahu küçük bir farkla kazandı.
10:07
and that may have been in some case influenced by this.
183
607699
2842
Durum, bir açıdan bundan etkilenmiş olabilir.
10:10
And when you think about that happening on Twitter,
184
610565
2615
Bunun Twitter'da olduğunu düşündüğümüzde
10:13
what are the things that you're doing, specifically,
185
613204
2456
buna dair yaptığın şeyler neler,
10:15
to ensure you don't have misinformation like this spreading in this way,
186
615684
3702
bu şekilde yanlış bilginin yayılmasına engel olmak
10:19
influencing people in ways that could affect democracy?
187
619410
4181
ve demokrasiyi etkileyecek şekilde insanları etkilemenin önüne geçmek için?
10:23
JD: Just to back up a bit,
188
623615
1771
JD: Biraz geriye gidersek
10:25
we asked ourselves a question:
189
625410
2975
kendimize bir soru sormuştuk:
10:28
Can we actually measure the health of a conversation,
190
628409
3816
Bir sohbetin sağlığını gerçekten ölçebilir miyiz
10:32
and what does that mean?
191
632249
1288
ve bu ne anlama geliyor?
10:33
And in the same way that you have indicators
192
633561
3382
Sizin göstergeleriniz olduğu gibi
10:36
and we have indicators as humans in terms of are we healthy or not,
193
636967
3467
biz insanların da sağlıklı olup olmadığımızı gösteren göstergeler var,
10:40
such as temperature, the flushness of your face,
194
640458
4658
vücut ısısı, yüzünüzdeki kızarma gibi,
10:45
we believe that we could find the indicators of conversational health.
195
645140
4560
sohbet sağlığı için de göstergeler bulabileceğimizi düşünüyoruz.
10:49
And we worked with a lab called Cortico at MIT
196
649724
3843
MIT'de Cortico adında bir laboratuvarla çalışarak
10:54
to propose four starter indicators
197
654479
6091
sistemde ölçüm yapabilecek
11:00
that we believe we could ultimately measure on the system.
198
660594
3670
dört başlangıç göstergesi teklifinde bulunduk.
11:05
And the first one is what we're calling shared attention.
199
665249
5604
Birincisi paylaşımlı dikkat dediğimiz bir şey.
11:10
It's a measure of how much of the conversation is attentive
200
670877
3581
Farklı görüşlere kıyasla sohbetin aynı konu üzerinde
11:14
on the same topic versus disparate.
201
674482
2630
ne kadar dikkat aldığına dair bir ölçüm.
11:17
The second one is called shared reality,
202
677739
2783
İkincisi paylaşımlı gerçeklik;
11:21
and this is what percentage of the conversation
203
681217
2259
bu bize sohbetin yüzde kaçının
11:23
shares the same facts --
204
683500
2005
aynı bilgileri paylaştığını gösteriyor,
11:25
not whether those facts are truthful or not,
205
685529
3113
bu bilgilerin doğru olup olmadığını değil,
11:28
but are we sharing the same facts as we converse?
206
688666
3009
ama sohbet ederken hepimiz aynı bilgileri mi paylaşıyoruz?
11:32
The third is receptivity:
207
692235
2353
Üçüncüsü kabul görürlük:
11:34
How much of the conversation is receptive or civil
208
694612
3959
Sohbetin ne kadarı kabul görür veya medeni
11:38
or the inverse, toxic?
209
698595
2944
ya da tam tersi, çirkin?
11:42
And then the fourth is variety of perspective.
210
702213
3222
Son olarak dördüncüsü bakış açısı çeşitliliği.
11:45
So, are we seeing filter bubbles or echo chambers,
211
705459
3145
Kendimizi internette farklı görüşlerden soyutlamış mıyız
11:48
or are we actually getting a variety of opinions
212
708628
3057
yoksa sahiden sohbete ilişkin
11:51
within the conversation?
213
711709
1635
farklı fikirler ediniyor muyuz?
11:53
And implicit in all four of these is the understanding that,
214
713368
4018
Ve dolaylı olarak tüm bu dört unsurda da var olan şey şu,
11:57
as they increase, the conversation gets healthier and healthier.
215
717410
3390
bunlar arttıkça sohbet giderek daha sağlıklı olacaktır.
12:00
So our first step is to see if we can measure these online,
216
720824
4869
O yüzden ilk adım bunları internette ölçebilir miyiz bunu anlamak,
12:05
which we believe we can.
217
725717
1308
ki bence yapabiliriz.
12:07
We have the most momentum around receptivity.
218
727049
3167
Rn büyük yatkınlığımız kabul görürlük üzerinde.
12:10
We have a toxicity score, a toxicity model, on our system
219
730240
4317
Sistemimizde bir çirkinleşme skoru, bir çirkinleşme modeli var,
12:14
that can actually measure whether you are likely to walk away
220
734581
4124
Twitter'da bir sohbetten çirkinleştiği için
12:18
from a conversation that you're having on Twitter
221
738729
2313
çekip gitme eğiliminde olup olmadığımızı
12:21
because you feel it's toxic,
222
741066
1633
öleçebilen bir sistem
12:22
with some pretty high degree.
223
742723
2512
ve doğruluk oranı bayağı yüksek.
12:26
We're working to measure the rest,
224
746369
2199
Kalanları da ölçmeye çalışıyoruz
12:28
and the next step is,
225
748592
1964
ve sonraki adım da
12:30
as we build up solutions,
226
750580
3359
çözümler ortaya çıkarırken
12:33
to watch how these measurements trend over time
227
753963
3491
bu ölçümlerin zamanla ne kadar trend olduğuna bakmak
12:37
and continue to experiment.
228
757478
1873
ve denemeye devam etmek.
12:39
And our goal is to make sure that these are balanced,
229
759375
4041
Hedefimiz bunların dengeli olmasını sağlamak
12:43
because if you increase one, you might decrease another.
230
763440
3066
çünkü birini arttırırken diğerini azaltabilirsiniz.
12:46
If you increase variety of perspective,
231
766530
2147
Bakış açısı çeşitliliğini arttırırsanız
12:48
you might actually decrease shared reality.
232
768701
3091
istemeden paylaşımlı gerçekliği azaltabilirsiniz.
12:51
CA: Just picking up on some of the questions flooding in here.
233
771816
4989
CA: Buraya hızla gelen sorulardan bazılarını seçmek istiyorum.
12:56
JD: Constant questioning.
234
776829
1271
JD: Sürekli sorgulama.
12:58
CA: A lot of people are puzzled why,
235
778996
3620
CA: Pek çok insan neden sorusuna takılmış,
13:02
like, how hard is it to get rid of Nazis from Twitter?
236
782640
4247
mesela Twitter'dan Nazileri kaldırmak ne kadar zor olabilir ki?
13:08
JD: (Laughs)
237
788309
1322
JD: (Gülüyor)
13:09
So we have policies around violent extremist groups,
238
789655
6995
Şiddetli ekstremist gruplara yönelik ilkelerimiz var
13:16
and the majority of our work and our terms of service
239
796674
4426
ve işimizin, hizmet koşullarımızın büyük bölümü
13:21
works on conduct, not content.
240
801124
3729
davranış üzerine, içerik değil.
13:24
So we're actually looking for conduct.
241
804877
2551
Bu yüzden de davranış bakıyoruz.
13:27
Conduct being using the service
242
807452
3014
Burada davranıştan kasıt
13:30
to repeatedly or episodically harass someone,
243
810490
3867
bu hizmeti sürekli veya aralıklarla birini taciz etmek,
13:34
using hateful imagery
244
814381
2493
KKK ile ilgili
13:36
that might be associated with the KKK
245
816898
2106
veya Amerikan Nazi Partisi ile ilgili
13:39
or the American Nazi Party.
246
819028
3281
nefret içerikli görsel kullanmak olabilir.
13:42
Those are all things that we act on immediately.
247
822333
4156
Tüm bunlara anında müdahele ediyoruz.
13:47
We're in a situation right now where that term is used fairly loosely,
248
827002
5452
Şu an bu koşulun biraz fazla rahatlıkla uygulandığı bir dönemden geçiyoruz
13:52
and we just cannot take any one mention of that word
249
832478
5313
ve sırf birisi o kelimeyi kullandığı için,
13:57
accusing someone else
250
837815
2117
birini suçladığı için
13:59
as a factual indication that they should be removed from the platform.
251
839956
3755
bunu bir gösterge kabul edip kişiyi platformdan çıkaramayız.
14:03
So a lot of our models are based around, number one:
252
843735
2627
Modellerimizin çoğu şunlar üzerine kurulu, bir:
14:06
Is this account associated with a violent extremist group?
253
846386
3140
Bu hesap, şiddet eğilimli extremist bir grupla ilişkili mi?
14:09
And if so, we can take action.
254
849550
1983
Eğer öyleyse müdahele ediyoruz.
14:11
And we have done so on the KKK and the American Nazi Party and others.
255
851557
3852
KKK veya Amerikan Nazi Partisi ve başkaları için bunu yaptık da.
14:15
And number two: Are they using imagery or conduct
256
855433
4183
İki: Kendilerini bu saydıklarımızla ilişkilendirecek
14:19
that would associate them as such as well?
257
859640
2372
davranış veya görsel kullanıyorlar mı?
14:22
CA: How many people do you have working on content moderation
258
862416
2932
CA: Bunlara bakmak için içerik moderasyon departmanında
14:25
to look at this?
259
865372
1250
kaç kişi çalışıyor?
14:26
JD: It varies.
260
866646
1496
JD: Değişiyor.
14:28
We want to be flexible on this,
261
868166
1595
Bu konuda esnek olmak istiyoruz
14:29
because we want to make sure that we're, number one,
262
869785
2646
çünkü her şeyden önce algoritma geliştirmek istiyoruz,
14:32
building algorithms instead of just hiring massive amounts of people,
263
872455
4424
düzinelerce insan işe almak değil,
14:36
because we need to make sure that this is scalable,
264
876903
2824
çünkü bunun ölçeklendirilebilir olmasını istiyoruz
14:39
and there are no amount of people that can actually scale this.
265
879751
3454
ve bunu ölçeklendirebilecek bir insan sayısı olamaz.
14:43
So this is why we've done so much work around proactive detection of abuse
266
883229
6629
Bu yüzden de sonradan insanların gözden geçirdiği
önlenebilir taciz tesbiti için çok çalıştık.
14:49
that humans can then review.
267
889882
1391
14:51
We want to have a situation
268
891297
2861
İstediğimiz ortam,
14:54
where algorithms are constantly scouring every single tweet
269
894182
3741
algoritmaların sürekli olarak her bir tviti incelemesi
14:57
and bringing the most interesting ones to the top
270
897947
2342
ve en ilginç olanları en öne çıkarması,
15:00
so that humans can bring their judgment to whether we should take action or not,
271
900313
3902
böylece insanlar müdahele edip etmemiz konusunda yorum yapabilirler,
15:04
based on our terms of service.
272
904239
1524
tabii hizmet koşullarına dayanarak.
15:05
WPR: But there's not an amount of people that are scalable,
273
905787
2803
WPR: Ama ölçeklendirilecek bir insan sayısı yoksa
15:08
but how many people do you currently have monitoring these accounts,
274
908614
3497
şu anda bu hesapları gözlemleyen kaç kişi çalışıyor
15:12
and how do you figure out what's enough?
275
912135
2546
ve yeterli sayıyı nasıl belirliyorsun?
15:14
JD: They're completely flexible.
276
914705
2272
JD: Tamamen esnekler.
15:17
Sometimes we associate folks with spam.
277
917001
2941
Bazen insanları spam olarak işaretliyoruz.
15:19
Sometimes we associate folks with abuse and harassment.
278
919966
3845
Bazen taciz ve saldırı olarak.
15:23
We're going to make sure that we have flexibility in our people
279
923835
3062
Çalışanlarımızda da esneklik olmasını istiyoruz ki
15:26
so that we can direct them at what is most needed.
280
926921
2350
onları en gerekli şeye yönlendirebilelim.
Bazen, seçimler.
15:29
Sometimes, the elections.
281
929295
1204
Meksika'da seçin oldu, Hindistan'da yakında olacak,
15:30
We've had a string of elections in Mexico, one coming up in India,
282
930523
4927
15:35
obviously, the election last year, the midterm election,
283
935474
4447
geçen yılki seçim, dönem ortası seçimleri,
15:39
so we just want to be flexible with our resources.
284
939945
2472
kaynaklarımızla esnek olmak istiyoruz.
15:42
So when people --
285
942441
2129
Yani insanlar --
15:44
just as an example, if you go to our current terms of service
286
944594
6389
örnek olarak şu anki hizmet koşullarımızı açıyorsunuz
15:51
and you bring the page up,
287
951007
1641
ve sayfayı görüntülüyorsunuz
15:52
and you're wondering about abuse and harassment that you just received
288
952672
3682
ve az önce biri sizi taciz ettiği için
15:56
and whether it was against our terms of service to report it,
289
956378
3634
bildirmebilmek için hizmet koşullarına aykırı mı ona bakıyorsunuz,
16:00
the first thing you see when you open that page
290
960036
2559
ancak o sayfayı açtığınızda ilk gördüğünüz şey
16:02
is around intellectual property protection.
291
962619
3088
fikri mülkiyetin korunması.
16:06
You scroll down and you get to abuse, harassment
292
966504
5323
Aşağı kaydırıyorsunuz ve taciz ve saldırı kısmına geliyorsunuz
16:11
and everything else that you might be experiencing.
293
971851
2382
ve başınızdan geçiyor olabilecek diğer her şey.
16:14
So I don't know how that happened over the company's history,
294
974257
3195
Şirketin tarihinde neler oldu bilmiyorum
16:17
but we put that above the thing that people want
295
977476
4797
ama insanların en çok bilgi sahibi olmak istedikleri
16:24
the most information on and to actually act on.
296
984146
3222
ve bir şeyler yapmak istedikleri şey olarak onu en üste koyduk.
16:27
And just our ordering shows the world what we believed was important.
297
987392
5241
Sadece sıralamamız bile dünyaya neyin bizim için önemli olduğunu gösteriyor.
16:32
So we're changing all that.
298
992657
2881
Bütün bunları değiştiriyoruz.
16:35
We're ordering it the right way,
299
995562
1563
Sıralamayı doğru yapıyoruz
16:37
but we're also simplifying the rules so that they're human-readable
300
997149
3451
ama ayrıca kuralları basitleştiriyoruz ki insan için okunaklı olsun,
16:40
so that people can actually understand themselves
301
1000624
4067
bir şeyler koşullarımıza aykırı olduğunda veya olmadığında
16:44
when something is against our terms and when something is not.
302
1004715
3448
insanlar bunu kendi başlarına anlayabilsin.
16:48
And then we're making --
303
1008187
2161
Şunu da yapıyoruz --
16:50
again, our big focus is on removing the burden of work from the victims.
304
1010372
5200
yeniden söyleyeyim, asıl odağımız mağdurların üzerinden yükü kaldırmak.
16:55
So that means push more towards technology,
305
1015596
3734
Bu da işi insanlara yaptırmaktan ziyade
16:59
rather than humans doing the work --
306
1019354
1873
teknolojiye daha çok yönelmek demek --
17:01
that means the humans receiving the abuse
307
1021251
2413
çünkü aksi hâlde tacize maruz kalan kişi
17:03
and also the humans having to review that work.
308
1023688
3026
aynı zamanda bunu gözden geçirecek kişi oluyor.
17:06
So we want to make sure
309
1026738
1673
Bizim de istediğimiz şey,
17:08
that we're not just encouraging more work
310
1028435
2841
aşırı derecede negatif bir şey konusunda
17:11
around something that's super, super negative,
311
1031300
2629
daha fazla teşvik sağlamamak.
17:13
and we want to have a good balance between the technology
312
1033953
2674
İnsanların yaratıcılığı ve teknoloji arasında
17:16
and where humans can actually be creative,
313
1036651
2852
iyi bir denge sağlamak istiyoruz,
17:19
which is the judgment of the rules,
314
1039527
3090
bu da kuralların yorumlanması,
17:22
and not just all the mechanical stuff of finding and reporting them.
315
1042641
3267
sadece bir dizi mekanik şeyi bulup onları bildirmek değil.
17:25
So that's how we think about it.
316
1045932
1530
Düşünce şeklimiz bu yönde.
17:27
CA: I'm curious to dig in more about what you said.
317
1047486
2406
CA: Söylediğin şeyin daha derinine inmek istiyorum.
17:29
I mean, I love that you said you are looking for ways
318
1049916
2605
Şunu söylemen öok hoşuma gitti,
17:32
to re-tweak the fundamental design of the system
319
1052545
3462
sistemin temel tasarımına yeni yön verecek yollar arıyorsun,
17:36
to discourage some of the reactive behavior, and perhaps --
320
1056031
4875
insanların reaktif davranışlarını caydırmak ve belki de --
17:40
to use Tristan Harris-type language --
321
1060930
2705
Tristan Harris gibi konuşursak --
17:43
engage people's more reflective thinking.
322
1063659
4288
insanların reflektif düşüncesini daha çok dâhil etmek.
17:47
How far advanced is that?
323
1067971
1854
Bu ne kadar ileri bir görüş?
17:49
What would alternatives to that "like" button be?
324
1069849
4305
''Beğen'' butonunun alternatifi ne olurdu?
17:55
JD: Well, first and foremost,
325
1075518
3575
JD: Her şeyden önce,
17:59
my personal goal with the service is that I believe fundamentally
326
1079117
5753
benim bu hizmetteki kişisel amacım olan inandığım temel şey;
18:04
that public conversation is critical.
327
1084894
2702
toplu konuşma çok önemlidir.
18:07
There are existential problems facing the world
328
1087620
2647
Dünyayı tehdit eden var oluşsal sorunlar var,
18:10
that are facing the entire world, not any one particular nation-state,
329
1090291
4163
tek bir ulus devleti değil tüm dünyayı tehdit eden sorunlar
18:14
that global public conversation benefits.
330
1094478
2649
ve küresel toplu sohbet buna fayda sağlıyor.
18:17
And that is one of the unique dynamics of Twitter,
331
1097151
2372
Twitter'ın eşsiz dinamiklerinden biri bu,
18:19
that it is completely open,
332
1099547
1814
tamamen aleni,
18:21
it is completely public,
333
1101385
1596
tamamen hakla açık,
18:23
it is completely fluid,
334
1103005
1399
tamamen değişken
18:24
and anyone can see any other conversation and participate in it.
335
1104428
4038
ve herkes başka sohbetler görüp bunlara katılabilir.
18:28
So there are conversations like climate change.
336
1108490
2206
İklim değişikliği gibi sohbetler var.
18:30
There are conversations like the displacement in the work
337
1110720
2682
İş yerinde yapay zekâ aracılığıyla
18:33
through artificial intelligence.
338
1113426
2000
yanlış yerleştirme sohbetleri var.
18:35
There are conversations like economic disparity.
339
1115450
3006
Ekonomik eşitsizlik sohbetleri var.
18:38
No matter what any one nation-state does,
340
1118480
2765
Herhangi bir ulus devletin ne yaptığı önemli değil,
18:41
they will not be able to solve the problem alone.
341
1121269
2421
bu sorunu tek başlarına çözemeyecekler.
18:43
It takes coordination around the world,
342
1123714
2643
Bunun için dünya çapında işbirliği lazım
18:46
and that's where I think Twitter can play a part.
343
1126381
3047
ve bu noktada Twitter bir rol oynayabilir.
18:49
The second thing is that Twitter, right now, when you go to it,
344
1129452
5642
İkinci husus da Twitter şu an öyle bir ortam ki
18:55
you don't necessarily walk away feeling like you learned something.
345
1135118
3746
bir sohbetten çıkarken her zaman bir şey öğrenmiş gibi hissetmiyorsunuz.
18:58
Some people do.
346
1138888
1276
Kimi insanlar öğreniyor.
19:00
Some people have a very, very rich network,
347
1140188
3107
Bazı insanların çok zengin bir ağı var,
19:03
a very rich community that they learn from every single day.
348
1143319
3117
o kadar geniş bir ağ ki her geçen gün bir şeyler öğreniyorlar.
19:06
But it takes a lot of work and a lot of time to build up to that.
349
1146460
3691
Ama buna ulaşmak çok emek ve çok zaman gerektiriyor.
19:10
So we want to get people to those topics and those interests
350
1150175
3448
Biz, insanların bu konu ve ilgi alanlarına
19:13
much, much faster
351
1153647
1579
çok daha hızlı ulaşmalarını
19:15
and make sure that they're finding something that,
352
1155250
2566
ve ulaştıklarında da
19:18
no matter how much time they spend on Twitter --
353
1158728
2360
Twitter'da ne kadar zaman geçirirlerse geçirsinler --
19:21
and I don't want to maximize the time on Twitter,
354
1161112
2358
Twitter zamanını maksimize etmek istemiyorum,
19:23
I want to maximize what they actually take away from it
355
1163494
2910
maksimize etmek istediğim şey bu platformdan edindikleri
19:26
and what they learn from it, and --
356
1166428
2030
ve neler öğrendikleri ve de --
19:29
CA: Well, do you, though?
357
1169598
1328
CA: Peki yapabiliyor musun?
19:30
Because that's the core question that a lot of people want to know.
358
1170950
3244
Çünkü çok insanın merak ettiği temel bir soru var.
19:34
Surely, Jack, you're constrained, to a huge extent,
359
1174218
3638
Elbette, Jack, büyük ölçüde elin kolun bağlı,
19:37
by the fact that you're a public company,
360
1177880
2007
nitekim halka açık bir şirket bu,
19:39
you've got investors pressing on you,
361
1179911
1774
baskı yapan yatırımcılar var,
19:41
the number one way you make your money is from advertising --
362
1181709
3559
para kazanmanın bir numaralı yolu da reklamlar --
19:45
that depends on user engagement.
363
1185292
2772
bu da kullanıcı katılımına bağlı.
19:48
Are you willing to sacrifice user time, if need be,
364
1188088
4700
Gerektiği takdirde, kullanıcı zamanını feda eder misin,
19:52
to go for a more reflective conversation?
365
1192812
3729
daha reflektif bir sohbet adına?
19:56
JD: Yeah; more relevance means less time on the service,
366
1196565
3111
JD: Evet; daha çok alaka demek hizmette daha az zaman demek
19:59
and that's perfectly fine,
367
1199700
1937
ve bunun hiçbir sakıncası yok
20:01
because we want to make sure that, like, you're coming to Twitter,
368
1201661
3099
çünkü istiyoruz ki Twitter'a gelin,
20:04
and you see something immediately that you learn from and that you push.
369
1204784
4520
bir şey görün ve ondan bir şey öğrenin ve o şey sizi tekrar getirsin.
20:09
We can still serve an ad against that.
370
1209328
3420
Buna karşı hâlâ bir reklam sunabiliriz.
20:12
That doesn't mean you need to spend any more time to see more.
371
1212772
2921
Bu daha fazlasını görmek için daha çok zaman demek değil.
20:15
The second thing we're looking at --
372
1215717
1733
Üzerinde durduğumuz ikinci şey de --
20:17
CA: But just -- on that goal, daily active usage,
373
1217474
2698
CA: Ama şu hedefe gelirsek, günlük aktif kullanım,
20:20
if you're measuring that, that doesn't necessarily mean things
374
1220196
3245
eğer bunu ölçeceksen
bu, insanların her gün değer verdiği şeyler demek değil.
20:23
that people value every day.
375
1223465
1738
20:25
It may well mean
376
1225227
1161
Şu anlama da gelebilir,
20:26
things that people are drawn to like a moth to the flame, every day.
377
1226412
3306
ışığın böceği çekmesi gibi, bu şeyler insanları her gün de çekebilir.
20:29
We are addicted, because we see something that pisses us off,
378
1229742
3022
Bağımlı oluyoruz çünkü bizi çok sinirlendiren bir şey görüyoruz,
20:32
so we go in and add fuel to the fire,
379
1232788
3178
yangına körükle gidiyoruz
20:35
and the daily active usage goes up,
380
1235990
1927
ve günlük aktif kullanım yukarı çıkıyor,
20:37
and there's more ad revenue there,
381
1237941
1715
orada daha fazla reklam geliri var
20:39
but we all get angrier with each other.
382
1239680
2752
ama birbirimize sinirlenip duruyoruz.
20:42
How do you define ...
383
1242456
2509
Bunu nasıl tanımlarsın?
20:44
"Daily active usage" seems like a really dangerous term to be optimizing.
384
1244989
4126
''Günlük aktif kullanım'' optimize etmek için çok tehlikeli bir terim gibi.
20:49
(Applause)
385
1249139
5057
(Alkışlar)
20:54
JD: Taken alone, it is,
386
1254220
1268
JD: Tek başına, evet öyle
20:55
but you didn't let me finish the other metric,
387
1255512
2346
ama diğer ölçümü bitirmeme izin vermediniz,
20:57
which is, we're watching for conversations
388
1257882
3727
o da şu ki sohbetleri izliyoruz
21:01
and conversation chains.
389
1261633
2129
ve sohbet zincirlerini de.
21:03
So we want to incentivize healthy contribution back to the network,
390
1263786
5076
Sosyal ağa sağlıklı katkıyı teşvik etmek istiyoruz
21:08
and what we believe that is is actually participating in conversation
391
1268886
4181
ve inandığımız ölçülerde gerçekten sağlıklı bir şekilde
21:13
that is healthy,
392
1273091
1197
sohbete katılım da
21:14
as defined by those four indicators I articulated earlier.
393
1274312
5037
biraz önce belirttiğim dört göstergeyle tanımlanıyor.
21:19
So you can't just optimize around one metric.
394
1279373
2657
Yani tek bir ölçümü optimize edemezsiniz.
21:22
You have to balance and look constantly
395
1282054
2752
Denge kurmanız lazım
21:24
at what is actually going to create a healthy contribution to the network
396
1284830
4083
ve sosyal ağa sağlıklı katılım ve insanlar için sağlıklı deneyimi
21:28
and a healthy experience for people.
397
1288937
2341
neyin yaratacağına sürekli bakmanız lazım.
21:31
Ultimately, we want to get to a metric
398
1291302
1866
Nihai olarak biz de insanların bize
21:33
where people can tell us, "Hey, I learned something from Twitter,
399
1293192
3757
''Twtter'dan bir şey öğrendim ve değerli bir bilgiyle çıkıyorum''
21:36
and I'm walking away with something valuable."
400
1296973
2167
diyebileceği bir ölçüme varmak istiyoruz.
21:39
That is our goal ultimately over time,
401
1299164
2043
Bu bizim zaman içindeki nihai hedefimiz
21:41
but that's going to take some time.
402
1301231
1809
ama bunun için biraz zaman gerek.
21:43
CA: You come over to many, I think to me, as this enigma.
403
1303064
5282
CA: Pek çok insana ve sanırım bana bir enigma olarak geliyorsun.
21:48
This is possibly unfair, but I woke up the other night
404
1308370
4396
Muhtemelen adil değil bu, ama geçen gün kalktığımda
21:52
with this picture of how I found I was thinking about you and the situation,
405
1312790
3879
seni ve bu durumu düşündüğüm bir resim vardı,
21:56
that we're on this great voyage with you on this ship called the "Twittanic" --
406
1316693
6903
seninle birlikte büyük bir yolculuktayız ve geminin adı ''Twittanic'' --
22:03
(Laughter)
407
1323620
1281
(Kahkahalar)
22:04
and there are people on board in steerage
408
1324925
4357
Güvertede dümende insanlar var,
22:09
who are expressing discomfort,
409
1329306
2203
rahatsızlıklarını dile getiriyorlar
22:11
and you, unlike many other captains,
410
1331533
2543
ve sen diğer kaptanlardan farklı olarak
22:14
are saying, "Well, tell me, talk to me, listen to me, I want to hear."
411
1334100
3431
''Benimle konuşun, beni dinleyin, duymak istiyorum.'' diyorsun.
22:17
And they talk to you, and they say, "We're worried about the iceberg ahead."
412
1337555
3619
Seninle konuşuyorlar ve diyorlar ki ''Önümüzdeki buz dağı için endişeliyiz.''
22:21
And you go, "You know, that is a powerful point,
413
1341198
2242
Sen de diyorsun ki "Güçlü bir noktaya değindiniz
22:23
and our ship, frankly, hasn't been built properly
414
1343464
2430
ve gemimiz, doğrusu, yön değiştirmek için
22:25
for steering as well as it might."
415
1345918
1669
pek sağlam inşa edilmedi.''
22:27
And we say, "Please do something."
416
1347611
1658
Biz "Lütfen bir şey yap" diyoruz.
22:29
And you go to the bridge,
417
1349293
1411
Sen de dümene gidiyorsun
22:30
and we're waiting,
418
1350728
2295
ve biz bekliyoruz,
22:33
and we look, and then you're showing this extraordinary calm,
419
1353047
4548
bakıyoruz ve sen inanılmaz derecede sakin görünüyorsun
22:37
but we're all standing outside, saying, "Jack, turn the fucking wheel!"
420
1357619
3883
ama hepimiz dışarıda duruyoruz, ''Jack, şu lanet dümeni çevir!'' diyoruz.
22:41
You know?
421
1361526
1151
Anlatabildim mi?
22:42
(Laughter)
422
1362701
1335
(Kahkahalar)
22:44
(Applause)
423
1364060
2381
(Alkışlar)
22:46
I mean --
424
1366465
1166
Yani --
22:47
(Applause)
425
1367655
1734
(Alkışlar)
22:49
It's democracy at stake.
426
1369413
4594
Demokrasi tehdit altında.
22:54
It's our culture at stake. It's our world at stake.
427
1374031
2821
Kültürümüz tehdit altında. Dünyamız tehdit altında.
22:56
And Twitter is amazing and shapes so much.
428
1376876
4706
Twitter muhteşem ve çok şeye şekil veriyor.
23:01
It's not as big as some of the other platforms,
429
1381606
2233
Diğer bazı platformlar kadar büyük değil
23:03
but the people of influence use it to set the agenda,
430
1383863
2804
ama bundan etkilenen insanlar bunu amaçları için kullanıyor
23:06
and it's just hard to imagine a more important role in the world than to ...
431
1386691
6787
ve dünyada bundan daha önemli bir rol hayal etmek zor...
23:13
I mean, you're doing a brilliant job of listening, Jack, and hearing people,
432
1393502
3784
Demek istediğim, Jack, insanları dinleme konusunda harikasın
23:17
but to actually dial up the urgency and move on this stuff --
433
1397310
4445
ama peki ya durumun aciliyeti ve tüm bunları harekete geçirmek --
23:21
will you do that?
434
1401779
2201
bunları yapar mısın?
23:24
JD: Yes, and we have been moving substantially.
435
1404750
3815
JD: Evet ve çok büyük çapta ilerliyoruz.
23:28
I mean, there's been a few dynamics in Twitter's history.
436
1408589
3225
Twitter'ın tarihinde birkaç dinamik oldu.
23:31
One, when I came back to the company,
437
1411838
2083
Birincisi, şirkete geri geldiğimde
23:35
we were in a pretty dire state in terms of our future,
438
1415477
6256
geleceğimiz konusunda oldukça vahim bir durumdaydık
23:41
and not just from how people were using the platform,
439
1421757
4634
ve konu sadece platformu kullanan insanlar değildi,
23:46
but from a corporate narrative as well.
440
1426415
2047
kurumsal olarak da işler kötüydü.
23:48
So we had to fix a bunch of the foundation,
441
1428486
3204
Bu temelin bir kısmını düzeltmemiz gerekti,
23:51
turn the company around,
442
1431714
1969
şirketi ayağa kaldırmamız,
23:53
go through two crazy layoffs,
443
1433707
3111
iki büyük işe son verme döneminden geçmemiz,
23:56
because we just got too big for what we were doing,
444
1436842
3793
çünkü yaptığımız şey için aşırı büyüdük
24:00
and we focused all of our energy
445
1440659
2060
ve tüm enerjimizi bu konsept için odakladık,
24:02
on this concept of serving the public conversation.
446
1442743
3508
halka açık sohbete hizmet etmek.
24:06
And that took some work.
447
1446275
1451
Bu da biraz iş gerektirdi.
24:07
And as we dived into that,
448
1447750
2608
Biz de buna yöneldik,
24:10
we realized some of the issues with the fundamentals.
449
1450382
2992
temel unsurlarla ilgili bazı sorunlar fark ettik.
24:14
We could do a bunch of superficial things to address what you're talking about,
450
1454120
4656
Konuştuğunuz şeye yönelmek için bir sürü üstünkörü şey yapabilirdik
24:18
but we need the changes to last,
451
1458800
1790
ama kalıcı değişikliklere ihtiyacımız var
24:20
and that means going really, really deep
452
1460614
2459
ve bu da gerçekten derine inmek
24:23
and paying attention to what we started 13 years ago
453
1463097
4350
ve 13 yıl önce başlattığımız şeye dikkat vermek
24:27
and really questioning
454
1467471
2261
ve gerçekten şunu sorgulamak demek,
24:29
how the system works and how the framework works
455
1469756
2566
sistem nasıl çalışıyor ve bu altyapı nasıl çalışıyor
24:32
and what is needed for the world today,
456
1472346
3833
ve dünya için bugün ne gerekli,
24:36
given how quickly everything is moving and how people are using it.
457
1476203
4024
her şeyin ne kadar hızlı ilerlediği ve insanların bunu kullanımı düşünülünce.
24:40
So we are working as quickly as we can, but quickness will not get the job done.
458
1480251
6544
Biz de olabildiğince hızlı çalışıyoruz ama hızlılık işi halletmeyecek.
24:46
It's focus, it's prioritization,
459
1486819
2611
Önemli olan odak, öncelik,
24:49
it's understanding the fundamentals of the network
460
1489454
2946
sosyal ağın temellerini anlamak
24:52
and building a framework that scales
461
1492424
2842
ve değişikliğe dayanıklı
24:55
and that is resilient to change,
462
1495290
2351
ölçeklenebilir bir altyapı yapmak
24:57
and being open about where we are and being transparent about where are
463
1497665
5429
ve olduğumuz yer hakkında açık ve şeffaf olmak,
25:03
so that we can continue to earn trust.
464
1503118
2179
böylece güven kazanmaya devam edebiliriz.
25:06
So I'm proud of all the frameworks that we've put in place.
465
1506141
3331
Sunduğumuz tüm altyapılardan gurur duyuyorum.
25:09
I'm proud of our direction.
466
1509496
2888
Gidişatımızdan gurur duyuyorum.
25:12
We obviously can move faster,
467
1512915
2718
Elbette daha hızlı ilerleyebiliriz
25:15
but that required just stopping a bunch of stupid stuff we were doing in the past.
468
1515657
4719
ama geçmişte yaptığımız bir dizi saçna şeyi durdurmayı gerektiriyordu.
25:21
CA: All right.
469
1521067
1164
CA: Pekâlâ.
25:22
Well, I suspect there are many people here who, if given the chance,
470
1522255
4067
Öyle sanıyorum ki burada, kendilerine şans verilse
25:26
would love to help you on this change-making agenda you're on,
471
1526346
3989
bu değişim temalı gidişatında sana yardım edecek çok insan var,
25:30
and I don't know if Whitney --
472
1530359
1542
öyle değil mi Whitney --
25:31
Jack, thank you for coming here and speaking so openly.
473
1531925
2761
Jack, buraya geldiğin ve açıkça konuştuğun çin teşekkürler.
25:34
It took courage.
474
1534710
1527
Cesurcaydı.
25:36
I really appreciate what you said, and good luck with your mission.
475
1536261
3384
Söylediklerini gerçekten takdir ettim ve amacında iyi şanslar diliyorum.
25:39
JD: Thank you so much. Thanks for having me.
476
1539669
2095
JD: Çok teşekkür ederim. Beni ağırladığınız için de.
25:41
(Applause)
477
1541788
3322
(Alkışlar)
25:45
Thank you.
478
1545134
1159
Teşekkürler.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7