How Twitter needs to change | Jack Dorsey

183,583 views ・ 2019-06-07

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Μετάφραση: Chryssa R. Takahashi Επιμέλεια: Vasiliki Soultani
00:13
Chris Anderson: What worries you right now?
0
13131
2408
Κρις Άντερσον: Τι σε ανησυχεί αυτήν τη στιγμή;
00:15
You've been very open about lots of issues on Twitter.
1
15563
2853
Ήσουν πολύ ανοιχτός για πολλά θέματα με το Twitter.
00:18
What would be your top worry
2
18440
2299
Ποια θα ήταν η μεγαλύτερή σου ανησυχία
00:20
about where things are right now?
3
20763
2049
για το πού είναι τα πράγματα αυτήν τη στιγμή;
00:23
Jack Dorsey: Right now, the health of the conversation.
4
23447
2929
Τζακ Ντόρσι: Αυτήν τη στιγμή, η υγεία της συζήτησης.
00:26
So, our purpose is to serve the public conversation,
5
26400
3660
Έτσι, ο σκοπός μας είναι να υπηρετούμε τη δημόσια συζήτηση,
00:30
and we have seen a number of attacks on it.
6
30084
5056
και έχουμε δει αρκετές επιθέσεις σε αυτό.
00:35
We've seen abuse, we've seen harassment,
7
35164
2425
Έχουμε δει κακοποίηση, έχουμε δει παρενόχληση,
00:37
we've seen manipulation,
8
37613
3222
έχουμε δει χειραγώγηση,
00:40
automation, human coordination, misinformation.
9
40859
4265
αυτοματισμό, ανθρώπινο συντονισμό, παραπληροφόρηση.
00:46
So these are all dynamics that we were not expecting
10
46134
4034
Αυτές είναι δυναμικές που δεν περιμέναμε
00:50
13 years ago when we were starting the company.
11
50192
3718
όταν ξεκινήσαμε την εταιρία πριν από 13 χρόνια.
00:53
But we do now see them at scale,
12
53934
2664
Αλλά τώρα τις βλέπουμε σε κλίμακα,
00:56
and what worries me most is just our ability to address it
13
56622
5278
και αυτό που με ανησυχεί περισσότερο είναι η ικανότητά μας να το αντιμετωπίσουμε
01:01
in a systemic way that is scalable,
14
61924
3108
με έναν συστημικό τρόπο που είναι επεκτάσιμος,
01:05
that has a rigorous understanding of how we're taking action,
15
65056
6976
που έχει αυστηρή κατανόηση για το πώς αναλαμβάνουμε δράση,
01:12
a transparent understanding of how we're taking action
16
72056
3105
διαφάνεια στην κατανόηση του πώς πράττουμε
01:15
and a rigorous appeals process for when we're wrong,
17
75185
3101
και μια αυστηρή διαδικασία ενστάσεων για όταν κάνουμε λάθος,
01:18
because we will be wrong.
18
78310
2169
επειδή θα κάνουμε λάθη.
01:20
Whitney Pennington Rodgers: I'm really glad to hear
19
80503
2397
Γουίτνεϊ Πάνινγκτον Ρότζερς: Χαίρομαι πολύ που ακούω
01:22
that that's something that concerns you,
20
82924
1928
ότι είναι κάτι που σε απασχολεί,
01:24
because I think there's been a lot written about people
21
84876
2630
επειδή πιστεύω ότι έχουν γραφτεί πολλά γι' αυτούς
που αισθάνονται ότι έχουν κακοποιηθεί και παρενοχληθεί στο Twitter,
01:27
who feel they've been abused and harassed on Twitter,
22
87530
2477
01:30
and I think no one more so than women and women of color
23
90031
4102
και πιστεύω ότι είναι περισσότερο για τις γυναίκες και τις έγχρωμες γυναίκες
01:34
and black women.
24
94157
1170
και τις μαύρες γυναίκες.
01:35
And there's been data that's come out --
25
95351
1913
Και έχουν βγει πολλά δεδομένα --
01:37
Amnesty International put out a report a few months ago
26
97288
2909
η Διεθνής Αμνηστία έβγαλε μια αναφορά πριν μερικούς μήνες
01:40
where they showed that a subset of active black female Twitter users
27
100221
4480
όπου έδειχναν ότι ένα υποσύνολο ενεργών μαύρων γυναικών που χρησιμοποιούν Twitter
01:44
were receiving, on average, one in 10 of their tweets
28
104725
3456
λάμβαναν, κατά μέσω όρο, ένα στα 10 τιτιβίσματά τους
01:48
were some form of harassment.
29
108205
2099
ήταν κάποιου είδους παρενόχληση.
01:50
And so when you think about health for the community on Twitter,
30
110328
3907
Έτσι όταν σκέφτεστε την υγεία για την κοινότητα στο Twitter,
01:54
I'm interested to hear, "health for everyone,"
31
114259
4024
ενδιαφέρομαι να ακούσω, «υγεία για όλους»,
01:58
but specifically: How are you looking to make Twitter a safe space
32
118307
3125
αλλά συγκεκριμένα: Πώς κοιτάτε να κάνετε το Twitter έναν ασφαλή τόπο
02:01
for that subset, for women, for women of color and black women?
33
121456
4164
γι' αυτό το υποσύνολο, για τις γυναίκες, τις έγχρωμες και τις μαύρες γυναίκες;
02:05
JD: Yeah.
34
125644
1164
ΤΝ: Ναι.
02:06
So it's a pretty terrible situation
35
126832
2643
Είναι πολύ άσχημη κατάσταση
02:09
when you're coming to a service
36
129499
1619
όταν έρχεστε σε ένα σύστημα
02:11
that, ideally, you want to learn something about the world,
37
131142
4321
που ιδανικά, θέλετε να μάθετε κάτι για τον κόσμο,
02:15
and you spend the majority of your time reporting abuse, receiving abuse,
38
135487
5443
και περνάτε τον περισσότερο χρόνο σας κάνοντας αναφορές κακοποίησης,
02:20
receiving harassment.
39
140954
1804
λαμβάνοντας κακοποίηση, λαμβάνοντας παρενόχληση.
02:23
So what we're looking most deeply at is just the incentives
40
143373
6321
Έτσι κοιτάζουμε πιο βαθιά τα κίνητρα
02:29
that the platform naturally provides and the service provides.
41
149718
3823
που παρέχει φυσικά η πλατφόρμα και η υπηρεσία.
02:34
Right now, the dynamic of the system makes it super-easy to harass
42
154262
4577
Τώρα, η δυναμική του συστήματος το κάνει πολύ εύκολο να παρενοχλήσετε
02:38
and to abuse others through the service,
43
158863
3664
και να κακοποιήσετε άλλους μέσω του συστήματος,
02:42
and unfortunately, the majority of our system in the past
44
162551
3262
και δυστυχώς, η πλειοψηφία του συστήματός μας στο παρελθόν
02:45
worked entirely based on people reporting harassment and abuse.
45
165837
5596
δούλευε κατ' αποκλειστικότητα
βασισμένη σε άτομα που έκαναν αναφορές παρενόχλησης και κακοποίησης.
02:51
So about midway last year, we decided that we were going to apply
46
171457
5075
Έτσι περίπου στα μέσα του περασμένου έτους αποφασίσαμε ότι θα εφαρμόζαμε
02:56
a lot more machine learning, a lot more deep learning to the problem,
47
176556
3982
περισσότερη μηχανική μάθηση, περισσότερη βαθιά μάθηση στο πρόβλημα,
03:00
and try to be a lot more proactive around where abuse is happening,
48
180562
4538
και θα προσπαθήσουμε να είμαστε πιο ενεργοί εκεί που γίνεται η κακοποίηση,
03:05
so that we can take the burden off the victim completely.
49
185124
3960
έτσι ώστε να πάρουμε το βάρος τελείως από το θύμα.
03:09
And we've made some progress recently.
50
189108
2435
Κι έχουμε κάνει κάποια πρόοδο πρόσφατα.
03:11
About 38 percent of abusive tweets are now proactively identified
51
191567
6689
Περίπου 38 τοις εκατό των καταχρηστικών τιτιβισμάτων τώρα εντοπίζονται προληπτικά
03:18
by machine learning algorithms
52
198280
1715
από αλγόριθμους μηχανικής μάθησης
03:20
so that people don't actually have to report them.
53
200019
2334
έτσι ώστε να μην χρειάζεται να γίνονται αναφορές.
03:22
But those that are identified are still reviewed by humans,
54
202377
3305
Αλλά αυτά που αναγνωρίζονται επανεξετάζονται από ανθρώπους,
03:25
so we do not take down content or accounts without a human actually reviewing it.
55
205706
5384
έτσι δεν κατεβάζουμε περιεχόμενο ή λογαριασμούς πριν τα δει άνθρωπος.
03:31
But that was from zero percent just a year ago.
56
211114
2759
Αλλά αυτό ήταν από το μηδέν τοις εκατό πριν μόλις έναν χρόνο.
03:33
So that meant, at that zero percent,
57
213897
1931
Έτσι αυτό σημαίνει ότι, στο μηδέν τοις εκατό,
03:35
every single person who received abuse had to actually report it,
58
215852
3650
κάθε λήπτης κατάχρησης έπρεπε να κάνει αναφορά,
03:39
which was a lot of work for them, a lot of work for us
59
219526
3579
που είναι πολλή δουλειά γι' αυτούς, πολλή δουλειά για εμάς
03:43
and just ultimately unfair.
60
223129
2018
και στην τελική είναι άδικο.
03:46
The other thing that we're doing is making sure that we, as a company,
61
226528
3780
Το άλλο πράγμα που κάνουμε είναι να σιγουρευτούμε ότι, ως εταιρεία,
έχουμε αντιπροσώπευση
03:50
have representation of all the communities that we're trying to serve.
62
230332
3333
από όλες τις κοινότητες που προσπαθούμε να υπηρετήσουμε.
03:53
We can't build a business that is successful
63
233689
2159
Δεν μπορούμε να χτίσουμε μια επιτυχημένη επιχείρηση
03:55
unless we have a diversity of perspective inside of our walls
64
235872
3300
εκτός κι αν έχουμε μια ποικιλία προοπτικών εσωτερικά
03:59
that actually feel these issues every single day.
65
239196
3732
που αισθάνονται τα θέματα αυτά κάθε μέρα.
04:02
And that's not just with the team that's doing the work,
66
242952
3738
Και δεν είναι μόνο με την ομάδα που κάνει τη δουλειά,
04:06
it's also within our leadership as well.
67
246714
2096
είναι και μέσα στην ηγεσία μας.
04:08
So we need to continue to build empathy for what people are experiencing
68
248834
5757
Έτσι πρέπει να συνεχίσουμε να χτίζουμε ενσυναίσθηση για το τι βιώνουν οι άνθρωποι
04:14
and give them better tools to act on it
69
254615
3316
και να τους δώσουμε καλύτερα εργαλεία για να δράσουν σε αυτά
04:17
and also give our customers a much better and easier approach
70
257955
4252
καθώς και να δώσουμε στους πελάτες μας μια καλύτερη και ευκολότερη προσέγγιση
04:22
to handle some of the things that they're seeing.
71
262231
2382
για να διαχειριστούν μερικά πράγματα που βλέπουν.
04:24
So a lot of what we're doing is around technology,
72
264637
3266
Έτσι πολλά από αυτά που κάνουμε έχουν να κάνουν με την τεχνολογία,
04:27
but we're also looking at the incentives on the service:
73
267927
4308
αλλά κοιτάμε και τα κίνητρα στην υπηρεσία:
04:32
What does Twitter incentivize you to do when you first open it up?
74
272259
5183
Τι σας παρακινεί να κάνετε το Twitter όταν το πρωτοανοίγετε;
04:37
And in the past,
75
277466
1294
Παλαιότερα,
04:40
it's incented a lot of outrage, it's incented a lot of mob behavior,
76
280670
5544
παρακινούσε πολύ αγανάκτηση, παρακινούσε συμπεριφορά όχλου,
04:46
it's incented a lot of group harassment.
77
286238
2459
παρακινούσε ομαδική παρενόχληση.
04:48
And we have to look a lot deeper at some of the fundamentals
78
288721
3648
Και πρέπει να κοιτάξουμε βαθύτερα κάποιες από τις βασικές αρχές
04:52
of what the service is doing to make the bigger shifts.
79
292393
2958
του τι κάνει η υπηρεσία για να κάνουμε μεγαλύτερες αλλαγές.
04:55
We can make a bunch of small shifts around technology, as I just described,
80
295375
4031
Μπορούμε να κάνουμε μερικές μικρές αλλαγές τεχνολογικά, όπως περιέγραψα,
04:59
but ultimately, we have to look deeply at the dynamics in the network itself,
81
299430
4386
αλλά στην τελική, πρέπει να κοιτάξουμε πιο βαθιά τις δυναμικές του δικτύου,
05:03
and that's what we're doing.
82
303840
1368
και αυτό κάνουμε.
05:05
CA: But what's your sense --
83
305232
2060
ΚΑ: Αλλά ποια είναι η αίσθησή σου --
05:07
what is the kind of thing that you might be able to change
84
307316
3963
ποιο είδος πράγματος θα μπορούσατε να αλλάξετε
05:11
that would actually fundamentally shift behavior?
85
311303
2749
που θα άλλαζε ουσιαστικά τη συμπεριφορά;
05:15
JD: Well, one of the things --
86
315386
1480
ΤΝ: Ένα από τα πράγματα --
05:16
we started the service with this concept of following an account,
87
316890
5340
ξεκινήσαμε την υπηρεσία με την ιδέα να ακολουθείς έναν λογαριασμό,
05:22
as an example,
88
322254
1725
σαν παράδειγμα,
05:24
and I don't believe that's why people actually come to Twitter.
89
324003
4349
και δεν πιστεύω ότι ο κόσμος έρχεται στο Twitter γι' αυτόν τον λόγο.
05:28
I believe Twitter is best as an interest-based network.
90
328376
4857
Πιστεύω ότι το Twitter είναι καλύτερο ως ένα δίκτυο που βασίζεται στα ενδιαφέροντα.
05:33
People come with a particular interest.
91
333257
3453
Οι άνθρωποι έρχονται με ένα συγκεκριμένο ενδιαφέρον.
05:36
They have to do a ton of work to find and follow the related accounts
92
336734
3487
Πρέπει να δουλέψουν πολύ για να βρουν και να ακολουθήσουν
σχετικούς λογαριασμούς με αυτά τα ενδιαφέροντα.
05:40
around those interests.
93
340245
1405
05:42
What we could do instead is allow you to follow an interest,
94
342217
3397
Θα μπορούσαμε να σας αφήσουμε να ακολουθήσετε ένα ενδιαφέρον,
05:45
follow a hashtag, follow a trend,
95
345638
2103
να ακολουθήσετε ένα hashtag, μια τάση,
05:47
follow a community,
96
347765
1754
μια κοινότητα,
05:49
which gives us the opportunity to show all of the accounts,
97
349543
4637
που μας δίνει τη δυνατότητα να δείξουμε όλους τους λογαριασμούς,
05:54
all the topics, all the moments, all the hashtags
98
354204
3323
όλα τα θέματα, όλες τις στιγμές, όλα τα hashtag
05:57
that are associated with that particular topic and interest,
99
357551
3992
που σχετίζονται με το συγκεκριμένο θέμα και ενδιαφέρον,
06:01
which really opens up the perspective that you see.
100
361567
4600
που ανοίγει πραγματικά την προοπτική σου.
06:06
But that is a huge fundamental shift
101
366191
2157
Αλλά είναι μια τεράστια ουσιαστική αλλαγή
06:08
to bias the entire network away from just an account bias
102
368372
3792
το να προδιαθέσουμε ένα ολόκληρο δίκτυο μακριά από έναν μόνο λογαριασμό
06:12
towards a topics and interest bias.
103
372188
2587
προς θέματα και ενδιαφέροντα.
06:15
CA: Because isn't it the case
104
375283
3148
ΚΑ: Δεν είναι όμως αυτό
06:19
that one reason why you have so much content on there
105
379375
3541
ότι ένας λόγος που έχετε τόσο πολύ περιεχόμενο εκεί
06:22
is a result of putting millions of people around the world
106
382940
3591
είναι αποτέλεσμα του να βάλετε εκατομμύρια ανθρώπους παγκοσμίως
06:26
in this kind of gladiatorial contest with each other
107
386555
3142
σε μια είδους μονομαχία μεταξύ τους
06:29
for followers, for attention?
108
389721
2090
για ακόλουθους, για προσοχή;
06:31
Like, from the point of view of people who just read Twitter,
109
391835
4117
Από την οπτική γωνία αυτών που απλώς διαβάζουν στο Twitter,
06:35
that's not an issue,
110
395976
1155
δεν είναι θέμα,
06:37
but for the people who actually create it, everyone's out there saying,
111
397155
3350
αλλά γι' αυτούς που το δημιουργούν, όλοι εκεί έξω λένε,
06:40
"You know, I wish I had a few more 'likes,' followers, retweets."
112
400529
3236
«Μακάρι να είχα μερικά ακόμη "like", ακόλουθους, επανατιτιβίβίσματα».
06:43
And so they're constantly experimenting,
113
403789
2148
Έτσι συνεχώς πειραματίζονται,
06:45
trying to find the path to do that.
114
405961
1961
προσπαθώντας να βρουν το μονοπάτι.
06:47
And what we've all discovered is that the number one path to do that
115
407946
4126
Και αυτό που ανακαλύψαμε όλοι μας είναι ότι το νούμερο ένα μονοπάτι γι' αυτό
06:52
is to be some form of provocative,
116
412096
3406
είναι να είσαι κάπως προκλητικός,
06:55
obnoxious, eloquently obnoxious,
117
415526
2980
αντιπαθητικός, εύγλωττα αντιπαθητικός,
06:58
like, eloquent insults are a dream on Twitter,
118
418530
3516
οι εύγλωττες προσβολές είναι όνειρο στο Twitter,
07:02
where you rapidly pile up --
119
422070
2603
όπου γρήγορα γεμίζει --
07:04
and it becomes this self-fueling process of driving outrage.
120
424697
4608
και γίνεται αυτή η αυτοτροφοδοτούμενη διαδικασία εξοργισμού.
07:09
How do you defuse that?
121
429329
2351
Πώς το εξουδετερώνεις αυτό;
07:12
JD: Yeah, I mean, I think you're spot on,
122
432624
2947
ΤΝ: Ναι, έχεις απόλυτο δίκιο,
07:15
but that goes back to the incentives.
123
435595
1886
αλλά αυτό πάει πίσω στα κίνητρα.
07:17
Like, one of the choices we made in the early days was
124
437505
2632
Μία από τις επιλογές που κάναμε στις πρώιμες μέρες ήταν
07:20
we had this number that showed how many people follow you.
125
440161
4701
ότι είχαμε αυτόν τον αριθμό που έδειχνε πόσοι άνθρωποι σε ακολουθούν.
07:24
We decided that number should be big and bold,
126
444886
2959
Αποφασίσαμε ότι αυτός ο αριθμός πρέπει να είναι μεγάλος και παχύς,
07:27
and anything that's on the page that's big and bold has importance,
127
447869
3740
και οτιδήποτε είναι στη σελίδα και είναι μεγάλο και παχύ έχει σημασία,
07:31
and those are the things that you want to drive.
128
451633
2278
και σε αυτά είναι που θέλεις να επικεντρωθείς.
07:33
Was that the right decision at the time?
129
453935
1907
Ήταν τότε η σωστή απόφαση; Μάλλον όχι.
07:35
Probably not.
130
455866
1153
Αν έπρεπε να ξαναξεκινήσω την υπηρεσία,
07:37
If I had to start the service again,
131
457043
1805
07:38
I would not emphasize the follower count as much.
132
458872
2398
δεν θα έδινα τόσο μεγάλη έμφαση στον αριθμό ακολούθων.
Δεν θα έδινα τόσο μεγάλη έμφαση στον αριθμό των «like».
07:41
I would not emphasize the "like" count as much.
133
461294
2295
07:43
I don't think I would even create "like" in the first place,
134
463613
3120
Δε νομίζω ότι θα έφτιαχνα καν το «like»,
07:46
because it doesn't actually push
135
466757
3267
επειδή δεν σπρώχνει πραγματικά
07:50
what we believe now to be the most important thing,
136
470048
3179
αυτό που τώρα πιστεύουμε ότι είναι το πιο σημαντικό πράγμα,
07:53
which is healthy contribution back to the network
137
473251
3039
που είναι η υγιής συνεισφορά πίσω στο δίκτυο
07:56
and conversation to the network,
138
476314
2652
και η συζήτηση στο δίκτυο,
07:58
participation within conversation,
139
478990
2072
συμμετοχή στη συζήτηση,
08:01
learning something from the conversation.
140
481086
2493
το να μαθαίνεις κάτι από τη συζήτηση.
08:03
Those are not things that we thought of 13 years ago,
141
483603
2824
Αυτά δεν είναι πράγματα που σκεφτήκαμε πριν από 13 χρόνια,
08:06
and we believe are extremely important right now.
142
486451
2439
και πιστεύουμε ότι είναι εξαιρετικά σημαντικά τώρα.
08:08
So we have to look at how we display the follower count,
143
488914
3023
Έτσι πρέπει να δούμε πώς εμφανίζουμε τον αριθμό των ακόλουθων,
08:11
how we display retweet count,
144
491961
2365
πώς εμφανίζουμε τον αριθμό επανατιτιβισμάτων,
08:14
how we display "likes,"
145
494350
1401
πώς εμφανίζουμε τα «like»,
08:15
and just ask the deep question:
146
495775
2254
και απλώς να κάνουμε τη βαθιά ερώτηση:
Είναι αυτός πραγματικά ο αριθμός που θέλουμε να καθοδηγεί τους ανθρώπους;
08:18
Is this really the number that we want people to drive up?
147
498053
3048
08:21
Is this the thing that, when you open Twitter,
148
501125
2545
Είναι αυτό το πράγμα, που όταν ανοίγεις το Twitter,
08:23
you see, "That's the thing I need to increase?"
149
503694
2516
το βλέπεις, «Αυτό το πράγμα πρέπει να αυξήσω;»
08:26
And I don't believe that's the case right now.
150
506234
2144
Και δεν πιστεύω ότι αυτό είναι το θέμα αυτήν τη στιγμή.
08:28
(Applause)
151
508402
2103
(Χειροκρότημα)
08:30
WPR: I think we should look at some of the tweets
152
510529
2352
ΓΠΡ: Νομίζω ότι πρέπει να δούμε μερικά τιτιβίσματα
08:32
that are coming in from the audience as well.
153
512905
2169
που προέρχονται από το κοινό.
08:35
CA: Let's see what you guys are asking.
154
515868
2436
ΚΑ: Για να δούμε τι ζητάτε.
08:38
I mean, this is -- generally, one of the amazing things about Twitter
155
518328
3294
Θέλω να πω ότι γενικά, ένα από τα απίστευτα πράγματα για το Twitter
08:41
is how you can use it for crowd wisdom,
156
521646
2294
είναι ότι μπορεί να χρησιμοποιηθεί για σοφία πλήθους,
08:43
you know, that more knowledge, more questions, more points of view
157
523964
4840
ξέρετε, περισσότερη γνώση, περισσότερες πληροφορίες, περισσότερες απόψεις
08:48
than you can imagine,
158
528828
1238
απ' όσο μπορείτε να φανταστείτε,
08:50
and sometimes, many of them are really healthy.
159
530090
3689
και μερικές φορές, αρκετές από αυτές είναι πραγματικά υγιείς.
08:53
WPR: I think one I saw that passed already quickly down here,
160
533803
2900
ΓΠΡ: Νομίζω μία που είδα πέρασε γρήγορα εδώ,
«Ποιο είναι το σχέδιο του Twitter για να καταπολεμήσει
08:56
"What's Twitter's plan to combat foreign meddling in the 2020 US election?"
161
536717
3524
την εξωτερική παρέμβαση στις εκλογές των ΗΠΑ το 2020;»
09:00
I think that's something that's an issue we're seeing
162
540265
2571
Νομίζω ότι είναι κάτι που είναι θέμα που βλέπουμε γενικά στο διαδίκτυο,
09:02
on the internet in general,
163
542860
1901
09:04
that we have a lot of malicious automated activity happening.
164
544785
3667
ότι έχουμε πολύ κακόβουλη αυτοματοποιημένη δράση.
09:08
And on Twitter, for example, in fact, we have some work
165
548476
5373
Και στο Twitter, για παράδειγμα, έχουμε κάποια δουλειά
09:13
that's come from our friends at Zignal Labs,
166
553873
2758
που προέρχεται από τους φίλους μας στα Zignal Labs,
09:16
and maybe we can even see that to give us an example
167
556655
2656
και ίσως να το δούμε ως παράδειγμα
09:19
of what exactly I'm talking about,
168
559335
1927
γι' αυτό που μιλάω,
09:21
where you have these bots, if you will,
169
561286
3204
όπου έχετε αυτά τα bot, αν θέλετε,
09:24
or coordinated automated malicious account activity,
170
564514
4550
ή συντονισμένη αυτοματοποιημένη κακόβουλη δραστηριότητα λογαριασμών,
που χρησιμοποιείται για να επηρεάσει πράγματα όπως οι εκλογές.
09:29
that is being used to influence things like elections.
171
569088
2764
09:31
And in this example we have from Zignal which they've shared with us
172
571876
3843
Και σε αυτό το παράδειγμα που έχουμε από τη Zignal που μοιράστηκαν μαζί μας
09:35
using the data that they have from Twitter,
173
575743
2198
χρησιμοποιώντας τα δεδομένα που έχουν από το Twitter,
09:37
you actually see that in this case,
174
577965
2441
βλέπετε ότι σε αυτήν την περίπτωση,
09:40
white represents the humans -- human accounts, each dot is an account.
175
580430
4370
το άσπρο αντιπροσωπεύει τους ανθρώπινους λογαριασμούς,
κάθε κουκκίδα είναι ένας λογαριασμός.
09:44
The pinker it is,
176
584824
1359
Όσο πιο ροζ είναι,
09:46
the more automated the activity is.
177
586207
1740
τόσο πιο αυτοματοποιημένη είναι η δραστηριότητα.
09:47
And you can see how you have a few humans interacting with bots.
178
587971
5970
Και μπορείς να δεις ότι έχετε μερικούς ανθρώπους που αλληλεπιδρούν με bot.
09:53
In this case, it's related to the election in Israel
179
593965
4419
Σε αυτήν την περίπτωση, έχει να κάνει με τις εκλογές στο Ισραήλ
09:58
and spreading misinformation about Benny Gantz,
180
598408
2833
και τη διάδοση ψευδών πληροφοριών για τον Μπένι Γκαντζ,
10:01
and as we know, in the end, that was an election
181
601265
2662
και όπως ξέρουμε, στο τέλος, αυτές ήταν εκλογές
10:03
that Netanyahu won by a slim margin,
182
603951
3724
στις οποίες κέρδισε ο Νετανιάχου με μικρή διαφορά,
10:07
and that may have been in some case influenced by this.
183
607699
2842
και ίσως να είχε επηρεαστεί κατά κάποιο τρόπο από αυτό.
10:10
And when you think about that happening on Twitter,
184
610565
2615
Και όταν σκεφτείτε ότι αυτό συμβαίνει στο Twitter,
10:13
what are the things that you're doing, specifically,
185
613204
2456
τι κάνετε, συγκεκριμένα, για να εξασφαλίσετε
10:15
to ensure you don't have misinformation like this spreading in this way,
186
615684
3702
ότι δεν θα εξαπλώνονται ψευδείς πληροφορίες με αυτόν τον τρόπο,
10:19
influencing people in ways that could affect democracy?
187
619410
4181
επηρεάζοντας τον κόσμο με τρόπους που θα επηρέαζε τη δημοκρατία;
10:23
JD: Just to back up a bit,
188
623615
1771
ΤΝ: Να πάω λιγάκι πίσω,
10:25
we asked ourselves a question:
189
625410
2975
αναρωτηθήκαμε το εξής:
10:28
Can we actually measure the health of a conversation,
190
628409
3816
Μπορούμε να μετρήσουμε την υγεία μιας συζήτησης,
10:32
and what does that mean?
191
632249
1288
και τι σημαίνει αυτό;
10:33
And in the same way that you have indicators
192
633561
3382
Με τον ίδιο τρόπο που έχεις δείκτες
10:36
and we have indicators as humans in terms of are we healthy or not,
193
636967
3467
και εμείς έχουμε δείκτες ως άνθρωποι για το αν είμαστε υγιείς ή όχι,
10:40
such as temperature, the flushness of your face,
194
640458
4658
όπως η θερμοκρασία, το κοκκίνισμα του προσώπου,
10:45
we believe that we could find the indicators of conversational health.
195
645140
4560
πιστεύω ότι θα μπορούσαμε να βρούμε τους δείκτες για την υγεία της συζήτησης.
10:49
And we worked with a lab called Cortico at MIT
196
649724
3843
Δουλέψαμε με ένα εργαστήριο που λέγεται Cortico στο MIT
10:54
to propose four starter indicators
197
654479
6091
για να προτείνουμε τέσσερις αρχικούς δείκτες
11:00
that we believe we could ultimately measure on the system.
198
660594
3670
που πιστεύουμε ότι θα μπορούσαμε τελικά να μετρήσουμε στο σύστημα,
11:05
And the first one is what we're calling shared attention.
199
665249
5604
Ο πρώτος είναι αυτό που λέμε μοιρασμένη προσοχή.
11:10
It's a measure of how much of the conversation is attentive
200
670877
3581
Είναι ένα μέτρο για το πόσο από τη συζήτηση παραμένει
11:14
on the same topic versus disparate.
201
674482
2630
στο ίδιο θέμα αντί να ξεφεύγει.
11:17
The second one is called shared reality,
202
677739
2783
Ο δεύτερος ονομάζεται μοιρασμένη πραγματικότητα,
11:21
and this is what percentage of the conversation
203
681217
2259
και είναι ποιο ποσοστό της συζήτησης
11:23
shares the same facts --
204
683500
2005
μοιράζεται τα ίδια δεδομένα --
11:25
not whether those facts are truthful or not,
205
685529
3113
όχι αν αυτά τα δεδομένα είναι αληθή ή όχι,
11:28
but are we sharing the same facts as we converse?
206
688666
3009
αλλά μοιραζόμαστε τα ίδια δεδομένα καθώς συζητάμε;
11:32
The third is receptivity:
207
692235
2353
Ο τρίτος είναι δεκτικότητα:
11:34
How much of the conversation is receptive or civil
208
694612
3959
Πόση από τη συζήτηση είναι δεκτική ή πολιτισμένη
11:38
or the inverse, toxic?
209
698595
2944
ή το αντίστροφο, τοξική;
11:42
And then the fourth is variety of perspective.
210
702213
3222
Και ο τέταρτος είναι ποικιλία στην προοπτική.
11:45
So, are we seeing filter bubbles or echo chambers,
211
705459
3145
Έτσι, βλέπουμε φιλτραρισμένες φούσκες ή κλώβους αντήχησης
11:48
or are we actually getting a variety of opinions
212
708628
3057
ή λαμβάνουμε διάφορες απόψεις
11:51
within the conversation?
213
711709
1635
μέσα στη συζήτηση;
11:53
And implicit in all four of these is the understanding that,
214
713368
4018
Και στους τέσσερις δείκτες κατανοούμε σιωπηρά ότι,
11:57
as they increase, the conversation gets healthier and healthier.
215
717410
3390
καθώς αυξάνονται, η συζήτηση γίνεται όλο και πιο υγιής.
12:00
So our first step is to see if we can measure these online,
216
720824
4869
Έτσι το πρώτο βήμα είναι να δούμε αν μπορούμε να τα μετρήσουμε στο δίκτυο,
12:05
which we believe we can.
217
725717
1308
που πιστεύω ότι μπορούμε.
12:07
We have the most momentum around receptivity.
218
727049
3167
Έχουμε τη μεγαλύτερη δυναμική γύρω από τη δεκτικότητα.
12:10
We have a toxicity score, a toxicity model, on our system
219
730240
4317
Έχουμε ένα σκορ τοξικότητας, ένα μοντέλο τοξικότητας, στο σύστημά μας
12:14
that can actually measure whether you are likely to walk away
220
734581
4124
που μπορεί να μετρήσει αν είναι είναι πιθανό να φύγετε
12:18
from a conversation that you're having on Twitter
221
738729
2313
από μια συζήτηση που κάνετε στο Twitter
12:21
because you feel it's toxic,
222
741066
1633
επειδή νιώθετε ότι είναι τοξική,
12:22
with some pretty high degree.
223
742723
2512
σε πολύ μεγάλο βαθμό.
12:26
We're working to measure the rest,
224
746369
2199
Δουλεύουμε πάνω στις μετρήσεις για τα υπόλοιπα,
12:28
and the next step is,
225
748592
1964
και το επόμενο βήμα είναι,
12:30
as we build up solutions,
226
750580
3359
καθώς φτιάχνουμε λύσεις,
12:33
to watch how these measurements trend over time
227
753963
3491
για να δούμε πώς τείνουν αυτές οι μετρήσεις στο πέρασμα του χρόνου
12:37
and continue to experiment.
228
757478
1873
και να συνεχίσουμε να πειραματιζόμαστε.
12:39
And our goal is to make sure that these are balanced,
229
759375
4041
Ο σκοπός μας είναι να σιγουρευτούμε ότι είναι ισορροπημένα,
12:43
because if you increase one, you might decrease another.
230
763440
3066
επειδή αν αυξήσετε έναν, ίσως να μειώσετε κάποιον άλλον.
12:46
If you increase variety of perspective,
231
766530
2147
Αν αυξήσεις την ποικιλία προοπτικών,
12:48
you might actually decrease shared reality.
232
768701
3091
ίσως όντως να μειώσεις τη μοιρασμένη πραγματικότητα.
12:51
CA: Just picking up on some of the questions flooding in here.
233
771816
4989
ΚΑ: Πιάνω λιγάκι τις ερωτήσεις που μας κατακλύζουν εδώ.
12:56
JD: Constant questioning.
234
776829
1271
ΝΤ: Συνεχείς ερωτήσεις.
12:58
CA: A lot of people are puzzled why,
235
778996
3620
ΚΑ: Πολλοί αναρωτιούνται γιατί,
13:02
like, how hard is it to get rid of Nazis from Twitter?
236
782640
4247
δηλαδή, πόσο δύσκολο είναι να ξεφορτωθείτε τους Ναζί από το Twitter;
13:08
JD: (Laughs)
237
788309
1322
ΤΝ: (Γελάει)
13:09
So we have policies around violent extremist groups,
238
789655
6995
Έχουμε πολιτικές σχετικά με βίαιες εξτρεμιστικές ομάδες,
13:16
and the majority of our work and our terms of service
239
796674
4426
και η περισσότερη από τη δουλειά μας και τους όρους χρήσης μας
13:21
works on conduct, not content.
240
801124
3729
λειτουργεί με τη συμπεριφορά, όχι με το περιεχόμενο.
13:24
So we're actually looking for conduct.
241
804877
2551
Κοιτάζουμε λοιπόν τη συμπεριφορά.
13:27
Conduct being using the service
242
807452
3014
Με συμπεριφορά εννοούμε τη χρήση της υπηρεσίας
13:30
to repeatedly or episodically harass someone,
243
810490
3867
για επανειλημμένη ή επεισοδιακή παρενόχληση κάποιου,
13:34
using hateful imagery
244
814381
2493
χρήση εικόνων μίσους
13:36
that might be associated with the KKK
245
816898
2106
που μπορούν να συνδεθούν με την ΚΚΚ
13:39
or the American Nazi Party.
246
819028
3281
ή το Αμερικανικό Κόμμα Ναζί.
13:42
Those are all things that we act on immediately.
247
822333
4156
Όλα αυτά είναι πράγματα στα οποία δρούμε άμεσα.
13:47
We're in a situation right now where that term is used fairly loosely,
248
827002
5452
Αυτήν τη στιγμή είμαστε σε μια κατάσταση
όπου αυτός ο όρος χρησιμοποιείται αρκετά χαλαρά,
13:52
and we just cannot take any one mention of that word
249
832478
5313
και δεν μπορούμε απλώς να πάρουμε μια αναφορά αυτής της λέξης
13:57
accusing someone else
250
837815
2117
που κατηγορεί κάποιον άλλον
13:59
as a factual indication that they should be removed from the platform.
251
839956
3755
ως πραγματική ένδειξη ότι θα πρέπει να απομακρυνθούν από την πλατφόρμα.
14:03
So a lot of our models are based around, number one:
252
843735
2627
Έτσι πολλά από τα μοντέλα μας βασίζονται σε, νούμερο ένα:
14:06
Is this account associated with a violent extremist group?
253
846386
3140
Σχετίζεται αυτός ο λογαριασμός με μια βίαιη εξτρεμιστική ομάδα;
14:09
And if so, we can take action.
254
849550
1983
Αν ναι, μπορούμε να δράσουμε.
14:11
And we have done so on the KKK and the American Nazi Party and others.
255
851557
3852
Και το έχουμε κάνει με την ΚΚΚ και το Αμερικανικό Κόμμα Ναζί και άλλους.
14:15
And number two: Are they using imagery or conduct
256
855433
4183
Και νούμερο δύο: Χρησιμοποιούν εικόνες ή συμπεριφορά
14:19
that would associate them as such as well?
257
859640
2372
που θα τους συνέδεαν με τέτοιο τρόπο;
14:22
CA: How many people do you have working on content moderation
258
862416
2932
ΚΑ: Πόσα άτομα έχετε να δουλεύουν στον έλεγχο περιεχομένου
14:25
to look at this?
259
865372
1250
για να τα κοιτούν αυτά;
14:26
JD: It varies.
260
866646
1496
ΤΝ: Ανάλογα.
14:28
We want to be flexible on this,
261
868166
1595
Θέλουμε να είμαστε ευέλικτοι,
14:29
because we want to make sure that we're, number one,
262
869785
2646
επειδή θέλουμε να σιγουρευτούμε ότι, νούμερο ένα,
14:32
building algorithms instead of just hiring massive amounts of people,
263
872455
4424
φτιάχνουμε αλγόριθμους αντί να προσλαμβάνουμε ένα σωρό κόσμο,
14:36
because we need to make sure that this is scalable,
264
876903
2824
επειδή πρέπει να σιγουρευτούμε ότι είναι επεκτάσιμο,
14:39
and there are no amount of people that can actually scale this.
265
879751
3454
και δεν υπάρχουν άτομα που να μπορούν να το επεκτείνουν.
14:43
So this is why we've done so much work around proactive detection of abuse
266
883229
6629
Γι' αυτό έχουμε κάνει τόση πολλή δουλειά στην προληπτική ανίχνευση της κατάχρησης
14:49
that humans can then review.
267
889882
1391
που μπορούν μετά να ελέγξουν άνθρωποι.
14:51
We want to have a situation
268
891297
2861
Θέλουμε να έχουμε μια κατάσταση
14:54
where algorithms are constantly scouring every single tweet
269
894182
3741
όπου οι αλγόριθμοι ελέγχουν συνεχώς κάθε τιτίβισμα
14:57
and bringing the most interesting ones to the top
270
897947
2342
και ανεβάζοντας τα πιο ενδιαφέροντα πρώτα
15:00
so that humans can bring their judgment to whether we should take action or not,
271
900313
3902
έτσι ώστε οι άνθρωποι να κρίνουν αν θα πρέπει να δράσουμε ή όχι,
15:04
based on our terms of service.
272
904239
1524
σύμφωνα με τους όρους χρήσης μας.
15:05
WPR: But there's not an amount of people that are scalable,
273
905787
2803
ΓΠΡ: Αλλά δεν υπάρχει αριθμός ατόμων που είναι επεκτάσιμος,
15:08
but how many people do you currently have monitoring these accounts,
274
908614
3497
αλλά πόσοι άνθρωποι αυτήν τη στιγμή παρακολουθούν αυτούς τους λογαριασμούς,
15:12
and how do you figure out what's enough?
275
912135
2546
και πώς καταλαβαίνεις τι είναι αρκετό;
15:14
JD: They're completely flexible.
276
914705
2272
ΤΝ: Είναι τελείως ευέλικτοι.
15:17
Sometimes we associate folks with spam.
277
917001
2941
Μερικές φορές συνδέουμε άτομα με spam.
15:19
Sometimes we associate folks with abuse and harassment.
278
919966
3845
Μερικές φορές συνδέουμε άτομα με κακοποίηση και παρενόχληση.
15:23
We're going to make sure that we have flexibility in our people
279
923835
3062
Θα σιγουρευτούμε ότι έχουμε ευελιξία στους ανθρώπους μας
15:26
so that we can direct them at what is most needed.
280
926921
2350
ώστε να τους κατευθύνουμε εκεί που χρειάζονται περισσότερο.
15:29
Sometimes, the elections.
281
929295
1204
Μερικές φορές, στις εκλογές.
15:30
We've had a string of elections in Mexico, one coming up in India,
282
930523
4927
Είχαμε μια σειρά από εκλογές στο Μεξικό, μία σε λίγο στην Ινδία,
15:35
obviously, the election last year, the midterm election,
283
935474
4447
προφανώς, οι εκλογές πέρσι, οι ενδιάμεσες εκλογές,
15:39
so we just want to be flexible with our resources.
284
939945
2472
έτσι θέλουμε να είμαστε ευέλικτοι με τους πόρους μας.
15:42
So when people --
285
942441
2129
Έτσι όταν --
15:44
just as an example, if you go to our current terms of service
286
944594
6389
σαν παράδειγμα, αν πας στους τρέχοντες όρους χρήσης
15:51
and you bring the page up,
287
951007
1641
και ανοίξεις τη σελίδα,
15:52
and you're wondering about abuse and harassment that you just received
288
952672
3682
και αναρωτιέσαι για την κακοποίηση και την παρενόχληση που μόλις έλαβες
15:56
and whether it was against our terms of service to report it,
289
956378
3634
και αν ήταν ενάντια στους όρους χρήσης μας, για να το αναφέρεις,
το πρώτο πράγμα που θα δεις όταν ανοίξεις αυτήν τη σελίδα
16:00
the first thing you see when you open that page
290
960036
2559
16:02
is around intellectual property protection.
291
962619
3088
έχει να κάνει με την προστασία πνευματικής ιδιοκτησίας.
16:06
You scroll down and you get to abuse, harassment
292
966504
5323
Σκρολάρετε προς τα κάτω και φτάνετε στην κακοποίηση, την παρενόχληση
16:11
and everything else that you might be experiencing.
293
971851
2382
και όλα όσα μπορεί να βιώνετε.
16:14
So I don't know how that happened over the company's history,
294
974257
3195
Έτσι δεν ξέρω πώς συνέβη αυτό στην ιστορία της εταιρίας,
16:17
but we put that above the thing that people want
295
977476
4797
αλλά το βάζουμε πάνω από αυτό που θέλει ο κόσμος
16:24
the most information on and to actually act on.
296
984146
3222
τις περισσότερες πληροφορίες και να δράσουν σε αυτό.
16:27
And just our ordering shows the world what we believed was important.
297
987392
5241
Και η σειρά δείχνει στον κόσμο τι θεωρούσαμε σημαντικό.
16:32
So we're changing all that.
298
992657
2881
Έτσι τα αλλάζουμε όλα αυτά.
16:35
We're ordering it the right way,
299
995562
1563
Τα βάζουμε στη σωστή σειρά,
16:37
but we're also simplifying the rules so that they're human-readable
300
997149
3451
αλλά απλοποιούμε και τους κανόνες ώστε να μπορούν να διαβαστούν από ανθρώπους
16:40
so that people can actually understand themselves
301
1000624
4067
έτσι ώστε να καταλαβαίνουν μόνοι τους
16:44
when something is against our terms and when something is not.
302
1004715
3448
όταν κάτι είναι ενάντια στους όρους μας και όταν κάτι δεν είναι.
16:48
And then we're making --
303
1008187
2161
Και μετά κάνουμε --
16:50
again, our big focus is on removing the burden of work from the victims.
304
1010372
5200
πάλι, εστιάζουμε στο να πάρουμε το βάρος της δουλειάς από τα θύματα.
16:55
So that means push more towards technology,
305
1015596
3734
Αυτό σημαίνει να σπρώξουμε περισσότερα προς την τεχνολογία,
16:59
rather than humans doing the work --
306
1019354
1873
αντί να κάνουν τη δουλειά άνθρωποι --
17:01
that means the humans receiving the abuse
307
1021251
2413
αυτό σημαίνει ότι αυτοί που κακοποιούνται
17:03
and also the humans having to review that work.
308
1023688
3026
και αυτοί που ελέγχουν.
17:06
So we want to make sure
309
1026738
1673
Έτσι θέλουμε να σιγουρευτούμε
17:08
that we're not just encouraging more work
310
1028435
2841
ότι δεν ενθαρρύνουμε απλώς περισσότερη δουλειά
17:11
around something that's super, super negative,
311
1031300
2629
προς κάτι που είναι πολύ αρνητικό,
17:13
and we want to have a good balance between the technology
312
1033953
2674
και θέλουμε να έχουμε μια καλή ισορροπία ανάμεσα στην τεχνολογία
17:16
and where humans can actually be creative,
313
1036651
2852
και πού οι άνθρωποι μπορούν να είναι δημιουργικοί,
17:19
which is the judgment of the rules,
314
1039527
3090
που είναι η κρίση των όρων,
17:22
and not just all the mechanical stuff of finding and reporting them.
315
1042641
3267
και όχι απλώς όλα τα μηχανικά πράγματα του να βρεις και να αναφέρεις.
17:25
So that's how we think about it.
316
1045932
1530
Έτσι το σκεφτόμαστε.
17:27
CA: I'm curious to dig in more about what you said.
317
1047486
2406
ΚΑ: Θα ήθελα να δούμε περισσότερο αυτό που είπες.
17:29
I mean, I love that you said you are looking for ways
318
1049916
2605
Θέλω να πω, μου αρέσει ότι είπες ότι ψάχνετε για τρόπους
17:32
to re-tweak the fundamental design of the system
319
1052545
3462
για να επανεξετάσετε τον βασικό σχεδιασμό του συστήματος
17:36
to discourage some of the reactive behavior, and perhaps --
320
1056031
4875
για να αποθαρρύνετε κάποια από την αντιδραστική συμπεριφορά, και ίσως --
17:40
to use Tristan Harris-type language --
321
1060930
2705
να χρησιμοποιήσω γλώσσα τύπου Τρίσταν Χάρις --
17:43
engage people's more reflective thinking.
322
1063659
4288
να εμπλέξετε πιο στοχαστική σκέψη.
17:47
How far advanced is that?
323
1067971
1854
Πόσο έχει προχωρήσει αυτό;
17:49
What would alternatives to that "like" button be?
324
1069849
4305
Ποιες θα ήταν οι εναλλακτικές για το κουμπί «like»;
17:55
JD: Well, first and foremost,
325
1075518
3575
ΤΝ: Πρώτα απ' όλα,
17:59
my personal goal with the service is that I believe fundamentally
326
1079117
5753
ο προσωπικός μου στόχος με την υπηρεσία είναι ότι πιστεύω θεμελιωδώς
18:04
that public conversation is critical.
327
1084894
2702
ότι η δημόσια συζήτηση είναι κρίσιμη.
18:07
There are existential problems facing the world
328
1087620
2647
Ο κόσμος αντιμετωπίζει υπαρξιακά προβλήματα,
18:10
that are facing the entire world, not any one particular nation-state,
329
1090291
4163
ολόκληρος ο κόσμος, όχι μόνο σε ένα συγκεκριμένο έθνος,
18:14
that global public conversation benefits.
330
1094478
2649
και θα βοηθήσει η παγκόσμια δημόσια συζήτηση.
18:17
And that is one of the unique dynamics of Twitter,
331
1097151
2372
Αυτή είναι μία από τις μοναδικές δυναμικές του Twitter,
18:19
that it is completely open,
332
1099547
1814
που είναι τελείως ανοιχτό,
18:21
it is completely public,
333
1101385
1596
τελείως δημόσιο,
18:23
it is completely fluid,
334
1103005
1399
τελείως ρευστό,
18:24
and anyone can see any other conversation and participate in it.
335
1104428
4038
και οποιοσδήποτε μπορεί να δει όλες τις συζητήσεις και να συμμετάσχει.
18:28
So there are conversations like climate change.
336
1108490
2206
Υπάρχουν συζητήσεις όπως η κλιματική αλλαγή.
18:30
There are conversations like the displacement in the work
337
1110720
2682
Υπάρχουν συζητήσεις όπως η μετατόπιση στην εργασία
18:33
through artificial intelligence.
338
1113426
2000
μέσω της τεχνητής νοημοσύνης.
18:35
There are conversations like economic disparity.
339
1115450
3006
Υπάρχουν συζητήσεις όπως η οικονομική ανισότητα.
18:38
No matter what any one nation-state does,
340
1118480
2765
Δεν έχει σημασία τι κάνει μία χώρα,
18:41
they will not be able to solve the problem alone.
341
1121269
2421
δεν θα καταφέρουν να λύσουν το πρόβλημα μόνοι τους.
18:43
It takes coordination around the world,
342
1123714
2643
Χρειάζεται συντονισμό σε όλον τον κόσμο,
18:46
and that's where I think Twitter can play a part.
343
1126381
3047
και εκεί νομίζω ότι μπορεί να παίξει κάποιον ρόλο το Twitter.
18:49
The second thing is that Twitter, right now, when you go to it,
344
1129452
5642
Το δεύτερο είναι ότι το Twitter, αυτήν τη στιγμή, όταν πάτε σε αυτό,
18:55
you don't necessarily walk away feeling like you learned something.
345
1135118
3746
δεν φεύγετε απαραίτητα με το αίσθημα ότι μάθατε κάτι.
18:58
Some people do.
346
1138888
1276
Μερικοί το κάνουν.
19:00
Some people have a very, very rich network,
347
1140188
3107
Μερικοί έχουν ένα πολύ πλούσιο δίκτυο,
19:03
a very rich community that they learn from every single day.
348
1143319
3117
μια πολύ πλούσια κοινότητα από την οποία μαθαίνουν κάθε μέρα.
19:06
But it takes a lot of work and a lot of time to build up to that.
349
1146460
3691
Αλλά χρειάζεται πολλή δουλειά και χρόνος για να το φτάσει σε αυτό το σημείο.
19:10
So we want to get people to those topics and those interests
350
1150175
3448
Θέλουμε να πάμε τον κόσμο σε αυτά τα θέματα και ενδιαφέροντα
19:13
much, much faster
351
1153647
1579
πολύ γρηγορότερα
19:15
and make sure that they're finding something that,
352
1155250
2566
και να σιγουρευτούμε ότι βρίσκουν κάτι που,
19:18
no matter how much time they spend on Twitter --
353
1158728
2360
ασχέτως πόση ώρα ξοδεύουν στο Twitter --
19:21
and I don't want to maximize the time on Twitter,
354
1161112
2358
και δεν θέλω να μεγιστοποιήσω τον χρόνο στο Twitter,
19:23
I want to maximize what they actually take away from it
355
1163494
2910
θέλω να μεγιστοποιήσω τι παίρνουν από αυτό
19:26
and what they learn from it, and --
356
1166428
2030
και τι μαθαίνουν από αυτό, και --
19:29
CA: Well, do you, though?
357
1169598
1328
ΚΑ: Το κάνεις όμως;
19:30
Because that's the core question that a lot of people want to know.
358
1170950
3244
Επειδή αυτή είναι η κύρια ερώτηση που θέλει να μάθει πολύς κόσμος.
19:34
Surely, Jack, you're constrained, to a huge extent,
359
1174218
3638
Τζακ, σίγουρα περιορίζεσαι, σε μεγάλο βαθμό,
19:37
by the fact that you're a public company,
360
1177880
2007
από το γεγονός, ότι είσαι στο χρηματιστήριο,
19:39
you've got investors pressing on you,
361
1179911
1774
και έχεις τους επενδυτές να σε πιέζουν,
19:41
the number one way you make your money is from advertising --
362
1181709
3559
ο νούμερο ένα τρόπος να βγάλεις χρήματα είναι από τις διαφημίσεις --
19:45
that depends on user engagement.
363
1185292
2772
αυτό εξαρτάται από την εμπλοκή των χρηστών.
19:48
Are you willing to sacrifice user time, if need be,
364
1188088
4700
Είσαι διατεθειμένος να θυσιάσεις χρόνο χρηστών, αν χρειαστεί,
19:52
to go for a more reflective conversation?
365
1192812
3729
για να πας σε μια πιο στοχαστική συνομιλία;
19:56
JD: Yeah; more relevance means less time on the service,
366
1196565
3111
ΤΝ: Ναι, μεγαλύτερη σχετικότητα σημαίνει λιγότερος χρόνος στην υπηρεσία,
19:59
and that's perfectly fine,
367
1199700
1937
και είναι μια χαρά,
20:01
because we want to make sure that, like, you're coming to Twitter,
368
1201661
3099
επειδή θέλουμε να σιγουρευτούμε ότι όταν έρχεσαι στο Twitter,
20:04
and you see something immediately that you learn from and that you push.
369
1204784
4520
και δεις κάτι αμέσως από το οποίο μαθαίνεις και σπρώχνεις.
20:09
We can still serve an ad against that.
370
1209328
3420
Ακόμη μπορούμε να βάλουμε διαφήμιση σε αυτό.
20:12
That doesn't mean you need to spend any more time to see more.
371
1212772
2921
Δεν χρειάζεται να περάσεις πιο πολύ χρόνο για να δεις πιο πολλά.
20:15
The second thing we're looking at --
372
1215717
1733
Το δεύτερο πράγμα που κοιτάμε --
20:17
CA: But just -- on that goal, daily active usage,
373
1217474
2698
ΚΑ: Αλλά μόνο -- σε αυτόν τον στόχο, καθημερινή ενεργή χρήση,
20:20
if you're measuring that, that doesn't necessarily mean things
374
1220196
3245
αν μετράς αυτό, δεν σημαίνει απαραίτητα πράγματα
20:23
that people value every day.
375
1223465
1738
που εκτιμά ο κόσμος καθημερινά.
20:25
It may well mean
376
1225227
1161
Θα μπορούσε να σημαίνει
20:26
things that people are drawn to like a moth to the flame, every day.
377
1226412
3306
πράγματα τα οποία έλκουν τους ανθρώπους σαν μαγνήτης, κάθε μέρα.
20:29
We are addicted, because we see something that pisses us off,
378
1229742
3022
Είμαστε εθισμένοι, επειδή βλέπουμε κάτι που μας τσαντίζει,
20:32
so we go in and add fuel to the fire,
379
1232788
3178
έτσι πηγαίνουμε και ρίχνουμε λάδι στη φωτιά,
20:35
and the daily active usage goes up,
380
1235990
1927
και η καθημερινή ενεργή χρήση ανεβαίνει,
20:37
and there's more ad revenue there,
381
1237941
1715
και υπάρχει μεγαλύτερος τζίρος από διαφημίσεις,
20:39
but we all get angrier with each other.
382
1239680
2752
αλλά όλοι μας θυμώνουμε περισσότερο μεταξύ μας.
20:42
How do you define ...
383
1242456
2509
Πώς ορίζεις...
20:44
"Daily active usage" seems like a really dangerous term to be optimizing.
384
1244989
4126
«Η καθημερινή ενεργή χρήση» ακούγεται σαν κάτι επικίνδυνο για να βελτιστοποιηθεί.
20:49
(Applause)
385
1249139
5057
(Χειροκρότημα)
20:54
JD: Taken alone, it is,
386
1254220
1268
ΤΝ: Από μόνο του, είναι,
20:55
but you didn't let me finish the other metric,
387
1255512
2346
αλλά δεν με άφησες να τελειώσω την άλλη μέτρηση,
20:57
which is, we're watching for conversations
388
1257882
3727
που είναι ότι κοιτάμε για συζητήσεις
21:01
and conversation chains.
389
1261633
2129
και αλυσίδες συζητήσεων.
21:03
So we want to incentivize healthy contribution back to the network,
390
1263786
5076
Έτσι θέλουμε να δώσουμε κίνητρα για την υγιή συμβολή στο δίκτυο,
21:08
and what we believe that is is actually participating in conversation
391
1268886
4181
και πιστεύουμε ότι η συμμετοχή στη συζήτηση είναι υγιής,
21:13
that is healthy,
392
1273091
1197
21:14
as defined by those four indicators I articulated earlier.
393
1274312
5037
όπως προσδιορίζεται από αυτούς τους τέσσερις δείκτες που ανέφερα πριν.
21:19
So you can't just optimize around one metric.
394
1279373
2657
Δεν μπορείς να βελτιστοποιήσεις γύρω από μία μέτρηση.
21:22
You have to balance and look constantly
395
1282054
2752
Πρέπει να ισορροπείς και να κοιτάς συνεχώς
21:24
at what is actually going to create a healthy contribution to the network
396
1284830
4083
τι είναι αυτό που θα δημιουργήσει μια υγιή συμμετοχή στο δίκτυο
21:28
and a healthy experience for people.
397
1288937
2341
και μια υγιή εμπειρία για τους ανθρώπους.
21:31
Ultimately, we want to get to a metric
398
1291302
1866
Στην τελική, θέλω να φτάσω σε μια μέτρηση
21:33
where people can tell us, "Hey, I learned something from Twitter,
399
1293192
3757
όπου θα μπορούν να μου πουν, «Έι, έμαθα κάτι από το Twitter,
21:36
and I'm walking away with something valuable."
400
1296973
2167
και φεύγω με κάτι πολύτιμο».
21:39
That is our goal ultimately over time,
401
1299164
2043
Αυτός είναι ο σκοπός μας τελικά,
21:41
but that's going to take some time.
402
1301231
1809
αλλά θα χρειαστεί χρόνος.
21:43
CA: You come over to many, I think to me, as this enigma.
403
1303064
5282
ΚΑ: Σε πολλούς είσαι, νομίζω σε μένα, σαν αίνιγμα.
21:48
This is possibly unfair, but I woke up the other night
404
1308370
4396
Είναι μάλλον άδικο, αλλά τις προάλλες ξύπνησα τη νύχτα
21:52
with this picture of how I found I was thinking about you and the situation,
405
1312790
3879
έχοντας αυτή την εικόνα του πώς σκέφτομαι εσένα και την κατάσταση,
21:56
that we're on this great voyage with you on this ship called the "Twittanic" --
406
1316693
6903
ότι είμαστε σε ένα μεγάλο ταξίδι μαζί σου στο καράβι που λέγεται «Twittanic» --
22:03
(Laughter)
407
1323620
1281
(Γέλια)
22:04
and there are people on board in steerage
408
1324925
4357
και υπάρχουν άτομα στο πλοίο στο πηδάλιο
22:09
who are expressing discomfort,
409
1329306
2203
που εκφράζουν τη δυσφορία τους,
22:11
and you, unlike many other captains,
410
1331533
2543
κι εσύ, σε αντίθεση με πολλούς άλλους καπετάνιους,
22:14
are saying, "Well, tell me, talk to me, listen to me, I want to hear."
411
1334100
3431
λες, «Πείτε μου, μιλήστε μου, ακούστε με, θέλω να ακούσω».
22:17
And they talk to you, and they say, "We're worried about the iceberg ahead."
412
1337555
3619
Και σου μιλούν, και λένε, «Ανησυχούμε για το παγόβουνο μπροστά».
22:21
And you go, "You know, that is a powerful point,
413
1341198
2242
Λες, «Ξέρεις, έχεις ένα ισχυρό σημείο,
22:23
and our ship, frankly, hasn't been built properly
414
1343464
2430
και το πλοίο μας, για να πω την αλήθεια, δεν έχει χτιστεί σωστά
22:25
for steering as well as it might."
415
1345918
1669
για πλοήγηση όπως θα μπορούσε».
22:27
And we say, "Please do something."
416
1347611
1658
Και λέμε, «Σε παρακαλώ, κάνε κάτι».
22:29
And you go to the bridge,
417
1349293
1411
Και πας στη γέφυρα,
22:30
and we're waiting,
418
1350728
2295
και περιμένουμε,
22:33
and we look, and then you're showing this extraordinary calm,
419
1353047
4548
και βλέπουμε, και φαίνεσαι εξαιρετικά ήρεμος,
22:37
but we're all standing outside, saying, "Jack, turn the fucking wheel!"
420
1357619
3883
αλλά όλοι μας στεκόμαστε απ' έξω και λέμε, «Τζακ, γύρνα το γαμημένο τιμόνι!»
22:41
You know?
421
1361526
1151
Καταλαβαίνεις;
22:42
(Laughter)
422
1362701
1335
(Γέλια)
22:44
(Applause)
423
1364060
2381
(Χειροκρότημα)
22:46
I mean --
424
1366465
1166
Θέλω να πω --
22:47
(Applause)
425
1367655
1734
(Χειροκρότημα)
22:49
It's democracy at stake.
426
1369413
4594
Διακυβεύεται η δημοκρατία.
22:54
It's our culture at stake. It's our world at stake.
427
1374031
2821
Διακυβεύεται ο πολιτισμός μας. Διακυβεύεται ο κόσμος μας.
22:56
And Twitter is amazing and shapes so much.
428
1376876
4706
Και το Twitter είναι εξαιρετικό και διαμορφώνει τόσα πράγματα.
23:01
It's not as big as some of the other platforms,
429
1381606
2233
Δεν είναι τόσο μεγάλο όσο μερικές άλλες πλατφόρμες,
23:03
but the people of influence use it to set the agenda,
430
1383863
2804
αλλά το χρησιμοποιούν άτομα με επιρροή για να ορίσουν την ατζέντα,
23:06
and it's just hard to imagine a more important role in the world than to ...
431
1386691
6787
και είναι δύσκολο να φανταστείς έναν πιο σημαντικό ρόλο στον κόσμο από το να...
23:13
I mean, you're doing a brilliant job of listening, Jack, and hearing people,
432
1393502
3784
Θέλω να πω, κάνεις φανταστική δουλειά στο να ακούς, Τζακ, και ακούς τον κόσμο,
23:17
but to actually dial up the urgency and move on this stuff --
433
1397310
4445
αλλά το να το θέσεις σε προτεραιότητα και να κάνεις κάτι --
23:21
will you do that?
434
1401779
2201
θα το κάνεις αυτό;
23:24
JD: Yes, and we have been moving substantially.
435
1404750
3815
ΤΝ: Ναι, και έχουμε κάνει σημαντικές κινήσεις.
23:28
I mean, there's been a few dynamics in Twitter's history.
436
1408589
3225
Υπήρχαν κάποιες δυναμικές στην ιστορία του Twitter.
23:31
One, when I came back to the company,
437
1411838
2083
Ένα, όταν επέστρεψα στην εταιρία,
23:35
we were in a pretty dire state in terms of our future,
438
1415477
6256
ήμασταν σε κακή κατάσταση όσον αφορά το μέλλον μας,
23:41
and not just from how people were using the platform,
439
1421757
4634
και όχι μόνο από το πώς χρησιμοποιείται η πλατφόρμα,
23:46
but from a corporate narrative as well.
440
1426415
2047
αλλά και από εταιρική αφήγηση.
23:48
So we had to fix a bunch of the foundation,
441
1428486
3204
Έτσι έπρεπε να φτιάξουμε αρκετή από τη βάση,
23:51
turn the company around,
442
1431714
1969
να γυρίσουμε την εταιρία,
23:53
go through two crazy layoffs,
443
1433707
3111
να κάνουμε δύο τρελές απολύσεις,
23:56
because we just got too big for what we were doing,
444
1436842
3793
επειδή μεγαλώσαμε πολύ γι' αυτό που κάναμε,
24:00
and we focused all of our energy
445
1440659
2060
και εστιάσαμε όλη την ενέργειά μας
24:02
on this concept of serving the public conversation.
446
1442743
3508
σε αυτή την έννοια της υπηρεσίας της δημόσιας συζήτησης.
24:06
And that took some work.
447
1446275
1451
Και χρειάστηκε αρκετή δουλειά.
24:07
And as we dived into that,
448
1447750
2608
Και καθώς το ξεκινήσαμε αυτό,
24:10
we realized some of the issues with the fundamentals.
449
1450382
2992
συνειδητοποιήσαμε μερικά θέματα με τις θεμελιώδεις αρχές.
24:14
We could do a bunch of superficial things to address what you're talking about,
450
1454120
4656
Θα μπορούσαμε να κάνουμε διάφορα επιφανειακά πράγματα
για να αντιμετωπίσουμε αυτά που λες, αλλά πρέπει να κρατήσουν οι αλλαγές,
24:18
but we need the changes to last,
451
1458800
1790
24:20
and that means going really, really deep
452
1460614
2459
και αυτό σημαίνει ότι πρέπει να πάμε πραγματικά βαθιά
24:23
and paying attention to what we started 13 years ago
453
1463097
4350
και να προσέξουμε αυτό που ξεκινήσαμε πριν από 13 χρόνια
24:27
and really questioning
454
1467471
2261
και να αναρωτηθούμε πραγματικά
24:29
how the system works and how the framework works
455
1469756
2566
πώς λειτουργεί το σύστημα και η δομή
24:32
and what is needed for the world today,
456
1472346
3833
και τι χρειάζεται για τον κόσμο σήμερα,
24:36
given how quickly everything is moving and how people are using it.
457
1476203
4024
δεδομένου πόσο γρήγορα κινούνται όλα και πώς το χρησιμοποιεί ο κόσμος.
24:40
So we are working as quickly as we can, but quickness will not get the job done.
458
1480251
6544
Δουλεύουμε όσο πιο γρήγορα μπορούμε, αλλά η γρηγοράδα δεν θα τελειώσει τη δουλειά.
24:46
It's focus, it's prioritization,
459
1486819
2611
Είναι η εστίαση, οι προτεραιότητες,
24:49
it's understanding the fundamentals of the network
460
1489454
2946
η κατανόηση των θεμελιωδών αρχών του δικτύου
24:52
and building a framework that scales
461
1492424
2842
και το χτίσιμο μιας δομής που επεκτείνεται
24:55
and that is resilient to change,
462
1495290
2351
και είναι ανθεκτική στην αλλαγή,
24:57
and being open about where we are and being transparent about where are
463
1497665
5429
και το να είμαστε ανοιχτοί και διαφανείς για το πού βρισκόμαστε
25:03
so that we can continue to earn trust.
464
1503118
2179
έτσι ώστε να συνεχίσουμε να κερδίζουμε την εμπιστοσύνη.
25:06
So I'm proud of all the frameworks that we've put in place.
465
1506141
3331
Είμαι περήφανος για όλες τις δομές που έχουμε εφαρμόσει.
25:09
I'm proud of our direction.
466
1509496
2888
Είμαι περήφανος για την κατεύθυνσή μας.
25:12
We obviously can move faster,
467
1512915
2718
Προφανώς μπορούμε να πάμε γρηγορότερα,
25:15
but that required just stopping a bunch of stupid stuff we were doing in the past.
468
1515657
4719
αλλά αυτό απαιτούσε να σταματήσουμε διάφορα χαζά που κάναμε στο παρελθόν.
25:21
CA: All right.
469
1521067
1164
ΚΑ: Εντάξει.
25:22
Well, I suspect there are many people here who, if given the chance,
470
1522255
4067
Υποψιάζομαι ότι πολλά άτομα εδώ αν είχαν την ευκαιρία,
25:26
would love to help you on this change-making agenda you're on,
471
1526346
3989
θα ήθελαν πολύ να σε βοηθήσουν σε αυτή την ατζέντα αλλαγών,
25:30
and I don't know if Whitney --
472
1530359
1542
και δεν ξέρω αν η Γουίτνι --
25:31
Jack, thank you for coming here and speaking so openly.
473
1531925
2761
Τζακ, σε ευχαριστώ που ήρθες εδώ και μίλησες τόσο ανοιχτά.
25:34
It took courage.
474
1534710
1527
Χρειάστηκε κουράγιο.
25:36
I really appreciate what you said, and good luck with your mission.
475
1536261
3384
Εκτιμώ πραγματικά αυτό που είπες, και καλή τύχη με την αποστολή σου.
25:39
JD: Thank you so much. Thanks for having me.
476
1539669
2095
ΤΝ: Σας ευχαριστώ πολύ. Σας ευχαριστώ που με δεχτήκατε.
25:41
(Applause)
477
1541788
3322
(Χειροκρότημα)
25:45
Thank you.
478
1545134
1159
Σας ευχαριστώ.
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7