How Twitter needs to change | Jack Dorsey

183,606 views ・ 2019-06-07

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Morgane Quilfen Relecteur: Emmanuel Parfond
00:13
Chris Anderson: What worries you right now?
0
13131
2408
Chris Anderson : Qu’est-ce qui vous inquiùte ?
00:15
You've been very open about lots of issues on Twitter.
1
15563
2853
Vous avez été trÚs ouvert sur beaucoup de problÚmes sur Twitter.
00:18
What would be your top worry
2
18440
2299
Quelle serait votre principale inquiétude
00:20
about where things are right now?
3
20763
2049
quant Ă  l’état actuel des choses ?
00:23
Jack Dorsey: Right now, the health of the conversation.
4
23447
2929
Jack Dorsey : Actuellement, la santé de la conversation.
00:26
So, our purpose is to serve the public conversation,
5
26400
3660
Notre objectif est de servir le débat public
00:30
and we have seen a number of attacks on it.
6
30084
5056
et nous y avons vu un certain nombre d’attaques.
00:35
We've seen abuse, we've seen harassment,
7
35164
2425
Nous avons vu des abus, du harcĂšlement,
00:37
we've seen manipulation,
8
37613
3222
de la manipulation,
00:40
automation, human coordination, misinformation.
9
40859
4265
de l’automatisation, de la coordination humaine,
de la désinformation.
00:46
So these are all dynamics that we were not expecting
10
46134
4034
Ce sont des dynamiques auxquelles nous ne nous attendions pas
00:50
13 years ago when we were starting the company.
11
50192
3718
il y a 13 ans, quand nous Ă©tions en train de lancer l’entreprise.
00:53
But we do now see them at scale,
12
53934
2664
Mais nous les voyons maintenant Ă  grande Ă©chelle
00:56
and what worries me most is just our ability to address it
13
56622
5278
et ce qui m’inquiĂšte le plus est notre capacitĂ© Ă  rĂ©soudre cela
01:01
in a systemic way that is scalable,
14
61924
3108
de façon systĂ©mique et adaptĂ©e Ă  l’échelle,
01:05
that has a rigorous understanding of how we're taking action,
15
65056
6976
avec une compréhension rigoureuse de comment nous agissons,
01:12
a transparent understanding of how we're taking action
16
72056
3105
une vision transparente de comment nous agissons
01:15
and a rigorous appeals process for when we're wrong,
17
75185
3101
et une procĂ©dure d’appel rigoureuse pour les fois oĂč nous avons tort,
01:18
because we will be wrong.
18
78310
2169
car nous aurons tort.
01:20
Whitney Pennington Rodgers: I'm really glad to hear
19
80503
2397
Whitney Pennington Rodgers : Je suis ravie d’entendre
01:22
that that's something that concerns you,
20
82924
1928
que cela vous inquiĂšte
01:24
because I think there's been a lot written about people
21
84876
2630
car il y a beaucoup d’articles sur des personnes
01:27
who feel they've been abused and harassed on Twitter,
22
87530
2477
qui se sont senties maltraitées, harcelées sur Twitter
01:30
and I think no one more so than women and women of color
23
90031
4102
et je crois que personne ne l’a plus Ă©tĂ© que les femmes, les femmes de couleur
01:34
and black women.
24
94157
1170
et les femmes noires.
01:35
And there's been data that's come out --
25
95351
1913
Des données ont été publiées --
01:37
Amnesty International put out a report a few months ago
26
97288
2909
Amnesty International a publié un rapport il y a quelques mois
01:40
where they showed that a subset of active black female Twitter users
27
100221
4480
oĂč ils ont montrĂ© que pour un sous-groupe de femmes noires utilisant Twitter,
01:44
were receiving, on average, one in 10 of their tweets
28
104725
3456
en moyenne un tweet sur 10 reçus
01:48
were some form of harassment.
29
108205
2099
présentait une forme de harcÚlement.
01:50
And so when you think about health for the community on Twitter,
30
110328
3907
Quand vous pensez à la santé de la communauté sur Twitter,
01:54
I'm interested to hear, "health for everyone,"
31
114259
4024
cela m’intĂ©resse d’entendre « de la santĂ© pour tout le monde »,
01:58
but specifically: How are you looking to make Twitter a safe space
32
118307
3125
mais en particulier : comment allez-vous faire de Twitter un espace sûr
02:01
for that subset, for women, for women of color and black women?
33
121456
4164
pour ce sous-groupe, pour les femmes,
pour les femmes de couleur et les femmes noires ?
02:05
JD: Yeah.
34
125644
1164
JD : Ouais.
02:06
So it's a pretty terrible situation
35
126832
2643
C’est une situation effroyable
02:09
when you're coming to a service
36
129499
1619
quand vous venez sur un service
02:11
that, ideally, you want to learn something about the world,
37
131142
4321
oĂč, idĂ©alement, vous voulez apprendre quelque chose sur le monde
02:15
and you spend the majority of your time reporting abuse, receiving abuse,
38
135487
5443
et vous passez la majoritĂ© de votre temps Ă  signaler des abus, Ă  ĂȘtre agressĂ©e,
02:20
receiving harassment.
39
140954
1804
Ă  ĂȘtre harcelĂ©e.
02:23
So what we're looking most deeply at is just the incentives
40
143373
6321
Nous reconsidérons en profondeur les incitations
02:29
that the platform naturally provides and the service provides.
41
149718
3823
que la plateforme offre naturellement et le service qu’elle fournit.
02:34
Right now, the dynamic of the system makes it super-easy to harass
42
154262
4577
Actuellement, la dynamique du systĂšme rend cela trĂšs facile de harceler
02:38
and to abuse others through the service,
43
158863
3664
et d’agresser les autres via le service
02:42
and unfortunately, the majority of our system in the past
44
162551
3262
et malheureusement, auparavant, la majorité de notre systÚme
02:45
worked entirely based on people reporting harassment and abuse.
45
165837
5596
était entiÚrement basé sur le signalement du harcÚlement et des agressions.
02:51
So about midway last year, we decided that we were going to apply
46
171457
5075
Vers le milieu de l’annĂ©e derniĂšre, nous avons dĂ©cidĂ© d’appliquer
02:56
a lot more machine learning, a lot more deep learning to the problem,
47
176556
3982
beaucoup plus d’apprentissage automatique, d’apprentissage profond au problùme
03:00
and try to be a lot more proactive around where abuse is happening,
48
180562
4538
et d’essayer d’ĂȘtre plus proactifs lĂ  oĂč il y a des agressions
03:05
so that we can take the burden off the victim completely.
49
185124
3960
afin de pouvoir soulager complĂštement les victimes de ce fardeau.
03:09
And we've made some progress recently.
50
189108
2435
Récemment, nous avons réalisé des progrÚs.
03:11
About 38 percent of abusive tweets are now proactively identified
51
191567
6689
Environ 38 % des tweets abusifs sont identifiés de façon proactive
03:18
by machine learning algorithms
52
198280
1715
par des algorithmes d’apprentissage automatique
03:20
so that people don't actually have to report them.
53
200019
2334
afin que les gens n’aient pas à les signaler.
03:22
But those that are identified are still reviewed by humans,
54
202377
3305
Ceux qui sont identifiĂ©s sont passĂ©s en revue par des ĂȘtres humains
03:25
so we do not take down content or accounts without a human actually reviewing it.
55
205706
5384
afin de ne pas supprimer du contenu ou des comptes
sans que quelqu’un ne les contrîle.
03:31
But that was from zero percent just a year ago.
56
211114
2759
C’était Ă  zĂ©ro pourcent il y a un an.
03:33
So that meant, at that zero percent,
57
213897
1931
À ce zĂ©ro pourcent,
03:35
every single person who received abuse had to actually report it,
58
215852
3650
toute personne étant agressée devant le signaler,
03:39
which was a lot of work for them, a lot of work for us
59
219526
3579
ce qui représentait beaucoup de travail pour elle, pour nous
03:43
and just ultimately unfair.
60
223129
2018
et Ă©tait fondamentalement injuste.
03:46
The other thing that we're doing is making sure that we, as a company,
61
226528
3780
Une autre chose que nous faisons,
c’est de nous s’assurer qu’en tant qu’entreprise,
03:50
have representation of all the communities that we're trying to serve.
62
230332
3333
nous avons une représentation
de toutes les communautés que nous servons.
03:53
We can't build a business that is successful
63
233689
2159
Nous ne pouvons pas bĂątir une entreprise fructueuse
03:55
unless we have a diversity of perspective inside of our walls
64
235872
3300
sans avoir de diversité de points de vue au sein de nos murs
03:59
that actually feel these issues every single day.
65
239196
3732
qui ressentent ces problĂšmes au quotidien.
04:02
And that's not just with the team that's doing the work,
66
242952
3738
Ce n’est pas valable qu’avec l’équipe qui accomplit le travail
04:06
it's also within our leadership as well.
67
246714
2096
mais aussi avec notre direction.
04:08
So we need to continue to build empathy for what people are experiencing
68
248834
5757
Nous devons continuer Ă  dĂ©velopper de l’empathie
pour ce que les gens vivent,
04:14
and give them better tools to act on it
69
254615
3316
leur offrir de meilleurs outils pour agir en fonction de leur vécu
04:17
and also give our customers a much better and easier approach
70
257955
4252
et offrir Ă  nos clients une approche meilleure et plus simple
04:22
to handle some of the things that they're seeing.
71
262231
2382
pour gérer le genre de choses que nous voyons.
04:24
So a lot of what we're doing is around technology,
72
264637
3266
Une grande partie de notre travail a trait Ă  la technologie
04:27
but we're also looking at the incentives on the service:
73
267927
4308
mais nous considérons également les incitations du service :
04:32
What does Twitter incentivize you to do when you first open it up?
74
272259
5183
qu’est-ce que Twitter vous encourage-t-il à faire quand vous l’ouvrez ?
04:37
And in the past,
75
277466
1294
Auparavant,
04:40
it's incented a lot of outrage, it's incented a lot of mob behavior,
76
280670
5544
il encourageait fortement l’indignation, le comportement de foule,
04:46
it's incented a lot of group harassment.
77
286238
2459
le harcĂšlement collectif.
04:48
And we have to look a lot deeper at some of the fundamentals
78
288721
3648
Nous devons considérer plus en profondeur certains des principes fondamentaux
04:52
of what the service is doing to make the bigger shifts.
79
292393
2958
de ce que le service fait pour affecter de plus grands changements.
04:55
We can make a bunch of small shifts around technology, as I just described,
80
295375
4031
Nous pouvons faire de petits changements concernant la technologie
04:59
but ultimately, we have to look deeply at the dynamics in the network itself,
81
299430
4386
mais fondamentalement, nous devons considérer en profondeur
les dynamiques dans le rĂ©seau mĂȘme
05:03
and that's what we're doing.
82
303840
1368
et c’est ce que nous faisons.
05:05
CA: But what's your sense --
83
305232
2060
CA : Quelle est votre impression --
05:07
what is the kind of thing that you might be able to change
84
307316
3963
quel genre de choses que vous pourriez changer
05:11
that would actually fundamentally shift behavior?
85
311303
2749
modifieraient fondamentalement les comportements ?
05:15
JD: Well, one of the things --
86
315386
1480
JD : Une des choses --
05:16
we started the service with this concept of following an account,
87
316890
5340
nous avons démarré le service avec ce concept de suivre un compte,
05:22
as an example,
88
322254
1725
en tant qu’exemple,
05:24
and I don't believe that's why people actually come to Twitter.
89
324003
4349
et je ne crois pas
que ce soit la raison pour laquelle les gens viennent sur Twitter.
05:28
I believe Twitter is best as an interest-based network.
90
328376
4857
Je crois que Twitter est surtout un rĂ©seau basĂ© sur les centres d’intĂ©rĂȘt.
05:33
People come with a particular interest.
91
333257
3453
Les gens y viennent avec un centre d’intĂ©rĂȘt particulier.
05:36
They have to do a ton of work to find and follow the related accounts
92
336734
3487
Il leur faut beaucoup de travail
pour trouver et suivre les comptes associĂ©s Ă  ces centres d’intĂ©rĂȘt.
05:40
around those interests.
93
340245
1405
05:42
What we could do instead is allow you to follow an interest,
94
342217
3397
Nous pourrions plutĂŽt vous permettre de suivre un centre d’intĂ©rĂȘt,
05:45
follow a hashtag, follow a trend,
95
345638
2103
suivre un hashtag, suivre une tendance,
05:47
follow a community,
96
347765
1754
suivre une communauté,
05:49
which gives us the opportunity to show all of the accounts,
97
349543
4637
ce qui nous offre l’opportunitĂ© de montrer tous les comptes,
05:54
all the topics, all the moments, all the hashtags
98
354204
3323
tous les sujets, tous les moments, tous les hashtags
05:57
that are associated with that particular topic and interest,
99
357551
3992
qui sont associĂ©s Ă  ce sujet et centre d’intĂ©rĂȘt en particulier,
06:01
which really opens up the perspective that you see.
100
361567
4600
ce qui ouvre les perspectives que vous voyez.
06:06
But that is a huge fundamental shift
101
366191
2157
Mais c’est un changement fondamental
06:08
to bias the entire network away from just an account bias
102
368372
3792
faisant passer tous le rĂ©seau d’une subjectivitĂ© liĂ©e Ă  un compte
06:12
towards a topics and interest bias.
103
372188
2587
Ă  une subjectivitĂ© liĂ©e Ă  un sujet et centre d’intĂ©rĂȘt.
06:15
CA: Because isn't it the case
104
375283
3148
CA : N’est-il pas vrai
06:19
that one reason why you have so much content on there
105
379375
3541
qu’une des raisons pour lesquelles vous avez là tant de contenu
06:22
is a result of putting millions of people around the world
106
382940
3591
rĂ©sulte du fait d’avoir mis des millions de personnes Ă  travers le monde
06:26
in this kind of gladiatorial contest with each other
107
386555
3142
en compétition les uns contre les autres tels des gladiateurs
06:29
for followers, for attention?
108
389721
2090
pour des abonnĂ©s, pour de l’attention ?
06:31
Like, from the point of view of people who just read Twitter,
109
391835
4117
Du point de vue des gens qui ne font que lire Twitter,
06:35
that's not an issue,
110
395976
1155
ce n’est pas un problùme,
06:37
but for the people who actually create it, everyone's out there saying,
111
397155
3350
mais pour les gens qui créent, tout le monde dit :
06:40
"You know, I wish I had a few more 'likes,' followers, retweets."
112
400529
3236
« J’aimerais avoir quelques “j’aime”, abonnĂ©s, retweets de plus. »
06:43
And so they're constantly experimenting,
113
403789
2148
Ils font constamment des expérimentations,
06:45
trying to find the path to do that.
114
405961
1961
essayent de trouver comment faire cela.
06:47
And what we've all discovered is that the number one path to do that
115
407946
4126
Nous avons tous dĂ©couvert qu’un moyen pour y arriver,
06:52
is to be some form of provocative,
116
412096
3406
c’est d’ĂȘtre provocateur,
06:55
obnoxious, eloquently obnoxious,
117
415526
2980
odieux, odieux de façon éloquente,
06:58
like, eloquent insults are a dream on Twitter,
118
418530
3516
les insultes Ă©loquentes sont un rĂȘve sur Twitter,
07:02
where you rapidly pile up --
119
422070
2603
vous ĂȘtes vite suivi --
07:04
and it becomes this self-fueling process of driving outrage.
120
424697
4608
cela devient un processus d’outrage s’autoalimentant.
07:09
How do you defuse that?
121
429329
2351
Comment arrĂȘter cela ?
07:12
JD: Yeah, I mean, I think you're spot on,
122
432624
2947
JD : Je pense que vous touchez au cƓur du problùme,
07:15
but that goes back to the incentives.
123
435595
1886
mais cela en revient aux incitations.
07:17
Like, one of the choices we made in the early days was
124
437505
2632
Un des choix que nous avons faits au tout début a été
07:20
we had this number that showed how many people follow you.
125
440161
4701
que nous avions ce nombre montrant combien vous avez d’abonnĂ©s.
07:24
We decided that number should be big and bold,
126
444886
2959
Nous avons dĂ©cidĂ© que ce nombre devrait ĂȘtre en grand et en gras,
07:27
and anything that's on the page that's big and bold has importance,
127
447869
3740
que toute chose sur la page Ă©tant en grand et en gras avait de l’importance
07:31
and those are the things that you want to drive.
128
451633
2278
et Ă©tait ce que vous deviez aspirer Ă  stimuler.
07:33
Was that the right decision at the time?
129
453935
1907
Était-ce la bonne dĂ©cision Ă  l’époque ?
07:35
Probably not.
130
455866
1153
Probablement pas.
07:37
If I had to start the service again,
131
457043
1805
Si je devais relancer le service,
07:38
I would not emphasize the follower count as much.
132
458872
2398
je ne valoriserais pas autant le nombre d’abonnĂ©s.
07:41
I would not emphasize the "like" count as much.
133
461294
2295
Je ne valoriserais pas autant le nombre de « j’aime ».
07:43
I don't think I would even create "like" in the first place,
134
463613
3120
Je ne pense pas que je crĂ©erais de « j’aime » du tout
07:46
because it doesn't actually push
135
466757
3267
car cela n’est pas un moteur
07:50
what we believe now to be the most important thing,
136
470048
3179
de ce que nous croyons aujourd’hui ĂȘtre la chose la plus importante :
07:53
which is healthy contribution back to the network
137
473251
3039
les contributions saines au réseau
07:56
and conversation to the network,
138
476314
2652
et la conversation avec le réseau,
07:58
participation within conversation,
139
478990
2072
la participation Ă  la conversation,
08:01
learning something from the conversation.
140
481086
2493
l’apprentissage de quelque chose via cette conversation.
08:03
Those are not things that we thought of 13 years ago,
141
483603
2824
Nous n’avons pas pensĂ© Ă  ces choses-lĂ  il y a 13 ans
08:06
and we believe are extremely important right now.
142
486451
2439
et nous les croyons extrĂȘmement importantes aujourd’hui.
08:08
So we have to look at how we display the follower count,
143
488914
3023
Nous devons considĂ©rer la façon d’afficher le nombre d’abonnĂ©s,
08:11
how we display retweet count,
144
491961
2365
la façon d’afficher le nombre de retweets,
08:14
how we display "likes,"
145
494350
1401
le nombre de « j’aime »
08:15
and just ask the deep question:
146
495775
2254
et poser la question profonde :
08:18
Is this really the number that we want people to drive up?
147
498053
3048
est-ce vraiment le nombre que les gens veulent faire augmenter ?
08:21
Is this the thing that, when you open Twitter,
148
501125
2545
Est-ce la chose que, quand vous ouvrez Twitter,
08:23
you see, "That's the thing I need to increase?"
149
503694
2516
c’est cela que vous devez augmenter.
08:26
And I don't believe that's the case right now.
150
506234
2144
Je ne crois pas que ce soit le cas.
08:28
(Applause)
151
508402
2103
(Applaudissements)
08:30
WPR: I think we should look at some of the tweets
152
510529
2352
WPR : Nous devrions regarder certains des tweets venant du public.
08:32
that are coming in from the audience as well.
153
512905
2169
08:35
CA: Let's see what you guys are asking.
154
515868
2436
CA : Voyons voir ce que vous demandez.
08:38
I mean, this is -- generally, one of the amazing things about Twitter
155
518328
3294
C’est -- en gĂ©nĂ©ral, une des choses gĂ©niales concernant Twitter,
08:41
is how you can use it for crowd wisdom,
156
521646
2294
c’est son utilisation pour la sagesse de foule :
08:43
you know, that more knowledge, more questions, more points of view
157
523964
4840
plus de savoir, plus de questions, plus de points de vue
08:48
than you can imagine,
158
528828
1238
que vous ne pouvez l’imaginer
08:50
and sometimes, many of them are really healthy.
159
530090
3689
et parfois, la plupart sont vraiment sains.
08:53
WPR: I think one I saw that passed already quickly down here,
160
533803
2900
WPR : Je crois en avoir vu un passer rapidement disant :
08:56
"What's Twitter's plan to combat foreign meddling in the 2020 US election?"
161
536717
3524
« Comment Twitter compte-t-il lutter
contre les ingérences étrangÚres ? »
09:00
I think that's something that's an issue we're seeing
162
540265
2571
Je crois que c’est un problĂšme observĂ© sur Internet en gĂ©nĂ©ral :
09:02
on the internet in general,
163
542860
1901
09:04
that we have a lot of malicious automated activity happening.
164
544785
3667
il y a beaucoup d’activitĂ© automatisĂ©e et malicieuse.
09:08
And on Twitter, for example, in fact, we have some work
165
548476
5373
Sur Twitter, par exemple, nous avons un travail
09:13
that's come from our friends at Zignal Labs,
166
553873
2758
venant de nos amis Ă  Zignal Labs
09:16
and maybe we can even see that to give us an example
167
556655
2656
et nous pouvons peut-ĂȘtre le voir et prendre un exemple
09:19
of what exactly I'm talking about,
168
559335
1927
de ce dont je parle :
09:21
where you have these bots, if you will,
169
561286
3204
vous avez ces robots, si vous voulez,
09:24
or coordinated automated malicious account activity,
170
564514
4550
ou une activité de compte coordonnée, automatisée et malicieuse
09:29
that is being used to influence things like elections.
171
569088
2764
utilisée pour influencer des choses comme les élections.
09:31
And in this example we have from Zignal which they've shared with us
172
571876
3843
Dans cet exemple que Zignal a partagé avec nous
09:35
using the data that they have from Twitter,
173
575743
2198
et utilisant les donnĂ©es qu’ils ont sur Twitter,
09:37
you actually see that in this case,
174
577965
2441
vous voyez que dans ce cas
09:40
white represents the humans -- human accounts, each dot is an account.
175
580430
4370
le blanc reprĂ©sente des ĂȘtres humains --
des comptes humains, chaque point est un compte.
09:44
The pinker it is,
176
584824
1359
Plus il est rose,
09:46
the more automated the activity is.
177
586207
1740
plus l’activitĂ© est automatisĂ©e.
09:47
And you can see how you have a few humans interacting with bots.
178
587971
5970
Il y a quelques ĂȘtres humains interagissant avec des robots.
09:53
In this case, it's related to the election in Israel
179
593965
4419
Dans ce cas, il s’agit des Ă©lections en IsraĂ«l
09:58
and spreading misinformation about Benny Gantz,
180
598408
2833
et de la diffusion de désinformation au sujet de Benny Gantz
10:01
and as we know, in the end, that was an election
181
601265
2662
et, finalement, c’est une Ă©lection
10:03
that Netanyahu won by a slim margin,
182
603951
3724
que Netanyahu a gagnée de justesse
10:07
and that may have been in some case influenced by this.
183
607699
2842
et elle a pu ĂȘtre influencĂ©e par cela.
10:10
And when you think about that happening on Twitter,
184
610565
2615
Quand vous pensez à ce qu’il se passe sur Twitter,
10:13
what are the things that you're doing, specifically,
185
613204
2456
quelles choses en particulier faites-vous
10:15
to ensure you don't have misinformation like this spreading in this way,
186
615684
3702
pour vous assurer de ne pas avoir une telle diffusion de la désinformation
10:19
influencing people in ways that could affect democracy?
187
619410
4181
influençant les gens de façons pouvant avoir un effet sur la démocratie ?
10:23
JD: Just to back up a bit,
188
623615
1771
JD : Pour revenir un peu en arriĂšre,
10:25
we asked ourselves a question:
189
625410
2975
nous nous sommes posé une question :
10:28
Can we actually measure the health of a conversation,
190
628409
3816
pouvons-nous mesurer la santĂ© d’une conversation
10:32
and what does that mean?
191
632249
1288
et qu’est-ce que cela signifie ?
10:33
And in the same way that you have indicators
192
633561
3382
Comme vous avez des indicateurs
10:36
and we have indicators as humans in terms of are we healthy or not,
193
636967
3467
et nous avons des indicateurs pour savoir si nous sommes en bonne santé
10:40
such as temperature, the flushness of your face,
194
640458
4658
tels que la température, la rougeur de votre visage,
10:45
we believe that we could find the indicators of conversational health.
195
645140
4560
nous croyions pouvoir trouver
les indicateurs de la santé de la conversation.
10:49
And we worked with a lab called Cortico at MIT
196
649724
3843
Nous avons travaillé avec un labo du MIT appelé Cortico
10:54
to propose four starter indicators
197
654479
6091
pour proposer quatre indicateurs initiaux
11:00
that we believe we could ultimately measure on the system.
198
660594
3670
que nous croyons pouvoir utiliser pour mesurer le systĂšme.
11:05
And the first one is what we're calling shared attention.
199
665249
5604
Le premier est ce que nous appelons « attention partagée ».
11:10
It's a measure of how much of the conversation is attentive
200
670877
3581
C’est une mesure indiquant si la conversation est attentive
11:14
on the same topic versus disparate.
201
674482
2630
plutĂŽt que disparate sur un sujet.
11:17
The second one is called shared reality,
202
677739
2783
Le deuxiĂšme s’appelle « rĂ©alitĂ© partagĂ©e » :
11:21
and this is what percentage of the conversation
203
681217
2259
quel pourcentage de la conversation
11:23
shares the same facts --
204
683500
2005
partage les mĂȘmes faits --
11:25
not whether those facts are truthful or not,
205
685529
3113
non pas est-ce que ces faits sont vrais ou faux,
11:28
but are we sharing the same facts as we converse?
206
688666
3009
mais partageons-nous les mĂȘmes faits durant notre conversation ?
11:32
The third is receptivity:
207
692235
2353
Le troisiÚme est la réceptivité :
11:34
How much of the conversation is receptive or civil
208
694612
3959
quelle part de la conversation est réceptive ou civile
11:38
or the inverse, toxic?
209
698595
2944
ou au contraire, toxique ?
11:42
And then the fourth is variety of perspective.
210
702213
3222
Le quatriÚme est la diversité des points de vue.
11:45
So, are we seeing filter bubbles or echo chambers,
211
705459
3145
Observons-nous des bulles de filtres ou des chambres d’écho
11:48
or are we actually getting a variety of opinions
212
708628
3057
ou avons-nous une diversitĂ© d’opinions
11:51
within the conversation?
213
711709
1635
dans la conversation ?
11:53
And implicit in all four of these is the understanding that,
214
713368
4018
Implicitement avec ces quatre indicateurs, nous nous entendons pour dire
11:57
as they increase, the conversation gets healthier and healthier.
215
717410
3390
que lorsqu’ils augmentent, la conversation devient de plus en plus saine.
12:00
So our first step is to see if we can measure these online,
216
720824
4869
Notre premiĂšre Ă©tape est de voir si nous pouvons les mesurer en ligne,
12:05
which we believe we can.
217
725717
1308
ce que nous croyons possible.
12:07
We have the most momentum around receptivity.
218
727049
3167
Nous avons le plus de dynamisme concernant la réceptivité.
12:10
We have a toxicity score, a toxicity model, on our system
219
730240
4317
Nous avons un score de toxicité, un modÚle de toxicité, dans notre systÚme
12:14
that can actually measure whether you are likely to walk away
220
734581
4124
qui peut mesurer si vous allez probablement vous retirer
12:18
from a conversation that you're having on Twitter
221
738729
2313
d’une conversation que vous avez sur Twitter
12:21
because you feel it's toxic,
222
741066
1633
car vous la trouvez toxique,
12:22
with some pretty high degree.
223
742723
2512
dont l’exactitude est plutĂŽt Ă©levĂ©e.
12:26
We're working to measure the rest,
224
746369
2199
Nous travaillons Ă  mesurer le reste
12:28
and the next step is,
225
748592
1964
et la prochaine Ă©tape est,
12:30
as we build up solutions,
226
750580
3359
alors que nous Ă©laborons des solutions,
12:33
to watch how these measurements trend over time
227
753963
3491
d’observer la tendance de ces mesures au fil du temps
12:37
and continue to experiment.
228
757478
1873
et de continuer à expérimenter.
12:39
And our goal is to make sure that these are balanced,
229
759375
4041
Notre objectif est de nous assurer qu’ils soient Ă©quilibrĂ©s
12:43
because if you increase one, you might decrease another.
230
763440
3066
car si vous en augmentez un, vous pourriez en abaisser un autre.
12:46
If you increase variety of perspective,
231
766530
2147
Si vous améliorez la diversité des points de vue,
12:48
you might actually decrease shared reality.
232
768701
3091
vous pourriez faire baisser la réalité partagée.
12:51
CA: Just picking up on some of the questions flooding in here.
233
771816
4989
CA : Je recueille certaines des questions qui nous inondent lĂ -haut.
12:56
JD: Constant questioning.
234
776829
1271
JD : Plein de questions.
12:58
CA: A lot of people are puzzled why,
235
778996
3620
CA : Beaucoup de gens sont perplexes quant Ă  pourquoi,
13:02
like, how hard is it to get rid of Nazis from Twitter?
236
782640
4247
à quel point est-il difficile de se débarrasser des nazis sur Twitter ?
13:08
JD: (Laughs)
237
788309
1322
JD : (Rit)
13:09
So we have policies around violent extremist groups,
238
789655
6995
Nous avons des politiques concernant les groupes extrémistes violents
13:16
and the majority of our work and our terms of service
239
796674
4426
et la majoritĂ© de notre travail et nos conditions d’utilisation
13:21
works on conduct, not content.
240
801124
3729
sont basées sur le comportement, pas le contenu.
13:24
So we're actually looking for conduct.
241
804877
2551
Nous considérons le comportement.
13:27
Conduct being using the service
242
807452
3014
Le comportement, c’est l’utilisation du service
13:30
to repeatedly or episodically harass someone,
243
810490
3867
pour harceler quelqu’un de façon rĂ©pĂ©tĂ©e ou Ă©pisodique,
13:34
using hateful imagery
244
814381
2493
utiliser des images haineuses
13:36
that might be associated with the KKK
245
816898
2106
pouvant ĂȘtre associĂ©es avec le Ku Klux Klan
13:39
or the American Nazi Party.
246
819028
3281
ou le parti nazi américain.
13:42
Those are all things that we act on immediately.
247
822333
4156
Ce sont des choses pour lesquelles nous prenons des mesures immédiates.
13:47
We're in a situation right now where that term is used fairly loosely,
248
827002
5452
Nous sommes actuellement dans une situation
oĂč ce terme est employĂ© Ă  tout vent
13:52
and we just cannot take any one mention of that word
249
832478
5313
et nous ne pouvons pas prendre une allusion Ă  ce mot
13:57
accusing someone else
250
837815
2117
en accusant quelqu’un d’autre
13:59
as a factual indication that they should be removed from the platform.
251
839956
3755
comme une indication factuelle qu’il devrait ĂȘtre banni de la plateforme.
14:03
So a lot of our models are based around, number one:
252
843735
2627
Beaucoup de nos modÚles sont basés, numéro un :
14:06
Is this account associated with a violent extremist group?
253
846386
3140
ce compte est-il associé à un groupe extrémiste violent ?
14:09
And if so, we can take action.
254
849550
1983
Si oui, nous pouvons prendre des mesures.
14:11
And we have done so on the KKK and the American Nazi Party and others.
255
851557
3852
Nous l’avons fait avec le Ku Klux Klan, le parti nazi amĂ©ricain et d’autres.
14:15
And number two: Are they using imagery or conduct
256
855433
4183
Numéro deux : utilise-t-il des images ou a-t-il un comportement
14:19
that would associate them as such as well?
257
859640
2372
qui les y associerait ?
14:22
CA: How many people do you have working on content moderation
258
862416
2932
CA : Combien de gens avez-vous Ă  travailler
sur la modération du contenu ?
14:25
to look at this?
259
865372
1250
14:26
JD: It varies.
260
866646
1496
JD : Cela dépend.
14:28
We want to be flexible on this,
261
868166
1595
Nous voulons ĂȘtre flexibles
14:29
because we want to make sure that we're, number one,
262
869785
2646
car nous voulons nous assurer que, premiĂšrement,
14:32
building algorithms instead of just hiring massive amounts of people,
263
872455
4424
nous dĂ©veloppons des algorithmes au lieu d’embaucher beaucoup de gens
14:36
because we need to make sure that this is scalable,
264
876903
2824
car nous devons nous assurer que cela puisse ĂȘtre Ă©tendu
14:39
and there are no amount of people that can actually scale this.
265
879751
3454
et Ă  si grande Ă©chelle, cela ne peut pas ĂȘtre fait par des humains.
14:43
So this is why we've done so much work around proactive detection of abuse
266
883229
6629
C’est pourquoi nous avons rĂ©alisĂ© tant de travail
sur la dĂ©tection proactive d’abus
14:49
that humans can then review.
267
889882
1391
que des humains peuvent vérifier.
14:51
We want to have a situation
268
891297
2861
Nous voulons avoir une situation
14:54
where algorithms are constantly scouring every single tweet
269
894182
3741
oĂč des algorithmes parcourent constamment tous les tweets
14:57
and bringing the most interesting ones to the top
270
897947
2342
et font remonter les plus intéressants
15:00
so that humans can bring their judgment to whether we should take action or not,
271
900313
3902
pour que des humains puissent exercer leur jugement
sur la prise de mesures ou non
15:04
based on our terms of service.
272
904239
1524
d’aprùs nos conditions d’utilisation.
15:05
WPR: But there's not an amount of people that are scalable,
273
905787
2803
WPR : C'est impossible Ă  faire avec des humains,
15:08
but how many people do you currently have monitoring these accounts,
274
908614
3497
mais combien de personnes avez-vous actuellement
Ă  surveiller ces comptes
15:12
and how do you figure out what's enough?
275
912135
2546
et comment déterminez-vous le nombre suffisant ?
15:14
JD: They're completely flexible.
276
914705
2272
JD : C’est entiùrement flexible.
15:17
Sometimes we associate folks with spam.
277
917001
2941
Parfois, nous assignons des gens au spam.
15:19
Sometimes we associate folks with abuse and harassment.
278
919966
3845
Parfois, nous assignons des gens aux abus et au harcĂšlement.
15:23
We're going to make sure that we have flexibility in our people
279
923835
3062
Nous allons nous assurer d’avoir la flexibilitĂ© dans nos effectifs
15:26
so that we can direct them at what is most needed.
280
926921
2350
afin d’orienter leur travail sur ce qui est nĂ©cessaire.
15:29
Sometimes, the elections.
281
929295
1204
Parfois, les Ă©lections.
15:30
We've had a string of elections in Mexico, one coming up in India,
282
930523
4927
Il y a eu une sĂ©rie d’élections au Mexique, Ă  venir en Inde,
15:35
obviously, the election last year, the midterm election,
283
935474
4447
Ă©videmment, les Ă©lections de mi-mandat l’annĂ©e derniĂšre,
15:39
so we just want to be flexible with our resources.
284
939945
2472
donc nous voulons ĂȘtre flexibles avec nos ressources.
15:42
So when people --
285
942441
2129
Quand les gens --
15:44
just as an example, if you go to our current terms of service
286
944594
6389
par exemple, si vous allez voir nos conditions d’utilisation,
vous chargez la page
15:51
and you bring the page up,
287
951007
1641
15:52
and you're wondering about abuse and harassment that you just received
288
952672
3682
et vous vous interrogez
sur les abus, le harcÚlement dont vous avez été victime
15:56
and whether it was against our terms of service to report it,
289
956378
3634
et si cela va à l’encontre de nos conditions d’utilisation
pour les signaler,
16:00
the first thing you see when you open that page
290
960036
2559
la premiĂšre chose que vous voyez en ouvrant cette page
16:02
is around intellectual property protection.
291
962619
3088
concerne la protection de la propriété intellectuelle.
16:06
You scroll down and you get to abuse, harassment
292
966504
5323
Si vous allez plus bas, vous arrivez aux abus et au harcĂšlement
16:11
and everything else that you might be experiencing.
293
971851
2382
et tout ce Ă  quoi vous pourriez faire face.
16:14
So I don't know how that happened over the company's history,
294
974257
3195
J’ignore comment cela s’est passĂ© dans l’histoire de l’entreprise
16:17
but we put that above the thing that people want
295
977476
4797
mais nous avons placé cela au-dessus de ce au sujet de quoi les gens veulent
16:24
the most information on and to actually act on.
296
984146
3222
le plus d’informations et une prise de mesures.
16:27
And just our ordering shows the world what we believed was important.
297
987392
5241
L’ordre montre au monde ce que nous pensions important.
16:32
So we're changing all that.
298
992657
2881
Nous changeons tout cela.
16:35
We're ordering it the right way,
299
995562
1563
Nous réordonnons cela comme il faut
16:37
but we're also simplifying the rules so that they're human-readable
300
997149
3451
mais nous simplifions aussi les rùgles pour qu’elles soient intelligibles
16:40
so that people can actually understand themselves
301
1000624
4067
et que les gens puissent comprendre d’eux-mĂȘmes
16:44
when something is against our terms and when something is not.
302
1004715
3448
quand une chose va ou non à l’encontre de nos conditions d’utilisation.
16:48
And then we're making --
303
1008187
2161
Puis nous faisons --
16:50
again, our big focus is on removing the burden of work from the victims.
304
1010372
5200
de nouveau, nous mettons l’accent sur le fait de soulager les victimes
de la charge de travail.
16:55
So that means push more towards technology,
305
1015596
3734
Cela signifie de délester plus de travail sur la technologie
16:59
rather than humans doing the work --
306
1019354
1873
plutĂŽt qu’il soit rĂ©alisĂ© par des humains --
17:01
that means the humans receiving the abuse
307
1021251
2413
que ce soit les humains victimes d’abus
17:03
and also the humans having to review that work.
308
1023688
3026
ainsi que les humains devant les examiner.
17:06
So we want to make sure
309
1026738
1673
Nous voulons nous assurer
17:08
that we're not just encouraging more work
310
1028435
2841
de ne pas seulement encourager plus de travail
17:11
around something that's super, super negative,
311
1031300
2629
autour de quelque chose de trÚs, trÚs négatif
17:13
and we want to have a good balance between the technology
312
1033953
2674
et nous voulons avoir un Ă©quilibre entre la technologie
17:16
and where humans can actually be creative,
313
1036651
2852
et lĂ  oĂč les humains peuvent ĂȘtre crĂ©atifs,
17:19
which is the judgment of the rules,
314
1039527
3090
c’est-Ă -dire l’apprĂ©ciation des rĂšgles
17:22
and not just all the mechanical stuff of finding and reporting them.
315
1042641
3267
et pas seulement l’aspect mĂ©canique : la recherche et le signalement.
17:25
So that's how we think about it.
316
1045932
1530
VoilĂ  comment nous voyons cela.
17:27
CA: I'm curious to dig in more about what you said.
317
1047486
2406
CA : Je suis curieux de creuser ce que vous avez dit.
17:29
I mean, I love that you said you are looking for ways
318
1049916
2605
J’aime que vous ayez dit que vous cherchiez des moyens
17:32
to re-tweak the fundamental design of the system
319
1052545
3462
de remettre au point la conception du systĂšme
17:36
to discourage some of the reactive behavior, and perhaps --
320
1056031
4875
pour dĂ©courager des comportements rĂ©actifs et peut-ĂȘtre --
17:40
to use Tristan Harris-type language --
321
1060930
2705
pour utiliser un langage Ă  la Tristan Harris --
17:43
engage people's more reflective thinking.
322
1063659
4288
motiver la pensée plus réflexive des gens.
17:47
How far advanced is that?
323
1067971
1854
À quel stade en est-ce ?
17:49
What would alternatives to that "like" button be?
324
1069849
4305
Quelles seraient des alternatives au bouton « j’aime » ?
17:55
JD: Well, first and foremost,
325
1075518
3575
JD : Avant tout,
17:59
my personal goal with the service is that I believe fundamentally
326
1079117
5753
mon objectif personnel avec le service est que je crois fondamentalement
18:04
that public conversation is critical.
327
1084894
2702
qu’une conversation publique est essentielle.
18:07
There are existential problems facing the world
328
1087620
2647
Le monde fait face Ă  des problĂšmes existentiels --
18:10
that are facing the entire world, not any one particular nation-state,
329
1090291
4163
le monde entier y fait face, pas un État-nation en particulier --
18:14
that global public conversation benefits.
330
1094478
2649
auxquels une conversation publique bénéficie.
18:17
And that is one of the unique dynamics of Twitter,
331
1097151
2372
C’est l’une des dynamiques uniques à Twitter :
18:19
that it is completely open,
332
1099547
1814
c’est entiùrement ouvert,
18:21
it is completely public,
333
1101385
1596
c’est entiùrement public,
18:23
it is completely fluid,
334
1103005
1399
c’est complùtement fluide
18:24
and anyone can see any other conversation and participate in it.
335
1104428
4038
et tout le monde peut voir et participer Ă  toutes les conversations.
18:28
So there are conversations like climate change.
336
1108490
2206
Il y a des conversations comme le changement climatique,
18:30
There are conversations like the displacement in the work
337
1110720
2682
les déplacements dans le travail
18:33
through artificial intelligence.
338
1113426
2000
via l’intelligence artificielle,
18:35
There are conversations like economic disparity.
339
1115450
3006
la disparité économique.
18:38
No matter what any one nation-state does,
340
1118480
2765
Peu importe ce qu’un État-nation fait,
18:41
they will not be able to solve the problem alone.
341
1121269
2421
il ne pourra pas résoudre le problÚme seul.
18:43
It takes coordination around the world,
342
1123714
2643
Cela nécessite une coordination à travers le monde
18:46
and that's where I think Twitter can play a part.
343
1126381
3047
et c’est là que je pense que Twitter peut jouer un rîle.
18:49
The second thing is that Twitter, right now, when you go to it,
344
1129452
5642
La deuxiùme chose est qu’actuellement, quand vous allez sur Twitter,
18:55
you don't necessarily walk away feeling like you learned something.
345
1135118
3746
vous n’en partez pas nĂ©cessairement
avec le sentiment d’avoir appris quelque chose.
18:58
Some people do.
346
1138888
1276
Pour certains, c’est le cas.
19:00
Some people have a very, very rich network,
347
1140188
3107
Certains ont un réseau trÚs, trÚs riche,
19:03
a very rich community that they learn from every single day.
348
1143319
3117
une communauté trÚs riche et ils apprennent chaque jour.
19:06
But it takes a lot of work and a lot of time to build up to that.
349
1146460
3691
Mais il faut beaucoup de travail et de temps pour Ă©tablir cela.
19:10
So we want to get people to those topics and those interests
350
1150175
3448
Nous voulons que les gens en viennent Ă  ces sujets et centres d’intĂ©rĂȘt
19:13
much, much faster
351
1153647
1579
bien plus rapidement
19:15
and make sure that they're finding something that,
352
1155250
2566
et nous assurer qu’ils trouvent quelque chose,
19:18
no matter how much time they spend on Twitter --
353
1158728
2360
peu importe le temps qu’ils passent sur Twitter --
19:21
and I don't want to maximize the time on Twitter,
354
1161112
2358
je ne veux pas maximiser le temps sur Twitter,
19:23
I want to maximize what they actually take away from it
355
1163494
2910
je veux maximiser ce qu’ils en tirent
19:26
and what they learn from it, and --
356
1166428
2030
et ce qu’ils y apprennent...
19:29
CA: Well, do you, though?
357
1169598
1328
CA : Est-ce vraiment le cas ?
19:30
Because that's the core question that a lot of people want to know.
358
1170950
3244
C’est la question principale Ă  laquelle les gens veulent une rĂ©ponse.
19:34
Surely, Jack, you're constrained, to a huge extent,
359
1174218
3638
Certainement, Jack, vous ĂȘtes considĂ©rablement contraint
19:37
by the fact that you're a public company,
360
1177880
2007
par le fait d’ĂȘtre une entreprise privĂ©e,
19:39
you've got investors pressing on you,
361
1179911
1774
des investisseurs font pression sur vous,
19:41
the number one way you make your money is from advertising --
362
1181709
3559
la façon principale dont vous gagnez de l’argent, c’est la publicitĂ© --
19:45
that depends on user engagement.
363
1185292
2772
cela dĂ©pend de l’engagement des utilisateurs.
19:48
Are you willing to sacrifice user time, if need be,
364
1188088
4700
Êtes-vous prĂȘt Ă  sacrifier le temps des utilisateurs, si besoin est,
19:52
to go for a more reflective conversation?
365
1192812
3729
pour vous diriger vers une conversation plus réflexive ?
19:56
JD: Yeah; more relevance means less time on the service,
366
1196565
3111
JD : Plus de pertinence signifie moins de temps sur le service
19:59
and that's perfectly fine,
367
1199700
1937
et c’est trùs bien
20:01
because we want to make sure that, like, you're coming to Twitter,
368
1201661
3099
car je veux m’assurer que vous veniez sur Twitter
20:04
and you see something immediately that you learn from and that you push.
369
1204784
4520
et que vous voyiez immédiatement
quelque chose Ă  apprendre et qui vous fait avancer.
20:09
We can still serve an ad against that.
370
1209328
3420
Nous pouvons toujours placer une annonce lĂ -dessus.
20:12
That doesn't mean you need to spend any more time to see more.
371
1212772
2921
Vous n’avez pas à passer plus de temps pour voir plus.
20:15
The second thing we're looking at --
372
1215717
1733
Secondement, nous considérons...
20:17
CA: But just -- on that goal, daily active usage,
373
1217474
2698
CA : Sur cet objectif, l’utilisation active quotidienne,
20:20
if you're measuring that, that doesn't necessarily mean things
374
1220196
3245
si vous mesurez cela, cela ne signifie pas que ce sont des choses
20:23
that people value every day.
375
1223465
1738
que les gens apprécient chaque jour.
20:25
It may well mean
376
1225227
1161
20:26
things that people are drawn to like a moth to the flame, every day.
377
1226412
3306
Ce pourrait ĂȘtre des choses les attirant tels des papillons vers une flamme.
20:29
We are addicted, because we see something that pisses us off,
378
1229742
3022
Nous sommes accros car nous voyons quelque chose qui nous Ă©nerve,
20:32
so we go in and add fuel to the fire,
379
1232788
3178
nous ajoutons de l’huile sur le feu,
20:35
and the daily active usage goes up,
380
1235990
1927
l’utilisation active quotidienne augmente,
20:37
and there's more ad revenue there,
381
1237941
1715
il y a plus de revenus publicitaires
20:39
but we all get angrier with each other.
382
1239680
2752
mais nous sommes tous plus en colĂšre envers les autres.
20:42
How do you define ...
383
1242456
2509
Comme définissez-vous...
20:44
"Daily active usage" seems like a really dangerous term to be optimizing.
384
1244989
4126
« Utilisation active quotidienne » semble ĂȘtre un terme dangereux Ă  optimiser.
20:49
(Applause)
385
1249139
5057
(Applaudissements)
20:54
JD: Taken alone, it is,
386
1254220
1268
JD : Tout seul, ça l’est,
20:55
but you didn't let me finish the other metric,
387
1255512
2346
mais vous ne m’avez pas laissĂ© finir l’autre mĂ©trique :
20:57
which is, we're watching for conversations
388
1257882
3727
nous observons les conversations
21:01
and conversation chains.
389
1261633
2129
et les chaĂźnes de conversations.
21:03
So we want to incentivize healthy contribution back to the network,
390
1263786
5076
Nous voulons encourager des contributions saines pour le réseau
21:08
and what we believe that is is actually participating in conversation
391
1268886
4181
et ce que nous croyons que c'est, c’est la participation à une conversation
21:13
that is healthy,
392
1273091
1197
qui est saine,
21:14
as defined by those four indicators I articulated earlier.
393
1274312
5037
telle que définie par ces quatre indicateurs
que j’ai prĂ©sentĂ©s plus tĂŽt.
21:19
So you can't just optimize around one metric.
394
1279373
2657
Vous ne pouvez pas optimiser une seule métrique.
21:22
You have to balance and look constantly
395
1282054
2752
Il faut un équilibre et constamment considérer
21:24
at what is actually going to create a healthy contribution to the network
396
1284830
4083
ce qui va créer une contribution saine pour le réseau
21:28
and a healthy experience for people.
397
1288937
2341
et une expérience saine pour les gens.
21:31
Ultimately, we want to get to a metric
398
1291302
1866
Finalement, nous voulons établir une métrique
21:33
where people can tell us, "Hey, I learned something from Twitter,
399
1293192
3757
oĂč les gens peuvent nous dire : « J’ai appris quelque chose sur Twitter
21:36
and I'm walking away with something valuable."
400
1296973
2167
et je repars avec une chose qui a de la valeur. »
21:39
That is our goal ultimately over time,
401
1299164
2043
C’est notre objectif ultime,
21:41
but that's going to take some time.
402
1301231
1809
mais cela va prendre du temps.
21:43
CA: You come over to many, I think to me, as this enigma.
403
1303064
5282
CA : Pour beaucoup, je pense pour moi, vous paraissez ĂȘtre une Ă©nigme.
21:48
This is possibly unfair, but I woke up the other night
404
1308370
4396
C’est peut-ĂȘtre injuste mais je me suis rĂ©veillĂ© l’autre soir
21:52
with this picture of how I found I was thinking about you and the situation,
405
1312790
3879
avec cette image qui me faisait penser Ă  vous et Ă  la situation :
21:56
that we're on this great voyage with you on this ship called the "Twittanic" --
406
1316693
6903
nous étions en voyage avec vous sur un bateau appelé « Twittanic » --
22:03
(Laughter)
407
1323620
1281
(Rires)
22:04
and there are people on board in steerage
408
1324925
4357
et il y a des gens sur l’entrepont
22:09
who are expressing discomfort,
409
1329306
2203
qui expriment un malaise
22:11
and you, unlike many other captains,
410
1331533
2543
et vous, contrairement Ă  de nombreux capitaines,
22:14
are saying, "Well, tell me, talk to me, listen to me, I want to hear."
411
1334100
3431
leur dites : « Dites-moi, parlez-moi, écoutez-moi, je veux entendre. »
22:17
And they talk to you, and they say, "We're worried about the iceberg ahead."
412
1337555
3619
Ils vous parlent et vous disent : « L’iceberg devant nous inquiĂšte. »
22:21
And you go, "You know, that is a powerful point,
413
1341198
2242
Et vous dites : « C’est une trĂšs bonne remarque
22:23
and our ship, frankly, hasn't been built properly
414
1343464
2430
et notre bateau n’a pas Ă©tĂ© fait de façon appropriĂ©e
22:25
for steering as well as it might."
415
1345918
1669
pour tourner autant que nécessaire. »
22:27
And we say, "Please do something."
416
1347611
1658
Nous disons : « Agissez. »
22:29
And you go to the bridge,
417
1349293
1411
Vous allez sur le pont
22:30
and we're waiting,
418
1350728
2295
et nous attendons,
22:33
and we look, and then you're showing this extraordinary calm,
419
1353047
4548
nous regardons et vous faites preuve d’un calme extraordinaire,
22:37
but we're all standing outside, saying, "Jack, turn the fucking wheel!"
420
1357619
3883
mais nous sommes tous dehors à dire : « Jack, allez, tournez le gouvernail ! »
22:41
You know?
421
1361526
1151
Vous voyez ?
22:42
(Laughter)
422
1362701
1335
(Rires)
22:44
(Applause)
423
1364060
2381
(Applaudissements)
22:46
I mean --
424
1366465
1166
Je veux dire --
22:47
(Applause)
425
1367655
1734
(Applaudissements)
22:49
It's democracy at stake.
426
1369413
4594
La démocratie est en jeu.
22:54
It's our culture at stake. It's our world at stake.
427
1374031
2821
Notre culture est en jeu. Notre monde est en jeu.
22:56
And Twitter is amazing and shapes so much.
428
1376876
4706
Twitter est génial et façonne tant de choses.
23:01
It's not as big as some of the other platforms,
429
1381606
2233
Ce n’est pas aussi grand que d’autres plateformes,
23:03
but the people of influence use it to set the agenda,
430
1383863
2804
mais les gens influents l’utilisent pour Ă©tablir un programme
23:06
and it's just hard to imagine a more important role in the world than to ...
431
1386691
6787
et il est difficile d’imaginer un rîle plus important au monde que de...
23:13
I mean, you're doing a brilliant job of listening, Jack, and hearing people,
432
1393502
3784
Vous faites un excellent travail en Ă©coutant et entendant les gens, Jack,
23:17
but to actually dial up the urgency and move on this stuff --
433
1397310
4445
mais Ă©levez l’état d’urgence et faites avancer les choses --
23:21
will you do that?
434
1401779
2201
ferez-vous cela ?
23:24
JD: Yes, and we have been moving substantially.
435
1404750
3815
JD : Oui, et nous avons fait des progrĂšs substantiels.
23:28
I mean, there's been a few dynamics in Twitter's history.
436
1408589
3225
Il y a eu quelques dynamiques dans l’histoire de Twitter.
23:31
One, when I came back to the company,
437
1411838
2083
Un : quand je suis revenu dans l’entreprise,
23:35
we were in a pretty dire state in terms of our future,
438
1415477
6256
nous étions dans un état déplorable concernant notre avenir
23:41
and not just from how people were using the platform,
439
1421757
4634
et pas seulement quant à la façon dont les gens utilisaient la plateforme,
23:46
but from a corporate narrative as well.
440
1426415
2047
mais aussi d’un point de vue de l’entreprise.
23:48
So we had to fix a bunch of the foundation,
441
1428486
3204
Nous avons dû réparer quelques fondations,
23:51
turn the company around,
442
1431714
1969
redresser l’entreprise,
23:53
go through two crazy layoffs,
443
1433707
3111
en passer par deux folles périodes de licenciements,
23:56
because we just got too big for what we were doing,
444
1436842
3793
car nous Ă©tions devenus trop gros pour ce que nous faisions,
24:00
and we focused all of our energy
445
1440659
2060
et nous avons concentré toute notre énergie
24:02
on this concept of serving the public conversation.
446
1442743
3508
sur ce concept qu’est servir le dĂ©bat public.
24:06
And that took some work.
447
1446275
1451
Cela a nécessité du travail.
24:07
And as we dived into that,
448
1447750
2608
En nous plongeant lĂ -dedans,
24:10
we realized some of the issues with the fundamentals.
449
1450382
2992
nous avons vu les problĂšmes avec des principes fondamentaux.
24:14
We could do a bunch of superficial things to address what you're talking about,
450
1454120
4656
Nous pouvions faire des choses superficielles
pour régler ce dont vous parlez,
24:18
but we need the changes to last,
451
1458800
1790
mais les changements doivent durer
24:20
and that means going really, really deep
452
1460614
2459
et cela signifie aller trĂšs en profondeur
24:23
and paying attention to what we started 13 years ago
453
1463097
4350
et prĂȘter attention Ă  ce que nous avons dĂ©marrĂ© il y a 13 ans
24:27
and really questioning
454
1467471
2261
et remettre en question
24:29
how the system works and how the framework works
455
1469756
2566
comment le systĂšme et la structure fonctionnent
24:32
and what is needed for the world today,
456
1472346
3833
et ce dont le monde a besoin aujourd’hui,
24:36
given how quickly everything is moving and how people are using it.
457
1476203
4024
Ă©tant donnĂ©es la rapiditĂ© Ă  laquelle tout avance et l’utilisation des gens.
24:40
So we are working as quickly as we can, but quickness will not get the job done.
458
1480251
6544
Nous travaillons aussi vite que possible,
mais la rapiditĂ© n’accomplira pas le travail.
24:46
It's focus, it's prioritization,
459
1486819
2611
C’est la concentration, la priorisation,
24:49
it's understanding the fundamentals of the network
460
1489454
2946
la compréhension des principes fondamentaux du réseau
24:52
and building a framework that scales
461
1492424
2842
et l’établissement d’une structure Ă  grande Ă©chelle
24:55
and that is resilient to change,
462
1495290
2351
et s’adaptant aux changements,
24:57
and being open about where we are and being transparent about where are
463
1497665
5429
ĂȘtre ouverts et transparents quant Ă  oĂč nous en sommes
25:03
so that we can continue to earn trust.
464
1503118
2179
afin de continuer Ă  gagner la confiance des gens.
25:06
So I'm proud of all the frameworks that we've put in place.
465
1506141
3331
Je suis fier des bases que nous avons mises en place.
25:09
I'm proud of our direction.
466
1509496
2888
Je suis fier de notre direction.
25:12
We obviously can move faster,
467
1512915
2718
Nous pouvons Ă©videmment aller plus vite,
25:15
but that required just stopping a bunch of stupid stuff we were doing in the past.
468
1515657
4719
mais cela nécessitait de mettre un terme à des trucs stupides que nous faisions.
25:21
CA: All right.
469
1521067
1164
CA : TrĂšs bien.
25:22
Well, I suspect there are many people here who, if given the chance,
470
1522255
4067
Je suppose qu’il y a beaucoup de gens ici qui, s’ils en avaient l’opportunitĂ©,
25:26
would love to help you on this change-making agenda you're on,
471
1526346
3989
aimeraient vous aider à réaliser ces changements
25:30
and I don't know if Whitney --
472
1530359
1542
et je ne sais pas si Whitney --
25:31
Jack, thank you for coming here and speaking so openly.
473
1531925
2761
Jack, merci d’ĂȘtre venu et d’avoir parlĂ© si ouvertement.
25:34
It took courage.
474
1534710
1527
Cela a nécessité du courage.
25:36
I really appreciate what you said, and good luck with your mission.
475
1536261
3384
J’apprĂ©cie ce que vous avez dit et bon courage pour votre mission.
25:39
JD: Thank you so much. Thanks for having me.
476
1539669
2095
JD : Merci beaucoup. Merci de m’avoir invitĂ©.
25:41
(Applause)
477
1541788
3322
(Applaudissements)
25:45
Thank you.
478
1545134
1159
Merci.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7