How Twitter needs to change | Jack Dorsey

183,606 views ・ 2019-06-07

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Rita Fabião Revisora: Margarida Ferreira
00:13
Chris Anderson: What worries you right now?
0
13131
2408
Chris Anderson: O que te preocupa agora?
00:15
You've been very open about lots of issues on Twitter.
1
15563
2853
Foste muito franco acerca de muitos dos problemas do Twitter.
00:18
What would be your top worry
2
18440
2299
Qual é a tua maior preocupação
00:20
about where things are right now?
3
20763
2049
acerca do estado das coisas neste momento?
00:23
Jack Dorsey: Right now, the health of the conversation.
4
23447
2929
Jack Dorsey: Neste momento é a saúde das conversas.
00:26
So, our purpose is to serve the public conversation,
5
26400
3660
O nosso propósito é estar ao serviço das conversas públicas
00:30
and we have seen a number of attacks on it.
6
30084
5056
e temos visto muitos ataques a isso.
00:35
We've seen abuse, we've seen harassment,
7
35164
2425
Temos visto insultos, intimidação,
00:37
we've seen manipulation,
8
37613
3222
temos visto manipulação,
00:40
automation, human coordination, misinformation.
9
40859
4265
automatização, coordenação humana, desinformação.
00:46
So these are all dynamics that we were not expecting
10
46134
4034
Isto são dinâmicas que não esperávamos
00:50
13 years ago when we were starting the company.
11
50192
3718
há 13 anos, quando começámos a empresa.
00:53
But we do now see them at scale,
12
53934
2664
Vemo-las agora em grande escala.
00:56
and what worries me most is just our ability to address it
13
56622
5278
O que mais me preocupa é a nossa capacidade de as abordar
01:01
in a systemic way that is scalable,
14
61924
3108
de uma forma sistemática que seja expansível,
01:05
that has a rigorous understanding of how we're taking action,
15
65056
6976
que tenha uma compreensão rigorosa de como estamos a agir,
01:12
a transparent understanding of how we're taking action
16
72056
3105
uma compreensão transparente de como estamos a agir
01:15
and a rigorous appeals process for when we're wrong,
17
75185
3101
e um rigoroso processo de recurso para quando errarmos
01:18
because we will be wrong.
18
78310
2169
porque nós vamos errar.
01:20
Whitney Pennington Rodgers: I'm really glad to hear
19
80503
2397
Whitney Pennington Rodgers: Fico feliz por ouvir
01:22
that that's something that concerns you,
20
82924
1928
que isso é uma coisa que te preocupa
01:24
because I think there's been a lot written about people
21
84876
2630
porque escreveu-se tanto sobre pessoas
01:27
who feel they've been abused and harassed on Twitter,
22
87530
2477
que se sentiram agredidas e intimidadas no Twitter
em especial, mulheres e mulheres de cor,
01:30
and I think no one more so than women and women of color
23
90031
4102
01:34
and black women.
24
94157
1170
mulheres negras.
01:35
And there's been data that's come out --
25
95351
1913
Houve dados apresentados.
01:37
Amnesty International put out a report a few months ago
26
97288
2909
A Amnistia Internacional divulgou um relatório há uns meses
01:40
where they showed that a subset of active black female Twitter users
27
100221
4480
em que mostraram que um subgrupo de utilizadoras negras ativas do Twitter
01:44
were receiving, on average, one in 10 of their tweets
28
104725
3456
em cada 10 "tweets" que recebiam
em média, um deles continha qualquer tipo de intimidação.
01:48
were some form of harassment.
29
108205
2099
01:50
And so when you think about health for the community on Twitter,
30
110328
3907
Por isso, quando pensas na saúde da comunidade no Twitter,
01:54
I'm interested to hear, "health for everyone,"
31
114259
4024
eu gostava de ouvir "saúde para todos".
01:58
but specifically: How are you looking to make Twitter a safe space
32
118307
3125
Especificamente, como estás a tentar tornar o Twitter um espaço seguro
02:01
for that subset, for women, for women of color and black women?
33
121456
4164
para esse subgrupo, para as mulheres, e para as mulheres de cor?
02:05
JD: Yeah.
34
125644
1164
JD: Sim, é uma situação terrível
02:06
So it's a pretty terrible situation
35
126832
2643
02:09
when you're coming to a service
36
129499
1619
quando nos juntamos a um serviço
02:11
that, ideally, you want to learn something about the world,
37
131142
4321
em que, idealmente, queremos aprender algo sobre o mundo
02:15
and you spend the majority of your time reporting abuse, receiving abuse,
38
135487
5443
e passamos a maior parte do tempo a denunciar insultos, a receber insultos,
02:20
receiving harassment.
39
140954
1804
a receber intimidações.
02:23
So what we're looking most deeply at is just the incentives
40
143373
6321
O que nós estamos a analisar com mais atenção são os incentivos
02:29
that the platform naturally provides and the service provides.
41
149718
3823
que a plataforma providencia naturalmente e os serviços que providencia.
02:34
Right now, the dynamic of the system makes it super-easy to harass
42
154262
4577
Agora a dinâmica do sistema faz com que seja muito fácil intimidar
02:38
and to abuse others through the service,
43
158863
3664
e insultar os outros através do serviço.
02:42
and unfortunately, the majority of our system in the past
44
162551
3262
Infelizmente, a maior parte do nosso sistema no passado
02:45
worked entirely based on people reporting harassment and abuse.
45
165837
5596
baseava-se em que as pessoas reportavam as intimidações e insultos.
02:51
So about midway last year, we decided that we were going to apply
46
171457
5075
Em meados do ano passado, decidimos que íamos utilizar
02:56
a lot more machine learning, a lot more deep learning to the problem,
47
176556
3982
muito mais soluções de aprendizagem de máquinas
e de aprendizagem profunda
03:00
and try to be a lot more proactive around where abuse is happening,
48
180562
4538
e tentar ser mais proativos quando os insultos acontecem,
03:05
so that we can take the burden off the victim completely.
49
185124
3960
para tirarmos completamente o peso de cima da vítima.
03:09
And we've made some progress recently.
50
189108
2435
Fizemos alguns progressos recentemente.
03:11
About 38 percent of abusive tweets are now proactively identified
51
191567
6689
Cerca de 38% dos "tweets" insultuosos são agora identificados proativamente
03:18
by machine learning algorithms
52
198280
1715
por algoritmos automáticos
03:20
so that people don't actually have to report them.
53
200019
2334
e as pessoas já não têm de os reportar.
03:22
But those that are identified are still reviewed by humans,
54
202377
3305
Mas os que são identificados ainda são revistos por pessoas,
03:25
so we do not take down content or accounts without a human actually reviewing it.
55
205706
5384
por isso não tiramos conteúdo ou contas sem a revisão de um ser humano.
03:31
But that was from zero percent just a year ago.
56
211114
2759
Mas isto era 0% há um ano.
03:33
So that meant, at that zero percent,
57
213897
1931
Ou seja, com 0%,
03:35
every single person who received abuse had to actually report it,
58
215852
3650
cada pessoa que fosse insultada tinha de os reportar,
03:39
which was a lot of work for them, a lot of work for us
59
219526
3579
o que lhes dava muito trabalho, e nos dava muito trabalho
03:43
and just ultimately unfair.
60
223129
2018
e, afinal de contas, era injusto.
03:46
The other thing that we're doing is making sure that we, as a company,
61
226528
3780
O outro aspeto é que estamos a assegurar que nós, como empresa,
03:50
have representation of all the communities that we're trying to serve.
62
230332
3333
temos representadas todas as comunidades que estamos a tentar servir.
03:53
We can't build a business that is successful
63
233689
2159
Não podemos construir um negócio de sucesso
03:55
unless we have a diversity of perspective inside of our walls
64
235872
3300
se não tivermos diversidade de perspetivas dentro da nossa casa
03:59
that actually feel these issues every single day.
65
239196
3732
onde se sentem esses problemas todos os dias.
04:02
And that's not just with the team that's doing the work,
66
242952
3738
E isso não envolve só a equipa que está a fazer o trabalho
04:06
it's also within our leadership as well.
67
246714
2096
mas também toda a direção.
04:08
So we need to continue to build empathy for what people are experiencing
68
248834
5757
Temos de continuar a criar empatia com o que as pessoas estão a experimentar
04:14
and give them better tools to act on it
69
254615
3316
e dar-lhes melhores ferramentas para agirem
04:17
and also give our customers a much better and easier approach
70
257955
4252
e também dar aos nossos clientes uma abordagem melhor e mais fácil
04:22
to handle some of the things that they're seeing.
71
262231
2382
para lidar com algumas coisas que estão a ver.
04:24
So a lot of what we're doing is around technology,
72
264637
3266
Muito do que fazemos está ligado à tecnologia
04:27
but we're also looking at the incentives on the service:
73
267927
4308
mas também estamos a olhar para os incentivos do serviço:
04:32
What does Twitter incentivize you to do when you first open it up?
74
272259
5183
O que é que o Twitter vos incentiva a fazer quando o abrem?
04:37
And in the past,
75
277466
1294
No passado,
04:40
it's incented a lot of outrage, it's incented a lot of mob behavior,
76
280670
5544
incentivou muita indignação, incentivou muita violência de grupo,
04:46
it's incented a lot of group harassment.
77
286238
2459
incentivou muita intimidação a grupos.
04:48
And we have to look a lot deeper at some of the fundamentals
78
288721
3648
Temos de olhar mais profundamente para alguns dos princípios
04:52
of what the service is doing to make the bigger shifts.
79
292393
2958
do que o serviço está a fazer para conseguir mudanças maiores.
04:55
We can make a bunch of small shifts around technology, as I just described,
80
295375
4031
Podemos fazer pequenas mudanças a nível tecnológico, como já descrevi,
04:59
but ultimately, we have to look deeply at the dynamics in the network itself,
81
299430
4386
mas temos de olhar profundamente para a dinâmica da rede em si
05:03
and that's what we're doing.
82
303840
1368
e é o que estamos a fazer.
05:05
CA: But what's your sense --
83
305232
2060
CA: Mas o que é que achas?
05:07
what is the kind of thing that you might be able to change
84
307316
3963
Que tipo de coisas achas que vão conseguir mudar
05:11
that would actually fundamentally shift behavior?
85
311303
2749
que sejam uma mudança de comportamento fundamental?
05:15
JD: Well, one of the things --
86
315386
1480
JD: Bem, uma das coisas, por exemplo.
05:16
we started the service with this concept of following an account,
87
316890
5340
Começámos o serviço com o conceito de seguir uma conta,
05:22
as an example,
88
322254
1725
05:24
and I don't believe that's why people actually come to Twitter.
89
324003
4349
mas eu não acredito que seja para isso que as pessoas usam o Twitter.
05:28
I believe Twitter is best as an interest-based network.
90
328376
4857
Acho que o Twitter funciona melhor como uma rede social baseada em interesses.
05:33
People come with a particular interest.
91
333257
3453
As pessoas vêm com um determinado interesse.
05:36
They have to do a ton of work to find and follow the related accounts
92
336734
3487
É trabalhoso encontrar e seguir as contas
05:40
around those interests.
93
340245
1405
relacionadas com esses interesses.
05:42
What we could do instead is allow you to follow an interest,
94
342217
3397
O que nós podemos fazer é permitir seguir um interesse,
05:45
follow a hashtag, follow a trend,
95
345638
2103
seguir uma "hashtag", uma tendência,
05:47
follow a community,
96
347765
1754
seguir uma comunidade,
05:49
which gives us the opportunity to show all of the accounts,
97
349543
4637
o que nos dá a oportunidade de mostrar todas as contas,
05:54
all the topics, all the moments, all the hashtags
98
354204
3323
todos os temas, todos os momentos, todas as "hashtags"
05:57
that are associated with that particular topic and interest,
99
357551
3992
que estão associadas com esse tópico ou interesse em particular,
06:01
which really opens up the perspective that you see.
100
361567
4600
o que abre a perspetiva do que vemos.
06:06
But that is a huge fundamental shift
101
366191
2157
Isto é uma enorme mudança
06:08
to bias the entire network away from just an account bias
102
368372
3792
fazer com que toda a rede deixe de estar ligada às contas
06:12
towards a topics and interest bias.
103
372188
2587
e passe a estar ligada a tópicos e interesses.
06:15
CA: Because isn't it the case
104
375283
3148
CA: Mas não se dá o caso
de que uma das razões pela qual vocês têm tanto conteúdo
06:19
that one reason why you have so much content on there
105
379375
3541
06:22
is a result of putting millions of people around the world
106
382940
3591
é o resultado de pôr milhões de pessoas do mundo inteiro
06:26
in this kind of gladiatorial contest with each other
107
386555
3142
nesta competição de gladiadores uns contra os outros
06:29
for followers, for attention?
108
389721
2090
para ganhar seguidores, para conquistar atenção?
06:31
Like, from the point of view of people who just read Twitter,
109
391835
4117
Do ponto de vista das pessoas que só leem o Twitter,
06:35
that's not an issue,
110
395976
1155
isso não é um problema
06:37
but for the people who actually create it, everyone's out there saying,
111
397155
3350
mas para quem o criou, todos dizem:
06:40
"You know, I wish I had a few more 'likes,' followers, retweets."
112
400529
3236
"Gostava de ter mais 'likes', mais seguidores, mais 'retweets'."
06:43
And so they're constantly experimenting,
113
403789
2148
Estão sempre a experimentar,
06:45
trying to find the path to do that.
114
405961
1961
a tentar encontrar um caminho para isso.
06:47
And what we've all discovered is that the number one path to do that
115
407946
4126
Descobrimos que o caminho principal para isso
06:52
is to be some form of provocative,
116
412096
3406
é algum tipo de provocação detestável, eloquentemente detestável.
06:55
obnoxious, eloquently obnoxious,
117
415526
2980
06:58
like, eloquent insults are a dream on Twitter,
118
418530
3516
Os insultos eloquentes são um sonho no Twitter,
07:02
where you rapidly pile up --
119
422070
2603
onde rapidamente se acumulam
07:04
and it becomes this self-fueling process of driving outrage.
120
424697
4608
e se tornam neste processo de autoalimentação da indignação.
07:09
How do you defuse that?
121
429329
2351
Como se pode acabar com isso?
07:12
JD: Yeah, I mean, I think you're spot on,
122
432624
2947
JD: Acho que é exatamente isso
07:15
but that goes back to the incentives.
123
435595
1886
mas voltamos de novo aos incentivos.
07:17
Like, one of the choices we made in the early days was
124
437505
2632
Uma das nossas escolhas iniciais
foi mostrar o número de pessoas que nos seguiam.
07:20
we had this number that showed how many people follow you.
125
440161
4701
07:24
We decided that number should be big and bold,
126
444886
2959
Decidimos que esse número devia ser grande e destacado
07:27
and anything that's on the page that's big and bold has importance,
127
447869
3740
e, como tudo o que é grande e destacado na página. é importante,
07:31
and those are the things that you want to drive.
128
451633
2278
essas são as coisas que queremos atingir.
07:33
Was that the right decision at the time?
129
453935
1907
Foi a decisão certa na altura?
07:35
Probably not.
130
455866
1153
Provavelmente não.
07:37
If I had to start the service again,
131
457043
1805
Se eu criasse o serviço de novo,
07:38
I would not emphasize the follower count as much.
132
458872
2398
não daria tanta ênfase ao número de seguidores.
07:41
I would not emphasize the "like" count as much.
133
461294
2295
Não daria tanta ênfase aos "likes".
07:43
I don't think I would even create "like" in the first place,
134
463613
3120
Acho que nem criaria os "likes"
07:46
because it doesn't actually push
135
466757
3267
porque não leva ao que acreditamos
07:50
what we believe now to be the most important thing,
136
470048
3179
ser a coisa mais importante,
07:53
which is healthy contribution back to the network
137
473251
3039
isto é, uma contribuição saudável na rede
07:56
and conversation to the network,
138
476314
2652
e conversas na rede,
07:58
participation within conversation,
139
478990
2072
uma participação nas conversas,
08:01
learning something from the conversation.
140
481086
2493
aprender algo com as conversas.
08:03
Those are not things that we thought of 13 years ago,
141
483603
2824
Não pensámos nestas coisas há 13 anos
08:06
and we believe are extremely important right now.
142
486451
2439
e agora acreditamos que são muito importantes.
08:08
So we have to look at how we display the follower count,
143
488914
3023
Temos de ver como exibimos o número de seguidores,
08:11
how we display retweet count,
144
491961
2365
como exibimos o número de "retweets",
08:14
how we display "likes,"
145
494350
1401
como exibimos os "likes"
08:15
and just ask the deep question:
146
495775
2254
e perguntar verdadeiramente:
08:18
Is this really the number that we want people to drive up?
147
498053
3048
É este o número a que queremos dar ênfase?
08:21
Is this the thing that, when you open Twitter,
148
501125
2545
É isto que vemos, quando abrimos o Twitter:
08:23
you see, "That's the thing I need to increase?"
149
503694
2516
"É isto que eu tenho de reforçar?"
08:26
And I don't believe that's the case right now.
150
506234
2144
Eu não acredito que agora seja esse o caso.
08:28
(Applause)
151
508402
2103
(Aplausos)
08:30
WPR: I think we should look at some of the tweets
152
510529
2352
WPR: Acho que devíamos ver alguns "tweets"
08:32
that are coming in from the audience as well.
153
512905
2169
que também estão a vir da audiência.
08:35
CA: Let's see what you guys are asking.
154
515868
2436
CA: Vamos ver o que estão a perguntar.
08:38
I mean, this is -- generally, one of the amazing things about Twitter
155
518328
3294
Isto é uma das coisas fantásticas do Twitter
08:41
is how you can use it for crowd wisdom,
156
521646
2294
é poder usá-lo para saber a opinião de um grupo,
08:43
you know, that more knowledge, more questions, more points of view
157
523964
4840
mais conhecimento, mais questões, mais pontos de vista
08:48
than you can imagine,
158
528828
1238
do que se pode imaginar
08:50
and sometimes, many of them are really healthy.
159
530090
3689
e às vezes, muito saudáveis.
08:53
WPR: I think one I saw that passed already quickly down here,
160
533803
2900
WPR: Vi um que passou rapidamente por aqui:
08:56
"What's Twitter's plan to combat foreign meddling in the 2020 US election?"
161
536717
3524
"Como vão combater a interferência estrangeira nas eleições de 2020?"
09:00
I think that's something that's an issue we're seeing
162
540265
2571
Penso que é um assunto
09:02
on the internet in general,
163
542860
1901
que estamos a ver na Internet em geral.
09:04
that we have a lot of malicious automated activity happening.
164
544785
3667
Há muita atividade automatizada maliciosa.
09:08
And on Twitter, for example, in fact, we have some work
165
548476
5373
No Twitter, de facto, temos trabalho
09:13
that's come from our friends at Zignal Labs,
166
553873
2758
dos nossos amigos na Zignal Labs
09:16
and maybe we can even see that to give us an example
167
556655
2656
e talvez possamos ver aí um exemplo do que estou a falar,
09:19
of what exactly I'm talking about,
168
559335
1927
09:21
where you have these bots, if you will,
169
561286
3204
em que temos estes "bots"
09:24
or coordinated automated malicious account activity,
170
564514
4550
ou contas com atividade automatizada maliciosa
09:29
that is being used to influence things like elections.
171
569088
2764
que estão a ser usadas para influenciar coisas como eleições.
09:31
And in this example we have from Zignal which they've shared with us
172
571876
3843
Neste exemplo da Zignal que eles partilharam connosco
09:35
using the data that they have from Twitter,
173
575743
2198
usando os dados que têm do Twitter,
09:37
you actually see that in this case,
174
577965
2441
podem ver que, neste caso,
09:40
white represents the humans -- human accounts, each dot is an account.
175
580430
4370
o branco representa seres humanos - contas humanas, cada ponto é uma conta.
09:44
The pinker it is,
176
584824
1359
Quanto mais cor-de-rosa,
09:46
the more automated the activity is.
177
586207
1740
tanto mais atividade automatizada.
09:47
And you can see how you have a few humans interacting with bots.
178
587971
5970
Podemos ver alguns seres humanos a interagir com "bots".
09:53
In this case, it's related to the election in Israel
179
593965
4419
Neste caso, está relacionado com as eleições em Israel
09:58
and spreading misinformation about Benny Gantz,
180
598408
2833
e está a espalhar desinformação acerca de Benny Gantz.
10:01
and as we know, in the end, that was an election
181
601265
2662
Como sabemos, no fim, as eleições foram ganhas por Netanyahu
10:03
that Netanyahu won by a slim margin,
182
603951
3724
por uma pequena margem
10:07
and that may have been in some case influenced by this.
183
607699
2842
que pode ter sido influenciada, nalguns casos, por isso.
10:10
And when you think about that happening on Twitter,
184
610565
2615
Quando pensamos no que está a acontecer no Twitter,
10:13
what are the things that you're doing, specifically,
185
613204
2456
o que é que vocês estão a fazer, especificamente,
10:15
to ensure you don't have misinformation like this spreading in this way,
186
615684
3702
para assegurar que a desinformação não se espalhe assim,
10:19
influencing people in ways that could affect democracy?
187
619410
4181
influenciando pessoas de formas que afetam a democracia?
10:23
JD: Just to back up a bit,
188
623615
1771
JD: Voltando um pouco atrás,
10:25
we asked ourselves a question:
189
625410
2975
perguntámo-nos o seguinte:
10:28
Can we actually measure the health of a conversation,
190
628409
3816
Podemos medir a saúde de uma conversa
10:32
and what does that mean?
191
632249
1288
e o que é que isso significa?
10:33
And in the same way that you have indicators
192
633561
3382
Tal como temos indicadores
10:36
and we have indicators as humans in terms of are we healthy or not,
193
636967
3467
e temos indicadores humanos para ver se estamos saudáveis ou não
10:40
such as temperature, the flushness of your face,
194
640458
4658
tais como a temperatura, a cor da cara,
10:45
we believe that we could find the indicators of conversational health.
195
645140
4560
acreditamos que podíamos encontrar indicadores da saúde das conversas.
10:49
And we worked with a lab called Cortico at MIT
196
649724
3843
Trabalhámos com um laboratório chamado Cortico no MIT
10:54
to propose four starter indicators
197
654479
6091
para propor quatro indicadores iniciais
11:00
that we believe we could ultimately measure on the system.
198
660594
3670
que acreditamos que podem fazer medições no sistema.
11:05
And the first one is what we're calling shared attention.
199
665249
5604
O primeiro é o que chamamos "atenção partilhada".
11:10
It's a measure of how much of the conversation is attentive
200
670877
3581
É uma medida de quanto da conversa
está atenta ao mesmo assunto e não se dispersa.
11:14
on the same topic versus disparate.
201
674482
2630
11:17
The second one is called shared reality,
202
677739
2783
O segundo chama-se "realidade partilhada"
11:21
and this is what percentage of the conversation
203
681217
2259
e é a percentagem da conversa
11:23
shares the same facts --
204
683500
2005
que partilha os mesmo factos
11:25
not whether those facts are truthful or not,
205
685529
3113
- não se esses factos são verdadeiros ou não
11:28
but are we sharing the same facts as we converse?
206
688666
3009
mas se estamos a partilhar os mesmos factos nas conversas.
11:32
The third is receptivity:
207
692235
2353
O terceiro é a "recetividade":
11:34
How much of the conversation is receptive or civil
208
694612
3959
Quanto da conversa é recetivo ou cívico
11:38
or the inverse, toxic?
209
698595
2944
ou, pelo contrário, é tóxico?
11:42
And then the fourth is variety of perspective.
210
702213
3222
E o quarto é a "variedade de perspetiva".
11:45
So, are we seeing filter bubbles or echo chambers,
211
705459
3145
Estaremos a ver bolhas de filtro ou câmaras de eco,
11:48
or are we actually getting a variety of opinions
212
708628
3057
ou estaremos a ter uma variedade de opiniões
11:51
within the conversation?
213
711709
1635
dentro da conversa?
11:53
And implicit in all four of these is the understanding that,
214
713368
4018
Implícito nestes quatro é a compreensão
11:57
as they increase, the conversation gets healthier and healthier.
215
717410
3390
de que, à medida que aumentam, a conversa torna-se mais saudável.
12:00
So our first step is to see if we can measure these online,
216
720824
4869
Então, o primeiro passo é tentar medi-los "online",
12:05
which we believe we can.
217
725717
1308
o que achamos que conseguimos.
12:07
We have the most momentum around receptivity.
218
727049
3167
A maior dinâmica é em torno da recetividade.
12:10
We have a toxicity score, a toxicity model, on our system
219
730240
4317
Temos uma pontuação de toxicidade e um modelo de toxicidade, no sistema,
12:14
that can actually measure whether you are likely to walk away
220
734581
4124
que consegue medir se é provável que alguém se afaste
12:18
from a conversation that you're having on Twitter
221
738729
2313
de uma conversa que está a ter no Twitter
porque sente que é tóxica,
12:21
because you feel it's toxic,
222
741066
1633
12:22
with some pretty high degree.
223
742723
2512
a um nível muito alto.
12:26
We're working to measure the rest,
224
746369
2199
Estamos a tentar medir o resto.
12:28
and the next step is,
225
748592
1964
O próximo passo é,
12:30
as we build up solutions,
226
750580
3359
enquanto construímos soluções,
12:33
to watch how these measurements trend over time
227
753963
3491
ver como estas medidas se comportam ao longo do tempo
12:37
and continue to experiment.
228
757478
1873
e continuar a experimentar.
12:39
And our goal is to make sure that these are balanced,
229
759375
4041
O nosso objetivo é assegurar que estão equilibradas
12:43
because if you increase one, you might decrease another.
230
763440
3066
porque, se aumentamos uma, poderemos diminuir a outra.
12:46
If you increase variety of perspective,
231
766530
2147
Se aumentarmos a variedade de perspetiva,
12:48
you might actually decrease shared reality.
232
768701
3091
poderemos diminuir a realidade partilhada.
12:51
CA: Just picking up on some of the questions flooding in here.
233
771816
4989
CA: Agarrando numa das perguntas que estão a chegar em massa...
12:56
JD: Constant questioning.
234
776829
1271
JD: Questionamento constante.
12:58
CA: A lot of people are puzzled why,
235
778996
3620
CA: Muitas pessoas estão perplexas
13:02
like, how hard is it to get rid of Nazis from Twitter?
236
782640
4247
perguntando porque é que é difícil eliminar os nazis do Twitter?
13:08
JD: (Laughs)
237
788309
1322
13:09
So we have policies around violent extremist groups,
238
789655
6995
JD: Temos diretrizes relativas a grupos extremistas violentos
13:16
and the majority of our work and our terms of service
239
796674
4426
e a maior parte do nosso trabalho e das nossas condições de funcionamento
13:21
works on conduct, not content.
240
801124
3729
estão ligados à conduta, não ao conteúdo.
13:24
So we're actually looking for conduct.
241
804877
2551
Estamos a olhar para a conduta.
13:27
Conduct being using the service
242
807452
3014
Conduta é usar o serviço
13:30
to repeatedly or episodically harass someone,
243
810490
3867
para intimidar alguém repetidamente ou de forma pontual,
13:34
using hateful imagery
244
814381
2493
usar imagens de ódio
13:36
that might be associated with the KKK
245
816898
2106
que poderão estar associadas ao KKK
13:39
or the American Nazi Party.
246
819028
3281
ou ao Partido Nazi Americano.
13:42
Those are all things that we act on immediately.
247
822333
4156
Nós agimos imediatamente contra estas coisas.
13:47
We're in a situation right now where that term is used fairly loosely,
248
827002
5452
Estamos numa situação agora em que esse termo é usado de forma vaga
13:52
and we just cannot take any one mention of that word
249
832478
5313
mas nós não podemos considerar qualquer pessoa
13:57
accusing someone else
250
837815
2117
que use essa palavra para acusar outra pessoa
13:59
as a factual indication that they should be removed from the platform.
251
839956
3755
como uma indicação factual de que devem ser retirados da plataforma.
14:03
So a lot of our models are based around, number one:
252
843735
2627
Muitos dos nossos modelos são baseados em, número um:
14:06
Is this account associated with a violent extremist group?
253
846386
3140
Esta conta está associada a um grupo extremista violento?
14:09
And if so, we can take action.
254
849550
1983
Se sim, podemos agir.
14:11
And we have done so on the KKK and the American Nazi Party and others.
255
851557
3852
Fizemos isto com o KKK, o Partido Nazi Americano e outros.
14:15
And number two: Are they using imagery or conduct
256
855433
4183
Número dois: Estão a usar imagens ou conduta
14:19
that would associate them as such as well?
257
859640
2372
que também os associaria a tal?
14:22
CA: How many people do you have working on content moderation
258
862416
2932
CA: Quantas pessoas têm a trabalhar na moderação de conteúdos, para ver isso?
14:25
to look at this?
259
865372
1250
14:26
JD: It varies.
260
866646
1496
JD: Depende.
14:28
We want to be flexible on this,
261
868166
1595
Queremos ser flexíveis nisto,
14:29
because we want to make sure that we're, number one,
262
869785
2646
porque queremos ter a certeza de que estamos, número um,
14:32
building algorithms instead of just hiring massive amounts of people,
263
872455
4424
a construir algoritmos em vez de contratar imensas pessoas
14:36
because we need to make sure that this is scalable,
264
876903
2824
porque temos de ter a certeza que podemos alargar isso
14:39
and there are no amount of people that can actually scale this.
265
879751
3454
e não há nenhum número de pessoas que consiga alargar isso.
14:43
So this is why we've done so much work around proactive detection of abuse
266
883229
6629
Foi por isso que fizemos tanto trabalho à volta da deteção proativa de insultos
14:49
that humans can then review.
267
889882
1391
que possam ser revistos por pessoass.
14:51
We want to have a situation
268
891297
2861
Queremos ter uma situação
em que haja algoritmos constantemente a filtrar cada "tweet"
14:54
where algorithms are constantly scouring every single tweet
269
894182
3741
14:57
and bringing the most interesting ones to the top
270
897947
2342
e a destacar os mais interessantes
15:00
so that humans can bring their judgment to whether we should take action or not,
271
900313
3902
para que seres humanos possam julgar se devemos agir ou não,
com base nas nossas condições de serviço.
15:04
based on our terms of service.
272
904239
1524
15:05
WPR: But there's not an amount of people that are scalable,
273
905787
2803
WPR: Não há um número de pessoas que possa aumentar
15:08
but how many people do you currently have monitoring these accounts,
274
908614
3497
mas quantas pessoas têm vocês agora a monitorizar essas contas
15:12
and how do you figure out what's enough?
275
912135
2546
e como conseguem perceber quando esse número é suficiente?
15:14
JD: They're completely flexible.
276
914705
2272
JD: É uma coisa completamente flexível.
15:17
Sometimes we associate folks with spam.
277
917001
2941
Às vezes associamos pessoas a "spam".
15:19
Sometimes we associate folks with abuse and harassment.
278
919966
3845
Às vezes associamos pessoas a insultos e intimidação.
15:23
We're going to make sure that we have flexibility in our people
279
923835
3062
Vamos garantir que temos flexibilidade quanto às pessoas que temos
15:26
so that we can direct them at what is most needed.
280
926921
2350
para as direcionarmos para onde são precisas.
15:29
Sometimes, the elections.
281
929295
1204
Às vezes, para as eleições.
15:30
We've had a string of elections in Mexico, one coming up in India,
282
930523
4927
Tivemos uma série de eleições no México,
vai haver uma na Índia.
15:35
obviously, the election last year, the midterm election,
283
935474
4447
Obviamente, as eleições do ano passado, as eleições intercalares
15:39
so we just want to be flexible with our resources.
284
939945
2472
por isso queremos ser flexíveis com os recursos.
15:42
So when people --
285
942441
2129
Quando as pessoas,
15:44
just as an example, if you go to our current terms of service
286
944594
6389
por exemplo, forem aos nossos termos de serviço atuais
15:51
and you bring the page up,
287
951007
1641
e abrirem a página
15:52
and you're wondering about abuse and harassment that you just received
288
952672
3682
e estiverem a pensar nos insultos ou intimidações que receberem,
15:56
and whether it was against our terms of service to report it,
289
956378
3634
se isso vai contra os nossos termos de serviço, para o denunciarem,
16:00
the first thing you see when you open that page
290
960036
2559
a primeira coisa que veem ao abrir a página
16:02
is around intellectual property protection.
291
962619
3088
é sobre a proteção da propriedade intelectual.
16:06
You scroll down and you get to abuse, harassment
292
966504
5323
A seguir, veem a parte dos insultos, da intimidação
16:11
and everything else that you might be experiencing.
293
971851
2382
e de tudo a que podem estar sujeitos.
16:14
So I don't know how that happened over the company's history,
294
974257
3195
Não sei como isso aconteceu no decorrer da história da empresa
16:17
but we put that above the thing that people want
295
977476
4797
mas pusemos isso acima do que as pessoas querem
16:24
the most information on and to actually act on.
296
984146
3222
ou seja, mais informação e mais capacidade de ação.
16:27
And just our ordering shows the world what we believed was important.
297
987392
5241
A nossa ordem mostra ao mundo o que acreditamos ser mais importante.
16:32
So we're changing all that.
298
992657
2881
Estamos a mudar tudo isso.
16:35
We're ordering it the right way,
299
995562
1563
Estamos a ordenar da forma certa
16:37
but we're also simplifying the rules so that they're human-readable
300
997149
3451
mas também estamos a simplificar as regras para que sejam compreensíveis
16:40
so that people can actually understand themselves
301
1000624
4067
para que as pessoas compreendam
16:44
when something is against our terms and when something is not.
302
1004715
3448
quando algo é contrário aos nossos termos e quando não é.
16:48
And then we're making --
303
1008187
2161
Estamos a fazer isso.
16:50
again, our big focus is on removing the burden of work from the victims.
304
1010372
5200
De novo, o grande foco é tirar o peso do trabalho de cima das vítimas.
16:55
So that means push more towards technology,
305
1015596
3734
Isso significa mais foco na tecnologia
16:59
rather than humans doing the work --
306
1019354
1873
do que em pessoas a trabalharem,
17:01
that means the humans receiving the abuse
307
1021251
2413
ou seja, as pessoas que são insultadas
17:03
and also the humans having to review that work.
308
1023688
3026
e as pessoas que reveem esse trabalho.
17:06
So we want to make sure
309
1026738
1673
Queremos assegurar
17:08
that we're not just encouraging more work
310
1028435
2841
que não estamos a incentivar mais trabalho
17:11
around something that's super, super negative,
311
1031300
2629
à volta de algo extremamente negativo
17:13
and we want to have a good balance between the technology
312
1033953
2674
e queremos ter um bom equilíbrio entre a tecnologia
17:16
and where humans can actually be creative,
313
1036651
2852
e aquilo em que os seres humanos podem ser criativos
17:19
which is the judgment of the rules,
314
1039527
3090
que é a julgarem as regras
17:22
and not just all the mechanical stuff of finding and reporting them.
315
1042641
3267
e não na parte mecânica de encontrar e denunciar.
17:25
So that's how we think about it.
316
1045932
1530
É assim que nós vemos isto.
17:27
CA: I'm curious to dig in more about what you said.
317
1047486
2406
CA: Gostava de aprofundar o que acabaste de dizer.
17:29
I mean, I love that you said you are looking for ways
318
1049916
2605
Adoro teres dito que estão à procura de formas
17:32
to re-tweak the fundamental design of the system
319
1052545
3462
de mudar o "design" fundamental do sistema
17:36
to discourage some of the reactive behavior, and perhaps --
320
1056031
4875
para desencoraja comportamento reativo
- e usando uma linguagem do tipo de Tristan Harris -
17:40
to use Tristan Harris-type language --
321
1060930
2705
17:43
engage people's more reflective thinking.
322
1063659
4288
envolver talvez um pensamento mais reflexivo das pessoas.
17:47
How far advanced is that?
323
1067971
1854
Em que ponto é que isso está?
17:49
What would alternatives to that "like" button be?
324
1069849
4305
Quais seriam as alternativas ao botão do "like"?
17:55
JD: Well, first and foremost,
325
1075518
3575
JD: Bem, primeiro que tudo,
17:59
my personal goal with the service is that I believe fundamentally
326
1079117
5753
o meu objetivo pessoal com o serviço é que acredito fundamentalmente
18:04
that public conversation is critical.
327
1084894
2702
que as conversas públicas são cruciais.
18:07
There are existential problems facing the world
328
1087620
2647
Há problemas existenciais no mundo
18:10
that are facing the entire world, not any one particular nation-state,
329
1090291
4163
que são enfrentados pelo mundo todo, não só por um estado-nação,
18:14
that global public conversation benefits.
330
1094478
2649
que as conversas públicas globais beneficiam.
18:17
And that is one of the unique dynamics of Twitter,
331
1097151
2372
Isto é uma das dinâmicas únicas do Twitter
18:19
that it is completely open,
332
1099547
1814
que é completamente aberto,
18:21
it is completely public,
333
1101385
1596
completamente público, completamente fluido
18:23
it is completely fluid,
334
1103005
1399
18:24
and anyone can see any other conversation and participate in it.
335
1104428
4038
e todos podem ver as conversas e participar nelas.
18:28
So there are conversations like climate change.
336
1108490
2206
Há conversas sobre a alteração climática.
18:30
There are conversations like the displacement in the work
337
1110720
2682
Há conversas sobre a deslocalização do trabalho
18:33
through artificial intelligence.
338
1113426
2000
devido à inteligência artificial.
18:35
There are conversations like economic disparity.
339
1115450
3006
Há conversas sobre a disparidade económica.
18:38
No matter what any one nation-state does,
340
1118480
2765
Independentemente do que um estado-nação faz,
18:41
they will not be able to solve the problem alone.
341
1121269
2421
não conseguirão resolver o problema sozinhos.
18:43
It takes coordination around the world,
342
1123714
2643
É necessário coordenação em todo o mundo
18:46
and that's where I think Twitter can play a part.
343
1126381
3047
e é aí que o Twitter pode desempenhar um papel.
18:49
The second thing is that Twitter, right now, when you go to it,
344
1129452
5642
A segunda coisa é que, quando vamos ao Twitter
18:55
you don't necessarily walk away feeling like you learned something.
345
1135118
3746
nem sempre saímos de lá a sentir que aprendemos alguma coisa.
18:58
Some people do.
346
1138888
1276
Algumas pessoas sim.
19:00
Some people have a very, very rich network,
347
1140188
3107
Algumas pessoas têm uma rede muito rica,
19:03
a very rich community that they learn from every single day.
348
1143319
3117
uma comunidade muito rica na qual aprendem todos os dias.
19:06
But it takes a lot of work and a lot of time to build up to that.
349
1146460
3691
Mas é preciso muito trabalho e muito tempo para construir isso.
19:10
So we want to get people to those topics and those interests
350
1150175
3448
Então queremos pôr as pessoas nesses tópicos e nesses interesses
19:13
much, much faster
351
1153647
1579
muito mais rapidamente
19:15
and make sure that they're finding something that,
352
1155250
2566
e certificar que elas estão a encontrar qualquer coisa
19:18
no matter how much time they spend on Twitter --
353
1158728
2360
que, independentemente do tempo que estão no Twitter
19:21
and I don't want to maximize the time on Twitter,
354
1161112
2358
- e eu não quero maximizar o tempo no Twitter,
19:23
I want to maximize what they actually take away from it
355
1163494
2910
quero maximizar o que as pessoas tiram dele
19:26
and what they learn from it, and --
356
1166428
2030
e o que aprendem dele.
19:29
CA: Well, do you, though?
357
1169598
1328
CA: Mas queres mesmo?
19:30
Because that's the core question that a lot of people want to know.
358
1170950
3244
Porque essa é a questão central que muitas pessoas querem saber.
19:34
Surely, Jack, you're constrained, to a huge extent,
359
1174218
3638
Jack, vocês estão certamente limitados em grande medida
19:37
by the fact that you're a public company,
360
1177880
2007
pelo facto de serem uma empresa pública,
19:39
you've got investors pressing on you,
361
1179911
1774
têm investidores a pressionarem-vos,
19:41
the number one way you make your money is from advertising --
362
1181709
3559
a maior forma de ganharem dinheiro é através de publicidade,
19:45
that depends on user engagement.
363
1185292
2772
o que depende do envolvimento do utilizador.
19:48
Are you willing to sacrifice user time, if need be,
364
1188088
4700
Estão prontos a abdicar do tempo dos utilizadores, se necessário,
19:52
to go for a more reflective conversation?
365
1192812
3729
para conseguirem uma conversa mais reflexiva?
19:56
JD: Yeah; more relevance means less time on the service,
366
1196565
3111
JD: Sim, mais relevância significa menos tempo no serviço
19:59
and that's perfectly fine,
367
1199700
1937
e não tem qualquer problema
20:01
because we want to make sure that, like, you're coming to Twitter,
368
1201661
3099
porque queremos garantir que chegam ao Twitter,
20:04
and you see something immediately that you learn from and that you push.
369
1204784
4520
e veem imediatamente algo que aprendem e que passam.
20:09
We can still serve an ad against that.
370
1209328
3420
Podemos passar um anúncio na mesma.
20:12
That doesn't mean you need to spend any more time to see more.
371
1212772
2921
Não significa que temos de gastar mais tempo para ver mais.
20:15
The second thing we're looking at --
372
1215717
1733
O segundo ponto que estamos a ver...
20:17
CA: But just -- on that goal, daily active usage,
373
1217474
2698
CA: Relativamente a esse objetivo, utilização ativa diária,
20:20
if you're measuring that, that doesn't necessarily mean things
374
1220196
3245
se estão a medir isso, não significa necessariamente
coisas que as pessoas valorizem todos os dias.
20:23
that people value every day.
375
1223465
1738
20:25
It may well mean
376
1225227
1161
Pode significar coisas
20:26
things that people are drawn to like a moth to the flame, every day.
377
1226412
3306
que atraem pessoas como a luz atrai a traça, todos os dias.
20:29
We are addicted, because we see something that pisses us off,
378
1229742
3022
Estamos viciados porque vemos algo que nos irrita,
20:32
so we go in and add fuel to the fire,
379
1232788
3178
entramos ali e deitamos lenha na fogueira,
20:35
and the daily active usage goes up,
380
1235990
1927
e a utilização ativa diária cresce
20:37
and there's more ad revenue there,
381
1237941
1715
e há mais receita de anúncios,
20:39
but we all get angrier with each other.
382
1239680
2752
mas estamos todos zangados uns com os outros.
20:42
How do you define ...
383
1242456
2509
Como defines "utilização ativa diária"?
20:44
"Daily active usage" seems like a really dangerous term to be optimizing.
384
1244989
4126
Parece ser um termo muito perigoso para otimizar.
20:49
(Applause)
385
1249139
5057
(Aplausos)
20:54
JD: Taken alone, it is,
386
1254220
1268
JD: Visto isoladamente, é,
20:55
but you didn't let me finish the other metric,
387
1255512
2346
mas não me deixaram acabar a outra métrica
20:57
which is, we're watching for conversations
388
1257882
3727
que é estarmos a ver as conversas
21:01
and conversation chains.
389
1261633
2129
e as cadeias de conversas.
21:03
So we want to incentivize healthy contribution back to the network,
390
1263786
5076
Queremos incentivar contribuições saudáveis de novo na rede
21:08
and what we believe that is is actually participating in conversation
391
1268886
4181
e o que nós acreditamos ser participar numa conversa
21:13
that is healthy,
392
1273091
1197
que é saudável,
21:14
as defined by those four indicators I articulated earlier.
393
1274312
5037
como definida naqueles quatro indicadores que mencionei antes.
21:19
So you can't just optimize around one metric.
394
1279373
2657
Não é possível otimizar à volta de uma só métrica.
21:22
You have to balance and look constantly
395
1282054
2752
É preciso equilibrar e olhar constantemente
21:24
at what is actually going to create a healthy contribution to the network
396
1284830
4083
para o que vai criar uma contribuição saudável para a rede
21:28
and a healthy experience for people.
397
1288937
2341
e uma experiência saudável para as pessoas.
21:31
Ultimately, we want to get to a metric
398
1291302
1866
No fundo, queremos uma métrica
21:33
where people can tell us, "Hey, I learned something from Twitter,
399
1293192
3757
em que as pessoas nos digam:
"Aprendi uma coisa no Twitter e levo comigo algo valioso."
21:36
and I'm walking away with something valuable."
400
1296973
2167
Este é o nosso objetivo ao longo do tempo
21:39
That is our goal ultimately over time,
401
1299164
2043
21:41
but that's going to take some time.
402
1301231
1809
mas isso vai demorar algum tempo.
21:43
CA: You come over to many, I think to me, as this enigma.
403
1303064
5282
CA: Penso que muitos veem isso como um enigma.
21:48
This is possibly unfair, but I woke up the other night
404
1308370
4396
Talvez seja injusto mas acordei uma noite
21:52
with this picture of how I found I was thinking about you and the situation,
405
1312790
3879
com uma imagem de como pensava sobre ti e sobre esta situação.
21:56
that we're on this great voyage with you on this ship called the "Twittanic" --
406
1316693
6903
Estávamos numa grande viagem num barco chamado "Twittanic"...
22:03
(Laughter)
407
1323620
1281
(Risos)
22:04
and there are people on board in steerage
408
1324925
4357
e havia pessoas a bordo na terceira classe
22:09
who are expressing discomfort,
409
1329306
2203
que se queixavam de desconforto.
22:11
and you, unlike many other captains,
410
1331533
2543
Ao contrário dos outros capitães, tu dizias:
22:14
are saying, "Well, tell me, talk to me, listen to me, I want to hear."
411
1334100
3431
"Digam-me, falem comigo, ouçam-me, eu quero ouvir."
22:17
And they talk to you, and they say, "We're worried about the iceberg ahead."
412
1337555
3619
E eles falam e dizem: "Estamos preocupados com o icebergue ali à frente."
22:21
And you go, "You know, that is a powerful point,
413
1341198
2242
E tu dizes: "Sabem, é uma boa observação,
22:23
and our ship, frankly, hasn't been built properly
414
1343464
2430
"o nosso navio não foi construído adequadamente
22:25
for steering as well as it might."
415
1345918
1669
"para a terceira classe como devia."
22:27
And we say, "Please do something."
416
1347611
1658
Nós dizemos: "Faz algo."
22:29
And you go to the bridge,
417
1349293
1411
Tu vais para a ponte e nós ficamos à espera,
22:30
and we're waiting,
418
1350728
2295
22:33
and we look, and then you're showing this extraordinary calm,
419
1353047
4548
olhamos e tu estás a mostrar esta calma extraordinária
22:37
but we're all standing outside, saying, "Jack, turn the fucking wheel!"
420
1357619
3883
mas nós estamos todos cá fora a dizer: "Jack, gira a porra do leme!"
22:41
You know?
421
1361526
1151
Percebes?
22:42
(Laughter)
422
1362701
1335
(Risos)
22:44
(Applause)
423
1364060
2381
(Aplausos)
22:46
I mean --
424
1366465
1166
Ou seja...
22:47
(Applause)
425
1367655
1734
(Aplausos)
22:49
It's democracy at stake.
426
1369413
4594
É a democracia que está em risco.
22:54
It's our culture at stake. It's our world at stake.
427
1374031
2821
É a nossa cultura em risco. É o nosso mundo em risco.
22:56
And Twitter is amazing and shapes so much.
428
1376876
4706
O Twitter é fantástico e modela muito.
23:01
It's not as big as some of the other platforms,
429
1381606
2233
Não é tão grande como outras plataformas
23:03
but the people of influence use it to set the agenda,
430
1383863
2804
mas as pessoas com influência usam-no para definir um programa,
23:06
and it's just hard to imagine a more important role in the world than to ...
431
1386691
6787
e é difícil imaginar um papel mais importante no mundo.
23:13
I mean, you're doing a brilliant job of listening, Jack, and hearing people,
432
1393502
3784
Estás a fazer um trabalho brilhante a ouvir as pessoas, Jack,
23:17
but to actually dial up the urgency and move on this stuff --
433
1397310
4445
mas vais marcar como urgente e fazer algo?
23:21
will you do that?
434
1401779
2201
Vais fazer isso?
23:24
JD: Yes, and we have been moving substantially.
435
1404750
3815
JD: Sim, nós temos mudado substancialmente.
23:28
I mean, there's been a few dynamics in Twitter's history.
436
1408589
3225
Houve algumas dinâmicas na história do Twitter.
23:31
One, when I came back to the company,
437
1411838
2083
Uma, quando voltei para a empresa,
23:35
we were in a pretty dire state in terms of our future,
438
1415477
6256
estávamos num momento difícil em termos do nosso futuro
23:41
and not just from how people were using the platform,
439
1421757
4634
e não só de como as pessoas estavam a usar a plataforma
23:46
but from a corporate narrative as well.
440
1426415
2047
mas também quanto à narrativa corporativa.
23:48
So we had to fix a bunch of the foundation,
441
1428486
3204
Tivemos de reparar grande parte da base,
23:51
turn the company around,
442
1431714
1969
dar a volta à empresa,
23:53
go through two crazy layoffs,
443
1433707
3111
passar por duas loucas reduções de pessoal
23:56
because we just got too big for what we were doing,
444
1436842
3793
porque éramos grandes demais para o que estávamos a fazer
24:00
and we focused all of our energy
445
1440659
2060
e concentrámos toda a nossa energia
24:02
on this concept of serving the public conversation.
446
1442743
3508
neste conceito de servir a conversa pública.
24:06
And that took some work.
447
1446275
1451
Foi preciso algum trabalho.
24:07
And as we dived into that,
448
1447750
2608
Quando mergulhámos nisso,
24:10
we realized some of the issues with the fundamentals.
449
1450382
2992
reparámos nalguns problemas com os princípios.
24:14
We could do a bunch of superficial things to address what you're talking about,
450
1454120
4656
Podíamos fazer um monte de coisas superficiais para tratar do que falaste
24:18
but we need the changes to last,
451
1458800
1790
mas precisamos que as mudanças durem
24:20
and that means going really, really deep
452
1460614
2459
e isso significa ir mesmo ao fundo
24:23
and paying attention to what we started 13 years ago
453
1463097
4350
e prestar atenção ao que iniciámos há 13 anos
24:27
and really questioning
454
1467471
2261
e questionar a sério
24:29
how the system works and how the framework works
455
1469756
2566
como o sistema funciona e como o enquadramento funciona
24:32
and what is needed for the world today,
456
1472346
3833
e o que é preciso para o mundo de hoje,
24:36
given how quickly everything is moving and how people are using it.
457
1476203
4024
dada a velocidade com que tudo se move e como as pessoas estão a usá-lo.
24:40
So we are working as quickly as we can, but quickness will not get the job done.
458
1480251
6544
Trabalhamos tão depressa quanto possível
mas não é a rapidez que vai fazer o trabalho.
24:46
It's focus, it's prioritization,
459
1486819
2611
É a concentração, o estabelecimento de prioridades,
24:49
it's understanding the fundamentals of the network
460
1489454
2946
é compreender os princípios da rede
24:52
and building a framework that scales
461
1492424
2842
e construir um enquadramento que possa crescer
24:55
and that is resilient to change,
462
1495290
2351
e que seja resistente à mudança
24:57
and being open about where we are and being transparent about where are
463
1497665
5429
e aberto sobre onde estamos, transparente sobre onde estamos
25:03
so that we can continue to earn trust.
464
1503118
2179
para continuarmos a ganhar confiança.
25:06
So I'm proud of all the frameworks that we've put in place.
465
1506141
3331
Tenho orgulho em todos os enquadramentos que implementámos.
25:09
I'm proud of our direction.
466
1509496
2888
Tenho orgulho na nossa direção.
25:12
We obviously can move faster,
467
1512915
2718
Claro que podemos andar mais depressa
25:15
but that required just stopping a bunch of stupid stuff we were doing in the past.
468
1515657
4719
mas isto exige abandonar uma série de coisas parvas que fizemos no passado.
25:21
CA: All right.
469
1521067
1164
CA: Ok.
25:22
Well, I suspect there are many people here who, if given the chance,
470
1522255
4067
Eu suspeito que há muitas pessoas aqui que, se pudessem,
25:26
would love to help you on this change-making agenda you're on,
471
1526346
3989
adorariam ajudar-te neste plano de mudanças em que estás
25:30
and I don't know if Whitney --
472
1530359
1542
e não sei se a Whitney...
25:31
Jack, thank you for coming here and speaking so openly.
473
1531925
2761
Jack, obrigado por vires aqui e falares tão abertamente.
25:34
It took courage.
474
1534710
1527
É preciso coragem.
25:36
I really appreciate what you said, and good luck with your mission.
475
1536261
3384
Dou muito valor ao que disseste e boa sorte com a tua missão.
25:39
JD: Thank you so much. Thanks for having me.
476
1539669
2095
JD: Muito obrigado. Obrigado pelo convite.
25:41
(Applause)
477
1541788
3322
(Aplausos)
25:45
Thank you.
478
1545134
1159
Obrigado.
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7