How Twitter needs to change | Jack Dorsey

185,541 views ・ 2019-06-07

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Karin Valles Revisor: Lidia Cámara de la Fuente
00:13
Chris Anderson: What worries you right now?
0
13131
2408
Chris Anderson: ¿Qué les preocupa ahora?
00:15
You've been very open about lots of issues on Twitter.
1
15563
2853
Han sido muy abiertos sobre muchos problemas en Twitter.
00:18
What would be your top worry
2
18440
2299
¿Cuál es su principal preocupación
00:20
about where things are right now?
3
20763
2049
sobre el estado actual de la situación?
00:23
Jack Dorsey: Right now, the health of the conversation.
4
23447
2929
Jack Dorsey: En este momento, es la salud de la conversación.
00:26
So, our purpose is to serve the public conversation,
5
26400
3660
Nuestro propósito es servir la conversación pública,
00:30
and we have seen a number of attacks on it.
6
30084
5056
y hemos visto varios ataques contra ella.
00:35
We've seen abuse, we've seen harassment,
7
35164
2425
Hemos visto abuso, acoso, manipulación,
00:37
we've seen manipulation,
8
37613
3222
00:40
automation, human coordination, misinformation.
9
40859
4265
automatización, coordinación humana y desinformación.
00:46
So these are all dynamics that we were not expecting
10
46134
4034
Son dinámicas que no esperábamos
00:50
13 years ago when we were starting the company.
11
50192
3718
cuando iniciamos la compañía hace 13 años.
00:53
But we do now see them at scale,
12
53934
2664
Pero ahora vemos su magnitud,
00:56
and what worries me most is just our ability to address it
13
56622
5278
y lo que más me preocupa es nuestra habilidad para abordarlos
01:01
in a systemic way that is scalable,
14
61924
3108
de una forma sistemática ampliable
01:05
that has a rigorous understanding of how we're taking action,
15
65056
6976
que comprenda rigurosamente la forma en la que actuamos,
01:12
a transparent understanding of how we're taking action
16
72056
3105
una comprensión clara de la forma en la que actuamos,
01:15
and a rigorous appeals process for when we're wrong,
17
75185
3101
y un proceso riguroso de apelaciones para cuando nos equivoquemos,
01:18
because we will be wrong.
18
78310
2169
porque nos equivocaremos.
01:20
Whitney Pennington Rodgers: I'm really glad to hear
19
80503
2397
Whitney Pennington Rodgers: Me alegra mucho saber
01:22
that that's something that concerns you,
20
82924
1928
que es algo que les preocupa,
01:24
because I think there's been a lot written about people
21
84876
2630
porque se ha escrito mucho sobre personas
01:27
who feel they've been abused and harassed on Twitter,
22
87530
2477
que sufrieron abuso y acoso en Twitter,
y creo que ningunas más que las mujeres, las mujeres de color
01:30
and I think no one more so than women and women of color
23
90031
4102
y las mujeres afroamericanas.
01:34
and black women.
24
94157
1170
01:35
And there's been data that's come out --
25
95351
1913
Y ha surgido información como
01:37
Amnesty International put out a report a few months ago
26
97288
2909
el reporte que publicó Amnistía Internacional hace unos meses
01:40
where they showed that a subset of active black female Twitter users
27
100221
4480
que muestra que un subconjunto de usuarias activas afroamericanas en Twitter
01:44
were receiving, on average, one in 10 of their tweets
28
104725
3456
recibían, en promedio, en uno de cada 10 tuits,
01:48
were some form of harassment.
29
108205
2099
algún tipo de acoso.
01:50
And so when you think about health for the community on Twitter,
30
110328
3907
Cuando piensan en salud para la comunidad en Twitter,
01:54
I'm interested to hear, "health for everyone,"
31
114259
4024
me interesa escuchar que habrá salud para todos
01:58
but specifically: How are you looking to make Twitter a safe space
32
118307
3125
pero ¿cómo harán que Twitter sea un lugar seguro
02:01
for that subset, for women, for women of color and black women?
33
121456
4164
para las mujeres, las mujeres de color y las mujeres afroamericanas?
02:05
JD: Yeah.
34
125644
1164
JD: Sí.
02:06
So it's a pretty terrible situation
35
126832
2643
Es una situación terrible
02:09
when you're coming to a service
36
129499
1619
cuando ingresan a un servicio
02:11
that, ideally, you want to learn something about the world,
37
131142
4321
en el que, idealmente, quieren aprender algo del mundo,
02:15
and you spend the majority of your time reporting abuse, receiving abuse,
38
135487
5443
pero la mayor parte del tiempo reportan abuso, reciben abuso
02:20
receiving harassment.
39
140954
1804
y reciben acoso.
02:23
So what we're looking most deeply at is just the incentives
40
143373
6321
Estamos investigando a fondo los incentivos
02:29
that the platform naturally provides and the service provides.
41
149718
3823
que la plataforma ofrece naturalmente y el servicio que ofrece.
02:34
Right now, the dynamic of the system makes it super-easy to harass
42
154262
4577
Por ahora, la dinámica del sistema hace que sea muy fácil acosar
02:38
and to abuse others through the service,
43
158863
3664
y abusar a otros por medio del servicio
02:42
and unfortunately, the majority of our system in the past
44
162551
3262
y, por desgracia, la mayor parte de nuestro sistema
02:45
worked entirely based on people reporting harassment and abuse.
45
165837
5596
se basaba completamente en que las personas reportaran el acoso y abuso.
02:51
So about midway last year, we decided that we were going to apply
46
171457
5075
A mediados del año pasado decidimos aplicarle
02:56
a lot more machine learning, a lot more deep learning to the problem,
47
176556
3982
más aprendizaje automático, más aprendizaje profundo al problema,
03:00
and try to be a lot more proactive around where abuse is happening,
48
180562
4538
y tratar de ser más proactivos en donde sucede el abuso
03:05
so that we can take the burden off the victim completely.
49
185124
3960
para quitarle ese peso de encima a la víctima.
03:09
And we've made some progress recently.
50
189108
2435
Y hemos progresado recientemente.
03:11
About 38 percent of abusive tweets are now proactively identified
51
191567
6689
Alrededor del 38 % de los tuits abusivos se identifican proactivamente
03:18
by machine learning algorithms
52
198280
1715
por medio del aprendizaje automático
03:20
so that people don't actually have to report them.
53
200019
2334
para que las personas no tengan que reportarlos.
03:22
But those that are identified are still reviewed by humans,
54
202377
3305
Pero tenemos personas revisando los tuits identificados,
03:25
so we do not take down content or accounts without a human actually reviewing it.
55
205706
5384
así que no borramos contenido o cuentas sin que alguien las revise.
03:31
But that was from zero percent just a year ago.
56
211114
2759
Y hace un año eso estaba en 0 %.
03:33
So that meant, at that zero percent,
57
213897
1931
Eso significa que, en el 0 %
03:35
every single person who received abuse had to actually report it,
58
215852
3650
cada persona que recibía abuso tenía que reportarlo,
03:39
which was a lot of work for them, a lot of work for us
59
219526
3579
lo cual era mucho trabajo para ellos, mucho trabajo para nosotros
03:43
and just ultimately unfair.
60
223129
2018
y a final de cuentas era muy injusto.
03:46
The other thing that we're doing is making sure that we, as a company,
61
226528
3780
También nos estamos asegurando que nosotros, como compañía,
03:50
have representation of all the communities that we're trying to serve.
62
230332
3333
contemos con representación de las comunidades a las que servimos.
03:53
We can't build a business that is successful
63
233689
2159
No podemos construir un negocio exitoso
03:55
unless we have a diversity of perspective inside of our walls
64
235872
3300
a menos que tengamos una perspectiva interna diversa
03:59
that actually feel these issues every single day.
65
239196
3732
que viva estos problemas día a día.
04:02
And that's not just with the team that's doing the work,
66
242952
3738
Eso no solo aplica para el equipo que realiza ese trabajo,
04:06
it's also within our leadership as well.
67
246714
2096
sino también para nuestros directivos.
04:08
So we need to continue to build empathy for what people are experiencing
68
248834
5757
Necesitamos continuar desarrollando empatía por lo que viven las personas
04:14
and give them better tools to act on it
69
254615
3316
y darles mejores herramientas para defenderse,
04:17
and also give our customers a much better and easier approach
70
257955
4252
y también darles a nuestros clientes un acercamiento mejor y más sencillo
04:22
to handle some of the things that they're seeing.
71
262231
2382
para lidiar con algunas de las cosas que ven.
04:24
So a lot of what we're doing is around technology,
72
264637
3266
Mucho de lo que estamos haciendo se centra en la tecnología,
04:27
but we're also looking at the incentives on the service:
73
267927
4308
pero también estamos enfocándonos en los incentivos del servicio:
04:32
What does Twitter incentivize you to do when you first open it up?
74
272259
5183
¿Qué es lo que Twitter los incentiva a hacer cuando lo abren por primera vez?
04:37
And in the past,
75
277466
1294
En el pasado,
04:40
it's incented a lot of outrage, it's incented a lot of mob behavior,
76
280670
5544
incentivó mucha indignación, comportamiento gregario,
04:46
it's incented a lot of group harassment.
77
286238
2459
y acoso grupal.
04:48
And we have to look a lot deeper at some of the fundamentals
78
288721
3648
Tenemos que investigar a fondo algunos de los fundamentos
04:52
of what the service is doing to make the bigger shifts.
79
292393
2958
de lo que está haciendo el servicio para hacer cambios grandes.
04:55
We can make a bunch of small shifts around technology, as I just described,
80
295375
4031
Podemos hacer muchos cambios pequeños con tecnología, como describí,
04:59
but ultimately, we have to look deeply at the dynamics in the network itself,
81
299430
4386
pero a final de cuentas tenemos que observar a fondo las dinámicas en la red,
05:03
and that's what we're doing.
82
303840
1368
y eso estamos haciendo.
05:05
CA: But what's your sense --
83
305232
2060
CA: Pero ¿qué podrían cambiar para modificar ese comportamiento?
05:07
what is the kind of thing that you might be able to change
84
307316
3963
05:11
that would actually fundamentally shift behavior?
85
311303
2749
05:15
JD: Well, one of the things --
86
315386
1480
JD: Bueno, comenzamos el servicio con el concepto de seguir una cuenta,
05:16
we started the service with this concept of following an account,
87
316890
5340
05:22
as an example,
88
322254
1725
como ejemplo,
05:24
and I don't believe that's why people actually come to Twitter.
89
324003
4349
y no creo que sea la razón por la cual las personas entran a Twitter.
05:28
I believe Twitter is best as an interest-based network.
90
328376
4857
Considero que Twitter es mejor conocida como una red basada en intereses.
05:33
People come with a particular interest.
91
333257
3453
Las personas ingresan con un interés particular.
05:36
They have to do a ton of work to find and follow the related accounts
92
336734
3487
Deben esforzarse mucho para encontrar y seguir cuentas relacionadas
05:40
around those interests.
93
340245
1405
a esos intereses.
05:42
What we could do instead is allow you to follow an interest,
94
342217
3397
Lo que podemos hacer es permitir que sigan un interés,
05:45
follow a hashtag, follow a trend,
95
345638
2103
sigan un hashtag, sigan una tendencia,
05:47
follow a community,
96
347765
1754
sigan una comunidad,
05:49
which gives us the opportunity to show all of the accounts,
97
349543
4637
lo cual nos brinda la oportunidad de mostrar todas las cuentas,
05:54
all the topics, all the moments, all the hashtags
98
354204
3323
todos los temas, todos los momentos, todos los hashtags
05:57
that are associated with that particular topic and interest,
99
357551
3992
asociados con ese tema e interés en particular,
06:01
which really opens up the perspective that you see.
100
361567
4600
lo cual amplía la perspectiva de lo que pueden ver.
06:06
But that is a huge fundamental shift
101
366191
2157
Pero es un cambio fundamental muy grande
06:08
to bias the entire network away from just an account bias
102
368372
3792
hacer que la red deje de tener una inclinación hacia las cuentas
06:12
towards a topics and interest bias.
103
372188
2587
y que tenga una inclinación hacia temas e intereses.
06:15
CA: Because isn't it the case
104
375283
3148
CA: Pero ¿no es cierto que
06:19
that one reason why you have so much content on there
105
379375
3541
una de las razones por las cuales tienen tanto contenido
06:22
is a result of putting millions of people around the world
106
382940
3591
se debe a que tienen a millones de personas de todo el mundo
06:26
in this kind of gladiatorial contest with each other
107
386555
3142
en una especie de contienda entre gladiadores
06:29
for followers, for attention?
108
389721
2090
para conseguir seguidores y atención?
06:31
Like, from the point of view of people who just read Twitter,
109
391835
4117
Desde el punto de vista de las personas que solo leen Twitter,
06:35
that's not an issue,
110
395976
1155
eso no es un problema,
06:37
but for the people who actually create it, everyone's out there saying,
111
397155
3350
pero todos los creadores
06:40
"You know, I wish I had a few more 'likes,' followers, retweets."
112
400529
3236
desean tener más "me gusta", más seguidores y más retuits.
06:43
And so they're constantly experimenting,
113
403789
2148
Así que constantemente están experimentando
06:45
trying to find the path to do that.
114
405961
1961
para encontrar la manera de logarlo.
06:47
And what we've all discovered is that the number one path to do that
115
407946
4126
Y todos hemos descubierto que la principal forma para lograrlo
06:52
is to be some form of provocative,
116
412096
3406
es ser provocativo,
06:55
obnoxious, eloquently obnoxious,
117
415526
2980
detestable, elocuentemente detestable,
06:58
like, eloquent insults are a dream on Twitter,
118
418530
3516
en Twitter aman a los insultos elocuentes
07:02
where you rapidly pile up --
119
422070
2603
y rápidamente acumulan...
07:04
and it becomes this self-fueling process of driving outrage.
120
424697
4608
y se convierte en este proceso que fomenta indignación.
07:09
How do you defuse that?
121
429329
2351
¿Cómo disipan eso?
07:12
JD: Yeah, I mean, I think you're spot on,
122
432624
2947
JD: Creo que diste en el blanco,
07:15
but that goes back to the incentives.
123
435595
1886
pero eso vuelve a los incentivos.
07:17
Like, one of the choices we made in the early days was
124
437505
2632
Una de las decisiones que tomamos al principio fue
07:20
we had this number that showed how many people follow you.
125
440161
4701
tener un número que mostrara cuántas personas te seguían.
07:24
We decided that number should be big and bold,
126
444886
2959
Decidimos que ese número sería grande y estaría en negritas,
07:27
and anything that's on the page that's big and bold has importance,
127
447869
3740
y todo lo que es grande y está en negritas es importante,
07:31
and those are the things that you want to drive.
128
451633
2278
y es algo que se quiere incrementar.
07:33
Was that the right decision at the time?
129
453935
1907
¿Fue la decisión correcta en el momento?
07:35
Probably not.
130
455866
1153
Probablemente no.
07:37
If I had to start the service again,
131
457043
1805
Si tuviera que volver a empezar
07:38
I would not emphasize the follower count as much.
132
458872
2398
no resaltaría tanto el número de seguidores.
07:41
I would not emphasize the "like" count as much.
133
461294
2295
No resaltaría tanto el número de "me gusta".
07:43
I don't think I would even create "like" in the first place,
134
463613
3120
Creo que no hubiera creado los "me gusta" en primer lugar,
07:46
because it doesn't actually push
135
466757
3267
porque no representan realmente
07:50
what we believe now to be the most important thing,
136
470048
3179
lo que ahora creemos que es lo más importante,
07:53
which is healthy contribution back to the network
137
473251
3039
lo cual es una contribución sana hacia la red
07:56
and conversation to the network,
138
476314
2652
y las conversaciones en la red,
07:58
participation within conversation,
139
478990
2072
la participación en las conversaciones,
08:01
learning something from the conversation.
140
481086
2493
y aprender algo de las conversaciones.
08:03
Those are not things that we thought of 13 years ago,
141
483603
2824
No pensamos en eso hace 13 años,
08:06
and we believe are extremely important right now.
142
486451
2439
pero ahora creemos que son aspectos muy importantes.
08:08
So we have to look at how we display the follower count,
143
488914
3023
Tenemos que observar cómo mostramos el contador de seguidores,
08:11
how we display retweet count,
144
491961
2365
cómo mostramos el contador de retuits,
08:14
how we display "likes,"
145
494350
1401
cómo mostramos los "me gusta"
08:15
and just ask the deep question:
146
495775
2254
y preguntarnos:
08:18
Is this really the number that we want people to drive up?
147
498053
3048
¿En verdad queremos que las personas incrementen este número?
08:21
Is this the thing that, when you open Twitter,
148
501125
2545
¿Esto es lo que, cuando abran Twitter,
08:23
you see, "That's the thing I need to increase?"
149
503694
2516
observen y quieran incrementar?
08:26
And I don't believe that's the case right now.
150
506234
2144
Y no creo que sea el caso en estos momentos.
08:28
(Applause)
151
508402
2103
(Aplausos)
08:30
WPR: I think we should look at some of the tweets
152
510529
2352
WPR: Creo que deberíamos ver algunos de los tuits
08:32
that are coming in from the audience as well.
153
512905
2169
que vienen de la audiencia.
08:35
CA: Let's see what you guys are asking.
154
515868
2436
CA: Veamos lo que están preguntando.
08:38
I mean, this is -- generally, one of the amazing things about Twitter
155
518328
3294
Una de las maravillas de Twitter
08:41
is how you can use it for crowd wisdom,
156
521646
2294
es cómo puede usarse para la sabiduría de las masas,
08:43
you know, that more knowledge, more questions, more points of view
157
523964
4840
hay más conocimiento, más preguntas, y más puntos de vista
08:48
than you can imagine,
158
528828
1238
de los que podamos imaginar
08:50
and sometimes, many of them are really healthy.
159
530090
3689
y, algunas veces, son muy sanos.
08:53
WPR: I think one I saw that passed already quickly down here,
160
533803
2900
WPR: Creo que vi un tuit que decía:
08:56
"What's Twitter's plan to combat foreign meddling in the 2020 US election?"
161
536717
3524
"¿Cómo prevendrán la injerencia extranjera en las elecciones del 2020?".
09:00
I think that's something that's an issue we're seeing
162
540265
2571
Considero que es un problema que vemos
09:02
on the internet in general,
163
542860
1901
en el internet en general,
09:04
that we have a lot of malicious automated activity happening.
164
544785
3667
tenemos mucha actividad automática maliciosa.
09:08
And on Twitter, for example, in fact, we have some work
165
548476
5373
Y en Twitter, por ejemplo, tenemos algunos reportes
09:13
that's come from our friends at Zignal Labs,
166
553873
2758
de nuestros amigos de Zignal Labs,
09:16
and maybe we can even see that to give us an example
167
556655
2656
y tal vez podamos verlos para darnos una idea
09:19
of what exactly I'm talking about,
168
559335
1927
de lo que estoy hablando,
09:21
where you have these bots, if you will,
169
561286
3204
en los que se usan bots
09:24
or coordinated automated malicious account activity,
170
564514
4550
o actividades coordinadas de cuentas maliciosas automatizadas
09:29
that is being used to influence things like elections.
171
569088
2764
para influenciar situaciones tales como las elecciones.
09:31
And in this example we have from Zignal which they've shared with us
172
571876
3843
En este ejemplo que Zignal compartió con nosotros
09:35
using the data that they have from Twitter,
173
575743
2198
usando información de Twitter,
09:37
you actually see that in this case,
174
577965
2441
muestra que, en este caso,
09:40
white represents the humans -- human accounts, each dot is an account.
175
580430
4370
lo blanco representa las cuentas humanas, cada punto es una cuenta.
09:44
The pinker it is,
176
584824
1359
Entre más rosa esté
09:46
the more automated the activity is.
177
586207
1740
más automatizada es la actividad.
09:47
And you can see how you have a few humans interacting with bots.
178
587971
5970
Y pueden ver cómo hay pocos humanos interactuando con bots.
09:53
In this case, it's related to the election in Israel
179
593965
4419
Este caso está relacionado con la elección en Israel
09:58
and spreading misinformation about Benny Gantz,
180
598408
2833
y la divulgación de desinformación sobre Benny Gantz,
10:01
and as we know, in the end, that was an election
181
601265
2662
y, como sabemos, al final fue una elección
10:03
that Netanyahu won by a slim margin,
182
603951
3724
que Netanyahu ganó por un pequeño margen,
10:07
and that may have been in some case influenced by this.
183
607699
2842
y eso pudo haber sido influenciado por esto.
10:10
And when you think about that happening on Twitter,
184
610565
2615
Cuando piensan que esto está sucediendo en Twitter,
10:13
what are the things that you're doing, specifically,
185
613204
2456
¿qué están haciendo
10:15
to ensure you don't have misinformation like this spreading in this way,
186
615684
3702
para asegurarse que no haya desinformación divulgándose de esta forma,
10:19
influencing people in ways that could affect democracy?
187
619410
4181
influenciando a las personas en maneras que puedan afectar la democracia?
10:23
JD: Just to back up a bit,
188
623615
1771
JD: Para recapitular un poco,
10:25
we asked ourselves a question:
189
625410
2975
nos hicimos una pregunta:
10:28
Can we actually measure the health of a conversation,
190
628409
3816
¿En verdad podemos medir la salud de la conversación
10:32
and what does that mean?
191
632249
1288
y qué significa eso?
10:33
And in the same way that you have indicators
192
633561
3382
Y de la misma forma que Uds. tienen indicadores
10:36
and we have indicators as humans in terms of are we healthy or not,
193
636967
3467
y como humanos tenemos indicadores que nos dicen si estamos sanos,
10:40
such as temperature, the flushness of your face,
194
640458
4658
tales como la temperatura, el rubor en nuestro rostro,
10:45
we believe that we could find the indicators of conversational health.
195
645140
4560
creemos que podemos encontrar indicadores de la salud conversacional.
10:49
And we worked with a lab called Cortico at MIT
196
649724
3843
Trabajamos con un laboratorio llamado Cortico en el MIT
10:54
to propose four starter indicators
197
654479
6091
para proponer cuatro indicadores de entrada
11:00
that we believe we could ultimately measure on the system.
198
660594
3670
que consideramos que podemos medir en el sistema.
11:05
And the first one is what we're calling shared attention.
199
665249
5604
El primero es la atención compartida.
11:10
It's a measure of how much of the conversation is attentive
200
670877
3581
Mide qué porcentaje de la conversación es atenta
11:14
on the same topic versus disparate.
201
674482
2630
en un mismo tema en vez de dispersa.
11:17
The second one is called shared reality,
202
677739
2783
El segundo se llama realidad compartida,
11:21
and this is what percentage of the conversation
203
681217
2259
y es el porcentaje de la conversación
11:23
shares the same facts --
204
683500
2005
que comparte los mismos hechos
11:25
not whether those facts are truthful or not,
205
685529
3113
y no si esos hechos son verdaderos o no,
11:28
but are we sharing the same facts as we converse?
206
688666
3009
pero ¿compartimos los mismos hechos al conversar?
11:32
The third is receptivity:
207
692235
2353
El tercero es la receptividad,
11:34
How much of the conversation is receptive or civil
208
694612
3959
es el porcentaje de la conversación que es receptiva o civil,
11:38
or the inverse, toxic?
209
698595
2944
o, al contrario, tóxica.
11:42
And then the fourth is variety of perspective.
210
702213
3222
Y el cuarto es la variedad de perspectivas.
11:45
So, are we seeing filter bubbles or echo chambers,
211
705459
3145
¿Estamos viendo filtros burbuja o cámaras de eco,
11:48
or are we actually getting a variety of opinions
212
708628
3057
o en realidad estamos teniendo una variedad de opiniones
11:51
within the conversation?
213
711709
1635
dentro de la conversación?
11:53
And implicit in all four of these is the understanding that,
214
713368
4018
Está implícito dentro de los cuatro indicadores que,
11:57
as they increase, the conversation gets healthier and healthier.
215
717410
3390
al incrementar, la conversación se hace cada vez más sana.
12:00
So our first step is to see if we can measure these online,
216
720824
4869
Nuestro primer paso es ver si podemos medirlos en línea,
12:05
which we believe we can.
217
725717
1308
y creemos que sí.
12:07
We have the most momentum around receptivity.
218
727049
3167
Tenemos mayor impulso en la receptividad.
12:10
We have a toxicity score, a toxicity model, on our system
219
730240
4317
Tenemos un marcador de toxicidad, un modelo de toxicidad, en el sistema
12:14
that can actually measure whether you are likely to walk away
220
734581
4124
que en realidad puede medir la probabilidad de que abandonen
12:18
from a conversation that you're having on Twitter
221
738729
2313
una conversación en Twitter
12:21
because you feel it's toxic,
222
741066
1633
porque sienten que es tóxica
12:22
with some pretty high degree.
223
742723
2512
con un nivel bastante alto.
12:26
We're working to measure the rest,
224
746369
2199
Estamos trabajando para medir el resto
12:28
and the next step is,
225
748592
1964
y el siguiente paso es,
12:30
as we build up solutions,
226
750580
3359
mientras desarrollamos soluciones,
12:33
to watch how these measurements trend over time
227
753963
3491
observar la tendencia de estos indicadores con el tiempo
12:37
and continue to experiment.
228
757478
1873
y continuar experimentando.
12:39
And our goal is to make sure that these are balanced,
229
759375
4041
Nuestro objetivo es asegurarnos de que estén balanceados,
12:43
because if you increase one, you might decrease another.
230
763440
3066
porque si uno incrementa, otro puede disminuir.
12:46
If you increase variety of perspective,
231
766530
2147
Si la variedad de perspectiva incrementa
12:48
you might actually decrease shared reality.
232
768701
3091
podría disminuir la realidad compartida.
12:51
CA: Just picking up on some of the questions flooding in here.
233
771816
4989
CA: Solo para retomar el torrente de preguntas aquí.
12:56
JD: Constant questioning.
234
776829
1271
JD: Preguntas constantes.
12:58
CA: A lot of people are puzzled why,
235
778996
3620
CA: Muchos preguntan
13:02
like, how hard is it to get rid of Nazis from Twitter?
236
782640
4247
¿qué tan difícil es deshacerse de los nazis en Twitter?
13:08
JD: (Laughs)
237
788309
1322
JD: (Risas)
13:09
So we have policies around violent extremist groups,
238
789655
6995
Tenemos políticas sobre los grupos extremistas violentos,
13:16
and the majority of our work and our terms of service
239
796674
4426
y la mayor parte de nuestro trabajo y términos del servicio
13:21
works on conduct, not content.
240
801124
3729
se basan en la conducta y no el contenido.
13:24
So we're actually looking for conduct.
241
804877
2551
Así que estamos observando la conducta.
13:27
Conduct being using the service
242
807452
3014
La conducta usada en el servicio
13:30
to repeatedly or episodically harass someone,
243
810490
3867
para acosar a alguien de forma repetida o episódica
13:34
using hateful imagery
244
814381
2493
usando imágenes de odio
13:36
that might be associated with the KKK
245
816898
2106
que podrían asociarse con el KKK
13:39
or the American Nazi Party.
246
819028
3281
o el Partido Nazi Americano.
13:42
Those are all things that we act on immediately.
247
822333
4156
Son situaciones en las que actuamos inmediatamente.
13:47
We're in a situation right now where that term is used fairly loosely,
248
827002
5452
Estamos en una situación en la que ese término se usa a la ligera
13:52
and we just cannot take any one mention of that word
249
832478
5313
y no podemos tomar cualquier mención de esa palabra
13:57
accusing someone else
250
837815
2117
al acusar a alguien más
13:59
as a factual indication that they should be removed from the platform.
251
839956
3755
como un hecho de que deberían eliminarlos de la plataforma.
14:03
So a lot of our models are based around, number one:
252
843735
2627
Muchos de nuestros modelos se basan en, número uno:
14:06
Is this account associated with a violent extremist group?
253
846386
3140
¿Esta cuenta está asociada con un grupo violento extremista?
14:09
And if so, we can take action.
254
849550
1983
Y si lo está, podemos actuar.
14:11
And we have done so on the KKK and the American Nazi Party and others.
255
851557
3852
Y lo hemos hecho con el KKK, el Partido Nazi Americano y otros.
14:15
And number two: Are they using imagery or conduct
256
855433
4183
Y número dos: ¿Están usando imágenes o conductas
14:19
that would associate them as such as well?
257
859640
2372
que los asociarían como tal?
14:22
CA: How many people do you have working on content moderation
258
862416
2932
CA: ¿Cuántas personas están moderando el contenido
14:25
to look at this?
259
865372
1250
para evaluar esto?
14:26
JD: It varies.
260
866646
1496
JD: Varía.
14:28
We want to be flexible on this,
261
868166
1595
Queremos ser flexibles con esto
14:29
because we want to make sure that we're, number one,
262
869785
2646
porque queremos asegurarnos de que estamos, número uno,
14:32
building algorithms instead of just hiring massive amounts of people,
263
872455
4424
creando algoritmos en vez de contratar cantidades masivas de personas
14:36
because we need to make sure that this is scalable,
264
876903
2824
porque necesitamos asegurarnos de que esto pueda escalarse
14:39
and there are no amount of people that can actually scale this.
265
879751
3454
y las personas no pueden escalarlo.
14:43
So this is why we've done so much work around proactive detection of abuse
266
883229
6629
Por eso hemos trabajado mucho en la detección proactiva del abuso
14:49
that humans can then review.
267
889882
1391
que después pueda revisar una persona.
14:51
We want to have a situation
268
891297
2861
Queremos llegar a un punto
14:54
where algorithms are constantly scouring every single tweet
269
894182
3741
en el que los algoritmos analicen constantemente cada tuit
14:57
and bringing the most interesting ones to the top
270
897947
2342
y destaquen los más interesantes
15:00
so that humans can bring their judgment to whether we should take action or not,
271
900313
3902
para que nuestro equipo pueda juzgar si debemos intervenir o no
basándose en los términos del servicio.
15:04
based on our terms of service.
272
904239
1524
15:05
WPR: But there's not an amount of people that are scalable,
273
905787
2803
WPR: No existe una cantidad de personas escalable,
15:08
but how many people do you currently have monitoring these accounts,
274
908614
3497
pero ¿cuántas personas tienen monitorizando estas cuentas
15:12
and how do you figure out what's enough?
275
912135
2546
y cómo saben cuándo es suficiente?
15:14
JD: They're completely flexible.
276
914705
2272
JD: Son completamente flexibles.
15:17
Sometimes we associate folks with spam.
277
917001
2941
Algunas veces asociamos a las personas con spam.
15:19
Sometimes we associate folks with abuse and harassment.
278
919966
3845
Algunas veces los asociamos con abuso y acoso.
15:23
We're going to make sure that we have flexibility in our people
279
923835
3062
Nos aseguraremos de que nuestras personas sean flexibles
15:26
so that we can direct them at what is most needed.
280
926921
2350
para dirigirlas a donde sean más necesarias.
A veces, a las elecciones.
15:29
Sometimes, the elections.
281
929295
1204
Hemos tenido una serie de elecciones en México, habrá una en la India,
15:30
We've had a string of elections in Mexico, one coming up in India,
282
930523
4927
15:35
obviously, the election last year, the midterm election,
283
935474
4447
obviamente, la elección del año pasado, la de mitad del periodo,
15:39
so we just want to be flexible with our resources.
284
939945
2472
así que queremos ser flexibles con nuestros recursos.
15:42
So when people --
285
942441
2129
Cuando las personas...
15:44
just as an example, if you go to our current terms of service
286
944594
6389
por ejemplo, si entran a nuestros términos del servicio actuales,
15:51
and you bring the page up,
287
951007
1641
abren la página,
15:52
and you're wondering about abuse and harassment that you just received
288
952672
3682
piensan en el abuso y acoso que acaban de recibir
15:56
and whether it was against our terms of service to report it,
289
956378
3634
y se preguntan si va en contra de los términos del servicio para reportarlo,
16:00
the first thing you see when you open that page
290
960036
2559
lo primero que ven al abrir esa página
16:02
is around intellectual property protection.
291
962619
3088
es la protección de propiedad intelectual.
16:06
You scroll down and you get to abuse, harassment
292
966504
5323
Si se desplazan hacia abajo llegarán al abuso, acoso
16:11
and everything else that you might be experiencing.
293
971851
2382
y todo lo demás que tal vez estén experimentando.
16:14
So I don't know how that happened over the company's history,
294
974257
3195
No sé cómo sucedió eso en la historia de la compañía,
16:17
but we put that above the thing that people want
295
977476
4797
pero lo priorizamos sobre aquello que las personas
16:24
the most information on and to actually act on.
296
984146
3222
buscan obtener más información y formas de actuar.
16:27
And just our ordering shows the world what we believed was important.
297
987392
5241
Ese orden le muestra al mundo lo que creíamos que era importante.
16:32
So we're changing all that.
298
992657
2881
Estamos cambiando todo eso.
16:35
We're ordering it the right way,
299
995562
1563
Lo estamos ordenando de forma correcta,
16:37
but we're also simplifying the rules so that they're human-readable
300
997149
3451
y también estamos simplificando las reglas para que puedan ser legibles
16:40
so that people can actually understand themselves
301
1000624
4067
y que las personas puedan entender por sí mismas
16:44
when something is against our terms and when something is not.
302
1004715
3448
cuando algo va en contra de nuestros términos y cuando no.
16:48
And then we're making --
303
1008187
2161
Y estamos haciendo...
16:50
again, our big focus is on removing the burden of work from the victims.
304
1010372
5200
de nuevo, buscamos quitarle ese trabajo de encima a las víctimas.
16:55
So that means push more towards technology,
305
1015596
3734
Eso significa invertir más en la tecnología
16:59
rather than humans doing the work --
306
1019354
1873
y no en las personas que hacen el trabajo,
17:01
that means the humans receiving the abuse
307
1021251
2413
incluyendo las que reciben abuso
17:03
and also the humans having to review that work.
308
1023688
3026
y las que revisan ese contenido.
17:06
So we want to make sure
309
1026738
1673
Queremos asegurarnos
17:08
that we're not just encouraging more work
310
1028435
2841
de que no fomentamos más trabajo
17:11
around something that's super, super negative,
311
1031300
2629
alrededor de algo tan negativo,
17:13
and we want to have a good balance between the technology
312
1033953
2674
y queremos tener un buen balance entre la tecnología
17:16
and where humans can actually be creative,
313
1036651
2852
y el lugar donde las personas puedan ser creativas,
17:19
which is the judgment of the rules,
314
1039527
3090
lo cual juzga las reglas,
17:22
and not just all the mechanical stuff of finding and reporting them.
315
1042641
3267
y no solo encontrar y reportar cosas mecánicamente.
17:25
So that's how we think about it.
316
1045932
1530
Así es como pensamos en eso.
17:27
CA: I'm curious to dig in more about what you said.
317
1047486
2406
CA: Me da curiosidad abordar lo que dices.
17:29
I mean, I love that you said you are looking for ways
318
1049916
2605
Me encanta que digas que buscan maneras
17:32
to re-tweak the fundamental design of the system
319
1052545
3462
de modificar el diseño fundamental del sistema
17:36
to discourage some of the reactive behavior, and perhaps --
320
1056031
4875
para disuadir parte del comportamiento reactivo, y tal vez
17:40
to use Tristan Harris-type language --
321
1060930
2705
usar el tipo de lenguaje de Tristan Harris,
17:43
engage people's more reflective thinking.
322
1063659
4288
y captar el pensamiento reflexivo de las personas.
17:47
How far advanced is that?
323
1067971
1854
¿Qué tan avanzado está eso?
17:49
What would alternatives to that "like" button be?
324
1069849
4305
¿Cuáles serían las alternativas a ese botón de "me gusta"?
17:55
JD: Well, first and foremost,
325
1075518
3575
JD: Primero que nada,
17:59
my personal goal with the service is that I believe fundamentally
326
1079117
5753
mi meta personal con el servicio es que realmente considero
18:04
that public conversation is critical.
327
1084894
2702
que la conversación pública es crucial.
18:07
There are existential problems facing the world
328
1087620
2647
Hay crisis existenciales en el mundo,
18:10
that are facing the entire world, not any one particular nation-state,
329
1090291
4163
en todo el mundo y no solo en una nación en particular,
18:14
that global public conversation benefits.
330
1094478
2649
que se benefician con esa conversación pública global.
18:17
And that is one of the unique dynamics of Twitter,
331
1097151
2372
Esa es una de las dinámicas únicas de Twitter,
18:19
that it is completely open,
332
1099547
1814
es completamente abierto, público y fluido
18:21
it is completely public,
333
1101385
1596
18:23
it is completely fluid,
334
1103005
1399
18:24
and anyone can see any other conversation and participate in it.
335
1104428
4038
y cualquiera puede ver las conversaciones y participar en ellas.
18:28
So there are conversations like climate change.
336
1108490
2206
Hay conversaciones sobre el cambio climático,
18:30
There are conversations like the displacement in the work
337
1110720
2682
sobre el desplazamiento laboral debido a la inteligencia artificial,
18:33
through artificial intelligence.
338
1113426
2000
18:35
There are conversations like economic disparity.
339
1115450
3006
y sobre la desigualdad económica.
18:38
No matter what any one nation-state does,
340
1118480
2765
Una nación no podrá resolver el problema por su cuenta sin importar lo que haga.
18:41
they will not be able to solve the problem alone.
341
1121269
2421
18:43
It takes coordination around the world,
342
1123714
2643
Se necesita una coordinación global,
18:46
and that's where I think Twitter can play a part.
343
1126381
3047
y creo que ahí es donde Twitter puede actuar.
18:49
The second thing is that Twitter, right now, when you go to it,
344
1129452
5642
Lo segundo es que, actualmente, cuando entran a Twitter,
18:55
you don't necessarily walk away feeling like you learned something.
345
1135118
3746
no sienten que aprendieron algo.
18:58
Some people do.
346
1138888
1276
Algunos sí lo hacen.
19:00
Some people have a very, very rich network,
347
1140188
3107
Algunos tienen una red muy, muy, valiosa,
19:03
a very rich community that they learn from every single day.
348
1143319
3117
una comunidad muy valiosa de la que aprenden a diario.
19:06
But it takes a lot of work and a lot of time to build up to that.
349
1146460
3691
Pero toma mucho trabajo y mucho tiempo construir algo así.
19:10
So we want to get people to those topics and those interests
350
1150175
3448
Queremos que las personas lleguen a esos temas e intereses
19:13
much, much faster
351
1153647
1579
de forma más rápida
19:15
and make sure that they're finding something that,
352
1155250
2566
y asegurarnos de que encuentren algo,
19:18
no matter how much time they spend on Twitter --
353
1158728
2360
sin importar cuánto tiempo estén en Twitter...
19:21
and I don't want to maximize the time on Twitter,
354
1161112
2358
y no quiero incrementar el tiempo en Twitter,
19:23
I want to maximize what they actually take away from it
355
1163494
2910
quiero incrementar lo que se llevan de ahí,
19:26
and what they learn from it, and --
356
1166428
2030
lo que aprenden, y...
19:29
CA: Well, do you, though?
357
1169598
1328
CA: ¿Seguro?
19:30
Because that's the core question that a lot of people want to know.
358
1170950
3244
Porque eso es realmente lo que la gente quiere saber.
19:34
Surely, Jack, you're constrained, to a huge extent,
359
1174218
3638
Claro, Jack, están atados en gran medida
19:37
by the fact that you're a public company,
360
1177880
2007
por el hecho de que son una compañía pública,
19:39
you've got investors pressing on you,
361
1179911
1774
tienen inversionistas presionándolos,
19:41
the number one way you make your money is from advertising --
362
1181709
3559
y su principal forma de ganar dinero es por medio de publicidad
19:45
that depends on user engagement.
363
1185292
2772
que depende de la participación de los usuarios.
19:48
Are you willing to sacrifice user time, if need be,
364
1188088
4700
¿Están dispuestos a sacrificar el tiempo de usuario, si fuera necesario,
19:52
to go for a more reflective conversation?
365
1192812
3729
para tener conversaciones más reflexivas?
19:56
JD: Yeah; more relevance means less time on the service,
366
1196565
3111
JD: Sí, más relevancia significa menos tiempo en el servicio,
19:59
and that's perfectly fine,
367
1199700
1937
eso me parece bien
20:01
because we want to make sure that, like, you're coming to Twitter,
368
1201661
3099
porque queremos asegurarnos de que entren a Twitter,
20:04
and you see something immediately that you learn from and that you push.
369
1204784
4520
e inmediatamente vean algo de lo que aprendan y que lo promuevan.
20:09
We can still serve an ad against that.
370
1209328
3420
Y eso puede tener publicidad.
20:12
That doesn't mean you need to spend any more time to see more.
371
1212772
2921
No significa que deben pasar más tiempo ahí para ver más.
20:15
The second thing we're looking at --
372
1215717
1733
Lo segundo que estamos observando...
20:17
CA: But just -- on that goal, daily active usage,
373
1217474
2698
CA: Pero con esa meta de uso diario activo,
20:20
if you're measuring that, that doesn't necessarily mean things
374
1220196
3245
si lo están midiendo no significa necesariamente algo
20:23
that people value every day.
375
1223465
1738
que las personas valoren cada día.
20:25
It may well mean
376
1225227
1161
Podría significar
20:26
things that people are drawn to like a moth to the flame, every day.
377
1226412
3306
cosas que atraen a las personas, como polilla a las llamas.
20:29
We are addicted, because we see something that pisses us off,
378
1229742
3022
Somos adictos porque vemos algo que nos molesta,
20:32
so we go in and add fuel to the fire,
379
1232788
3178
así que vamos a añadirle leña al fuego,
20:35
and the daily active usage goes up,
380
1235990
1927
y el uso diario activo incrementa,
20:37
and there's more ad revenue there,
381
1237941
1715
genera más ingresos de publicidad,
20:39
but we all get angrier with each other.
382
1239680
2752
pero nos molestamos más con los demás.
20:42
How do you define ...
383
1242456
2509
¿Cómo definen...?
20:44
"Daily active usage" seems like a really dangerous term to be optimizing.
384
1244989
4126
El "uso diario activo" suena como algo peligroso para optimizar.
20:49
(Applause)
385
1249139
5057
(Aplausos)
20:54
JD: Taken alone, it is,
386
1254220
1268
JD: Lo es, por su cuenta,
20:55
but you didn't let me finish the other metric,
387
1255512
2346
pero no me dejaste terminar la otra métrica,
20:57
which is, we're watching for conversations
388
1257882
3727
y es que buscamos conversaciones
21:01
and conversation chains.
389
1261633
2129
y cadenas de conversaciones.
21:03
So we want to incentivize healthy contribution back to the network,
390
1263786
5076
Queremos incentivar las contribuciones sanas hacia la red
21:08
and what we believe that is is actually participating in conversation
391
1268886
4181
y creemos que eso es, en realidad, participar en una conversación
21:13
that is healthy,
392
1273091
1197
que sea sana,
21:14
as defined by those four indicators I articulated earlier.
393
1274312
5037
como se define por los cuatro indicadores que formulé anteriormente.
21:19
So you can't just optimize around one metric.
394
1279373
2657
Así que no solo se puede optimizar una métrica.
21:22
You have to balance and look constantly
395
1282054
2752
Se tienen que balancear y tenemos que buscar constantemente
21:24
at what is actually going to create a healthy contribution to the network
396
1284830
4083
lo que en realidad va a crear una contribución sana en la red
21:28
and a healthy experience for people.
397
1288937
2341
y una experiencia sana para las personas.
21:31
Ultimately, we want to get to a metric
398
1291302
1866
Queremos llegar a una métrica
21:33
where people can tell us, "Hey, I learned something from Twitter,
399
1293192
3757
en la cual las personas puedan decirnos que aprendieron algo de Twitter
21:36
and I'm walking away with something valuable."
400
1296973
2167
y se llevan algo valioso.
21:39
That is our goal ultimately over time,
401
1299164
2043
Esa es nuestra finalidad con el tiempo,
21:41
but that's going to take some time.
402
1301231
1809
pero nos tomará algo de tiempo.
21:43
CA: You come over to many, I think to me, as this enigma.
403
1303064
5282
CA: Eres un enigma para muchos y para mí también.
21:48
This is possibly unfair, but I woke up the other night
404
1308370
4396
Esto tal vez sea injusto, pero la otra noche desperté
21:52
with this picture of how I found I was thinking about you and the situation,
405
1312790
3879
con una imagen de cómo pensaba en ti y en esta situación,
21:56
that we're on this great voyage with you on this ship called the "Twittanic" --
406
1316693
6903
estamos contigo en esta travesía en un barco llamado "El Twittanic" --
22:03
(Laughter)
407
1323620
1281
(Risas)
22:04
and there are people on board in steerage
408
1324925
4357
y hay personas a bordo en el entrepuente
22:09
who are expressing discomfort,
409
1329306
2203
expresando incomodidad,
22:11
and you, unlike many other captains,
410
1331533
2543
y tú, a diferencia de otros capitanes,
22:14
are saying, "Well, tell me, talk to me, listen to me, I want to hear."
411
1334100
3431
dices, "Bueno, dime, háblame, escúchame, quiero escuchar".
22:17
And they talk to you, and they say, "We're worried about the iceberg ahead."
412
1337555
3619
Y te hablan y dicen, "Nos preocupa el iceberg que está adelante".
22:21
And you go, "You know, that is a powerful point,
413
1341198
2242
Y dices, "Ese un muy buen punto,
22:23
and our ship, frankly, hasn't been built properly
414
1343464
2430
y nuestro barco no se construyó correctamente
22:25
for steering as well as it might."
415
1345918
1669
para maniobrar como debería".
22:27
And we say, "Please do something."
416
1347611
1658
Y decimos, "Por favor, haz algo".
22:29
And you go to the bridge,
417
1349293
1411
Y vas al puente de mando,
22:30
and we're waiting,
418
1350728
2295
te esperamos,
22:33
and we look, and then you're showing this extraordinary calm,
419
1353047
4548
te miramos, y te ves extremadamente calmado,
22:37
but we're all standing outside, saying, "Jack, turn the fucking wheel!"
420
1357619
3883
pero todos estamos afuera gritando: "¡Jack, mueve el maldito timón!".
22:41
You know?
421
1361526
1151
¿Sabes?
22:42
(Laughter)
422
1362701
1335
(Risas)
22:44
(Applause)
423
1364060
2381
(Aplausos)
22:46
I mean --
424
1366465
1166
Digo...
22:47
(Applause)
425
1367655
1734
(Aplausos)
22:49
It's democracy at stake.
426
1369413
4594
La democracia está en juego.
22:54
It's our culture at stake. It's our world at stake.
427
1374031
2821
Nuestra cultura está en juego. Nuestro mundo está en juego.
22:56
And Twitter is amazing and shapes so much.
428
1376876
4706
Twitter es genial y moldea muchas cosas.
23:01
It's not as big as some of the other platforms,
429
1381606
2233
No es tan grande como otras plataformas,
23:03
but the people of influence use it to set the agenda,
430
1383863
2804
pero los influyentes lo usan para impulsar sus agendas,
23:06
and it's just hard to imagine a more important role in the world than to ...
431
1386691
6787
y es difícil imaginar un papel más importante en el mundo que...
23:13
I mean, you're doing a brilliant job of listening, Jack, and hearing people,
432
1393502
3784
Estás haciendo un excelente trabajo escuchando, Jack, escuchando a la gente,
23:17
but to actually dial up the urgency and move on this stuff --
433
1397310
4445
pero en verdad incrementar la urgencia y abordar estas cosas...
23:21
will you do that?
434
1401779
2201
¿lo harás?
23:24
JD: Yes, and we have been moving substantially.
435
1404750
3815
JD: Sí, y lo hemos abordado considerablemente.
23:28
I mean, there's been a few dynamics in Twitter's history.
436
1408589
3225
Hemos tenido varias dinámicas en la historia de Twitter.
23:31
One, when I came back to the company,
437
1411838
2083
Cuando regresé a la compañía,
23:35
we were in a pretty dire state in terms of our future,
438
1415477
6256
estábamos en un estado terrible en cuanto a nuestro futuro,
23:41
and not just from how people were using the platform,
439
1421757
4634
no solo en la forma en la que las personas usaban la plataforma,
23:46
but from a corporate narrative as well.
440
1426415
2047
sino también desde una narrativa corporativa.
23:48
So we had to fix a bunch of the foundation,
441
1428486
3204
Tuvimos que arreglar muchos de los fundamentos,
23:51
turn the company around,
442
1431714
1969
transformar la compañía,
23:53
go through two crazy layoffs,
443
1433707
3111
pasar por dos grandes despidos,
23:56
because we just got too big for what we were doing,
444
1436842
3793
porque crecimos demasiado para lo que estábamos haciendo,
24:00
and we focused all of our energy
445
1440659
2060
y enfocamos toda nuestra energía
24:02
on this concept of serving the public conversation.
446
1442743
3508
en el concepto de servir la conversación pública.
24:06
And that took some work.
447
1446275
1451
Eso tomó algo de trabajo.
24:07
And as we dived into that,
448
1447750
2608
Mientras nos adentramos en eso,
24:10
we realized some of the issues with the fundamentals.
449
1450382
2992
nos dimos cuenta de algunos de los problemas con nuestros fundamentos.
24:14
We could do a bunch of superficial things to address what you're talking about,
450
1454120
4656
Podíamos hacer muchas cosas superficiales para resolver lo que mencionas,
24:18
but we need the changes to last,
451
1458800
1790
pero necesitamos que los cambios duren
24:20
and that means going really, really deep
452
1460614
2459
y eso implica profundizar muchísimo
24:23
and paying attention to what we started 13 years ago
453
1463097
4350
y prestarle atención a lo que iniciamos hace 13 años
24:27
and really questioning
454
1467471
2261
y preguntarnos
24:29
how the system works and how the framework works
455
1469756
2566
cómo funciona el sistema y cómo funciona la estructura
24:32
and what is needed for the world today,
456
1472346
3833
y qué necesita el mundo actualmente,
24:36
given how quickly everything is moving and how people are using it.
457
1476203
4024
basándose en lo rápido en lo que todo se mueve y cómo lo usa la gente.
24:40
So we are working as quickly as we can, but quickness will not get the job done.
458
1480251
6544
Trabajamos lo más rápido posible, pero ser rápidos no es suficiente.
24:46
It's focus, it's prioritization,
459
1486819
2611
Debemos enfocarnos, priorizar,
24:49
it's understanding the fundamentals of the network
460
1489454
2946
entender los fundamentos de la red,
24:52
and building a framework that scales
461
1492424
2842
construir un marco escalable
24:55
and that is resilient to change,
462
1495290
2351
y resistente a los cambios,
24:57
and being open about where we are and being transparent about where are
463
1497665
5429
y ser abiertos y claros sobre dónde nos encontramos
25:03
so that we can continue to earn trust.
464
1503118
2179
para seguir inspirando confianza.
25:06
So I'm proud of all the frameworks that we've put in place.
465
1506141
3331
Estoy orgulloso de los marcos que hemos implementado.
25:09
I'm proud of our direction.
466
1509496
2888
Estoy orgulloso de nuestra dirección.
25:12
We obviously can move faster,
467
1512915
2718
Pudimos abordarlo más rápido,
25:15
but that required just stopping a bunch of stupid stuff we were doing in the past.
468
1515657
4719
pero requería detener un montón de cosas estúpidas que estábamos haciendo.
25:21
CA: All right.
469
1521067
1164
CA: Está bien.
25:22
Well, I suspect there are many people here who, if given the chance,
470
1522255
4067
Sospecho que muchos aquí, si tuvieran la oportunidad,
25:26
would love to help you on this change-making agenda you're on,
471
1526346
3989
estarían encantados de ayudarte con esta agenda de cambios,
25:30
and I don't know if Whitney --
472
1530359
1542
y no sé si Whitney...
25:31
Jack, thank you for coming here and speaking so openly.
473
1531925
2761
Gracias por venir y por hablar de forma tan abierta, Jack.
25:34
It took courage.
474
1534710
1527
Tomó mucho valor hacerlo.
25:36
I really appreciate what you said, and good luck with your mission.
475
1536261
3384
En verdad aprecio lo que dijiste y buena suerte con tu misión.
25:39
JD: Thank you so much. Thanks for having me.
476
1539669
2095
JD: Muchas gracias. Gracias por invitarme.
25:41
(Applause)
477
1541788
3322
(Aplausos)
25:45
Thank you.
478
1545134
1159
Gracias.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7