Del Harvey: The strangeness of scale at Twitter

Del Harvey: La extrañeza de la escala en Twitter

105,340 views

2014-03-27 ・ TED


New videos

Del Harvey: The strangeness of scale at Twitter

Del Harvey: La extrañeza de la escala en Twitter

105,340 views ・ 2014-03-27

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti Revisor: Eduardo Sierra
00:12
My job at Twitter
0
12984
1291
Mi trabajo en Twitter
00:14
is to ensure user trust,
1
14275
1978
es asegurar la confianza del usuario,
00:16
protect user rights and keep users safe,
2
16253
2837
proteger sus derechos y mantener la seguridad
00:19
both from each other
3
19090
1260
de unos respecto de otros
00:20
and, at times, from themselves.
4
20350
3899
y, a veces, de sí mismos.
00:24
Let's talk about what scale looks like at Twitter.
5
24249
4275
Veamos qué es la escala para Twitter.
00:28
Back in January 2009,
6
28524
2870
En enero de 2009,
00:31
we saw more than two million new tweets each day
7
31394
3331
vimos más de 2 millones de tuits por día
00:34
on the platform.
8
34725
1764
en la plataforma.
00:36
January 2014, more than 500 million.
9
36489
5908
En enero de 2014, más de 500 millones.
00:42
We were seeing two million tweets
10
42397
2492
Vimos 2 millones de tuits
00:44
in less than six minutes.
11
44889
2176
en menos de 6 minutos.
00:47
That's a 24,900-percent increase.
12
47065
6984
Es un crecimiento del 24 900 %.
00:54
Now, the vast majority of activity on Twitter
13
54049
3253
Ahora, la gran mayoría de la actividad en Twitter
00:57
puts no one in harm's way.
14
57302
1503
no pone a nadie en peligro.
00:58
There's no risk involved.
15
58805
1935
No hay riesgo en esto.
01:00
My job is to root out and prevent activity that might.
16
60740
5753
Mi trabajo consiste en prevenir o erradicar la actividad potencialmente peligrosa.
01:06
Sounds straightforward, right?
17
66493
1973
Suena fácil, ¿no?
01:08
You might even think it'd be easy,
18
68466
1152
Quizá piensen que es fácil,
01:09
given that I just said the vast majority
19
69618
2170
dado que acabo de decir que la gran mayoría
01:11
of activity on Twitter puts no one in harm's way.
20
71788
3810
de la actividad en Twitter no pone a nadie en peligro.
01:15
Why spend so much time
21
75598
2169
¿Por qué pasar tanto tiempo
01:17
searching for potential calamities
22
77767
2743
buscando posibles calamidades
01:20
in innocuous activities?
23
80510
2900
en actividades inocuas?
01:23
Given the scale that Twitter is at,
24
83410
2940
Dada la escala que tiene Twitter,
01:26
a one-in-a-million chance happens
25
86350
2357
una probabilidad en un millón ocurre
01:28
500 times a day.
26
88707
4876
500 veces al día.
01:33
It's the same for other companies
27
93583
1445
Lo mismo ocurre en otras empresas
01:35
dealing at this sort of scale.
28
95028
1471
que tienen esta escala.
01:36
For us, edge cases,
29
96499
1708
Para nosotros, los casos límite,
01:38
those rare situations that are unlikely to occur,
30
98207
3625
esas situaciones raras que difícilmente ocurren,
01:41
are more like norms.
31
101832
2622
son la norma.
01:44
Say 99.999 percent of tweets
32
104454
3942
Digamos que el 99,999 % de los tuits
01:48
pose no risk to anyone.
33
108396
1888
no supone riesgo para nadie.
01:50
There's no threat involved.
34
110284
1066
No hay ninguna amenaza.
01:51
Maybe people are documenting travel landmarks
35
111350
2954
Quizá la gente documenta hitos de los viajes
01:54
like Australia's Heart Reef,
36
114304
1963
como el corazón de Coral de Australia,
01:56
or tweeting about a concert they're attending,
37
116267
2921
o tuitear sobre un concierto al que están asistiendo,
01:59
or sharing pictures of cute baby animals.
38
119188
4747
o compartir fotos de lindas crías de animales.
02:03
After you take out that 99.999 percent,
39
123935
4509
Al quitar ese 99,999 %,
02:08
that tiny percentage of tweets remaining
40
128444
3529
ese pequeño porcentaje de tuits restantes
02:11
works out to roughly
41
131973
2389
se reduce a más o menos
02:14
150,000 per month.
42
134362
3475
150 000 por mes.
02:17
The sheer scale of what we're dealing with
43
137837
2456
La magnitud de mensajes procesados
02:20
makes for a challenge.
44
140293
2312
es en sí un desafío.
02:22
You know what else makes my role
45
142605
1178
¿Saben que otra cosa hace a mi trabajo
02:23
particularly challenging?
46
143783
3107
particularmente desafiante?
02:26
People do weird things.
47
146890
5123
La gente hace cosas extrañas.
02:32
(Laughter)
48
152013
1829
(Risas)
02:33
And I have to figure out what they're doing,
49
153842
2391
Y yo debo entender qué están haciendo,
02:36
why, and whether or not there's risk involved,
50
156233
2249
por qué y si eso implica o no riesgo,
02:38
often without much in terms of context
51
158482
2168
a menudo sin mucho contexto
02:40
or background.
52
160650
1847
ni trasfondo.
02:42
I'm going to show you some examples
53
162497
2077
Les mostraré algunos ejemplos
02:44
that I've run into during my time at Twitter --
54
164574
2005
que encontré durante mi trabajo en Twitter
02:46
these are all real examples —
55
166579
1620
-- son ejemplos reales --
02:48
of situations that at first seemed cut and dried,
56
168199
2653
de situaciones que en principio parecían obvias,
02:50
but the truth of the matter was something
57
170852
1643
pero que en realidad era algo
02:52
altogether different.
58
172495
1550
totalmente diferente.
02:54
The details have been changed
59
174045
1977
Se cambiaron los detalles
02:56
to protect the innocent
60
176022
1257
para proteger al inocente
02:57
and sometimes the guilty.
61
177279
3233
y a veces al culpable.
03:00
We'll start off easy.
62
180512
3005
Empezaremos con algo simple.
03:03
["Yo bitch"]
63
183517
1793
["Tú, perra"]
03:05
If you saw a Tweet that only said this,
64
185310
3228
Si uno ve un tuit que solo dice esto,
03:08
you might think to yourself,
65
188538
1694
uno puede pensar,
03:10
"That looks like abuse."
66
190232
1653
"Parece abuso".
03:11
After all, why would you want to receive the message,
67
191885
3107
Después de todo, ¿por qué querrías recibir el mensaje
03:14
"Yo, bitch."
68
194992
2218
"Tú, perra".
03:17
Now, I try to stay relatively hip
69
197210
4663
Pero yo trato de estar al tanto
03:21
to the latest trends and memes,
70
201873
2512
de las tendencias y los últimos memes,
03:24
so I knew that "yo, bitch"
71
204385
2704
por eso sabía que "tú, perra"
03:27
was also often a common greeting between friends,
72
207089
3154
a menudo era un saludo común entre amigos,
03:30
as well as being a popular "Breaking Bad" reference.
73
210243
4262
así como una referencia popular de "Breaking Bad".
03:34
I will admit that I did not expect
74
214505
2487
Tengo que admitir que no esperaba
03:36
to encounter a fourth use case.
75
216992
2841
encontrar un cuarto uso.
03:39
It turns out it is also used on Twitter
76
219833
3104
Resulta que también se usa en Twitter
03:42
when people are role-playing as dogs.
77
222937
3062
cuando la gente hace el papel de perros.
03:45
(Laughter)
78
225999
5279
(Risas)
03:51
And in fact, in that case,
79
231278
1666
Y de hecho, en ese caso,
03:52
it's not only not abusive,
80
232944
1609
no solo no es abusivo,
03:54
it's technically just an accurate greeting.
81
234553
3139
técnicamente es un saludo apropiado.
03:57
(Laughter)
82
237692
2889
(Risas)
04:00
So okay, determining whether or not
83
240581
2071
Por eso determinar si algo es o no
04:02
something is abusive without context,
84
242652
1848
abusivo sin tener contexto,
04:04
definitely hard.
85
244500
1592
sin duda es difícil.
04:06
Let's look at spam.
86
246092
2717
Veamos el spam.
04:08
Here's an example of an account engaged
87
248809
1960
Este es el ejemplo de una cuenta que participó
04:10
in classic spammer behavior,
88
250769
1668
en una conducta clásica de spam,
04:12
sending the exact same message
89
252437
1559
enviando exactamente el mismo mensaje
04:13
to thousands of people.
90
253996
1804
a miles de personas.
04:15
While this is a mockup I put together using my account,
91
255800
2793
Si bien este es un ejemplo que hice con mi cuenta,
04:18
we see accounts doing this all the time.
92
258593
3001
vemos cuentas que hacen esto todo el tiempo.
04:21
Seems pretty straightforward.
93
261594
1979
Parece bastante simple.
04:23
We should just automatically suspend accounts
94
263573
2053
Deberíamos suspender automáticamente las cuentas
04:25
engaging in this kind of behavior.
95
265626
3307
que tienen este comportamiento.
04:28
Turns out there's some exceptions to that rule.
96
268933
3210
Pero resulta que hay excepciones a la regla.
04:32
Turns out that that message could also be a notification
97
272143
2883
Puede que ese mensaje podría ser una suscripción
04:35
you signed up for that the International Space Station is passing overhead
98
275026
3889
a una notificación que indica si la Estación Espacial está pasando por encima
04:38
because you wanted to go outside
99
278915
1846
porque uno quería salir
04:40
and see if you could see it.
100
280761
1948
y tratar de verla.
04:42
You're not going to get that chance
101
282709
1225
No tendrán esa oportunidad
04:43
if we mistakenly suspend the account
102
283934
1847
si suspendemos la cuenta por error
04:45
thinking it's spam.
103
285781
2266
pensando que es spam.
04:48
Okay. Let's make the stakes higher.
104
288047
3526
Bien, subamos la apuesta.
04:51
Back to my account,
105
291573
1916
Volvamos a mi cuenta,
04:53
again exhibiting classic behavior.
106
293489
3505
veamos el comportamiento clásico.
04:56
This time it's sending the same message and link.
107
296994
2643
Esta vez se está enviando el mismo mensaje y enlace.
04:59
This is often indicative of something called phishing,
108
299637
2774
A menudo es indicativo de algo llamado phishing,
05:02
somebody trying to steal another person's account information
109
302411
3178
alguien que trata de robar la información de la cuenta de otra persona
05:05
by directing them to another website.
110
305589
2203
redirigiéndolos a otro sitio web.
05:07
That's pretty clearly not a good thing.
111
307792
4194
Eso claramente no es algo bueno.
05:11
We want to, and do, suspend accounts
112
311986
1930
Queremos hacerlo, lo hacemos, suspendemos las cuentas
05:13
engaging in that kind of behavior.
113
313916
2624
que tienen ese comportamiento.
05:16
So why are the stakes higher for this?
114
316540
3247
¿Por qué los riesgos son más altos en este caso?
05:19
Well, this could also be a bystander at a rally
115
319787
2999
Bueno, también podría ser un espectador en un mitin
05:22
who managed to record a video
116
322786
1910
que grabó un video
05:24
of a police officer beating a non-violent protester
117
324696
3270
de un oficial de policía que golpea a un manifestante no violento
05:27
who's trying to let the world know what's happening.
118
327966
2975
que trata de contarle al mundo lo que ocurre.
05:30
We don't want to gamble
119
330941
1643
No queremos participar
05:32
on potentially silencing that crucial speech
120
332584
2517
potencialmente silenciando ese discurso crucial
05:35
by classifying it as spam and suspending it.
121
335101
2929
tildándolo de spam y suspendiéndolo.
05:38
That means we evaluate hundreds of parameters
122
338030
2879
Eso significa que evaluamos cientos de parámetros
05:40
when looking at account behaviors,
123
340909
1688
al analizar el comportamiento de las cuentas
05:42
and even then, we can still get it wrong
124
342597
2016
y aún así, todavía podemos equivocarnos
05:44
and have to reevaluate.
125
344613
2236
y tenemos que volver a evaluar.
05:46
Now, given the sorts of challenges I'm up against,
126
346849
3708
Ahora, dado los desafíos que enfrentamos
05:50
it's crucial that I not only predict
127
350557
2696
es crucial no solo predecir
05:53
but also design protections for the unexpected.
128
353253
3784
sino también diseñar protecciones para lo inesperado.
05:57
And that's not just an issue for me,
129
357037
2342
Y eso no solo es un problema para mí,
05:59
or for Twitter, it's an issue for you.
130
359379
2087
o para Twitter, es un problema para Uds.
06:01
It's an issue for anybody who's building or creating
131
361466
2406
Es un problema para cualquiera que esté construyendo o creando
06:03
something that you think is going to be amazing
132
363872
1925
algo que uno cree que será increíble
06:05
and will let people do awesome things.
133
365797
2789
y le permitirá a la gente hacer cosas impresionantes.
06:08
So what do I do?
134
368586
2866
Entonces ¿qué hago?
06:11
I pause and I think,
135
371452
3318
Me detengo y pienso,
06:14
how could all of this
136
374770
2095
¿cómo podría todo esto
06:16
go horribly wrong?
137
376865
3793
terminar muy mal?
06:20
I visualize catastrophe.
138
380658
4453
Visualizo la catástrofe.
06:25
And that's hard. There's a sort of
139
385111
2463
Y eso es difícil. Hay una especie
06:27
inherent cognitive dissonance in doing that,
140
387574
2848
de disonancia cognitiva en esto,
06:30
like when you're writing your wedding vows
141
390422
1812
como cuando estás declarando los votos matrimoniales
06:32
at the same time as your prenuptial agreement.
142
392234
2646
y al mismo tiempo el acuerdo prenupcial.
06:34
(Laughter)
143
394880
1696
(Risas)
06:36
But you still have to do it,
144
396576
2373
Y aún así hay que hacerlo,
06:38
particularly if you're marrying 500 million tweets per day.
145
398949
4446
sobre todo si te estás casando con 500 millones de tuits por día.
06:43
What do I mean by "visualize catastrophe?"
146
403395
3097
¿A qué me refiero con "visualizo la catástrofe"?
06:46
I try to think of how something as
147
406492
2762
Trato de pensar cómo algo
06:49
benign and innocuous as a picture of a cat
148
409254
3228
tan benigno e inocuo como la foto de un gato
06:52
could lead to death,
149
412482
1104
podría llevar a la muerte,
06:53
and what to do to prevent that.
150
413586
2326
y qué hacer para evitarlo.
06:55
Which happens to be my next example.
151
415912
2383
Que resulta ser mi siguiente ejemplo.
06:58
This is my cat, Eli.
152
418295
3110
Este es mi gato, Eli.
07:01
We wanted to give users the ability
153
421405
1981
Queríamos darle a los usuarios la posibilidad
07:03
to add photos to their tweets.
154
423386
2073
de agregar fotos a sus tuits.
07:05
A picture is worth a thousand words.
155
425459
1597
Una foto vale más que mil palabras.
07:07
You only get 140 characters.
156
427056
2009
Solo tienes 140 caracteres.
07:09
You add a photo to your tweet,
157
429065
1200
Agregas una foto al tuit,
07:10
look at how much more content you've got now.
158
430265
3038
y mira cuánto más contenido tienes ahora.
07:13
There's all sorts of great things you can do
159
433303
1677
Pueden hacerse grandes cosas
07:14
by adding a photo to a tweet.
160
434980
2007
al agregar una foto a un tuit.
07:16
My job isn't to think of those.
161
436987
2280
Mi trabajo no es pensar en eso.
07:19
It's to think of what could go wrong.
162
439267
2747
Es pensar qué puede terminar mal.
07:22
How could this picture
163
442014
1892
¿Cómo esta imagen puede
07:23
lead to my death?
164
443906
3539
llevarme a la muerte?
07:27
Well, here's one possibility.
165
447445
3160
Bueno, esta es una posibilidad.
07:30
There's more in that picture than just a cat.
166
450605
3086
Hay mucho más que un gato en esa foto.
07:33
There's geodata.
167
453691
2092
Hay información geográfica.
07:35
When you take a picture with your smartphone
168
455783
2212
Cuando tomas una foto con tu móvil
07:37
or digital camera,
169
457995
1299
o con tu cámara digital
07:39
there's a lot of additional information
170
459294
1654
hay mucha información adicional
07:40
saved along in that image.
171
460948
1616
guardada junto con esa imagen.
07:42
In fact, this image also contains
172
462564
1932
De hecho, esta imagen también contiene
07:44
the equivalent of this,
173
464496
1805
el equivalente a esto,
07:46
more specifically, this.
174
466301
3079
más específicamente, esto.
07:49
Sure, it's not likely that someone's going to try
175
469380
1956
Seguro, no es probable que alguien trate
07:51
to track me down and do me harm
176
471336
2285
de localizarme y hacerme daño
07:53
based upon image data associated
177
473621
1784
basado en los datos asociados a la foto
07:55
with a picture I took of my cat,
178
475405
1948
que le tomé a mi gato,
07:57
but I start by assuming the worst will happen.
179
477353
3651
pero empiezo suponiendo que ocurrirá lo peor.
08:01
That's why, when we launched photos on Twitter,
180
481004
2338
Por eso, cuando lanzamos las fotos en Twitter,
08:03
we made the decision to strip that geodata out.
181
483342
3821
tomamos la decisión de quitar los datos geográficos.
08:07
(Applause)
182
487163
5847
(Aplausos)
08:13
If I start by assuming the worst
183
493010
2613
Si empiezo suponiendo lo peor
08:15
and work backwards,
184
495623
947
y voy hacia atrás,
08:16
I can make sure that the protections we build
185
496570
2553
puedo asegurar que las protecciones que construimos
08:19
work for both expected
186
499123
1768
funcionan para los casos
08:20
and unexpected use cases.
187
500891
2078
esperados y para los inesperados.
08:22
Given that I spend my days and nights
188
502969
2945
Dado que paso días y noches
08:25
imagining the worst that could happen,
189
505914
2541
imaginando lo peor que podría suceder,
08:28
it wouldn't be surprising if my worldview was gloomy.
190
508455
4257
no sería de extrañar que mi visión del mundo sea sombría.
08:32
(Laughter)
191
512712
1783
(Risas)
08:34
It's not.
192
514495
1417
No lo es.
08:35
The vast majority of interactions I see --
193
515912
3876
La gran mayoría de las interacciones que veo
08:39
and I see a lot, believe me -- are positive,
194
519788
3901
-- y veo muchas, créanme -- son positivas,
08:43
people reaching out to help
195
523689
1924
personas que tratan de ayudar
08:45
or to connect or share information with each other.
196
525613
3448
o de conectarse o de compartir información con otros.
08:49
It's just that for those of us dealing with scale,
197
529061
3323
Solo nosotros, los que trabajamos con grandes volúmenes,
08:52
for those of us tasked with keeping people safe,
198
532384
3800
los que trabajamos en la seguridad de las personas,
08:56
we have to assume the worst will happen,
199
536184
2546
los que tenemos que suponer lo peor,
08:58
because for us, a one-in-a-million chance
200
538730
4227
porque para nosotros, una posibilidad en un millón
09:02
is pretty good odds.
201
542957
2749
es una posibilidad bastante buena.
09:05
Thank you.
202
545706
1864
Gracias.
09:07
(Applause)
203
547570
4000
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7