Bruce Schneier: The security mirage

Bruce Schneier: El espejismo de la seguridad

78,218 views ・ 2011-04-27

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Carlo Dezerega Revisor: Veronica Vera
La seguridad es dos cosas diferentes:
00:16
So, security is two different things:
0
16010
2276
es una sensación, y es una realidad.
00:18
it's a feeling, and it's a reality.
1
18310
2526
Y son diferentes.
00:20
And they're different.
2
20860
1425
Podrían sentirse seguros
00:22
You could feel secure even if you're not.
3
22309
3427
aun cuando no lo estén.
00:25
And you can be secure
4
25760
1976
Y pueden estar seguros
00:27
even if you don't feel it.
5
27760
1850
aun cuando no se sientan seguros.
00:29
Really, we have two separate concepts
6
29634
2117
En realidad, tenemos dos conceptos distintos
00:31
mapped onto the same word.
7
31775
1652
asignados a la misma palabra.
00:33
And what I want to do in this talk is to split them apart --
8
33960
3626
Y lo que quiero hacer en esta charla
es separar el uno del otro
00:37
figuring out when they diverge and how they converge.
9
37610
3610
y darnos cuenta de cuándo divergen
y de cómo convergen.
00:41
And language is actually a problem here.
10
41711
2275
Y en realidad el lenguaje es un problema para esto.
No hay muchas palabras útiles
00:44
There aren't a lot of good words
11
44010
2076
para los conceptos que vamos a describir.
00:46
for the concepts we're going to talk about.
12
46110
2061
Así que si miran la seguridad
00:49
So if you look at security from economic terms,
13
49295
4120
del punto de vista económico,
se trata de intercambiar una cosa por otra.
00:53
it's a trade-off.
14
53439
1647
Cada vez que obtienen un poco de seguridad,
00:55
Every time you get some security, you're always trading off something.
15
55110
4132
siempre están intercambiándola por otra cosa.
Sea esta es una decisión personal
00:59
Whether this is a personal decision --
16
59266
1845
-si van a instalar una alarma antirrobo en su hogar-
01:01
whether you're going to install a burglar alarm in your home --
17
61135
3012
o una decisión nacional -si van a invadir otro país-
01:04
or a national decision,
18
64171
1157
01:05
where you're going to invade a foreign country --
19
65352
2310
van a sacrificar algo,
01:07
you're going to trade off something: money or time, convenience, capabilities,
20
67686
3782
ya sea dinero o tiempo, comodidad, capacidad,
quizás libertades fundamentales.
01:11
maybe fundamental liberties.
21
71492
2002
01:13
And the question to ask when you look at a security anything
22
73518
3274
Y lo que deben preguntarse cuando miran algo de seguridad
01:16
is not whether this makes us safer,
23
76816
3382
no es si esto nos hace más seguros,
sino que si vale la pena el sacrificio.
01:20
but whether it's worth the trade-off.
24
80222
2215
01:22
You've heard in the past several years, the world is safer
25
82461
3229
Han escuchado durante los últimos años que
el mundo es más seguro porque Saddam Hussein no gobierna Irak.
01:25
because Saddam Hussein is not in power.
26
85714
1890
Eso puede ser cierto, pero no es terriblemente relevante.
01:27
That might be true, but it's not terribly relevant.
27
87628
2603
La pregunta es: ¿Valió la pena?
01:30
The question is: Was it worth it?
28
90255
2831
Y pueden tomar su propia decisión
01:33
And you can make your own decision,
29
93110
2459
01:35
and then you'll decide whether the invasion was worth it.
30
95593
2733
y con eso decidir si la invasión valió la pena.
Así se piensa acerca de la seguridad;
01:38
That's how you think about security: in terms of the trade-off.
31
98350
3561
en términos de decidirse por algo en desmedro de otra cosa.
01:41
Now, there's often no right or wrong here.
32
101935
2610
A menudo no hay buenas o malas decisiones en esto.
Algunos de nosotros tenemos alarmas antirrobo en la casa
01:45
Some of us have a burglar alarm system at home and some of us don't.
33
105208
3308
y otros no lo tenemos.
01:48
And it'll depend on where we live,
34
108540
2731
Y dependerá de donde vivimos,
si es que vivimos solos o tenemos familia,
01:51
whether we live alone or have a family,
35
111295
1926
la cantidad de cosas preciadas que tengamos,
01:53
how much cool stuff we have,
36
113245
1668
01:54
how much we're willing to accept the risk of theft.
37
114937
3165
cuánto riesgo de robo
estemos dispuestos a aceptar.
01:58
In politics also, there are different opinions.
38
118943
2948
En la política también
hay diferentes opiniones.
02:02
A lot of times, these trade-offs are about more than just security,
39
122459
4435
Muchas veces, estos sacrificios
son sobre más que sólo seguridad,
02:06
and I think that's really important.
40
126918
1865
y creo que eso es muy importante.
02:08
Now, people have a natural intuition about these trade-offs.
41
128807
3308
Ahora, la gente tiene una intuición natural
sobre estos sacrificios.
02:12
We make them every day.
42
132588
1556
Los hacemos todos los días;
02:14
Last night in my hotel room, when I decided to double-lock the door,
43
134807
3533
anoche en mi habitación de hotel,
cuando decidí cerrar la puerta con doble llave,
02:18
or you in your car when you drove here;
44
138364
2000
o cuando ustedes conducían para acá en su automóvil,
cuando vamos a almorzar
02:21
when we go eat lunch
45
141191
1478
02:22
and decide the food's not poison and we'll eat it.
46
142693
2608
y decidimos que la comida no tiene veneno y la comemos.
02:25
We make these trade-offs again and again,
47
145325
3161
Tomamos estas decisiones una y otra vez
muchas veces al día.
02:28
multiple times a day.
48
148510
1576
A menudo ni siquiera nos damos cuenta.
02:30
We often won't even notice them.
49
150110
1589
02:31
They're just part of being alive; we all do it.
50
151723
2626
Son parte de estar vivo, todos lo hacemos.
Todas las especies lo hacen.
02:34
Every species does it.
51
154373
1555
02:36
Imagine a rabbit in a field, eating grass.
52
156474
2862
Imaginen un conejo en un campo, comiendo pasto,
y el conejo repentinamente ve un zorro.
02:39
And the rabbit sees a fox.
53
159360
1943
02:41
That rabbit will make a security trade-off:
54
161856
2049
Ese conejo tomará una decisión para su seguridad:
02:43
"Should I stay, or should I flee?"
55
163929
1904
"¿Debo quedarme o debo huir?"
Y si lo piensan,
02:46
And if you think about it,
56
166380
1619
los conejos que toman la decisión apropiada
02:48
the rabbits that are good at making that trade-off
57
168023
2555
02:50
will tend to live and reproduce,
58
170602
1978
tienden a vivir y reproducirse,
02:52
and the rabbits that are bad at it
59
172604
2307
y los conejos que no lo hacen bien
02:54
will get eaten or starve.
60
174935
1474
son comidos o se mueren de hambre.
02:56
So you'd think
61
176958
1608
Así que uno pensaría
que nosotros, como una especie exitosa en el planeta
02:59
that us, as a successful species on the planet -- you, me, everybody --
62
179573
4309
-ustedes, yo, todos nosotros-
03:03
would be really good at making these trade-offs.
63
183906
2573
seríamos muy buenos para elegir una cosa en vez de otra.
Y sin embargo observamos que, una y otra vez,
03:07
Yet it seems, again and again, that we're hopelessly bad at it.
64
187126
3104
somos irremediablemente malos para esto.
03:11
And I think that's a fundamentally interesting question.
65
191768
2802
Y creo que eso es una pregunta fundamentalmente interesante.
03:14
I'll give you the short answer.
66
194594
1873
Les daré la respuesta corta.
03:16
The answer is, we respond to the feeling of security
67
196491
2651
La respuesta es que respondemos a la sensación de seguridad
y no a la realidad.
03:19
and not the reality.
68
199166
1518
03:21
Now, most of the time, that works.
69
201864
2696
Ahora, la mayoría de las veces, eso funciona.
03:25
Most of the time,
70
205538
1503
La mayor parte del tiempo
03:27
feeling and reality are the same.
71
207065
2133
la sensación y la realidad son iguales.
03:30
Certainly that's true for most of human prehistory.
72
210776
3516
Sin duda eso es cierto
para casi toda la prehistoria humana.
03:35
We've developed this ability
73
215633
2708
Hemos desarrollado esta habilidad
03:38
because it makes evolutionary sense.
74
218365
2584
porque obedece la lógica evolutiva.
Una manera de pensarlo
03:41
One way to think of it is that we're highly optimized
75
221985
3274
es que estamos altamente optimizados
para tomar decisiones sobre riesgos endémicos
03:45
for risk decisions
76
225283
1803
a los que viven en pequeños grupos familiares
03:47
that are endemic to living in small family groups
77
227110
2543
03:49
in the East African Highlands in 100,000 BC.
78
229677
2536
en las tierras altas de África oriental 100 mil años a. C.,
03:52
2010 New York, not so much.
79
232792
2659
y no tanto para Nueva York el 2010.
03:56
Now, there are several biases in risk perception.
80
236879
3206
Ahora bien, hay varios sesgos en la percepción del riesgo.
Hay muchos experimentos buenos sobre esto.
04:00
A lot of good experiments in this.
81
240109
1741
04:01
And you can see certain biases that come up again and again.
82
241874
3603
Y pueden ver ciertos sesgos que surgen una y otra vez.
Y les voy a dar cuatro.
04:05
I'll give you four.
83
245501
1353
04:06
We tend to exaggerate spectacular and rare risks
84
246878
3208
Tendemos a exagerar los riesgos espectaculares e inusuales
y minimizar los riesgos comunes;
04:10
and downplay common risks --
85
250110
1976
por eso la diferencia entre volar y manejar.
04:12
so, flying versus driving.
86
252110
1518
04:14
The unknown is perceived to be riskier than the familiar.
87
254451
3794
Lo desconocido es percibido
como más riesgoso que lo familiar.
Un ejemplo sería que
04:21
One example would be:
88
261470
1439
04:22
people fear kidnapping by strangers,
89
262933
2613
la gente teme ser secuestrada por desconocidos
04:25
when the data supports that kidnapping by relatives is much more common.
90
265570
3636
y los datos muestran que ser secuestrado por familiares es mucho más común.
Esto se aplica para niños.
04:29
This is for children.
91
269230
1574
04:30
Third, personified risks are perceived to be greater
92
270828
4040
En tercer lugar, los riesgos personificados
son percibidos como mayores que los riesgos anónimos;
04:34
than anonymous risks.
93
274892
1503
04:36
So, Bin Laden is scarier because he has a name.
94
276419
2787
por eso Bin Laden da más miedo porque tiene nombre.
Y el cuarto es que
04:40
And the fourth is:
95
280182
1363
04:41
people underestimate risks in situations they do control
96
281569
4755
la gente subestima los riesgos
en situaciones donde tienen el control
y los sobreestiman en situaciones que no controlan.
04:46
and overestimate them in situations they don't control.
97
286348
2963
04:49
So once you take up skydiving or smoking,
98
289335
3384
Así que cuando practicas paracaidismo o fumas
04:52
you downplay the risks.
99
292743
1624
minimizas los riesgos de estos.
Si te fuerzan a aceptar un riesgo -el terrorismo es un buen ejemplo-
04:55
If a risk is thrust upon you -- terrorism is a good example --
100
295037
3053
lo exagerarás, porque no sientes como si lo controlaras.
04:58
you'll overplay it,
101
298114
1157
04:59
because you don't feel like it's in your control.
102
299295
2339
05:02
There are a bunch of other of these cognitive biases,
103
302157
3493
Hay un montón de sesgos más, de estos sesgos cognitivos,
05:05
that affect our risk decisions.
104
305674
2339
que afectan nuestras decisiones sobre riesgos.
05:08
There's the availability heuristic,
105
308832
2254
Está la heurística de disponibilidad,
que significa básicamente
05:11
which basically means we estimate the probability of something
106
311110
4180
que estimamos la probabilidad de cualquier cosa
05:15
by how easy it is to bring instances of it to mind.
107
315314
3339
por lo fácil que es pensar en instancias de esto.
05:19
So you can imagine how that works.
108
319831
1777
Y se pueden imaginar cómo funciona eso.
05:21
If you hear a lot about tiger attacks, there must be a lot of tigers around.
109
321632
3628
Si escuchas mucho sobre ataques de tigre deben haber muchos tigres alrededor.
No escuchas hablar de ataques de león así que no hay muchos leones alrededor.
05:25
You don't hear about lion attacks, there aren't a lot of lions around.
110
325284
3344
Esto funciona hasta que inventas los periódicos.
05:28
This works, until you invent newspapers,
111
328652
2297
05:30
because what newspapers do is repeat again and again
112
330973
4406
Porque lo que los periódicos hacen
es repetir una y otra vez
los riesgos inusuales.
05:35
rare risks.
113
335403
1406
05:36
I tell people: if it's in the news, don't worry about it,
114
336833
2865
Le digo a la gente: "si está en las noticias, no te preocupes por eso".
Porque, por definición,
05:39
because by definition, news is something that almost never happens.
115
339722
4275
las noticias son algo que casi nunca sucede.
(Risas)
05:44
(Laughter)
116
344021
1769
05:45
When something is so common, it's no longer news.
117
345814
2923
Cuando algo es tan común que deja de ser noticia
05:48
Car crashes, domestic violence --
118
348761
2198
(accidentes automovilísticos, violencia familiar);
05:50
those are the risks you worry about.
119
350983
1990
esos son los riesgos que hay que tener presentes.
05:53
We're also a species of storytellers.
120
353713
2148
También somos una especie que contamos historias.
05:55
We respond to stories more than data.
121
355885
2115
Respondemos ante las historias más que a los datos.
05:58
And there's some basic innumeracy going on.
122
358514
2406
Y tenemos algo de incapacidad aritmética básica.
06:00
I mean, the joke "One, two, three, many" is kind of right.
123
360944
3142
Es decir, el chiste de "Uno, dos, tres, muchos" no se equivoca mucho.
Somos muy buenos para los números pequeños.
06:04
We're really good at small numbers.
124
364110
2322
06:06
One mango, two mangoes, three mangoes,
125
366456
2336
Un mango, dos mangos, tres mangos;
06:08
10,000 mangoes, 100,000 mangoes --
126
368816
1977
diez mil mangos, cien mil mangos:
06:10
it's still more mangoes you can eat before they rot.
127
370817
2977
son más mangos de los que puedas comer antes que se pudran.
06:13
So one half, one quarter, one fifth -- we're good at that.
128
373818
3268
Así que la mitad, un cuarto, un quinto; somos buenos para eso.
Uno en un millón, uno en un billón;
06:17
One in a million, one in a billion --
129
377110
1976
los dos son casi nunca.
06:19
they're both almost never.
130
379110
1575
06:21
So we have trouble with the risks that aren't very common.
131
381546
3414
Así que tenemos problemas con los riesgos
que no son muy frecuentes.
06:25
And what these cognitive biases do
132
385760
1977
Y lo que estos sesgos cognitivos hacen
06:27
is they act as filters between us and reality.
133
387761
2976
es que actúan como filtros entre nosotros y la realidad.
Y el resultado es que
06:31
And the result is that feeling and reality get out of whack,
134
391284
3873
la sensación y la realidad se desequilibran,
se tornan diferentes.
06:35
they get different.
135
395181
1384
06:37
Now, you either have a feeling -- you feel more secure than you are,
136
397370
3931
Así que puedes tener la sensación; sentirte más seguro de lo que estás.
Hay una sensación irreal de seguridad.
06:41
there's a false sense of security.
137
401325
1685
O al contrario,
06:43
Or the other way, and that's a false sense of insecurity.
138
403034
3374
y esa es una sensación irreal de inseguridad.
Escribo mucho sobre "teatro de seguridad",
06:47
I write a lot about "security theater,"
139
407015
2880
06:49
which are products that make people feel secure,
140
409919
2680
que son productos que hacen que la gente se sienta segura
06:52
but don't actually do anything.
141
412623
1977
pero que en realidad no hacen nada.
06:54
There's no real word for stuff that makes us secure,
142
414624
2557
No hay una palabra apropiada para cosas que nos den seguridad,
pero que no nos hagan sentir seguros.
06:57
but doesn't make us feel secure.
143
417205
1881
Quizás esto es lo que se supone que la CIA debería lograr.
06:59
Maybe it's what the CIA is supposed to do for us.
144
419110
2720
07:03
So back to economics.
145
423539
2168
Y volvamos a la economía.
07:05
If economics, if the market, drives security,
146
425731
3656
Si la economía, si el mercado, son lo que impulsan a la seguridad
07:09
and if people make trade-offs based on the feeling of security,
147
429411
4847
y si la gente hace concesiones
basadas en su sensación de seguridad,
07:14
then the smart thing for companies to do for the economic incentives
148
434282
4680
entonces lo más inteligente que las empresas pueden hacer
por sus propios incentivos económicos
07:18
is to make people feel secure.
149
438986
2057
es lograr la gente se sienta segura.
07:21
And there are two ways to do this.
150
441942
2330
Y hay dos maneras de hacer esto.
07:24
One, you can make people actually secure
151
444296
2790
Uno, pueden hacer que la gente realmente esté segura
y esperar que se den cuenta.
07:27
and hope they notice.
152
447110
1463
07:28
Or two, you can make people just feel secure
153
448597
2844
O dos, pueden hacer que la gente se sienta segura
07:31
and hope they don't notice.
154
451465
1872
y esperar que no se den cuenta.
07:34
Right?
155
454401
1375
07:35
So what makes people notice?
156
455800
3141
Entonces, ¿qué hace que la gente se dé cuenta?
Bueno, un par de cosas:
07:39
Well, a couple of things:
157
459500
1382
07:40
understanding of the security,
158
460906
2266
entender qué es la seguridad,
los riesgos, las amenazas,
07:43
of the risks, the threats,
159
463196
1890
las medidas previas, cómo funcionan.
07:45
the countermeasures, how they work.
160
465110
1874
07:47
But if you know stuff, you're more likely
161
467008
2290
Pero si sabes esas cosas,
es más probable que tus sensaciones calcen con la realidad.
07:50
to have your feelings match reality.
162
470155
2226
Ayuda tener suficientes ejemplos del mundo real.
07:53
Enough real-world examples helps.
163
473110
3145
Ahora todos sabemos la tasa de crímenes en nuestro vecindario,
07:56
We all know the crime rate in our neighborhood,
164
476279
2559
07:58
because we live there, and we get a feeling about it
165
478862
2801
porque vivimos allí y tenemos una sensación al respecto
08:01
that basically matches reality.
166
481687
1869
que esencialmente calza con la realidad.
El teatro de seguridad queda expuesto
08:05
Security theater is exposed
167
485038
2207
08:07
when it's obvious that it's not working properly.
168
487269
2786
cuando es obvio que no está funcionando correctamente.
Y entonces, ¿qué hace que la gente no se dé cuenta?
08:11
OK. So what makes people not notice?
169
491209
2670
08:14
Well, a poor understanding.
170
494443
1492
Bueno, una mala comprensión.
08:16
If you don't understand the risks, you don't understand the costs,
171
496642
3144
Si no entiendes los riesgos, no entiendes los costos,
08:19
you're likely to get the trade-off wrong,
172
499810
2157
es probable que tomes una mala decisión,
08:21
and your feeling doesn't match reality.
173
501991
2488
y que tu sensación no corresponda con la realidad.
08:24
Not enough examples.
174
504503
1737
Ejemplos insuficientes:
08:26
There's an inherent problem with low-probability events.
175
506879
3506
Hay un problema intrínseco
con eventos de baja probabilidad.
08:30
If, for example, terrorism almost never happens,
176
510919
3813
Si, por ejemplo, casi nunca hay
actos terroristas,
08:34
it's really hard to judge the efficacy of counter-terrorist measures.
177
514756
4604
es muy difícil medir cuan eficientes
son las medidas en la lucha contra el terrorismo.
08:40
This is why you keep sacrificing virgins,
178
520523
3563
Por eso sigues sacrificando vírgenes,
y la razón que tus defensas de unicornio estén funcionando de maravilla.
08:44
and why your unicorn defenses are working just great.
179
524110
2675
08:46
There aren't enough examples of failures.
180
526809
2557
No hay suficientes ejemplos de fracasos.
Además, las sensaciones que nublan los temas;
08:51
Also, feelings that cloud the issues --
181
531109
2787
08:53
the cognitive biases I talked about earlier: fears, folk beliefs --
182
533920
4028
los sesgos cognitivos que mencioné antes,
los miedos, las creencias populares,
08:58
basically, an inadequate model of reality.
183
538727
2745
son básicamente un modelo inadecuado de la realidad.
Y déjenme complicar las cosas.
09:03
So let me complicate things.
184
543403
2171
09:05
I have feeling and reality.
185
545598
1977
Está la sensación y la realidad.
09:07
I want to add a third element. I want to add "model."
186
547599
2796
Quiero añadir un tercer elemento. Quiero añadir el modelo.
09:10
Feeling and model are in our head,
187
550839
2350
Sensación y modelo dentro de nuestra cabeza,
la realidad es el mundo exterior.
09:13
reality is the outside world; it doesn't change, it's real.
188
553213
3452
No cambia, es real.
09:17
Feeling is based on our intuition,
189
557800
2214
Y la sensación se basa en la intuición.
El modelamiento se basa en la razón.
09:20
model is based on reason.
190
560038
1626
Eso es básicamente la diferencia.
09:22
That's basically the difference.
191
562383
2039
09:24
In a primitive and simple world,
192
564446
1977
En un mundo primitivo y simple,
09:26
there's really no reason for a model,
193
566447
2137
no hay ninguna razón real para un modelo.
Porque la sensación es muy similar a la realidad.
09:30
because feeling is close to reality.
194
570253
2295
09:32
You don't need a model.
195
572572
1373
No necesitas un modelo.
09:34
But in a modern and complex world,
196
574596
2150
Pero en un mundo moderno y complejo,
necesitas modelos para
09:37
you need models to understand a lot of the risks we face.
197
577556
3650
comprender muchos de los riesgos que enfrentamos.
09:42
There's no feeling about germs.
198
582362
2284
Los gérmenes no nos generan una sensación.
Se necesita un modelo para entenderlos.
09:45
You need a model to understand them.
199
585110
2116
Así que este modelo es una
09:48
This model is an intelligent representation of reality.
200
588157
3678
representación inteligente de la realidad.
09:52
It's, of course, limited by science, by technology.
201
592411
4751
Está, por supuesto, limitado por la ciencia,
por la tecnología.
No podríamos tener una teoría de los gérmenes en enfermedades
09:58
We couldn't have a germ theory of disease
202
598249
2326
10:00
before we invented the microscope to see them.
203
600599
2534
antes de que inventáramos el microscopio para verlos.
10:04
It's limited by our cognitive biases.
204
604316
2643
Está limitado por nuestros prejuicios cognitivos.
Pero tiene la capacidad de
10:08
But it has the ability to override our feelings.
205
608110
2991
imponerse por sobre nuestras sensaciones.
10:11
Where do we get these models? We get them from others.
206
611507
3104
¿De dónde obtenemos estos modelos? De los demás.
10:14
We get them from religion, from culture, teachers, elders.
207
614635
5219
Los obtenemos de la religión, de la cultura,
de los profesores, de los mayores.
Hace un par de años
10:20
A couple years ago, I was in South Africa on safari.
208
620298
3426
estaba de safari en Sudáfrica.
10:23
The tracker I was with grew up in Kruger National Park.
209
623748
2762
El guía con que estaba había crecido en el Parque Nacional Kruger.
10:26
He had some very complex models of how to survive.
210
626534
2753
Tenía unos modelos de supervivencia muy complejos.
10:29
And it depended on if you were attacked by a lion, leopard, rhino, or elephant --
211
629800
3913
Y dependía de si habías sido atacado
por un león o un leopardo o un rinoceronte o un elefante
10:33
and when you had to run away, when you couldn't run away,
212
633737
2734
-y cuando tenías que huir, y cuando tenías que subirte a un árbol,
10:36
when you had to climb a tree, when you could never climb a tree.
213
636495
3083
cuando no podías en ningún caso subirte a un árbol-.
Me habría muerto en un día
10:39
I would have died in a day.
214
639602
1349
pero él nació allí
10:42
But he was born there, and he understood how to survive.
215
642160
3782
y entendía cómo sobrevivir.
Yo nací en Nueva York.
10:46
I was born in New York City.
216
646490
1596
Lo podría haber llevado a Nueva York y él se habría muerto en un día.
10:48
I could have taken him to New York, and he would have died in a day.
217
648110
3251
(Risas)
10:51
(Laughter)
218
651385
1001
10:52
Because we had different models based on our different experiences.
219
652410
4144
Porque teníamos modelos diferentes
basados en nuestras experiencias diferentes.
10:58
Models can come from the media,
220
658291
2469
Los modelos pueden provenir de los medios,
11:00
from our elected officials ...
221
660784
1763
de nuestros políticos electos.
11:03
Think of models of terrorism,
222
663234
3081
Piensen en los modelos de terrorismo,
11:06
child kidnapping,
223
666339
2197
de secuestro infantil,
11:08
airline safety, car safety.
224
668560
2325
de seguridad aérea, seguridad de los vehículos.
11:11
Models can come from industry.
225
671539
1993
Los modelos pueden provenir de la industria.
11:14
The two I'm following are surveillance cameras,
226
674348
3218
Los dos que estoy siguiendo son las cámaras de vigilancia
y las tarjetas de identificación,
11:17
ID cards,
227
677590
1496
muchos de nuestros modelos de seguridad informática vienen de esto.
11:19
quite a lot of our computer security models come from there.
228
679110
3130
Muchos de los modelos provienen de la ciencia.
11:22
A lot of models come from science.
229
682264
2227
11:24
Health models are a great example.
230
684515
1837
Un muy buen ejemplo son los modelos de salud.
11:26
Think of cancer, bird flu, swine flu, SARS.
231
686376
3026
Piensen en cáncer, en gripe aviar, en gripe porcina, en SARS.
11:29
All of our feelings of security about those diseases
232
689942
4870
Todas nuestras sensaciones de seguridad
acerca de esas enfermedades
11:34
come from models given to us, really, by science filtered through the media.
233
694836
4655
provienen, en realidad, de los modelos
entregados a nosotros por la ciencia filtrada a través de los medios.
Y los modelos pueden cambiar.
11:41
So models can change.
234
701038
1720
11:43
Models are not static.
235
703482
2103
Los modelos no son estáticos.
11:45
As we become more comfortable in our environments,
236
705609
3240
A medida que nos sentimos más cómodos en nuestros ambientes,
11:48
our model can move closer to our feelings.
237
708873
3602
nuestro modelo se va acercando a nuestra sensación.
11:53
So an example might be,
238
713965
2340
Así que un ejemplo podría ser,
si nos remontamos 100 años atrás
11:56
if you go back 100 years ago,
239
716329
1596
11:57
when electricity was first becoming common,
240
717949
3428
cuando la electricidad se tornaba cada vez más común,
había un montón de temores con respecto a esta.
12:01
there were a lot of fears about it.
241
721401
1703
Quiero decir, había personas que tenían miedo de presionar un timbre
12:03
There were people who were afraid to push doorbells,
242
723128
2478
ya que había electricidad dentro de él y eso era peligroso.
12:05
because there was electricity in there, and that was dangerous.
243
725630
3005
Para nosotros no hay problemas cerca de la electricidad.
12:08
For us, we're very facile around electricity.
244
728659
2869
Cambiamos las ampolletas
12:11
We change light bulbs without even thinking about it.
245
731552
2818
sin siquiera pensar en ello.
12:14
Our model of security around electricity is something we were born into.
246
734948
6163
Nuestro modelo de seguridad con respecto a la electricidad
es algo con lo cual nacemos.
12:21
It hasn't changed as we were growing up.
247
741735
2514
No ha cambiado mientras hemos ido creciendo.
12:24
And we're good at it.
248
744273
1565
Y somos buenos para manejarlo.
12:27
Or think of the risks on the Internet across generations --
249
747380
4499
O piensen en los riesgos
con respecto a Internet entre generaciones;
12:31
how your parents approach Internet security,
250
751903
2097
cómo sus padres determinan la seguridad en Internet
frente a cómo lo hacen ustedes
12:34
versus how you do,
251
754024
1616
12:35
versus how our kids will.
252
755664
1542
frente a cómo lo harán nuestros hijos.
12:38
Models eventually fade into the background.
253
758300
2550
Con el tiempo los modelos se van al inconsciente.
12:42
"Intuitive" is just another word for familiar.
254
762427
2493
Intuitivo es sólo otra palabra para familiar.
12:45
So as your model is close to reality and it converges with feelings,
255
765887
3850
Así que cuando el modelo se acerca a la realidad
y converge con las sensaciones,
12:49
you often don't even know it's there.
256
769761
1918
a menudo no te das cuenta que está ahí.
Y un buen ejemplo de esto
12:53
A nice example of this came from last year and swine flu.
257
773239
3817
apareció el año pasado con la gripe porcina.
Cuando la gripe porcina apareció por primera vez
12:58
When swine flu first appeared,
258
778281
2000
la noticia inicial causó una reacción muy exagerada.
13:00
the initial news caused a lot of overreaction.
259
780305
2618
13:03
Now, it had a name,
260
783562
1978
Ahora tenía un nombre,
13:05
which made it scarier than the regular flu,
261
785564
2050
lo que la hacía más atemorizante que la gripe común,
13:07
even though it was more deadly.
262
787638
1567
a pesar de que era más letal.
13:09
And people thought doctors should be able to deal with it.
263
789784
3208
Y la gente pensó que los médicos debían ser capaces de manejarla.
13:13
So there was that feeling of lack of control.
264
793459
2524
Así que estaba esa sensación de falta de control.
Y esas dos cosas
13:16
And those two things made the risk more than it was.
265
796007
3109
hacían que el riesgo pareciera más de lo que era.
13:19
As the novelty wore off and the months went by,
266
799140
3557
Mientras fue desapareciendo la novedad y pasando los meses,
13:22
there was some amount of tolerance; people got used to it.
267
802721
2843
hubo una cantidad de tolerancia,
la gente se acostumbró.
13:26
There was no new data, but there was less fear.
268
806355
2670
No hubo datos nuevos, pero había menos temor.
13:29
By autumn,
269
809681
2174
Para la llegada del otoño,
13:31
people thought the doctors should have solved this already.
270
811879
3382
la gente pensaba
que los médicos ya deberían haberlo resuelto.
13:35
And there's kind of a bifurcation:
271
815722
1960
Y hay una especie de bifurcación;
13:37
people had to choose between fear and acceptance --
272
817706
5751
la gente tuvo que elegir
entre el miedo y la aceptación
-en realidad entre el miedo y la indiferencia-
13:44
actually, fear and indifference --
273
824512
1644
y como que en realidad quedaron sospechosos.
13:46
and they kind of chose suspicion.
274
826180
1795
Y cuando el invierno pasado apareció la vacuna
13:49
And when the vaccine appeared last winter,
275
829110
3111
hubo una gran cantidad de personas -un número sorprendente-
13:52
there were a lot of people -- a surprising number --
276
832245
2511
13:54
who refused to get it.
277
834780
1797
que se negó a ponérsela;
13:58
And it's a nice example of how people's feelings of security change,
278
838777
3656
un buen ejemplo de
cómo cambian las sensaciones de seguridad, cómo cambian sus modelos,
14:02
how their model changes,
279
842457
1603
un poco descontrolados
14:04
sort of wildly,
280
844084
1668
14:05
with no new information, with no new input.
281
845776
2770
sin nueva información,
sin nuevos inputs.
Este tipo de cosas sucede frecuentemente.
14:10
This kind of thing happens a lot.
282
850327
1808
Les voy a dar una complicación más.
14:13
I'm going to give one more complication.
283
853199
1971
14:15
We have feeling, model, reality.
284
855194
2696
Tenemos la sensación, el modelo, la realidad.
14:18
I have a very relativistic view of security.
285
858640
2510
Tengo una visión muy relativista de la seguridad.
Creo que depende del observador.
14:21
I think it depends on the observer.
286
861174
1814
14:23
And most security decisions have a variety of people involved.
287
863695
5166
Y la mayoría de las decisiones sobre seguridad
involucran a varias personas.
14:29
And stakeholders with specific trade-offs will try to influence the decision.
288
869792
6539
Y las partes interesadas,
cada una con beneficios y perdidas propias,
tratarán de influenciar la decisión.
14:36
And I call that their agenda.
289
876355
1681
Yo llamo a eso su agenda.
Y se pueden ver las agendas
14:39
And you see agenda -- this is marketing, this is politics --
290
879512
3491
-en el marketing, en la política-
14:43
trying to convince you to have one model versus another,
291
883481
3039
tratando de convencerlos de elegir un modelo en vez de otro,
14:46
trying to convince you to ignore a model
292
886544
1984
tratando de convencerlos de ignorar un modelo
14:48
and trust your feelings,
293
888552
2672
y de confiar en sus sensaciones,
14:51
marginalizing people with models you don't like.
294
891248
2504
dejando de lado a las personas con modelos que no les gustan.
14:54
This is not uncommon.
295
894744
1516
Esto es bastante frecuente.
14:57
An example, a great example, is the risk of smoking.
296
897610
3229
Un ejemplo, un gran ejemplo, es el riesgo de fumar.
Durante los últimos 50 años, el riesgo de fumar
15:02
In the history of the past 50 years,
297
902196
1783
15:04
the smoking risk shows how a model changes,
298
904003
2613
muestra cómo va cambiando un modelo
15:06
and it also shows how an industry fights against a model it doesn't like.
299
906640
4358
y también muestra cómo una industria pelea contra
un modelo que no le gusta.
15:11
Compare that to the secondhand smoke debate --
300
911983
3103
Comparen esto con el debate del humo de segunda mano;
el mismo caso probablemente 20 años antes.
15:15
probably about 20 years behind.
301
915110
1953
15:17
Think about seat belts.
302
917982
1615
Piensen acerca de los cinturones de seguridad.
15:19
When I was a kid, no one wore a seat belt.
303
919621
2024
Cuando yo era niño, nadie se ponía el cinturón de seguridad.
15:21
Nowadays, no kid will let you drive if you're not wearing a seat belt.
304
921669
3541
Hoy en día, ningún niño te permite manejar
si no lo llevas puesto.
15:26
Compare that to the airbag debate,
305
926633
2453
Comparen esto con el debate del airbag;
probablemente como 30 años atrasado.
15:29
probably about 30 years behind.
306
929110
1667
Todos son ejemplos de modelos que van cambiando.
15:32
All examples of models changing.
307
932006
2088
15:36
What we learn is that changing models is hard.
308
936855
2796
Lo que aprendemos es que cambiar los modelos es difícil.
Los modelos son difíciles de desalojar.
15:40
Models are hard to dislodge.
309
940334
2053
Si estos son iguales a sus sensaciones,
15:42
If they equal your feelings,
310
942411
1675
ni siquiera se darán cuenta que tienen un modelo.
15:44
you don't even know you have a model.
311
944110
1899
Y hay otro sesgo cognitivo que
15:47
And there's another cognitive bias
312
947110
1886
llamaré sesgo de confirmación,
15:49
I'll call confirmation bias,
313
949020
2066
donde tendemos a aceptar los datos
15:51
where we tend to accept data that confirms our beliefs
314
951110
4361
que confirman nuestras creencias
15:55
and reject data that contradicts our beliefs.
315
955495
2437
y rechazar los datos que las contradicen.
15:59
So evidence against our model, we're likely to ignore,
316
959490
3935
Y es probable que ignoremos
la evidencia en contra de nuestro modelo, incluso si es convincente.
16:03
even if it's compelling.
317
963449
1248
16:04
It has to get very compelling before we'll pay attention.
318
964721
3005
Debe ser súper convincente antes de que le prestemos atención.
16:08
New models that extend long periods of time are hard.
319
968990
2597
Aún más complejos son los nuevos modelos que se extenderán por mucho tiempo.
El calentamiento global es un gran ejemplo.
16:11
Global warming is a great example.
320
971611
1754
Somos terribles
16:13
We're terrible at models that span 80 years.
321
973389
3442
para modelos que abarcan 80 años.
16:16
We can do "to the next harvest."
322
976855
2063
Podemos modelar la próxima cosecha.
16:18
We can often do "until our kids grow up."
323
978942
2306
De repente podemos modelar hasta que nuestros hijos crezcan.
16:21
But "80 years," we're just not good at.
324
981760
2201
Pero simplemente no somos buenos para 80 años.
16:24
So it's a very hard model to accept.
325
984975
2302
Y entonces es un modelo muy difícil de aceptar.
16:27
We can have both models in our head simultaneously --
326
987999
2946
Podemos tener ambos modelos en nuestra cabeza al mismo tiempo,
16:31
that kind of problem where we're holding both beliefs together,
327
991912
6948
ese tipo de problema
donde tenemos ambas creencias al mismo tiempo;
la disonancia cognitiva.
16:38
the cognitive dissonance.
328
998884
1370
Con el tiempo,
16:40
Eventually, the new model will replace the old model.
329
1000278
3156
el nuevo modelo reemplazará al antiguo.
16:44
Strong feelings can create a model.
330
1004164
2190
Las sensaciones fuertes pueden crear un modelo.
16:47
September 11 created a security model in a lot of people's heads.
331
1007411
5363
El 11 de septiembre creó un modelo de seguridad
en las mentes de mucha gente.
16:52
Also, personal experiences with crime can do it,
332
1012798
3288
También se pueden crear a través de experiencias personales con crímenes,
a través de sustos de salud personales,
16:56
personal health scare,
333
1016110
1379
16:57
a health scare in the news.
334
1017513
1466
de problemas de salud en las noticias.
Verán estos eventos llamados "flash de luz"
17:00
You'll see these called "flashbulb events" by psychiatrists.
335
1020198
3345
por los psiquiatras.
Pueden crear un modelo de forma instantánea,
17:04
They can create a model instantaneously,
336
1024183
2461
17:06
because they're very emotive.
337
1026668
1761
porque son muy emotivos.
17:09
So in the technological world,
338
1029908
1588
Y en el mundo tecnológico
17:11
we don't have experience to judge models.
339
1031520
3237
no tenemos experiencia
para elegir los modelos.
17:15
And we rely on others. We rely on proxies.
340
1035124
2933
Y dependemos de otros. Dependemos de representantes.
Quiero decir, esto funciona mientras sea para corregir a otros.
17:18
And this works, as long as it's the correct others.
341
1038081
2619
17:21
We rely on government agencies
342
1041183
2682
Dependemos de los organismos gubernamentales para
17:23
to tell us what pharmaceuticals are safe.
343
1043889
4404
que nos digan qué medicamentos son seguros.
17:28
I flew here yesterday.
344
1048317
1913
Volé ayer para acá.
17:30
I didn't check the airplane.
345
1050254
1762
No revisé el avión.
17:32
I relied on some other group
346
1052699
2595
Confié en algún otro grupo
para determinar si mi avión era seguro para volar.
17:35
to determine whether my plane was safe to fly.
347
1055318
2437
17:37
We're here, none of us fear the roof is going to collapse on us,
348
1057779
3298
Estamos aquí, nadie teme que el techo se vaya a caer sobre nosotros,
no porque lo comprobamos,
17:41
not because we checked,
349
1061101
2205
17:43
but because we're pretty sure the building codes here are good.
350
1063330
3672
sino porque tenemos bastante confianza que
los códigos de construcción son buenos.
17:48
It's a model we just accept
351
1068442
2989
Es un modelo que simplemente aceptamos
sólo por fe.
17:51
pretty much by faith.
352
1071455
1360
Y eso está bien.
17:53
And that's OK.
353
1073331
1358
17:57
Now, what we want is people to get familiar enough with better models,
354
1077966
5873
Ahora, lo que queremos
es que la gente se familiarice lo suficiente
con modelos buenos
18:03
have it reflected in their feelings,
355
1083863
2120
-y que se reflejen en lo que sienten-
para que puedan tomar buenas decisiones de seguridad.
18:06
to allow them to make security trade-offs.
356
1086007
3002
Y entonces cuando estos se desalinean
18:10
When these go out of whack, you have two options.
357
1090110
3719
se tienen dos opciones.
18:13
One, you can fix people's feelings, directly appeal to feelings.
358
1093853
4233
Una es arreglar las sensaciones de la gente,
apelar directamente a las sensaciones y sentimientos.
Es manipulativo, pero puede funcionar.
18:18
It's manipulation, but it can work.
359
1098110
2406
La segunda manera, que es más honesta,
18:21
The second, more honest way
360
1101173
2191
es realmente solucionar el modelo.
18:23
is to actually fix the model.
361
1103388
1773
18:26
Change happens slowly.
362
1106720
2101
El cambio se produce lentamente.
18:28
The smoking debate took 40 years -- and that was an easy one.
363
1108845
4378
El debate del cigarrillo tomó 40 años,
y ese era uno simple.
Algunos de estos son difíciles.
18:35
Some of this stuff is hard.
364
1115195
1813
Quiero decir, sin embargo,
18:37
Really, though, information seems like our best hope.
365
1117496
3756
que la información parece ser nuestra mejor esperanza.
Y les mentí.
18:41
And I lied.
366
1121276
1272
18:42
Remember I said feeling, model, reality; reality doesn't change?
367
1122572
4020
Recuerdan cuando dije lo de la sensación, el modelo, la realidad.
Dije que la realidad no cambia. Pero en verdad sí cambia.
18:46
It actually does.
368
1126616
1375
Vivimos en un mundo tecnológico;
18:48
We live in a technological world;
369
1128015
1714
18:49
reality changes all the time.
370
1129753
2338
la realidad cambia todo el tiempo.
18:52
So we might have, for the first time in our species:
371
1132887
2977
Así que podríamos tener -por primera vez para nuestra especie-
18:55
feeling chases model, model chases reality, reality's moving --
372
1135888
3183
la sensación persiguiendo al modelo, el modelo persiguiendo la realidad,
la realidad va cambiando; y puede que jamás se vayan a alcanzar.
18:59
they might never catch up.
373
1139095
1533
19:02
We don't know.
374
1142180
1328
No lo sabemos.
Pero en el largo plazo,
19:05
But in the long term,
375
1145614
1603
tanto la sensación como la realidad son importantes.
19:07
both feeling and reality are important.
376
1147241
2204
19:09
And I want to close with two quick stories to illustrate this.
377
1149469
3233
Y quiero cerrar con dos historias rápidas para ilustrar esto.
19:12
1982 -- I don't know if people will remember this --
378
1152726
2479
En 1982 -no sé si la gente recordará esto-
hubo una epidemia de corta duración
19:15
there was a short epidemic of Tylenol poisonings
379
1155229
3370
de envenenamientos con Tylenol en los Estados Unidos.
19:18
in the United States.
380
1158623
1196
19:19
It's a horrific story.
381
1159843
1361
Es una historia horrible. Alguien tomó una botella de Tylenol,
19:21
Someone took a bottle of Tylenol,
382
1161228
2079
puso veneno en ella, la cerró y volvió a ponerla en el estante.
19:23
put poison in it, closed it up, put it back on the shelf,
383
1163331
3002
Otra persona la compró y murió.
19:26
someone else bought it and died.
384
1166357
1558
19:27
This terrified people.
385
1167939
1673
Esto aterrorizó a todo el mundo.
19:29
There were a couple of copycat attacks.
386
1169636
2227
Hubo un par de ataques que imitaron esto.
19:31
There wasn't any real risk, but people were scared.
387
1171887
2845
No había riesgo real, pero la gente estaba asustada.
19:34
And this is how the tamper-proof drug industry was invented.
388
1174756
3876
Y así es como
se inventó la industria farmacéutica a prueba de manipulaciones.
19:38
Those tamper-proof caps? That came from this.
389
1178656
2229
Esas tapas difíciles de abrir surgieron de esto.
19:40
It's complete security theater.
390
1180909
1571
Es totalmente teatro de seguridad.
19:42
As a homework assignment, think of 10 ways to get around it.
391
1182504
2891
Como tarea para la casa piensen en 10 maneras de vulnerarlas.
Les daré una; una jeringa.
19:45
I'll give you one: a syringe.
392
1185419
1891
19:47
But it made people feel better.
393
1187334
2781
Sin embargo hizo que la gente se sintiera mejor.
19:50
It made their feeling of security more match the reality.
394
1190744
3702
Hizo que su sensación de seguridad
se pareciera más a la realidad.
Última historia; hace unos años una amiga mía dio a luz.
19:55
Last story: a few years ago, a friend of mine gave birth.
395
1195390
2934
La visité en el hospital.
19:58
I visit her in the hospital.
396
1198348
1397
19:59
It turns out, when a baby's born now,
397
1199769
1923
Resulta que ahora cuando un bebé nace
20:01
they put an RFID bracelet on the baby, a corresponding one on the mother,
398
1201716
3563
le ponen al bebé una pulsera RFID,
le ponen una pulsera relacionada a la madre
20:05
so if anyone other than the mother takes the baby out of the maternity ward,
399
1205303
3620
y si otra persona retira al bebé de la sala de maternidad
suena una alarma.
20:08
an alarm goes off.
400
1208947
1158
Me dije: "Bueno, eso está bien bueno.
20:10
I said, "Well, that's kind of neat.
401
1210129
1729
20:11
I wonder how rampant baby snatching is out of hospitals."
402
1211882
3970
Me pregunto cuán comunes son los robos de bebé
desde los hospitales."
20:15
I go home, I look it up.
403
1215876
1236
Me voy a casa y lo busco.
20:17
It basically never happens.
404
1217136
1525
Básicamente no sucede jamás.
20:18
(Laughter)
405
1218685
1844
Pero si lo piensas,
20:20
But if you think about it, if you are a hospital,
406
1220553
2843
si eres un hospital
20:23
and you need to take a baby away from its mother,
407
1223420
2380
y tienes que alejar al bebé de su madre,
20:25
out of the room to run some tests,
408
1225824
1781
fuera de la pieza para tomar algunos exámenes,
20:27
you better have some good security theater,
409
1227629
2050
mejor que tengas un buen teatro de seguridad
20:29
or she's going to rip your arm off.
410
1229703
1945
o te va a arrancar el brazo entero.
20:31
(Laughter)
411
1231672
1533
(Risas)
Así que es importante para nosotros,
20:34
So it's important for us,
412
1234161
1717
20:35
those of us who design security,
413
1235902
2135
aquellos de nosotros que diseñamos seguridad,
que observamos las políticas de seguridad,
20:38
who look at security policy --
414
1238061
2031
20:40
or even look at public policy in ways that affect security.
415
1240946
3308
o incluso miramos a las políticas públicas
y las maneras que estas afectan a la seguridad.
No es sólo la realidad, es sensación y la realidad.
20:45
It's not just reality; it's feeling and reality.
416
1245006
3416
Lo que es importante
20:48
What's important
417
1248446
1865
es que sean más o menos iguales.
20:50
is that they be about the same.
418
1250335
1545
20:51
It's important that, if our feelings match reality,
419
1251904
2531
Es importante que -si nuestras sensaciones calzan con la realidad-
tomemos mejores decisiones de seguridad.
20:54
we make better security trade-offs.
420
1254459
1873
Gracias.
20:56
Thank you.
421
1256711
1153
20:57
(Applause)
422
1257888
2133
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7