Bruce Schneier: The security mirage

Брюс Шнайер: Иллюзия безопасности

78,125 views ・ 2011-04-27

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Aliaksandr Autayeu Редактор: Larisa Larionova
Итак, безопасность — это две разные вещи:
00:16
So, security is two different things:
0
16010
2276
ощущение и реальность.
00:18
it's a feeling, and it's a reality.
1
18310
2526
И они разные.
00:20
And they're different.
2
20860
1425
Вы можете чувствовать себя защищённым,
00:22
You could feel secure even if you're not.
3
22309
3427
даже если на самом деле это не так.
00:25
And you can be secure
4
25760
1976
И вы можете быть вне опасности,
00:27
even if you don't feel it.
5
27760
1850
даже если чувствуете по-другому.
00:29
Really, we have two separate concepts
6
29634
2117
На самом деле, два различных понятия
00:31
mapped onto the same word.
7
31775
1652
соответствуют одному слову.
00:33
And what I want to do in this talk is to split them apart --
8
33960
3626
В этой лекции я хочу
разделить их,
00:37
figuring out when they diverge and how they converge.
9
37610
3610
разобраться чем они отличаются
и чем они похожи.
00:41
And language is actually a problem here.
10
41711
2275
Начнём с проблемы терминологии.
У нас очень мало подходящих слов,
00:44
There aren't a lot of good words
11
44010
2076
чтобы выразить понятия, о которых сейчас пойдёт речь.
00:46
for the concepts we're going to talk about.
12
46110
2061
Если посмотреть на безопасность
00:49
So if you look at security from economic terms,
13
49295
4120
с точки зрения экономики —
это компромисс.
00:53
it's a trade-off.
14
53439
1647
Каждый раз, добиваясь большей безопасности,
00:55
Every time you get some security, you're always trading off something.
15
55110
4132
мы чем-то за это платим.
Будь то личное решение —
00:59
Whether this is a personal decision --
16
59266
1845
— устанавливать ли сигнализацию в доме —
01:01
whether you're going to install a burglar alarm in your home --
17
61135
3012
или решение национального масштаба — не завоевать ли какую-нибудь страну —
01:04
or a national decision,
18
64171
1157
01:05
where you're going to invade a foreign country --
19
65352
2310
нам приходится чем-то поступиться,
01:07
you're going to trade off something: money or time, convenience, capabilities,
20
67686
3782
будь то деньги или время, удобство, возможности,
или даже фундаментальные права.
01:11
maybe fundamental liberties.
21
71492
2002
01:13
And the question to ask when you look at a security anything
22
73518
3274
Вопрос, который стоит задать при решении любых проблем безопасности
01:16
is not whether this makes us safer,
23
76816
3382
не «Насколько это эффективно против угрозы?»,
а «Стоит ли оно того?»
01:20
but whether it's worth the trade-off.
24
80222
2215
01:22
You've heard in the past several years, the world is safer
25
82461
3229
В последние годы много говорится о том,
что мир стал безопаснее после отстранения Саддама Хусейна от власти.
01:25
because Saddam Hussein is not in power.
26
85714
1890
Может это и правда, но это не так уж важно.
01:27
That might be true, but it's not terribly relevant.
27
87628
2603
Вопрос в том, стоила ли овчинка выделки?
01:30
The question is: Was it worth it?
28
90255
2831
Сначала можно решить что-то сделать,
01:33
And you can make your own decision,
29
93110
2459
01:35
and then you'll decide whether the invasion was worth it.
30
95593
2733
а потом решить, оправдало ли себя вторжение.
Именно так нужно думать в области безопасности —
01:38
That's how you think about security: in terms of the trade-off.
31
98350
3561
в терминах компромисса.
01:41
Now, there's often no right or wrong here.
32
101935
2610
И речь часто не о том, что правильно, а что нет.
Кто-то устанавливает дома сигнализацию,
01:45
Some of us have a burglar alarm system at home and some of us don't.
33
105208
3308
а кто-то — нет.
01:48
And it'll depend on where we live,
34
108540
2731
Это зависит от места жительства,
семейного положения,
01:51
whether we live alone or have a family,
35
111295
1926
достатка,
01:53
how much cool stuff we have,
36
113245
1668
01:54
how much we're willing to accept the risk of theft.
37
114937
3165
и того, насколько мы готовы принять
риск кражи.
01:58
In politics also, there are different opinions.
38
118943
2948
Так же как и в политике,
есть много разных мнений.
02:02
A lot of times, these trade-offs are about more than just security,
39
122459
4435
Часто компромиссы в области безопасности
затрагивают не только нашу защищённость,
02:06
and I think that's really important.
40
126918
1865
и я считаю это очень важным.
02:08
Now, people have a natural intuition about these trade-offs.
41
128807
3308
Мы интуитивно понимаем
эти компромиссы.
02:12
We make them every day.
42
132588
1556
Мы делаем этот выбор ежедневно —
02:14
Last night in my hotel room, when I decided to double-lock the door,
43
134807
3533
вчера вечером в гостинице,
когда я решил закрыть дверь на все замки,
02:18
or you in your car when you drove here;
44
138364
2000
или вы в своей машине на пути сюда,
за обедом,
02:21
when we go eat lunch
45
141191
1478
02:22
and decide the food's not poison and we'll eat it.
46
142693
2608
когда мы решаем что еда не отравлена и мы её съедим.
02:25
We make these trade-offs again and again,
47
145325
3161
Мы делаем подобный выбор снова и снова,
по многу раз в день.
02:28
multiple times a day.
48
148510
1576
Часто мы этого даже не замечаем.
02:30
We often won't even notice them.
49
150110
1589
02:31
They're just part of being alive; we all do it.
50
151723
2626
Это просто часть жизни, часть жизни каждого из нас.
Каждой живое существо делает это.
02:34
Every species does it.
51
154373
1555
02:36
Imagine a rabbit in a field, eating grass.
52
156474
2862
Возьмём, к примеру, кролика в поле, грызущего траву,
и вдруг замечающего лису.
02:39
And the rabbit sees a fox.
53
159360
1943
02:41
That rabbit will make a security trade-off:
54
161856
2049
Перед кроликом встанет выбор:
02:43
"Should I stay, or should I flee?"
55
163929
1904
«Оставаться или бежать?»
И если подумать,
02:46
And if you think about it,
56
166380
1619
то кролики, которые умеют делать правильный выбор,
02:48
the rabbits that are good at making that trade-off
57
168023
2555
02:50
will tend to live and reproduce,
58
170602
1978
останутся в живых и дадут потомство,
02:52
and the rabbits that are bad at it
59
172604
2307
а кролики, которые ошибаются,
02:54
will get eaten or starve.
60
174935
1474
будут съедены или умрут от голода.
02:56
So you'd think
61
176958
1608
Можно подумать,
что мы как вид успешный на этой планете —
02:59
that us, as a successful species on the planet -- you, me, everybody --
62
179573
4309
ты, я, любой человек --
03:03
would be really good at making these trade-offs.
63
183906
2573
должны безошибочно решать такие задачки.
Однако практика показывает снова и снова,
03:07
Yet it seems, again and again, that we're hopelessly bad at it.
64
187126
3104
что мы практически неспособны это делать.
03:11
And I think that's a fundamentally interesting question.
65
191768
2802
И это чрезвычайно интересная задачка.
03:14
I'll give you the short answer.
66
194594
1873
Я дам вам краткий ответ.
03:16
The answer is, we respond to the feeling of security
67
196491
2651
Дело в том, что мы принимаем решения основываясь на ощущении безопасности,
а не на фактах.
03:19
and not the reality.
68
199166
1518
03:21
Now, most of the time, that works.
69
201864
2696
И в основном это работает.
03:25
Most of the time,
70
205538
1503
Довольно часто
03:27
feeling and reality are the same.
71
207065
2133
ощущения и реальность совпадают.
03:30
Certainly that's true for most of human prehistory.
72
210776
3516
По меньшей мере,
так всегда было раньше.
03:35
We've developed this ability
73
215633
2708
Эта наша способность была развита
03:38
because it makes evolutionary sense.
74
218365
2584
путём естественного отбора.
Можно сказать,
03:41
One way to think of it is that we're highly optimized
75
221985
3274
что мы приспособлены
для принятия решений о рисках,
03:45
for risk decisions
76
225283
1803
которые относятся к жизни в небольших семейных группах
03:47
that are endemic to living in small family groups
77
227110
2543
03:49
in the East African Highlands in 100,000 BC.
78
229677
2536
на восточноафриканском плоскогорье сто тысяч лет до нашей эры.
03:52
2010 New York, not so much.
79
232792
2659
Нью-Йорк 2010-го? Совсем другое дело.
03:56
Now, there are several biases in risk perception.
80
236879
3206
Есть разные предубеждения в восприятии риска.
И много хороших экспериментов было проведено на эту тему.
04:00
A lot of good experiments in this.
81
240109
1741
04:01
And you can see certain biases that come up again and again.
82
241874
3603
И можно заметить, что определённые предубеждения встречаются раз за разом.
Я перечислю четыре из них.
04:05
I'll give you four.
83
245501
1353
04:06
We tend to exaggerate spectacular and rare risks
84
246878
3208
Мы склонны преувеличивать эффектные и редкие риски
и преуменьшать повседневные риски:
04:10
and downplay common risks --
85
250110
1976
сравните авиаперелёты и вождение автомобиля.
04:12
so, flying versus driving.
86
252110
1518
04:14
The unknown is perceived to be riskier than the familiar.
87
254451
3794
Незнакомое воспринимается
более рискованным, чем знакомое.
Например,
04:21
One example would be:
88
261470
1439
04:22
people fear kidnapping by strangers,
89
262933
2613
многие боятся похищений незнакомцами,
04:25
when the data supports that kidnapping by relatives is much more common.
90
265570
3636
тогда как, согласно данным, гораздо чаще похищения совершают родственники,
Речь о похищении детей.
04:29
This is for children.
91
269230
1574
04:30
Third, personified risks are perceived to be greater
92
270828
4040
В-третьих, олицетворённые риски
воспринимаются как более опасные, чем обезличенные риски —
04:34
than anonymous risks.
93
274892
1503
04:36
So, Bin Laden is scarier because he has a name.
94
276419
2787
так бен Ладен становится страшнее, потому что у него есть имя.
И в-четвёртых,
04:40
And the fourth is:
95
280182
1363
04:41
people underestimate risks in situations they do control
96
281569
4755
люди недооценивают риски
в ситуациях им подконтрольных,
и переоценивают риски в ситуациях, которые они не контролируют.
04:46
and overestimate them in situations they don't control.
97
286348
2963
04:49
So once you take up skydiving or smoking,
98
289335
3384
Как только вы начинаете прыгать с парашютом или курить,
04:52
you downplay the risks.
99
292743
1624
вы начинаете недооценивать риски.
Когда же риск вам навязан — например как с терроризмом —
04:55
If a risk is thrust upon you -- terrorism is a good example --
100
295037
3053
вы его переоцените, потому что у вас нет ощущения контроля.
04:58
you'll overplay it,
101
298114
1157
04:59
because you don't feel like it's in your control.
102
299295
2339
05:02
There are a bunch of other of these cognitive biases,
103
302157
3493
Есть целый ряд подобных искажений восприятия,
05:05
that affect our risk decisions.
104
305674
2339
которые влияют на принятие решений в рискованных ситуациях.
05:08
There's the availability heuristic,
105
308832
2254
Например, доступность опыта,
что, по сути, означает,
05:11
which basically means we estimate the probability of something
106
311110
4180
что мы оцениваем вероятность события
05:15
by how easy it is to bring instances of it to mind.
107
315314
3339
по тому, насколько легко вспомнить примеры таких событий.
05:19
So you can imagine how that works.
108
319831
1777
Попробуем представить, как это получается.
05:21
If you hear a lot about tiger attacks, there must be a lot of tigers around.
109
321632
3628
Если мы постоянно слышим о нападениях тигров — в округе должно быть много тигров.
Если о нападениях львов ничего не слышно — львов в округе не много.
05:25
You don't hear about lion attacks, there aren't a lot of lions around.
110
325284
3344
Это работало пока не изобрели газеты.
05:28
This works, until you invent newspapers,
111
328652
2297
05:30
because what newspapers do is repeat again and again
112
330973
4406
Потому что суть газет в том,
что они раз за разом повторяют
редкие риски.
05:35
rare risks.
113
335403
1406
05:36
I tell people: if it's in the news, don't worry about it,
114
336833
2865
Я всегда говорю, что если об этом пишут в новостях — спите спокойно.
Просто по определению,
05:39
because by definition, news is something that almost never happens.
115
339722
4275
новость — это то, что почти никогда не случается.
(Смех)
05:44
(Laughter)
116
344021
1769
05:45
When something is so common, it's no longer news.
117
345814
2923
Когда что-то становится обыденным, это больше не новость —
05:48
Car crashes, domestic violence --
118
348761
2198
автомобильные аварии, бытовые преступления —
05:50
those are the risks you worry about.
119
350983
1990
это именно те риски, о которых нужно беспокоиться.
05:53
We're also a species of storytellers.
120
353713
2148
К тому же, люди — это рассказчики.
05:55
We respond to stories more than data.
121
355885
2115
Мы принимаем рассказы близко к сердцу, ближе, чем факты.
05:58
And there's some basic innumeracy going on.
122
358514
2406
Но при этом, мы, в общем-то, не умеем считать.
06:00
I mean, the joke "One, two, three, many" is kind of right.
123
360944
3142
Я имею в виду, что многие считают: «один, два, три, много».
Мы очень хорошо понимаем небольшие числа.
06:04
We're really good at small numbers.
124
364110
2322
06:06
One mango, two mangoes, three mangoes,
125
366456
2336
Одно яблоко, два яблока, три яблока,
06:08
10,000 mangoes, 100,000 mangoes --
126
368816
1977
10 000 яблок, 100 000 яблок —
06:10
it's still more mangoes you can eat before they rot.
127
370817
2977
это намного больше яблок, чем можно съесть, прежде чем они сгниют.
06:13
So one half, one quarter, one fifth -- we're good at that.
128
373818
3268
Т.е. половинка, четвертинка — это просто и понятно.
Раз в миллион, раз в миллиард —
06:17
One in a million, one in a billion --
129
377110
1976
это всё равно, что никогда.
06:19
they're both almost never.
130
379110
1575
06:21
So we have trouble with the risks that aren't very common.
131
381546
3414
Поэтому нам сложно с рисками,
которые не являются повседневными.
06:25
And what these cognitive biases do
132
385760
1977
Так вот эти искажения восприятия
06:27
is they act as filters between us and reality.
133
387761
2976
работают как фильтры между нами и реальностью.
И в результате,
06:31
And the result is that feeling and reality get out of whack,
134
391284
3873
ощущение и реальность больше не совпадают,
они начинают отличаться.
06:35
they get different.
135
395181
1384
06:37
Now, you either have a feeling -- you feel more secure than you are,
136
397370
3931
И вот тут, либо вы ощущаете себя безопаснее, чем на самом деле —
это ложное чувство безопасности —
06:41
there's a false sense of security.
137
401325
1685
либо наоборот —
06:43
Or the other way, and that's a false sense of insecurity.
138
403034
3374
и это ложное чувство опасности.
Я много пишу об «играх в безопасность»,
06:47
I write a lot about "security theater,"
139
407015
2880
06:49
which are products that make people feel secure,
140
409919
2680
о тех мерах, которые внушают людям чувство защищённости,
06:52
but don't actually do anything.
141
412623
1977
но реально ничего не дают.
06:54
There's no real word for stuff that makes us secure,
142
414624
2557
Не существует термина для мер, которые делают нас защищённее,
но не дают чувства защищённости.
06:57
but doesn't make us feel secure.
143
417205
1881
Наверное, это то, чем должно заниматься ЦРУ.
06:59
Maybe it's what the CIA is supposed to do for us.
144
419110
2720
07:03
So back to economics.
145
423539
2168
Давайте вернёмся к экономике.
07:05
If economics, if the market, drives security,
146
425731
3656
Если деньги, если рынок определяет меры безопасности
07:09
and if people make trade-offs based on the feeling of security,
147
429411
4847
и если люди принимают решения
основываясь на чувстве защищённости,
07:14
then the smart thing for companies to do for the economic incentives
148
434282
4680
то самое умное, что может сделать компания,
исходя из экономических соображений, —
07:18
is to make people feel secure.
149
438986
2057
это дать людям чувство защищённости.
07:21
And there are two ways to do this.
150
441942
2330
И всегда есть два способа этого добиться.
07:24
One, you can make people actually secure
151
444296
2790
Первый — можно реально защитить людей
и надеяться, что они обратят внимание.
07:27
and hope they notice.
152
447110
1463
07:28
Or two, you can make people just feel secure
153
448597
2844
Или второй — можно создать чувство защищённости
07:31
and hope they don't notice.
154
451465
1872
и надеяться, что они не обратят внимания.
07:34
Right?
155
454401
1375
07:35
So what makes people notice?
156
455800
3141
Что же заставляет людей обращать внимание?
Ряд вещей:
07:39
Well, a couple of things:
157
459500
1382
07:40
understanding of the security,
158
460906
2266
понимание мер безопасности,
рисков, угроз
07:43
of the risks, the threats,
159
463196
1890
контрмер, и как всё это работает.
07:45
the countermeasures, how they work.
160
465110
1874
07:47
But if you know stuff, you're more likely
161
467008
2290
Но если вы в этом разбираетесь,
то более вероятно, что ваши ощущения совпадают с реальностью.
07:50
to have your feelings match reality.
162
470155
2226
Здесь хорошо работает жизненный опыт.
07:53
Enough real-world examples helps.
163
473110
3145
Все мы знаем неблагополучные районы города,
07:56
We all know the crime rate in our neighborhood,
164
476279
2559
07:58
because we live there, and we get a feeling about it
165
478862
2801
потому что мы тут живём, и, в общем, наше чувство опасности
08:01
that basically matches reality.
166
481687
1869
совпадает с реальностью.
«Игры в безопасность» вскрываются,
08:05
Security theater is exposed
167
485038
2207
08:07
when it's obvious that it's not working properly.
168
487269
2786
когда становится очевидно, что меры безопасности не работают.
Итак, почему же люди не обращают внимания?
08:11
OK. So what makes people not notice?
169
491209
2670
08:14
Well, a poor understanding.
170
494443
1492
Из-за непонимания.
08:16
If you don't understand the risks, you don't understand the costs,
171
496642
3144
Если вы не понимаете риски, не понимаете, каковы издержки,
08:19
you're likely to get the trade-off wrong,
172
499810
2157
вы склонны принять ошибочное решение,
08:21
and your feeling doesn't match reality.
173
501991
2488
и ваше чувство безопасности не совпадает с реальностью.
08:24
Not enough examples.
174
504503
1737
Из-за недостатка жизненного опыта.
08:26
There's an inherent problem with low-probability events.
175
506879
3506
Эта проблема присуща
маловероятным событиям.
08:30
If, for example, terrorism almost never happens,
176
510919
3813
Например,
если теракты случаются очень редко,
08:34
it's really hard to judge the efficacy of counter-terrorist measures.
177
514756
4604
то очень тяжело оценить
эффективность контртеррористических мер.
08:40
This is why you keep sacrificing virgins,
178
520523
3563
Вот почему продолжается охота на ведьм,
и вот почему бутафорские меры работают до поры до времени.
08:44
and why your unicorn defenses are working just great.
179
524110
2675
08:46
There aren't enough examples of failures.
180
526809
2557
Недостаточно примеров сбоев этих мер.
К тому же, чувства затмевают разум —
08:51
Also, feelings that cloud the issues --
181
531109
2787
08:53
the cognitive biases I talked about earlier: fears, folk beliefs --
182
533920
4028
искажения восприятия, о которых я говорил раньше,
страхи, народные поверья,
08:58
basically, an inadequate model of reality.
183
538727
2745
просто-напросто неадекватная модель реальности.
Давайте усложним.
09:03
So let me complicate things.
184
543403
2171
09:05
I have feeling and reality.
185
545598
1977
Есть ощущение, и есть действительность.
09:07
I want to add a third element. I want to add "model."
186
547599
2796
Добавим третий элемент. Добавим модель.
09:10
Feeling and model are in our head,
187
550839
2350
Ощущение и модель у нас в уме,
реальность это окружающий мир.
09:13
reality is the outside world; it doesn't change, it's real.
188
553213
3452
Он не изменчив, он настоящий.
09:17
Feeling is based on our intuition,
189
557800
2214
Итак, ощущение основано на интуиции.
Модель основана на логических умозаключениях.
09:20
model is based on reason.
190
560038
1626
Вот и вся разница.
09:22
That's basically the difference.
191
562383
2039
09:24
In a primitive and simple world,
192
564446
1977
В примитивном и простом мире
09:26
there's really no reason for a model,
193
566447
2137
модель не нужна.
Потому что ощущение близко к действительности.
09:30
because feeling is close to reality.
194
570253
2295
09:32
You don't need a model.
195
572572
1373
Модель просто не нужна.
09:34
But in a modern and complex world,
196
574596
2150
Но в современном сложном мире
нужны модели,
09:37
you need models to understand a lot of the risks we face.
197
577556
3650
чтобы понять большую часть встречаемых нами рисков.
09:42
There's no feeling about germs.
198
582362
2284
Мы не ощущаем бактерий.
Нам нужна модель, чтобы понять, что такое бактерии.
09:45
You need a model to understand them.
199
585110
2116
И эта модель
09:48
This model is an intelligent representation of reality.
200
588157
3678
является осмысленным представлением действительности.
09:52
It's, of course, limited by science, by technology.
201
592411
4751
Конечно, она ограничена текущим уровнем развития науки,
технологии.
Мы не знали, что бактерии являются причиной болезней,
09:58
We couldn't have a germ theory of disease
202
598249
2326
10:00
before we invented the microscope to see them.
203
600599
2534
пока мы не изобрели микроскоп, чтобы видеть их.
10:04
It's limited by our cognitive biases.
204
604316
2643
Она ограничена искажениями нашего восприятия.
Но она даёт возможность
10:08
But it has the ability to override our feelings.
205
608110
2991
пересилить ощущения.
10:11
Where do we get these models? We get them from others.
206
611507
3104
Откуда же берутся модели? Мы заимствуем их у других.
10:14
We get them from religion, from culture, teachers, elders.
207
614635
5219
Они достаются нам из религии, из культуры,
от учителей, от родителей.
Пару лет назад
10:20
A couple years ago, I was in South Africa on safari.
208
620298
3426
я был в Южной Африке на сафари.
10:23
The tracker I was with grew up in Kruger National Park.
209
623748
2762
Егерь, меня сопровождавший, вырос в Национальном парке Крюгера.
10:26
He had some very complex models of how to survive.
210
626534
2753
У него был ряд довольно сложных моделей для выживания.
10:29
And it depended on if you were attacked by a lion, leopard, rhino, or elephant --
211
629800
3913
Они предусматривали случаи нападения
львов, и леопардов, и носорогов, и слонов,
10:33
and when you had to run away, when you couldn't run away,
212
633737
2734
и когда нужно было бежать, а когда — лезть на дерево,
10:36
when you had to climb a tree, when you could never climb a tree.
213
636495
3083
и когда лезть нельзя ни в коем случае.
Я бы умер там в первый же день,
10:39
I would have died in a day.
214
639602
1349
но он там родился,
10:42
But he was born there, and he understood how to survive.
215
642160
3782
и он знает, как там выжить.
Я родился в Нью-Йорке.
10:46
I was born in New York City.
216
646490
1596
Я мог бы привезти его в Нью-Йорк, и он не выжил бы и дня.
10:48
I could have taken him to New York, and he would have died in a day.
217
648110
3251
(Смех)
10:51
(Laughter)
218
651385
1001
10:52
Because we had different models based on our different experiences.
219
652410
4144
Потому что у нас разные модели,
основанные на разном жизненном опыте.
10:58
Models can come from the media,
220
658291
2469
Модели могут навязываться СМИ
11:00
from our elected officials ...
221
660784
1763
и чиновниками.
11:03
Think of models of terrorism,
222
663234
3081
Подумайте о модели терроризма,
11:06
child kidnapping,
223
666339
2197
о похищениях детей,
11:08
airline safety, car safety.
224
668560
2325
безопасности полётов, безопасности дорожного движения.
11:11
Models can come from industry.
225
671539
1993
Модели могут навязываться индустрией.
11:14
The two I'm following are surveillance cameras,
226
674348
3218
Я слежу за двумя из них — камерами наблюдения
и удостоверениями личности —
11:17
ID cards,
227
677590
1496
довольно много моделей компьютерной безопасности берут начало оттуда.
11:19
quite a lot of our computer security models come from there.
228
679110
3130
Много моделей приходит из науки.
11:22
A lot of models come from science.
229
682264
2227
11:24
Health models are a great example.
230
684515
1837
Модели болезней — отличный пример.
11:26
Think of cancer, bird flu, swine flu, SARS.
231
686376
3026
Например рак, птичий грипп, свиной грипп, атипичная пневмония.
11:29
All of our feelings of security about those diseases
232
689942
4870
Наши ощущения опасности
этих болезней
11:34
come from models given to us, really, by science filtered through the media.
233
694836
4655
берут начало в моделях,
данных нам наукой и изменённых СМИ.
Итак, модели могут меняться.
11:41
So models can change.
234
701038
1720
11:43
Models are not static.
235
703482
2103
Модели не статичны.
11:45
As we become more comfortable in our environments,
236
705609
3240
По мере привыкания к среде
11:48
our model can move closer to our feelings.
237
708873
3602
наши модели могут приблизиться к нашим ощущениям.
11:53
So an example might be,
238
713965
2340
Например,
если вернуться на сто лет назад,
11:56
if you go back 100 years ago,
239
716329
1596
11:57
when electricity was first becoming common,
240
717949
3428
когда электричество только входило в обиход,
ему сопутствовало много страхов.
12:01
there were a lot of fears about it.
241
721401
1703
Люди буквально боялись звонить в дверной звонок,
12:03
There were people who were afraid to push doorbells,
242
723128
2478
потому там внутри было электричество и это было опасно.
12:05
because there was electricity in there, and that was dangerous.
243
725630
3005
Для нас электричество обыденно.
12:08
For us, we're very facile around electricity.
244
728659
2869
Мы меняем лампочки
12:11
We change light bulbs without even thinking about it.
245
731552
2818
даже не задумываясь о нём.
12:14
Our model of security around electricity is something we were born into.
246
734948
6163
Наша модель безопасности электричества —
это то, с чем мы родились.
12:21
It hasn't changed as we were growing up.
247
741735
2514
Оно не менялось пока мы взрослели.
12:24
And we're good at it.
248
744273
1565
И нам с ним легко.
12:27
Or think of the risks on the Internet across generations --
249
747380
4499
Или, например, восприятие рисков
в интернете разными поколениями —
12:31
how your parents approach Internet security,
250
751903
2097
как старшее поколение понимает безопасность в интернете
и как — вы,
12:34
versus how you do,
251
754024
1616
12:35
versus how our kids will.
252
755664
1542
и как её будут понимать ваши дети.
12:38
Models eventually fade into the background.
253
758300
2550
Рано или поздно модели уходят на задний фон.
12:42
"Intuitive" is just another word for familiar.
254
762427
2493
Интуитивно-понятный это то же что и знакомый.
12:45
So as your model is close to reality and it converges with feelings,
255
765887
3850
Так вот, когда модель близка к действительности
и совпадает с ощущениями,
12:49
you often don't even know it's there.
256
769761
1918
мы перестаём её замечать.
Красивый пример --
12:53
A nice example of this came from last year and swine flu.
257
773239
3817
прошлогодняя эпидемия свиного гриппа.
Когда свиной грипп только появился,
12:58
When swine flu first appeared,
258
778281
2000
первые новости вызвали чрезмерную реакцию.
13:00
the initial news caused a lot of overreaction.
259
780305
2618
13:03
Now, it had a name,
260
783562
1978
Ему дали имя,
13:05
which made it scarier than the regular flu,
261
785564
2050
что сделало его страшнее обычного гриппа,
13:07
even though it was more deadly.
262
787638
1567
при том, что обычный грипп более опасный.
13:09
And people thought doctors should be able to deal with it.
263
789784
3208
И люди считали, что медики должны что-то сделать.
13:13
So there was that feeling of lack of control.
264
793459
2524
Возникло то самое ощущение бесконтрольности.
Сочетание этих двух факторов
13:16
And those two things made the risk more than it was.
265
796007
3109
раздуло риск свыше реального.
13:19
As the novelty wore off and the months went by,
266
799140
3557
Как только новизна пропала, прошли месяцы,
13:22
there was some amount of tolerance; people got used to it.
267
802721
2843
притерпелись,
и люди к нему привыкли.
13:26
There was no new data, but there was less fear.
268
806355
2670
Новых данных не поступало, но страх снижался.
13:29
By autumn,
269
809681
2174
К осени
13:31
people thought the doctors should have solved this already.
270
811879
3382
люди думали
что медики уже решили эту проблему.
13:35
And there's kind of a bifurcation:
271
815722
1960
Была некая развилка —
13:37
people had to choose between fear and acceptance --
272
817706
5751
люди стояли перед выбором
между страхом и признанием,
на самом деле, между страхом и безразличием,
13:44
actually, fear and indifference --
273
824512
1644
и они выбрали подозрительность.
13:46
and they kind of chose suspicion.
274
826180
1795
И когда прошлой зимой появилась вакцина,
13:49
And when the vaccine appeared last winter,
275
829110
3111
много людей, поразительно много,
13:52
there were a lot of people -- a surprising number --
276
832245
2511
13:54
who refused to get it.
277
834780
1797
отказались сделать прививку —
13:58
And it's a nice example of how people's feelings of security change,
278
838777
3656
прекрасный пример того,
как меняется ощущение опасности и как меняются соответствующие модели,
14:02
how their model changes,
279
842457
1603
сильно меняются,
14:04
sort of wildly,
280
844084
1668
14:05
with no new information, with no new input.
281
845776
2770
даже без новой информации,
даже без новых данных.
Подобное происходит довольно часто.
14:10
This kind of thing happens a lot.
282
850327
1808
Усложним ещё раз.
14:13
I'm going to give one more complication.
283
853199
1971
14:15
We have feeling, model, reality.
284
855194
2696
Есть ощущения, модель, реальность.
14:18
I have a very relativistic view of security.
285
858640
2510
У меня очень относительное понятие о безопасности.
Я считаю, что она зависит от наблюдателя.
14:21
I think it depends on the observer.
286
861174
1814
14:23
And most security decisions have a variety of people involved.
287
863695
5166
И в большинство решений о безопасности
вовлечены разные люди.
14:29
And stakeholders with specific trade-offs will try to influence the decision.
288
869792
6539
И стороны
со специальными интересами
будут пробовать влиять на решение.
14:36
And I call that their agenda.
289
876355
1681
Я называю это их секретным планом.
Видите ли, план —
14:39
And you see agenda -- this is marketing, this is politics --
290
879512
3491
а это и маркетинг, и политика —
14:43
trying to convince you to have one model versus another,
291
883481
3039
в том, чтобы убедить вас использовать одну модель, а не другую,
14:46
trying to convince you to ignore a model
292
886544
1984
в том, чтобы убедить проигнорировать модель
14:48
and trust your feelings,
293
888552
2672
и довериться чувствам,
14:51
marginalizing people with models you don't like.
294
891248
2504
очерняя людей с «неудобными» моделями.
14:54
This is not uncommon.
295
894744
1516
Это не такая уж редкость.
14:57
An example, a great example, is the risk of smoking.
296
897610
3229
Отличный пример — вред от курения.
Последние 50 лет
15:02
In the history of the past 50 years,
297
902196
1783
15:04
the smoking risk shows how a model changes,
298
904003
2613
показали как меняется восприятие вреда от курения
15:06
and it also shows how an industry fights against a model it doesn't like.
299
906640
4358
и как табачная промышленность борется против
модели, которая ей не нравится.
15:11
Compare that to the secondhand smoke debate --
300
911983
3103
Сравните это с дискуссией о вреде пассивного курения
примерно 20-летней давности.
15:15
probably about 20 years behind.
301
915110
1953
15:17
Think about seat belts.
302
917982
1615
Вспомните о ремнях безопасности.
15:19
When I was a kid, no one wore a seat belt.
303
919621
2024
Когда я был ребёнком, никто не пристёгивался.
15:21
Nowadays, no kid will let you drive if you're not wearing a seat belt.
304
921669
3541
Сегодня ни один ребёнок не даст вам поехать
если вы не пристегнули ремень.
15:26
Compare that to the airbag debate,
305
926633
2453
Сравните это с дискуссией о подушках безопасности
примерно 30-летней давности.
15:29
probably about 30 years behind.
306
929110
1667
Всё это примеры изменяющихся моделей.
15:32
All examples of models changing.
307
932006
2088
15:36
What we learn is that changing models is hard.
308
936855
2796
Что мы узнали, так это то, что менять модели сложно.
Модели сложно вытеснить.
15:40
Models are hard to dislodge.
309
940334
2053
А если они совпадают с ощущениями,
15:42
If they equal your feelings,
310
942411
1675
то вы даже не знаете, что пользуетесь моделью.
15:44
you don't even know you have a model.
311
944110
1899
Есть и другое искажение восприятия.
15:47
And there's another cognitive bias
312
947110
1886
Я называю его ошибка подтверждения,
15:49
I'll call confirmation bias,
313
949020
2066
когда мы склонны рассматривать данные,
15:51
where we tend to accept data that confirms our beliefs
314
951110
4361
которые подтверждают наши убеждения
15:55
and reject data that contradicts our beliefs.
315
955495
2437
и отвергать данные противоречащие нашим убеждениям.
15:59
So evidence against our model, we're likely to ignore,
316
959490
3935
Так, свидетельство против нашей модели
мы скорее всего проигнорируем, даже если оно убедительно.
16:03
even if it's compelling.
317
963449
1248
16:04
It has to get very compelling before we'll pay attention.
318
964721
3005
Оно должно стать очень убедительным, прежде чем мы обратим внимание.
16:08
New models that extend long periods of time are hard.
319
968990
2597
Особенно сложны новые модели с долгосрочными последствиями.
Глобальное потепление — отличный пример.
16:11
Global warming is a great example.
320
971611
1754
Мы становимся двоечниками
16:13
We're terrible at models that span 80 years.
321
973389
3442
когда речь идёт о моделях с продолжительностью в 80 лет.
16:16
We can do "to the next harvest."
322
976855
2063
Мы можем дотянуть до следующего урожая.
16:18
We can often do "until our kids grow up."
323
978942
2306
Мы можем спланировать и вырастить детей.
16:21
But "80 years," we're just not good at.
324
981760
2201
Но 80 лет — это для нас слишком сложно.
16:24
So it's a very hard model to accept.
325
984975
2302
Именно поэтому эту модель так трудно принять.
16:27
We can have both models in our head simultaneously --
326
987999
2946
Иногда мы держим в уме несколько моделей одновременно,
16:31
that kind of problem where we're holding both beliefs together,
327
991912
6948
это похоже на то,
когда мы верим одновременно в разные вещи,
на внутреннее противоречие.
16:38
the cognitive dissonance.
328
998884
1370
Рано или поздно
16:40
Eventually, the new model will replace the old model.
329
1000278
3156
новая модель заменит старую.
16:44
Strong feelings can create a model.
330
1004164
2190
Сильные переживания могут создать модель.
16:47
September 11 created a security model in a lot of people's heads.
331
1007411
5363
Теракт 11-го сентября создал новую модель безопасности
в умах многих людей.
16:52
Also, personal experiences with crime can do it,
332
1012798
3288
Также могут и столкновения с преступностью,
страх заболеть,
16:56
personal health scare,
333
1016110
1379
16:57
a health scare in the news.
334
1017513
1466
страшные новости об эпидемиях.
Такие события психиатры
17:00
You'll see these called "flashbulb events" by psychiatrists.
335
1020198
3345
называют события-вспышки.
Они могут создать модель мгновенно,
17:04
They can create a model instantaneously,
336
1024183
2461
17:06
because they're very emotive.
337
1026668
1761
потому что они очень эмоциональны.
17:09
So in the technological world,
338
1029908
1588
В технологическом мире
17:11
we don't have experience to judge models.
339
1031520
3237
у нас просто нет опыта
для оценки моделей.
17:15
And we rely on others. We rely on proxies.
340
1035124
2933
И мы полагаемся на суждение других. Мы полагаемся на посредников.
Я имею в виду, что это работает с компетентным посредником.
17:18
And this works, as long as it's the correct others.
341
1038081
2619
17:21
We rely on government agencies
342
1041183
2682
Мы полагаемся на Минздрав
17:23
to tell us what pharmaceuticals are safe.
343
1043889
4404
в решениях о безопасности лекарств.
17:28
I flew here yesterday.
344
1048317
1913
Я вчера прилетел сюда.
17:30
I didn't check the airplane.
345
1050254
1762
Я не проверял самолёт лично.
17:32
I relied on some other group
346
1052699
2595
Я доверил кому-то другому
Проверить, что мой самолёт был безопасен.
17:35
to determine whether my plane was safe to fly.
347
1055318
2437
17:37
We're here, none of us fear the roof is going to collapse on us,
348
1057779
3298
В этом зале никто не боится, что крыша рухнет,
не потому что мы лично проверили,
17:41
not because we checked,
349
1061101
2205
17:43
but because we're pretty sure the building codes here are good.
350
1063330
3672
а потому что мы знаем, что
местные строительные стандарты надёжны.
17:48
It's a model we just accept
351
1068442
2989
Это лишь одна из моделей,
которые мы принимаем на веру.
17:51
pretty much by faith.
352
1071455
1360
И это нормально.
17:53
And that's OK.
353
1073331
1358
17:57
Now, what we want is people to get familiar enough with better models,
354
1077966
5873
Чего мы хотим,
так это, чтобы люди обучались
наилучшим моделям
18:03
have it reflected in their feelings,
355
1083863
2120
и приводили свои чувства в соответствие с этими моделями,
что позволит им делать правильный выбор.
18:06
to allow them to make security trade-offs.
356
1086007
3002
Когда же модель перестаёт работать,
18:10
When these go out of whack, you have two options.
357
1090110
3719
у вас есть два варианта.
18:13
One, you can fix people's feelings, directly appeal to feelings.
358
1093853
4233
Первый — можно исправить ощущения людей,
напрямую обратившись к эмоциям.
Это манипуляция, но может сработать.
18:18
It's manipulation, but it can work.
359
1098110
2406
Второй, более честный путь —
18:21
The second, more honest way
360
1101173
2191
исправить модель.
18:23
is to actually fix the model.
361
1103388
1773
18:26
Change happens slowly.
362
1106720
2101
Изменения происходят медленно.
18:28
The smoking debate took 40 years -- and that was an easy one.
363
1108845
4378
Дискуссия о вреде курения заняла 40 лет,
и это ещё простая дискуссия.
Есть примеры посложнее.
18:35
Some of this stuff is hard.
364
1115195
1813
Я намекаю на то, что
18:37
Really, though, information seems like our best hope.
365
1117496
3756
наша единственная надежда — информированность.
И я вас обманул.
18:41
And I lied.
366
1121276
1272
18:42
Remember I said feeling, model, reality; reality doesn't change?
367
1122572
4020
Вспомните, когда я рассказывал про ощущения, модель, реальность.
Я сказал, что реальность не меняется. А она меняется.
18:46
It actually does.
368
1126616
1375
Мы живём в эпоху технологий —
18:48
We live in a technological world;
369
1128015
1714
18:49
reality changes all the time.
370
1129753
2338
реальность постоянно меняется.
18:52
So we might have, for the first time in our species:
371
1132887
2977
И мы сталкиваемся, наверное, впервые в истории нашего вида, с тем, что
18:55
feeling chases model, model chases reality, reality's moving --
372
1135888
3183
ощущения следуют за моделью, модель следует за реальностью, реальность меняется —
да, они могут никогда не встретиться.
18:59
they might never catch up.
373
1139095
1533
19:02
We don't know.
374
1142180
1328
Сложно сказать.
Но в долгосрочной перспективе
19:05
But in the long term,
375
1145614
1603
важны и ощущения и реальность.
19:07
both feeling and reality are important.
376
1147241
2204
19:09
And I want to close with two quick stories to illustrate this.
377
1149469
3233
Я хочу завершить двумя короткими показательными историями.
19:12
1982 -- I don't know if people will remember this --
378
1152726
2479
В 1982-м, не знаю, помните ли вы,
в США была кратковременная суматоха
19:15
there was a short epidemic of Tylenol poisonings
379
1155229
3370
по поводу отравленного Тайленола.
19:18
in the United States.
380
1158623
1196
19:19
It's a horrific story.
381
1159843
1361
Ужасная история. Кто-то взял бутылку Тайленола,
19:21
Someone took a bottle of Tylenol,
382
1161228
2079
добавил туда яд, упаковал заново и положил на прилавок.
19:23
put poison in it, closed it up, put it back on the shelf,
383
1163331
3002
Кто-то другой купил и умер.
19:26
someone else bought it and died.
384
1166357
1558
19:27
This terrified people.
385
1167939
1673
Это вселило ужас в людей.
19:29
There were a couple of copycat attacks.
386
1169636
2227
Было ещё пару подобных случаев.
19:31
There wasn't any real risk, but people were scared.
387
1171887
2845
Реальной опасности не было, но люди были напуганы.
19:34
And this is how the tamper-proof drug industry was invented.
388
1174756
3876
Это положило начало
индустрии упаковок с защитой.
19:38
Those tamper-proof caps? That came from this.
389
1178656
2229
Колпачки в защитном полиэтилене — они появились после этих случаев.
19:40
It's complete security theater.
390
1180909
1571
Это типичная «игра в безопасность».
19:42
As a homework assignment, think of 10 ways to get around it.
391
1182504
2891
Дома придумайте 10 способов обойти эту защиту.
Я подскажу один — шприц.
19:45
I'll give you one: a syringe.
392
1185419
1891
19:47
But it made people feel better.
393
1187334
2781
Но всё это дало людям ощущение безопасности.
19:50
It made their feeling of security more match the reality.
394
1190744
3702
Это привело их ощущение безопасности
к лучшему соответствию с реальностью.
Последняя история. Несколько лет назад моя подруга рожала.
19:55
Last story: a few years ago, a friend of mine gave birth.
395
1195390
2934
Я приехал к ней в роддом.
19:58
I visit her in the hospital.
396
1198348
1397
19:59
It turns out, when a baby's born now,
397
1199769
1923
Оказывается, что сейчас, после родов
20:01
they put an RFID bracelet on the baby, a corresponding one on the mother,
398
1201716
3563
на ребёнка надевается радио-браслет,
и такой же надевается на маму,
20:05
so if anyone other than the mother takes the baby out of the maternity ward,
399
1205303
3620
так что, если кто-либо кроме мамы выносит ребёнка из покоев,
срабатывает сигнализация.
20:08
an alarm goes off.
400
1208947
1158
Я подумал: «Ого, здорово!
20:10
I said, "Well, that's kind of neat.
401
1210129
1729
20:11
I wonder how rampant baby snatching is out of hospitals."
402
1211882
3970
Интересно, а как часто детей крадут
из роддомов?»
20:15
I go home, I look it up.
403
1215876
1236
Дома я это проверил.
20:17
It basically never happens.
404
1217136
1525
Это практически никогда не случается.
20:18
(Laughter)
405
1218685
1844
Но если подумать,
20:20
But if you think about it, if you are a hospital,
406
1220553
2843
если вы в роддоме,
20:23
and you need to take a baby away from its mother,
407
1223420
2380
и если вам нужно отлучить ребёнка от матери,
20:25
out of the room to run some tests,
408
1225824
1781
например, чтобы взять какие-то анализы,
20:27
you better have some good security theater,
409
1227629
2050
вам лучше поиграть в безопасность,
20:29
or she's going to rip your arm off.
410
1229703
1945
а то мама оторвёт вам голову.
20:31
(Laughter)
411
1231672
1533
(Смех)
Это важно для нас,
20:34
So it's important for us,
412
1234161
1717
20:35
those of us who design security,
413
1235902
2135
для тех, кто придумывает меры безопасности,
кто проверяет меры безопасности
20:38
who look at security policy --
414
1238061
2031
20:40
or even look at public policy in ways that affect security.
415
1240946
3308
или просто правила поведения,
относящиеся к безопасности.
Это не только реальность, это ощущение и реальность.
20:45
It's not just reality; it's feeling and reality.
416
1245006
3416
Важно,
20:48
What's important
417
1248446
1865
чтобы они совпадали.
20:50
is that they be about the same.
418
1250335
1545
20:51
It's important that, if our feelings match reality,
419
1251904
2531
Важно, потому что, когда ощущения совпадают с реальностью,
мы гораздо лучше делаем выборы в плане безопасности.
20:54
we make better security trade-offs.
420
1254459
1873
Спасибо за внимание.
20:56
Thank you.
421
1256711
1153
20:57
(Applause)
422
1257888
2133
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7