Bruce Schneier: The security mirage

78,030 views ・ 2011-04-27

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Laszlo Kereszturi Corector: Magda Marcu
Securitatea înseamnă două lucruri diferite:
00:16
So, security is two different things:
0
16010
2276
este o senzație și este o realitate.
00:18
it's a feeling, and it's a reality.
1
18310
2526
Iar ele sunt diferite.
00:20
And they're different.
2
20860
1425
Poți să te simți în siguranță
00:22
You could feel secure even if you're not.
3
22309
3427
chiar dacă nu ești.
00:25
And you can be secure
4
25760
1976
Și poți fi în siguranță
00:27
even if you don't feel it.
5
27760
1850
chiar dacă nu simți asta.
00:29
Really, we have two separate concepts
6
29634
2117
Chiar avem două concepte separate
00:31
mapped onto the same word.
7
31775
1652
mapate în același cuvânt.
00:33
And what I want to do in this talk is to split them apart --
8
33960
3626
Și ce vreau să fac în acest discurs
e să le separ una de alta --
00:37
figuring out when they diverge and how they converge.
9
37610
3610
înțelegând când diverg ele
și cum converg ele.
00:41
And language is actually a problem here.
10
41711
2275
Iar limba chiar este o problemă aici.
Nu există prea multe cuvinte potrivite
00:44
There aren't a lot of good words
11
44010
2076
pentru conceptele despre care vom vorbi.
00:46
for the concepts we're going to talk about.
12
46110
2061
Deci dacă privești securitatea
00:49
So if you look at security from economic terms,
13
49295
4120
din punct de vedere economic,
ea este un troc.
00:53
it's a trade-off.
14
53439
1647
De fiecare dată când obții ceva securitate,
00:55
Every time you get some security, you're always trading off something.
15
55110
4132
întotdeauna dai ceva în schimb.
Fie că asta este o decizie personală --
00:59
Whether this is a personal decision --
16
59266
1845
instalezi o alarmă antifurt acasă --
01:01
whether you're going to install a burglar alarm in your home --
17
61135
3012
sau o decizie națională -- când vei invada o țară străină --
01:04
or a national decision,
18
64171
1157
01:05
where you're going to invade a foreign country --
19
65352
2310
vei da ceva la schimb,
01:07
you're going to trade off something: money or time, convenience, capabilities,
20
67686
3782
fie bani sau timp, confort, posibilități,
poate libertăți fundamentale.
01:11
maybe fundamental liberties.
21
71492
2002
01:13
And the question to ask when you look at a security anything
22
73518
3274
Iar întrebarea care trebuie pusă când examinezi ceva de securitate
01:16
is not whether this makes us safer,
23
76816
3382
nu este dacă asta ne aduce mai multă siguranță,
ci dacă schimbul a meritat sau nu.
01:20
but whether it's worth the trade-off.
24
80222
2215
01:22
You've heard in the past several years, the world is safer
25
82461
3229
Ați auzit în ultimii câțiva ani,
că lumea este mai sigură fiindcă Saddam Hussein nu mai este la putere.
01:25
because Saddam Hussein is not in power.
26
85714
1890
Poate că este adevărat, dar nu este foarte relevant.
01:27
That might be true, but it's not terribly relevant.
27
87628
2603
Întrebarea este: a meritat?
01:30
The question is: Was it worth it?
28
90255
2831
Și poți decide singur, iar apoi
01:33
And you can make your own decision,
29
93110
2459
01:35
and then you'll decide whether the invasion was worth it.
30
95593
2733
vei decide dacă invazia a meritat.
Așa trebuie să gândești despre securitate --
01:38
That's how you think about security: in terms of the trade-off.
31
98350
3561
în termeni de schimb.
01:41
Now, there's often no right or wrong here.
32
101935
2610
De multe ori nu există răspuns corect sau greșit.
Unii din noi avem alarme în casele noastre,
01:45
Some of us have a burglar alarm system at home and some of us don't.
33
105208
3308
iar unii din noi nu avem.
01:48
And it'll depend on where we live,
34
108540
2731
Și asta depinde de unde trăim,
dacă trăim singuri sau avem o familie,
01:51
whether we live alone or have a family,
35
111295
1926
cât de multe lucruri grozave avem,
01:53
how much cool stuff we have,
36
113245
1668
01:54
how much we're willing to accept the risk of theft.
37
114937
3165
cât de mult dorim să acceptăm
riscul furtului.
01:58
In politics also, there are different opinions.
38
118943
2948
În politică de asemenea
sunt opinii diferite.
02:02
A lot of times, these trade-offs are about more than just security,
39
122459
4435
De multe ori aceste schimburi
sunt despre mai mult decât securitate,
02:06
and I think that's really important.
40
126918
1865
și cred că asta este foarte important.
02:08
Now, people have a natural intuition about these trade-offs.
41
128807
3308
Oamenii au o intuiție înnăscută
despre aceste schimburi.
02:12
We make them every day.
42
132588
1556
Le facem zilnic --
02:14
Last night in my hotel room, when I decided to double-lock the door,
43
134807
3533
noaptea trecută în camera mea de hotel,
când am decis să încui ușa de două ori,
02:18
or you in your car when you drove here;
44
138364
2000
sau voi în mașinile cu care ați venit aici,
când mergem la prânz
02:21
when we go eat lunch
45
141191
1478
02:22
and decide the food's not poison and we'll eat it.
46
142693
2608
și decidem că hrana nu este otravă și o vom mânca.
02:25
We make these trade-offs again and again,
47
145325
3161
Facem aceste schimburi iar și iar
de mai multe ori pe zi.
02:28
multiple times a day.
48
148510
1576
Adesea nici nu le observăm.
02:30
We often won't even notice them.
49
150110
1589
02:31
They're just part of being alive; we all do it.
50
151723
2626
Ele sunt parte a vieții, toți o facem.
Fiecare specie o face.
02:34
Every species does it.
51
154373
1555
02:36
Imagine a rabbit in a field, eating grass.
52
156474
2862
Imaginați-vă un iepure în câmp, mâncând iarba,
și iepurele vede o vulpe.
02:39
And the rabbit sees a fox.
53
159360
1943
02:41
That rabbit will make a security trade-off:
54
161856
2049
Iepurele va face un schimb de securitate.
02:43
"Should I stay, or should I flee?"
55
163929
1904
"Să stau sau să fug?"
Și dacă vă gândiți la asta,
02:46
And if you think about it,
56
166380
1619
iepurii care sunt buni la aceste schimburi
02:48
the rabbits that are good at making that trade-off
57
168023
2555
02:50
will tend to live and reproduce,
58
170602
1978
vor tinde să trăiască și să se reproducă,
02:52
and the rabbits that are bad at it
59
172604
2307
iar iepurii care nu sunt buni la asta
02:54
will get eaten or starve.
60
174935
1474
vor fi mâncați sau vor muri de foame.
02:56
So you'd think
61
176958
1608
Deci ați gândi că noi,
ca o specie de succes a planetei --
02:59
that us, as a successful species on the planet -- you, me, everybody --
62
179573
4309
voi, eu, toți --
03:03
would be really good at making these trade-offs.
63
183906
2573
am fi foarte buni în a face aceste schimburi.
Cu toate acestea se pare că, iar și iar,
03:07
Yet it seems, again and again, that we're hopelessly bad at it.
64
187126
3104
suntem foarte nepricepuți în asta.
03:11
And I think that's a fundamentally interesting question.
65
191768
2802
Și eu cred că asta este o întrebare fundamental interesantă.
03:14
I'll give you the short answer.
66
194594
1873
Vă voi da răspunsul scurt.
03:16
The answer is, we respond to the feeling of security
67
196491
2651
Răspunsul este că răspundem la senzația de securitate
și nu la realitate.
03:19
and not the reality.
68
199166
1518
03:21
Now, most of the time, that works.
69
201864
2696
În majoritatea cazurilor asta merge.
03:25
Most of the time,
70
205538
1503
În majoritatea cazurilor,
03:27
feeling and reality are the same.
71
207065
2133
senzația și realitatea sunt identice.
03:30
Certainly that's true for most of human prehistory.
72
210776
3516
În mod cert asta este adevărat
pentru majoritatea preistoriei umane.
03:35
We've developed this ability
73
215633
2708
Am dezvoltat această abilitate
03:38
because it makes evolutionary sense.
74
218365
2584
fiindcă are sens din puct de vedere evoluționar.
Un mod de a gândi la asta
03:41
One way to think of it is that we're highly optimized
75
221985
3274
este că suntem extrem de optimizați
pentru decizii de risc
03:45
for risk decisions
76
225283
1803
tipice vieții în mici grupuri familiale
03:47
that are endemic to living in small family groups
77
227110
2543
03:49
in the East African Highlands in 100,000 BC.
78
229677
2536
în savana africană din anul 100.000 î.H. --
03:52
2010 New York, not so much.
79
232792
2659
dar nu așa de mult pentru anul 2010, în New York.
03:56
Now, there are several biases in risk perception.
80
236879
3206
Există mai multe predispoziţii în perceperea riscului.
Există o mulțime de experimente bune pentru asta.
04:00
A lot of good experiments in this.
81
240109
1741
04:01
And you can see certain biases that come up again and again.
82
241874
3603
Și poți observa anumite predispoziţii care apar din nou și din nou.
Vă voi da patru.
04:05
I'll give you four.
83
245501
1353
04:06
We tend to exaggerate spectacular and rare risks
84
246878
3208
Tindem să exagerăm riscurile spectaculoase și rare
și să desconsiderăm riscurile comune --
04:10
and downplay common risks --
85
250110
1976
de ex. a zbura comparat cu a conduce.
04:12
so, flying versus driving.
86
252110
1518
04:14
The unknown is perceived to be riskier than the familiar.
87
254451
3794
Necunoscutul este perceput
a fi mai riscant decât cunoscutul.
Un exemplu ar fi,
04:21
One example would be:
88
261470
1439
04:22
people fear kidnapping by strangers,
89
262933
2613
oamenilor le e teamă de străinii care răpesc copii,
04:25
when the data supports that kidnapping by relatives is much more common.
90
265570
3636
când datele susțin că răpirea de către rude este mult mai comună.
Asta este pentru copii.
04:29
This is for children.
91
269230
1574
04:30
Third, personified risks are perceived to be greater
92
270828
4040
Trei, riscurile personificate
sunt percepute a fi mai mari decât riscurile anonime --
04:34
than anonymous risks.
93
274892
1503
04:36
So, Bin Laden is scarier because he has a name.
94
276419
2787
deci Bin Laden este mai înspăimântător fiindcă are un nume.
Și a patra
04:40
And the fourth is:
95
280182
1363
04:41
people underestimate risks in situations they do control
96
281569
4755
este că oamenii subestimează riscurile
în situații pe care le controlează
și le supraestimează în situații pe care nu le controlează.
04:46
and overestimate them in situations they don't control.
97
286348
2963
04:49
So once you take up skydiving or smoking,
98
289335
3384
Deci odată ce te-ai apucat de sărituri cu parașuta sau de fumat,
04:52
you downplay the risks.
99
292743
1624
desconsideri riscurile.
Dacă ți se impune un risc cu forța -- terorismul a fost un bun exemplu --
04:55
If a risk is thrust upon you -- terrorism is a good example --
100
295037
3053
îl vei exagera, fiindcă simți că nu este sub controlul tău.
04:58
you'll overplay it,
101
298114
1157
04:59
because you don't feel like it's in your control.
102
299295
2339
05:02
There are a bunch of other of these cognitive biases,
103
302157
3493
Există o mulțime de alte predispoziţii, aceste predispoziţii cognitive,
05:05
that affect our risk decisions.
104
305674
2339
care afectează deciziile noastre de risc.
05:08
There's the availability heuristic,
105
308832
2254
Este heuristica disponibilității,
care de fapt înseamnă
05:11
which basically means we estimate the probability of something
106
311110
4180
că estimăm probabilitatea a ceva
05:15
by how easy it is to bring instances of it to mind.
107
315314
3339
prin cât de ușor ne imaginăm instanțele ei.
05:19
So you can imagine how that works.
108
319831
1777
Puteți să vă imaginați cum funcționează asta.
05:21
If you hear a lot about tiger attacks, there must be a lot of tigers around.
109
321632
3628
Dacă auziți mult despre atacuri de tigri, trebuie să fie mulți tigri în jur.
Nu auziți despre atacuri de lei, deci nu sunt mulți lei în jur.
05:25
You don't hear about lion attacks, there aren't a lot of lions around.
110
325284
3344
Asta funcționează până inventezi ziarele.
05:28
This works, until you invent newspapers,
111
328652
2297
05:30
because what newspapers do is repeat again and again
112
330973
4406
Fiindcă ziarele
repetă din nou și din nou
riscurile rare.
05:35
rare risks.
113
335403
1406
05:36
I tell people: if it's in the news, don't worry about it,
114
336833
2865
Eu le spun oamenilor: dacă este în știri, nu te îngrijora.
Fiindcă prin definiție,
05:39
because by definition, news is something that almost never happens.
115
339722
4275
știrea este ceva care se întâmplă foarte rar.
(Râsete)
05:44
(Laughter)
116
344021
1769
05:45
When something is so common, it's no longer news.
117
345814
2923
Când ceva este așa de comun. nu mai apare în știri --
05:48
Car crashes, domestic violence --
118
348761
2198
accidente de mașină, violența domestică --
05:50
those are the risks you worry about.
119
350983
1990
acelea sunt riscurile pentru care să te îngrijorezi.
05:53
We're also a species of storytellers.
120
353713
2148
Suntem de asemenea o specie de povestitori.
05:55
We respond to stories more than data.
121
355885
2115
Răspundem mai mult la povești, decât la date.
05:58
And there's some basic innumeracy going on.
122
358514
2406
Și există o lipsă de știință în aprecierea numerelor.
06:00
I mean, the joke "One, two, three, many" is kind of right.
123
360944
3142
Adică bancul: "Una, două, trei, multe" pare să fie adevărat.
Suntem foarte buni la numere mici.
06:04
We're really good at small numbers.
124
364110
2322
06:06
One mango, two mangoes, three mangoes,
125
366456
2336
Un mango, două mango, trei mango,
06:08
10,000 mangoes, 100,000 mangoes --
126
368816
1977
însă 10,000 de mango, 100,000 mango --
06:10
it's still more mangoes you can eat before they rot.
127
370817
2977
sunt totuși mai multe mango decât poți mânca înainte de a putrezi.
06:13
So one half, one quarter, one fifth -- we're good at that.
128
373818
3268
Deci o jumătate, un sfert, o cincime -- suntem buni la asta.
Unul dintr-un milion, unul dintr-un miliard --
06:17
One in a million, one in a billion --
129
377110
1976
ambele sunt aproape ca niciodată.
06:19
they're both almost never.
130
379110
1575
06:21
So we have trouble with the risks that aren't very common.
131
381546
3414
Așa că avem problemă cu riscurile
care nu sunt foarte comune.
06:25
And what these cognitive biases do
132
385760
1977
Iar aceste predispoziţii cognitive
06:27
is they act as filters between us and reality.
133
387761
2976
acționează ca niște filtre între noi și realitate.
Și rezultatul
06:31
And the result is that feeling and reality get out of whack,
134
391284
3873
este că senzația și realitatea ies din sincron,
ajung diferite.
06:35
they get different.
135
395181
1384
06:37
Now, you either have a feeling -- you feel more secure than you are,
136
397370
3931
Fie ai o senzație -- te simți mai sigur decât ești în realitate.
Este o falsă senzație de securitate.
06:41
there's a false sense of security.
137
401325
1685
Sau invers,
06:43
Or the other way, and that's a false sense of insecurity.
138
403034
3374
și atunci este o falsă senzație de insecuritate.
Scriu mult despre "scena securității",
06:47
I write a lot about "security theater,"
139
407015
2880
06:49
which are products that make people feel secure,
140
409919
2680
care sunt produsele care îi fac pe oamenii să se simtă în siguranță,
06:52
but don't actually do anything.
141
412623
1977
dar de fapt nu fac ceva util.
06:54
There's no real word for stuff that makes us secure,
142
414624
2557
Nu există cuvânt pentru lucrurile care ne asigură securitatea,
dar nu ne fac să ne simțim mai în siguranță.
06:57
but doesn't make us feel secure.
143
417205
1881
Poate asta ar trebui să facă CIA pentru noi.
06:59
Maybe it's what the CIA is supposed to do for us.
144
419110
2720
07:03
So back to economics.
145
423539
2168
Deci înapoi la economie.
07:05
If economics, if the market, drives security,
146
425731
3656
Dacă economia, dacă piața, dirijează securitatea,
07:09
and if people make trade-offs based on the feeling of security,
147
429411
4847
și dacă oamenii fac schimburi
bazate pe senzația de securitate,
07:14
then the smart thing for companies to do for the economic incentives
148
434282
4680
atunci companiile trebuie să facă
oamenii să se simtă în siguranță
07:18
is to make people feel secure.
149
438986
2057
pentru a culege recompensele economice.
07:21
And there are two ways to do this.
150
441942
2330
Și sunt două căi de a face asta.
07:24
One, you can make people actually secure
151
444296
2790
Prima, poți asigura securitatea omenilor
și speri că vor observa.
07:27
and hope they notice.
152
447110
1463
07:28
Or two, you can make people just feel secure
153
448597
2844
Sau a doua, poți să-i faci pe oameni să se simtă în siguranță
07:31
and hope they don't notice.
154
451465
1872
și speri că nu vor observa.
07:34
Right?
155
454401
1375
07:35
So what makes people notice?
156
455800
3141
Deci ce-i face pe oameni să observe?
Câteva lucruri:
07:39
Well, a couple of things:
157
459500
1382
07:40
understanding of the security,
158
460906
2266
înțelegerea securității,
a riscurilor, a amenințărilor,
07:43
of the risks, the threats,
159
463196
1890
a contramăsurilor, cum funcționează ele.
07:45
the countermeasures, how they work.
160
465110
1874
07:47
But if you know stuff, you're more likely
161
467008
2290
Dar dacă știi lucrurile,
este mai probabil ca senzațiile tale să se potrivească cu realitatea.
07:50
to have your feelings match reality.
162
470155
2226
Multe exemple din lumea reală ne pot ajuta.
07:53
Enough real-world examples helps.
163
473110
3145
Știm cu toții despre rata crimelor din cartierul nostru,
07:56
We all know the crime rate in our neighborhood,
164
476279
2559
07:58
because we live there, and we get a feeling about it
165
478862
2801
fiindcă trăim acolo și avem o atitudine față de asta,
08:01
that basically matches reality.
166
481687
1869
senzație care de fapt se potrivește cu realitatea.
Spectacolul de securitate este dezvăluit
08:05
Security theater is exposed
167
485038
2207
08:07
when it's obvious that it's not working properly.
168
487269
2786
când este evident că nu funționează corect.
În regulă, deci ce-i face pe oameni să nu observe?
08:11
OK. So what makes people not notice?
169
491209
2670
08:14
Well, a poor understanding.
170
494443
1492
Ei bine, o slabă înțelegere.
08:16
If you don't understand the risks, you don't understand the costs,
171
496642
3144
Dacă nu înțelegi riscurile, nu înțelegi costurile,
08:19
you're likely to get the trade-off wrong,
172
499810
2157
vei face probabil schimbul greșit,
08:21
and your feeling doesn't match reality.
173
501991
2488
și senzația ta nu se va potrivi cu realitatea.
08:24
Not enough examples.
174
504503
1737
Nu sunt destule exemple.
08:26
There's an inherent problem with low-probability events.
175
506879
3506
Este o problemă inerentă
cu evenimentele de mică probabilitate.
08:30
If, for example, terrorism almost never happens,
176
510919
3813
Dacă, de exemplu,
terorismul se întâmplă foarte rar,
08:34
it's really hard to judge the efficacy of counter-terrorist measures.
177
514756
4604
este foarte greu de judecat
eficacitatea măsurilor antiteroriste.
08:40
This is why you keep sacrificing virgins,
178
520523
3563
De asta continui să sacrifici fecioare,
și de asta funcționează așa de minunat apărarea ta bazată pe inorogi.
08:44
and why your unicorn defenses are working just great.
179
524110
2675
08:46
There aren't enough examples of failures.
180
526809
2557
Nu sunt destule exemple de eșecuri.
De asemenea, sentimentele care obturează problemele --
08:51
Also, feelings that cloud the issues --
181
531109
2787
08:53
the cognitive biases I talked about earlier: fears, folk beliefs --
182
533920
4028
predispoziţiile cognitive despre care am vorbit înainte,
temeri, credințe populare,
08:58
basically, an inadequate model of reality.
183
538727
2745
de fapt un model neadecvat al realității.
Permiteți-mi să complic lucrurile.
09:03
So let me complicate things.
184
543403
2171
09:05
I have feeling and reality.
185
545598
1977
Am senzație și realitate.
09:07
I want to add a third element. I want to add "model."
186
547599
2796
Vreau să adaug un al treilea element. Vreau să adaug modelul.
09:10
Feeling and model are in our head,
187
550839
2350
Senzația și modelul este în capul nostru,
realitatea este lumea din jur.
09:13
reality is the outside world; it doesn't change, it's real.
188
553213
3452
Ea nu se schimbă; este reală.
09:17
Feeling is based on our intuition,
189
557800
2214
Senzația este bazată pe intuiția noastră.
Modelul este bazat pe raționament.
09:20
model is based on reason.
190
560038
1626
Asta este de fapt diferența.
09:22
That's basically the difference.
191
562383
2039
09:24
In a primitive and simple world,
192
564446
1977
Într-o lume primitivă și simplă,
09:26
there's really no reason for a model,
193
566447
2137
chiar nu este nevoie de un model.
Fiindcă senzația este aproape de realitate.
09:30
because feeling is close to reality.
194
570253
2295
09:32
You don't need a model.
195
572572
1373
Nu ai nevoie de un model.
09:34
But in a modern and complex world,
196
574596
2150
Dar într-o lume modernă și complexă,
ai nevoie de modele
09:37
you need models to understand a lot of the risks we face.
197
577556
3650
pentru a înțelege mulțimea de riscuri care există.
09:42
There's no feeling about germs.
198
582362
2284
Nu există senzație despre microbi.
Ai nevoie de un model pentru a-i înțelege.
09:45
You need a model to understand them.
199
585110
2116
Deci acest model
09:48
This model is an intelligent representation of reality.
200
588157
3678
este o reprezentare inteligentă a realității.
09:52
It's, of course, limited by science, by technology.
201
592411
4751
Este desigur limitat de știință,
de tehnologie.
Nu am putut avea o teorie a bolilor bazată pe microbi
09:58
We couldn't have a germ theory of disease
202
598249
2326
10:00
before we invented the microscope to see them.
203
600599
2534
înainte de inventarea microscopului pentru a le vedea.
10:04
It's limited by our cognitive biases.
204
604316
2643
Este limitat de predispoziţiile noastre cognitive.
Dar are abilitatea
10:08
But it has the ability to override our feelings.
205
608110
2991
de a suprascrie senzațiile noastre.
10:11
Where do we get these models? We get them from others.
206
611507
3104
De unde avem aceste modele? Le avem de la alții.
10:14
We get them from religion, from culture, teachers, elders.
207
614635
5219
Le avem din religie, cultură,
profesori, strămoși.
Cu câțiva ani în urmă,
10:20
A couple years ago, I was in South Africa on safari.
208
620298
3426
am fost în Africa de sud la un safari.
10:23
The tracker I was with grew up in Kruger National Park.
209
623748
2762
Călăuza cu care am fost a crescut în Parcul Național Kruger.
10:26
He had some very complex models of how to survive.
210
626534
2753
El avea niște modele foarte complexe despre cum să supraviețuiești.
10:29
And it depended on if you were attacked by a lion, leopard, rhino, or elephant --
211
629800
3913
Iar asta depindea dacă te ataca
un leu sau un leopard sau un rinocer sau un elefant --
10:33
and when you had to run away, when you couldn't run away,
212
633737
2734
și când trebuie să fugi, și când trebuie să te urci într-un copac --
10:36
when you had to climb a tree, when you could never climb a tree.
213
636495
3083
și când nu trebuie să te urci într-un copac.
Eu aș fi murit într-o singură zi,
10:39
I would have died in a day.
214
639602
1349
dar el s-a născut acolo,
10:42
But he was born there, and he understood how to survive.
215
642160
3782
și înțelegea cum să supraviețuiești.
Eu m-am născut în New York City.
10:46
I was born in New York City.
216
646490
1596
Dacă l-aș fi luat cu mine în New York, atunci el ar fi murit într-o singură zi.
10:48
I could have taken him to New York, and he would have died in a day.
217
648110
3251
(Râsete)
10:51
(Laughter)
218
651385
1001
10:52
Because we had different models based on our different experiences.
219
652410
4144
Fiindcă aveam modele diferite
bazate pe experiențele noastre diferite.
10:58
Models can come from the media,
220
658291
2469
Modelele pot veni din massmedia,
11:00
from our elected officials ...
221
660784
1763
de la aleșii noștri oficiali.
11:03
Think of models of terrorism,
222
663234
3081
Gândiți-vă la modele de terorism,
11:06
child kidnapping,
223
666339
2197
răpiri de copii,
11:08
airline safety, car safety.
224
668560
2325
siguranța zborului, siguranța mașinii.
11:11
Models can come from industry.
225
671539
1993
Modelele pot veni din industrie.
11:14
The two I'm following are surveillance cameras,
226
674348
3218
Cele două pe care la urmăresc sunt camerele de supraveghere,
cardurile de identitate,
11:17
ID cards,
227
677590
1496
destul de multe din modelele de securitatea calculatoarelor vin de acolo.
11:19
quite a lot of our computer security models come from there.
228
679110
3130
O mulțime de modele vin din știință.
11:22
A lot of models come from science.
229
682264
2227
11:24
Health models are a great example.
230
684515
1837
Modelele de sănătate sunt un exemplu grozav.
11:26
Think of cancer, bird flu, swine flu, SARS.
231
686376
3026
Gândiți-vă la cancer, gripa aviară, gripa porcină, SARS.
11:29
All of our feelings of security about those diseases
232
689942
4870
Toate senzațiile noastre de securitate
despre acele boli
11:34
come from models given to us, really, by science filtered through the media.
233
694836
4655
vin din modele
date nouă, de fapt, de știință filtrată prin massmedia.
Așa că modelele se pot schimba.
11:41
So models can change.
234
701038
1720
11:43
Models are not static.
235
703482
2103
Modelele nu sunt statice.
11:45
As we become more comfortable in our environments,
236
705609
3240
Pe măsură ce devenim mai confortabili în mediile noastre,
11:48
our model can move closer to our feelings.
237
708873
3602
modelele noastre se pot muta mai aproape de senzațiile noastre.
11:53
So an example might be,
238
713965
2340
Un exemplu ar fi,
dacă mergeți înapoi 100 de ani
11:56
if you go back 100 years ago,
239
716329
1596
11:57
when electricity was first becoming common,
240
717949
3428
când electricitatea a început să fie folosită,
erau multe temeri legate de ea.
12:01
there were a lot of fears about it.
241
721401
1703
Erau oameni cărora le era frică să apese butonul soneriei,
12:03
There were people who were afraid to push doorbells,
242
723128
2478
fiindcă era electricitate în el, iar asta era periculos.
12:05
because there was electricity in there, and that was dangerous.
243
725630
3005
Noi suntem degajați privind electricitatea.
12:08
For us, we're very facile around electricity.
244
728659
2869
Schimbăm becurile electrice
12:11
We change light bulbs without even thinking about it.
245
731552
2818
fără să ne gândim la ea.
12:14
Our model of security around electricity is something we were born into.
246
734948
6163
Modelul nostru de securitate despre electricitate
este ceva în care trăim de la naștere.
12:21
It hasn't changed as we were growing up.
247
741735
2514
El nu s-a schimbat pe durata vieții noastre.
12:24
And we're good at it.
248
744273
1565
Și suntem buni la acest model.
12:27
Or think of the risks on the Internet across generations --
249
747380
4499
Sau gândiți-vă la riscurile
Internetului perceput de generații --
12:31
how your parents approach Internet security,
250
751903
2097
cum tratează părinții voștri securitatea Internetului,
față de cum faceți voi,
12:34
versus how you do,
251
754024
1616
12:35
versus how our kids will.
252
755664
1542
față de cum vor face copiii noștri.
12:38
Models eventually fade into the background.
253
758300
2550
În cele din urmă modelele dispar în fundal.
12:42
"Intuitive" is just another word for familiar.
254
762427
2493
Intuitiv este doar un alt cuvânt pentru familiar.
12:45
So as your model is close to reality and it converges with feelings,
255
765887
3850
Pe măsură ce modelul tău este aproape de realitate,
și converge cu senzațiile,
12:49
you often don't even know it's there.
256
769761
1918
adesea nici nu știi că e acolo.
Un exemplu drăguț pentru asta
12:53
A nice example of this came from last year and swine flu.
257
773239
3817
a fost gripa porcină de anul trecut.
Când gripa porcină a apărut prima dată,
12:58
When swine flu first appeared,
258
778281
2000
știrile inițiale au provocat multe reacții exagerate.
13:00
the initial news caused a lot of overreaction.
259
780305
2618
13:03
Now, it had a name,
260
783562
1978
Apoi a avut un nume,
13:05
which made it scarier than the regular flu,
261
785564
2050
ceea ce a făcut-o mai de speriat decât gripa normală,
13:07
even though it was more deadly.
262
787638
1567
chiar dacă a fost mai mortală.
13:09
And people thought doctors should be able to deal with it.
263
789784
3208
Și oamenii au gândit că doctorii vor fi în stare să-i facă față.
13:13
So there was that feeling of lack of control.
264
793459
2524
Deci a fost senzația lipsei de control.
Iar aceste două lucruri
13:16
And those two things made the risk more than it was.
265
796007
3109
au făcut riscul mai mare decât era.
13:19
As the novelty wore off and the months went by,
266
799140
3557
După ce a trecut noutatea, au trecut luni,
13:22
there was some amount of tolerance; people got used to it.
267
802721
2843
a existat o doză de toleranță,
oamenii s-au obișnuit cu ea.
13:26
There was no new data, but there was less fear.
268
806355
2670
Nu existau date noi, dar era mai puțină frică.
13:29
By autumn,
269
809681
2174
Până toamna,
13:31
people thought the doctors should have solved this already.
270
811879
3382
oamenii au gândit
că doctorii au rezolvat deja asta.
13:35
And there's kind of a bifurcation:
271
815722
1960
Și există un fel de bifurcație --
13:37
people had to choose between fear and acceptance --
272
817706
5751
oamenii au trebuit să aleagă
între frică și acceptare --
de fapt frică și indiferență --
13:44
actually, fear and indifference --
273
824512
1644
și ei au devenit suspicioși.
13:46
and they kind of chose suspicion.
274
826180
1795
Și când a apărut vaccinul iarna trecută,
13:49
And when the vaccine appeared last winter,
275
829110
3111
erau o mulțime de oameni -- un număr surprinzător --
13:52
there were a lot of people -- a surprising number --
276
832245
2511
13:54
who refused to get it.
277
834780
1797
care au refuzat să-l ia --
13:58
And it's a nice example of how people's feelings of security change,
278
838777
3656
ca un exemplu drăguț
de cum se schimbă senzația de securitate a oamenilor, cum se schimbă modelul lor,
14:02
how their model changes,
279
842457
1603
într-un mod nebunesc
14:04
sort of wildly,
280
844084
1668
14:05
with no new information, with no new input.
281
845776
2770
fără informații noi,
fără date noi de intrare.
Acest lucru se întâmplă des.
14:10
This kind of thing happens a lot.
282
850327
1808
Voi mai face o complicare în plus.
14:13
I'm going to give one more complication.
283
853199
1971
14:15
We have feeling, model, reality.
284
855194
2696
Avem senzație, model, realitate.
14:18
I have a very relativistic view of security.
285
858640
2510
Am o vedere foarte relativistă a securității.
Cred că depinde de observator.
14:21
I think it depends on the observer.
286
861174
1814
14:23
And most security decisions have a variety of people involved.
287
863695
5166
Și majoritatea deciziilor de securitate
implică o diversitate de oameni.
14:29
And stakeholders with specific trade-offs will try to influence the decision.
288
869792
6539
Iar părțile interesate
cu schimburi specifice
vor încerca să influențeze decizia.
14:36
And I call that their agenda.
289
876355
1681
Și eu numesc asta planul lor.
Și vedeți planuri --
14:39
And you see agenda -- this is marketing, this is politics --
290
879512
3491
în marketing, în politică --
14:43
trying to convince you to have one model versus another,
291
883481
3039
încercând să te convingă să ai un anumit model față de un altul,
14:46
trying to convince you to ignore a model
292
886544
1984
încercând să te convingă să ignori un model
14:48
and trust your feelings,
293
888552
2672
și să te încrezi în senzațiile tale,
14:51
marginalizing people with models you don't like.
294
891248
2504
marginalizând oamenii cu modele care nu-ți plac.
14:54
This is not uncommon.
295
894744
1516
Asta nu este ceva neobişnuit.
14:57
An example, a great example, is the risk of smoking.
296
897610
3229
Un exemplu grozav este riscul fumatului.
În istoria ultimilor 50 de ani, riscul fumatului
15:02
In the history of the past 50 years,
297
902196
1783
15:04
the smoking risk shows how a model changes,
298
904003
2613
arată cum se schimbă un model,
15:06
and it also shows how an industry fights against a model it doesn't like.
299
906640
4358
și arată de asemenea cum o industrie luptă
împotriva unui model care nu-i place.
15:11
Compare that to the secondhand smoke debate --
300
911983
3103
Comparați asta cu dezbaterea despre fumatul pasiv --
probabil cu aproape 20 de ani în urmă.
15:15
probably about 20 years behind.
301
915110
1953
15:17
Think about seat belts.
302
917982
1615
Gândiți-vă la centurile de siguranță.
15:19
When I was a kid, no one wore a seat belt.
303
919621
2024
Când eram copil, nimeni nu purta centura de siguranță.
15:21
Nowadays, no kid will let you drive if you're not wearing a seat belt.
304
921669
3541
Azi, niciun copil nu te va lăsa să conduci
dacă nu ai centura de siguranță.
15:26
Compare that to the airbag debate,
305
926633
2453
Comparați asta cu dezbaterea despre perna de aer --
probabil cu 30 de ani în urmă.
15:29
probably about 30 years behind.
306
929110
1667
Toate sunt exemple de schimbări de modele.
15:32
All examples of models changing.
307
932006
2088
15:36
What we learn is that changing models is hard.
308
936855
2796
Ceea ce învățăm este că schimbarea modelelor este dificilă.
Modelele sunt greu de dislocat.
15:40
Models are hard to dislodge.
309
940334
2053
Dacă sunt la fel cu senzațiile tale
15:42
If they equal your feelings,
310
942411
1675
nu știi că ai un model.
15:44
you don't even know you have a model.
311
944110
1899
Și există o altă predispoziţie cognitivă
15:47
And there's another cognitive bias
312
947110
1886
pe care o numesc predispoziţie de confirmare,
15:49
I'll call confirmation bias,
313
949020
2066
unde tindem să acceptăm datele
15:51
where we tend to accept data that confirms our beliefs
314
951110
4361
care confirmă credințele noastre
15:55
and reject data that contradicts our beliefs.
315
955495
2437
și să rejectăm datele care contrazic credințele noastre.
15:59
So evidence against our model, we're likely to ignore,
316
959490
3935
Deci probabil vom ignora dovada
împotriva modelului nostru, chiar dacă este convingătoare.
16:03
even if it's compelling.
317
963449
1248
16:04
It has to get very compelling before we'll pay attention.
318
964721
3005
Trebuie să devină foarte convingătoare înainte de a-i acorda atenție.
16:08
New models that extend long periods of time are hard.
319
968990
2597
Modele noi care se întind perioade lungi de timp sunt dificile.
Încălzirea globală este un exemplu grozav.
16:11
Global warming is a great example.
320
971611
1754
Suntem îngrozitori
16:13
We're terrible at models that span 80 years.
321
973389
3442
la modele care acoperă 80 de ani.
16:16
We can do "to the next harvest."
322
976855
2063
Putem s-o facem până la următoarea recoltă.
16:18
We can often do "until our kids grow up."
323
978942
2306
Adesea o putem face până cresc copiii noștri.
16:21
But "80 years," we're just not good at.
324
981760
2201
Dar 80 de ani, pur și simplu nu suntem buni la asta.
16:24
So it's a very hard model to accept.
325
984975
2302
Deci este un model foarte greu de acceptat.
16:27
We can have both models in our head simultaneously --
326
987999
2946
Putem avea ambele modele simultan în cap,
16:31
that kind of problem where we're holding both beliefs together,
327
991912
6948
sau acel tip de problemă
când avem ambele credințe simultan,
sau disonanța cognitivă.
16:38
the cognitive dissonance.
328
998884
1370
În final modelul nou
16:40
Eventually, the new model will replace the old model.
329
1000278
3156
va înlocui modelul vechi.
16:44
Strong feelings can create a model.
330
1004164
2190
Senzațiile puternice pot crea un model.
16:47
September 11 created a security model in a lot of people's heads.
331
1007411
5363
11 septembrie a creat un model de securitate
în capul multor oameni.
16:52
Also, personal experiences with crime can do it,
332
1012798
3288
Experiența personală cu criminalitatea o poate face,
panica pentru sănătatea personală,
16:56
personal health scare,
333
1016110
1379
16:57
a health scare in the news.
334
1017513
1466
o panică de sănătate în știri.
Psihiatrii numesc asta
17:00
You'll see these called "flashbulb events" by psychiatrists.
335
1020198
3345
evenimente "se aprinde becul".
Ele pot crea instantaneu un model,
17:04
They can create a model instantaneously,
336
1024183
2461
17:06
because they're very emotive.
337
1026668
1761
fiindcă sunt foarte emoționale.
17:09
So in the technological world,
338
1029908
1588
În lumea tehnologică
17:11
we don't have experience to judge models.
339
1031520
3237
nu avem experiența
de a judeca modele.
17:15
And we rely on others. We rely on proxies.
340
1035124
2933
Și ne bazăm pe alții. Ne bazăm pe împuterniciți.
Adică, asta funcționează cât timp este în regulă pentru alții.
17:18
And this works, as long as it's the correct others.
341
1038081
2619
17:21
We rely on government agencies
342
1041183
2682
Ne bazăm pe agenții guvernamentale
17:23
to tell us what pharmaceuticals are safe.
343
1043889
4404
să ne spună care sunt medicamentele sigure.
17:28
I flew here yesterday.
344
1048317
1913
Ieri am zburat aici.
17:30
I didn't check the airplane.
345
1050254
1762
Nu am verificat avionul.
17:32
I relied on some other group
346
1052699
2595
M-am bazat pe un alt grup
să constate dacă avionul meu este sigur pentru zbor.
17:35
to determine whether my plane was safe to fly.
347
1055318
2437
17:37
We're here, none of us fear the roof is going to collapse on us,
348
1057779
3298
Suntem aici, nimănui nu-i este teamă că acoperișul va cădea peste noi,
nu fiindcă am verificat,
17:41
not because we checked,
349
1061101
2205
17:43
but because we're pretty sure the building codes here are good.
350
1063330
3672
ci fiindcă suntem destul de siguri
că aici normele de construcție sunt bune.
17:48
It's a model we just accept
351
1068442
2989
Este un model pe care-l acceptăm
mai mult prin încredere.
17:51
pretty much by faith.
352
1071455
1360
Și asta este în regulă.
17:53
And that's OK.
353
1073331
1358
17:57
Now, what we want is people to get familiar enough with better models,
354
1077966
5873
Ceea ce vrem este ca
oamenii să devină suficient de obișnuiți
cu modele mai bune --
18:03
have it reflected in their feelings,
355
1083863
2120
să le reflecte în senzațiile lor --
să le permită să facă schimburi de securitate.
18:06
to allow them to make security trade-offs.
356
1086007
3002
Când acestea se strică,
18:10
When these go out of whack, you have two options.
357
1090110
3719
ai două opțiuni.
18:13
One, you can fix people's feelings, directly appeal to feelings.
358
1093853
4233
Prima, poți repara senzațiile oamenilor,
apelând direct la sentimente.
Este manipulare, dar poate funcționa.
18:18
It's manipulation, but it can work.
359
1098110
2406
A doua cale, mai cinstită,
18:21
The second, more honest way
360
1101173
2191
este să repari modelul.
18:23
is to actually fix the model.
361
1103388
1773
18:26
Change happens slowly.
362
1106720
2101
Schimbările se întâmplă încet.
18:28
The smoking debate took 40 years -- and that was an easy one.
363
1108845
4378
Dezbaterea despre fumat a luat 40 de ani,
și asta a fost una ușoară.
Unele din aceste lucruri sunt dificile.
18:35
Some of this stuff is hard.
364
1115195
1813
Adică foarte dificile,
18:37
Really, though, information seems like our best hope.
365
1117496
3756
informația pare cea mai bună speranță pentru noi.
Și am mințit.
18:41
And I lied.
366
1121276
1272
18:42
Remember I said feeling, model, reality; reality doesn't change?
367
1122572
4020
Țineți minte când am spus: senzație, model, realitate.
Am spus că realitatea nu se schimbă. De fapt o face.
18:46
It actually does.
368
1126616
1375
Trăim într-o lume tehnologică;
18:48
We live in a technological world;
369
1128015
1714
18:49
reality changes all the time.
370
1129753
2338
realitatea se schimbă tot timpul.
18:52
So we might have, for the first time in our species:
371
1132887
2977
Deci s-ar putea să avem -- pentru prima dată ca specie --
18:55
feeling chases model, model chases reality, reality's moving --
372
1135888
3183
senzația urmărește modelul, modelul urmărește realitatea,
iar realitatea se mișcă -- s-ar putea să nu se ajungă niciodată.
18:59
they might never catch up.
373
1139095
1533
19:02
We don't know.
374
1142180
1328
Nu știm.
Dar pe termen lung,
19:05
But in the long term,
375
1145614
1603
sunt importante și senzația și realitatea.
19:07
both feeling and reality are important.
376
1147241
2204
19:09
And I want to close with two quick stories to illustrate this.
377
1149469
3233
Și vreau să închei cu două istorioare pentru a ilustra asta.
19:12
1982 -- I don't know if people will remember this --
378
1152726
2479
1982 -- nu știu dacă oamenii își vor aminti asta --
a fost o scurtă epidemie
19:15
there was a short epidemic of Tylenol poisonings
379
1155229
3370
de otrăvire cu Tylenol în SUA.
19:18
in the United States.
380
1158623
1196
19:19
It's a horrific story.
381
1159843
1361
Este o poveste oribilă. Cineva a luat o sticlă de Tylenol,
19:21
Someone took a bottle of Tylenol,
382
1161228
2079
a pus otravă în ea, a închis-o la loc, a pus-o înapoi pe raft.
19:23
put poison in it, closed it up, put it back on the shelf,
383
1163331
3002
Altcineva a cumpărat-o și a murit.
19:26
someone else bought it and died.
384
1166357
1558
19:27
This terrified people.
385
1167939
1673
Asta a îngrozit lumea.
19:29
There were a couple of copycat attacks.
386
1169636
2227
Au fost câteva cazuri de copiere a atacului.
19:31
There wasn't any real risk, but people were scared.
387
1171887
2845
Nu exista un risc real, dar oamenii erau speriați.
19:34
And this is how the tamper-proof drug industry was invented.
388
1174756
3876
Și așa a fost inventată
industria medicamentelor sigilate.
19:38
Those tamper-proof caps? That came from this.
389
1178656
2229
Acele capace sigilate au rezultat din asta.
19:40
It's complete security theater.
390
1180909
1571
Este un adevărat spectacol de securitate.
19:42
As a homework assignment, think of 10 ways to get around it.
391
1182504
2891
Ca temă pentr acasă, gândiți-vă la 10 căi de a ocoli asta.
Vă dau una: o seringă.
19:45
I'll give you one: a syringe.
392
1185419
1891
19:47
But it made people feel better.
393
1187334
2781
Dar a făcut oamenii să se simtă mai bine.
19:50
It made their feeling of security more match the reality.
394
1190744
3702
A făcut ca senzația lor de securitate
să se potrivească mai mult cu realitatea.
Ulima poveste, acum câțiva ani, o prietenă a născut.
19:55
Last story: a few years ago, a friend of mine gave birth.
395
1195390
2934
Am vizitat-o în spital.
19:58
I visit her in the hospital.
396
1198348
1397
19:59
It turns out, when a baby's born now,
397
1199769
1923
Am aflat că acum când se naște un copil,
20:01
they put an RFID bracelet on the baby, a corresponding one on the mother,
398
1201716
3563
se pune o brățară cu identificator radio (RFID) bebelușului,
se pune una corespunzătoare mamei,
20:05
so if anyone other than the mother takes the baby out of the maternity ward,
399
1205303
3620
deci dacă oricine altcineva decât mama scoate copilul
din maternitate, va suna o alarmă.
20:08
an alarm goes off.
400
1208947
1158
Am zis: "Ei bine, asta este simplu dar elegant.
20:10
I said, "Well, that's kind of neat.
401
1210129
1729
20:11
I wonder how rampant baby snatching is out of hospitals."
402
1211882
3970
Mă întreb cât de excesiv este furtul
de bebeluși din spitale."
20:15
I go home, I look it up.
403
1215876
1236
Am mers acasă, am căutat asta.
20:17
It basically never happens.
404
1217136
1525
De fapt nu se întâmplă niciodată.
20:18
(Laughter)
405
1218685
1844
Dar dacă te gândești la asta,
20:20
But if you think about it, if you are a hospital,
406
1220553
2843
dacă ești un spital,
20:23
and you need to take a baby away from its mother,
407
1223420
2380
și dacă trebuie să iei un bebeluș de la mama lui,
20:25
out of the room to run some tests,
408
1225824
1781
afară din cameră pentru niște teste,
20:27
you better have some good security theater,
409
1227629
2050
ar fi bine să ai un spectacol de securitate bun,
20:29
or she's going to rip your arm off.
410
1229703
1945
sau mama îți va rupe brațul.
20:31
(Laughter)
411
1231672
1533
(Râsete)
Deci este important pentru noi,
20:34
So it's important for us,
412
1234161
1717
20:35
those of us who design security,
413
1235902
2135
cei care proiectăm securitatea,
care privim la politica de securitate,
20:38
who look at security policy --
414
1238061
2031
20:40
or even look at public policy in ways that affect security.
415
1240946
3308
sau doar privim la politica publică
în moduri care afectează securitatea.
Nu este doar realitate, este senzație și realitate.
20:45
It's not just reality; it's feeling and reality.
416
1245006
3416
Ce este important
20:48
What's important
417
1248446
1865
este ca ele să fie la fel.
20:50
is that they be about the same.
418
1250335
1545
20:51
It's important that, if our feelings match reality,
419
1251904
2531
Este important, fiindcă dacă senzația se potrivește cu realitatea,
facem schimburi mai bune de securitate.
20:54
we make better security trade-offs.
420
1254459
1873
Vă mulțumesc.
20:56
Thank you.
421
1256711
1153
20:57
(Applause)
422
1257888
2133
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7