Bruce Schneier: The security mirage

78,030 views ・ 2011-04-27

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Woo Hwang 검토: Young-ho Park
보안에는 두가지가 있습니다:
00:16
So, security is two different things:
0
16010
2276
즉, 느낌과 현실이죠.
00:18
it's a feeling, and it's a reality.
1
18310
2526
이 두가지는 매우 다릅니다.
00:20
And they're different.
2
20860
1425
우리는 사실은 안전하지 않을 때도
00:22
You could feel secure even if you're not.
3
22309
3427
안전하다고 느낄 수 있죠.
00:25
And you can be secure
4
25760
1976
그 반면, 안전감을 못느끼더라도
00:27
even if you don't feel it.
5
27760
1850
실제는 안전할 수 있습니다.
00:29
Really, we have two separate concepts
6
29634
2117
사실 보안이라는 단어에는
00:31
mapped onto the same word.
7
31775
1652
두개의 다른 개념이 담겨 있지요.
00:33
And what I want to do in this talk is to split them apart --
8
33960
3626
저는 이 토크에서
이 단어를 둘로 분리해서
00:37
figuring out when they diverge and how they converge.
9
37610
3610
그들의 의미가 어떻게 다르며,
어떤때 그들의 의미가 같아 지는지 말씀드리겠습니다.
00:41
And language is actually a problem here.
10
41711
2275
사실 이건 언어 문제입니다.
우리가 이야기 하려는 개념에 딱 맞는
00:44
There aren't a lot of good words
11
44010
2076
좋은 단어들은 그리 많지 않습니다.
00:46
for the concepts we're going to talk about.
12
46110
2061
경제적 용어로 말하자면
00:49
So if you look at security from economic terms,
13
49295
4120
보안은 원하는 보안 수준과
그것을 가지는데 필요한 경비를 말합니다.
00:53
it's a trade-off.
14
53439
1647
일정한 수준의 보안을 가지려면
00:55
Every time you get some security, you're always trading off something.
15
55110
4132
그것에 대한 어떤 대가를 치뤄야 하지요.
도난경보기를 설치하느냐 안하느냐와 같은
00:59
Whether this is a personal decision --
16
59266
1845
개인적인 결정이건,
01:01
whether you're going to install a burglar alarm in your home --
17
61135
3012
외국을 쳐들어갈 것인가 같은 국가적 결정이건,
01:04
or a national decision,
18
64171
1157
01:05
where you're going to invade a foreign country --
19
65352
2310
우리는 돈이나 시간, 편리성,
01:07
you're going to trade off something: money or time, convenience, capabilities,
20
67686
3782
군사력, 그리고 심지어는 근본적인 자유 같은 것을 위해
어떤 대가를 치룹니다.
01:11
maybe fundamental liberties.
21
71492
2002
01:13
And the question to ask when you look at a security anything
22
73518
3274
그렇기 때문에 우리가 어떤 보안책을 원할때는
01:16
is not whether this makes us safer,
23
76816
3382
그것이 우리를 더 안전하게 만드느냐 보다는
그 대가를 지불할 가치가 있는가를 생각해야 합니다.
01:20
but whether it's worth the trade-off.
24
80222
2215
01:22
You've heard in the past several years, the world is safer
25
82461
3229
우리는 사담 후세인이 더 이상 집권하지 않기 때문에
세계가 더 안전해 졌다는 말을 지난 몇해동안 듣고 있지요.
01:25
because Saddam Hussein is not in power.
26
85714
1890
그건 그럴지도 모르지만 사실 그것은 별로 무관한 말입니다.
01:27
That might be true, but it's not terribly relevant.
27
87628
2603
우리가 물어야할 질문은 우리가 지불한 가치가 있었냐는 것이죠.
01:30
The question is: Was it worth it?
28
90255
2831
그리고 난 후 이락을 침략할 가치가 있었는지를
01:33
And you can make your own decision,
29
93110
2459
01:35
and then you'll decide whether the invasion was worth it.
30
95593
2733
우리 스스로가 판단을 내려야 합니다.
보안도 그렇게
01:38
That's how you think about security: in terms of the trade-off.
31
98350
3561
비용편익 측면에서 생각해야 합니다.
01:41
Now, there's often no right or wrong here.
32
101935
2610
이것은 종종 옳고 그른 문제가 아니죠.
어떤 사람은 집에 도난경보기를 설치하고
01:45
Some of us have a burglar alarm system at home and some of us don't.
33
105208
3308
어떤사람은 설치하지 않죠.
01:48
And it'll depend on where we live,
34
108540
2731
그것은 우리가 어디에 살고 있는지,
혼자 사는지 또는 가족이 있는지,
01:51
whether we live alone or have a family,
35
111295
1926
좋은 물건을 얼마나 가지고 있는지,
01:53
how much cool stuff we have,
36
113245
1668
01:54
how much we're willing to accept the risk of theft.
37
114937
3165
그리고 도둑을 맞을 가능성이 얼마나 된다고
생각하는지에 달려있지요.
01:58
In politics also, there are different opinions.
38
118943
2948
정치에도 또한
다양한 의견들이 있습니다.
02:02
A lot of times, these trade-offs are about more than just security,
39
122459
4435
대부분의 경우, 비용편익 분석을 할 때
보안문제만 고려하지는 않는데 저는 이것이
02:06
and I think that's really important.
40
126918
1865
매우 중요하다고 생각합니다.
02:08
Now, people have a natural intuition about these trade-offs.
41
128807
3308
우리는 비용편익 분석을 할 때
직관적으로 선호하는 것이 각각 다릅니다.
02:12
We make them every day.
42
132588
1556
우리는 직관적인 결정을 매일 내리지요 --
02:14
Last night in my hotel room, when I decided to double-lock the door,
43
134807
3533
우리는 호텔방의 문을
이중으로 잠글것인지를 결정하거나,
02:18
or you in your car when you drove here;
44
138364
2000
오늘 여기로 올때 차를 타고 올 것인가를 결정하거나,
또는 점심을 먹을때 독이 아니니까 먹자는 결정 등을 내릴때
02:21
when we go eat lunch
45
141191
1478
02:22
and decide the food's not poison and we'll eat it.
46
142693
2608
비용편익에 의거한 가치판단을 내립니다.
02:25
We make these trade-offs again and again,
47
145325
3161
우리는 이와같은 비용편익 분석을 통한
가치판단을 하루에도 몇번씩 내립니다.
02:28
multiple times a day.
48
148510
1576
우리는 이런 것을 무의식중에 실행하지요
02:30
We often won't even notice them.
49
150110
1589
02:31
They're just part of being alive; we all do it.
50
151723
2626
우리는 살아있는 한 계속 이런 선택을 내리죠.
이건 모든 동물이 다 하는 일입니다.
02:34
Every species does it.
51
154373
1555
02:36
Imagine a rabbit in a field, eating grass.
52
156474
2862
토끼가 들판에서 풀을 먹고 있다고 상상해 보세요.
토끼가 여우를 봅니다.
02:39
And the rabbit sees a fox.
53
159360
1943
02:41
That rabbit will make a security trade-off:
54
161856
2049
토끼는 이제 보안 비용편익 분석에 의거한 결정을 내립니다.
02:43
"Should I stay, or should I flee?"
55
163929
1904
"여기 머무를까, 도망갈까?"
이제 생각해보죠,
02:46
And if you think about it,
56
166380
1619
옳은 결정을 내린 토끼는 살아남아서
02:48
the rabbits that are good at making that trade-off
57
168023
2555
02:50
will tend to live and reproduce,
58
170602
1978
자손을 남길 것이고
02:52
and the rabbits that are bad at it
59
172604
2307
그렇지 못한 토끼는 잡아먹히거나
02:54
will get eaten or starve.
60
174935
1474
굶어 죽어 버리겠죠.
02:56
So you'd think
61
176958
1608
지구상에서 가장
성공적인 동물인
02:59
that us, as a successful species on the planet -- you, me, everybody --
62
179573
4309
여러분과 저와 우리 모두는,
03:03
would be really good at making these trade-offs.
63
183906
2573
이런 결정에 아주 능숙하다고 생각할지 모릅니다.
그러나 우리는
03:07
Yet it seems, again and again, that we're hopelessly bad at it.
64
187126
3104
그런 결정을 내리는데 아주 서투릅니다.
03:11
And I think that's a fundamentally interesting question.
65
191768
2802
이건 근본적으로 아주 흥미있는 점이지요.
03:14
I'll give you the short answer.
66
194594
1873
우리가 이런 결정을 내리는데 서투른 이유는 간단하죠.
03:16
The answer is, we respond to the feeling of security
67
196491
2651
즉, 우리는 현실 자체에 대응하지 않고
안전하냐 또는 안전하지 않냐는 느낌에 대응하기 때문이죠.
03:19
and not the reality.
68
199166
1518
03:21
Now, most of the time, that works.
69
201864
2696
대부분의 경우 이 방식은 별 문제가 되지 않습니다.
03:25
Most of the time,
70
205538
1503
왜냐하면, 대부분의 경우
03:27
feeling and reality are the same.
71
207065
2133
느낌과 실제가 일치하니까요.
03:30
Certainly that's true for most of human prehistory.
72
210776
3516
선사시대 때 부터
그랬으니까요.
03:35
We've developed this ability
73
215633
2708
이런 방식은 진화적으로 유리했기 때문에
03:38
because it makes evolutionary sense.
74
218365
2584
우리는 이 능력을 발달시켰죠.
어떻게 보면 우리의 위험분석 기능은
03:41
One way to think of it is that we're highly optimized
75
221985
3274
10만년 전에 우리가
동아프리카의 고원지대에서
03:45
for risk decisions
76
225283
1803
소규모 가족단위로 살던 당시의 상황에 맞게
03:47
that are endemic to living in small family groups
77
227110
2543
03:49
in the East African Highlands in 100,000 BC.
78
229677
2536
최적화 됐다고 생각할 수도 있습니다.
03:52
2010 New York, not so much.
79
232792
2659
2010년의 뉴욕은 완전히 상황이 다르죠.
03:56
Now, there are several biases in risk perception.
80
236879
3206
위험을 인식 할 때는 여러 편견이 작용합니다.
이것에 대한 좋은 실험이 많이 실시됐는데
04:00
A lot of good experiments in this.
81
240109
1741
04:01
And you can see certain biases that come up again and again.
82
241874
3603
일부 특정된 편견들이 여러 실험 결과에 계속 나타났습니다.
네 가지 예를 보여드리죠.
04:05
I'll give you four.
83
245501
1353
04:06
We tend to exaggerate spectacular and rare risks
84
246878
3208
우리는 드물고 장대한 위험은 과장하고
흔한 위험은 경시하는 경향이 있습니다.
04:10
and downplay common risks --
85
250110
1976
비행과 운전이 그렇죠.
04:12
so, flying versus driving.
86
252110
1518
04:14
The unknown is perceived to be riskier than the familiar.
87
254451
3794
또한, 우리에게 친숙한것 보다는
우리가 모르는 것을 더 위험하게 인식합니다.
일례로, 사람들은
04:21
One example would be:
88
261470
1439
04:22
people fear kidnapping by strangers,
89
262933
2613
낯선 사람에 의한 유아납치를 두려워하는데,
04:25
when the data supports that kidnapping by relatives is much more common.
90
265570
3636
통계적으로는, 지인에 의한 납치가 훨씬 더 빈번하죠.
어린이의 경우에 그렇죠.
04:29
This is for children.
91
269230
1574
04:30
Third, personified risks are perceived to be greater
92
270828
4040
세번째로, 특정된 사람에 대한 위험은
막연히 누군가에 대한 위험보다 더 크게 인식됩니다.
04:34
than anonymous risks.
93
274892
1503
04:36
So, Bin Laden is scarier because he has a name.
94
276419
2787
그래서 빈 라덴 이라는 이름이 우리를 더 무섭게 합니다.
네번째로,
04:40
And the fourth is:
95
280182
1363
04:41
people underestimate risks in situations they do control
96
281569
4755
사람들은 그들이 통제하지 못하는
상황에서의 위험은 과대평가하고,
그들이 통제할 수 있는 상황의 위험은 과소평가 합니다.
04:46
and overestimate them in situations they don't control.
97
286348
2963
04:49
So once you take up skydiving or smoking,
98
289335
3384
그래서, 일단 스카이다이빙이나 흡연을 시작한 사람들은
04:52
you downplay the risks.
99
292743
1624
그 위험들을 경시하죠.
예를들어 누가 테러 같은 것의 위험에 대해 묻는다면
04:55
If a risk is thrust upon you -- terrorism is a good example --
100
295037
3053
여러분은 어쩔 수 없다고 느끼기 때문에 더 위험하게 느낍니다.
04:58
you'll overplay it,
101
298114
1157
04:59
because you don't feel like it's in your control.
102
299295
2339
05:02
There are a bunch of other of these cognitive biases,
103
302157
3493
이 외에도 수많은 인식적 편견들이 여러분의 위험 판단에
05:05
that affect our risk decisions.
104
305674
2339
영향을 미칩니다.
05:08
There's the availability heuristic,
105
308832
2254
가용성 추단법이라는 용어가 있는데
간단히 말해 그 의미는
05:11
which basically means we estimate the probability of something
106
311110
4180
얼마나 쉽게 머리속에 상상할 수 있는가에 따라
05:15
by how easy it is to bring instances of it to mind.
107
315314
3339
그것의 확률을 추정한다는 것이죠.
05:19
So you can imagine how that works.
108
319831
1777
예를들어 설명을 드리죠.
05:21
If you hear a lot about tiger attacks, there must be a lot of tigers around.
109
321632
3628
호랑이 습격 이야기를 많이 들으면, 주변에 호랑이가 많이 있다는 말이겠죠.
사자가 공격하는 얘기를 못들었으면 사자가 많이 없을테고요.
05:25
You don't hear about lion attacks, there aren't a lot of lions around.
110
325284
3344
실제로는 어쩌다가 일어날수 있는 위험을
05:28
This works, until you invent newspapers,
111
328652
2297
05:30
because what newspapers do is repeat again and again
112
330973
4406
반복해서 들려주는 신문이
발명되기 전까지 이런 생각은
옳았습니다.
05:35
rare risks.
113
335403
1406
05:36
I tell people: if it's in the news, don't worry about it,
114
336833
2865
저는 사람들에게 뉴스에 어떤 얘기가 나오면
걱정하지 말라고 합니다.
05:39
because by definition, news is something that almost never happens.
115
339722
4275
왜냐하면, 그것은 뉴스라는 말의 정의와 같이 거의 생기지 않는다는 말이니까요.
(웃음)
05:44
(Laughter)
116
344021
1769
05:45
When something is so common, it's no longer news.
117
345814
2923
더 이상 뉴스가 아닐 정도로 흔한 사건들, 즉
05:48
Car crashes, domestic violence --
118
348761
2198
차량 충돌, 가정 내 폭력 등이
05:50
those are the risks you worry about.
119
350983
1990
여러분이 걱정해야 할 위험들입니다.
05:53
We're also a species of storytellers.
120
353713
2148
인간은 또한 이야기를 좋아하는 동물이지요.
05:55
We respond to stories more than data.
121
355885
2115
우리는 통계수치 보다는 이야기에 더 감동합니다.
05:58
And there's some basic innumeracy going on.
122
358514
2406
우리는 숫자에 관한 한 기본적으로 무능한 면이 있습니다.
06:00
I mean, the joke "One, two, three, many" is kind of right.
123
360944
3142
"하나, 둘, 셋, 많다" 같은 죠크가 대충 맞죠.
우리는 작은 숫자들은 잘 알지요.
06:04
We're really good at small numbers.
124
364110
2322
06:06
One mango, two mangoes, three mangoes,
125
366456
2336
망고 하나, 망고 둘, 망고 셋처럼요.
06:08
10,000 mangoes, 100,000 mangoes --
126
368816
1977
망고 만개나 망고 10만 개 --
06:10
it's still more mangoes you can eat before they rot.
127
370817
2977
이런건 먹기 전에 다 썩어버리는 숫자죠.
06:13
So one half, one quarter, one fifth -- we're good at that.
128
373818
3268
우리는 반 개, 1/4개, 1/5개 등은 잘 인식하지만
100만 분의 일이나 10억분의 일은 둘 다
06:17
One in a million, one in a billion --
129
377110
1976
똑같이 거의 제로로 취급하지요
06:19
they're both almost never.
130
379110
1575
06:21
So we have trouble with the risks that aren't very common.
131
381546
3414
따라서 우리는 흔하지 않은 위험들을
다룰 때 어려움을 겪습니다.
06:25
And what these cognitive biases do
132
385760
1977
이러한 인식적 편견들은
06:27
is they act as filters between us and reality.
133
387761
2976
우리와 실제 사이에서 필터와 같은 역할을 합니다.
그 결과,
06:31
And the result is that feeling and reality get out of whack,
134
391284
3873
우리의 느낌과 실제간에 괴리가 생기고,
느낌은 실제와 달라집니다.
06:35
they get different.
135
395181
1384
06:37
Now, you either have a feeling -- you feel more secure than you are,
136
397370
3931
그러면 실제로 안전한 것 보다
더 안전하게 느끼거나
06:41
there's a false sense of security.
137
401325
1685
또는 그 반대로
06:43
Or the other way, and that's a false sense of insecurity.
138
403034
3374
실제는 안전하지만 안전하지 않게 느끼지요.
저는 소위 말하는 "보안 연극"에 대해 글을 많이 쓰는데
06:47
I write a lot about "security theater,"
139
407015
2880
06:49
which are products that make people feel secure,
140
409919
2680
보안연극은 안전하다는 느낌만 줄뿐
06:52
but don't actually do anything.
141
412623
1977
실지로는 아무런 역할이 없습니다.
06:54
There's no real word for stuff that makes us secure,
142
414624
2557
실제로는 안전하게 만들어 주지만
안전하다는 느낌은 주지 못한다는 의미의 단어가 영어에는 없지요.
06:57
but doesn't make us feel secure.
143
417205
1881
아마 CIA가 해야하는 일이 이런 것들일지 모르죠.
06:59
Maybe it's what the CIA is supposed to do for us.
144
419110
2720
07:03
So back to economics.
145
423539
2168
이제 경제학으로 돌아와서,
07:05
If economics, if the market, drives security,
146
425731
3656
만약에 안전하다는 느낌에 의거해서
07:09
and if people make trade-offs based on the feeling of security,
147
429411
4847
경제나 시장의 보안이 좌우되고
사람들이 보안에 대한 비용편익 가치판단을 한다면
07:14
then the smart thing for companies to do for the economic incentives
148
434282
4680
계산에 빠른 회사들의 입장에서 볼때
사람들이 안전하게 느끼게 하는 것이
07:18
is to make people feel secure.
149
438986
2057
유리하겠지요.
07:21
And there are two ways to do this.
150
441942
2330
그렇게 느끼도록 하는데는 두가지 방법이 있죠.
07:24
One, you can make people actually secure
151
444296
2790
첫번째는 실제로 안전하게 만든 후에
사람들이 안전함을 깨닫게 하는 것이고
07:27
and hope they notice.
152
447110
1463
07:28
Or two, you can make people just feel secure
153
448597
2844
두번째 방법은 그냥 안전하다는 느낌만 주고
07:31
and hope they don't notice.
154
451465
1872
사람들이 눈치채지 못하길 바라는 거죠.
07:34
Right?
155
454401
1375
07:35
So what makes people notice?
156
455800
3141
어떻게하면 사람들이 안전하다는 느낌을 가지게 할 수 있을까요?
다음과 같은 몇가지 방법이 있겠지요.
07:39
Well, a couple of things:
157
459500
1382
07:40
understanding of the security,
158
460906
2266
안전, 위험, 위협,
그리고 대응책을 이해하고
07:43
of the risks, the threats,
159
463196
1890
그들이 어떻게 작용한다는 것을 이해하는 것이지요.
07:45
the countermeasures, how they work.
160
465110
1874
07:47
But if you know stuff, you're more likely
161
467008
2290
그러나 사람들이 보안에 대해 잘 알게 되면 .
현실에 일치하는 보안에 대한 느낌을 가지게 됩니다
07:50
to have your feelings match reality.
162
470155
2226
제 말을 이해하는데 도움이 되도록 몆가지 실례를 말씀드리지요.
07:53
Enough real-world examples helps.
163
473110
3145
우리는 우리 주변의 범죄율을 잘 아는데
07:56
We all know the crime rate in our neighborhood,
164
476279
2559
07:58
because we live there, and we get a feeling about it
165
478862
2801
그 이유는 우리가 우리 지역에 살면서 가지는 느낌이
08:01
that basically matches reality.
166
481687
1869
실제와 일치하기 때문이지요.
보안연극의 본성은 그것이
08:05
Security theater is exposed
167
485038
2207
08:07
when it's obvious that it's not working properly.
168
487269
2786
비효과적이라는 것이 분명해 질때 노출됩니다.
좋아요, 그럼 어떨때 사람들이 눈치를 채지 못할까요?
08:11
OK. So what makes people not notice?
169
491209
2670
08:14
Well, a poor understanding.
170
494443
1492
사람들이 제대로 이해하지 못할 때 그렇지요.
08:16
If you don't understand the risks, you don't understand the costs,
171
496642
3144
우리가 위험을 이해하지 못하면, 치뤄야 하는 대가도 모르고
08:19
you're likely to get the trade-off wrong,
172
499810
2157
보안에 대한 틀린 비용편익 판단을 내리기 쉽고
08:21
and your feeling doesn't match reality.
173
501991
2488
우리의 느낌과 현실이 일치하지 않지요.
08:24
Not enough examples.
174
504503
1737
한가지 예를 더 들죠.
08:26
There's an inherent problem with low-probability events.
175
506879
3506
자주 발생하지 않는 이벤트에는
본질적인 문제가 있지요.
08:30
If, for example, terrorism almost never happens,
176
510919
3813
만약에, 예를 들어,
테러행위가 거의 일어나지 않는다면,
08:34
it's really hard to judge the efficacy of counter-terrorist measures.
177
514756
4604
테러 방지 대책의 효능을
판단하기가 정말 어렵습니다.
08:40
This is why you keep sacrificing virgins,
178
520523
3563
그래서 우리는 계속 처녀를 제물로 바치고,
유니콘 방어가 여전히 효과가 있다고 믿지요.
08:44
and why your unicorn defenses are working just great.
179
524110
2675
08:46
There aren't enough examples of failures.
180
526809
2557
실패에 대한 예는 많지 않지요.
또한, 제가 앞서 말씀드린 인지적 편견,
08:51
Also, feelings that cloud the issues --
181
531109
2787
08:53
the cognitive biases I talked about earlier: fears, folk beliefs --
182
533920
4028
공포감, 전통적인 믿음은
간단하게 말해 현실과는 다른 미흡한 모델이기 때문에
08:58
basically, an inadequate model of reality.
183
538727
2745
그런 느낌은 실제와 허구를 혼동시킵니다.
이제 제가 머리를 복잡하게 만드는 말씀을 드리죠.
09:03
So let me complicate things.
184
543403
2171
09:05
I have feeling and reality.
185
545598
1977
느낌과 현실 이외에
09:07
I want to add a third element. I want to add "model."
186
547599
2796
이제 모델이라는 제3의 요소를 더 추가하겠습니다.
09:10
Feeling and model are in our head,
187
550839
2350
느낌과 모델은 우리의 머리속에 존재하는 한편
현실은 외부 세계입니다.
09:13
reality is the outside world; it doesn't change, it's real.
188
553213
3452
현실은 바뀌지 않고 실제로 존재합니다.
09:17
Feeling is based on our intuition,
189
557800
2214
느낌은 우리의 직관에 의거한 것이고
모델은 이성적인 생각에 의거한 것이죠.
09:20
model is based on reason.
190
560038
1626
그게 기본적인 차이입니다.
09:22
That's basically the difference.
191
562383
2039
09:24
In a primitive and simple world,
192
564446
1977
원시적이고 단순한 세계에서는
09:26
there's really no reason for a model,
193
566447
2137
모델이 필요하지 않았습니다.
왜냐면 느낌이 실제에 가까웠으니까요.
09:30
because feeling is close to reality.
194
570253
2295
09:32
You don't need a model.
195
572572
1373
그럴 땐 모델이 필요없습니다.
09:34
But in a modern and complex world,
196
574596
2150
하지만 현대의 복잡한 세상에서는
우리가 당면하는 많은 위험을 이해하기 위해
09:37
you need models to understand a lot of the risks we face.
197
577556
3650
모델이 필요합니다.
09:42
There's no feeling about germs.
198
582362
2284
우리는 세균에 대한 느낌이 없기 때문에
세균을 이해하려면 모델이 필요합니다.
09:45
You need a model to understand them.
199
585110
2116
따라서 이 모델은
09:48
This model is an intelligent representation of reality.
200
588157
3678
현실의 지적 표상이죠.
09:52
It's, of course, limited by science, by technology.
201
592411
4751
이런 모델은 물론 과학과 기술이
허용하는 한계에서 가능하죠.
현미경을 발명하여 세균을 직접 보기 전까진
09:58
We couldn't have a germ theory of disease
202
598249
2326
10:00
before we invented the microscope to see them.
203
600599
2534
미생물 병인론이란 것이 없었지요.
10:04
It's limited by our cognitive biases.
204
604316
2643
모델은 우리의 인식의 편견으로 만들어 집니다.
그러나 이런 모델은
10:08
But it has the ability to override our feelings.
205
608110
2991
우리의 느낌을 무력화 시킬 수 있습니다.
10:11
Where do we get these models? We get them from others.
206
611507
3104
우리는 모델을 어디서 얻을까요? 바로 우리의 외부에서 얻습니다.
10:14
We get them from religion, from culture, teachers, elders.
207
614635
5219
우리는 종교나, 문화나,
스승이나, 어르신분들로부터 모델을 얻습니다.
이년전에 저는 남아프리카에서
10:20
A couple years ago, I was in South Africa on safari.
208
620298
3426
사파리 여행을 했습니다.
10:23
The tracker I was with grew up in Kruger National Park.
209
623748
2762
제가 고용한 추적가는 크루거 국립공원에서 자란 사람이었지요.
10:26
He had some very complex models of how to survive.
210
626534
2753
그는 생존법에 대한 여러가지 복잡한 모델을 가지고 있었지요.
10:29
And it depended on if you were attacked by a lion, leopard, rhino, or elephant --
211
629800
3913
그의 생존 모델은 그를 공격하는 맹수가
사자인지, 표범인지, 코뿔소인지 또는 코끼리인지에 따라 다르고
10:33
and when you had to run away, when you couldn't run away,
212
633737
2734
또한, 언제 도망가고, 언제 도망가면 안되고
10:36
when you had to climb a tree, when you could never climb a tree.
213
636495
3083
나무에 올라 갈 수 있는지 또는 없는지에 따라 달랐죠.
제가 혼자있었으면 저는 하루도 못돼서 죽었을 겁니다.
10:39
I would have died in a day.
214
639602
1349
하지만 제 추적가 그곳에서 태어났고,
10:42
But he was born there, and he understood how to survive.
215
642160
3782
어떻게 하면 살 수 있는지 알고 있었지요.
저는 뉴욕에서 태어났습니다.
10:46
I was born in New York City.
216
646490
1596
만약에 제가 그 추적가를 뉴욕으로 데리고 오면, 그 사람은 하루안에 죽을거예요.
10:48
I could have taken him to New York, and he would have died in a day.
217
648110
3251
(웃음)
10:51
(Laughter)
218
651385
1001
10:52
Because we had different models based on our different experiences.
219
652410
4144
우리는 우리만의 경험을 바탕으로
우리의 고유한 모델을 가지고 있지요.
10:58
Models can come from the media,
220
658291
2469
모델은 대중매체로 부터 나올 수 도 있고,
11:00
from our elected officials ...
221
660784
1763
정부관리가 만들 수도 있습니다.
11:03
Think of models of terrorism,
222
663234
3081
테러,
11:06
child kidnapping,
223
666339
2197
어린이 유괴,
11:08
airline safety, car safety.
224
668560
2325
항공기 안전, 자동차 안전 등의 모델을 생각해보세요.
11:11
Models can come from industry.
225
671539
1993
모델은 산업계로 부터 나올 수도 있습니다.
11:14
The two I'm following are surveillance cameras,
226
674348
3218
저는 지금 감시 카메라와
ID 카드 모델들을 연구하고 있는데
11:17
ID cards,
227
677590
1496
많은 컴퓨터 보안 모델들이 이런 시스템에서 나왔지요.
11:19
quite a lot of our computer security models come from there.
228
679110
3130
많은 모델은 과학에서 나오지요.
11:22
A lot of models come from science.
229
682264
2227
11:24
Health models are a great example.
230
684515
1837
건강 모델이 아주 좋은 예입니다.
11:26
Think of cancer, bird flu, swine flu, SARS.
231
686376
3026
암, 조류독감, 돼지독감, 사스 같은 병들을 생각해보세요.
11:29
All of our feelings of security about those diseases
232
689942
4870
이런 병들의 안전에 대한
우리의 모든 느낌은
11:34
come from models given to us, really, by science filtered through the media.
233
694836
4655
과학적 모델이 대중매체를 통해 여과된 후에
우리에게 주어진 것입니다.
그래서 모델들은 바뀔 수 있습니다.
11:41
So models can change.
234
701038
1720
11:43
Models are not static.
235
703482
2103
모델들은 정적인것이 아닙니다.
11:45
As we become more comfortable in our environments,
236
705609
3240
우리가 우리의 환경에 더 잘 적응하게 되면
11:48
our model can move closer to our feelings.
237
708873
3602
우리의 모델은 우리의 느낌과 비슷하게 됩니다.
11:53
So an example might be,
238
713965
2340
그 일례로,
전기가 대중화되기 시작했던
11:56
if you go back 100 years ago,
239
716329
1596
11:57
when electricity was first becoming common,
240
717949
3428
100년전으로 돌아가보면,
전기에 대한 공포심이 널리 퍼져있었지요.
12:01
there were a lot of fears about it.
241
721401
1703
어떤 사람들은 전기 초인종에 전기가 있어서 위험하다며
12:03
There were people who were afraid to push doorbells,
242
723128
2478
초인종을 누르는 것을 두려워 했지요.
12:05
because there was electricity in there, and that was dangerous.
243
725630
3005
우리는 이제 전기에 아주 익숙해 졌죠.
12:08
For us, we're very facile around electricity.
244
728659
2869
전구 바꾸는 정도는
12:11
We change light bulbs without even thinking about it.
245
731552
2818
아무것도 아니죠
12:14
Our model of security around electricity is something we were born into.
246
734948
6163
전기에 대한 우리의 모델은
우리가 타고난 것이죠.
12:21
It hasn't changed as we were growing up.
247
741735
2514
그 모델은 우리가 자라면서 변하지 않았습니다.
12:24
And we're good at it.
248
744273
1565
우리는 전기를 잘 다루죠.
12:27
Or think of the risks on the Internet across generations --
249
747380
4499
우리의 각 세대가 인터넷의
위험을 어떻게 생각하는지 보죠 --
12:31
how your parents approach Internet security,
250
751903
2097
여러분의 부모님과 여러분들 자신이
인터넷 보안을 대하는 것이 어떻게 다르고,
12:34
versus how you do,
251
754024
1616
12:35
versus how our kids will.
252
755664
1542
여러분의 자녀들은 앞으로 어떻게 생각할 것인가요.
12:38
Models eventually fade into the background.
253
758300
2550
그러나 모델은 시간이 흐르며 결국에는 서서히 사라집니다.
12:42
"Intuitive" is just another word for familiar.
254
762427
2493
직관적이라는 말은 즉 친숙하다는 말이지요.
12:45
So as your model is close to reality and it converges with feelings,
255
765887
3850
여러분의 모델이 현실에 더 가깝게 되고
그 모델이 여러분의 느낌과 가깝게 되면
12:49
you often don't even know it's there.
256
769761
1918
모델 자체를 잊어버리게 되죠.
이런 것의 좋은 예로
12:53
A nice example of this came from last year and swine flu.
257
773239
3817
작년에 있었던 돼지독감을 들 수 있지요.
돼지독감이 처음 나타났던
12:58
When swine flu first appeared,
258
778281
2000
초기의 뉴스들은 많은 과잉반응을 야기했습니다.
13:00
the initial news caused a lot of overreaction.
259
780305
2618
13:03
Now, it had a name,
260
783562
1978
돼지독감이라는 이름 때문에
13:05
which made it scarier than the regular flu,
261
785564
2050
일반 독감보다 더 무섭게 들렸던 것이죠,
13:07
even though it was more deadly.
262
787638
1567
사실은 이름이 없는 일반 독감이 더 위험한데요.
13:09
And people thought doctors should be able to deal with it.
263
789784
3208
그리고 사람들은 그것은 의사가 해결할 문제라고 생각했죠.
13:13
So there was that feeling of lack of control.
264
793459
2524
따라서 사람들은 그들 자신이 무력하다고 느꼈지요.
이 두가지 이유로 해서 돼지독감이
13:16
And those two things made the risk more than it was.
265
796007
3109
실제보다 더 위험한 것처럼 보였죠.
13:19
As the novelty wore off and the months went by,
266
799140
3557
처음에 있었던 생소함이 없어지고 시간이 지나며
13:22
there was some amount of tolerance; people got used to it.
267
802721
2843
사람들이 어느정도 돼지독감을 포용하게 되고
그 위험에 익숙해 지며
13:26
There was no new data, but there was less fear.
268
806355
2670
돼지독감에 대한 새 데이터는 안나왔는데 두려움이 많이 없어졌지요.
13:29
By autumn,
269
809681
2174
가을이 오며
13:31
people thought the doctors should have solved this already.
270
811879
3382
사람들은 의사들이 돼지독감 문제를
이미 해결했어야 한다고 생각했죠.
13:35
And there's kind of a bifurcation:
271
815722
1960
그때 사람들은 일종의 분기점에 도달해서
13:37
people had to choose between fear and acceptance --
272
817706
5751
돼지독감을 계속 두려워하던지
아니면 현실을 받아들이던지
둘 중에 하나를 선택해야 했는데
13:44
actually, fear and indifference --
273
824512
1644
사람들은 불신하는 쪽으로 기울었지요.
13:46
and they kind of chose suspicion.
274
826180
1795
그래서 작년 겨울에 백신이 나왔을때
13:49
And when the vaccine appeared last winter,
275
829110
3111
놀라울 정도로 많은 사람들이
13:52
there were a lot of people -- a surprising number --
276
832245
2511
13:54
who refused to get it.
277
834780
1797
백신주사 맞기를 거부했습니다.
13:58
And it's a nice example of how people's feelings of security change,
278
838777
3656
이것은
아무런 새로운 정보가 없이
14:02
how their model changes,
279
842457
1603
안전에 대한 우리의 느낌이 크게 바뀌고,
14:04
sort of wildly,
280
844084
1668
14:05
with no new information, with no new input.
281
845776
2770
또한 모델도 바뀔 수 있다는 것을
보여주는 좋은 일례입니다.
이런 일은 많이 생기지요.
14:10
This kind of thing happens a lot.
282
850327
1808
조금 더 복잡한 상황을 이야기 해보겠습니다.
14:13
I'm going to give one more complication.
283
853199
1971
14:15
We have feeling, model, reality.
284
855194
2696
느낌, 모델, 현실이 있습니다.
14:18
I have a very relativistic view of security.
285
858640
2510
저는 보안에 대해 매우 현실적인 견해를 가지고 있습니다.
저는 보안에 대한 생각은 사람에 따라 다르다고 생각하지요.
14:21
I think it depends on the observer.
286
861174
1814
14:23
And most security decisions have a variety of people involved.
287
863695
5166
대부분의 보안에 대한 결정에는
다양한 사람들이 관계되어 있습니다.
14:29
And stakeholders with specific trade-offs will try to influence the decision.
288
869792
6539
보안에 관련된 결정에 관련된
이해 당사자들은 보안 결정에
영향을 주려고 할 것입니다.
14:36
And I call that their agenda.
289
876355
1681
저는 그것을 그들의 '숨은 의도'라고 부르겠습니다.
그들의 숨은 의도에는
14:39
And you see agenda -- this is marketing, this is politics --
290
879512
3491
마케팅도 있고, 정치도 있지요 ---
14:43
trying to convince you to have one model versus another,
291
883481
3039
그들은 여러분이 어떤 모델 대신에 다른 모델을 가지도록 하거나,
14:46
trying to convince you to ignore a model
292
886544
1984
또는 어떤 모델을 무시하고
14:48
and trust your feelings,
293
888552
2672
여러분의 느낌을 믿으라고 설득시켜서
14:51
marginalizing people with models you don't like.
294
891248
2504
여러분이 좋아하지 않는 사람 이나 모델을 소외시키게 만들지요.
14:54
This is not uncommon.
295
894744
1516
이건 드문일이 아닙니다.
14:57
An example, a great example, is the risk of smoking.
296
897610
3229
아주 좋은 예의 하나는 흡연의 위험이죠.
흡연의 위험에 대한 지난 50년의 역사는
15:02
In the history of the past 50 years,
297
902196
1783
15:04
the smoking risk shows how a model changes,
298
904003
2613
리스크 모델이 어떻게 바뀌었으며
15:06
and it also shows how an industry fights against a model it doesn't like.
299
906640
4358
담배업계가 그들이 좋아하지 않는 모델을
어떻게 싸워 왔는지를 보여줍니다.
15:11
Compare that to the secondhand smoke debate --
300
911983
3103
이것은 간접흡연에 대한 논쟁에 비교해
약 20년 정도는 뒤쳐진 것이죠.
15:15
probably about 20 years behind.
301
915110
1953
15:17
Think about seat belts.
302
917982
1615
안전벨트의 예도 들어보죠.
15:19
When I was a kid, no one wore a seat belt.
303
919621
2024
제가 어렸을 때는 아무도 안전벨트를 매지 않았습니다.
15:21
Nowadays, no kid will let you drive if you're not wearing a seat belt.
304
921669
3541
요즘은 안전벨트를 안채워주면,
아이들이 운전을 못하게 합니다.
15:26
Compare that to the airbag debate,
305
926633
2453
에어백 논쟁과 비교해보면,
아마 30년은 뒤쳐졌을겁니다.
15:29
probably about 30 years behind.
306
929110
1667
이것은 모두 모델이 변하는 것을 보여주지요.
15:32
All examples of models changing.
307
932006
2088
15:36
What we learn is that changing models is hard.
308
936855
2796
이것은 모델을 바꾸는 것이 어렵다는 것을 보여줍니다.
모델을 걷어내는 것은 힘어려운 일입니다.
15:40
Models are hard to dislodge.
309
940334
2053
모델이 여러분의 느낌과 같으면
15:42
If they equal your feelings,
310
942411
1675
여러분은 모델을 가지고 있는지 조차 모르지요
15:44
you don't even know you have a model.
311
944110
1899
우리는 또한 다른 인지적 편견을 가지고 있는데
15:47
And there's another cognitive bias
312
947110
1886
저는 그것을 "확인편견"이라고 부르겠습니다 .
15:49
I'll call confirmation bias,
313
949020
2066
그것은 우리는 우리의 믿음과 일치하는
15:51
where we tend to accept data that confirms our beliefs
314
951110
4361
데이터는 받아드리고
15:55
and reject data that contradicts our beliefs.
315
955495
2437
우리의 믿음과 상반되는 데이터는 거부하는 것이지요.
15:59
So evidence against our model, we're likely to ignore,
316
959490
3935
우리는 우리의 모델에 일치하지 않는 증거는
아무리 강력한 증거라도 무시할 가능성이 많습니다.
16:03
even if it's compelling.
317
963449
1248
16:04
It has to get very compelling before we'll pay attention.
318
964721
3005
설득력이 아주 강한 증거래야 비로서 관심을 보이지요.
16:08
New models that extend long periods of time are hard.
319
968990
2597
오랜 시간이 관련되는 새 모델은 받아들이기 힘들지요.
지구 온난화가 대표적인 예입니다.
16:11
Global warming is a great example.
320
971611
1754
우리는 80년 정도되는 기간에 걸친
16:13
We're terrible at models that span 80 years.
321
973389
3442
모델은 잘 다루지 못합니다.
16:16
We can do "to the next harvest."
322
976855
2063
다음 추수시절 까지의 기간은 감당할 수 있죠.
16:18
We can often do "until our kids grow up."
323
978942
2306
자식이 성장할때 까지의 기간도 종종 감당할 수 있죠.
16:21
But "80 years," we're just not good at.
324
981760
2201
그러나 80년은 감당하지 못합니다.
16:24
So it's a very hard model to accept.
325
984975
2302
그래서 온난화 모델은 정말 받아들이기 어렵죠.
16:27
We can have both models in our head simultaneously --
326
987999
2946
우리는 두개의 모델을
16:31
that kind of problem where we're holding both beliefs together,
327
991912
6948
동시에 가질 수도 있습니다.
즉, 두개의 다른 믿음을 동시에 가지는 것은
인지부조화라고 말할 수 있죠.
16:38
the cognitive dissonance.
328
998884
1370
그러나 결국에는
16:40
Eventually, the new model will replace the old model.
329
1000278
3156
새로운 모델이 이전 모델을 대체하게 됩니다.
16:44
Strong feelings can create a model.
330
1004164
2190
강한 느낌은 모델을 만들 수 있습니다.
16:47
September 11 created a security model in a lot of people's heads.
331
1007411
5363
911 사태는 많은 사람들의 머리속에
보안에 대한 모델을 만들었습니다.
16:52
Also, personal experiences with crime can do it,
332
1012798
3288
또한 범죄에 관련된 개인적인 경험도 모델을 만들 수 있고,
건강에 대한 두려움,
16:56
personal health scare,
333
1016110
1379
16:57
a health scare in the news.
334
1017513
1466
건강위기 뉴스도 그럴 수 있죠.
이런것은 정신과 의사들이 말하는
17:00
You'll see these called "flashbulb events" by psychiatrists.
335
1020198
3345
소위 "섬광 이벤트"에서 볼 수 있습니다.
이런 경험은 매우 강력한 감정을 초래하기 떄문에
17:04
They can create a model instantaneously,
336
1024183
2461
17:06
because they're very emotive.
337
1026668
1761
그 즉시로 모델을 만들 수 있죠.
17:09
So in the technological world,
338
1029908
1588
기술이 발달한 사회에 사는 사람들은
17:11
we don't have experience to judge models.
339
1031520
3237
모델들을 판달 할 수 있는
경험을 가지고 있지 않습니다.
17:15
And we rely on others. We rely on proxies.
340
1035124
2933
그래서 다른 사람의 경험에 대신 의뢰하게 되지요
이런 방법은 다른 사람을 관리하는 목적으로는 좋죠.
17:18
And this works, as long as it's the correct others.
341
1038081
2619
17:21
We rely on government agencies
342
1041183
2682
우리는 약의 안전성 시험을
17:23
to tell us what pharmaceuticals are safe.
343
1043889
4404
정부기관에 맡깁니다.
17:28
I flew here yesterday.
344
1048317
1913
저는 어제 비행기를 타고 여기로 왔는데
17:30
I didn't check the airplane.
345
1050254
1762
제가 직접 비행기를 점검하지는 않았지요.
17:32
I relied on some other group
346
1052699
2595
제가 탄 비행기가 안전한지 그렇지 않은지는
다른 사람들에게 맡깁니다.
17:35
to determine whether my plane was safe to fly.
347
1055318
2437
17:37
We're here, none of us fear the roof is going to collapse on us,
348
1057779
3298
우리는 이 빌딩을 직접 점검하지 않았지만
지붕이 내려 앉을지 모른다고 걱정하는 사람은 아무도 없죠.
17:41
not because we checked,
349
1061101
2205
17:43
but because we're pretty sure the building codes here are good.
350
1063330
3672
왜냐하면 이 빌딩이 건축규정을 잘 지켰을거라고
믿고 확신하기 때문입니다.
17:48
It's a model we just accept
351
1068442
2989
이런것은 믿음을 통해 우리가
그냥 받아들이는 모델입니다.
17:51
pretty much by faith.
352
1071455
1360
그런건 좋습니다.
17:53
And that's OK.
353
1073331
1358
17:57
Now, what we want is people to get familiar enough with better models,
354
1077966
5873
자, 우리가 원하는 것은
사람들이 더 좋은 모델에
충분히 친숙해지고 --
18:03
have it reflected in their feelings,
355
1083863
2120
그들의 감정에도 반영이 되어
보안에 관련된 비용편익 결정을 할 수 있는 그런 모델 말이죠.
18:06
to allow them to make security trade-offs.
356
1086007
3002
자, 그런데 이런 모델들이 잘 맞지 않으면,
18:10
When these go out of whack, you have two options.
357
1090110
3719
여러분들에게는 두가지 옵션이 있습니다.
18:13
One, you can fix people's feelings, directly appeal to feelings.
358
1093853
4233
한가지는 다른 사람들의 감정에 직접 호소하여
그들의 모델을 바꾸게 하는 것이죠.
이런 방식은 조작이지만 효과가 있을 수 있습니다.
18:18
It's manipulation, but it can work.
359
1098110
2406
좀 더 솔직한 두번째 방법은
18:21
The second, more honest way
360
1101173
2191
모델을 수정해 보는것이죠.
18:23
is to actually fix the model.
361
1103388
1773
18:26
Change happens slowly.
362
1106720
2101
변화는 천천히 일어납니다.
18:28
The smoking debate took 40 years -- and that was an easy one.
363
1108845
4378
흡연에 대한 논쟁은 40년 걸렸습니다.
그러나 그 문제는 쉬운편이었죠.
다른 사람의 모델을 바꾸는 것은 어려운 일입니다.
18:35
Some of this stuff is hard.
364
1115195
1813
제말은 아마도
18:37
Really, though, information seems like our best hope.
365
1117496
3756
정보를 제공하는것이 제일 희망적일것 같습니다.
제가 거짓말을 했어요.
18:41
And I lied.
366
1121276
1272
18:42
Remember I said feeling, model, reality; reality doesn't change?
367
1122572
4020
저는 얼마전에 감정, 모델, 현실을 말했지요.
현실은 바뀌지 않는다고 말했죠. 사실 현실은 변합니다.
18:46
It actually does.
368
1126616
1375
우리는 기술이 지배하는 세상에 살기 때문에
18:48
We live in a technological world;
369
1128015
1714
18:49
reality changes all the time.
370
1129753
2338
현실은 항상 변합니다.
18:52
So we might have, for the first time in our species:
371
1132887
2977
그래서 아마 인류역사상 처음으로 느낌이 모델을 따라가고,
18:55
feeling chases model, model chases reality, reality's moving --
372
1135888
3183
모델이 현실을 따라가고, 현실은 움직이고 --
아마 현실을 따라 잡지 못할 지 모르죠.
18:59
they might never catch up.
373
1139095
1533
19:02
We don't know.
374
1142180
1328
아무도 모릅니다.
그러나 오랜 기간을 통해서는
19:05
But in the long term,
375
1145614
1603
느낌과 현실이 둘다 다 중요합니다.
19:07
both feeling and reality are important.
376
1147241
2204
19:09
And I want to close with two quick stories to illustrate this.
377
1149469
3233
이점을 설명하기 위해 마지막으로 짧은 이야기를 두개 말씀드리겠습니다.
19:12
1982 -- I don't know if people will remember this --
378
1152726
2479
여러분들이 기억하시는지 모르겠지만 1982년에
미국에서 타이레놀 독살
19:15
there was a short epidemic of Tylenol poisonings
379
1155229
3370
사건이 있었습니다.
19:18
in the United States.
380
1158623
1196
19:19
It's a horrific story.
381
1159843
1361
끔찍한 이야기였죠. 누군가 타에레놀 병에다가
19:21
Someone took a bottle of Tylenol,
382
1161228
2079
독을 탄후, 병을 다시 닫고 진열대에 다시 올려 놓은 거죠.
19:23
put poison in it, closed it up, put it back on the shelf,
383
1163331
3002
어떤 사람이 그약을 사서 먹고 죽었지요.
19:26
someone else bought it and died.
384
1166357
1558
19:27
This terrified people.
385
1167939
1673
이 사건으로 사람들은 공포에 휩쓸렸었지요.
19:29
There were a couple of copycat attacks.
386
1169636
2227
모방범죄의 사례도 몇개 있었지요.
19:31
There wasn't any real risk, but people were scared.
387
1171887
2845
실제적인 위험은 없지만 사람들은 무서워했지요.
19:34
And this is how the tamper-proof drug industry was invented.
388
1174756
3876
이 사건 이후
변조방지 제약산업이 태어났지요.
19:38
Those tamper-proof caps? That came from this.
389
1178656
2229
변조방지 뚜껑이 이런 사건 때문에 생긴거죠.
19:40
It's complete security theater.
390
1180909
1571
이런건 완전히 보안연극입니다.
19:42
As a homework assignment, think of 10 ways to get around it.
391
1182504
2891
이것을 우회하는 방법을 숙제로 10가지 생각해 보세요.
제가 한가지 방법을 알려드리지요. 주사기를 쓰면 됩니다.
19:45
I'll give you one: a syringe.
392
1185419
1891
19:47
But it made people feel better.
393
1187334
2781
하지만 이 뚜껑은 사람들을 안심시켰죠.
19:50
It made their feeling of security more match the reality.
394
1190744
3702
이 뚜껑은 사람들이 가진 안전하다는 느낌을
현실에 더 맞추어 줬지요.
몇년전에 제 친구가 아이를 낳았습니다.
19:55
Last story: a few years ago, a friend of mine gave birth.
395
1195390
2934
그래서 제가 병원으로 문병을 갔었지요.
19:58
I visit her in the hospital.
396
1198348
1397
19:59
It turns out, when a baby's born now,
397
1199769
1923
요즘은 아기가 태어나면
20:01
they put an RFID bracelet on the baby, a corresponding one on the mother,
398
1201716
3563
병원에서 엄마 팔찌와 똑같은
RFID 팔찌를 아기 손목에 채우더군요.
20:05
so if anyone other than the mother takes the baby out of the maternity ward,
399
1205303
3620
그래서 엄마가 아닌 다른 사람이 아기를
임산부병실에서 데리고 나가면 경보음이 울리는거죠.
20:08
an alarm goes off.
400
1208947
1158
저는 "그게 아주 좋은 방법이네" 라고 말했지요.
20:10
I said, "Well, that's kind of neat.
401
1210129
1729
20:11
I wonder how rampant baby snatching is out of hospitals."
402
1211882
3970
저는 병원안에서 유아유괴가
얼마나 만연한지 궁금했습니다.
20:15
I go home, I look it up.
403
1215876
1236
그래서 집에 돌아와서 찾아 봤더니.
20:17
It basically never happens.
404
1217136
1525
그런 일은 거의 발생하지 않더군요.
20:18
(Laughter)
405
1218685
1844
하지만 생각을 해 보면,
20:20
But if you think about it, if you are a hospital,
406
1220553
2843
간호사가 아기를
20:23
and you need to take a baby away from its mother,
407
1223420
2380
검진하기 위해서 아기 엄마 눈앞에서
20:25
out of the room to run some tests,
408
1225824
1781
아기를 데리고 병실 밖으로 나갈수 있으려면,
20:27
you better have some good security theater,
409
1227629
2050
아마 좋은 안전연극을 해야 할 것입니다.
20:29
or she's going to rip your arm off.
410
1229703
1945
아니면 아기 엄마가 간호사의 팔을 잡아 뗄테니까요.
20:31
(Laughter)
411
1231672
1533
(웃음)
그래서 보안 시스템을 디자인하거나,
20:34
So it's important for us,
412
1234161
1717
20:35
those of us who design security,
413
1235902
2135
보안 정책에 관련된 사람들이나
심지어는 보안에 관계되는
20:38
who look at security policy --
414
1238061
2031
20:40
or even look at public policy in ways that affect security.
415
1240946
3308
공공정책에 관여된 사람들은
단순히 현실만 생각할 것이 아니라
느낌과 현실을 동시에 고려해야 합니다.
20:45
It's not just reality; it's feeling and reality.
416
1245006
3416
중요한것은 느낌과 현실이
20:48
What's important
417
1248446
1865
거의 일치해야 한다는 것입니다.
20:50
is that they be about the same.
418
1250335
1545
20:51
It's important that, if our feelings match reality,
419
1251904
2531
우리의 느낌이 현실과 같으면 우리는 보안에 대한
보다 더 합리적인 판단을 내릴 수 있을 것입니다.
20:54
we make better security trade-offs.
420
1254459
1873
감사합니다.
20:56
Thank you.
421
1256711
1153
20:57
(Applause)
422
1257888
2133
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7