Bruce Schneier: The security mirage

78,125 views ・ 2011-04-27

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Laszlo Kereszturi Lektor: Sara Heltai
Tehát a biztonság két különböző dolog:
00:16
So, security is two different things:
0
16010
2276
egy érzés és egy valóság.
00:18
it's a feeling, and it's a reality.
1
18310
2526
És ezek különböznek.
00:20
And they're different.
2
20860
1425
Érezheted magad biztonságban
00:22
You could feel secure even if you're not.
3
22309
3427
még akkor is ha nem vagy.
00:25
And you can be secure
4
25760
1976
És lehetsz biztonságban
00:27
even if you don't feel it.
5
27760
1850
még akkor is, ha nem érzed.
00:29
Really, we have two separate concepts
6
29634
2117
Tényleg, két külön fogalmunk van
00:31
mapped onto the same word.
7
31775
1652
ugyanarra az egy szóra.
00:33
And what I want to do in this talk is to split them apart --
8
33960
3626
És ebben a beszédemben
szét akarom választani őket --
00:37
figuring out when they diverge and how they converge.
9
37610
3610
megfejtve mikor válnak szét
és hogyan közelítenek.
00:41
And language is actually a problem here.
10
41711
2275
És itt a nyelv az igazi probléma.
Nincs igazán sok jó szó
00:44
There aren't a lot of good words
11
44010
2076
a fogalmakra amikről beszélni fogunk.
00:46
for the concepts we're going to talk about.
12
46110
2061
Tehát, ha a biztonságot
00:49
So if you look at security from economic terms,
13
49295
4120
a gazdasági oldaláról nézed,
az egy kompromisszum.
00:53
it's a trade-off.
14
53439
1647
Valahányszor némi biztonságot kapsz,
00:55
Every time you get some security, you're always trading off something.
15
55110
4132
mindig adsz cserébe valamit.
Lehet ez egy személyes döntés --
00:59
Whether this is a personal decision --
16
59266
1845
felszerelsz-e biztonsági riasztót otthonodba --
01:01
whether you're going to install a burglar alarm in your home --
17
61135
3012
vagy egy nemzeti döntés -- mikor megszállsz egy idegen országot --
01:04
or a national decision,
18
64171
1157
01:05
where you're going to invade a foreign country --
19
65352
2310
mindig lemondasz cserébe valamiről,
01:07
you're going to trade off something: money or time, convenience, capabilities,
20
67686
3782
pénzről vagy időröl, kényelemről, képességekről,
talán alapvető szabadságokról.
01:11
maybe fundamental liberties.
21
71492
2002
01:13
And the question to ask when you look at a security anything
22
73518
3274
És amikor bármilyen biztonságot vizsgálsz, a kérdés
01:16
is not whether this makes us safer,
23
76816
3382
nem az, hogy ettől nagyobb biztonságban leszünk-e,
hanem, hogy megéri-e a kompromisszumot.
01:20
but whether it's worth the trade-off.
24
80222
2215
01:22
You've heard in the past several years, the world is safer
25
82461
3229
Hallották az elmúlt pár évben, hogy
a világ biztonságossabb mert Szaddam Husszein nincs hatalmon.
01:25
because Saddam Hussein is not in power.
26
85714
1890
Ez lehet akár igaz is, de nem igazán lényeges.
01:27
That might be true, but it's not terribly relevant.
27
87628
2603
A kérdés az, hogy megérte-e?
01:30
The question is: Was it worth it?
28
90255
2831
És meghozhatod a saját döntésedet,
01:33
And you can make your own decision,
29
93110
2459
01:35
and then you'll decide whether the invasion was worth it.
30
95593
2733
és majd eldöntheted, hogy a megszállás megérte-e.
Így kell gondolni a biztonságra --
01:38
That's how you think about security: in terms of the trade-off.
31
98350
3561
a kompromisszum körülményeitől függően.
01:41
Now, there's often no right or wrong here.
32
101935
2610
Sokszor nincs helyes vagy helytelen döntés.
Van akinek van otthon betörés elleni riasztója,
01:45
Some of us have a burglar alarm system at home and some of us don't.
33
105208
3308
és van akinek nincs.
01:48
And it'll depend on where we live,
34
108540
2731
Ez attól függ hol lakunk,
egyedül vagy családdal,
01:51
whether we live alone or have a family,
35
111295
1926
mennyi értékes dolgunk van,
01:53
how much cool stuff we have,
36
113245
1668
01:54
how much we're willing to accept the risk of theft.
37
114937
3165
mennyire vagyunk hajlandók elfogadni
a lopás rizikóját.
01:58
In politics also, there are different opinions.
38
118943
2948
A politikában szintén
vannak különböző vélemények.
02:02
A lot of times, these trade-offs are about more than just security,
39
122459
4435
Ezek a kompromisszumok sokszor
nem csak a biztonságról szólnak,
02:06
and I think that's really important.
40
126918
1865
és én azt gondolom, hogy ez igazán fontos.
02:08
Now, people have a natural intuition about these trade-offs.
41
128807
3308
Az embereknek van egy ösztönös megérzésük
ezekről a kompromisszumokról.
02:12
We make them every day.
42
132588
1556
Minden nap teszünk ilyeneket --
02:14
Last night in my hotel room, when I decided to double-lock the door,
43
134807
3533
múlt éjjel a hotel szobámban,
amikor eldöntöttem, hogy kettőre zárom az ajtót,
02:18
or you in your car when you drove here;
44
138364
2000
vagy önök az autójukban, miközben ide vezettek,
amikor ebédelni megyünk
02:21
when we go eat lunch
45
141191
1478
02:22
and decide the food's not poison and we'll eat it.
46
142693
2608
és eldöntjük, hogy a étel nem méreg és megesszük.
02:25
We make these trade-offs again and again,
47
145325
3161
Megtesszük ezeket a kompromisszumokat
újra és újra, naponta többször.
02:28
multiple times a day.
48
148510
1576
Sokszor észre se vesszük őket.
02:30
We often won't even notice them.
49
150110
1589
02:31
They're just part of being alive; we all do it.
50
151723
2626
Egyszerű részei az életnek; mind megtesszük.
Mnden faj megteszi.
02:34
Every species does it.
51
154373
1555
02:36
Imagine a rabbit in a field, eating grass.
52
156474
2862
Képzeljenek el egy nyulat, legel,
és meglát egy rókát.
02:39
And the rabbit sees a fox.
53
159360
1943
02:41
That rabbit will make a security trade-off:
54
161856
2049
A nyúl egy biztonsági döntést fog hozni:
02:43
"Should I stay, or should I flee?"
55
163929
1904
"Maradjak vagy fussak el?"
És ha belegondolnak,
02:46
And if you think about it,
56
166380
1619
a jó döntést hozó nyulak
02:48
the rabbits that are good at making that trade-off
57
168023
2555
02:50
will tend to live and reproduce,
58
170602
1978
inkább maradnak életben és szaporodnak,
02:52
and the rabbits that are bad at it
59
172604
2307
míg a rossz döntést hozó nyulakat
02:54
will get eaten or starve.
60
174935
1474
megeszik vagy éhen halnak.
02:56
So you'd think
61
176958
1608
Tehát azt gondolnánk, hogy mi,
mint a legsikeresebb faj a bolygón --
02:59
that us, as a successful species on the planet -- you, me, everybody --
62
179573
4309
ön, én, mindannyian --
03:03
would be really good at making these trade-offs.
63
183906
2573
igazán jók lennénk ezekben a kompromisszumokban.
És mégis úgy tünik, újra és újra,
03:07
Yet it seems, again and again, that we're hopelessly bad at it.
64
187126
3104
hogy menthetetlenül rosszak vagyunk.
03:11
And I think that's a fundamentally interesting question.
65
191768
2802
És én azt gondolom, hogy ez egy alapvetően érdekes kérdés.
03:14
I'll give you the short answer.
66
194594
1873
Megadom a rövid választ.
03:16
The answer is, we respond to the feeling of security
67
196491
2651
A válasz az, hogy a biztonság érzésére válaszolunk,
nem pedig a biztonság valóságára.
03:19
and not the reality.
68
199166
1518
03:21
Now, most of the time, that works.
69
201864
2696
Legtöbbször ez müködik.
03:25
Most of the time,
70
205538
1503
Legtöbbször,
03:27
feeling and reality are the same.
71
207065
2133
az érzés és a valóság ugyanaz.
03:30
Certainly that's true for most of human prehistory.
72
210776
3516
Ez biztosan igaz
az emberiség őstörténetére.
03:35
We've developed this ability
73
215633
2708
Azért fejlesztettük ki ezt a képességet,
03:38
because it makes evolutionary sense.
74
218365
2584
mert értelme volt fejlődésünk szempontjából.
Úgy is gondolhatunk erre,
03:41
One way to think of it is that we're highly optimized
75
221985
3274
hogy mi erősen optimalizálva vagyunk
olyan kockázati döntésekre, amelyek
03:45
for risk decisions
76
225283
1803
a kis családi csoportokban való élettel jártak
03:47
that are endemic to living in small family groups
77
227110
2543
03:49
in the East African Highlands in 100,000 BC.
78
229677
2536
a kelet afrikai szavannákon, K.e. 100000-ben --
03:52
2010 New York, not so much.
79
232792
2659
de nem annyira 2010-ben, New Yorkban.
03:56
Now, there are several biases in risk perception.
80
236879
3206
Létezik több előítélet is a kockázat érzékelésben.
Sok jó kísérlet van erre.
04:00
A lot of good experiments in this.
81
240109
1741
04:01
And you can see certain biases that come up again and again.
82
241874
3603
És láthatnak bizonyos, újra és újra megjelenő előítéleteket.
Leírok önöknek négyet.
04:05
I'll give you four.
83
245501
1353
04:06
We tend to exaggerate spectacular and rare risks
84
246878
3208
Hajlamosak vagyunk eltúlozni a látványos és ritka kockázatokat
és lekicsinyelni a gyakori rizikókat --
04:10
and downplay common risks --
85
250110
1976
tehát a repülést az autóvezetés ellenében.
04:12
so, flying versus driving.
86
252110
1518
04:14
The unknown is perceived to be riskier than the familiar.
87
254451
3794
Az ismeretlen rizikót kockázatosabbnak
érzékeljük mint az ismerőst.
Erre egy példa lenne,
04:21
One example would be:
88
261470
1439
04:22
people fear kidnapping by strangers,
89
262933
2613
hogy az emberek félnek az idegenek általi emberrablástól,
04:25
when the data supports that kidnapping by relatives is much more common.
90
265570
3636
miközben az adatok szerint, a rokonok általi emberrablás sokkal megszokottabb.
Ez a gyerekekre vonatkozik.
04:29
This is for children.
91
269230
1574
04:30
Third, personified risks are perceived to be greater
92
270828
4040
Harmadik, a megszemélyesített kockázatot
nagyobbnak érzékeljük, mint a névtelen rizikót --
04:34
than anonymous risks.
93
274892
1503
04:36
So, Bin Laden is scarier because he has a name.
94
276419
2787
tehát Bin Laden ijesztőbb, mert van neve.
És a negyedik:
04:40
And the fourth is:
95
280182
1363
04:41
people underestimate risks in situations they do control
96
281569
4755
az emberek alábecsülik a rizikókat
az általuk szabályzott helyzetekben
és felülbecsülik őket az általuk nem irányított helyzetekben.
04:46
and overestimate them in situations they don't control.
97
286348
2963
04:49
So once you take up skydiving or smoking,
98
289335
3384
Tehát, ha egyszer elkezdtél ejtőernyőzni vagy dohányozni,
04:52
you downplay the risks.
99
292743
1624
alábecsülöd a kockázatot.
Ha egy rizikót rád erőszakolnak -- a terrorizmus egy jó példa volt --
04:55
If a risk is thrust upon you -- terrorism is a good example --
100
295037
3053
túl fogod becsülni, mert úgy érzed nincs az ellenőrzésed alatt.
04:58
you'll overplay it,
101
298114
1157
04:59
because you don't feel like it's in your control.
102
299295
2339
05:02
There are a bunch of other of these cognitive biases,
103
302157
3493
Létezik egy csomó más előítéletek, ezek az észlelési előítéletek,
05:05
that affect our risk decisions.
104
305674
2339
amelyek befolyásolják a kockázati döntéseinket.
05:08
There's the availability heuristic,
105
308832
2254
Például az elérhetőségi heurisztika,
ami alapján
05:11
which basically means we estimate the probability of something
106
311110
4180
valaminek a valószínűségét annak alapján becsüljük meg,
05:15
by how easy it is to bring instances of it to mind.
107
315314
3339
hogy milyen könnyen jutnak eszünkbe példák rá.
05:19
So you can imagine how that works.
108
319831
1777
El tudják képzelni, ez hogy működik.
05:21
If you hear a lot about tiger attacks, there must be a lot of tigers around.
109
321632
3628
Ha sokat hallunk tigris támadásokról, akkor sok tigris kell legyen a környékünkön.
Ha nem hallunk oroszlán támadásokról, akkor nincs sok oroszlán a környékünkön.
05:25
You don't hear about lion attacks, there aren't a lot of lions around.
110
325284
3344
Ez az újságok feltalálásáig működik.
05:28
This works, until you invent newspapers,
111
328652
2297
05:30
because what newspapers do is repeat again and again
112
330973
4406
Mert amit az újságok
újra és újra elismétlik
a ritka rizikókat.
05:35
rare risks.
113
335403
1406
05:36
I tell people: if it's in the news, don't worry about it,
114
336833
2865
Az embereknek azt mondom: ha a hírekben van, nem kell miatta aggódni.
Mert a definició szerint,
05:39
because by definition, news is something that almost never happens.
115
339722
4275
a hír olyasmi, ami szinte soha nem történik meg.
(Nevetés)
05:44
(Laughter)
116
344021
1769
05:45
When something is so common, it's no longer news.
117
345814
2923
Amikor valami annyira mindennapi, hogy az már nem hír --
05:48
Car crashes, domestic violence --
118
348761
2198
autóbalesetek, családon belüli erőszak --
05:50
those are the risks you worry about.
119
350983
1990
azok a rizikók, amelyektől tarthatunk.
05:53
We're also a species of storytellers.
120
353713
2148
Mesemondó faj vagyunk.
05:55
We respond to stories more than data.
121
355885
2115
Jobban reagálunk a történetekre mint az adatokra.
05:58
And there's some basic innumeracy going on.
122
358514
2406
És létezik egy alapvető számismereti hiány.
06:00
I mean, the joke "One, two, three, many" is kind of right.
123
360944
3142
Vagyis az "Egy, kettő, három, sok" vicc valahogy igaz.
A kis számokban vagyunk igazán jók.
06:04
We're really good at small numbers.
124
364110
2322
06:06
One mango, two mangoes, three mangoes,
125
366456
2336
Egy mangó, két mangó, három mangó,
06:08
10,000 mangoes, 100,000 mangoes --
126
368816
1977
10000 mangó, 100000 mangó --
06:10
it's still more mangoes you can eat before they rot.
127
370817
2977
ez már több mangó annál, amit rothadásuk előtt megehetsz.
06:13
So one half, one quarter, one fifth -- we're good at that.
128
373818
3268
Tehát egy fél, egy negyed, egy ötöd -- ebben jók vagyunk.
Egy milliomod, egy milliárdomod --
06:17
One in a million, one in a billion --
129
377110
1976
ezekben szinte soha nem vagyunk jók.
06:19
they're both almost never.
130
379110
1575
06:21
So we have trouble with the risks that aren't very common.
131
381546
3414
Tehát problémánk van
a nem mindennapi rizikókkal.
06:25
And what these cognitive biases do
132
385760
1977
És ezek az észlelési előítéletek
06:27
is they act as filters between us and reality.
133
387761
2976
szűrőként viselkednek köztünk és a valóság között.
Az eredmény pedig az,
06:31
And the result is that feeling and reality get out of whack,
134
391284
3873
hogy az érzés és a valóság kapcsolata elromlik,
különbözők lesznek.
06:35
they get different.
135
395181
1384
06:37
Now, you either have a feeling -- you feel more secure than you are,
136
397370
3931
Nos, vagy van egy érzésed -- nagyobb biztonságban érzed magad, mint vagy.
Ez a hamis biztonság érzése.
06:41
there's a false sense of security.
137
401325
1685
Másfelől pedig
06:43
Or the other way, and that's a false sense of insecurity.
138
403034
3374
létezik a hamis bizonytalanság érzése.
Sokat írtam a "biztonsági előadásról",
06:47
I write a lot about "security theater,"
139
407015
2880
06:49
which are products that make people feel secure,
140
409919
2680
termékek amiktől az emberek nagyobb biztonságban érzik magukat,
06:52
but don't actually do anything.
141
412623
1977
de tulajdonképpen nem csinálnak semmit.
06:54
There's no real word for stuff that makes us secure,
142
414624
2557
Nincs valós szó a dolgokra amiktől biztonságban leszünk,
de nem fogjuk magunkat tőle biztonságban érezni.
06:57
but doesn't make us feel secure.
143
417205
1881
Talán ezt kellene megtegye a CIA értünk.
06:59
Maybe it's what the CIA is supposed to do for us.
144
419110
2720
07:03
So back to economics.
145
423539
2168
Vissza a gazdasághoz.
07:05
If economics, if the market, drives security,
146
425731
3656
Ha a gazdaság, a piac ösztönzi a biztonságot
07:09
and if people make trade-offs based on the feeling of security,
147
429411
4847
és ha az emberek kompromisszumokat kötnek
a biztonság érzetükre alapozva,
07:14
then the smart thing for companies to do for the economic incentives
148
434282
4680
akkor a cégek okosan tennék ha elérnék,
hogy az emberek nagyobb biztonságban
07:18
is to make people feel secure.
149
438986
2057
érezzék magukat -- a gazdasági ösztönzőkért.
07:21
And there are two ways to do this.
150
441942
2330
És ezt két féle képpen lehet megcsinálni.
07:24
One, you can make people actually secure
151
444296
2790
Egy: valóbban biztonságot szolgáltatsz
az embereknek és reméled észreveszik.
07:27
and hope they notice.
152
447110
1463
07:28
Or two, you can make people just feel secure
153
448597
2844
Vagy kettő: eléred, hogy az emberek csak biztonságban
07:31
and hope they don't notice.
154
451465
1872
érzzék magukat és reménykedsz, hogy nem veszik észre.
07:34
Right?
155
454401
1375
07:35
So what makes people notice?
156
455800
3141
Mitől veszik észre az emberek?
Egy pár dolog szükséges:
07:39
Well, a couple of things:
157
459500
1382
07:40
understanding of the security,
158
460906
2266
a biztonság megértése,
a rizikók, a fenyegetések,
07:43
of the risks, the threats,
159
463196
1890
az ellenintézkedések működését.
07:45
the countermeasures, how they work.
160
465110
1874
07:47
But if you know stuff, you're more likely
161
467008
2290
De ha tudsz ezekről, nagyobb a valószínűsége,
hogy az érzéseid megfelelnek a valóságnak.
07:50
to have your feelings match reality.
162
470155
2226
Elégséges számú valós példa segít.
07:53
Enough real-world examples helps.
163
473110
3145
Mind ismerjük a bűnözési arányt a környékünkön,
07:56
We all know the crime rate in our neighborhood,
164
476279
2559
07:58
because we live there, and we get a feeling about it
165
478862
2801
mert ott lakunk, és van róla egy érzésünk
08:01
that basically matches reality.
166
481687
1869
ami nagyjából megfelel a valóságnak.
A biztonsági előadás lelepleződik
08:05
Security theater is exposed
167
485038
2207
08:07
when it's obvious that it's not working properly.
168
487269
2786
amikor nyilvánvaló, hogy nem működik megfelelően.
Rendben, mi az amitől az emberek nem veszik észre?
08:11
OK. So what makes people not notice?
169
491209
2670
08:14
Well, a poor understanding.
170
494443
1492
Nos, a gyenge megértés.
08:16
If you don't understand the risks, you don't understand the costs,
171
496642
3144
Ha nem érted a rizikókat, nem érted a költségeket,
08:19
you're likely to get the trade-off wrong,
172
499810
2157
valószínűleg rossz kompromisszumot fogsz kötni,
08:21
and your feeling doesn't match reality.
173
501991
2488
és az érzésed nem felel meg a valóságnak.
08:24
Not enough examples.
174
504503
1737
Nincs elég példa.
08:26
There's an inherent problem with low-probability events.
175
506879
3506
Létezik egy vele járó probléma
az alacsony valószínűségű eseményekkel.
08:30
If, for example, terrorism almost never happens,
176
510919
3813
Ha például
a terrorizmus szinte soha nem történik meg,
08:34
it's really hard to judge the efficacy of counter-terrorist measures.
177
514756
4604
nagyon nehéz megítélni
a terrorellenes intézkedések hatékonyságát.
08:40
This is why you keep sacrificing virgins,
178
520523
3563
Ezért folytatják a szűzek feláldozását,
és ezért működnek olyan jól az egyszarvú védelmek.
08:44
and why your unicorn defenses are working just great.
179
524110
2675
08:46
There aren't enough examples of failures.
180
526809
2557
Nincs elég példa a kudarcokra.
Szintén, az érzések elfedik a problémákat --
08:51
Also, feelings that cloud the issues --
181
531109
2787
08:53
the cognitive biases I talked about earlier: fears, folk beliefs --
182
533920
4028
azok az észlelési előítéletek, amikről beszéltem előbb,
félelmek, népi hiedelmek,
08:58
basically, an inadequate model of reality.
183
538727
2745
valójában egy nem megfelelő valóságmodell.
Engedjék meg, hogy komplikáljam a dolgokat.
09:03
So let me complicate things.
184
543403
2171
09:05
I have feeling and reality.
185
545598
1977
Van érzés és valóság.
09:07
I want to add a third element. I want to add "model."
186
547599
2796
Egy harmadik elemet akarok hozzáadni, a modellt.
09:10
Feeling and model are in our head,
187
550839
2350
Érzés és modell a fejünkben,
a valóság pedig a külvilág.
09:13
reality is the outside world; it doesn't change, it's real.
188
553213
3452
Az nem vátozik; az valós.
09:17
Feeling is based on our intuition,
189
557800
2214
Tehát az érzés az intuícióra alapszik.
A modell a gondolkodásra alapszik.
09:20
model is based on reason.
190
560038
1626
Ez tulajdonképpen a különbség.
09:22
That's basically the difference.
191
562383
2039
09:24
In a primitive and simple world,
192
564446
1977
Egy primitiv és egyszerű világban
09:26
there's really no reason for a model,
193
566447
2137
nincs igazán szükség a modellre.
Mert az érzés közel van a valósághoz.
09:30
because feeling is close to reality.
194
570253
2295
09:32
You don't need a model.
195
572572
1373
Nincs szükséged modellre.
09:34
But in a modern and complex world,
196
574596
2150
De egy modern és komplex világban,
szükséged van modellekre,
09:37
you need models to understand a lot of the risks we face.
197
577556
3650
hogy megérts egy csomó rizikót, azokból amikkel szembesülünk.
09:42
There's no feeling about germs.
198
582362
2284
Nem létezik érzés a baktériumokról.
Szükséged van egy modellre, hogy megértsd őket.
09:45
You need a model to understand them.
199
585110
2116
Tehát ez a modell
09:48
This model is an intelligent representation of reality.
200
588157
3678
egy intelligens ábrázolása a valóságnak.
09:52
It's, of course, limited by science, by technology.
201
592411
4751
Természetesen, a tudomány és
a technológia határolja be.
Nem lehetett bakteriális elméletünk a betegségekről,
09:58
We couldn't have a germ theory of disease
202
598249
2326
10:00
before we invented the microscope to see them.
203
600599
2534
mielőtt feltaláltuk a mikroszkópot, amivel láthattuk őket.
10:04
It's limited by our cognitive biases.
204
604316
2643
Az észlelési hajlamaink határolják be.
De megvan az a képessége,
10:08
But it has the ability to override our feelings.
205
608110
2991
hogy felülírja az érzéseinket.
10:11
Where do we get these models? We get them from others.
206
611507
3104
Honnan kapjuk ezeket a modelleket? Másoktól kapjuk.
10:14
We get them from religion, from culture, teachers, elders.
207
614635
5219
A vallástól, a kúltúrából,
tanároktól, idősebbektől.
Egy pár éve,
10:20
A couple years ago, I was in South Africa on safari.
208
620298
3426
Dél-Afrikában voltam szafarin.
10:23
The tracker I was with grew up in Kruger National Park.
209
623748
2762
A nyomkereső akivel voltam a Kruger Nemzeti Parkban nőtt fel.
10:26
He had some very complex models of how to survive.
210
626534
2753
Néhány nagyon komplex túlélési modellje volt.
10:29
And it depended on if you were attacked by a lion, leopard, rhino, or elephant --
211
629800
3913
És attól függött, hogy mi támadott meg:
egy oroszlán vagy egy leopárd vagy egy orrszarvú vagy egy elefánt --
10:33
and when you had to run away, when you couldn't run away,
212
633737
2734
és mikor kell elszaladni, és mikor kell fára mászni --
10:36
when you had to climb a tree, when you could never climb a tree.
213
636495
3083
illetve mikor nem szabad soha fára mászni.
Én egy nap alatt meghaltam volna,
10:39
I would have died in a day.
214
639602
1349
de ő ott nőtt fel,
10:42
But he was born there, and he understood how to survive.
215
642160
3782
és megértette hogyan kell életben maradni.
Én New York-ban születtem.
10:46
I was born in New York City.
216
646490
1596
Elvihettem volna őt New York-ba és ő halt volna meg egy nap alatt.
10:48
I could have taken him to New York, and he would have died in a day.
217
648110
3251
(Nevetés)
10:51
(Laughter)
218
651385
1001
10:52
Because we had different models based on our different experiences.
219
652410
4144
Mivel különböző modelljeink voltak
a különböző tapasztalatainkra alapozva.
10:58
Models can come from the media,
220
658291
2469
A modellek származhatnak a médiából,
11:00
from our elected officials ...
221
660784
1763
a választott hivatalnokoktól.
11:03
Think of models of terrorism,
222
663234
3081
Gondoljanak a terrorizmus modellekre,
11:06
child kidnapping,
223
666339
2197
gyermekrablásra,
11:08
airline safety, car safety.
224
668560
2325
repülés biztonságra, autós biztonságra.
11:11
Models can come from industry.
225
671539
1993
A modellek jöhetnek az iparból.
11:14
The two I'm following are surveillance cameras,
226
674348
3218
Kettő amit követek: a biztonsági kamerák,
azonosító kártyák,
11:17
ID cards,
227
677590
1496
elég sok számítógépes biztonsági modell jön onnan.
11:19
quite a lot of our computer security models come from there.
228
679110
3130
Egy csomó modell jön a tudományból.
11:22
A lot of models come from science.
229
682264
2227
11:24
Health models are a great example.
230
684515
1837
Az egészségi modellek nagyon jó példák.
11:26
Think of cancer, bird flu, swine flu, SARS.
231
686376
3026
Gondoljanak a rákra, a madár vagy sertés influenzára, az atípusos tüdőgyulladásra.
11:29
All of our feelings of security about those diseases
232
689942
4870
Az összes biztonsági érzésünk
ezekről a betegségekről
11:34
come from models given to us, really, by science filtered through the media.
233
694836
4655
a modellektől származnak,
amiket a média által megszűrt tudománytól kaptunk.
Tehát a modellek változhatnak.
11:41
So models can change.
234
701038
1720
11:43
Models are not static.
235
703482
2103
A modellek nem statikusak.
11:45
As we become more comfortable in our environments,
236
705609
3240
Ahogy jobban megszokjuk a környezetünket
11:48
our model can move closer to our feelings.
237
708873
3602
a modelljeink közeledhetnek az érzéseinkhez.
11:53
So an example might be,
238
713965
2340
Egy példa lehetne ez:
ha visszamennénk 100 évet,
11:56
if you go back 100 years ago,
239
716329
1596
11:57
when electricity was first becoming common,
240
717949
3428
amikor az elektromosság először kezdett elterjedni,
sok félelem volt vele kapcsolatban.
12:01
there were a lot of fears about it.
241
721401
1703
Voltak emberek akik féltek megnyomni a csengő gombját,
12:03
There were people who were afraid to push doorbells,
242
723128
2478
mivel elektromosság volt benne, és az veszélyes volt.
12:05
because there was electricity in there, and that was dangerous.
243
725630
3005
Mi már könnyedén vesszük az elektromosságot.
12:08
For us, we're very facile around electricity.
244
728659
2869
Villanykörtéket cserélünk ki
12:11
We change light bulbs without even thinking about it.
245
731552
2818
gondolkodás nélkül.
12:14
Our model of security around electricity is something we were born into.
246
734948
6163
A mi elektromosság biztonsági modellünk
olyasmi amibe mi beleszülettünk.
12:21
It hasn't changed as we were growing up.
247
741735
2514
Nem változott amíg felnőttünk.
12:24
And we're good at it.
248
744273
1565
És jók vagyunk benne.
12:27
Or think of the risks on the Internet across generations --
249
747380
4499
Vagy gondoljanak az Internet rizikóira
a generációkon át --
12:31
how your parents approach Internet security,
250
751903
2097
hogyan viszonyulnak a szüleik az Internet biztonsághoz,
ellentétben önökkel,
12:34
versus how you do,
251
754024
1616
12:35
versus how our kids will.
252
755664
1542
ellentétben azzal, ahogy gyermekeink fognak.
12:38
Models eventually fade into the background.
253
758300
2550
A modellek végül beleolvadnak a háttérbe.
12:42
"Intuitive" is just another word for familiar.
254
762427
2493
Az ösztönösség csak egy másik szó a megszokottra.
12:45
So as your model is close to reality and it converges with feelings,
255
765887
3850
Tehát ahogy a modelljük közeledik a valósághoz,
és közelít az érzésekhez,
12:49
you often don't even know it's there.
256
769761
1918
sokszor nem is tudják, hogy ott van.
Egy jó példa erre
12:53
A nice example of this came from last year and swine flu.
257
773239
3817
a tavalyi sertés influenza volt.
Amikor a sertés influenza először megjelent,
12:58
When swine flu first appeared,
258
778281
2000
az első hírek sok túlreagálást okoztak.
13:00
the initial news caused a lot of overreaction.
259
780305
2618
13:03
Now, it had a name,
260
783562
1978
Aztán lett egy neve,
13:05
which made it scarier than the regular flu,
261
785564
2050
amitől ijesztőbb lett mint a közönséges influenza,
13:07
even though it was more deadly.
262
787638
1567
habár halálosabb volt.
13:09
And people thought doctors should be able to deal with it.
263
789784
3208
És az emberek azt gondolták, hogy az orvosok majd megbirkóznak vele.
13:13
So there was that feeling of lack of control.
264
793459
2524
Tehát az ellenőrzés hiányának az érzése volt.
És ez a két dolog
13:16
And those two things made the risk more than it was.
265
796007
3109
felnagyította a rizikót.
13:19
As the novelty wore off and the months went by,
266
799140
3557
Ahogy az újdonság elkopott, teltek a hónapok,
13:22
there was some amount of tolerance; people got used to it.
267
802721
2843
létezett egy adag tolerancia,
az emberek hozzászoktak.
13:26
There was no new data, but there was less fear.
268
806355
2670
Nem voltak új adatok, de kevesebb volt a félelem.
13:29
By autumn,
269
809681
2174
Őszre
13:31
people thought the doctors should have solved this already.
270
811879
3382
az emberek azt gondolták,
hogy az orvosoknak már meg kellet volna oldani ezt.
13:35
And there's kind of a bifurcation:
271
815722
1960
És itt van egy fajta elágazás --
13:37
people had to choose between fear and acceptance --
272
817706
5751
az embereknek választani kellett
a félelem és az elfogadás között --
tulajdonképpen a félelem és a közöny között --
13:44
actually, fear and indifference --
273
824512
1644
és valahogy a gyanút választották.
13:46
and they kind of chose suspicion.
274
826180
1795
És amikor az oltás megjelent a múlt télen,
13:49
And when the vaccine appeared last winter,
275
829110
3111
nagyon sok ember -- meglepő számban --
13:52
there were a lot of people -- a surprising number --
276
832245
2511
13:54
who refused to get it.
277
834780
1797
visszautasította az oltást --
13:58
And it's a nice example of how people's feelings of security change,
278
838777
3656
mintegy szép példként arra,
hogyan változik az emberek biztonsági érzése és modellje,
14:02
how their model changes,
279
842457
1603
elég vadul,
14:04
sort of wildly,
280
844084
1668
14:05
with no new information, with no new input.
281
845776
2770
új információ nélkül,
új betáplált adat nélkül.
Ilyen esetek sokszor fordulnak elő.
14:10
This kind of thing happens a lot.
282
850327
1808
Még egy komplikációt vezetek be.
14:13
I'm going to give one more complication.
283
853199
1971
14:15
We have feeling, model, reality.
284
855194
2696
Van érzés, modell, valóság.
14:18
I have a very relativistic view of security.
285
858640
2510
Nekem egy nagyon relativisztikus nézetem van a biztonságról.
Azt gondolom, függ a megfigyelőtől.
14:21
I think it depends on the observer.
286
861174
1814
14:23
And most security decisions have a variety of people involved.
287
863695
5166
És a legtöbb biztonsági döntésbe
változatos emberek vannak érdekelve.
14:29
And stakeholders with specific trade-offs will try to influence the decision.
288
869792
6539
És a résztvevők
a sajátos kompromisszumaikkal
megpróbálják befolyásolni a döntést.
14:36
And I call that their agenda.
289
876355
1681
Én ezt az ő programjuknak nevezem.
És láthatják a programot --
14:39
And you see agenda -- this is marketing, this is politics --
290
879512
3491
ez az értékesítés, ez a politika --
14:43
trying to convince you to have one model versus another,
291
883481
3039
megpróbálnak meggyőzni, hogy ez legyen a modelled és nem az,
14:46
trying to convince you to ignore a model
292
886544
1984
megpróbálnak meggyőzni, hogy mellőzz egy modellt
14:48
and trust your feelings,
293
888552
2672
és bízz az érzéseidben,
14:51
marginalizing people with models you don't like.
294
891248
2504
kiszorítva az embereket akiknek modelljét nem szereted.
14:54
This is not uncommon.
295
894744
1516
Ez nem ritka.
14:57
An example, a great example, is the risk of smoking.
296
897610
3229
Egy nagyon jó példa erre a dohányzás rizikója.
Az elmúlt 50 évben a dohányzás rizikója
15:02
In the history of the past 50 years,
297
902196
1783
15:04
the smoking risk shows how a model changes,
298
904003
2613
megmutatja hogyan változott a modell,
15:06
and it also shows how an industry fights against a model it doesn't like.
299
906640
4358
és azt is megmutatja hogyan harcolt egy iparág
egy modell ellen, amit nem szeretett.
15:11
Compare that to the secondhand smoke debate --
300
911983
3103
Hasonlítsák ezt össze a passzív dohányzás vitával --
valószínüleg 20 évvel lemeradva.
15:15
probably about 20 years behind.
301
915110
1953
15:17
Think about seat belts.
302
917982
1615
Gondoljanak a biztonsági övre.
15:19
When I was a kid, no one wore a seat belt.
303
919621
2024
Amikor gyerek voltam, senki nem használt biztonsági övet.
15:21
Nowadays, no kid will let you drive if you're not wearing a seat belt.
304
921669
3541
Manapság egy gyermek se enged vezetni,
ha nem használod a biztonsági övet.
15:26
Compare that to the airbag debate,
305
926633
2453
Hasonlítsák ezt össze a légzsák vitával --
valószínüleg 30 évvel lemeradva.
15:29
probably about 30 years behind.
306
929110
1667
Mind példák a modellek változására.
15:32
All examples of models changing.
307
932006
2088
15:36
What we learn is that changing models is hard.
308
936855
2796
Megtanultuk, hogy nehéz a modelleket megváltoztatni.
Nehéz a modelleket kimozdítani.
15:40
Models are hard to dislodge.
309
940334
2053
Ha a modellek megfelelnek az érzéseiknek,
15:42
If they equal your feelings,
310
942411
1675
nem is tudják, hogy van egy modelljük.
15:44
you don't even know you have a model.
311
944110
1899
És van egy másik észlelési előítélet,
15:47
And there's another cognitive bias
312
947110
1886
amit én igazolási előítéletnek nevezek,
15:49
I'll call confirmation bias,
313
949020
2066
ahol hajlamosak vagyunk elfogadni az olyan adatot,
15:51
where we tend to accept data that confirms our beliefs
314
951110
4361
amelyik igazolja a hiedelmeinket
15:55
and reject data that contradicts our beliefs.
315
955495
2437
és elutasítjuk az olyan adatot amelyik ellentmond nekik.
15:59
So evidence against our model, we're likely to ignore,
316
959490
3935
Tehát valószínűleg mellőzük a modellünk
elleni bizonyítékot, még ha ellenállhatatlan is.
16:03
even if it's compelling.
317
963449
1248
16:04
It has to get very compelling before we'll pay attention.
318
964721
3005
Nagyon ellenállhatatlanná kell váljon mielőtt figyelembe vesszük.
16:08
New models that extend long periods of time are hard.
319
968990
2597
Nagyon nehezek az új, hosszú időre szóló modellek.
A globális felmelegedés egy kiváló példa.
16:11
Global warming is a great example.
320
971611
1754
Szörnyűek vagyunk a 80 évet
16:13
We're terrible at models that span 80 years.
321
973389
3442
felölelő modellekben.
16:16
We can do "to the next harvest."
322
976855
2063
A következő aratásig tartunk ki.
16:18
We can often do "until our kids grow up."
323
978942
2306
Gyakran kitartunk, mít a gyermekeink felnőnek.
16:21
But "80 years," we're just not good at.
324
981760
2201
De 80 év, egyszerűen nem vagyunk jók ebben.
16:24
So it's a very hard model to accept.
325
984975
2302
Tehát ez egy nagyon nehezen elfogadható modell.
16:27
We can have both models in our head simultaneously --
326
987999
2946
Lehet a fejünkben egyszerre mindkét modell,
16:31
that kind of problem where we're holding both beliefs together,
327
991912
6948
vagy az a fajta probléma,
amikor két dologban hiszünk egyszerre,
vagy a kognitív disszonancia.
16:38
the cognitive dissonance.
328
998884
1370
Végül,
16:40
Eventually, the new model will replace the old model.
329
1000278
3156
az új modell helyetesíteni fogja a régi modellt.
16:44
Strong feelings can create a model.
330
1004164
2190
Erős érzések létrehozhatnak egy modellt.
16:47
September 11 created a security model in a lot of people's heads.
331
1007411
5363
Szeptember 11.-e létrehozott egy biztonsági modellt
sok ember fejében.
16:52
Also, personal experiences with crime can do it,
332
1012798
3288
Személyes bűnügyi tapasztalat szintén megteheti,
személyes egészségügyi ijedelem,
16:56
personal health scare,
333
1016110
1379
16:57
a health scare in the news.
334
1017513
1466
egy egészségügyi pánik a hírekben.
Láthatják ezeket a pszichiáterek által
17:00
You'll see these called "flashbulb events" by psychiatrists.
335
1020198
3345
villanólámpa eseményeknek nevezett dolgokat.
Létrehozhatnak egy modellt azonnal,
17:04
They can create a model instantaneously,
336
1024183
2461
17:06
because they're very emotive.
337
1026668
1761
mert nagyon érzelmileg színezettek.
17:09
So in the technological world,
338
1029908
1588
Tehát a technológiai világban
17:11
we don't have experience to judge models.
339
1031520
3237
nincs tapasztalatunk,
hogy megítéljük a modelleket.
17:15
And we rely on others. We rely on proxies.
340
1035124
2933
És másokban bízunk. Közvetítőkben bízunk.
Vagyis ez addig működik amíg másokat javítunk ki.
17:18
And this works, as long as it's the correct others.
341
1038081
2619
17:21
We rely on government agencies
342
1041183
2682
Kormányhivatalokban bízunk,
17:23
to tell us what pharmaceuticals are safe.
343
1043889
4404
hogy megmondják nekünk melyik gyógyszerek biztonságosak.
17:28
I flew here yesterday.
344
1048317
1913
Tegnap repültem ide.
17:30
I didn't check the airplane.
345
1050254
1762
Nem ellenőriztem a repülőt.
17:32
I relied on some other group
346
1052699
2595
Megbíztam egy másik csoportban,
hogy megállapítsa repülhet-e az én gépem.
17:35
to determine whether my plane was safe to fly.
347
1055318
2437
17:37
We're here, none of us fear the roof is going to collapse on us,
348
1057779
3298
Itt vagyunk, senki se fél, hogy a tető ránk fog szakadni,
nem azért mert ellenőriztük volna,
17:41
not because we checked,
349
1061101
2205
17:43
but because we're pretty sure the building codes here are good.
350
1063330
3672
hanem mert elég biztosak vagyunk abban,
hogy az építési szabályok megfelelőek itt.
17:48
It's a model we just accept
351
1068442
2989
Ez egy modell, amit simán elfogadunk
nagyjából hit alapján.
17:51
pretty much by faith.
352
1071455
1360
És ez rendben van.
17:53
And that's OK.
353
1073331
1358
17:57
Now, what we want is people to get familiar enough with better models,
354
1077966
5873
Nos, amit akarunk az az,
hogy az emberek elég jártasak legyenek
a megfelelőbb modellekben --
18:03
have it reflected in their feelings,
355
1083863
2120
ez jelenjen meg az érzéseikben --
hogy meg tudják hozni a biztonsági döntéseiket.
18:06
to allow them to make security trade-offs.
356
1086007
3002
Amikor ezek nem működnek,
18:10
When these go out of whack, you have two options.
357
1090110
3719
két lehetőségünk van.
18:13
One, you can fix people's feelings, directly appeal to feelings.
358
1093853
4233
Első, megjavíthatjuk az emberek érzéseit,
egyenesen az érzésekhez fordulhatunk.
Ez manipuláció, de működhet.
18:18
It's manipulation, but it can work.
359
1098110
2406
A második, becsületesebb út,
18:21
The second, more honest way
360
1101173
2191
a modell megjavítása.
18:23
is to actually fix the model.
361
1103388
1773
18:26
Change happens slowly.
362
1106720
2101
A változás lassan történik.
18:28
The smoking debate took 40 years -- and that was an easy one.
363
1108845
4378
A dohányzás vita 40 évet tartott,
és az egy könnyű eset volt.
Egyes dolgok nehezek.
18:35
Some of this stuff is hard.
364
1115195
1813
Vagyis nagyon nehezek,
18:37
Really, though, information seems like our best hope.
365
1117496
3756
az információ tűnik a legjobb reményünknek.
És hazudtam.
18:41
And I lied.
366
1121276
1272
18:42
Remember I said feeling, model, reality; reality doesn't change?
367
1122572
4020
Emlékezenk, amikor azt mondtam: érzés, modell, valóság.
Azt mondtam a valóság nem változik. De igen, változik.
18:46
It actually does.
368
1126616
1375
Egy technológiai világban élünk,
18:48
We live in a technological world;
369
1128015
1714
18:49
reality changes all the time.
370
1129753
2338
a valóság állandóan változik.
18:52
So we might have, for the first time in our species:
371
1132887
2977
És talán -- fajunk esetében először -- az történik, hogy
18:55
feeling chases model, model chases reality, reality's moving --
372
1135888
3183
az érzés üldözi a modellt, a modell üldözi a valóságot, a valóság mozog --
talán soha nem érik egymást utol.
18:59
they might never catch up.
373
1139095
1533
19:02
We don't know.
374
1142180
1328
Nem tudjuk.
De hosszútávon,
19:05
But in the long term,
375
1145614
1603
mind az érzés, mind a valóság fontosak.
19:07
both feeling and reality are important.
376
1147241
2204
19:09
And I want to close with two quick stories to illustrate this.
377
1149469
3233
És befejezésül két rövid történettel fogom ezt ábrázolni.
19:12
1982 -- I don't know if people will remember this --
378
1152726
2479
1982 -- nem tudom, hogy az emberek emlékni fognak erre --
akkor volt egy rövid Tylenol
19:15
there was a short epidemic of Tylenol poisonings
379
1155229
3370
mérgezési járvány az USA-ban.
19:18
in the United States.
380
1158623
1196
19:19
It's a horrific story.
381
1159843
1361
Egy borzasztó történet. Valaki fogott egy Tylenol-os üveget,
19:21
Someone took a bottle of Tylenol,
382
1161228
2079
mérget tett bele, lezárta, visszatette a polcra.
19:23
put poison in it, closed it up, put it back on the shelf,
383
1163331
3002
Valaki más megvette és meghalt.
19:26
someone else bought it and died.
384
1166357
1558
19:27
This terrified people.
385
1167939
1673
Ez megrémísztette az embereket.
19:29
There were a couple of copycat attacks.
386
1169636
2227
Volt egy pár másolós támadás is.
19:31
There wasn't any real risk, but people were scared.
387
1171887
2845
Nem volt igazi rizikó, de az emberek meg voltak rémülve.
19:34
And this is how the tamper-proof drug industry was invented.
388
1174756
3876
És így jött létre a biztonsági
kupakkal lezárt gyógyszerek iparága.
19:38
Those tamper-proof caps? That came from this.
389
1178656
2229
Azok a biztonsági kupakok ebből származnak.
19:40
It's complete security theater.
390
1180909
1571
Ez egy teljes biztonsági előadás.
19:42
As a homework assignment, think of 10 ways to get around it.
391
1182504
2891
És házi feladatnak gondoljanak ki 10 módot ennek megkerülésére.
Egyet megadok: a fecskendő.
19:45
I'll give you one: a syringe.
392
1185419
1891
19:47
But it made people feel better.
393
1187334
2781
De az emberek jobban érezték magukat tőle.
19:50
It made their feeling of security more match the reality.
394
1190744
3702
A biztonság érzésüket jobban
közelítette a valósághoz.
Utolsó történet, egy pár éve, egy barátnőm szült.
19:55
Last story: a few years ago, a friend of mine gave birth.
395
1195390
2934
Meglátogattam a kórházban.
19:58
I visit her in the hospital.
396
1198348
1397
19:59
It turns out, when a baby's born now,
397
1199769
1923
Kiderült, hogy most amikor egy csecsemő születik,
20:01
they put an RFID bracelet on the baby, a corresponding one on the mother,
398
1201716
3563
tesznek egy RFID-es karkötőt a csecsemőre [RFID = rádiófrekvenciás azonosító]
a párját meg az anyára teszik,
20:05
so if anyone other than the mother takes the baby out of the maternity ward,
399
1205303
3620
tehát ha bárki más az anyán kivül kivinné a csecsemőt a szülészetről,
megszólal a riasztó.
20:08
an alarm goes off.
400
1208947
1158
Azt mondtam: "Nos, ez elegáns.
20:10
I said, "Well, that's kind of neat.
401
1210129
1729
20:11
I wonder how rampant baby snatching is out of hospitals."
402
1211882
3970
Kiváncsi vagyok mennyire burjánzó
a csecsemők rablása a kórházakból."
20:15
I go home, I look it up.
403
1215876
1236
Haza mentem, rákerestem.
20:17
It basically never happens.
404
1217136
1525
Tulajdonképpen, soha nem történik ilyen.
20:18
(Laughter)
405
1218685
1844
De, ha belegondolnak,
20:20
But if you think about it, if you are a hospital,
406
1220553
2843
ha ön egy kórház volna,
20:23
and you need to take a baby away from its mother,
407
1223420
2380
és el kellene vegye a csecsemőt az anyától,
20:25
out of the room to run some tests,
408
1225824
1781
ki a szobából, valamilyen vizsgálatok miatt,
20:27
you better have some good security theater,
409
1227629
2050
hát legyen valamilyen jó biztonsági előadása,
20:29
or she's going to rip your arm off.
410
1229703
1945
vagy máskülönben az anya letépi a karját.
20:31
(Laughter)
411
1231672
1533
(Nevetés)
Tehát fontos számunkra,
20:34
So it's important for us,
412
1234161
1717
20:35
those of us who design security,
413
1235902
2135
akik a biztonságot tervezik,
akik a biztonsági szabályokat hozzák,
20:38
who look at security policy --
414
1238061
2031
20:40
or even look at public policy in ways that affect security.
415
1240946
3308
vagy akár a közpolitikát úgy módosítják,
hogy érinti a biztonságot.
Nem csak valóság, hanem érzés és valóság.
20:45
It's not just reality; it's feeling and reality.
416
1245006
3416
Ami fontos,
20:48
What's important
417
1248446
1865
hogy ezek körülbelül egyformák legyenek.
20:50
is that they be about the same.
418
1250335
1545
20:51
It's important that, if our feelings match reality,
419
1251904
2531
Fontos, hogy ha érzésünk megfelel a valóságnak,
akkor jobb biztonsági döntéseket hozunk.
20:54
we make better security trade-offs.
420
1254459
1873
Köszönöm.
20:56
Thank you.
421
1256711
1153
20:57
(Applause)
422
1257888
2133
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7