Bruce Schneier: The security mirage

78,218 views ・ 2011-04-27

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Joyce van der Hoorn Nagekeken door: Thomas Rin
Veiligheid bestaat uit twee dingen:
00:16
So, security is two different things:
0
16010
2276
Je gevoel en de realiteit.
00:18
it's a feeling, and it's a reality.
1
18310
2526
En deze zijn verschillend.
00:20
And they're different.
2
20860
1425
Je kan je veilig voelen
00:22
You could feel secure even if you're not.
3
22309
3427
als je dit niet bent.
00:25
And you can be secure
4
25760
1976
En je kan veilig zijn
00:27
even if you don't feel it.
5
27760
1850
maar je niet zo voelen.
00:29
Really, we have two separate concepts
6
29634
2117
Echt, we hebben twee verschillende concepten
00:31
mapped onto the same word.
7
31775
1652
en slechts één woord.
00:33
And what I want to do in this talk is to split them apart --
8
33960
3626
En wat ik in dit gesprek wil doen
is deze twee concepten splitsen --
00:37
figuring out when they diverge and how they converge.
9
37610
3610
Ontdekken wanneer ze niet samengaan
en hoe ze samenkomen.
00:41
And language is actually a problem here.
10
41711
2275
En taal is eigenlijk een probleem hier.
Er zijn niet veel goede woorden
00:44
There aren't a lot of good words
11
44010
2076
voor de concepten waar we over gaan praten.
00:46
for the concepts we're going to talk about.
12
46110
2061
Dus als je naar veiligheid kijkt
00:49
So if you look at security from economic terms,
13
49295
4120
vanuit een economisch perspectief,
dan krijg je een afweging.
00:53
it's a trade-off.
14
53439
1647
Elke keer dat je veiligheid krijgt,
00:55
Every time you get some security, you're always trading off something.
15
55110
4132
ben je iets aan het opofferen.
Of dit een persoonlijke beslissing is --
00:59
Whether this is a personal decision --
16
59266
1845
wanneer je bijvoorbeeld een alarminstallatie laat aanbrengen thuis --
01:01
whether you're going to install a burglar alarm in your home --
17
61135
3012
of een nationale beslissing -- of je een ander land gaat binnenvallen --
01:04
or a national decision,
18
64171
1157
01:05
where you're going to invade a foreign country --
19
65352
2310
je gaat er iets voor opofferen,
01:07
you're going to trade off something: money or time, convenience, capabilities,
20
67686
3782
zoals geld of tijd, comfort, capaciteiten,
misschien belangrijke vrijheden.
01:11
maybe fundamental liberties.
21
71492
2002
01:13
And the question to ask when you look at a security anything
22
73518
3274
En de vraag die je moet stellen als je naar zo'n veiligheidssituatie kijkt
01:16
is not whether this makes us safer,
23
76816
3382
is niet of je hier veiliger van wordt,
maar of het het offer wel waard is.
01:20
but whether it's worth the trade-off.
24
80222
2215
01:22
You've heard in the past several years, the world is safer
25
82461
3229
Je hebt in de afgelopen paar jaar wel eens gehoord
dat de wereld veiliger is omdat Saddam Hoessein niet meer aan de macht is.
01:25
because Saddam Hussein is not in power.
26
85714
1890
Dat is misschien waar, maar het is niet heel erg relevant.
01:27
That might be true, but it's not terribly relevant.
27
87628
2603
De vraag is: Was het het waard?
01:30
The question is: Was it worth it?
28
90255
2831
En daar kan je je eigen besluit in nemen,
01:33
And you can make your own decision,
29
93110
2459
01:35
and then you'll decide whether the invasion was worth it.
30
95593
2733
dan beslis jij of de invasie de moeite waard was.
Dat is hoe je over veiligheid moet denken --
01:38
That's how you think about security: in terms of the trade-off.
31
98350
3561
wat betreft de afweging.
01:41
Now, there's often no right or wrong here.
32
101935
2610
Nu is er vaak geen goed of fout hier.
Sommigen onder ons hebben een inbraakalarm thuis,
01:45
Some of us have a burglar alarm system at home and some of us don't.
33
105208
3308
en sommigen niet.
01:48
And it'll depend on where we live,
34
108540
2731
En dat hangt af van waar we wonen,
of we er alleen wonen of met een gezin,
01:51
whether we live alone or have a family,
35
111295
1926
hoeveel coole spullen we hebben,
01:53
how much cool stuff we have,
36
113245
1668
01:54
how much we're willing to accept the risk of theft.
37
114937
3165
in hoeverre we het risico
van diefstal willen accepteren.
01:58
In politics also, there are different opinions.
38
118943
2948
In de politiek is dat ook zo,
er zijn verschillende meningen.
02:02
A lot of times, these trade-offs are about more than just security,
39
122459
4435
En heel vaak gaan deze afwegingen
om meer dan alleen veiligheid,
02:06
and I think that's really important.
40
126918
1865
en ik denk dat dat belangrijk is.
02:08
Now, people have a natural intuition about these trade-offs.
41
128807
3308
Mensen hebben een natuurlijke intuïtie
bij deze afwegingen.
02:12
We make them every day.
42
132588
1556
We doen het iedere dag --
02:14
Last night in my hotel room, when I decided to double-lock the door,
43
134807
3533
vannacht in mijn hotelkamer,
toen ik besloot de deur dubbel op slot te doen,
02:18
or you in your car when you drove here;
44
138364
2000
of toen je met de auto hierheen reed,
als we gaan lunchen
02:21
when we go eat lunch
45
141191
1478
02:22
and decide the food's not poison and we'll eat it.
46
142693
2608
en we beslissen dat het voedsel niet giftig is en het opeten.
02:25
We make these trade-offs again and again,
47
145325
3161
We maken heel vaak afwegingen
meerdere keren per dag.
02:28
multiple times a day.
48
148510
1576
We merken het vaak zelfs niet op.
02:30
We often won't even notice them.
49
150110
1589
02:31
They're just part of being alive; we all do it.
50
151723
2626
Het is een onderdeel van ons leven; we doen het allemaal.
Elke diersoort doet het.
02:34
Every species does it.
51
154373
1555
02:36
Imagine a rabbit in a field, eating grass.
52
156474
2862
Stel je een konijn voor dat gras aan het eten is in een veld,
en dit konijn ziet een vos.
02:39
And the rabbit sees a fox.
53
159360
1943
02:41
That rabbit will make a security trade-off:
54
161856
2049
Dit konijn zal een veiligheidsoverweging maken:
02:43
"Should I stay, or should I flee?"
55
163929
1904
"Moet ik blijven of moet ik vluchten?"
En als je erover nadenkt,
02:46
And if you think about it,
56
166380
1619
dan zijn de konijnen die hier goed in zijn
02:48
the rabbits that are good at making that trade-off
57
168023
2555
02:50
will tend to live and reproduce,
58
170602
1978
de konijnen die blijven leven en zich voortplanten.
02:52
and the rabbits that are bad at it
59
172604
2307
En de konijnen die er niet goed in zijn
02:54
will get eaten or starve.
60
174935
1474
zullen opgegeten worden of omkomen van de honger.
02:56
So you'd think
61
176958
1608
Dus je zou denken
dat wij, als een succesvol diersoort op de planeet --
02:59
that us, as a successful species on the planet -- you, me, everybody --
62
179573
4309
jij, ik, iedereen --
03:03
would be really good at making these trade-offs.
63
183906
2573
heel goed zijn in het maken van deze overwegingen.
Maar het lijkt er telkens weer op
03:07
Yet it seems, again and again, that we're hopelessly bad at it.
64
187126
3104
dat we er hopeloos slecht in zijn.
03:11
And I think that's a fundamentally interesting question.
65
191768
2802
En ik denk dat dat een hele interessante kwestie is.
03:14
I'll give you the short answer.
66
194594
1873
Ik leg het even kort uit.
03:16
The answer is, we respond to the feeling of security
67
196491
2651
Het is zo, dat we reageren op het gevoel van veiligheid
en niet op de realiteit.
03:19
and not the reality.
68
199166
1518
03:21
Now, most of the time, that works.
69
201864
2696
Meestal werkt dat.
03:25
Most of the time,
70
205538
1503
Meestal zijn ons gevoel
03:27
feeling and reality are the same.
71
207065
2133
en de realiteit hetzelfde.
03:30
Certainly that's true for most of human prehistory.
72
210776
3516
Dat is zeker waar
voor het grootste deel van de menselijke geschiedenis.
03:35
We've developed this ability
73
215633
2708
We hebben de eigenschap ontwikkeld
03:38
because it makes evolutionary sense.
74
218365
2584
omdat het, evolutionair gezien, logisch is.
Een manier om erover na te denken
03:41
One way to think of it is that we're highly optimized
75
221985
3274
is dat we geoptimaliseerd zijn
voor risicovolle beslissingen
03:45
for risk decisions
76
225283
1803
die heel belangrijk zijn om in kleine groepen te leven
03:47
that are endemic to living in small family groups
77
227110
2543
03:49
in the East African Highlands in 100,000 BC.
78
229677
2536
in de Oost-Afrikaanse hooglanden in het jaar 100.000 voor Christus --
03:52
2010 New York, not so much.
79
232792
2659
niet voor New York anno 2010.
03:56
Now, there are several biases in risk perception.
80
236879
3206
Nu zijn er wat vooroordelen bij het waarnemen van risico's.
Er zijn veel goede experimenten geweest hierover.
04:00
A lot of good experiments in this.
81
240109
1741
04:01
And you can see certain biases that come up again and again.
82
241874
3603
En er zijn een aantal vooroordelen die telkens weer naar voren komen.
Dus ik zal er vier met jullie delen.
04:05
I'll give you four.
83
245501
1353
04:06
We tend to exaggerate spectacular and rare risks
84
246878
3208
We neigen spectaculaire en zeldzame risico's te overdrijven
en de dagelijkse risico's te bagatelliseren --
04:10
and downplay common risks --
85
250110
1976
bijvoorbeeld vliegen versus autorijden.
04:12
so, flying versus driving.
86
252110
1518
04:14
The unknown is perceived to be riskier than the familiar.
87
254451
3794
het onbekende wordt ingeschat
als risicovoller dan het dagelijkse.
Een voorbeeld:
04:21
One example would be:
88
261470
1439
04:22
people fear kidnapping by strangers,
89
262933
2613
Mensen zijn bang om ontvoerd te worden door vreemden
04:25
when the data supports that kidnapping by relatives is much more common.
90
265570
3636
terwijl volgens de statistieken ontvoering door familieleden veel vaker voorkomt.
Dit geldt voor kinderen.
04:29
This is for children.
91
269230
1574
04:30
Third, personified risks are perceived to be greater
92
270828
4040
De derde: Gepersonificeerde risico's
worden groter ingeschat dan anonieme risico's --
04:34
than anonymous risks.
93
274892
1503
04:36
So, Bin Laden is scarier because he has a name.
94
276419
2787
dus Bin Laden is enger omdat hij een naam heeft.
En de vierde
04:40
And the fourth is:
95
280182
1363
04:41
people underestimate risks in situations they do control
96
281569
4755
is dat mensen risico's onderschatten
in situaties die ze onder controle hebben
en ze overschatten ze in situaties die ze niet onder controle hebben.
04:46
and overestimate them in situations they don't control.
97
286348
2963
04:49
So once you take up skydiving or smoking,
98
289335
3384
Dus als je begint met skydiven of roken,
04:52
you downplay the risks.
99
292743
1624
dan verwaarloos je de risico's.
Als een risico in je schoot wordt geworpen -- terrorisme was een goed voorbeeld --
04:55
If a risk is thrust upon you -- terrorism is a good example --
100
295037
3053
dan zul je het groter maken dan het is, omdat je geen controle voelt.
04:58
you'll overplay it,
101
298114
1157
04:59
because you don't feel like it's in your control.
102
299295
2339
05:02
There are a bunch of other of these cognitive biases,
103
302157
3493
Er zijn tal van deze vooroordelen, deze cognitieve vooroordelen,
05:05
that affect our risk decisions.
104
305674
2339
die onze risico-beslissingen beïnvloeden.
05:08
There's the availability heuristic,
105
308832
2254
Er is het beschikbaarheidsconcept
wat neerkomt op:
05:11
which basically means we estimate the probability of something
106
311110
4180
We schatten de kans van iets in
05:15
by how easy it is to bring instances of it to mind.
107
315314
3339
door na te gaan hoe vaak je van deze specifieke situatie hebt gehoord.
05:19
So you can imagine how that works.
108
319831
1777
Dus je kunt je voorstellen hoe dat werkt.
05:21
If you hear a lot about tiger attacks, there must be a lot of tigers around.
109
321632
3628
Als je vaak over tijgeraanvallen hoort, dan zullen er wel veel tijgers in de buurt zijn.
Je hoort niemand over leeuwenaanvallen, dus dan zijn er weinig in de buurt.
05:25
You don't hear about lion attacks, there aren't a lot of lions around.
110
325284
3344
Dit werkte totdat de krant werd uitgevonden.
05:28
This works, until you invent newspapers,
111
328652
2297
05:30
because what newspapers do is repeat again and again
112
330973
4406
Want kranten doen het volgende:
Ze herhalen zeldzame risico's
opnieuw en opnieuw.
05:35
rare risks.
113
335403
1406
05:36
I tell people: if it's in the news, don't worry about it,
114
336833
2865
Ik vertel de mensen: Als het in het nieuws is, maak je er dan geen zorgen over.
Want nieuws is per definitie
05:39
because by definition, news is something that almost never happens.
115
339722
4275
iets dat bijna nooit gebeurt.
(Er klinkt gelach)
05:44
(Laughter)
116
344021
1769
05:45
When something is so common, it's no longer news.
117
345814
2923
Als iets dagelijks voorkomt, is het geen nieuws meer --
05:48
Car crashes, domestic violence --
118
348761
2198
autobotsingen, huiselijk geweld --
05:50
those are the risks you worry about.
119
350983
1990
dat zijn de risico's waar je je zorgen om maakt.
05:53
We're also a species of storytellers.
120
353713
2148
Wij mensen houden ook van verhalen vertellen.
05:55
We respond to stories more than data.
121
355885
2115
We reageren eerder op verhalen dan op statistieken.
05:58
And there's some basic innumeracy going on.
122
358514
2406
En er is een soort van cijfer-onkunde aan de gang.
06:00
I mean, the joke "One, two, three, many" is kind of right.
123
360944
3142
Het grapje "Een, Twee, Drie, Veel' klopt eigenlijk wel.
We zijn heel goed in kleine getallen.
06:04
We're really good at small numbers.
124
364110
2322
06:06
One mango, two mangoes, three mangoes,
125
366456
2336
Een mango, twee mango's, drie mango's,
06:08
10,000 mangoes, 100,000 mangoes --
126
368816
1977
tienduizend mango's, honderdduizend mango's --
06:10
it's still more mangoes you can eat before they rot.
127
370817
2977
Het zijn er nog steeds meer dan je kunt eten voordat ze gaan rotten.
06:13
So one half, one quarter, one fifth -- we're good at that.
128
373818
3268
Dus een halve, een kwart, een vijfde -- daar zijn we goed in.
Een op een miljoen, een op een miljard --
06:17
One in a million, one in a billion --
129
377110
1976
Dat is allebei bijna nooit.
06:19
they're both almost never.
130
379110
1575
06:21
So we have trouble with the risks that aren't very common.
131
381546
3414
Dus we hebben moeite met risico's
die niet vaak voorkomen.
06:25
And what these cognitive biases do
132
385760
1977
En wat deze cognitieve vooroordelen doen
06:27
is they act as filters between us and reality.
133
387761
2976
is optreden als filters tussen onszelf en de realiteit.
En het resultaat
06:31
And the result is that feeling and reality get out of whack,
134
391284
3873
is dat het gevoel en de realiteit op hol slaan,
ze worden anders.
06:35
they get different.
135
395181
1384
06:37
Now, you either have a feeling -- you feel more secure than you are,
136
397370
3931
Dus ofwel heb je een gevoel -- je voelt je veiliger dan je echt bent.
Er is een onterecht gevoel van veiligheid.
06:41
there's a false sense of security.
137
401325
1685
Ofwel is het andersom,
06:43
Or the other way, and that's a false sense of insecurity.
138
403034
3374
en dan is er een onterecht gevoel van onveiligheid.
Ik schrijf veel over "veiligheidstheater",
06:47
I write a lot about "security theater,"
139
407015
2880
06:49
which are products that make people feel secure,
140
409919
2680
dat bestaat uit producten die mensen zich veiliger laten voelen
06:52
but don't actually do anything.
141
412623
1977
terwijl die producten niet echt iets doen.
06:54
There's no real word for stuff that makes us secure,
142
414624
2557
Er is niet echt een woord voor dingen die ons veilig maken
maar die ons gevoel van veiligheid niet versterken.
06:57
but doesn't make us feel secure.
143
417205
1881
Misschien is dat wel de taak van de CIA.
06:59
Maybe it's what the CIA is supposed to do for us.
144
419110
2720
07:03
So back to economics.
145
423539
2168
Dus, terug naar de economie.
07:05
If economics, if the market, drives security,
146
425731
3656
Als de economie, de markt, veiligheid bevordert,
07:09
and if people make trade-offs based on the feeling of security,
147
429411
4847
en als mensen dingen opofferen en overwegingen maken,
die gebaseerd zijn op het gevoel van veiligheid,
07:14
then the smart thing for companies to do for the economic incentives
148
434282
4680
dan is het heel slim van de bedrijven
om de economie te stimuleren
07:18
is to make people feel secure.
149
438986
2057
als zij de mensen veilig laten voelen.
07:21
And there are two ways to do this.
150
441942
2330
En er zijn twee manieren om dit te doen.
07:24
One, you can make people actually secure
151
444296
2790
De eerste: je kunt mensen daadwerkelijk veiliger maken
en hopen dat het ze opvalt.
07:27
and hope they notice.
152
447110
1463
07:28
Or two, you can make people just feel secure
153
448597
2844
Of de tweede: je kan mensen zich alleen maar veilig laten voelen
07:31
and hope they don't notice.
154
451465
1872
en hopen dat het ze niet opvalt.
07:34
Right?
155
454401
1375
07:35
So what makes people notice?
156
455800
3141
Dus wat zorgt ervoor dat het opvalt?
Een aantal dingen:
07:39
Well, a couple of things:
157
459500
1382
07:40
understanding of the security,
158
460906
2266
Begrip van veiligheid,
inzicht in de risico's en gevaren,
07:43
of the risks, the threats,
159
463196
1890
begrip van de maatregelen en hoe deze werken.
07:45
the countermeasures, how they work.
160
465110
1874
07:47
But if you know stuff, you're more likely
161
467008
2290
Maar als je deze dingen weet,
dan is de kans groot dat jouw gevoel klopt met de realiteit.
07:50
to have your feelings match reality.
162
470155
2226
Genoeg voorbeelden uit de echte wereld helpen ook.
07:53
Enough real-world examples helps.
163
473110
3145
We weten allemaal hoeveel criminaliteit er in onze buurten is,
07:56
We all know the crime rate in our neighborhood,
164
476279
2559
07:58
because we live there, and we get a feeling about it
165
478862
2801
omdat we er wonen, en we krijgen er een gevoel bij
08:01
that basically matches reality.
166
481687
1869
dat ongeveer klopt met de werkelijkheid.
Veiligheidstheater wordt blootgegeven
08:05
Security theater is exposed
167
485038
2207
08:07
when it's obvious that it's not working properly.
168
487269
2786
als het duidelijk is dat het niet goed werkt.
Dus hoe komt het dat mensen dit niet zien?
08:11
OK. So what makes people not notice?
169
491209
2670
08:14
Well, a poor understanding.
170
494443
1492
Nou, een gebrek aan begrip.
08:16
If you don't understand the risks, you don't understand the costs,
171
496642
3144
Als je de risico's niet begrijpt, als je de kosten niet begrijpt,
08:19
you're likely to get the trade-off wrong,
172
499810
2157
dan overweeg je het waarschijnlijk niet goed.
08:21
and your feeling doesn't match reality.
173
501991
2488
En dan klopt je gevoel niet met de werkelijkheid.
08:24
Not enough examples.
174
504503
1737
Niet genoeg voorbeelden.
08:26
There's an inherent problem with low-probability events.
175
506879
3506
Er is een onderliggend probleem
met onwaarschijnlijke gebeurtenissen.
08:30
If, for example, terrorism almost never happens,
176
510919
3813
Als, bijvoorbeeld,
terrorisme bijna nooit voorkomt,
08:34
it's really hard to judge the efficacy of counter-terrorist measures.
177
514756
4604
is het moeilijk om te bepalen
hoe effectief anti-terrorismemaatregelen zijn.
08:40
This is why you keep sacrificing virgins,
178
520523
3563
Dit is waarom je maagden blijft offeren,
en waarom je eenhoorn-verdediging prima werkt.
08:44
and why your unicorn defenses are working just great.
179
524110
2675
08:46
There aren't enough examples of failures.
180
526809
2557
Er zijn niet genoeg voorbeelden dat dit niet werkt.
Daarnaast, gevoelens die de zaken verhullen --
08:51
Also, feelings that cloud the issues --
181
531109
2787
08:53
the cognitive biases I talked about earlier: fears, folk beliefs --
182
533920
4028
de cognitieve vooroordelen waar ik het over had,
angsten, volksverhalen --
08:58
basically, an inadequate model of reality.
183
538727
2745
zorgen voor een niet-kloppend beeld van de realiteit.
Nu ga ik de dingen wat moeilijker maken.
09:03
So let me complicate things.
184
543403
2171
09:05
I have feeling and reality.
185
545598
1977
Ik heb gevoel en werkelijkheid.
09:07
I want to add a third element. I want to add "model."
186
547599
2796
Ik ga een derde element toevoegen: een model.
09:10
Feeling and model are in our head,
187
550839
2350
De gevoelens en het model in ons hoofd,
de realiteit in de buitenwereld.
09:13
reality is the outside world; it doesn't change, it's real.
188
553213
3452
Die verandert niet; die is echt.
09:17
Feeling is based on our intuition,
189
557800
2214
Ons gevoel is gebaseerd op onze intuïtie.
Een model is gebaseerd op ratio.
09:20
model is based on reason.
190
560038
1626
Dat is ongeveer het verschil.
09:22
That's basically the difference.
191
562383
2039
09:24
In a primitive and simple world,
192
564446
1977
In een primitieve en simpele wereld
09:26
there's really no reason for a model,
193
566447
2137
is er niet echt een reden voor een model.
Omdat het gevoel zo dicht bij de realiteit staat.
09:30
because feeling is close to reality.
194
570253
2295
09:32
You don't need a model.
195
572572
1373
Dan heb je geen model nodig.
09:34
But in a modern and complex world,
196
574596
2150
Maar in een moderne complexe wereld
heb je modellen nodig
09:37
you need models to understand a lot of the risks we face.
197
577556
3650
om een heleboel risico's die we tegenkomen te snappen.
09:42
There's no feeling about germs.
198
582362
2284
Er is geen gevoel over bacteriën.
Je hebt een model nodig om dit te begrijpen.
09:45
You need a model to understand them.
199
585110
2116
Dus dit model
09:48
This model is an intelligent representation of reality.
200
588157
3678
is een intelligente weergave van de realiteit.
09:52
It's, of course, limited by science, by technology.
201
592411
4751
Deze is wel beperkt door de huidige wetenschap
en technologie.
We hadden geen bacterie-theorie over ziektes kunnen ontwikkelen
09:58
We couldn't have a germ theory of disease
202
598249
2326
10:00
before we invented the microscope to see them.
203
600599
2534
voordat we de microscoop uitvonden om ze te kunnen zien.
10:04
It's limited by our cognitive biases.
204
604316
2643
Het is beperkt door onze cognitieve vooroordelen.
Maar het heeft de mogelijkheid
10:08
But it has the ability to override our feelings.
205
608110
2991
om onze gevoelens te onderdrukken.
10:11
Where do we get these models? We get them from others.
206
611507
3104
Waar krijgen we deze modellen? Van anderen.
10:14
We get them from religion, from culture, teachers, elders.
207
614635
5219
We krijgen ze van religie, cultuur,
leraren, ouderen.
Een paar jaar geleden
10:20
A couple years ago, I was in South Africa on safari.
208
620298
3426
was ik in Zuid-Afrika op safari.
10:23
The tracker I was with grew up in Kruger National Park.
209
623748
2762
De gids die ik had was opgegroeid in 'Kruger National Park'.
10:26
He had some very complex models of how to survive.
210
626534
2753
Hij had wat complexe modellen om mee te overleven.
10:29
And it depended on if you were attacked by a lion, leopard, rhino, or elephant --
211
629800
3913
En het hing er vanaf of je werd aangevallen
door een leeuw of een luipaard of een neushoorn of een olifant --
10:33
and when you had to run away, when you couldn't run away,
212
633737
2734
en wanneer je moest wegrennen, en wanneer je in een boom moest klimmen --
10:36
when you had to climb a tree, when you could never climb a tree.
213
636495
3083
wanneer je niet in een boom kon klimmen.
Ik zou geen dag overleven,
10:39
I would have died in a day.
214
639602
1349
maar hij was daar geboren,
10:42
But he was born there, and he understood how to survive.
215
642160
3782
en hij begreep hoe hij er moest overleven.
Ik ben geboren in New York City.
10:46
I was born in New York City.
216
646490
1596
Ik had hem kunnen meenemen naar New York en hij zou geen dag overleven.
10:48
I could have taken him to New York, and he would have died in a day.
217
648110
3251
(Er klinkt gelach)
10:51
(Laughter)
218
651385
1001
10:52
Because we had different models based on our different experiences.
219
652410
4144
Omdat we verschillende modellen hadden
gebaseerd op onze verschillende ervaringen.
10:58
Models can come from the media,
220
658291
2469
Modellen kunnen vanuit de media komen,
11:00
from our elected officials ...
221
660784
1763
van onze verkozen ambtenaren.
11:03
Think of models of terrorism,
222
663234
3081
Denk aan modellen over terrorisme,
11:06
child kidnapping,
223
666339
2197
ontvoering van kinderen,
11:08
airline safety, car safety.
224
668560
2325
luchtvaartveiligheid, autoveiligheid.
11:11
Models can come from industry.
225
671539
1993
Modellen kunnen uit de industrie komen.
11:14
The two I'm following are surveillance cameras,
226
674348
3218
De twee die ik volg zijn beveiligingscamera's,
Identiteitskaarten,
11:17
ID cards,
227
677590
1496
een heleboel computerveiligheidsmodellen komen daar vandaan.
11:19
quite a lot of our computer security models come from there.
228
679110
3130
Een heleboel modellen komen uit de wetenschap.
11:22
A lot of models come from science.
229
682264
2227
11:24
Health models are a great example.
230
684515
1837
Een goed voorbeeld zijn de gezondheidsmodellen.
11:26
Think of cancer, bird flu, swine flu, SARS.
231
686376
3026
Denk aan kanker, vogelgriep, varkensgriep, SARS.
11:29
All of our feelings of security about those diseases
232
689942
4870
Al onze gevoelens van veiligheid
over deze ziektes
11:34
come from models given to us, really, by science filtered through the media.
233
694836
4655
komen van modellen
die ons zijn gegeven door de wetenschap, gefilterd door de media.
Dus modellen kunnen veranderen.
11:41
So models can change.
234
701038
1720
11:43
Models are not static.
235
703482
2103
Modellen staan niet stil.
11:45
As we become more comfortable in our environments,
236
705609
3240
Als we ons zekerder voelen in onze omgevingen,
11:48
our model can move closer to our feelings.
237
708873
3602
kan ons model dichter bij ons gevoel komen te staan.
11:53
So an example might be,
238
713965
2340
Een voorbeeld zou kunnen zijn
dat honderd jaar geleden
11:56
if you go back 100 years ago,
239
716329
1596
11:57
when electricity was first becoming common,
240
717949
3428
toen elektriciteit alledaags werd,
er heel veel angst voor was.
12:01
there were a lot of fears about it.
241
721401
1703
Ik bedoel, er waren mensen bang om de deurbel te gebruiken,
12:03
There were people who were afraid to push doorbells,
242
723128
2478
omdat er elektriciteit in zat en dat was gevaarlijk.
12:05
because there was electricity in there, and that was dangerous.
243
725630
3005
Wij zijn op ons gemak rond elektriciteit.
12:08
For us, we're very facile around electricity.
244
728659
2869
We vervangen gloeilampen
12:11
We change light bulbs without even thinking about it.
245
731552
2818
zonder erbij na te denken.
12:14
Our model of security around electricity is something we were born into.
246
734948
6163
Onze veiligheidsmodellen met betrekking tot elektriciteit
is iets waar we mee geboren zijn.
12:21
It hasn't changed as we were growing up.
247
741735
2514
Het is niet veranderd terwijl wij opgroeiden.
12:24
And we're good at it.
248
744273
1565
En we zijn er goed in.
12:27
Or think of the risks on the Internet across generations --
249
747380
4499
Of denk aan de risico's
op het internet door de generaties heen --
12:31
how your parents approach Internet security,
250
751903
2097
hoe ouders omgaan met veilig internetten,
vergeleken met hoe jij dat doet,
12:34
versus how you do,
251
754024
1616
12:35
versus how our kids will.
252
755664
1542
vergeleken met hoe onze kinderen dat zullen doen.
12:38
Models eventually fade into the background.
253
758300
2550
Modellen komen uiteindelijk op de achtergrond te staan.
12:42
"Intuitive" is just another word for familiar.
254
762427
2493
Intuïtief is gewoon een ander woord voor vertrouwd.
12:45
So as your model is close to reality and it converges with feelings,
255
765887
3850
Dus als je model dichtbij de realiteit staat
en het samenkomt met je gevoel,
12:49
you often don't even know it's there.
256
769761
1918
dan weet je vaak niet dat het er is.
Een goed voorbeeld hiervan
12:53
A nice example of this came from last year and swine flu.
257
773239
3817
kwam afgelopen jaar met de varkensgriep.
Toen de varkensgriep eerst de kop opstak
12:58
When swine flu first appeared,
258
778281
2000
veroorzaakte het eerste bericht veel overdreven reacties.
13:00
the initial news caused a lot of overreaction.
259
780305
2618
13:03
Now, it had a name,
260
783562
1978
Het had nu een naam,
13:05
which made it scarier than the regular flu,
261
785564
2050
die het enger maakte dan de gewone griep,
13:07
even though it was more deadly.
262
787638
1567
terwijl deze wel dodelijker was.
13:09
And people thought doctors should be able to deal with it.
263
789784
3208
En de mensen dachten dat de dokters wel wisten wat ze ermee aanmoesten.
13:13
So there was that feeling of lack of control.
264
793459
2524
Dus het gevoel van gebrek aan controle was er ook.
En deze twee dingen
13:16
And those two things made the risk more than it was.
265
796007
3109
vergrootten de risico's meer dan nodig was.
13:19
As the novelty wore off and the months went by,
266
799140
3557
Terwijl het nieuwe er af raakte en de maanden voorbij gingen
13:22
there was some amount of tolerance; people got used to it.
267
802721
2843
was er een bepaalde mate van tolerantie,
de mensen raakten eraan gewend.
13:26
There was no new data, but there was less fear.
268
806355
2670
Er waren geen nieuwe gegevens, maar er was minder angst.
13:29
By autumn,
269
809681
2174
Tegen de herfst
13:31
people thought the doctors should have solved this already.
270
811879
3382
dachten de mensen
dat de dokters het al opgelost zouden moeten hebben.
13:35
And there's kind of a bifurcation:
271
815722
1960
En er was een soort van tweestrijd --
13:37
people had to choose between fear and acceptance --
272
817706
5751
mensen moesten kiezen
tussen angst en acceptatie --
eigenlijk tussen angst en onverschilligheid --
13:44
actually, fear and indifference --
273
824512
1644
en ze kozen zo ongeveer voor achterdocht.
13:46
and they kind of chose suspicion.
274
826180
1795
En toen afgelopen winter het vaccin verscheen
13:49
And when the vaccine appeared last winter,
275
829110
3111
was er een grote groep mensen - een verrassend groot aantal -
13:52
there were a lot of people -- a surprising number --
276
832245
2511
13:54
who refused to get it.
277
834780
1797
die het vaccin weigerden.
13:58
And it's a nice example of how people's feelings of security change,
278
838777
3656
Dit is een mooi voorbeeld
van hoe bij mensen het gevoel van veiligheid kan veranderen, en hun model,
14:02
how their model changes,
279
842457
1603
bijna willekeurig
14:04
sort of wildly,
280
844084
1668
14:05
with no new information, with no new input.
281
845776
2770
zonder nieuwe informatie,
zonder nieuwe gegevens.
Dit soort dingen gebeuren heel vaak.
14:10
This kind of thing happens a lot.
282
850327
1808
Ik ga het nog een keer moeilijker maken.
14:13
I'm going to give one more complication.
283
853199
1971
14:15
We have feeling, model, reality.
284
855194
2696
We hebben gevoelens, model, realiteit.
14:18
I have a very relativistic view of security.
285
858640
2510
Ik heb een zeer gerelativeerde visie over veiligheid.
Ik denk dat het van de toeschouwer afhangt.
14:21
I think it depends on the observer.
286
861174
1814
14:23
And most security decisions have a variety of people involved.
287
863695
5166
En bij de meeste veiligheidsbeslissingen
zijn een variëteit aan mensen betrokken.
14:29
And stakeholders with specific trade-offs will try to influence the decision.
288
869792
6539
En aandeelhouders
met specifieke overwegingen
zullen proberen het besluit te beïnvloeden.
14:36
And I call that their agenda.
289
876355
1681
En ik noem dat hun agenda
En deze agenda --
14:39
And you see agenda -- this is marketing, this is politics --
290
879512
3491
deze marketing, deze politiek --
14:43
trying to convince you to have one model versus another,
291
883481
3039
probeert jou te overtuigen om het ene model te verkiezen boven het andere,
14:46
trying to convince you to ignore a model
292
886544
1984
probeert jou te overtuigen om een model te negeren
14:48
and trust your feelings,
293
888552
2672
en op je gevoel af te gaan,
14:51
marginalizing people with models you don't like.
294
891248
2504
uitsluiten van mensen met modellen die je niet leuk vindt.
14:54
This is not uncommon.
295
894744
1516
Dit komt veel voor.
14:57
An example, a great example, is the risk of smoking.
296
897610
3229
Een voorbeeld, een heel goed voorbeeld, is het risico van roken.
In de geschiedenis van de laatste 50 jaar
15:02
In the history of the past 50 years,
297
902196
1783
15:04
the smoking risk shows how a model changes,
298
904003
2613
laat het risico van roken een modelverandering zien,
15:06
and it also shows how an industry fights against a model it doesn't like.
299
906640
4358
en het laat ook zien hoe een industrie vecht
tegen een model dat het niet leuk vindt.
15:11
Compare that to the secondhand smoke debate --
300
911983
3103
Vergelijk dat met het debat over meeroken --
ongeveer twintig jaar geleden.
15:15
probably about 20 years behind.
301
915110
1953
15:17
Think about seat belts.
302
917982
1615
Denk aan autogordels.
15:19
When I was a kid, no one wore a seat belt.
303
919621
2024
Toen ik een kind was, droeg niemand een autogordel.
15:21
Nowadays, no kid will let you drive if you're not wearing a seat belt.
304
921669
3541
Vandaag de dag zal geen kind je laten rijden
als je geen autogordel draagt.
15:26
Compare that to the airbag debate,
305
926633
2453
Vergelijk dat met het debat over airbags --
ongeveer dertig jaar geleden.
15:29
probably about 30 years behind.
306
929110
1667
Allemaal voorbeelden van veranderende modellen.
15:32
All examples of models changing.
307
932006
2088
15:36
What we learn is that changing models is hard.
308
936855
2796
Wat we leren is dat het moeilijk is om een model te veranderen.
Modellen zijn lastig los te wrikken.
15:40
Models are hard to dislodge.
309
940334
2053
Als ze overeenkomen met je gevoel,
15:42
If they equal your feelings,
310
942411
1675
dan weet je niet eens dat je een model hebt.
15:44
you don't even know you have a model.
311
944110
1899
En daar is nog een cognitief vooroordeel
15:47
And there's another cognitive bias
312
947110
1886
dat ik het bevestigingsvooroordeel zal noemen,
15:49
I'll call confirmation bias,
313
949020
2066
waar we neigen om de gegevens te accepteren
15:51
where we tend to accept data that confirms our beliefs
314
951110
4361
die onze overtuigingen bevestigen©
15:55
and reject data that contradicts our beliefs.
315
955495
2437
en de gegevens die onze overtuigingen tegenspreken af te keuren.
15:59
So evidence against our model, we're likely to ignore,
316
959490
3935
Dus bewijs tegen ons model
zullen we waarschijnlijk negeren, ook als het overtuigend of aanlokkelijk is.
16:03
even if it's compelling.
317
963449
1248
16:04
It has to get very compelling before we'll pay attention.
318
964721
3005
Het moet heel aanlokkelijk worden voordat we er aandacht aan besteden.
16:08
New models that extend long periods of time are hard.
319
968990
2597
Nieuwe modellen die over langere tijdsperiodes gaan zijn moeilijk.
Het opwarmen van de aarde is een prima voorbeeld.
16:11
Global warming is a great example.
320
971611
1754
We zijn heel erg slecht
16:13
We're terrible at models that span 80 years.
321
973389
3442
in modellen die 80 jaar beslaan.
16:16
We can do "to the next harvest."
322
976855
2063
We kunnen tot de volgende oogst gaan.
16:18
We can often do "until our kids grow up."
323
978942
2306
Tot onze kinderen opgroeien, dat lukt ook nog wel.
16:21
But "80 years," we're just not good at.
324
981760
2201
Maar 80 jaar, daar zijn we gewoon niet goed in.
16:24
So it's a very hard model to accept.
325
984975
2302
Dus het is een moeilijk model om te accepteren.
16:27
We can have both models in our head simultaneously --
326
987999
2946
We kunnen beide modellen tegelijk in ons hoofd houden,
16:31
that kind of problem where we're holding both beliefs together,
327
991912
6948
of het soort probleem
waarbij we twee verschillende overtuigingen samenhouden
of de cognitieve verstoring.
16:38
the cognitive dissonance.
328
998884
1370
Uiteindelijk
16:40
Eventually, the new model will replace the old model.
329
1000278
3156
zal het nieuwe model het oude model vervangen.
16:44
Strong feelings can create a model.
330
1004164
2190
Sterke gevoelens kunnen een model scheppen.
16:47
September 11 created a security model in a lot of people's heads.
331
1007411
5363
Elf september heeft een veiligheidsmodel geschept
in de hoofden van heel veel mensen.
16:52
Also, personal experiences with crime can do it,
332
1012798
3288
Persoonlijke ervaringen met criminaliteit kunnen dit ook,
of enge voorvallen met je eigen gezondheid
16:56
personal health scare,
333
1016110
1379
16:57
a health scare in the news.
334
1017513
1466
of enge voorvallen met gezondheid in het nieuws.
Deze voorvallen worden 'gloeilampvoorvallen' genoemd
17:00
You'll see these called "flashbulb events" by psychiatrists.
335
1020198
3345
door psychiaters.
Ze kunnen ter plekke een model scheppen
17:04
They can create a model instantaneously,
336
1024183
2461
17:06
because they're very emotive.
337
1026668
1761
omdat ze heel erg emotioneel geladen zijn.
17:09
So in the technological world,
338
1029908
1588
Dus in de technologische wereld
17:11
we don't have experience to judge models.
339
1031520
3237
hebben we geen ervaring
om modellen te beoordelen.
17:15
And we rely on others. We rely on proxies.
340
1035124
2933
En we vertrouwen op anderen. We vertrouwen op volmachten.
Dit werkt zo lang het is om anderen te verbeteren.
17:18
And this works, as long as it's the correct others.
341
1038081
2619
17:21
We rely on government agencies
342
1041183
2682
We vertrouwen op overheidsinstellingen
17:23
to tell us what pharmaceuticals are safe.
343
1043889
4404
zodat ze ons vertellen welke medicijnen veilig zijn.
17:28
I flew here yesterday.
344
1048317
1913
Ik ben hier gisteren heengevlogen.
17:30
I didn't check the airplane.
345
1050254
1762
Ik heb het vliegtuig niet gecontroleerd.
17:32
I relied on some other group
346
1052699
2595
Ik vertrouwde op een andere groep
zodat zij zouden beslissen of het veilig was om met mijn vliegtuig te vliegen.
17:35
to determine whether my plane was safe to fly.
347
1055318
2437
17:37
We're here, none of us fear the roof is going to collapse on us,
348
1057779
3298
Wij zijn hier en niemand is bang dat het dak op ons neer gaat vallen.
Niet omdat wij het dak hebben nagekeken,
17:41
not because we checked,
349
1061101
2205
17:43
but because we're pretty sure the building codes here are good.
350
1063330
3672
maar omdat we er vrij zeker van zijn
dat de voorschriften over gebouwen hier goed zijn.
17:48
It's a model we just accept
351
1068442
2989
Dat is een model dat we gewoon accepteren
op goed vertrouwen.
17:51
pretty much by faith.
352
1071455
1360
En dat is goed.
17:53
And that's OK.
353
1073331
1358
17:57
Now, what we want is people to get familiar enough with better models,
354
1077966
5873
Wat we willen
is dat mensen bekend genoeg raken
met betere modellen --
18:03
have it reflected in their feelings,
355
1083863
2120
dat deze doorschijnen in hun gevoel --
en er zo voor te zorgen dat ze goede veiligheidsafwegingen maken.
18:06
to allow them to make security trade-offs.
356
1086007
3002
Als deze niet kloppen
18:10
When these go out of whack, you have two options.
357
1090110
3719
dan heb je twee opties.
18:13
One, you can fix people's feelings, directly appeal to feelings.
358
1093853
4233
Een: Je kan het gevoel van mensen verbeteren
door direct op het gevoel in te spelen.
Het is manipulatie, maar het kan werken.
18:18
It's manipulation, but it can work.
359
1098110
2406
De tweede, eerlijkere manier
18:21
The second, more honest way
360
1101173
2191
is om het model te verbeteren.
18:23
is to actually fix the model.
361
1103388
1773
18:26
Change happens slowly.
362
1106720
2101
Verandering vindt langzaam plaats.
18:28
The smoking debate took 40 years -- and that was an easy one.
363
1108845
4378
Het rookdebat duurde veertig jaar,
en dat was een makkelijke.
Sommige van deze zaken zijn moeilijk.
18:35
Some of this stuff is hard.
364
1115195
1813
en dan bedoel ik heel moeilijk,
18:37
Really, though, information seems like our best hope.
365
1117496
3756
informatie lijkt onze beste hoop.
En ik heb gelogen.
18:41
And I lied.
366
1121276
1272
18:42
Remember I said feeling, model, reality; reality doesn't change?
367
1122572
4020
Weet je nog toen ik 'gevoel, model, realiteit' zei?
Ik zei dat de realiteit niet veranderde, maar dat doet het wel.
18:46
It actually does.
368
1126616
1375
We leven in een technologische wereld;
18:48
We live in a technological world;
369
1128015
1714
18:49
reality changes all the time.
370
1129753
2338
de werkelijkheid verandert voortdurend.
18:52
So we might have, for the first time in our species:
371
1132887
2977
Dus voor het eerst sinds de mensheid hebben we deze situatie:
18:55
feeling chases model, model chases reality, reality's moving --
372
1135888
3183
Het gevoel achtervolgt het model, het model achtervolgt de realiteit, maar de realiteit verandert --
Misschien zullen ze elkaar nooit meer vinden.
18:59
they might never catch up.
373
1139095
1533
19:02
We don't know.
374
1142180
1328
Dat weten we niet.
Maar op de lange termijn
19:05
But in the long term,
375
1145614
1603
zijn het gevoel en de realiteit allebei belangrijk.
19:07
both feeling and reality are important.
376
1147241
2204
19:09
And I want to close with two quick stories to illustrate this.
377
1149469
3233
En ik wil met twee korte verhaaltjes afsluiten om dit te laten zien.
19:12
1982 -- I don't know if people will remember this --
378
1152726
2479
Ik weet niet of mensen dit nog weten, maar in 1982
was er een korte epidemie
19:15
there was a short epidemic of Tylenol poisonings
379
1155229
3370
van Tylenol-vergiftigingen in de Verenigde Staten.
19:18
in the United States.
380
1158623
1196
19:19
It's a horrific story.
381
1159843
1361
Het is een vreselijk verhaal. Iemand nam een flesje Tylenol,
19:21
Someone took a bottle of Tylenol,
382
1161228
2079
deed er vergif in, sloot het weer, en zette het terug op de plank.
19:23
put poison in it, closed it up, put it back on the shelf,
383
1163331
3002
Iemand anders kocht dit en ging dood.
19:26
someone else bought it and died.
384
1166357
1558
19:27
This terrified people.
385
1167939
1673
Dit maakte de mensen doodsbang.
19:29
There were a couple of copycat attacks.
386
1169636
2227
Er waren wat na-aap-aanvallen geweest.
19:31
There wasn't any real risk, but people were scared.
387
1171887
2845
Er was niet echt een risico, maar de mensen waren bang.
19:34
And this is how the tamper-proof drug industry was invented.
388
1174756
3876
En dit is hoe in de medicijnwereld
de anti-knoei-industrie is gestart.
19:38
Those tamper-proof caps? That came from this.
389
1178656
2229
Die dopjes met sluitzegels kwamen hier vandaan.
19:40
It's complete security theater.
390
1180909
1571
Dit is veiligheidstheater.
19:42
As a homework assignment, think of 10 ways to get around it.
391
1182504
2891
Als huiswerk wil ik dat jullie 10 manieren bedenken om dit te omzeilen.
Ik geef er een, een injectienaald.
19:45
I'll give you one: a syringe.
392
1185419
1891
19:47
But it made people feel better.
393
1187334
2781
Maar het zorgt dat de mensen zich beter voelen.
19:50
It made their feeling of security more match the reality.
394
1190744
3702
Het zorgde ervoor dat hun gevoel van veiligheid
meer in overeenstemming kwam met de realiteit.
Laatste verhaalt, een paar jaar geleden beviel een vriendin van me.
19:55
Last story: a few years ago, a friend of mine gave birth.
395
1195390
2934
Ik ging op visite in het ziekenhuis.
19:58
I visit her in the hospital.
396
1198348
1397
19:59
It turns out, when a baby's born now,
397
1199769
1923
Het blijkt dat als er nu een baby is geboren,
20:01
they put an RFID bracelet on the baby, a corresponding one on the mother,
398
1201716
3563
deze een radiofrequentie-armband omkrijgt,
en dat de moeder een overeenkomende armband omkrijgt,
20:05
so if anyone other than the mother takes the baby out of the maternity ward,
399
1205303
3620
zodat zodra iemand anders dan de moeder de baby uit de kwaamafdeling meeneemt,
het alarm afgaat.
20:08
an alarm goes off.
400
1208947
1158
Ik zei: "Nou, dat is best gaaf.
20:10
I said, "Well, that's kind of neat.
401
1210129
1729
20:11
I wonder how rampant baby snatching is out of hospitals."
402
1211882
3970
Ik vraag me af hoe vaak het voorkomt
dat baby's worden gestolen uit de ziekenhuizen vandaan.
20:15
I go home, I look it up.
403
1215876
1236
Ik ga naar huis, ik zoek het op.
20:17
It basically never happens.
404
1217136
1525
Het komt vrijwel nooit voor.
20:18
(Laughter)
405
1218685
1844
Maar als je er over nadenkt,
20:20
But if you think about it, if you are a hospital,
406
1220553
2843
als je in een ziekenhuis bent,
20:23
and you need to take a baby away from its mother,
407
1223420
2380
en je moet de baby van de moeder afnemen
20:25
out of the room to run some tests,
408
1225824
1781
om in een andere kamer wat tests te doen.
20:27
you better have some good security theater,
409
1227629
2050
dan kan je maar beter voor een goed veiligheidstheater zorgen,
20:29
or she's going to rip your arm off.
410
1229703
1945
want anders rukt ze je arm eraf.
20:31
(Laughter)
411
1231672
1533
(Er klinkt gelach)
Dus het is belangrijk voor ons,
20:34
So it's important for us,
412
1234161
1717
20:35
those of us who design security,
413
1235902
2135
voor degenen onder ons die veiligheid ontwerpen,
die naar het veiligheidsbeleid kijken,
20:38
who look at security policy --
414
1238061
2031
20:40
or even look at public policy in ways that affect security.
415
1240946
3308
of die kijken naar het openbare beleid,
op manieren die met veiligheid te maken hebben:
Het is niet alleen realiteit, het is gevoel en realiteit.
20:45
It's not just reality; it's feeling and reality.
416
1245006
3416
Wat belangrijk is
20:48
What's important
417
1248446
1865
is dat het over hetzelfde gaat.
20:50
is that they be about the same.
418
1250335
1545
20:51
It's important that, if our feelings match reality,
419
1251904
2531
Het is belangrijk dat, als ons gevoel de werkelijkheid reflecteert,
we betere veiligheidsafwegingen maken.
20:54
we make better security trade-offs.
420
1254459
1873
Dank u.
20:56
Thank you.
421
1256711
1153
20:57
(Applause)
422
1257888
2133
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7