The pattern behind self-deception | Michael Shermer

729,942 views ・ 2010-06-14

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Rik Delaet Nagekeken door: Els De Keyser
00:16
So since I was here last in '06,
0
16260
3000
Sinds ik hier de laatste keer was, in '06,
00:19
we discovered that global climate change
1
19260
2000
ontdekten we dat de wereldwijde klimaatverandering
00:21
is turning out to be a pretty serious issue,
2
21260
2000
uitdraait op een redelijk serieus probleem.
00:23
so we covered that fairly extensively
3
23260
2000
We hebben het er uitvoerig over
00:25
in Skeptic magazine.
4
25260
2000
gehad in Skeptic magazine.
00:27
We investigate all kinds
5
27260
2000
We onderzoeken allerlei wetenschappelijke
00:29
of scientific and quasi-scientific controversies,
6
29260
3000
en quasi-wetenschappelijke controverses.
00:32
but it turns out we don't have to worry about any of this
7
32260
2000
Maar we hoeven er ons geen zorgen over te maken
00:34
because the world's going to end in 2012.
8
34260
2000
omdat de wereld toch eindigt in 2012.
00:36
Another update:
9
36260
2000
Nog een update:
00:38
You will recall I introduced you guys
10
38260
2000
u herinnert zich misschien
00:40
to the Quadro Tracker.
11
40260
2000
de Quadro Tracker.
00:42
It's like a water dowsing device.
12
42260
2000
Het is een soort wichelroede.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
44260
3000
Een hol stuk plastic met een draaiende antenne.
00:47
And you walk around, and it points to things.
14
47260
2000
Ze wijst dingen aan.
00:49
Like if you're looking for marijuana in students' lockers,
15
49260
3000
Bijvoorbeeld marihuana in studentenkastjes.
00:52
it'll point right to somebody.
16
52260
2000
Ze wijst iemand aan.
00:54
Oh, sorry. (Laughter)
17
54260
2000
Oh, sorry. (Gelach)
00:56
This particular one that was given to me
18
56260
2000
Deze hier bijvoorbeeld,
00:58
finds golf balls,
19
58260
2000
vindt altijd golfballen,
01:00
especially if you're at a golf course
20
60260
2000
vooral als je op een golfbaan
01:02
and you check under enough bushes.
21
62260
3000
onder genoeg struiken zoekt.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
65260
3000
Hoe gevaarlijk zijn nu zo'n domme dingen?
01:08
this device, the ADE 651,
23
68260
3000
Dit apparaat, de ADE 651, werd
01:11
was sold to the Iraqi government
24
71260
3000
verkocht aan de Iraakse regering
01:14
for 40,000 dollars apiece.
25
74260
2000
voor 40.000 dollar per stuk.
01:16
It's just like this one, completely worthless,
26
76260
2000
Ook volledig waardeloos.
01:18
in which it allegedly worked by "electrostatic
27
78260
2000
Werkt door "elektrostatische
01:20
magnetic ion attraction,"
28
80260
3000
magnetische ionaantrekkingskracht".
01:24
which translates to
29
84260
2000
Of: "Pseudowetenschappelijke onzin"
01:26
"pseudoscientific baloney" -- would be the nice word --
30
86260
3000
zou een betere benaming te zijn -
01:29
in which you string together a bunch of words that sound good,
31
89260
2000
Alleen een hoop goed klinkende woorden.
01:31
but it does absolutely nothing.
32
91260
2000
Maar het doet helemaal niets.
01:33
In this case, at trespass points,
33
93260
3000
In dit geval, bij checkpoints,
01:36
allowing people to go through
34
96260
2000
waar mensen werden doorgelaten
01:38
because your little tracker device said they were okay,
35
98260
3000
omdat dit apparaatje ze in orde vond,
01:41
actually cost lives.
36
101260
3000
kostte dat mensenlevens.
01:44
So there is a danger to pseudoscience,
37
104260
2000
Er kleven gevaren aan pseudo-wetenschap,
01:46
in believing in this sort of thing.
38
106260
3000
in het geloof in dit soort dingen.
01:49
So what I want to talk about today is belief.
39
109260
3000
Daarom wil ik vandaag wat praten
01:52
I want to believe,
40
112260
2000
over geloof. Ik wil geloven,
01:54
and you do too.
41
114260
2000
en jullie ook.
01:56
And in fact, I think my thesis here is that
42
116260
2000
Mijn stelling is dat
01:58
belief is the natural state of things.
43
118260
2000
geloven natuurlijk is.
02:00
It is the default option. We just believe.
44
120260
2000
Het is de standaardoptie. Wij geloven.
02:02
We believe all sorts of things.
45
122260
2000
Wij geloven in allerlei dingen.
02:04
Belief is natural;
46
124260
2000
Geloof is natuurlijk.
02:06
disbelief, skepticism, science, is not natural.
47
126260
2000
Ongeloof, scepticisme, wetenschap
02:08
It's more difficult.
48
128260
2000
zijn onnatuurlijk en moeilijker.
02:10
It's uncomfortable to not believe things.
49
130260
2000
Niet geloven is ongemakkelijk.
02:12
So like Fox Mulder on "X-Files,"
50
132260
3000
Zoals Fox Mulder in de "X-Files".
02:15
who wants to believe in UFOs? Well, we all do,
51
135260
3000
Wie wil geloven in UFO's? Nou, wij allemaal.
02:18
and the reason for that is because
52
138260
2000
En de reden is dat wij een soort
02:20
we have a belief engine in our brains.
53
140260
3000
geloofsmachine in onze hersenen hebben.
02:23
Essentially, we are pattern-seeking primates.
54
143260
3000
In wezen zijn we patroonzoekende primaten.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
146260
3000
We verbinden de punten: A is verbonden met B en B met C.
02:29
And sometimes A really is connected to B,
56
149260
3000
En soms is A ook echt verbonden met B.
02:32
and that's called association learning.
57
152260
2000
Dat heet associatief leren.
02:34
We find patterns, we make those connections,
58
154260
3000
We vinden patronen, leggen verbanden,
02:37
whether it's Pavlov's dog here
59
157260
2000
of het nu gaat om Pavlov's hond
02:39
associating the sound of the bell with the food,
60
159260
3000
die het geluid van de bel aan het voedsel linkt,
02:42
and then he salivates to the sound of the bell,
61
162260
2000
en dan begint te kwijlen,
02:44
or whether it's a Skinnerian rat,
62
164260
2000
of een Skinneriaanse rat,
02:46
in which he's having an association
63
166260
2000
die een verband legt
02:48
between his behavior and a reward for it,
64
168260
2000
tussen zijn gedrag en een beloning ervoor,
02:50
and therefore he repeats the behavior.
65
170260
2000
en daarom dat gedrag herhaalt.
02:52
In fact, what Skinner discovered
66
172260
2000
In feite is wat Skinner ontdekte
02:54
is that, if you put a pigeon in a box like this,
67
174260
3000
dat, als je een duif in zo'n doos zet,
02:57
and he has to press one of these two keys,
68
177260
2000
en zij op een van deze twee toetsen moet drukken,
02:59
and he tries to figure out what the pattern is,
69
179260
2000
dan probeert zij het patroon te achterhalen,
03:01
and you give him a little reward in the hopper box there --
70
181260
2000
als je haar dan beloont.
03:03
if you just randomly assign rewards
71
183260
3000
Als je zomaar wat beloningen geeft
03:06
such that there is no pattern,
72
186260
2000
zonder patroon,
03:08
they will figure out any kind of pattern.
73
188260
2000
vinden ze er zelf wel een.
03:10
And whatever they were doing just before they got the reward,
74
190260
2000
Wat ze toevallig deden voor de beloning,
03:12
they repeat that particular pattern.
75
192260
2000
blijven ze herhalen.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
194260
3000
Zoals twee keer tegen de klok in draaien,
03:17
once clockwise and peck the key twice.
77
197260
3000
één keer met de klok mee en tweemaal pikken op de knop.
03:20
And that's called superstition,
78
200260
2000
Dat heet bijgeloof.
03:22
and that, I'm afraid,
79
202260
2000
Ik vrees dat we
03:24
we will always have with us.
80
204260
2000
dat nooit kwijtraken.
03:26
I call this process "patternicity" --
81
206260
2000
Ik noem dat "patroniciteit",
03:28
that is, the tendency to find meaningful patterns
82
208260
2000
de neiging om zinvolle patronen te vinden
03:30
in both meaningful and meaningless noise.
83
210260
3000
zowel in zinvolle als in zinloze ruis.
03:33
When we do this process, we make two types of errors.
84
213260
3000
Daarbij maken we twee soorten fouten.
03:36
A Type I error, or false positive,
85
216260
2000
Een Type I-fout, of vals positief,
03:38
is believing a pattern is real
86
218260
2000
is geloven dat een patroon echt is
03:40
when it's not.
87
220260
2000
als het dat niet is.
03:42
Our second type of error is a false negative.
88
222260
2000
Ons tweede type fout is een vals negatief.
03:44
A Type II error is not believing
89
224260
2000
Een Type II-fout is niet geloven
03:46
a pattern is real when it is.
90
226260
3000
dat een patroon reëel is wanneer het dat wel is.
03:49
So let's do a thought experiment.
91
229260
2000
Laten we eens een gedachte-experiment uitvoeren.
03:51
You are a hominid three million years ago
92
231260
2000
Je bent een hominide die drie miljoen jaar geleden
03:53
walking on the plains of Africa.
93
233260
3000
rondliep op de vlaktes van Afrika.
03:56
Your name is Lucy, okay?
94
236260
2000
Je naam is Lucy, oké?
03:58
And you hear a rustle in the grass.
95
238260
2000
Je hoort geritsel in het gras.
04:00
Is it a dangerous predator,
96
240260
2000
Een gevaarlijk roofdier?
04:02
or is it just the wind?
97
242260
2000
Of maar een briesje?
04:04
Your next decision could be the most important one of your life.
98
244260
3000
Daar kan je leven van afhangen.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
247260
3000
Nou, als je aan een gevaarlijk roofdier dacht
04:10
and it turns out it's just the wind,
100
250260
2000
en het alleen de wind was,
04:12
you've made an error in cognition,
101
252260
2000
heb je een denkfoutje gemaakt,
04:14
made a Type I error, false positive.
102
254260
2000
een Type I-fout, vals positief dus.
04:16
But no harm. You just move away.
103
256260
2000
Kon geen kwaad. Je hoefde alleen weg te rennen.
04:18
You're more cautious. You're more vigilant.
104
258260
2000
Je bent nu voorzichtiger, alerter.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
260260
2000
Als je dacht dat het alleen maar de wind was,
04:22
and it turns out it's a dangerous predator,
106
262260
3000
en het was een roofdier,
04:25
you're lunch.
107
265260
2000
dan ben je lunch.
04:27
You've just won a Darwin award.
108
267260
2000
Je hebt dan een Darwinprijs gewonnen.
04:29
You've been taken out of the gene pool.
109
269260
2000
Je werd verwijderd uit de genenpoel.
04:31
Now the problem here is that
110
271260
2000
Patroniciteiten krijg je
04:33
patternicities will occur whenever the cost
111
273260
2000
wanneer de kosten
04:35
of making a Type I error
112
275260
2000
van het maken van een Type I-fout
04:37
is less than the cost of making a Type II error.
113
277260
2000
lager zijn dan die voor een Type II-fout.
04:39
This is the only equation in the talk by the way.
114
279260
2000
Dit is overigens de enige vergelijking in deze voordracht.
04:41
We have a pattern detection problem
115
281260
2000
We hebben een patroondetectieprobleem,
04:43
that is assessing the difference between a Type I and a Type II error
116
283260
3000
omdat de beoordeling van het verschil tussen die soorten fouten
04:46
is highly problematic,
117
286260
2000
zo problematisch is,
04:48
especially in split-second, life-and-death situations.
118
288260
3000
vooral in zo'n split-second, leven-en-dood situaties.
04:51
So the default position
119
291260
2000
Dus de standaardpositie
04:53
is just: Believe all patterns are real --
120
293260
2000
is "geloven dat alle patronen echt zijn."
04:55
All rustles in the grass are dangerous predators
121
295260
3000
"Alle ritselingen in het gras zijn roofdieren
04:58
and not just the wind.
122
298260
2000
en niet alleen de wind."
05:00
And so I think that we evolved ...
123
300260
2000
En dus denk ik dat er een natuurlijke selectie
05:02
there was a natural selection for the propensity for our belief engines,
124
302260
3000
was voor deze neiging van onze geloofsmachines,
05:05
our pattern-seeking brain processes,
125
305260
2000
onze patroon-zoekende hersenprocessen,
05:07
to always find meaningful patterns
126
307260
2000
om altijd zinvolle patronen te vinden
05:09
and infuse them with these sort of
127
309260
2000
en ze te "beheppen" met dit soort
05:11
predatory or intentional agencies that I'll come back to.
128
311260
3000
gevaarlijke of opzettelijke agentia waar ik nog op terugkom.
05:14
So for example, what do you see here?
129
314260
2000
Wat zie je hier bijvoorbeeld?
05:16
It's a horse head, that's right.
130
316260
2000
Een paardenkop. Klopt.
05:18
It looks like a horse. It must be a horse.
131
318260
2000
Het ziet eruit als een paard. Het moet een paard zijn.
05:20
That's a pattern.
132
320260
2000
Dat is een patroon.
05:22
And is it really a horse?
133
322260
2000
En is het echt een paard?
05:24
Or is it more like a frog?
134
324260
3000
Of is het eerder een kikker?
05:27
See, our pattern detection device,
135
327260
2000
Onze patroondetectie-inrichting,
05:29
which appears to be located in the anterior cingulate cortex --
136
329260
3000
die lijkt te zijn gelegen in de cortex cingularis anterior -
05:32
it's our little detection device there --
137
332260
3000
het is ons kleine detectieapparaat daar -
05:35
can be easily fooled, and this is the problem.
138
335260
2000
is echter gemakkelijk te misleiden. Dat is het probleem.
05:37
For example, what do you see here?
139
337260
2000
Bijvoorbeeld, wat zie je hier?
05:39
Yes, of course, it's a cow.
140
339260
3000
Een koe natuurlijk.
05:42
Once I prime the brain -- it's called cognitive priming --
141
342260
3000
Met wat hulp - dat heet cognitieve priming-
05:45
once I prime the brain to see it,
142
345260
2000
zodra ik de hersenen voorbereid om het te zien,
05:47
it pops back out again even without the pattern that I've imposed on it.
143
347260
3000
valt het op ook zonder het patroon dat ik heb aangebracht.
05:50
And what do you see here?
144
350260
2000
En wat zie je hier?
05:52
Some people see a Dalmatian dog.
145
352260
2000
Sommigen zien een dalmatiër.
05:54
Yes, there it is. And there's the prime.
146
354260
2000
Ja, dat is hij. En daar is de voorbereiding.
05:56
So when I go back without the prime,
147
356260
2000
Als ik terug ga zonder de voorbereiding,
05:58
your brain already has the model
148
358260
2000
hebben je hersenen het model al vast en
06:00
so you can see it again.
149
360260
2000
kun je het weer zien.
06:02
What do you see here?
150
362260
3000
Wat zie je hier?
06:05
Planet Saturn. Yes, that's good.
151
365260
2000
De planeet Saturnus. Ja, dat is goed.
06:07
How about here?
152
367260
3000
En hoe zit het hier?
06:10
Just shout out anything you see.
153
370260
3000
Roep maar wat je ziet.
06:14
That's a good audience, Chris.
154
374260
2000
Prima publiek, Chris.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
376260
3000
Omdat er in deze niets zit. Blijkbaar is er niets.
06:19
This is an experiment done by Jennifer Whitson
156
379260
3000
Dit is een experiment gedaan door Jennifer Whitson
06:22
at U.T. Austin
157
382260
2000
op U.T. Austin,
06:24
on corporate environments
158
384260
2000
over bedrijfsomgevingen,
06:26
and whether feelings of uncertainty and out of control
159
386260
3000
of gevoelens van onzekerheid en controleverlies
06:29
makes people see illusory patterns.
160
389260
2000
mensen illusoire patronen doen zien.
06:31
That is, almost everybody sees the planet Saturn.
161
391260
3000
Bijna iedereen ziet de planeet Saturnus.
06:34
People that are put in a condition of feeling out of control
162
394260
3000
Maar onzekere mensen
06:37
are more likely to see something in this,
163
397260
2000
hebben meer kans om ook iets te zien in deze
06:39
which is allegedly patternless.
164
399260
3000
blijkbaar patroonloze figuren.
06:42
In other words, the propensity to find these patterns
165
402260
3000
De neiging om deze patronen te vinden
06:45
goes up when there's a lack of control.
166
405260
3000
stijgt wanneer er een gebrek aan controle is.
06:48
For example, baseball players are notoriously superstitious
167
408260
3000
Bijvoorbeeld, honkballers zijn notoir bijgelovig
06:51
when they're batting,
168
411260
2000
als ze aan slag zijn,
06:53
but not so much when they're fielding.
169
413260
2000
maar niet zoveel als ze 'fielden'.
06:55
Because fielders are successful
170
415260
2000
Omdat fielders
06:57
90 to 95 percent of the time.
171
417260
2000
90 tot 95 procent van de tijd succesvol zijn.
06:59
The best batters fail seven out of 10 times.
172
419260
3000
De beste slagmensen falen 7 op 10 keer.
07:02
So their superstitions, their patternicities,
173
422260
2000
Dus hun bijgeloof, hun patroniciteiten,
07:04
are all associated with feelings of lack of control
174
424260
3000
komen door gebrek aan controle
07:07
and so forth.
175
427260
2000
enzovoort.
07:10
What do you see in this particular one here, in this field?
176
430260
3000
Wat zie je in dit veld hier?
07:13
Anybody see an object there?
177
433260
2000
Ziet iemand hier een object?
07:15
There actually is something here,
178
435260
2000
Er is hier daadwerkelijk iets,
07:17
but it's degraded.
179
437260
2000
maar het beeld is gedegradeerd.
07:19
While you're thinking about that,
180
439260
2000
Terwijl jullie daarover nadenken,
07:21
this was an experiment done by Susan Blackmore,
181
441260
2000
dit was een experiment van Susan Blackmore,
07:23
a psychologist in England,
182
443260
2000
een Engelse psychologe,
07:25
who showed subjects this degraded image
183
445260
2000
die proefpersonen dit beeld liet zien
07:27
and then ran a correlation between
184
447260
2000
en naar een correlatie zocht tussen
07:29
their scores on an ESP test:
185
449260
2000
hun scores op een ESP-test,
07:31
How much did they believe in the paranormal,
186
451260
2000
d. w. z. hoeveel ze geloven in het paranormale,
07:33
supernatural, angels and so forth.
187
453260
3000
het bovennatuurlijke, engelen en enzovoort.
07:36
And those who scored high on the ESP scale,
188
456260
3000
Wie hoog scoorde op de ESP-schaal,
07:39
tended to not only see
189
459260
2000
had de neiging om niet alleen
07:41
more patterns in the degraded images
190
461260
2000
meer patronen in de gedegradeerde beelden te zien,
07:43
but incorrect patterns.
191
463260
2000
maar ook onjuiste patronen.
07:45
Here is what you show subjects.
192
465260
2000
Hier is wat je proefpersonen laat zien.
07:47
The fish is degraded 20 percent, 50 percent
193
467260
3000
Deze vis is 20 procent, 50 procent gedegradeerd
07:50
and then the one I showed you,
194
470260
2000
en dan degene die ik liet zien,
07:52
70 percent.
195
472260
2000
70 procent.
07:54
A similar experiment was done by another [Swiss] psychologist
196
474260
2000
Een gelijkaardig experiment door een andere
07:56
named Peter Brugger,
197
476260
2000
Zwitserse psycholoog, Peter Brugger,
07:58
who found significantly more meaningful patterns
198
478260
3000
gaf aan dat beduidend meer betekenisvolle patronen
08:01
were perceived on the right hemisphere,
199
481260
2000
werden waargenomen door de rechter hersenhelft,
08:03
via the left visual field, than the left hemisphere.
200
483260
3000
via het linker visuele veld, dan door de linker hersenhelft.
08:06
So if you present subjects the images such
201
486260
2000
Dus als je de proefpersonen de beelden zo toont
08:08
that it's going to end up on the right hemisphere instead of the left,
202
488260
3000
dat ze terechtkomen op de rechter hersenhelft,
08:11
then they're more likely to see patterns
203
491260
2000
dan hebben ze meer kans om patronen te zien
08:13
than if you put it on the left hemisphere.
204
493260
2000
dan wanneer ze op de linkerhelft terechtkomen.
08:15
Our right hemisphere appears to be
205
495260
2000
Onze rechter hersenhelft blijkt de plaats te zijn
08:17
where a lot of this patternicity occurs.
206
497260
2000
waar veel van deze patroniciteit optreedt.
08:19
So what we're trying to do is bore into the brain
207
499260
2000
Wij zoeken naar de plaats in de hersenen
08:21
to see where all this happens.
208
501260
2000
waar dit allemaal gebeurt.
08:23
Brugger and his colleague, Christine Mohr,
209
503260
3000
Brugger en zijn collega, Christine Mohr,
08:26
gave subjects L-DOPA.
210
506260
2000
gaven proefpersonen L-DOPA.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
508260
3000
L-DOPA is een medicijn dat gegeven wordt voor de
08:31
which is related to a decrease in dopamine.
212
511260
3000
ziekte van Parkinson, waarbij dopamine vermindert.
08:34
L-DOPA increases dopamine.
213
514260
2000
L-DOPA verhoogt dopamine.
08:36
An increase of dopamine caused
214
516260
2000
En verhoging van dopamine doet
08:38
subjects to see more patterns
215
518260
2000
proefpersonen meer patronen zien
08:40
than those that did not receive the dopamine.
216
520260
2000
dan degenen die er geen kregen.
08:42
So dopamine appears to be the drug
217
522260
2000
Dus dopamine houdt verband
08:44
associated with patternicity.
218
524260
2000
met patroniciteit.
08:46
In fact, neuroleptic drugs
219
526260
2000
Neuroleptica zijn medicijnen
08:48
that are used to eliminate psychotic behavior,
220
528260
2000
tegen psychotisch gedrag,
08:50
things like paranoia, delusions
221
530260
2000
dingen als paranoia, wanen
08:52
and hallucinations,
222
532260
2000
en hallucinaties.
08:54
these are patternicities.
223
534260
2000
Dit zijn allemaal patroniciteiten.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
536260
3000
Het zijn foute patronen, vals positieven, Type I-fouten.
08:59
And if you give them drugs
225
539260
2000
En als je ze
09:01
that are dopamine antagonists,
226
541260
2000
dopamine-antagonisten toedient
09:03
they go away.
227
543260
2000
dan verdwijnen die fouten.
09:05
That is, you decrease the amount of dopamine,
228
545260
2000
Als je de hoeveelheid dopamine verlaagt,
09:07
and their tendency to see
229
547260
2000
dan vermindert hun neiging om
09:09
patterns like that decreases.
230
549260
2000
zo'n patronen te zien.
09:11
On the other hand, amphetamines like cocaine
231
551260
3000
Amfetamines zoals cocaïne
09:14
are dopamine agonists.
232
554260
2000
zijn daarentegen dopamine-agonisten.
09:16
They increase the amount of dopamine.
233
556260
2000
Ze verhogen de hoeveelheid dopamine.
09:18
So you're more likely to feel in a euphoric state,
234
558260
3000
Waardoor je euforisch kan worden,
09:21
creativity, find more patterns.
235
561260
2000
creatief zijn, meer patronen gaat vinden.
09:23
In fact, I saw Robin Williams recently
236
563260
2000
Robin Williams zei onlangs
09:25
talk about how he thought he was much funnier
237
565260
2000
hoe hij zichzelf veel grappiger vond
09:27
when he was doing cocaine, when he had that issue, than now.
238
567260
3000
toen hij nog een cocaïneprobleem had, dan nu.
09:30
So perhaps more dopamine
239
570260
2000
Misschien is meer dopamine
09:32
is related to more creativity.
240
572260
2000
gerelateerd aan meer creativiteit.
09:34
Dopamine, I think, changes
241
574260
2000
Dopamine verandert
09:36
our signal-to-noise ratio.
242
576260
2000
onze signaal-ruisverhouding.
09:38
That is, how accurate we are
243
578260
2000
Onze accuratesse in het
09:40
in finding patterns.
244
580260
2000
vinden van patronen.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
582260
3000
Te laag en je maakt te veel Type II-fouten.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
585260
2000
Je mist de echte patronen. Te sceptisch zijn is niet goed.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
587260
3000
Dan zal je vaak interessante ideeën missen.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
591260
3000
Precies goed en je bent creatief, maar zonder geloof in flauwekul.
09:54
Too high and maybe you see patterns everywhere.
249
594260
3000
Te hoog en je ziet misschien overal patronen.
09:57
Every time somebody looks at you, you think people are staring at you.
250
597260
3000
Als iemand naar je kijkt, denk je dat mensen
10:00
You think people are talking about you.
251
600260
2000
naar je staren of over je praten.
10:02
And if you go too far on that, that's just simply
252
602260
2000
In extreme gevallen
10:04
labeled as madness.
253
604260
2000
is dat waanzin.
10:06
It's a distinction perhaps we might make
254
606260
2000
Dat kan je misschien zeggen van
10:08
between two Nobel laureates, Richard Feynman
255
608260
2000
twee Nobelprijswinnaars, Richard Feynman
10:10
and John Nash.
256
610260
2000
en John Nash.
10:12
One sees maybe just the right number
257
612260
2000
De ene ziet misschien gewoon het juiste aantal
10:14
of patterns to win a Nobel Prize.
258
614260
2000
patronen om een Nobelprijs te winnen.
10:16
The other one also, but maybe too many patterns.
259
616260
2000
De andere ook, maar misschien wat teveel.
10:18
And we then call that schizophrenia.
260
618260
3000
Dan noemen we dat schizofrenie.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
621260
3000
Dus die signaal-ruisverhouding veroorzaakt een patroon-detectie probleem.
10:24
And of course you all know exactly
262
624260
2000
En natuurlijk weten jullie allemaal precies
10:26
what this is, right?
263
626260
2000
wat dat is, niet?
10:28
And what pattern do you see here?
264
628260
2000
En welk patroon zie je hier?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
630260
3000
Een test van je cortex cingularis anterior,
10:33
causing you conflicting pattern detections.
266
633260
3000
met conflicterende patroondetecties.
10:36
You know, of course, this is Via Uno shoes.
267
636260
2000
Hier Via Uno schoenen.
10:38
These are sandals.
268
638260
3000
En hier sandalen.
10:41
Pretty sexy feet, I must say.
269
641260
3000
Mooie, sexy voeten, dat wel.
10:44
Maybe a little Photoshopped.
270
644260
2000
Misschien een beetje gephotoshopt.
10:46
And of course, the ambiguous figures
271
646260
2000
Dubbelzinnige figuren met
10:48
that seem to flip-flop back and forth.
272
648260
2000
een veranderende inhoud.
10:50
It turns out what you're thinking about a lot
273
650260
2000
Waar je veel aan denkt
10:52
influences what you
274
652260
2000
beïnvloedt wat
10:54
tend to see.
275
654260
2000
je ziet.
10:56
And you see the lamp here, I know.
276
656260
2000
En hier zie je natuurlijk een lamp.
10:58
Because the lights on here.
277
658260
3000
Omdat het licht hier aan is.
11:01
Of course, thanks to the environmentalist movement
278
661260
2000
Dank zij de milieubeweging hebben we
11:03
we're all sensitive to the plight of marine mammals.
279
663260
3000
oog voor de benarde situatie van de zeezoogdieren.
11:06
So what you see in this particular ambiguous figure
280
666260
3000
Wat je in deze bijzonder ambigue figuur ziet
11:09
is, of course, the dolphins, right?
281
669260
2000
zijn, uiteraard, de dolfijnen.
11:11
You see a dolphin here,
282
671260
2000
U ziet hier een dolfijn.
11:13
and there's a dolphin,
283
673260
2000
En hier nog een.
11:15
and there's a dolphin.
284
675260
2000
En nog een dolfijn.
11:17
That's a dolphin tail there, guys.
285
677260
3000
Dat is een dolfijnstaart daar, jongens.
11:20
(Laughter)
286
680260
3000
Dat is een dolfijnstaart daar, jongens.
11:25
If we can give you conflicting data, again,
287
685260
3000
Bij tegenstrijdige gegevens
11:28
your ACC is going to be going into hyperdrive.
288
688260
3000
gaat je ACC in hyperdrive.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
691260
3000
Hier beneden lijkt het prima, maar hierdoor krijg je tegenstrijdige gegevens.
11:34
And then we have to flip the image
290
694260
2000
En dan kantelen we het beeld
11:36
for you to see that it's a set up.
291
696260
2000
om te zien dat het opgezet spel is.
11:40
The impossible crate illusion.
292
700260
2000
De illusie van het "Onmogelijke Krat".
11:42
It's easy to fool the brain in 2D.
293
702260
2000
Het is gemakkelijk om de hersenen in 2D te misleiden.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
704260
2000
Je zal zeggen: "Komaan, Shermer, dat kan elke
11:46
in a Psych 101 text with an illusion like that."
295
706260
2000
beginnende psycholoog."
11:48
Well here's the late, great Jerry Andrus'
296
708260
2000
Hier is wijlen de grote Jerry Andrus zijn
11:50
"impossible crate" illusion in 3D,
297
710260
3000
"Onmogelijke Krat"-illusie in 3D,
11:53
in which Jerry is standing inside
298
713260
2000
waarin Jerry binnen
11:55
the impossible crate.
299
715260
2000
het onmogelijke krat staat.
11:57
And he was kind enough to post this
300
717260
2000
En hij stuurde ons deze foto
11:59
and give us the reveal.
301
719260
2000
en ook de oplossing.
12:01
Of course, camera angle is everything. The photographer is over there,
302
721260
3000
Het camerastandpunt bepaalt alles. Daar staat de fotograaf.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
724260
3000
En deze lat lijkt te overlappen met deze, en deze met die ene, en ga zo maar door.
12:07
But even when I take it away,
304
727260
2000
maar zelfs wanneer ik het wegneem,
12:09
the illusion is so powerful because of how are brains are wired
305
729260
2000
is de illusie zo krachtig door de manier waarop hersenen bedraad zijn om
12:11
to find those certain kinds of patterns.
306
731260
3000
die bepaalde soorten patronen te vinden.
12:14
This is a fairly new one
307
734260
2000
Dit is een vrij nieuwe
12:16
that throws us off because of the conflicting patterns
308
736260
2000
die ons in de war brengt door die tegenstrijdige patronen
12:18
of comparing this angle with that angle.
309
738260
3000
door vergelijking van deze hoek met die hoek.
12:21
In fact, it's the exact same picture side by side.
310
741260
3000
In feite zijn het exact dezelfde foto's naast elkaar.
12:24
So what you're doing is comparing that angle
311
744260
2000
Dus wat je doet is die hoek vergelijken
12:26
instead of with this one, but with that one.
312
746260
2000
met die in plaats van met deze.
12:28
And so your brain is fooled.
313
748260
2000
En zo worden je hersenen bedrogen.
12:30
Yet again, your pattern detection devices are fooled.
314
750260
2000
Je patroondetectieapparatuur alweer voor de gek gehouden.
12:32
Faces are easy to see
315
752260
2000
Gezichten zijn gemakkelijk te zien
12:34
because we have an additional evolved
316
754260
2000
want we hebben extra geëvolueerde
12:36
facial recognition software
317
756260
2000
gezichtsherkenningssoftware
12:38
in our temporal lobes.
318
758260
3000
in onze temporele kwabben.
12:41
Here's some faces on the side of a rock.
319
761260
3000
Hier zijn een paar gezichten op de zijkant van een rots.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
764260
3000
Misschien gephotoshopt.
12:47
But anyway, the point is still made.
321
767260
2000
Maar goed, het punt is gemaakt.
12:49
Now which one of these looks odd to you?
322
769260
2000
Nu, welke van deze ziet er vreemd uit voor jou?
12:51
In a quick reaction, which one looks odd?
323
771260
2000
Welke ziet er op het eerste gezicht vreemd uit?
12:53
The one on the left. Okay. So I'll rotate it
324
773260
2000
Die ene aan de linkerkant. Oké. Dus ik draai ze om
12:55
so it'll be the one on the right.
325
775260
2000
zodat het die aan de rechterkant zal zijn.
12:57
And you are correct.
326
777260
2000
En je bent juist.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
779260
3000
Een beroemde illusie. Voor het eerst gedaan met Margaret Thatcher.
13:02
Now, they trade up the politicians every time.
328
782260
2000
Nu, ze laten er telkens politici voor opdraven.
13:04
Well, why is this happening?
329
784260
2000
Waarom gebeurt dit?
13:06
Well, we know exactly where it happens,
330
786260
2000
We weten precies waar het gebeurt,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
788260
3000
in je temporaalkwab, een beetje boven jouw oor daar.
13:11
in a little structure called the fusiform gyrus.
332
791260
3000
In een kleine structuur, de spoelvormige winding.
13:14
And there's two types of cells that do this,
333
794260
2000
En er zijn twee soorten cellen die
13:16
that record facial features either globally,
334
796260
3000
gelaatstrekken opslaan, ofwel algemeen,
13:19
or specifically these large, rapid-firing cells,
335
799260
2000
ofwel specifiek, deze grote, snelvurende cellen,
13:21
first look at the general face.
336
801260
2000
die eerst eens kijken naar het algemene gezicht.
13:23
So you recognize Obama immediately.
337
803260
2000
Dus herken je onmiddellijk Obama.
13:25
And then you notice something quite
338
805260
2000
En dan merk je iets
13:27
a little bit odd about the eyes and the mouth.
339
807260
2000
vreemds aan de ogen en de mond.
13:29
Especially when they're upside down,
340
809260
2000
Zeker als ze ondersteboven staan.
13:31
you're engaging that general facial recognition software there.
341
811260
3000
Je gebruikt algemene gezichtsherkenningssoftware.
13:34
Now I said back in our little thought experiment,
342
814260
3000
Daarstraks in ons gedachtenexperimentje was je
13:37
you're a hominid walking on the plains of Africa.
343
817260
2000
een hominide, lopend over de vlaktes van Afrika.
13:39
Is it just the wind or a dangerous predator?
344
819260
3000
Is het de wind of een gevaarlijk roofdier?
13:42
What's the difference between those?
345
822260
2000
Wat is het verschil ertussen?
13:44
Well, the wind is inanimate;
346
824260
2000
Nou, de wind is levenloos;
13:46
the dangerous predator is an intentional agent.
347
826260
2000
het gevaarlijke roofdier is een doelgericht agens.
13:48
And I call this process agenticity.
348
828260
2000
Dit noem ik "procesagenticeit".
13:50
That is the tendency to infuse patterns
349
830260
2000
Dat is de neiging om patronen in te vullen
13:52
with meaning, intention and agency,
350
832260
2000
met betekenis, intentie en actie,
13:54
often invisible beings from the top down.
351
834260
3000
vaak met onzichtbare wezens van bovenaf.
13:57
This is an idea that we got
352
837260
2000
Dit is een idee dat we kregen
13:59
from a fellow TEDster here, Dan Dennett,
353
839260
2000
van een collega-TED-er, Dan Dennett,
14:01
who talked about taking the intentional stance.
354
841260
2000
Hij noemde het de intentionele houding.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
843260
3000
Dat dient om een heleboel zaken uit te leggen:
14:06
souls, spirits, ghosts, gods, demons, angels,
356
846260
3000
zielen, geesten, spoken, goden, demonen, engelen,
14:09
aliens, intelligent designers,
357
849260
2000
vreemdelingen, intelligente ontwerpers,
14:11
government conspiracists
358
851260
2000
overheidssamenzweerders
14:13
and all manner of invisible agents
359
853260
2000
en allerlei onzichtbare agentia
14:15
with power and intention, are believed
360
855260
2000
voorzien van kracht en intentie, waarvan wordt aangenomen dat
14:17
to haunt our world and control our lives.
361
857260
2000
ze door onze wereld spoken en onze levens controleren.
14:19
I think it's the basis of animism
362
859260
2000
Ik denk dat dat de basis is van het animisme,
14:21
and polytheism and monotheism.
363
861260
3000
het polytheïsme en het monotheïsme.
14:24
It's the belief that aliens are somehow
364
864260
2000
Het is de overtuiging dat vreemde agentia
14:26
more advanced than us, more moral than us,
365
866260
2000
verder gevorderd zijn dan wij, moreler dan wij,
14:28
and the narratives always are
366
868260
2000
en het komt er altijd op neer
14:30
that they're coming here to save us and rescue us from on high.
367
870260
3000
dat ze ons komen redden 'vanuit den hoge'.
14:33
The intelligent designer's always portrayed
368
873260
2000
De intelligente ontwerper wordt altijd afgebeeld
14:35
as this super intelligent, moral being
369
875260
3000
als een superintelligent, moreel wezen
14:38
that comes down to design life.
370
878260
2000
dat het leven hier heeft ontworpen.
14:40
Even the idea that government can rescue us --
371
880260
2000
Het idee dat de overheid ons kan redden
14:42
that's no longer the wave of the future,
372
882260
2000
is niet langer de trend van de toekomst.
14:44
but that is, I think, a type of agenticity:
373
884260
2000
Maar dat is, denk ik, een soort agenticiteit,
14:46
projecting somebody up there,
374
886260
2000
om iemand daarboven te projecteren,
14:48
big and powerful, will come rescue us.
375
888260
2000
iemand groot en machtig die ons zal komen redden.
14:50
And this is also, I think, the basis of conspiracy theories.
376
890260
2000
En dit is ook, denk ik, de basis van complottheorieën.
14:52
There's somebody hiding behind there pulling the strings,
377
892260
3000
Dat er iemand in het verborgene aan de touwtjes trekt,
14:55
whether it's the Illuminati
378
895260
2000
of het nu de Illuminati
14:57
or the Bilderbergers.
379
897260
2000
of de Bilderbergers zijn.
14:59
But this is a pattern detection problem, isn't it?
380
899260
2000
Maar ook dit is een patroondetectieprobleem, niet?
15:01
Some patterns are real and some are not.
381
901260
2000
Sommige patronen zijn echt en sommige niet.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
903260
3000
Werd JFK vermoord door een samenzwering of door een eenzame huurmoordenaar?
15:06
Well, if you go there -- there's people there on any given day --
383
906260
3000
Je vindt daar altijd wel iemand -
15:09
like when I went there, here -- showing me where the different shooters were.
384
909260
3000
die je toont waar de verschillende schutters zaten.
15:12
My favorite one was he was in the manhole.
385
912260
3000
Mijn favoriet was dat hij in het mangat zat.
15:15
And he popped out at the last second, took that shot.
386
915260
3000
En in de laatste seconde te voorschijn sprong om te schieten.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
918260
2000
Lincoln werd wel vermoord door een samenzwering.
15:20
So we can't just uniformly dismiss
388
920260
2000
Dus we kunnen niet zomaar al die mogelijke
15:22
all patterns like that.
389
922260
2000
patronen over dezelfde kam scheren.
15:24
Because, let's face it, some patterns are real.
390
924260
2000
Sommige patronen zijn wel echt.
15:26
Some conspiracies really are true.
391
926260
2000
Sommige samenzweringen zijn echt waar.
15:30
Explains a lot, maybe.
392
930260
2000
Kan misschien veel verklaren.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
932260
3000
En 9/11 heeft zijn samenzweringstheorie. Het is een samenzwering.
15:35
We did a whole issue on it.
394
935260
2000
We kennen het verhaal.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
937260
2000
19 leden van Al Qaida zwoeren samen om vliegtuigen in gebouwen te vliegen.
15:39
constitutes a conspiracy.
396
939260
2000
Dat is een samenzwering.
15:41
But that's not what the "9/11 truthers" think.
397
941260
2000
Maar dat is niet wat de "9/11-waarheidzoekers" denken.
15:43
They think it was an inside job by the Bush administration.
398
943260
3000
Ze denken dat het een inside job was van de Bush-administratie.
15:46
Well, that's a whole other lecture.
399
946260
2000
Nou, dat is een heel andere lezing.
15:48
You know how we know that 9/11
400
948260
2000
Maar hoe weten we dat de 9/11-samenzwering
15:50
was not orchestrated by the Bush administration?
401
950260
2000
niet georkestreerd was door de regering Bush?
15:52
Because it worked.
402
952260
2000
Ze slaagde!
15:54
(Laughter)
403
954260
3000
Ze slaagde!
15:57
(Applause)
404
957260
3000
(Applaus)
16:00
So we are natural-born dualists.
405
960260
2000
We zijn geboren dualisten.
16:02
Our agenticity process comes from
406
962260
2000
Ons agenticiteitsproces maakt dat
16:04
the fact that we can enjoy movies like these.
407
964260
2000
we kunnen genieten van films als deze.
16:06
Because we can imagine, in essence,
408
966260
2000
Omdat wij ons kunnen voorstellen dat we
16:08
continuing on.
409
968260
2000
nooit zullen doodgaan.
16:10
We know that if you stimulate the temporal lobe,
410
970260
2000
We weten dat als je de temporale kwab stimuleert,
16:12
you can produce a feeling of out-of-body experiences,
411
972260
2000
je buitenlichamelijke ervaringen kan oproepen,
16:14
near-death experiences,
412
974260
2000
bijna-dood-ervaringen,
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
976260
3000
die je kan krijgen door gewoon de temporale kwab te prikkelen.
16:19
Or you can do it through loss of consciousness,
414
979260
2000
Of je kan dit ervaren door bewustzijnsverlies
16:21
by accelerating in a centrifuge.
415
981260
2000
door te versnellen in een centrifuge.
16:23
You get a hypoxia, or a lower oxygen.
416
983260
3000
Je krijgt hypoxie, een te laag zuurstofgehalte.
16:26
And the brain then senses
417
986260
2000
En de hersenen maken dan
16:28
that there's an out-of-body experience.
418
988260
2000
een buitenlichamelijke ervaring mee.
16:30
You can use -- which I did, went out and did --
419
990260
2000
Je kan ook, zoals ik, gebruik maken van
16:32
Michael Persinger's God Helmet,
420
992260
2000
de godshelm van Michael Persinger.
16:34
that bombards your temporal lobes with electromagnetic waves.
421
994260
2000
Die bestookt je temporaalkwabben met elektromagnetische golven.
16:36
And you get a sense of out-of-body experience.
422
996260
3000
En weer krijg je een buitenlichamelijke ervaring.
16:39
So I'm going to end here with a short video clip
423
999260
2000
Ik ga hier eindigen met een korte videoclip
16:41
that sort of brings all this together.
424
1001260
2000
die dit alles samenbrengt.
16:43
It's just a minute and a half.
425
1003260
2000
Hij duurt slechts anderhalve minuut.
16:45
It ties together all this into the power of expectation and the power of belief.
426
1005260
3000
Hij toont de verwachting en de kracht van het geloof.
16:48
Go ahead and roll it.
427
1008260
2000
Zet hem maar aan.
16:50
Narrator: This is the venue they chose for their fake auditions
428
1010260
3000
Verteller: Dit is de locatie die ze uitkozen voor hun nepaudities
16:53
for an advert for lip balm.
429
1013260
2000
voor een advertentie voor lippenbalsem.
16:55
Woman: We're hoping we can use part of this
430
1015260
2000
Vrouw: We hopen dat we dit kunnen gebruiken als onderdeel
16:57
in a national commercial, right?
431
1017260
2000
van een nationale campagne, OK.
16:59
And this is test on some lip balms
432
1019260
2000
En dit is een test
17:01
that we have over here.
433
1021260
2000
op een aantal lippenbalsems.
17:03
And these are our models who are going to help us,
434
1023260
2000
Deze modellen gaan ons daarbij helpen,
17:05
Roger and Matt.
435
1025260
2000
Roger en Matt.
17:07
And we have our own lip balm,
436
1027260
2000
We hebben onze eigen lippenbalsem,
17:09
and we have a leading brand.
437
1029260
2000
en we hebben een bekend merk.
17:11
Would you have any problem
438
1031260
2000
Zou je er een probleem mee hebben
17:13
kissing our models to test it?
439
1033260
2000
onze modellen te zoenen om ze te testen?
17:15
Girl: No.
440
1035260
2000
Meisje: Nee
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1037260
2000
Vrouw: Echt niet? (Meisje: No) Vrouw: In orde dan?
17:19
Girl: That would be fine. (Woman: Okay.)
442
1039260
2000
Meisje: Dat zou fijn zijn. (Vrouw: Oké.)
17:21
So this is a blind test.
443
1041260
3000
Dit is een blinde test.
17:24
I'm going to ask you to go ahead
444
1044260
2000
Wil je
17:26
and put a blindfold on.
445
1046260
2000
deze blinddoek omdoen.
17:29
Kay, now can you see anything? (Girl: No.)
446
1049260
3000
Kay, zie je nog iets? (Meisje: No)
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1052260
2000
Trek hem wat naar beneden. (Meisje: Oké.)
17:34
Woman: It's completely blind now, right?
448
1054260
2000
Vrouw: Je ziet nu niks meer, toch?
17:36
Girl: Yes. (Woman: Okay.)
449
1056260
2000
Meisje: Ja. (Vrouw: Oké.)
17:38
Now, what I'm going to be looking for in this test
450
1058260
3000
Wat ik nu ga testen
17:41
is how it protects your lips,
451
1061260
3000
is hoe hij je lippen beschermt,
17:44
the texture, right,
452
1064260
2000
hoe hij aanvoelt, oké,
17:46
and maybe if you can discern any flavor or not.
453
1066260
3000
of je de smaken onderscheiden.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1069260
3000
Meisje: Oké. (Vrouw: Heb je ooit nog zo'n kustest gedaan?)
17:52
Girl: No.
455
1072260
2000
Meisje: Nee
17:54
Woman: Take a step here.
456
1074260
2000
Vrouw: Kom even naar hier.
17:56
Okay, now I'm going to ask you to pucker up.
457
1076260
2000
Oké, tuit nu je lippen.
17:58
Pucker up big and lean in just a little bit, okay?
458
1078260
3000
Tuit ze en buig wat voorover.
18:06
(Music)
459
1086260
4000
Tuit ze en buig wat voorover.
18:10
(Laughter)
460
1090260
5000
(Gelach)
18:19
(Laughter)
461
1099260
3000
(Gelach)
18:30
Woman: Okay.
462
1110260
2000
Oké.
18:32
And, Jennifer, how did that feel?
463
1112260
2000
En, Jennifer, hoe voelde dat?
18:34
Jennifer: Good.
464
1114260
2000
Jennifer: Goed.
18:36
(Laughter)
465
1116260
7000
Jennifer: Goed.
18:43
Girl: Oh my God!
466
1123260
2000
Meisje: Oh, mijn God.
18:45
(Laughter)
467
1125260
4000
Meisje: Oh, mijn God.
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1130260
3000
Michael Shermer: Dank u wel.
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7