Do you really know why you do what you do? | Petter Johansson

189,870 views ・ 2018-03-27

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Peter van de Ven Nagekeken door: Christel Foncke
00:12
So why do you think the rich should pay more in taxes?
0
12800
3560
Waarom vind je dat de rijken meer belasting moeten betalen?
00:16
Why did you buy the latest iPhone?
1
16400
2376
Waarom kocht je de laatste iPhone?
00:18
Why did you pick your current partner?
2
18800
2456
Waarom koos je je huidige partner?
00:21
And why did so many people vote for Donald Trump?
3
21280
3416
En waarom stemden zovelen voor Donald Trump?
00:24
What were the reasons, why did they do it?
4
24720
2520
Wat waren de redenen? Waarom deden ze het?
00:27
So we ask this kind of question all the time,
5
27990
2106
We stellen dit soort vragen voortdurend
00:30
and we expect to get an answer.
6
30120
1736
en we verwachten een antwoord.
00:31
And when being asked, we expect ourselves to know the answer,
7
31880
3136
En als het ons gevraagd wordt, verwachten we het te weten,
00:35
to simply tell why we did as we did.
8
35040
2480
dat we zo kunnen zeggen waarom we deden wat we deden.
00:38
But do we really know why?
9
38440
1720
Maar weten we eigenlijk wel waarom?
00:41
So when you say that you prefer George Clooney to Tom Hanks,
10
41000
3456
Als je zegt dat je George Clooney leuker vindt dan Tom Hanks,
00:44
due to his concern for the environment,
11
44479
2057
omdat hij zo begaan is met het milieu,
00:46
is that really true?
12
46560
1200
is dat dan wel zo?
00:48
So you can be perfectly sincere and genuinely believe
13
48560
2496
Je kunt heel oprecht zijn
en echt geloven dat dat je keuze bepaalt,
00:51
that this is the reason that drives your choice,
14
51080
2936
00:54
but to me, it may still feel like something is missing.
15
54040
2600
maar in mijn beleving mist er misschien nog iets.
00:57
As it stands, due to the nature of subjectivity,
16
57560
3176
Op dit moment is het gezien de aard van subjectiviteit
01:00
it is actually very hard to ever prove that people are wrong about themselves.
17
60760
4320
moeilijk te bewijzen dat mensen zichzelf verkeerd inschatten.
01:06
So I'm an experimental psychologist,
18
66600
2136
Ik ben experimenteel psycholoog
01:08
and this is the problem we've been trying to solve in our lab.
19
68760
3536
en dit is het probleem wat we in ons lab proberen op te lossen.
01:12
So we wanted to create an experiment
20
72320
2176
We wilden dus een experiment verzinnen
01:14
that would allow us to challenge what people say about themselves,
21
74520
3536
waarmee we vraagtekens konden zetten bij wat mensen over zichzelf zeggen,
01:18
regardless of how certain they may seem.
22
78080
2680
ongeacht van hoe zeker zij daarvan lijken.
01:21
But tricking people about their own mind is hard.
23
81960
2736
Maar mensen foppen over hun eigen geest is lastig.
01:24
So we turned to the professionals.
24
84720
2376
Dus schakelden we professionals in.
01:27
The magicians.
25
87120
1200
Goochelaars:
experts in het scheppen van de illusie van vrije keuze.
01:29
So they're experts at creating the illusion of a free choice.
26
89120
2896
Als zij zeggen: "Kies een willekeurige kaart",
01:32
So when they say, "Pick a card, any card,"
27
92040
2296
01:34
the only thing you know is that your choice is no longer free.
28
94360
2920
weet je zeker dat je keuze niet vrij meer is.
01:38
So we had a few fantastic brainstorming sessions
29
98200
2376
We hadden een aantal geweldige brainstormsessies
01:40
with a group of Swedish magicians,
30
100600
1856
met een groep Zweedse goochelaars
01:42
and they helped us create a method
31
102480
1642
en ze hielpen ons iets te vinden
01:44
in which we would be able to manipulate the outcome of people's choices.
32
104147
3973
om de uiteindelijke keuze van mensen mee te manipuleren.
01:48
This way we would know when people are wrong about themselves,
33
108760
2936
Zo zouden we weten dat mensen zich in zichzelf vergissen,
01:51
even if they don't know this themselves.
34
111720
2040
zelfs wanneer ze dat zelf niet weten.
01:54
So I will now show you a short movie showing this manipulation.
35
114480
4656
Ik zal je een kort filmpje laten zien wat deze manipulatie in beeld brengt.
01:59
So it's quite simple.
36
119160
1416
Het werkt heel simpel.
02:00
The participants make a choice,
37
120600
2136
De deelnemers maken een keuze,
02:02
but I end up giving them the opposite.
38
122760
2256
maar ik geef ze het tegenovergestelde.
02:05
And then we want to see: How did they react, and what did they say?
39
125040
3520
En dan willen we zien: hoe reageren ze en wat zeggen ze?
02:09
So it's quite simple, but see if you can spot the magic going on.
40
129240
3160
Het is heel simpel, maar kijk even of je kunt zien hoe we dat doen.
02:13
And this was shot with real participants, they don't know what's going on.
41
133440
3520
Dit werd opgenomen met echte deelnemers die niet weten wat er zich afspeelt.
(Video) Petter Johansson: Hai, ik ben Petter.
02:19
(Video) Petter Johansson: Hi, my name's Petter.
42
139000
2216
Vrouw: Hai, ik ben Becka.
02:21
Woman: Hi, I'm Becka.
43
141240
1215
PJ: Ik ga je dit soort foto's laten zien
02:22
PJ: I'm going to show you pictures like this.
44
142479
2137
en jij moet beslissen welke je aantrekkelijker vindt.
02:24
And you'll have to decide which one you find more attractive.
45
144640
2896
02:27
Becka: OK.
46
147560
1216
Becka: OK.
02:28
PJ: And then sometimes, I will ask you why you prefer that face.
47
148800
3176
PJ: En soms vraag ik je ook waarom je die voorkeur hebt.
Becka: OK.
02:32
Becka: OK.
48
152000
1216
PJ: Klaar? Becka: Ja.
02:33
PJ: Ready? Becka: Yeah.
49
153240
1200
02:43
PJ: Why did you prefer that one?
50
163120
1816
PJ: Waarom koos je die?
02:44
Becka: The smile, I think.
51
164960
1496
Becka: De glimlach, denk ik.
02:46
PJ: Smile.
52
166480
1200
PJ: Glimlach.
02:52
Man: One on the left.
53
172400
1240
Man: Die linkse.
02:57
Again, this one just struck me.
54
177520
1640
Ook hier, deze viel me gewoon op.
02:59
Interesting shot.
55
179760
1616
Interessante opname.
03:01
Since I'm a photographer, I like the way it's lit and looks.
56
181400
3000
Ik ben fotograaf en dit is echt heel mooi belicht.
03:06
Petter Johansson: But now comes the trick.
57
186280
2040
Petter Johansson: Maar nu komt de truc.
03:10
(Video) Woman 1: This one.
58
190120
1280
(Video) Vrouw 1: Deze.
03:16
PJ: So they get the opposite of their choice.
59
196240
2280
PJ: Dus ik geef ze juist die andere.
03:20
And let's see what happens.
60
200520
1600
Eens kijken wat er gebeurt.
03:28
Woman 2: Um ...
61
208240
1200
Vrouw 2: Ehhh ...
03:35
I think he seems a little more innocent than the other guy.
62
215760
2800
Ik denk dat hij wat onschuldiger lijkt dan die ander.
03:45
Man: The one on the left.
63
225360
1240
Man: Die linkse.
03:49
I like her smile and contour of the nose and face.
64
229280
3696
Ze heeft een mooie glimlach en een fraaie neus en gezicht.
03:53
So it's a little more interesting to me, and her haircut.
65
233000
2760
Daarom vind ik deze interessanter en haar haarstijl ook.
04:00
Woman 3: This one.
66
240040
1200
Vrouw 3: Deze.
04:03
I like the smirky look better.
67
243520
1576
Ik hou wel van die grijns.
04:05
PJ: You like the smirky look better?
68
245120
2000
PJ: Je vind die grijns leuker?
04:09
(Laughter)
69
249680
3176
(Gelach)
04:12
Woman 3: This one.
70
252880
1200
Vrouw 3: Deze.
04:15
PJ: What made you choose him?
71
255280
1400
PJ: Waarom koos je hem?
04:17
Woman 3: I don't know, he looks a little bit like the Hobbit.
72
257520
2896
Vrouw 3: Ik weet niet, hij lijkt een beetje op de Hobbit.
04:20
(Laughter)
73
260440
2056
(Gelach)
04:22
PJ: And what happens in the end
74
262520
1496
PJ: Wat gebeurt er op het eind,
wanneer ik ze vertel wat we eigenlijk gedaan hebben?
04:24
when I tell them the true nature of the experiment?
75
264040
3096
04:27
Yeah, that's it. I just have to ask a few questions.
76
267160
2456
Dat was het. Ik heb alleen nog een paar vragen.
04:29
Man: Sure.
77
269640
1216
Man: Prima.
04:30
PJ: What did you think of this experiment, was it easy or hard?
78
270880
2976
PJ: Wat vond je van het experiment. Was het lastig of niet?
04:33
Man: It was easy.
79
273880
1240
Man: Eenvoudig.
04:36
PJ: During the experiments,
80
276040
1336
PJ: Gedurende het experiment
04:37
I actually switched the pictures three times.
81
277400
3336
heb ik feitelijk drie keer de foto's verwisseld.
04:40
Was this anything you noticed?
82
280760
1576
Heb je dat gemerkt?
04:42
Man: No. I didn't notice any of that.
83
282360
1816
Man: Nee, niets van gemerkt.
04:44
PJ: Not at all? Man: No.
84
284200
1496
PJ: Helemaal niet? Man: Nee.
04:45
Switching the pictures as far as ...
85
285720
2096
In hoeverre verwisseld??
04:47
PJ: Yeah, you were pointing at one of them but I actually gave you the opposite.
86
287840
3816
PJ: Nou, jij wees de een aan en dan gaf ik je de ander.
04:51
Man: The opposite one. OK, when you --
87
291680
1816
Man: De andere. Dus ...
04:53
No. Shows you how much my attention span was.
88
293520
2256
Nee. Kan je nagaan hoe slecht ik zat op te letten.
04:55
(Laughter)
89
295800
1520
(Gelach)
04:58
PJ: Did you notice that sometimes during the experiment
90
298880
3016
PJ: Heb je gemerkt dat tijdens het experiment
05:01
I switched the pictures?
91
301920
2136
ik de foto's verwisselde?
05:04
Woman 2: No, I did not notice that.
92
304080
2016
Vrouw 2: Nee, niet gemerkt.
05:06
PJ: You were pointing at one, but then I gave you the other one.
93
306120
3000
PJ: Je wees de ene aan en dan gaf ik je de andere.
05:09
No inclination of that happening?
94
309920
1616
Daar had je geen idee van?
05:11
Woman 2: No.
95
311560
1576
Vrouw 2: Nee.
05:13
Woman 2: I did not notice.
96
313160
1256
Vrouw 2: Niets van gemerkt.
05:14
(Laughs)
97
314440
1936
(Lacht)
05:16
PJ: Thank you.
98
316400
1216
PJ: Dankjewel.
05:17
Woman 2: Thank you.
99
317640
1376
Vrouw 2: Dankjewel.
05:19
PJ: OK, so as you probably figured out now,
100
319040
2056
PJ: Goed, je zult inmiddels wel doorhebben
05:21
the trick is that I have two cards in each hand,
101
321120
2256
dat ik in iedere hand gewoon twee kaarten heb
05:23
and when I hand one of them over,
102
323400
1576
en als ik er een van overhandig,
05:25
the black one kind of disappears into the black surface on the table.
103
325000
4360
verdwijnt de zwarte, zeg maar, op het zwarte oppervlak van de tafel.
05:30
So using pictures like this,
104
330640
1736
Als je foto's zo gebruikt,
05:32
normally not more than 20 percent of the participants detect these tries.
105
332400
4376
heeft meestal niet meer dan 20% van de deelnemers dit door.
05:36
And as you saw in the movie,
106
336800
1416
En zoals je in de film zag,
05:38
when in the end we explain what's going on,
107
338240
3176
als we op het einde uitleggen wat we eigenlijk doen,
05:41
they're very surprised and often refuse to believe the trick has been made.
108
341440
4376
zijn ze heel verbaasd en geloven vaak niet dat we die truc hebben uitgevoerd.
05:45
So this shows that this effect is quite robust and a genuine effect.
109
345840
4776
Dat laat wel zien dat dit effect echt en betrouwbaar is.
05:50
But if you're interested in self-knowledge, as I am,
110
350640
2656
Maar als je interesse hebt in zelfkennis, zoals ik,
05:53
the more interesting bit is,
111
353320
1336
is het interessantste nog
05:54
OK, so what did they say when they explained these choices?
112
354680
3936
wat ze zeiden om hun keuzes te beargumenteren.
05:58
So we've done a lot of analysis
113
358640
1496
We hebben uitgebreid gekeken naar wat ze precies zeiden.
06:00
of the verbal reports in these experiments.
114
360160
2080
06:03
And this graph simply shows
115
363360
2456
Deze grafiek laat eenvoudigweg zien
06:05
that if you compare what they say in a manipulated trial
116
365840
4776
dat als je vergelijkt wat ze zeiden in een gemanipuleerde test
06:10
with a nonmanipulated trial,
117
370640
1376
versus een niet-gemanipuleerde,
06:12
that is when they explain a normal choice they've made
118
372040
2776
dus waar ze een normale keuze toelichten
06:14
and one where we manipulated the outcome,
119
374840
2496
en een waar we de uitkomst hebben gemanipuleerd,
06:17
we find that they are remarkably similar.
120
377360
2456
dat de resultaten bijna hetzelfde zijn.
06:19
So they are just as emotional, just as specific,
121
379840
3056
Ze zijn dus net zo emotioneel, net zo gedetailleerd,
06:22
and they are expressed with the same level of certainty.
122
382920
3200
en ze worden geuit met evenveel overtuiging.
06:27
So the strong conclusion to draw from this
123
387120
2336
Nu zou je hieruit kunnen concluderen
06:29
is that if there are no differences
124
389480
2216
dat als er geen verschillen zijn
06:31
between a real choice and a manipulated choice,
125
391720
3696
tussen een echte keuze en een gemanipuleerde keuze,
06:35
perhaps we make things up all the time.
126
395440
2440
dat we voortdurend maar wat verzinnen.
06:38
But we've also done studies
127
398680
1336
Maar we onderzochten ook
06:40
where we try to match what they say with the actual faces.
128
400040
3016
of wat ze zeggen wel bij de gezichten past.
06:43
And then we find things like this.
129
403080
1880
En dan vinden we dit soort dingen.
06:45
So here, this male participant, he preferred the girl to the left,
130
405760
5056
Deze mannelijke deelnemer gaf de voorkeur aan het linkse meisje,
06:50
he ended up with the one to the right.
131
410840
1856
kreeg echter het rechtse meisje
06:52
And then, he explained his choice like this.
132
412720
2816
en verklaarde zijn keuze daarop als volgt:
06:55
"She is radiant.
133
415560
1296
"Ze straalt.
06:56
I would rather have approached her at the bar than the other one.
134
416880
3096
Ik zou haar in een bar eerder aanspreken dan de ander.
En ik hou van oorbellen."
07:00
And I like earrings."
135
420000
1616
07:01
And whatever made him choose the girl on the left to begin with,
136
421640
3496
En waarom hij het linkse meisje ook koos,
het was zeker niet om de oorbellen,
07:05
it can't have been the earrings,
137
425160
1576
07:06
because they were actually sitting on the girl on the right.
138
426760
2856
want die werden gedragen door het rechtse meisje.
07:09
So this is a clear example of a post hoc construction.
139
429640
3776
Dit is een duidelijk voorbeeld van achteraf gestelde vragen.
07:13
So they just explained the choice afterwards.
140
433440
2800
Ze verklaarden hun keuze dus gewoon achteraf.
07:17
So what this experiment shows is,
141
437320
2296
Dit experiment laat zien
07:19
OK, so if we fail to detect that our choices have been changed,
142
439640
3656
dat als we niet doorhebben dat er met onze keuze is gesjoemeld,
07:23
we will immediately start to explain them in another way.
143
443320
3200
we onmiddellijk een ander argument verzinnen.
07:27
And what we also found
144
447520
1256
We zagen ook
07:28
is that the participants often come to prefer the alternative,
145
448800
3216
dat de voorkeur van de deelnemer vaak verschuift
07:32
that they were led to believe they liked.
146
452040
2256
richting wat wij hen wijsmaakten.
07:34
So if we let them do the choice again,
147
454320
2016
Als we ze dan opnieuw lieten kiezen,
07:36
they will now choose the face they had previously rejected.
148
456360
3760
kozen ze juist het gezicht dat ze eerst hadden afgewezen.
07:41
So this is the effect we call "choice blindness."
149
461520
2296
Dit effect noemen we 'keuzeblindheid'.
07:43
And we've done a number of different studies --
150
463840
2216
We hebben een aantal onderzoeken gedaan --
07:46
we've tried consumer choices,
151
466080
2536
zoals consumentenkeuzes,
07:48
choices based on taste and smell and even reasoning problems.
152
468640
4416
keuzes inzake smaak en geur en zelfs redeneringsproblemen.
07:53
But what you all want to know is of course
153
473080
2056
Maar jullie willen natuurlijk weten
07:55
does this extend also to more complex, more meaningful choices?
154
475160
3936
of je dit kunt doortrekken naar complexere, ingrijpender keuzes.
07:59
Like those concerning moral and political issues.
155
479120
3080
Zoals morele en politieke onderwerpen.
08:04
So the next experiment, it needs a little bit of a background.
156
484400
4216
Het volgende experiment moet ik even iets meer inleiden.
08:08
So in Sweden, the political landscape
157
488640
4256
In Zweden wordt het politieke landschap
08:12
is dominated by a left-wing and a right-wing coalition.
158
492920
3360
gedomineerd door een rechtse en een linkse coalitie.
08:17
And the voters may move a little bit between the parties within each coalition,
159
497720
4416
De kiezers stemmen misschien eens op een andere partij binnen hun coalitie,
08:22
but there is very little movement between the coalitions.
160
502160
2760
maar er lopen er weinig over tussen de coalities.
08:25
And before each elections,
161
505680
1976
En voor elke verkiezing
08:27
the newspapers and the polling institutes
162
507680
4216
stellen de kranten en opiniepeilers wat ze noemen een kieskompas samen,
08:31
put together what they call "an election compass"
163
511920
2616
08:34
which consists of a number of dividing issues
164
514560
3336
wat bestaat uit een aantal beleidspunten
08:37
that sort of separates the two coalitions.
165
517920
2336
waarin de coalities zich onderscheiden.
08:40
Things like if tax on gasoline should be increased
166
520280
3735
Bijvoorbeeld of de belasting op benzine moet worden verhoogd
08:44
or if the 13 months of paid parental leave
167
524039
4096
of dat de 13 maanden betaald ouderschapsverlof
08:48
should be split equally between the two parents
168
528159
2496
gelijkelijk over beide ouders moet worden verdeeld
08:50
in order to increase gender equality.
169
530679
2721
om gendergelijkheid te bevorderen.
08:54
So, before the last Swedish election,
170
534840
2216
Voor de laatste Zweedse verkiezingen
08:57
we created an election compass of our own.
171
537080
2600
besloten we dus ons eigen kieskompas te maken.
09:00
So we walked up to people in the street
172
540480
2136
We benaderden mensen op straat
09:02
and asked if they wanted to do a quick political survey.
173
542640
3336
en vroegen of ze een korte politieke enquête wilden invullen.
09:06
So first we had them state their voting intention
174
546000
2456
We vroegen ze eerst welke coalitie hun voorkeur had
09:08
between the two coalitions.
175
548480
1360
09:10
Then we asked them to answer 12 of these questions.
176
550560
3776
en vervolgens moesten ze twaalf vragen beantwoorden.
09:14
They would fill in their answers,
177
554360
1976
Zij vulden dan hun antwoorden in,
09:16
and we would ask them to discuss,
178
556360
1616
waarop wij dan vroegen
09:18
so OK, why do you think tax on gas should be increased?
179
558000
5496
waarom ze bijvoorbeeld vonden dat de belasting op benzine omhoog moest.
09:23
And we'd go through the questions.
180
563520
2096
En zo gingen we dan door die vragen heen.
09:25
Then we had a color coded template
181
565640
3896
Vervolgens hadden we dan een kleurenmodel
09:29
that would allow us to tally their overall score.
182
569560
2936
waarmee we hun totaalscore konden bepalen.
09:32
So this person would have one, two, three, four
183
572520
3456
Deze persoon had dan een, twee, drie, vier,
09:36
five, six, seven, eight, nine scores to the left,
184
576000
3296
vijf, zes, zeven, acht, negen scores aan de linkerkant,
09:39
so he would lean to the left, basically.
185
579320
2680
waarmee hij dus naar links neigde.
09:42
And in the end, we also had them fill in their voting intention once more.
186
582800
4440
En op het einde lieten we hen nogmaals invullen wat ze zouden stemmen.
09:48
But of course, there was also a trick involved.
187
588160
2280
Maar we hadden natuurlijk een truc uitgehaald.
09:51
So first, we walked up to people,
188
591360
2176
We liepen op de mensen af,
09:53
we asked them about their voting intention
189
593560
2056
vroegen hen wat ze gingen stemmen
09:55
and then when they started filling in,
190
595640
2256
en als ze begonnen met invullen,
09:57
we would fill in a set of answers going in the opposite direction.
191
597920
5456
vulden wij antwoorden in die naar de andere kant neigden.
10:03
We would put it under the notepad.
192
603400
2576
We stopten het onder de kladblok.
10:06
And when we get the questionnaire,
193
606000
2776
En als we de vragenlijst terugkregen,
10:08
we would simply glue it on top of the participant's own answer.
194
608800
3320
plakten we onze antwoorden gewoon bovenop de hunne.
Zie je? Weg zijn ze.
10:16
So there, it's gone.
195
616000
1240
10:24
And then we would ask about each of the questions:
196
624280
2376
Dan vroegen we bij elke vraag:
10:26
How did you reason here?
197
626680
1536
hoe kwam je tot dit besluit?
10:28
And they'll state the reasons,
198
628240
1736
Zij legden dat dan uit
10:30
together we will sum up their overall score.
199
630000
2480
en samen berekenden we hun totaalscore.
10:34
And in the end, they will state their voting intention again.
200
634800
3680
En op het eind zeggen ze nogmaals wat ze willen gaan stemmen.
10:41
So what we find first of all here,
201
641960
1656
Om te beginnen constateerden we
10:43
is that very few of these manipulations are detected.
202
643640
4216
dat heel weinig mensen doorhadden wat we deden.
10:47
And they're not detected in the sense that they realize,
203
647880
2656
En als het wel zo was, zeiden ze niet:
10:50
"OK, you must have changed my answer,"
204
650560
1856
"Hé, je hebt mijn antwoorden veranderd",
10:52
it was more the case that,
205
652440
1256
ze hadden vaker zoiets van:
10:53
"OK, I must've misunderstood the question the first time I read it.
206
653720
3176
"Ik moet de vraag verkeerd hebben begrepen,
10:56
Can I please change it?"
207
656920
1240
kan ik het nog veranderen?"
10:59
And even if a few of these manipulations were changed,
208
659080
5136
Ook al werd een aantal van deze manipulaties veranderd,
11:04
the overall majority was missed.
209
664240
2136
de overgrote meerderheid werd niet gezien.
11:06
So we managed to switch 90 percent of the participants' answers
210
666400
3656
We konden bij 90% van de deelnemers hun antwoorden switchen
van links naar rechts of andersom, hun totaalprofiel.
11:10
from left to right, right to left, their overall profile.
211
670080
3160
11:14
And what happens then when they are asked to motivate their choices?
212
674800
4400
En wat gebeurt er dan als we hen vragen hun keuze te motiveren?
11:20
And here we find much more interesting verbal reports
213
680160
3056
Hier zien we veel interessantere mondelinge verklaringen
11:23
than compared to the faces.
214
683240
2016
dan bij de gezichten.
11:25
People say things like this, and I'll read it to you.
215
685280
3360
Mensen zeggen dit soort dingen -- ik zal het voorlezen.
11:29
So, "Large-scale governmental surveillance of email and internet traffic
216
689720
3736
"Grootschalige overheidscontrole op e-mail en internetverkeer
11:33
ought to be permissible as means to combat international crime and terrorism."
217
693480
4336
zou toegestaan moeten zijn
om internationale misdaad en terrorisme te bestrijden."
11:37
"So you agree to some extent with this statement." "Yes."
218
697840
2716
"Je kunt je hier dus enigszins in vinden." "Ja."
11:40
"So how did you reason here?"
219
700580
1500
"Hoe kwam je daartoe?"
11:43
"Well, like, as it is so hard to get at international crime and terrorism,
220
703600
4936
"Nou, omdat het zo lastig is om dat soort dingen aan te pakken,
11:48
I think there should be those kinds of tools."
221
708560
2776
zou men dat soort mogelijkheden moeten hebben."
11:51
And then the person remembers an argument from the newspaper in the morning.
222
711360
3616
Op dat moment herinnert die persoon zich een argument uit de krant.
11:55
"Like in the newspaper today,
223
715000
1616
"Vanmorgen stond in de krant
11:56
it said they can like, listen to mobile phones from prison,
224
716640
3376
dat ze bijvoorbeeld telefoons in de gevangenis kunnen afluisteren,
12:00
if a gang leader tries to continue his crimes from inside.
225
720040
3536
om te zien of iemand zijn misdrijven voortzet vanachter de tralies.
12:03
And I think it's madness that we have so little power
226
723600
2816
Het is toch te gek dat we zo weinig kunnen doen,
12:06
that we can't stop those things
227
726440
1656
dat we het niet kunnen stoppen,
12:08
when we actually have the possibility to do so."
228
728120
2936
terwijl we toch die mogelijkheid hebben.
12:11
And then there's a little bit back and forth in the end:
229
731080
2696
En dan is er wat getwijfel op het einde:
12:13
"I don't like that they have access to everything I do,
230
733800
2576
"Ik vind het niet prettig dat ze alles van me weten,
maar uiteindelijk is het dat toch wel waard."
12:16
but I still think it's worth it in the long run."
231
736400
2576
12:19
So, if you didn't know that this person
232
739000
2536
Als je niet zou weten
dat deze persoon net meedeed in een experiment,
12:21
just took part in a choice blindness experiment,
233
741560
2256
12:23
I don't think you would question
234
743840
1856
zou je er niet aan twijfelen
12:25
that this is the true attitude of that person.
235
745720
3120
dat dit echt haar mening is.
12:29
And what happens in the end, with the voting intention?
236
749800
2856
En wat gebeurt er op het eind met wat ze wilden stemmen?
12:32
What we find -- that one is also clearly affected by the questionnaire.
237
752680
4696
We kwamen erachter dat ook dit wordt beïnvloed door de vragenlijst.
12:37
So we have 10 participants
238
757400
1736
We hebben tien deelnemers
12:39
shifting from left to right or from right to left.
239
759160
2976
die switchen van links naar rechts of andersom.
12:42
We have another 19 that go from clear voting intention
240
762160
2536
Negentien veranderen van een duidelijke voorkeur
12:44
to being uncertain.
241
764720
1456
naar twijfel.
12:46
Some go from being uncertain to clear voting intention.
242
766200
3096
Sommigen van twijfel naar een duidelijke voorkeur.
12:49
And then there is a number of participants staying uncertain throughout.
243
769320
4736
En er is een aantal deelnemers dat voortdurend blijft twijfelen.
12:54
And that number is interesting
244
774080
1576
En dat aantal is interessant,
12:55
because if you look at what the polling institutes say
245
775680
4616
want als je kijkt naar wat opiniepeilers zeggen
over de periode vlak voor een verkiezing,
13:00
the closer you get to an election,
246
780320
1656
13:02
the only people that are sort of in play
247
782000
2136
dan zijn het eigenlijk alleen die twijfelaars die het verschil maken.
13:04
are the ones that are considered uncertain.
248
784160
2656
13:06
But we show there is a much larger number
249
786840
3216
Maar wij laten zien dat er een veel groter aantal is
13:10
that would actually consider shifting their attitudes.
250
790080
2800
dat feitelijk nog bereid is zijn voorkeur te herzien.
13:13
And here I must point out, of course, that you are not allowed to use this
251
793640
3496
Ik moet hier natuurlijk toevoegen dat je dit niet mag gebruiken
13:17
as an actual method to change people's votes
252
797160
2616
om de stemmen van mensen mee te manipuleren voor een verkiezing.
13:19
before an election,
253
799800
1496
13:21
and we clearly debriefed them afterwards
254
801320
3616
We hebben ze achteraf dan ook ingelicht en in de gelegenheid gesteld
13:24
and gave them every opportunity to change back
255
804960
2296
hun oorspronkelijke standpunt weer in te nemen.
13:27
to whatever they thought first.
256
807280
2480
13:30
But what this shows is that if you can get people
257
810600
2336
Maar dit laat zien dat als je mensen zover krijgt
13:32
to see the opposite view and engage in a conversation with themselves,
258
812960
5536
om de andere kant te zien en de discussie met zichzelf aan te gaan,
13:38
that could actually make them change their views.
259
818520
2920
dat je ze echt van mening kunt doen veranderen.
13:42
OK.
260
822400
1200
OK.
13:44
So what does it all mean?
261
824760
1656
Wat betekent dit nu allemaal?
13:46
What do I think is going on here?
262
826440
2416
Wat is hier precies aan de hand?
13:48
So first of all,
263
828880
1216
Om te beginnen
13:50
a lot of what we call self-knowledge is actually self-interpretation.
264
830120
4856
is veel van wat we zelfkennis noemen eigenlijk zelf-interpretatie.
13:55
So I see myself make a choice,
265
835000
2496
Dus ik zie mezelf een keuze maken
13:57
and then when I'm asked why,
266
837520
2776
en als men mij vraagt naar het waarom,
14:00
I just try to make as much sense of it as possible
267
840320
2536
probeer ik er zo'n logisch mogelijk verhaal achter te verzinnen.
14:02
when I make an explanation.
268
842880
1936
14:04
But we do this so quickly and with such ease
269
844840
3016
Maar we doen dit zo snel en zijn er zo handig in
14:07
that we think we actually know the answer when we answer why.
270
847880
4280
dat we echt denken het antwoord te weten als we het waarom verklaren.
14:13
And as it is an interpretation,
271
853040
3096
En omdat het een interpretatie is,
14:16
of course we sometimes make mistakes.
272
856160
2296
maken we natuurlijk soms fouten,
14:18
The same way we make mistakes when we try to understand other people.
273
858480
3520
net zoals we fouten maken wanneer we anderen proberen te begrijpen.
14:23
So beware when you ask people the question "why"
274
863160
3696
Pas dus op wanneer je iemand vraagt: "Waarom?"
14:26
because what may happen is that, if you asked them,
275
866880
4896
Want er kan iets gebeuren
als je ze vraagt waarom ze achter een idee staan,
14:31
"So why do you support this issue?"
276
871800
4016
14:35
"Why do you stay in this job or this relationship?" --
277
875840
3216
of waarom ze aan een baan of een relatie vasthouden.
14:39
what may happen when you ask why is that you actually create an attitude
278
879080
3416
Wat er kan gebeuren is dat je er een houding mee kunt creëren
14:42
that wasn't there before you asked the question.
279
882520
2240
die er helemaal niet was voordat je dat vroeg.
14:45
And this is of course important in your professional life, as well,
280
885440
3176
En in je beroep is dat natuurlijk ook belangrijk,
14:48
or it could be.
281
888640
1216
of zou dat kunnen zijn.
14:49
If, say, you design something and then you ask people,
282
889880
2536
Als je bijvoorbeeld iets ontwerpt en je vraagt mensen
14:52
"Why do you think this is good or bad?"
283
892440
2256
waarom het goed of slecht is.
14:54
Or if you're a journalist asking a politician,
284
894720
3056
Of als je journalist bent en je vraagt een politicus:
14:57
"So, why did you make this decision?"
285
897800
2376
"Waarom besloot u hiertoe?"
15:00
Or if indeed you are a politician
286
900200
1936
Of wanneer je die politicus bent
15:02
and try to explain why a certain decision was made.
287
902160
2640
en je probeert uit te leggen waarom je ergens toe besloot.
15:06
So this may all seem a bit disturbing.
288
906080
3576
Het klinkt wellicht allemaal wat verontrustend.
15:09
But if you want to look at it from a positive direction,
289
909680
3496
Maar als je het wilt bekijken van een positieve kant,
15:13
it could be seen as showing,
290
913200
1736
kun je zeggen dat het laat zien
15:14
OK, so we're actually a little bit more flexible than we think.
291
914960
3376
dat we eigenlijk flexibeler zijn dan we denken.
15:18
We can change our minds.
292
918360
1896
We kunnen van gedachten veranderen;
15:20
Our attitudes are not set in stone.
293
920280
2456
onze mening ligt niet onwrikbaar vast.
15:22
And we can also change the minds of others,
294
922760
3176
En we kunnen ook anderen van gedachten doen veranderen
15:25
if we can only get them to engage with the issue
295
925960
2376
door ze over het onderwerp te laten nadenken
15:28
and see it from the opposite view.
296
928360
1680
en het eens van de andere kant te bekijken.
15:31
And in my own personal life, since starting with this research --
297
931400
3936
En in mijn eigen leven, sinds ik met dit onderzoek begon ...
15:35
So my partner and I, we've always had the rule
298
935360
2576
Mijn partner en ik hebben altijd als regel gesteld
15:37
that you're allowed to take things back.
299
937960
2296
dat je op dingen terug kunt komen.
15:40
Just because I said I liked something a year ago,
300
940280
2336
Dat ik vorig jaar iets leuk vond,
15:42
doesn't mean I have to like it still.
301
942640
2040
wil niet zeggen dat ik dat nu nog doe.
15:45
And getting rid of the need to stay consistent
302
945480
2816
En het wegvallen van de druk om hetzelfde te moeten blijven,
15:48
is actually a huge relief and makes relational life so mush easier to live.
303
948320
4360
blijkt een hele opluchting waar relaties veel leefbaarder van worden.
15:53
Anyway, so the conclusion must be:
304
953720
2360
Dus moet onze conclusie wel zijn:
15:57
know that you don't know yourself.
305
957320
2496
weet dat je jezelf niet kent.
15:59
Or at least not as well as you think you do.
306
959840
2320
Of op zijn minst niet zo goed als je dacht.
16:03
Thanks.
307
963480
1216
Bedankt.
16:04
(Applause)
308
964720
4640
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7