Do you really know why you do what you do? | Petter Johansson

189,870 views ・ 2018-03-27

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Μετάφραση: Efi Mesitidou Επιμέλεια: Helena Galani
00:12
So why do you think the rich should pay more in taxes?
0
12800
3560
Γιατί πιστεύετε ότι οι πλούσιοι θα πρέπει να φορολογούνται περισσότερο;
00:16
Why did you buy the latest iPhone?
1
16400
2376
Γιατί αγοράσατε το καινούριο μοντέλο του iPhone;
00:18
Why did you pick your current partner?
2
18800
2456
Γιατί επιλέξατε τον τωρινό σας σύντροφο;
00:21
And why did so many people vote for Donald Trump?
3
21280
3416
Γιατί ψήφισαν τον Ντόναλντ Τραμπ τόσοι πολλοί άνθρωποι;
00:24
What were the reasons, why did they do it?
4
24720
2520
Ποιοι ήταν οι λόγοι, γιατί το έκαναν;
00:27
So we ask this kind of question all the time,
5
27990
2106
Κάνουμε αυτή την ερώτηση συνέχεια,
00:30
and we expect to get an answer.
6
30120
1736
περιμένοντας μια απάντηση.
00:31
And when being asked, we expect ourselves to know the answer,
7
31880
3136
Όταν μας ρωτάνε, θεωρούμε ότι γνωρίζουμε την απάντηση,
00:35
to simply tell why we did as we did.
8
35040
2480
για να πούμε γιατί πράξαμε κατ' αυτόν τον τρόπο.
00:38
But do we really know why?
9
38440
1720
Όμως γνωρίζουμε πράγματι γιατί;
00:41
So when you say that you prefer George Clooney to Tom Hanks,
10
41000
3456
Όταν λέτε ότι προτιμάτε τον Τζωρτζ Κλούνεϊ από τον Τομ Χανκς,
00:44
due to his concern for the environment,
11
44479
2057
λόγω του ότι νοιάζεται για το περιβάλλον,
00:46
is that really true?
12
46560
1200
είναι πράγματι αλήθεια;
00:48
So you can be perfectly sincere and genuinely believe
13
48560
2496
Μπορεί να είστε απόλυτα ειλικρινείς και να πιστεύετε
00:51
that this is the reason that drives your choice,
14
51080
2936
ότι αυτός είναι ο λόγος για την επιλογή σας,
00:54
but to me, it may still feel like something is missing.
15
54040
2600
αλλά εγώ μπορεί να αισθάνομαι ότι κάτι λείπει.
00:57
As it stands, due to the nature of subjectivity,
16
57560
3176
Εξάλλου, λόγω της φύσης της υποκειμενικότητας,
01:00
it is actually very hard to ever prove that people are wrong about themselves.
17
60760
4320
πολύ δύσκολα αποδεικνύεται ότι οι άνθρωποι κάνουν λάθος για τον εαυτό τους.
01:06
So I'm an experimental psychologist,
18
66600
2136
Είμαι πειραματικός ψυχολόγος,
01:08
and this is the problem we've been trying to solve in our lab.
19
68760
3536
που προσπαθώ να λύσω αυτό το πρόβλημα στο εργαστήριό μας.
01:12
So we wanted to create an experiment
20
72320
2176
Θέλαμε να δημιουργήσουμε ένα πείραμα
01:14
that would allow us to challenge what people say about themselves,
21
74520
3536
που θα αμφισβητούσε αυτά που λένε οι άνθρωποι για τον εαυτό τους,
01:18
regardless of how certain they may seem.
22
78080
2680
άσχετα από τη σιγουριά τους.
01:21
But tricking people about their own mind is hard.
23
81960
2736
Αλλά είναι δύσκολο να τους ξεγελάσεις για το μυαλό τους.
01:24
So we turned to the professionals.
24
84720
2376
Γι' αυτό στραφήκαμε στους επαγγελματίες.
01:27
The magicians.
25
87120
1200
Τους ταχυδακτυλουργούς.
01:29
So they're experts at creating the illusion of a free choice.
26
89120
2896
Είναι ειδικοί στη δημιουργία ψευδαίσθησης ελεύθερης επιλογής.
01:32
So when they say, "Pick a card, any card,"
27
92040
2296
Όταν λένε, «Τράβηξε ένα οποιοδήποτε χαρτί»,
01:34
the only thing you know is that your choice is no longer free.
28
94360
2920
το μόνο σίγουρο είναι ότι η επιλογή δεν είναι πλέον ελεύθερη.
01:38
So we had a few fantastic brainstorming sessions
29
98200
2376
Ανταλλάξαμε μερικές καταπληκτικές ιδέες
01:40
with a group of Swedish magicians,
30
100600
1856
με μια ομάδα Σουηδών ταχυδακτυλουργών,
01:42
and they helped us create a method
31
102480
1642
με αποτέλεσμα μια νέα μέθοδο
01:44
in which we would be able to manipulate the outcome of people's choices.
32
104147
3973
με την οποία θα μπορούσαμε να χειριστούμε το αποτέλεσμα των ανθρώπινων επιλογών.
01:48
This way we would know when people are wrong about themselves,
33
108760
2936
Ώστε να γνωρίζουμε πότε σφάλλει κάποιος για τον εαυτό του,
01:51
even if they don't know this themselves.
34
111720
2040
ακόμη και όταν δεν το γνωρίζει ο ίδιος.
01:54
So I will now show you a short movie showing this manipulation.
35
114480
4656
Τώρα θα σας δείξω μια σύντομη παρουσίαση αυτού του χειρισμού.
01:59
So it's quite simple.
36
119160
1416
Είναι πολύ απλό.
02:00
The participants make a choice,
37
120600
2136
Οι συμμετέχοντες κάνουν μια επιλογή,
02:02
but I end up giving them the opposite.
38
122760
2256
αλλά τελικά τους δίνω την αντίθετη.
02:05
And then we want to see: How did they react, and what did they say?
39
125040
3520
Στη συνέχεια θέλουμε να δούμε: Πώς αντέδρασαν και τι είπαν;
02:09
So it's quite simple, but see if you can spot the magic going on.
40
129240
3160
Είναι πολύ απλό, αλλά δείτε αν μπορείτε να εντοπίσετε το κόλπο.
02:13
And this was shot with real participants, they don't know what's going on.
41
133440
3520
Γυρίστηκε με πραγματικούς συμμετέχοντες που δεν γνωρίζουν τι συμβαίνει.
02:19
(Video) Petter Johansson: Hi, my name's Petter.
42
139000
2216
(Βίντεο) Πέτερ Γιόχανσον: Γεια, λέγομαι Πέτερ.
02:21
Woman: Hi, I'm Becka.
43
141240
1215
Γυναίκα: Είμαι η Μπέκα.
02:22
PJ: I'm going to show you pictures like this.
44
142479
2137
ΠΓ: Θα σου δείξω φωτογραφίες σαν αυτήν.
02:24
And you'll have to decide which one you find more attractive.
45
144640
2896
Θα πρέπει να αποφασίσεις ποια σε ελκύει περισσότερο.
02:27
Becka: OK.
46
147560
1216
Μπέκα: ΟΚ.
02:28
PJ: And then sometimes, I will ask you why you prefer that face.
47
148800
3176
ΠΓ: Κάποιες φορές, θα σε ρωτάω γιατί προτιμάς αυτό το πρόσωπο.
02:32
Becka: OK.
48
152000
1216
Μπέκα: ΟΚ.
02:33
PJ: Ready? Becka: Yeah.
49
153240
1200
ΠΓ: Έτοιμη; Μπέκα: Ναι.
02:43
PJ: Why did you prefer that one?
50
163120
1816
ΠΓ: Γιατί προτίμησες αυτόν;
02:44
Becka: The smile, I think.
51
164960
1496
Μπέκα: Για το χαμόγελο νομίζω.
02:46
PJ: Smile.
52
166480
1200
ΠΓ: Χαμόγελο.
02:52
Man: One on the left.
53
172400
1240
Αντρας: Αυτήν αριστερά.
02:57
Again, this one just struck me.
54
177520
1640
Πάλι, αυτή απλώς με εντυπωσίασε.
02:59
Interesting shot.
55
179760
1616
Ενδιαφέρουσα λήψη.
03:01
Since I'm a photographer, I like the way it's lit and looks.
56
181400
3000
Είμαι φωτογράφος και μου αρέσει ο φωτισμός και η άποψη.
03:06
Petter Johansson: But now comes the trick.
57
186280
2040
ΠΓ: Όμως τώρα έρχεται το κόλπο.
03:10
(Video) Woman 1: This one.
58
190120
1280
(Βίντεο) Γυναίκα 1: Αυτή.
03:16
PJ: So they get the opposite of their choice.
59
196240
2280
ΠΓ: Παίρνουν την αντίθετη της επιλογής τους.
03:20
And let's see what happens.
60
200520
1600
Ας δούμε τι συμβαίνει.
03:28
Woman 2: Um ...
61
208240
1200
Γυναίκα 2: Μμμμ...
03:35
I think he seems a little more innocent than the other guy.
62
215760
2800
Νομίζω ότι μοιάζει λίγο πιο αθώος από τον άλλον.
03:45
Man: The one on the left.
63
225360
1240
Άντρας: Εκείνη αριστερά.
03:49
I like her smile and contour of the nose and face.
64
229280
3696
Μου αρέσει το χαμόγελό της και το περίγραμμα της μύτης και του προσώπου.
03:53
So it's a little more interesting to me, and her haircut.
65
233000
2760
Μου φαίνεται πιο ενδιαφέρουσα, όπως και το κούρεμά της.
04:00
Woman 3: This one.
66
240040
1200
Γυναίκα 3: Αυτή.
04:03
I like the smirky look better.
67
243520
1576
Προτιμώ το πονηρό ύφος.
04:05
PJ: You like the smirky look better?
68
245120
2000
ΠΓ: Προτιμάς το πονηρό ύφος;
04:09
(Laughter)
69
249680
3176
(Γέλια)
04:12
Woman 3: This one.
70
252880
1200
Γυναίκα 3: Αυτόν.
04:15
PJ: What made you choose him?
71
255280
1400
ΠΓ: Γιατί τον προτιμάς;
04:17
Woman 3: I don't know, he looks a little bit like the Hobbit.
72
257520
2896
Γυναίκα 3: Δεν ξέρω, μοιάζει λίγο με το Χόμπιτ.
04:20
(Laughter)
73
260440
2056
(Γέλια)
04:22
PJ: And what happens in the end
74
262520
1496
ΠΓ: Τι συμβαίνει στο τέλος
04:24
when I tell them the true nature of the experiment?
75
264040
3096
όταν τους εξηγώ την αληθινή φύση του πειράματος;
04:27
Yeah, that's it. I just have to ask a few questions.
76
267160
2456
Αυτό ακριβώς. Πρέπει απλώς να κάνω μερικές ερωτήσεις.
04:29
Man: Sure.
77
269640
1216
Άντρας: Βέβαια.
04:30
PJ: What did you think of this experiment, was it easy or hard?
78
270880
2976
ΠΓ: Τι σκεφτήκατε γι' αυτό το πείραμα, ήταν εύκολο ή δύσκολο;
04:33
Man: It was easy.
79
273880
1240
Άντρας: Ήταν εύκολο.
04:36
PJ: During the experiments,
80
276040
1336
ΠΓ: Ενώ γινόταν το πείραμα,
04:37
I actually switched the pictures three times.
81
277400
3336
άλλαξα θέση στις φωτογραφίες τρεις φορές.
04:40
Was this anything you noticed?
82
280760
1576
Παρατηρήσατε κάτι;
04:42
Man: No. I didn't notice any of that.
83
282360
1816
Άντρας: Όχι. Δεν παρατήρησα τίποτε.
04:44
PJ: Not at all? Man: No.
84
284200
1496
ΠΓ: Τίποτε απολύτως; Άντρας: Όχι
04:45
Switching the pictures as far as ...
85
285720
2096
Άλλαζες τις φωτογραφίες καθώς...
04:47
PJ: Yeah, you were pointing at one of them but I actually gave you the opposite.
86
287840
3816
ΠΓ: Ναι, έδειχνες τη μία από αυτές αλλά τελικά σου έδωσα την άλλη.
04:51
Man: The opposite one. OK, when you --
87
291680
1816
Άντρας: Την άλλη. ΟΚ, όταν...
04:53
No. Shows you how much my attention span was.
88
293520
2256
Όχι. Δείχνει το εύρος της προσοχής μου.
04:55
(Laughter)
89
295800
1520
(Γέλια)
04:58
PJ: Did you notice that sometimes during the experiment
90
298880
3016
ΠΓ: Πρόσεξες ότι κάποιες φορές στη διάρκεια του πειράματος
05:01
I switched the pictures?
91
301920
2136
άλλαζα τις φωτογραφίες;
05:04
Woman 2: No, I did not notice that.
92
304080
2016
Γυναίκα 2: Όχι, δεν το πρόσεξα.
05:06
PJ: You were pointing at one, but then I gave you the other one.
93
306120
3000
ΠΓ: Έδειχνες τη μία, αλλά μετά σου έδωσα την άλλη.
05:09
No inclination of that happening?
94
309920
1616
Δεν είχες καμιά ιδέα τι συμβαίνει;
05:11
Woman 2: No.
95
311560
1576
Γυναίκα 2: Όχι.
05:13
Woman 2: I did not notice.
96
313160
1256
Γυναίκα 2: Δεν το πρόσεξα.
05:14
(Laughs)
97
314440
1936
(Γέλια)
05:16
PJ: Thank you.
98
316400
1216
ΠΓ: Ευχαριστώ.
05:17
Woman 2: Thank you.
99
317640
1376
Γυναίκα 2: Ευχαριστώ.
05:19
PJ: OK, so as you probably figured out now,
100
319040
2056
ΠΓ: ΟΚ, όπως μάλλον ήδη καταλάβατε,
05:21
the trick is that I have two cards in each hand,
101
321120
2256
το κόλπο είναι ότι έχω δύο κάρτες σε κάθε χέρι,
05:23
and when I hand one of them over,
102
323400
1576
οπότε όταν δίνω τη μία,
05:25
the black one kind of disappears into the black surface on the table.
103
325000
4360
η μαύρη εξαφανίζεται στη μαύρη επιφάνεια του τραπεζιού.
05:30
So using pictures like this,
104
330640
1736
Έτσι χρησιμοποιώντας τέτοιες εικόνες
05:32
normally not more than 20 percent of the participants detect these tries.
105
332400
4376
κανονικά όχι πάνω από το 20 τοις εκατό των συμμετεχόντων αντιλαμβάνονται τι κάνω.
05:36
And as you saw in the movie,
106
336800
1416
Επίσης, είδατε στην ταινία,
05:38
when in the end we explain what's going on,
107
338240
3176
όταν στο τέλος εξηγούμε τι συμβαίνει,
05:41
they're very surprised and often refuse to believe the trick has been made.
108
341440
4376
εκπλήσσονται πολύ και συχνά αρνούνται να πιστέψουν ότι έγινε κόλπο.
05:45
So this shows that this effect is quite robust and a genuine effect.
109
345840
4776
Άρα αυτό δείχνει ότι αυτό το φαινόμενο είναι πολύ ισχυρό και αυθεντικό.
05:50
But if you're interested in self-knowledge, as I am,
110
350640
2656
Αλλά αν σας ενδιαφέρει η αυτογνωσία, όπως εμένα,
05:53
the more interesting bit is,
111
353320
1336
το ενδιαφέρον σημείο είναι,
05:54
OK, so what did they say when they explained these choices?
112
354680
3936
τι είπαν όταν εξήγησαν αυτές τις επιλογές;
05:58
So we've done a lot of analysis
113
358640
1496
Έτσι κάναμε πολλές αναλύσεις
06:00
of the verbal reports in these experiments.
114
360160
2080
των σχολίων σε αυτά τα πειράματα.
06:03
And this graph simply shows
115
363360
2456
Αυτό το γράφημα δείχνει
06:05
that if you compare what they say in a manipulated trial
116
365840
4776
ότι αν συγκρίνετε αυτά που λένε σε μια σκηνοθετημένη δοκιμή
06:10
with a nonmanipulated trial,
117
370640
1376
με μη σκηνοθετημένη δοκιμή
06:12
that is when they explain a normal choice they've made
118
372040
2776
δηλαδή, όταν εξηγούν μια κανονική επιλογή τους
06:14
and one where we manipulated the outcome,
119
374840
2496
σε σύγκριση με μία όπου τους έχουμε καθοδηγήσει,
06:17
we find that they are remarkably similar.
120
377360
2456
βρίσκουμε ότι είναι ιδιαίτερα παρόμοιες.
06:19
So they are just as emotional, just as specific,
121
379840
3056
Άρα είναι εξίσου συναισθηματικοί, εξίσου συγκεκριμένοι,
06:22
and they are expressed with the same level of certainty.
122
382920
3200
εκφράζονται με τον ίδιο βαθμό σιγουριάς.
06:27
So the strong conclusion to draw from this
123
387120
2336
Άρα το δυνατό συμπέρασμα που βγαίνει από αυτό
06:29
is that if there are no differences
124
389480
2216
είναι ότι αν δεν υπάρχουν διαφορές
06:31
between a real choice and a manipulated choice,
125
391720
3696
μεταξύ μιας πραγματικής και μιας σκηνοθετημένης επιλογής,
06:35
perhaps we make things up all the time.
126
395440
2440
ίσως βγάζουμε πράγματα από το μυαλό μας συνέχεια.
06:38
But we've also done studies
127
398680
1336
Όμως μελετήσαμε επίσης
06:40
where we try to match what they say with the actual faces.
128
400040
3016
όπου συνδυάζονται αυτά που λένε με τα πραγματικά πρόσωπα.
06:43
And then we find things like this.
129
403080
1880
Βρήκαμε πράγματα όπως αυτό.
06:45
So here, this male participant, he preferred the girl to the left,
130
405760
5056
Εδώ, ο άνδρας εθελοντής προτίμησε το κορίτσι στα αριστερά,
06:50
he ended up with the one to the right.
131
410840
1856
αλλά κατέληξε με το κορίτσι στα δεξιά.
06:52
And then, he explained his choice like this.
132
412720
2816
Έπειτα εξήγησε την επιλογή του ως εξής:
06:55
"She is radiant.
133
415560
1296
«Είναι λαμπερή.
06:56
I would rather have approached her at the bar than the other one.
134
416880
3096
Θα προτιμούσα να πλησίαζα αυτήν στο μπαρ παρά την άλλη.
07:00
And I like earrings."
135
420000
1616
Μου αρέσουν τα σκουλαρίκια».
07:01
And whatever made him choose the girl on the left to begin with,
136
421640
3496
Ότι και αν τον έκανε να επιλέξει το κορίτσι στα αριστερά αρχικά,
07:05
it can't have been the earrings,
137
425160
1576
δεν μπορεί να ήταν τα σκουλαρίκια
07:06
because they were actually sitting on the girl on the right.
138
426760
2856
γιατί στην πραγματικότητα τα φορούσε το κορίτσι στα δεξιά.
07:09
So this is a clear example of a post hoc construction.
139
429640
3776
Οπότε αυτό είναι ένα ξεκάθαρο παράδειγμα εξήγησης εκ των υστέρων.
07:13
So they just explained the choice afterwards.
140
433440
2800
Δηλαδή εξήγησαν την επιλογή εκ των υστέρων.
07:17
So what this experiment shows is,
141
437320
2296
Άρα αυτό που δείχνει αυτό το πείραμα είναι ότι,
07:19
OK, so if we fail to detect that our choices have been changed,
142
439640
3656
Αν δεν αντιληφθούμε ότι οι επιλογές μας έχουν αλλαχθεί,
07:23
we will immediately start to explain them in another way.
143
443320
3200
θα αρχίσουμε αμέσως να τις εξηγούμε με άλλο τρόπο.
07:27
And what we also found
144
447520
1256
Επίσης ανακαλύψαμε
07:28
is that the participants often come to prefer the alternative,
145
448800
3216
ότι οι εθελοντές συχνά καταλήγουν να προτιμούν την εναλλακτική,
07:32
that they were led to believe they liked.
146
452040
2256
που οδηγήθηκαν να πιστεύουν ότι τους άρεσε.
07:34
So if we let them do the choice again,
147
454320
2016
Άρα αν τους αφήσουμε να επιλέξουν ξανά,
07:36
they will now choose the face they had previously rejected.
148
456360
3760
θα επιλέξουν τώρα το πρόσωπο που είχαν απορρίψει προηγουμένως.
07:41
So this is the effect we call "choice blindness."
149
461520
2296
Αυτό το φαινόμενο το ονομάζουμε «τυφλή επιλογή».
07:43
And we've done a number of different studies --
150
463840
2216
Πραγματοποιήσαμε πολλές μελέτες,
07:46
we've tried consumer choices,
151
466080
2536
εξετάσαμε καταναλωτικές επιλογές,
07:48
choices based on taste and smell and even reasoning problems.
152
468640
4416
επιλογές με βάση τη γεύση και την όσφρηση, ακόμη και προβλήματα λογικής.
07:53
But what you all want to know is of course
153
473080
2056
Αλλά φυσικά, αυτό που όλοι θέλετε να μάθετε
07:55
does this extend also to more complex, more meaningful choices?
154
475160
3936
είναι αν αυτό συμβαίνει και με πιο πολύπλοκες, ουσιαστικές επιλογές.
07:59
Like those concerning moral and political issues.
155
479120
3080
Όπως εκείνες που αφορούν σε ηθικά και πολιτικά θέματα.
08:04
So the next experiment, it needs a little bit of a background.
156
484400
4216
Για το επόμενο πείραμα χρειάζεται να γνωρίζετε λίγο την κατάσταση.
08:08
So in Sweden, the political landscape
157
488640
4256
Στη Σουηδία, το πολιτικό τοπίο
08:12
is dominated by a left-wing and a right-wing coalition.
158
492920
3360
κυριαρχείται από έναν συνασπισμό της αριστεράς και έναν της δεξιάς.
08:17
And the voters may move a little bit between the parties within each coalition,
159
497720
4416
Οι ψηφοφόροι μπορεί να κινηθούν λίγο μεταξύ των κομμάτων κάθε συνασπισμού,
08:22
but there is very little movement between the coalitions.
160
502160
2760
αλλά υπάρχει πολύ μικρή κίνηση μεταξύ των συνασπισμών.
08:25
And before each elections,
161
505680
1976
Κάθε φορά πριν τις εκλογές,
08:27
the newspapers and the polling institutes
162
507680
4216
οι εφημερίδες και τα ινστιτούτα δημοσκοπήσεων
08:31
put together what they call "an election compass"
163
511920
2616
δημιουργούν αυτό που ονομάζουν «εκλογική πυξίδα»
08:34
which consists of a number of dividing issues
164
514560
3336
που αποτελείται από έναν αριθμό θεμάτων που διχάζουν
08:37
that sort of separates the two coalitions.
165
517920
2336
που μάλλον διαχωρίζουν τους δύο συνασπισμούς.
08:40
Things like if tax on gasoline should be increased
166
520280
3735
Πράγματα όπως αν θα πρέπει να αυξηθεί ο φόρος στη βενζίνη
08:44
or if the 13 months of paid parental leave
167
524039
4096
ή αν η γονική άδεια των 13 μηνών
08:48
should be split equally between the two parents
168
528159
2496
θα πρέπει να μοιράζεται εξίσου μεταξύ των δύο γονιών
08:50
in order to increase gender equality.
169
530679
2721
ώστε να ενισχυθεί η ισότητα των φύλων.
08:54
So, before the last Swedish election,
170
534840
2216
Οπότε, πριν τις τελευταίες Σουηδικές εκλογές,
08:57
we created an election compass of our own.
171
537080
2600
δημιουργήσαμε μια δική μας εκλογική πυξίδα.
09:00
So we walked up to people in the street
172
540480
2136
Πλησιάσαμε ανθρώπους στον δρόμο
09:02
and asked if they wanted to do a quick political survey.
173
542640
3336
για να συμμετάσχουν σε μια σύντομη πολιτική έρευνα.
09:06
So first we had them state their voting intention
174
546000
2456
Πρώτα τους ρωτήσαμε τι σκοπεύουν να ψηφίσουν
09:08
between the two coalitions.
175
548480
1360
μεταξύ των δύο συνασπισμών.
09:10
Then we asked them to answer 12 of these questions.
176
550560
3776
Μετά τους ζητήσαμε να απαντήσουν 12 από αυτές τις ερωτήσεις.
09:14
They would fill in their answers,
177
554360
1976
Θα συμπλήρωναν τις απαντήσεις
09:16
and we would ask them to discuss,
178
556360
1616
και θα συζητούσαμε μαζί τους,
09:18
so OK, why do you think tax on gas should be increased?
179
558000
5496
γιατί πιστεύετε ότι θα πρέπει να αυξηθεί ο φόρος στη βενζίνη;
09:23
And we'd go through the questions.
180
563520
2096
Θα καλύπταμε όλες τις ερωτήσεις.
09:25
Then we had a color coded template
181
565640
3896
Μετά θα χρησιμοποιούσαμε ένα κωδικοποιημένο υπόδειγμα με χρώματα
09:29
that would allow us to tally their overall score.
182
569560
2936
που θα μας επέτρεπε να μετρήσουμε τη συνολική τους βαθμολογία.
09:32
So this person would have one, two, three, four
183
572520
3456
Οπότε αυτό το άτομο θα είχε ένα, δύο, τρεις, τέσσερις,
09:36
five, six, seven, eight, nine scores to the left,
184
576000
3296
πέντε, έξι, εφτά, οκτώ, εννιά βαθμούς στα αριστερά,
09:39
so he would lean to the left, basically.
185
579320
2680
οπότε βασικά θα έκλινε προς την αριστερά.
09:42
And in the end, we also had them fill in their voting intention once more.
186
582800
4440
Στο τέλος τους ζητούσαμε να συμπληρώσουν ξανά την εκλογική τους πρόθεση.
09:48
But of course, there was also a trick involved.
187
588160
2280
Αλλά φυσικά, υπήρχε και ένα κόλπο.
09:51
So first, we walked up to people,
188
591360
2176
Αρχικά, πλησιάζαμε τους ανθρώπους,
09:53
we asked them about their voting intention
189
593560
2056
τους ρωτούσαμε την εκλογική τους πρόθεση
09:55
and then when they started filling in,
190
595640
2256
και όταν ξεκινούσαν να συμπληρώνουν,
09:57
we would fill in a set of answers going in the opposite direction.
191
597920
5456
συμπληρώναμε ένα σετ απαντήσεων προς την αντίθετη κατεύθυνση.
10:03
We would put it under the notepad.
192
603400
2576
Το βάζαμε κάτω από το σημειωματάριο.
10:06
And when we get the questionnaire,
193
606000
2776
Όταν μας δίνανε το ερωτηματολόγιο,
10:08
we would simply glue it on top of the participant's own answer.
194
608800
3320
απλώς κολλούσαμε το δικό μας πάνω από την απάντηση του εθελοντή.
10:16
So there, it's gone.
195
616000
1240
Οπότε, πάει, εξαφανίστηκε
10:24
And then we would ask about each of the questions:
196
624280
2376
Μετά ρωτούσαμε για κάθε ερώτηση:
10:26
How did you reason here?
197
626680
1536
Πώς το αιτιολογείτε αυτό;
10:28
And they'll state the reasons,
198
628240
1736
Εκείνοι ανέφεραν τους λόγους
10:30
together we will sum up their overall score.
199
630000
2480
και μετά μαζί υπολογίζαμε τη συνολική βαθμολογία.
10:34
And in the end, they will state their voting intention again.
200
634800
3680
Στο τέλος, δήλωναν ξανά την εκλογική τους πρόθεση.
10:41
So what we find first of all here,
201
641960
1656
Αρχικά, αυτό που βρίσκουμε εδώ,
10:43
is that very few of these manipulations are detected.
202
643640
4216
είναι ότι πολύ λίγοι από αυτούς τους χειρισμούς εντοπίζονται.
10:47
And they're not detected in the sense that they realize,
203
647880
2656
Αλλά δεν εντοπίζονται με την έννοια ότι συνειδητοποιούν:
10:50
"OK, you must have changed my answer,"
204
650560
1856
«ΟΚ, μάλλον αλλάξατε την απάντησή μου»,
10:52
it was more the case that,
205
652440
1256
αλλά περισσότερο ότι,
10:53
"OK, I must've misunderstood the question the first time I read it.
206
653720
3176
«Μάλλον δεν κατάλαβα καλά την ερώτηση όταν την διάβασα την πρώτη φορά.
10:56
Can I please change it?"
207
656920
1240
Μπορώ να την αλλάξω;»
10:59
And even if a few of these manipulations were changed,
208
659080
5136
Όμως ακόμη και αν μερικοί από αυτούς τους χειρισμούς διορθώνονταν,
11:04
the overall majority was missed.
209
664240
2136
η μεγάλη πλειοψηφία ξέφευγε.
11:06
So we managed to switch 90 percent of the participants' answers
210
666400
3656
Οπότε καταφέραμε να αλλάξουμε το 90 τοις εκατό των απαντήσεων
11:10
from left to right, right to left, their overall profile.
211
670080
3160
από την αριστερά στη δεξιά και το αντίθετο για το συνολικό προφίλ.
11:14
And what happens then when they are asked to motivate their choices?
212
674800
4400
Τι συμβαίνει όταν τους ζητείται να εξηγήσουν τις επιλογές τους;
11:20
And here we find much more interesting verbal reports
213
680160
3056
Εδώ βρίσκουμε πολύ πιο ενδιαφέρουσες προφορικές αναφορές
11:23
than compared to the faces.
214
683240
2016
σε σύγκριση με τα πρόσωπα.
11:25
People say things like this, and I'll read it to you.
215
685280
3360
Οι άνθρωποι λένε πράγματα όπως αυτά που θα σας διαβάσω.
11:29
So, "Large-scale governmental surveillance of email and internet traffic
216
689720
3736
«Η ευρεία κυβερνητική επίβλεψη των emails και της διαδικτυακής κίνησης
11:33
ought to be permissible as means to combat international crime and terrorism."
217
693480
4336
είναι απαραίτητη ως μέσο καταπολέμησης του εγκλήματος και της τρομοκρατίας».
11:37
"So you agree to some extent with this statement." "Yes."
218
697840
2716
«Άρα συμφωνείτε σε κάποιο βάθμο με αυτή τη δήλωση». «Ναι».
11:40
"So how did you reason here?"
219
700580
1500
«Πώς το αιτιολογείτε;»
11:43
"Well, like, as it is so hard to get at international crime and terrorism,
220
703600
4936
«Εφόσον είναι τόσο δύσκολο να πατάξουμε την τρομοκρατία,
11:48
I think there should be those kinds of tools."
221
708560
2776
πιστεύω ότι χρειάζονται τέτοια εργαλεία».
11:51
And then the person remembers an argument from the newspaper in the morning.
222
711360
3616
Τότε ο εθελοντής θυμάται μια διαφωνία στην εφημερίδα το πρωί.
11:55
"Like in the newspaper today,
223
715000
1616
«Όπως στην εφημερίδα σήμερα,
11:56
it said they can like, listen to mobile phones from prison,
224
716640
3376
έλεγε ότι μπορούν να παρακολουθούν τα κινητά τηλέφωνα στην φυλακή,
12:00
if a gang leader tries to continue his crimes from inside.
225
720040
3536
αν ένας αρχηγός συμμορίας προσπαθεί να συνεχίσει τα εγκλήματά του.
12:03
And I think it's madness that we have so little power
226
723600
2816
Και σκέφτομαι ότι είναι τρελό να έχουμε τόσο λίγη δύναμη
12:06
that we can't stop those things
227
726440
1656
να επιβληθούμε
12:08
when we actually have the possibility to do so."
228
728120
2936
όταν στην πραγματικότητα έχουμε τη δυνατότητα να το κάνουμε».
12:11
And then there's a little bit back and forth in the end:
229
731080
2696
Τελικά αμφιταλαντεύονται λίγο:
12:13
"I don't like that they have access to everything I do,
230
733800
2576
«Δεν μου αρέσει που έχουν πρόσβαση σε ό,τι κάνω,
12:16
but I still think it's worth it in the long run."
231
736400
2576
αλλά εξακολουθώ να πιστεύω ότι αξίζει μακροπρόθεσμα».
12:19
So, if you didn't know that this person
232
739000
2536
Οπότε, αν δεν γνωρίζατε ότι αυτός ο άνθρωπος
12:21
just took part in a choice blindness experiment,
233
741560
2256
μόλις συμμετείχε σε ένα πείραμα τυφλής επιλογής
12:23
I don't think you would question
234
743840
1856
Δεν νομίζω ότι θα αμφιβάλλατε
12:25
that this is the true attitude of that person.
235
745720
3120
ότι αυτή είναι η πραγματική νοοτροπία αυτού του ανθρώπου.
12:29
And what happens in the end, with the voting intention?
236
749800
2856
Τελικά τι συμβαίνει με την πρόθεση ψήφου;
12:32
What we find -- that one is also clearly affected by the questionnaire.
237
752680
4696
Αυτό που βρήκαμε και ξεκάθαρα επηρεάζεται από το ερωτηματολόγιο.
12:37
So we have 10 participants
238
757400
1736
Έχουμε 10 εθελοντές
12:39
shifting from left to right or from right to left.
239
759160
2976
που μετακινούνται από τα αριστερά στα δεξιά και το αντίθετο.
12:42
We have another 19 that go from clear voting intention
240
762160
2536
Άλλους 19 που από την σαφή πρόθεση ψήφου πηγαίνουν
12:44
to being uncertain.
241
764720
1456
στην αναποφασιστικότητα.
12:46
Some go from being uncertain to clear voting intention.
242
766200
3096
Κάποιοι πηγαίνουν από την αβεβαιότητα στην ξεκάθαρη πρόθεση ψήφου.
12:49
And then there is a number of participants staying uncertain throughout.
243
769320
4736
Υπάρχει και ένας αριθμός εθελοντών που είναι συνέχεια αβέβαιοι.
12:54
And that number is interesting
244
774080
1576
Αυτός ο αριθμός είναι ενδιαφέρων
12:55
because if you look at what the polling institutes say
245
775680
4616
γιατί αν δείτε τι λένε τα ινστιτούτα δημοσκοπήσεων
13:00
the closer you get to an election,
246
780320
1656
όσο πλησιάζουν οι εκλογές,
13:02
the only people that are sort of in play
247
782000
2136
οι μόνοι άνθρωποι που παίζουν κάποιο ρόλο
13:04
are the ones that are considered uncertain.
248
784160
2656
είναι εκείνοι που θεωρούνται αναποφάσιστοι.
13:06
But we show there is a much larger number
249
786840
3216
Αλλά αποδεικνύουμε ότι υπάρχει ένας πολύ μεγαλύτερος αριθμός
13:10
that would actually consider shifting their attitudes.
250
790080
2800
που θα εξέταζαν το ενδεχόμενο να αλλάξουν νοοτροπία.
13:13
And here I must point out, of course, that you are not allowed to use this
251
793640
3496
Εδώ θα πρέπει να τονίσω, φυσικά, ότι δεν επιτρέπεται να το χρησιμοποιήσετε
13:17
as an actual method to change people's votes
252
797160
2616
σαν πραγματική μέθοδο αλλαγής της ψήφου των ανθρώπων
13:19
before an election,
253
799800
1496
πριν από τις εκλογές,
13:21
and we clearly debriefed them afterwards
254
801320
3616
και τους ενημερώσαμε πλήρως εκ των υστέρων
13:24
and gave them every opportunity to change back
255
804960
2296
και τους δώσαμε κάθε ευκαιρία για να γυρίσουν
13:27
to whatever they thought first.
256
807280
2480
στις αρχικές τους σκέψεις.
13:30
But what this shows is that if you can get people
257
810600
2336
Αλλά αυτό δείχνει ότι αν μπορείς να τους κάνεις
13:32
to see the opposite view and engage in a conversation with themselves,
258
812960
5536
να δουν την αντίθετη άποψη και να συζητήσουν με τον εαυτό τους,
13:38
that could actually make them change their views.
259
818520
2920
αυτό θα μπορούσε να τους κάνει να αλλάξουν τις απόψεις τους.
13:42
OK.
260
822400
1200
Εντάξει.
13:44
So what does it all mean?
261
824760
1656
Οπότε τι σημαίνουν όλα αυτά;
13:46
What do I think is going on here?
262
826440
2416
Τι πιστεύω ότι συμβαίνει εδώ;
13:48
So first of all,
263
828880
1216
Πρώτον,
13:50
a lot of what we call self-knowledge is actually self-interpretation.
264
830120
4856
μεγάλο μέρος από αυτό που αποκαλούμε αυτογνωσία είναι αυτο-ερμηνεία.
13:55
So I see myself make a choice,
265
835000
2496
Βλέπω τον εαυτό μου να κάνει μια επιλογή,
13:57
and then when I'm asked why,
266
837520
2776
και όταν ερωτώμαι τον λόγο,
14:00
I just try to make as much sense of it as possible
267
840320
2536
απλώς προσπαθώ να το κατανοήσω όσο μπορώ καλύτερα
14:02
when I make an explanation.
268
842880
1936
όταν δίνω μια εξήγηση.
14:04
But we do this so quickly and with such ease
269
844840
3016
Αλλά το κάνουμε τόσο γρήγορα και με τέτοια άνεση
14:07
that we think we actually know the answer when we answer why.
270
847880
4280
που νομίζουμε ότι γνωρίζουμε πραγματικά την απάντηση όταν εξηγούμε τον λόγο.
14:13
And as it is an interpretation,
271
853040
3096
Όμως καθώς είναι μια ερμηνεία,
14:16
of course we sometimes make mistakes.
272
856160
2296
φυσικά κάποιες φορές κάνουμε λάθη.
14:18
The same way we make mistakes when we try to understand other people.
273
858480
3520
Όπως κάνουμε λάθη όταν προσπαθούμε να καταλάβουμε τους άλλους ανθρώπους.
14:23
So beware when you ask people the question "why"
274
863160
3696
Οπότε να προσέχετε όταν ρωτάτε τους ανθρώπους «γιατί»
14:26
because what may happen is that, if you asked them,
275
866880
4896
διότι αυτό που μπορεί να συμβεί είναι ότι, αν τους ρωτούσατε,
14:31
"So why do you support this issue?"
276
871800
4016
«Γιατί υποστηρίζεις αυτό το θέμα;»
14:35
"Why do you stay in this job or this relationship?" --
277
875840
3216
«Γιατί παραμένεις σ' αυτή τη δουλειά ή σ'αυτή τη σχέση;» --
14:39
what may happen when you ask why is that you actually create an attitude
278
879080
3416
μπορεί να δημιουργείτε μια στάση
14:42
that wasn't there before you asked the question.
279
882520
2240
που δεν υπήρχε πριν θέσετε την ερώτηση.
14:45
And this is of course important in your professional life, as well,
280
885440
3176
Αυτό είναι σημαντικό και στην επαγγελματική σας ζωή,
14:48
or it could be.
281
888640
1216
ή θα μπορούσε να είναι.
14:49
If, say, you design something and then you ask people,
282
889880
2536
Αν σχεδιάσετε κάτι και ρωτήσετε τον κόσμο,
14:52
"Why do you think this is good or bad?"
283
892440
2256
«Γιατί πιστεύετε ότι αυτό είναι καλό ή κακό;»
14:54
Or if you're a journalist asking a politician,
284
894720
3056
Ή αν είστε δημοσιογράφος και ρωτάτε έναν πολιτικό,
14:57
"So, why did you make this decision?"
285
897800
2376
«Γιατί πήρατε αυτή την απόφαση;»
15:00
Or if indeed you are a politician
286
900200
1936
Ή αν είστε πράγματι πολιτικός
15:02
and try to explain why a certain decision was made.
287
902160
2640
και προσπαθείτε να εξηγήσετε γιατί έχει ληφθεί κάποια απόφαση.
15:06
So this may all seem a bit disturbing.
288
906080
3576
Όλα αυτά μπορεί να φαίνονται κάπως ανησυχητικά.
15:09
But if you want to look at it from a positive direction,
289
909680
3496
Αλλά αν θέλετε να τα δείτε θετικά,
15:13
it could be seen as showing,
290
913200
1736
θα μπορούσε να είναι απόδειξη,
15:14
OK, so we're actually a little bit more flexible than we think.
291
914960
3376
ότι είμαστε τελικά ευέλικτοι.
15:18
We can change our minds.
292
918360
1896
Μπορούμε να αλλάξουμε γνώμη.
15:20
Our attitudes are not set in stone.
293
920280
2456
Οι απόψεις μας δεν είναι απόλυτες.
15:22
And we can also change the minds of others,
294
922760
3176
Μπορούμε να αλλάξουμε τις απόψεις και των άλλων,
15:25
if we can only get them to engage with the issue
295
925960
2376
αν συζητήσουμε μαζί τους το θέμα
15:28
and see it from the opposite view.
296
928360
1680
έτσι ώστε να το δουν από την αντίθετη άποψη.
15:31
And in my own personal life, since starting with this research --
297
931400
3936
Προσωπικά, από τότε που ξεκίνησα αυτή την έρευνα,
15:35
So my partner and I, we've always had the rule
298
935360
2576
είχαμε πάντα τον κανόνα με τη σύντροφό μου
15:37
that you're allowed to take things back.
299
937960
2296
ότι μπορούμε να αλλάξουμε γνώμη.
15:40
Just because I said I liked something a year ago,
300
940280
2336
Επειδή είπα ότι μου άρεσε κάτι πέρσι,
15:42
doesn't mean I have to like it still.
301
942640
2040
δεν σημαίνει ότι πρέπει να μου αρέσει ακόμη.
15:45
And getting rid of the need to stay consistent
302
945480
2816
Όταν απαλλαγούμε από την ανάγκη να είμαστε συνεπείς
15:48
is actually a huge relief and makes relational life so mush easier to live.
303
948320
4360
ανακουφιζόμαστε και οι σχέσεις γίνονται εύκολες.
15:53
Anyway, so the conclusion must be:
304
953720
2360
Οπότε το συμπέρασμα πρέπει να είναι:
15:57
know that you don't know yourself.
305
957320
2496
γνωρίστε ότι δεν γνωρίζετε τον εαυτό σας.
15:59
Or at least not as well as you think you do.
306
959840
2320
Τουλάχιστον όχι όσο νομίζετε.
16:03
Thanks.
307
963480
1216
Ευχαριστώ.
16:04
(Applause)
308
964720
4640
(Χειροκρότημα)
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7