Do you really know why you do what you do? | Petter Johansson

193,440 views ・ 2018-03-27

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Begum Tuglu Gözden geçirme: Figen Ergürbüz
00:12
So why do you think the rich should pay more in taxes?
0
12800
3560
Zenginlerin daha fazla vergi ödemeleri gerektiğini neden düşünüyorsunuz?
00:16
Why did you buy the latest iPhone?
1
16400
2376
En son çıkan iPhone'u neden satın aldınız?
00:18
Why did you pick your current partner?
2
18800
2456
Şu anki eşinizi neden seçtiniz?
00:21
And why did so many people vote for Donald Trump?
3
21280
3416
Neden bu kadar insan Donald Trump'a oy verdi?
00:24
What were the reasons, why did they do it?
4
24720
2520
Sebep neydi, bunları neden yaptılar?
00:27
So we ask this kind of question all the time,
5
27990
2106
Bunun gibi soruları her zaman sorarız
00:30
and we expect to get an answer.
6
30120
1736
ve bir cevap alabilmeyi bekleriz.
00:31
And when being asked, we expect ourselves to know the answer,
7
31880
3136
Ve bize bu soru sorulduğunda, neden böyle yaptığımızın
00:35
to simply tell why we did as we did.
8
35040
2480
cevabını bildiğimizi düşünürüz.
00:38
But do we really know why?
9
38440
1720
Ama gerçekten biliyor muyuz?
00:41
So when you say that you prefer George Clooney to Tom Hanks,
10
41000
3456
Yani George Clooney'i Tom Hanks'e tercih etmenizin sebebi
00:44
due to his concern for the environment,
11
44479
2057
çevreye karşı duyarlı olması derseniz,
00:46
is that really true?
12
46560
1200
bu gerçekten doğru mudur?
00:48
So you can be perfectly sincere and genuinely believe
13
48560
2496
Tercihinizin bu yüzden olduğuna içtenlikle
00:51
that this is the reason that drives your choice,
14
51080
2936
inanıyor olabilirsiniz.
00:54
but to me, it may still feel like something is missing.
15
54040
2600
Ama bana göre burada hâlâ eksik bir şey var.
00:57
As it stands, due to the nature of subjectivity,
16
57560
3176
Gördüğünüz üzere öznelliğin doğasından dolayı
01:00
it is actually very hard to ever prove that people are wrong about themselves.
17
60760
4320
insanların kendileri hakkında yanlış düşündüklerini kanıtlamak gerçekten zor.
01:06
So I'm an experimental psychologist,
18
66600
2136
Ben deneysel bir psikoloğum
01:08
and this is the problem we've been trying to solve in our lab.
19
68760
3536
ve laboratuvarımızda çözmeye çalıştığımız problem bu.
01:12
So we wanted to create an experiment
20
72320
2176
Bu yüzden insanların kendileri hakkında
01:14
that would allow us to challenge what people say about themselves,
21
74520
3536
ne kadar emin olduklarına bağlı olmadan, söyledikleri şeylere meydan okuyan
01:18
regardless of how certain they may seem.
22
78080
2680
bir deney yaratmak istedik.
01:21
But tricking people about their own mind is hard.
23
81960
2736
Ancak insanları kendi zihinleri hakkında kandırmak zor.
01:24
So we turned to the professionals.
24
84720
2376
Bu yüzden profesyonellere baktık.
01:27
The magicians.
25
87120
1200
Sihirbazlara,
01:29
So they're experts at creating the illusion of a free choice.
26
89120
2896
yani bağımsız bir tercihte illüzyon yaratan uzmanlara.
01:32
So when they say, "Pick a card, any card,"
27
92040
2296
"Bir kart seç, herhangi bir kart." dediklerinde
01:34
the only thing you know is that your choice is no longer free.
28
94360
2920
bildiğiniz tek şey tercihimizin bağımsız olmadığı.
01:38
So we had a few fantastic brainstorming sessions
29
98200
2376
Bu yüzden bir grup İsveçli sihirbazla
01:40
with a group of Swedish magicians,
30
100600
1856
beyin fırtınası seansları düzenledik
01:42
and they helped us create a method
31
102480
1642
ve bize insanların tercihlerini
01:44
in which we would be able to manipulate the outcome of people's choices.
32
104147
3973
manipüle edecek bir metot yaratmak için yardım ettiler.
01:48
This way we would know when people are wrong about themselves,
33
108760
2936
Böylece insanların kendileri hakkında yanlış düşündüklerini,
01:51
even if they don't know this themselves.
34
111720
2040
onlar bilmese bile, bilecektik.
01:54
So I will now show you a short movie showing this manipulation.
35
114480
4656
Şimdi size bu manipülasyonu içeren kısa bir film göstereceğim.
01:59
So it's quite simple.
36
119160
1416
Aslında çok kolay.
02:00
The participants make a choice,
37
120600
2136
Katılımcılar bir seçim yapıyorlar
02:02
but I end up giving them the opposite.
38
122760
2256
ama ben onlara tam tersini veriyorum.
02:05
And then we want to see: How did they react, and what did they say?
39
125040
3520
Sonrasında görmek istediğimiz şey: Nasıl tepki verdiler ve ne dediler?
02:09
So it's quite simple, but see if you can spot the magic going on.
40
129240
3160
Aslında çok basit, ama bakın bakalım sihri görebiliyor musunuz?
02:13
And this was shot with real participants, they don't know what's going on.
41
133440
3520
Ve bu çekim gerçek katılımcılarla çekildi; ne olduğunu bilmiyorlardı.
(Video) Petter Johansson: Merhaba, ben Petter.
02:19
(Video) Petter Johansson: Hi, my name's Petter.
42
139000
2216
Kadın: Merhaba ben Becka.
02:21
Woman: Hi, I'm Becka.
43
141240
1215
PJ: Sana bunun gibi resimler göstereceğim.
02:22
PJ: I'm going to show you pictures like this.
44
142479
2137
Ve sen hangisini daha çekici bulduğuna karar vereceksin.
02:24
And you'll have to decide which one you find more attractive.
45
144640
2896
02:27
Becka: OK.
46
147560
1216
Becka: Tamam.
02:28
PJ: And then sometimes, I will ask you why you prefer that face.
47
148800
3176
PJ: Ve bazen sana neden bu yüzü tercih ettiğini soracağım.
Becka: Tamam.
02:32
Becka: OK.
48
152000
1216
PJ: Hazır mısın? B: Evet.
02:33
PJ: Ready? Becka: Yeah.
49
153240
1200
02:43
PJ: Why did you prefer that one?
50
163120
1816
PJ: Neden bunu tercih ettin?
02:44
Becka: The smile, I think.
51
164960
1496
Becka: Gülüş, sanırım.
02:46
PJ: Smile.
52
166480
1200
PJ: Gülüş.
02:52
Man: One on the left.
53
172400
1240
Adam: Soldaki.
02:57
Again, this one just struck me.
54
177520
1640
Yine söylüyorum, bu beni etkiledi.
02:59
Interesting shot.
55
179760
1616
Değişik bir çekim.
03:01
Since I'm a photographer, I like the way it's lit and looks.
56
181400
3000
Fotoğrafçı olduğum için ışığı ve görünüşünü sevdim.
03:06
Petter Johansson: But now comes the trick.
57
186280
2040
Petter Johansson: Ama şimdi hile geliyor.
03:10
(Video) Woman 1: This one.
58
190120
1280
(Video) Kadın 1: Bu.
03:16
PJ: So they get the opposite of their choice.
59
196240
2280
PJ: Seçimlerinin tam tersini alıyorlar.
03:20
And let's see what happens.
60
200520
1600
Ve bakalım neler oluyor.
03:28
Woman 2: Um ...
61
208240
1200
Kadın 2: Hmm ...
03:35
I think he seems a little more innocent than the other guy.
62
215760
2800
Bence bu adam diğerinden biraz daha masum görünüyor.
03:45
Man: The one on the left.
63
225360
1240
Adam: Soldaki.
03:49
I like her smile and contour of the nose and face.
64
229280
3696
Gülüşünü ve burnunun ve yüzünün şeklini sevdim.
03:53
So it's a little more interesting to me, and her haircut.
65
233000
2760
Bu yüzden bana daha değişik geldi. Saç kesimi de öyle.
04:00
Woman 3: This one.
66
240040
1200
Kadın 3: Bu.
04:03
I like the smirky look better.
67
243520
1576
Sırıtmasını daha çok beğendim.
04:05
PJ: You like the smirky look better?
68
245120
2000
PJ: Sırıtmasını daha mı çok beğendin?
04:09
(Laughter)
69
249680
3176
(Gülüşme)
04:12
Woman 3: This one.
70
252880
1200
Kadın 3: Bu.
04:15
PJ: What made you choose him?
71
255280
1400
PJ: Neden bunu seçtin?
04:17
Woman 3: I don't know, he looks a little bit like the Hobbit.
72
257520
2896
Kadın 3: Bilmiyorum. Biraz Hobbit gibi gözüküyor.
04:20
(Laughter)
73
260440
2056
(Gülüşme)
04:22
PJ: And what happens in the end
74
262520
1496
PJ: Ve sonunda onlara deneyin
04:24
when I tell them the true nature of the experiment?
75
264040
3096
gerçek yapılışını anlatınca ne oluyor?
04:27
Yeah, that's it. I just have to ask a few questions.
76
267160
2456
Evet, bu kadar. Sadece son birkaç soru sormam gerek.
04:29
Man: Sure.
77
269640
1216
Adam: Tabi.
04:30
PJ: What did you think of this experiment, was it easy or hard?
78
270880
2976
PJ: Deney hakkında ne düşündün? Zor muydu kolay mıydı?
04:33
Man: It was easy.
79
273880
1240
Adam: Kolaydı.
04:36
PJ: During the experiments,
80
276040
1336
PJ: Deney sırasında
04:37
I actually switched the pictures three times.
81
277400
3336
resimleri üç kez değiştirdim.
04:40
Was this anything you noticed?
82
280760
1576
Bunu fark ettin mi?
04:42
Man: No. I didn't notice any of that.
83
282360
1816
Adam: Hayır. Bunu hiç fark etmedim.
04:44
PJ: Not at all? Man: No.
84
284200
1496
PJ: Hiç mi? Adam: Evet.
04:45
Switching the pictures as far as ...
85
285720
2096
Resimleri değiştirmek derken ...
04:47
PJ: Yeah, you were pointing at one of them but I actually gave you the opposite.
86
287840
3816
PJ: Evet, sen bir tanesini işaret ederken ben aslında sana diğerini verdim.
04:51
Man: The opposite one. OK, when you --
87
291680
1816
Adam: Diğerini. Tamam, yani --
04:53
No. Shows you how much my attention span was.
88
293520
2256
Hayır. Dikkatimin ne kadar olduğunu gösteriyor.
04:55
(Laughter)
89
295800
1520
(Gülüşme)
04:58
PJ: Did you notice that sometimes during the experiment
90
298880
3016
PJ: Deney süresince bazen resimleri değiştirdiğimi
05:01
I switched the pictures?
91
301920
2136
fark ettin mi?
05:04
Woman 2: No, I did not notice that.
92
304080
2016
Kadın 2: Hayır, fark etmedim.
05:06
PJ: You were pointing at one, but then I gave you the other one.
93
306120
3000
PJ: Sen bir tanesine işaret ediyordun, ben sana diğerini verdim.
05:09
No inclination of that happening?
94
309920
1616
Bunu hiç anlamadın mı?
05:11
Woman 2: No.
95
311560
1576
Kadın 2: Hayır.
05:13
Woman 2: I did not notice.
96
313160
1256
Kadın 2: Fark etmedim.
05:14
(Laughs)
97
314440
1936
(Gülüşme)
05:16
PJ: Thank you.
98
316400
1216
PJ: Teşekkürler.
05:17
Woman 2: Thank you.
99
317640
1376
Kadın 2: Teşekkürler.
05:19
PJ: OK, so as you probably figured out now,
100
319040
2056
PJ: Tamam, şimdi muhtemelen anlamışsınızdır.
05:21
the trick is that I have two cards in each hand,
101
321120
2256
İşin hilesi elimde iki karttan
05:23
and when I hand one of them over,
102
323400
1576
birini veriyorken
05:25
the black one kind of disappears into the black surface on the table.
103
325000
4360
siyah olanın siyah arka planda kaybolması.
05:30
So using pictures like this,
104
330640
1736
Bu şekilde resimleri kullandığımda
05:32
normally not more than 20 percent of the participants detect these tries.
105
332400
4376
katılımcıların normalde en fazla %20'si fark ediyor.
05:36
And as you saw in the movie,
106
336800
1416
Filmde de gördüğünüz gibi
05:38
when in the end we explain what's going on,
107
338240
3176
sonunda neler olduğunu açıkladığımızda
05:41
they're very surprised and often refuse to believe the trick has been made.
108
341440
4376
herkes çok şaşırıyor ve bir hile olduğuna inanmıyorlar.
05:45
So this shows that this effect is quite robust and a genuine effect.
109
345840
4776
Bu gösteriyor ki deneyin etkisi güçlü ve gerçek olmuş.
05:50
But if you're interested in self-knowledge, as I am,
110
350640
2656
Ama kendi bildiklerimizle benim kadar ilgiliyseniz
05:53
the more interesting bit is,
111
353320
1336
daha da ilginç olan şey
05:54
OK, so what did they say when they explained these choices?
112
354680
3936
bu seçimler açıklandığında ne dedikleri.
05:58
So we've done a lot of analysis
113
358640
1496
Deneylerdeki sözlü sonuçlarla
06:00
of the verbal reports in these experiments.
114
360160
2080
birçok analiz yaptık.
06:03
And this graph simply shows
115
363360
2456
Ve bu grafik gösteriyor ki
06:05
that if you compare what they say in a manipulated trial
116
365840
4776
onların manipüle edilen zamanda söylediklerini manipüle edilmeyene
06:10
with a nonmanipulated trial,
117
370640
1376
karşılaştırdığımızda,
06:12
that is when they explain a normal choice they've made
118
372040
2776
yani yaptıkları normal bir seçimi açıkladıklarında
06:14
and one where we manipulated the outcome,
119
374840
2496
ve sonucu manipüle ettiğimizde
06:17
we find that they are remarkably similar.
120
377360
2456
sonuçlar son derece benzerdi.
06:19
So they are just as emotional, just as specific,
121
379840
3056
Aynı derecede duygusal ve spesifiklerdi
06:22
and they are expressed with the same level of certainty.
122
382920
3200
ve aynı derecede kesin olarak ifade edilmişti.
06:27
So the strong conclusion to draw from this
123
387120
2336
Bu yüzden buradan çıkaracağımız güçlü sonuç
06:29
is that if there are no differences
124
389480
2216
gerçek bir seçimle
06:31
between a real choice and a manipulated choice,
125
391720
3696
manipüle edilmiş bir seçim arasında fark olmadığı.
06:35
perhaps we make things up all the time.
126
395440
2440
Muhtemelen birçok zaman bir şeyleri uyduruyoruz.
06:38
But we've also done studies
127
398680
1336
Aslında söyledikleri şeyleri
06:40
where we try to match what they say with the actual faces.
128
400040
3016
gerçek yüzlerle karşılaştıran çalışmalar da yaptık.
06:43
And then we find things like this.
129
403080
1880
Ve bunun gibi şeyler bulduk.
06:45
So here, this male participant, he preferred the girl to the left,
130
405760
5056
Mesela burada, erkek bir katılımcı soldaki kadını tercih etti
06:50
he ended up with the one to the right.
131
410840
1856
ve sağdaki kadının resmini aldı.
06:52
And then, he explained his choice like this.
132
412720
2816
Ve daha sonra tercihini şu şekilde açıkladı:
06:55
"She is radiant.
133
415560
1296
"Çok göz alıcı.
06:56
I would rather have approached her at the bar than the other one.
134
416880
3096
Bir barda diğerine kıyasla bu kadına yanaşırdım.
07:00
And I like earrings."
135
420000
1616
Ve küpelerini sevdim."
07:01
And whatever made him choose the girl on the left to begin with,
136
421640
3496
Ve en başta soldaki kadını seçmesinin nedeni
07:05
it can't have been the earrings,
137
425160
1576
küpeler olamaz,
07:06
because they were actually sitting on the girl on the right.
138
426760
2856
çünkü aslında sağdaki kadında takılılar.
07:09
So this is a clear example of a post hoc construction.
139
429640
3776
Bu post hoc yaratmaya açık bir örnek.
07:13
So they just explained the choice afterwards.
140
433440
2800
Yani seçimleri sonrasında açıkladılar.
07:17
So what this experiment shows is,
141
437320
2296
Bu deneyin gösterdiği şu:
07:19
OK, so if we fail to detect that our choices have been changed,
142
439640
3656
eğer seçimlerimizin değiştiğini fark edemezsek
07:23
we will immediately start to explain them in another way.
143
443320
3200
onları hemen başka bir yolla açıklamaya başlıyoruz.
07:27
And what we also found
144
447520
1256
Bulduğumuz bir diğer şey
07:28
is that the participants often come to prefer the alternative,
145
448800
3216
katılımcıların sevmeye yönlendirildikleri alternatifi
07:32
that they were led to believe they liked.
146
452040
2256
daha sonra tercih etmeleriydi.
07:34
So if we let them do the choice again,
147
454320
2016
Onlara bu seçimi bir daha sorduğumuzda
07:36
they will now choose the face they had previously rejected.
148
456360
3760
daha önce seçmedikleri yüzü seçiyorlardı.
07:41
So this is the effect we call "choice blindness."
149
461520
2296
Biz bu etkiye "tercih körlüğü" adını verdik.
07:43
And we've done a number of different studies --
150
463840
2216
Ve birçok farklı çalışma yaptık --
07:46
we've tried consumer choices,
151
466080
2536
tüketici seçimlerini,
07:48
choices based on taste and smell and even reasoning problems.
152
468640
4416
tat, koku ve hatta mantık problemi bazlı seçimleri denedik.
07:53
But what you all want to know is of course
153
473080
2056
Gerçekten bilmek istediğimiz şey tabii ki
07:55
does this extend also to more complex, more meaningful choices?
154
475160
3936
bu etkinin daha karışık ve anlamlı seçimlere uygulanabilir olup olmadığı.
07:59
Like those concerning moral and political issues.
155
479120
3080
Mesela ahlaki ve politik konulardaki seçimlere.
08:04
So the next experiment, it needs a little bit of a background.
156
484400
4216
Bir sonraki deney biraz arka plan bilgisi gerektiriyor.
08:08
So in Sweden, the political landscape
157
488640
4256
İsveç'te politik arena
08:12
is dominated by a left-wing and a right-wing coalition.
158
492920
3360
sol ve sağ taraflı bir koalisyon içeriyor.
08:17
And the voters may move a little bit between the parties within each coalition,
159
497720
4416
Ve seçmenler iki koalisyondaki partiler arasında gidip gelebiliyorlar.
08:22
but there is very little movement between the coalitions.
160
502160
2760
Ancak koalisyonlar arasındaki değişimler çok az.
08:25
And before each elections,
161
505680
1976
Her seçimden önce
08:27
the newspapers and the polling institutes
162
507680
4216
gazeteler ve seçim kurumları
08:31
put together what they call "an election compass"
163
511920
2616
iki koalisyonu birbirinden ayıracak
08:34
which consists of a number of dividing issues
164
514560
3336
birkaç ayrılıkçı konu içeren
08:37
that sort of separates the two coalitions.
165
517920
2336
bir "seçim pusulası" yayınlıyor.
08:40
Things like if tax on gasoline should be increased
166
520280
3735
Benzindeki vergi artmalı mı
08:44
or if the 13 months of paid parental leave
167
524039
4096
ya da 13 aylık doğum izni cinsiyet eşitliğini artırmak için
08:48
should be split equally between the two parents
168
528159
2496
ebeveynler arasında eşit bir şekilde bölüşülmeli mi
08:50
in order to increase gender equality.
169
530679
2721
gibi sorular içeriyor.
08:54
So, before the last Swedish election,
170
534840
2216
İsveç seçimlerinden önce
08:57
we created an election compass of our own.
171
537080
2600
kendi seçim pusulamızı yarattık.
09:00
So we walked up to people in the street
172
540480
2136
Sokaktaki insanlara
09:02
and asked if they wanted to do a quick political survey.
173
542640
3336
kısa bir politik anket yapmak isteyip istemediklerini sorduk.
09:06
So first we had them state their voting intention
174
546000
2456
Öncelikle iki koalisyon arasında oy verme
09:08
between the two coalitions.
175
548480
1360
niyetlerini sorduk.
09:10
Then we asked them to answer 12 of these questions.
176
550560
3776
Daha sonra 12 soruyu cevaplamalarını istedik.
09:14
They would fill in their answers,
177
554360
1976
Onlar cevapları dolduracaktı;
09:16
and we would ask them to discuss,
178
556360
1616
biz de açıklamalarını soracaktık:
09:18
so OK, why do you think tax on gas should be increased?
179
558000
5496
Evet neden benzin üzerindeki verginin artırılması gerektiğini düşünüyorsunuz?
09:23
And we'd go through the questions.
180
563520
2096
Daha sonra soruların üzerinden gidiyorduk.
09:25
Then we had a color coded template
181
565640
3896
Sonrasında genel skorlarını puanlamamızı sağlayan
09:29
that would allow us to tally their overall score.
182
569560
2936
renk kodlu bir şablonumuz vardı.
09:32
So this person would have one, two, three, four
183
572520
3456
Mesela bu kişinin bir, iki, üç, dört
09:36
five, six, seven, eight, nine scores to the left,
184
576000
3296
beş, altı, yedi, sekiz, dokuz sol puanı olacak.
09:39
so he would lean to the left, basically.
185
579320
2680
Böylece basit bir şekilde sol eğilimli olacaktı.
09:42
And in the end, we also had them fill in their voting intention once more.
186
582800
4440
Ve sonunda, oy verme niyetlerini bir kez daha doldurmalarını istedik.
09:48
But of course, there was also a trick involved.
187
588160
2280
Ama tabii ki bir hile de vardı.
09:51
So first, we walked up to people,
188
591360
2176
Önce insanlara giderek
09:53
we asked them about their voting intention
189
593560
2056
oy verme niyetlerinin ne olduğunu sorduk
09:55
and then when they started filling in,
190
595640
2256
ve onlar doldurmaya başladığında
09:57
we would fill in a set of answers going in the opposite direction.
191
597920
5456
biz onların tam tersi olan başka bir cevap seti doldurduk.
10:03
We would put it under the notepad.
192
603400
2576
Ve bunu defterin altına koyduk.
10:06
And when we get the questionnaire,
193
606000
2776
Anketi aldığımızda
10:08
we would simply glue it on top of the participant's own answer.
194
608800
3320
katılımcının cevaplarının üzerine basitçe yapıştırdık.
10:16
So there, it's gone.
195
616000
1240
İşte burada, oldu bile.
10:24
And then we would ask about each of the questions:
196
624280
2376
Ve daha sonra bu soruları sorduk:
10:26
How did you reason here?
197
626680
1536
Burada ne düşündünüz?
10:28
And they'll state the reasons,
198
628240
1736
Ve onlar da düşündüklerini söyledi.
10:30
together we will sum up their overall score.
199
630000
2480
Birlikte toplam skorlarını hesapladık.
10:34
And in the end, they will state their voting intention again.
200
634800
3680
Ve sonunda, tekrar oy verme niyetlerini söylediler.
10:41
So what we find first of all here,
201
641960
1656
Burada bulduğumuz ilk şey
10:43
is that very few of these manipulations are detected.
202
643640
4216
bu manipülasyonların çok azının fark edildiğiydi.
10:47
And they're not detected in the sense that they realize,
203
647880
2656
Ve fark edilenler şu şekilde tepki vermiyorlardı:
10:50
"OK, you must have changed my answer,"
204
650560
1856
"Hmm, cevabımı değiştirmiş olmalısın."
10:52
it was more the case that,
205
652440
1256
Daha çok şöyleydi:
10:53
"OK, I must've misunderstood the question the first time I read it.
206
653720
3176
"Hmm, ilk okuduğumda soruyu yanlış anlamış olmalıyım.
10:56
Can I please change it?"
207
656920
1240
Değiştirebilir miyim?"
10:59
And even if a few of these manipulations were changed,
208
659080
5136
Ve bu manipülasyonların küçük bir kısmı değiştirildiyse bile
11:04
the overall majority was missed.
209
664240
2136
büyük çoğunluk farkına varmıyordu.
11:06
So we managed to switch 90 percent of the participants' answers
210
666400
3656
Böylelikle katılımcıların genel profillerindeki cevapların %90'ını
11:10
from left to right, right to left, their overall profile.
211
670080
3160
sağdan sola ya da soldan sağa çevirmeyi başardık.
11:14
And what happens then when they are asked to motivate their choices?
212
674800
4400
Peki onlara seçimlerinin arkasındaki motivasyon sorulduğunda ne yaptılar?
11:20
And here we find much more interesting verbal reports
213
680160
3056
Burada yüzlere kıyasla çok daha ilginç
11:23
than compared to the faces.
214
683240
2016
sözlü sonuçlar bulduk.
11:25
People say things like this, and I'll read it to you.
215
685280
3360
İnsanlar şu şekilde şeyler söylüyorlardı, size okuyayım.
11:29
So, "Large-scale governmental surveillance of email and internet traffic
216
689720
3736
"Email'lerde ve internet trafiğinde olan büyük ölçekli hükümet gözetimine
11:33
ought to be permissible as means to combat international crime and terrorism."
217
693480
4336
uluslararası suç ve terörle savaşabilmek için izin verilmelidir."
11:37
"So you agree to some extent with this statement." "Yes."
218
697840
2716
"Buradaki ifadeye katılıyorsunuz değil mi?" "Evet."
11:40
"So how did you reason here?"
219
700580
1500
"Burada nasıl düşündünüz?"
11:43
"Well, like, as it is so hard to get at international crime and terrorism,
220
703600
4936
"Yani, uluslararası suç ve teröre ulaşabilmek çok zor olduğundan
11:48
I think there should be those kinds of tools."
221
708560
2776
bence bu gibi araçlar kullanılmalı."
11:51
And then the person remembers an argument from the newspaper in the morning.
222
711360
3616
Ve bu kişi daha sonra sabahki gazetedeki bir argümanı hatırlıyor.
11:55
"Like in the newspaper today,
223
715000
1616
"Mesela bugünkü gazetedeki gibi,
11:56
it said they can like, listen to mobile phones from prison,
224
716640
3376
hapishanedeki cep telefonlarının dinlenebildiği söyleniyor,
12:00
if a gang leader tries to continue his crimes from inside.
225
720040
3536
olur da bir çete lideri hapishane içinden suç işlemeye devam eder diye.
12:03
And I think it's madness that we have so little power
226
723600
2816
Ve bence bu kadar şey yapma şansımız varken çok azını yapıp
12:06
that we can't stop those things
227
726440
1656
böyle şeyleri durdurmamak
12:08
when we actually have the possibility to do so."
228
728120
2936
tamamen saçmalık."
12:11
And then there's a little bit back and forth in the end:
229
731080
2696
Ve sonunda biraz ileri geri gitme var:
12:13
"I don't like that they have access to everything I do,
230
733800
2576
"Benim yaptığım her şeye erişim olmasını sevmiyorum
12:16
but I still think it's worth it in the long run."
231
736400
2576
ama yine de uzun vadede buna değeceğini düşünüyorum."
12:19
So, if you didn't know that this person
232
739000
2536
Eğer bu insanın az önce
12:21
just took part in a choice blindness experiment,
233
741560
2256
tercih körlüğü deneyinde olduğunu bilmeseydiniz
12:23
I don't think you would question
234
743840
1856
gerçek tercihlerini sorgulayacağınızı
12:25
that this is the true attitude of that person.
235
745720
3120
sanmıyorum.
12:29
And what happens in the end, with the voting intention?
236
749800
2856
Ve en sonunda oy verme niyetiyle ilgili ne oluyor?
12:32
What we find -- that one is also clearly affected by the questionnaire.
237
752680
4696
Bulduğumuz şey bunun da anketle açık bir şekilde etkilendiğiydi.
12:37
So we have 10 participants
238
757400
1736
10 katılımcının görüşü
12:39
shifting from left to right or from right to left.
239
759160
2976
soldan sağa ya da sağdan sola doğru değişti.
12:42
We have another 19 that go from clear voting intention
240
762160
2536
Bunun dışında 19 tanesi kesin bir oy niyetine sahipken
12:44
to being uncertain.
241
764720
1456
tereddütlü duruma geçti.
12:46
Some go from being uncertain to clear voting intention.
242
766200
3096
Bazıları ise tereddütlü olmaktan kesin bir oy niyetine geçti.
12:49
And then there is a number of participants staying uncertain throughout.
243
769320
4736
Ve bu süre boyunca tereddütlü kalan katılımcılar oldu.
12:54
And that number is interesting
244
774080
1576
Bu rakam değişikti
12:55
because if you look at what the polling institutes say
245
775680
4616
çünkü anket kurumlarının bir seçime yaklaştıkça
13:00
the closer you get to an election,
246
780320
1656
dediklerine bakarsanız
13:02
the only people that are sort of in play
247
782000
2136
sadece tercihlerinden emin olmayan insanlar
13:04
are the ones that are considered uncertain.
248
784160
2656
fikir değiştiriyor.
13:06
But we show there is a much larger number
249
786840
3216
Ama buradan gözüküyor ki
13:10
that would actually consider shifting their attitudes.
250
790080
2800
aslında fikir değiştirebilecek insan sayısı çok daha fazla.
13:13
And here I must point out, of course, that you are not allowed to use this
251
793640
3496
Ve burada belirtmeliyim ki, bu metodu tabi ki seçimlerden önce
13:17
as an actual method to change people's votes
252
797160
2616
gerçekten insanların fikrini değiştirmek için
13:19
before an election,
253
799800
1496
kullanamazsınız.
13:21
and we clearly debriefed them afterwards
254
801320
3616
Biz katılımcılara sonrasında kısaca bilgi verdik
13:24
and gave them every opportunity to change back
255
804960
2296
ve sonrasında ilk düşündükleri fikre
13:27
to whatever they thought first.
256
807280
2480
geri dönme fırsatı verdik.
13:30
But what this shows is that if you can get people
257
810600
2336
Bu deneyin asıl gösterdiği şey
13:32
to see the opposite view and engage in a conversation with themselves,
258
812960
5536
insanlara karşı görüşü gösterip onlarla konuşursak
13:38
that could actually make them change their views.
259
818520
2920
fikirlerini gerçekten değiştirmeyi sağlayabileceğimiz.
13:42
OK.
260
822400
1200
Evet.
13:44
So what does it all mean?
261
824760
1656
Yani bunlar ne demek oluyor?
13:46
What do I think is going on here?
262
826440
2416
Ben burada ne olduğunu düşünüyorum?
13:48
So first of all,
263
828880
1216
Öncelikle,
13:50
a lot of what we call self-knowledge is actually self-interpretation.
264
830120
4856
kendi fikrimiz dediğimiz birçok şey aslında kendi yorumlamamız.
13:55
So I see myself make a choice,
265
835000
2496
Kendimi bir seçim yaparken gördüğümde
13:57
and then when I'm asked why,
266
837520
2776
ve daha sonra nedeni sorulduğunda
14:00
I just try to make as much sense of it as possible
267
840320
2536
bir açıklama yaparken olabildiğince mantıklı
14:02
when I make an explanation.
268
842880
1936
olmaya çalışıyorum.
14:04
But we do this so quickly and with such ease
269
844840
3016
Ama bunu o kadar hızlı ve kolayca yapıyoruz ki
14:07
that we think we actually know the answer when we answer why.
270
847880
4280
gerçekten neden olduğunu bildiğimizi düşünüyoruz.
14:13
And as it is an interpretation,
271
853040
3096
Bu bir yorumlama olduğu için
14:16
of course we sometimes make mistakes.
272
856160
2296
tabii ki bazı zamanlar hatalar yapıyoruz.
14:18
The same way we make mistakes when we try to understand other people.
273
858480
3520
Aynı başkalarını anlamaya çalıştığımızda yaptığımız hatalar gibi.
14:23
So beware when you ask people the question "why"
274
863160
3696
Bu yüzden insanlara "neden" sorusunu sorarken dikkat edin
14:26
because what may happen is that, if you asked them,
275
866880
4896
çünkü örneğin şunları sorarsanız
14:31
"So why do you support this issue?"
276
871800
4016
"Neden bu konuyu destekliyorsun?"
14:35
"Why do you stay in this job or this relationship?" --
277
875840
3216
"Neden bu ilişkide ya da işte kalmayı tercih ediyorsun?"
14:39
what may happen when you ask why is that you actually create an attitude
278
879080
3416
insanlar cevap olarak bu soruları sormadan önce olmayan
14:42
that wasn't there before you asked the question.
279
882520
2240
bir düşünce geliştirebilirler.
14:45
And this is of course important in your professional life, as well,
280
885440
3176
Ve tabii ki bu profesyonel hayatınızda da önemli olur
14:48
or it could be.
281
888640
1216
ya da olabilir.
14:49
If, say, you design something and then you ask people,
282
889880
2536
Eğer bir şey tasarlarsanız ve insanlara sorarsanız:
14:52
"Why do you think this is good or bad?"
283
892440
2256
"Neden iyi ya da kötü olduğunu düşünüyorsunuz?"
14:54
Or if you're a journalist asking a politician,
284
894720
3056
Ya da bir gazeteciyseniz ve bir politikacıya şöyle soruyorsanız:
14:57
"So, why did you make this decision?"
285
897800
2376
"Peki neden bu kararı verdiniz?"
15:00
Or if indeed you are a politician
286
900200
1936
Ya da aslında siz bir politikacıysanız
15:02
and try to explain why a certain decision was made.
287
902160
2640
ve bir seçiminizin nedenini açıklamaya çalışıyorsanız...
15:06
So this may all seem a bit disturbing.
288
906080
3576
Bunlar biraz rahatsız edici gözükebilir.
15:09
But if you want to look at it from a positive direction,
289
909680
3496
Ama buna pozitif bir yönden bakmak isterseniz,
15:13
it could be seen as showing,
290
913200
1736
aslında gözüktüğümüzden
15:14
OK, so we're actually a little bit more flexible than we think.
291
914960
3376
daha esnek olabiliyoruz anlamına da gelebilir.
15:18
We can change our minds.
292
918360
1896
Fikirlerimizi değiştirebiliyoruz.
15:20
Our attitudes are not set in stone.
293
920280
2456
Davranışlarımız kalıplar içinde değil.
15:22
And we can also change the minds of others,
294
922760
3176
Ve aynı zamanda eğer başkalarını konuya dâhil etmeyi ve
15:25
if we can only get them to engage with the issue
295
925960
2376
karşı görüşü göstermeyi başarabilirsek, onların
15:28
and see it from the opposite view.
296
928360
1680
fikirlerini de değiştirebiliriz.
15:31
And in my own personal life, since starting with this research --
297
931400
3936
Ve benim kendi özel hayatımda bu araştırmaya başladıktan sonra
15:35
So my partner and I, we've always had the rule
298
935360
2576
eşimle birlikte söylediğimiz şeyleri geri alabilme
15:37
that you're allowed to take things back.
299
937960
2296
şansımız olduğu bir kural koyduk.
15:40
Just because I said I liked something a year ago,
300
940280
2336
Bir şeyi bir yıl önce sevdiğimi söylemem
15:42
doesn't mean I have to like it still.
301
942640
2040
hâlâ sevdiğim anlamına gelmez.
15:45
And getting rid of the need to stay consistent
302
945480
2816
Tutarlı olma gerekliliğini hayatımızdan kaldırmak
15:48
is actually a huge relief and makes relational life so mush easier to live.
303
948320
4360
aslında çok büyük bir rahatlama ve ilişkilerin yaşanmasını kolaylaştırıyor.
15:53
Anyway, so the conclusion must be:
304
953720
2360
Her neyse, burada sonuç şu olmalı:
15:57
know that you don't know yourself.
305
957320
2496
Kendinizi bilmediğinizi bilin.
15:59
Or at least not as well as you think you do.
306
959840
2320
Ya da en azından sandığınız kadar bilmediğinizi.
16:03
Thanks.
307
963480
1216
Teşekkürler.
16:04
(Applause)
308
964720
4640
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7