Do you really know why you do what you do? | Petter Johansson

189,870 views ・ 2018-03-27

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: sadegh zabihi Reviewer: Mary Jane
00:12
So why do you think the rich should pay more in taxes?
0
12800
3560
خوب چرا فکر می‌کنید پولدارها باید مالیات بیشتری بدهند؟
00:16
Why did you buy the latest iPhone?
1
16400
2376
چرا آخرین آیفون را خریدید؟
00:18
Why did you pick your current partner?
2
18800
2456
چرا شریک فعلی‌تان را انتخاب کرده‌اید؟
00:21
And why did so many people vote for Donald Trump?
3
21280
3416
و چرا عده خیلی زیادی به دونالد ترامپ رأی دادند؟
00:24
What were the reasons, why did they do it?
4
24720
2520
دلایل آن چه بود، چرا این کار را کردند؟
00:27
So we ask this kind of question all the time,
5
27990
2106
خوب ما این سوال‌ها را همیشه می‌پرسیم،
00:30
and we expect to get an answer.
6
30120
1736
و انتظار داریم جوابی بگیریم.
00:31
And when being asked, we expect ourselves to know the answer,
7
31880
3136
و وقتی از ما می‌پرسند، توقع داریم جواب را بدانیم،
00:35
to simply tell why we did as we did.
8
35040
2480
که چرا کاری که کردیم را کرده‌ایم.
00:38
But do we really know why?
9
38440
1720
اما آیا واقعاً می‌دانیم چرا؟
00:41
So when you say that you prefer George Clooney to Tom Hanks,
10
41000
3456
پس وقتی می‌گویید جرج کلونی را به تام هنکس ترجیح می‌دهید،
00:44
due to his concern for the environment,
11
44479
2057
چون به مسئله محیط زیست اهمیت می‌دهد،
00:46
is that really true?
12
46560
1200
آیا این حقیقت دارد؟
00:48
So you can be perfectly sincere and genuinely believe
13
48560
2496
خوب ممکن است شما کاملاً راست بگویید و واقعاً به آن باور داشته باشید
00:51
that this is the reason that drives your choice,
14
51080
2936
که همین دلیل است که شما را به سمت انتخاب‌تان هدایت می‌کند،
00:54
but to me, it may still feel like something is missing.
15
54040
2600
اما من هنوز هم احساس می‌کنم چیزی از قلم افتاده است.
00:57
As it stands, due to the nature of subjectivity,
16
57560
3176
و این به خاطر طبیعت ذهنیت فردی است.
01:00
it is actually very hard to ever prove that people are wrong about themselves.
17
60760
4320
در واقع بسیار دشوار است که به کسی ثابت کنید درباره خودش اشتباه می‌کند.
01:06
So I'm an experimental psychologist,
18
66600
2136
خوب من یک روانشناس تجربی هستم،
01:08
and this is the problem we've been trying to solve in our lab.
19
68760
3536
و این مسئله ایست که سعی در حل آن در آزمایشگاهمان داریم.
01:12
So we wanted to create an experiment
20
72320
2176
خوب می‌خواستیم آزمایشی طراحی کنیم
01:14
that would allow us to challenge what people say about themselves,
21
74520
3536
که امکان به چالش کشیدن چیزی که مردم درباره خودشان می‌گویند،
01:18
regardless of how certain they may seem.
22
78080
2680
فارغ از اینکه چقدر مطمئن به نظر می‌رسند را برای ما فرآهم کند.
01:21
But tricking people about their own mind is hard.
23
81960
2736
اما گول زدن مردم درباره فکر خودشان سخت است.
01:24
So we turned to the professionals.
24
84720
2376
پس سراغ حرفه‌ای‌ها رفتیم.
01:27
The magicians.
25
87120
1200
شعبده بازها.
01:29
So they're experts at creating the illusion of a free choice.
26
89120
2896
آنها استاد ایجاد توهم یک انتخاب آزاد هستند.
01:32
So when they say, "Pick a card, any card,"
27
92040
2296
پس وقتی می‌گویند، «یک کارت انتخاب کن، هر کارتی،»
01:34
the only thing you know is that your choice is no longer free.
28
94360
2920
تنها چیزی که شما می‌دانید این است که دیگر انتخابتان آزاد نیست.
01:38
So we had a few fantastic brainstorming sessions
29
98200
2376
پس ما چند جلسه طوفان مغزی عالی
01:40
with a group of Swedish magicians,
30
100600
1856
با گروهی از شعبده‌بازهای سوئدی برگزار کردیم،
01:42
and they helped us create a method
31
102480
1642
و آنها به ما کمک کردند روشی ایجاد کنیم
01:44
in which we would be able to manipulate the outcome of people's choices.
32
104147
3973
که با آن می‌توانستیم نتیجه انتخاب افراد را دستکاری کنیم.
01:48
This way we would know when people are wrong about themselves,
33
108760
2936
به این طریق می‌توانستیم بدانیم کی مردم درباره خودشان اشتباه می‌کنند،
01:51
even if they don't know this themselves.
34
111720
2040
حتی اگر خودشان از آن بی‌خبر باشند.
01:54
So I will now show you a short movie showing this manipulation.
35
114480
4656
خوب حالا فیلم کوتاهی به شما نشان خواهم داد که این دستکاری را نشان می‌دهد.
01:59
So it's quite simple.
36
119160
1416
خوب خیلی ساده است.
02:00
The participants make a choice,
37
120600
2136
شرکت کننده‌ها انتخابی می‌کنند،
02:02
but I end up giving them the opposite.
38
122760
2256
اما من در نهایت برعکس آن را به آنها می‌دهم.
02:05
And then we want to see: How did they react, and what did they say?
39
125040
3520
و بعد می‌خواهیم ببینیم: چه واکنشی نشان می‌دهند، و چه می‌گویند؟
02:09
So it's quite simple, but see if you can spot the magic going on.
40
129240
3160
خوب خیلی ساده است، اما ببینید آیا می‌توانید حقه را کشف کنید.
02:13
And this was shot with real participants, they don't know what's going on.
41
133440
3520
و این فیلم را با شرکت کننده‌های واقعی ساختیم، آنها نمی‌دانند چه خبر است.
02:19
(Video) Petter Johansson: Hi, my name's Petter.
42
139000
2216
(ویدیو) پیتر ژوهانسن: سلام، من پیتر هستم.
02:21
Woman: Hi, I'm Becka.
43
141240
1215
زن: سلام، من بکا هستم.
02:22
PJ: I'm going to show you pictures like this.
44
142479
2137
پ ژ: من عکس‌هایی مثل این به شما نشان خواهم داد.
02:24
And you'll have to decide which one you find more attractive.
45
144640
2896
و شما باید تصمیم بگیرید کدامیک به نظرتان جذاب‌تر است.
02:27
Becka: OK.
46
147560
1216
بکا: باشد.
02:28
PJ: And then sometimes, I will ask you why you prefer that face.
47
148800
3176
پ ژ: و بعد گاهی می‌پرسم چرا آن چهره را ترجیح می‌دهید.
02:32
Becka: OK.
48
152000
1216
بکا: باشد.
02:33
PJ: Ready? Becka: Yeah.
49
153240
1200
پ ژ: آماده‌اید؟ بکا: بله.
02:43
PJ: Why did you prefer that one?
50
163120
1816
پ ژ: چرا آن یکی را انتخاب کردید؟
02:44
Becka: The smile, I think.
51
164960
1496
بکا: فکر کنم به خاطر لبخند.
02:46
PJ: Smile.
52
166480
1200
پ ژ: لبخند.
02:52
Man: One on the left.
53
172400
1240
مرد: سمت چپی.
02:57
Again, this one just struck me.
54
177520
1640
باز هم، این یکی مرا گرفت.
02:59
Interesting shot.
55
179760
1616
عکس زیبایی است.
03:01
Since I'm a photographer, I like the way it's lit and looks.
56
181400
3000
از آنجا که من یک عکاس هستم، نورپردازی و ظاهر آن را دوست دارم.
03:06
Petter Johansson: But now comes the trick.
57
186280
2040
پیتر ژوهانسن: اما حالا حقه شروع می‌شود.
03:10
(Video) Woman 1: This one.
58
190120
1280
(ویدیو) زن ۱: این یکی.
03:16
PJ: So they get the opposite of their choice.
59
196240
2280
پ ژ: پس برعکس انتخابشان را به آنها می‌دهم.
03:20
And let's see what happens.
60
200520
1600
و ببینیم چه اتفاقی می‌افتد.
03:28
Woman 2: Um ...
61
208240
1200
زن ۲: اوم ...
03:35
I think he seems a little more innocent than the other guy.
62
215760
2800
به نظرم کمی بی‌گناه‌تر از آن یکی به نظر می‌رسد.
03:45
Man: The one on the left.
63
225360
1240
مرد: سمت چپی.
03:49
I like her smile and contour of the nose and face.
64
229280
3696
لبخندش و شکل بینی و صورت را دوست دارم.
03:53
So it's a little more interesting to me, and her haircut.
65
233000
2760
پس کمی برایم جالب‌تر است، و مدل موهایش.
04:00
Woman 3: This one.
66
240040
1200
زن ۳: این یکی.
04:03
I like the smirky look better.
67
243520
1576
از چهره خندان بیشتر خوشم می‌آید.
04:05
PJ: You like the smirky look better?
68
245120
2000
پ ژ: از چهره خندان بیشتر خوشتان می‌آید؟
04:09
(Laughter)
69
249680
3176
(خنده)
04:12
Woman 3: This one.
70
252880
1200
زن ۳: این یکی.
04:15
PJ: What made you choose him?
71
255280
1400
پ ژ: چه چیزی باعث شد او را انتخاب کنید؟
04:17
Woman 3: I don't know, he looks a little bit like the Hobbit.
72
257520
2896
زن ۳: نمی‌دانم، کمی شبیه هابیت است.
04:20
(Laughter)
73
260440
2056
(خنده)
04:22
PJ: And what happens in the end
74
262520
1496
پ ژ: و در انتها وقتی که درباره اصل آزمایش به آنها گفتم
04:24
when I tell them the true nature of the experiment?
75
264040
3096
چه اتفاقی افتاد؟
04:27
Yeah, that's it. I just have to ask a few questions.
76
267160
2456
آره، همین بود. فقط باید چند سوال بپرسم.
04:29
Man: Sure.
77
269640
1216
مرد: حتماً.
04:30
PJ: What did you think of this experiment, was it easy or hard?
78
270880
2976
پ ژ: درباره آزمایش چه فکر کردید، آسان بود یا سخت؟
04:33
Man: It was easy.
79
273880
1240
مرد: آسان بود.
04:36
PJ: During the experiments,
80
276040
1336
پ ژ: در طول آزمایش،
04:37
I actually switched the pictures three times.
81
277400
3336
من در واقع سه بار عکس‌ها را عوض کردم.
04:40
Was this anything you noticed?
82
280760
1576
اصلاً متوجه آن شدید؟
04:42
Man: No. I didn't notice any of that.
83
282360
1816
مرد: نه. به هیچ وجه متوجه چیزی نشدم.
04:44
PJ: Not at all? Man: No.
84
284200
1496
پ ژ: اصلاً؟ مرد: نه.
04:45
Switching the pictures as far as ...
85
285720
2096
عوض کردن عکس‌ها تا جایی که ...
04:47
PJ: Yeah, you were pointing at one of them but I actually gave you the opposite.
86
287840
3816
پ ژ: آره، شما به یکی از آنها اشاره کردید و من درواقع دیگری را به شما دادم.
04:51
Man: The opposite one. OK, when you --
87
291680
1816
مرد: آن یکی. خیلی خوب، وقتی --
04:53
No. Shows you how much my attention span was.
88
293520
2256
نه. نشان می‌دهد من چقدر حواسم جمع بوده.
04:55
(Laughter)
89
295800
1520
(خنده)
04:58
PJ: Did you notice that sometimes during the experiment
90
298880
3016
پ ژ: متوجه شدید که گاهی در طول آزمایش
05:01
I switched the pictures?
91
301920
2136
من عکس‌ها را عوض کردم؟
05:04
Woman 2: No, I did not notice that.
92
304080
2016
زن ۲: نه، متوجه آن نشدم.
05:06
PJ: You were pointing at one, but then I gave you the other one.
93
306120
3000
پ ژ: شما به یکی اشاره می‌کردید، اما من دیگری را به شما دادم.
05:09
No inclination of that happening?
94
309920
1616
هیچ شکی نکردید؟
05:11
Woman 2: No.
95
311560
1576
زن ۲: نه.
05:13
Woman 2: I did not notice.
96
313160
1256
زن ۲: متوجه نشدم.
05:14
(Laughs)
97
314440
1936
(می‌خندد)
05:16
PJ: Thank you.
98
316400
1216
پ ژ: متشکرم.
05:17
Woman 2: Thank you.
99
317640
1376
زن ۲: متشکرم.
05:19
PJ: OK, so as you probably figured out now,
100
319040
2056
پ ژ: خوب، پس همان طور که احتمالاً متوجه شده‌اید،
05:21
the trick is that I have two cards in each hand,
101
321120
2256
حقه این است که من در هر دست دو عکس دارم،
05:23
and when I hand one of them over,
102
323400
1576
و وقتی یکی از آنها را می‌دهم،
05:25
the black one kind of disappears into the black surface on the table.
103
325000
4360
عکس سیاه، به گونه‌ای در سطح سیاه میز محو می‌شود.
05:30
So using pictures like this,
104
330640
1736
پس با استفاده از عکس‌هایی مثل این،
05:32
normally not more than 20 percent of the participants detect these tries.
105
332400
4376
معمولاً تعداد شرکت کننده‌هایی که متوجه می‌شوند بیش از ۲۰ درصد نیست.
05:36
And as you saw in the movie,
106
336800
1416
و همان‌طور که در فیلم دیدید،
05:38
when in the end we explain what's going on,
107
338240
3176
وقتی در انتها، شرح می‌دهیم که چه اتفاقی افتاده است،
05:41
they're very surprised and often refuse to believe the trick has been made.
108
341440
4376
خیلی غافلگیر می‌شوند و معمولاً باور نمی‌کنند که حقه‌ای در کار بوده است.
05:45
So this shows that this effect is quite robust and a genuine effect.
109
345840
4776
پس این نشان می‌دهد که این اثر بسیار پایدار و واقعی است.
05:50
But if you're interested in self-knowledge, as I am,
110
350640
2656
اما اگر شما هم مثل من به خودشناسی علاقه دارید،
05:53
the more interesting bit is,
111
353320
1336
جالب‌ترین نکته این است
05:54
OK, so what did they say when they explained these choices?
112
354680
3936
که خوب، وقتی انتخاب‌شان را توضیح می‌دادند چه گفتند؟
05:58
So we've done a lot of analysis
113
358640
1496
پس ما در این آزمایش تحلیل‌های زیادی
06:00
of the verbal reports in these experiments.
114
360160
2080
بر روی گزارش‌های کلامی انجام دادیم.
06:03
And this graph simply shows
115
363360
2456
و این نمودار به سادگی نشان می‌دهد
06:05
that if you compare what they say in a manipulated trial
116
365840
4776
که اگر چیزهایی که در یک آزمایش دستکاری شده گفتند را
06:10
with a nonmanipulated trial,
117
370640
1376
با یک آزمایش دستکاری نشده مقایسه کنیم،
06:12
that is when they explain a normal choice they've made
118
372040
2776
این وقتی است که انتخاب طبیعی خود را توضیح می‌دهند
06:14
and one where we manipulated the outcome,
119
374840
2496
و این یکی ما خروجی را دستکاری کردیم،
06:17
we find that they are remarkably similar.
120
377360
2456
متوجه شدیم که به میزان قابل توجهی یکسان هستند.
06:19
So they are just as emotional, just as specific,
121
379840
3056
پس به همان اندازه احساسی و جزئی هستند،
06:22
and they are expressed with the same level of certainty.
122
382920
3200
و با قطعیت یکسانی بیان شده‌اند.
06:27
So the strong conclusion to draw from this
123
387120
2336
پس نتیجه محکمی که می‌توان از این گرفت
06:29
is that if there are no differences
124
389480
2216
این است که اگر تفاوتی
06:31
between a real choice and a manipulated choice,
125
391720
3696
میان انتخاب واقعی و انتخاب دستکاری شده وجود نداشته باشد،
06:35
perhaps we make things up all the time.
126
395440
2440
شاید همواره داریم این چیزها را از خودمان درمی‌آوریم.
06:38
But we've also done studies
127
398680
1336
اما همچنین مطالعاتی انجام داده‌ایم
06:40
where we try to match what they say with the actual faces.
128
400040
3016
و تلاش کردیم آنچه آنها می‌گویند را با تصاویر تطبیق بدهیم.
06:43
And then we find things like this.
129
403080
1880
و بعد چیزهایی مثل این پیدا کردیم.
06:45
So here, this male participant, he preferred the girl to the left,
130
405760
5056
خوب اینجا، این شرکت کننده مرد، دختر سمت چپی را انتخاب کرد،
06:50
he ended up with the one to the right.
131
410840
1856
و عکس سمت راستی را گرفت.
06:52
And then, he explained his choice like this.
132
412720
2816
و بعد انتخابش را این طوری شرح داد.
06:55
"She is radiant.
133
415560
1296
"خیلی زیباست.
06:56
I would rather have approached her at the bar than the other one.
134
416880
3096
اگر در یک کافه باشیم سراغ این یکی می‌روم نه آن یکی.
07:00
And I like earrings."
135
420000
1616
و از گوشواره خوشم می‌آید."
07:01
And whatever made him choose the girl on the left to begin with,
136
421640
3496
و هر چه او را در ابتدا به انتخاب دختر سمت چپی وادار کرد،
07:05
it can't have been the earrings,
137
425160
1576
قطعاً گوشواره نبوده است،
07:06
because they were actually sitting on the girl on the right.
138
426760
2856
چون در واقع فقط دختر سمت راستی گوشواره داشت.
07:09
So this is a clear example of a post hoc construction.
139
429640
3776
پس این یک نمونه بارز پسا ساخت و ساز است‌.
07:13
So they just explained the choice afterwards.
140
433440
2800
پس آنها گزینه خود را بعد از انتخاب کردن توضیح می‌دادند.
07:17
So what this experiment shows is,
141
437320
2296
این آزمایش نشان می‌دهد،
07:19
OK, so if we fail to detect that our choices have been changed,
142
439640
3656
که خوب، اگر نتوانیم تشخیص بدهیم که انتخابمان عوض شده است،
07:23
we will immediately start to explain them in another way.
143
443320
3200
بلافاصله شروع به توضیح آنها به روشی دیگر می‌کنیم.
07:27
And what we also found
144
447520
1256
و چیز دیگری که پیدا کردیم
07:28
is that the participants often come to prefer the alternative,
145
448800
3216
این است که شرکت‌کننده‌ها معمولاً جایگزینی را ترجیح می‌دهند،
07:32
that they were led to believe they liked.
146
452040
2256
که به سمتی هدایت شده‌اند که باور کنند آن را دوست داشته‌اند.
07:34
So if we let them do the choice again,
147
454320
2016
پس اگر باز هم به آنها اجازه بدهیم که انتخاب کنند،
07:36
they will now choose the face they had previously rejected.
148
456360
3760
حالا چهره‌ای را انتخاب می‌کنند که قبلاً پس زده‌اند.
07:41
So this is the effect we call "choice blindness."
149
461520
2296
خوب این اثری است که ما به آن "کوری انتخاب" می‌گوییم.
07:43
And we've done a number of different studies --
150
463840
2216
و مطالعات متعدد مختلفی انجام داده‌ایم --
07:46
we've tried consumer choices,
151
466080
2536
ما انتخاب‌های مصرف کننده را امتحان کرده‌ایم،
07:48
choices based on taste and smell and even reasoning problems.
152
468640
4416
انتخاب‌هایی بر اساس مزه و بو و حتی مشکلات استدلال.
07:53
But what you all want to know is of course
153
473080
2056
اما چیزی که البته همه شما می‌خواهید بدانید
07:55
does this extend also to more complex, more meaningful choices?
154
475160
3936
این است که آیا این مسئله به انتخاب‌های پیچیده‌تر، و با معنی‌تر هم تعمیم می‌یابد؟
07:59
Like those concerning moral and political issues.
155
479120
3080
مثل انتخاب در مسائل اخلاقی و سیاسی.
08:04
So the next experiment, it needs a little bit of a background.
156
484400
4216
پس آزمایش بعدی، نیاز به کمی زمینه چینی دارد.
08:08
So in Sweden, the political landscape
157
488640
4256
در سوئد، چشم انداز سیاسی،
08:12
is dominated by a left-wing and a right-wing coalition.
158
492920
3360
در دست ائتلافی از جناح چپ و راست است.
08:17
And the voters may move a little bit between the parties within each coalition,
159
497720
4416
و ما رای دهندگان می‌توانیم میزان اندکی میان جناح‌ها در هر ائتلاف جابجا شویم.
08:22
but there is very little movement between the coalitions.
160
502160
2760
اما جابجایی خیلی کمی در یک ائتلاف وجود دارد.
08:25
And before each elections,
161
505680
1976
و قبل از هر انتخابات،
08:27
the newspapers and the polling institutes
162
507680
4216
روزنامه‌ها و موسسات حزبی
08:31
put together what they call "an election compass"
163
511920
2616
چیزی سرهم می‌کنند به نام "قطب‌نمای انتخابات"
08:34
which consists of a number of dividing issues
164
514560
3336
که شامل نکات جدا کننده‌ایست
08:37
that sort of separates the two coalitions.
165
517920
2336
که به نوعی دو ائتلاف را از هم سوا می‌کند.
08:40
Things like if tax on gasoline should be increased
166
520280
3735
چیزهایی مثل افزایش قیمت سوخت
08:44
or if the 13 months of paid parental leave
167
524039
4096
یا اینکه ۱۳ ماه حقوق دوره مرخصی زایمان
08:48
should be split equally between the two parents
168
528159
2496
باید برای افزایش برابری جنسیتی
08:50
in order to increase gender equality.
169
530679
2721
به صورت مساوی بین والدین تقسیم شود.
08:54
So, before the last Swedish election,
170
534840
2216
پس، پیش از انتخاب قبلی در سوئد،
08:57
we created an election compass of our own.
171
537080
2600
ما هم قطب‌نمای انتخاباتی خودمان را ساختیم.
09:00
So we walked up to people in the street
172
540480
2136
پس به خیابان سراغ عابران رفتیم
09:02
and asked if they wanted to do a quick political survey.
173
542640
3336
و پرسیدیم که آیا مایل به شرکت در یک تحقیق سیاسی کوتاه هستند.
09:06
So first we had them state their voting intention
174
546000
2456
پس اول از آنها پرسیدیم
09:08
between the two coalitions.
175
548480
1360
رای‌شان با کدامیک از دو ائتلاف است.
09:10
Then we asked them to answer 12 of these questions.
176
550560
3776
بعد از آنها خواستیم به این ۱۲ سوال پاسخ دهند.
09:14
They would fill in their answers,
177
554360
1976
آنها جواب را وارد می‌کردند،
09:16
and we would ask them to discuss,
178
556360
1616
و از آنها می‌خواستیم که شرح بدهند،
09:18
so OK, why do you think tax on gas should be increased?
179
558000
5496
که خوب چرا فکر می‌کنید قیمت بنزین باید زیاد شود؟
09:23
And we'd go through the questions.
180
563520
2096
و ما سوالات را ادامه می‌دادیم.
09:25
Then we had a color coded template
181
565640
3896
بعد ما یک الگوی با رنگ رمزگذاری شده داشتیم
09:29
that would allow us to tally their overall score.
182
569560
2936
که به ما اجازه می‌داد امتیاز کلی آنها را بشماریم.
09:32
So this person would have one, two, three, four
183
572520
3456
پس این فرد می‌تواند یک، دو، سه، چهار
09:36
five, six, seven, eight, nine scores to the left,
184
576000
3296
پنج، شش، هفت، هشت، نه امتیاز در سمت چپ بگیرد،
09:39
so he would lean to the left, basically.
185
579320
2680
و ما اساساً به چپ متمایل می‌شویم.
09:42
And in the end, we also had them fill in their voting intention once more.
186
582800
4440
و در پایان، همچنین از آنها می‌خواستیم تا رای‌شان را دوباره بنویسند،
09:48
But of course, there was also a trick involved.
187
588160
2280
اما البته، حقه‌ای هم در کار بود.
09:51
So first, we walked up to people,
188
591360
2176
پس اول، سراغ مردم می‌رفتیم،
09:53
we asked them about their voting intention
189
593560
2056
درباره رای‌شان می‌پرسیدیم
09:55
and then when they started filling in,
190
595640
2256
و وقتی که می‌خواستند جواب بدهند،
09:57
we would fill in a set of answers going in the opposite direction.
191
597920
5456
ما هم روی یک پرسشنامه دیگر جواب‌هایی کاملاً برعکس وارد می‌کردیم.
10:03
We would put it under the notepad.
192
603400
2576
آن را زیر دفترچه می‌گذاشتیم.
10:06
And when we get the questionnaire,
193
606000
2776
و وقتی که پرسشنامه را می‌گرفتیم،
10:08
we would simply glue it on top of the participant's own answer.
194
608800
3320
راحت آن را بالای جواب خود شرکت کننده می‌چسباندیم.
10:16
So there, it's gone.
195
616000
1240
خیلی خوب، به این صورت.
10:24
And then we would ask about each of the questions:
196
624280
2376
و بعد درباره هر کدام از سوالات می‌پرسیدیم:
10:26
How did you reason here?
197
626680
1536
اینجا استدلال شما چیست؟
10:28
And they'll state the reasons,
198
628240
1736
و آنها دلیل می‌آوردند،
10:30
together we will sum up their overall score.
199
630000
2480
ما امتیاز کلی آنها را جمع می‌زدیم.
10:34
And in the end, they will state their voting intention again.
200
634800
3680
و در انتها، آنها دوباره رأی خود را بیان می‌کردند.
10:41
So what we find first of all here,
201
641960
1656
خوب اولین چیزی که اینجا کشف کردیم
10:43
is that very few of these manipulations are detected.
202
643640
4216
این بود که تعداد خیلی کمی از این دستکاری‌ها تشخیص داده می‌شوند.
10:47
And they're not detected in the sense that they realize,
203
647880
2656
و این طوری هم نیست که شرکت کننده بگوید،
10:50
"OK, you must have changed my answer,"
204
650560
1856
"خوب، شما جواب مرا تغییر داده‌اید،"
10:52
it was more the case that,
205
652440
1256
بیشتر این طور بود که،
10:53
"OK, I must've misunderstood the question the first time I read it.
206
653720
3176
"خوب، حتماً بار اول درست متوجه سوال نشدم،
10:56
Can I please change it?"
207
656920
1240
ممکن است جوابم را عوض کنم؟"
10:59
And even if a few of these manipulations were changed,
208
659080
5136
و با اینکه تعداد کمی از این دستکاری‌ها تغییر داده شدند،
11:04
the overall majority was missed.
209
664240
2136
اکثریت آنها تشخیص داده نشدند.
11:06
So we managed to switch 90 percent of the participants' answers
210
666400
3656
خوب ما ۹۰ درصد جواب‌های شرکت‌کننده‌ها را
11:10
from left to right, right to left, their overall profile.
211
670080
3160
در تمام برگه آنها از چپ به راست، از راست به چپ تغییر دادیم‌.
11:14
And what happens then when they are asked to motivate their choices?
212
674800
4400
و چه اتفاقی افتاد وقتی از آنها دلیل انتخابشان پرسیده شد؟
11:20
And here we find much more interesting verbal reports
213
680160
3056
و در اینجا گزارش‌های شفاهی خیلی جالب‌تری
11:23
than compared to the faces.
214
683240
2016
نسبت به آزمون چهره‌ها داشتیم.
11:25
People say things like this, and I'll read it to you.
215
685280
3360
مردم چیزهایی شبیه این می‌گفتند، و من برای شما می‌خوانم.
11:29
So, "Large-scale governmental surveillance of email and internet traffic
216
689720
3736
پس، "نظارت گسترده دولتی بر ایمیل و ترافیک اینترنت
11:33
ought to be permissible as means to combat international crime and terrorism."
217
693480
4336
باید به منظور مبارزه با جرایم بین‌المللی و تروریسم مجاز باشد."
11:37
"So you agree to some extent with this statement." "Yes."
218
697840
2716
"خوب شما تا حدودی با این مسئله موافق هستید." "بله."
11:40
"So how did you reason here?"
219
700580
1500
"خوب استدلال شما چیست؟"
11:43
"Well, like, as it is so hard to get at international crime and terrorism,
220
703600
4936
"خوب، چونکه برخورد با جرایم بین‌المللی و تروریسم خیلی دشوار است،
11:48
I think there should be those kinds of tools."
221
708560
2776
من فکر می‌کنم آن گونه ابزارها باید وجود داشته باشند."
11:51
And then the person remembers an argument from the newspaper in the morning.
222
711360
3616
و بعد بحثی را از روزنامه آن روز صبح به یاد می‌آورد.
11:55
"Like in the newspaper today,
223
715000
1616
"مثل آنچه روزنامه امروز نوشته بود،
11:56
it said they can like, listen to mobile phones from prison,
224
716640
3376
نوشته بود که مثلاً، می‌توانند به تماس‌هایی که از داخل زندان گرفته می‌شود گوش کنند،
12:00
if a gang leader tries to continue his crimes from inside.
225
720040
3536
مبادا یک رئیس باند خلافکاری بخواهد از داخل زندان به خلاف خود ادامه بدهد.
12:03
And I think it's madness that we have so little power
226
723600
2816
و من فکر می‌کنم این دیوانگی است که این قدر قدرت کمی داریم
12:06
that we can't stop those things
227
726440
1656
که نمی‌توانیم جلو آن چیزها را بگیریم
12:08
when we actually have the possibility to do so."
228
728120
2936
وقتی در واقع امکان انجام آن را داریم."
12:11
And then there's a little bit back and forth in the end:
229
731080
2696
و بعد در انتها کمی مواضعشان را تغییر می‌دادند:
12:13
"I don't like that they have access to everything I do,
230
733800
2576
"دوست ندارم به هرکاری که می‌کنم دسترسی داشته باشند،
12:16
but I still think it's worth it in the long run."
231
736400
2576
اما فکر می‌کنم در دراز مدت ارزشش را داشته باشد."
12:19
So, if you didn't know that this person
232
739000
2536
خوب، اگر نمی‌دانستید که این شخص
12:21
just took part in a choice blindness experiment,
233
741560
2256
در یک آزمایش کوری انتخاب شرکت دارد،
12:23
I don't think you would question
234
743840
1856
فکر نمی‌کنم شک می‌کردید
12:25
that this is the true attitude of that person.
235
745720
3120
که این گرایش حقیقی این فرد است.
12:29
And what happens in the end, with the voting intention?
236
749800
2856
و در انتها چه اتفاقی برای رای آنها افتاد؟
12:32
What we find -- that one is also clearly affected by the questionnaire.
237
752680
4696
چیزی که فهمیدیم -- آن یکی هم به وضوح تحت تاثیر پرسشنامه بود.
12:37
So we have 10 participants
238
757400
1736
خوب ما ۱۰ شرکت کننده داشتیم
12:39
shifting from left to right or from right to left.
239
759160
2976
که از چپ به راست یا از راست به چپ تغییر موضع دادند.
12:42
We have another 19 that go from clear voting intention
240
762160
2536
۱۹ شرکت کننده دیگر داشتیم که از رای کاملاً قطعی
12:44
to being uncertain.
241
764720
1456
به تردید در انتخاب رسیدند.
12:46
Some go from being uncertain to clear voting intention.
242
766200
3096
بعضی از تردید در انتخاب به رای قطعی رسیدند.
12:49
And then there is a number of participants staying uncertain throughout.
243
769320
4736
و بعد تعدادی شرکت کننده بود که کلاً مردد بودند.
12:54
And that number is interesting
244
774080
1576
و آن تعداد جالب است
12:55
because if you look at what the polling institutes say
245
775680
4616
چون اگر به حرف موسسه‌های انتخاباتی نگاه کنیم
13:00
the closer you get to an election,
246
780320
1656
هرچه به انتخابات نزدیک‌تر می‌شویم،
13:02
the only people that are sort of in play
247
782000
2136
تنها کسانی که به نوعی هنوز در بازی هستند
13:04
are the ones that are considered uncertain.
248
784160
2656
همان افراد مردد هستند.
13:06
But we show there is a much larger number
249
786840
3216
اما ما نشان دادیم تعداد خیلی بیشتری هستند
13:10
that would actually consider shifting their attitudes.
250
790080
2800
که ممکن است در واقع جبهه خود را تغییر دهند.
13:13
And here I must point out, of course, that you are not allowed to use this
251
793640
3496
و در اینجا باید اشاره کنم، که البته اجازه ندارید که از این روش
13:17
as an actual method to change people's votes
252
797160
2616
برای تغییر رای مردم
13:19
before an election,
253
799800
1496
قبل از انتخابات استفاده کنید،
13:21
and we clearly debriefed them afterwards
254
801320
3616
و ما در پایان تمام اطلاعات را در اختیار آنها گذاشتیم
13:24
and gave them every opportunity to change back
255
804960
2296
و گذاشتیم هر طور که می‌خواهند نظرشان را
13:27
to whatever they thought first.
256
807280
2480
به هرآنچه در ابتدا فکر می‌کردند برگردانند.
13:30
But what this shows is that if you can get people
257
810600
2336
اما چیزی که این تحقیق نشان می‌دهد این است که اگر می‌توانید مردم را وادار کنید
13:32
to see the opposite view and engage in a conversation with themselves,
258
812960
5536
که نظر مخالف را ببینند و با خودشان بحث کنند،
13:38
that could actually make them change their views.
259
818520
2920
این ممکن است در واقع باعث شود آنها نظرشان را تغییر دهند.
13:42
OK.
260
822400
1200
خوب.
13:44
So what does it all mean?
261
824760
1656
پس همه این‌ها یعنی چه؟
13:46
What do I think is going on here?
262
826440
2416
من فکر می‌کنم که اینجا چه خبر است؟
13:48
So first of all,
263
828880
1216
خوب اول از همه،
13:50
a lot of what we call self-knowledge is actually self-interpretation.
264
830120
4856
بخش زیادی از آنچه خودآگاهی می‌نامیم در واقع خودتفسیری است.
13:55
So I see myself make a choice,
265
835000
2496
خوب من خودم را می‌بینم که یک تصمیم گرفته‌ام،
13:57
and then when I'm asked why,
266
837520
2776
و بعد از من می‌پرسند چرا؟
14:00
I just try to make as much sense of it as possible
267
840320
2536
من فقط سعی می‌کنم وقتی توضیح می‌دهم
14:02
when I make an explanation.
268
842880
1936
تا آنجا که می‌توانم آن را درست جلوه بدهم.
14:04
But we do this so quickly and with such ease
269
844840
3016
اما این کار را چنان سریع و آن قدر ساده انجام می‌دهیم
14:07
that we think we actually know the answer when we answer why.
270
847880
4280
که فکر می‌کنیم وقتی آن چرا را پاسخ می‌دهیم در واقع جواب را می‌دانیم.
14:13
And as it is an interpretation,
271
853040
3096
و از آنجا که این یک تفسیر است،
14:16
of course we sometimes make mistakes.
272
856160
2296
البته که گاهی اشتباه می‌کنیم.
14:18
The same way we make mistakes when we try to understand other people.
273
858480
3520
همان‌طور که وقتی سعی می‌کنیم مردم را درک کنیم اشتباه می‌کنیم.
14:23
So beware when you ask people the question "why"
274
863160
3696
پس آگاه باشید که وقتی از مردم می‌پرسید "چرا"
14:26
because what may happen is that, if you asked them,
275
866880
4896
چون اتفاقی که می‌افتد این است که، اگر از آنها بپرسید،
14:31
"So why do you support this issue?"
276
871800
4016
"چرا از این مسئله حمایت می‌کنی؟"
14:35
"Why do you stay in this job or this relationship?" --
277
875840
3216
"چرا در این کار یا این رابطه باقی مانده‌ای؟" --
14:39
what may happen when you ask why is that you actually create an attitude
278
879080
3416
اتفاقی که با پرسیدن چرا می‌افتد این است که در واقع شما نگرشی می‌سازید
14:42
that wasn't there before you asked the question.
279
882520
2240
که قبل از سوال شما آنجا وجود نداشت.
14:45
And this is of course important in your professional life, as well,
280
885440
3176
و همین طور این در زندگی حرفه‌ای شما مهم است،
14:48
or it could be.
281
888640
1216
یا می‌تواند باشد.
14:49
If, say, you design something and then you ask people,
282
889880
2536
اگر، مثلاً، چیزی طراحی کنید و وقتی از مردم بپرسید،
14:52
"Why do you think this is good or bad?"
283
892440
2256
"چرا فکر می‌کنی این خوب یا بد است؟"
14:54
Or if you're a journalist asking a politician,
284
894720
3056
یا اگر خبرنگار باشید و از یک سیاست‌مدار بپرسید،
14:57
"So, why did you make this decision?"
285
897800
2376
"خوب، چرا این را انتخاب کردی؟"
15:00
Or if indeed you are a politician
286
900200
1936
یا البته اگر یک سیاست‌مدار هستید
15:02
and try to explain why a certain decision was made.
287
902160
2640
و سعی دارید علت یک انتخاب خاص را توضیح بدهید.
15:06
So this may all seem a bit disturbing.
288
906080
3576
خوب همه این‌ها می‌تواند کمی آزاردهنده به نظر برسد.
15:09
But if you want to look at it from a positive direction,
289
909680
3496
اما اگر بخواهید از جنبه مثبت به آن نگاه کنید،
15:13
it could be seen as showing,
290
913200
1736
می‌تواند شبیه نمایش باشد،
15:14
OK, so we're actually a little bit more flexible than we think.
291
914960
3376
خوب، پس ما در واقع کمی بیش از آنچه فکر می‌کنیم انعطاف پذیر هستیم.
15:18
We can change our minds.
292
918360
1896
می‌توانیم نظرمان را عوض کنیم.
15:20
Our attitudes are not set in stone.
293
920280
2456
نگرش ما بر سنگ حک نشده است.
15:22
And we can also change the minds of others,
294
922760
3176
و همچنین می‌توانیم نظر دیگران را هم عوض کنیم،
15:25
if we can only get them to engage with the issue
295
925960
2376
اگر فقط کاری کنیم که آنها با مسئله درگیر شوند
15:28
and see it from the opposite view.
296
928360
1680
و از دید مخالف به آن نگاه کنند.
15:31
And in my own personal life, since starting with this research --
297
931400
3936
و در زندگی شخصی خود من، از وقتی این تحقیق را شروع کرده‌ام --
15:35
So my partner and I, we've always had the rule
298
935360
2576
خوب من و شریک زندگی‌ام همیشه این قانون را داشته‌ایم
15:37
that you're allowed to take things back.
299
937960
2296
که می‌توانیم حرف‌مان را پس بگیریم.
15:40
Just because I said I liked something a year ago,
300
940280
2336
چون من یک سال پیش گفته‌ام فلان چیز را دوست دارم،
15:42
doesn't mean I have to like it still.
301
942640
2040
نباید که حتماً هنوز هم دوستش داشته باشم.
15:45
And getting rid of the need to stay consistent
302
945480
2816
بعد از اینکه از شر نیاز به ثابت ماندن راحت شدیم
15:48
is actually a huge relief and makes relational life so mush easier to live.
303
948320
4360
رها خواهیم شد و زندگی ارتباطی خیلی راحت‌تری خواهیم داشت.
15:53
Anyway, so the conclusion must be:
304
953720
2360
به هر حال، پس نتیجه باید این باشد که:
15:57
know that you don't know yourself.
305
957320
2496
بدانید که خودتان را نمی‌شناسید.
15:59
Or at least not as well as you think you do.
306
959840
2320
یا حداقل آن طور که فکر می‌کنید نمی‌شناسید.
16:03
Thanks.
307
963480
1216
متشکرم.
16:04
(Applause)
308
964720
4640
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7