Do you really know why you do what you do? | Petter Johansson

189,870 views ・ 2018-03-27

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Yomna Elhaddad المدقّق: Ehab Aboelkhair
00:12
So why do you think the rich should pay more in taxes?
0
12800
3560
إذن، لماذا تعتقد أن على الأغنياء دفع المزيد من الضرائب؟
00:16
Why did you buy the latest iPhone?
1
16400
2376
لماذا قمت بشراء آخر آيفون؟
00:18
Why did you pick your current partner?
2
18800
2456
لماذا اخترت شريكك الحالي؟
00:21
And why did so many people vote for Donald Trump?
3
21280
3416
ولماذا قام العديد من الناس بانتخاب دونالد ترامب؟
00:24
What were the reasons, why did they do it?
4
24720
2520
ما هي الأسباب؟ لماذا قاموا بهذا؟
00:27
So we ask this kind of question all the time,
5
27990
2106
نحن نسأل هذا النوع من الأسئلة أغلب الوقت،
ونتوقع أن نجد الإجابة.
00:30
and we expect to get an answer.
6
30120
1736
00:31
And when being asked, we expect ourselves to know the answer,
7
31880
3136
وعندما يسألوننا، نتوقع أننا نعرف الإجابة،
00:35
to simply tell why we did as we did.
8
35040
2480
أن نقول ببساطة لماذا فعلنا ما فعلنا.
00:38
But do we really know why?
9
38440
1720
ولكن، هل نعرف حقًا لماذا؟
00:41
So when you say that you prefer George Clooney to Tom Hanks,
10
41000
3456
إذن، عندما تقول أنك تفضل (جورج كلوني) على (توم هانكس)،
00:44
due to his concern for the environment,
11
44479
2057
بسبب اهتمامه بالبيئة،
00:46
is that really true?
12
46560
1200
أهذه هي الحقيقة حقًا؟
00:48
So you can be perfectly sincere and genuinely believe
13
48560
2496
يمكنك أن تكون مخلصًا تمامًا وتؤمن بصدق
00:51
that this is the reason that drives your choice,
14
51080
2936
أن هذا هو السبب الذي أدى إلى اختيارك،
00:54
but to me, it may still feel like something is missing.
15
54040
2600
لكن بالنسبة إليّ، ربما ما زلت أشعر أن هناك شيئًا ناقصًا.
00:57
As it stands, due to the nature of subjectivity,
16
57560
3176
كما هو الحال، نظرًا لطبيعة الذاتية،
01:00
it is actually very hard to ever prove that people are wrong about themselves.
17
60760
4320
من الصعب جدًا في الواقع إثبات أن الناس مخطئون حول أنفسهم.
01:06
So I'm an experimental psychologist,
18
66600
2136
أنا مختص في علم النفس التجريبي،
01:08
and this is the problem we've been trying to solve in our lab.
19
68760
3536
وهذه هي المشكلة التي حاولنا حلها في مختبرنا.
01:12
So we wanted to create an experiment
20
72320
2176
لذا أردنا خلق تجربة،
01:14
that would allow us to challenge what people say about themselves,
21
74520
3536
تتيح لنا أن نتحدّى ما يقوله الناس عن أنفسهم،
01:18
regardless of how certain they may seem.
22
78080
2680
بغض النظر عن مدى الثقة التي يبدون عليها.
01:21
But tricking people about their own mind is hard.
23
81960
2736
لكن خداع الناس في عقولهم أمرٌ صعب.
01:24
So we turned to the professionals.
24
84720
2376
لذلك توجهنا إلى المحترفين.
01:27
The magicians.
25
87120
1200
السحرة.
01:29
So they're experts at creating the illusion of a free choice.
26
89120
2896
إنهم الخبراء في خلق وهم الاختيار الحر.
01:32
So when they say, "Pick a card, any card,"
27
92040
2296
لذا عندما يقولون: "قم باختيار بطاقة، أي بطاقة"،
01:34
the only thing you know is that your choice is no longer free.
28
94360
2920
فالشيء الوحيد الذي تعرفه أن اختيارك لم يعد حرًا بعد الآن.
01:38
So we had a few fantastic brainstorming sessions
29
98200
2376
لذا أجرينا بعض الجلسات المذهلة لتبادل الأفكار
01:40
with a group of Swedish magicians,
30
100600
1856
مع مجموعة من السحرة السويدين،
01:42
and they helped us create a method
31
102480
1642
وقد ساعدونا على ابتكار طريقة
01:44
in which we would be able to manipulate the outcome of people's choices.
32
104147
3973
تمكننا من التلاعب بنتيجة اختيارات الناس.
01:48
This way we would know when people are wrong about themselves,
33
108760
2936
بهذه الطريقة سنعرف متى يصبح الناس مخطئين حول أنفسهم،
01:51
even if they don't know this themselves.
34
111720
2040
حتى وإن لم يكونوا هم أنفسهم على دراية بهذا.
01:54
So I will now show you a short movie showing this manipulation.
35
114480
4656
لذا سأريكم الآن فيلمًا قصيرًا يُظهر هذا التلاعب.
01:59
So it's quite simple.
36
119160
1416
الأمر بسيط للغاية.
02:00
The participants make a choice,
37
120600
2136
يختار المشاركون اختيارًا،
02:02
but I end up giving them the opposite.
38
122760
2256
ولكنني أعطيهم الاختيار الآخر في النهاية.
02:05
And then we want to see: How did they react, and what did they say?
39
125040
3520
ومن ثَم نريد أن نعرف: كيف تفاعلوا وماذا قالوا؟
02:09
So it's quite simple, but see if you can spot the magic going on.
40
129240
3160
فالأمر بسيط للغاية لكن انظر إن كان يمكنك اكتشاف السحر الذي يحدث.
02:13
And this was shot with real participants, they don't know what's going on.
41
133440
3520
وهذه لقطات مع مشاركين حقيقيين، لا يعرفون ما الذي يحدث.
(فيديو) بيتر جوهانسون: مرحبًا، اسمي بيتر.
02:19
(Video) Petter Johansson: Hi, my name's Petter.
42
139000
2216
امرأة: مرحبًا، أنا بيكا.
02:21
Woman: Hi, I'm Becka.
43
141240
1215
ب.ج: سأظهر لكِ صورًا كهذه.
02:22
PJ: I'm going to show you pictures like this.
44
142479
2137
02:24
And you'll have to decide which one you find more attractive.
45
144640
2896
وعليكِ أن تقرري أي واحدة هي الأكثر جاذبية.
02:27
Becka: OK.
46
147560
1216
بيكا: حسنًا.
ب.ج: وأحيانًا سأسألك لماذا فضلتِ ذلك الوجه.
02:28
PJ: And then sometimes, I will ask you why you prefer that face.
47
148800
3176
بيكا: حسنًا.
02:32
Becka: OK.
48
152000
1216
ب.ج: هل أنت جاهزة؟ بيكا: أجل.
02:33
PJ: Ready? Becka: Yeah.
49
153240
1200
02:43
PJ: Why did you prefer that one?
50
163120
1816
ب.ج: لماذا فضلتِ هذه الصورة؟
02:44
Becka: The smile, I think.
51
164960
1496
بيكا: أعتقد أنها الابتسامة.
02:46
PJ: Smile.
52
166480
1200
ب.ج: الابتسامة.
02:52
Man: One on the left.
53
172400
1240
رجل: تلك التي على اليسار.
02:57
Again, this one just struck me.
54
177520
1640
مرة أخرى، استوقفتني هذه.
02:59
Interesting shot.
55
179760
1616
صورة مثيرة للاهتمام.
03:01
Since I'm a photographer, I like the way it's lit and looks.
56
181400
3000
لأنني مصور، أحب طريقتها في الإضاءة وكيف تبدو.
03:06
Petter Johansson: But now comes the trick.
57
186280
2040
بيتر جوهانسون: والآن تأتي الخدعة.
03:10
(Video) Woman 1: This one.
58
190120
1280
(فيديو) المرأة 1: هذه.
03:16
PJ: So they get the opposite of their choice.
59
196240
2280
بيتر جوهانسون: إذن، سيحصلون على عكس اختيارهم.
03:20
And let's see what happens.
60
200520
1600
دعونا نشاهد ما يحدث.
03:28
Woman 2: Um ...
61
208240
1200
المرأة 2: امم ...
03:35
I think he seems a little more innocent than the other guy.
62
215760
2800
أظن أنه يبدو أكثر براءة من الشاب الآخر.
03:45
Man: The one on the left.
63
225360
1240
رجل: تلك الواحدة على اليسار.
03:49
I like her smile and contour of the nose and face.
64
229280
3696
أحب ابتسامتها وشكل أنفها ووجهها.
لذا، يبدو هذا أكثر تشويقًا قليلًا بالنسبة لي، بالإضافة إلى تسريحة شعرها.
03:53
So it's a little more interesting to me, and her haircut.
65
233000
2760
04:00
Woman 3: This one.
66
240040
1200
المرأة 3: هذه.
04:03
I like the smirky look better.
67
243520
1576
أحب النظرة المتكلفة، تبدو أفضل.
04:05
PJ: You like the smirky look better?
68
245120
2000
ب.ج: تحبين النظرة المتكلفة أكثر؟
04:09
(Laughter)
69
249680
3176
(ضحك)
04:12
Woman 3: This one.
70
252880
1200
المرأة 3: هذه.
04:15
PJ: What made you choose him?
71
255280
1400
ب.ج: ما الذي جعلك تختارينه؟
04:17
Woman 3: I don't know, he looks a little bit like the Hobbit.
72
257520
2896
المرأة 3: لا أعرف، إنه يبدو قليلًا كأنه من عرق الهوبيت.
04:20
(Laughter)
73
260440
2056
(ضحك)
04:22
PJ: And what happens in the end
74
262520
1496
ب.ج: وما الذي حدث في النهاية
عندما أخبرتهم بحقيقة التجربة؟
04:24
when I tell them the true nature of the experiment?
75
264040
3096
حسنًا، انتهينا، أحتاج فقط أن أسألك بعض الأسئلة.
04:27
Yeah, that's it. I just have to ask a few questions.
76
267160
2456
04:29
Man: Sure.
77
269640
1216
الرجل: بالطبع.
04:30
PJ: What did you think of this experiment, was it easy or hard?
78
270880
2976
ب.ج: ما هو رأيك في هذه التجربة، أكانت سهلة أم صعبة؟
04:33
Man: It was easy.
79
273880
1240
الرجل: كانت سهلة. نعم.
04:36
PJ: During the experiments,
80
276040
1336
ب.ج: أثناء التجارب،
04:37
I actually switched the pictures three times.
81
277400
3336
قمت بتبديل الصور ثلاث مرات في الواقع.
04:40
Was this anything you noticed?
82
280760
1576
هل لاحظت هذا الشيء؟
04:42
Man: No. I didn't notice any of that.
83
282360
1816
الرجل: لا لم ألاحظ شيئًا من هذا.
04:44
PJ: Not at all? Man: No.
84
284200
1496
ب.ج: إطلاقًا؟ الرجل: لا.
04:45
Switching the pictures as far as ...
85
285720
2096
تبديل الصور بالنسبة لـ...
04:47
PJ: Yeah, you were pointing at one of them but I actually gave you the opposite.
86
287840
3816
ب.ج: أجل، لقد كنت تشير إلى واحدة منهم، لكنني في الحقيقة أعطيتك الأخرى.
04:51
Man: The opposite one. OK, when you --
87
291680
1816
الرجل: الأخرى. حسنًا، عندما...
لا. هذا يظهر لك كم كنت منتبهًا.
04:53
No. Shows you how much my attention span was.
88
293520
2256
04:55
(Laughter)
89
295800
1520
(ضحك)
04:58
PJ: Did you notice that sometimes during the experiment
90
298880
3016
بي جى: هل لاحظتِ أنني أثناء التجربة أحيانًا
05:01
I switched the pictures?
91
301920
2136
قمت بتبديل الصور؟
05:04
Woman 2: No, I did not notice that.
92
304080
2016
المرأة 2: لم ألاحظ ذلك.
05:06
PJ: You were pointing at one, but then I gave you the other one.
93
306120
3000
بي جى: لقد أشرتِ إلى واحدة لكنني أعطيتكِ الأخرى.
05:09
No inclination of that happening?
94
309920
1616
ألم تشعري بهذا ولو قليلًا؟
05:11
Woman 2: No.
95
311560
1576
المرأة 2: لا.
05:13
Woman 2: I did not notice.
96
313160
1256
المرأة 2: لم ألاحظ.
05:14
(Laughs)
97
314440
1936
(ضحك)
05:16
PJ: Thank you.
98
316400
1216
ب.ج: شكرًا لكِ.
05:17
Woman 2: Thank you.
99
317640
1376
المرأة 2: شكرًا لك.
05:19
PJ: OK, so as you probably figured out now,
100
319040
2056
ب.ج: حسنًا، كما فهمتم الآن على الأرجح،
05:21
the trick is that I have two cards in each hand,
101
321120
2256
الخدعة هي أن لدي بطاقتين في كل يد،
05:23
and when I hand one of them over,
102
323400
1576
وعندما أعطي واحدة منهم،
تختفي السوداء الأخرى نوعًا ما على السطح الأسود للطاولة.
05:25
the black one kind of disappears into the black surface on the table.
103
325000
4360
05:30
So using pictures like this,
104
330640
1736
لهذا، مع استخدام صور كتلك،
05:32
normally not more than 20 percent of the participants detect these tries.
105
332400
4376
لا يكتشف الخدعة في العادة أكثر من 20% من المشاركين.
05:36
And as you saw in the movie,
106
336800
1416
وكما رأيتم في الفيلم،
05:38
when in the end we explain what's going on,
107
338240
3176
في النهاية، عندما قمنا بشرح ما الذي يحدث،
05:41
they're very surprised and often refuse to believe the trick has been made.
108
341440
4376
تفاجؤوا جدًا وكثيرًا ما كانوا يرفضون تصديق أن هناك خدعة.
05:45
So this shows that this effect is quite robust and a genuine effect.
109
345840
4776
وهذا يدل على أن هذا التأثير قوي جدًا وحقيقي.
05:50
But if you're interested in self-knowledge, as I am,
110
350640
2656
لكن إن كنت مهتمًا بمعرفة الذات، مثلي،
05:53
the more interesting bit is,
111
353320
1336
فالجزء المثير أكثر هو،
05:54
OK, so what did they say when they explained these choices?
112
354680
3936
حسنًا، ما الذي قالوه عندما قمنا بشرح هذه الاختيارات؟
05:58
So we've done a lot of analysis
113
358640
1496
لقد أجرينا العديد من التحليلات
06:00
of the verbal reports in these experiments.
114
360160
2080
للتقارير الشفهية في هذه التجارب.
06:03
And this graph simply shows
115
363360
2456
وهذا الرسم البياني يبين ببساطة
06:05
that if you compare what they say in a manipulated trial
116
365840
4776
أنه إذا قارنت ما يقولون في التجربة المتلاعب بها
06:10
with a nonmanipulated trial,
117
370640
1376
مع ما يقولون في التجربة غير المتلاعب بها،
06:12
that is when they explain a normal choice they've made
118
372040
2776
وهذا عندما يشرحون اختيارهم الحقيقي،
06:14
and one where we manipulated the outcome,
119
374840
2496
وعندما يشرحون اختيارهم الذي تلاعبنا به،
06:17
we find that they are remarkably similar.
120
377360
2456
وجدنا تشابهًا ملحوظًا بين ما يقولونه في الحالتين.
06:19
So they are just as emotional, just as specific,
121
379840
3056
فهم بنفس درجة العاطفية والدقة،
06:22
and they are expressed with the same level of certainty.
122
382920
3200
ويعبرون عن أنفسهم بنفس درجة اليقين.
06:27
So the strong conclusion to draw from this
123
387120
2336
لذا فإن الاستنتاج القوي الذي يمكن استخلاصه من هذا
06:29
is that if there are no differences
124
389480
2216
هو أنه إن لم تكن هناك أي اختلافات
06:31
between a real choice and a manipulated choice,
125
391720
3696
بين الاختيار الحقيقي والاختيار المتلاعب به،
06:35
perhaps we make things up all the time.
126
395440
2440
فربما أننا نختلق الأشياء طوال الوقت.
06:38
But we've also done studies
127
398680
1336
ولكننا أيضًا قمنا بدراسات
حيث حاولنا الربط بين ما قالوه وبين الوجوه الفعلية على البطاقات.
06:40
where we try to match what they say with the actual faces.
128
400040
3016
ومن ثَم وجدنا أشياءَ كهذه.
06:43
And then we find things like this.
129
403080
1880
06:45
So here, this male participant, he preferred the girl to the left,
130
405760
5056
فهنا، هذا الرجل المشارك فضَّل الفتاة التي على اليسار،
06:50
he ended up with the one to the right.
131
410840
1856
لكنني أعطيته التي على اليمين.
06:52
And then, he explained his choice like this.
132
412720
2816
ومن ثَم شرح اختياره كالتالي:
06:55
"She is radiant.
133
415560
1296
"إنها متألقة.
06:56
I would rather have approached her at the bar than the other one.
134
416880
3096
سأفضل الاقتراب منها في البار على الاقتراب من الأخرى.
07:00
And I like earrings."
135
420000
1616
وأحب أقراط الأذن."
07:01
And whatever made him choose the girl on the left to begin with,
136
421640
3496
فأيًا كان الذي دفعه لاختيار الفتاة التي على اليسار في البداية،
07:05
it can't have been the earrings,
137
425160
1576
إلا أنه لا يمكن أن يكون الأقراط،
07:06
because they were actually sitting on the girl on the right.
138
426760
2856
لأن الأقراط كانت في الواقع في أذني الفتاة التي على اليمين.
07:09
So this is a clear example of a post hoc construction.
139
429640
3776
لذلك هذا مثال واضح لتفسير تم بناؤه لاحقًا.
07:13
So they just explained the choice afterwards.
140
433440
2800
فقد شرحوا اختيارهم في وقت لاحق.
07:17
So what this experiment shows is,
141
437320
2296
إذن ما تظهره هذه التجربة هو،
07:19
OK, so if we fail to detect that our choices have been changed,
142
439640
3656
حسنًا، إذا فشلنا في اكتشاف أن خياراتنا قد تغيرت،
07:23
we will immediately start to explain them in another way.
143
443320
3200
سنبدأ على الفور بتوضيحها بطريقة أخرى.
07:27
And what we also found
144
447520
1256
وما اكتشفناه أيضًا
07:28
is that the participants often come to prefer the alternative,
145
448800
3216
هو أن المشاركين كثيرًا ما يفضلون
عكس الاختيار، الذي جعلتهم يعتقدون أنهم اختاروه.
07:32
that they were led to believe they liked.
146
452040
2256
07:34
So if we let them do the choice again,
147
454320
2016
وإذا سمحنا لهم بالاختيار مرة أخرى،
07:36
they will now choose the face they had previously rejected.
148
456360
3760
سيختارون الوجه الذي رفضوه في السابق.
07:41
So this is the effect we call "choice blindness."
149
461520
2296
وهذا هو التأثير الذي نسميه "عمى الاختيار."
07:43
And we've done a number of different studies --
150
463840
2216
وقد قمنا بعدد من الدراسات...
وجربنا اختيارات المستهلكين،
07:46
we've tried consumer choices,
151
466080
2536
07:48
choices based on taste and smell and even reasoning problems.
152
468640
4416
والاختيارات القائمة على التذوق والرائحة وحتى تعليل المشكلات.
07:53
But what you all want to know is of course
153
473080
2056
لكن ما يريد جميعكم معرفته بالطبع هو
هل يمتد هذا إلى اختيارات أكثر تعقيدًا وذات معنى أعمق؟
07:55
does this extend also to more complex, more meaningful choices?
154
475160
3936
07:59
Like those concerning moral and political issues.
155
479120
3080
مثل التي تخص القضايا الأخلاقية والسياسية.
08:04
So the next experiment, it needs a little bit of a background.
156
484400
4216
حسنًا التجربة التالية، تحتاج إلى خلفية.
08:08
So in Sweden, the political landscape
157
488640
4256
في السويد، المشهد السياسي
08:12
is dominated by a left-wing and a right-wing coalition.
158
492920
3360
يسيطر عليه ائتلاف بين الجناح اليساري والجناح اليميني.
08:17
And the voters may move a little bit between the parties within each coalition,
159
497720
4416
وربما يحتار المصوتون قليلًا بين الأحزاب داخل كل ائتلاف،
08:22
but there is very little movement between the coalitions.
160
502160
2760
لكن لا توجد صعوبة تُذكر في الاختيار بين الائتلافين.
08:25
And before each elections,
161
505680
1976
وقبل كل انتخابات،
08:27
the newspapers and the polling institutes
162
507680
4216
تقوم الصحف ومؤسسات استطلاع الرأي
08:31
put together what they call "an election compass"
163
511920
2616
بوضع ما يسمونه "بوصلة الانتخابات"
08:34
which consists of a number of dividing issues
164
514560
3336
والتي تضم عددًا من مسائل الاختلاف
08:37
that sort of separates the two coalitions.
165
517920
2336
التي تشكل الفرق نوعًا ما بين الائتلافين.
08:40
Things like if tax on gasoline should be increased
166
520280
3735
أشياء مثل ما إذا كان يجب زيادة الضريبة على البنزين
08:44
or if the 13 months of paid parental leave
167
524039
4096
أو بخصوص الإجازة الأبوية المدفوعة لمدة 13 شهرًا
08:48
should be split equally between the two parents
168
528159
2496
وما إذا كان يجب تقسيمها بالتساوي بين الوالدين
08:50
in order to increase gender equality.
169
530679
2721
لزيادة المساواة بين الجنسين.
08:54
So, before the last Swedish election,
170
534840
2216
إذن، قبل الانتخابات السويدية الأخيرة،
08:57
we created an election compass of our own.
171
537080
2600
وضعنا بوصلة الانتخابات خاصتنا.
09:00
So we walked up to people in the street
172
540480
2136
وهكذا مشينا إلى الناس في الشوارع
09:02
and asked if they wanted to do a quick political survey.
173
542640
3336
وسألناهم ما إذا أرادوا القيام باستبيان سياسي سريع.
09:06
So first we had them state their voting intention
174
546000
2456
إذن، قمنا أولًا بمعرفة نيتهم في التصويت
09:08
between the two coalitions.
175
548480
1360
بين الائتلافين.
09:10
Then we asked them to answer 12 of these questions.
176
550560
3776
ومن ثَم طلبنا منهم الإجابة على 12 من هذه الأسئلة.
09:14
They would fill in their answers,
177
554360
1976
سيقومون بملء إجاباتهم،
09:16
and we would ask them to discuss,
178
556360
1616
ثم سنطلب منهم مناقشتها،
09:18
so OK, why do you think tax on gas should be increased?
179
558000
5496
إذن حسنًا، لماذا تعتقد أنه يجب زيادة الضرائب على البنزين؟
09:23
And we'd go through the questions.
180
563520
2096
ثم سنمضي مع الأسئلة.
09:25
Then we had a color coded template
181
565640
3896
بعد ذلك نستعمل قالبًا ملونًا
09:29
that would allow us to tally their overall score.
182
569560
2936
ما يسمح لنا بحساب نتيجتهم الكلية.
09:32
So this person would have one, two, three, four
183
572520
3456
إذن، هذا الشخص لديه نقطة، اثنتان، ثلاث، أربع،
09:36
five, six, seven, eight, nine scores to the left,
184
576000
3296
خمس، ست، سبع، ثمان، تسع نقاط إلى اليسار،
09:39
so he would lean to the left, basically.
185
579320
2680
لذا سيميل ببساطة إلى الائتلاف اليساري.
09:42
And in the end, we also had them fill in their voting intention once more.
186
582800
4440
وفي النهاية، طلبنا منهم أن يعبروا عن نيتهم في الاقتراع مرة أخرى.
09:48
But of course, there was also a trick involved.
187
588160
2280
لكن بالطبع، كانت هناك خدعة أيضًا.
09:51
So first, we walked up to people,
188
591360
2176
إذن أولًا نذهب إلى الناس،
09:53
we asked them about their voting intention
189
593560
2056
ونسألهم عن نيتهم في الاقتراع
09:55
and then when they started filling in,
190
595640
2256
وعندما يبدأون بملء الإجابات،
09:57
we would fill in a set of answers going in the opposite direction.
191
597920
5456
نملأ نحن مجموعة إجابات أخرى في الاتجاه المعاكس.
10:03
We would put it under the notepad.
192
603400
2576
ونضعها تحت دفتر الملاحظات.
10:06
And when we get the questionnaire,
193
606000
2776
وعندما نحصل على استبيان المشارك،
10:08
we would simply glue it on top of the participant's own answer.
194
608800
3320
نلصق إجاباتنا بالصمغ ببساطة فوق الإجابات الخاصة بالمشارك.
10:16
So there, it's gone.
195
616000
1240
وهكذا، تختفي إجاباته.
10:24
And then we would ask about each of the questions:
196
624280
2376
ثم نسأل عن كل سؤال من الأسئلة:
10:26
How did you reason here?
197
626680
1536
كيف كنت تفكر هنا؟
10:28
And they'll state the reasons,
198
628240
1736
فيقومون بشرح الأسباب،
10:30
together we will sum up their overall score.
199
630000
2480
ثم سنقوم معًا بجمع نتيجتهم الإجمالية.
10:34
And in the end, they will state their voting intention again.
200
634800
3680
وفي النهاية، سنسألهم مرة أخرى عن نيتهم في الانتخاب.
10:41
So what we find first of all here,
201
641960
1656
وما وجدناه أولًا هنا،
10:43
is that very few of these manipulations are detected.
202
643640
4216
أن قليلًا جدًا منهم اكتشفوا الخدعة.
10:47
And they're not detected in the sense that they realize,
203
647880
2656
ولم يكتشفوها بمعنى أنهم يقولون:
"حسنًا، من المؤكد أنهم غيروا إجاباتي،"
10:50
"OK, you must have changed my answer,"
204
650560
1856
بل كان الأمر أشبه بأن يقولوا:
10:52
it was more the case that,
205
652440
1256
10:53
"OK, I must've misunderstood the question the first time I read it.
206
653720
3176
"حسنًا، من المؤكد أنني أسأت فهم السؤال عندما قرأته أول مرة.
10:56
Can I please change it?"
207
656920
1240
فهل يمكنني تغيير إجابتي، رجاءً؟"
10:59
And even if a few of these manipulations were changed,
208
659080
5136
وحتى لو غير عدد قليل إجابتهم،
11:04
the overall majority was missed.
209
664240
2136
فالغالبية العظمى لم تكتشف الخدعة.
11:06
So we managed to switch 90 percent of the participants' answers
210
666400
3656
لذا تمكننا من تبديل 90% من إجابات المشاركين
11:10
from left to right, right to left, their overall profile.
211
670080
3160
من اليسار إلى اليمين ومن اليمين إلى اليسار أي صورتهم العامة.
11:14
And what happens then when they are asked to motivate their choices?
212
674800
4400
وما الذي حدث عندما طلبنا منهم تبرير اختياراتهم؟
11:20
And here we find much more interesting verbal reports
213
680160
3056
هنا نجد تقارير شفوية أكثر تشويقًا
11:23
than compared to the faces.
214
683240
2016
مقارنة بتجربة الوجوه.
11:25
People say things like this, and I'll read it to you.
215
685280
3360
يقول الناس أشياء كهذه، سأقرأها لكم.
11:29
So, "Large-scale governmental surveillance of email and internet traffic
216
689720
3736
حسنًا، "مراقبة الحكومة على نطاق واسع للبريد الإلكتروني وحركة الإنترنت
11:33
ought to be permissible as means to combat international crime and terrorism."
217
693480
4336
ينبغي أن تكون مسموحة كوسيلة لمحاربة الجريمة والإرهاب الدوليين."
11:37
"So you agree to some extent with this statement." "Yes."
218
697840
2716
"إذن أنت تتفق إلى حد ما مع هذه الجملة." "أجل."
11:40
"So how did you reason here?"
219
700580
1500
"إذن، كيف كنت تفكر هنا؟"
11:43
"Well, like, as it is so hard to get at international crime and terrorism,
220
703600
4936
"حسنًا، من الصعب محاربة الجريمة والإرهاب الدوليين،
11:48
I think there should be those kinds of tools."
221
708560
2776
لهذا أعتقد أن على مثل تلك الوسائل أن تكون موجودة."
11:51
And then the person remembers an argument from the newspaper in the morning.
222
711360
3616
ثم يتذكر الشخص مقولة قرأها في الصحيفة صباحًا.
"مثل ما جاء في صحيفة اليوم،
11:55
"Like in the newspaper today,
223
715000
1616
11:56
it said they can like, listen to mobile phones from prison,
224
716640
3376
قد قالوا إنهم يستطيعون التنصت على الهواتف المحمولة من السجن،
12:00
if a gang leader tries to continue his crimes from inside.
225
720040
3536
إذا حاول زعيم العصابة مواصلة جرائمه من الداخل.
12:03
And I think it's madness that we have so little power
226
723600
2816
وأعتقد أنه لمن الجنون أنه ليست لدينا السلطة الكافية
12:06
that we can't stop those things
227
726440
1656
التي تمكننا من منع تلك الأشياء
12:08
when we actually have the possibility to do so."
228
728120
2936
في حين أنه بإمكاننا بالفعل منعها."
ثم يصيبه بعض عدم الاستقرار في الرأي في النهاية:
12:11
And then there's a little bit back and forth in the end:
229
731080
2696
12:13
"I don't like that they have access to everything I do,
230
733800
2576
"لا يعجبني أن الحكومة بإمكانها الوصول إلى كل شيء أفعله،
لكنني ما زلت أعتقد أن الأمر يستحق التضحية على المدى الطويل."
12:16
but I still think it's worth it in the long run."
231
736400
2576
لذا، إن كنت لا تعرف أن هذا الشخص
12:19
So, if you didn't know that this person
232
739000
2536
12:21
just took part in a choice blindness experiment,
233
741560
2256
ليس إلا مشاركًا في تجربة عمى الاختيار،
12:23
I don't think you would question
234
743840
1856
لا أعتقد أنك ستشك
12:25
that this is the true attitude of that person.
235
745720
3120
أن هذا هو موقفه الحقيقي.
12:29
And what happens in the end, with the voting intention?
236
749800
2856
وما الذي حدث في النهاية لنية التصويت؟
12:32
What we find -- that one is also clearly affected by the questionnaire.
237
752680
4696
نجد أنها... تأثرت أيضًا بوضوح بالاستبيان.
12:37
So we have 10 participants
238
757400
1736
لدينا 10 مشاركين
12:39
shifting from left to right or from right to left.
239
759160
2976
تحولوا من اليمين إلى اليسار أو من اليسار إلى اليمين.
12:42
We have another 19 that go from clear voting intention
240
762160
2536
ولدينا 19 آخرين انتقلوا من نية واضحة للتصويت
12:44
to being uncertain.
241
764720
1456
إلى عدم اليقين.
12:46
Some go from being uncertain to clear voting intention.
242
766200
3096
والبعض تحول من الشك إلى نية واضحة للتصويت.
12:49
And then there is a number of participants staying uncertain throughout.
243
769320
4736
وظّل عدد من المشاركين غير متأكدين طوال الوقت.
12:54
And that number is interesting
244
774080
1576
وهذا العدد مثير للاهتمام
12:55
because if you look at what the polling institutes say
245
775680
4616
لأنه إذا نظرتم في ما تقوله مؤسسات استطلاع الرأي
13:00
the closer you get to an election,
246
780320
1656
أنه كلما اقتربت من الانتخابات،
فإن الأشخاص الوحيدين الذين هم نوعًا ما في الساحة
13:02
the only people that are sort of in play
247
782000
2136
13:04
are the ones that are considered uncertain.
248
784160
2656
هم الأشخاص الذين يُعتبرون غير واثقين.
13:06
But we show there is a much larger number
249
786840
3216
لكننا نظهر أن هناك عددًا أكبر بكثير
13:10
that would actually consider shifting their attitudes.
250
790080
2800
من الذين قد يفكرون في تغيير مواقفهم.
13:13
And here I must point out, of course, that you are not allowed to use this
251
793640
3496
وهنا يجب أن أشير، أنه وبالطبع، غير مسموح باستخدام هذا
13:17
as an actual method to change people's votes
252
797160
2616
كطريقة فعلية لتغيير أصوات الناس
13:19
before an election,
253
799800
1496
قبل الانتخابات.
13:21
and we clearly debriefed them afterwards
254
801320
3616
وأننا أعلمناهم بكل شيء بوضوح بعد ذلك
13:24
and gave them every opportunity to change back
255
804960
2296
وأعطيناهم كل فرصة للتغيير مرة أخرى
13:27
to whatever they thought first.
256
807280
2480
إلى الذي كانوا يعتقدونه في بداية الأمر.
13:30
But what this shows is that if you can get people
257
810600
2336
لكن هذا يظهر أنه إذا كان بإمكانك حث الأشخاص
13:32
to see the opposite view and engage in a conversation with themselves,
258
812960
5536
على رؤية الاتجاه المعاكس والانخراط في حديث مع أنفسهم،
13:38
that could actually make them change their views.
259
818520
2920
فقد يؤدي ذلك في الواقع إلى تغيير مواقفهم.
13:42
OK.
260
822400
1200
حسنًا.
13:44
So what does it all mean?
261
824760
1656
إذن، ماذا يعني كل هذا؟
13:46
What do I think is going on here?
262
826440
2416
ما الذي أعتقد أنه يحدث هنا؟
13:48
So first of all,
263
828880
1216
حسنًا، أولًا وقبل كل شيء،
13:50
a lot of what we call self-knowledge is actually self-interpretation.
264
830120
4856
الكثير مما نسميه معرفة الذات هو في الواقع تفسير للذات.
13:55
So I see myself make a choice,
265
835000
2496
أرى نفسي أتخذ قرارًا،
13:57
and then when I'm asked why,
266
837520
2776
وعندما يسألونني لماذا،
14:00
I just try to make as much sense of it as possible
267
840320
2536
أحاول أن أكون عقلانيًا قدر المستطاع، ليس إلا،
14:02
when I make an explanation.
268
842880
1936
عندما أقدم تفسيرًا.
14:04
But we do this so quickly and with such ease
269
844840
3016
لكننا نفعل ذلك بكل سرعة وسهولة
14:07
that we think we actually know the answer when we answer why.
270
847880
4280
لدرجة أننا نعتقد في الواقع أننا نعرف الإجابة عندما نجيب عن السبب.
14:13
And as it is an interpretation,
271
853040
3096
وبما أنه تفسير،
14:16
of course we sometimes make mistakes.
272
856160
2296
إذن بالطبع قد نخطئ في بعض الأحيان.
14:18
The same way we make mistakes when we try to understand other people.
273
858480
3520
بنفس الطريقة التي نخطئ بها عندما نحاول فهم الأشخاص الآخرين.
14:23
So beware when you ask people the question "why"
274
863160
3696
لذا كن حذرًا وأنت تسأل الناس "لماذا"
14:26
because what may happen is that, if you asked them,
275
866880
4896
لأنه ما قد يحدث، هو أنك لو سألتهم،
14:31
"So why do you support this issue?"
276
871800
4016
"لماذا تدعم هذه القضية؟"
14:35
"Why do you stay in this job or this relationship?" --
277
875840
3216
"لماذا تبقى في هذه الوظيفة أو في هذه العلاقة؟ ...
14:39
what may happen when you ask why is that you actually create an attitude
278
879080
3416
ما قد يحدث عندما تسأل "لماذا" هو أنك في الواقع تخلق موقفًا واتجاهًا
14:42
that wasn't there before you asked the question.
279
882520
2240
لم يكن موجودًا قبل سؤالك.
14:45
And this is of course important in your professional life, as well,
280
885440
3176
وهذا بالطبع مهم لحياتك المهنية كذلك،
14:48
or it could be.
281
888640
1216
أو يمكن أن يكون كذلك.
14:49
If, say, you design something and then you ask people,
282
889880
2536
إذا افترضنا أنك صممت شيئًا ثم سألت الناس،
14:52
"Why do you think this is good or bad?"
283
892440
2256
"لماذا تعتقد أنه جيد أو سيئ؟"
14:54
Or if you're a journalist asking a politician,
284
894720
3056
أو أنك صحفي يسأل سياسيًا،
14:57
"So, why did you make this decision?"
285
897800
2376
"إذن، لما اتخذت هذا القرار؟"
15:00
Or if indeed you are a politician
286
900200
1936
أو إن كنت سياسيًا بالفعل
15:02
and try to explain why a certain decision was made.
287
902160
2640
وتحاول شرح لماذا اتخذت قرارًا معينًا.
15:06
So this may all seem a bit disturbing.
288
906080
3576
قد يبدو كل هذا مقلقًا بعض الشيء.
15:09
But if you want to look at it from a positive direction,
289
909680
3496
لكن إذا أردت أن تنظر للأمر من ناحية إيجابية،
15:13
it could be seen as showing,
290
913200
1736
ربما ترى الأمر على أنه يُظهر،
15:14
OK, so we're actually a little bit more flexible than we think.
291
914960
3376
أننا في الواقع أكثر مرونة مما نعتقد.
15:18
We can change our minds.
292
918360
1896
يمكننا تغيير آرائنا.
15:20
Our attitudes are not set in stone.
293
920280
2456
مواقفنا واتجاهاتنا ليست منقوشة على الحجر.
15:22
And we can also change the minds of others,
294
922760
3176
ويمكننا أيضًا تغيير آراء الآخرين،
15:25
if we can only get them to engage with the issue
295
925960
2376
لو استطعنا جعلهم ينخرطون في المسألة
15:28
and see it from the opposite view.
296
928360
1680
ويرونها من الاتجاه المعاكس.
15:31
And in my own personal life, since starting with this research --
297
931400
3936
وفي حياتي الشخصية، منذ أن بدأت بهذا البحث...
15:35
So my partner and I, we've always had the rule
298
935360
2576
كان لديّ أنا وشريكتي دائمًا قاعدة
15:37
that you're allowed to take things back.
299
937960
2296
أنه يُسمح لنا سحب كلامنا والرجوع فيه.
15:40
Just because I said I liked something a year ago,
300
940280
2336
فلمجرد أنني قلت أن شيئًا أعجبني السنة الماضية،
15:42
doesn't mean I have to like it still.
301
942640
2040
لا يعني هذا أنه يجب أن يعجبني حتى الآن.
15:45
And getting rid of the need to stay consistent
302
945480
2816
والتخلص من الحاجة إلى الثبات
15:48
is actually a huge relief and makes relational life so mush easier to live.
303
948320
4360
هو في الواقع راحة كبيرة ويجعل العلاقات أسهل بكثير.
15:53
Anyway, so the conclusion must be:
304
953720
2360
علي أي حال، يجب أن تكون الخاتمة:
15:57
know that you don't know yourself.
305
957320
2496
فلتعرف أنك لا تعرف نفسك.
15:59
Or at least not as well as you think you do.
306
959840
2320
أو على الأقل، أنت لا تعرف نفسك جيدًا كما تعتقد.
16:03
Thanks.
307
963480
1216
شكرًا لكم.
16:04
(Applause)
308
964720
4640
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7