Do you really know why you do what you do? | Petter Johansson

193,440 views ・ 2018-03-27

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Nata Titova Редактор: Lilya Obmorsheva
00:12
So why do you think the rich should pay more in taxes?
0
12800
3560
Почему вы думаете, что богатые должны платить больше налогов?
00:16
Why did you buy the latest iPhone?
1
16400
2376
Почему вы купили свеженький iPhone?
00:18
Why did you pick your current partner?
2
18800
2456
Почему вы выбрали своего нынешнего партнёра?
00:21
And why did so many people vote for Donald Trump?
3
21280
3416
И почему так много людей проголосовало за Дональда Трампа?
00:24
What were the reasons, why did they do it?
4
24720
2520
Почему они так поступили?
00:27
So we ask this kind of question all the time,
5
27990
2106
Мы всё время задаём подобного рода вопросы
00:30
and we expect to get an answer.
6
30120
1736
и рассчитываем на ответ.
00:31
And when being asked, we expect ourselves to know the answer,
7
31880
3136
Когда спрашивают нас, то мы думаем, что знаем ответ
00:35
to simply tell why we did as we did.
8
35040
2480
и просто сможем сказать, почему сделали так и не иначе.
00:38
But do we really know why?
9
38440
1720
Но на самом ли деле мы знаем — почему?
00:41
So when you say that you prefer George Clooney to Tom Hanks,
10
41000
3456
Если скажете, что Джордж Клуни нравится вам больше, чем Том Хэнкс,
00:44
due to his concern for the environment,
11
44479
2057
так как он заботится об окружающей среде, —
00:46
is that really true?
12
46560
1200
а в этом ли причина?
00:48
So you can be perfectly sincere and genuinely believe
13
48560
2496
Вы можете быть абсолютно искренними и честно думать,
00:51
that this is the reason that drives your choice,
14
51080
2936
что именно в этом и есть причина, определившая ваш выбор,
00:54
but to me, it may still feel like something is missing.
15
54040
2600
но мне кажется, здесь что-то упущено.
00:57
As it stands, due to the nature of subjectivity,
16
57560
3176
В силу субъективности
01:00
it is actually very hard to ever prove that people are wrong about themselves.
17
60760
4320
сложно доказать, что люди ошибаются насчёт себя.
01:06
So I'm an experimental psychologist,
18
66600
2136
Я экспериментальный психолог,
01:08
and this is the problem we've been trying to solve in our lab.
19
68760
3536
и это задача, которую мы пытаемся решить в нашей лаборатории.
01:12
So we wanted to create an experiment
20
72320
2176
Мы хотели провести эксперимент,
01:14
that would allow us to challenge what people say about themselves,
21
74520
3536
который позволил бы поставить под сомнение то, что люди говорят о себе,
01:18
regardless of how certain they may seem.
22
78080
2680
и неважно, насколько уверенными они кажутся.
01:21
But tricking people about their own mind is hard.
23
81960
2736
Но проделывать трюки с сознанием людей — сложная задача.
01:24
So we turned to the professionals.
24
84720
2376
Поэтому мы обратились к профессионалам.
01:27
The magicians.
25
87120
1200
К иллюзионистам.
01:29
So they're experts at creating the illusion of a free choice.
26
89120
2896
Они же эксперты в создании видимости свободы выбора.
01:32
So when they say, "Pick a card, any card,"
27
92040
2296
Когда они говорят: «Выберите карту — любую»,
01:34
the only thing you know is that your choice is no longer free.
28
94360
2920
единственное, что вы понимаете, — свободы выбора больше нет.
01:38
So we had a few fantastic brainstorming sessions
29
98200
2376
Мы провели несколько невероятных мозговых штурмов
01:40
with a group of Swedish magicians,
30
100600
1856
с группой шведских иллюзионистов,
01:42
and they helped us create a method
31
102480
1642
и они помогли разработать способ,
01:44
in which we would be able to manipulate the outcome of people's choices.
32
104147
3973
который позволяет влиять на результаты выбора людей.
01:48
This way we would know when people are wrong about themselves,
33
108760
2936
Так мы будем знать, когда люди ошибаются насчёт себя,
01:51
even if they don't know this themselves.
34
111720
2040
даже если они сами этого не осознают.
01:54
So I will now show you a short movie showing this manipulation.
35
114480
4656
Сейчас покажу вам короткое видео с демонстрацией такой манипуляции.
01:59
So it's quite simple.
36
119160
1416
Она достаточно простая.
02:00
The participants make a choice,
37
120600
2136
Участники делают свой выбор,
02:02
but I end up giving them the opposite.
38
122760
2256
но я подкладываю им противоположное.
02:05
And then we want to see: How did they react, and what did they say?
39
125040
3520
После этого посмотрим, как они реагировали и что говорили.
02:09
So it's quite simple, but see if you can spot the magic going on.
40
129240
3160
Всё вполне просто, но интересно, сможете заметить, в чём трюк?
02:13
And this was shot with real participants, they don't know what's going on.
41
133440
3520
На видео реальные участники, и они не знают, что происходит.
02:19
(Video) Petter Johansson: Hi, my name's Petter.
42
139000
2216
(Видео) Петтер Йоханссон: Привет, я Петтер.
02:21
Woman: Hi, I'm Becka.
43
141240
1215
Женщина: Привет, я Бека.
02:22
PJ: I'm going to show you pictures like this.
44
142479
2137
ПЙ: Я покажу вам вот такие фотографии.
02:24
And you'll have to decide which one you find more attractive.
45
144640
2896
И вам нужно решить, какая из них наиболее привлекательная.
02:27
Becka: OK.
46
147560
1216
Бека: Хорошо.
02:28
PJ: And then sometimes, I will ask you why you prefer that face.
47
148800
3176
ПЙ: Иногда буду спрашивать, почему вы предпочли именно то лицо.
02:32
Becka: OK.
48
152000
1216
Бека: Хорошо.
02:33
PJ: Ready? Becka: Yeah.
49
153240
1200
ПЙ: Готовы? Бека: Да.
02:43
PJ: Why did you prefer that one?
50
163120
1816
ПЙ: Почему его выбрали?
02:44
Becka: The smile, I think.
51
164960
1496
Бека: Из-за улыбки, наверное.
02:46
PJ: Smile.
52
166480
1200
ПЙ: Из-за улыбки.
02:52
Man: One on the left.
53
172400
1240
Мужчина: Слева.
02:57
Again, this one just struck me.
54
177520
1640
Опять же, просто откликнулось.
02:59
Interesting shot.
55
179760
1616
Интересный снимок.
03:01
Since I'm a photographer, I like the way it's lit and looks.
56
181400
3000
Поскольку я сам фотограф, мне нравится освещение и общий вид.
03:06
Petter Johansson: But now comes the trick.
57
186280
2040
Петтер Йонханссон: А теперь уловка.
03:10
(Video) Woman 1: This one.
58
190120
1280
(Видео) Женщина 1: Этот.
03:16
PJ: So they get the opposite of their choice.
59
196240
2280
ПЙ: Они получили противоположное своему выбору.
03:20
And let's see what happens.
60
200520
1600
Давайте посмотрим, что дальше.
03:28
Woman 2: Um ...
61
208240
1200
Женщина 2: Хм...
03:35
I think he seems a little more innocent than the other guy.
62
215760
2800
Кажется, он выглядит безобиднее, чем тот парень.
03:45
Man: The one on the left.
63
225360
1240
Мужчина: Та, что слева.
03:49
I like her smile and contour of the nose and face.
64
229280
3696
Нравится её улыбка, форма носа и овал лица.
03:53
So it's a little more interesting to me, and her haircut.
65
233000
2760
Она мне кажется интереснее, и её причёска тоже.
04:00
Woman 3: This one.
66
240040
1200
Женщина 3: Вот этот.
04:03
I like the smirky look better.
67
243520
1576
С ухмылкой больше нравится.
04:05
PJ: You like the smirky look better?
68
245120
2000
ПЙ: С ухмылкой вам нравится больше?
04:09
(Laughter)
69
249680
3176
(Смех)
04:12
Woman 3: This one.
70
252880
1200
Женщина 3: Этот.
04:15
PJ: What made you choose him?
71
255280
1400
ПЙ: Почему его выбрали?
04:17
Woman 3: I don't know, he looks a little bit like the Hobbit.
72
257520
2896
Женщина 3: Не знаю, он похож немного на Хоббита.
04:20
(Laughter)
73
260440
2056
(Смех)
04:22
PJ: And what happens in the end
74
262520
1496
ПЙ: И что в конце,
04:24
when I tell them the true nature of the experiment?
75
264040
3096
когда я говорю им о сути эксперимента?
04:27
Yeah, that's it. I just have to ask a few questions.
76
267160
2456
Вот и всё. Мне нужно задать несколько вопросов.
04:29
Man: Sure.
77
269640
1216
Мужчина: Конечно.
04:30
PJ: What did you think of this experiment, was it easy or hard?
78
270880
2976
ПЙ: Что думаете об эксперименте — было легко или сложно?
04:33
Man: It was easy.
79
273880
1240
Мужчина: Мне было легко.
04:36
PJ: During the experiments,
80
276040
1336
ПЙ: Во время эксперимента
04:37
I actually switched the pictures three times.
81
277400
3336
я три раза сжульничал с фотографиями.
04:40
Was this anything you noticed?
82
280760
1576
Вы заметили это?
04:42
Man: No. I didn't notice any of that.
83
282360
1816
Мужчина: Нет, ничего подобного.
04:44
PJ: Not at all? Man: No.
84
284200
1496
ПЙ: Совсем ничего? Мужчина: Нет.
04:45
Switching the pictures as far as ...
85
285720
2096
Жульничали с фотографиями, пока...
04:47
PJ: Yeah, you were pointing at one of them but I actually gave you the opposite.
86
287840
3816
ПЙ: Да, вы указали на одну, но я дал противоположную.
04:51
Man: The opposite one. OK, when you --
87
291680
1816
Мужчина: Противоположную. А когда...
04:53
No. Shows you how much my attention span was.
88
293520
2256
Нет, это показывает, насколько мне хватало внимания.
04:55
(Laughter)
89
295800
1520
(Смех)
04:58
PJ: Did you notice that sometimes during the experiment
90
298880
3016
ПЙ: Вы заметили, что во время эксперимента
05:01
I switched the pictures?
91
301920
2136
я жульничал с фотографиями?
05:04
Woman 2: No, I did not notice that.
92
304080
2016
Женщина 2: Нет, не заметила.
05:06
PJ: You were pointing at one, but then I gave you the other one.
93
306120
3000
ПЙ: Вы указали на одну, но я дал противоположную.
05:09
No inclination of that happening?
94
309920
1616
Ничего такого не заподозрили?
05:11
Woman 2: No.
95
311560
1576
Женщина 2: Нет.
05:13
Woman 2: I did not notice.
96
313160
1256
Я ничего не заметила.
05:14
(Laughs)
97
314440
1936
(Смеётся)
05:16
PJ: Thank you.
98
316400
1216
ПЙ: Спасибо.
05:17
Woman 2: Thank you.
99
317640
1376
Женщина 2: Спасибо.
05:19
PJ: OK, so as you probably figured out now,
100
319040
2056
ПЙ: Ладно, как вы, наверное, уже вычислили,
05:21
the trick is that I have two cards in each hand,
101
321120
2256
трюк в том, что у меня в руках по две карты,
05:23
and when I hand one of them over,
102
323400
1576
и когда я передаю одну,
05:25
the black one kind of disappears into the black surface on the table.
103
325000
4360
то вторая остаётся незамеченной на чёрной поверхности стола.
05:30
So using pictures like this,
104
330640
1736
С подобными фотографиями
05:32
normally not more than 20 percent of the participants detect these tries.
105
332400
4376
обычно не более 20% участников замечают такие уловки.
05:36
And as you saw in the movie,
106
336800
1416
Как вы видели,
05:38
when in the end we explain what's going on,
107
338240
3176
когда в конце мы объясняем, что происходит,
05:41
they're very surprised and often refuse to believe the trick has been made.
108
341440
4376
они очень удивляются и в основном отказываются верить в проделанный трюк.
05:45
So this shows that this effect is quite robust and a genuine effect.
109
345840
4776
Это показывает, что результат получился вполне убедительным и правдивым.
05:50
But if you're interested in self-knowledge, as I am,
110
350640
2656
А если вам интересно самопознание, как и мне,
05:53
the more interesting bit is,
111
353320
1336
увлекательно понять,
05:54
OK, so what did they say when they explained these choices?
112
354680
3936
как же они объясняли свой выбор?
05:58
So we've done a lot of analysis
113
358640
1496
Мы тщательно проанализировали
06:00
of the verbal reports in these experiments.
114
360160
2080
записи речи в этом эксперименте.
06:03
And this graph simply shows
115
363360
2456
Этот график демонстрирует,
06:05
that if you compare what they say in a manipulated trial
116
365840
4776
что если сравнивать объяснения при подтасованных попытках
06:10
with a nonmanipulated trial,
117
370640
1376
и неподтасованных,
06:12
that is when they explain a normal choice they've made
118
372040
2776
то есть когда участники комментируют свой выбор
06:14
and one where we manipulated the outcome,
119
374840
2496
и подтасованный выбор,
06:17
we find that they are remarkably similar.
120
377360
2456
то видно, что объяснения почти одинаковые.
06:19
So they are just as emotional, just as specific,
121
379840
3056
Они настолько же эмоциональны, настолько же конкретны,
06:22
and they are expressed with the same level of certainty.
122
382920
3200
и они выражаются с одинаковой степенью уверенности.
06:27
So the strong conclusion to draw from this
123
387120
2336
Из этого следует главный вывод,
06:29
is that if there are no differences
124
389480
2216
что если нет никаких различий
06:31
between a real choice and a manipulated choice,
125
391720
3696
между осознанным и манипулируемым выбором,
06:35
perhaps we make things up all the time.
126
395440
2440
то, вероятно, мы додумываем какие-то вещи постоянно.
06:38
But we've also done studies
127
398680
1336
И мы провели исследования,
06:40
where we try to match what they say with the actual faces.
128
400040
3016
сопоставив комментарии с лицами.
06:43
And then we find things like this.
129
403080
1880
Мы обнаружили вот что.
06:45
So here, this male participant, he preferred the girl to the left,
130
405760
5056
Этот мужчина предпочёл девушку слева,
06:50
he ended up with the one to the right.
131
410840
1856
но получил девушку справа.
06:52
And then, he explained his choice like this.
132
412720
2816
Он объяснил свой выбор вот так:
06:55
"She is radiant.
133
415560
1296
«Она лучезарная.
06:56
I would rather have approached her at the bar than the other one.
134
416880
3096
В баре я бы подошёл скорее к ней, чем к какой-то другой.
07:00
And I like earrings."
135
420000
1616
И мне нравятся серьги».
07:01
And whatever made him choose the girl on the left to begin with,
136
421640
3496
И неважно, что изначально повлияло на выбор девушки слева,
07:05
it can't have been the earrings,
137
425160
1576
ведь это точно были не серёжки,
07:06
because they were actually sitting on the girl on the right.
138
426760
2856
потому что серёжки были у девушки справа.
07:09
So this is a clear example of a post hoc construction.
139
429640
3776
Это яркий пример интерпретации постфактум.
07:13
So they just explained the choice afterwards.
140
433440
2800
Они объяснили свой выбор задним числом.
07:17
So what this experiment shows is,
141
437320
2296
Подобный эксперимент показывает:
07:19
OK, so if we fail to detect that our choices have been changed,
142
439640
3656
если мы не осознаём подтасовку,
07:23
we will immediately start to explain them in another way.
143
443320
3200
то мы сразу же начинаем искать своему выбору другое объяснение.
07:27
And what we also found
144
447520
1256
Вот что ещё мы выяснили:
07:28
is that the participants often come to prefer the alternative,
145
448800
3216
участники часто предпочитали альтернативный вариант,
07:32
that they were led to believe they liked.
146
452040
2256
в который их заставили поверить.
07:34
So if we let them do the choice again,
147
454320
2016
То есть предложив им снова выбрать,
07:36
they will now choose the face they had previously rejected.
148
456360
3760
то они выберут то лицо, которое в прошлый раз отвергли.
07:41
So this is the effect we call "choice blindness."
149
461520
2296
Такой эффект мы называем «слепотой выбора».
07:43
And we've done a number of different studies --
150
463840
2216
Мы провели множество разных исследований:
07:46
we've tried consumer choices,
151
466080
2536
мы испытывали потребителей при выборе продуктов,
07:48
choices based on taste and smell and even reasoning problems.
152
468640
4416
при выборе по запаху и вкусу и даже при решении логических задач.
07:53
But what you all want to know is of course
153
473080
2056
Но вам, конечно, интересно было бы узнать,
07:55
does this extend also to more complex, more meaningful choices?
154
475160
3936
будет ли этот эффект распространяться на более трудные и серьёзные решения?
07:59
Like those concerning moral and political issues.
155
479120
3080
Например, в отношении моральных и политических вопросов.
08:04
So the next experiment, it needs a little bit of a background.
156
484400
4216
Для следующего эксперимента нужно небольшое пояснение.
08:08
So in Sweden, the political landscape
157
488640
4256
На политическом ландшафте Швеции
08:12
is dominated by a left-wing and a right-wing coalition.
158
492920
3360
доминируют коалиции левосторонних и правосторонних сил.
08:17
And the voters may move a little bit between the parties within each coalition,
159
497720
4416
Голоса избирателей могут чуть перемещаться между партиями в рамках каждой коалиции
08:22
but there is very little movement between the coalitions.
160
502160
2760
и лишь совсем незначительно перемещаться между коалициями.
08:25
And before each elections,
161
505680
1976
Перед каждыми выборами
08:27
the newspapers and the polling institutes
162
507680
4216
пресса и институты исследования общественного мнения
08:31
put together what they call "an election compass"
163
511920
2616
формулируют так называемый «избирательный компас» —
08:34
which consists of a number of dividing issues
164
514560
3336
обзор вопросов,
08:37
that sort of separates the two coalitions.
165
517920
2336
по которым мнения коалиций расходятся.
08:40
Things like if tax on gasoline should be increased
166
520280
3735
Например, нужно ли увеличивать налог на бензин
08:44
or if the 13 months of paid parental leave
167
524039
4096
или нужно ли 13-месячный отпуск по уходу за ребёнком
08:48
should be split equally between the two parents
168
528159
2496
делить поровну между двумя родителями
08:50
in order to increase gender equality.
169
530679
2721
для укрепления гендерного равенства.
08:54
So, before the last Swedish election,
170
534840
2216
Перед последними выборами в Швеции
08:57
we created an election compass of our own.
171
537080
2600
мы сами разработали избирательный компас.
09:00
So we walked up to people in the street
172
540480
2136
Мы подходили к прохожим на улице
09:02
and asked if they wanted to do a quick political survey.
173
542640
3336
и спрашивали, хотят ли они пройти небольшой опрос на тему политики.
09:06
So first we had them state their voting intention
174
546000
2456
Сначала мы просили их указать свои предпочтения
09:08
between the two coalitions.
175
548480
1360
между двумя коалициями.
09:10
Then we asked them to answer 12 of these questions.
176
550560
3776
После чего им нужно было ответить на 12 вопросов.
09:14
They would fill in their answers,
177
554360
1976
Получив ответы на вопросы,
09:16
and we would ask them to discuss,
178
556360
1616
мы просили их порассуждать,
09:18
so OK, why do you think tax on gas should be increased?
179
558000
5496
допустим, почему вы думаете, что налог на газ должен быть увеличен?
09:23
And we'd go through the questions.
180
563520
2096
И так мы проходились по всем вопросам.
09:25
Then we had a color coded template
181
565640
3896
У нас был шаблон с цветной маркировкой
09:29
that would allow us to tally their overall score.
182
569560
2936
для подсчёта общего балла.
09:32
So this person would have one, two, three, four
183
572520
3456
У этого человека был один, два, три, четыре,
09:36
five, six, seven, eight, nine scores to the left,
184
576000
3296
пять, шесть, семь, восемь, девять баллов слева,
09:39
so he would lean to the left, basically.
185
579320
2680
он в основном склонялся в левую сторону.
09:42
And in the end, we also had them fill in their voting intention once more.
186
582800
4440
И в конце мы просили ещё раз обозначить своё предпочтение.
09:48
But of course, there was also a trick involved.
187
588160
2280
Конечно же, без уловки не обошлось.
09:51
So first, we walked up to people,
188
591360
2176
Мы подходили к людям
09:53
we asked them about their voting intention
189
593560
2056
и спрашивали, за кого их голос,
09:55
and then when they started filling in,
190
595640
2256
но когда они начинали заполнять опросник,
09:57
we would fill in a set of answers going in the opposite direction.
191
597920
5456
то мы заполняли такой же, но с противоположными ответами.
10:03
We would put it under the notepad.
192
603400
2576
Мы держали его под блокнотом.
10:06
And when we get the questionnaire,
193
606000
2776
Когда нам возвращали заполненный опросник,
10:08
we would simply glue it on top of the participant's own answer.
194
608800
3320
то мы просто наклеивали поверх него свой вариант.
10:16
So there, it's gone.
195
616000
1240
Всё, готово.
10:24
And then we would ask about each of the questions:
196
624280
2376
После мы просили дать пояснения к каждому вопросу.
10:26
How did you reason here?
197
626680
1536
Какая здесь была аргументация?
10:28
And they'll state the reasons,
198
628240
1736
Они формулировали причины,
10:30
together we will sum up their overall score.
199
630000
2480
и мы вместе подсчитывали общий балл.
10:34
And in the end, they will state their voting intention again.
200
634800
3680
И в конце они снова указывали свои предпочтения.
10:41
So what we find first of all here,
201
641960
1656
Главное, что мы видим здесь, —
10:43
is that very few of these manipulations are detected.
202
643640
4216
манипуляции выявились лишь несколько раз.
10:47
And they're not detected in the sense that they realize,
203
647880
2656
И они были выявлены не в том смысле, что были опознаны:
10:50
"OK, you must have changed my answer,"
204
650560
1856
«Так, похоже, вы заменили мой ответ»,
10:52
it was more the case that,
205
652440
1256
а в таком ключе, что:
10:53
"OK, I must've misunderstood the question the first time I read it.
206
653720
3176
«Так, похоже, я в первый раз неправильно понял вопрос,
10:56
Can I please change it?"
207
656920
1240
могу я изменить ответ?»
10:59
And even if a few of these manipulations were changed,
208
659080
5136
Даже если и было исправлено несколько подтасовок,
11:04
the overall majority was missed.
209
664240
2136
большая часть осталась незамеченной.
11:06
So we managed to switch 90 percent of the participants' answers
210
666400
3656
В итоге нам удалось поменять местами 90% ответов
11:10
from left to right, right to left, their overall profile.
211
670080
3160
слева направо и справа налево в каждом опроснике.
11:14
And what happens then when they are asked to motivate their choices?
212
674800
4400
Что же происходило, когда их просили пояснить свои ответы?
11:20
And here we find much more interesting verbal reports
213
680160
3056
И вот здесь записи речи получились гораздо интереснее
11:23
than compared to the faces.
214
683240
2016
в сравнении с лицами.
11:25
People say things like this, and I'll read it to you.
215
685280
3360
Я зачитаю вам, как отвечали люди.
11:29
So, "Large-scale governmental surveillance of email and internet traffic
216
689720
3736
«Широкомасштабный контроль правительства электронной почты и интернет-трафика
11:33
ought to be permissible as means to combat international crime and terrorism."
217
693480
4336
приемлем как мера противодействия международной преступности и терроризму.
11:37
"So you agree to some extent with this statement." "Yes."
218
697840
2716
Вы согласны с таким утверждением». «Да».
11:40
"So how did you reason here?"
219
700580
1500
«А как вы здесь рассуждали?»
11:43
"Well, like, as it is so hard to get at international crime and terrorism,
220
703600
4936
«Весьма сложно бороться с международной преступностью и терроризмом,
11:48
I think there should be those kinds of tools."
221
708560
2776
поэтому, я думаю, должны применяться такого рода средства».
11:51
And then the person remembers an argument from the newspaper in the morning.
222
711360
3616
Потом человек вспоминал аргументы из газеты, прочитанной утром:
11:55
"Like in the newspaper today,
223
715000
1616
«Как писали в сегодняшней газете,
11:56
it said they can like, listen to mobile phones from prison,
224
716640
3376
они могут прослушивать мобильные телефоны в тюрьме,
12:00
if a gang leader tries to continue his crimes from inside.
225
720040
3536
если преступники замышляют свои дела, находясь в заключении.
12:03
And I think it's madness that we have so little power
226
723600
2816
И я считаю абсурдом иметь так мало полномочий,
12:06
that we can't stop those things
227
726440
1656
не предотвращающих такое,
12:08
when we actually have the possibility to do so."
228
728120
2936
в то время как возможности для этого есть».
12:11
And then there's a little bit back and forth in the end:
229
731080
2696
А в конце некоторое сомнение:
12:13
"I don't like that they have access to everything I do,
230
733800
2576
«Мне не нравится, что у них доступ ко всему, что я делаю,
12:16
but I still think it's worth it in the long run."
231
736400
2576
но всё же, мне кажется, это того стоит в конце концов».
12:19
So, if you didn't know that this person
232
739000
2536
Если вы не знаете, что этот человек
12:21
just took part in a choice blindness experiment,
233
741560
2256
участвовал в эксперименте про слепоту выбора,
12:23
I don't think you would question
234
743840
1856
я не думаю, что вы засомневались бы
12:25
that this is the true attitude of that person.
235
745720
3120
в искренности его отношения.
12:29
And what happens in the end, with the voting intention?
236
749800
2856
И что же происходило в конце с указанием предпочтения?
12:32
What we find -- that one is also clearly affected by the questionnaire.
237
752680
4696
Мы обнаружили, что на одного участника явно повлиял опрос.
12:37
So we have 10 participants
238
757400
1736
И получилось 10 участников,
12:39
shifting from left to right or from right to left.
239
759160
2976
которые переместились слева направо или справа налево.
12:42
We have another 19 that go from clear voting intention
240
762160
2536
19 участников изначально с отчётливым предпочтением
12:44
to being uncertain.
241
764720
1456
теперь уже проявляли сомнения.
12:46
Some go from being uncertain to clear voting intention.
242
766200
3096
Некоторые из сомневавшихся стали абсолютно уверенными.
12:49
And then there is a number of participants staying uncertain throughout.
243
769320
4736
И некоторое количество участников так и осталось с сомнениями.
12:54
And that number is interesting
244
774080
1576
Это количество интересно тем,
12:55
because if you look at what the polling institutes say
245
775680
4616
что если посмотреть на то, что институты исследования общественного мнения говорят
13:00
the closer you get to an election,
246
780320
1656
по мере приближения к выборам,
13:02
the only people that are sort of in play
247
782000
2136
единственными, кто может изменить расклад,
13:04
are the ones that are considered uncertain.
248
784160
2656
будут как раз неопределившиеся.
13:06
But we show there is a much larger number
249
786840
3216
А мы показываем, что гораздо больше тех,
13:10
that would actually consider shifting their attitudes.
250
790080
2800
кто на самом деле готов менять свою позицию.
13:13
And here I must point out, of course, that you are not allowed to use this
251
793640
3496
Здесь я должен обратить ваше внимание. Нельзя применять этот метод
13:17
as an actual method to change people's votes
252
797160
2616
как способ влияния на голоса избирателей
13:19
before an election,
253
799800
1496
накануне выборов.
13:21
and we clearly debriefed them afterwards
254
801320
3616
По окончании эксперимента мы провели беседы с участниками,
13:24
and gave them every opportunity to change back
255
804960
2296
чтобы дать им возможность вернуться
13:27
to whatever they thought first.
256
807280
2480
к своей исходной точке зрения.
13:30
But what this shows is that if you can get people
257
810600
2336
Это показывает, что позволяя людям
13:32
to see the opposite view and engage in a conversation with themselves,
258
812960
5536
увидеть противоположную точку зрения и вовлекая их в в обсуждение,
13:38
that could actually make them change their views.
259
818520
2920
можно изменить их мнение.
13:42
OK.
260
822400
1200
Хорошо.
13:44
So what does it all mean?
261
824760
1656
А что в целом это означает?
13:46
What do I think is going on here?
262
826440
2416
Что, по моему мнению, это означает?
13:48
So first of all,
263
828880
1216
Прежде всего,
13:50
a lot of what we call self-knowledge is actually self-interpretation.
264
830120
4856
то, что мы называем самопознанием, чаще является самоинтерпретацией.
13:55
So I see myself make a choice,
265
835000
2496
Если я делаю выбор
13:57
and then when I'm asked why,
266
837520
2776
и меня спрашивают, почему так,
14:00
I just try to make as much sense of it as possible
267
840320
2536
то я просто пытаюсь максимально разобраться в этом
14:02
when I make an explanation.
268
842880
1936
в процессе объяснения.
14:04
But we do this so quickly and with such ease
269
844840
3016
Но мы делаем это так быстро и с такой лёгкостью,
14:07
that we think we actually know the answer when we answer why.
270
847880
4280
как будто действительно знаем ответ, когда объясняем почему.
14:13
And as it is an interpretation,
271
853040
3096
А поскольку это интерпретация,
14:16
of course we sometimes make mistakes.
272
856160
2296
то иногда, конечно, мы делаем ошибки.
14:18
The same way we make mistakes when we try to understand other people.
273
858480
3520
Таким же образом мы ошибаемся, когда пытаемся понять других.
14:23
So beware when you ask people the question "why"
274
863160
3696
Будьте аккуратнее, когда спрашиваете «почему», —
14:26
because what may happen is that, if you asked them,
275
866880
4896
поскольку спрашивая:
14:31
"So why do you support this issue?"
276
871800
4016
«Почему ты поддерживаешь эту проблему?»,
14:35
"Why do you stay in this job or this relationship?" --
277
875840
3216
«Почему остаёшься на этой работе или в этих отношениях?»,
14:39
what may happen when you ask why is that you actually create an attitude
278
879080
3416
вы тем самым формулируете позицию,
14:42
that wasn't there before you asked the question.
279
882520
2240
которой не было, пока вы не задали такой вопрос.
14:45
And this is of course important in your professional life, as well,
280
885440
3176
Это, конечно, важно и для вашей профессиональной жизни
14:48
or it could be.
281
888640
1216
или может быть важным.
14:49
If, say, you design something and then you ask people,
282
889880
2536
Если, скажем, вы проектируете что-то и спрашиваете:
14:52
"Why do you think this is good or bad?"
283
892440
2256
«Почему ты думаешь, что это хорошо или плохо?»
14:54
Or if you're a journalist asking a politician,
284
894720
3056
Или если вы журналист и спрашиваете политика:
14:57
"So, why did you make this decision?"
285
897800
2376
«Почему вы приняли такое решение?»
15:00
Or if indeed you are a politician
286
900200
1936
Или если вы действительно политик
15:02
and try to explain why a certain decision was made.
287
902160
2640
и объясняете, почему конкретное решение было принято.
15:06
So this may all seem a bit disturbing.
288
906080
3576
Всё это может показаться удручающим.
15:09
But if you want to look at it from a positive direction,
289
909680
3496
Но можно посмотреть на это с позитивной стороны,
15:13
it could be seen as showing,
290
913200
1736
как на демонстрацию того,
15:14
OK, so we're actually a little bit more flexible than we think.
291
914960
3376
что на самом деле мы немного гибче, чем думаем.
15:18
We can change our minds.
292
918360
1896
Мы можем передумать.
15:20
Our attitudes are not set in stone.
293
920280
2456
Наша точка зрения не высечена на камне.
15:22
And we can also change the minds of others,
294
922760
3176
И мы можем повлиять на мнение других,
15:25
if we can only get them to engage with the issue
295
925960
2376
если только их вовлечь в проблему,
15:28
and see it from the opposite view.
296
928360
1680
показав её с другой стороны.
15:31
And in my own personal life, since starting with this research --
297
931400
3936
В своей личной жизни, начав это исследование,
15:35
So my partner and I, we've always had the rule
298
935360
2576
мы с партнёром придерживаемся правила,
15:37
that you're allowed to take things back.
299
937960
2296
что свои слова можно взять обратно.
15:40
Just because I said I liked something a year ago,
300
940280
2336
Если год назад я сказал, что мне что-то нравится,
15:42
doesn't mean I have to like it still.
301
942640
2040
не значит, что это нравится мне до сих пор.
15:45
And getting rid of the need to stay consistent
302
945480
2816
Избавление от необходимости быть неизменным в убеждениях —
15:48
is actually a huge relief and makes relational life so mush easier to live.
303
948320
4360
это огромное облегчение, невероятно упрощающее жизнь в отношениях.
15:53
Anyway, so the conclusion must be:
304
953720
2360
Как бы то ни было, заключение должно быть таким:
15:57
know that you don't know yourself.
305
957320
2496
знайте, что вы себя не знаете.
15:59
Or at least not as well as you think you do.
306
959840
2320
Или же не так хорошо, как вы думаете.
16:03
Thanks.
307
963480
1216
Спасибо.
16:04
(Applause)
308
964720
4640
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7