Do you really know why you do what you do? | Petter Johansson

193,440 views ・ 2018-03-27

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Inna Fedorenko Утверджено: serhij hajdaj
00:12
So why do you think the rich should pay more in taxes?
0
12800
3560
Чому ви думаєте, що багаті люди мають виплачувати більші податки?
00:16
Why did you buy the latest iPhone?
1
16400
2376
Чому ви маєте придбати останній айфон?
00:18
Why did you pick your current partner?
2
18800
2456
Чому ви обрали свого супутника?
00:21
And why did so many people vote for Donald Trump?
3
21280
3416
І чому так багато людей проголосували за Дональда Трампа?
00:24
What were the reasons, why did they do it?
4
24720
2520
Які причини, чому вони це зробили?
00:27
So we ask this kind of question all the time,
5
27990
2106
Ми весь час задаємо подібні питання,
00:30
and we expect to get an answer.
6
30120
1736
і сподіваємося отримати відповідь.
00:31
And when being asked, we expect ourselves to know the answer,
7
31880
3136
І коли запитують нас, ми певні, що знаємо відповідь,
просто сказавши, що зробили те, що зробили.
00:35
to simply tell why we did as we did.
8
35040
2480
Але чи знаємо ми чому?
00:38
But do we really know why?
9
38440
1720
Коли ви говорите, що Джордж Клуні кращий за Тома Хенкса,
00:41
So when you say that you prefer George Clooney to Tom Hanks,
10
41000
3456
00:44
due to his concern for the environment,
11
44479
2057
бо він занепокоєний станом навколишнього середовища,
00:46
is that really true?
12
46560
1200
чи це дійсно правда?
Чи ви дійсно щирі і справді вірите,
00:48
So you can be perfectly sincere and genuinely believe
13
48560
2496
00:51
that this is the reason that drives your choice,
14
51080
2936
що саме ця причина вплинула на ваше рішення,
а як на мене, все ще чогось не вистачає.
00:54
but to me, it may still feel like something is missing.
15
54040
2600
Згідно теорії суб'єктивності,
00:57
As it stands, due to the nature of subjectivity,
16
57560
3176
01:00
it is actually very hard to ever prove that people are wrong about themselves.
17
60760
4320
дуже важко навіть довести, що люди помиляються відносно себе.
01:06
So I'm an experimental psychologist,
18
66600
2136
Я - експериментальний психолог,
01:08
and this is the problem we've been trying to solve in our lab.
19
68760
3536
і саме цю проблему ми намагаємося вирішити у себе в лабораторії.
01:12
So we wanted to create an experiment
20
72320
2176
Ми хотіли провести експеримент,
01:14
that would allow us to challenge what people say about themselves,
21
74520
3536
що дозволить нам кинути виклик думці людей про самих себе,
01:18
regardless of how certain they may seem.
22
78080
2680
незалежно від їх впевненості.
Але заплутати людські думки в їхній голові дуже важко.
01:21
But tricking people about their own mind is hard.
23
81960
2736
01:24
So we turned to the professionals.
24
84720
2376
Тож ми звернулися до професіоналів.
01:27
The magicians.
25
87120
1200
До фокусників.
Вони є експертами у створенні ілюзії вільного вибору.
01:29
So they're experts at creating the illusion of a free choice.
26
89120
2896
Коли вони говорять: "Виберіть карту, будь-яку карту,"
01:32
So when they say, "Pick a card, any card,"
27
92040
2296
01:34
the only thing you know is that your choice is no longer free.
28
94360
2920
ви знаєте лише, що ваш вибір уже не є добровільним.
У нас проходили фантастичні мозкові штурми для розробки ідей
01:38
So we had a few fantastic brainstorming sessions
29
98200
2376
01:40
with a group of Swedish magicians,
30
100600
1856
разом із шведськими фокусниками,
01:42
and they helped us create a method
31
102480
1642
і вони допомагали нам створити спосіб
01:44
in which we would be able to manipulate the outcome of people's choices.
32
104147
3973
маніпуляції результами людського вибору.
01:48
This way we would know when people are wrong about themselves,
33
108760
2936
Так ми могли б знати, коли люди помиляються щодо себе,
01:51
even if they don't know this themselves.
34
111720
2040
навіть якщо вони самі цього не розуміють.
Я покажу вам коротке відео із такою маніпуляцією.
01:54
So I will now show you a short movie showing this manipulation.
35
114480
4656
01:59
So it's quite simple.
36
119160
1416
Це досить просто.
02:00
The participants make a choice,
37
120600
2136
Учасники роблять вибір,
02:02
but I end up giving them the opposite.
38
122760
2256
але я показую їм друге фото.
А потім ми хочемо подивитися, як вони відреагують, що скажуть?
02:05
And then we want to see: How did they react, and what did they say?
39
125040
3520
Досить просто, але погляньте, чи побачите ви тут трюк фокусника.
02:09
So it's quite simple, but see if you can spot the magic going on.
40
129240
3160
На відео справжні учасники, вони не знають, що відбувається.
02:13
And this was shot with real participants, they don't know what's going on.
41
133440
3520
02:19
(Video) Petter Johansson: Hi, my name's Petter.
42
139000
2216
(Відео) Пітер Йохансон: Привіт, мене звати Пітер.
02:21
Woman: Hi, I'm Becka.
43
141240
1215
Жінка: Привіт, Я Бека.
02:22
PJ: I'm going to show you pictures like this.
44
142479
2137
Пітер: Я хочу показати вам ці фото.
02:24
And you'll have to decide which one you find more attractive.
45
144640
2896
І ви маєте вирішити, яке з них подобається вам більше.
02:27
Becka: OK.
46
147560
1216
Бека: Гаразд.
02:28
PJ: And then sometimes, I will ask you why you prefer that face.
47
148800
3176
Пітер: А іноді, я питатиму вас, чому вам подобається більше це обличчя.
Бека: Гаразд.
02:32
Becka: OK.
48
152000
1216
02:33
PJ: Ready? Becka: Yeah.
49
153240
1200
Пітер: Готові? Бека: Так.
02:43
PJ: Why did you prefer that one?
50
163120
1816
Пітер: Чому вам подобається ось ця?
02:44
Becka: The smile, I think.
51
164960
1496
Бека: Через посмішку, я так думаю.
02:46
PJ: Smile.
52
166480
1200
Пітер: Посмішка.
02:52
Man: One on the left.
53
172400
1240
Чоловік: Те, що зліва.
02:57
Again, this one just struck me.
54
177520
1640
Знову, саме ця просто вразила мене.
02:59
Interesting shot.
55
179760
1616
Цікавий знімок.
03:01
Since I'm a photographer, I like the way it's lit and looks.
56
181400
3000
Я фотограф, мені подобається, як він освітлений і як виглядає.
03:06
Petter Johansson: But now comes the trick.
57
186280
2040
Пітер Йохансон: Ось тепер фокус.
03:10
(Video) Woman 1: This one.
58
190120
1280
(Відео) Жінка 1: Ось цей.
03:16
PJ: So they get the opposite of their choice.
59
196240
2280
Пітер: Їм дають інше фото, не те, що вони вибрали.
03:20
And let's see what happens.
60
200520
1600
Давайте поглянемо, що відбувається.
03:28
Woman 2: Um ...
61
208240
1200
Жінка 2: Хм...
03:35
I think he seems a little more innocent than the other guy.
62
215760
2800
Думаю, він виглядає невиннішим, ніж інший хлопець.
03:45
Man: The one on the left.
63
225360
1240
Чоловік: Та, що зліва.
03:49
I like her smile and contour of the nose and face.
64
229280
3696
Мені подобається її посмішка та контур носа і обличчя.
Мені вона здається цікавішою, а також її зачіска.
03:53
So it's a little more interesting to me, and her haircut.
65
233000
2760
04:00
Woman 3: This one.
66
240040
1200
Жінка 3: Ось ця.
04:03
I like the smirky look better.
67
243520
1576
Мені більше подобається її самовпевнена посмішка.
04:05
PJ: You like the smirky look better?
68
245120
2000
Пітер: Вам більш до вподоби її самовпевнена посмішка?
04:09
(Laughter)
69
249680
3176
(Сміх)
04:12
Woman 3: This one.
70
252880
1200
Жінка 3: Ось це.
04:15
PJ: What made you choose him?
71
255280
1400
Пітер: Що вас змусило його вибрати?
04:17
Woman 3: I don't know, he looks a little bit like the Hobbit.
72
257520
2896
Жінка 3: Не знаю, він трохи нагадує Хоббіта.
04:20
(Laughter)
73
260440
2056
(Сміх)
04:22
PJ: And what happens in the end
74
262520
1496
Пітер: А що відбувається вкінці,
04:24
when I tell them the true nature of the experiment?
75
264040
3096
коли я розповім їм про справжню природу цього експерименту?
04:27
Yeah, that's it. I just have to ask a few questions.
76
267160
2456
Так, саме це. Я маю задати кілька питань.
04:29
Man: Sure.
77
269640
1216
Чоловік: Авжеж.
04:30
PJ: What did you think of this experiment, was it easy or hard?
78
270880
2976
Пітер: Що ви думаєте про цей експеримент, він легкий чи важкий?
04:33
Man: It was easy.
79
273880
1240
Чоловік: Це було легко.
04:36
PJ: During the experiments,
80
276040
1336
Пітер: Протягом цих експериментів,
04:37
I actually switched the pictures three times.
81
277400
3336
я, чесно кажучи, тричі замінив фото.
04:40
Was this anything you noticed?
82
280760
1576
Ви щось помітили?
04:42
Man: No. I didn't notice any of that.
83
282360
1816
Чоловік: Ні. Я нічого такого не помітив.
04:44
PJ: Not at all? Man: No.
84
284200
1496
Пітер: Взагалі нічого? Чоловік: Ні.
04:45
Switching the pictures as far as ...
85
285720
2096
Міняли знімки весь час, коли ...
04:47
PJ: Yeah, you were pointing at one of them but I actually gave you the opposite.
86
287840
3816
Пітер: Так, ви вказували на один із них, але я показував вам інший.
04:51
Man: The opposite one. OK, when you --
87
291680
1816
Чоловік: Протилежний. Гаразд, коли ви —
04:53
No. Shows you how much my attention span was.
88
293520
2256
Ні. Це показує, наскільки моя увага була приспана.
04:55
(Laughter)
89
295800
1520
(Сміх)
04:58
PJ: Did you notice that sometimes during the experiment
90
298880
3016
Пітер: Чи помічали ви, що іноді під час експерименту
05:01
I switched the pictures?
91
301920
2136
я міняв фото місцями?
05:04
Woman 2: No, I did not notice that.
92
304080
2016
Жінка 2: Ні, я не помічала цього.
05:06
PJ: You were pointing at one, but then I gave you the other one.
93
306120
3000
Пітер: Ви вказували на одну, а я давав вам іншу.
05:09
No inclination of that happening?
94
309920
1616
Жодної здогадки, що ж відбувається?
05:11
Woman 2: No.
95
311560
1576
Жінка 2: Ні.
05:13
Woman 2: I did not notice.
96
313160
1256
Жінка 2: Я не помітила.
05:14
(Laughs)
97
314440
1936
(Сміх)
05:16
PJ: Thank you.
98
316400
1216
Пітер: Дякую вам.
05:17
Woman 2: Thank you.
99
317640
1376
Жінка 2: Дякую вам.
Пітер: Як ви, ймовірно, здогадалися,
05:19
PJ: OK, so as you probably figured out now,
100
319040
2056
05:21
the trick is that I have two cards in each hand,
101
321120
2256
трюк у тому, що у мене в рукавах по дві карти,
05:23
and when I hand one of them over,
102
323400
1576
і коли я передавав одну,
чорна розчинялася на чорній поверхні столу.
05:25
the black one kind of disappears into the black surface on the table.
103
325000
4360
05:30
So using pictures like this,
104
330640
1736
При використанні таких картинок
05:32
normally not more than 20 percent of the participants detect these tries.
105
332400
4376
не більше 20% учасників помічали цей трюк.
05:36
And as you saw in the movie,
106
336800
1416
Як було видно на відео,
05:38
when in the end we explain what's going on,
107
338240
3176
коли вкінці ми пояснили, що відбувається,
05:41
they're very surprised and often refuse to believe the trick has been made.
108
341440
4376
вони дуже дивувалися і часто відмовлялися повірити, що був якийсь трюк.
05:45
So this shows that this effect is quite robust and a genuine effect.
109
345840
4776
Це показує, що даний ефект існує і є досить сильним.
05:50
But if you're interested in self-knowledge, as I am,
110
350640
2656
Та якщо ви, так само, як і я, зацікавлені у самопізнанні,
05:53
the more interesting bit is,
111
353320
1336
то цікавішим є те,
05:54
OK, so what did they say when they explained these choices?
112
354680
3936
що вони відповідали, після того, як пояснили свій вибір?
05:58
So we've done a lot of analysis
113
358640
1496
Ми провели чимало аналізів
06:00
of the verbal reports in these experiments.
114
360160
2080
вербальних звітів у цих експериментах.
06:03
And this graph simply shows
115
363360
2456
І цей графік просто показує,
06:05
that if you compare what they say in a manipulated trial
116
365840
4776
що коли ви порівняєте їх слова у маніпульованому тесті
06:10
with a nonmanipulated trial,
117
370640
1376
із неманіпульованим тестом,
то коли вони пояснюють свій звичайний вибір
06:12
that is when they explain a normal choice they've made
118
372040
2776
06:14
and one where we manipulated the outcome,
119
374840
2496
і вибір, де над результатом маніпулювали,
06:17
we find that they are remarkably similar.
120
377360
2456
ми побачимо, що вони дуже подібні.
06:19
So they are just as emotional, just as specific,
121
379840
3056
Вони однаково емоційні, однаково конкретні,
06:22
and they are expressed with the same level of certainty.
122
382920
3200
і висловлюються із тим самим ступенем впевненості.
Із цього випливає чіткий висновок,
06:27
So the strong conclusion to draw from this
123
387120
2336
06:29
is that if there are no differences
124
389480
2216
що коли немає жодної різниці
06:31
between a real choice and a manipulated choice,
125
391720
3696
між справжнім та маніпульованим вибором,
06:35
perhaps we make things up all the time.
126
395440
2440
то, можливо, ми завжди щось вигадуємо.
Але ми також провели дослідження,
06:38
But we've also done studies
127
398680
1336
де намагались зіставити їх опис зі справжніми обличчями.
06:40
where we try to match what they say with the actual faces.
128
400040
3016
06:43
And then we find things like this.
129
403080
1880
І тоді ми побачили наступне.
Чоловіку-учаснику більше подобалась дівчина зліва,
06:45
So here, this male participant, he preferred the girl to the left,
130
405760
5056
06:50
he ended up with the one to the right.
131
410840
1856
та він вибрав ту, що справа.
06:52
And then, he explained his choice like this.
132
412720
2816
А потім він так описав свій вибір.
06:55
"She is radiant.
133
415560
1296
"Вона просто світиться.
06:56
I would rather have approached her at the bar than the other one.
134
416880
3096
У барі я підійшов би саме до неї, а не до когось іншого.
І мені подобаються сережки."
07:00
And I like earrings."
135
420000
1616
07:01
And whatever made him choose the girl on the left to begin with,
136
421640
3496
І що б не змусило його вибрати дівчину зліва,
07:05
it can't have been the earrings,
137
425160
1576
але точно не сережки,
07:06
because they were actually sitting on the girl on the right.
138
426760
2856
бо вони, власне, були на дівчині справа.
07:09
So this is a clear example of a post hoc construction.
139
429640
3776
Це чіткий приклад конструкції після події.
07:13
So they just explained the choice afterwards.
140
433440
2800
Вони просто пояснили свій вибір опісля.
07:17
So what this experiment shows is,
141
437320
2296
Тож експеримент показує,
07:19
OK, so if we fail to detect that our choices have been changed,
142
439640
3656
що, гаразд, якщо нам не вдається помітити, що наш вибір змінили,
07:23
we will immediately start to explain them in another way.
143
443320
3200
то ми негайно пояснимо його іншим способом.
Також ми помітили,
07:27
And what we also found
144
447520
1256
07:28
is that the participants often come to prefer the alternative,
145
448800
3216
що учасники часто віддають перевагу альтернативі,
до якої їх підводили.
07:32
that they were led to believe they liked.
146
452040
2256
07:34
So if we let them do the choice again,
147
454320
2016
Якщо ми знову попросимо їх зробити вибір,
07:36
they will now choose the face they had previously rejected.
148
456360
3760
то вони виберуть те обличчя, яке перед тим забракували.
07:41
So this is the effect we call "choice blindness."
149
461520
2296
Саме цей ефект ми звемо "сліпотою вибору".
07:43
And we've done a number of different studies --
150
463840
2216
І ми провели ряд різних досліджень —
07:46
we've tried consumer choices,
151
466080
2536
на основі вибору споживачів,
07:48
choices based on taste and smell and even reasoning problems.
152
468640
4416
вибір на основі смаку, запаху та навіть на основі вирішення проблем.
07:53
But what you all want to know is of course
153
473080
2056
Але, звичайно, ви всі хочете знати,
07:55
does this extend also to more complex, more meaningful choices?
154
475160
3936
чи це має значення для більш важливого та значущого вибору?
07:59
Like those concerning moral and political issues.
155
479120
3080
Як те, що стосується моральних та політичних питань.
08:04
So the next experiment, it needs a little bit of a background.
156
484400
4216
Тож для наступних експериментів потрібно дещо пояснити.
08:08
So in Sweden, the political landscape
157
488640
4256
У Швеції, на політичному ландшафті
08:12
is dominated by a left-wing and a right-wing coalition.
158
492920
3360
переважають ліва та права коаліції.
08:17
And the voters may move a little bit between the parties within each coalition,
159
497720
4416
І виборці не мають великого вибору між партіями кожної коаліції,
08:22
but there is very little movement between the coalitions.
160
502160
2760
та й між коаліціями не спостерігається великих відмінностей.
І перед кожними виборами
08:25
And before each elections,
161
505680
1976
08:27
the newspapers and the polling institutes
162
507680
4216
газети та інститути опитування
08:31
put together what they call "an election compass"
163
511920
2616
разом становлять те, що називається "компасом виборів",
08:34
which consists of a number of dividing issues
164
514560
3336
котрий складається із ряду окремих положень,
08:37
that sort of separates the two coalitions.
165
517920
2336
якими різняться дві коаліції.
08:40
Things like if tax on gasoline should be increased
166
520280
3735
Наприклад, чи податок на бензин має зрости,
чи 13 місяців платної декретної відпустки
08:44
or if the 13 months of paid parental leave
167
524039
4096
08:48
should be split equally between the two parents
168
528159
2496
мають бути рівномірно розділені між двома батьками,
08:50
in order to increase gender equality.
169
530679
2721
щоб підвищити гендерну рівність.
08:54
So, before the last Swedish election,
170
534840
2216
Тож перед останніми виборами у Швеції
08:57
we created an election compass of our own.
171
537080
2600
ми створили наш власний компас виборів.
Ми підходили до людей на вулиці
09:00
So we walked up to people in the street
172
540480
2136
09:02
and asked if they wanted to do a quick political survey.
173
542640
3336
і питали, чи хочуть вони взяти участь у короткому політичному дослідженні.
Спершу ми хотіли, щоб вони сказали, кого вони виберуть
09:06
So first we had them state their voting intention
174
546000
2456
09:08
between the two coalitions.
175
548480
1360
із двох коаліцій.
Далі ми попросили їх дати відповідь на 12 запитань.
09:10
Then we asked them to answer 12 of these questions.
176
550560
3776
09:14
They would fill in their answers,
177
554360
1976
Вони внесуть свої відповіді,
09:16
and we would ask them to discuss,
178
556360
1616
і ми попросимо їх обговорити,
наприклад, чому ви хочете, щоб податки на бензин зросли?
09:18
so OK, why do you think tax on gas should be increased?
179
558000
5496
09:23
And we'd go through the questions.
180
563520
2096
Так ми пройшлися по всіх питаннях.
09:25
Then we had a color coded template
181
565640
3896
У нас був кольоровий шаблон,
09:29
that would allow us to tally their overall score.
182
569560
2936
який дозволяв нам оцінити їх загальний бал.
09:32
So this person would have one, two, three, four
183
572520
3456
Тож у цієї людини було раз, два, три, чотири,
п'ять, шість, сім, вісім, дев'ять балів зліва,
09:36
five, six, seven, eight, nine scores to the left,
184
576000
3296
09:39
so he would lean to the left, basically.
185
579320
2680
тобто він більше схилявся до лівої коаліції.
Вкінці ми знову попросили їх заповнити бланк із виборчими питаннями.
09:42
And in the end, we also had them fill in their voting intention once more.
186
582800
4440
Але, звичайно, там був трюк.
09:48
But of course, there was also a trick involved.
187
588160
2280
Спершу ми підійшли до людей
09:51
So first, we walked up to people,
188
591360
2176
09:53
we asked them about their voting intention
189
593560
2056
і спитали їх, за кого вони будуть голосувати,
09:55
and then when they started filling in,
190
595640
2256
а потім, коли вони почали заповнювати,
09:57
we would fill in a set of answers going in the opposite direction.
191
597920
5456
ми вносили відповіді у зворотньому порядку.
10:03
We would put it under the notepad.
192
603400
2576
Ми поклали їх під записником.
І коли ми дістаємо бланк,
10:06
And when we get the questionnaire,
193
606000
2776
10:08
we would simply glue it on top of the participant's own answer.
194
608800
3320
то просто наклеюємо його поверх відповідей учасника.
10:16
So there, it's gone.
195
616000
1240
Ось і все зроблено.
10:24
And then we would ask about each of the questions:
196
624280
2376
А потім ми просимо пояснити кожне питання:
10:26
How did you reason here?
197
626680
1536
Як ви розумієте це?
10:28
And they'll state the reasons,
198
628240
1736
І вони пояснюють причини,
ми підсумовуємо результати в загальному.
10:30
together we will sum up their overall score.
199
630000
2480
10:34
And in the end, they will state their voting intention again.
200
634800
3680
Вкінці вони знову говорять, за кого голосуватимуть.
10:41
So what we find first of all here,
201
641960
1656
Ми помітили, по-перше,
10:43
is that very few of these manipulations are detected.
202
643640
4216
що ці маніпуляції дуже часто проходили непоміченими.
10:47
And they're not detected in the sense that they realize,
203
647880
2656
Непоміченими не в тому сенсі, що вони усвідомили:
10:50
"OK, you must have changed my answer,"
204
650560
1856
"Ага, ви змінили мої відповіді,"
10:52
it was more the case that,
205
652440
1256
це було більше схоже на:
10:53
"OK, I must've misunderstood the question the first time I read it.
206
653720
3176
"Гаразд, можливо, я не зрозумів питання, коли читав їх уперше.
10:56
Can I please change it?"
207
656920
1240
Чи можу я змінити відповідь?"
Навіть, якщо кілька з цих маніпуляцій були змінені,
10:59
And even if a few of these manipulations were changed,
208
659080
5136
11:04
the overall majority was missed.
209
664240
2136
то більшість з них було не помічено.
11:06
So we managed to switch 90 percent of the participants' answers
210
666400
3656
Нам вдалося змінити відповіді 90% учасників
11:10
from left to right, right to left, their overall profile.
211
670080
3160
від лівої коаліції до правої, від правої до лівої.
11:14
And what happens then when they are asked to motivate their choices?
212
674800
4400
А що відбувається, коли їх просять пояснити свій вибір?
Тут можна знайти набагато цікавіші відповіді,
11:20
And here we find much more interesting verbal reports
213
680160
3056
11:23
than compared to the faces.
214
683240
2016
ніж у випадку з обличчями.
11:25
People say things like this, and I'll read it to you.
215
685280
3360
Люди кажуть щось типу цього, я зачитаю вам.
11:29
So, "Large-scale governmental surveillance of email and internet traffic
216
689720
3736
"Державний нагляд за трафіком електронної пошти та інтернет-трафіком
11:33
ought to be permissible as means to combat international crime and terrorism."
217
693480
4336
має бути допустимим як засіб боротьби з міжнародною злочинністю та тероризмом."
11:37
"So you agree to some extent with this statement." "Yes."
218
697840
2716
"Ви, певною мірою, згодні з цим твердженням." "Так."
11:40
"So how did you reason here?"
219
700580
1500
"А як ви це розумієте?"
11:43
"Well, like, as it is so hard to get at international crime and terrorism,
220
703600
4936
"Ну, тяжко боротись із міжнародною злочинністю та тероризмом,
11:48
I think there should be those kinds of tools."
221
708560
2776
тож, вважаю, що для цього мають бути певні знаряддя."
11:51
And then the person remembers an argument from the newspaper in the morning.
222
711360
3616
Потім людина згадує аргумент з ранішньої газети.
"Як сьогодні писали в газеті,
11:55
"Like in the newspaper today,
223
715000
1616
11:56
it said they can like, listen to mobile phones from prison,
224
716640
3376
кажуть, що вони можуть прослуховувати телефони у в'язниці,
якщо лідер банди намагається звідти продовжувати злочинну діяльність.
12:00
if a gang leader tries to continue his crimes from inside.
225
720040
3536
12:03
And I think it's madness that we have so little power
226
723600
2816
І думаю, це божевілля, що у нас так мало повноважень,
12:06
that we can't stop those things
227
726440
1656
і ми не можемо цього зупинити,
12:08
when we actually have the possibility to do so."
228
728120
2936
коли у нас для цього є можливість."
12:11
And then there's a little bit back and forth in the end:
229
731080
2696
Потім трохи плутанини вкінці:
12:13
"I don't like that they have access to everything I do,
230
733800
2576
"Мені не подобається, що вони бачать все, що я роблю,
12:16
but I still think it's worth it in the long run."
231
736400
2576
та я впевнений, що це корисно у довготривалій перспективі."
12:19
So, if you didn't know that this person
232
739000
2536
Якщо б ви не знали, що ця людина
12:21
just took part in a choice blindness experiment,
233
741560
2256
щойно взяла участь в експерименті на вибір усліпу,
12:23
I don't think you would question
234
743840
1856
то навряд, чи ви б засумнівались
12:25
that this is the true attitude of that person.
235
745720
3120
що це справжня позиція людини.
А що трапляється вкінці з наміром голосувати?
12:29
And what happens in the end, with the voting intention?
236
749800
2856
12:32
What we find -- that one is also clearly affected by the questionnaire.
237
752680
4696
Ми помітили — на це також дуже легко вплинути у нашому опитуванні.
12:37
So we have 10 participants
238
757400
1736
У нас є 10 учасників,
12:39
shifting from left to right or from right to left.
239
759160
2976
які змінювали позиції зліва направо і навпаки.
12:42
We have another 19 that go from clear voting intention
240
762160
2536
У нас є інші 19 учасників, які, почавши з чіткого вибору,
12:44
to being uncertain.
241
764720
1456
стали сумніватися.
12:46
Some go from being uncertain to clear voting intention.
242
766200
3096
Деякі, не маючи чіткого рішення, все-таки обрали партію.
12:49
And then there is a number of participants staying uncertain throughout.
243
769320
4736
І було певне число учасників, які весь час були невпевненими.
12:54
And that number is interesting
244
774080
1576
Ця група дуже цікава,
12:55
because if you look at what the polling institutes say
245
775680
4616
оскільки, якщо ви поглянете на заяви установ опитування,
13:00
the closer you get to an election,
246
780320
1656
то чим ближче до виборів,
то лише люди такого типу мають значення,
13:02
the only people that are sort of in play
247
782000
2136
13:04
are the ones that are considered uncertain.
248
784160
2656
ті, котрі вважаються такими, що не визначилися.
13:06
But we show there is a much larger number
249
786840
3216
Але, як ми показали, набагато більша кількість
13:10
that would actually consider shifting their attitudes.
250
790080
2800
власне, подумують над зміною свого вибору.
Та, звичайно, маю наголосити, що вам не дозволяється використовувати
13:13
And here I must point out, of course, that you are not allowed to use this
251
793640
3496
13:17
as an actual method to change people's votes
252
797160
2616
дані методи для зміни вподобань людей
13:19
before an election,
253
799800
1496
перед виборами,
13:21
and we clearly debriefed them afterwards
254
801320
3616
а опісля ми знову опитали їх
13:24
and gave them every opportunity to change back
255
804960
2296
і дали змогу повернутися
13:27
to whatever they thought first.
256
807280
2480
до своєї початкової думки.
Але це показує, що коли продемонструвати людям
13:30
But what this shows is that if you can get people
257
810600
2336
13:32
to see the opposite view and engage in a conversation with themselves,
258
812960
5536
протилежний погляд та залучити їх до розмови,
13:38
that could actually make them change their views.
259
818520
2920
то це може змінити їхні погляди.
Гаразд.
13:42
OK.
260
822400
1200
Що ж все це означає?
13:44
So what does it all mean?
261
824760
1656
13:46
What do I think is going on here?
262
826440
2416
Що ж тут відбувається?
13:48
So first of all,
263
828880
1216
Перш за все,
13:50
a lot of what we call self-knowledge is actually self-interpretation.
264
830120
4856
те, що ми звемо самопізнанням, фактично виявляється самоінтерпретацією.
Я роблю вибір,
13:55
So I see myself make a choice,
265
835000
2496
13:57
and then when I'm asked why,
266
837520
2776
а коли мене запитують чому,
14:00
I just try to make as much sense of it as possible
267
840320
2536
я просто намагаюсь надати цьому якомога більшого смислу,
14:02
when I make an explanation.
268
842880
1936
коли даю пояснення.
14:04
But we do this so quickly and with such ease
269
844840
3016
Але ми робимо це так швидко і з такою легкістю,
14:07
that we think we actually know the answer when we answer why.
270
847880
4280
що думаємо, що знаємо відповідь, коли відповідаємо чому.
І оскільки це інтерпретація,
14:13
And as it is an interpretation,
271
853040
3096
14:16
of course we sometimes make mistakes.
272
856160
2296
то, зрозуміло, іноді ми робимо помилки.
14:18
The same way we make mistakes when we try to understand other people.
273
858480
3520
Так само ми помиляємося, коли намагаємось зрозуміти інших людей.
14:23
So beware when you ask people the question "why"
274
863160
3696
Тож будьте обережними, коли питаєте людей: "чому",
14:26
because what may happen is that, if you asked them,
275
866880
4896
оскільки, коли ви запитаєте їх:
14:31
"So why do you support this issue?"
276
871800
4016
"Чому ж ви підтримуєте це питання?"
14:35
"Why do you stay in this job or this relationship?" --
277
875840
3216
"Чому хочете залишитись на цій роботі чи продовжити ці стосунки?" —
14:39
what may happen when you ask why is that you actually create an attitude
278
879080
3416
то може статися, що ви спровокуєте створення такого стану справ,
14:42
that wasn't there before you asked the question.
279
882520
2240
якого не існувало до вашого питання.
А ще це важливо для вашого професійного життя,
14:45
And this is of course important in your professional life, as well,
280
885440
3176
14:48
or it could be.
281
888640
1216
або, можливо, буде важливо.
14:49
If, say, you design something and then you ask people,
282
889880
2536
Якщо, скажімо, ви спроектуєте щось і потім спитаєте людей,
14:52
"Why do you think this is good or bad?"
283
892440
2256
"Як ви думаєте, це гарно чи погано"?
14:54
Or if you're a journalist asking a politician,
284
894720
3056
Або якщо ви журналіст і запитуєте політика:
14:57
"So, why did you make this decision?"
285
897800
2376
"Чому ви прийняли це рішення?"
15:00
Or if indeed you are a politician
286
900200
1936
Чи якщо ви політик
15:02
and try to explain why a certain decision was made.
287
902160
2640
і намагаєтесь пояснити, чому було прийнято певне рішення.
15:06
So this may all seem a bit disturbing.
288
906080
3576
Усе це вселяє занепокоєння.
15:09
But if you want to look at it from a positive direction,
289
909680
3496
Але, якщо ви хочете поглянути на позитивний результат,
15:13
it could be seen as showing,
290
913200
1736
то його можна інтерпретувати так:
15:14
OK, so we're actually a little bit more flexible than we think.
291
914960
3376
гаразд, можливо, наш розум більш гнучкий, ніж ми вважали.
15:18
We can change our minds.
292
918360
1896
Ми можемо змінити нашу думку.
15:20
Our attitudes are not set in stone.
293
920280
2456
Наша думка не висічена на камені.
15:22
And we can also change the minds of others,
294
922760
3176
І ми також можемо змінити думку інших людей,
15:25
if we can only get them to engage with the issue
295
925960
2376
якщо тільки залучимо їх до проблеми
15:28
and see it from the opposite view.
296
928360
1680
і покажемо її з протилежного боку.
15:31
And in my own personal life, since starting with this research --
297
931400
3936
В своєму власному житті, з початку цих досліджень —
15:35
So my partner and I, we've always had the rule
298
935360
2576
ми з моєю половинкою завжди мали за правило,
15:37
that you're allowed to take things back.
299
937960
2296
що нам дозволено повертатися до початкової думки.
15:40
Just because I said I liked something a year ago,
300
940280
2336
Як я казав, якщо мені щось подобалось рік тому,
15:42
doesn't mean I have to like it still.
301
942640
2040
то це не означає, що я завжди маю це любити
І якщо відкинути потребу бути стабільним,
15:45
And getting rid of the need to stay consistent
302
945480
2816
15:48
is actually a huge relief and makes relational life so mush easier to live.
303
948320
4360
то ми отримуємо велике полегшення та робимо життя у відносинах легшим.
Тож висновок має бути таким:
15:53
Anyway, so the conclusion must be:
304
953720
2360
знай, що ти не знаєш самого себе.
15:57
know that you don't know yourself.
305
957320
2496
15:59
Or at least not as well as you think you do.
306
959840
2320
Чи, принаймні, не так добре, як тобі здається.
Дякую.
16:03
Thanks.
307
963480
1216
16:04
(Applause)
308
964720
4640
(Оплески)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7