Do you really know why you do what you do? | Petter Johansson

189,870 views ・ 2018-03-27

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Nahyun Kim 검토: JY Kang
00:12
So why do you think the rich should pay more in taxes?
0
12800
3560
왜 부자는 세금을 더 많이 내야 한다고 생각하시나요?
00:16
Why did you buy the latest iPhone?
1
16400
2376
왜 최신 아이폰을 구입하셨죠?
00:18
Why did you pick your current partner?
2
18800
2456
현재의 배우자를 선택하신 이유는 뭔가요?
00:21
And why did so many people vote for Donald Trump?
3
21280
3416
왜 그렇게 많은 사람들이 도널드 트럼프에게 투표했을까요?
00:24
What were the reasons, why did they do it?
4
24720
2520
이유가 무엇이었을까요? 왜 그랬을까요?
00:27
So we ask this kind of question all the time,
5
27990
2106
우리는 항상 이런 질문들을 던지고
00:30
and we expect to get an answer.
6
30120
1736
그에 대한 답을 기대하기 마련입니다.
00:31
And when being asked, we expect ourselves to know the answer,
7
31880
3136
그리고 그런 질문을 받았을 때, 우리는 그 답을 알고 있다고 믿습니다.
00:35
to simply tell why we did as we did.
8
35040
2480
왜 그런 선택을 했는지 쉽게 대답해버리죠.
00:38
But do we really know why?
9
38440
1720
그런데 우리가 진짜로 그 이유를 알고 있는 걸까요?
00:41
So when you say that you prefer George Clooney to Tom Hanks,
10
41000
3456
여러분이 조지 클루니를 톰 행크스보다 더 좋아하는 이유가
00:44
due to his concern for the environment,
11
44479
2057
그가 환경에 관심이 많기 때문이라고 한다면
00:46
is that really true?
12
46560
1200
그게 진짜 이유일까요?
00:48
So you can be perfectly sincere and genuinely believe
13
48560
2496
여러분은 정말 진심으로 그렇게 믿을지 모릅니다.
00:51
that this is the reason that drives your choice,
14
51080
2936
그 이유로 그런 선택을 하게 되었다고 말이죠.
00:54
but to me, it may still feel like something is missing.
15
54040
2600
그런데 제가 보기에는 뭔가 간과한 부분이 있습니다.
00:57
As it stands, due to the nature of subjectivity,
16
57560
3176
다시 말하면, 인간의 주관적인 본질 때문에
01:00
it is actually very hard to ever prove that people are wrong about themselves.
17
60760
4320
사람들은 자기 자신의 잘못된 점을 짚어내기는 상당히 어렵죠.
01:06
So I'm an experimental psychologist,
18
66600
2136
저는 실험 심리학자 입니다.
01:08
and this is the problem we've been trying to solve in our lab.
19
68760
3536
저희 연구실은 바로 그 문제를 풀어보려고 연구해왔습니다.
01:12
So we wanted to create an experiment
20
72320
2176
그래서 저희는 한 가지 실험 방법을 고안해서
01:14
that would allow us to challenge what people say about themselves,
21
74520
3536
사람들이 자신의 선택에 대해 뭐라고 얘기하는지 알아보기로 했습니다.
01:18
regardless of how certain they may seem.
22
78080
2680
스스로 얼마나 확신하는지 상관없이 말이죠.
01:21
But tricking people about their own mind is hard.
23
81960
2736
사람의 마음을 속이는 것은 어렵죠.
01:24
So we turned to the professionals.
24
84720
2376
그래서 우리는 전문가로 위장했습니다.
01:27
The magicians.
25
87120
1200
마술사로 말이죠.
01:29
So they're experts at creating the illusion of a free choice.
26
89120
2896
그들은 자유로운 선택의 환상을 만드는 데 전문가들입니다.
01:32
So when they say, "Pick a card, any card,"
27
92040
2296
마술사가 아무 카드나 한 장 고르라고 하면
01:34
the only thing you know is that your choice is no longer free.
28
94360
2920
자신의 선택이 자유롭지 않다는 것만 알게 됩니다.
01:38
So we had a few fantastic brainstorming sessions
29
98200
2376
그래서 우리는 몇 차례 아이디어 회의를 가지며
01:40
with a group of Swedish magicians,
30
100600
1856
스웨덴 마술사 단체를 만났습니다.
01:42
and they helped us create a method
31
102480
1642
그들 도움으로 고안한 실험 방법은
01:44
in which we would be able to manipulate the outcome of people's choices.
32
104147
3973
사람들이 선택한 카드를 바꿔치기 하는 것이었습니다.
01:48
This way we would know when people are wrong about themselves,
33
108760
2936
그러면 우리는 사람들이 자신의 선택과 다르다는 걸 인지할 때를 알 수 있습니다.
01:51
even if they don't know this themselves.
34
111720
2040
왜 그렇게 됐는지 자신을 모르지만 말이죠.
01:54
So I will now show you a short movie showing this manipulation.
35
114480
4656
이제 그 바꿔치기를 하는 영상 하나를 보여드릴 건데요.
01:59
So it's quite simple.
36
119160
1416
꽤 간단합니다.
02:00
The participants make a choice,
37
120600
2136
참가자들은 일단 선택을 합니다.
02:02
but I end up giving them the opposite.
38
122760
2256
그리고 저는 그들에게 반대의 것을 보여줍니다.
02:05
And then we want to see: How did they react, and what did they say?
39
125040
3520
그때 그들이 어떻게 반응하고 어떤 말을 하는지 관찰하는 거죠.
02:09
So it's quite simple, but see if you can spot the magic going on.
40
129240
3160
간단하지만, 이게 마술이라는 걸 눈치챌 수 있는지 한번 보세요.
02:13
And this was shot with real participants, they don't know what's going on.
41
133440
3520
실제 참가자들을 촬영한 것인데요. 그들은 어떤 상황인지 전혀 모릅니다.
02:19
(Video) Petter Johansson: Hi, my name's Petter.
42
139000
2216
피터 : 안녕하세요. 저는 피터입니다. 여자 : 안녕하세요. 베카예요.
02:21
Woman: Hi, I'm Becka.
43
141240
1215
피터 : 제가 이런 사진을 몇 장 보여드릴 건데요.
02:22
PJ: I'm going to show you pictures like this.
44
142479
2137
02:24
And you'll have to decide which one you find more attractive.
45
144640
2896
이 중에 더 매력적이라고 생각하시는 사진을 고르시면 됩니다.
02:27
Becka: OK.
46
147560
1216
베카 : 네
02:28
PJ: And then sometimes, I will ask you why you prefer that face.
47
148800
3176
피터 : 그리고 도중에 왜 그 사진이 맘에 들었는지 여쭤볼 겁니다.
베카 : 네.
02:32
Becka: OK.
48
152000
1216
피터: 준비되셨나요? 베카: 네.
02:33
PJ: Ready? Becka: Yeah.
49
153240
1200
02:43
PJ: Why did you prefer that one?
50
163120
1816
피터: 왜 그 사진을 고르셨죠?
02:44
Becka: The smile, I think.
51
164960
1496
베카: 웃는 얼굴이라서요, 제 생각에는요.
02:46
PJ: Smile.
52
166480
1200
피터: 웃는 얼굴이요.
02:52
Man: One on the left.
53
172400
1240
남자: 왼쪽 사진이요.
02:57
Again, this one just struck me.
54
177520
1640
다시요, 저는 이쪽이 끌리네요.
02:59
Interesting shot.
55
179760
1616
재밌는 사진이에요.
03:01
Since I'm a photographer, I like the way it's lit and looks.
56
181400
3000
제가 사진작가인데, 빛이 이렇게 비춰 보이는 사진을 좋아해요.
03:06
Petter Johansson: But now comes the trick.
57
186280
2040
피터: 이제부터 속임수에 들어갑니다.
03:10
(Video) Woman 1: This one.
58
190120
1280
여자: 이거요.
03:16
PJ: So they get the opposite of their choice.
59
196240
2280
피터: 이제 선택한 것의 반대편 사진을 받게 되죠.
03:20
And let's see what happens.
60
200520
1600
이제 어떻게 되는지 봅시다.
03:28
Woman 2: Um ...
61
208240
1200
여자: 음...
03:35
I think he seems a little more innocent than the other guy.
62
215760
2800
제 생각엔 이 사람이 다른쪽 사람보다 약간 더 순수해 보이는 것 같아요.
03:45
Man: The one on the left.
63
225360
1240
남자: 왼쪽 사진이요.
03:49
I like her smile and contour of the nose and face.
64
229280
3696
저는 이 여자분의 미소와 코와 얼굴 윤곽이 마음에 들었어요.
03:53
So it's a little more interesting to me, and her haircut.
65
233000
2760
저한테는 이게 좀 더 흥미롭고, 그 머리 스타일이 좋네요.
04:00
Woman 3: This one.
66
240040
1200
여자: 이거요.
04:03
I like the smirky look better.
67
243520
1576
깐죽거리는 모습이 더 보기 좋네요.
04:05
PJ: You like the smirky look better?
68
245120
2000
피터: 깐죽거리는 모습이 더 좋아 보인다고요?
04:09
(Laughter)
69
249680
3176
(웃음)
04:12
Woman 3: This one.
70
252880
1200
여자: 이거요.
04:15
PJ: What made you choose him?
71
255280
1400
피터: 어떤 점 때문에 그를 선택하셨나요?
04:17
Woman 3: I don't know, he looks a little bit like the Hobbit.
72
257520
2896
여자: 글쎄요, 그냥 약간 호빗을 닮은 거 같아서요.
04:20
(Laughter)
73
260440
2056
(웃음)
04:22
PJ: And what happens in the end
74
262520
1496
피터: 마지막에 이 실험에 대해 사실대로 얘기했을 때
04:24
when I tell them the true nature of the experiment?
75
264040
3096
어떤 일이 벌어졌을까요?
04:27
Yeah, that's it. I just have to ask a few questions.
76
267160
2456
네, 여기까지 입니다. 몇 가지 질문이 있는데요.
04:29
Man: Sure.
77
269640
1216
남자: 네.
04:30
PJ: What did you think of this experiment, was it easy or hard?
78
270880
2976
피터: 이 실험 어떠셨나요? 어려웠나요, 아니면 쉬웠나요?
04:33
Man: It was easy.
79
273880
1240
남자: 쉬웠습니다.
04:36
PJ: During the experiments,
80
276040
1336
피터: 실험을 하면서
04:37
I actually switched the pictures three times.
81
277400
3336
사실은 제가 세번이나 사진을 바꿔서 보여드렸습니다.
04:40
Was this anything you noticed?
82
280760
1576
눈치채셨나요?
04:42
Man: No. I didn't notice any of that.
83
282360
1816
남자: 아니요, 전혀 몰랐어요.
04:44
PJ: Not at all? Man: No.
84
284200
1496
피터: 전혀요? 남자: 전혀요.
04:45
Switching the pictures as far as ...
85
285720
2096
사진을 바꿨으리라고는...
04:47
PJ: Yeah, you were pointing at one of them but I actually gave you the opposite.
86
287840
3816
피터: 네, 당신이 선택한 사진의 반대쪽 사진을 드렸죠.
04:51
Man: The opposite one. OK, when you --
87
291680
1816
남자: 반대쪽 사진이라고요. 그렇군요.
04:53
No. Shows you how much my attention span was.
88
293520
2256
몰랐어요. 제 집중력이 얼마나 가는지 보는 거군요.
04:55
(Laughter)
89
295800
1520
(웃음)
04:58
PJ: Did you notice that sometimes during the experiment
90
298880
3016
피터: 실험을 진행하면서 제가 때때로
05:01
I switched the pictures?
91
301920
2136
사진을 바꿨다는 것을 눈치챘나요?
05:04
Woman 2: No, I did not notice that.
92
304080
2016
여자: 아니요, 알아채지 못했습니다.
05:06
PJ: You were pointing at one, but then I gave you the other one.
93
306120
3000
피터: 당신이 선택한 사진 말고 다른 사진을 드렸어요.
05:09
No inclination of that happening?
94
309920
1616
그런 줄 알아채셨나요?
05:11
Woman 2: No.
95
311560
1576
여자: 아니요.
05:13
Woman 2: I did not notice.
96
313160
1256
전혀 몰랐어요.
05:14
(Laughs)
97
314440
1936
(웃음)
05:16
PJ: Thank you.
98
316400
1216
피터: 감사합니다.
05:17
Woman 2: Thank you.
99
317640
1376
여자: 감사합니다.
05:19
PJ: OK, so as you probably figured out now,
100
319040
2056
피터: 좋아요. 지금 보신 대로
05:21
the trick is that I have two cards in each hand,
101
321120
2256
카드를 한 손에 두 장씩 들고 있는 게 요령이죠.
05:23
and when I hand one of them over,
102
323400
1576
그리고 카드 하나를 건네주면
05:25
the black one kind of disappears into the black surface on the table.
103
325000
4360
검은 색 테이블 위에 놓인 검은 색 카드는 눈에 띄지 않습니다.
05:30
So using pictures like this,
104
330640
1736
이러한 사진을 이용하면
05:32
normally not more than 20 percent of the participants detect these tries.
105
332400
4376
대개 20%가 안되는 참가자만이 이 속임수를 알아챕니다.
05:36
And as you saw in the movie,
106
336800
1416
그리고 영상에서 보셨듯이
05:38
when in the end we explain what's going on,
107
338240
3176
마지막에 이 실험이 어떻게 진행되었는지 설명해주면
05:41
they're very surprised and often refuse to believe the trick has been made.
108
341440
4376
다들 놀라면서 그런 속임수가 있었다는 걸 믿지 않습니다.
05:45
So this shows that this effect is quite robust and a genuine effect.
109
345840
4776
즉 이것은 이 효과가 매우 강력하고 진실성있다는 것을 보여 줍니다.
05:50
But if you're interested in self-knowledge, as I am,
110
350640
2656
그러나 만약 여러분이 저처럼 자기 인식에 대해 관심이 많다면
05:53
the more interesting bit is,
111
353320
1336
가장 흥미로운 부분은
05:54
OK, so what did they say when they explained these choices?
112
354680
3936
사람들이 자신의 선택에 대해 어떻게 설명하는가에 관한 것입니다.
05:58
So we've done a lot of analysis
113
358640
1496
그래서 저희는 수많은 분석을 통해
06:00
of the verbal reports in these experiments.
114
360160
2080
실험에서 얻은 피실험자의 답변 내용을 살펴봤습니다.
06:03
And this graph simply shows
115
363360
2456
이 그래프로 간단히 알 수 있는 것은
06:05
that if you compare what they say in a manipulated trial
116
365840
4776
조작된 상황에서 답변한 것과 조작되지 않은 상황의 답변을 비교하면
06:10
with a nonmanipulated trial,
117
370640
1376
06:12
that is when they explain a normal choice they've made
118
372040
2776
피실험자의 일반적인 선택과
06:14
and one where we manipulated the outcome,
119
374840
2496
결과를 조작했을 때의 선택이
06:17
we find that they are remarkably similar.
120
377360
2456
매우 유사하다는 것을 알게 됩니다.
06:19
So they are just as emotional, just as specific,
121
379840
3056
즉 그들은 똑같이 감정적이고, 똑같이 구체적이고
06:22
and they are expressed with the same level of certainty.
122
382920
3200
그리고 그들은 동일한 수준의 정확도로 표현됩니다.
06:27
So the strong conclusion to draw from this
123
387120
2336
이 실험에서 얻은 확실한 결론은
06:29
is that if there are no differences
124
389480
2216
진짜 선택과 조작된 선택 사이에 차이가 없다면
06:31
between a real choice and a manipulated choice,
125
391720
3696
06:35
perhaps we make things up all the time.
126
395440
2440
우리는 항상 적당한 이유를 만들어낸다는 사실입니다.
06:38
But we've also done studies
127
398680
1336
그런데 저희는 다른 연구에서
06:40
where we try to match what they say with the actual faces.
128
400040
3016
실제 인물에 대해서는 어떤 설명을 하는지 봤습니다.
06:43
And then we find things like this.
129
403080
1880
그리고 다음과 같은 사실을 알았습니다.
06:45
So here, this male participant, he preferred the girl to the left,
130
405760
5056
이 실험에서 어느 남성 참가자는 왼쪽의 여성을 선호했지만
06:50
he ended up with the one to the right.
131
410840
1856
결국 오른쪽 여성과 만나게 됩니다.
06:52
And then, he explained his choice like this.
132
412720
2816
그러자 그는 자신이 선택한 여성에 대해 이렇게 설명했습니다.
06:55
"She is radiant.
133
415560
1296
"그녀는 빛나요.
06:56
I would rather have approached her at the bar than the other one.
134
416880
3096
바에서 봤다면 다른 사람이 아닌 그녀에게 다가갔을 거예요.
그리고 그녀 귀걸이가 좋아요."
07:00
And I like earrings."
135
420000
1616
07:01
And whatever made him choose the girl on the left to begin with,
136
421640
3496
처음에 그가 왼쪽의 여자를 고르게 된 이유가 뭐든
07:05
it can't have been the earrings,
137
425160
1576
귀걸이 때문은 절대 아닐 것입니다.
07:06
because they were actually sitting on the girl on the right.
138
426760
2856
실제로 귀걸이는 오른쪽의 여성만 했기 때문입니다.
07:09
So this is a clear example of a post hoc construction.
139
429640
3776
이는 명백한 인과 구조의 예입니다.
07:13
So they just explained the choice afterwards.
140
433440
2800
그들은 그저 이후의 선택에 대해 설명했습니다.
07:17
So what this experiment shows is,
141
437320
2296
즉 이 실험이 보여주는 것은
07:19
OK, so if we fail to detect that our choices have been changed,
142
439640
3656
만약 자신의 선택이 바뀌었음을 알아채지 못한다면
07:23
we will immediately start to explain them in another way.
143
443320
3200
우리는 즉시 다른 방법으로 그 선택을 설명하기 시작합니다.
07:27
And what we also found
144
447520
1256
또 하나 알게 된 것은
07:28
is that the participants often come to prefer the alternative,
145
448800
3216
때로는 참가자들이 바뀐 선택을 선호하게 되며
07:32
that they were led to believe they liked.
146
452040
2256
그게 좋다고 믿어버린다는 것입니다.
07:34
So if we let them do the choice again,
147
454320
2016
그래서 그들에게 다시 골라보라고 하면
07:36
they will now choose the face they had previously rejected.
148
456360
3760
이전 실험에서는 싫다고 했던 얼굴을 선택하게 되죠.
07:41
So this is the effect we call "choice blindness."
149
461520
2296
이러한 현상을 "선택맹"이라고 합니다.
07:43
And we've done a number of different studies --
150
463840
2216
그리고 우리는 수많은 다른 연구들을 진행했습니다.
07:46
we've tried consumer choices,
151
466080
2536
소비자들의 선택이나
07:48
choices based on taste and smell and even reasoning problems.
152
468640
4416
맛과 냄새에 의존한 선택, 심지어 상황 추론에 대해서도 연구했죠.
07:53
But what you all want to know is of course
153
473080
2056
그러나 물론 다들 알고 싶어 하는 것은
07:55
does this extend also to more complex, more meaningful choices?
154
475160
3936
이런 것들이 더욱 복잡하고 의미있는 선택으로까지 확산되냐는 것입니다.
07:59
Like those concerning moral and political issues.
155
479120
3080
예를 들면 도덕적이고 정치적인 문제를 고려해야 하는 경우 말이죠.
08:04
So the next experiment, it needs a little bit of a background.
156
484400
4216
그래서 다음 실험의 경우에는 배경 지식이 조금 필요합니다.
08:08
So in Sweden, the political landscape
157
488640
4256
스웨덴에서의 정치적인 지형은
08:12
is dominated by a left-wing and a right-wing coalition.
158
492920
3360
좌파와 우파 연합에 의해 좌우됩니다.
08:17
And the voters may move a little bit between the parties within each coalition,
159
497720
4416
유권자들은 각 정당들 사이에서 약간씩 움직일 것이지만
08:22
but there is very little movement between the coalitions.
160
502160
2760
그러나 움직임은 거의 없을 것입니다.
08:25
And before each elections,
161
505680
1976
그리고 선거 이전에는
08:27
the newspapers and the polling institutes
162
507680
4216
신문과 선거 기관이
08:31
put together what they call "an election compass"
163
511920
2616
"선거 나침반"이라는 것을 마련했고
08:34
which consists of a number of dividing issues
164
514560
3336
이것은 두 가지 연합 관계를 구분하는
08:37
that sort of separates the two coalitions.
165
517920
2336
많은 분열된 쟁점들로 구성되어 있습니다.
08:40
Things like if tax on gasoline should be increased
166
520280
3735
휘발유에 부과되는 세금을 증가시킬 것인가 하는 문제나
08:44
or if the 13 months of paid parental leave
167
524039
4096
또는 13개월의 유급 육아 휴직을
08:48
should be split equally between the two parents
168
528159
2496
두 부모에게 동등하게 분배함으로써
08:50
in order to increase gender equality.
169
530679
2721
양성 평등을 이룰 것인가 등의 문제죠.
08:54
So, before the last Swedish election,
170
534840
2216
그래서 지난 스웨덴 선거 이전에
08:57
we created an election compass of our own.
171
537080
2600
우리는 우리만의 선거 나침반을 만들었습니다.
09:00
So we walked up to people in the street
172
540480
2136
우리는 길에서 사람들에게 다가가서
09:02
and asked if they wanted to do a quick political survey.
173
542640
3336
간단한 정치 설문조사에 응해 줄 수 있는지 물었습니다.
09:06
So first we had them state their voting intention
174
546000
2456
우리는 먼저 두 정당 중에서 어디에 투표할지
09:08
between the two coalitions.
175
548480
1360
의사를 밝히도록 했습니다.
09:10
Then we asked them to answer 12 of these questions.
176
550560
3776
그 다음에 12개의 질문에 대답하도록 했습니다.
09:14
They would fill in their answers,
177
554360
1976
그들은 설문지에 답을 쓰면
09:16
and we would ask them to discuss,
178
556360
1616
그 답에 대해서 토론을 했죠.
09:18
so OK, why do you think tax on gas should be increased?
179
558000
5496
"왜 당신은 유류세를 올려야 한다고 생각하나요?" 같은 질문입니다.
09:23
And we'd go through the questions.
180
563520
2096
질문들이 끝나고 나면
09:25
Then we had a color coded template
181
565640
3896
색으로 구분할 수 있는 분석지에
09:29
that would allow us to tally their overall score.
182
569560
2936
사람들의 답변을 점수로 기록했습니다.
09:32
So this person would have one, two, three, four
183
572520
3456
이 사람의 경우는 1,2,3,4...
09:36
five, six, seven, eight, nine scores to the left,
184
576000
3296
5,6,7,8,9개가 죄축에 위치했네요.
09:39
so he would lean to the left, basically.
185
579320
2680
그래서 그는 기본적으로 좌편향일 것입니다.
09:42
And in the end, we also had them fill in their voting intention once more.
186
582800
4440
끝으로 그들이 다시 한 번 투표 의향을 밝히도록 했습니다.
09:48
But of course, there was also a trick involved.
187
588160
2280
물론, 여기에는 속임수가 있죠.
09:51
So first, we walked up to people,
188
591360
2176
맨 처음에 사람들에게 다가가서
09:53
we asked them about their voting intention
189
593560
2056
투표 의향를 물었죠.
09:55
and then when they started filling in,
190
595640
2256
그리고 그들이 답을 표시할 때
09:57
we would fill in a set of answers going in the opposite direction.
191
597920
5456
우리는 그 답과 반대로 표기헸습니다
10:03
We would put it under the notepad.
192
603400
2576
우리는 그것을 노트 뒤에 숨겨두었다가
10:06
And when we get the questionnaire,
193
606000
2776
우리가 설문지를 돌려받을 때
10:08
we would simply glue it on top of the participant's own answer.
194
608800
3320
참가자의 답변지 위에 그것을 붙였습니다.
10:16
So there, it's gone.
195
616000
1240
이렇게 바뀌었네요.
10:24
And then we would ask about each of the questions:
196
624280
2376
그 다음 각각 질문에 대해 물었습니다.
10:26
How did you reason here?
197
626680
1536
왜 이렇게 판단했냐고 물으면
10:28
And they'll state the reasons,
198
628240
1736
그들은 이유를 말할 것이고
10:30
together we will sum up their overall score.
199
630000
2480
우리는 전체 점수를 함께 요약합니다.
10:34
And in the end, they will state their voting intention again.
200
634800
3680
그리고 끝으로 그들은 투표 의향을 다시 얘기하게 되죠.
10:41
So what we find first of all here,
201
641960
1656
이 실험에서 알아낸 것은 무엇보다도
10:43
is that very few of these manipulations are detected.
202
643640
4216
이러한 속임수를 거의 알아채지 못한다는 것입니다.
10:47
And they're not detected in the sense that they realize,
203
647880
2656
속임수가 들켰다면 이렇게 얘기했겠죠.
10:50
"OK, you must have changed my answer,"
204
650560
1856
"당신이 내 답변을 바꾼 게 분명해요."
10:52
it was more the case that,
205
652440
1256
그런데 대부분 이렇게 말했습니다.
10:53
"OK, I must've misunderstood the question the first time I read it.
206
653720
3176
"처음 읽었을 때 그 문제를 오해했나 봐요.
10:56
Can I please change it?"
207
656920
1240
답을 바꿀 수 있을까요?"
10:59
And even if a few of these manipulations were changed,
208
659080
5136
그리고 속임수로 답을 몇 개만 바꾸었는데도
11:04
the overall majority was missed.
209
664240
2136
전체적으로 답변을 다시 바꾸었습니다.
11:06
So we managed to switch 90 percent of the participants' answers
210
666400
3656
그래서 우리는 참가자들이 처음 답변한 것의 90%를
11:10
from left to right, right to left, their overall profile.
211
670080
3160
왼쪽에서 오른쪽, 혹은 오른쪽에서 왼쪽으로 바꾸는 데 성공했죠.
11:14
And what happens then when they are asked to motivate their choices?
212
674800
4400
그들이 자신의 선택에 동기를 부여하도록 요청 받았을 땐 어떻게 되었을까요?
11:20
And here we find much more interesting verbal reports
213
680160
3056
이 실험에서 우리는 얼굴 실험의 경우보다
11:23
than compared to the faces.
214
683240
2016
훨씬 더 흥미로운 답변을 들을 수 있었습니다.
11:25
People say things like this, and I'll read it to you.
215
685280
3360
제가 사람들이 말했던 것을 읽어드리겠습니다.
11:29
So, "Large-scale governmental surveillance of email and internet traffic
216
689720
3736
"이메일과 인터넷에 대한 대규모 정부 감시는
11:33
ought to be permissible as means to combat international crime and terrorism."
217
693480
4336
국제 범죄와 테러에 대처하기 위한 수단으로 허용되어야 합니다."
11:37
"So you agree to some extent with this statement." "Yes."
218
697840
2716
"당신은 이 주장에 어느 정도는 동의하신다는 건가요?" "네."
11:40
"So how did you reason here?"
219
700580
1500
"동의하는 이유는 뭔가요?"
11:43
"Well, like, as it is so hard to get at international crime and terrorism,
220
703600
4936
"음, 예를 들어, 국제 범죄나 테러에 대처하는 것이 매우 어렵기 때문에
11:48
I think there should be those kinds of tools."
221
708560
2776
저는 그런 종류의 수단들이 있어야 한다고 생각해요."
11:51
And then the person remembers an argument from the newspaper in the morning.
222
711360
3616
그리고 나서 그 사람은 아침 신문에 실린 논평이 떠올랐나 봅니다.
11:55
"Like in the newspaper today,
223
715000
1616
"오늘 신문에 실린 것처럼
11:56
it said they can like, listen to mobile phones from prison,
224
716640
3376
만약 갱단의 지도자가 감옥 안에서도 범죄를 계속해서 저지르려고 한다면
12:00
if a gang leader tries to continue his crimes from inside.
225
720040
3536
사람들은 감옥에서 걸려오는 전화 내용을 감청하고 싶어하겠죠.
12:03
And I think it's madness that we have so little power
226
723600
2816
그리고 그걸 막을 힘이 없다는 것에 매우 화가 납니다.
12:06
that we can't stop those things
227
726440
1656
우리가 그럴 능력이 있는데도 범죄를 막지 못한다면 말이죠."
12:08
when we actually have the possibility to do so."
228
728120
2936
12:11
And then there's a little bit back and forth in the end:
229
731080
2696
마지막엔 약간 오락가락하고 있는데요.
12:13
"I don't like that they have access to everything I do,
230
733800
2576
"그들이 내가 하는 모든 일을 살피는 건 원치 않지만
그래도 장기적으로는 그럴 만한 가치가 있다고 생각합니다."
12:16
but I still think it's worth it in the long run."
231
736400
2576
12:19
So, if you didn't know that this person
232
739000
2536
만약 이 사람이 선택맹 실험에 참여했다는 걸 여러분이 몰랐다면
12:21
just took part in a choice blindness experiment,
233
741560
2256
12:23
I don't think you would question
234
743840
1856
이 사람의 정말 이런 견해를 가지고 있는지 의심하지 않았을 것입니다.
12:25
that this is the true attitude of that person.
235
745720
3120
12:29
And what happens in the end, with the voting intention?
236
749800
2856
투표 의향에는 결국 어떤 변화가 일어날까요?
12:32
What we find -- that one is also clearly affected by the questionnaire.
237
752680
4696
우리가 발견한 것은 설문지에 의해서도 영향을 받는다는 것입니다.
12:37
So we have 10 participants
238
757400
1736
결국 참가자 중에서 10명은
12:39
shifting from left to right or from right to left.
239
759160
2976
좌파에서 우파로, 우파에서 좌파로 바뀌도록 만들었고
12:42
We have another 19 that go from clear voting intention
240
762160
2536
또다른 19명의 참가자들에 대해서는
확고한 투표 의향을 어중간한 상태로 만들었죠.
12:44
to being uncertain.
241
764720
1456
12:46
Some go from being uncertain to clear voting intention.
242
766200
3096
그 중 일부는 어중간한 상태에서 확실한 투표 의향을 되찾았지만
12:49
And then there is a number of participants staying uncertain throughout.
243
769320
4736
많은 참가자들이 끝까지 불확실한 상태를 유지했습니다.
12:54
And that number is interesting
244
774080
1576
이 수치는 매우 흥미로운데요.
12:55
because if you look at what the polling institutes say
245
775680
4616
왜냐하면 선거 기관들이 조사한 결과를 보면
13:00
the closer you get to an election,
246
780320
1656
선거가 가까워지면 가까워질수록
13:02
the only people that are sort of in play
247
782000
2136
투표에 영향을 줄 사람들은
13:04
are the ones that are considered uncertain.
248
784160
2656
투표 의향이 불확실한 사람들이라고 합니다.
13:06
But we show there is a much larger number
249
786840
3216
그러나 우리는 훨씬 더 많은 사람들에 대해서
13:10
that would actually consider shifting their attitudes.
250
790080
2800
그들 입장을 실제로 바꿀 수 있다는 걸 보여드렸죠.
13:13
And here I must point out, of course, that you are not allowed to use this
251
793640
3496
물론 여기서 짚고 넘어가야 할 것은
이런 방법을 이용해서
13:17
as an actual method to change people's votes
252
797160
2616
선거 전에 사람들의 투표 의도를 바꾸는 일을 해서는 안됩니다.
13:19
before an election,
253
799800
1496
13:21
and we clearly debriefed them afterwards
254
801320
3616
그리고 저희는 참가자들에게 명확하게 설명을 드렸고
13:24
and gave them every opportunity to change back
255
804960
2296
그들이 처음 생각했던 것으로 다시 바꿀 수 있도록 했습니다.
13:27
to whatever they thought first.
256
807280
2480
13:30
But what this shows is that if you can get people
257
810600
2336
하지만 이것이 시사하는 바는
13:32
to see the opposite view and engage in a conversation with themselves,
258
812960
5536
만약 여러분이 사람들로 하여금 반대의 관점을 보게 하고
그들과 대화를 하게 할 수 있다면
13:38
that could actually make them change their views.
259
818520
2920
그들의 관점을 바꿀 수 있다는 것입니다.
13:42
OK.
260
822400
1200
결과적으로
13:44
So what does it all mean?
261
824760
1656
이 모든 것들은 무엇을 의미할까요?
13:46
What do I think is going on here?
262
826440
2416
제가 말하고 싶은 것은
13:48
So first of all,
263
828880
1216
첫 번째로
13:50
a lot of what we call self-knowledge is actually self-interpretation.
264
830120
4856
자기 인지라고 부르는 것의 대부분은 실제로 자기 이해라는 것입니다.
13:55
So I see myself make a choice,
265
835000
2496
스스로 선택을 하고
13:57
and then when I'm asked why,
266
837520
2776
그러고 나서 이유를 물었을 때
14:00
I just try to make as much sense of it as possible
267
840320
2536
우리는 그저 가능한 한 논리적으로 설명하고 대답하려고 노력할 뿐이죠.
14:02
when I make an explanation.
268
842880
1936
14:04
But we do this so quickly and with such ease
269
844840
3016
그러나 그 일은 매우 쉽고 빠르게 이루어집니다.
14:07
that we think we actually know the answer when we answer why.
270
847880
4280
마치 우리가 실제로 정답과 그 이유를 아는 것처럼 말이죠.
14:13
And as it is an interpretation,
271
853040
3096
그러나 그것은 해석에 불과하기에
14:16
of course we sometimes make mistakes.
272
856160
2296
우리는 가끔 실수를 합니다.
14:18
The same way we make mistakes when we try to understand other people.
273
858480
3520
다른 사람들을 이해하려고 노력할 때 실수를 하는 것과 같은 것이죠.
14:23
So beware when you ask people the question "why"
274
863160
3696
따라서 다른 사람들에게 "왜"라고 물을 때는 주의해야 합니다.
14:26
because what may happen is that, if you asked them,
275
866880
4896
왜냐하면 이런 질문을 하면 어떻게 될까요?
14:31
"So why do you support this issue?"
276
871800
4016
"왜 이 주장을 지지하나요?"
14:35
"Why do you stay in this job or this relationship?" --
277
875840
3216
"왜 그런 직업이나 그런 관계를 유지하나요?"
14:39
what may happen when you ask why is that you actually create an attitude
278
879080
3416
누군가에게 그 이유를 물으면
이런 질문 받기 전에는 없었던 태도를 만들어 내는 것입니다.
14:42
that wasn't there before you asked the question.
279
882520
2240
14:45
And this is of course important in your professional life, as well,
280
885440
3176
여러분의 직장 생활에서도 이 부분은 매우 중요합니다.
14:48
or it could be.
281
888640
1216
그럴 가능성이 있죠.
14:49
If, say, you design something and then you ask people,
282
889880
2536
여러분이 무언가를 계획하고 나서
14:52
"Why do you think this is good or bad?"
283
892440
2256
다른 사람들에게 이게 좋은지 혹은 나쁜지 물어본다거나
14:54
Or if you're a journalist asking a politician,
284
894720
3056
또는 만약 여러분이 기자라서
정치인에게 왜 그런 결정을 했는지 물어본다거나
14:57
"So, why did you make this decision?"
285
897800
2376
15:00
Or if indeed you are a politician
286
900200
1936
또는 여러분이 실제로 정치인이어서
15:02
and try to explain why a certain decision was made.
287
902160
2640
왜 그런 결정을 내렸는지 설명하려 할 수도 있습니다.
15:06
So this may all seem a bit disturbing.
288
906080
3576
그러면 이런 내용이 조금 거슬릴 수도 있겠죠.
15:09
But if you want to look at it from a positive direction,
289
909680
3496
그러나 긍정적인 측면에서 바라보면
15:13
it could be seen as showing,
290
913200
1736
보는 대로 보일 것입니다.
15:14
OK, so we're actually a little bit more flexible than we think.
291
914960
3376
우리는 생각 보다 훨씬 유연합니다.
15:18
We can change our minds.
292
918360
1896
스스로의 생각을 바꿀 수 있죠.
15:20
Our attitudes are not set in stone.
293
920280
2456
우리의 생각은 하나에 굳어 있지 않습니다.
15:22
And we can also change the minds of others,
294
922760
3176
우리는 타인의 생각 또한 바꿀 수 있습니다.
15:25
if we can only get them to engage with the issue
295
925960
2376
만약 그들을 어떤 문제에 관여하게 하고
15:28
and see it from the opposite view.
296
928360
1680
그것을 반대의 관점에서 보도록 한다면 말이죠.
15:31
And in my own personal life, since starting with this research --
297
931400
3936
그리고 제 개인적인 삶에서, 이 연구를 시작한 이후로..
15:35
So my partner and I, we've always had the rule
298
935360
2576
제 배우자와 저는 서로가 한 말을 취소할 수 있는 규칙을 정했습니다.
15:37
that you're allowed to take things back.
299
937960
2296
15:40
Just because I said I liked something a year ago,
300
940280
2336
몇 년 전에 제가 무언가를 좋아한다고 말했다고 해서
15:42
doesn't mean I have to like it still.
301
942640
2040
제가 그것을 아직 좋아한다는 것을 의미하지는 않습니다.
15:45
And getting rid of the need to stay consistent
302
945480
2816
그리고 일관성을 유지할 필요가 없다는 것은
15:48
is actually a huge relief and makes relational life so mush easier to live.
303
948320
4360
사실 큰 도움이 되고 삶을 살기 쉽게 만듭니다.
15:53
Anyway, so the conclusion must be:
304
953720
2360
어찌되었든, 결론은 이것입니다.
15:57
know that you don't know yourself.
305
957320
2496
스스로에 대해 잘 모른다는 사실을 알아야 한다는 것입니다.
15:59
Or at least not as well as you think you do.
306
959840
2320
아니면 생각보다 아는 게 별로 없다는 걸 알아야 하죠.
16:03
Thanks.
307
963480
1216
감사합니다.
16:04
(Applause)
308
964720
4640
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7