Do politics make us irrational? - Jay Van Bavel

531,335 views ・ 2020-02-04

TED-Ed


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: 검토: DK Kim
00:06
In 2013, a team of researchers held a math test.
0
6805
5056
2013년에 한 연구 팀이 수학 시험을 실시했습니다.
00:11
The exam was administered to over 1,100 American adults,
1
11861
4050
그 시험은 성인 미국인 천백 명 이상을 대상으로 하였으며
00:15
and designed, in part, to test their ability to evaluate sets of data.
2
15911
5683
자료 집합을 평가하는 능력을 시험하려고 고안되었습니다.
00:21
Hidden among these math problems were two almost identical questions.
3
21594
5200
이 수학 문제들에는 거의 동일한 문제 두 개가 숨겨져 있었습니다.
00:26
Both problems used the same difficult data set,
4
26794
3040
그 문제들은 똑같이 어려운 자료 집합을 사용했고
00:29
and each had one objectively correct answer.
5
29834
3836
각각 객관적으로 정확한 답이 있었습니다.
00:33
The first asked about the correlation between rashes and a new skin cream.
6
33670
5032
첫 번째 문제는 발진과 새로운 피부용 크림의 연관성에 대한 것입니다.
00:38
The second asked about the correlation between crime rates
7
38702
3678
두 번째는 범죄율과 총기 규제법의 연관성에 대한 문제였습니다.
00:42
and gun control legislation.
8
42380
2690
00:45
Participants with strong math skills
9
45070
2410
수학 능력이 뛰어난 참가자들은
00:47
were much more likely to get the first question correct.
10
47480
4030
첫 번째 문제를 정확하게 맞힐 가능성이 훨씬 더 높았습니다.
00:51
But despite being mathematically identical,
11
51510
3170
하지만 수학적으로 동일함에도 불구하고
00:54
the results for the second question looked totally different.
12
54680
4242
두 번째 문제의 결과는 완전히 달라 보였습니다.
00:58
Here, math skills weren’t the best predictor
13
58922
3031
여기서 수학 능력은 참가자들이 정확하게 답변할지에 대한
01:01
of which participants answered correctly.
14
61953
2899
최고의 예측 변수가 아니었습니다.
01:04
Instead, another variable the researchers had been tracking came into play:
15
64852
5222
대신 연구원들이 추적해 온 또 다른 변수가 작용했습니다.
01:10
political identity.
16
70074
2460
바로 정치성향입니다.
01:12
Participants whose political beliefs
17
72534
2018
정확한 자료 해석에 따른 정치적 신념이 있는 참가자들은
01:14
aligned with a correct interpretation of the data
18
74552
2920
01:17
were far more likely to answer the problem right.
19
77472
3490
답이 훨씬 더 정확했습니다.
01:20
Even the study’s top mathematicians
20
80962
2520
연구에서 최고의 성적을 거둔 사람들조차
01:23
were 45% more likely to get the second question wrong
21
83482
4680
정답이 그들의 정치적 신념에 반할 때는
01:28
when the correct answer challenged their political beliefs.
22
88162
4103
두 번째 문제를 틀린 경우가 45% 더 많았습니다.
01:32
What is it about politics that inspires this kind of illogical error?
23
92265
5774
정치의 어떤 면이 이런 비논리적인 오류를 부추기는 것일까요?
01:38
Can someone’s political identity actually affect their ability
24
98039
3880
누군가의 정치성향이 정보 처리 능력에 실제로 영향을 줄까요?
01:41
to process information?
25
101919
2067
01:43
The answer lies in a cognitive phenomenon
26
103986
2450
답은 공적인 삶에서 점점 더 뚜렷해지는 인식 현상에 있습니다.
01:46
that has become increasingly visible in public life: partisanship.
27
106436
5510
바로 당파주의입니다.
01:51
While it’s often invoked in the context of politics,
28
111946
3192
대개 정치적 맥락에서 나타나지만
01:55
partisanship is more broadly defined as a strong preference or bias
29
115138
4945
더 넓게보면 당파주의는 특정 집단이나 생각에 대한
02:00
towards any particular group or idea.
30
120083
3320
강한 선호나 편견으로 정의됩니다.
02:03
Our political, ethnic, religious, and national identities
31
123403
4060
정치적, 민족적, 종교적 그리고 국가적 정체성은
02:07
are all different forms of partisanship.
32
127463
2991
모두 당파주의의 형태들입니다.
02:10
Of course, identifying with social groups
33
130454
2762
물론 사회적인 집단을 구분하는 것은
02:13
is an essential and healthy part of human life.
34
133216
3550
생활의 필수적이고 건강한 부분입니다.
02:16
Our sense of self is defined not only by who we are as individuals,
35
136766
4270
자아 감각은 우리가 개인으로서 누구인가에 의해서만 정의되는 게 아니라
02:21
but also by the groups we belong to.
36
141036
2440
우리가 속하는 집단에 의해서도 정의됩니다.
02:23
As a result, we’re strongly motivated to defend our group identities,
37
143476
5006
결론적으로 우리는 집단 정체성을 지키고
02:28
protecting both our sense of self and our social communities.
38
148482
4130
자아와 공동체를 보호하려는 강한 동기를 갖게 되었습니다.
02:32
But this becomes a problem when the group’s beliefs
39
152612
2704
하지만 이것은 집단의 믿음이 현실과 대립할 때 문제가 됩니다.
02:35
are at odds with reality.
40
155316
2183
02:37
Imagine watching your favorite sports team commit a serious foul.
41
157499
3997
좋아하는 팀이 심각한 반칙을 범하는 것을 상상해보세요.
02:41
You know that’s against the rules,
42
161496
1840
그것이 규칙에 어긋나는 것은 알지만 팬들은 전혀 문제 없다고 생각합니다.
02:43
but your fellow fans think it’s totally acceptable.
43
163336
3300
02:46
The tension between these two incompatible thoughts
44
166636
3090
이 두 가지 공존할 수 없는 생각들 사이의 긴장감은
02:49
is called cognitive dissonance,
45
169726
2363
02:52
and most people are driven to resolve this uncomfortable state of limbo.
46
172089
5091
대부분 사람들은 이 불편하고 어중간한 상태를 벗어나려 합니다.
02:57
You might start to blame the referee, complain that the other team started it,
47
177180
4510
심판을 탓하거나 상대가 반칙을 시작했다고 불평하거나
03:01
or even convince yourself there was no foul in the first place.
48
181690
4316
애초에 반칙은 없었다고 자신을 속이기 시작할지도 모릅니다.
이와 같은 경우에는
03:06
In a case like this,
49
186006
1304
03:07
people are often more motivated to maintain a positive relationship
50
187310
4209
대개 세상을 정확히 인지하는 것보다
03:11
with their group than perceive the world accurately.
51
191519
4180
집단과 긍정적인 관계를 유지하려는 동기가 더 강합니다.
03:15
This behavior is especially dangerous in politics.
52
195699
3698
이 행동은 정치에서 특히 위험합니다.
03:19
On an individual scale,
53
199397
1682
개인적인 차원에서
정당에 대한 충성심은 정치성향을 창조하게 하고,
03:21
allegiance to a party allows people to create a political identity
54
201079
4000
03:25
and support policies they agree with.
55
205079
2589
동의하는 정책을 지지하게 합니다.
03:27
But partisan-based cognitive dissonance can lead people to reject evidence
56
207668
4741
그러나 당파성에서 나온 인지 부조화는 사람들이 당의 방침과 일치하지 않거나
03:32
that’s inconsistent with the party line or discredits party leaders.
57
212409
4719
정당 지도자들을 불신하는 증거를 거부하도록 만듭니다.
03:37
And when entire groups of people revise the facts in service of partisan beliefs,
58
217128
5452
그리고 집단 내의 모든 사람들이 당파적 신념을 위해 사실을 왜곡할 때
03:42
it can lead to policies that aren’t grounded in truth or reason.
59
222580
5182
진실이나 이성에 근거하지 않은 정책으로 이어질 수 있습니다.
03:47
This problem isn’t new—
60
227762
1850
이 문제는 새로운 것이 아니고 정치성향은 수세기 동안 존재했습니다.
03:49
political identities have been around for centuries.
61
229612
2707
03:52
But studies show that partisan polarization
62
232319
2840
하지만 연구를 보면 당파적 양극화는
03:55
has increased dramatically in the last few decades.
63
235159
3240
지난 수십 년 동안 극적으로 증가했습니다.
03:58
One theory explaining this increase
64
238399
2304
이 증가를 설명하는 이론 중 하나는
04:00
is the trend towards clustering geographically in like-minded communities.
65
240703
5099
비슷한 생각을 하는 공동체끼리 지리적으로 모이는 추세입니다.
04:05
Another is the growing tendency to rely on partisan news
66
245802
3630
다른 것은 당파 소식이나 편향된 소셜 미디어에
04:09
or social media bubbles.
67
249432
2228
의지하는 경향이 느는 것입니다.
04:11
These often act like echo chambers,
68
251660
2470
이는 종종 비슷한 관점을 가진 사람들로부터
04:14
delivering news and ideas from people with similar views.
69
254130
4400
오는 소식과 생각을 반복하는 메아리에 갇힌 것처럼 보입니다.
04:18
Fortunately, cognitive scientists have uncovered some strategies
70
258530
4212
다행히 인지과학자들은 이 왜곡 여과기에 저항하는
04:22
for resisting this distortion filter.
71
262742
2837
방법을 몇 가지 제안했습니다.
04:25
One is to remember that you’re probably more biased than you think.
72
265579
4585
첫째는 자신이 생각보다 더 편파적일지 모른다는 것을 인정하는 것입니다.
04:30
So when you encounter new information,
73
270164
2040
그러므로 새로운 정보를 접하면
04:32
make a deliberate effort to push through your initial intuition
74
272204
3806
처음의 직관을 밀고 나가고 그것을 분석적으로 평가하도록 노력하십시오.
04:36
and evaluate it analytically.
75
276010
2340
04:38
In your own groups, try to make fact-checking and questioning assumptions
76
278350
4560
여러분 자신의 집단에서
사실 확인과 가정 검토가 중요한 문화가 되도록 노력하십시오.
04:42
a valued part of the culture.
77
282910
2546
04:45
Warning people that they might have been presented with misinformation
78
285456
3427
잘못된 정보일 수도 있다고 사람들에게 경고하는 것도 도움이 됩니다.
04:48
can also help.
79
288883
1510
04:50
And when you’re trying to persuade someone else,
80
290393
2540
그리고 누군가를 설득하려 할 때
04:52
affirming their values and framing the issue in their language
81
292933
4180
그들의 가치를 긍정하고 그들의 언어로 문제를 표현하면
04:57
can help make people more receptive.
82
297113
3261
사람들을 조금 더 수용적으로 만들 수 있습니다.
05:00
We still have a long way to go before solving the problem of partisanship.
83
300374
4687
당파주의를 해결하기 위해서는 아직도 갈 길이 멉니다.
05:05
But hopefully, these tools can help keep us better informed,
84
305061
3340
하지만 이 도구들이 우리가 정보를 더 잘 알고
05:08
and capable of making evidence-based decisions about our shared reality.
85
308401
4817
공유하는 현실에 대한 증거에 기초한 결정을 할 수 있도록 돕길 바랍니다.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7