Do politics make us irrational? - Jay Van Bavel

531,335 views ・ 2020-02-04

TED-Ed


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Ростислав Голод Редактор: Anna Kotova
00:06
In 2013, a team of researchers held a math test.
0
6805
5056
В 2013 году группа учёных разработала тест по математике.
00:11
The exam was administered to over 1,100 American adults,
1
11861
4050
Экзамен проводился среди более 1 100 взрослых американцев,
00:15
and designed, in part, to test their ability to evaluate sets of data.
2
15911
5683
и одной из его целей было проверить их способности к оценке наборов данных.
00:21
Hidden among these math problems were two almost identical questions.
3
21594
5200
Среди математических задач были зашифрованы два одинаковых вопроса.
00:26
Both problems used the same difficult data set,
4
26794
3040
В обеих задачах приводилась группа данных одинаковой сложности
00:29
and each had one objectively correct answer.
5
29834
3836
и существовал лишь один объективно правильный ответ.
00:33
The first asked about the correlation between rashes and a new skin cream.
6
33670
5032
В первой задаче требовалось установить
взаимосвязь между случаями кожной сыпи и новым кремом.
00:38
The second asked about the correlation between crime rates
7
38702
3678
Во второй — зависимость уровня преступности
00:42
and gun control legislation.
8
42380
2690
от контроля над оружием.
00:45
Participants with strong math skills
9
45070
2410
Участники, хорошо разбирающиеся в математике,
00:47
were much more likely to get the first question correct.
10
47480
4030
обычно правильно отвечали на первый вопрос.
00:51
But despite being mathematically identical,
11
51510
3170
Однако, несмотря на схожесть с математической точки зрения,
00:54
the results for the second question looked totally different.
12
54680
4242
второй вопрос показал совершенно иные результаты.
00:58
Here, math skills weren’t the best predictor
13
58922
3031
В данном случае знания математики мало помогали в прогнозировании того,
01:01
of which participants answered correctly.
14
61953
2899
кто даст правильный ответ.
01:04
Instead, another variable the researchers had been tracking came into play:
15
64852
5222
На процессе решения сказывалась одна переменная, которую исследовали учёные, —
01:10
political identity.
16
70074
2460
политическое сознание.
01:12
Participants whose political beliefs
17
72534
2018
Участники, чьи политические взгляды
01:14
aligned with a correct interpretation of the data
18
74552
2920
соответствовали верной интерпретации данных,
01:17
were far more likely to answer the problem right.
19
77472
3490
с бо́льшей долей вероятности решали задачу правильно.
01:20
Even the study’s top mathematicians
20
80962
2520
Но даже у самых лучших математиков
01:23
were 45% more likely to get the second question wrong
21
83482
4680
вероятность ошибки в ответе на второй вопрос была выше на 45%,
01:28
when the correct answer challenged their political beliefs.
22
88162
4103
когда правильный ответ не совпадал с их политическими взглядами.
01:32
What is it about politics that inspires this kind of illogical error?
23
92265
5774
Почему же политические убеждения способны приводить к подобным логическим ошибкам?
01:38
Can someone’s political identity actually affect their ability
24
98039
3880
Может ли политическое сознание влиять на способность человека
01:41
to process information?
25
101919
2067
анализировать информацию?
01:43
The answer lies in a cognitive phenomenon
26
103986
2450
Ответ кроется в явлении, связанном с процессом познания
01:46
that has become increasingly visible in public life: partisanship.
27
106436
5510
и ставшем весьма заметным в общественной жизни, — пристрастности.
01:51
While it’s often invoked in the context of politics,
28
111946
3192
И хотя она часто возникает в контексте политики,
01:55
partisanship is more broadly defined as a strong preference or bias
29
115138
4945
пристрастность определяется шире как сильная приверженность или предвзятость
02:00
towards any particular group or idea.
30
120083
3320
по отношению к определённой группе или идее.
02:03
Our political, ethnic, religious, and national identities
31
123403
4060
Наши политические, этнические, религиозные и национальные принадлежности —
02:07
are all different forms of partisanship.
32
127463
2991
по сути, различные формы пристрастности.
02:10
Of course, identifying with social groups
33
130454
2762
Вне всякого сомнения, принадлежность к социальным группам
02:13
is an essential and healthy part of human life.
34
133216
3550
является неотъемлемой и нормальной частью человеческой жизни.
02:16
Our sense of self is defined not only by who we are as individuals,
35
136766
4270
Чувство собственного «Я» определяется не только нашими личностными чертами,
02:21
but also by the groups we belong to.
36
141036
2440
но также теми группами, к которым мы принадлежим.
02:23
As a result, we’re strongly motivated to defend our group identities,
37
143476
5006
Как следствие, мы очень стремимся отстаивать наши групповые принадлежности,
02:28
protecting both our sense of self and our social communities.
38
148482
4130
обороняя как чувство собственного «Я», так и социальные группы.
02:32
But this becomes a problem when the group’s beliefs
39
152612
2704
Однако сложности возникают, когда взгляды группы
02:35
are at odds with reality.
40
155316
2183
входят в конфликт с реальностью.
02:37
Imagine watching your favorite sports team commit a serious foul.
41
157499
3997
Представьте себе, что ваша любимая команда допустила серьёзное нарушение правил.
02:41
You know that’s against the rules,
42
161496
1840
Вы знаете, что это противоречит правилам,
02:43
but your fellow fans think it’s totally acceptable.
43
163336
3300
однако другие болельщики считают такие действия допустимыми.
02:46
The tension between these two incompatible thoughts
44
166636
3090
Психический дискомфорт, возникающий от столкновения двух несовместимых мыслей,
02:49
is called cognitive dissonance,
45
169726
2363
называется когнитивный диссонанс,
02:52
and most people are driven to resolve this uncomfortable state of limbo.
46
172089
5091
и большинство людей стремится разрешить это неудобное состояние неопределённости.
02:57
You might start to blame the referee, complain that the other team started it,
47
177180
4510
Можно обвинить во всём судью,
команду противников, мол, «они первыми начали»;
03:01
or even convince yourself there was no foul in the first place.
48
181690
4316
или даже убедить себя, что на самом деле не было никаких нарушений.
03:06
In a case like this,
49
186006
1304
В последнем случае
03:07
people are often more motivated to maintain a positive relationship
50
187310
4209
люди зачастую поступают так из-за стремления сохранять хорошие отношения
03:11
with their group than perceive the world accurately.
51
191519
4180
со своей группой в ущерб адекватному мировосприятию.
03:15
This behavior is especially dangerous in politics.
52
195699
3698
В политике такое поведение проявляется наиболее опасным образом.
03:19
On an individual scale,
53
199397
1682
На уровне личности принадлежность к какой-либо партии
03:21
allegiance to a party allows people to create a political identity
54
201079
4000
формирует в людях политическое сознание,
03:25
and support policies they agree with.
55
205079
2589
поддерживающее идеи, с которыми они согласны.
03:27
But partisan-based cognitive dissonance can lead people to reject evidence
56
207668
4741
Однако основанный на пристрастности когнитивный диссонанс
заставляет их не верить доказательствам,
03:32
that’s inconsistent with the party line or discredits party leaders.
57
212409
4719
которые противоречат доктрине партии или дискредитируют её руководителей.
03:37
And when entire groups of people revise the facts in service of partisan beliefs,
58
217128
5452
А когда целые группы людей представляют факты в угоду партийным взглядам,
03:42
it can lead to policies that aren’t grounded in truth or reason.
59
222580
5182
принимаются политические меры,
которые не основываются на правде или здравом смысле.
03:47
This problem isn’t new—
60
227762
1850
Данная проблема отнюдь не нова —
03:49
political identities have been around for centuries.
61
229612
2707
политическое сознание существовало на протяжении многих веков.
03:52
But studies show that partisan polarization
62
232319
2840
Однако согласно исследованиям, политическая пристрастность
03:55
has increased dramatically in the last few decades.
63
235159
3240
резко обострилась за последние несколько десятилетий.
03:58
One theory explaining this increase
64
238399
2304
Согласно одной теории, это объясняется
04:00
is the trend towards clustering geographically in like-minded communities.
65
240703
5099
тенденцией к географической сплочённости внутри схожих по мировоззрению сообществ.
04:05
Another is the growing tendency to rely on partisan news
66
245802
3630
Согласно другой теории, всему виной то, что мы всё больше полагаемся
на партийно ангажированные новости
04:09
or social media bubbles.
67
249432
2228
или новости обособленных сообществ в социальных сетях.
04:11
These often act like echo chambers,
68
251660
2470
Всё это действует как своего рода эхо-камеры,
04:14
delivering news and ideas from people with similar views.
69
254130
4400
пропускающие новости и идеи только от единомышленников.
04:18
Fortunately, cognitive scientists have uncovered some strategies
70
258530
4212
Однако учёные-когнитивисты обнаружили несколько стратегий
04:22
for resisting this distortion filter.
71
262742
2837
сопротивления данному фильтру искажения реальности.
04:25
One is to remember that you’re probably more biased than you think.
72
265579
4585
Одна из них — помнить, что ваше мнение,
скорее всего, более предвзято, чем вам кажется.
04:30
So when you encounter new information,
73
270164
2040
Поэтому, когда вам встретится новая информация,
04:32
make a deliberate effort to push through your initial intuition
74
272204
3806
целенаправленно постарайтесь не доверять первоначальным интуитивным ощущениям,
04:36
and evaluate it analytically.
75
276010
2340
а всесторонне оценить её.
04:38
In your own groups, try to make fact-checking and questioning assumptions
76
278350
4560
В ваших группах возьмите себе за обязательное правило
проверять факты и сомневаться в предположениях.
04:42
a valued part of the culture.
77
282910
2546
04:45
Warning people that they might have been presented with misinformation
78
285456
3427
Также нелишним будет предупреждать людей о том,
04:48
can also help.
79
288883
1510
что им могли подсунуть дезинформацию.
04:50
And when you’re trying to persuade someone else,
80
290393
2540
А когда стараетесь убедить кого-то,
04:52
affirming their values and framing the issue in their language
81
292933
4180
признавайте их ценности
и старайтесь изложить проблему в привычных для них формулировках:
04:57
can help make people more receptive.
82
297113
3261
возможно, так люди будут более открыты к восприятию.
05:00
We still have a long way to go before solving the problem of partisanship.
83
300374
4687
Нам предстоит ещё немало сделать для решения проблемы пристрастности.
05:05
But hopefully, these tools can help keep us better informed,
84
305061
3340
Остаётся надеяться, что благодаря этим инструментам мы будем лучше информированы
05:08
and capable of making evidence-based decisions about our shared reality.
85
308401
4817
и сможем в общей для всех реальности принимать обоснованные решения.
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7