Do politics make us irrational? - Jay Van Bavel

531,335 views ・ 2020-02-04

TED-Ed


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Andrew Manziuk Утверджено: Anna Honcharenko
00:06
In 2013, a team of researchers held a math test.
0
6805
5056
У 2013 році команда дослідників розробила математичний тест.
00:11
The exam was administered to over 1,100 American adults,
1
11861
4050
На екзамені під наглядом знаходилось більше 1100 американців,
00:15
and designed, in part, to test their ability to evaluate sets of data.
2
15911
5683
це була розробка для тестування здатності оцінювати дані.
00:21
Hidden among these math problems were two almost identical questions.
3
21594
5200
Серед цих математичних задач було приховано два майже однакових питання.
00:26
Both problems used the same difficult data set,
4
26794
3040
Проблеми використовували однакові за складністю набори даних,
00:29
and each had one objectively correct answer.
5
29834
3836
та мали тільки одну об'єктивно правильну відповідь.
00:33
The first asked about the correlation between rashes and a new skin cream.
6
33670
5032
Перше запитання стосувалося кореляції між висипанням та новим кремом для шкіри.
00:38
The second asked about the correlation between crime rates
7
38702
3678
Друге було про кореляцію між кількістю злочинів
00:42
and gun control legislation.
8
42380
2690
та вільним носінням зброї.
00:45
Participants with strong math skills
9
45070
2410
Обізнані у математиці учасники
00:47
were much more likely to get the first question correct.
10
47480
4030
мали значно більші шанси обрати правильну відповідь у першому питанні.
00:51
But despite being mathematically identical,
11
51510
3170
Проте, попри математичну ідентичність завдань,
00:54
the results for the second question looked totally different.
12
54680
4242
результати для другого дуже сильно відрізнялися.
00:58
Here, math skills weren’t the best predictor
13
58922
3031
Тут, математичні здібності не допомагали найкраще передбачити
01:01
of which participants answered correctly.
14
61953
2899
правильну відповідь.
01:04
Instead, another variable the researchers had been tracking came into play:
15
64852
5222
У гру вступала інша змінна, яку визначили дослідники:
01:10
political identity.
16
70074
2460
політична ідентичність.
01:12
Participants whose political beliefs
17
72534
2018
Учасники, політичні переконання яких співпадали
01:14
aligned with a correct interpretation of the data
18
74552
2920
із правильною інтерпретацією даних,
01:17
were far more likely to answer the problem right.
19
77472
3490
зазвичай обирали правильну відповідь.
01:20
Even the study’s top mathematicians
20
80962
2520
Навіть найкращі математики
01:23
were 45% more likely to get the second question wrong
21
83482
4680
мали на 45% більший шанс відповісти неправильно,
01:28
when the correct answer challenged their political beliefs.
22
88162
4103
коли правильна відповідь не співпадала із їх політичними поглядами.
01:32
What is it about politics that inspires this kind of illogical error?
23
92265
5774
Яким же чином політика спричиняє настільки нелогічні помилки?
01:38
Can someone’s political identity actually affect their ability
24
98039
3880
Чи насправді політична ідентичність може так сильно впливати на здатність
01:41
to process information?
25
101919
2067
обробляти інформацію?
01:43
The answer lies in a cognitive phenomenon
26
103986
2450
Відповідь ховається у когнітивному феномені,
01:46
that has become increasingly visible in public life: partisanship.
27
106436
5510
котрий все частіше проявляється у житті суспільства: політична ангажованість.
01:51
While it’s often invoked in the context of politics,
28
111946
3192
Попри те, що ми часто чуємо цей термін у політичному контексті,
01:55
partisanship is more broadly defined as a strong preference or bias
29
115138
4945
він може стосуватися будь-якої ситуації, у якій присутнє упереджене ставлення
02:00
towards any particular group or idea.
30
120083
3320
до якоїсь групи чи ідеї.
02:03
Our political, ethnic, religious, and national identities
31
123403
4060
Наша політична, етнічна, релігійна та національна ідентичність
02:07
are all different forms of partisanship.
32
127463
2991
є різними формами політичної ангажованості.
02:10
Of course, identifying with social groups
33
130454
2762
Звісно, ідентифікація із соціальними групами
02:13
is an essential and healthy part of human life.
34
133216
3550
є важливою та цілком нормальною частиною життя людини.
02:16
Our sense of self is defined not only by who we are as individuals,
35
136766
4270
Наша самосвідомість формується не лише з особистих якостей,
02:21
but also by the groups we belong to.
36
141036
2440
але й з приналежності до різних груп.
02:23
As a result, we’re strongly motivated to defend our group identities,
37
143476
5006
Таким чином, ми схильні завжди захищати нашу групову ідентичність,
02:28
protecting both our sense of self and our social communities.
38
148482
4130
боронячи водночас себе та свою спільноту.
02:32
But this becomes a problem when the group’s beliefs
39
152612
2704
Проте це перетворюється на проблему, коли переконання групи
02:35
are at odds with reality.
40
155316
2183
не співпадають із реальністю.
02:37
Imagine watching your favorite sports team commit a serious foul.
41
157499
3997
Уявіть, що під час гри ваша улюблена спортивна команда грубо порушила правила.
02:41
You know that’s against the rules,
42
161496
1840
Ви знаєте, що це неправильно,
02:43
but your fellow fans think it’s totally acceptable.
43
163336
3300
проте ваші друзі-фанати вважають це цілком прийнятним.
02:46
The tension between these two incompatible thoughts
44
166636
3090
Несумісність цих двох протилежних думок
02:49
is called cognitive dissonance,
45
169726
2363
називають когнітивним дисонансом,
02:52
and most people are driven to resolve this uncomfortable state of limbo.
46
172089
5091
і більшість людей прагнуть якнайшвидше вийти із цього стану невизначеності.
02:57
You might start to blame the referee, complain that the other team started it,
47
177180
4510
Тож ви можете почати звинувачувати суддю, казати, що інша команда спровокувала вашу,
03:01
or even convince yourself there was no foul in the first place.
48
181690
4316
або навіть умовити себе, що жодного порушення не було.
03:06
In a case like this,
49
186006
1304
У подібних ситуаціях
03:07
people are often more motivated to maintain a positive relationship
50
187310
4209
люди часто є більш мотивованими зберігати гарні стосунки
03:11
with their group than perceive the world accurately.
51
191519
4180
зі своєю групою, аніж сприймати світ правильно.
03:15
This behavior is especially dangerous in politics.
52
195699
3698
Така поведінка є особливо небезпечною у політиці.
03:19
On an individual scale,
53
199397
1682
В індивідуальному масштабі
03:21
allegiance to a party allows people to create a political identity
54
201079
4000
вірність до своєї партії дозволяє людям створити політичну ідентичність
03:25
and support policies they agree with.
55
205079
2589
та підтримувати політику, з якою вони погоджуються.
03:27
But partisan-based cognitive dissonance can lead people to reject evidence
56
207668
4741
Але політично ангажований когнітивний дисонанс примушує
нас відкидати
03:32
that’s inconsistent with the party line or discredits party leaders.
57
212409
4719
докази, котрі викривають проблемні погляди партії чи дискредитують
03:37
And when entire groups of people revise the facts in service of partisan beliefs,
58
217128
5452
І коли цілі групи людей сприймають лише факти, що співпадають із їхнім баченням,
03:42
it can lead to policies that aren’t grounded in truth or reason.
59
222580
5182
суспільства ухвалюють рішення, що не мають жодного підґрунтя.
03:47
This problem isn’t new—
60
227762
1850
Ця проблема не є новою -
03:49
political identities have been around for centuries.
61
229612
2707
політичні ідентичності існують століттями.
03:52
But studies show that partisan polarization
62
232319
2840
Проте дослідження показують, що політична різноманітність
03:55
has increased dramatically in the last few decades.
63
235159
3240
проявляється все більше останніми десятиліттями.
03:58
One theory explaining this increase
64
238399
2304
Одна з теорій пояснює цей тренд
04:00
is the trend towards clustering geographically in like-minded communities.
65
240703
5099
географічною кластеризацією схожих за переконаннями спільнот.
04:05
Another is the growing tendency to rely on partisan news
66
245802
3630
Інша - все більшою довірою до медіа, що контролюються певними партіями,
04:09
or social media bubbles.
67
249432
2228
утворюючи хвилювання у соціальних мережах.
04:11
These often act like echo chambers,
68
251660
2470
Це схоже на кімнату, у якій є ехо,
04:14
delivering news and ideas from people with similar views.
69
254130
4400
що надає новини та ідеї від людей з подібними поглядами.
04:18
Fortunately, cognitive scientists have uncovered some strategies
70
258530
4212
На щастя, вчені-когнітивісти розробили стратегії
04:22
for resisting this distortion filter.
71
262742
2837
протидії подібним викривляючим фільтрам.
04:25
One is to remember that you’re probably more biased than you think.
72
265579
4585
Одна з них - пам'ятати, що зазвичай ми є більш упередженими, ніж думаємо.
04:30
So when you encounter new information,
73
270164
2040
Тож коли ви сприймаєте нову інформацію,
04:32
make a deliberate effort to push through your initial intuition
74
272204
3806
спробуйте докласти зусиль та не довіряти інтуїції,
04:36
and evaluate it analytically.
75
276010
2340
а натомість застосувати аналітичні навички.
04:38
In your own groups, try to make fact-checking and questioning assumptions
76
278350
4560
У своїй спільноті намагайтеся зробити перевірку фактів та критикуйте
04:42
a valued part of the culture.
77
282910
2546
значну частину укладів.
04:45
Warning people that they might have been presented with misinformation
78
285456
3427
Попередження людей, що вони могли бути ​​дезінформованими,
04:48
can also help.
79
288883
1510
може також допомогти.
04:50
And when you’re trying to persuade someone else,
80
290393
2540
І якщо ти намагаєшся переконати когось
04:52
affirming their values and framing the issue in their language
81
292933
4180
у їх цінностях і ставиш запитання їхньою мовою,
04:57
can help make people more receptive.
82
297113
3261
то це може допомогти зробити людей більш сприйнятливими.
05:00
We still have a long way to go before solving the problem of partisanship.
83
300374
4687
Перед нами ще довгий шлях вирішення проблеми політичного ангажування.
05:05
But hopefully, these tools can help keep us better informed,
84
305061
3340
Сподіваюсь, що ці поради допоможуть бути проінформованими
і здатними мати уявлення про реальність, базуючись на фактах.
05:08
and capable of making evidence-based decisions about our shared reality.
85
308401
4817
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7