Do politics make us irrational? - Jay Van Bavel

531,335 views ・ 2020-02-04

TED-Ed


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Bita Yekta Reviewer: Masood Mousavi
00:06
In 2013, a team of researchers held a math test.
0
6805
5056
در سال ۲۰۱۳، گروهی از محققان یک آزمون ریاضی برگزار کردند.
00:11
The exam was administered to over 1,100 American adults,
1
11861
4050
این آزمون را ۱,۱۰۰ نفر آمریکایی انجام دادند،
00:15
and designed, in part, to test their ability to evaluate sets of data.
2
15911
5683
آزمون طوری طراحی شده بود که توانمندی بررسی داده‌های افراد را ارزیابی کند.
00:21
Hidden among these math problems were two almost identical questions.
3
21594
5200
در میان سؤالات ریاضی دو سؤال مشابه بود.
00:26
Both problems used the same difficult data set,
4
26794
3040
در هردو مسئله از یکسری اطلاعات مشکل استفاده شده بود،
00:29
and each had one objectively correct answer.
5
29834
3836
و هرکدام یک پاسخ درست داشت.
00:33
The first asked about the correlation between rashes and a new skin cream.
6
33670
5032
اولی در مورد ارتباط میانِ کهیر و کرم جدید پوستی سؤال کرده بود.
00:38
The second asked about the correlation between crime rates
7
38702
3678
و دومی در مورد ارتباط نرخ جرائم
00:42
and gun control legislation.
8
42380
2690
و قانون کنترل اسلحه.
00:45
Participants with strong math skills
9
45070
2410
شرکت‌کنندگان با مهارت قوی ریاضیات
00:47
were much more likely to get the first question correct.
10
47480
4030
بیشتر به سؤال اول پاسخ درست می‌دادند.
00:51
But despite being mathematically identical,
11
51510
3170
برخلاف اینکه از نظر ریاضی مشابه بودند،
00:54
the results for the second question looked totally different.
12
54680
4242
نتیجه پاسخگویی به سؤال دوم کاملاً متفاوت بود.
00:58
Here, math skills weren’t the best predictor
13
58922
3031
این نشان می‌دهد که مهارت‌ ریاضیات شرکت‌کنندگان، بهترین شاخص
01:01
of which participants answered correctly.
14
61953
2899
برای پاسخگویی درست نیست.
01:04
Instead, another variable the researchers had been tracking came into play:
15
64852
5222
در عوض، یکی دیگر از عواملی که پژوهشگران دنبال می‌کردند، وارد بازی شد:
01:10
political identity.
16
70074
2460
هویت سیاسی.
01:12
Participants whose political beliefs
17
72534
2018
شرکت‌کنندگانی که باورهای سیاسی آن‌ها در راستای
01:14
aligned with a correct interpretation of the data
18
74552
2920
تفسیر درست از داده‌ها بود
01:17
were far more likely to answer the problem right.
19
77472
3490
احتمال پاسخگویی آن‌ها به مسائل بیشتر بود.
01:20
Even the study’s top mathematicians
20
80962
2520
حتی مطالعه ریاضیدانان برجسته نشان داد که
01:23
were 45% more likely to get the second question wrong
21
83482
4680
۴۵% بیشتر احتمال داشت پاسخ اشتباه بدهد
01:28
when the correct answer challenged their political beliefs.
22
88162
4103
وقتی پاسخ درست، عقاید سیاسی او را به چالش می‌کشید.
01:32
What is it about politics that inspires this kind of illogical error?
23
92265
5774
چگونه است که سیاست الهام‌بخش چنین اشتباه غیرمنطقی می‌شود؟
01:38
Can someone’s political identity actually affect their ability
24
98039
3880
آیا هویت سیاسی فرد، واقعاً می‌تواند بر توانایی
01:41
to process information?
25
101919
2067
پردازش اطلاعات تأثیر داشته باشد؟
01:43
The answer lies in a cognitive phenomenon
26
103986
2450
پاسخ آن در بستر یک پدیده شناختی است
01:46
that has become increasingly visible in public life: partisanship.
27
106436
5510
که در زندگی عمومی کاملاً قابل‌مشاهده است: هواداری.
01:51
While it’s often invoked in the context of politics,
28
111946
3192
در متن و موقعیت سیاسی بیشتر به آن استناد می‌شود،
01:55
partisanship is more broadly defined as a strong preference or bias
29
115138
4945
هواداری بیشتر به معنای ترجیح یا تعصب
02:00
towards any particular group or idea.
30
120083
3320
به گروه یا عقیده خاصی است.
02:03
Our political, ethnic, religious, and national identities
31
123403
4060
عقاید سیاسی، قومی، مذهبی و ملی ما
02:07
are all different forms of partisanship.
32
127463
2991
شکل‌های متفاوتی از هواداری ماست.
02:10
Of course, identifying with social groups
33
130454
2762
البته شناسایی با گروه‌های اجتماعی
02:13
is an essential and healthy part of human life.
34
133216
3550
بخش اساسی و سالم از زندگی انسان است.
02:16
Our sense of self is defined not only by who we are as individuals,
35
136766
4270
حس ما از خود، نه‌تنها با تعریف ما از خودمان به‌عنوان فرد
02:21
but also by the groups we belong to.
36
141036
2440
بلکه با گروهی که به آن تعلق داریم، تعریف می‌شود.
02:23
As a result, we’re strongly motivated to defend our group identities,
37
143476
5006
درنتیجه، ما کاملاً برای دفاع از هویت‌های گروهی خود انگیزه داریم،
02:28
protecting both our sense of self and our social communities.
38
148482
4130
دفاع از حس خود و گروه‌های اجتماعی.
02:32
But this becomes a problem when the group’s beliefs
39
152612
2704
اما مشکل وقتی ایجاد می‌شود که عقاید جمعی ما
02:35
are at odds with reality.
40
155316
2183
با واقعیت مغایرت پیدا می‌کند.
02:37
Imagine watching your favorite sports team commit a serious foul.
41
157499
3997
تصور کنید که از تیم ورزشی مورد علاقه‌تان یک خطای جدی سر زده باشد.
02:41
You know that’s against the rules,
42
161496
1840
می‌دانید که خلاف مقررات است،
02:43
but your fellow fans think it’s totally acceptable.
43
163336
3300
اما طرفداران شما فکر می‌کنند که کاملاً قابل‌قبول است.
02:46
The tension between these two incompatible thoughts
44
166636
3090
این درگیری بین دو فکر ناسازگار
02:49
is called cognitive dissonance,
45
169726
2363
ناهماهنگی شناختی نامیده می‌شود،
02:52
and most people are driven to resolve this uncomfortable state of limbo.
46
172089
5091
و بیشتر مردم می‌خواهند که این حالت برزخ را حل کنند.
02:57
You might start to blame the referee, complain that the other team started it,
47
177180
4510
ممکن است که شما داور را سرزنش کنید، شکایت کنید که تیم دیگر اول شروع کرده،
03:01
or even convince yourself there was no foul in the first place.
48
181690
4316
حتی خودتان را متقاعد کنید که اولش هیچ خطایی نبوده.
03:06
In a case like this,
49
186006
1304
در چنین موردی،
03:07
people are often more motivated to maintain a positive relationship
50
187310
4209
مردم ترجیح می‌دهند که رابطه مثبت با گروه را حفظ کنند
03:11
with their group than perceive the world accurately.
51
191519
4180
تا درک درست از جهان را.
03:15
This behavior is especially dangerous in politics.
52
195699
3698
این رفتار بخصوص در سیاست خطرناک است.
03:19
On an individual scale,
53
199397
1682
در مقیاس فردی،
03:21
allegiance to a party allows people to create a political identity
54
201079
4000
همراهی با یک حزب به مردم اجازه می‌دهد که هویت سیاسی خلق کنند
03:25
and support policies they agree with.
55
205079
2589
و سیاست‌هایی را که قبول دارند حمایت کنند.
03:27
But partisan-based cognitive dissonance can lead people to reject evidence
56
207668
4741
اما ناهماهنگی شناختی مبتنی بر حزب می‌تواند مردم را به سمت رد شواهد سوق دهد
03:32
that’s inconsistent with the party line or discredits party leaders.
57
212409
4719
که متناسب با خط حزب نیست یا رهبران حزب را بی‌اعتبار می‌کند.
03:37
And when entire groups of people revise the facts in service of partisan beliefs,
58
217128
5452
و زمانی که همه مردم حقایق را در خدمت عقاید حزبی بازتعریف می‌کنند،
03:42
it can lead to policies that aren’t grounded in truth or reason.
59
222580
5182
می‌تواند منجر به سیاست‌هایی شود که مبتنی بر حقیقت یا دلیل نیستند.
03:47
This problem isn’t new—
60
227762
1850
این مسئله جدید نیست_
03:49
political identities have been around for centuries.
61
229612
2707
هویت سیاسی در طول قرن‌ها بوده است.
03:52
But studies show that partisan polarization
62
232319
2840
اما مطالعات نشان می‌دهد که هواداری حزبی
03:55
has increased dramatically in the last few decades.
63
235159
3240
به طرز عجیبی در دهه‌های اخیر افزایش یافته است.
03:58
One theory explaining this increase
64
238399
2304
تئوری که این افزایش را توضیح می‌دهد
04:00
is the trend towards clustering geographically in like-minded communities.
65
240703
5099
گرایش به سمت همگرایی در جوامع همفکر از نظر جغرافیایی است.
04:05
Another is the growing tendency to rely on partisan news
66
245802
3630
تمایل رو به رشد دیگر، اعتماد به اخبار حزبی
04:09
or social media bubbles.
67
249432
2228
یا حباب‌های رسانه‌های اجتماعی است.
04:11
These often act like echo chambers,
68
251660
2470
این‌ها اغلب مانند اتاق پژواک صوتی عمل می‌کنند،
04:14
delivering news and ideas from people with similar views.
69
254130
4400
خبرها و نظرات افرادی با نظرات مشابه را انتقال می‌دهند .
04:18
Fortunately, cognitive scientists have uncovered some strategies
70
258530
4212
خوشبختانه، دانشمندان شناختی راهکارهایی برای مقاومت در برابر
04:22
for resisting this distortion filter.
71
262742
2837
این فیلترهای ناجور ارائه کرده‌اند.
04:25
One is to remember that you’re probably more biased than you think.
72
265579
4585
یکی اینکه به خاطر داشته باشید، احتمالاً بیشتر از آنچه فکر می‌کنید تعصب دارید.
04:30
So when you encounter new information,
73
270164
2040
پس وقتی با اطلاعات جدید روبه‌رو می‌شوید،
04:32
make a deliberate effort to push through your initial intuition
74
272204
3806
عمداً تلاش کنید که برداشت اولیه خود را کنار بزنید
04:36
and evaluate it analytically.
75
276010
2340
و آن را به‌صورت تحلیلی ارزیابی کنید.
04:38
In your own groups, try to make fact-checking and questioning assumptions
76
278350
4560
در گروهای خود، سعی کنید که فرضیه‌ها را زیر سؤال ببرید و با حقیقت ارزیابی کنید
04:42
a valued part of the culture.
77
282910
2546
به‌عنوان بخشی ارزشمند از فرهنگ.
04:45
Warning people that they might have been presented with misinformation
78
285456
3427
آگاهی دادن به مردم در این باره که ممکن است به آن‌ها اطلاعات غلط داده شود
04:48
can also help.
79
288883
1510
هم می‌تواند کمک کند.
04:50
And when you’re trying to persuade someone else,
80
290393
2540
و زمانی که شما تلاش می‌کنید دیگران را متقاعد کنید،
04:52
affirming their values and framing the issue in their language
81
292933
4180
تائید ارزش‌های آنان و تعریف مسائل از زبان آنان
04:57
can help make people more receptive.
82
297113
3261
هم می‌تواند به پذیرش بیشتر افراد کمک کند.
05:00
We still have a long way to go before solving the problem of partisanship.
83
300374
4687
ما هنوز راه درازی برای حل مشکل هواداری داریم.
05:05
But hopefully, these tools can help keep us better informed,
84
305061
3340
اما امیدواریم که این ابزارها بتوانند ما را آگاه‌تر کند،
05:08
and capable of making evidence-based decisions about our shared reality.
85
308401
4817
و قادر سازد که در مورد واقعیت مشترکمان بر مبنای شواهد تصمیم بگیریم.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7