Do politics make us irrational? - Jay Van Bavel

528,075 views ・ 2020-02-04

TED-Ed


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

תרגום: Ido Dekkers עריכה: Sigal Tifferet
00:06
In 2013, a team of researchers held a math test.
0
6805
5056
ב-2013, צוות של חוקרים ערך מבחן במתמטיקה.
00:11
The exam was administered to over 1,100 American adults,
1
11861
4050
המבחן ניתן ליותר מ-1,100 אמריקאים בוגרים,
00:15
and designed, in part, to test their ability to evaluate sets of data.
2
15911
5683
ותוכנן, בחלקו, לבחון את יכולתם להעריך מבני נתונים.
00:21
Hidden among these math problems were two almost identical questions.
3
21594
5200
חבויות בין בעיות המתמטיקה האלו היו שתי שאלות כמעט זהות.
00:26
Both problems used the same difficult data set,
4
26794
3040
שתי הבעיות השתמשו באותו מבנה נתונים
00:29
and each had one objectively correct answer.
5
29834
3836
ולכל אחת מהן היתה תשובה אחת נכונה אובייקטיבית.
00:33
The first asked about the correlation between rashes and a new skin cream.
6
33670
5032
הבעיה הראשונה עסקה במתאם בין פריחה לקרם עור חדש.
00:38
The second asked about the correlation between crime rates
7
38702
3678
הבעיה השניה עסקה במתאם בין רמות פשיעה
00:42
and gun control legislation.
8
42380
2690
לחקיקה של בקרת נשק.
00:45
Participants with strong math skills
9
45070
2410
למשתתפים עם כישורי מתמטיקה גבוהים
00:47
were much more likely to get the first question correct.
10
47480
4030
היה סיכוי גבוה בהרבה לענות נכון על השאלה הראשונה.
00:51
But despite being mathematically identical,
11
51510
3170
אבל למרות הזהות המתמטית,
00:54
the results for the second question looked totally different.
12
54680
4242
התוצאה לשאלה השניה היתה שונה לגמרי.
00:58
Here, math skills weren’t the best predictor
13
58922
3031
כאן, כישורי המתמטיקה לא היו המנבא הכי טוב
01:01
of which participants answered correctly.
14
61953
2899
למי יענה נכון.
01:04
Instead, another variable the researchers had been tracking came into play:
15
64852
5222
במקום זאת, היתה השפעה למשתנה אחר אותו מדדו החוקרים:
01:10
political identity.
16
70074
2460
זהות פוליטית.
01:12
Participants whose political beliefs
17
72534
2018
משתתפים שהאמונות הפוליטיות שלהם התאימו
01:14
aligned with a correct interpretation of the data
18
74552
2920
לפירוש הנכון של המידע
01:17
were far more likely to answer the problem right.
19
77472
3490
היו בעלי סיכוי גבוה בהרבה לענות נכון על השאלה.
01:20
Even the study’s top mathematicians
20
80962
2520
אפילו למתמטיקאים הכי טובים במחקר
01:23
were 45% more likely to get the second question wrong
21
83482
4680
היה סיכוי גבוה ב-45% לשגות בשאלה השניה
01:28
when the correct answer challenged their political beliefs.
22
88162
4103
כשהתשובה הנכונה איתגרה את האמונות הפוליטיות שלהם.
01:32
What is it about politics that inspires this kind of illogical error?
23
92265
5774
מה גורם לכך שפוליטיקה מעוררת שגיאות לוגיות כאלה?
01:38
Can someone’s political identity actually affect their ability
24
98039
3880
האם הזהות הפוליטית של אדם משפיעה על יכולתו לעבד מידע?
01:41
to process information?
25
101919
2067
01:43
The answer lies in a cognitive phenomenon
26
103986
2450
התשובה נמצאת בתופעה קוגניטיבית
01:46
that has become increasingly visible in public life: partisanship.
27
106436
5510
שהפכה בולטת יותר בחיים הציבוריים: מפלגתנות.
01:51
While it’s often invoked in the context of politics,
28
111946
3192
מפלגתנות אמנם מופעלת הרבה בהקשר הפוליטי,
01:55
partisanship is more broadly defined as a strong preference or bias
29
115138
4945
אבל היא מוגדרת באופן רחב יותר, כהעדפה חזקה או הטיה
02:00
towards any particular group or idea.
30
120083
3320
כלפי קבוצה מסויימת או רעיון.
02:03
Our political, ethnic, religious, and national identities
31
123403
4060
הזהויות הפוליטיות, האתניות, הדתיות והלאומיות שלנו,
02:07
are all different forms of partisanship.
32
127463
2991
הן כולן צורות שונות של מפלגתנות.
02:10
Of course, identifying with social groups
33
130454
2762
כמובן, הזדהות עם קבוצות חברתיות
02:13
is an essential and healthy part of human life.
34
133216
3550
היא חלק חיוני ובריא בחיים האנושיים.
02:16
Our sense of self is defined not only by who we are as individuals,
35
136766
4270
תחושת העצמי שלנו מוגדרת לא רק על ידי הזהות שלנו כבודדים,
02:21
but also by the groups we belong to.
36
141036
2440
אלא גם על ידי הקבוצות אליהן אנחנו שייכים.
02:23
As a result, we’re strongly motivated to defend our group identities,
37
143476
5006
כתוצאה מכך, יש לנו רצון חזק להגן על הזהות הקבוצתית שלנו,
02:28
protecting both our sense of self and our social communities.
38
148482
4130
ובכך להגן גם על תחושת העצמי וגם על הקהילות החברתיות שלנו.
02:32
But this becomes a problem when the group’s beliefs
39
152612
2704
אבל זה הופך לבעיה כשהאמונות הקבוצתיות
02:35
are at odds with reality.
40
155316
2183
סותרות את המציאות.
02:37
Imagine watching your favorite sports team commit a serious foul.
41
157499
3997
דמיינו שקבוצת הספורט האהודה עליכם מבצעת עבירה חמורה.
02:41
You know that’s against the rules,
42
161496
1840
אתם יודעים שזה לא חוקי,
02:43
but your fellow fans think it’s totally acceptable.
43
163336
3300
אבל שאר האוהדים חושבים שזה לגמרי בסדר.
02:46
The tension between these two incompatible thoughts
44
166636
3090
המתח בין שתי המחשבות הלא תואמות האלו
02:49
is called cognitive dissonance,
45
169726
2363
נקרא דיסוננס קוגניטיבי,
02:52
and most people are driven to resolve this uncomfortable state of limbo.
46
172089
5091
ורוב האנשים ירגישו צורך לפתור את אי הנוחות הזו.
02:57
You might start to blame the referee, complain that the other team started it,
47
177180
4510
אולי תאשימו את השופט, תתלוננו שהקבוצה השניה התחילה,
03:01
or even convince yourself there was no foul in the first place.
48
181690
4316
או אפילו תשכנעו את עצמכם שלא היתה עבירה בכלל.
03:06
In a case like this,
49
186006
1304
במקרה כזה,
03:07
people are often more motivated to maintain a positive relationship
50
187310
4209
יש נטייה להעדיף לשמור על יחס חיובי לקבוצה,
03:11
with their group than perceive the world accurately.
51
191519
4180
ולא לתפוס את המציאות באופן מדוייק.
03:15
This behavior is especially dangerous in politics.
52
195699
3698
ההתנהגות הזו מסוכנת במיוחד בפוליטיקה.
03:19
On an individual scale,
53
199397
1682
בקנה מידה אישי,
03:21
allegiance to a party allows people to create a political identity
54
201079
4000
נאמנות למפלגה מאפשרת לאנשים ליצור זהות פוליטית
03:25
and support policies they agree with.
55
205079
2589
ולתמוך במדיניות איתה הם מסכימים.
03:27
But partisan-based cognitive dissonance can lead people to reject evidence
56
207668
4741
אבל דיסוננס קוגניטיבי מפלגתני עלול להוביל אנשים לדחות עובדות
03:32
that’s inconsistent with the party line or discredits party leaders.
57
212409
4719
שמתנגשות עם הקו המפלגתי, או שמטילות ספק במנהיגי המפלגה.
03:37
And when entire groups of people revise the facts in service of partisan beliefs,
58
217128
5452
וכשקבוצות שלמות של אנשים מתאימים את העובדות לטובת האמונות המפלגתניות,
03:42
it can lead to policies that aren’t grounded in truth or reason.
59
222580
5182
זה עלול להוביל למדיניות שאינה מבוססת על אמת או הגיון.
03:47
This problem isn’t new—
60
227762
1850
הבעיה אינה חדשה --
03:49
political identities have been around for centuries.
61
229612
2707
זהות פוליטית קיימת במשך מאות שנים.
03:52
But studies show that partisan polarization
62
232319
2840
אבל מחקרים מראים שהקיטוב המפלגתני
03:55
has increased dramatically in the last few decades.
63
235159
3240
התגבר משמעותית בעשורים האחרונים.
03:58
One theory explaining this increase
64
238399
2304
תיאוריה אחת מסבירה את העלייה הזו
04:00
is the trend towards clustering geographically in like-minded communities.
65
240703
5099
במגמה להתקבצות גיאוגרפית בקהילות בעלות דפוסי חשיבה דומים.
04:05
Another is the growing tendency to rely on partisan news
66
245802
3630
הסבר אחר הוא הנטייה הגוברת להסתמך על חדשות מפלגתניות
04:09
or social media bubbles.
67
249432
2228
או בועות מדיה חברתית.
04:11
These often act like echo chambers,
68
251660
2470
שפועלות לפעמים כמו תיבות תהודה,
04:14
delivering news and ideas from people with similar views.
69
254130
4400
המספקות לאדם חדשות ורעיונות מאנשים בעלי דעות דומות.
04:18
Fortunately, cognitive scientists have uncovered some strategies
70
258530
4212
למזלנו, מדענים קוגניטיביים גילו כמה אסטרטגיות-נגד
04:22
for resisting this distortion filter.
71
262742
2837
לפילטר המעוות הזה.
04:25
One is to remember that you’re probably more biased than you think.
72
265579
4585
אחת היא לזכור שאתם כנראה יותר מוטים ממה שאתם חושבים.
04:30
So when you encounter new information,
73
270164
2040
אז כשאתם נתקלים במידע,
04:32
make a deliberate effort to push through your initial intuition
74
272204
3806
עשו מאמץ מכוון שלא להיתקע באינטואיציה הראשונית שלכם,
04:36
and evaluate it analytically.
75
276010
2340
והעריכו אותו באופן אנליטי.
04:38
In your own groups, try to make fact-checking and questioning assumptions
76
278350
4560
בקבוצות שלכם, נסו להפוך אימות עובדות והטלת ספק בהנחות
04:42
a valued part of the culture.
77
282910
2546
לחלק מוערך בתרבות.
04:45
Warning people that they might have been presented with misinformation
78
285456
3427
הזהרה של אנשים שאולי הוצג להם מידע מוטעה
04:48
can also help.
79
288883
1510
גם יכולה לעזור.
04:50
And when you’re trying to persuade someone else,
80
290393
2540
וכשאתם מנסים לשכנע מישהו אחר,
04:52
affirming their values and framing the issue in their language
81
292933
4180
אשרו את הערכים שלהם, ומסגרו את הבעיה בשפה שלהם.
04:57
can help make people more receptive.
82
297113
3261
זה יכול לגרום להם להיות יותר פתוחים.
05:00
We still have a long way to go before solving the problem of partisanship.
83
300374
4687
יש לנו עדיין דרך ארוכה לעבור לפני שנפתור את בעיית המפלגתנות.
05:05
But hopefully, these tools can help keep us better informed,
84
305061
3340
אבל אולי הכלים האלה יסייעו לנו להיות מיודעים יותר,
05:08
and capable of making evidence-based decisions about our shared reality.
85
308401
4817
ולהצליח לקבל החלטות מבוססות עדויות בנוגע למציאות המשותפת שלנו.
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7