Do politics make us irrational? - Jay Van Bavel

531,335 views ・ 2020-02-04

TED-Ed


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Cristina Ceban Corector: Mirel-Gabriel Alexa
00:06
In 2013, a team of researchers held a math test.
0
6805
5056
În 2013, o echipă de cercetători a desfășurat un test de matematică.
00:11
The exam was administered to over 1,100 American adults,
1
11861
4050
Examenul a fost susținut de peste 1.100 de adulți americani,
00:15
and designed, in part, to test their ability to evaluate sets of data.
2
15911
5683
și a fost conceput, în parte, să testeze abilitatea lor de a evalua seturi de date.
00:21
Hidden among these math problems were two almost identical questions.
3
21594
5200
Ascunse printre problemele matematice erau două întrebări aproape identice.
00:26
Both problems used the same difficult data set,
4
26794
3040
Ambele probleme au folosit același set de date
00:29
and each had one objectively correct answer.
5
29834
3836
și fiecare avea un singur răspuns corect.
00:33
The first asked about the correlation between rashes and a new skin cream.
6
33670
5032
Primii au fost întrebați despre legătura dintre iritații și o cremă nouă de corp.
00:38
The second asked about the correlation between crime rates
7
38702
3678
Ultimii au fost întrebați despre legătura dintre rata infracționalității
00:42
and gun control legislation.
8
42380
2690
și legislația controlul armelor.
00:45
Participants with strong math skills
9
45070
2410
Participanții cu bune abilități matematice
00:47
were much more likely to get the first question correct.
10
47480
4030
erau mai predispuși să răspundă corect la prima întrebare.
00:51
But despite being mathematically identical,
11
51510
3170
Deși erau la fel din punct de vedere matematic,
00:54
the results for the second question looked totally different.
12
54680
4242
rezultatele la a doua întrebare au arătat diferit.
00:58
Here, math skills weren’t the best predictor
13
58922
3031
Aici, abilitățile matematice n-au fost cel mai bun indicator
01:01
of which participants answered correctly.
14
61953
2899
potrivit căruia participanții au răspuns corect.
01:04
Instead, another variable the researchers had been tracking came into play:
15
64852
5222
În schimb, a apărut o altă variabilă pe care cercetătorii o urmăreau:
01:10
political identity.
16
70074
2460
identitatea politică.
01:12
Participants whose political beliefs
17
72534
2018
Participanții ale căror convingeri politice
01:14
aligned with a correct interpretation of the data
18
74552
2920
erau aliniate cu o corectă interpretare a datelor,
01:17
were far more likely to answer the problem right.
19
77472
3490
au fost mai predispuși să răspundă corect întrebării.
01:20
Even the study’s top mathematicians
20
80962
2520
Chiar și cei mai buni matematicieni ai studiului
01:23
were 45% more likely to get the second question wrong
21
83482
4680
au fost cu 45% mai predispuși să răspundă greșit la a doua întrebare,
01:28
when the correct answer challenged their political beliefs.
22
88162
4103
când răspunsul corect le contesta convingerile politice.
01:32
What is it about politics that inspires this kind of illogical error?
23
92265
5774
Cum cauzează politica o astfel de eroare ilogică?
01:38
Can someone’s political identity actually affect their ability
24
98039
3880
Poate identitatea politică a cuiva să afecteze
01:41
to process information?
25
101919
2067
abilitatea de a procesa informațiile?
01:43
The answer lies in a cognitive phenomenon
26
103986
2450
Răspunsul se află într-un fenomen cognitiv
01:46
that has become increasingly visible in public life: partisanship.
27
106436
5510
care a devenit tot mai vizibil în viața publică: partizanatul.
01:51
While it’s often invoked in the context of politics,
28
111946
3192
Deși e des invocat în context politic,
01:55
partisanship is more broadly defined as a strong preference or bias
29
115138
4945
partizanatul e mai larg definit drept o preferință puternică sau părtinire
02:00
towards any particular group or idea.
30
120083
3320
către un anumit grup sau o idee.
02:03
Our political, ethnic, religious, and national identities
31
123403
4060
Identitățile noastre politice, etnice, religioase și naționale
02:07
are all different forms of partisanship.
32
127463
2991
sunt toate forme diferite de partizanat.
02:10
Of course, identifying with social groups
33
130454
2762
Desigur, identificarea cu anumite grupuri sociale
02:13
is an essential and healthy part of human life.
34
133216
3550
e o parte esențială și sănătoasă a vieții umane.
02:16
Our sense of self is defined not only by who we are as individuals,
35
136766
4270
Conștiința de sine e definită nu doar de cine suntem ca indivizi,
02:21
but also by the groups we belong to.
36
141036
2440
dar și de grupurile cărora aparținem.
02:23
As a result, we’re strongly motivated to defend our group identities,
37
143476
5006
Ca rezultat, suntem ferm determinați să apărăm identitățile noastre de grup,
02:28
protecting both our sense of self and our social communities.
38
148482
4130
protejând atât conștiința de sine cât și comunitățile noastre sociale.
02:32
But this becomes a problem when the group’s beliefs
39
152612
2704
Dar asta devine o problemă când convingerile de grup
02:35
are at odds with reality.
40
155316
2183
sunt în contradicție cu realitatea.
02:37
Imagine watching your favorite sports team commit a serious foul.
41
157499
3997
Imaginează-ți că echipa preferată comite o greșeală serioasă.
02:41
You know that’s against the rules,
42
161496
1840
Știi că e împotriva regulilor,
02:43
but your fellow fans think it’s totally acceptable.
43
163336
3300
dar colegii tăi fani cred că e total acceptabil.
02:46
The tension between these two incompatible thoughts
44
166636
3090
Tensiunea dintre aceste idei incompatibile
02:49
is called cognitive dissonance,
45
169726
2363
e numită disonanță cognitivă,
02:52
and most people are driven to resolve this uncomfortable state of limbo.
46
172089
5091
și majoritatea oamenilor vor să rezolve această stare incertă inconfortabilă.
02:57
You might start to blame the referee, complain that the other team started it,
47
177180
4510
Pot începe să învinovățească arbitrul, să creadă că cealaltă echipă e vinovată
03:01
or even convince yourself there was no foul in the first place.
48
181690
4316
sau chiar să se convingă că nici nu a existat greșeala.
03:06
In a case like this,
49
186006
1304
În astfel de cazuri,
03:07
people are often more motivated to maintain a positive relationship
50
187310
4209
oamenii sunt deseori mai motivați să mențină o relație bună
03:11
with their group than perceive the world accurately.
51
191519
4180
cu grupul lor decât să perceapă corect realitatea.
03:15
This behavior is especially dangerous in politics.
52
195699
3698
Acest comportament e îndeosebi periculos în politică.
03:19
On an individual scale,
53
199397
1682
La o scară individuală,
03:21
allegiance to a party allows people to create a political identity
54
201079
4000
loialitatea față de un partid permite oamenilor să creeze o identitate politică
03:25
and support policies they agree with.
55
205079
2589
și să sprijine măsurile politice cu care sunt de acord.
03:27
But partisan-based cognitive dissonance can lead people to reject evidence
56
207668
4741
Dar disonanța cognitivă poate determină oamenii să respingă dovezile
03:32
that’s inconsistent with the party line or discredits party leaders.
57
212409
4719
ce nu sunt compatibile cu linia de partid sau care discreditează liderii de partid.
03:37
And when entire groups of people revise the facts in service of partisan beliefs,
58
217128
5452
Și când un grup de oameni modifică adevărul din cauza credințelor partizane,
03:42
it can lead to policies that aren’t grounded in truth or reason.
59
222580
5182
pot rezulta măsuri politice ce nu sunt fondate pe adevăr sau rațiune.
03:47
This problem isn’t new—
60
227762
1850
Această problemă nu e nouă,
03:49
political identities have been around for centuries.
61
229612
2707
identitățile politice au existat de secole.
03:52
But studies show that partisan polarization
62
232319
2840
Dar studiile arată că polarizarea partizană
03:55
has increased dramatically in the last few decades.
63
235159
3240
a crescut dramatic în ultimele câteva decenii.
03:58
One theory explaining this increase
64
238399
2304
O teorie care explică această creștere
04:00
is the trend towards clustering geographically in like-minded communities.
65
240703
5099
este tendința de grupare geografică în comunitățile cu viziuni similare.
04:05
Another is the growing tendency to rely on partisan news
66
245802
3630
Un alt aspect e tendința în creștere de a ne baza pe știrile partizane
04:09
or social media bubbles.
67
249432
2228
sau pe bulele din rețelele de socializare.
04:11
These often act like echo chambers,
68
251660
2470
Acestea deseori acționează ca o cameră cu ecou,
04:14
delivering news and ideas from people with similar views.
69
254130
4400
ce furnizează știri și idei între oameni cu viziuni similare.
04:18
Fortunately, cognitive scientists have uncovered some strategies
70
258530
4212
Din fericire, cercetătorii din domeniul cognitiv au descoperit câteva strategii
04:22
for resisting this distortion filter.
71
262742
2837
pentru a rezista acestui filtru de distorsiune.
04:25
One is to remember that you’re probably more biased than you think.
72
265579
4585
Prima e să-ți amintești că ești probabil mai părtinitor decât crezi.
04:30
So when you encounter new information,
73
270164
2040
Deci, când vă confruntați cu noi informații,
04:32
make a deliberate effort to push through your initial intuition
74
272204
3806
faceți un efort deliberat să vă urmăriți intuiția inițială
04:36
and evaluate it analytically.
75
276010
2340
și să o evaluați în mod analitic.
04:38
In your own groups, try to make fact-checking and questioning assumptions
76
278350
4560
În propriile grupuri, încercați să faceți verificarea
și punerea la îndoială a ipotezelor
04:42
a valued part of the culture.
77
282910
2546
o valoare de bază.
04:45
Warning people that they might have been presented with misinformation
78
285456
3427
Avertizarea oamenilor că ar putea fi expuși la dezinformare
04:48
can also help.
79
288883
1510
poate de asemenea ajuta.
04:50
And when you’re trying to persuade someone else,
80
290393
2540
Și când încercați să convingeți pe altcineva,
04:52
affirming their values and framing the issue in their language
81
292933
4180
recunoscându-le valorile și definind problema în limba lor
04:57
can help make people more receptive.
82
297113
3261
poate face oamenii mai receptivi.
05:00
We still have a long way to go before solving the problem of partisanship.
83
300374
4687
Avem un drum lung de parcurs pentru rezolvarea acestei probleme.
05:05
But hopefully, these tools can help keep us better informed,
84
305061
3340
Din fericire, aceste mijloace pot ajuta să fim mai bine informați
05:08
and capable of making evidence-based decisions about our shared reality.
85
308401
4817
și mai capabili să luăm decizii bazate pe dovezi și realitate.
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7