How do daily habits lead to political violence? | Christiane-Marie Abu Sarah

90,836 views ・ 2020-09-18

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

00:00
Transcriber: Leslie Gauthier Reviewer: Camille Martínez
0
0
7000
Translator: Mohammad Badsar Reviewer: sadegh vn
خوب امروز می‌خواهم با یک راز تاریخی شروع کنم.
در سال ۱۹۵۷، دو زن جوان هر دو
در دهه بیست سالگی‌شان،
00:12
So I'm starting us out today with a historical mystery.
1
12887
3528
هر دو ساکن یک شهر،
و هر دو عضو یک گروه سیاسی بودند.
00:17
In 1957, there were two young women,
2
17037
2969
در آن سال هر دو تصمیم به حملات خشونت آمیز گرفتند.
00:20
both in their 20s,
3
20030
1355
00:21
both living in the same city,
4
21409
1484
00:22
both members of the same political group.
5
22917
2836
یک دختر یک اسلحه برداشت و به یک سرباز در ایستگاه بازرسی نزدیک شد.
00:26
That year, both decided to commit violent attacks.
6
26751
3840
دختر دیگر یک بمب برداشت و به یک قهوه‌خانه شلوغ رفت.
00:31
One girl took a gun and approached a soldier at a checkpoint.
7
31284
4129
اما نکته اینجاست:
یکی از دخترها به حمله ادامه داد،
00:36
The other girl took a bomb and went to a crowded café.
8
36300
4778
اما دیگری برگشت.
00:42
But here's the thing:
9
42287
1699
00:44
one of the those girls followed through with the attack,
10
44429
3709
خوب تفاوت در چه بود؟
من یک تاریخدان رفتاری هستم، و خشونت،
00:49
but the other turned back.
11
49028
3020
شناخت اخلاقی
و تصمیم‌سازی در جنبش‌های اجتماعی را مطالعه می‌کنم.
00:53
So what made the difference?
12
53303
1694
00:56
I'm a behavioral historian, and I study aggression,
13
56157
3257
دهن‌پرکن است. (خنده)
خوب ترجمه‌اش می‌شود:
00:59
moral cognition
14
59438
1921
من لحظه‌ای که یک نفر تصمیم می‌گیرد ماشه را بکشد را مطالعه می‌کنم،
01:01
and decision-making in social movements.
15
61383
3209
01:04
That's a mouthful. (Laughs)
16
64616
1997
تصمیمات روزمره که به آن لحظه منجر می‌شود
01:06
So, the translation of that is:
17
66637
2650
01:09
I study the moment an individual decides to pull the trigger,
18
69311
4778
و داستان‌هایی که برای خود می‌سرایند تا آن رفتار را موجه سازند.
01:14
the day-to-day decisions that led up to that moment
19
74113
4636
حالا این موضوع--
01:18
and the stories that they tell themselves about why that behavior is justified.
20
78773
6123
برای من فقط یک تخصص آکادمیک نیست.
در واقع کمی شخصی است.
من در شهرک کوتنی آیداهو بزرگ شده‌ام،
01:25
Now, this topic --
21
85468
1256
01:26
it's not just scholarly for me.
22
86748
2670
و این خیلی مهم است.
بحث آن بخش مربوط به سیب‌زمینی آیداهو نیست.
01:29
It's actually a bit personal.
23
89442
1785
01:31
I grew up in Kootenai County, Idaho,
24
91251
3361
ما اصلاً سیب‌زمینی نداریم.
01:34
and this is very important.
25
94636
2088
و اگر از من در مورد سیب‌زمینی بپرسید،
01:37
This is not the part of Idaho with potatoes.
26
97147
4522
من شما را پیدا می‌کنم.
(خنده)
این بخش از آیداهو بخاطر دریاچه‌های کوهستانی،
01:41
We have no potatoes.
27
101693
2418
اسب‌سواری و اسکی
01:44
And if you ask me about potatoes,
28
104135
1973
مشهور است.
01:46
I will find you.
29
106132
1351
01:47
(Laughter)
30
107507
1219
متاسفانه، با شروع دهه ۱۹۸۰،
01:48
This part of Idaho is known for mountain lakes,
31
108750
3448
همچنین بخاطر مراکزی برای
01:52
horseback riding,
32
112222
1825
01:54
skiing.
33
114071
1248
ملت‌های آریایی از سراسر جهان معروف شد.
01:55
Unfortunately, starting in the 1980s,
34
115684
3254
هر سال، اعضای محله‌های نئونازی
01:58
it also became known as the worldwide headquarters
35
118962
4007
بیرون می‌آمدند و در شهر رژه می‌رفتند،
02:02
for the Aryan Nations.
36
122993
1991
و هر سال،
مردم شهر بیرون می‌آمدند و علیه آنها تظاهرات می‌کردند.
02:05
Every year, members of the local neo-Nazi compound
37
125348
3563
02:08
would turn out and march through our town,
38
128935
2989
خوب در سال ۲۰۰۱، من دبیرستان را تمام کردم
02:11
and every year,
39
131948
1210
و به دانشگاه نیویورک رفتم.
02:13
members of our town would turn out and protest them.
40
133182
3341
02:16
Now, in 2001, I graduated from high school,
41
136547
3848
در آگوست ۲۰۰۱ به مقصد رسیدم.
02:20
and I went to college in New York City.
42
140419
4158
چنانکه بسیاری از شما احتمالاً می‌دانید،
سه هفته بعد،
02:24
I arrived in August 2001.
43
144601
3952
برج‌های دوقلو فرو ریختند.
خوب من شوکه شدم.
02:29
As many of you probably are aware,
44
149482
2284
02:31
three weeks later,
45
151790
1891
من بسیار عصبانی بودم.
02:33
the Twin Towers went down.
46
153705
1795
02:36
Now, I was shocked.
47
156243
3754
می‌خواستم کاری بکنم،
ولی تنها کاری که می‌توانستم در آن زمان بکنم
02:40
I was incredibly angry.
48
160503
2375
خواندن رشته عربی بود.
02:44
I wanted to do something,
49
164613
1609
من پذیرش شدم،
02:46
but the only thing that I could think of doing at that time
50
166246
4150
من دختری در کلاس بودم که می‌خواست بداند چرا «آنها» از «ما» متنفرند.
02:50
was to study Arabic.
51
170420
2203
من رشته عربی را به دلیل بسیار غلطی انتخاب کردم.
02:53
I will admit,
52
173955
1157
02:55
I was that girl in class that wanted to know why "they" hate "us."
53
175136
6087
اما اتفاقی غیرعادی رخ دهد.
من بورسیه‌ای برای رفتن به اسرائیل دریافت کردم.
03:01
I started studying Arabic for very wrong reasons.
54
181247
3391
خوب آن دختر آیداهو به خاورمیانه رفت.
03:05
But something unexpected happened.
55
185265
1935
و زمانی که آنجا بودم مسلمانان فلسطینی،
03:07
I got a scholarship to go study in Israel.
56
187224
2970
مسیحیان فلسطینی،
03:10
So the Idaho girl went to the Middle East.
57
190718
2817
ساکنین اسرائیلی،
و فعالان صلح اسرائیلی را ملاقات کردم.
03:13
And while I was there, I met Palestinian Muslims,
58
193559
4486
و یاد گرفتم که هر عملی از یک شرایط محیطی ناشی می‌شود.
03:18
Palestinian Christians,
59
198069
2032
03:20
Israeli settlers,
60
200125
1157
یک بافت دارد.
03:21
Israeli peace activists.
61
201306
1669
03:23
And what I learned is that every act has an ecology.
62
203501
4534
خوب پس از آن در جهان سفر کرده‌ام،
جنبش‌های خشونت‌آمیز را مطالعه کرده‌ام.
03:28
It has a context.
63
208696
1429
با سازمان‌های غیردولتی و رزمندگان سابق در مناطق مختلف همکاری کرده‌ام،
03:32
Now, since then, I have gone around the world,
64
212074
3553
03:35
I have studied violent movements,
65
215651
3914
از قبیل سوریه،
ویتنام،
بالکان،
03:39
I have worked with NGOs and ex-combatants in Iraq,
66
219589
4965
و کوبا.
در تاریخ دکترا گرفتم،
03:44
Syria,
67
224578
1198
و الآن به آرشیوهای مختلف مراجعه می‌کنم
03:45
Vietnam,
68
225800
1419
و اسناد را بررسی می‌کنم،
03:47
the Balkans,
69
227243
1182
03:48
Cuba.
70
228449
1281
و به دنبال چیزهایی می‌گردم مثل اعترافات پلیس،
03:50
I earned my PhD in History,
71
230422
2395
03:52
and now what I do is I go to different archives
72
232841
2514
موارد قضایی،
03:55
and I dig through documents,
73
235379
2221
و دفاتر خاطرات و بیانیه‌های افرادی که در حملات خشونت‌آمیز نقش داشته‌اند.
03:57
looking for police confessions,
74
237624
3633
حالا با جمع‌آوری همه این اسناد --
04:01
court cases,
75
241281
2565
04:03
diaries and manifestos of individuals involved in violent attacks.
76
243870
5216
چه دستگیرمان می‌شود؟
ذهن ما عاشق کشف علل و اسرار است،
اینگونه است.
04:09
Now, you gather all these documents --
77
249110
3186
برای همین وقتی در اخبار یک حمله را می‌بینیم،
04:12
what do they tell you?
78
252320
1410
دوست داریم یک سوال بپرسیم:
04:13
Our brains love causal mysteries,
79
253754
3167
چرا؟
04:16
it turns out.
80
256945
1188
چرا این اتفاق افتاد؟
خوب می‌توانم بگویم هزاران بیانیه خوانده‌ام،
04:18
So any time we see an attack on the news,
81
258157
2950
و دریافتم که این بیانیه‌ها تقلیدی هستند.
04:21
we tend to ask one question:
82
261131
2432
04:23
Why?
83
263587
1302
04:24
Why did that happen?
84
264913
1491
آنها شعارهای جنبش سیاسی که به آن تعلق داشتند را بازخوانی می‌کردند.
04:26
Well, I can tell you I've read thousands of manifestos,
85
266428
2900
04:29
and what you find out is that they are actually imitative.
86
269352
4561
بنابراین چیز زیادی در مورد تصمیم‌سازی در هر مورد خاص
04:33
They imitate the political movement that they're drawing from.
87
273937
3569
عرضه نمی‌کردند.
پس باید به خودمان آموزش می‌دادیم که سوال کاملاً متفاوتی بپرسیم.
04:37
So they actually don't tell us a lot about decision-making
88
277530
4013
به جای «چرا؟» باید می‌پرسیدیم «چگونه؟»
04:41
in that particular case.
89
281567
1994
04:43
So we have to teach ourselves to ask a totally different question.
90
283924
4618
افراد چگونه این حملات را ایجاد می‌کردند،
و چگونه شرایط محیطی تصمیم‌سازی آنها بر رفتار خشن اثر می‌گذاشت؟
04:48
Instead of "Why?" we have to ask "How?"
91
288566
3578
04:52
How did individuals produce these attacks,
92
292168
2911
دو چیز از پرسیدن چنین سوالاتی یاد گرفته‌ام.
04:55
and how did their decision-making ecology contribute to violent behavior?
93
295103
5278
مهم‎ترینش این است که
خشونت سیاسی یک فرهنگ بومی نیست.
05:00
There's a couple things I've learned from asking this kind of question.
94
300781
5018
ما آن را خلق می‌کنیم.
و چه بفهمیم یا نفهمیم،
05:05
The most important thing is that
95
305823
2072
عادات روزانه ما بر خلق خشونت در محیط اطرافمان
05:07
political violence is not culturally endemic.
96
307919
3036
05:10
We create it.
97
310979
1380
اثر می‌گذارد.
05:12
And whether we realize it or not,
98
312383
2290
یاد گرفته‌ام که دو عادت در مشارکت در خشونت نقش دارند.
05:14
our day-to-day habits contribute to the creation of violence
99
314697
5463
یکی از اولین کارهایی که حمله‌کنندگان هنگام آماده شدن
05:20
in our environment.
100
320184
1554
05:21
So here's a couple of habits that I've learned contribute to violence.
101
321762
5216
برای حمله خشونت آمیز انجام می‌دادند
این بودکه آنها خود را در یک حباب اطلاعاتی محبوس می‌کردند.
05:28
One of the first things that attackers did
102
328322
3240
خبرهای جعلی را شنیده‌ایم، درست است؟
05:31
when preparing themselves for a violent event
103
331586
3806
خوب این مورد من را شوکه کرد:
05:35
was they enclosed themselves in an information bubble.
104
335416
3695
هر گروهی که مطالعه کرده‌ام نوعی شعار خبرهای جعلی را دارا بود.
05:39
We've heard of fake news, yeah?
105
339135
2558
کمونیست‌های فرانسه به آن «خبرگزاری متعفن» می‌گفتند.
05:41
Well, this shocked me:
106
341717
2377
فرانسوی‌های وطن‌پرست افراطی به آن «خبرگزاری خودفروخته»
05:44
every group that I studied had some kind of a fake news slogan.
107
344118
3498
و «خبرگزاری خائن» می‌گفتند.
05:47
French communists called it the "putrid press."
108
347640
3388
اسلامگراها در مصر به آن «خبرگزاری فاسد» می‌گفتند.
05:51
French ultranationalists called it the "sellout press"
109
351052
4097
و مصری‌های کمونیست به آن
05:55
and the "treasonous press."
110
355173
2192
«خبرهای جعلی» می‌گفتند.
خوب چرا گروه‌ها تمام وقت خود را برای خلق این حباب‌های اطلاعاتی صرف می‌کردند؟
05:57
Islamists in Egypt called it the "depraved news."
111
357389
3511
06:00
And Egyptian communists called it ...
112
360924
3065
جواب واقعاً ساده است.
06:04
"fake news."
113
364013
1253
ما بر اساس اطلاعاتی که به آن اعتماد داریم تصمیم می‌گیریم، درست است؟
06:05
So why do groups spend all this time trying to make these information bubbles?
114
365290
4506
خوب اگر به اطلاعات بد اعتماد کنیم،
06:09
The answer is actually really simple.
115
369820
2881
06:12
We make decisions based on the information we trust, yeah?
116
372725
4495
تصمیم‌های بد خواهیم گرفت.
عادت جالب دیگری که افراد داشتند
06:17
So if we trust bad information,
117
377244
3843
هنگامی که قصد یک حمله خشونت‌آمیز داشتند
06:21
we're going to make bad decisions.
118
381111
2975
این بود که به قربانی خود به چشم یک فرد نگاه نمی‌کردند
06:24
Another interesting habit that individuals used
119
384110
2990
بلکه آن را عضوی از تیم متخاصم تلقی می‌کردند.
06:27
when they wanted to produce a violent attack
120
387124
2943
خوب خیلی عجیب است.
06:30
was that they looked at their victim not as an individual
121
390091
3530
در مورد علت موثر بودن این نوع تفکر دانش مغز و اعصاب حرف‌هایی دارد.
06:33
but just as a member of an opposing team.
122
393645
2711
فرض کنید من شما‌ها را به دو گروه تقسیم می‌کنم:
06:37
Now this gets really weird.
123
397006
1731
تیم آبی،
06:39
There's some fun brain science behind why that kind of thinking is effective.
124
399554
4335
و تیم قرمز.
و از شما می‌خواهم در یک بازی با هم رقابت کنید.
06:43
Say I divide all of you guys into two teams:
125
403913
3528
خوب، جالب این است که در عرض چند میلی‌ثانیه
06:47
blue team,
126
407465
1152
06:48
red team.
127
408641
1304
در واقع رفته رفته احساس لذت را تجربه می‌کنید
06:49
And then I ask you to compete in a game against each other.
128
409969
3468
06:53
Well, the funny thing is, within milliseconds,
129
413461
3958
هنگامی که برای اعضای تیم مقابل اتفاق بدی می‌افتد.
06:57
you will actually start experiencing pleasure -- pleasure --
130
417443
4849
جالب اینکه اگر از شما اعضای تیم آبی بخواهم
07:02
when something bad happens to members of the other team.
131
422316
4813
که به تیم قرمز ملحق شوید،
ذهن شما دوباره کالیبره می‌شود،
07:07
The funny thing about that is if I ask one of you blue team members
132
427814
4084
و در عرض چند میلی‌ثانیه،
شما لذت را تجربه خواهید کرد
07:11
to go and join the red team,
133
431922
1915
هنگامی که اتفاق بدی برای اعضای تیم قبلی شما رخ دهد.
07:14
your brain recalibrates,
134
434805
1992
07:16
and within milliseconds,
135
436821
1374
این یک مثال بسیار خوب برای خطر بسیار بالای تفکر [دوگانه] ما-آنها
07:18
you will now start experiencing pleasure
136
438219
2593
07:20
when bad things happen to members of your old team.
137
440836
3458
در فضای سیاسی ماست.
07:26
This is a really good example of why us-them thinking is so dangerous
138
446064
6605
عادت دیگری که مهاجمین از آن برای افزایش انگیزه حمله استفاده می‌کردند
تمرکز بر تفاوت‌ها بود.
07:32
in our political environment.
139
452693
1770
به عبارت دیگر به قربانی‌هایشان نگاه می‌کردند و فکر می‌کردند،
07:34
Another habit that attackers used to kind of rev themselves up for an attack
140
454487
4341
«من هیچ اشتراکی با آن فرد ندارم.
07:38
was they focused on differences.
141
458852
2368
آنها کاملاً با من فرق دارند.»
07:41
In other words, they looked at their victims, and they thought,
142
461244
2957
دوباره، این ممکن است مفهوم ساده‌ای به نظر برسد،
07:45
"I share nothing in common with that person.
143
465075
2146
اما بازهم دانش جالبی پشت نحوه عملکرد این رفتارها وجود دارد.
07:47
They are totally different than me."
144
467245
2129
07:50
Again, this might sound like a really simple concept,
145
470829
3166
فرض کنید من به شما ویدئویی از دست‌های با رنگهای متفاوت نشان دهم
07:54
but there's some fascinating science behind why this works.
146
474019
4657
و سوزن‌های تیزی در این دست‌های با رنگ‌های متفاوت فرو می‌روند،
07:59
Say I show you guys videos of different-colored hands
147
479209
5229
خوب؟
اگر سفیدپوست باشید،
احتمالاً بیشترین ترحم،
08:04
and sharp pins being driven into these different-colored hands,
148
484462
3775
08:08
OK?
149
488261
1150
یا بیشترین رنج را
08:10
If you're white,
150
490360
1859
زمانی تجربه می‌کنید که سوزن وارد دست سفید می‌شود.
08:12
the chances are you will experience the most sympathetic activation,
151
492243
5711
اگر آمریکای لاتینی، عرب یا سیاه‌پوست باشید
08:17
or the most pain,
152
497978
1563
احتمالا بیشترین ترحم را زمانی تجربه می‌کنید
08:19
when you see a pin going into the white hand.
153
499565
2931
که ببینید یک سوزن به درون دستی فرو می‌رود که شبیه دست شماست.
08:24
If you are Latin American, Arab, Black,
154
504053
3394
08:27
you will probably experience the most sympathetic activation
155
507471
3567
خبر خوب اینکه این موضوع ریشه زیست‌شناسی ندارد.
08:31
watching a pin going into the hand that looks most like yours.
156
511062
4864
یک رفتار اکتسابی است.
یعنی وقتی زمان بیشتری با دیگر گروه‌های نژادی سپری کنیم
08:38
The good news is, that's not biologically fixed.
157
518846
3872
و ببینیم که آنها به ما شباهت بیشتری دارند و بخشی از گروه ما هستند،
08:42
That is learned behavior.
158
522742
1795
08:45
Which means the more we spend time with other ethnic communities
159
525252
4478
رنج آنها را بیشتر درک می‌کنیم.
08:49
and the more we see them as similar to us and part of our team,
160
529754
6869
آخرین عادتی که می‌خواهم در موردش حرف بزنم این است
که هنگامی که مهاجمین خود را برای بیرون رفتن و انجام این حوادث آماده می‌کنند،
08:56
the more we feel their pain.
161
536647
2228
08:58
The last habit that I'm going to talk about
162
538899
2557
بر محرک‌های عاطفی معینی تمرکز می‌کنند.
برای مثال، ماه‌ها با تمرکز بر محرک خشم انگیزه خود را افزایش می‌دهند.
09:01
is when attackers prepared themselves to go out and do one of these events,
163
541480
5057
09:06
they focused on certain emotional cues.
164
546561
2666
این را بیان می‌کنم چون این روزها خیلی رایج است.
09:09
For months, they geared themselves up by focusing on anger cues, for instance.
165
549251
5866
اگر وبلاگ‌ها و خبرها را بخوانید،
شما صحبت از دو مفهوم از دانش آزمایشگاهی را می‌بینید:
09:15
I bring this up because it's really popular right now.
166
555141
2698
09:17
If you read blogs or the news,
167
557863
3684
تسخیر بادامک (آمیگدال) مغز و تسخیر عاطفی.
خوب، تسخیر بادامک مغز:
09:21
you see talk of two concepts from laboratory science:
168
561571
3979
این مفهومی که به شما نشان می‌دهم یک محرک یا بهتر بگویم یک سلاح است.
09:25
amygdala hijacking and emotional hijacking.
169
565574
3205
و مغز شما با یک پاسخ به تهدید بصورت اتوماتیک به آن محرک
09:28
Now, amygdala hijacking:
170
568803
2573
واکنش نشان می‌دهد.
09:31
it's the concept that I show you a cue -- say, a gun --
171
571400
4089
تسخیر عاطفی -- مفهوم بسیار مشابهی است.
برای مثال من به شما یک محرک خشم را نشان می‌دهم
09:35
and your brain reacts with an automatic threat response
172
575513
3893
09:39
to that cue.
173
579430
1169
و مغز شما با پاسخ اتوماتیک به تهدید نسبت به آن محرک
09:40
Emotional hijacking -- it's a very similar concept.
174
580623
2501
09:43
It's the idea that I show you an anger cue, for instance,
175
583148
5031
واکنش نشان خواهد داد.
فکر می‌کنم معمولاً زنان بیش از مردان این مفهوم را درک می‌کنند. (خنده)
09:48
and your brain will react with an automatic anger response
176
588203
5089
(خنده)
این نوع روایت تسخیرکننده توجه ما را جلب می‌کند.
09:53
to that cue.
177
593316
1327
09:54
I think women usually get this more than men. (Laughs)
178
594667
3979
فقط کلمه «تسخیر» توجه ما را جلب می‌کند.
09:58
(Laughter)
179
598670
1007
موضوع این است
09:59
That kind of a hijacking narrative grabs our attention.
180
599701
3526
که بیشتر اوقات این محرک‌ها نیستند که در زندگی واقعی عمل می‌کنند.
10:03
Just the word "hijacking" grabs our attention.
181
603251
2765
اگر تاریخ بخوانید،
می‌بینید که ما روزانه با صدها هزار محرک
10:06
The thing is,
182
606526
1151
10:07
most of the time, that's not really how cues work in real life.
183
607701
4771
بمباران می‌شویم.
10:12
If you study history,
184
612970
1150
و کاری می‌کنیم، یاد می‌گیریم فیلتر کنیم.
10:14
what you find is that we are bombarded with hundreds of thousands of cues
185
614144
5262
برخی محرک‌ها را نادیده می‌گیریم،
به دیگر محرک‌ها توجه می‌کنیم.
برای خشونت سیاسی، این موضوع خیلی مهم است،
10:19
every day.
186
619430
1407
10:20
And so what we do is we learn to filter.
187
620861
2047
10:22
We ignore some cues,
188
622932
1844
زیرا معنایش این است که مهاجمین معمولاً فقط با دیدن یک محرک خشم
10:24
we pay attention to other cues.
189
624800
2179
10:27
For political violence, this becomes really important,
190
627003
3628
سریعاً دست به کار نمی‌شوند.
10:30
because what it meant is that attackers usually didn't just see an anger cue
191
630655
5911
در عوض،
سیاسیون و فعالین اجتماعی هفته‌ها، ماه‌ها و سال‌ها
10:36
and suddenly snap.
192
636590
1880
10:38
Instead,
193
638825
1463
برای مثال، محیط را با محرک‌های خشم لبریز می‌کنند،
10:40
politicians, social activists spent weeks, months, years
194
640312
6519
و مهاجمین،
به آن محرک‌ها توجه می‌کنند،
10:46
flooding the environment with anger cues, for instance,
195
646855
5023
به آن محرک‌ها اعتماد می‌کنند،
و بر آنها متمرکز می‌شوند،
10:51
and attackers,
196
651902
2003
حتی آن محرک‌ها را به خاطر می‌سپارند.
10:53
they paid attention to those cues,
197
653929
2435
همه اینها نشان می‌دهد که چقدر مطالعه تاریخ مهم است.
10:56
they trusted those cues,
198
656388
2526
10:58
they focused on them,
199
658938
1548
11:00
they even memorized those cues.
200
660510
2602
یک چیز هست برای اینکه نحوه عملکرد محرک‌ها را در شرایط آزمایشگاهی ببینیم.
11:03
All of this just really goes to show how important it is to study history.
201
663136
6477
و این آزمایش‌ها بسیار مهم هستند.
اطلاعات جدید زیادی در مورد نحوه عملکرد بدنمان به ما می‌دهند.
11:09
It's one thing to see how cues operate in a laboratory setting.
202
669637
3970
11:13
And those laboratory experiments are incredibly important.
203
673631
3614
اما بسیار مهم است که ببینیم این محرک‌ها در زندگی واقعی چگونه عمل می‌کنند.
11:17
They give us a lot of new data about how our bodies work.
204
677269
4222
11:22
But it's also very important to see how those cues operate in real life.
205
682269
5219
خوب همه اینها در مورد خشونت سیاسی به ما چه می‌گوید؟
خشونت سیاسی یک پدیده فرهنگی نیست.
11:30
So what does all this tell us about political violence?
206
690535
4165
یک پاسخ مقدرشده اتوماتیک به محرک محیطی نیست.
11:35
Political violence is not culturally endemic.
207
695908
3588
ما آن را تولید می‌کنیم.
رفتارهای روزانه ما آن را تولید می‌کند.
11:39
It is not an automatic, predetermined response to environmental stimuli.
208
699985
5223
بگذارید به عقب برگردیم، در واقع، در مورد آن دو زنی که در ابتدای صحبتم ذکر کردم.
11:45
We produce it.
209
705523
1183
11:47
Our everyday habits produce it.
210
707356
2073
زن اول به آن کمپین‌های خشم توجه کرده بود،
11:50
Let's go back, actually, to those two women that I mentioned at the start.
211
710945
3961
پس اسلحه را برداشت
و به سرباز حاضر در ایست و بازرسی نزدیک شد.
11:55
The first woman had been paying attention to those outrage campaigns,
212
715940
5578
ولی در آن لحظه، اتفاق بسیار جالبی رخ داد.
12:01
so she took a gun
213
721542
1423
12:02
and approached a soldier at a checkpoint.
214
722989
2269
به آن سرباز نگاه کرد،
و با خودش فکر کرد،
12:07
But in that moment, something really interesting happened.
215
727302
3603
«او هم سن من است.
12:10
She looked at that soldier,
216
730929
2869
او شبیه من است.»
12:13
and she thought to herself,
217
733822
1953
و اسلحه را زمین گذاشت و از محل دور شد.
12:18
"He's the same age as me.
218
738180
2582
فقط تکه کوچکی از شباهت.
12:21
He looks like me."
219
741435
1518
دختر دوم نتیجه کاملاً متفاوتی را رقم زد.
12:24
And she put down the gun, and she walked away.
220
744724
2538
12:28
Just from that little bit of similarity.
221
748179
2423
او هم به آن کمپین‌های خشم گوش کرده بود،
اما او خود را با افرادی
12:32
The second girl had a totally different outcome.
222
752128
3574
که حامی خشونت بودند احاطه کرده بود،
همکارانش از خشونت وی دفاع می‌کردند.
12:37
She also listened to the outrage campaigns,
223
757533
2849
12:40
but she surrounded herself with individuals
224
760406
2992
او خود را در یک حباب اطلاعاتی محصور کرده بود.
12:43
who were supportive of violence,
225
763422
1824
برای ماه‌ها بر محرک‌های عاطفی معینی تمرکز کرده بود.
12:45
with peers who supported her violence.
226
765270
2506
او به خود آموخته بود که موانع فرهنگی معین علیه خشونت را دور بزند.
12:48
She enclosed herself in an information bubble.
227
768707
3276
12:52
She focused on certain emotional cues for months.
228
772747
3650
او نقشه‌اش را عملی کرد،
او عادات جدیدی به خود آموخته بود،
12:56
She taught herself to bypass certain cultural inhibitions against violence.
229
776421
5592
و هنگامی که وقتش رسید بمبش را به آن قهوه‌خانه برد،
و به حمله خود ادامه داد.
13:02
She practiced her plan,
230
782037
1747
13:03
she taught herself new habits,
231
783808
2247
13:06
and when the time came, she took her bomb to the café,
232
786079
4122
یک تصمیم آنی نبود.
13:10
and she followed through with that attack.
233
790225
2301
یک فرآیند آموزش بود.
قطبی‌سازی در جامعه ما آنی نیست،
13:15
This was not impulse.
234
795592
2811
یک فرآیند آموزشی است.
13:18
This was learning.
235
798903
1673
ما هر روز داریم به خودمان آموزش می‌دهیم:
13:22
Polarization in our society is not impulse,
236
802463
3882
خبری که بر آن کلیک می‌کنیم،
عواطفی که بر آن تمرکز می‌کنیم،
13:26
it's learning.
237
806369
1346
تفکراتی که در مورد تیم قرمز یا تیم آبی مطرح کردیم.
13:28
Every day we are teaching ourselves:
238
808391
2927
13:31
the news we click on,
239
811342
1962
همه اینها به آموزش منجر می‌شوند،
13:33
the emotions that we focus on,
240
813328
2044
چه بفهمیم چه نفهمیم.
13:35
the thoughts that we entertain about the red team or the blue team.
241
815396
4360
خبر خوب اینکه
در حالی که افرادی که پیشاپیش تصمیم خود را گرفته بودند مطالعه می‌کردم،
13:40
All of this contributes to learning,
242
820284
2265
13:42
whether we realize it or not.
243
822573
1723
13:44
The good news
244
824696
1628
ما همچنان می‌توانیم مسیر خود را تغییر دهیم.
13:47
is that while the individuals I study already made their decisions,
245
827570
5871
شاید ما هیچ وقت تصمیم آنها را نگیریم،
اما می‌توانیم مشارکت در ایجاد شرایط محیطی خشونت‌زا را متوقف کنیم.
13:53
we can still change our trajectory.
246
833465
2420
13:57
We might never make the decisions that they made,
247
837164
3660
می‌توانیم از حباب اطلاعاتی که درون آن هستیم خارج شویم،
14:00
but we can stop contributing to violent ecologies.
248
840848
4149
می‌توانیم در مورد محرک‌های عاطفی که بر آن تمرکز می‌کنیم
14:05
We can get out of whatever news bubble we're in,
249
845552
4486
بیشتر فکر کنیم،
طعمه خشمی که بر آن کلیک می‌کنیم.
اما مهمتر از همه،
14:10
we can be more mindful about the emotional cues
250
850062
4044
می‌توانیم اینکه همدیگر را بعنوان اعضای تیم قرمز یا تیم آبی
14:14
that we focus on,
251
854130
1229
14:15
the outrage bait that we click on.
252
855383
2399
ببینیم را متوقف کنیم.
زیرا چه مسیحی، مسلمان، یهودی، آتئیست،
14:18
But most importantly,
253
858422
1180
14:19
we can stop seeing each other as just members of the red team
254
859626
4501
دموکرات یا جمهوری‌خواه باشیم،
14:24
or the blue team.
255
864151
1394
14:25
Because whether we are Christian, Muslim, Jewish, atheist,
256
865959
5897
همه انسان هستیم.
ما انسان هستیم.
و اغلب عادات واقعاً مشابهی را به اشتراک می‌گذاریم.
14:31
Democrat or Republican,
257
871880
2484
ما تفاوت‌هایی داریم.
14:34
we're human.
258
874388
1156
14:35
We're human beings.
259
875568
1275
این تفاوت‌ها زیبا هستند،
14:37
And we often share really similar habits.
260
877992
3502
و این تفاوت‌ها بسیار مهم هستند.
اما آینده بستگی دارد به ما که قادر باشیم زمینه مشترکی
14:42
We have differences.
261
882224
1833
14:44
Those differences are beautiful,
262
884081
2215
14:46
and those differences are very important.
263
886320
2441
با طرف دیگر پیدا کنیم.
14:48
But our future depends on us being able to find common ground
264
888785
6469
و به همین خاطر اینقدر مهم است
که ذهنمان را حفظ کنیم.
14:55
with the other side.
265
895278
1350
و مشارکت در ایجاد شرایط محیطی خشونت‌زا را متوقف کنیم.
14:57
And that's why it is so, so important
266
897785
3335
متشکرم.
(تشویق)
15:01
for us to retrain our brains
267
901144
2579
15:03
and stop contributing to violent ecologies.
268
903747
3800
15:08
Thank you.
269
908272
1172
15:09
(Applause)
270
909468
1906
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7