How do daily habits lead to political violence? | Christiane-Marie Abu Sarah

90,971 views ・ 2020-09-18

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

00:00
Transcriber: Leslie Gauthier Reviewer: Camille Martínez
0
0
7000
번역: jiwon choo 검토: DK Kim
저는 역사적인 수수께끼로 오늘 강연을 시작해 볼까 합니다.
1957년에 두 여성이 있었는데,
둘 다 20대였고, 같은 도시에 살았으며,
00:12
So I'm starting us out today with a historical mystery.
1
12887
3528
동일한 정치 단체에 소속된 회원이었습니다.
00:17
In 1957, there were two young women,
2
17037
2969
그해, 두 여성 모두 폭력적인 공격을 자행하기로 결심합니다.
00:20
both in their 20s,
3
20030
1355
00:21
both living in the same city,
4
21409
1484
00:22
both members of the same political group.
5
22917
2836
한 여성은 총을 챙겨 검문소의 군인에게 접근했고,
00:26
That year, both decided to commit violent attacks.
6
26751
3840
다른 여성은 폭탄을 챙겨 북적이는 카페로 향했습니다.
00:31
One girl took a gun and approached a soldier at a checkpoint.
7
31284
4129
그런데 한 가지 알아둘 것은
둘 중 한 여성은 공격을 자행했지만,
00:36
The other girl took a bomb and went to a crowded café.
8
36300
4778
다른 여성은 결국 안 했다는 것입니다.
00:42
But here's the thing:
9
42287
1699
00:44
one of the those girls followed through with the attack,
10
44429
3709
왜 이런 차이가 생겼을까요?
저는 행동역사학자로서
00:49
but the other turned back.
11
49028
3020
공격성, 도덕적 인지 능력,
그리고 사회적 행동을 할 때의 의사 결정에 대해 연구합니다.
00:53
So what made the difference?
12
53303
1694
어마어마하네요. (웃음)
00:56
I'm a behavioral historian, and I study aggression,
13
56157
3257
해석하자면,
00:59
moral cognition
14
59438
1921
저는 한 개인이 방아쇠를 당기기로 결정할 때의 순간,
01:01
and decision-making in social movements.
15
61383
3209
01:04
That's a mouthful. (Laughs)
16
64616
1997
그 순간으로 다다르게 한 매일매일의 결정들,
01:06
So, the translation of that is:
17
66637
2650
01:09
I study the moment an individual decides to pull the trigger,
18
69311
4778
그리고 그 행동이 왜 정당한지 스스로 되뇌는 이야기들을 연구합니다.
01:14
the day-to-day decisions that led up to that moment
19
74113
4636
제게 이 주제는 그저 학구적인 것이 아닙니다.
01:18
and the stories that they tell themselves about why that behavior is justified.
20
78773
6123
사실 약간 개인적인 것입니다.
저는 아이다호에 있는 쿠테나이에서 자랐습니다.
01:25
Now, this topic --
21
85468
1256
01:26
it's not just scholarly for me.
22
86748
2670
그리고 아주 중요한 것인데,
이 지역은 아이다호에서 감자가 자라지 않는 곳입니다.
01:29
It's actually a bit personal.
23
89442
1785
01:31
I grew up in Kootenai County, Idaho,
24
91251
3361
우리는 감자가 없어요.
01:34
and this is very important.
25
94636
2088
저에게 감자에 대해 물으신다면 기필코 응징하겠습니다.
01:37
This is not the part of Idaho with potatoes.
26
97147
4522
(웃음)
아이다호의 이 지역은 산과 계곡,
01:41
We have no potatoes.
27
101693
2418
승마와 스키로 유명합니다.
01:44
And if you ask me about potatoes,
28
104135
1973
01:46
I will find you.
29
106132
1351
01:47
(Laughter)
30
107507
1219
우려스럽게도, 1980년대부터는
01:48
This part of Idaho is known for mountain lakes,
31
108750
3448
아리안 네이션즈의 전 세계 본부로도 유명해지게 되었습니다.
01:52
horseback riding,
32
112222
1825
01:54
skiing.
33
114071
1248
01:55
Unfortunately, starting in the 1980s,
34
115684
3254
매년, 지역 네오나치 소속 회원들은
01:58
it also became known as the worldwide headquarters
35
118962
4007
자신들을 드러내며 우리 마을을 지나 행진을 했고,
02:02
for the Aryan Nations.
36
122993
1991
매년, 주민들은 그들을 상대로 항의 시위를 했습니다.
02:05
Every year, members of the local neo-Nazi compound
37
125348
3563
그리고 2001년, 저는 고등학교를 졸업하고
02:08
would turn out and march through our town,
38
128935
2989
02:11
and every year,
39
131948
1210
뉴욕시에 있는 대학을 갔습니다.
02:13
members of our town would turn out and protest them.
40
133182
3341
02:16
Now, in 2001, I graduated from high school,
41
136547
3848
2001년 8월에 도착했어요.
02:20
and I went to college in New York City.
42
140419
4158
많은 분들이 아시겠지만
3주 뒤 쌍둥이 빌딩이 무너져 내렸습니다.
02:24
I arrived in August 2001.
43
144601
3952
그때, 저는 충격 받았어요.
02:29
As many of you probably are aware,
44
149482
2284
02:31
three weeks later,
45
151790
1891
미칠 듯이 화가 났습니다.
02:33
the Twin Towers went down.
46
153705
1795
무언가 하고 싶었습니다.
02:36
Now, I was shocked.
47
156243
3754
그러나, 그때 제가 생각해낼 수 있었던 것은
02:40
I was incredibly angry.
48
160503
2375
아랍어를 배우는 것뿐이었습니다.
02:44
I wanted to do something,
49
164613
1609
인정해야겠습니다.
02:46
but the only thing that I could think of doing at that time
50
166246
4150
저는 ‘그들‘이 ‘우리’를 싫어하는 이유를 알고자 한 소녀였습니다.
02:50
was to study Arabic.
51
170420
2203
저는 대단히 잘못된 이유로 아랍어를 공부하기 시작했어요.
02:53
I will admit,
52
173955
1157
02:55
I was that girl in class that wanted to know why "they" hate "us."
53
175136
6087
그런데 예상치 못한 일이 일어났습니다.
이스라엘 유학 장학금을 받은 것입니다.
03:01
I started studying Arabic for very wrong reasons.
54
181247
3391
그래서 그 아이다호 소녀는 중동으로 갔습니다.
그리고 거기에서 저는
03:05
But something unexpected happened.
55
185265
1935
03:07
I got a scholarship to go study in Israel.
56
187224
2970
팔레스타인 무슬림들, 팔레스타인 기독교인들,
03:10
So the Idaho girl went to the Middle East.
57
190718
2817
아스라엘 정착민들, 이스라엘 평화주의자들을 만났습니다.
03:13
And while I was there, I met Palestinian Muslims,
58
193559
4486
그리고 모든 행동에는 이유가 있다는 것을 배웠습니다.
03:18
Palestinian Christians,
59
198069
2032
03:20
Israeli settlers,
60
200125
1157
배경이 있는 것입니다.
03:21
Israeli peace activists.
61
201306
1669
03:23
And what I learned is that every act has an ecology.
62
203501
4534
그때부터 저는 전 세계를 돌아다니면서
폭력적인 움직임들을 연구했고,
03:28
It has a context.
63
208696
1429
NGO와 전직 전투원들과 만났습니다.
03:32
Now, since then, I have gone around the world,
64
212074
3553
그 국가들은 이라크, 시리아,
03:35
I have studied violent movements,
65
215651
3914
베트남, 발칸 지역과 쿠바입니다.
03:39
I have worked with NGOs and ex-combatants in Iraq,
66
219589
4965
저는 역사에서 박사 학위를 취득했고,
03:44
Syria,
67
224578
1198
지금 하는 일은 여러 자료집에서 문서를 찾고,
03:45
Vietnam,
68
225800
1419
03:47
the Balkans,
69
227243
1182
03:48
Cuba.
70
228449
1281
경찰 조서와 법정 기록을 찾고
03:50
I earned my PhD in History,
71
230422
2395
03:52
and now what I do is I go to different archives
72
232841
2514
03:55
and I dig through documents,
73
235379
2221
폭력적인 공격에 참여한 사람의 일기장과 선언문을 살펴봅니다.
03:57
looking for police confessions,
74
237624
3633
이제, 이러한 문서들을 다 모으면,
04:01
court cases,
75
241281
2565
04:03
diaries and manifestos of individuals involved in violent attacks.
76
243870
5216
그것들이 무엇을 말해줄까요?
우리 뇌는 인과 관계 수수께끼를 좋아합니다.
04:09
Now, you gather all these documents --
77
249110
3186
그래서 뉴스에서 공격 소식을 볼 때면
04:12
what do they tell you?
78
252320
1410
한 가지 질문을 하곤 하죠.
04:13
Our brains love causal mysteries,
79
253754
3167
“왜? 왜 이런 일이 일어났지?”
04:16
it turns out.
80
256945
1188
저는 수많은 성명서를 읽었는데
04:18
So any time we see an attack on the news,
81
258157
2950
이러한 행동들은 사실 모방적인 움직임이라는 것을 알게 되었습니다.
04:21
we tend to ask one question:
82
261131
2432
04:23
Why?
83
263587
1302
04:24
Why did that happen?
84
264913
1491
성명서들을 가져다 쓴 정치적인 운동을 모방한 거죠.
04:26
Well, I can tell you I've read thousands of manifestos,
85
266428
2900
그 성명서들은 어떤 특정한 사건에 작용한 의사 결정 과정에 대해서는
04:29
and what you find out is that they are actually imitative.
86
269352
4561
04:33
They imitate the political movement that they're drawing from.
87
273937
3569
자세히 말해주지 않습니다.
그래서 완전히 다른 질문을 해야 한다는 것을 배웠습니다.
04:37
So they actually don't tell us a lot about decision-making
88
277530
4013
“왜?”라고 물어보는 대신 “어떻게?“라고 물어 봐야 합니다.
04:41
in that particular case.
89
281567
1994
04:43
So we have to teach ourselves to ask a totally different question.
90
283924
4618
어떻게 개인들이 이런 테러를 계획하고
그들이 의사 결정을 하는 과정들이
04:48
Instead of "Why?" we have to ask "How?"
91
288566
3578
어떻게 폭력적인 행동에 기여를 했을까요?
04:52
How did individuals produce these attacks,
92
292168
2911
이러한 질문을 하면서 배운 것이 몇 가지 있습니다.
04:55
and how did their decision-making ecology contribute to violent behavior?
93
295103
5278
가장 중요한 것은
정치적 폭력성은 문화적 현상이 아니라는 것입니다.
05:00
There's a couple things I've learned from asking this kind of question.
94
300781
5018
우리가 만든 것입니다.
우리가 알든 모르든 일상적인 습관들이
05:05
The most important thing is that
95
305823
2072
05:07
political violence is not culturally endemic.
96
307919
3036
우리 환경에서 폭력이 생성되는 것에 영향을 미칩니다.
05:10
We create it.
97
310979
1380
05:12
And whether we realize it or not,
98
312383
2290
이것들이 폭력을 야기하는 몇 가지 습관들입니다.
05:14
our day-to-day habits contribute to the creation of violence
99
314697
5463
가해자들이 테러를 계획할 때
05:20
in our environment.
100
320184
1554
05:21
So here's a couple of habits that I've learned contribute to violence.
101
321762
5216
가장 첫 번쨰로 했던 것은
스스로를 정보 우물에 가둔 것입니다.
05:28
One of the first things that attackers did
102
328322
3240
가짜 뉴스라고 들어보셨겠죠?
05:31
when preparing themselves for a violent event
103
331586
3806
저를 정말 놀라게 한 것이 있는데
05:35
was they enclosed themselves in an information bubble.
104
335416
3695
제가 연구했던 모든 집단에 가짜 뉴스 구호가 있었습니다.
05:39
We've heard of fake news, yeah?
105
339135
2558
프랑스 공산당원들은 ‘부패한 언론’이라고 했고
05:41
Well, this shocked me:
106
341717
2377
프랑스 초국가주의자들은 ‘매수된 언론’
05:44
every group that I studied had some kind of a fake news slogan.
107
344118
3498
‘배신자 언론’이라 했고
05:47
French communists called it the "putrid press."
108
347640
3388
이집트 무슬림들은 ‘저질 뉴스’라고 했고
05:51
French ultranationalists called it the "sellout press"
109
351052
4097
이집트 공산당원들은 ‘가짜 뉴스’라고 불렀습니다.
05:55
and the "treasonous press."
110
355173
2192
왜 이런 집단들은 거짓 정보를 만드는 데 시간을 많이 투자했을까요?
05:57
Islamists in Egypt called it the "depraved news."
111
357389
3511
06:00
And Egyptian communists called it ...
112
360924
3065
답은 사실 굉장히 단순합니다.
06:04
"fake news."
113
364013
1253
사람들은 자신이 믿는 사실에 근거해서 결정을 내립니다.
06:05
So why do groups spend all this time trying to make these information bubbles?
114
365290
4506
그래서 만약 우리가 나쁜 정보를 믿는다면
06:09
The answer is actually really simple.
115
369820
2881
06:12
We make decisions based on the information we trust, yeah?
116
372725
4495
우리는 나쁜 선택을 할 것입니다.
개인들이 폭력적인 공격을 하고 싶을 때
06:17
So if we trust bad information,
117
377244
3843
가지고 있던 또 다른 흥미로운 습관은
06:21
we're going to make bad decisions.
118
381111
2975
그들이 피해자들을 인간이 아니라
06:24
Another interesting habit that individuals used
119
384110
2990
그저 상대 팀의 일원으로만 봤다는 것입니다.
06:27
when they wanted to produce a violent attack
120
387124
2943
여기서부터 정말 이상해지는데
06:30
was that they looked at their victim not as an individual
121
390091
3530
이러한 행동이 효과적인 이유에는 재미있는 뇌과학이 숨어 있습니다.
06:33
but just as a member of an opposing team.
122
393645
2711
여러분을 두 팀으로 나눈다고 가정해 봅시다.
06:37
Now this gets really weird.
123
397006
1731
파란팀, 빨간팀으로요.
06:39
There's some fun brain science behind why that kind of thinking is effective.
124
399554
4335
그러고 나서 서로 이기도록 경쟁을 시킵니다.
06:43
Say I divide all of you guys into two teams:
125
403913
3528
재미있는 것은, 순식간에,
06:47
blue team,
126
407465
1152
06:48
red team.
127
408641
1304
상대방 팀원에 나쁜 일이 생겼을 때
06:49
And then I ask you to compete in a game against each other.
128
409969
3468
여러분이 기쁨을 느끼기 시작한다는 것입니다.
06:53
Well, the funny thing is, within milliseconds,
129
413461
3958
06:57
you will actually start experiencing pleasure -- pleasure --
130
417443
4849
만약 파란팀 팀원에게 빨간팀에 합류하라고 지시한다면
07:02
when something bad happens to members of the other team.
131
422316
4813
뇌가 순식간에 재조정을 하고
07:07
The funny thing about that is if I ask one of you blue team members
132
427814
4084
자신이 원래 속해 있던 팀에
07:11
to go and join the red team,
133
431922
1915
나쁜 일이 생길 때 기쁨을 느낄 것입니다.
07:14
your brain recalibrates,
134
434805
1992
07:16
and within milliseconds,
135
436821
1374
07:18
you will now start experiencing pleasure
136
438219
2593
우리의 정치적인 환경에서
07:20
when bad things happen to members of your old team.
137
440836
3458
우리와 그들을 구분지어서 생각하는 것이 위험한 이유입니다.
공격자들이 공격을 준비하면서 한 또 한 가지는
07:26
This is a really good example of why us-them thinking is so dangerous
138
446064
6605
차이점에 주목한 것입니다.
07:32
in our political environment.
139
452693
1770
다른 말로 하면 그들은 희생자들을 보면서 생각했죠.
07:34
Another habit that attackers used to kind of rev themselves up for an attack
140
454487
4341
’나는 저 사람과는 공통점이 없어, 나와는 전혀 다른 사람이야.′
07:38
was they focused on differences.
141
458852
2368
07:41
In other words, they looked at their victims, and they thought,
142
461244
2957
이 말도 굉장히 단순하게 들릴 수도 있습니다만
07:45
"I share nothing in common with that person.
143
465075
2146
이것이 왜 효과가 있는지에는 굉장히 흥미로운 과학이 있습니다.
07:47
They are totally different than me."
144
467245
2129
07:50
Again, this might sound like a really simple concept,
145
470829
3166
여러분들에게 여러 인종의 손을 보여드리겠습니다.
07:54
but there's some fascinating science behind why this works.
146
474019
4657
이 색색 가지 손에 뾰족한 바늘을 찌를 것입니다.
07:59
Say I show you guys videos of different-colored hands
147
479209
5229
만약 여러분이 백인이라면
하얀 손이 바늘에 찔리는 것을 볼 때
08:04
and sharp pins being driven into these different-colored hands,
148
484462
3775
08:08
OK?
149
488261
1150
그 고통에 가장 크게 공감할 확률이 높습니다.
08:10
If you're white,
150
490360
1859
08:12
the chances are you will experience the most sympathetic activation,
151
492243
5711
만약 남미, 아랍, 흑인이라면
08:17
or the most pain,
152
497978
1563
여러분의 손과 가장 비슷해 보이는 손이
08:19
when you see a pin going into the white hand.
153
499565
2931
바늘에 찔리는 것을 볼 때 가장 크게 공감이 될 것입니다.
08:24
If you are Latin American, Arab, Black,
154
504053
3394
08:27
you will probably experience the most sympathetic activation
155
507471
3567
좋은 소식이 있는데
08:31
watching a pin going into the hand that looks most like yours.
156
511062
4864
이는 생물학적으로 고정된 것이 아니고 배워서 얻은 행동이라는 것입니다.
즉, 다른 인종 사람들과 시간을 더 많이 보낼수록
08:38
The good news is, that's not biologically fixed.
157
518846
3872
그들과 나를 구분하지 않고
08:42
That is learned behavior.
158
522742
1795
같은 팀으로 여기며 그들의 고통을 더 느끼는 겁니다.
08:45
Which means the more we spend time with other ethnic communities
159
525252
4478
08:49
and the more we see them as similar to us and part of our team,
160
529754
6869
제가 말할 마지막 습관은
가해자들이 공격을 준비하고 실제로 공격을 할 때
08:56
the more we feel their pain.
161
536647
2228
08:58
The last habit that I'm going to talk about
162
538899
2557
그들은 특정한 감정적인 계기에 주목한다는 것입니다.
예를 들어 그들은 분노라는 감정에 몇 달씩 집중하며 감정을 올립니다.
09:01
is when attackers prepared themselves to go out and do one of these events,
163
541480
5057
09:06
they focused on certain emotional cues.
164
546561
2666
제가 이 얘기를 꺼내는 이유는 요즘 매우 인기있기 때문입니다.
09:09
For months, they geared themselves up by focusing on anger cues, for instance.
165
549251
5866
블로그나 뉴스를 읽으면
실험 과학 분야에서 두 가지 개념이 보입니다.
09:15
I bring this up because it's really popular right now.
166
555141
2698
편도체 강제 납치와 감정적 강제 납치입니다.
09:17
If you read blogs or the news,
167
557863
3684
먼저 편도체 강제 납치는
09:21
you see talk of two concepts from laboratory science:
168
561571
3979
여러분에게 어떤 신호, 예를 들어 총을 보여준다면
09:25
amygdala hijacking and emotional hijacking.
169
565574
3205
여러분의 뇌가 위협에 대응하려고
09:28
Now, amygdala hijacking:
170
568803
2573
신호에 자동적으로 반응하는 것입니다.
09:31
it's the concept that I show you a cue -- say, a gun --
171
571400
4089
감정적 강제 납치도 매우 비슷한 내용입니다.
예를 들어 여러분에게 분노 신호를 보여준다면
09:35
and your brain reacts with an automatic threat response
172
575513
3893
09:39
to that cue.
173
579430
1169
여러분의 뇌도 자동적으로
09:40
Emotional hijacking -- it's a very similar concept.
174
580623
2501
신호에 맞춰서 분노에 대응할 것입니다.
09:43
It's the idea that I show you an anger cue, for instance,
175
583148
5031
이건 여자들이 남자들보다 더 많이 느끼는 것 같아요.
09:48
and your brain will react with an automatic anger response
176
588203
5089
(웃음)
이러한 강제 납치는 우리의 관심을 끕니다.
09:53
to that cue.
177
593316
1327
09:54
I think women usually get this more than men. (Laughs)
178
594667
3979
‘강제 납치’라는 말부터 우리의 이목을 끌죠.
09:58
(Laughter)
179
598670
1007
그런데 대부분의 경우,
09:59
That kind of a hijacking narrative grabs our attention.
180
599701
3526
현실에서 계기는 이렇게 작용하지 않습니다.
10:03
Just the word "hijacking" grabs our attention.
181
603251
2765
역사를 공부하면
현재 매일 수십만 개 신호가 퍼부어진다는 것을 알게 됩니다.
10:06
The thing is,
182
606526
1151
10:07
most of the time, that's not really how cues work in real life.
183
607701
4771
10:12
If you study history,
184
612970
1150
그래서 우리는 거르는 것을 배웁니다.
10:14
what you find is that we are bombarded with hundreds of thousands of cues
185
614144
5262
우리는 어떤 신호는 무시하고 다른 신호들에는 주목합니다.
정치적 폭력의 경우, 이는 매우 중요합니다.
10:19
every day.
186
619430
1407
10:20
And so what we do is we learn to filter.
187
620861
2047
10:22
We ignore some cues,
188
622932
1844
왜냐하면 공격자들이 분노 신호 하나만을 보고
10:24
we pay attention to other cues.
189
624800
2179
그냥 갑자기 이성을 잃는 것이 아니라는 뜻이기 때문입니다.
10:27
For political violence, this becomes really important,
190
627003
3628
10:30
because what it meant is that attackers usually didn't just see an anger cue
191
630655
5911
그게 아닙니다.
정치가, 사회운동가들은 몇 주, 몇 개월, 몇 년 동안
10:36
and suddenly snap.
192
636590
1880
10:38
Instead,
193
638825
1463
예를 들어 분노 신호들로 환경을 가득 채웠으며
10:40
politicians, social activists spent weeks, months, years
194
640312
6519
공격자들은
그 신호들에 주의를 기울이고
10:46
flooding the environment with anger cues, for instance,
195
646855
5023
그 신호들을 신뢰했습니다.
그 신호에 주목하며 외우기까지 했습니다.
10:51
and attackers,
196
651902
2003
10:53
they paid attention to those cues,
197
653929
2435
이 모든 것은 사실 역사 공부가 얼마나 중요한지를 보여줍니다.
10:56
they trusted those cues,
198
656388
2526
10:58
they focused on them,
199
658938
1548
11:00
they even memorized those cues.
200
660510
2602
신호가 실험실에서 어떻게 작동하는지 아는 것은,
11:03
All of this just really goes to show how important it is to study history.
201
663136
6477
이런 실험들은 굉장히 중요합니다.
우리 몸이 어떻게 작동하는지에 대해 새로운 정보를 제공하기 떄문입니다.
11:09
It's one thing to see how cues operate in a laboratory setting.
202
669637
3970
11:13
And those laboratory experiments are incredibly important.
203
673631
3614
하지만 현실에서 이런 신호들이 어떻게 작동하는지 아는 것도 매우 중요합니다.
11:17
They give us a lot of new data about how our bodies work.
204
677269
4222
그래서 이 모든 것이 정치적 폭력에 대해서 무엇을 말하고 있는 것일까요?
11:22
But it's also very important to see how those cues operate in real life.
205
682269
5219
정치적 폭력은 문화적으로 고유한 것이 아닙니다.
11:30
So what does all this tell us about political violence?
206
690535
4165
환경 자극에 자동으로 반응하는 것도 아니고
미리 정해진 것도 아닙니다.
11:35
Political violence is not culturally endemic.
207
695908
3588
우리가 만드는 것입니다.
일상적인 습관들에서 만들어집니다.
11:39
It is not an automatic, predetermined response to environmental stimuli.
208
699985
5223
처음에 언급했던 두 여성들로 돌아가 보겠습니다.
11:45
We produce it.
209
705523
1183
11:47
Our everyday habits produce it.
210
707356
2073
첫 번째 여성은 분노를 일으키는 정보에 주의를 기울였고
11:50
Let's go back, actually, to those two women that I mentioned at the start.
211
710945
3961
그래서 총을 들고 검문소 군인에게 접근하였습니다.
11:55
The first woman had been paying attention to those outrage campaigns,
212
715940
5578
그런데 그 순간 무척 신기한 일이 일어났습니다.
12:01
so she took a gun
213
721542
1423
12:02
and approached a soldier at a checkpoint.
214
722989
2269
그녀는 군인을 보았고
생각을 했습니다.
12:07
But in that moment, something really interesting happened.
215
727302
3603
‘내 또래구나.’
12:10
She looked at that soldier,
216
730929
2869
‘나랑 닯았네.’
12:13
and she thought to herself,
217
733822
1953
그녀는 총을 내리고 떠났습니다.
12:18
"He's the same age as me.
218
738180
2582
그 작은 공통점을 발견하고 말이죠.
12:21
He looks like me."
219
741435
1518
그러나 두 번째 여성에서는 완전히 다른 결과가 나왔습니다.
12:24
And she put down the gun, and she walked away.
220
744724
2538
12:28
Just from that little bit of similarity.
221
748179
2423
그녀 역시 분노를 일으키는 신호에 귀를 기울였습니다.
그러나 그녀는 폭력을 지지하는 사람들에게 둘러싸여 있었습니다.
12:32
The second girl had a totally different outcome.
222
752128
3574
그녀의 폭력을 지지하는 동료들이었죠.
12:37
She also listened to the outrage campaigns,
223
757533
2849
12:40
but she surrounded herself with individuals
224
760406
2992
그녀는 스스로를 정보 우물에 가뒀습니다.
12:43
who were supportive of violence,
225
763422
1824
그녀는 특정한 감정 신호에 몇 달간 주목했습니다.
12:45
with peers who supported her violence.
226
765270
2506
폭력을 규제하는 문화적 억제는 피해가도록 스스로 가르쳤죠.
12:48
She enclosed herself in an information bubble.
227
768707
3276
12:52
She focused on certain emotional cues for months.
228
772747
3650
계획을 연습했고 새로운 습관들을 학습했으며
12:56
She taught herself to bypass certain cultural inhibitions against violence.
229
776421
5592
시간이 되었을 때 폭탄을 들고 카페에 들어가서
계획대로 공격을 했습니다.
13:02
She practiced her plan,
230
782037
1747
13:03
she taught herself new habits,
231
783808
2247
13:06
and when the time came, she took her bomb to the café,
232
786079
4122
충동적인 것이 아니었습니다.
13:10
and she followed through with that attack.
233
790225
2301
학습이었죠.
사회에서 양극의 대립은 충동이 아니고 학습입니다.
13:15
This was not impulse.
234
795592
2811
13:18
This was learning.
235
798903
1673
우리는 매일 스스로를 가르치고 있습니다.
13:22
Polarization in our society is not impulse,
236
802463
3882
우리가 열어 보는 뉴스,
우리가 주목하는 감정들,
13:26
it's learning.
237
806369
1346
우리가 빨간팀이나 파란팀에 대해 하는 생각들.
13:28
Every day we are teaching ourselves:
238
808391
2927
13:31
the news we click on,
239
811342
1962
우리가 자각하는지와 상관없이 이 모든 것들이 학습에 기여합니다.
13:33
the emotions that we focus on,
240
813328
2044
13:35
the thoughts that we entertain about the red team or the blue team.
241
815396
4360
좋은 소식은
제가 연구했던 개인들은 이미 결정을 했지만
13:40
All of this contributes to learning,
242
820284
2265
13:42
whether we realize it or not.
243
822573
1723
13:44
The good news
244
824696
1628
우리는 아직 미래를 바꿀 수 있다는 것입니다.
13:47
is that while the individuals I study already made their decisions,
245
827570
5871
우리는 그들이 내렸던 결정은 절대 하지 않겠지만
그래도 폭력적인 생태계에 기여하는 것은 막을 수 있습니다.
13:53
we can still change our trajectory.
246
833465
2420
우리가 들어가 있는 정보 우물에서 벗어날 수 있고
13:57
We might never make the decisions that they made,
247
837164
3660
14:00
but we can stop contributing to violent ecologies.
248
840848
4149
우리가 주목하는 감정적인 신호들이나
14:05
We can get out of whatever news bubble we're in,
249
845552
4486
자극적인 낚시 기사들을 더 잘 알아차릴 수 있습니다.
그러나 가장 중요한 것은
14:10
we can be more mindful about the emotional cues
250
850062
4044
우리가 서로를 대립하는 팀의 구성원으로
14:14
that we focus on,
251
854130
1229
보는 것을 막을 수 있다는 것입니다.
14:15
the outrage bait that we click on.
252
855383
2399
우리가 기독교인, 무슬림, 유대교인, 무교이든,
14:18
But most importantly,
253
858422
1180
14:19
we can stop seeing each other as just members of the red team
254
859626
4501
진보든 보수든,
14:24
or the blue team.
255
864151
1394
14:25
Because whether we are Christian, Muslim, Jewish, atheist,
256
865959
5897
우리는 같은 사람이고 인간입니다.
우리는 정말 비슷한 습관을 공유할 때가 많습니다.
14:31
Democrat or Republican,
257
871880
2484
우리는 다른 면이 있습니다.
14:34
we're human.
258
874388
1156
14:35
We're human beings.
259
875568
1275
이러한 차이는 아릅답고 이러한 차이는 중요합니다.
14:37
And we often share really similar habits.
260
877992
3502
그러나 우리의 미래는
14:42
We have differences.
261
882224
1833
우리가 반대편과 공통점을 찾는 것에 달려 있습니다.
14:44
Those differences are beautiful,
262
884081
2215
14:46
and those differences are very important.
263
886320
2441
14:48
But our future depends on us being able to find common ground
264
888785
6469
그래서 정말 정말 중요합니다.
우리는 뇌를 재교육하여
14:55
with the other side.
265
895278
1350
폭력적인 생태계에 기여하는 것을 멈춰야 합니다.
14:57
And that's why it is so, so important
266
897785
3335
감사합니다.
(박수)
15:01
for us to retrain our brains
267
901144
2579
15:03
and stop contributing to violent ecologies.
268
903747
3800
15:08
Thank you.
269
908272
1172
15:09
(Applause)
270
909468
1906
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7