How racial bias works -- and how to disrupt it | Jennifer L. Eberhardt

169,201 views ・ 2020-06-22

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: YoonJu Mangione 검토: Jihyeon J. Kim
00:12
Some years ago,
0
12910
1273
몇 년 전
00:14
I was on an airplane with my son who was just five years old at the time.
1
14207
4912
저는 당시 다섯 살 밖에 안된 아들과 비행기를 탔습니다.
00:20
My son was so excited about being on this airplane with Mommy.
2
20245
5095
아이는 엄마와 비행기를 탄다는 것에 너무 신이 나있었죠.
00:25
He's looking all around and he's checking things out
3
25364
2940
여기저기 두리번 거리며 이것저것 살펴보고
00:28
and he's checking people out.
4
28328
1836
사람들도 둘러보고요.
00:30
And he sees this man, and he says,
5
30188
1630
그러더니 한 남성을 보고는
00:31
"Hey! That guy looks like Daddy!"
6
31842
2861
"어, 우리 아빠랑 닮았어요!"하는 거예요.
00:35
And I look at the man,
7
35882
1920
그래서 그 남성 쪽을 봤는데
00:37
and he didn't look anything at all like my husband,
8
37826
3730
제 남편이랑 하나도 안 닮은 거예요.
00:41
nothing at all.
9
41580
1369
전혀요.
00:43
And so then I start looking around on the plane,
10
43461
2336
그래서 비행기 안을 둘러봤는데
00:45
and I notice this man was the only black guy on the plane.
11
45821
5885
그가 기내에 유일한 흑인 남성이라는 사실을 깨달았죠.
00:52
And I thought,
12
52874
1412
그래서 생각했죠.
00:54
"Alright.
13
54310
1194
"좋아.
00:56
I'm going to have to have a little talk with my son
14
56369
2525
우리 아들이랑 얘기 좀 해야겠어.
00:58
about how not all black people look alike."
15
58918
2929
흑인이 다 똑같이 생긴 건 아니라고 말이야."라고요.
01:01
My son, he lifts his head up, and he says to me,
16
61871
4377
아이가 고개를 들더니 저에게
01:08
"I hope he doesn't rob the plane."
17
68246
2371
"저 아저씨가 비행기를 강탈하지 않아야할텐데."하는 거예요.
01:11
And I said, "What? What did you say?"
18
71359
2515
"뭐? 뭐라고 했니?"라고 했더니
01:13
And he says, "Well, I hope that man doesn't rob the plane."
19
73898
3428
"저 아저씨가 비행기를 강탈하지 않았으면 한다고요."라고 하더군요.
01:19
And I said, "Well, why would you say that?
20
79200
2752
"왜 그런 말을 하는 거니?
01:22
You know Daddy wouldn't rob a plane."
21
82486
2663
아빠가 비행기를 털지 않을 거라는 걸 알잖아."라고 했더니
01:25
And he says, "Yeah, yeah, yeah, well, I know."
22
85173
2312
"네, 네, 네, 알죠."라고 하더군요.
01:28
And I said, "Well, why would you say that?"
23
88179
2127
"그럼 왜 그런 말을 한 거니?"라고 물었더니
01:32
And he looked at me with this really sad face,
24
92346
2957
아들이 정말 슬픈 얼굴로 저를 쳐다보며
01:36
and he says,
25
96168
1254
이렇게 말했어요.
01:38
"I don't know why I said that.
26
98890
2106
"저도 제가 왜 그런 말을 했는지 모르겠어요.
01:42
I don't know why I was thinking that."
27
102600
2358
제가 왜 그런 생각을 했는지요."
01:45
We are living with such severe racial stratification
28
105724
3518
우리는 이렇게 심각한 인종적 계층화 속에 살고 있어서
01:49
that even a five-year-old can tell us what's supposed to happen next,
29
109266
5060
다섯 살짜리라도 어떤 일이 일어날지를 알고 있습니다.
01:55
even with no evildoer,
30
115990
2107
나쁜 짓을 하는 사람이 없더라도
01:58
even with no explicit hatred.
31
118121
2579
노골적인 증오심이 없더라도 말이죠.
02:02
This association between blackness and crime
32
122184
3913
흑인과 범죄를 연관짓는 이 편견이
02:06
made its way into the mind of my five-year-old.
33
126121
4334
다섯 살 짜리 아들의 머릿속에까지 자리잡은 겁니다.
02:11
It makes its way into all of our children,
34
131787
3263
이런 생각은 우리 모두의 아이들,
02:16
into all of us.
35
136201
1391
우리 모두의 머릿속에 자리잡습니다.
02:18
Our minds are shaped by the racial disparities
36
138793
3524
우리의 생각은
우리가 세상에서 보는 인종차별에 의해 형성되고
02:22
we see out in the world
37
142341
1592
02:24
and the narratives that help us to make sense of the disparities we see:
38
144752
5341
이런 차별을 합리화시키는 이야기들에 길들여지죠.
02:31
"Those people are criminal."
39
151637
2526
"저 사람들은 범죄자들이야."
02:34
"Those people are violent."
40
154187
1925
"저 사람들은 폭력적이야."
02:36
"Those people are to be feared."
41
156136
2965
"저 사람들은 공포의 대상이야."
02:39
When my research team brought people into our lab
42
159814
3191
저희 연구팀이 사람들을 실험실로 데려와서
02:43
and exposed them to faces,
43
163029
2283
사람들의 얼굴을 보여줬는데
02:45
we found that exposure to black faces led them to see blurry images of guns
44
165336
7000
참가자들이 흑인의 얼굴을 볼 때 흐릿한 총의 이미지를
02:52
with greater clarity and speed.
45
172360
3256
더 빨리, 더 선명하게 볼 수 있다는 걸 발견했습니다.
02:55
Bias cannot only control what we see,
46
175640
3354
편견은 우리가 무엇을 보느냐를 통제할 뿐 아니라
어디를 보느냐까지도 통제합니다.
02:59
but where we look.
47
179018
1648
03:00
We found that prompting people to think of violent crime
48
180690
3444
사람들에게 폭력적인 범죄를 생각해보라고 지시하면
03:04
can lead them to direct their eyes onto a black face
49
184158
4296
흑인의 얼굴로 시선을 옮기고
03:08
and away from a white face.
50
188478
2130
백인의 얼굴에선 시선을 떼는걸 발견했습니다.
03:10
Prompting police officers to think of capturing and shooting
51
190632
3842
경찰관들에게 범인을 잡고 총을 쏘고 체포하라고 지시하는 것도
03:14
and arresting
52
194498
1229
03:15
leads their eyes to settle on black faces, too.
53
195751
3859
그들의 시선을 흑인에게 옮겨가게 하죠.
03:19
Bias can infect every aspect of our criminal justice system.
54
199634
5066
편견은 형사사법제도의 모든 측면을 병들게 할수도 있습니다.
03:25
In a large data set of death-eligible defendants,
55
205100
2931
사형선고를 받을 수 있는 피고인들의 대규모 데이터 세트에서
03:28
we found that looking more black more than doubled their chances
56
208055
4357
피부색이 더 검을수록 사형선고를 받을 확률이
03:32
of receiving a death sentence --
57
212436
2057
두 배 이상 증가한다는 것을 발견했습니다.
03:35
at least when their victims were white.
58
215494
2427
적어도 피해자가 백인일 경우에는 말이죠.
03:37
This effect is significant,
59
217945
1438
피부색이 미치는 영향은 엄청납니다.
03:39
even though we controlled for the severity of the crime
60
219407
3301
범죄의 심각성과
03:42
and the defendant's attractiveness.
61
222732
2281
피고인의 매력을 통제했음에도 불구하고 말입니다.
03:45
And no matter what we controlled for,
62
225037
2649
무엇을 통제하든
03:47
we found that black people were punished
63
227710
3345
흑인은 그들의 흑인성과 신체적 특징에
03:51
in proportion to the blackness of their physical features:
64
231079
4325
비례적으로 처벌받는다는 사실을 발견했습니다.
03:55
the more black,
65
235428
1881
피부 색이 더 검을수록
03:57
the more death-worthy.
66
237333
1753
더 죽어 마땅하다는 거죠.
03:59
Bias can also influence how teachers discipline students.
67
239110
4209
편견은 선생님이 학생들을 훈육하는 방식에 영향을 끼치기도 합니다.
04:03
My colleagues and I have found that teachers express a desire
68
243781
4407
저와 동료들은
아이들이 계속해서 같은 규칙을 어겼을 때
04:08
to discipline a black middle school student more harshly
69
248212
3566
선생님들은 백인 학생보다
04:11
than a white student
70
251802
1168
흑인 학생을 더 엄격하게 훈육하려 한다는 것을 발견했습니다.
04:12
for the same repeated infractions.
71
252994
2576
04:15
In a recent study,
72
255594
1294
최근 연구에서는
04:16
we're finding that teachers treat black students as a group
73
256912
4358
선생님들이 흑인 학생들은 한 집단으로 묶어서 대하면서
04:21
but white students as individuals.
74
261294
2431
백인 학생들은 개개인으로 대한다는 걸 발견했습니다.
04:24
If, for example, one black student misbehaves
75
264126
3599
예를 들어 흑인 학생 한 명이 잘못을 하고
04:27
and then a different black student misbehaves a few days later,
76
267749
4785
며칠 뒤 다른 흑인 학생이 잘못을 하면
04:32
the teacher responds to that second black student
77
272558
3228
선생님은 두 번째 학생에게
04:35
as if he had misbehaved twice.
78
275810
2625
마치 그 학생이 두 번째로 규칙을 어긴 것처럼 벌을 주는 거죠.
04:38
It's as though the sins of one child
79
278952
2811
마치 한 아이의 잘못이
04:41
get piled onto the other.
80
281787
2176
다른 아이에게 전가되기라도 하는 것처럼요.
04:43
We create categories to make sense of the world,
81
283987
3294
우리는 세상을 이해하기 위해 분류를 하는데
04:47
to assert some control and coherence
82
287305
4483
우리가 끊임없이 받는 자극에 대해서
04:51
to the stimuli that we're constantly being bombarded with.
83
291812
4090
어느정도 통제와 일관성을 주장하기 위해서입니다.
04:55
Categorization and the bias that it seeds
84
295926
3968
분류에서 오는 편견은
04:59
allow our brains to make judgments more quickly and efficiently,
85
299918
5022
뇌가 더 빠르고 효율적으로 판단을 내릴 수 있게 해주며,
05:04
and we do this by instinctively relying on patterns
86
304964
3402
본능적으로 예측가능해 보이는
05:08
that seem predictable.
87
308390
1669
패턴에 의존함으로써 이뤄집니다.
05:10
Yet, just as the categories we create allow us to make quick decisions,
88
310083
5943
하지만 우리가 만들어내는 이 범주는 빠른 판단을 할 수 있게 해주는 동시에
05:16
they also reinforce bias.
89
316050
2502
편견을 강화시키기도 합니다.
05:18
So the very things that help us to see the world
90
318576
3392
우리가 세상을 볼 수 있도록 도와주는 것들이
05:23
also can blind us to it.
91
323104
1980
동시에 세상을 제대로 볼 수 없게 만들기도 하는거죠.
05:25
They render our choices effortless,
92
325509
2778
별 힘 들이지 않고
05:28
friction-free.
93
328311
1369
선택을 할 수 있게 해주지만
05:30
Yet they exact a heavy toll.
94
330956
2445
동시에 많은 사람들이 희생자가 됩니다.
05:34
So what can we do?
95
334158
1411
그럼 우리가 할 수 있는 게 뭘까요?
05:36
We are all vulnerable to bias,
96
336507
2491
우린 모두 편견에 취약하지만
항상 편견에 따라 행동하진 않죠.
05:39
but we don't act on bias all the time.
97
339022
2680
05:41
There are certain conditions that can bring bias alive
98
341726
3644
그 편견을 끌어내는 상황이 있는가 하면
05:45
and other conditions that can muffle it.
99
345394
2533
편견을 잠재우는 상황이 있습니다.
05:47
Let me give you an example.
100
347951
1847
예를 들어볼게요.
05:50
Many people are familiar with the tech company Nextdoor.
101
350663
4560
넥스트도어는 꽤 잘 알려진 기술 회사입니다.
05:56
So, their whole purpose is to create stronger, healthier, safer neighborhoods.
102
356073
6453
더 단단하고, 건강하고, 안전한 동네를 만드는 것이 이 회사의 목표죠.
06:03
And so they offer this online space
103
363468
2921
그래서 그들은 이웃들이 한 곳에 모여
06:06
where neighbors can gather and share information.
104
366413
3149
정보를 공유할 수 있는 온라인 공간을 만들어 제공합니다.
06:09
Yet, Nextdoor soon found that they had a problem
105
369586
4126
그런데 넥스트도어는
곧 이 공간에 인종 프로파일링 문제가 있다는 걸 알게됐습니다.
06:13
with racial profiling.
106
373736
1668
06:16
In the typical case,
107
376012
1967
전형적인 경우를 들자면
사람들이 창 밖을 내다봤을 때
06:18
people would look outside their window
108
378003
2396
06:20
and see a black man in their otherwise white neighborhood
109
380423
4049
주로 백인이 사는 그 동네에 흑인 남자가 있는 걸 봤을 때
06:24
and make the snap judgment that he was up to no good,
110
384496
4715
그 남자가 뭔가 꿍꿍이가 있다고 빠른 판단을 내립니다.
06:29
even when there was no evidence of criminal wrongdoing.
111
389235
3351
그 남자가 범죄를 저질렀다는 증거도 없는데 말이죠.
06:32
In many ways, how we behave online
112
392610
2934
어떻게 보면 사람들이 온라인에서 하는 행동은
06:35
is a reflection of how we behave in the world.
113
395568
3114
우리가 세상에서 어떻게 행동하는지를 반영합니다.
06:39
But what we don't want to do is create an easy-to-use system
114
399117
3945
하지만 우리가 원한건 이런 편견을 해소하기보다
06:43
that can amplify bias and deepen racial disparities,
115
403086
4163
편견을 증폭시키고 인종격차를 심화시킬 수 있는
06:48
rather than dismantling them.
116
408129
2266
사용하기 쉬운 시스템을 만드는 것을 원하진 않잖아요.
06:50
So the cofounder of Nextdoor reached out to me and to others
117
410863
3429
그래서 넥스트도어의 공동설립자는 저를 포함한 다른 사람들에게
06:54
to try to figure out what to do.
118
414316
2131
어떻게 하면 좋을지 자문을 구해왔습니다.
06:56
And they realized that to curb racial profiling on the platform,
119
416471
3946
그리고 이 공간에서의 인종 프로파일링을 방지하려면
07:00
they were going to have to add friction;
120
420441
1922
제동을 걸어야한다는 것을 깨달았죠.
07:02
that is, they were going to have to slow people down.
121
422387
2658
사람들이 속도를 줄일 수 있도록요.
07:05
So Nextdoor had a choice to make,
122
425069
2195
그리고 넥스트도어는 선택의 기로에 놓였고
07:07
and against every impulse,
123
427288
2478
모든 충동을 거스르고
07:09
they decided to add friction.
124
429790
2116
제동을 걸기로 했습니다.
07:12
And they did this by adding a simple checklist.
125
432397
3440
간단한 체크리스트를 포함시킴으로써요.
07:15
There were three items on it.
126
435861
1670
세 가지 조항이 있었는데
07:18
First, they asked users to pause
127
438111
2941
첫째, 사용자들에게 잠시 멈추고
07:21
and think, "What was this person doing that made him suspicious?"
128
441076
5117
"이 사람이 뭘 하고있었길래 수상하다고 생각한 걸까?"라고 생각해보길 권했어요.
07:26
The category "black man" is not grounds for suspicion.
129
446876
4533
단지 "검은 피부색"은 의심의 이유가 될 수 없습니다.
07:31
Second, they asked users to describe the person's physical features,
130
451433
5139
둘째, 그 사람의 신체적 특징을 묘사하도록 권했습니다.
07:36
not simply their race and gender.
131
456596
2435
단순히 인종이나 성별만이 아니라요.
07:39
Third, they realized that a lot of people
132
459642
3383
셋째, 넥스트도어는 곧 많은 사람들이
07:43
didn't seem to know what racial profiling was,
133
463049
2928
인종 프로파일링이 뭔지 모르고
일조하고 있다는 사실조차 모른다는 것을 발견했습니다.
07:46
nor that they were engaging in it.
134
466001
1959
07:48
So Nextdoor provided them with a definition
135
468462
3194
그래서 넥스트도어는 인종 프로파일링의 의미를 설명하고
07:51
and told them that it was strictly prohibited.
136
471680
2902
이는 엄격히 금지되어있다고 공지했습니다.
07:55
Most of you have seen those signs in airports
137
475071
2612
공항이나 지하철역에서 이런 문구를 본 적이 있으실겁니다.
07:57
and in metro stations, "If you see something, say something."
138
477707
3702
"뭔가 보이면 신고하세요."
08:01
Nextdoor tried modifying this.
139
481928
2814
넥스트도어는 이걸 수정하고자 했습니다.
08:05
"If you see something suspicious,
140
485584
2572
"뭔가 수상한 걸 본다면
08:08
say something specific."
141
488180
2073
상세히 얘기하세요."라고요.
08:11
And using this strategy, by simply slowing people down,
142
491491
4446
이런 방법으로 사람들을 천천히 생각해보게 함으로써
08:15
Nextdoor was able to curb racial profiling by 75 percent.
143
495961
5691
인종 프로파일링을 75%까지 줄일 수 있었습니다.
08:22
Now, people often will say to me,
144
502496
2090
사람들이 제게 자주 하는 말 중에 하나가
08:24
"You can't add friction in every situation, in every context,
145
504610
4713
"모든 상황, 모든 맥락에 제동을 걸 수는 없잖아요.
08:29
and especially for people who make split-second decisions all the time."
146
509347
4646
순간적인 판단으로 행동하는 사람들은 특히나요."라는 말입니다.
08:34
But it turns out we can add friction
147
514730
2563
하지만 알고보면 우리가 생각하는 것보다
08:37
to more situations than we think.
148
517317
2276
훨씬 많은 상황에 제동을 걸 수 있습니다.
08:40
Working with the Oakland Police Department
149
520031
2074
캘리포니아에 있는
08:42
in California,
150
522129
1417
오클랜드 경찰국과 일하면서
08:43
I and a number of my colleagues were able to help the department
151
523570
3856
저와 제 동료들은 이곳의 경찰관들이
08:47
to reduce the number of stops they made
152
527450
2671
심각한 범죄를 저지르는 게 아닌 사람들을
08:50
of people who were not committing any serious crimes.
153
530145
3600
불러세우는 일을 줄이도록 도왔습니다.
08:53
And we did this by pushing officers
154
533769
2365
바로 누군가를 불러세우기 전
08:56
to ask themselves a question before each and every stop they made:
155
536158
4443
스스로에게 이렇게 질문하도록 함으로써요:
09:01
"Is this stop intelligence-led,
156
541451
3015
"이게 정보 주도형 판단인가?
09:04
yes or no?"
157
544490
1451
아닌가?"
09:07
In other words,
158
547353
1396
말하자면
09:09
do I have prior information to tie this particular person
159
549621
4484
이 사람과 연관된 어떤 특정 범죄에 대한
09:14
to a specific crime?
160
554129
1601
사전 정보가 있는가?
09:16
By adding that question
161
556587
1458
경찰관이 누군가의 차를 불러세울 때
09:18
to the form officers complete during a stop,
162
558069
3079
써내야하는 양식 중 이 질문을 포함시킴으로써
09:21
they slow down, they pause,
163
561172
1809
경찰관들을 천천히, 잠시 멈추고
"내가 왜 이 사람을 세우려고 하지?" 하고 생각할 수 있도록 한 겁니다.
09:23
they think, "Why am I considering pulling this person over?"
164
563005
4220
09:28
In 2017, before we added that intelligence-led question to the form,
165
568721
5561
그 양식에 이런 정보 주도형 질문을 추가하기 전인 2017년에는
09:35
officers made about 32,000 stops across the city.
166
575655
3946
경찰관들은 도시 내에서 약 32,000번 차를 세웠습니다.
09:39
In that next year, with the addition of this question,
167
579625
4115
그 다음 해에 이 질문을 추가하자
09:43
that fell to 19,000 stops.
168
583764
2444
19,000번으로 현저히 줄었죠.
09:46
African-American stops alone fell by 43 percent.
169
586232
4961
흑인을 불러세우는 건 43%나 감소했습니다.
09:51
And stopping fewer black people did not make the city any more dangerous.
170
591905
4438
흑인들을 덜 세운다고 해서 도시가 더 위험해진 것도 아니었죠.
09:56
In fact, the crime rate continued to fall,
171
596367
2734
사실은 범죄율은 계속해서 줄어들었고
09:59
and the city became safer for everybody.
172
599125
3337
모두에게 더욱 안전한 도시가 되었습니다.
10:02
So one solution can come from reducing the number of unnecessary stops.
173
602486
5355
그러니까 해결방안 중 하나는 쓸데없이 차를 세우는 일을 줄이는거예요.
10:08
Another can come from improving the quality of the stops
174
608285
4270
다른 방법은 경찰관들이 차를 세우면
10:12
officers do make.
175
612579
1305
타당한 이유가 있도록 분명히 하는 것입니다.
10:14
And technology can help us here.
176
614512
2596
현대기술의 도움을 받아서요.
10:17
We all know about George Floyd's death,
177
617132
2415
우리 모두 조지 플로이드의 죽음에 대해 알고 있죠.
10:20
because those who tried to come to his aid held cell phone cameras
178
620499
4772
그를 도와주려던 사람들이 휴대폰 카메라를 들고
10:25
to record that horrific, fatal encounter with the police.
179
625295
5431
그와 경찰간의 끔찍하고 치명적인 만남을 기록했기 때문에요.
10:30
But we have all sorts of technology that we're not putting to good use.
180
630750
5031
하지만 좋은 방향으로 쓰이고 있지 않는 기술들이 많아요.
10:35
Police departments across the country
181
635805
2503
전국의 경찰서에서는
10:38
are now required to wear body-worn cameras
182
638332
3553
바디 카메라를 착용하도록 되어있는데
10:41
so we have recordings of not only the most extreme and horrific encounters
183
641909
5930
극단적이고 끔찍한 대치뿐만 아니라
10:47
but of everyday interactions.
184
647863
2754
일상적인 대치까지 모든 상황을 녹화할 수 있도록 말이죠.
10:50
With an interdisciplinary team at Stanford,
185
650641
2777
스탠포드 대학의 학제간 팀과 함께
10:53
we've begun to use machine learning techniques
186
653442
2687
우리는 이 많은 대치들을 분석하기 위해
10:56
to analyze large numbers of encounters.
187
656153
3367
기계 학습 기술을 사용하기 시작했습니다.
10:59
This is to better understand what happens in routine traffic stops.
188
659544
4611
일상에서 경찰이 차를 불러세울 때 일어나는 일을 잘 이해하기 위해서요.
11:04
What we found was that
189
664179
2155
연구 결과
11:06
even when police officers are behaving professionally,
190
666358
3662
경찰관이 전문적으로 행동할 때에도
11:10
they speak to black drivers less respectfully than white drivers.
191
670860
4462
흑인 운전자에게는 백인 운전자에게보다 덜 격식을 갖춰 대한다는 거였습니다.
11:16
In fact, from the words officers use alone,
192
676052
4075
경찰관들이 사용하는 단어 자체만 봐도
11:20
we could predict whether they were talking to a black driver or a white driver.
193
680151
5162
흑인 운전자를 대하는지 백인 운전자를 대하는지 추측할 수 있을 정도였죠.
11:25
The problem is that the vast majority of the footage from these cameras
194
685337
5762
문제는 카메라에 담긴 이 영상 대부분들이
11:31
is not used by police departments
195
691123
2087
경찰서에서
11:33
to understand what's going on on the street
196
693234
2276
길 위에서 실제로 어떤 일이 일어나고 있는지 이해하거나
11:35
or to train officers.
197
695534
2243
경찰관들을 훈련시키는 데에 사용되고 있지 않다는 점입니다.
11:38
And that's a shame.
198
698554
1458
안타까운 일이죠.
11:40
How does a routine stop turn into a deadly encounter?
199
700796
4789
일상적인 이 일이 어떻게 죽음에 다다르는 대치가 되는걸까요?
11:45
How did this happen in George Floyd's case?
200
705609
2670
조지 플로이드 사건에선 어떻게 이런 일이 생긴걸까요?
11:49
How did it happen in others?
201
709588
2082
다른 사건에서는요?
11:51
When my eldest son was 16 years old,
202
711694
3396
저희 큰 아들이 열 여섯살이었을 때
11:55
he discovered that when white people look at him,
203
715114
3139
아이는 백인들이 자신을 볼 때
11:58
they feel fear.
204
718277
1561
두려워한다는 걸 발견했습니다.
12:01
Elevators are the worst, he said.
205
721123
2661
그 중 엘리베이터가 최악이라고요.
12:04
When those doors close,
206
724313
2331
문이 닫히면
12:06
people are trapped in this tiny space
207
726668
3083
그 협소한 공간에서
12:09
with someone they have been taught to associate with danger.
208
729775
4467
위험하다고 생각하도록 교육받은 사람과 함께 갇혀있어야하니까요.
12:14
My son senses their discomfort,
209
734744
3220
저희 아들은 그 사람들이 불편해하는 걸 알아채고
12:17
and he smiles to put them at ease,
210
737988
3157
미소를 지어 안심시키려고 합니다.
12:21
to calm their fears.
211
741169
1769
두려움을 좀 가라앉혀주려고요.
12:23
When he speaks,
212
743351
1945
그가 얘기하기 시작하면
12:25
their bodies relax.
213
745320
1683
사람들이 안심을 합니다.
12:27
They breathe easier.
214
747442
1903
숨도 조금 편하게 쉬고요.
12:29
They take pleasure in his cadence,
215
749369
2531
그들은 그의 지적 능력,
12:31
his diction, his word choice.
216
751924
2317
그의 어법, 그의 단어 선택에 안도합니다.
12:34
He sounds like one of them.
217
754986
1843
자기들과 같다는 거죠.
12:36
I used to think that my son was a natural extrovert like his father.
218
756853
4730
저는 아들이 아빠를 닮아 선천적으로 외향적이라고 생각했는데
12:41
But I realized at that moment, in that conversation,
219
761607
3550
아들과 그 대화를 하면서
12:46
that his smile was not a sign that he wanted to connect
220
766143
5078
아들이 미소 짓는 건
그 낯선 이들과 친해지고싶어서가 아니라는 걸 깨달았습니다.
12:51
with would-be strangers.
221
771245
1964
12:53
It was a talisman he used to protect himself,
222
773920
3652
그건 아들이 자신을 보호하기 위해 사용한 부적같은 것이었습니다.
12:57
a survival skill he had honed over thousands of elevator rides.
223
777596
6219
수천 번 엘리베이터를 타고 내리며 갈고 닦은 생존 기술이었습니다.
13:04
He was learning to accommodate the tension that his skin color generated
224
784387
5171
자신의 피부색이 만들어 내는 긴장감과 이로 자신의 생명이 위험에 처하게 되는
13:11
and that put his own life at risk.
225
791026
2667
긴장감을 수용하는 법을 배우고 있었던 거죠.
13:14
We know that the brain is wired for bias,
226
794619
3783
우리는 우리 뇌가 편견을 갖도록 설계돼있다는 걸 알고 있습니다.
13:18
and one way to interrupt that bias is to pause and to reflect
227
798426
4465
그 편견을 깰 수 있는 방법 중 하나는
잠시 멈추고 가정의 증거에 대한 반성을 해보는 것입니다.
13:22
on the evidence of our assumptions.
228
802915
2305
13:25
So we need to ask ourselves:
229
805244
1755
스스로에게 이렇게 물어봐야합니다:
엘리베이터에 탈 때 어떤 편견을 가지고 타나요?
13:27
What assumptions do we bring when we step onto an elevator?
230
807023
4665
13:33
Or an airplane?
231
813776
1311
비행기는요?
13:35
How do we make ourselves aware of our own unconscious bias?
232
815532
4599
스스로가 무의식 중 가지고 있는 편견을 어떻게 자각할 수 있을까요?
13:40
Who do those assumptions keep safe?
233
820155
2351
이런 편견으로 인해 보호받게 될 사람은 누구이며
13:44
Who do they put at risk?
234
824615
1932
위험에 처하게 될 사람은 누구일까요?
13:47
Until we ask these questions
235
827649
2354
우리 스스로에게 이런 질문을 하고
13:50
and insist that our schools and our courts and our police departments
236
830978
4624
학교와 법정, 경찰서,
13:55
and every institution do the same,
237
835626
2542
그리고 모든 기관이 그렇게 하도록 주장할 때까지
13:59
we will continue to allow bias
238
839835
3829
우리는 이런 편견들로
14:03
to blind us.
239
843688
1278
눈이 가려지게 될 것입니다.
14:05
And if we do,
240
845348
1409
그리고 그렇게 된다면
14:08
none of us are truly safe.
241
848066
3208
우리 모두 안전하지 못하게 될테죠.
14:14
Thank you.
242
854103
1308
감사합니다.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7