How racial bias works -- and how to disrupt it | Jennifer L. Eberhardt

157,918 views ・ 2020-06-22

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Mohammad Habibi Reviewer: Leila Ataei
00:12
Some years ago,
0
12910
1273
چند سال قبل
00:14
I was on an airplane with my son who was just five years old at the time.
1
14207
4912
با پسرم، که آن موقع فقط پنج سالش بود، سوار هواپیما بودم.
00:20
My son was so excited about being on this airplane with Mommy.
2
20245
5095
پسرم خیلی هیجان داشت که با مامانی سوار هواپیما شده.
00:25
He's looking all around and he's checking things out
3
25364
2940
مدام به اینسو و آنسو نگاه می‌کرد و همه چیز را برانداز می‌کرد
00:28
and he's checking people out.
4
28328
1836
و آدم‌ها را هم یکی‌یکی وارسی می‌کرد.
00:30
And he sees this man, and he says,
5
30188
1630
بعد مردی را دید و گفت:
00:31
"Hey! That guy looks like Daddy!"
6
31842
2861
«مامان، این آقا شبیه باباست».
00:35
And I look at the man,
7
35882
1920
وقتی به آن مرد نگاه کردم،
00:37
and he didn't look anything at all like my husband,
8
37826
3730
دیدم حتی یک ذره هم شبیه شوهرم نیست.
00:41
nothing at all.
9
41580
1369
اصلاً و ابداً!
00:43
And so then I start looking around on the plane,
10
43461
2336
بعد که خوب داخل هواپیما را برانداز کردم،
00:45
and I notice this man was the only black guy on the plane.
11
45821
5885
دیدم آن آقا تنها مسافر سیاه‌پوست است.
00:52
And I thought,
12
52874
1412
بعد با خودم گفتم:
00:54
"Alright.
13
54310
1194
«که این طور!
00:56
I'm going to have to have a little talk with my son
14
56369
2525
باید به پسرم گوشزد کنم که
00:58
about how not all black people look alike."
15
58918
2929
سیاه‌پوست‌ بودن دلیل هم‌شکل بودن نیست»
01:01
My son, he lifts his head up, and he says to me,
16
61871
4377
بعد، پسرم سرش را بالا آورد و به من گفت:
01:08
"I hope he doesn't rob the plane."
17
68246
2371
«خدا کنه هواپیما رو ندزده!»
01:11
And I said, "What? What did you say?"
18
71359
2515
من گفتم: «چی؟ چی فرمودی؟»
01:13
And he says, "Well, I hope that man doesn't rob the plane."
19
73898
3428
گفت: «گفتم خدا کنه اون آقا هواپیما رو ندزده».
01:19
And I said, "Well, why would you say that?
20
79200
2752
ازش پرسیدم: «برای چی این حرف رو می‌زنی؟
01:22
You know Daddy wouldn't rob a plane."
21
82486
2663
اگر بابا بود که این کار رو نمی‌کرد».
01:25
And he says, "Yeah, yeah, yeah, well, I know."
22
85173
2312
گفت: «آره، آره، خودمم می‌دونم».
01:28
And I said, "Well, why would you say that?"
23
88179
2127
بعد من گفتم: «پس چرا گفتی؟»
01:32
And he looked at me with this really sad face,
24
92346
2957
با چشم‌هایی واقعاً غمگین به من نگاه کرد و
01:36
and he says,
25
96168
1254
گفت:
01:38
"I don't know why I said that.
26
98890
2106
«خودمم نمی‌دونم چرا این حرف رو زدم.
01:42
I don't know why I was thinking that."
27
102600
2358
نمی‌دونم چرا این فکر رو کردم».
01:45
We are living with such severe racial stratification
28
105724
3518
ما در دنیایی زندگی می‌کنیم که چنین لایه‌های عمیقی از نژادپرستی دارد.
01:49
that even a five-year-old can tell us what's supposed to happen next,
29
109266
5060
که حتی بچه‌ای پنج ساله هم گمان می‌کند می‌داند قرار است چه اتفاقی بیفتد.
01:55
even with no evildoer,
30
115990
2107
یک بچه معصوم،
01:58
even with no explicit hatred.
31
118121
2579
که پر از صفاست.
02:02
This association between blackness and crime
32
122184
3913
این تلاقی میان سیاه بودن و مجرم بودن
02:06
made its way into the mind of my five-year-old.
33
126121
4334
در ذهن پسر پنج‌ساله‌ی من هم رسوخ کرده.
02:11
It makes its way into all of our children,
34
131787
3263
در ذهن همه‌ی بچه‌های ما رسوخ می‌کند.
02:16
into all of us.
35
136201
1391
در ذهن همه‌ی ما.
02:18
Our minds are shaped by the racial disparities
36
138793
3524
ذهن همه‌ی ما با تبعیض‌های نژادی که
02:22
we see out in the world
37
142341
1592
در اطرافمان می‌بینیم خو می‌گیرد
02:24
and the narratives that help us to make sense of the disparities we see:
38
144752
5341
و داستان‌سرایی‌ها موجب می‌شود که به این تبعیض‌ها منطق هم بدهیم:
02:31
"Those people are criminal."
39
151637
2526
«این آدم‌ها مجرمند»،
02:34
"Those people are violent."
40
154187
1925
«این آدم‌ها خشن‌اند»،
02:36
"Those people are to be feared."
41
156136
2965
«این آدم‌ها ترسناکند».
02:39
When my research team brought people into our lab
42
159814
3191
وقتی گروه تحقیقاتی ما افرادی را به آزمایشگاهمان آوردند
02:43
and exposed them to faces,
43
163029
2283
و به آنها تصاویر صورت‌هایی را نشان دادند،
02:45
we found that exposure to black faces led them to see blurry images of guns
44
165336
7000
متوجه شدیم که مواجهه با صورت سیاه‌پوستان، باعث می‌شود تصاویر محو اسلحه را
02:52
with greater clarity and speed.
45
172360
3256
با دقت و سرعت بیشتری ببینند.
02:55
Bias cannot only control what we see,
46
175640
3354
تعصب افزون بر اینکه تعیین می‌کند «چه چیزی بینیم»،
02:59
but where we look.
47
179018
1648
در «به کجا نگاه کنیم» هم دخیل است.
03:00
We found that prompting people to think of violent crime
48
180690
3444
پی بردیم که وقتی از آنها می‌خواهیم به جرایم خشن فکر کنند
03:04
can lead them to direct their eyes onto a black face
49
184158
4296
ممکن است باعث شود نگاهشان به سمت صورت سیاه‌پوستی برده شود
03:08
and away from a white face.
50
188478
2130
و از صورت سفید دور بشود.
03:10
Prompting police officers to think of capturing and shooting
51
190632
3842
وقتی از افسران پلیس خواسته شد به دستگیری و شلیک و
03:14
and arresting
52
194498
1229
بازداشت فکر کنند
03:15
leads their eyes to settle on black faces, too.
53
195751
3859
نگاه آنها هم روی صورت‌ سیاهان می‌نشیند.
03:19
Bias can infect every aspect of our criminal justice system.
54
199634
5066
تعصب می‌تواند به تمام جنبه‌های نظام قضایی ما هم سرایت کند.
03:25
In a large data set of death-eligible defendants,
55
205100
2931
در میان انبوه پرونده‌های دادرسی، با امکان صدور حکم اعدام،
03:28
we found that looking more black more than doubled their chances
56
208055
4357
پی بردیم هرچه پوست تیره‌تری داشته باشی، احتمال محکومیتت به
03:32
of receiving a death sentence --
57
212436
2057
اعدام از دوبرابر هم بیشتر می‌شود؛
03:35
at least when their victims were white.
58
215494
2427
دست کم وقتی قربانی سفیدپوست باشد.
03:37
This effect is significant,
59
217945
1438
حتی وقتی عامل شدت جرم و
03:39
even though we controlled for the severity of the crime
60
219407
3301
جذابیت متهم را بازتنظیم می‌کردیم باز هم چنین رابطه‌ای
03:42
and the defendant's attractiveness.
61
222732
2281
برقرار بود.
03:45
And no matter what we controlled for,
62
225037
2649
هر عاملی را هم که بازتنظیم کردیم،
03:47
we found that black people were punished
63
227710
3345
باز هم سیاه‌پوستان
03:51
in proportion to the blackness of their physical features:
64
231079
4325
به نسبت تیرگی رنگ پوستشان بیشتر مجازات شده بودند:
03:55
the more black,
65
235428
1881
هرچه تیره‌تر باشی،
03:57
the more death-worthy.
66
237333
1753
بیشتر مستحق مرگی.
03:59
Bias can also influence how teachers discipline students.
67
239110
4209
افزون بر اینها، تعصب می‌تواند روی معلمان در نحوه‌ی اداره‌ی کلاس هم اثر بگذارد.
04:03
My colleagues and I have found that teachers express a desire
68
243781
4407
من و همکارانم به این نتیجه رسیدیم که معلمان برای تأدیب دانش‌آموز متوسطه‌ای
04:08
to discipline a black middle school student more harshly
69
248212
3566
که سیاه‌پوست است خیلی خشن‌تر برخورد می‌کنند
04:11
than a white student
70
251802
1168
تا دانش‌آموز سفیدی
04:12
for the same repeated infractions.
71
252994
2576
که مرتکب همان خطا شده است.
04:15
In a recent study,
72
255594
1294
در پژوهش جدیدی
04:16
we're finding that teachers treat black students as a group
73
256912
4358
کم‌وبیش پی برده‌ایم که معلمان دانش‌آموزان سیاه‌پوست را دسته‌جمعی می‌بینند
04:21
but white students as individuals.
74
261294
2431
ولی سفیدپوستان را تک‌به‌تک.
04:24
If, for example, one black student misbehaves
75
264126
3599
یعنی اگر یک دانش‌آموز سیاه‌پوست مرتکب خطایی شود،
04:27
and then a different black student misbehaves a few days later,
76
267749
4785
و دانش‌آموز سیاه‌پوست دیگری چند روز بعد کار اشتباهی بکند
04:32
the teacher responds to that second black student
77
272558
3228
معلم، دانش‌آموز دوم را طوری تنبیه می‌کند
04:35
as if he had misbehaved twice.
78
275810
2625
که انگار دو بار کار اشتباهی انجام داده.
04:38
It's as though the sins of one child
79
278952
2811
انگار گناهان یک کودک را دیگری باید
04:41
get piled onto the other.
80
281787
2176
بر دوش بکشد.
04:43
We create categories to make sense of the world,
81
283987
3294
ما برای درک بهتر جهان طبقه‌بندی‌هایی ایجاد می‌کنیم
04:47
to assert some control and coherence
82
287305
4483
تا پدید‌هایی را که شبانه‌روز با آنها مواجه می‌شویم
04:51
to the stimuli that we're constantly being bombarded with.
83
291812
4090
به هم ربط دهیم و محدودشان کنیم.
04:55
Categorization and the bias that it seeds
84
295926
3968
طبقه‌بندی کردن و تعصبی که حاصل آن است،
04:59
allow our brains to make judgments more quickly and efficiently,
85
299918
5022
موجب می‌شوند مغز ما سریع‌تر و راحت‌تر قضاوت کند.
05:04
and we do this by instinctively relying on patterns
86
304964
3402
ما این کار را ناخودآگاه و بر پایه‌ی الگوهایی انجام می‌دهیم
05:08
that seem predictable.
87
308390
1669
که ظاهراً قابلیت پیش‌بینی دارند.
05:10
Yet, just as the categories we create allow us to make quick decisions,
88
310083
5943
هنوز، به همان اندازه که این طبقه‌بندی کردن به ما امکان تصمیم‌گیری آنی می‌دهد،
05:16
they also reinforce bias.
89
316050
2502
زمینه‌‌ساز تعصب هم می‌شوند.
05:18
So the very things that help us to see the world
90
318576
3392
یعنی درست همان چیزهایی که به ما کمک می‌کند این جهان را ببینیم،
05:23
also can blind us to it.
91
323104
1980
ممکن است چشم ما را به روی آن ببندند.
05:25
They render our choices effortless,
92
325509
2778
خیلی راحت انتخاب‌های ما را جهت‌دهی می‌کند،
05:28
friction-free.
93
328311
1369
بدون هیچ دردسری.
05:30
Yet they exact a heavy toll.
94
330956
2445
البته هزینه‌های آن بسیار سنگین است.
05:34
So what can we do?
95
334158
1411
حال چه کار می‌توانیم کنیم؟
05:36
We are all vulnerable to bias,
96
336507
2491
همه‌ی ما در معرض خطر تعصب هستیم،
05:39
but we don't act on bias all the time.
97
339022
2680
ولی این طور نیست که همیشه متعصبانه عمل کرده باشیم.
05:41
There are certain conditions that can bring bias alive
98
341726
3644
شرایط خاصی هست که ممکن است تعصب را بیدار کند
05:45
and other conditions that can muffle it.
99
345394
2533
و شرایط دیگری که می‌تواند آن‌ را خاموش کند.
05:47
Let me give you an example.
100
347951
1847
اجازه بدهید برایتان مثالی بزنم.
05:50
Many people are familiar with the tech company Nextdoor.
101
350663
4560
خیلی‌ها شرکت فناوری نِکست‌دُر را می‌شناسند.
05:56
So, their whole purpose is to create stronger, healthier, safer neighborhoods.
102
356073
6453
همه هدفشان ایجاد محله‌هایی بادوام‌تر و سالم‌تر و امن‌تر است.
06:03
And so they offer this online space
103
363468
2921
برای همین فضای آنلاینی را ایجاد کرده‌اند
06:06
where neighbors can gather and share information.
104
366413
3149
که در آن همسایه‌ها دور هم جمع می‌شوند و اطلاعات رد و بدل می کنند.
06:09
Yet, Nextdoor soon found that they had a problem
105
369586
4126
ولی نِکست‌دُر خیلی زود پی برد که به معضل صفحات
06:13
with racial profiling.
106
373736
1668
نژادپرستانه دچار شده‌اند.
06:16
In the typical case,
107
376012
1967
معمولاً،
06:18
people would look outside their window
108
378003
2396
وقتی آدم‌ها از پنجره بیرون را تماشا می‌کنند
06:20
and see a black man in their otherwise white neighborhood
109
380423
4049
و مرد سیاه‌پوستی را می‌بینند که در برابر همسایه سیفیدپوستشان ایستاده،
06:24
and make the snap judgment that he was up to no good,
110
384496
4715
سریع پیش‌داوری می‌کنند که آن مرد خیالاتی در سر دارد،
06:29
even when there was no evidence of criminal wrongdoing.
111
389235
3351
حتی وقتی که هیچ سند و مدرکی بر انجام کاری مجرمانه وجود ندارد.
06:32
In many ways, how we behave online
112
392610
2934
از جهات زیادی، رفتار ما در اینترنت
06:35
is a reflection of how we behave in the world.
113
395568
3114
بازتابی از رفتار ما در جهان واقعی است.
06:39
But what we don't want to do is create an easy-to-use system
114
399117
3945
ولی کاری که نباید انجام دهیم ایجاد سامانه‌ای است که در دسترس همگان باشد
06:43
that can amplify bias and deepen racial disparities,
115
403086
4163
و به تعصبات دامن بزند و نابرابری نژادی را گسترده‌تر کند،
06:48
rather than dismantling them.
116
408129
2266
به جای اینکه آن را فرو بکاهد.
06:50
So the cofounder of Nextdoor reached out to me and to others
117
410863
3429
برای همین یکی از بنیان‌گذاران نِکست‌دُر سراغ چند نفر رفت، از جمله من،
06:54
to try to figure out what to do.
118
414316
2131
تا برای این مسأله راه حلی پیدا کند.
06:56
And they realized that to curb racial profiling on the platform,
119
416471
3946
آنها پی بردند که برای محدود کردن صفحات با محتوای نژادگرایانه،
07:00
they were going to have to add friction;
120
420441
1922
باید دست‌اندازهایی ایجاد کنند؛
07:02
that is, they were going to have to slow people down.
121
422387
2658
یعنی باید روند کارشان را کند کرد.
07:05
So Nextdoor had a choice to make,
122
425069
2195
حالا نِکست‌دُر راه‌حلی پیش پایش داشت.
07:07
and against every impulse,
123
427288
2478
آنها تصمیم گرفتند در برابر هر نشانه‌ای
07:09
they decided to add friction.
124
429790
2116
مانعی ایجاد کنند.
07:12
And they did this by adding a simple checklist.
125
432397
3440
این کار را هم تنها با اضافه کردن یک چک‌لیست ساده انجام دادند.
07:15
There were three items on it.
126
435861
1670
سه مورد وجود داشت:
07:18
First, they asked users to pause
127
438111
2941
یک؛ از کاربران می‌خواستند کمی مکث کند
07:21
and think, "What was this person doing that made him suspicious?"
128
441076
5117
و فکر کند که «این شخص دارد چه کار می‌کند که باعث می‌شود به او بدگمان شوند؟»
07:26
The category "black man" is not grounds for suspicion.
129
446876
4533
«سیاه‌پوست بودن» هم جزء گزینه‌ها نیست.
07:31
Second, they asked users to describe the person's physical features,
130
451433
5139
دوم؛ از کاربران می‌خواستند ویژگی‌های ظاهری شخص را توصیف کنند،
07:36
not simply their race and gender.
131
456596
2435
سوای از نژاد و جنسیت.
07:39
Third, they realized that a lot of people
132
459642
3383
سوم؛ فهمیدند که بسیاری از مردم
07:43
didn't seem to know what racial profiling was,
133
463049
2928
ظاهراً نه می‌دانند صفحه‌ی نژادپرستانه چه محتوایی دارد، و نه
07:46
nor that they were engaging in it.
134
466001
1959
می‌دانند در ترویج این محتوا دست دارند.
07:48
So Nextdoor provided them with a definition
135
468462
3194
این شد که نکست‌دُر برای آنان توضیحی ارائه کرد
07:51
and told them that it was strictly prohibited.
136
471680
2902
و به انها گفت که چنین کاری اکیداً ممنوع است.
07:55
Most of you have seen those signs in airports
137
475071
2612
بیشتر شما این تابلوها را در فرودگاه‌ها و
07:57
and in metro stations, "If you see something, say something."
138
477707
3702
ایستگاه‌های مترو دیده‌اید: «فقط آنچه را دیده‌اید، به زبان بیاورید».
08:01
Nextdoor tried modifying this.
139
481928
2814
نِکست‌دُر کمی آن را تغییر داد:
08:05
"If you see something suspicious,
140
485584
2572
«اگر چیز شک‌برانگیزی دیدید،
08:08
say something specific."
141
488180
2073
سراغ حواشی نروید».
08:11
And using this strategy, by simply slowing people down,
142
491491
4446
و با همین راهبرد ِ کند کردن حرکت افراد،
08:15
Nextdoor was able to curb racial profiling by 75 percent.
143
495961
5691
نِکست‌دُر توانست تا ۷۵ درصد صفحات با محتوای نژادپرستانه را محدود کند.
08:22
Now, people often will say to me,
144
502496
2090
شاید خیلی‌ها به من بگویند:
08:24
"You can't add friction in every situation, in every context,
145
504610
4713
«تو که نمی‌توانی هر جایی و با هر محتوایی دست‌انداز ایجاد کنی،
08:29
and especially for people who make split-second decisions all the time."
146
509347
4646
مخصوصاً دربرابر کسانی که همیشه لحظه‌ای تصمیم می‌گیرند».
08:34
But it turns out we can add friction
147
514730
2563
ولی معلوم شده خیلی بیشتر از آنچه گمان می‌کنیم
08:37
to more situations than we think.
148
517317
2276
می‌توانیم مانع ایجاد کنیم.
08:40
Working with the Oakland Police Department
149
520031
2074
در نتیجه‌ی کار با پلیس اوکلند
08:42
in California,
150
522129
1417
در کالیفرنیا،
08:43
I and a number of my colleagues were able to help the department
151
523570
3856
من و تعدادی از همکارانم توانستیم به آنها کمک کنیم
08:47
to reduce the number of stops they made
152
527450
2671
تا تعداد دفعات توقفی را کاهش بدهند
08:50
of people who were not committing any serious crimes.
153
530145
3600
که در آن افراد مرتکب خلاف چندان مهمی نشده بودند.
08:53
And we did this by pushing officers
154
533769
2365
برای این کار افسران را وادار کردیم
08:56
to ask themselves a question before each and every stop they made:
155
536158
4443
هر باری که می‌خواهند توقف کنند، از خود بپرسند:
09:01
"Is this stop intelligence-led,
156
541451
3015
«آیا دستور من پلیسی-عقلانی است؛
09:04
yes or no?"
157
544490
1451
بله یا نه؟»
09:07
In other words,
158
547353
1396
به بیان دیگر،
09:09
do I have prior information to tie this particular person
159
549621
4484
آیا دلیل موجهی برای ربط دادن این شخص خاص به فلان جرم دارم؟
09:14
to a specific crime?
160
554129
1601
با افزودن این سؤال
09:16
By adding that question
161
556587
1458
به فرمی که افسران
09:18
to the form officers complete during a stop,
162
558069
3079
هنگام متوقف کردن دیگران پر می‌کنند،
09:21
they slow down, they pause,
163
561172
1809
شتابشان گرفته شد؛ مکث می‌کردند،
09:23
they think, "Why am I considering pulling this person over?"
164
563005
4220
با خود فکر می‌کردند «الان برای چی این آدم را متوقف کنم؟»
09:28
In 2017, before we added that intelligence-led question to the form,
165
568721
5561
سال ۲۰۱۷، پیش از آنکه این پرسش را به فرم اضافه کنیم،
09:35
officers made about 32,000 stops across the city.
166
575655
3946
افسران پلیس در سطح شهر تقریباً ۳۲ هزار دستور توقف می‌دادند.
09:39
In that next year, with the addition of this question,
167
579625
4115
سال بعدش، پس از اضافه شدن این پرسش،
09:43
that fell to 19,000 stops.
168
583764
2444
رسید به ۱۹ هزار بار.
09:46
African-American stops alone fell by 43 percent.
169
586232
4961
توقف آفریقایی‌آمریکایی‌ها خودش به تنهایی ۴۳ درصد کاسته شد.
09:51
And stopping fewer black people did not make the city any more dangerous.
170
591905
4438
و کمتر دستور ایست دادن به سیاه‌پوستان شهر را هیچ خطرناک‌تر نکرد.
09:56
In fact, the crime rate continued to fall,
171
596367
2734
راستش میزان جرم‌وجنایت هم کاسته شد،
09:59
and the city became safer for everybody.
172
599125
3337
و شهر برای همگان امن‌تر شد.
10:02
So one solution can come from reducing the number of unnecessary stops.
173
602486
5355
پس یک راه‌حل می‌شود کاهش تعداد دستورات بی‌دلیل توقف.
10:08
Another can come from improving the quality of the stops
174
608285
4270
یکی دیگر ممکن است بهبود شیوه‌ی برخوردشان
10:12
officers do make.
175
612579
1305
با افراد باشد.
10:14
And technology can help us here.
176
614512
2596
و فناوری می‌تواند به کمک ما بیاید.
10:17
We all know about George Floyd's death,
177
617132
2415
همه ما ماجرای مرگ جرج فلوید را می‌دانیم،
10:20
because those who tried to come to his aid held cell phone cameras
178
620499
4772
چون آنهایی که سعی داشتند به کمکش بیایند دوربین موبایل‌هایشان را روشن کردند
10:25
to record that horrific, fatal encounter with the police.
179
625295
5431
تا این صحنه‌ی دهشتناک و مرگ‌آور ِ مواجهه‌ی با پلیس را ضبط کنند.
10:30
But we have all sorts of technology that we're not putting to good use.
180
630750
5031
ولی ابزارهای زیادی داریم که از آنها به درستی استفاده نمی‌کنیم.
10:35
Police departments across the country
181
635805
2503
امروزه واحدهای پلیس سرتاسر کشور
10:38
are now required to wear body-worn cameras
182
638332
3553
باید روی لباس افسران دوریبن نصب کنند
10:41
so we have recordings of not only the most extreme and horrific encounters
183
641909
5930
تا افزون بر ویدیوی شدیدترین و هولناک‌ترین درگیری‌ها،
10:47
but of everyday interactions.
184
647863
2754
برخوردهای هرروزه‌شان نیز ضبط شود.
10:50
With an interdisciplinary team at Stanford,
185
650641
2777
به همراه گروهی چندوجهی در استنفورد،
10:53
we've begun to use machine learning techniques
186
653442
2687
و با استفاده از روش‌های داده‌کاوی
10:56
to analyze large numbers of encounters.
187
656153
3367
شروع کردیم به تحلیل انبوهی از برخوردها.
10:59
This is to better understand what happens in routine traffic stops.
188
659544
4611
می‌خواستیم بدانیم در جریان یک دستور ایست معمولی به یک خودرو چه می‌گذرد.
11:04
What we found was that
189
664179
2155
به این ترتیب پی بردیم
11:06
even when police officers are behaving professionally,
190
666358
3662
حتی وقتی افسران پلیس اصولی رفتار می‌کنند،
11:10
they speak to black drivers less respectfully than white drivers.
191
670860
4462
با رانندگان سفیدپوست، محترمانه‌تر از رانندگان سیاه‌پوست صحبت می‌کنند.
11:16
In fact, from the words officers use alone,
192
676052
4075
راستش فقط از روی کلماتی که به کار می‌بردند،
11:20
we could predict whether they were talking to a black driver or a white driver.
193
680151
5162
می‌توانستیم حدس بزنیم آیا دارد با یک سیاه‌پوست حرف می‌زند یا یک سفیدپوست.
11:25
The problem is that the vast majority of the footage from these cameras
194
685337
5762
مشکل این است که واحدهای پلیس از اکثر قریب به اتفاق این فیلم‌ها
11:31
is not used by police departments
195
691123
2087
هیچ بهره‌ای نمی‌برند
11:33
to understand what's going on on the street
196
693234
2276
تا بفهمند کف خیابان چه خبر است
11:35
or to train officers.
197
695534
2243
یا اینکه به افسران آموزش بدهند.
11:38
And that's a shame.
198
698554
1458
و این مایه شرمساری است.
11:40
How does a routine stop turn into a deadly encounter?
199
700796
4789
چطور یک بازرسی ساده‌ی پلیس به مواجهه‌ای مرگبار ختم می‌شود؟
11:45
How did this happen in George Floyd's case?
200
705609
2670
چطور این بلا بر سر جرج فلوید آمد؟
11:49
How did it happen in others?
201
709588
2082
بر سر بقیه چطور آمده بود؟
11:51
When my eldest son was 16 years old,
202
711694
3396
زمانی که پسر بزرگم شانزده ساله بود،
11:55
he discovered that when white people look at him,
203
715114
3139
فهمید وقتی سفیدپوستان نگاهش می‌کنند
11:58
they feel fear.
204
718277
1561
حس ترس دارند.
12:01
Elevators are the worst, he said.
205
721123
2661
به قول خودش درون آسانسور از همه جا بدتر است.
12:04
When those doors close,
206
724313
2331
وقتی درهایش بسته می‌شوند،
12:06
people are trapped in this tiny space
207
726668
3083
آدم‌ها در این فضای محدود به همراه کسی گرفتار می‌شوند،
12:09
with someone they have been taught to associate with danger.
208
729775
4467
که بهشان یاد داده‌اند، این شخص آمیخته‌ با خطر است.
12:14
My son senses their discomfort,
209
734744
3220
پسرم بی‌قراری‌شان را حس می‌کند،
12:17
and he smiles to put them at ease,
210
737988
3157
و برای اینکه خیالشان راحت شود به رویشان لبخند می‌زند،
12:21
to calm their fears.
211
741169
1769
که ترسشان بریزد.
12:23
When he speaks,
212
743351
1945
وقتی شروع به صحبت می‌کند
12:25
their bodies relax.
213
745320
1683
آن وقت آرام می‌شوند.
12:27
They breathe easier.
214
747442
1903
آرام‌تر نفس می‌کشند.
12:29
They take pleasure in his cadence,
215
749369
2531
از شیوه‌ی برخورد او، رفتارش، بیانش
12:31
his diction, his word choice.
216
751924
2317
احساس آرامش می‌کنند.
12:34
He sounds like one of them.
217
754986
1843
شبیه یکی از خودشان می‌شود.
12:36
I used to think that my son was a natural extrovert like his father.
218
756853
4730
همیشه گمان می‌کردم که پسرم، مثل پدرش، ذاتاً برون‌گراست.
12:41
But I realized at that moment, in that conversation,
219
761607
3550
ولی بعد از این ماجرا، و بعد از حرف‌هایی که زدیم فهمیدم
12:46
that his smile was not a sign that he wanted to connect
220
766143
5078
که لبخندش نشانی از تمایل به ارتباط
12:51
with would-be strangers.
221
771245
1964
با غریبه‌ها نیست.
12:53
It was a talisman he used to protect himself,
222
773920
3652
شگردی بود برای محافظت از خودش؛
12:57
a survival skill he had honed over thousands of elevator rides.
223
777596
6219
مهارتی نجات‌بخش که پس از هزاران بار سوار شدن بر آسانسور، آموخته بود.
13:04
He was learning to accommodate the tension that his skin color generated
224
784387
5171
رفته‌رفته یاد گرفته بود که چطور تنش ناشی از رنگ پوستش را برطرف کند،
13:11
and that put his own life at risk.
225
791026
2667
تنشی که زندگی‌اش را به خطر می‌انداخت.
13:14
We know that the brain is wired for bias,
226
794619
3783
همه می‌دانیم که تعصب در مغز ریشه می‌دواند،
13:18
and one way to interrupt that bias is to pause and to reflect
227
798426
4465
و یک راه برای برهم زدنش این است که درنگ کنیم
13:22
on the evidence of our assumptions.
228
802915
2305
و به مبانی پیش‌فرض‌هایمان درست بنگریم.
13:25
So we need to ask ourselves:
229
805244
1755
یعنی باید از خودمان بپرسیم:
13:27
What assumptions do we bring when we step onto an elevator?
230
807023
4665
وقتی پا در آسانسور می‌گذارم، چه پیش‌فرض‌هایی در ذهنم دارم؟
13:33
Or an airplane?
231
813776
1311
یا در هواپیما؟
13:35
How do we make ourselves aware of our own unconscious bias?
232
815532
4599
چطور خودمان را نسبت به تعصبات ناخودآگاهمان هشیار می‌کنیم؟
13:40
Who do those assumptions keep safe?
233
820155
2351
آیا این پیش‌فرض‌ها از جان کسی محافظت کرده؟
13:44
Who do they put at risk?
234
824615
1932
آیا جان کسی را به خطر انداخته؟
13:47
Until we ask these questions
235
827649
2354
تا وقتی که چنین سؤال‌هایی از خود نپرسیم
13:50
and insist that our schools and our courts and our police departments
236
830978
4624
و پافشارانه در مدارس و دادگاه‌ها و ادارات پلیس
13:55
and every institution do the same,
237
835626
2542
و دیگر نهادها هم همین کار نشود،
13:59
we will continue to allow bias
238
839835
3829
یعنی قبول کرده‌ایم که تعصب چشمان ما را
14:03
to blind us.
239
843688
1278
کور کند.
14:05
And if we do,
240
845348
1409
ولی اگر چنین نکنیم،
14:08
none of us are truly safe.
241
848066
3208
هیج کداممان آسایش نخواهیم داشت.
14:14
Thank you.
242
854103
1308
سپاسگزارم.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7