How racial bias works -- and how to disrupt it | Jennifer L. Eberhardt

167,361 views ・ 2020-06-22

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Shimaa Nabil
00:12
Some years ago,
0
12910
1273
قبل بضع سنوات،
00:14
I was on an airplane with my son who was just five years old at the time.
1
14207
4912
كنت على متن الطائرة مع ابني ذو الخمسة أعوام فقط حينها.
00:20
My son was so excited about being on this airplane with Mommy.
2
20245
5095
كان ابني متحمساً جداً لكونه في الطائرة معي.
00:25
He's looking all around and he's checking things out
3
25364
2940
ينظر في جميع الأرجاء ويتفحص الأشياء من حوله
00:28
and he's checking people out.
4
28328
1836
ويتفحص الأشخاص.
00:30
And he sees this man, and he says,
5
30188
1630
ورأى رجلا ثم قال:
00:31
"Hey! That guy looks like Daddy!"
6
31842
2861
"مهلاً! هذا الرجل يبدو كأبي!"
00:35
And I look at the man,
7
35882
1920
فنظرت إلى ذلك الرجل،
00:37
and he didn't look anything at all like my husband,
8
37826
3730
فلم يكن يبدو كزوجي إطلاقاً،
00:41
nothing at all.
9
41580
1369
لا شيء على الإطلاق.
00:43
And so then I start looking around on the plane,
10
43461
2336
ونظرت فيما حولي على الطائرة،
00:45
and I notice this man was the only black guy on the plane.
11
45821
5885
ولاحظت أن ذلك الرجل كان الرجل الأسود الوحيد في الطائرة.
00:52
And I thought,
12
52874
1412
وقلت:
00:54
"Alright.
13
54310
1194
"حسناَ.
00:56
I'm going to have to have a little talk with my son
14
56369
2525
سأجري حوارا مع ابني
00:58
about how not all black people look alike."
15
58918
2929
عن أنه ليس جميع الأشخاص السود يتشابهون."
01:01
My son, he lifts his head up, and he says to me,
16
61871
4377
رفع ابني رأسه قائلاً لي:
01:08
"I hope he doesn't rob the plane."
17
68246
2371
"أتمنى ألا يسرق الطائرة."
01:11
And I said, "What? What did you say?"
18
71359
2515
قلت: "ماذا؟ ما الذي قلته للتو؟"
01:13
And he says, "Well, I hope that man doesn't rob the plane."
19
73898
3428
قال: "حسناً، أتمنى ألا يسرق ذلك الرجل الطائرة."
01:19
And I said, "Well, why would you say that?
20
79200
2752
وقلت: "حسناً، لماذا قلت ذلك؟
01:22
You know Daddy wouldn't rob a plane."
21
82486
2663
أنت تعلم أن والدك لن يسرق طائرة."
01:25
And he says, "Yeah, yeah, yeah, well, I know."
22
85173
2312
قال: "نعم، نعم، نعم، حسناً، أعلم."
01:28
And I said, "Well, why would you say that?"
23
88179
2127
قلت: "حسناً، فلماذا قلت ذلك إذاً؟"
01:32
And he looked at me with this really sad face,
24
92346
2957
نظر إلي بوجه حزين حقاً،
01:36
and he says,
25
96168
1254
فقال:
01:38
"I don't know why I said that.
26
98890
2106
"لا أعلم لماذا قلت ذلك.
01:42
I don't know why I was thinking that."
27
102600
2358
لا أعلم لما فكرت بتلك الطريقة."
01:45
We are living with such severe racial stratification
28
105724
3518
نحن نعيش في عالم شديد الطبقية العرقية
01:49
that even a five-year-old can tell us what's supposed to happen next,
29
109266
5060
لدرجة أن طفلا عمره خمس سنوات بإمكانه افتراض ما الذي قد يحدث لاحقاً،
01:55
even with no evildoer,
30
115990
2107
رغم عدم وجود شرير،
01:58
even with no explicit hatred.
31
118121
2579
ودون كراهية صريحة.
02:02
This association between blackness and crime
32
122184
3913
الربط بين السواد والجريمة
02:06
made its way into the mind of my five-year-old.
33
126121
4334
شق طريقه نحو عقل ابني البالغ خمسة أعوام.
02:11
It makes its way into all of our children,
34
131787
3263
شق طريقه نحو عقول جميع أطفالنا،
02:16
into all of us.
35
136201
1391
نحونا جميعاً.
02:18
Our minds are shaped by the racial disparities
36
138793
3524
تشكلت عقولنا تبعاً للفوارق العرقية
02:22
we see out in the world
37
142341
1592
كما نرى في العالم
02:24
and the narratives that help us to make sense of the disparities we see:
38
144752
5341
والقصص التي تساعدنا لفهم الفوارق التي نراها:
02:31
"Those people are criminal."
39
151637
2526
"هؤلاء الناس مجرمون."
02:34
"Those people are violent."
40
154187
1925
"هؤلاء الناس عنيفون."
02:36
"Those people are to be feared."
41
156136
2965
"هؤلاء الناس يجب تجنبهم."
02:39
When my research team brought people into our lab
42
159814
3191
عندما جلب فريق بحثي أشخاصاً إلى معملنا
02:43
and exposed them to faces,
43
163029
2283
وتقديمهم للوجوه،
02:45
we found that exposure to black faces led them to see blurry images of guns
44
165336
7000
وجدنا أن النظر إلى الوجوه السوداء يجعلهم يرون صور ضبابية لأسلحة
02:52
with greater clarity and speed.
45
172360
3256
بمزيد من الوضوح والسرعة.
02:55
Bias cannot only control what we see,
46
175640
3354
التحيز لا يمكنه التحكم بما نرى فحسب،
02:59
but where we look.
47
179018
1648
بل أين نبحث.
03:00
We found that prompting people to think of violent crime
48
180690
3444
وجدنا أن دفع الناس للتفكير في جرائم العنف
03:04
can lead them to direct their eyes onto a black face
49
184158
4296
أدى بهم إلى توجيه نظرهم إلى الوجه الأسود
03:08
and away from a white face.
50
188478
2130
بعيداً عن الوجه الأبيض.
03:10
Prompting police officers to think of capturing and shooting
51
190632
3842
دفع رجال الشرطة للتفكير في القبض على وإطلاق النار
03:14
and arresting
52
194498
1229
واعتقال
03:15
leads their eyes to settle on black faces, too.
53
195751
3859
الأشخاص السود أيضاً.
03:19
Bias can infect every aspect of our criminal justice system.
54
199634
5066
التحيز يمكنه أن يؤثر على كل جوانب نظام العدالة الجنائية لدينا.
03:25
In a large data set of death-eligible defendants,
55
205100
2931
في مجموعة بيانات ضخمة للمدعى عليهم باستحقاق القتل،
03:28
we found that looking more black more than doubled their chances
56
208055
4357
وجدنا أنه من يملك بشرة أكثر سواداً تزداد فرص
03:32
of receiving a death sentence --
57
212436
2057
الحكم عليه بالإعدام -
03:35
at least when their victims were white.
58
215494
2427
على الأقل عندما يكون ضحاياهم من البيض.
03:37
This effect is significant,
59
217945
1438
هذا التأثير مهم،
03:39
even though we controlled for the severity of the crime
60
219407
3301
بالرغم من سيطرتنا على حدة الجريمة
03:42
and the defendant's attractiveness.
61
222732
2281
وجاذبية المدعى عليهم.
03:45
And no matter what we controlled for,
62
225037
2649
ومهما كان ما كنا نتحكم فيه،
03:47
we found that black people were punished
63
227710
3345
وجدنا أنه يتم عقاب ذوي البشرة السوداء
03:51
in proportion to the blackness of their physical features:
64
231079
4325
نسبة إلى مدى سواد سماتهم الجسدية:
03:55
the more black,
65
235428
1881
الأشد سواداً،
03:57
the more death-worthy.
66
237333
1753
الأكثر استحقاقاً للموت.
03:59
Bias can also influence how teachers discipline students.
67
239110
4209
أيضاً يمكن للتحيز أن يؤثر بكيف يؤدب المعلمين الطلاب.
04:03
My colleagues and I have found that teachers express a desire
68
243781
4407
وجدنا أنا وزملائي أن المعلمين يعبرون عن رغبتهم
04:08
to discipline a black middle school student more harshly
69
248212
3566
لتأديب طالب ملون بالمرحلة المتوسطة بقسوة أشد
04:11
than a white student
70
251802
1168
من طالب أبيض
04:12
for the same repeated infractions.
71
252994
2576
لنفس المخالفات المتكررة.
04:15
In a recent study,
72
255594
1294
في دراسة حديثة،
04:16
we're finding that teachers treat black students as a group
73
256912
4358
نجد أن المعلمين يعاملون الطلاب السود كمجموعة
04:21
but white students as individuals.
74
261294
2431
بينما يعاملون الطلاب البيض كأفراد.
04:24
If, for example, one black student misbehaves
75
264126
3599
على سبيل المثال، إذا أساء طالب أسود التصرف
04:27
and then a different black student misbehaves a few days later,
76
267749
4785
وبعد بضعة أيام أساء التصرف طالب أسود آخر،
04:32
the teacher responds to that second black student
77
272558
3228
يستجيب المعلم للطالب الملون الثاني
04:35
as if he had misbehaved twice.
78
275810
2625
كما لو أنه أساء التصرف مرتين.
04:38
It's as though the sins of one child
79
278952
2811
يبدو الأمر وكأنه خطايا طفل واحد
04:41
get piled onto the other.
80
281787
2176
تتراكم على الآخر.
04:43
We create categories to make sense of the world,
81
283987
3294
نحن ننشئ تصنيفات لكي يصبح العالم مفهوماً،
04:47
to assert some control and coherence
82
287305
4483
لفرض بعض السيطرة والترابط
04:51
to the stimuli that we're constantly being bombarded with.
83
291812
4090
إلى المحفزات التي تحاصرنا باستمرار.
04:55
Categorization and the bias that it seeds
84
295926
3968
التصنيف والتحيز
04:59
allow our brains to make judgments more quickly and efficiently,
85
299918
5022
يسمحا لعقولنا بإصدار الأحكام بسرعة وبكفاءة أكثر،
05:04
and we do this by instinctively relying on patterns
86
304964
3402
ونقوم بذلك بالفطرة بناءً على الأنماط
05:08
that seem predictable.
87
308390
1669
التي تبدو متوقعة.
05:10
Yet, just as the categories we create allow us to make quick decisions,
88
310083
5943
ومع ذلك فإن التصنيفات تسمح لنا بإصدار قرارات سريعة،
05:16
they also reinforce bias.
89
316050
2502
فهي تعزز التحيز أيضاً.
05:18
So the very things that help us to see the world
90
318576
3392
لذا الأشياء التي تساعدنا لرؤية العالم
05:23
also can blind us to it.
91
323104
1980
يمكن أن تعمينا عنه كذلك.
05:25
They render our choices effortless,
92
325509
2778
تسهل علينا الاختيار بدون بذل مجهود،
05:28
friction-free.
93
328311
1369
وبدون مقاومة لأفكارنا.
05:30
Yet they exact a heavy toll.
94
330956
2445
ولكن تشكل عبء ثقيل.
05:34
So what can we do?
95
334158
1411
إذاً ماذا نفعل؟
05:36
We are all vulnerable to bias,
96
336507
2491
نحن جميعاً معرضون للتحيز ضدنا.
05:39
but we don't act on bias all the time.
97
339022
2680
لكننا لا نتحيز طوال الوقت.
05:41
There are certain conditions that can bring bias alive
98
341726
3644
هناك بعض الحالات تجسد التحيز
05:45
and other conditions that can muffle it.
99
345394
2533
وحالات أخرى تضعفها.
05:47
Let me give you an example.
100
347951
1847
دعوني أعطيكم مثالاً.
05:50
Many people are familiar with the tech company Nextdoor.
101
350663
4560
معظم الناس قد سمعوا عن شركة Nextdoor للتكنولوجيا.
05:56
So, their whole purpose is to create stronger, healthier, safer neighborhoods.
102
356073
6453
والتي كان هدفها الرئيسي خلق علاقات قوية وصحية وآمنة بين الجيران.
06:03
And so they offer this online space
103
363468
2921
لذا قاموا بإنشاء موقع على الإنترنت
06:06
where neighbors can gather and share information.
104
366413
3149
حيث يمكن للجيران التجمع ومشاركة المعلومات.
06:09
Yet, Nextdoor soon found that they had a problem
105
369586
4126
ومن ثم واجهتهم مشكلة
06:13
with racial profiling.
106
373736
1668
مع تصنيف الأشخاص على أساس عنصري.
06:16
In the typical case,
107
376012
1967
في الحالة النموذجية،
06:18
people would look outside their window
108
378003
2396
يقوم الأشخاص بالنظر خارج نافذتهم
06:20
and see a black man in their otherwise white neighborhood
109
380423
4049
ويروا رجلاً ملوناً بالجوار
06:24
and make the snap judgment that he was up to no good,
110
384496
4715
ويأخذون عنه انطباع سيء،
06:29
even when there was no evidence of criminal wrongdoing.
111
389235
3351
بالرغم من عدم ثبوت ارتكابه لفعل إجرامي.
06:32
In many ways, how we behave online
112
392610
2934
عموماً يعتبر سلوكنا عبر الإنترنت
06:35
is a reflection of how we behave in the world.
113
395568
3114
انعكاس لسلوكنا في العالم الحقيقي.
06:39
But what we don't want to do is create an easy-to-use system
114
399117
3945
لكن ما لا نود القيام به هو خلق نظام سهل الاستخدام
06:43
that can amplify bias and deepen racial disparities,
115
403086
4163
يعزز من وجود التمييز العنصري والعرقي،
06:48
rather than dismantling them.
116
408129
2266
بدلاً من مقاومتهم.
06:50
So the cofounder of Nextdoor reached out to me and to others
117
410863
3429
لذا قام مؤسس Nextdoor بالتواصل معي ومع آخرين
06:54
to try to figure out what to do.
118
414316
2131
لمعرفة كيفية حل المشكلة.
06:56
And they realized that to curb racial profiling on the platform,
119
416471
3946
واكتشفوا أنه يمكن تقليل التصنيف العنصري على المنصة،
07:00
they were going to have to add friction;
120
420441
1922
عن طريق تثبيط هذا الفعل،
07:02
that is, they were going to have to slow people down.
121
422387
2658
عن طريق محاولة مقاومة الناس للقيام بهذا الفعل.
07:05
So Nextdoor had a choice to make,
122
425069
2195
لذا قام Nextdoor بالاختيار،
07:07
and against every impulse,
123
427288
2478
وفي مواجهة كل دافع للناس لهذا التصرف،
07:09
they decided to add friction.
124
429790
2116
قاموا بوضع عراقيل.
07:12
And they did this by adding a simple checklist.
125
432397
3440
وفعلوا ذلك بإضافة قائمة اختيارات بسيطة.
07:15
There were three items on it.
126
435861
1670
فيها ثلاثة بنود.
07:18
First, they asked users to pause
127
438111
2941
أولاً: طلبوا من الناس أن يتمهلوا
07:21
and think, "What was this person doing that made him suspicious?"
128
441076
5117
ويفكروا: "ما الفعل المريب الذي كان يفعله هذا الشخص ليثير الشكوك حوله؟"
07:26
The category "black man" is not grounds for suspicion.
129
446876
4533
تصنيف "ملون البشرة" لا يجلب الشكوك.
07:31
Second, they asked users to describe the person's physical features,
130
451433
5139
ثانياً: طلبوا من المستخدمين أن يقوموا بوصف الأشخاص من حيث بنيتهم الجسدية،
07:36
not simply their race and gender.
131
456596
2435
ليس مجرد عرقهم وجنسهم.
07:39
Third, they realized that a lot of people
132
459642
3383
ثالثاً: وجدوا أن كثيراً من الناس
07:43
didn't seem to know what racial profiling was,
133
463049
2928
لا يدركون ماهية التصنيف العنصري،
07:46
nor that they were engaging in it.
134
466001
1959
ولا يمارسونه.
07:48
So Nextdoor provided them with a definition
135
468462
3194
لذا قدم Nextdoor تعريفاً للناس
07:51
and told them that it was strictly prohibited.
136
471680
2902
وأخبرهم بأنه ممنوع بشدة.
07:55
Most of you have seen those signs in airports
137
475071
2612
معظمكم شاهد هذه اللافتات في المطارات
07:57
and in metro stations, "If you see something, say something."
138
477707
3702
وفي محطات المترو، "إذا رأيت شيئاً، قل شيئاً."
08:01
Nextdoor tried modifying this.
139
481928
2814
حاولت Nextdoor تعديل المقولة.
08:05
"If you see something suspicious,
140
485584
2572
"إذا رأيت شيئاً مريباً،
08:08
say something specific."
141
488180
2073
قل شيئاً دقيقاً."
08:11
And using this strategy, by simply slowing people down,
142
491491
4446
وباستخدام هذه الاستراتيجية، وبتثبيط هذا الفعل،
08:15
Nextdoor was able to curb racial profiling by 75 percent.
143
495961
5691
استطاع Nextdoor تقليل التمييز العنصري بنسبة 75%.
08:22
Now, people often will say to me,
144
502496
2090
الآن، يقول الناس غالبا لي:
08:24
"You can't add friction in every situation, in every context,
145
504610
4713
"لا يمكن مقاومة كل فعل أو كل معتقد،
08:29
and especially for people who make split-second decisions all the time."
146
509347
4646
وبالأخص بالنسبة للأشخاص الذين يصدرون قرارات متسرعة في معظم الأوقات."
08:34
But it turns out we can add friction
147
514730
2563
لكن وجدنا أننا نستطيع المقاومة
08:37
to more situations than we think.
148
517317
2276
في مواقف أكثر مما نعتقد.
08:40
Working with the Oakland Police Department
149
520031
2074
من خلال عملي مع قسم شرطة أوكلاند
08:42
in California,
150
522129
1417
في كاليفورنيا،
08:43
I and a number of my colleagues were able to help the department
151
523570
3856
استطعت أنا وزملائي مساعدة القسم
08:47
to reduce the number of stops they made
152
527450
2671
في تقليل عدد الإيقافات التي تمت
08:50
of people who were not committing any serious crimes.
153
530145
3600
في حق الأشخاص الذين لم يرتكبوا أي جرم.
08:53
And we did this by pushing officers
154
533769
2365
واستطعنا تحقيق ذلك عن طريق تحفيز الشرطيين
08:56
to ask themselves a question before each and every stop they made:
155
536158
4443
أن يسألوا أنفسهم قبل كل إيقاف يقومون به:
09:01
"Is this stop intelligence-led,
156
541451
3015
"هل هذا الإيقاف مبني على معلومات استخباراتية،
09:04
yes or no?"
157
544490
1451
نعم أم لا؟"
09:07
In other words,
158
547353
1396
بمعنى آخر،
09:09
do I have prior information to tie this particular person
159
549621
4484
هل تم تجميع المعلومات مسبقاً للحكم بإيقاف هذا الشخص بعينه
09:14
to a specific crime?
160
554129
1601
لإرتكابه لجريمة بعينها؟
09:16
By adding that question
161
556587
1458
بإضافة هذا السؤال
09:18
to the form officers complete during a stop,
162
558069
3079
للاستمارة التي يملؤها الشرطيين خلال الإيقاف؛
09:21
they slow down, they pause,
163
561172
1809
تمهلوا وانتظروا،
09:23
they think, "Why am I considering pulling this person over?"
164
563005
4220
وفكروا: "لما أعتزم إيقاف هذا الشخص؟"
09:28
In 2017, before we added that intelligence-led question to the form,
165
568721
5561
في 2017، وقبل إضافة هذا السؤال الاستخباراتي للاستمارة،
09:35
officers made about 32,000 stops across the city.
166
575655
3946
قام الشرطيين بإجراء 32,000 إيقاف عبر المدنية.
09:39
In that next year, with the addition of this question,
167
579625
4115
وبعد مرور عام على إضافة هذا السؤال،
09:43
that fell to 19,000 stops.
168
583764
2444
انخفض عدد الإيقافات إلى 19,000.
09:46
African-American stops alone fell by 43 percent.
169
586232
4961
انخفض إيقاف الأمريكيين من أصول إفريقية فقط بنسبة 43%.
09:51
And stopping fewer black people did not make the city any more dangerous.
170
591905
4438
ولم تعد المدينة غير آمنة بعد إيقاف عدد أقل من الأشخاص ذوي البشرة الملونة.
09:56
In fact, the crime rate continued to fall,
171
596367
2734
في الحقيقة استمر معدل الجريمة في الانخفاض.
09:59
and the city became safer for everybody.
172
599125
3337
وأصبحت المدينة أكثر أماناً للجميع.
10:02
So one solution can come from reducing the number of unnecessary stops.
173
602486
5355
لذا يكمن الحل في تقليل عدد الإيقافات الغير ضرورية.
10:08
Another can come from improving the quality of the stops
174
608285
4270
يتمثل حل آخر في تحسين طريقة الإيقاف
10:12
officers do make.
175
612579
1305
التي يقوم بها الشرطيين.
10:14
And technology can help us here.
176
614512
2596
وللتكنولوجيا دور هنا.
10:17
We all know about George Floyd's death,
177
617132
2415
كلنا نعلم بشأن حادثة وفاة جورج فلويد،
10:20
because those who tried to come to his aid held cell phone cameras
178
620499
4772
ولأن الأشخاص الذين حاولوا مساعدته كانوا يحملون كاميرات في هواتفهم الخلوية
10:25
to record that horrific, fatal encounter with the police.
179
625295
5431
ليسجلوا ذلك الصدام المرعب والفادح مع الشرطة.
10:30
But we have all sorts of technology that we're not putting to good use.
180
630750
5031
لكننا لا نحسن استخدام التكنولوجيا بكل وسائلها التي نمتلكها.
10:35
Police departments across the country
181
635805
2503
كل أقسام الشرطة في جميع أنحاء المدينة
10:38
are now required to wear body-worn cameras
182
638332
3553
ملتزمين الآن بارتداء زي يحمل كاميرات
10:41
so we have recordings of not only the most extreme and horrific encounters
183
641909
5930
لذا لم يعد لدينا تسجيلات للمواجهات المتطرفة والمخيفة وفقط
10:47
but of everyday interactions.
184
647863
2754
بل لها جميعاً.
10:50
With an interdisciplinary team at Stanford,
185
650641
2777
مع فريق متعدد التخصصات في ستانفورد،
10:53
we've begun to use machine learning techniques
186
653442
2687
بدأنا في استخدام آلات ذات تقنيات متطورة
10:56
to analyze large numbers of encounters.
187
656153
3367
لتحليل عدد كبير من المواجهات.
10:59
This is to better understand what happens in routine traffic stops.
188
659544
4611
هذا يساعد في فهم ما يحدث في إيقافات المرور الروتينية بشكل أفضل.
11:04
What we found was that
189
664179
2155
ما اكتشفناه هو
11:06
even when police officers are behaving professionally,
190
666358
3662
أن حتى عندما يتعامل ضباط الشرطة باحترافية،
11:10
they speak to black drivers less respectfully than white drivers.
191
670860
4462
يتحدثون إلى السائقين ذوي البشرة الملونة بلهجة أقل احتراماً من ذوي البشرة البيضاء.
11:16
In fact, from the words officers use alone,
192
676052
4075
في الحقيقة، مجرد الكلمات التي يستخدمها الشرطيون،
11:20
we could predict whether they were talking to a black driver or a white driver.
193
680151
5162
يمكن أن تنبئنا إذا كانوا يتحدثون إلى سائق ملون أم أبيض.
11:25
The problem is that the vast majority of the footage from these cameras
194
685337
5762
تكمن المشكلة في أن أغلبية الصور المأخوذة بهذه الكاميرات
11:31
is not used by police departments
195
691123
2087
لا يتم استغلالها بواسطة أقسام الشرطة
11:33
to understand what's going on on the street
196
693234
2276
لفهم ما يجري في الشوارع
11:35
or to train officers.
197
695534
2243
أو لتدريب الضباط.
11:38
And that's a shame.
198
698554
1458
وهذا بعد عاراً.
11:40
How does a routine stop turn into a deadly encounter?
199
700796
4789
كيف يمكن لإيقاف روتيني أن يتحول إلى مواجهة مميتة؟
11:45
How did this happen in George Floyd's case?
200
705609
2670
كيف حدث هذا في حالة جورج فلويد؟
11:49
How did it happen in others?
201
709588
2082
كيف حدث في حالات أخرى؟
11:51
When my eldest son was 16 years old,
202
711694
3396
حينما كان ابني الأكبر في السادسة عشر من عمره
11:55
he discovered that when white people look at him,
203
715114
3139
اكتشف أنه حينما ينظر إليه ذوي البشرة البيضاء،
11:58
they feel fear.
204
718277
1561
كانوا يشعرون بالخوف.
12:01
Elevators are the worst, he said.
205
721123
2661
وقال أن المصاعد هي الأسوأ.
12:04
When those doors close,
206
724313
2331
عندما تقفل هذه الأبواب،
12:06
people are trapped in this tiny space
207
726668
3083
يحتجز الناس في هذه المساحة الصغيرة
12:09
with someone they have been taught to associate with danger.
208
729775
4467
مع شخص تعلموا أنه مصدر للخطر.
12:14
My son senses their discomfort,
209
734744
3220
كان ابني يستشعر خوفهم،
12:17
and he smiles to put them at ease,
210
737988
3157
ويبتسم ليخفف توترهم،
12:21
to calm their fears.
211
741169
1769
ويقلل من الخوف لديهم.
12:23
When he speaks,
212
743351
1945
عندما يتحدث،
12:25
their bodies relax.
213
745320
1683
تسترخي أجسادهم.
12:27
They breathe easier.
214
747442
1903
ويتنفسوا بشكل أسهل.
12:29
They take pleasure in his cadence,
215
749369
2531
ويستلطفون أسلوبه،
12:31
his diction, his word choice.
216
751924
2317
وانتقاء الكلمات وطريقة إلقاؤه.
12:34
He sounds like one of them.
217
754986
1843
ليبدو كأنه واحد منهم.
12:36
I used to think that my son was a natural extrovert like his father.
218
756853
4730
اعتدت على تصور أن شخصيته منفتحة مثل والده.
12:41
But I realized at that moment, in that conversation,
219
761607
3550
لكني اكتشفت في هذه الحظة خلال هذه المحادثة
12:46
that his smile was not a sign that he wanted to connect
220
766143
5078
أن ابتسامته لم تكن علامة على أنه يريد التواصل
12:51
with would-be strangers.
221
771245
1964
مع من المفترض أنهم غرباء.
12:53
It was a talisman he used to protect himself,
222
773920
3652
كان شيئاً اعتاد أن يتحصن به،
12:57
a survival skill he had honed over thousands of elevator rides.
223
777596
6219
مهارة للتعايش اكتسبها عبر آلاف المرات ركوب المصاعد.
13:04
He was learning to accommodate the tension that his skin color generated
224
784387
5171
كان يتعلم كيفية امتصاص التوتر الناتج عن لون بشرته
13:11
and that put his own life at risk.
225
791026
2667
والتي جعلت حياته في خطر.
13:14
We know that the brain is wired for bias,
226
794619
3783
نعلم أن العقل يميل بشدة للتحيز.
13:18
and one way to interrupt that bias is to pause and to reflect
227
798426
4465
والطريقة الوحيدة لمقاطعة هذا التفكير هو التوقف
13:22
on the evidence of our assumptions.
228
802915
2305
وعكس الدليل على افتراضاتنا.
13:25
So we need to ask ourselves:
229
805244
1755
لذا وجب علينا أن نسأل أنفسنا:
13:27
What assumptions do we bring when we step onto an elevator?
230
807023
4665
ما الافتراضات التي نفترضها عندما نركب المصعد؟
13:33
Or an airplane?
231
813776
1311
أو الطائرة؟
13:35
How do we make ourselves aware of our own unconscious bias?
232
815532
4599
كيف نثقف أنفسنا لنكون مدركين نزعتنا اللاإرادية نحو التحيز؟
13:40
Who do those assumptions keep safe?
233
820155
2351
من تحمي هذه الافتراضات؟
13:44
Who do they put at risk?
234
824615
1932
من يتعرض للخطر بسببها؟
13:47
Until we ask these questions
235
827649
2354
وإلى أن نسأل أنفسنا هذه الأسئلة
13:50
and insist that our schools and our courts and our police departments
236
830978
4624
ونصمم على أن مدارسنا ومحاكمنا وأقسام الشرطة
13:55
and every institution do the same,
237
835626
2542
وكل معهد يفعل المثل.
13:59
we will continue to allow bias
238
839835
3829
سنستمر في السماح للتحيز
14:03
to blind us.
239
843688
1278
بأن يغطي أعيننا.
14:05
And if we do,
240
845348
1409
وإذا فعلنا ذلك؛
14:08
none of us are truly safe.
241
848066
3208
لن يكون أيُّ منا في أمان حقيقي.
14:14
Thank you.
242
854103
1308
شكراً لكم.
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7