How racial bias works -- and how to disrupt it | Jennifer L. Eberhardt

157,918 views ・ 2020-06-22

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

תרגום: מיכל סלמן עריכה: Sigal Tifferet
00:12
Some years ago,
0
12910
1273
לפני מספר שנים,
00:14
I was on an airplane with my son who was just five years old at the time.
1
14207
4912
הייתי במטוס עם הבן שלי שהיה אז רק בן חמש.
00:20
My son was so excited about being on this airplane with Mommy.
2
20245
5095
בני כל כך התלהב להיות על המטוס הזה עם אימא.
00:25
He's looking all around and he's checking things out
3
25364
2940
הוא מסתכל מסביב והוא בודק דברים
00:28
and he's checking people out.
4
28328
1836
והוא בוחן אנשים.
00:30
And he sees this man, and he says,
5
30188
1630
והוא רואה את האיש הזה, והוא אומר,
00:31
"Hey! That guy looks like Daddy!"
6
31842
2861
"היי! הבחור הזה נראה כמו אבא!"
00:35
And I look at the man,
7
35882
1920
ואני מסתכלת על האיש,
00:37
and he didn't look anything at all like my husband,
8
37826
3730
והוא בכלל לא נראה כמו בעלי,
00:41
nothing at all.
9
41580
1369
בכלל לא.
00:43
And so then I start looking around on the plane,
10
43461
2336
ואז התחלתי להסתכל סביבי במטוס,
00:45
and I notice this man was the only black guy on the plane.
11
45821
5885
ושמתי לב שהאיש הזה היה הבחור השחור היחיד במטוס.
00:52
And I thought,
12
52874
1412
וחשבתי,
00:54
"Alright.
13
54310
1194
"בסדר.
00:56
I'm going to have to have a little talk with my son
14
56369
2525
אני אצטרך לנהל שיחה קצרה עם בני
00:58
about how not all black people look alike."
15
58918
2929
על זה שלא כל האנשים השחורים נראים אותו דבר. "
01:01
My son, he lifts his head up, and he says to me,
16
61871
4377
בני מרים את הראש למעלה, והוא אומר לי,
01:08
"I hope he doesn't rob the plane."
17
68246
2371
"אני מקווה שהוא לא ישדוד את המטוס".
01:11
And I said, "What? What did you say?"
18
71359
2515
ואני אמרתי, "מה? מה אמרת?"
01:13
And he says, "Well, I hope that man doesn't rob the plane."
19
73898
3428
והוא אומר, "טוב, אני מקווה שהאיש הזה לא ישדוד את המטוס".
01:19
And I said, "Well, why would you say that?
20
79200
2752
ואני אמרתי, "למה אתה אומר דבר כזה?
01:22
You know Daddy wouldn't rob a plane."
21
82486
2663
אתה יודע שאבא לא היה שודד מטוס".
01:25
And he says, "Yeah, yeah, yeah, well, I know."
22
85173
2312
והוא אומר, "כן, כן, כן, אני יודע".
01:28
And I said, "Well, why would you say that?"
23
88179
2127
ואמרתי, "אז למה אתה אומר את זה?".
01:32
And he looked at me with this really sad face,
24
92346
2957
והוא הסתכל עליי עם הפרצוף העצוב הזה,
01:36
and he says,
25
96168
1254
ואמר,
01:38
"I don't know why I said that.
26
98890
2106
"אני לא יודע למה אמרתי את זה.
01:42
I don't know why I was thinking that."
27
102600
2358
אני לא יודע למה חשבתי על זה".
01:45
We are living with such severe racial stratification
28
105724
3518
אנו חיים בריבוד גזעי כה חמור
01:49
that even a five-year-old can tell us what's supposed to happen next,
29
109266
5060
שאפילו ילד בן חמש יכול לומר לנו מה הדבר הבא שאמור לקרות,
01:55
even with no evildoer,
30
115990
2107
אפילו ללא רשע,
01:58
even with no explicit hatred.
31
118121
2579
אפילו ללא שנאה מפורשת.
02:02
This association between blackness and crime
32
122184
3913
הקשר הזה בין צבע עור שחור ובין פשע
02:06
made its way into the mind of my five-year-old.
33
126121
4334
עשה את דרכו אל התודעה של בני בן החמש.
02:11
It makes its way into all of our children,
34
131787
3263
הוא עושה את דרכו אל כל ילדינו,
02:16
into all of us.
35
136201
1391
אל כל אחד מאתנו.
02:18
Our minds are shaped by the racial disparities
36
138793
3524
המוחות שלנו מעוצבים על ידי ההבדלים הגזעיים
02:22
we see out in the world
37
142341
1592
שאנו רואים בעולם
02:24
and the narratives that help us to make sense of the disparities we see:
38
144752
5341
ועל ידי הנרטיבים שעוזרים לנו להבין את ההבדלים שאנו רואים:
02:31
"Those people are criminal."
39
151637
2526
"האנשים האלה פושעים".
02:34
"Those people are violent."
40
154187
1925
"האנשים האלה אלימים".
02:36
"Those people are to be feared."
41
156136
2965
"צריך לחשוש מהאנשים האלה".
02:39
When my research team brought people into our lab
42
159814
3191
כאשר צוות המחקר שלי הביא אנשים אל המעבדה שלנו
02:43
and exposed them to faces,
43
163029
2283
וחשף אותם לפרצופים,
02:45
we found that exposure to black faces led them to see blurry images of guns
44
165336
7000
מצאנו שחשיפה לפרצופים שחורים הובילה אותם לראות תמונות מטושטשות של רובים
02:52
with greater clarity and speed.
45
172360
3256
בבהירות ובמהירות גדולות יותר.
02:55
Bias cannot only control what we see,
46
175640
3354
הטיות לא רק יכולות לשלוט במה שאנחנו רואים,
02:59
but where we look.
47
179018
1648
אלא גם איפה אנחנו מסתכלים.
03:00
We found that prompting people to think of violent crime
48
180690
3444
גילינו שאם מעודדים אנשים לחשוב על פשע אלים
03:04
can lead them to direct their eyes onto a black face
49
184158
4296
הדבר יכול לגרום להם לכוון את עיניהם לעבר פנים שחורות
03:08
and away from a white face.
50
188478
2130
ולהסיט אותן מפנים לבנות.
03:10
Prompting police officers to think of capturing and shooting
51
190632
3842
כאשר מבקשים משוטרים לחשוב על לכידה וירי
03:14
and arresting
52
194498
1229
ומעצר
03:15
leads their eyes to settle on black faces, too.
53
195751
3859
הדבר מוביל את עיניהם להתמקד בפרצופים שחורים גם כן.
03:19
Bias can infect every aspect of our criminal justice system.
54
199634
5066
הטיות עלולות לזהם כל היבט של מערכת המשפט הפלילית שלנו.
03:25
In a large data set of death-eligible defendants,
55
205100
2931
במערכת נתונים גדולה של נאשמים שעלולים לקבל גזר דין מוות,
03:28
we found that looking more black more than doubled their chances
56
208055
4357
מצאנו שצבע עור שחור יותר מגדיל ביותר מפי 2 את הסיכויים שלהם
03:32
of receiving a death sentence --
57
212436
2057
לקבל גזר דין מוות -
03:35
at least when their victims were white.
58
215494
2427
לפחות כשקרבנותיהם היו לבנים.
03:37
This effect is significant,
59
217945
1438
התוצאה הזאת מובהקת סטטיסטית,
03:39
even though we controlled for the severity of the crime
60
219407
3301
למרות שנטרלנו את חומרת הפשע
03:42
and the defendant's attractiveness.
61
222732
2281
ואת מידת האטרקטיביות של הנאשם.
03:45
And no matter what we controlled for,
62
225037
2649
ולא משנה מה נטרלנו,
03:47
we found that black people were punished
63
227710
3345
מצאנו שאנשים שחורים נענשו
03:51
in proportion to the blackness of their physical features:
64
231079
4325
ביחס ישר לגוון השחור של מאפייניהם הפיזיים:
03:55
the more black,
65
235428
1881
יותר שחור,
03:57
the more death-worthy.
66
237333
1753
יותר ראוי למות.
03:59
Bias can also influence how teachers discipline students.
67
239110
4209
הטיה יכולה גם להשפיע על האופן שבו מורים מטילים משמעת על תלמידים.
04:03
My colleagues and I have found that teachers express a desire
68
243781
4407
עמיתיי ואני מצאנו שמורים מביעים רצון
04:08
to discipline a black middle school student more harshly
69
248212
3566
להטיל משמעת על תלמיד שחור בחטיבת הביניים בצורה קשה יותר
04:11
than a white student
70
251802
1168
מאשר על תלמיד לבן
04:12
for the same repeated infractions.
71
252994
2576
עבור אותן עבירות חוזרות ונשנות.
04:15
In a recent study,
72
255594
1294
במחקר שנערך לאחרונה,
04:16
we're finding that teachers treat black students as a group
73
256912
4358
אנו מגלים שהמורים מתייחסים אל תלמידים שחורים כאל קבוצה
04:21
but white students as individuals.
74
261294
2431
אבל אל תלמידים לבנים כאל יחידים.
04:24
If, for example, one black student misbehaves
75
264126
3599
אם, למשל, תלמיד שחור אחד אינו מתנהג כראוי
04:27
and then a different black student misbehaves a few days later,
76
267749
4785
ואז תלמיד שחור אחר אינו מתנהג כראוי כעבור כמה ימים,
04:32
the teacher responds to that second black student
77
272558
3228
המורה מגיב כלפי התלמיד השחור השני
04:35
as if he had misbehaved twice.
78
275810
2625
כאילו הוא התנהג שלא כראוי פעמיים.
04:38
It's as though the sins of one child
79
278952
2811
זה כאילו שחטאיו של ילד אחד
04:41
get piled onto the other.
80
281787
2176
נערמים על אלה של הילד האחר.
04:43
We create categories to make sense of the world,
81
283987
3294
אנו יוצרים קטגוריות במטרה להבין את העולם,
04:47
to assert some control and coherence
82
287305
4483
לקבוע מעט שליטה ולכידות
04:51
to the stimuli that we're constantly being bombarded with.
83
291812
4090
בין הגירויים שאנחנו כל הזמן מופגזים בהם.
04:55
Categorization and the bias that it seeds
84
295926
3968
פעולת הסיווג וההטיות שהיא זורעת
04:59
allow our brains to make judgments more quickly and efficiently,
85
299918
5022
מאפשרות למוחנו לגבש דעות בצורה מהירה ויעילה יותר,
05:04
and we do this by instinctively relying on patterns
86
304964
3402
ואנחנו עושים זאת על ידי הסתמכות אינסטינקטיבית על דפוסים
05:08
that seem predictable.
87
308390
1669
שנראים צפויים.
05:10
Yet, just as the categories we create allow us to make quick decisions,
88
310083
5943
אך כפי שהקטגוריות שאנו יוצרים מאפשרות לנו לקבל החלטות מהירות,
05:16
they also reinforce bias.
89
316050
2502
הן גם מגבירות את ההטיות.
05:18
So the very things that help us to see the world
90
318576
3392
אז בעצם אותם הדברים שעוזרים לנו לראות עולם
05:23
also can blind us to it.
91
323104
1980
יכולים גם לעוור אותנו.
05:25
They render our choices effortless,
92
325509
2778
הם מספקים עבורנו בחירות ללא מאמץ,
05:28
friction-free.
93
328311
1369
ללא התנגדות.
05:30
Yet they exact a heavy toll.
94
330956
2445
אך הם גובים מחיר כבד.
05:34
So what can we do?
95
334158
1411
אז מה אנו יכולים לעשות?
05:36
We are all vulnerable to bias,
96
336507
2491
כולנו חשופים להטיות,
05:39
but we don't act on bias all the time.
97
339022
2680
אבל אנו לא פועלים על פיהן כל הזמן.
05:41
There are certain conditions that can bring bias alive
98
341726
3644
ישנם תנאים מסוימים שיכולים לעורר הטיה
05:45
and other conditions that can muffle it.
99
345394
2533
ותנאים אחרים שיכולים לעמעם אותה.
05:47
Let me give you an example.
100
347951
1847
הרשו לי לתת לכם דוגמה.
05:50
Many people are familiar with the tech company Nextdoor.
101
350663
4560
אנשים רבים מכירים את חברת הטכנולוגיה Nextdoor.
05:56
So, their whole purpose is to create stronger, healthier, safer neighborhoods.
102
356073
6453
כל מטרתם היא ליצור שכונות חזקות, בריאות ובטוחות יותר.
06:03
And so they offer this online space
103
363468
2921
ולשם כך הם מציעים את המרחב המקוון הזה
06:06
where neighbors can gather and share information.
104
366413
3149
שבו שכנים יכולים להתאסף ולשתף מידע.
06:09
Yet, Nextdoor soon found that they had a problem
105
369586
4126
אך נקסטדור גילו מהר מאוד שיש להם בעיה
06:13
with racial profiling.
106
373736
1668
עם יצירת פרופיל גזעי.
06:16
In the typical case,
107
376012
1967
במקרה אופייני,
06:18
people would look outside their window
108
378003
2396
אנשים הסתכלו מחוץ לחלון שלהם
06:20
and see a black man in their otherwise white neighborhood
109
380423
4049
וראו גבר שחור בשכונה הלבנה שלהם
06:24
and make the snap judgment that he was up to no good,
110
384496
4715
ומיד החליטו שיש לו כוונות רעות,
06:29
even when there was no evidence of criminal wrongdoing.
111
389235
3351
אפילו כאשר לא היו לכך עדויות של מעשים פליליים.
06:32
In many ways, how we behave online
112
392610
2934
במובנים רבים, האופן שבו אנו מתנהגים ברשת
06:35
is a reflection of how we behave in the world.
113
395568
3114
מהווה השתקפות של האופן שבו אנחנו מתנהגים בעולם.
06:39
But what we don't want to do is create an easy-to-use system
114
399117
3945
אבל מה שאנחנו לא רוצים לעשות הוא ליצור מערכת קלה לשימוש
06:43
that can amplify bias and deepen racial disparities,
115
403086
4163
שתגביר את ההטיות ותעמיק את הפערים הגזעיים,
06:48
rather than dismantling them.
116
408129
2266
במקום לפרק אותם.
06:50
So the cofounder of Nextdoor reached out to me and to others
117
410863
3429
אז המייסד השותף של Nextdoor פנה אליי ואל אחרים
06:54
to try to figure out what to do.
118
414316
2131
כדי לנסות ולהבין מה לעשות.
06:56
And they realized that to curb racial profiling on the platform,
119
416471
3946
והם הבינו שכדי לרסן את החתך הגזעי בפלטפורמה,
07:00
they were going to have to add friction;
120
420441
1922
הם יצטרכו להוסיף נקודת חיכוך;
07:02
that is, they were going to have to slow people down.
121
422387
2658
כלומר, להאט את תגובתם של האנשים.
07:05
So Nextdoor had a choice to make,
122
425069
2195
אז ל- Nextdoor הייתה ברירה,
07:07
and against every impulse,
123
427288
2478
וכנגד כל דחף,
07:09
they decided to add friction.
124
429790
2116
הם החליטו להוסיף נקודת חיכוך.
07:12
And they did this by adding a simple checklist.
125
432397
3440
והם עשו זאת על ידי הוספת רשימה פשוטה.
07:15
There were three items on it.
126
435861
1670
היו בה שלושה פריטים.
07:18
First, they asked users to pause
127
438111
2941
ראשית, הם ביקשו מהמשתמשים להשתהות
07:21
and think, "What was this person doing that made him suspicious?"
128
441076
5117
ולחשוב, "מה האדם הזה עשה שגרם לו להיראות חשוד?"
07:26
The category "black man" is not grounds for suspicion.
129
446876
4533
הקטגוריה "איש שחור" אינה עילה לחשד.
07:31
Second, they asked users to describe the person's physical features,
130
451433
5139
שנית, הם ביקשו מהמשתמשים לתאר את התכונות הפיזיות של האדם,
07:36
not simply their race and gender.
131
456596
2435
לא רק את הגזע ואת המין שלהם.
07:39
Third, they realized that a lot of people
132
459642
3383
שלישית, הם הבינו שהרבה אנשים
07:43
didn't seem to know what racial profiling was,
133
463049
2928
כנראה אינם יודעים מהי יצירת פרופיל גזעי
07:46
nor that they were engaging in it.
134
466001
1959
או שהם לוקחים בה חלק.
07:48
So Nextdoor provided them with a definition
135
468462
3194
אז Nextdoor סיפקה להם הגדרה
07:51
and told them that it was strictly prohibited.
136
471680
2902
ואמרה להם שהדבר אסור בהחלט.
07:55
Most of you have seen those signs in airports
137
475071
2612
רובכם כבר ראיתם את השלטים האלה בשדות התעופה
07:57
and in metro stations, "If you see something, say something."
138
477707
3702
ובתחנות המטרו, "אם אתם רואים משהו, תגידו משהו".
08:01
Nextdoor tried modifying this.
139
481928
2814
Nextdoor ניסתה להתאים זאת.
08:05
"If you see something suspicious,
140
485584
2572
"אם אתם רואים משהו חשוד,
08:08
say something specific."
141
488180
2073
תגידו משהו ספציפי".
08:11
And using this strategy, by simply slowing people down,
142
491491
4446
ובאמצעות אסטרטגיה זו, פשוט על ידי השהיית אנשים,
08:15
Nextdoor was able to curb racial profiling by 75 percent.
143
495961
5691
Nextdoor הצליחה לרסן את השימוש בחתך גזעי ב 75% .
08:22
Now, people often will say to me,
144
502496
2090
עכשיו, אנשים לעתים קרובות אומרים לי,
08:24
"You can't add friction in every situation, in every context,
145
504610
4713
"את לא יכולה להוסיף נקודת חיכוך בכל סיטואציה, בכל הקשר,
08:29
and especially for people who make split-second decisions all the time."
146
509347
4646
ובעיקר עבור אנשים שמקבלים החלטות בשבריר שנייה כל הזמן".
08:34
But it turns out we can add friction
147
514730
2563
אבל מסתבר שאנו יכולים להוסיף נקודת חיכוך
08:37
to more situations than we think.
148
517317
2276
למצבים רבים יותר ממה שאנחנו חושבים.
08:40
Working with the Oakland Police Department
149
520031
2074
בעבודה עם משטרת אוקלנד
08:42
in California,
150
522129
1417
בקליפורניה,
08:43
I and a number of my colleagues were able to help the department
151
523570
3856
אני וכמה מעמיתיי הצלחנו לעזור להם
08:47
to reduce the number of stops they made
152
527450
2671
לצמצם את מספר המעצרים שביצעו
08:50
of people who were not committing any serious crimes.
153
530145
3600
של אנשים שלא ביצעו פשע חמור כלשהו.
08:53
And we did this by pushing officers
154
533769
2365
ועשינו זאת על ידי עידוד השוטרים
08:56
to ask themselves a question before each and every stop they made:
155
536158
4443
לשאול את עצמם שאלה אחת לפני כל מעצר שביצעו:
09:01
"Is this stop intelligence-led,
156
541451
3015
"האם המעצר הזה מבוסס על מודיעין,
09:04
yes or no?"
157
544490
1451
כן או לא?"
09:07
In other words,
158
547353
1396
במילים אחרות,
09:09
do I have prior information to tie this particular person
159
549621
4484
האם יש לי מידע קודם לקשור את האדם המסוים הזה
09:14
to a specific crime?
160
554129
1601
עם פשע ספציפי?
09:16
By adding that question
161
556587
1458
על ידי הוספת שאלה זו
09:18
to the form officers complete during a stop,
162
558069
3079
לטופס ששוטרים ממלאים במהלך מעצר,
09:21
they slow down, they pause,
163
561172
1809
הם האטו, הם השתהו,
09:23
they think, "Why am I considering pulling this person over?"
164
563005
4220
הם חושבים, "מדוע אני שוקל לעצור את האדם הזה?"
09:28
In 2017, before we added that intelligence-led question to the form,
165
568721
5561
בשנת 2017, לפני שהוספנו את השאלה מבוססת מודיעין לטופס,
09:35
officers made about 32,000 stops across the city.
166
575655
3946
שוטרים ביצעו כ- 32,000 מעצרים ברחבי העיר.
09:39
In that next year, with the addition of this question,
167
579625
4115
בשנה שאחריה, עם תוספת שאלה זו,
09:43
that fell to 19,000 stops.
168
583764
2444
זה ירד ל - 19,000 מעצרים.
09:46
African-American stops alone fell by 43 percent.
169
586232
4961
מעצרים של אפרו-אמריקאיים בלבד ירדו ב- 43%.
09:51
And stopping fewer black people did not make the city any more dangerous.
170
591905
4438
והירידה במעצרים של אנשים שחורים לא הפכה את העיר למסוכנת יותר.
09:56
In fact, the crime rate continued to fall,
171
596367
2734
למעשה, שיעור הפשיעה המשיך לרדת,
09:59
and the city became safer for everybody.
172
599125
3337
והעיר הפכה בטוחה יותר עבור כולם.
10:02
So one solution can come from reducing the number of unnecessary stops.
173
602486
5355
כך שפתרון אחד יכול להגיע מהפחתה במספר המעצרים המיותרים.
10:08
Another can come from improving the quality of the stops
174
608285
4270
פתרון אחר יכול להגיע משיפור איכות המעצרים
10:12
officers do make.
175
612579
1305
ששוטרים מבצעים.
10:14
And technology can help us here.
176
614512
2596
וטכנולוגיה יכולה לעזור לנו כאן.
10:17
We all know about George Floyd's death,
177
617132
2415
כולנו יודעים על מותו של ג'ורג' פלויד,
10:20
because those who tried to come to his aid held cell phone cameras
178
620499
4772
כי אלה שניסו לעזור לו החזיקו מצלמות בטלפון הסלולרי
10:25
to record that horrific, fatal encounter with the police.
179
625295
5431
לתעד את המפגש המחריד והקטלני הזה עם המשטרה.
10:30
But we have all sorts of technology that we're not putting to good use.
180
630750
5031
אבל יש לנו כל מיני טכנולוגיות שאנחנו לא מנצלים לטובה.
10:35
Police departments across the country
181
635805
2503
אנשי משטרה ברחבי הארץ
10:38
are now required to wear body-worn cameras
182
638332
3553
כעת נדרשים ללבוש מצלמות גוף
10:41
so we have recordings of not only the most extreme and horrific encounters
183
641909
5930
כך שיש לנו לא רק הקלטות של המפגשים הקיצוניים והנוראיים ביותר
10:47
but of everyday interactions.
184
647863
2754
אלא גם של אינטראקציות יומיומיות.
10:50
With an interdisciplinary team at Stanford,
185
650641
2777
עם צוות בינתחומי בסטנפורד,
10:53
we've begun to use machine learning techniques
186
653442
2687
התחלנו להשתמש בטכניקות של למידת מכונה
10:56
to analyze large numbers of encounters.
187
656153
3367
לנתח מספר גדול של מפגשים.
10:59
This is to better understand what happens in routine traffic stops.
188
659544
4611
וזאת כדי להבין טוב יותר את מה שקורה במעצרים שגרתיים.
11:04
What we found was that
189
664179
2155
מה שגילינו הוא
11:06
even when police officers are behaving professionally,
190
666358
3662
שאפילו כאשר שוטרים מתנהגים במקצועיות,
11:10
they speak to black drivers less respectfully than white drivers.
191
670860
4462
הם מדברים עם נהגים שחורים בפחות כבוד בהשוואה לנהגים לבנים.
11:16
In fact, from the words officers use alone,
192
676052
4075
למעשה, רק מהמילים שהשוטרים אמרו,
11:20
we could predict whether they were talking to a black driver or a white driver.
193
680151
5162
יכולנו לקבוע אם הם מדברים עם נהג שחור או עם נהג לבן.
11:25
The problem is that the vast majority of the footage from these cameras
194
685337
5762
הבעיה היא שהרוב המכריע של צילומי המצלמות האלה
11:31
is not used by police departments
195
691123
2087
אינו מנוצל על ידי המשטרה
11:33
to understand what's going on on the street
196
693234
2276
להבין את מה שקורה ברחוב
11:35
or to train officers.
197
695534
2243
או להכשיר שוטרים.
11:38
And that's a shame.
198
698554
1458
וחבל.
11:40
How does a routine stop turn into a deadly encounter?
199
700796
4789
איך מעצר שגרתי הופך למפגש קטלני?
11:45
How did this happen in George Floyd's case?
200
705609
2670
איך זה קרה במקרה של ג'ורג' פלויד?
11:49
How did it happen in others?
201
709588
2082
איך זה קרה אצל אחרים?
11:51
When my eldest son was 16 years old,
202
711694
3396
כשבני הבכור היה בן 16,
11:55
he discovered that when white people look at him,
203
715114
3139
הוא גילה שכאשר אנשים לבנים מביטים בו,
11:58
they feel fear.
204
718277
1561
הם חשים פחד.
12:01
Elevators are the worst, he said.
205
721123
2661
המעליות הן הגרועות ביותר, אמר.
12:04
When those doors close,
206
724313
2331
כאשר הדלתות האלה נסגרות,
12:06
people are trapped in this tiny space
207
726668
3083
אנשים לכודים בחלל הזעיר הזה
12:09
with someone they have been taught to associate with danger.
208
729775
4467
עם מישהו שלימדו אותם לקשר עם סכנה.
12:14
My son senses their discomfort,
209
734744
3220
הבן שלי מרגיש את אי הנוחות שלהם,
12:17
and he smiles to put them at ease,
210
737988
3157
והוא מחייך כדי להקל עליהם,
12:21
to calm their fears.
211
741169
1769
להרגיע את הפחדים שלהם.
12:23
When he speaks,
212
743351
1945
כשהוא מדבר,
12:25
their bodies relax.
213
745320
1683
גופם נרגע.
12:27
They breathe easier.
214
747442
1903
הם נושמים יותר בקלות.
12:29
They take pleasure in his cadence,
215
749369
2531
הם נהנים מחיתוך הדיבור שלו,
12:31
his diction, his word choice.
216
751924
2317
מהסגנון שלו, מבחירת המילים שלו.
12:34
He sounds like one of them.
217
754986
1843
הוא נשמע כמו אחד מהם.
12:36
I used to think that my son was a natural extrovert like his father.
218
756853
4730
פעם חשבתי שהבן שלי הוא מוחצן מטבעו כמו אביו.
12:41
But I realized at that moment, in that conversation,
219
761607
3550
אבל באותו רגע הבנתי, בשיחה ההיא,
12:46
that his smile was not a sign that he wanted to connect
220
766143
5078
שהחיוך שלו לא היה סימן לכך שהוא רוצה להתחבר
12:51
with would-be strangers.
221
771245
1964
עם אנשים זרים.
12:53
It was a talisman he used to protect himself,
222
773920
3652
זה היה קמע שהוא השתמש בו להגן על עצמו,
12:57
a survival skill he had honed over thousands of elevator rides.
223
777596
6219
מיומנות הישרדותית שהשחיז במהלך אלפי נסיעות במעלית.
13:04
He was learning to accommodate the tension that his skin color generated
224
784387
5171
הוא למד להכיל את המתח שצבע עורו חולל
13:11
and that put his own life at risk.
225
791026
2667
ושסיכן את חייו שלו.
13:14
We know that the brain is wired for bias,
226
794619
3783
אנו יודעים שהמוח מחווט להטיות,
13:18
and one way to interrupt that bias is to pause and to reflect
227
798426
4465
ואחת הדרכים להפסיק הטיות שכאלה היא לעצור ולהרהר
13:22
on the evidence of our assumptions.
228
802915
2305
על העדויות להנחות שלנו.
13:25
So we need to ask ourselves:
229
805244
1755
לכן עלינו לשאול את עצמנו:
13:27
What assumptions do we bring when we step onto an elevator?
230
807023
4665
אילו הנחות אנו מביאים כשאנחנו נכנסים לתוך מעלית?
13:33
Or an airplane?
231
813776
1311
או מטוס?
13:35
How do we make ourselves aware of our own unconscious bias?
232
815532
4599
כיצד נהיה מודעים להטיות הלא מודעות שלנו?
13:40
Who do those assumptions keep safe?
233
820155
2351
על מי מגנות ההנחות האלה?
13:44
Who do they put at risk?
234
824615
1932
את מי הן מסכנות?
13:47
Until we ask these questions
235
827649
2354
עד שנשאל את השאלות האלה
13:50
and insist that our schools and our courts and our police departments
236
830978
4624
ונתעקש שבתי הספר שלנו ובתי המשפט שלנו והמשטרה שלנו
13:55
and every institution do the same,
237
835626
2542
וכל מוסד יעשה את אותו הדבר,
13:59
we will continue to allow bias
238
839835
3829
אנו נמשיך לאפשר להטיות
14:03
to blind us.
239
843688
1278
לעוור אותנו.
14:05
And if we do,
240
845348
1409
ובמצב כזה,
14:08
none of us are truly safe.
241
848066
3208
אף אחד מאיתנו לא בטוח באמת.
14:14
Thank you.
242
854103
1308
תודה רבה.
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7