How racial bias works -- and how to disrupt it | Jennifer L. Eberhardt

169,201 views ・ 2020-06-22

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Stien Vanhoutte Nagekeken door: Rik Delaet
00:12
Some years ago,
0
12910
1273
Een aantal jaar geleden
00:14
I was on an airplane with my son who was just five years old at the time.
1
14207
4912
was ik op een vliegtuig met mijn zoon, die destijds vijf jaar oud was.
00:20
My son was so excited about being on this airplane with Mommy.
2
20245
5095
Mijn zoon was zo enthousiast om samen met mama op een vliegtuig te zitten.
00:25
He's looking all around and he's checking things out
3
25364
2940
Hij kijkt rond, bekijkt de dingen
00:28
and he's checking people out.
4
28328
1836
en de mensen.
00:30
And he sees this man, and he says,
5
30188
1630
Hij ziet een man en zegt:
00:31
"Hey! That guy looks like Daddy!"
6
31842
2861
"Hey! Die man lijkt op papa!"
00:35
And I look at the man,
7
35882
1920
En ik kijk naar de man,
00:37
and he didn't look anything at all like my husband,
8
37826
3730
en hij leek absoluut niet op mijn man.
00:41
nothing at all.
9
41580
1369
Helemaal niet.
00:43
And so then I start looking around on the plane,
10
43461
2336
Dus ik begon rond te kijken op het vliegtuig
00:45
and I notice this man was the only black guy on the plane.
11
45821
5885
en merk op dat deze man de enige zwarte man was op het vliegtuig.
00:52
And I thought,
12
52874
1412
En ik dacht:
00:54
"Alright.
13
54310
1194
"Oké,
00:56
I'm going to have to have a little talk with my son
14
56369
2525
ik ga een gesprek moeten voeren met mijn zoon
00:58
about how not all black people look alike."
15
58918
2929
over hoe niet alle zwarte mensen op elkaar lijken."
01:01
My son, he lifts his head up, and he says to me,
16
61871
4377
Mijn zoon tilt zijn hoofd op en zegt tegen me:
01:08
"I hope he doesn't rob the plane."
17
68246
2371
"Ik hoop dat hij het vliegtuig niet berooft."
01:11
And I said, "What? What did you say?"
18
71359
2515
En ik zei: "Wat? Wat zei je?"
01:13
And he says, "Well, I hope that man doesn't rob the plane."
19
73898
3428
En hij zegt: "Ik hoop dat die man het vliegtuig niet berooft."
01:19
And I said, "Well, why would you say that?
20
79200
2752
En ik zei: "Wel, waarom zou je dat zeggen?
01:22
You know Daddy wouldn't rob a plane."
21
82486
2663
Je weet dat papa nooit een vliegtuig zou beroven."
01:25
And he says, "Yeah, yeah, yeah, well, I know."
22
85173
2312
En hij zegt: "Ja, ja, wel, ik weet het."
01:28
And I said, "Well, why would you say that?"
23
88179
2127
En ik zei: "Waarom zou je dat zeggen?"
01:32
And he looked at me with this really sad face,
24
92346
2957
En hij kijkt naar mij met dit droevig gezicht,
01:36
and he says,
25
96168
1254
en hij zegt:
01:38
"I don't know why I said that.
26
98890
2106
"Ik weet niet waarom ik dat zei."
01:42
I don't know why I was thinking that."
27
102600
2358
"Ik weet niet waarom ik dat dacht."
01:45
We are living with such severe racial stratification
28
105724
3518
We leven met zo een ernstige raciale stratificatie
01:49
that even a five-year-old can tell us what's supposed to happen next,
29
109266
5060
dat zelfs een vijfjarige
ons kan vertellen wat er hierna moet gebeuren.
01:55
even with no evildoer,
30
115990
2107
Zelfs zonder slechte bedoeling.
01:58
even with no explicit hatred.
31
118121
2579
Zelfs zonder expliciete haat.
02:02
This association between blackness and crime
32
122184
3913
Deze associatie tussen zwartheid en misdaad
02:06
made its way into the mind of my five-year-old.
33
126121
4334
is binnengedrongen in de geest van mijn vijfjarige.
02:11
It makes its way into all of our children,
34
131787
3263
Het baant zich een weg in al onze kinderen,
02:16
into all of us.
35
136201
1391
in ons allemaal.
02:18
Our minds are shaped by the racial disparities
36
138793
3524
Onze geesten worden gevormd door raciale vooroordelen
02:22
we see out in the world
37
142341
1592
die we in de wereld zien
02:24
and the narratives that help us to make sense of the disparities we see:
38
144752
5341
en de verhalen die ons helpen betekenis te geven aan de ongelijkheden.
02:31
"Those people are criminal."
39
151637
2526
"Die mensen zijn criminelen."
02:34
"Those people are violent."
40
154187
1925
"Die mensen zijn gewelddadig."
02:36
"Those people are to be feared."
41
156136
2965
"Die mensen moeten worden gevreesd."
02:39
When my research team brought people into our lab
42
159814
3191
Toen mijn onderzoeksteam mensen in een lab bracht
02:43
and exposed them to faces,
43
163029
2283
en hen blootstelde aan gezichten,
02:45
we found that exposure to black faces led them to see blurry images of guns
44
165336
7000
vonden we dat zwarte gezichten zorgden dat vage beelden van geweren
02:52
with greater clarity and speed.
45
172360
3256
met meer zekerheid en snelheid werden herkend.
02:55
Bias cannot only control what we see,
46
175640
3354
Vooroordelen controleren niet enkel wat we zien,
02:59
but where we look.
47
179018
1648
maar ook waar we kijken.
03:00
We found that prompting people to think of violent crime
48
180690
3444
Wanneer mensen werden geprompt om aan gewelddadige misdaden te denken,
03:04
can lead them to direct their eyes onto a black face
49
184158
4296
leidde dit hun blik naar het zwarte gezicht
03:08
and away from a white face.
50
188478
2130
en weg van een wit gezicht.
03:10
Prompting police officers to think of capturing and shooting
51
190632
3842
Het prompten van politieagenten
om na te denken over oppakken, schieten en arresteren,
03:14
and arresting
52
194498
1229
03:15
leads their eyes to settle on black faces, too.
53
195751
3859
leidt ook hun blik naar zwarte gezichten.
03:19
Bias can infect every aspect of our criminal justice system.
54
199634
5066
Vooroordelen kunnen alle aspecten van ons strafrechtsysteem infecteren.
03:25
In a large data set of death-eligible defendants,
55
205100
2931
In een grote dataset van potentiële doodstrafveroordelingen
03:28
we found that looking more black more than doubled their chances
56
208055
4357
vonden we dat er zwarter uitzien hun kans meer dan verdubbelde
03:32
of receiving a death sentence --
57
212436
2057
om de doodstraf te krijgen --
03:35
at least when their victims were white.
58
215494
2427
tenminste als hun slachtoffers wit waren.
03:37
This effect is significant,
59
217945
1438
Dit effect is significant
03:39
even though we controlled for the severity of the crime
60
219407
3301
zelfs als we rekening hielden met de ernst van de misdaad
03:42
and the defendant's attractiveness.
61
222732
2281
en de aantrekkelijkheid van de beklaagde.
03:45
And no matter what we controlled for,
62
225037
2649
Ongeacht waarmee we rekening hielden,
03:47
we found that black people were punished
63
227710
3345
vonden we dat zwarte mensen werden gestraft
03:51
in proportion to the blackness of their physical features:
64
231079
4325
in proportie tot de zwartheid van hun fysieke kenmerken.
03:55
the more black,
65
235428
1881
Hoe zwarter,
03:57
the more death-worthy.
66
237333
1753
hoe meer doodwaardig.
03:59
Bias can also influence how teachers discipline students.
67
239110
4209
Vooroordelen beïnvloeden ook hoe leerkrachten studenten straffen.
04:03
My colleagues and I have found that teachers express a desire
68
243781
4407
Mijn collega's en ik vonden dat leerkrachten de neiging hadden
om een zwarte student op de middelbare school
04:08
to discipline a black middle school student more harshly
69
248212
3566
harder te straffen dan een witte student
04:11
than a white student
70
251802
1168
04:12
for the same repeated infractions.
71
252994
2576
voor dezelfde herhaalde overtredingen.
04:15
In a recent study,
72
255594
1294
In een recente studie
04:16
we're finding that teachers treat black students as a group
73
256912
4358
vonden we dat leerkrachten zwarte studenten als groep behandelen,
04:21
but white students as individuals.
74
261294
2431
maar witte studenten als individuen.
04:24
If, for example, one black student misbehaves
75
264126
3599
Bijvoorbeeld,
als een zwarte student zich misdraagt
04:27
and then a different black student misbehaves a few days later,
76
267749
4785
en dan een andere zwarte student zich een paar dagen later misdraagt,
04:32
the teacher responds to that second black student
77
272558
3228
reageert de leerkracht op de tweede zwarte student
04:35
as if he had misbehaved twice.
78
275810
2625
alsof die zich twee keer heeft misdragen.
04:38
It's as though the sins of one child
79
278952
2811
Het is alsof de zonden van één kind
04:41
get piled onto the other.
80
281787
2176
op de ander worden overgedragen.
04:43
We create categories to make sense of the world,
81
283987
3294
We creëren categorieën om betekenis te geven aan de wereld,
04:47
to assert some control and coherence
82
287305
4483
om er controle over uit te oefenen en een coherent beeld te scheppen
04:51
to the stimuli that we're constantly being bombarded with.
83
291812
4090
van de stimuli die ons constant bombarderen.
04:55
Categorization and the bias that it seeds
84
295926
3968
Categorisatie
en de vooroordelen die dat veroorzaakt,
04:59
allow our brains to make judgments more quickly and efficiently,
85
299918
5022
laten onze hersenen sneller en meer efficiënt oordelen vellen.
05:04
and we do this by instinctively relying on patterns
86
304964
3402
En we doen dit door instinctief te steunen
op patronen die voorspelbaar lijken.
05:08
that seem predictable.
87
308390
1669
05:10
Yet, just as the categories we create allow us to make quick decisions,
88
310083
5943
Maar net zoals de categorieën helpen bij het maken van snelle beslissingen,
05:16
they also reinforce bias.
89
316050
2502
gaan deze ook vooroordelen versterken.
05:18
So the very things that help us to see the world
90
318576
3392
Dus datgene wat ons helpt om de wereld te zien,
05:23
also can blind us to it.
91
323104
1980
kan ons ook ervoor blind maken.
05:25
They render our choices effortless,
92
325509
2778
Ze maken onze keuzes moeiteloos,
05:28
friction-free.
93
328311
1369
vrij van frictie.
05:30
Yet they exact a heavy toll.
94
330956
2445
Maar ze eisen een hoge tol.
05:34
So what can we do?
95
334158
1411
Maar wat kunnen wij doen?
05:36
We are all vulnerable to bias,
96
336507
2491
We zijn allemaal kwetsbaar voor vooroordelen,
05:39
but we don't act on bias all the time.
97
339022
2680
maar we handelen niet steeds naar deze vooroordelen.
05:41
There are certain conditions that can bring bias alive
98
341726
3644
Er zijn bepaalde condities die vooroordelen aanwakkeren
05:45
and other conditions that can muffle it.
99
345394
2533
en andere condities die deze kunnen dempen.
05:47
Let me give you an example.
100
347951
1847
Laat me een voorbeeld geven.
05:50
Many people are familiar with the tech company Nextdoor.
101
350663
4560
Veel mensen kennen het techbedrijf Nextdoor.
05:56
So, their whole purpose is to create stronger, healthier, safer neighborhoods.
102
356073
6453
Hun doel is het creëren
van sterkere, gezondere, veiligere buurten.
06:03
And so they offer this online space
103
363468
2921
En dus bieden zij deze online ruimte aan
06:06
where neighbors can gather and share information.
104
366413
3149
waar buren bijeen kunnen komen en informatie delen.
06:09
Yet, Nextdoor soon found that they had a problem
105
369586
4126
Echter, Nextdoor kwam er snel achter dat ze een probleem hadden
06:13
with racial profiling.
106
373736
1668
met raciale profilering.
06:16
In the typical case,
107
376012
1967
In een typisch geval
06:18
people would look outside their window
108
378003
2396
zouden mensen uit hun raam kijken
06:20
and see a black man in their otherwise white neighborhood
109
380423
4049
en een zwarte man zien in een witte buurt.
06:24
and make the snap judgment that he was up to no good,
110
384496
4715
Ze zouden snel oordelen dat deze niks goeds van plan was,
06:29
even when there was no evidence of criminal wrongdoing.
111
389235
3351
zelfs als hier geen enkel bewijs was van crimineel gedrag.
06:32
In many ways, how we behave online
112
392610
2934
Op vele vlakken is hoe we ons online gedragen
06:35
is a reflection of how we behave in the world.
113
395568
3114
een reflectie van hoe we ons in de wereld gedragen.
06:39
But what we don't want to do is create an easy-to-use system
114
399117
3945
Maar wat we niet willen is een makkelijk te gebruiken systeem creëren
06:43
that can amplify bias and deepen racial disparities,
115
403086
4163
dat vooroordelen versterkt en raciale ongelijkheden uitdiept,
06:48
rather than dismantling them.
116
408129
2266
in plaats van deze te ontmantelen.
06:50
So the cofounder of Nextdoor reached out to me and to others
117
410863
3429
Dus de oprichters van Nextdoor namen contact op met mij en ook anderen
06:54
to try to figure out what to do.
118
414316
2131
om na te gaan wat er aan gedaan kon worden.
06:56
And they realized that to curb racial profiling on the platform,
119
416471
3946
En ze realiseerden zich dat om etnische profilering aan te pakken,
07:00
they were going to have to add friction;
120
420441
1922
ze frictie moeten toevoegen,
07:02
that is, they were going to have to slow people down.
121
422387
2658
wat wil zeggen dat ze mensen moesten gaan afremmen.
07:05
So Nextdoor had a choice to make,
122
425069
2195
Nextdoor moest een keuze maken
07:07
and against every impulse,
123
427288
2478
en tegen elke impuls in
07:09
they decided to add friction.
124
429790
2116
beslisten ze om frictie toe te voegen.
07:12
And they did this by adding a simple checklist.
125
432397
3440
Dit deden ze door het toevoegen van een simpele checklist.
07:15
There were three items on it.
126
435861
1670
Die behelsde drie items.
07:18
First, they asked users to pause
127
438111
2941
Eerst werd er de gebruiker gevraagd om te pauzeren
07:21
and think, "What was this person doing that made him suspicious?"
128
441076
5117
en te denken: wat was deze persoon aan het doen dat hem verdacht maakte?
07:26
The category "black man" is not grounds for suspicion.
129
446876
4533
De categorie 'zwarte man' was geen grond voor verdenking.
07:31
Second, they asked users to describe the person's physical features,
130
451433
5139
Ten tweede werd aan de gebruiker gevraagd
om de fysieke eigenschappen te beschrijven,
07:36
not simply their race and gender.
131
456596
2435
niet enkel hun ras en gender.
07:39
Third, they realized that a lot of people
132
459642
3383
Ten derde realiseerden ze zich
dat veel mensen niet leken te weten wat etnische profilering was,
07:43
didn't seem to know what racial profiling was,
133
463049
2928
07:46
nor that they were engaging in it.
134
466001
1959
noch dat ze dit zelf deden.
07:48
So Nextdoor provided them with a definition
135
468462
3194
Dus voorzag Nextdoor een definitie
07:51
and told them that it was strictly prohibited.
136
471680
2902
en vertelde hen dat het strikt verboden was.
07:55
Most of you have seen those signs in airports
137
475071
2612
De meesten hebben deze tekens gezien
op de luchthaven en in metro stations:
07:57
and in metro stations, "If you see something, say something."
138
477707
3702
"Als je iets ziet, zeg iets."
08:01
Nextdoor tried modifying this.
139
481928
2814
Nextdoor heeft dit proberen aanpassen.
08:05
"If you see something suspicious,
140
485584
2572
"Als je iets verdacht ziet,
08:08
say something specific."
141
488180
2073
zeg dan iets specifiek."
08:11
And using this strategy, by simply slowing people down,
142
491491
4446
En door deze strategie te gebruiken, door het afremmen van mensen,
08:15
Nextdoor was able to curb racial profiling by 75 percent.
143
495961
5691
slaagde Nextdoor er in raciale profilering te verminderen met 75 procent.
08:22
Now, people often will say to me,
144
502496
2090
Mensen zeggen vaak tegen mij:
08:24
"You can't add friction in every situation, in every context,
145
504610
4713
"Je kan geen frictie toevoegen in elke situatie, in elke context,
08:29
and especially for people who make split-second decisions all the time."
146
509347
4646
en vooral voor mensen die altijd razendsnel beslissingen nemen."
08:34
But it turns out we can add friction
147
514730
2563
Maar het blijkt dat we frictie kunnen toevoegen
08:37
to more situations than we think.
148
517317
2276
in meer situaties dan we denken.
08:40
Working with the Oakland Police Department
149
520031
2074
Werkend bij de politie in Oakland
08:42
in California,
150
522129
1417
in Californië,
08:43
I and a number of my colleagues were able to help the department
151
523570
3856
konden ik en een aantal van mijn collega's hen helpen
08:47
to reduce the number of stops they made
152
527450
2671
bij het verminderen van het aantal stops dat ze maakten
08:50
of people who were not committing any serious crimes.
153
530145
3600
van mensen die geen ernstige misdrijven aan het plegen waren.
08:53
And we did this by pushing officers
154
533769
2365
En we deden dit door agenten aan te zetten
08:56
to ask themselves a question before each and every stop they made:
155
536158
4443
om zichzelf een vraag te stellen bij elke aanhouding die ze maakten:
09:01
"Is this stop intelligence-led,
156
541451
3015
is deze aanhouding informatiegestuurd,
09:04
yes or no?"
157
544490
1451
ja of nee?
09:07
In other words,
158
547353
1396
Met andere woorden:
09:09
do I have prior information to tie this particular person
159
549621
4484
heb ik voorafgaande informatie om deze specifieke persoon te linken
09:14
to a specific crime?
160
554129
1601
aan een specifiek misdrijf?
09:16
By adding that question
161
556587
1458
Door deze vraag toe te voegen
09:18
to the form officers complete during a stop,
162
558069
3079
aan het formulier dat agenten invulden bij een aanhouding,
09:21
they slow down, they pause,
163
561172
1809
vertraagden zij, pauzeerden zij,
09:23
they think, "Why am I considering pulling this person over?"
164
563005
4220
dachten ze: waarom overweeg ik om deze persoon te stoppen?
09:28
In 2017, before we added that intelligence-led question to the form,
165
568721
5561
In 2017,
voor we de informatiegestuurde vraag hadden toegevoegd aan het formulier,
09:35
officers made about 32,000 stops across the city.
166
575655
3946
maakten agenten rond de 32.000 stops over de hele stad.
09:39
In that next year, with the addition of this question,
167
579625
4115
In het volgende jaar, na het toevoegen van de vraag,
09:43
that fell to 19,000 stops.
168
583764
2444
daalde dit naar 19.000 stops.
09:46
African-American stops alone fell by 43 percent.
169
586232
4961
De stops van Afro-Amerikanen daalde met 43 procent.
09:51
And stopping fewer black people did not make the city any more dangerous.
170
591905
4438
Het minder stoppen van zwarte mensen maakte de stad niet gevaarlijker.
09:56
In fact, the crime rate continued to fall,
171
596367
2734
De criminaliteitscijfers bleven verder dalen
09:59
and the city became safer for everybody.
172
599125
3337
en de stad werd veiliger voor iedereen.
10:02
So one solution can come from reducing the number of unnecessary stops.
173
602486
5355
Een oplossing kan zijn
om het aantal onnodige stops te verminderen.
10:08
Another can come from improving the quality of the stops
174
608285
4270
Een andere is het verbeteren van de kwaliteit van de stops
10:12
officers do make.
175
612579
1305
die agenten maken.
10:14
And technology can help us here.
176
614512
2596
En technologie kan ons hierbij helpen.
10:17
We all know about George Floyd's death,
177
617132
2415
We kennen allemaal George Floyd's dood,
10:20
because those who tried to come to his aid held cell phone cameras
178
620499
4772
omdat mensen die hem probeerden te helpen gsm-camera's bijhadden
10:25
to record that horrific, fatal encounter with the police.
179
625295
5431
en de afschuwelijke confrontatie met de politie vastlegden.
10:30
But we have all sorts of technology that we're not putting to good use.
180
630750
5031
Maar we hebben allerlei technologie waar we geen gebruik van maken.
10:35
Police departments across the country
181
635805
2503
Politiekorpsen doorheen het land
10:38
are now required to wear body-worn cameras
182
638332
3553
dragen nu verplicht bodycams.
10:41
so we have recordings of not only the most extreme and horrific encounters
183
641909
5930
Bijgevolg hebben we niet enkel beelden van gruwelijke confrontaties,
10:47
but of everyday interactions.
184
647863
2754
maar ook van alledaagse interacties.
10:50
With an interdisciplinary team at Stanford,
185
650641
2777
Samen met een interdisciplinair team aan Stanford
10:53
we've begun to use machine learning techniques
186
653442
2687
begonnen we gebruik te maken van machinaal-lerentechnieken
10:56
to analyze large numbers of encounters.
187
656153
3367
voor het analyseren van een groot aantal van deze confrontaties.
10:59
This is to better understand what happens in routine traffic stops.
188
659544
4611
Dit om beter te begrijpen wat er gebeurt bij routinematige verkeersstops.
11:04
What we found was that
189
664179
2155
We vonden dat zelfs wanneer de agenten zich professioneel gedroegen,
11:06
even when police officers are behaving professionally,
190
666358
3662
11:10
they speak to black drivers less respectfully than white drivers.
191
670860
4462
ze minder respectvol spraken tegen zwarte dan tegen witte bestuurders.
11:16
In fact, from the words officers use alone,
192
676052
4075
We konden zelf op basis van het woordgebruik van de agenten alleen
11:20
we could predict whether they were talking to a black driver or a white driver.
193
680151
5162
voorspellen of ze tegen een zwarte of witte bestuurder aan het praten waren.
11:25
The problem is that the vast majority of the footage from these cameras
194
685337
5762
Het probleem is hier dat de meerderheid van de beelden van deze camera's
11:31
is not used by police departments
195
691123
2087
niet wordt benut in politiekorpsen
11:33
to understand what's going on on the street
196
693234
2276
om beter te begrijpen wat op straat gebeurt
11:35
or to train officers.
197
695534
2243
of om agenten te trainen.
11:38
And that's a shame.
198
698554
1458
En dat is spijtig.
11:40
How does a routine stop turn into a deadly encounter?
199
700796
4789
Hoe draait een routineaanhouding uit op een dodelijke situatie?
11:45
How did this happen in George Floyd's case?
200
705609
2670
Hoe gebeurde dit in het geval van George Floyd?
11:49
How did it happen in others?
201
709588
2082
Hoe gebeurde dit in andere gevallen?
11:51
When my eldest son was 16 years old,
202
711694
3396
Toen mijn oudste zoon 16 jaar was,
11:55
he discovered that when white people look at him,
203
715114
3139
ontdekte hij dat wanneer witte mensen naar hem kijken,
11:58
they feel fear.
204
718277
1561
ze angst ervaren.
12:01
Elevators are the worst, he said.
205
721123
2661
"Liften zijn het ergste", zei hij.
12:04
When those doors close,
206
724313
2331
Als de deuren sluiten,
12:06
people are trapped in this tiny space
207
726668
3083
zitten mensen vast in deze kleine ruimte
12:09
with someone they have been taught to associate with danger.
208
729775
4467
met iemand die ze hebben leren associëren met gevaar.
12:14
My son senses their discomfort,
209
734744
3220
Mijn zoon voelt dat ze zich oncomfortabel voelen
12:17
and he smiles to put them at ease,
210
737988
3157
en hij lacht om hen op hun gemak te stellen,
12:21
to calm their fears.
211
741169
1769
om hun angsten te verminderen.
12:23
When he speaks,
212
743351
1945
Wanneer hij spreekt,
12:25
their bodies relax.
213
745320
1683
ontspannen hun lichamen.
12:27
They breathe easier.
214
747442
1903
Ze ademen rustiger.
12:29
They take pleasure in his cadence,
215
749369
2531
Ze nemen plezier in zijn ritme,
12:31
his diction, his word choice.
216
751924
2317
zijn uitspraak, zijn woordkeuze.
12:34
He sounds like one of them.
217
754986
1843
Hij klinkt als een van hen.
12:36
I used to think that my son was a natural extrovert like his father.
218
756853
4730
Vroeger dacht ik dat mijn zoon zoals zijn vader een extravert was.
12:41
But I realized at that moment, in that conversation,
219
761607
3550
Maar ik realiseerde mij dat op dat moment in die conversatie
12:46
that his smile was not a sign that he wanted to connect
220
766143
5078
zijn glimlach geen teken was dat hij contact wou maken
12:51
with would-be strangers.
221
771245
1964
met zogenaamde vreemden,
12:53
It was a talisman he used to protect himself,
222
773920
3652
maar een talisman die hij gebruikte om zichzelf te beschermen,
12:57
a survival skill he had honed over thousands of elevator rides.
223
777596
6219
een overlevingsvaardigheid die hij met duizenden liftritten had aangescherpt.
13:04
He was learning to accommodate the tension that his skin color generated
224
784387
5171
Hij leerde zich aan te passen aan de spanning die zijn kleur genereerde
13:11
and that put his own life at risk.
225
791026
2667
en die zijn leven in gevaar bracht.
13:14
We know that the brain is wired for bias,
226
794619
3783
We weten dat onze hersenen bedraad zijn voor vooroordelen,
13:18
and one way to interrupt that bias is to pause and to reflect
227
798426
4465
en een manier om deze vooroordelen te verstoren
is pauzeren en reflecteren over het bewijs van onze aanname.
13:22
on the evidence of our assumptions.
228
802915
2305
13:25
So we need to ask ourselves:
229
805244
1755
Dus we moeten ons zelf vragen:
13:27
What assumptions do we bring when we step onto an elevator?
230
807023
4665
welke aannames nemen we mee wanneer we in een lift stappen?
13:33
Or an airplane?
231
813776
1311
Of op een vliegtuig?
13:35
How do we make ourselves aware of our own unconscious bias?
232
815532
4599
Hoe maken we onszelf bewust van onze onbewuste vooroordelen?
13:40
Who do those assumptions keep safe?
233
820155
2351
Wie houden deze aannames veilig?
13:44
Who do they put at risk?
234
824615
1932
Wie brengen ze in gevaar?
13:47
Until we ask these questions
235
827649
2354
Totdat we onszelf deze vragen stellen
13:50
and insist that our schools and our courts and our police departments
236
830978
4624
en erop staan dat onze scholen, gerechten en politiekorpsen
13:55
and every institution do the same,
237
835626
2542
en ieder instituut hetzelfde doen,
13:59
we will continue to allow bias
238
839835
3829
blijven we vooroordelen toelaten
14:03
to blind us.
239
843688
1278
om ons te verblinden.
14:05
And if we do,
240
845348
1409
En wanneer we dat doen,
14:08
none of us are truly safe.
241
848066
3208
is niemand echt veilig.
14:14
Thank you.
242
854103
1308
Bedankt.
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7