How racial bias works -- and how to disrupt it | Jennifer L. Eberhardt

167,361 views ・ 2020-06-22

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Reka Czeiner Lektor: Peter Pallós
00:12
Some years ago,
0
12910
1273
Pár ével ezelőtt
00:14
I was on an airplane with my son who was just five years old at the time.
1
14207
4912
repülőgépen ültem ötéves fiammal.
00:20
My son was so excited about being on this airplane with Mommy.
2
20245
5095
A fiam nagyon izgatott volt, hogy repülőn ülhet Anyával.
00:25
He's looking all around and he's checking things out
3
25364
2940
Nézegetett jobbra-balra, mindent alaposan szemügyre vett,
00:28
and he's checking people out.
4
28328
1836
és mindenkit megnézett.
00:30
And he sees this man, and he says,
5
30188
1630
Aztán meglátott egy embert, és így szólt:
00:31
"Hey! That guy looks like Daddy!"
6
31842
2861
"Nini, az a bácsi úgy néz ki, mint Apa!"
00:35
And I look at the man,
7
35882
1920
Ránéztem a férfira,
00:37
and he didn't look anything at all like my husband,
8
37826
3730
és egy kicsit sem hasonlított a férjemre,
00:41
nothing at all.
9
41580
1369
a legkevésbé sem.
00:43
And so then I start looking around on the plane,
10
43461
2336
Aztán körbenéztem a gépen,
00:45
and I notice this man was the only black guy on the plane.
11
45821
5885
és rájöttem, hogy ő volt az egyetlen fekete férfi a fedélzeten.
00:52
And I thought,
12
52874
1412
Ekkor arra gondoltam:
00:54
"Alright.
13
54310
1194
"Na, jó.
00:56
I'm going to have to have a little talk with my son
14
56369
2525
Egy kicsit el kell beszélgetnem a fiammal arról,
00:58
about how not all black people look alike."
15
58918
2929
hogy nem minden fekete hasonlít egymásra."
01:01
My son, he lifts his head up, and he says to me,
16
61871
4377
A fiam rám nézett, és így szólt hozzám:
01:08
"I hope he doesn't rob the plane."
17
68246
2371
"Remélem, nem téríti el a repülőt."
01:11
And I said, "What? What did you say?"
18
71359
2515
Erre én: "Micsoda? Mit mondtál?"
01:13
And he says, "Well, I hope that man doesn't rob the plane."
19
73898
3428
Mire ő: "Hát, remélem, hogy a bácsi nem téríti el a repülőt."
01:19
And I said, "Well, why would you say that?
20
79200
2752
Erre én: "De hát miért mondod ezt?
01:22
You know Daddy wouldn't rob a plane."
21
82486
2663
Tudod jól, hogy Apa sem szokott repülőt eltéríteni."
01:25
And he says, "Yeah, yeah, yeah, well, I know."
22
85173
2312
Erre ő: "Hát igen, igen, igen, tudom."
01:28
And I said, "Well, why would you say that?"
23
88179
2127
Mire én: "Mégis, miért mondtad ezt?"
01:32
And he looked at me with this really sad face,
24
92346
2957
Rám nézett egészen szomorú arccal,
01:36
and he says,
25
96168
1254
és így szólt:
01:38
"I don't know why I said that.
26
98890
2106
"Nem tudom, miért mondtam.
01:42
I don't know why I was thinking that."
27
102600
2358
Nem tudom, miért gondoltam."
01:45
We are living with such severe racial stratification
28
105724
3518
Ilyen súlyos faji rétegződésben élünk,
01:49
that even a five-year-old can tell us what's supposed to happen next,
29
109266
5060
hogy még egy ötéves is megmondja, milyen történéseket tételezzünk fel,
01:55
even with no evildoer,
30
115990
2107
még akkor is, ha nincs is gonosztevő,
01:58
even with no explicit hatred.
31
118121
2579
és nincs látható gyűlölet sem.
02:02
This association between blackness and crime
32
122184
3913
A feketék és a bűnözés összekapcsolása
02:06
made its way into the mind of my five-year-old.
33
126121
4334
befurakodott az ötéves fiam fejébe.
02:11
It makes its way into all of our children,
34
131787
3263
Befurakodik minden gyerek fejébe,
02:16
into all of us.
35
136201
1391
és mindannyiunk fejébe.
02:18
Our minds are shaped by the racial disparities
36
138793
3524
A gondolkodásunkat befolyásolják
02:22
we see out in the world
37
142341
1592
a világban látható a faji különbségek,
02:24
and the narratives that help us to make sense of the disparities we see:
38
144752
5341
és azok a narratívák, amelyekből értelmezzük a látható különbségeket:
02:31
"Those people are criminal."
39
151637
2526
"Azok az emberek bűnözők."
02:34
"Those people are violent."
40
154187
1925
"Azok az emberek erőszakosak."
02:36
"Those people are to be feared."
41
156136
2965
"Azoktól az emberektől félni kell."
02:39
When my research team brought people into our lab
42
159814
3191
A kutatócsoportunk a laborban különböző embereknek arcokat mutatott,
02:43
and exposed them to faces,
43
163029
2283
02:45
we found that exposure to black faces led them to see blurry images of guns
44
165336
7000
és azt állapítottuk meg,
hogy a fekete arcok felmutatása után a fegyverekről készült homályos képeket
02:52
with greater clarity and speed.
45
172360
3256
tisztábban és gyorsabban észlelték az alanyok.
02:55
Bias cannot only control what we see,
46
175640
3354
Az előítéletek nemcsak azt befolyásolhatják, amit látunk,
02:59
but where we look.
47
179018
1648
hanem azt is, hogy hova nézünk.
03:00
We found that prompting people to think of violent crime
48
180690
3444
Kiderült, hogy ha az embereket arra buzdítjuk,
hogy gondoljanak erőszakos bűntettre, akkor egy fekete arcra néznek,
03:04
can lead them to direct their eyes onto a black face
49
184158
4296
03:08
and away from a white face.
50
188478
2130
és elfordulnak a fehér arcoktól.
03:10
Prompting police officers to think of capturing and shooting
51
190632
3842
Ha rendőröket arra kérünk, hogy elfogásra, lövöldözésre
03:14
and arresting
52
194498
1229
és letartóztatásra gondoljanak,
03:15
leads their eyes to settle on black faces, too.
53
195751
3859
az is azt eredményezi, hogy tekintetüket fekete arcokra irányítják.
03:19
Bias can infect every aspect of our criminal justice system.
54
199634
5066
Az előítéletek minden szempontból mérgezik az igazságszolgáltatási rendszerünket.
03:25
In a large data set of death-eligible defendants,
55
205100
2931
A halálra ítélhető vádlottak adatállományát vizsgálva arra jutottunk,
03:28
we found that looking more black more than doubled their chances
56
208055
4357
hogy ha valaki feketébb bőrű,
akkor kétszeres esélye van a halálbüntetésre,
03:32
of receiving a death sentence --
57
212436
2057
03:35
at least when their victims were white.
58
215494
2427
legalábbis ha az áldozata fehér volt.
03:37
This effect is significant,
59
217945
1438
Ez jelentőségteljes eredmény,
03:39
even though we controlled for the severity of the crime
60
219407
3301
habár a változók között szerepelt a bűntett súlyossága,
03:42
and the defendant's attractiveness.
61
222732
2281
és a vádlott esetleges vonzó megjelenése.
03:45
And no matter what we controlled for,
62
225037
2649
De bármilyen szemponttal bővítettük a vizsgálatot,
03:47
we found that black people were punished
63
227710
3345
azt találtuk,
03:51
in proportion to the blackness of their physical features:
64
231079
4325
hogy a feketéket feketeségükkel arányosan büntették:
03:55
the more black,
65
235428
1881
minél feketébbek,
03:57
the more death-worthy.
66
237333
1753
annál inkább halált érdemelnek.
03:59
Bias can also influence how teachers discipline students.
67
239110
4209
Az előítéletek azt is befolyásolják, hogyan fegyelmezik a tanárok a tanulókat.
04:03
My colleagues and I have found that teachers express a desire
68
243781
4407
A kollégáimmal azt állapítottuk meg, hogy a tanárokban megvan az igény arra,
hogy egy fekete felső tagozatos diákot keményebben fegyelmezzenek,
04:08
to discipline a black middle school student more harshly
69
248212
3566
04:11
than a white student
70
251802
1168
mint egy fehér diákot
04:12
for the same repeated infractions.
71
252994
2576
ugyanazért az ismételt szabályszegésért.
04:15
In a recent study,
72
255594
1294
Egy közelmúltbeli tanulmányban azt állapítottuk meg,
04:16
we're finding that teachers treat black students as a group
73
256912
4358
hogy a fekete diákokat csoportként kezelik a tanárok,
04:21
but white students as individuals.
74
261294
2431
a fehéreket viszont egyénként.
04:24
If, for example, one black student misbehaves
75
264126
3599
Ha pl. egy fekete diák rosszul viselkedik,
04:27
and then a different black student misbehaves a few days later,
76
267749
4785
majd pár nap múlva egy másik fekete tanuló is rosszul viselkedik,
04:32
the teacher responds to that second black student
77
272558
3228
a tanár a második fekete tanulóra már úgy reagál,
04:35
as if he had misbehaved twice.
78
275810
2625
mintha kétszer viselkedett volna rosszul.
04:38
It's as though the sins of one child
79
278952
2811
Olyan ez, mintha az egyik gyerek vétkei
04:41
get piled onto the other.
80
281787
2176
rárakódnának a másikéra.
04:43
We create categories to make sense of the world,
81
283987
3294
Kategóriákat hozunk létre, hogy értelmezzük a világot,
04:47
to assert some control and coherence
82
287305
4483
hogy valamiféle rendszert és következetességet teremtsünk
04:51
to the stimuli that we're constantly being bombarded with.
83
291812
4090
a minket folyton bombázó ingerekben.
04:55
Categorization and the bias that it seeds
84
295926
3968
A kategorizálás és az általa elültetett előítéletek segítségével
04:59
allow our brains to make judgments more quickly and efficiently,
85
299918
5022
az agyunk gyorsabban és hatékonyabban alkothat ítéletet,
05:04
and we do this by instinctively relying on patterns
86
304964
3402
amit már ösztönösen teszünk, a mintáinkra alapozva,
05:08
that seem predictable.
87
308390
1669
és úgy tűnik, hogy ezek kiszámíthatók.
05:10
Yet, just as the categories we create allow us to make quick decisions,
88
310083
5943
Az általunk teremtett kategóriák lehetővé teszik, hogy gyors döntéseket hozzunk,
05:16
they also reinforce bias.
89
316050
2502
ugyanakkor megerősítik előítéleteinket is.
05:18
So the very things that help us to see the world
90
318576
3392
Tehát pont azok a dolgok, amelyek segítenek megérteni a világot,
05:23
also can blind us to it.
91
323104
1980
elvakulttá is tehetnek minket.
05:25
They render our choices effortless,
92
325509
2778
Erőfeszítés nélkül hozhatunk döntéseket,
05:28
friction-free.
93
328311
1369
súrlódásmentesen.
05:30
Yet they exact a heavy toll.
94
330956
2445
Mégis súlyos áldozatot követelnek.
05:34
So what can we do?
95
334158
1411
Akkor hát mit tehetünk?
05:36
We are all vulnerable to bias,
96
336507
2491
Mindannyian ki vagyunk szolgáltatva az előítéleteknek,
05:39
but we don't act on bias all the time.
97
339022
2680
de nem mindig cselekszünk előítéletesen.
05:41
There are certain conditions that can bring bias alive
98
341726
3644
Vannak bizonyos körülmények, amelyek felkeltik az előítéleteket,
05:45
and other conditions that can muffle it.
99
345394
2533
más körülmények pedig tompítják őket.
05:47
Let me give you an example.
100
347951
1847
Hadd mondjak egy példát!
05:50
Many people are familiar with the tech company Nextdoor.
101
350663
4560
Sokan ismerik a Nextdoor nevű technológiai vállalatot.
05:56
So, their whole purpose is to create stronger, healthier, safer neighborhoods.
102
356073
6453
Az a célja, hogy erősebb, egészségesebb, biztonságosabb lakókörnyezetet teremtsen.
06:03
And so they offer this online space
103
363468
2921
Ennek érdekében online teret hoztak létre,
06:06
where neighbors can gather and share information.
104
366413
3149
ahova csatlakozhatnak egy környék lakói, és tájékoztathatják egymást.
06:09
Yet, Nextdoor soon found that they had a problem
105
369586
4126
A Nextdoor azonban idővel rájött,
hogy a faji profilalkotással van egy kis gond.
06:13
with racial profiling.
106
373736
1668
06:16
In the typical case,
107
376012
1967
Egy tipikus eset,
06:18
people would look outside their window
108
378003
2396
amikor az emberek kinéznek az ablakon,
06:20
and see a black man in their otherwise white neighborhood
109
380423
4049
és meglátnak egy feketét az amúgy fehérek lakta környéken,
06:24
and make the snap judgment that he was up to no good,
110
384496
4715
és egyből azt az ítéletet alkotják, hogy az illető rosszban sántikál,
06:29
even when there was no evidence of criminal wrongdoing.
111
389235
3351
még akkor is, ha semmi nem utal bűncselekményre.
06:32
In many ways, how we behave online
112
392610
2934
Az online térben tanúsított viselkedésünk számos jellemzője
06:35
is a reflection of how we behave in the world.
113
395568
3114
annak a leképeződése, ahogy a való világban viselkedünk.
06:39
But what we don't want to do is create an easy-to-use system
114
399117
3945
De semmiképpen sem akarunk olyan könnyen használható rendszert létrehozni,
06:43
that can amplify bias and deepen racial disparities,
115
403086
4163
amely felerősítheti az előítéleteket, és elmélyítheti a faji különbségeket,
06:48
rather than dismantling them.
116
408129
2266
ahelyett hogy lebontaná őket.
06:50
So the cofounder of Nextdoor reached out to me and to others
117
410863
3429
Ezért a Nextdoor társalapítója felkeresett többek között engem,
06:54
to try to figure out what to do.
118
414316
2131
hogy találjuk ki, mit tehetnének.
06:56
And they realized that to curb racial profiling on the platform,
119
416471
3946
Rájöttek, hogy a faji profilalkotás mérséklése érdekében a platformon
07:00
they were going to have to add friction;
120
420441
1922
nagyobb "tapadási felületet" kell kialakítaniuk,
07:02
that is, they were going to have to slow people down.
121
422387
2658
vagyis le kell lassítaniuk az embereket.
07:05
So Nextdoor had a choice to make,
122
425069
2195
Ezért a Nextdoornak döntenie kellett,
07:07
and against every impulse,
123
427288
2478
és minden nyomás ellenére úgy döntöttek,
07:09
they decided to add friction.
124
429790
2116
hogy növelik a "tapadási felületet".
07:12
And they did this by adding a simple checklist.
125
432397
3440
Ehhez egyszerű ellenőrzőlistát helyeztek el az oldalon.
07:15
There were three items on it.
126
435861
1670
Három tétel szerepelt rajta.
Először azt kérték a felhasználóktól, hogy egy pillanatra álljanak meg,
07:18
First, they asked users to pause
127
438111
2941
07:21
and think, "What was this person doing that made him suspicious?"
128
441076
5117
és tegyék fel a kérdést: "Mit csinált ez az ember, amitől gyanússá vált?"
07:26
The category "black man" is not grounds for suspicion.
129
446876
4533
A "fekete ember" kategória nem indok a gyanúra.
07:31
Second, they asked users to describe the person's physical features,
130
451433
5139
Másodszor, megkérték a felhasználókat, hogy írják le az illető külső vonásait,
07:36
not simply their race and gender.
131
456596
2435
de nem egyszerűen csak a fajukat és a nemüket.
07:39
Third, they realized that a lot of people
132
459642
3383
Végül pedig, észrevették,
hogy sokan nyilván nem tudják, hogy mit jelent a faji profilalkotás,
07:43
didn't seem to know what racial profiling was,
133
463049
2928
és azt sem, hogy ebben ők is érintettek.
07:46
nor that they were engaging in it.
134
466001
1959
07:48
So Nextdoor provided them with a definition
135
468462
3194
Ezért a Nextdoor definíciót állított össze számukra,
07:51
and told them that it was strictly prohibited.
136
471680
2902
és közölte velük, hogy mi szigorúan tilos.
07:55
Most of you have seen those signs in airports
137
475071
2612
Önök is ismerik a feliratokat a reptereken és a metróállomásokon:
07:57
and in metro stations, "If you see something, say something."
138
477707
3702
"Ha látsz valamit, mondj is valamit!"
08:01
Nextdoor tried modifying this.
139
481928
2814
A Nextdoor ezt módosította:
08:05
"If you see something suspicious,
140
485584
2572
"Ha látsz valami gyanúsat,
08:08
say something specific."
141
488180
2073
mondj valami konkrétat."
08:11
And using this strategy, by simply slowing people down,
142
491491
4446
Ezt az embereket lelassító stratégiát alkalmazva
08:15
Nextdoor was able to curb racial profiling by 75 percent.
143
495961
5691
a Nextdoornak sikerült 75%-kal visszaszorítania a faji profilalkotást.
08:22
Now, people often will say to me,
144
502496
2090
Az emberek gyakran azt mondják nekem:
08:24
"You can't add friction in every situation, in every context,
145
504610
4713
"Nem növelhetjük a »tapadási felületet« minden helyzetben, minden kontextusban,
08:29
and especially for people who make split-second decisions all the time."
146
509347
4646
és főleg olyanok esetében, akik villámgyorsan döntenek."
08:34
But it turns out we can add friction
147
514730
2563
Kiderült azonban,
hogy több helyzetben növelhetjük a "tapadási felületet", mint hinnénk.
08:37
to more situations than we think.
148
517317
2276
08:40
Working with the Oakland Police Department
149
520031
2074
Együtt dolgoztam az oaklandi rendőrséggel
08:42
in California,
150
522129
1417
Kaliforniában.
08:43
I and a number of my colleagues were able to help the department
151
523570
3856
Kollégáimmal segítettünk csökkenteni a rendőrségnek
08:47
to reduce the number of stops they made
152
527450
2671
azoknak az igazoltatott embereknek a számát,
08:50
of people who were not committing any serious crimes.
153
530145
3600
akik nem követtek el komoly bűncselekményt.
08:53
And we did this by pushing officers
154
533769
2365
Ezt úgy értük el, hogy arra ösztönöztük a rendőröket,
08:56
to ask themselves a question before each and every stop they made:
155
536158
4443
hogy minden egyes igazoltatás előtt tegyenek fel maguknak egy kérdést:
09:01
"Is this stop intelligence-led,
156
541451
3015
"Ezt az igazoltatást az értelem vezérli?
09:04
yes or no?"
157
544490
1451
Igen vagy nem?"
09:07
In other words,
158
547353
1396
Más szóval:
09:09
do I have prior information to tie this particular person
159
549621
4484
van olyan előzetes információm,
amely a személyt konkrét bűntetthez köti?
09:14
to a specific crime?
160
554129
1601
09:16
By adding that question
161
556587
1458
Az, hogy ez a kérdés szerepel az űrlapon,
09:18
to the form officers complete during a stop,
162
558069
3079
amelyet igazoltatáskor kitöltenek a rendőrök,
09:21
they slow down, they pause,
163
561172
1809
lelassítja őket, megállnak egy pillanatra, és elgondolkoznak:
09:23
they think, "Why am I considering pulling this person over?"
164
563005
4220
"Miért fontolgatom e személy feltartóztatását?"
09:28
In 2017, before we added that intelligence-led question to the form,
165
568721
5561
2017-ben, mielőtt kibővítettük az űrlapot ezzel az értelmező kérdéssel,
09:35
officers made about 32,000 stops across the city.
166
575655
3946
kb. 32 000 esetben igazoltattak a városban a rendőrök.
09:39
In that next year, with the addition of this question,
167
579625
4115
A következő évben, ennek a kérdésnek a feltevésével
09:43
that fell to 19,000 stops.
168
583764
2444
ez visszaesett 19 000 igazoltatásra.
09:46
African-American stops alone fell by 43 percent.
169
586232
4961
Csak az afroamerikaiak igazoltatása 43%-kal csökkent.
09:51
And stopping fewer black people did not make the city any more dangerous.
170
591905
4438
A kevesebb fekete igazoltatásától nem lett veszélyesebb a város.
09:56
In fact, the crime rate continued to fall,
171
596367
2734
A bűnözési ráta valójában egyre jobban csökkent,
09:59
and the city became safer for everybody.
172
599125
3337
és a város mindenki számára biztonságosabbá vált.
10:02
So one solution can come from reducing the number of unnecessary stops.
173
602486
5355
Vagyis az egyik megoldás az lehet, hogy csökkentjük a felesleges igazoltatásokat.
10:08
Another can come from improving the quality of the stops
174
608285
4270
A másik, hogy javítunk
a rendőrségi igazoltatások színvonalán.
10:12
officers do make.
175
612579
1305
10:14
And technology can help us here.
176
614512
2596
A technológia a segítségünkre lehet ebben.
10:17
We all know about George Floyd's death,
177
617132
2415
George Floyd haláláról azért tudunk,
10:20
because those who tried to come to his aid held cell phone cameras
178
620499
4772
mert azoknál, akik a segítségére akartak sietni, volt kamerás telefon,
10:25
to record that horrific, fatal encounter with the police.
179
625295
5431
így felvették azt a rettenetes, halálos találkozást a rendőrökkel.
10:30
But we have all sorts of technology that we're not putting to good use.
180
630750
5031
Van mindenféle technikánk, melyeket nem hasznosítunk.
10:35
Police departments across the country
181
635805
2503
A rendőrségnek szerte az országban
10:38
are now required to wear body-worn cameras
182
638332
3553
kötelező testkamerát viselnie,
10:41
so we have recordings of not only the most extreme and horrific encounters
183
641909
5930
hogy ne csak a szélsőséges és szörnyű összetűzésekről készüljön felvétel,
10:47
but of everyday interactions.
184
647863
2754
hanem a mindennapos beavatkozásokról is.
10:50
With an interdisciplinary team at Stanford,
185
650641
2777
Egy interdiszciplináris csapattal
10:53
we've begun to use machine learning techniques
186
653442
2687
Stanfordban gépi tanulási technikákat kezdtünk használni,
10:56
to analyze large numbers of encounters.
187
656153
3367
hogy nagy számban elemezhessünk különféle csetepatékat.
10:59
This is to better understand what happens in routine traffic stops.
188
659544
4611
Az volt a célunk, hogy jobban megértsük, mi zajlik egy rutin közúti ellenőrzéskor.
11:04
What we found was that
189
664179
2155
Azt állapítottuk meg,
hogy a rendőrök még akkor is, amikor professzionálisan viselkednek,
11:06
even when police officers are behaving professionally,
190
666358
3662
11:10
they speak to black drivers less respectfully than white drivers.
191
670860
4462
a fekete sofőrökkel kevesebb tisztelettel beszélnek, mint a fehérekkel.
11:16
In fact, from the words officers use alone,
192
676052
4075
Igazából már pusztán a rendőrök által használt szavakból is
11:20
we could predict whether they were talking to a black driver or a white driver.
193
680151
5162
előre meg tudtuk mondani, hogy fekete vagy fehér sofőrrel beszélnek-e.
11:25
The problem is that the vast majority of the footage from these cameras
194
685337
5762
Az a baj, hogy e kamerafelvételek zömét
11:31
is not used by police departments
195
691123
2087
nem használja fel a rendőrség arra,
11:33
to understand what's going on on the street
196
693234
2276
hogy megtudja, mi folyik az utcákon,
11:35
or to train officers.
197
695534
2243
vagy hogy továbbképezze a rendőröket.
11:38
And that's a shame.
198
698554
1458
És ez gyalázat.
11:40
How does a routine stop turn into a deadly encounter?
199
700796
4789
Hogyan lesz egy rutinellenőrzésből halálos összetűzés?
11:45
How did this happen in George Floyd's case?
200
705609
2670
Hogy történt ez George Floyd esetében?
11:49
How did it happen in others?
201
709588
2082
Hogy történt ez más esetekben?
11:51
When my eldest son was 16 years old,
202
711694
3396
Amikor a legidősebb fiam 16 éves volt,
11:55
he discovered that when white people look at him,
203
715114
3139
észrevette, hogy mikor a fehérek ránéznek,
11:58
they feel fear.
204
718277
1561
félelmet éreznek.
12:01
Elevators are the worst, he said.
205
721123
2661
Azt mondta, a lift a legrosszabb.
12:04
When those doors close,
206
724313
2331
Amikor az ajtók bezárulnak,
12:06
people are trapped in this tiny space
207
726668
3083
az emberek csapdába esnek az apró helyiségben olyasvalakivel,
12:09
with someone they have been taught to associate with danger.
208
729775
4467
akiről azt tanították nekik, hogy veszélyt jelenthet.
12:14
My son senses their discomfort,
209
734744
3220
A fiam érzi ezt a feszengést,
12:17
and he smiles to put them at ease,
210
737988
3157
és mosolyog, hogy megnyugtassa őket,
12:21
to calm their fears.
211
741169
1769
és oldja a félelmüket.
12:23
When he speaks,
212
743351
1945
Amikor beszél,
12:25
their bodies relax.
213
745320
1683
a testük ellazul.
12:27
They breathe easier.
214
747442
1903
Könnyebben lélegeznek.
12:29
They take pleasure in his cadence,
215
749369
2531
Örömöt lelnek a hanglejtésében,
12:31
his diction, his word choice.
216
751924
2317
a kifejezésmódjában, a szóhasználatában.
12:34
He sounds like one of them.
217
754986
1843
Úgy beszél, mint egy közülük.
12:36
I used to think that my son was a natural extrovert like his father.
218
756853
4730
Régen azt hittem, hogy a fiam született extrovertált személyiség, mint az apja.
12:41
But I realized at that moment, in that conversation,
219
761607
3550
Abban a pillanatban, annál a beszélgetésnél viszont rájöttem,
12:46
that his smile was not a sign that he wanted to connect
220
766143
5078
hogy a mosolya nem azt jelentette, hogy kapcsolatot akar teremteni
12:51
with would-be strangers.
221
771245
1964
idegen emberekkel.
12:53
It was a talisman he used to protect himself,
222
773920
3652
Ez volt a talizmánja, amellyel megvédte magát,
12:57
a survival skill he had honed over thousands of elevator rides.
223
777596
6219
túlélési taktika, amelyet a sok ezer liftezés során fejlesztett tökélyre.
13:04
He was learning to accommodate the tension that his skin color generated
224
784387
5171
Megtanulta, hogyan szokjon hozzá a feszültséghez, amelyet bőrszíne vált ki,
13:11
and that put his own life at risk.
225
791026
2667
és amely veszélybe sodorta az életét.
13:14
We know that the brain is wired for bias,
226
794619
3783
Tudjuk, hogy az agy huzalozva van az előítéletekre,
13:18
and one way to interrupt that bias is to pause and to reflect
227
798426
4465
aminek pl. úgy szabhatunk gátat, ha megállunk, és elgondolkodunk azon,
13:22
on the evidence of our assumptions.
228
802915
2305
hogy milyen bizonyítékai vannak a feltevéseinknek.
13:25
So we need to ask ourselves:
229
805244
1755
Fel kell tennünk magunknak a kérdést:
13:27
What assumptions do we bring when we step onto an elevator?
230
807023
4665
Milyen feltevésekkel lépünk be egy liftbe?
13:33
Or an airplane?
231
813776
1311
Vagy szállunk repülőre?
13:35
How do we make ourselves aware of our own unconscious bias?
232
815532
4599
Hogyan tudatosíthatjuk magunkban a tudattalan előítéleteinket?
13:40
Who do those assumptions keep safe?
233
820155
2351
Kinek a biztonságát szolgálják ezek a feltevések?
13:44
Who do they put at risk?
234
824615
1932
Kit sodornak veszélybe?
13:47
Until we ask these questions
235
827649
2354
Amíg nem tesszük fel ezeket a kérdéseket,
13:50
and insist that our schools and our courts and our police departments
236
830978
4624
és nem ragaszkodunk ahhoz, hogy iskolák, bíróságok, a rendőrség
13:55
and every institution do the same,
237
835626
2542
és más intézmények is feltegyék e kérdéseket,
13:59
we will continue to allow bias
238
839835
3829
addig az előítéleteink
14:03
to blind us.
239
843688
1278
továbbra is elvakíthatnak.
14:05
And if we do,
240
845348
1409
Ez esetben pedig
14:08
none of us are truly safe.
241
848066
3208
egyikünk sincs igazán biztonságban.
14:14
Thank you.
242
854103
1308
Köszönöm.
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7