How racial bias works -- and how to disrupt it | Jennifer L. Eberhardt

167,361 views ・ 2020-06-22

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Murat Mutlu Gözden geçirme: Cihan Ekmekçi
00:12
Some years ago,
0
12910
1273
Birkaç yıl önce,
00:14
I was on an airplane with my son who was just five years old at the time.
1
14207
4912
O dönemde sadece 5 yaşında olan oğlumla bir uçaktaydım.
00:20
My son was so excited about being on this airplane with Mommy.
2
20245
5095
Oğlum annesiyle beraber bu uçakta olmaktan çok mutluydu.
00:25
He's looking all around and he's checking things out
3
25364
2940
Etrafına bakıyor ve bir şeyleri
00:28
and he's checking people out.
4
28328
1836
ve insanları kontrol ediyordu.
00:30
And he sees this man, and he says,
5
30188
1630
Bir adam gördü ve şöyle dedi,
00:31
"Hey! That guy looks like Daddy!"
6
31842
2861
"Hey! Bu adam babama benziyor!"
00:35
And I look at the man,
7
35882
1920
O adama baktım
00:37
and he didn't look anything at all like my husband,
8
37826
3730
ve hiçbir şeyi eşime benzemiyordu,
00:41
nothing at all.
9
41580
1369
hem de hiçbir şeyi.
00:43
And so then I start looking around on the plane,
10
43461
2336
Sonra uçakta etrafa bakmaya başladım
00:45
and I notice this man was the only black guy on the plane.
11
45821
5885
ve bu adamın uçaktaki tek siyahi adam olduğunu fark ettim.
00:52
And I thought,
12
52874
1412
Ve düşündüm,
00:54
"Alright.
13
54310
1194
"Peki.
00:56
I'm going to have to have a little talk with my son
14
56369
2525
tüm siyahi insanların birbirlerine benzemediğ konusunda
00:58
about how not all black people look alike."
15
58918
2929
oğlumla küçük bir konuşma yapacaktım.
01:01
My son, he lifts his head up, and he says to me,
16
61871
4377
Oğlum kafasını kaldırdı ve bana dedi ki,
01:08
"I hope he doesn't rob the plane."
17
68246
2371
"Umarım o uçağı soymaz."
01:11
And I said, "What? What did you say?"
18
71359
2515
Ben de "Ne? Ne dedin sen? dedim.
01:13
And he says, "Well, I hope that man doesn't rob the plane."
19
73898
3428
"Yani, umarım o adam uçağı soymaz." dedi.
01:19
And I said, "Well, why would you say that?
20
79200
2752
"Peki neden bunu söyledin?'' diye sordum,
01:22
You know Daddy wouldn't rob a plane."
21
82486
2663
''Baban bir uçağı soymazdı."
01:25
And he says, "Yeah, yeah, yeah, well, I know."
22
85173
2312
"Evet, evet, evet, peki, biliyorum." dedi.
01:28
And I said, "Well, why would you say that?"
23
88179
2127
"Peki neden böyle söyledin?" dedim.
01:32
And he looked at me with this really sad face,
24
92346
2957
Ve gerçekten mutsuz yüzüyle bana doğru baktı
01:36
and he says,
25
96168
1254
ve şöyle dedi,
01:38
"I don't know why I said that.
26
98890
2106
"Neden böyle söylediğimi bilmiyorum.
01:42
I don't know why I was thinking that."
27
102600
2358
Neden böyle düşündüğümü bilmiyorum."
01:45
We are living with such severe racial stratification
28
105724
3518
Öylesine şiddetli ırkçı tabakalaşmayla yaşıyoruz ki
01:49
that even a five-year-old can tell us what's supposed to happen next,
29
109266
5060
beş yaşındaki bir çocuk bile bundan sonra ne olacağını söyleyebilir,
01:55
even with no evildoer,
30
115990
2107
şuça yatkın biri olmasa bile,
01:58
even with no explicit hatred.
31
118121
2579
apaçık bir nefret olmadan bile.
02:02
This association between blackness and crime
32
122184
3913
Siyahlık ve suç arasındaki bu ilişki
02:06
made its way into the mind of my five-year-old.
33
126121
4334
beş yaşındaki oğlumun aklına girdi.
02:11
It makes its way into all of our children,
34
131787
3263
Bu ilişki tüm çocuklarımızın aklına girecek,
02:16
into all of us.
35
136201
1391
hatta bizim bile.
02:18
Our minds are shaped by the racial disparities
36
138793
3524
Zihinlerimiz dış dünyada görüğümüz
02:22
we see out in the world
37
142341
1592
ırksal farklılıklarla şekillenir.
02:24
and the narratives that help us to make sense of the disparities we see:
38
144752
5341
Anlatıcılar gördüğümüz farklılıkları anlamamıza yardımcı oluyor:
02:31
"Those people are criminal."
39
151637
2526
"Bu insanlar suçlu."
02:34
"Those people are violent."
40
154187
1925
"Bu insanlar şiddet yanlısı."
02:36
"Those people are to be feared."
41
156136
2965
"Bu insanlardan korkulmalı."
02:39
When my research team brought people into our lab
42
159814
3191
Araştırma takımım insanları laboratuvarımıza getirdiğinde
02:43
and exposed them to faces,
43
163029
2283
onları yüzlere maruz bıraktılar.
02:45
we found that exposure to black faces led them to see blurry images of guns
44
165336
7000
Siyah yüzlere maruz kalmak bulanık silah görsellerini
02:52
with greater clarity and speed.
45
172360
3256
çok daha net ve hızlı görmelerini sağladı.
02:55
Bias cannot only control what we see,
46
175640
3354
Ön yargılar sadece bizim ne gördüğümüzü değil,
02:59
but where we look.
47
179018
1648
nereye baktığımızı da kontrol eder.
03:00
We found that prompting people to think of violent crime
48
180690
3444
İnsanları şiddet içeren suçu düşünmeye yönlendirmek
03:04
can lead them to direct their eyes onto a black face
49
184158
4296
doğruca gözlerini siyah bir yüze çevirmelerine sebep olabilir
03:08
and away from a white face.
50
188478
2130
ve beyaz bir yüzden kaçırabilir.
03:10
Prompting police officers to think of capturing and shooting
51
190632
3842
Polis memurlarını, zaptetmeye, ateş etmeye
ve tutuklamaya düşünmeye yönlendirmek
03:14
and arresting
52
194498
1229
03:15
leads their eyes to settle on black faces, too.
53
195751
3859
onların gözlerini de siyah yüze çevirmelerine sebep oluyor.
03:19
Bias can infect every aspect of our criminal justice system.
54
199634
5066
Ön yargı, ceza adalet sistemimizin her yönüne bulaşabilir.
03:25
In a large data set of death-eligible defendants,
55
205100
2931
Ölüm cezasına uygun sanıkların geniş bir veri kümesinde,
03:28
we found that looking more black more than doubled their chances
56
208055
4357
daha siyah görünmenin ölüm cezası alma şansını
03:32
of receiving a death sentence --
57
212436
2057
kurbanların beyaz olduğundan daha fazla,
03:35
at least when their victims were white.
58
215494
2427
iki katına çıkardığını bulduk.
03:37
This effect is significant,
59
217945
1438
Bu etki çok önemli,
03:39
even though we controlled for the severity of the crime
60
219407
3301
biz suçun şiddetini
03:42
and the defendant's attractiveness.
61
222732
2281
ve sanığın çekiciliğini kontrol etsek bile.
03:45
And no matter what we controlled for,
62
225037
2649
Ne için kontrol ettiğimiz önemli değil,
03:47
we found that black people were punished
63
227710
3345
siyahi insanların cezalandırılmasının
03:51
in proportion to the blackness of their physical features:
64
231079
4325
fiziksel özelliklerinin siyahiliği ile orantılı olduğunu gördük:
03:55
the more black,
65
235428
1881
daha siyah,
03:57
the more death-worthy.
66
237333
1753
daha ölüme değerdir.
03:59
Bias can also influence how teachers discipline students.
67
239110
4209
Ön yargılar, öğretmenlerin öğrencileri nasıl cezalandırdığını da etkiler.
04:03
My colleagues and I have found that teachers express a desire
68
243781
4407
Meslektaşlarım ve ben, öğretmenlerin tekrarlanan ihlallerde
04:08
to discipline a black middle school student more harshly
69
248212
3566
siyahi bir ortaokul öğrencisini,
04:11
than a white student
70
251802
1168
beyaz bir öğrenciden
04:12
for the same repeated infractions.
71
252994
2576
daha sert cezalandırma isteği belirttiğini gördük.
04:15
In a recent study,
72
255594
1294
Son zamanlardaki bir çalışmada
04:16
we're finding that teachers treat black students as a group
73
256912
4358
öğretmenlerin siyahi öğrencilere bir grup gibi davranırken
04:21
but white students as individuals.
74
261294
2431
beyazlara birey olarak davrandıklarını görüyoruz.
04:24
If, for example, one black student misbehaves
75
264126
3599
Örneğin siyahi bir öğrenci yaramazlık yaparsa
04:27
and then a different black student misbehaves a few days later,
76
267749
4785
ve sonra farklı bir siyahi öğrenci birkaç gün sonra yaramazlık yaparsa
04:32
the teacher responds to that second black student
77
272558
3228
öğretmen ikinci siyahi öğrenciye
04:35
as if he had misbehaved twice.
78
275810
2625
sanki ikinci kez yaramazlık yapmış gibi karşılık verir.
04:38
It's as though the sins of one child
79
278952
2811
Bir çocuğun günahları
04:41
get piled onto the other.
80
281787
2176
diğerine yıkılmış gibidir.
04:43
We create categories to make sense of the world,
81
283987
3294
Dünyayı anlamak
04:47
to assert some control and coherence
82
287305
4483
biraz kontrol ve anlam ifade etmek,
04:51
to the stimuli that we're constantly being bombarded with.
83
291812
4090
sürekli bombardımana uğradığımız uyarıcılar için kategoriler yaratıyoruz.
04:55
Categorization and the bias that it seeds
84
295926
3968
Sınıflandırma ve tohumladığı ön yargılar
04:59
allow our brains to make judgments more quickly and efficiently,
85
299918
5022
beynimizin daha hızlı ve etkili karar vermesine izin verir.
05:04
and we do this by instinctively relying on patterns
86
304964
3402
bunu iç güdüsel olarak
öngörülebilir görünen kalıplara dayanarak yapıyoruz.
05:08
that seem predictable.
87
308390
1669
05:10
Yet, just as the categories we create allow us to make quick decisions,
88
310083
5943
Fakat yarattığımız sınıflandırmalar hızlı kararlar vermemizi sağladığı gibi
05:16
they also reinforce bias.
89
316050
2502
ön yargıları da güçlendirir.
05:18
So the very things that help us to see the world
90
318576
3392
Yani dünyayı görmemizi sağlayan şeyler
05:23
also can blind us to it.
91
323104
1980
bizi kör de edebilir.
05:25
They render our choices effortless,
92
325509
2778
Seçimlerimizi zahmetsiz ve ihtilafsiz bir hâle getiriyor.
05:28
friction-free.
93
328311
1369
05:30
Yet they exact a heavy toll.
94
330956
2445
Yine de büyük bir bedeli oluyor.
05:34
So what can we do?
95
334158
1411
Peki ne yapabiliriz?
05:36
We are all vulnerable to bias,
96
336507
2491
Hepimiz ön yargılara karşı savunmasızız
05:39
but we don't act on bias all the time.
97
339022
2680
fakat her zaman ön yargılı davranamayız.
05:41
There are certain conditions that can bring bias alive
98
341726
3644
Ön yargıları canlandırabilecek belirli koşullar olabilir
05:45
and other conditions that can muffle it.
99
345394
2533
ve onu azaltabilecek diğer koşullar da var.
05:47
Let me give you an example.
100
347951
1847
Bir örnek vereyim.
05:50
Many people are familiar with the tech company Nextdoor.
101
350663
4560
Birçok insan Nextdoor teknoloji şirketine aşinadır.
05:56
So, their whole purpose is to create stronger, healthier, safer neighborhoods.
102
356073
6453
Tüm amaçları güçlü, sağlıklı ve güvenli mahalleler yaratmak.
06:03
And so they offer this online space
103
363468
2921
Böylelikle mahallelerin bilgi toplayabileceği
06:06
where neighbors can gather and share information.
104
366413
3149
ve paylaşabileceği bu çevrim içi alanı sunuyorlar.
06:09
Yet, Nextdoor soon found that they had a problem
105
369586
4126
Fakat Nextdoor yakın zamanda ırksal profiller ile ilgili
06:13
with racial profiling.
106
373736
1668
bir sorun yaşadıklarını fark etti.
06:16
In the typical case,
107
376012
1967
Normalde insanlar camlarından dışarıya bakarlar
06:18
people would look outside their window
108
378003
2396
06:20
and see a black man in their otherwise white neighborhood
109
380423
4049
ve beyaz mahallelerinde siyahi bir adam görürler
06:24
and make the snap judgment that he was up to no good,
110
384496
4715
ve hemen o adamın iyi biri olmadığına karar verirler,
06:29
even when there was no evidence of criminal wrongdoing.
111
389235
3351
cezai suç işlediğine dair bir kanıt olmasa bile.
06:32
In many ways, how we behave online
112
392610
2934
Birçok yönden çevrim içi nasıl davrandığımız
06:35
is a reflection of how we behave in the world.
113
395568
3114
gerçek dünyada nasıl davrandığımızın yansıması.
06:39
But what we don't want to do is create an easy-to-use system
114
399117
3945
Fakat yapmak istemediğimiz, ön yargıları parçalarına ayırmadan ziyade
06:43
that can amplify bias and deepen racial disparities,
115
403086
4163
onları kuvvetlendiren ve ırksal farklılıkları derinleştiren
06:48
rather than dismantling them.
116
408129
2266
kullanımı kolay bir sistem oluşturmak.
06:50
So the cofounder of Nextdoor reached out to me and to others
117
410863
3429
Böylece Nextdoor'un kurucu ortağı ne yapılacağını belirlemek için
06:54
to try to figure out what to do.
118
414316
2131
benimle ve başkalarıyla iletişime geçti.
06:56
And they realized that to curb racial profiling on the platform,
119
416471
3946
Platformda ırksal profillemenin önüne geçilmesi için
07:00
they were going to have to add friction;
120
420441
1922
bir ihtilaf eklemeleri gerekiyordu.
07:02
that is, they were going to have to slow people down.
121
422387
2658
Böylece insanları yavaşlatacaklardı.
07:05
So Nextdoor had a choice to make,
122
425069
2195
Nextdoor'un bir seçim yapması gerekiyordu
07:07
and against every impulse,
123
427288
2478
ve her tepkiye karşı
07:09
they decided to add friction.
124
429790
2116
ihtilaf eklemeye karar verdiler.
07:12
And they did this by adding a simple checklist.
125
432397
3440
Basit bir kontrol listesi ekleyerek bunu yaptılar.
07:15
There were three items on it.
126
435861
1670
Bu listede üç madde vardı.
07:18
First, they asked users to pause
127
438111
2941
Birincisi, kullanıcılardan duraklamalarını
07:21
and think, "What was this person doing that made him suspicious?"
128
441076
5117
ve düşünmelerini istediler, "Bu insanı şüpheli yapan neydi?"
07:26
The category "black man" is not grounds for suspicion.
129
446876
4533
"Siyahi adam" sınıflandırması şüphe kaynağı değildir.
07:31
Second, they asked users to describe the person's physical features,
130
451433
5139
İkinci olarak, kullanıcılardan kişinin fiziksel özelliklerini
07:36
not simply their race and gender.
131
456596
2435
sadece ırk ve cinsiyet olmadan tanımlamalarını istediler.
07:39
Third, they realized that a lot of people
132
459642
3383
Üçüncü olarak, Nextdoor birçok insanın
07:43
didn't seem to know what racial profiling was,
133
463049
2928
ırksal profillemenin ne olduğunu bilmediğini
07:46
nor that they were engaging in it.
134
466001
1959
ya da onunla ilgilenmediğini fark etti.
07:48
So Nextdoor provided them with a definition
135
468462
3194
Böylece Nexdoor onlara bir açıklama yaptı
07:51
and told them that it was strictly prohibited.
136
471680
2902
ve bunun kesinlikle yasak olduğunu söyledi.
07:55
Most of you have seen those signs in airports
137
475071
2612
Birçoğunuz bu işaretleri havalimanlarında
07:57
and in metro stations, "If you see something, say something."
138
477707
3702
ve metro istasyonlarında görmüşsünüzdür. "Eğer bir şey görüyorsan söyle."
08:01
Nextdoor tried modifying this.
139
481928
2814
Nexdoor bunu değiştirmeyi denedi.
08:05
"If you see something suspicious,
140
485584
2572
"Eğer şüpheli bir şey görürsen
08:08
say something specific."
141
488180
2073
şüphesiz bir şey söyle."
08:11
And using this strategy, by simply slowing people down,
142
491491
4446
Ve bu stratejiyi kullanarak, insanları yavaşlatarak
08:15
Nextdoor was able to curb racial profiling by 75 percent.
143
495961
5691
Nextdoor ırksal profillemeyi yüzde 75 oranında azaltmayı başardı.
08:22
Now, people often will say to me,
144
502496
2090
İnsanlar bana şunu söyleyecekler:
08:24
"You can't add friction in every situation, in every context,
145
504610
4713
"Sen her durumda ve her bağlamda ihtilal ekleyemezsin
08:29
and especially for people who make split-second decisions all the time."
146
509347
4646
ve özellikle de her zaman anlık kararlar alan insanlar için."
08:34
But it turns out we can add friction
147
514730
2563
Fakat görünen o ki düşündüğümüzden daha fazlasına
08:37
to more situations than we think.
148
517317
2276
ihtilal ekleyebiliriz.
08:40
Working with the Oakland Police Department
149
520031
2074
Oaklan Polis Departmanı'nda
08:42
in California,
150
522129
1417
California'da
08:43
I and a number of my colleagues were able to help the department
151
523570
3856
ben ve birlikte çalıştığım bazı meslektaşlarım
08:47
to reduce the number of stops they made
152
527450
2671
ciddi suç işlemeyen insanların
08:50
of people who were not committing any serious crimes.
153
530145
3600
durdurulmalarını azaltmak için departmana yardımcı olduk.
08:53
And we did this by pushing officers
154
533769
2365
Ve bunu, memurları
08:56
to ask themselves a question before each and every stop they made:
155
536158
4443
her çevirmeden önce ve sonra kendilerine soru sormaya iterek yaptık.
09:01
"Is this stop intelligence-led,
156
541451
3015
"Bu çevirme istihbarat liderliğinde mi,
09:04
yes or no?"
157
544490
1451
evet ya da hayır?"
09:07
In other words,
158
547353
1396
Başka bir ifadeyle
09:09
do I have prior information to tie this particular person
159
549621
4484
bu belirli kişiyi bir suçla bağlamak için
09:14
to a specific crime?
160
554129
1601
öncelikli bir bilgim var mı?
09:16
By adding that question
161
556587
1458
Bu soruyu,
09:18
to the form officers complete during a stop,
162
558069
3079
polislerin çevirme sırasındaki formlarına ekleyerek
09:21
they slow down, they pause,
163
561172
1809
yavaşlarlar, duraklarlar, düşünürler.
09:23
they think, "Why am I considering pulling this person over?"
164
563005
4220
"Neden bu insanı kenara çektirmeyi düşünüyorum?"
09:28
In 2017, before we added that intelligence-led question to the form,
165
568721
5561
2017'de istihbarat odaklı bu soruyu forma eklemeden önce
09:35
officers made about 32,000 stops across the city.
166
575655
3946
memurlar şehir genelinde yaklaşık 32.000 çevirme yaptı.
09:39
In that next year, with the addition of this question,
167
579625
4115
Sonraki yıl, bu soru da eklenerek
09:43
that fell to 19,000 stops.
168
583764
2444
çevirme sayısı 19.000'e düştü.
09:46
African-American stops alone fell by 43 percent.
169
586232
4961
Sadece Afrikan-Amerikalı çevirmeleri yüzde 43 oranında düştü.
09:51
And stopping fewer black people did not make the city any more dangerous.
170
591905
4438
Ve daha az sayıda siyahi insanı durdurmak şehri daha tehlikeli hâle getirmedi.
09:56
In fact, the crime rate continued to fall,
171
596367
2734
Aslında suç oranı da düşmeye devam etti
09:59
and the city became safer for everybody.
172
599125
3337
ve şehir herkes için daha güvenli oldu.
10:02
So one solution can come from reducing the number of unnecessary stops.
173
602486
5355
Yani gereksiz çevirmelerin sayısını azaltmak bir çözüm olabilir.
10:08
Another can come from improving the quality of the stops
174
608285
4270
Diğeri ise memurların yaptığı çevirmelerin
10:12
officers do make.
175
612579
1305
kalitesini artırmak olabilir.
10:14
And technology can help us here.
176
614512
2596
Teknoloji burada bize yardım edebilir.
10:17
We all know about George Floyd's death,
177
617132
2415
Hepimiz George Floyd'un ölümünü biliyoruz
10:20
because those who tried to come to his aid held cell phone cameras
178
620499
4772
çünkü yardım etmeye gelenler
10:25
to record that horrific, fatal encounter with the police.
179
625295
5431
polisle olan bu korkunç, ölümcül karşılaşmayı telefonlarıyla kaydettiler.
10:30
But we have all sorts of technology that we're not putting to good use.
180
630750
5031
Fakat iyi bir şekilde kullanmadığımız her türlü teknolojiye de sahibiz.
10:35
Police departments across the country
181
635805
2503
Ükenin her bir yanındaki polis departmanlarının
10:38
are now required to wear body-worn cameras
182
638332
3553
artık vücuda giyilen kameralar takmaları gerekiyor,
10:41
so we have recordings of not only the most extreme and horrific encounters
183
641909
5930
yani biz yalnızca şiddetli ve korkunç karşılaşmaların değil
10:47
but of everyday interactions.
184
647863
2754
günlük etkileşimlerin de kayıtlarına sahibiz.
10:50
With an interdisciplinary team at Stanford,
185
650641
2777
Standford'daki disiplinler arası bir ekiple
10:53
we've begun to use machine learning techniques
186
653442
2687
çok sayıdaki karşılaşmaları analiz etmek için
10:56
to analyze large numbers of encounters.
187
656153
3367
makine öğrenme tekniklerini kullanmaya başladık.
10:59
This is to better understand what happens in routine traffic stops.
188
659544
4611
Bu, rutin trafik çevirmelerinde neler olduğunu daha iyi anlamak için.
11:04
What we found was that
189
664179
2155
Bulduğumuz şey,
11:06
even when police officers are behaving professionally,
190
666358
3662
polis memurları profesyonelce davransalar bile
11:10
they speak to black drivers less respectfully than white drivers.
191
670860
4462
siyahi sürücülerle, beyaz sürücülerle olduğundan daha az saygılı konuşurlar.
11:16
In fact, from the words officers use alone,
192
676052
4075
Aslında memurların tek başına kullandığı kelimelerden
11:20
we could predict whether they were talking to a black driver or a white driver.
193
680151
5162
siyahi mi yoksa beyaz bir sürücüyle mi konuştuklarını tahmin edebiliriz.
11:25
The problem is that the vast majority of the footage from these cameras
194
685337
5762
Problem, bu kameralardaki görüntülerin büyük çoğunluğunun
11:31
is not used by police departments
195
691123
2087
polis departmanları tarafından
11:33
to understand what's going on on the street
196
693234
2276
dışarıda neler olduğunu anlamak için
11:35
or to train officers.
197
695534
2243
ya da eğitimlerde kullanılmaması.
11:38
And that's a shame.
198
698554
1458
Bu bir utanç.
11:40
How does a routine stop turn into a deadly encounter?
199
700796
4789
Nasıl rutin bir çevirme ölümcül bir karşılaşmaya dönebilir?
11:45
How did this happen in George Floyd's case?
200
705609
2670
George Floyd'un olayında bu nasıl oldu?
11:49
How did it happen in others?
201
709588
2082
Diğerlerinde nasıl oldu?
11:51
When my eldest son was 16 years old,
202
711694
3396
Büyük oğlum 16 yaşına geldiğinde,
11:55
he discovered that when white people look at him,
203
715114
3139
beyaz insanlar ona baktıklarında
11:58
they feel fear.
204
718277
1561
korku duyduklarını keşfetti.
12:01
Elevators are the worst, he said.
205
721123
2661
Asansörler en kötüsü, dedi.
12:04
When those doors close,
206
724313
2331
Bu kapılar kapandığında
12:06
people are trapped in this tiny space
207
726668
3083
insanlar bu küçük alanda
12:09
with someone they have been taught to associate with danger.
208
729775
4467
tehlikeyle ilişkilendirildiği öğretilen birisiyle kapana kısılıyorlar.
12:14
My son senses their discomfort,
209
734744
3220
Oğlum onların rahatsızlıklarını seziyor
12:17
and he smiles to put them at ease,
210
737988
3157
ve onları rahatlatmak için gülümsüyor,
12:21
to calm their fears.
211
741169
1769
korkularını yatıştırmak için.
12:23
When he speaks,
212
743351
1945
Oğlum konuştuğunda
12:25
their bodies relax.
213
745320
1683
vücutları rahatlıyor.
12:27
They breathe easier.
214
747442
1903
Daha kolay nefes alıyorlar.
12:29
They take pleasure in his cadence,
215
749369
2531
Ses tonundan, diksiyonundan,
12:31
his diction, his word choice.
216
751924
2317
kelime seçimlerinden zevk alıyorlar.
12:34
He sounds like one of them.
217
754986
1843
Onlardan biri gibi görünüyor.
12:36
I used to think that my son was a natural extrovert like his father.
218
756853
4730
Oğlumun babası gibi dışa dönük olduğunu düşünürdüm.
12:41
But I realized at that moment, in that conversation,
219
761607
3550
Fakat o anda, o konuşmada,
12:46
that his smile was not a sign that he wanted to connect
220
766143
5078
gülümsemesinin yabancılarla bağlantı kurmak istediğinin
12:51
with would-be strangers.
221
771245
1964
bir işaret olmadığını fark ettim.
12:53
It was a talisman he used to protect himself,
222
773920
3652
Bu, kendisini korumak için kullandığı bir tılsımdı
12:57
a survival skill he had honed over thousands of elevator rides.
223
777596
6219
ve binlerce kez asansöre binerek edindiği bir hayatta kalma becerisiydi.
13:04
He was learning to accommodate the tension that his skin color generated
224
784387
5171
Ten renginin yarattığı ve hayatını tehlikeye atan gerilime
13:11
and that put his own life at risk.
225
791026
2667
uyum sağlamayı öğreniyordu
13:14
We know that the brain is wired for bias,
226
794619
3783
Beynimizin ön yargılarla bağlandığını biliyoruz
13:18
and one way to interrupt that bias is to pause and to reflect
227
798426
4465
ve bu ön yargıları engellemenin bir yolu varsayımlarımızın kanıtlarını duraklatmak
13:22
on the evidence of our assumptions.
228
802915
2305
ve iyice düşünmek.
13:25
So we need to ask ourselves:
229
805244
1755
O hâlde kendimize sormalıyız:
13:27
What assumptions do we bring when we step onto an elevator?
230
807023
4665
Bir asansöre bindiğimizde hangi varsayımları bir araya getiriyoruz?
13:33
Or an airplane?
231
813776
1311
Ya da bir uçakta?
13:35
How do we make ourselves aware of our own unconscious bias?
232
815532
4599
Kendimizi bilinçsiz ön yargılarımızdan nasıl haberdar ederiz?
13:40
Who do those assumptions keep safe?
233
820155
2351
Bu varsayımları kim güvende tutar?
13:44
Who do they put at risk?
234
824615
1932
Kim onları riske atar?
13:47
Until we ask these questions
235
827649
2354
Bu soruları sorana dek
13:50
and insist that our schools and our courts and our police departments
236
830978
4624
ve okullarımızın, mahkemelerimizin, polis departmanlarımızın
13:55
and every institution do the same,
237
835626
2542
ve her kurumun aynı şeyi yapmasında ısrar edene dek
13:59
we will continue to allow bias
238
839835
3829
ön yargılarımızın bizi kör etmesine izin vereceğiz.
14:03
to blind us.
239
843688
1278
14:05
And if we do,
240
845348
1409
Ve izin verdiğimiz sürece
14:08
none of us are truly safe.
241
848066
3208
hiçbirimiz gerçekten güvende değiliz.
14:14
Thank you.
242
854103
1308
Teşekkürler.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7