How to reduce bias in your workplace | The Way We Work, a TED series

152,459 views ・ 2021-10-25

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

00:00
- We all have our biases,
0
520
1790
Çeviri: Büşra Ay Gözden geçirme: Gözde Alpçetin
Kim Scott: Hepimizin ön yargıları var;
00:02
the set of assumptions that we make,
1
2310
1860
ön yargılar insanların ırkı, cinsiyeti, dini, cinsel yönelimi,
00:04
and the things we don't notice
2
4170
2010
00:06
about people's race, gender, religion, sexual orientation,
3
6180
4230
görünüşü ve diğer özellikleri hakkında yaptığımız varsayımlar
ve fark etmediğimiz diğer şeylerdir.
00:10
appearance, and other traits.
4
10410
1680
00:12
They come from the part of our mind
5
12090
2240
Bunlar aklımızın belki de varlığının farkındalığında bile olmadığımız
00:14
that jumps to conclusions
6
14330
1610
00:15
that we might not even be aware that we have.
7
15940
2750
alelacele yargılara varan kısmından gelir.
00:18
- I really can't tell you the number of times people assumed
8
18690
2340
Trier Bryant: İnsanların beni şirket yöneticisi olmama rağmen
00:21
I was the receptionist
9
21030
1650
00:22
when I was an executive at the company.
10
22680
2460
kaç kez resepsiyonist sandıklarını anlatamam bile.
00:25
- That kind of bias gets in the way of good collaboration,
11
25140
3640
KS: Bu tip ön yargılar iyi çalışmayı,
00:28
performance, and decision-making.
12
28780
2150
performansı ve karar vermeyi engelliyor.
00:30
- It creates an invisible tax of resentment and frustration.
13
30930
3240
TB: Görünmez bir içerleme ve hayal kırıklığı yükü yaratıyor.
00:34
The more frustrated we are,
14
34170
1700
Daha çok hayal kırıklığına uğradıkça daha sessiz olmaya başlarız.
00:35
the more silent we are likely to be.
15
35870
1700
00:37
And the more silent we are,
16
37570
1200
Daha sessiz oldukça da
00:38
the less we may be able to do our best work.
17
38770
2240
işimizde en iyisini daha az yapabiliriz.
Ama iyi haber şu ki ön yargı kaçınılmaz değil.
00:41
The good news though is,
18
41010
1630
00:42
bias is not inevitable.
19
42640
1783
[Çalışma Şeklimiz]
00:48
So here's how to disrupt bias in three steps.
20
48310
2740
TB: İşte ön yargı üç adımda nasıl engellenebilir.
İlk adım ortak bir kelime dağarcığı yaratmak.
00:51
The first step is to create a shared vocabulary.
21
51050
3330
00:54
Sometimes bias shows up in big embarrassing gaffes,
22
54380
3100
Bazen ön yargı büyük, utandırıcı gaflarda görünür
00:57
but more often it comes out
23
57480
1410
ama çoğunlukla seçtiğimiz küçük kelimeler ya da kelime gruplarında ortaya çıkar
00:58
in the little words and phrases we choose,
24
58890
2270
01:01
which are packed with assumptions.
25
61160
1860
ki bunlar varsayımlarla doludur.
Bunlar özellikle de toplantılarda genelde gözden kaçar
01:03
In meetings especially, these often go unnoticed
26
63020
2960
01:05
or even worse, people notice, but don't know what to say.
27
65980
4250
veya daha da kötüsü insanlar bunu fark etse de ne diyeceklerini bilmez.
01:10
That's why we recommend coming up with a shared word
28
70230
2220
Bu yüzden ön yargılı tutum ya da davranışları durdurmak için
01:12
or phrase that everyone agrees to use
29
72450
2230
herkesin kullanmayı kabul ettiği ortak kelime veya cümleler bulmanızı öneriyoruz.
01:14
to disrupt bias, attitudes or behaviors.
30
74680
2730
01:17
Examples teams are using our bias alert, stoplight,
31
77410
3550
Örneğin, takımlar “önyargı alarmı,“ “kırmızı ışık” kelimelerini kullanıyor
01:20
or even throwing up a peace sign.
32
80960
1590
veya barış simgesi bile fırlatıyorlar.
01:22
- Leaders often ask us to give them the right words,
33
82550
3450
KS: Liderler genellikle bizden “doğru kelimeleri” vermemizi istiyor
ama en iyi kelimeler takımınızın gerçekten söylecekleridir,
01:26
but the best words are the ones your team will actually say,
34
86000
3520
01:29
not the ones that leaders impose.
35
89520
1890
liderlerinin empoze ettiklerini değil.
01:31
So talk to your team.
36
91410
1730
Bu yüzden takımınızla konuşun.
01:33
My very favorite is the one that you recommended Trier,
37
93140
3690
Benim en sevdiğim senin önerdiğin, Trier:
01:36
purple flag.
38
96830
1280
“mor bayrak”.
01:38
When someone says or does something biased,
39
98110
2500
Biri önyargılı bir şey söyler veya yaparsa
01:40
we'll say purple flag,
40
100610
1450
“mor bayrak” diyeceğiz.
01:42
and maybe we'll even waive a purple flag.
41
102060
3000
Hatta belki bir mor bayrak sallayacağız.
01:45
It's not a red flag, it's a friendly purple flag.
42
105060
3240
Kırmızı bir bayrak değil.
Dost canlısı mor bir bayrak.
01:48
- It helps us become more aware of our blind spots.
43
108300
3000
TB: Kör noktalarımızın farkına varmamızı sağlar.
01:51
- Purple flag. - Purple flag.
44
111300
1500
KS: Mor bayrak.
TB: Mor bayrak.
01:53
Thanks for pointing that out.
45
113670
1110
Belirttiğin için teşekkürler.
01:54
I've been noticing lately I use a lot of sight metaphors
46
114780
2580
Son günlerde olumsuz şekilde
01:57
that often portray disabilities like being visually impaired
47
117360
2770
görme engelli olmak gibi engelleri belirten
çok metafor kullandığımı fark ettim.
02:00
in negative ways,
48
120130
1410
02:01
but I'm committed to doing better and working on it.
49
121540
2400
Ama daha iyi olmakta ve üzerinde çalışmakta kararlıyım.
02:03
- I am too.
50
123940
1280
KS: Ben de.
Bir başka ortak kelime numarası da
02:05
Another great shared vocabulary trick
51
125220
2530
02:07
is to ask members of your team to respond to bias
52
127750
2670
takımınızın üyelerinden bir ön yargıya “ben ifadesi” ile yanıtlamasını istemek.
02:10
with an I statement.
53
130420
1310
02:11
An I statement invites the other person in
54
131730
2860
“Ben ifadesi” bir şeyleri senin açından anlaması için onlara meydan okumak yerine
02:14
to understand things from your perspective
55
134590
1790
02:16
rather than calling them out.
56
136380
1540
diğer kişiyi de dahil eder.
02:17
Like, I don't think you're going to take me seriously
57
137920
2610
Mesela, “bana tatlım dediğinde beni ciddiye alacağını düşünmüyorum”
02:20
when you're calling me honey.
58
140530
1180
02:21
Or I don't think you meant that the way that it sounded.
59
141710
2590
ya da “bence söyleyiş şekline göre bunu demek istemedin.”
02:24
Usually when people's biases are pointed out to them
60
144300
3290
Genellikle insanların ön yargıları onlara gösterildiğinde
02:27
clearly and compassionately,
61
147590
1880
net ve şefkatli şekilde
02:29
they apologize and correct things going forward,
62
149470
2970
özür dileyip söyleyecekleri şeyleri de düzeltiyorlar.
02:32
usually, but not always.
63
152440
2330
Genellikle, her zaman değil.
02:34
- That brings us to the second step,
64
154770
1910
TB: Bu da bizi ikinci adıma getiriyor:
02:36
create a shared norm for how to respond
65
156680
2710
bir ön yargı ifade edildiğinde
nasıl yanıtlayacağınıza ortak kural koymak.
02:39
when your bias is pointed out.
66
159390
1540
02:40
- When my bias is flagged,
67
160930
1480
KS: Ön yargım bayraklandığında
02:42
I can only be glad that I'm learning something new
68
162410
2640
yeni bir şey öğrendiğim için mutlu olabilirim,
tabii eğer utanma kısmını geçebilirsem.
02:45
if I can move past the shame,
69
165050
2130
02:47
I hate the idea that I've harmed someone.
70
167180
2590
Birini incitme fikrinden nefret ederim.
02:49
And when I feel ashamed, I rarely respond well.
71
169770
4140
Utanmış hissettiğimde nadiren iyi dönüş yaparım.
02:53
So it's really helpful to have that shared norms
72
173910
2660
Bu yüzden ortak bir kural gerçekten yardımcı
02:56
so that I know what to say in those moments.
73
176570
2400
böylece o anlarda ne söyleyeceğimi bilirim.
02:58
- We recommend you start with,
74
178970
1530
TB: “Bunu belirttiğin için teşekkürler” ile başlamanızı öneriyoruz.
03:00
thank you for pointing that out.
75
180500
1380
03:01
It took courage for that person to disrupt the bias.
76
181880
2690
Bir insanın ön yargıyı durdurması cesaret ister
03:04
So it's important to acknowledge that.
77
184570
1880
bu yüzden bunu kabul etmek önemli.
03:06
Then there are two choices on what to say next.
78
186450
2510
Daha sonra ne diyeceğinize dair iki seçenek var.
03:08
One, I get it.
79
188960
1210
Birincisi “anladım”
03:10
Or two, I don't get it.
80
190170
2050
ya da ikincisi de “anlamadım.
03:12
Could you explain more after the meeting.
81
192220
2110
Toplantıdan sonra açıklayabilir misin?”
03:14
- The other day, you and I were recording a podcast
82
194330
2740
KS: Bir önceki gün,”
senle bir podcast kaydediyorduk ve ben dedim ki
03:17
and I said, HR serves three masters
83
197070
3190
“İnsan kaynakları üç efendiye hizmet eder”
03:20
and you waved the purple flag.
84
200260
1490
ve sen mor bayrağı salladın.
03:21
I knew what I had done wrong.
85
201750
1580
Neyi yanlış yaptığımı biliyordum.
03:23
Why was I using a slavery metaphor?
86
203330
2470
Neden kölelik metaforu kullanıyordum?
03:25
We hit pause, I thanked you and we rerecorded.
87
205800
3430
Durdurduk,
sana teşekkür ettim ve yeniden kaydettik.
03:29
It was no big deal.
88
209230
1170
Çok sorun değildi.
03:30
The thing I love about the purple flag
89
210400
2360
Mor bayrakla ilgili sevdiğim şey ne kadar etkili olduğu.
03:32
is how efficient it is.
90
212760
1590
03:34
- Flagging the bias didn't prevent us
91
214350
1430
TB: Ön yargıyı bayraklamak bizi işimizden alıkoymadı.
03:35
from getting the work done.
92
215780
940
03:36
In fact, it helps us work together more honestly,
93
216720
2640
Hatta daha dürüstçe çalışmamıza yardım etti.
03:39
it's even harder, when I don't know what I did wrong.
94
219360
2900
KS: Neyi yanlış yaptığımı bilmediğimde daha zor.
03:42
Once I asked someone out to lunch,
95
222260
2150
Bir keresinde biriyle yemeğe çıktım.
03:44
out came the purple flag.
96
224410
1440
Mor bayrak çıktı geldi.
03:45
I had no idea why.
97
225850
2640
Neden olduğuna dair fikrim yoktu,
03:48
So I was relieved to know what to say next.
98
228490
2590
bu yüzden sonra ne diyeceğimi bildiğim için rahattım.
03:51
Thank you for pointing it out, but I don't get it.
99
231080
2390
“Bunu belirttiğin için teşekkürler ama anlamadım.
03:53
Could we talk after the meeting?
100
233470
1690
Toplantı sonrası konuşalım mı?”
03:55
Afterwards, the person reminded me
101
235160
1920
Daha sonra o kişi bana Ramazan için oruç tuttuğunu hatırlattı.
03:57
that they were fasting for Ramadan.
102
237080
1930
Bu anında mantıklı geldi
03:59
It instantly made sense to me,
103
239010
2030
ve daha farkında olmam gereken bir şey keşfettim.
04:01
and I discovered something that I could be more aware of.
104
241040
3090
04:04
But to get to awareness,
105
244130
1480
Ancak farkındalık için utanç aşamasını geçmeliydim.
04:05
I had to move through shame.
106
245610
1960
04:07
It was hard to say I don't get it.
107
247570
1950
“Anlamadım” demek zordu.
04:09
The shared norm helped me listen and learn
108
249520
2740
Ortak kural, savunmacı olmak yerine
04:12
rather than getting defensive.
109
252260
1460
dinleyip öğrenmemi sağladı.
04:13
The fact that there was a norm at all,
110
253720
2100
Bir kural olması gerçeği bile
04:15
reassured me that other people
111
255820
1770
diğerlerinin de aynı hataları yaptığına ve hepimizin beraber öğrendiğine dair
04:17
are making similar kinds of mistakes
112
257590
1780
04:19
and that we're all learning together.
113
259370
1590
içimi rahatlattı.
04:20
- Disrupting bias may start off feeling uncomfortable,
114
260960
3030
TB: Ön yargıyı durdurmak başlarda rahatsız edici olabilir
04:23
but with time and consistency,
115
263990
1671
ama zamanla ve tutarlılıkla
04:25
we can build the stamina we need to push through it.
116
265661
2989
kabul etmek için ihtiyaç duyduğumuz gücü kurabiliriz.
04:28
When it becomes routine for us to notice our biases,
117
268650
2810
Ön yargıları fark etme bir rutine dönüştüğünde
04:31
all of a sudden they feel less threatening.
118
271460
2450
aniden daha az tehdit edici olurlar.
04:33
It's hard to break bias habits,
119
273910
1730
Ön yargı alışkanlıklarını kırmak zor
04:35
yet we can change the pattern with consistent effort.
120
275640
3780
ancak tutarlı bir çabayla döngüyü değiştirebiliriz.
04:39
- We've got to be patient with ourselves and with others.
121
279420
3070
KS: Kendimiz ve başkalarına karşı sabırlı olmalıyız.
04:42
- Patient and also persistent.
122
282490
1629
TB: Sabırlı ve ayrıca tutarlı.
04:44
- Yeah.
123
284119
833
04:44
- Which brings us to our last step.
124
284952
1288
Bu da bizi son adıma getiriyor.
04:46
Once the team has come up with a shared vocabulary
125
286240
2330
Takım ortak bir kelime dağarcığına
04:48
and agrees on the shared norm for how to respond,
126
288570
2660
ve nasıl cevaplanacağıyla ilgili ortak bir kuralda hemfikir olunca
04:51
the team should commit to disrupting bias
127
291230
1590
takım her toplantıda en az bir kez ön yargıyı durdurmada kararlı olmalı.
04:52
at least once in every meeting.
128
292820
1650
04:54
- If bias isn't flagged in a meeting,
129
294470
1840
KS: Toplantıda ön yargı bayraklanmazsa bu ön yargı olmadığı anlamına gelmez.
04:56
it doesn't mean there wasn't any bias.
130
296310
2100
04:58
It just means either nobody noticed,
131
298410
2430
Bu ya kimse fark etmemiş,
05:00
or nobody knew what to say.
132
300840
1920
ya da ne diyeceğini bilememiş demektir.
05:02
When we are silent about bias, we reinforce it.
133
302760
4270
Ön yargıyla ilgili sessiz kalırsak onu destekleriz.
Bu da sadece ön yargının hedefleri tarafından belirtilemez.
05:07
And it can't be just the targets of bias who point it out.
134
307030
3850
05:10
Observers and leaders have got to speak up.
135
310880
2580
Gözlemciler ve liderler sesini yükseltmeli.
05:13
We all have a responsibility.
136
313460
2010
Hepimizin bir sorumluluğu var.
05:15
- By making a practice
137
315470
900
TB: Ön yargıyı hızlıca ve kibarca durdurma pratiğiyle
05:16
of disrupting bias quickly and kindly,
138
316370
2490
05:18
we prevent it from metastasizing into something worse,
139
318860
3050
onun kötü bir şeye dönüşmesine engel oluruz,
05:21
like prejudice, bullying, discrimination, or harassment.
140
321910
3320
peşin hüküm, zorbalık,
ayrımcılık ya da tacize mesela.
05:25
- Bias disruptors,
141
325230
1230
KS: Ön yargı durdurucular: ortak kelime,
05:26
a shared vocabulary,
142
326460
1290
05:27
a shared norm, and a shared commitment.
143
327750
2100
ortak kural ve ortak bağlılık,
05:29
Ensure that we notice and learn from the mistakes
144
329850
2810
hepimizin yaptığımız hataları fark edip öğrendiğimizden emin olun.
05:32
that we are all making so that we can work better together.
145
332660
3670
böylece birlikte daha iyi çalışabilelim.
05:36
- When we collaborate,
146
336330
1270
TB: İş birliği yaptığımızda
05:37
we use our full capacity as humans
147
337600
2160
topluca daha fazla şeyler yapmak için tam kapasitemizi kullanırız
05:39
to get more done collectively
148
339760
1820
05:41
than we could ever dream of accomplishing as individuals.
149
341580
3290
ve bireysel olarak başarmayı hayal edebileceğimizden daha fazlasını yaparız.
05:44
So let's stop letting bias, get in the way.
150
344870
2663
O halde ön yargının önümüze çıkmasına engel olalım.
05:48
(gentle piano music)
151
348627
3083
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7