How to reduce bias in your workplace | The Way We Work, a TED series

178,372 views ・ 2021-10-25

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

00:00
- We all have our biases,
0
520
1790
Traductor: Victoria Elena Revisor: Sebastian Betti
Kim Scott: Todos tenemos prejuicios,
00:02
the set of assumptions that we make,
1
2310
1860
un conjunto de suposiciones inconscientes
00:04
and the things we don't notice
2
4170
2010
00:06
about people's race, gender, religion, sexual orientation,
3
6180
4230
acerca de la raza, el género, la religión,
la orientación sexual, la apariencia, etc. de otras personas.
00:10
appearance, and other traits.
4
10410
1680
00:12
They come from the part of our mind
5
12090
2240
Se originan en la parte del cerebro que saca conclusiones apresuradas
00:14
that jumps to conclusions
6
14330
1610
00:15
that we might not even be aware that we have.
7
15940
2750
de las cuales podemos no ser conscientes.
00:18
- I really can't tell you the number of times people assumed
8
18690
2340
Trier Bryant: Ya han sido varias veces
que me confunden con la recepcionista
00:21
I was the receptionist
9
21030
1650
00:22
when I was an executive at the company.
10
22680
2460
cuando en verdad soy ejecutiva de la compañía.
00:25
- That kind of bias gets in the way of good collaboration,
11
25140
3640
KS: Esa clase de prejuicios interfiere con las buenas colaboraciones,
00:28
performance, and decision-making.
12
28780
2150
desempeño, y toma de decisiones.
00:30
- It creates an invisible tax of resentment and frustration.
13
30930
3240
TB: Esto provoca una cuota invisible de resentimiento y frustración.
00:34
The more frustrated we are,
14
34170
1700
Entre más frustrados estemos, es más probable que seamos callados.
00:35
the more silent we are likely to be.
15
35870
1700
00:37
And the more silent we are,
16
37570
1200
Y entre más callados,
00:38
the less we may be able to do our best work.
17
38770
2240
es más probable que no trabajemos bien.
La buena noticia es que los prejuicios se pueden evitar.
00:41
The good news though is,
18
41010
1630
00:42
bias is not inevitable.
19
42640
1783
[Cómo Trabajamos]
00:48
So here's how to disrupt bias in three steps.
20
48310
2740
TB: Tenemos tres pasos para atacar los prejuicios.
El primero es crear un vocabulario en común.
00:51
The first step is to create a shared vocabulary.
21
51050
3330
00:54
Sometimes bias shows up in big embarrassing gaffes,
22
54380
3100
A veces los prejuicios se presentan como meteduras de pata,
00:57
but more often it comes out
23
57480
1410
pero suelen aparecer como pequeñas palabras y frases que usamos,
00:58
in the little words and phrases we choose,
24
58890
2270
01:01
which are packed with assumptions.
25
61160
1860
repletas de suposiciones.
Especialmente en las juntas, suelen pasar desapercibidas, o peor,
01:03
In meetings especially, these often go unnoticed
26
63020
2960
01:05
or even worse, people notice, but don't know what to say.
27
65980
4250
la gente las detecta, pero no saben qué decir.
01:10
That's why we recommend coming up with a shared word
28
70230
2220
Así, recomendamos crear una serie de palabras o frases en común
01:12
or phrase that everyone agrees to use
29
72450
2230
para atacar actitudes y comportamientos llenos de prejuicios.
01:14
to disrupt bias, attitudes or behaviors.
30
74680
2730
01:17
Examples teams are using our bias alert, stoplight,
31
77410
3550
Algunos ejemplos son: “Alerta de prejuicio”, “Luz roja”,
01:20
or even throwing up a peace sign.
32
80960
1590
o incluso la señal de amor y paz.
01:22
- Leaders often ask us to give them the right words,
33
82550
3450
KS: Muchas veces los líderes nos piden darles las “palabras correctas”,
pero las mejores palabras son las que tu equipo dirá,
01:26
but the best words are the ones your team will actually say,
34
86000
3520
01:29
not the ones that leaders impose.
35
89520
1890
no las que los líderes nos imponen.
01:31
So talk to your team.
36
91410
1730
Así que habla con tu equipo.
01:33
My very favorite is the one that you recommended Trier,
37
93140
3690
Mi favorita es la que recomendaste, Trier:
01:36
purple flag.
38
96830
1280
“Bandera púrpura”.
01:38
When someone says or does something biased,
39
98110
2500
Cuando alguien haga o diga algo lleno de prejuicios,
01:40
we'll say purple flag,
40
100610
1450
decimos “Bandera púrpura”.
01:42
and maybe we'll even waive a purple flag.
41
102060
3000
Puede que incluso ondeemos una bandera púrpura.
01:45
It's not a red flag, it's a friendly purple flag.
42
105060
3240
No es una bandera roja,
es una amistosa bandera púrpura.
01:48
- It helps us become more aware of our blind spots.
43
108300
3000
TB: Así tomamos conciencia de nuestros puntos ciegos.
KS: Bandera púrpura. TB: Bandera púrpura.
01:51
- Purple flag. - Purple flag.
44
111300
1500
01:53
Thanks for pointing that out.
45
113670
1110
Gracias por señalarlo.
01:54
I've been noticing lately I use a lot of sight metaphors
46
114780
2580
He notado que usamos muchas metáforas sobre la vista
01:57
that often portray disabilities like being visually impaired
47
117360
2770
que representan discapacidades, como la deficiencia visual,
02:00
in negative ways,
48
120130
1410
de manera negativa.
02:01
but I'm committed to doing better and working on it.
49
121540
2400
Pero me comprometo a mejorar y a trabajar en ello.
02:03
- I am too.
50
123940
1280
KS: Igual yo.
02:05
Another great shared vocabulary trick
51
125220
2530
Otro truco del vocabulario en común es pedirle a los miembros del equipo
02:07
is to ask members of your team to respond to bias
52
127750
2670
responder a los prejuicios en primera persona.
02:10
with an I statement.
53
130420
1310
02:11
An I statement invites the other person in
54
131730
2860
De esta forma, se invita a la otra persona
02:14
to understand things from your perspective
55
134590
1790
a ponerse en nuestro lugar en lugar de llamarles la atención.
02:16
rather than calling them out.
56
136380
1540
02:17
Like, I don't think you're going to take me seriously
57
137920
2610
Por ejemplo: “No creo que me tomes en serio
02:20
when you're calling me honey.
58
140530
1180
llamándome cariño”,
02:21
Or I don't think you meant that the way that it sounded.
59
141710
2590
o “no creo que haya sido tu intención que sonara así“.
02:24
Usually when people's biases are pointed out to them
60
144300
3290
Usualmente, cuando le señalas los prejuicios a la gente,
02:27
clearly and compassionately,
61
147590
1880
de manera clara y compasiva,
02:29
they apologize and correct things going forward,
62
149470
2970
se disculpan y se corrigen en adelante.
02:32
usually, but not always.
63
152440
2330
Usualmente, pero no siempre.
02:34
- That brings us to the second step,
64
154770
1910
TB: Esto nos lleva al segundo paso:
02:36
create a shared norm for how to respond
65
156680
2710
crear una norma en común para responder
02:39
when your bias is pointed out.
66
159390
1540
cuando te señalan un prejuicio.
02:40
- When my bias is flagged,
67
160930
1480
KS: Cuando recibo una bandera,
02:42
I can only be glad that I'm learning something new
68
162410
2640
me siento contenta de aprender algo nuevo
02:45
if I can move past the shame,
69
165050
2130
solo si puedo superar la vergüenza.
02:47
I hate the idea that I've harmed someone.
70
167180
2590
Odio pensar que he lastimado a alguien.
02:49
And when I feel ashamed, I rarely respond well.
71
169770
4140
Y no suelo responder bien cuando me siento avergonzada.
02:53
So it's really helpful to have that shared norms
72
173910
2660
Así que es muy útil tener una norma en común,
02:56
so that I know what to say in those moments.
73
176570
2400
para saber qué decir en esos momentos.
02:58
- We recommend you start with,
74
178970
1530
TB: Les recomendamos comenzar con: “Gracias por señalarlo”.
03:00
thank you for pointing that out.
75
180500
1380
03:01
It took courage for that person to disrupt the bias.
76
181880
2690
La persona fue valiente al atacar el prejuicio,
03:04
So it's important to acknowledge that.
77
184570
1880
así que es importante darle crédito.
03:06
Then there are two choices on what to say next.
78
186450
2510
Luego tenemos dos opciones.
03:08
One, I get it.
79
188960
1210
Uno: decir “Lo entiendo”,
03:10
Or two, I don't get it.
80
190170
2050
o dos, “No lo entiendo.
03:12
Could you explain more after the meeting.
81
192220
2110
¿Podrías explicarme después de la reunión?”
03:14
- The other day, you and I were recording a podcast
82
194330
2740
KS: El otro día,
tú y yo estábamos grabando un podcast, y dije:
03:17
and I said, HR serves three masters
83
197070
3190
“Recursos Humanos sirve a tres amos”,
03:20
and you waved the purple flag.
84
200260
1490
y ondeaste la bandera púrpura.
03:21
I knew what I had done wrong.
85
201750
1580
Sabía en qué me había equivocado.
03:23
Why was I using a slavery metaphor?
86
203330
2470
¿Por qué usé una referencia a la esclavitud?
03:25
We hit pause, I thanked you and we rerecorded.
87
205800
3430
Pusimos pausa,
te agradecí, y volvimos a grabar.
03:29
It was no big deal.
88
209230
1170
No fue la gran cosa.
03:30
The thing I love about the purple flag
89
210400
2360
Lo que amo de la bandera púrpura es su eficiencia.
03:32
is how efficient it is.
90
212760
1590
03:34
- Flagging the bias didn't prevent us
91
214350
1430
TB: Señalar los prejuicios no evitó que trabajáramos.
03:35
from getting the work done.
92
215780
940
03:36
In fact, it helps us work together more honestly,
93
216720
2640
De hecho, así pudimos trabajar más honestamente.
03:39
it's even harder, when I don't know what I did wrong.
94
219360
2900
KS: Es más difícil cuando no sé en qué me equivoqué.
03:42
Once I asked someone out to lunch,
95
222260
2150
Una vez invité a alguien a comer.
03:44
out came the purple flag.
96
224410
1440
Y recibí la bandera púrpura.
03:45
I had no idea why.
97
225850
2640
No sabía por qué,
03:48
So I was relieved to know what to say next.
98
228490
2590
así que me alegré de saber qué decir a continuación:
03:51
Thank you for pointing it out, but I don't get it.
99
231080
2390
“Gracias por señalarlo, pero no entiendo.
03:53
Could we talk after the meeting?
100
233470
1690
¿Hablamos después de la reunión?”
03:55
Afterwards, the person reminded me
101
235160
1920
Después, la persona me recordó que estaba ayunando por el Ramadán.
03:57
that they were fasting for Ramadan.
102
237080
1930
De pronto cobró sentido para mí,
03:59
It instantly made sense to me,
103
239010
2030
y descubrí algo que debo tomar en cuenta.
04:01
and I discovered something that I could be more aware of.
104
241040
3090
Pero para llegar a esta realización, debemos superar la vergüenza.
04:04
But to get to awareness,
105
244130
1480
04:05
I had to move through shame.
106
245610
1960
04:07
It was hard to say I don't get it.
107
247570
1950
Es difícil decir: “No lo entiendo”.
04:09
The shared norm helped me listen and learn
108
249520
2740
La norma en común me ayudó a escuchar y aprender,
04:12
rather than getting defensive.
109
252260
1460
y no ponerme a la defensiva.
04:13
The fact that there was a norm at all,
110
253720
2100
El hecho de que siquiera haya una norma
04:15
reassured me that other people
111
255820
1770
me aseguró de que hay otras personas cometiendo los mismos errores
04:17
are making similar kinds of mistakes
112
257590
1780
04:19
and that we're all learning together.
113
259370
1590
y que todos estamos aprendiendo.
04:20
- Disrupting bias may start off feeling uncomfortable,
114
260960
3030
TB: Atacar los prejuicios puede ser incómodo al principio,
04:23
but with time and consistency,
115
263990
1671
pero con tiempo y constancia
04:25
we can build the stamina we need to push through it.
116
265661
2989
canalizaremos la fortaleza necesaria para erradicarlos.
04:28
When it becomes routine for us to notice our biases,
117
268650
2810
Si detectamos nuestros prejuicios de manera rutinaria,
04:31
all of a sudden they feel less threatening.
118
271460
2450
de repente se sienten menos amenazadores.
04:33
It's hard to break bias habits,
119
273910
1730
Es difícil cortar con ellos,
04:35
yet we can change the pattern with consistent effort.
120
275640
3780
pero podemos cambiar el patrón si avanzamos con pasos firmes.
04:39
- We've got to be patient with ourselves and with others.
121
279420
3070
KS: Debemos ser pacientes con nosotros y con los demás.
04:42
- Patient and also persistent.
122
282490
1629
TB: Pacientes y persistentes.
04:44
- Yeah.
123
284119
833
04:44
- Which brings us to our last step.
124
284952
1288
Lo cual nos trae al último paso.
04:46
Once the team has come up with a shared vocabulary
125
286240
2330
Ya que el equipo ha creado su vocabulario en común
04:48
and agrees on the shared norm for how to respond,
126
288570
2660
y acuerda una norma compartida para saber cómo responder,
04:51
the team should commit to disrupting bias
127
291230
1590
el equipo debe comprometerse a atacar los prejuicios en cada reunión.
04:52
at least once in every meeting.
128
292820
1650
04:54
- If bias isn't flagged in a meeting,
129
294470
1840
KS: Los prejuicios existen incluso si no son señalados en una reunión.
04:56
it doesn't mean there wasn't any bias.
130
296310
2100
04:58
It just means either nobody noticed,
131
298410
2430
Es solo que nadie los había detectado
05:00
or nobody knew what to say.
132
300840
1920
o nadie sabía qué decir.
05:02
When we are silent about bias, we reinforce it.
133
302760
4270
Si no comunicamos los prejuicios, los estamos reforzando.
Y no son sólo las víctimas de los prejuicios quienes los señalan.
05:07
And it can't be just the targets of bias who point it out.
134
307030
3850
05:10
Observers and leaders have got to speak up.
135
310880
2580
Los observadores y líderes deben alzar la voz.
05:13
We all have a responsibility.
136
313460
2010
Es responsabilidad de todos.
05:15
- By making a practice
137
315470
900
TB: Al señalar y atacar los prejuicios rápida y amablemente,
05:16
of disrupting bias quickly and kindly,
138
316370
2490
05:18
we prevent it from metastasizing into something worse,
139
318860
3050
evitamos que empeore y se convierta en algo más,
05:21
like prejudice, bullying, discrimination, or harassment.
140
321910
3320
como intolerancia, bullying,
discriminación, o abuso.
05:25
- Bias disruptors,
141
325230
1230
KS: Disruptores de prejuicios: un vocabulario en común,
05:26
a shared vocabulary,
142
326460
1290
05:27
a shared norm, and a shared commitment.
143
327750
2100
una norma y compromiso en común
05:29
Ensure that we notice and learn from the mistakes
144
329850
2810
aseguran que detectemos y aprendamos de los errores
05:32
that we are all making so that we can work better together.
145
332660
3670
que todos cometemos
para poder trabajar mejor juntos.
05:36
- When we collaborate,
146
336330
1270
TB: Si todos colaboramos,
05:37
we use our full capacity as humans
147
337600
2160
usamos nuestra capacidad humana al máximo para lograr más cosas juntos
05:39
to get more done collectively
148
339760
1820
05:41
than we could ever dream of accomplishing as individuals.
149
341580
3290
de lo que habríamos pensado lograr individualmente.
05:44
So let's stop letting bias, get in the way.
150
344870
2663
Así que evitemos que los prejuicios interfieran en ello.
05:48
(gentle piano music)
151
348627
3083
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7