How to reduce bias in your workplace | The Way We Work, a TED series

178,372 views ・ 2021-10-25

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

00:00
- We all have our biases,
0
520
1790
Traduttore: Mara Vercillo Revisore: Agnese Giacomelli
Kim Scott: Tutti abbiamo dei preconcetti,
00:02
the set of assumptions that we make,
1
2310
1860
una serie di supposizioni che facciamo e le cose che non notiamo
00:04
and the things we don't notice
2
4170
2010
00:06
about people's race, gender, religion, sexual orientation,
3
6180
4230
riguardo a razza, genere, religione
orientamento sessuale, aspetto e altri tratti delle persone.
00:10
appearance, and other traits.
4
10410
1680
00:12
They come from the part of our mind
5
12090
2240
Provengono dalla parte della nostra mente che salta alle conclusioni
00:14
that jumps to conclusions
6
14330
1610
00:15
that we might not even be aware that we have.
7
15940
2750
e che probabilmente neppure ci rendiamo conto di avere.
00:18
- I really can't tell you the number of times people assumed
8
18690
2340
Trier Bryant: Non so dirvi quante volte
la gente ha dato per scontato che fossi una receptionist
00:21
I was the receptionist
9
21030
1650
00:22
when I was an executive at the company.
10
22680
2460
e invece ero una dirigente dell’azienda.
00:25
- That kind of bias gets in the way of good collaboration,
11
25140
3640
Questo genere di preconcetti ostacola la collaborazione,
00:28
performance, and decision-making.
12
28780
2150
il rendimento e le decisioni da prendere.
00:30
- It creates an invisible tax of resentment and frustration.
13
30930
3240
TB: Crea un fardello invisibile di risentimento e frustrazione.
00:34
The more frustrated we are,
14
34170
1700
Più siamo frustrati, più tendiamo a stare in silenzio.
00:35
the more silent we are likely to be.
15
35870
1700
00:37
And the more silent we are,
16
37570
1200
E più stiamo in silenzio,
00:38
the less we may be able to do our best work.
17
38770
2240
meno possiamo fare al meglio il nostro lavoro.
00:41
The good news though is,
18
41010
1630
La buona notizia, però, è che i preconcetti non sono inevitabili.
00:42
bias is not inevitable.
19
42640
1783
[Il modo in cui lavoriamo]
00:48
So here's how to disrupt bias in three steps.
20
48310
2740
TB: Ecco come scardinare i preconcetti in tre mosse.
00:51
The first step is to create a shared vocabulary.
21
51050
3330
Il primo passo è creare un vocabolario comune.
00:54
Sometimes bias shows up in big embarrassing gaffes,
22
54380
3100
A volte i preconcetti si palesano in grosse gaffe imbarazzanti,
00:57
but more often it comes out
23
57480
1410
ma più spesso vengono fuori da piccole parole ed espressioni che scegliamo,
00:58
in the little words and phrases we choose,
24
58890
2270
01:01
which are packed with assumptions.
25
61160
1860
che sono cariche di supposizioni.
01:03
In meetings especially, these often go unnoticed
26
63020
2960
Specialmente nelle riunioni, spesso passano inosservate, o peggio,
01:05
or even worse, people notice, but don't know what to say.
27
65980
4250
la gente le nota ma non sa cosa dire.
01:10
That's why we recommend coming up with a shared word
28
70230
2220
Per questo suggeriamo di scegliere una parola o espressione condivisa
01:12
or phrase that everyone agrees to use
29
72450
2230
che tutti accettino di usare per bloccare comportamenti e atteggiamenti prevenuti.
01:14
to disrupt bias, attitudes or behaviors.
30
74680
2730
01:17
Examples teams are using our bias alert, stoplight,
31
77410
3550
Esempi di espressione usate dai team sono “allarme preconcetto” o “stop”
01:20
or even throwing up a peace sign.
32
80960
1590
o anche fare il segno della pace.
01:22
- Leaders often ask us to give them the right words,
33
82550
3450
KS: I leader spesso ci chiedono di dargli le “parole esatte”,
01:26
but the best words are the ones your team will actually say,
34
86000
3520
ma le parole più esatte sono quelle che il team userà davvero,
01:29
not the ones that leaders impose.
35
89520
1890
non quelle imposte dai leader.
01:31
So talk to your team.
36
91410
1730
Quindi parla con il tuo team.
01:33
My very favorite is the one that you recommended Trier,
37
93140
3690
La mia preferita è quella raccomandata da te, Trier:
01:36
purple flag.
38
96830
1280
“bandiera viola”.
01:38
When someone says or does something biased,
39
98110
2500
Quando qualcuno fa o dice qualcosa di prevenuto,
01:40
we'll say purple flag,
40
100610
1450
diremo “bandiera viola”.
01:42
and maybe we'll even waive a purple flag.
41
102060
3000
Magari sventolando anche una bandiera viola.
01:45
It's not a red flag, it's a friendly purple flag.
42
105060
3240
Non è una bandiera rossa.
Solo un’amichevole bandiera viola.
01:48
- It helps us become more aware of our blind spots.
43
108300
3000
TB: Questo ci fa essere più consapevoli dei nostri punti ciechi.
01:51
- Purple flag. - Purple flag.
44
111300
1500
KS: Bandiera viola.
TB: Bandiera viola.
01:53
Thanks for pointing that out.
45
113670
1110
Grazie per averlo segnalato.
01:54
I've been noticing lately I use a lot of sight metaphors
46
114780
2580
Di recente ho notato che utilizzo spesso metafore sulla vista
01:57
that often portray disabilities like being visually impaired
47
117360
2770
che dipingono le disabilità, come essere ipovedenti,
02:00
in negative ways,
48
120130
1410
in maniera negativa.
02:01
but I'm committed to doing better and working on it.
49
121540
2400
Ma mi impegno a migliorare e lavoraci su.
02:03
- I am too.
50
123940
1280
KS: Anche io.
02:05
Another great shared vocabulary trick
51
125220
2530
Un altro trucco per il vocabolario comune è chiedere ai membri del tuo team
02:07
is to ask members of your team to respond to bias
52
127750
2670
di rispondere ai pregiudizi con un “I statement”.
02:10
with an I statement.
53
130420
1310
02:11
An I statement invites the other person in
54
131730
2860
Un “I statement” invita l’altra persona
02:14
to understand things from your perspective
55
134590
1790
a capire le cose dalla tua prospettiva anziché criticarla.
02:16
rather than calling them out.
56
136380
1540
02:17
Like, I don't think you're going to take me seriously
57
137920
2610
Come “Non penso che tu mi prenda sul serio
02:20
when you're calling me honey.
58
140530
1180
chiamandomi tesoro”,
02:21
Or I don't think you meant that the way that it sounded.
59
141710
2590
O, “Penso che non intendessi quello che hai detto”.
02:24
Usually when people's biases are pointed out to them
60
144300
3290
Di solito, quando alle persone vengono fatti presente i loro preconcetti
02:27
clearly and compassionately,
61
147590
1880
in modo chiaro e compassionevole
02:29
they apologize and correct things going forward,
62
149470
2970
si scusano e correggono le cose andando avanti.
02:32
usually, but not always.
63
152440
2330
Di solito, ma non sempre.
02:34
- That brings us to the second step,
64
154770
1910
TB: Questo ci porta al secondo passo:
02:36
create a shared norm for how to respond
65
156680
2710
create una norma condivisa su come rispondere
02:39
when your bias is pointed out.
66
159390
1540
quando ci segnalano dei preconcetti.
02:40
- When my bias is flagged,
67
160930
1480
KS: Quando mi segnalano dei preconcetti,
02:42
I can only be glad that I'm learning something new
68
162410
2640
posso essere contento di imparare una cosa nuova
02:45
if I can move past the shame,
69
165050
2130
solo se riesco a superare la vergona.
02:47
I hate the idea that I've harmed someone.
70
167180
2590
Odio il pensiero di aver ferito qualcuno.
02:49
And when I feel ashamed, I rarely respond well.
71
169770
4140
E quando provo vergogna, di rado rispondo bene.
02:53
So it's really helpful to have that shared norms
72
173910
2660
Perciò è molto utile avere una norma comune
02:56
so that I know what to say in those moments.
73
176570
2400
per sapere cosa dire in quei momenti.
02:58
- We recommend you start with,
74
178970
1530
TB: Vi consigliamo di iniziare con: “Grazie per averlo fatto presente”.
03:00
thank you for pointing that out.
75
180500
1380
03:01
It took courage for that person to disrupt the bias.
76
181880
2690
Ha richiesto coraggio per la persona scardinare il preconcetto,
03:04
So it's important to acknowledge that.
77
184570
1880
quindi è importante riconoscerglielo.
03:06
Then there are two choices on what to say next.
78
186450
2510
Poi ci sono due opzioni su cosa dire dopo.
03:08
One, I get it.
79
188960
1210
Uno, “Ho capito”,
03:10
Or two, I don't get it.
80
190170
2050
o due, “Non ho capito.
03:12
Could you explain more after the meeting.
81
192220
2110
Potresti spiegarmi meglio dopo la riunione?”
03:14
- The other day, you and I were recording a podcast
82
194330
2740
KS: L’altro giorno
io e te stavamo registrando un podcast e io ho detto,
03:17
and I said, HR serves three masters
83
197070
3190
“HR è servo di tre padroni,”
03:20
and you waved the purple flag.
84
200260
1490
e tu hai sventolato la bandiera viola.
03:21
I knew what I had done wrong.
85
201750
1580
Sapevo di aver sbagliato.
03:23
Why was I using a slavery metaphor?
86
203330
2470
Perché avevo usato una metafora sulla schiavitù?
03:25
We hit pause, I thanked you and we rerecorded.
87
205800
3430
Abbiamo messo pausa,
ti ho ringraziata, e abbiamo registrato di nuovo.
03:29
It was no big deal.
88
209230
1170
Non era niente di grave.
03:30
The thing I love about the purple flag
89
210400
2360
La cosa che amo della bandiera viola è la sua efficienza.
03:32
is how efficient it is.
90
212760
1590
03:34
- Flagging the bias didn't prevent us
91
214350
1430
TB: Segnalare il preconcetto non ci ha impedito di finire il lavoro.
03:35
from getting the work done.
92
215780
940
03:36
In fact, it helps us work together more honestly,
93
216720
2640
Anzi ci ha aiutate a lavorare insieme con più onesta.
03:39
it's even harder, when I don't know what I did wrong.
94
219360
2900
KS: È anche più dura quando non so cosa ho sbagliato.
03:42
Once I asked someone out to lunch,
95
222260
2150
Una volta ho invitato qualcuno a pranzo.
03:44
out came the purple flag.
96
224410
1440
È spuntata la bandiera viola.
03:45
I had no idea why.
97
225850
2640
Non avevo idea del perché
03:48
So I was relieved to know what to say next.
98
228490
2590
ed ero sollevata di sapere cosa dire dopo.
03:51
Thank you for pointing it out, but I don't get it.
99
231080
2390
“Grazie per averlo fatto presente, ma non ho capito.
03:53
Could we talk after the meeting?
100
233470
1690
Potremmo parlarne dopo la riunione?”
03:55
Afterwards, the person reminded me
101
235160
1920
Dopo, quella persona mi ha ricordato che digiunavano per il Ramadan.
03:57
that they were fasting for Ramadan.
102
237080
1930
Mi è stato subito chiaro,
03:59
It instantly made sense to me,
103
239010
2030
04:01
and I discovered something that I could be more aware of.
104
241040
3090
e ho scoperto una cosa su cui potrei avere più consapevolezza.
04:04
But to get to awareness,
105
244130
1480
Ma per arrivare alla consapevolezza ho dovuto superare la vergogna.
04:05
I had to move through shame.
106
245610
1960
04:07
It was hard to say I don't get it.
107
247570
1950
È stata dura dire, “Non ho capito.”
04:09
The shared norm helped me listen and learn
108
249520
2740
La norma comune mi ha aiutata ad ascoltare e imparare
04:12
rather than getting defensive.
109
252260
1460
anziché mettermi sulla difensiva.
04:13
The fact that there was a norm at all,
110
253720
2100
Il fatto stesso che ci fosse una norma
04:15
reassured me that other people
111
255820
1770
mi ha rassicurata perché ci sono altre persone che fanno errori simili
04:17
are making similar kinds of mistakes
112
257590
1780
04:19
and that we're all learning together.
113
259370
1590
e stiamo imparando tutti insieme.
04:20
- Disrupting bias may start off feeling uncomfortable,
114
260960
3030
TB: Scardinare i preconcetti all’inizio può mettere a disagio,
04:23
but with time and consistency,
115
263990
1671
ma con tempo e costanza
04:25
we can build the stamina we need to push through it.
116
265661
2989
possiamo costruire le basi necessarie per farlo accettare.
04:28
When it becomes routine for us to notice our biases,
117
268650
2810
Quando notare i nostri pregiudizi diventa una consuetudine,
04:31
all of a sudden they feel less threatening.
118
271460
2450
all’improvviso sembrano meno minacciosi.
04:33
It's hard to break bias habits,
119
273910
1730
È difficile cambiare abitudini
04:35
yet we can change the pattern with consistent effort.
120
275640
3780
eppure possiamo cambiare lo schema con uno sforzo costante.
04:39
- We've got to be patient with ourselves and with others.
121
279420
3070
KS: Dobbiamo essere pazienti con noi stessi e con gli altri.
04:42
- Patient and also persistent.
122
282490
1629
TB: Pazienti e anche persistenti.
04:44
- Yeah.
123
284119
833
04:44
- Which brings us to our last step.
124
284952
1288
Il che ci porta al nostro ultimo passo.
04:46
Once the team has come up with a shared vocabulary
125
286240
2330
Dopo che il team ha scelto un vocabolario comune
04:48
and agrees on the shared norm for how to respond,
126
288570
2660
e ha accettato una norma comune per rispondere,
04:51
the team should commit to disrupting bias
127
291230
1590
il team deve impegnarsi a scardinare almeno un preconcetto ad ogni riunione.
04:52
at least once in every meeting.
128
292820
1650
04:54
- If bias isn't flagged in a meeting,
129
294470
1840
KS: Se nessun pregiudizio è stato notato in riunione, non significa che non c’erano
04:56
it doesn't mean there wasn't any bias.
130
296310
2100
04:58
It just means either nobody noticed,
131
298410
2430
Significa solo che o nessuno li ha notati
05:00
or nobody knew what to say.
132
300840
1920
oppure nessuno sapeva cosa dire.
05:02
When we are silent about bias, we reinforce it.
133
302760
4270
Quando stiamo zitti sui preconcetti, li rinforziamo.
05:07
And it can't be just the targets of bias who point it out.
134
307030
3850
E non può essere solo chi li subisce a farli notare.
05:10
Observers and leaders have got to speak up.
135
310880
2580
Osservatori e leader devono farsi sentire.
05:13
We all have a responsibility.
136
313460
2010
Tutti abbiamo una responsabilità.
05:15
- By making a practice
137
315470
900
TB: Prendere l’abitudine di scardinare i pregiudizi in modo rapido e cordiale
05:16
of disrupting bias quickly and kindly,
138
316370
2490
05:18
we prevent it from metastasizing into something worse,
139
318860
3050
evita che si trasformino in qualcosa di peggio,
05:21
like prejudice, bullying, discrimination, or harassment.
140
321910
3320
tipo pregiudizi, bullismo,
discriminazione e molestie.
05:25
- Bias disruptors,
141
325230
1230
KS: A voi che scardinate preconcetti: un vocabolario comune,
05:26
a shared vocabulary,
142
326460
1290
05:27
a shared norm, and a shared commitment.
143
327750
2100
una norma comune e un impegno comune
05:29
Ensure that we notice and learn from the mistakes
144
329850
2810
fanno si che vengano notati e che si impari dagli errori che tutti commettiamo
05:32
that we are all making so that we can work better together.
145
332660
3670
così da poter lavorare meglio insieme.
05:36
- When we collaborate,
146
336330
1270
TB: Quando collaboriamo,
05:37
we use our full capacity as humans
147
337600
2160
usiamo a pieno la capacità degli umani di fare collettivamente più
05:39
to get more done collectively
148
339760
1820
05:41
than we could ever dream of accomplishing as individuals.
149
341580
3290
di quanto potremmo mai sognare di fare individualmente.
05:44
So let's stop letting bias, get in the way.
150
344870
2663
Quindi non facciamoci ostacolare dai preconcetti.
05:48
(gentle piano music)
151
348627
3083
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7