How to make applying for jobs less painful | The Way We Work, a TED series

158,124 views ・ 2019-02-09

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

00:00
Applying for jobs online
0
141
1416
Traducteur: Morgane Quilfen Relecteur: Guillaume Rouy
00:01
is one of the worst digital experiences of our time.
1
1581
2616
00:04
And applying for jobs in person really isn't much better.
2
4221
2696
00:06
[The Way We Work]
3
6942
1720
00:11
Hiring as we know it is broken on many fronts.
4
11181
2456
Envoyer des candidatures en ligne
00:13
It's a terrible experience for people.
5
13661
1856
est l'une des pires expériences numériques de notre ère.
00:15
About 75 percent of people
6
15541
1816
Le faire en personne n'est pas vraiment mieux.
00:17
who applied to jobs using various methods in the past year
7
17381
2856
[Notre façon de travailler]
00:20
said they never heard anything back from the employer.
8
20261
2656
00:22
And at the company level it's not much better.
9
22941
2176
Aujourd'hui, le recrutement ne fonctionne pas.
00:25
46 percent of people get fired or quit
10
25141
2776
C'est une expérience épouvantable.
00:27
within the first year of starting their jobs.
11
27941
2176
Environ 75% des gens
ayant déposé des candidatures par diverses méthodes l'an dernier
00:30
It's pretty mind-blowing.
12
30141
1216
00:31
It's also bad for the economy.
13
31381
1456
00:32
For the first time in history,
14
32861
1456
ont dit n'avoir jamais eu de réponse de l'employeur.
00:34
we have more open jobs than we have unemployed people,
15
34341
2856
A l'échelle de l'entreprise, ce n'est pas mieux :
00:37
and to me that screams that we have a problem.
16
37221
2176
46% des gens sont virés ou démissionnent
00:39
I believe that at the crux of all of this is a single piece of paper: the résumé.
17
39421
3976
moins d'un an après avoir démarré un nouvel emploi.
C'est assez incroyable.
00:43
A résumé definitely has some useful pieces in it:
18
43421
2336
C'est mauvais pour l'économie.
00:45
what roles people have had, computer skills,
19
45781
2096
Pour la première fois,
nous avons plus de postes à pourvoir que de gens sans emploi
00:47
what languages they speak,
20
47901
1256
00:49
but what it misses is what they have the potential to do
21
49181
3056
et, à mes yeux, cela indique qu'il y a un problème.
00:52
that they might not have had the opportunity to do in the past.
22
52261
2976
Je crois que le nœud dans tout cela est un bout de papier : le CV.
00:55
And with such a quickly changing economy where jobs are coming online
23
55261
3256
Il y a des éléments utiles dans un CV :
00:58
that might require skills that nobody has,
24
58541
2056
les rôles occupés, les compétences informatiques,
01:00
if we only look at what someone has done in the past,
25
60621
2776
les langues parlées,
mais il manque ce que la personne a le potentiel de faire
01:03
we're not going to be able to match people to the jobs of the future.
26
63421
3256
et qu'elle n'a pas eu l'opportunité de faire par le passé.
01:06
So this is where I think technology can be really helpful.
27
66701
2736
Avec une économie si changeante où des emplois sont mis en ligne
01:09
You've probably seen that algorithms have gotten pretty good
28
69461
2856
et requièrent des compétences que personne n'a,
01:12
at matching people to things,
29
72341
1536
01:13
but what if we could use that same technology
30
73901
2256
si nous considérons uniquement ce que quelqu'un a fait,
nous ne pouvons pas associer des gens aux emplois de l'avenir.
01:16
to actually help us find jobs that we're really well-suited for?
31
76181
3096
01:19
But I know what you're thinking.
32
79301
1576
C'est là que je pense que la technologie peut aider.
01:20
Algorithms picking your next job sounds a little bit scary,
33
80901
2776
Vous avez probablement vu que les algorithmes sont bons
01:23
but there is one thing that has been shown
34
83701
2056
pour associer des gens et des choses.
01:25
to be really predictive of someone's future success in a job,
35
85781
2896
Et si l'on pouvait utiliser cette technologie
01:28
and that's what's called a multimeasure test.
36
88701
2136
pour nous aider à trouver un emploi auquel on est adapté ?
01:30
Multimeasure tests really aren't anything new,
37
90861
2176
Je sais ce à quoi vous pensez.
01:33
but they used to be really expensive
38
93061
1736
Un emploi choisi par algorithme, c'est plutôt effrayant,
01:34
and required a PhD sitting across from you
39
94821
2016
01:36
and answering lots of questions and writing reports.
40
96861
2456
mais nous avons démontré qu'il y a une chose
permettant de prévoir la réussite de quelqu'un dans un emploi
01:39
Multimeasure tests are a way
41
99341
1696
01:41
to understand someone's inherent traits --
42
101061
2456
et c'est un test multi-mesure.
01:43
your memory, your attentiveness.
43
103541
1776
Les tests multi-mesure ne sont pas nouveaux
mais étaient très chers auparavant
01:46
What if we could take multimeasure tests
44
106255
1942
et nécessitaient la présence d'un doctorant,
01:48
and make them scalable and accessible,
45
108221
2536
de répondre à des questions, d'écrire des rapports.
01:50
and provide data to employers about really what the traits are
46
110781
3376
Les tests multi-mesure sont une façon
de comprendre les traits fondamentaux de quelqu'un --
01:54
of someone who can make them a good fit for a job?
47
114181
2896
votre mémoire, votre attention.
01:57
This all sounds abstract.
48
117101
1296
01:58
Let's try one of the games together.
49
118421
1735
Et si nous pouvions rendre les tests multi-mesure
02:00
You're about to see a flashing circle,
50
120180
1857
évolutifs et accessibles
02:02
and your job is going to be to clap when the circle is red
51
122061
2960
et fournir aux employeurs les données sur les traits réels
02:05
and do nothing when it's green.
52
125878
1496
de quelqu'un pouvant être bien adapté pour le poste ?
02:07
[Ready?]
53
127399
1376
02:08
[Begin!]
54
128800
1360
Tout cela semble abstrait.
Essayons un des jeux ensemble.
02:11
[Green circle]
55
131301
1000
Vous allez voir un cercle clignotant
02:13
[Green circle]
56
133301
1040
et votre rôle est de taper des mains quand le cercle est rouge
02:15
[Red circle]
57
135301
1000
02:17
[Green circle]
58
137301
1080
et de ne rien faire quand il est vert.
02:19
[Red circle]
59
139301
1000
[Prêt ?]
02:21
Maybe you're the type of person
60
141521
1596
[C'est parti !]
02:23
who claps the millisecond after a red circle appears.
61
143141
2496
[Cercle vert]
02:25
Or maybe you're the type of person
62
145661
1656
[Cercle vert]
02:27
who takes just a little bit longer to be 100 percent sure.
63
147341
2735
[Cercle rouge]
[Cercle vert]
02:30
Or maybe you clap on green even though you're not supposed to.
64
150101
2936
[Cercle rouge]
02:33
The cool thing here is that this isn't like a standardized test
65
153061
2976
Vous êtes peut-être quelqu'un
qui tape des mains juste après l'apparition du rouge.
02:36
where some people are employable and some people aren't.
66
156061
2656
02:38
Instead it's about understanding the fit between your characteristics
67
158741
3256
Ou vous êtes peut-être quelqu'un
qui prend un peu plus de temps pour être tout à fait sûr.
02:42
and what would make you good a certain job.
68
162021
2016
Ou vous tapez des mains sur le vert, quand vous ne le devez pas.
02:44
We found that if you clap late on red and you never clap on the green,
69
164061
3736
Ce qui est génial c'est qu'il n'y a pas de test standardisé
02:47
you might be high in attentiveness and high in restraint.
70
167821
3176
où certains sont employables et d'autres pas.
02:51
People in that quadrant tend to be great students, great test-takers,
71
171021
3576
Il est question de comprendre l'adéquation entre vos traits
02:54
great at project management or accounting.
72
174621
2136
et ce qui vous rend bon à un poste particulier.
02:56
But if you clap immediately on red and sometimes clap on green,
73
176781
3336
Si vous tapez des mains tard sur le rouge et jamais sur le vert,
03:00
that might mean that you're more impulsive and creative,
74
180141
2656
vous avez peut-être beaucoup d'attention et de retenue.
03:02
and we've found that top-performing salespeople often embody these traits.
75
182821
3875
Dans ce quadrant, les gens sont de très bons étudiants,
participants à des examens, chefs de projets et comptables.
03:06
The way we actually use this in hiring
76
186721
2016
03:08
is we have top performers in a role go through neuroscience exercises
77
188761
3696
Si vous tapez immédiatement sur le rouge et parfois sur le vert,
03:12
like this one.
78
192481
1216
vous pouvez être plus impulsif et plus créatif
03:13
Then we develop an algorithm
79
193721
1376
03:15
that understands what makes those top performers unique.
80
195121
2656
et les meilleurs commerciaux incarnent ces traits.
03:17
And then when people apply to the job,
81
197801
1936
03:19
we're able to surface the candidates who might be best suited for that job.
82
199761
4136
Nous utilisons cela lors de l'embauche
en faisant passer de tels exercices de neuroscience
03:23
So you might be thinking there's a danger in this.
83
203921
2376
aux meilleurs dans un rôle.
03:26
The work world today is not the most diverse
84
206321
2136
Nous développons un algorithme
qui comprend ce qui rend ces personnes uniques.
03:28
and if we're building algorithms based on current top performers,
85
208481
3096
Quand les gens candidatent pour ce poste,
03:31
how do we make sure
86
211601
1216
03:32
that we're not just perpetuating the biases that already exist?
87
212841
2976
nous pouvons faire émerger les candidats les plus adaptés à ce poste.
03:35
For example, if we were building an algorithm based on top performing CEOs
88
215841
4056
Vous pensez peut-être qu'il y a un danger à cela.
Le monde où nous travaillons n'est pas diversifié
03:39
and use the S&P 500 as a training set,
89
219921
3216
et si nous créons des algorithmes grâce aux actuels meilleurs,
03:43
you would actually find
90
223161
1256
03:44
that you're more likely to hire a white man named John than any woman.
91
224441
3816
comment nous assurer
que nous ne perpétuons pas des préjugés déjà existants ?
03:48
And that's the reality of who's in those roles right now.
92
228281
2696
Par exemple, si nous créons un algorithme se basant sur les meilleurs PDG
03:51
But technology actually poses a really interesting opportunity.
93
231001
3376
et utilisant les données du S&P 500 pour l'entraîner,
03:54
We can create algorithms that are more equitable
94
234401
2256
vous découvririez
03:56
and more fair than human beings have ever been.
95
236681
2256
que vous avez plus de chances d'embaucher un homme appelé John qu'une femme.
03:58
Every algorithm that we put into production has been pretested
96
238961
3696
C'est la réalité des personnes tenant actuellement ces rôles.
04:02
to ensure that it doesn't favor any gender or ethnicity.
97
242681
3096
La technologie nous offre une opportunité très intéressante.
04:05
And if there's any population that's being overfavored,
98
245801
2736
Nous pouvons créer des algorithmes plus équitables
04:08
we can actually alter the algorithm until that's no longer true.
99
248561
3120
et plus justes que les êtres humains.
Les algorithmes produits ont été testés au préalable
04:12
When we focus on the inherent characteristics
100
252041
2216
04:14
that can make somebody a good fit for a job,
101
254281
2096
pour vérifier qu'ils ne favorisent pas un genre ou une ethnie.
04:16
we can transcend racism, classism, sexism, ageism --
102
256401
3576
Si une population est trop favorisée,
04:20
even good schoolism.
103
260001
1416
nous altérons l'algorithme pour ce que ne soit plus le cas.
04:21
Our best technology and algorithms shouldn't just be used
104
261441
2896
04:24
for helping us find our next movie binge or new favorite Justin Bieber song.
105
264361
3736
En nous concentrant sur les traits fondamentaux
faisant que quelqu'un est adapté à un poste,
04:28
Imagine if we could harness the power of technology
106
268121
2656
nous transcendons le racisme, le classisme, le sexisme, l'âgisme --
04:30
to get real guidance on what we should be doing
107
270801
2296
même l'éducationnisme.
04:33
based on who we are at a deeper level.
108
273121
1936
Nos meilleurs technologie et algorithmes ne devraient pas être utilisés
juste pour trouver un film ou une chanson de Justin Bieber.
Imaginez si nous pouvions tirer profit de la technologie
pour obtenir des conseils sur ce que nous devrions faire
selon notre identité profonde.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7