How to make applying for jobs less painful | The Way We Work, a TED series

158,124 views ・ 2019-02-09

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

00:00
Applying for jobs online
0
141
1416
Vertaald door: Dick Stada
00:01
is one of the worst digital experiences of our time.
1
1581
2616
00:04
And applying for jobs in person really isn't much better.
2
4221
2696
00:06
[The Way We Work]
3
6942
1720
00:11
Hiring as we know it is broken on many fronts.
4
11181
2456
Online solliciteren
00:13
It's a terrible experience for people.
5
13661
1856
is een van de ergste digitale ervaringen van deze tijd.
00:15
About 75 percent of people
6
15541
1816
En persoonlijk solliciteren is eigenlijk niet veel beter.
00:17
who applied to jobs using various methods in the past year
7
17381
2856
[Hoe we werken]
00:20
said they never heard anything back from the employer.
8
20261
2656
00:22
And at the company level it's not much better.
9
22941
2176
Werven gaat tegenwoordig op veel fronten slecht.
00:25
46 percent of people get fired or quit
10
25141
2776
Men ervaart het als vervelend.
00:27
within the first year of starting their jobs.
11
27941
2176
Zo'n 75% van de mensen
die vorig jaar solliciteerden met verschillende methoden
00:30
It's pretty mind-blowing.
12
30141
1216
00:31
It's also bad for the economy.
13
31381
1456
00:32
For the first time in history,
14
32861
1456
zeiden dat ze nooit iets terughoorden van de werkgever.
00:34
we have more open jobs than we have unemployed people,
15
34341
2856
Op bedrijfsniveau is het niet veel beter.
00:37
and to me that screams that we have a problem.
16
37221
2176
46% van de mensen wordt ontslagen of neemt ontslag
00:39
I believe that at the crux of all of this is a single piece of paper: the résumé.
17
39421
3976
binnen een jaar.
Nogal schokkend.
00:43
A résumé definitely has some useful pieces in it:
18
43421
2336
En ook slecht voor de economie.
00:45
what roles people have had, computer skills,
19
45781
2096
Voor het eerst zijn er meer vacatures dan werklozen.
00:47
what languages they speak,
20
47901
1256
00:49
but what it misses is what they have the potential to do
21
49181
3056
Het is me duidelijk dat er een probleem is.
Ik geloof dat de crux hiervan een enkel vel papier is: het cv.
00:52
that they might not have had the opportunity to do in the past.
22
52261
2976
00:55
And with such a quickly changing economy where jobs are coming online
23
55261
3256
Een cv heeft zeker wat bruikbare onderdelen:
00:58
that might require skills that nobody has,
24
58541
2056
eerder vervulde banen, computervaardigheden,
01:00
if we only look at what someone has done in the past,
25
60621
2776
welke talen men spreekt,
maar er ontbreekt welke potentie men heeft,
01:03
we're not going to be able to match people to the jobs of the future.
26
63421
3256
maar misschien nooit de kans heeft gekregen om te doen.
01:06
So this is where I think technology can be really helpful.
27
66701
2736
Als we met een snel veranderende economie, waarin banen online komen
01:09
You've probably seen that algorithms have gotten pretty good
28
69461
2856
die vaardigheden vereisen die niemand heeft,
01:12
at matching people to things,
29
72341
1536
01:13
but what if we could use that same technology
30
73901
2256
en alleen kijken naar wat iemand eerder heeft gedaan,
kunnen we geen mensen koppelen aan toekomstige banen.
01:16
to actually help us find jobs that we're really well-suited for?
31
76181
3096
Ik denk dat technologie hier heel behulpzaam bij kan zijn.
01:19
But I know what you're thinking.
32
79301
1576
01:20
Algorithms picking your next job sounds a little bit scary,
33
80901
2776
Je hebt waarschijnlijk gemerkt dat algoritmes goed zijn
01:23
but there is one thing that has been shown
34
83701
2056
in het koppelen van mensen aan dingen.
01:25
to be really predictive of someone's future success in a job,
35
85781
2896
Als we die technologie nou eens konden gebruiken
01:28
and that's what's called a multimeasure test.
36
88701
2136
bij het vinden van banen waar we echt geschikt voor zijn?
01:30
Multimeasure tests really aren't anything new,
37
90861
2176
Ik weet wat je denkt.
Algoritmes je nieuwe baan laten kiezen klinkt wat eng,
01:33
but they used to be really expensive
38
93061
1736
01:34
and required a PhD sitting across from you
39
94821
2016
maar er is één ding waarvan is aangetoond
01:36
and answering lots of questions and writing reports.
40
96861
2456
om iemands succes in een baan goed te voorspellen
01:39
Multimeasure tests are a way
41
99341
1696
en dat is de multimeting-test.
01:41
to understand someone's inherent traits --
42
101061
2456
Multimeting-testen zijn niet echt nieuw,
01:43
your memory, your attentiveness.
43
103541
1776
maar ze waren vroeger heel duur,
01:46
What if we could take multimeasure tests
44
106255
1942
en vereisten een afgestudeerd interviewer
01:48
and make them scalable and accessible,
45
108221
2536
en veel vragen en schriftelijke rapporten.
01:50
and provide data to employers about really what the traits are
46
110781
3376
Een multimeting-test is een manier
om iemands inherente eigenschappen te begrijpen --
01:54
of someone who can make them a good fit for a job?
47
114181
2896
je geheugen, je oplettendheid.
01:57
This all sounds abstract.
48
117101
1296
01:58
Let's try one of the games together.
49
118421
1735
Als multimeting-testen nou eens schaalbaar en toegankelijk waren,
02:00
You're about to see a flashing circle,
50
120180
1857
02:02
and your job is going to be to clap when the circle is red
51
122061
2960
en data leverden aan werkgevers over wat de eigenschappen zijn
02:05
and do nothing when it's green.
52
125878
1496
van iemand die ze een goede kandidaat voor een baan maken?
02:07
[Ready?]
53
127399
1376
02:08
[Begin!]
54
128800
1360
Dit alles klinkt abstract.
We doen een spelletje.
02:11
[Green circle]
55
131301
1000
Je ziet zo een knipperende cirkel,
02:13
[Green circle]
56
133301
1040
en jij moet klappen als de cirkel rood is
02:15
[Red circle]
57
135301
1000
02:17
[Green circle]
58
137301
1080
en niks te doen als hij groen is.
02:19
[Red circle]
59
139301
1000
[Klaar?]
02:21
Maybe you're the type of person
60
141521
1596
[Start!]
02:23
who claps the millisecond after a red circle appears.
61
143141
2496
[Groene cirkel]
02:25
Or maybe you're the type of person
62
145661
1656
[Groene cirkel]
02:27
who takes just a little bit longer to be 100 percent sure.
63
147341
2735
[Rode cirkel]
[Groene cirkel]
02:30
Or maybe you clap on green even though you're not supposed to.
64
150101
2936
[Rode cirkel]
02:33
The cool thing here is that this isn't like a standardized test
65
153061
2976
Misschien klap jij een milliseconde nadat de rode cirkel verschijnt.
02:36
where some people are employable and some people aren't.
66
156061
2656
02:38
Instead it's about understanding the fit between your characteristics
67
158741
3256
Of misschien ben je iemand
die net iets langer nodig heeft om 100% zeker te zijn.
02:42
and what would make you good a certain job.
68
162021
2016
Of misschien klap je op groen terwijl dat niet moet.
02:44
We found that if you clap late on red and you never clap on the green,
69
164061
3736
Het leuke is dat dit geen gestandaardiseerde test is
02:47
you might be high in attentiveness and high in restraint.
70
167821
3176
waarbij sommigen inzetbaar zijn en anderen niet.
Maar het gaat over het begrijpen van het passen van jouw karakter
02:51
People in that quadrant tend to be great students, great test-takers,
71
171021
3576
bij wat je goed maakt in een bepaalde baan.
02:54
great at project management or accounting.
72
174621
2136
Het bleek dat als je laat klapt bij rood en je nooit klapt bij groen,
02:56
But if you clap immediately on red and sometimes clap on green,
73
176781
3336
03:00
that might mean that you're more impulsive and creative,
74
180141
2656
je mogelijk erg oplettend en terughoudend bent.
03:02
and we've found that top-performing salespeople often embody these traits.
75
182821
3875
Mensen in dat kwadrant zijn vaak geweldige studenten, goed in examens,
03:06
The way we actually use this in hiring
76
186721
2016
goed in projectmanagement of boekhouding.
03:08
is we have top performers in a role go through neuroscience exercises
77
188761
3696
Maar als je direct klapt bij rood en soms bij groen,
03:12
like this one.
78
192481
1216
kan dat betekenen dat je impulsiever en creatiever bent,
03:13
Then we develop an algorithm
79
193721
1376
03:15
that understands what makes those top performers unique.
80
195121
2656
en we vonden dat topverkopers vaak die eigenschappen bezitten.
03:17
And then when people apply to the job,
81
197801
1936
03:19
we're able to surface the candidates who might be best suited for that job.
82
199761
4136
Dit gebruiken we bij het werven
door top-presteerders in een baan neurowetenschappelijke oefeningen te geven
03:23
So you might be thinking there's a danger in this.
83
203921
2376
zoals deze.
Dan maken we een algoritme
03:26
The work world today is not the most diverse
84
206321
2136
dat begrijpt wat die top-presteerders uniek maakt.
03:28
and if we're building algorithms based on current top performers,
85
208481
3096
En als mensen dan solliciteren,
03:31
how do we make sure
86
211601
1216
03:32
that we're not just perpetuating the biases that already exist?
87
212841
2976
kunnen we de kandidaten identificeren die het meest geschikt zijn voor die baan.
03:35
For example, if we were building an algorithm based on top performing CEOs
88
215841
4056
Je denkt nu misschien dat hier een gevaar in schuilt.
Werk is tegenwoordig niet erg divers.
03:39
and use the S&P 500 as a training set,
89
219921
3216
Als we algoritmes bouwen gebaseerd op top-presteerders van nu,
03:43
you would actually find
90
223161
1256
hoe voorkomen we dan dat we vooroordelen in stand houden
03:44
that you're more likely to hire a white man named John than any woman.
91
224441
3816
die al bestaan?
Als we bijvoorbeeld een algoritme bouwen gebaseerd op top-CEO's
03:48
And that's the reality of who's in those roles right now.
92
228281
2696
03:51
But technology actually poses a really interesting opportunity.
93
231001
3376
en de S&P 500 gebruiken als trainingsset,
03:54
We can create algorithms that are more equitable
94
234401
2256
zul je zien dat je eerder
03:56
and more fair than human beings have ever been.
95
236681
2256
een blanke man genaamd John aanneemt dan een vrouw.
03:58
Every algorithm that we put into production has been pretested
96
238961
3696
En dat is de realiteit van wie er nu die banen hebben.
04:02
to ensure that it doesn't favor any gender or ethnicity.
97
242681
3096
Maar technologie biedt een hele interessante kans.
04:05
And if there's any population that's being overfavored,
98
245801
2736
We kunnen rechtvaardigere algoritmes maken
04:08
we can actually alter the algorithm until that's no longer true.
99
248561
3120
en eerlijker dan mensen ooit zijn geweest.
Elk algoritme dat we in productie nemen,
04:12
When we focus on the inherent characteristics
100
252041
2216
is vooraf getest om te zorgen
04:14
that can make somebody a good fit for a job,
101
254281
2096
dat het geen geslacht of etniciteit bevoordeelt.
04:16
we can transcend racism, classism, sexism, ageism --
102
256401
3576
En als er een groep wordt bevoordeeld,
04:20
even good schoolism.
103
260001
1416
kunnen we het algoritme aanpassen totdat dit niet meer zo is.
04:21
Our best technology and algorithms shouldn't just be used
104
261441
2896
04:24
for helping us find our next movie binge or new favorite Justin Bieber song.
105
264361
3736
Als we ons richten op inherente eigenschappen
die iemand geschikt maken voor een baan,
04:28
Imagine if we could harness the power of technology
106
268121
2656
kunnen we discriminatie naar ras, klasse, geslacht, leeftijd --
04:30
to get real guidance on what we should be doing
107
270801
2296
en zelfs opleiding voorkomen.
04:33
based on who we are at a deeper level.
108
273121
1936
De beste techniek en algoritmes moet je niet alleen gebruiken
om een film of een nieuw Justin Biebernummer te vinden.
Stel dat we de kracht van technologie inzetten
om ons echt te helpen bij wat we moeten doen
op basis van wie we diep vanbinnen zijn.
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7