How to make applying for jobs less painful | The Way We Work, a TED series

153,055 views ・ 2019-02-09

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

00:00
Applying for jobs online
0
141
1416
Μετάφραση: Vasilis Moschopoulos Επιμέλεια: Chryssa R. Takahashi
00:01
is one of the worst digital experiences of our time.
1
1581
2616
00:04
And applying for jobs in person really isn't much better.
2
4221
2696
00:06
[The Way We Work]
3
6942
1720
00:11
Hiring as we know it is broken on many fronts.
4
11181
2456
Το να κάνετε αιτήσεις για εργασία διαδικτυακά
00:13
It's a terrible experience for people.
5
13661
1856
είναι από τις χειρότερες εμπειρίες.
00:15
About 75 percent of people
6
15541
1816
Το να κάνετε αιτήσεις αυτοπροσώπως δεν είναι και πολύ καλύτερο.
00:17
who applied to jobs using various methods in the past year
7
17381
2856
[Ο τρόπος που δουλεύουμε]
00:20
said they never heard anything back from the employer.
8
20261
2656
00:22
And at the company level it's not much better.
9
22941
2176
Η πρόσληψη όπως την ξέρουμε έχει πολλές δυσκολίες.
00:25
46 percent of people get fired or quit
10
25141
2776
Είναι από τις χειρότερες εμπειρίες.
00:27
within the first year of starting their jobs.
11
27941
2176
Περίπου 75% των ανθρώπων
που αιτούνται δουλειά χρησιμοποιώντας διάφορες μεθόδους τον τελευταίο χρόνο
00:30
It's pretty mind-blowing.
12
30141
1216
00:31
It's also bad for the economy.
13
31381
1456
00:32
For the first time in history,
14
32861
1456
μας είπαν ότι δεν πήραν ποτέ απάντηση.
00:34
we have more open jobs than we have unemployed people,
15
34341
2856
Αλλά και στις εταιρίες τα πράγματα δεν είναι καλύτερα.
00:37
and to me that screams that we have a problem.
16
37221
2176
Το 46% των ανθρώπων, απολύονται ή παραιτούνται
00:39
I believe that at the crux of all of this is a single piece of paper: the résumé.
17
39421
3976
μέσα στον πρώτο χρόνο που αρχίζουν δουλειά.
Είναι σοκαριστικό.
00:43
A résumé definitely has some useful pieces in it:
18
43421
2336
Είναι επίσης κακό για την οικονομία.
00:45
what roles people have had, computer skills,
19
45781
2096
Για πρώτη φορά στην ιστορία,
έχουμε περισσότερες θέσεις εργασίας απ' ό,τι ανέργους
00:47
what languages they speak,
20
47901
1256
00:49
but what it misses is what they have the potential to do
21
49181
3056
και για μένα αυτό δείχνει ότι υπάρχει πρόβλημα.
Θεωρώ ότι η ουσία του προβλήματος συνοψίζεται σε ένα χαρτί: το βιογραφικό.
00:52
that they might not have had the opportunity to do in the past.
22
52261
2976
00:55
And with such a quickly changing economy where jobs are coming online
23
55261
3256
Το βιογραφικό αναμφίβολα έχει ωφέλιμα χαρακτηριστικά:
00:58
that might require skills that nobody has,
24
58541
2056
προϋπηρεσία, ηλεκτρονικές δεξιότητες,
01:00
if we only look at what someone has done in the past,
25
60621
2776
ξένες γλώσσες,
αλλά αυτό που λείπει, είναι ποιες είναι οι δυνατότητες του ατόμου
01:03
we're not going to be able to match people to the jobs of the future.
26
63421
3256
που ίσως δεν είχαν την ευκαιρία να κάνουν στο παρελθόν.
01:06
So this is where I think technology can be really helpful.
27
66701
2736
Με την ταχύτητα που αλλάζει η οικονομία
01:09
You've probably seen that algorithms have gotten pretty good
28
69461
2856
όπου οι θέσεις εργασίας γίνονται διαδικτυακές
που ίσως απαιτούν δεξιότητες που δεν έχει κανένας,
01:12
at matching people to things,
29
72341
1536
01:13
but what if we could use that same technology
30
73901
2256
εάν κοιτάξουμε μόνο την προϋπηρεσία,
δεν θα μπορούμε να βρούμε άτομα με τις θέσεις εργασίας του μέλλοντος.
01:16
to actually help us find jobs that we're really well-suited for?
31
76181
3096
Εδώ νομίζω ότι μπορούμε να αξιοποιήσουμε την τεχνολογία.
01:19
But I know what you're thinking.
32
79301
1576
01:20
Algorithms picking your next job sounds a little bit scary,
33
80901
2776
Πιθανότατα ξέρετε ότι οι αλγόριθμοι έχουν βελτιωθεί σημαντικά
01:23
but there is one thing that has been shown
34
83701
2056
στο να συνδέουν ανθρώπους σε πράγματα,
01:25
to be really predictive of someone's future success in a job,
35
85781
2896
αλλά εάν χρησιμοποιούσαμε την ίδια τεχνολογία
01:28
and that's what's called a multimeasure test.
36
88701
2136
στο να βρούμε δουλειές στις οποίες ταιριάζουμε;
01:30
Multimeasure tests really aren't anything new,
37
90861
2176
Ξέρω τι σκέφτεστε.
Ακούγεται λίγο τρομακτικό οι αλγόριθμοι να επιλέγουν την επόμενη δουλειά σας,
01:33
but they used to be really expensive
38
93061
1736
01:34
and required a PhD sitting across from you
39
94821
2016
01:36
and answering lots of questions and writing reports.
40
96861
2456
αλλά υπάρχει κάτι που έχει δείξει
ότι προβλέπει τη μελλοντική επιτυχία στην εργασία,
01:39
Multimeasure tests are a way
41
99341
1696
και αυτό λέγεται πολύμετρο τεστ.
01:41
to understand someone's inherent traits --
42
101061
2456
Τα πολύμετρα τεστ δεν είναι κάτι καινούριο,
01:43
your memory, your attentiveness.
43
103541
1776
αλλά ήτανε πολύ ακριβά
01:46
What if we could take multimeasure tests
44
106255
1942
και ήταν απαραίτητο ένας διδάκτορας να είναι παρών
01:48
and make them scalable and accessible,
45
108221
2536
και να απαντάει πολλές ερωτήσεις και να κάνει αναφορές.
01:50
and provide data to employers about really what the traits are
46
110781
3376
Τα πολύμετρα τεστ είναι ένας τρόπος
να καταλάβουμε τα εγγενή χαρακτηριστικά κάποιου --
01:54
of someone who can make them a good fit for a job?
47
114181
2896
τη μνήμη, την προσήλωση.
01:57
This all sounds abstract.
48
117101
1296
01:58
Let's try one of the games together.
49
118421
1735
Εάν μπορούσαμε να κάνουμε πολύμετρα τεστ
02:00
You're about to see a flashing circle,
50
120180
1857
και τα κάναμε κλιμακωτά και προσβάσιμα
02:02
and your job is going to be to clap when the circle is red
51
122061
2960
ώστε να δώσουμε στοιχεία στους εργοδότες για τα πραγματικά χαρακτηριστικά κάποιου
02:05
and do nothing when it's green.
52
125878
1496
που μπορεί να είναι πραγματικά καλός για μια δουλειά.
02:07
[Ready?]
53
127399
1376
02:08
[Begin!]
54
128800
1360
Όλα αυτά ακούγονται περίεργα.
Ας δοκιμάσουμε ένα παιχνίδι.
02:11
[Green circle]
55
131301
1000
Θα δείτε έναν κύκλο που αναβοσβήνει,
02:13
[Green circle]
56
133301
1040
θα πρέπει να χτυπάτε παλαμάκια όταν ο κύκλος είναι κόκκινος
02:15
[Red circle]
57
135301
1000
02:17
[Green circle]
58
137301
1080
και τίποτα όταν είναι πράσινος.
02:19
[Red circle]
59
139301
1000
[Έτοιμοι;]
02:21
Maybe you're the type of person
60
141521
1596
[Ξεκινάμε!]
02:23
who claps the millisecond after a red circle appears.
61
143141
2496
[Πράσινος κύκλος]
02:25
Or maybe you're the type of person
62
145661
1656
[Πράσινος κύκλος]
02:27
who takes just a little bit longer to be 100 percent sure.
63
147341
2735
[Κόκκινος κύκλος]
[Πράσινος κύκλος]
02:30
Or maybe you clap on green even though you're not supposed to.
64
150101
2936
[Κόκκινος κύκλος]
02:33
The cool thing here is that this isn't like a standardized test
65
153061
2976
Ίσως να είστε ο τύπος ανθρώπου
που χειροκροτάει χιλιοστά του δευτερολέπτου μετά τον κόκκινο κύκλο.
02:36
where some people are employable and some people aren't.
66
156061
2656
02:38
Instead it's about understanding the fit between your characteristics
67
158741
3256
Ή να είστε ο τύπος ανθρώπου
που χρειάζεται λίγο περισσότερο για να είναι 100% σίγουρος.
02:42
and what would make you good a certain job.
68
162021
2016
Ή μπορεί να χειροκροτάτε στον πράσινο αν και δεν πρέπει.
02:44
We found that if you clap late on red and you never clap on the green,
69
164061
3736
Το ωραίο εδώ είναι ότι αυτό δεν είναι κάποιο στάνταρ τεστ
02:47
you might be high in attentiveness and high in restraint.
70
167821
3176
που κρίνει αν κάποιος είναι ικανός ή όχι.
Αντιθέτως έχει να κάνει με την κατανόηση των χαρακτηριστικών σας
02:51
People in that quadrant tend to be great students, great test-takers,
71
171021
3576
και τι θα σας έκανε καλούς σε κάποια δουλειά.
02:54
great at project management or accounting.
72
174621
2136
02:56
But if you clap immediately on red and sometimes clap on green,
73
176781
3336
Ανακαλύψαμε ότι εάν χειροκροτάτε αργότερα από το κόκκινο και ποτέ στο πράσινο,
03:00
that might mean that you're more impulsive and creative,
74
180141
2656
μπορεί να έχετε αυξημένη προσήλωση και να είστε συγκρατημένος.
03:02
and we've found that top-performing salespeople often embody these traits.
75
182821
3875
Άνθρωποι σαν αυτούς, τείνουν να είναι καλοί μαθητές, ή καλοί στα τεστ,
03:06
The way we actually use this in hiring
76
186721
2016
καλοί σαν διαχειριστές έργων ή στα λογιστικά.
03:08
is we have top performers in a role go through neuroscience exercises
77
188761
3696
Αλλά εάν χειροκροτήσατε αμέσως στο κόκκινο και κάποιες φορές στο πράσινο,
03:12
like this one.
78
192481
1216
μπορεί να σημαίνει ότι είσαστε αυθόρμητοι και δημιουργικοί,
03:13
Then we develop an algorithm
79
193721
1376
03:15
that understands what makes those top performers unique.
80
195121
2656
και βρήκαμε ότι οι καλύτεροι πωλητές βρίσκονται σε αυτή την κατηγορία.
03:17
And then when people apply to the job,
81
197801
1936
03:19
we're able to surface the candidates who might be best suited for that job.
82
199761
4136
Το χρησιμοποιούμε στις προσλήψεις
βάζοντας κορυφαίους στους κλάδους τους να κάνουν νευροεπιστημονικές ασκήσεις
03:23
So you might be thinking there's a danger in this.
83
203921
2376
σαν αυτήν.
Μετά αναπτύσσουμε έναν αλγόριθμο
03:26
The work world today is not the most diverse
84
206321
2136
που καταλαβαίνει τι κάνει αυτούς τους ανθρώπους ιδιαίτερους.
03:28
and if we're building algorithms based on current top performers,
85
208481
3096
Και όταν έχουμε αιτούντες για κάποια θέση,
03:31
how do we make sure
86
211601
1216
03:32
that we're not just perpetuating the biases that already exist?
87
212841
2976
είμαστε ικανοί να κατατάξουμε τους πιο κατάλληλους για τη θέση.
03:35
For example, if we were building an algorithm based on top performing CEOs
88
215841
4056
Μπορεί να σκέφτεστε ότι υπάρχει ρίσκο σε όλο αυτό.
Το εργατικό δυναμικό δεν είναι το πιο ποικίλο
03:39
and use the S&P 500 as a training set,
89
219921
3216
και αν χτίζουμε αλγόριθμους βασισμένους σε κορυφαίους ανθρώπους
03:43
you would actually find
90
223161
1256
03:44
that you're more likely to hire a white man named John than any woman.
91
224441
3816
πώς είμαστε σίγουροι
ότι δεν διαιωνίζουμε τις προκαταλήψεις που ήδη υπάρχουν;
Για παράδειγμα, εάν δημιουργούμε ένα αλγόριθμο
03:48
And that's the reality of who's in those roles right now.
92
228281
2696
βασισμένο σε κορυφαίους διευθύνων συμβούλους
03:51
But technology actually poses a really interesting opportunity.
93
231001
3376
και χρησιμοποιήσουμε τις εταιρείες S&P 500 ως εκπαιδευτικό σετ,
03:54
We can create algorithms that are more equitable
94
234401
2256
θα δείτε ότι είναι πολύ πιθανό
03:56
and more fair than human beings have ever been.
95
236681
2256
να προσλάβετε έναν λευκό άνδρα ονόματι Tζον αντί για οποιαδήποτε γυναίκα.
03:58
Every algorithm that we put into production has been pretested
96
238961
3696
Και είναι η πραγματικότητα για το ποιοι έχουν αυτούς τους ρόλους.
04:02
to ensure that it doesn't favor any gender or ethnicity.
97
242681
3096
Αλλά η τεχνολογία αναδεικνύει μια πραγματικά ενδιαφέρουσα δυνατότητα.
04:05
And if there's any population that's being overfavored,
98
245801
2736
Μπορούμε να χτίσουμε αλγόριθμους πιο έντιμους
04:08
we can actually alter the algorithm until that's no longer true.
99
248561
3120
και πιο δίκαιους από τους ανθρώπους.
Κάθε αλγόριθμο που χτίζουμε, τον δοκιμάζουμε
04:12
When we focus on the inherent characteristics
100
252041
2216
04:14
that can make somebody a good fit for a job,
101
254281
2096
για να εξασφαλίσουμε ότι δεν ευνοεί κάποιο φύλο ή εθνικότητα.
04:16
we can transcend racism, classism, sexism, ageism --
102
256401
3576
Και εάν υπάρχει κάποιος περισσότερο ευνοούμενος,
04:20
even good schoolism.
103
260001
1416
μπορούμε να τροποποιήσουμε τον αλγόριθμο μέχρι να μην ισχύει πια.
04:21
Our best technology and algorithms shouldn't just be used
104
261441
2896
04:24
for helping us find our next movie binge or new favorite Justin Bieber song.
105
264361
3736
Όταν εστιάζουμε στα έμφυτα χαρακτηριστικά
τα οποία κάνουν κάποιο καλό για μια θέση,
04:28
Imagine if we could harness the power of technology
106
268121
2656
μπορούμε να παραβλέψουμε τον ρατσισμό, τον ταξισμό, τον σεξισμό, την ηλικία,
04:30
to get real guidance on what we should be doing
107
270801
2296
ή τη διαφορετική εκπαίδευση.
04:33
based on who we are at a deeper level.
108
273121
1936
Η τεχνολογία και οι αλγόριθμοι δεν πρέπει να χρησιμοποιούνται
μόνο για να βρούμε ταινίες ή το επόμενο τραγούδι του Τζάστιν Μπίμερ.
Φανταστείτε να μπορούσαμε να χρησιμοποιούσαμε την τεχνολογία
ώστε να μας συμβουλεύει σε τι θα έπρεπε να κάνουμε
βασιζόμενοι στο ποιοι πραγματικά είμαστε.
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7