How to make applying for jobs less painful | The Way We Work, a TED series

158,124 views ・ 2019-02-09

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

00:00
Applying for jobs online
0
141
1416
תרגום: Adi Weller Weiser עריכה: Naama Lieberman
הגשת מועמדות לעבודה באינטרנט
00:01
is one of the worst digital experiences of our time.
1
1581
2616
היא אחת מהחוויות הדיגיטליות הנוראיות של זמננו.
00:04
And applying for jobs in person really isn't much better.
2
4221
2696
והגשת מועמדות פנים מול פנים לא הרבה יותר טובה.
00:06
[The Way We Work]
3
6942
1720
[הדרך שבה אנו עובדים]
00:11
Hiring as we know it is broken on many fronts.
4
11181
2456
גיוס עובדים כמו שהוא היום מקולקל מהרבה בחינות.
00:13
It's a terrible experience for people.
5
13661
1856
זו חוויה נוראה לאנשים.
00:15
About 75 percent of people
6
15541
1816
בערך 75 אחוז מאנשים
00:17
who applied to jobs using various methods in the past year
7
17381
2856
שהגישו מועמדות למשרות בכל מיני דרכים בשנה שעברה
00:20
said they never heard anything back from the employer.
8
20261
2656
אמרו שהם לא קיבלו שום תגובה מהמעסיק.
00:22
And at the company level it's not much better.
9
22941
2176
וברמת החברה המצב לא הרבה יותר טוב.
00:25
46 percent of people get fired or quit
10
25141
2776
46 אחוז מהאנשים מפוטרים או עוזבים
00:27
within the first year of starting their jobs.
11
27941
2176
תוך השנה הראשונה מתחילת העבודה.
00:30
It's pretty mind-blowing.
12
30141
1216
זה די מדהים.
00:31
It's also bad for the economy.
13
31381
1456
זה גם רע לכלכלה.
00:32
For the first time in history,
14
32861
1456
בפעם הראשונה בהיסטוריה,
00:34
we have more open jobs than we have unemployed people,
15
34341
2856
יש לנו יותר משרות פתוחות מאשר אנשים שאינם מועסקים,
00:37
and to me that screams that we have a problem.
16
37221
2176
ולדעתי זה אומר בבירור שיש לנו בעיה.
00:39
I believe that at the crux of all of this is a single piece of paper: the résumé.
17
39421
3976
אני מאמינה שהמקור של כל זה היא פיסת נייר אחת: קורות החיים.
00:43
A résumé definitely has some useful pieces in it:
18
43421
2336
בקורות חיים בהחלט יש חלקים מועילים:
00:45
what roles people have had, computer skills,
19
45781
2096
אילו תפקידים היו לאנשים, יכולות מחשב,
00:47
what languages they speak,
20
47901
1256
אילו שפות הם דוברים,
00:49
but what it misses is what they have the potential to do
21
49181
3056
אבל מה שחסר זה הפוטנציאל של מה שיוכלו לעשות
00:52
that they might not have had the opportunity to do in the past.
22
52261
2976
שאולי לא הייתה להם הזדמנות לעשות בעבר.
00:55
And with such a quickly changing economy where jobs are coming online
23
55261
3256
ועם כלכלה שמשתנה מהר כל כך שבה עולות לרשת משרות
00:58
that might require skills that nobody has,
24
58541
2056
שאולי דורשות מיומנויות שאין לאף אחד,
01:00
if we only look at what someone has done in the past,
25
60621
2776
אם נסתכל רק על מה שמישהו עשה בעבר,
01:03
we're not going to be able to match people to the jobs of the future.
26
63421
3256
לא נוכל להתאים אנשים למשרות של העתיד.
01:06
So this is where I think technology can be really helpful.
27
66701
2736
אז כאן אני חושבת שטכנולוגיה יכולה ממש לעזור.
01:09
You've probably seen that algorithms have gotten pretty good
28
69461
2856
בטח ראיתם שאלגוריתמים נהיו די טובים
01:12
at matching people to things,
29
72341
1536
בהתאמת אנשים למוצרים,
01:13
but what if we could use that same technology
30
73901
2256
אבל מה אם נוכל להשתמש באותה טכנולוגיה
01:16
to actually help us find jobs that we're really well-suited for?
31
76181
3096
לעזור לנו למצוא משרה שאנחנו ממש מתאימים לה?
01:19
But I know what you're thinking.
32
79301
1576
אבל אני יודעת מה אתם חושבים.
01:20
Algorithms picking your next job sounds a little bit scary,
33
80901
2776
לתת לאלגוריתם לבחור את המשרה הבאה שלכם נשמע קצת מפחיד,
01:23
but there is one thing that has been shown
34
83701
2056
אבל יש דבר אחד שהוכח
01:25
to be really predictive of someone's future success in a job,
35
85781
2896
שמנבא היטב הצלחה עתידית של מישהו במשרה,
01:28
and that's what's called a multimeasure test.
36
88701
2136
וזה מבחן “מרובה מידות“ (multimeasure test).
01:30
Multimeasure tests really aren't anything new,
37
90861
2176
מבחנים מרובי מידות הם בעצם לא דבר חדש,
אבל פעם הם היו יקרים מאד
01:33
but they used to be really expensive
38
93061
1736
01:34
and required a PhD sitting across from you
39
94821
2016
ודרשו דוקטור שישב מולך
01:36
and answering lots of questions and writing reports.
40
96861
2456
ולענות על הרבה שאלות ולכתוב דוחות.
01:39
Multimeasure tests are a way
41
99341
1696
מבחנים מרובי מידות הם דרך
01:41
to understand someone's inherent traits --
42
101061
2456
להבין את התכונות האינהרנטיות של מישהו
01:43
your memory, your attentiveness.
43
103541
1776
הזיכרון שלך, תשומת הלב שלך.
01:46
What if we could take multimeasure tests
44
106255
1942
מה אם נוכל לקחת מבחנים מרובי מידות
01:48
and make them scalable and accessible,
45
108221
2536
ולהפוך אותם לנגישים ובקנה מידה גדול,
01:50
and provide data to employers about really what the traits are
46
110781
3376
ולספק נתונים למעסיקים על מה באמת התכונות
01:54
of someone who can make them a good fit for a job?
47
114181
2896
של מישהו שיכול להתאים היטב למשרה?
01:57
This all sounds abstract.
48
117101
1296
כל זה נשמע מופשט.
01:58
Let's try one of the games together.
49
118421
1735
בואו ננסה אחד מהמשחקים יחד.
02:00
You're about to see a flashing circle,
50
120180
1857
אתם עומדים לראות עיגול מוצג לזמן קצר,
02:02
and your job is going to be to clap when the circle is red
51
122061
2960
והתפקיד שלכם יהיה למחוא כף כשהעיגול אדום
02:05
and do nothing when it's green.
52
125878
1496
ולא לעשות כלום כשהוא ירוק.
02:07
[Ready?]
53
127399
1376
[מוכנים?]
02:08
[Begin!]
54
128800
1360
[התחילו!]
02:11
[Green circle]
55
131301
1000
[עיגול ירוק]
02:13
[Green circle]
56
133301
1040
[עיגול ירוק]
02:15
[Red circle]
57
135301
1000
[עיגול אדום]
02:17
[Green circle]
58
137301
1080
[עיגול ירוק]
02:19
[Red circle]
59
139301
1000
[עיגול אדום]
02:21
Maybe you're the type of person
60
141521
1596
אולי אתם מסוג האנשים
02:23
who claps the millisecond after a red circle appears.
61
143141
2496
שמוחאים כף מילישנייה אחרי שהעיגול האדום מופיע.
02:25
Or maybe you're the type of person
62
145661
1656
או אולי אתם מסוג האנשים
02:27
who takes just a little bit longer to be 100 percent sure.
63
147341
2735
שלוקח להם רק טיפה יותר כדי להיות בטוחים ב100 אחוז.
או אולי מחאתם כף בירוק למרות שלא הייתם אמורים.
02:30
Or maybe you clap on green even though you're not supposed to.
64
150101
2936
הדבר המגניב כאן הוא שזה לא כמו מבחן מתוקנן
02:33
The cool thing here is that this isn't like a standardized test
65
153061
2976
שם חלק מהאנשים מתאימים להעסקה וחלק לא.
02:36
where some people are employable and some people aren't.
66
156061
2656
02:38
Instead it's about understanding the fit between your characteristics
67
158741
3256
במקום זה, העניין הוא להבין את ההתאמה בין המאפיינים שלך
ובין מה שגורם לך להיות טוב במשרה מסוימת.
02:42
and what would make you good a certain job.
68
162021
2016
גילינו שאם מחאת כף מאוחר באדום ואף פעם לא מחאת כף בירוק,
02:44
We found that if you clap late on red and you never clap on the green,
69
164061
3736
02:47
you might be high in attentiveness and high in restraint.
70
167821
3176
יתכן שיש לך תשומת לב גבוהה ושליטה עצמית גבוהה.
02:51
People in that quadrant tend to be great students, great test-takers,
71
171021
3576
אנשים ברביע הזה נוטים להיות תלמידים נהדרים, מצטיינים במבחנים,
02:54
great at project management or accounting.
72
174621
2136
מצוינים בניהול פרויקטים או בחשבונאות.
02:56
But if you clap immediately on red and sometimes clap on green,
73
176781
3336
אבל אם מחאת כף מיד באדום ולפעמים מחאת כף בירוק,
03:00
that might mean that you're more impulsive and creative,
74
180141
2656
זה אולי אומר שאתם יותר אימפולסיביים ויצירתיים,
03:02
and we've found that top-performing salespeople often embody these traits.
75
182821
3875
ומצאנו שאנשי מכירות מצטיינים הרבה פעמים מגלמים את התכונות האלו.
03:06
The way we actually use this in hiring
76
186721
2016
הדרך שבה אנחנו משתמשים בזה בגיוס עובדים
03:08
is we have top performers in a role go through neuroscience exercises
77
188761
3696
זה לתת לעובדים שמצטיינים בתפקיד לפתור תרגילים שבוחנים את המוח
03:12
like this one.
78
192481
1216
כמו זה.
03:13
Then we develop an algorithm
79
193721
1376
אז אנחנו מפתחים אלגוריתם
03:15
that understands what makes those top performers unique.
80
195121
2656
שמבין מה מייחד את העובדים המצטיינים האלו.
03:17
And then when people apply to the job,
81
197801
1936
ואז כשאנשים מגישים מועמדות למשרה,
03:19
we're able to surface the candidates who might be best suited for that job.
82
199761
4136
נוכל לגלות את המועמדים שכנראה הכי מתאימים למשרה הזו.
03:23
So you might be thinking there's a danger in this.
83
203921
2376
אז אתם אולי חושבים שיש סכנה בזה.
03:26
The work world today is not the most diverse
84
206321
2136
עולם העבודה היום הוא לא הכי מגוון
03:28
and if we're building algorithms based on current top performers,
85
208481
3096
ואם אנחנו בונים אלגוריתמים שמבוססים על העובדים המצטיינים הנוכחיים
03:31
how do we make sure
86
211601
1216
איך נוודא שאנחנו לא רק מנציחים את ההטיות הקיימות?
03:32
that we're not just perpetuating the biases that already exist?
87
212841
2976
03:35
For example, if we were building an algorithm based on top performing CEOs
88
215841
4056
לדוגמה, אם היינו בונים אלגוריתם שמבוסס על מנכ“לים עם ביצועים גבוהים
03:39
and use the S&P 500 as a training set,
89
219921
3216
ומשתמשים במדד S&P 500 כקבוצת אימון,
03:43
you would actually find
90
223161
1256
בעצם תגלו
03:44
that you're more likely to hire a white man named John than any woman.
91
224441
3816
שיותר סביר שתבחרו להעסיק איש לבן בשם ג’ון מאשר אישה כשלהי.
03:48
And that's the reality of who's in those roles right now.
92
228281
2696
וזו המציאות של מי נמצא בתפקידים האלו עכשיו.
03:51
But technology actually poses a really interesting opportunity.
93
231001
3376
אבל הטכנולוגיה למעשה מציבה הזדמנות מעניינת מאד.
03:54
We can create algorithms that are more equitable
94
234401
2256
אנחנו יכולים ליצור אלגוריתמים שוויוניים יותר
03:56
and more fair than human beings have ever been.
95
236681
2256
והוגנים יותר משבני אדם היו אי פעם.
03:58
Every algorithm that we put into production has been pretested
96
238961
3696
כל אלגוריתם שאנחנו מוציאים לשימוש נבדק מראש
04:02
to ensure that it doesn't favor any gender or ethnicity.
97
242681
3096
כדי לוודא שאינו מעדיף שום מגדר או מוצא אתני מסוימים.
04:05
And if there's any population that's being overfavored,
98
245801
2736
ואם יש אוכלוסיה כלשהי שמועדפת מדי,
04:08
we can actually alter the algorithm until that's no longer true.
99
248561
3120
אנחנו יכולים לשנות את האלגוריתם עד שזה כבר לא יהיה המצב.
04:12
When we focus on the inherent characteristics
100
252041
2216
כשאנחנו מתרכזים במאפיינים המהותיים
04:14
that can make somebody a good fit for a job,
101
254281
2096
שיכולים לגרום למישהו להתאים היטב למשרה,
04:16
we can transcend racism, classism, sexism, ageism --
102
256401
3576
אנחנו יכולים להתעלות מעל גזענות, סקסיזם, אפליה מעמדית, גילנות --
04:20
even good schoolism.
103
260001
1416
אפילו אפליה על בסיס בית הספר.
04:21
Our best technology and algorithms shouldn't just be used
104
261441
2896
הטכנולוגיה והאלגוריתמים הכי טובים שלנו לא צריכים לשמש רק
04:24
for helping us find our next movie binge or new favorite Justin Bieber song.
105
264361
3736
לעזור לנו למצוא את הבינג′ סרטים הבא שלנו או השיר המועדף של ג’סטין ביבר.
04:28
Imagine if we could harness the power of technology
106
268121
2656
דמיינו שנוכל לגייס את כוחה של הטכנולוגיה
04:30
to get real guidance on what we should be doing
107
270801
2296
לקבל הכוונה אמתית לגבי מה שאנחנו צריכים לעשות
04:33
based on who we are at a deeper level.
108
273121
1936
על בסיס מי שאנחנו ברמה עמוקה יותר.
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7