How to make applying for jobs less painful | The Way We Work, a TED series

153,804 views ・ 2019-02-09

TED


Please double-click on the English subtitles below to play the video.

00:00
Applying for jobs online
0
141
1416
Translator: dyari majid Reviewer: Daban Q Jaff
00:01
is one of the worst digital experiences of our time.
1
1581
2616
00:04
And applying for jobs in person really isn't much better.
2
4221
2696
00:06
[The Way We Work]
3
6942
1720
00:11
Hiring as we know it is broken on many fronts.
4
11181
2456
داواکردنی کار، لەڕێی ئۆنلاین
00:13
It's a terrible experience for people.
5
13661
1856
یەکێکە لە ناخۆشترین ئەزمونە دیجیتاڵیەکان لەسەردەمی ئێمە.
00:15
About 75 percent of people
6
15541
1816
بەشێوەی یەکتربینینیش بەڕاستی زۆر باشتر نییە.
00:17
who applied to jobs using various methods in the past year
7
17381
2856
[ڕێگەی کارکردنی ئێمە]
00:20
said they never heard anything back from the employer.
8
20261
2656
00:22
And at the company level it's not much better.
9
22941
2176
وەک دەزانین دامەزراندن لە زۆر ڕووەوە لاواز بووە.
00:25
46 percent of people get fired or quit
10
25141
2776
ئەوە بۆ خەڵکی ئەزموونێکی زۆر ناخۆشە.
00:27
within the first year of starting their jobs.
11
27941
2176
نزیکەی سەدا 75 ی خەڵکی
ئەوانەی بە ڕێگەی جیاواز لە سالی ڕابردوودا داوای کاریان کردووە،
00:30
It's pretty mind-blowing.
12
30141
1216
00:31
It's also bad for the economy.
13
31381
1456
00:32
For the first time in history,
14
32861
1456
وتویانە، هەرگیز وەڵامیان نەدراوەتەوە.
00:34
we have more open jobs than we have unemployed people,
15
34341
2856
هەروەها لەسەر ئاستی کۆمپانیاش باشتر نییە.
00:37
and to me that screams that we have a problem.
16
37221
2176
سەدا 46 ی خەڵک دەردەکرێن یان وازدەهێنن
00:39
I believe that at the crux of all of this is a single piece of paper: the résumé.
17
39421
3976
لە ماوەی یەکەم ساڵی دەستپێکی کارەکەیان.
بەڕاستی ئەوە سەرسام کەرە.
00:43
A résumé definitely has some useful pieces in it:
18
43421
2336
ئەوە بۆ لایەنی ئابووریش خراپە.
00:45
what roles people have had, computer skills,
19
45781
2096
بۆ یەکەم جار لە مێژوودا،
ئێمە کاری بەردەستمان لە ژمارەی خەڵکی بێکار زیاتر هەیە،
00:47
what languages they speak,
20
47901
1256
00:49
but what it misses is what they have the potential to do
21
49181
3056
بەلای منەوە ئەوە ئاشکرایە کە کێشەیەکمان هەیە.
من بڕوام وایە، کە سەرچاوەی هەموو ئەوە پارچە کاغەزێکە، کە بریتییە لە سی ڤی.
00:52
that they might not have had the opportunity to do in the past.
22
52261
2976
00:55
And with such a quickly changing economy where jobs are coming online
23
55261
3256
سی ڤی، چەند لایەنێکی بە سوودی هەیە لێرەدا:
00:58
that might require skills that nobody has,
24
58541
2056
وەکو، ڕۆڵی خەڵک لە ڕابردوو، توانستی کۆمپیتەری،
01:00
if we only look at what someone has done in the past,
25
60621
2776
ئەو زمانانەی قسەی پێ دەکات،
بەڵام ئەوەی سی ڤی نیەتی ئەوەیە ئەگەری کردنی شتانێکیان دەبێت
01:03
we're not going to be able to match people to the jobs of the future.
26
63421
3256
کە ڕەنگە لە ڕابردوودا هەلی ئەنجامدانیانی نەبوو بێت.
01:06
So this is where I think technology can be really helpful.
27
66701
2736
بەهۆی گۆڕانکاریی خێرای ئابوری لەم جۆرە کە کارەکان دەبنە ئۆنلاین
01:09
You've probably seen that algorithms have gotten pretty good
28
69461
2856
ڕەنگە داواکارییەکان شتانێک بن کە کەس نەیبێت،
01:12
at matching people to things,
29
72341
1536
01:13
but what if we could use that same technology
30
73901
2256
ئەگەر تەنها سەیری ئەزموونی ڕابردووی کەسێک بکەین،
ئەوا ناتوانین خەڵکی لەگەڵ کارەکانی داهاتوو بگونجێنین.
01:16
to actually help us find jobs that we're really well-suited for?
31
76181
3096
01:19
But I know what you're thinking.
32
79301
1576
هەربۆیە پێموایە لێرەدا تەکنەلۆجیا دەتوانێت یارمەتی دەربێت.
01:20
Algorithms picking your next job sounds a little bit scary,
33
80901
2776
لەوانەیە بینی بێتت کە ئەلگاریزم لە گونجاندنی خەڵکی بۆ شتەکان
01:23
but there is one thing that has been shown
34
83701
2056
زۆر بەرەوپێش چووە،
01:25
to be really predictive of someone's future success in a job,
35
85781
2896
بەڵام چی دەبوو هەمان تەکنەلۆجیامان بەکارهێنابا
01:28
and that's what's called a multimeasure test.
36
88701
2136
بۆ یارمەتی خۆمان لە دۆزینەوەی ئەو کارانەی کە ئێمە بۆیان گونجاوین؟
01:30
Multimeasure tests really aren't anything new,
37
90861
2176
بەڵام دەزانم بیر لەچی دەکەنەوە.
01:33
but they used to be really expensive
38
93061
1736
هەڵبژاردنی کاری دواترت بەهۆی ئەلگاریزم کەمێ ترسناک دیارە،
01:34
and required a PhD sitting across from you
39
94821
2016
01:36
and answering lots of questions and writing reports.
40
96861
2456
بەڵام شتێک هەیە دەرکەوتووە لە پێشبینی کردنی
سەرکەوتنی کاری داهاتووی کەسێک،
01:39
Multimeasure tests are a way
41
99341
1696
01:41
to understand someone's inherent traits --
42
101061
2456
ئەویش پێی دەلێن تاقیکاری پێوانەیی جۆراوجۆر.
01:43
your memory, your attentiveness.
43
103541
1776
تاقیکاریەکان لە ڕاستیدا تازە شتانێکی تازە نین،
بەڵام پێشتر بەڕاستی گران بوون و
01:46
What if we could take multimeasure tests
44
106255
1942
دەبوایە بڕوانامەی دکتۆرات هەبا بۆی و
01:48
and make them scalable and accessible,
45
108221
2536
وەلامی پڕسیاری زۆرت دابایەوە و ڕاپۆرتی زۆر بنووسیت.
01:50
and provide data to employers about really what the traits are
46
110781
3376
تاقیکارییەکان ڕێگەیەکن
بۆ تێگەیشتن لە تایبەتمەندییەکانی کەسێک--
01:54
of someone who can make them a good fit for a job?
47
114181
2896
وەکو، یادگە و بەدیقەتی
01:57
This all sounds abstract.
48
117101
1296
01:58
Let's try one of the games together.
49
118421
1735
چی دەبوو توانیبامان تاقیکارییەکان بکەین و
02:00
You're about to see a flashing circle,
50
120180
1857
وامان لێکردبان بەردەوام و بەردەست بن و
02:02
and your job is going to be to clap when the circle is red
51
122061
2960
زانیارییەکان بە خاوەن کارەکان لە بارەی تایبەتمەندیەکانی کەسێک
02:05
and do nothing when it's green.
52
125878
1496
کە دەتوانێت بۆ کارەکە گونجاوی بکات، بدەین؟
02:07
[Ready?]
53
127399
1376
02:08
[Begin!]
54
128800
1360
هەموو ئەوانە خەیاڵی دیارن.
با بەیەکەوە یارییەک تاقیبکەینەوە.
02:11
[Green circle]
55
131301
1000
تۆ بازنەیەکی ڕەنگدار دەبینیت و
02:13
[Green circle]
56
133301
1040
کارەکەت بریتی دەبێت لە چەپڵەلێدان کاتێک بازنەکە سوور دەبێت و
02:15
[Red circle]
57
135301
1000
02:17
[Green circle]
58
137301
1080
کاتێک دەبێتە سەوز هیچ ناکەیت.
02:19
[Red circle]
59
139301
1000
[ئامـــادەیت؟]
02:21
Maybe you're the type of person
60
141521
1596
[دەست پێبکە!]
02:23
who claps the millisecond after a red circle appears.
61
143141
2496
[بازنەی سەوز]
02:25
Or maybe you're the type of person
62
145661
1656
[بازنەی سەوز]
02:27
who takes just a little bit longer to be 100 percent sure.
63
147341
2735
[بازنەی سوور]
[بازنەی سەوز]
02:30
Or maybe you clap on green even though you're not supposed to.
64
150101
2936
[بازنەی سوور]
02:33
The cool thing here is that this isn't like a standardized test
65
153061
2976
ڕەنگە تۆ لەو کەسانە بیت کە
چەپڵە لێدەدەن ڕاستەوخۆ دوای دەرکەوتنی بازنەی سوور.
02:36
where some people are employable and some people aren't.
66
156061
2656
02:38
Instead it's about understanding the fit between your characteristics
67
158741
3256
یان ڕەنگە لەو کەسانە بیت کە
کەمێ کاتی زیاتری پێدەچێت هەتا سەدا 100 دڵنیا دەبێتەوە.
02:42
and what would make you good a certain job.
68
162021
2016
یان ڕەنگە لەو کاتەی بازنەکە سەوزە چەپڵە لێدەیت لە کاتێکدا نابێت.
02:44
We found that if you clap late on red and you never clap on the green,
69
164061
3736
لێرەدا، ئەوەی باشە ئەم تاقیکردنەوە ستاندارد نییە کە
02:47
you might be high in attentiveness and high in restraint.
70
167821
3176
هەندێک خەڵک بۆی گونجاوبێت و هەندێکیش نا.
02:51
People in that quadrant tend to be great students, great test-takers,
71
171021
3576
بەڵکو ئەمە دەربارەی تێگەیشتنە لە نێوان تایبەتمەندییەکانت و
02:54
great at project management or accounting.
72
174621
2136
ئەوشتەی لە کارێکی دیاریکراودا باشت دەکات.
02:56
But if you clap immediately on red and sometimes clap on green,
73
176781
3336
بۆمان دەرکەوت ئەگەر درەنگ لەسەر ڕەنگی سوور چەپلەت لێدا و لەسەر سەوز لێت نەدا،
03:00
that might mean that you're more impulsive and creative,
74
180141
2656
ڕەنگە تۆ کەسێکی زۆر ئارامگر و زۆر بە دیقەتیت.
03:02
and we've found that top-performing salespeople often embody these traits.
75
182821
3875
خەڵکی لەناو ئەم بارەدا دەکرێت خوێندکاری زۆرباش،
03:06
The way we actually use this in hiring
76
186721
2016
زۆر باش بن لە بەرێوەبردن یان ژمێریاری.
03:08
is we have top performers in a role go through neuroscience exercises
77
188761
3696
بەڵام ئەگەر ڕاستەوخۆ چەپلەت لەسەر سوور لێ بدەیت و جارجاریش لە سەر سەوز،
03:12
like this one.
78
192481
1216
ئەوا ڕەنگە مانای هەڵەشەیی و داهێنەرانەی تۆ بگەیەنێت،
03:13
Then we develop an algorithm
79
193721
1376
03:15
that understands what makes those top performers unique.
80
195121
2656
بۆشمان دەرکەوتووە کە باشترین فرۆشیارەکان بە زۆری ئەو تایبەتمەندییەیان تێدایە.
03:17
And then when people apply to the job,
81
197801
1936
03:19
we're able to surface the candidates who might be best suited for that job.
82
199761
4136
ڕێگەی بەکارهێنانی لە دامەزراندن دا لای ئێمە
ئەوەیە، ئێمە باشترین نوێنەرمان لە ڕۆڵی ڕاهێنانی زانستی نۆرۆلۆجی هەیە
03:23
So you might be thinking there's a danger in this.
83
203921
2376
وەکو ئەوە. دواتر
03:26
The work world today is not the most diverse
84
206321
2136
ئەلگاریزمێک پەرە پێ دەدەین
کە تێدەگات چی شتێک ئەو
03:28
and if we're building algorithms based on current top performers,
85
208481
3096
دواتر کە خەڵک داوای کارەکە دەکات،
03:31
how do we make sure
86
211601
1216
03:32
that we're not just perpetuating the biases that already exist?
87
212841
2976
دەتوانین لەبارەی بەربژێرەکانەوە بزانین کە ڕەنگە گونجاوترین بن نۆ کارەکە.
03:35
For example, if we were building an algorithm based on top performing CEOs
88
215841
4056
لەوانەیە وا بیربکەیتەوە ئەم کارە مەترسی تێدایە.
کاری دونیا لە ئەمڕۆدا جیاواترین نییە و
03:39
and use the S&P 500 as a training set,
89
219921
3216
ئەگەر ئەلگاریزمەکان لەسەر بنەمای باشترین ڕۆل بینەکان درووست بکەین،
03:43
you would actually find
90
223161
1256
03:44
that you're more likely to hire a white man named John than any woman.
91
224441
3816
چۆن دڵنیا دەبین
کە بەردەوامی بەو جیاکارییە نادەین کە پێشتر بوونی هەیە؟
03:48
And that's the reality of who's in those roles right now.
92
228281
2696
بۆ نموونە، ئەگەر ئەلگاریزمێک لەسەر بنەمای باشترین بەڕێوبەرکان درووست بکەین
03:51
But technology actually poses a really interesting opportunity.
93
231001
3376
هەروەها بەکارهێنانی S&P 500 وەک کۆمەڵەی ڕاهێنان،
03:54
We can create algorithms that are more equitable
94
234401
2256
ئەوا بۆت دەردەکەوێت
03:56
and more fair than human beings have ever been.
95
236681
2256
کە تۆ ئەگەری زیاترە کە پیاوێکی سپی بە ناوی جۆن هەڵبژێریت وەک لە ژنێک.
03:58
Every algorithm that we put into production has been pretested
96
238961
3696
ئەوەش ڕاستی ژیانی ئەو کەسانەیە کە ئیستا لەو رۆڵانەدان.
04:02
to ensure that it doesn't favor any gender or ethnicity.
97
242681
3096
بەڵام بەڕاستی تەکنەلۆجیا دەبێتە دەرفەتێکی سەرنج ڕاکێش.
04:05
And if there's any population that's being overfavored,
98
245801
2736
دەتوانین ئەلگاریزمی یەکسان درووست بکەین
04:08
we can actually alter the algorithm until that's no longer true.
99
248561
3120
هەروەها دادپەروەرانەتر لەوەی مرۆڤ تائێستا بووبێ.
هەر ئەلگاریزمێک کە دەیخەینە بەرهەمەکەوە ئەوا تاقیکردنەوەی بۆ کراوە
04:12
When we focus on the inherent characteristics
100
252041
2216
04:14
that can make somebody a good fit for a job,
101
254281
2096
بۆ دلنیا بوون کە جیاوازی ڕەگەزی یان نەژادی ناکات.
04:16
we can transcend racism, classism, sexism, ageism --
102
256401
3576
ئەگەر مافی هەر کەسێک درابێتە کەسێکی تر،
04:20
even good schoolism.
103
260001
1416
ئەوا دەتوانین ئەلگاریزمەکە بگۆڕین هەتا شتی لەو جۆرە نامێنیت.
04:21
Our best technology and algorithms shouldn't just be used
104
261441
2896
04:24
for helping us find our next movie binge or new favorite Justin Bieber song.
105
264361
3736
کاتێک سەرنج دەخەینە سەر تایبەتمەندیە زگماکیەکان
کە وا دەکات کەسێک بۆ کارێک گونجاو بێت،
04:28
Imagine if we could harness the power of technology
106
268121
2656
ئەوا دەتوانین سنوری ڕەگەز پەرستی، چینایەتی ، جیاوازی ڕەگەز و تەمەن هەڵگرین--
04:30
to get real guidance on what we should be doing
107
270801
2296
تەنانەت لە خوێندەواریەکی باشیش
04:33
based on who we are at a deeper level.
108
273121
1936
تەکنەلۆجیا و ئەلگاریزمە نایابەکانمان نابێت تەنها
لە یارمەتی خۆمان بۆ دۆزینەوەی فیلم یان گۆڕانی تازەوی جەستن بیبەر بەکاربهێنین.
بێنە پێش چاوت، توانیبامان هێزی تەکنەلۆجیامان بەکارهێنابا
بۆ ڕێبەرایەتی ڕاستەقینە لەسەر ئەوەی دەبێت چ بکەین
لەسەر بنەمای ناسینی خۆمان لە ناخەوە.
About this website

This site will introduce you to YouTube videos that are useful for learning English. You will see English lessons taught by top-notch teachers from around the world. Double-click on the English subtitles displayed on each video page to play the video from there. The subtitles scroll in sync with the video playback. If you have any comments or requests, please contact us using this contact form.

https://forms.gle/WvT1wiN1qDtmnspy7