How to make applying for jobs less painful | The Way We Work, a TED series

158,124 views ・ 2019-02-09

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

00:00
Applying for jobs online
0
141
1416
Перекладач: Svitlana Zapolskykh Утверджено: Khrystyna Romashko
00:01
is one of the worst digital experiences of our time.
1
1581
2616
00:04
And applying for jobs in person really isn't much better.
2
4221
2696
00:06
[The Way We Work]
3
6942
1720
00:11
Hiring as we know it is broken on many fronts.
4
11181
2456
Працевлаштування онлайн –
00:13
It's a terrible experience for people.
5
13661
1856
це найгірший досвід використання цифрових технологій.
00:15
About 75 percent of people
6
15541
1816
Але процес співбесіди не кращий.
00:17
who applied to jobs using various methods in the past year
7
17381
2856
[Як ми працюємо]
00:20
said they never heard anything back from the employer.
8
20261
2656
00:22
And at the company level it's not much better.
9
22941
2176
Працевлаштування сьогодні має багато недоліків.
00:25
46 percent of people get fired or quit
10
25141
2776
Це досить неприємний досвід.
00:27
within the first year of starting their jobs.
11
27941
2176
Близько 75 відсотків людей,
які відправили свої резюме минулого року,
00:30
It's pretty mind-blowing.
12
30141
1216
00:31
It's also bad for the economy.
13
31381
1456
00:32
For the first time in history,
14
32861
1456
не одержали відповіді від потенційних роботодавців.
00:34
we have more open jobs than we have unemployed people,
15
34341
2856
У компаніях справи не кращі.
00:37
and to me that screams that we have a problem.
16
37221
2176
46 відсотків людей звільняються
00:39
I believe that at the crux of all of this is a single piece of paper: the résumé.
17
39421
3976
протягом першого року.
Це дійсно шокує.
00:43
A résumé definitely has some useful pieces in it:
18
43421
2336
І це погано для економіки.
00:45
what roles people have had, computer skills,
19
45781
2096
Уперше в історії
ми маємо більше вакансій, ніж безробітних,
00:47
what languages they speak,
20
47901
1256
00:49
but what it misses is what they have the potential to do
21
49181
3056
і це свідчить про серйозну проблему.
Головною причиною є один аркуш паперу – «резюме».
00:52
that they might not have had the opportunity to do in the past.
22
52261
2976
00:55
And with such a quickly changing economy where jobs are coming online
23
55261
3256
Резюме містить певну корисну інформацію:
00:58
that might require skills that nobody has,
24
58541
2056
робочий досвід, навички роботи з комп’ютером,
01:00
if we only look at what someone has done in the past,
25
60621
2776
володіння мовами.
Але дечого бракує в резюме, а саме – потенціалу людини,
01:03
we're not going to be able to match people to the jobs of the future.
26
63421
3256
якого вона не встигла реалізувати у минулому.
01:06
So this is where I think technology can be really helpful.
27
66701
2736
В умовах швидкого розвитку економіки створюються робочі місця онлайн,
01:09
You've probably seen that algorithms have gotten pretty good
28
69461
2856
які вимагають нових навичок.
01:12
at matching people to things,
29
72341
1536
01:13
but what if we could use that same technology
30
73901
2256
Якщо оцінювати тільки минулий досвід,
складно підібрати робітника на роботу майбутнього.
01:16
to actually help us find jobs that we're really well-suited for?
31
76181
3096
01:19
But I know what you're thinking.
32
79301
1576
Тут технології можуть стати у нагоді.
01:20
Algorithms picking your next job sounds a little bit scary,
33
80901
2776
Ви, напевно, чули про ефективність алгоритмів
01:23
but there is one thing that has been shown
34
83701
2056
для підбору людей,
01:25
to be really predictive of someone's future success in a job,
35
85781
2896
а якщо використати ту ж саму технологію,
01:28
and that's what's called a multimeasure test.
36
88701
2136
щоб допомогти нам знайти відповідну роботу?
01:30
Multimeasure tests really aren't anything new,
37
90861
2176
Але я знаю, що ви думаєте.
01:33
but they used to be really expensive
38
93061
1736
«Алгоритми вибору вашої роботи» – це трохи лякає.
01:34
and required a PhD sitting across from you
39
94821
2016
01:36
and answering lots of questions and writing reports.
40
96861
2456
Але є один метод,
який прогнозує успішну кар’єру.
01:39
Multimeasure tests are a way
41
99341
1696
01:41
to understand someone's inherent traits --
42
101061
2456
Він називається мультипрофільним тестом.
01:43
your memory, your attentiveness.
43
103541
1776
Мультипрофільні тести не є чимось новим.
Вони потребували значних витрат,
01:46
What if we could take multimeasure tests
44
106255
1942
вимагали присутності науковця,
01:48
and make them scalable and accessible,
45
108221
2536
який задавав питання та писав звіти.
01:50
and provide data to employers about really what the traits are
46
110781
3376
Багатопрофільні тести – це спосіб
оцінити індивідуальні характеристики –
01:54
of someone who can make them a good fit for a job?
47
114181
2896
пам'ять, уважність.
01:57
This all sounds abstract.
48
117101
1296
01:58
Let's try one of the games together.
49
118421
1735
А якщо зробити ці тести
02:00
You're about to see a flashing circle,
50
120180
1857
більш масштабними та доступними,
02:02
and your job is going to be to clap when the circle is red
51
122061
2960
та надати роботодавцям дані про характеристики
02:05
and do nothing when it's green.
52
125878
1496
людей, які б дійсно підійшли на певні посади?
02:07
[Ready?]
53
127399
1376
02:08
[Begin!]
54
128800
1360
Це звучить абстрактно.
Зіграємо разом в гру.
02:11
[Green circle]
55
131301
1000
Ви побачите блимаюче коло,
02:13
[Green circle]
56
133301
1040
плесніть у долоні, коли воно червоне,
02:15
[Red circle]
57
135301
1000
02:17
[Green circle]
58
137301
1080
не плескайте, коли воно зелене.
02:19
[Red circle]
59
139301
1000
[Готові?]
02:21
Maybe you're the type of person
60
141521
1596
[Почнемо!]
02:23
who claps the millisecond after a red circle appears.
61
143141
2496
[Зелене коло]
02:25
Or maybe you're the type of person
62
145661
1656
[Зелене коло]
02:27
who takes just a little bit longer to be 100 percent sure.
63
147341
2735
[Червоне коло]
[Зелене коло]
02:30
Or maybe you clap on green even though you're not supposed to.
64
150101
2936
[Червоне коло]
02:33
The cool thing here is that this isn't like a standardized test
65
153061
2976
Можливо, ви один з тих,
хто плеснув у долоні відразу, як побачив червоне коло.
02:36
where some people are employable and some people aren't.
66
156061
2656
02:38
Instead it's about understanding the fit between your characteristics
67
158741
3256
А можливо,
вам потрібно трохи більше часу, щоб точно упевнитись.
02:42
and what would make you good a certain job.
68
162021
2016
А, можливо, ви плескаєте в долоні на зелене коло.
02:44
We found that if you clap late on red and you never clap on the green,
69
164061
3736
Цей тест не дає чіткої відповіді,
02:47
you might be high in attentiveness and high in restraint.
70
167821
3176
підходить людина на роботу чи ні.
02:51
People in that quadrant tend to be great students, great test-takers,
71
171021
3576
Він допомагає зрозуміти, які індивідуальні особливості
02:54
great at project management or accounting.
72
174621
2136
розкривають ваші робочі здібності.
02:56
But if you clap immediately on red and sometimes clap on green,
73
176781
3336
Якщо людина плеснула на червоне коло не відразу і не плеснула на зелене,
03:00
that might mean that you're more impulsive and creative,
74
180141
2656
це свідчить про її високий рівень уважності та стриманості.
03:02
and we've found that top-performing salespeople often embody these traits.
75
182821
3875
Частіше за все, ці люди – здібні студенти, успішно складають іспити,
03:06
The way we actually use this in hiring
76
186721
2016
гарні менеджери та бухгалтери.
03:08
is we have top performers in a role go through neuroscience exercises
77
188761
3696
А люди, які плескають на червоне коло відразу, а інколи – на зелене,
03:12
like this one.
78
192481
1216
більш імпульсивні та креативні,
03:13
Then we develop an algorithm
79
193721
1376
03:15
that understands what makes those top performers unique.
80
195121
2656
мають успіх у сфері торгівлі.
03:17
And then when people apply to the job,
81
197801
1936
03:19
we're able to surface the candidates who might be best suited for that job.
82
199761
4136
Ми використовуємо цей тест наступним чином:
найкращі у своїй сфері проходять тести,
03:23
So you might be thinking there's a danger in this.
83
203921
2376
на кшталт таких.
03:26
The work world today is not the most diverse
84
206321
2136
Потім ми створюємо алгоритм,
щоб зрозуміти, які навички вони мають.
03:28
and if we're building algorithms based on current top performers,
85
208481
3096
І вже далі, на етапі працевлаштування,
03:31
how do we make sure
86
211601
1216
03:32
that we're not just perpetuating the biases that already exist?
87
212841
2976
це допомагає нам підібрати найкращого кандидата на певну посаду.
03:35
For example, if we were building an algorithm based on top performing CEOs
88
215841
4056
Можливо, ви думаєте що в цьому є певний ризик.
Адже сьогодні сфера праці одноманітна,
03:39
and use the S&P 500 as a training set,
89
219921
3216
і будуючи алгоритми на основі досягнень професіоналів,
03:43
you would actually find
90
223161
1256
03:44
that you're more likely to hire a white man named John than any woman.
91
224441
3816
чи можна уникнути
упереджень, що вже існують?
03:48
And that's the reality of who's in those roles right now.
92
228281
2696
Наприклад, якщо створити алгоритм на основі списку топ менеджерів
03:51
But technology actually poses a really interesting opportunity.
93
231001
3376
і даних фондового індексу S&P 500,
03:54
We can create algorithms that are more equitable
94
234401
2256
імовірно,
03:56
and more fair than human beings have ever been.
95
236681
2256
що роботу отримає білий Джон, а не жінка.
03:58
Every algorithm that we put into production has been pretested
96
238961
3696
І це реалії сьогодення.
04:02
to ensure that it doesn't favor any gender or ethnicity.
97
242681
3096
Але завдяки сучасним технологіям з’являються нові можливості.
04:05
And if there's any population that's being overfavored,
98
245801
2736
Можна створити об’єктивніші алгоритими,
04:08
we can actually alter the algorithm until that's no longer true.
99
248561
3120
які будуть більш справедливі, ніж оцінка людей.
Кожен з наших алгоритмів пройшов перевірку
04:12
When we focus on the inherent characteristics
100
252041
2216
04:14
that can make somebody a good fit for a job,
101
254281
2096
на гендерну та етнічну неупередженість.
04:16
we can transcend racism, classism, sexism, ageism --
102
256401
3576
А якщо хоч якась група людей отримує перевагу,
04:20
even good schoolism.
103
260001
1416
то ми можемо змінити алгоритм, щоб досягти балансу.
04:21
Our best technology and algorithms shouldn't just be used
104
261441
2896
04:24
for helping us find our next movie binge or new favorite Justin Bieber song.
105
264361
3736
Аналізуючи притаманні кандидатам особливості,
які допоможуть їм знайти роботу,
04:28
Imagine if we could harness the power of technology
106
268121
2656
ми можемо подолати расизм, сексизм, ейджизм,
04:30
to get real guidance on what we should be doing
107
270801
2296
навіть скулизм.
04:33
based on who we are at a deeper level.
108
273121
1936
Наші передові технології і алгоритми не призначені
для пошуку чергового фільму або пісні Джастіна Бібера.
Ми могли б застосувати увесь потенціал технологій
для ефективного керівництва діями
на основі знань про свою природу.
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7