How to make applying for jobs less painful | The Way We Work, a TED series

158,924 views ・ 2019-02-09

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

00:00
Applying for jobs online
0
141
1416
Translator: Dollaya Piumsuwan Reviewer: Jimmy Tangjaitrong
การสมัครงานออนไลน์
00:01
is one of the worst digital experiences of our time.
1
1581
2616
เป็นหนึ่งในประสบการณ์ดิจิทัล ที่แย่ที่สุดในยุคของเรา
00:04
And applying for jobs in person really isn't much better.
2
4221
2696
และการสมัครงานด้วยตัวเอง ก็ไม่ได้ดีไปกว่ากัน
00:06
[The Way We Work]
3
6942
1720
[วิธีการทำงานของเรา]
00:11
Hiring as we know it is broken on many fronts.
4
11181
2456
เรารู้กันดีว่าการจ้างงาน มันล้มเหลวในทุกกระบวนท่า
00:13
It's a terrible experience for people.
5
13661
1856
เป็นประสบการณ์ที่แย่สำหรับหลายคน
00:15
About 75 percent of people
6
15541
1816
กว่าร้อยละ 75
00:17
who applied to jobs using various methods in the past year
7
17381
2856
ของคนสมัครงาน ที่ใช้วิธีการหลายอย่างในช่วงปีที่ผ่านมา
00:20
said they never heard anything back from the employer.
8
20261
2656
บอกว่าพวกเขาไม่ได้ยินอะไรกลับมา จากบริษัทที่สมัครไปเลย
00:22
And at the company level it's not much better.
9
22941
2176
สำหรับบริษัทเอง ก็ไม่ได้ดีไปกว่ากัน
00:25
46 percent of people get fired or quit
10
25141
2776
ร้อยละ 46 ถูกไล่ออกหรือลาออก
00:27
within the first year of starting their jobs.
11
27941
2176
ในช่วงปีแรกที่เริ่มทำงาน
00:30
It's pretty mind-blowing.
12
30141
1216
เป็นเรื่องที่น่าตกใจมาก
00:31
It's also bad for the economy.
13
31381
1456
และเลวร้ายมากสำหรับเศรษฐกิจ
00:32
For the first time in history,
14
32861
1456
เป็นครั้งแรกในประวัติศาสตร์
00:34
we have more open jobs than we have unemployed people,
15
34341
2856
ที่เรามีตำแหน่งงานว่าง มากกว่าคนที่ว่างงาน
00:37
and to me that screams that we have a problem.
16
37221
2176
และสำหรับฉัน มันกรีดร้องว่าเรากำลังมีปัญหา
00:39
I believe that at the crux of all of this is a single piece of paper: the résumé.
17
39421
3976
ฉันเชื่อว่าปัญหาของทั้งหมดนี้ มาจากกระดาษแผ่นเดียว : เรซูเม่
00:43
A résumé definitely has some useful pieces in it:
18
43421
2336
แน่นอนว่าเรซูเม่ มีประโยชน์อยู่บ้าง
00:45
what roles people have had, computer skills,
19
45781
2096
เคยทำตำแหน่งอะไรมาบ้าง ทักษะคอมพิวเตอร์
00:47
what languages they speak,
20
47901
1256
พูดภาษาอะไร
00:49
but what it misses is what they have the potential to do
21
49181
3056
แต่สิ่งที่มันขาดคือ คนเหล่านั้นมีศักยภาพที่จะทำอะไร
00:52
that they might not have had the opportunity to do in the past.
22
52261
2976
ที่พวกเขาอาจจะไม่มีโอกาสได้ทำในอดีต
00:55
And with such a quickly changing economy where jobs are coming online
23
55261
3256
และด้วยเศรษฐกิจที่แปรผันอย่างรวดเร็ว ที่ซึ่งงานกำลังมาทางออนไลน์
00:58
that might require skills that nobody has,
24
58541
2056
ซึ่งอาจต้องใช้ทักษะที่ไม่มีใครมี
01:00
if we only look at what someone has done in the past,
25
60621
2776
ถ้าเรามัวแต่ดูสิ่งที่คนเคยทำในอดีต
01:03
we're not going to be able to match people to the jobs of the future.
26
63421
3256
เราจะไม่สามารถหาคน มาทำงานในอนาคตได้เลย
01:06
So this is where I think technology can be really helpful.
27
66701
2736
จุดนี้ ฉันคิดว่าเทคโนโลยี จะมาช่วยได้อย่างมาก
01:09
You've probably seen that algorithms have gotten pretty good
28
69461
2856
คุณอาจเคยเห็นอัลกอริทึม ที่มีความสามารถ
01:12
at matching people to things,
29
72341
1536
ในการจับคู่คนกับสิ่งต่าง ๆ
01:13
but what if we could use that same technology
30
73901
2256
หากเราสามารถใช้เทคโนโลยีเดียวกันนี้
01:16
to actually help us find jobs that we're really well-suited for?
31
76181
3096
ในการช่วยเราหางานที่เราเหมาะจริง ๆ
01:19
But I know what you're thinking.
32
79301
1576
ฉันรู้ว่าคุณคิดอะไรอยู่
01:20
Algorithms picking your next job sounds a little bit scary,
33
80901
2776
อัลกอริทึมที่เลือกงานถัดไปให้คุณ ฟังดูน่ากลัวเล็กน้อย
01:23
but there is one thing that has been shown
34
83701
2056
แต่มีสิ่งที่หนึ่งที่แสดงให้เห็นแล้ว
01:25
to be really predictive of someone's future success in a job,
35
85781
2896
ว่าเป็นการทำนายความสำเร็จ ในหน้าที่การงานของใครบางคนในอนาคต
01:28
and that's what's called a multimeasure test.
36
88701
2136
มันเรียกว่า การทดสอบด้วยตัววัดหลายตัว
01:30
Multimeasure tests really aren't anything new,
37
90861
2176
การทดสอบด้วยตัววัดหลายตัว ไม่ใช่อะไรใหม่
01:33
but they used to be really expensive
38
93061
1736
แต่มันเคยมีราคาที่สูงมาก
01:34
and required a PhD sitting across from you
39
94821
2016
ต้องมีผู้ที่จบ ป.เอก มานั่งตรงข้ามคุณ
01:36
and answering lots of questions and writing reports.
40
96861
2456
ต้องอาศัยการตอบคำถามมากมาย และการเขียนรายงาน
01:39
Multimeasure tests are a way
41
99341
1696
การทดสอบด้วย ตัววัดหลายตัว เป็นวิธีที่
01:41
to understand someone's inherent traits --
42
101061
2456
จะเข้าใจลักษณะโดยธรรมชาติของคน --
01:43
your memory, your attentiveness.
43
103541
1776
ความจำ ความใส่ใจ
01:46
What if we could take multimeasure tests
44
106255
1942
จะเกิดอะไรขึ้นหากเราสามารถ นำการทดสอบนั้น
01:48
and make them scalable and accessible,
45
108221
2536
มาใช้ในวงกว้างและเข้าถึงได้ง่าย
01:50
and provide data to employers about really what the traits are
46
110781
3376
และให้ข้อมูลกับผู้จ้างงานเกี่ยวกับลักษณะ
01:54
of someone who can make them a good fit for a job?
47
114181
2896
ของคนที่มีความเหมาะสมกับงาน
01:57
This all sounds abstract.
48
117101
1296
มันฟังดูเป็นนามธรรม
01:58
Let's try one of the games together.
49
118421
1735
เรามาลองหนึ่งในเกมกัน
02:00
You're about to see a flashing circle,
50
120180
1857
อีกสักครู่ คุณจะเห็นวงกลมกระพริบ
02:02
and your job is going to be to clap when the circle is red
51
122061
2960
สิ่งที่คุณต้องทำคือปรบมือ เมื่อวงกลมเป็นสีแดง
02:05
and do nothing when it's green.
52
125878
1496
ไม่ต้องทำอะไร เมื่อเป็นสีเขียว
02:07
[Ready?]
53
127399
1376
[พร้อมไหม]
02:08
[Begin!]
54
128800
1360
[เริ่ม!]
02:11
[Green circle]
55
131301
1000
[วงกลมสีเขียว]
02:13
[Green circle]
56
133301
1040
[วงกลมสีเขียว]
02:15
[Red circle]
57
135301
1000
[วงกลมสีแดง]
02:17
[Green circle]
58
137301
1080
[วงกลมสีเขียว]
02:19
[Red circle]
59
139301
1000
[วงกลมสีแดง]
02:21
Maybe you're the type of person
60
141521
1596
คุณอาจจะเป็นคนประเภทที่
02:23
who claps the millisecond after a red circle appears.
61
143141
2496
ปรบมือเสี้ยววินาที หลังจากวงกลมสีแดงปรากฎ
02:25
Or maybe you're the type of person
62
145661
1656
หรืออาจะเป็นประเภท
02:27
who takes just a little bit longer to be 100 percent sure.
63
147341
2735
ใช้เวลานานสักหน่อย เพื่อให้แน่ใจร้อยเปอร์เซ็นต์
02:30
Or maybe you clap on green even though you're not supposed to.
64
150101
2936
หรืออาจจะเป็นคนที่ปรบมือเมื่อเห็นสีเขียว แม้ไม่ควรจะทำก็ตาม
02:33
The cool thing here is that this isn't like a standardized test
65
153061
2976
ความเจ๋งคือ นี่ไม่ใช่แบบทดสอบมาตรฐาน
02:36
where some people are employable and some people aren't.
66
156061
2656
ที่บางคนจะได้งาน และบางคนไม่ได้
02:38
Instead it's about understanding the fit between your characteristics
67
158741
3256
มันเกี่ยวกับการเข้าใจความเหมาะสม ระหว่างคุณลักษณะของคุณ
02:42
and what would make you good a certain job.
68
162021
2016
กับสิ่งที่ทำให้คุณเก่งในงานบางอย่าง
02:44
We found that if you clap late on red and you never clap on the green,
69
164061
3736
เราพบว่าถ้าคุณปรบมือช้าเมื่อเห็นสีแดง และไม่เคยปรบมือตอนสีเขียว
02:47
you might be high in attentiveness and high in restraint.
70
167821
3176
คุณอาจเป็นคนที่มีความใส่ใจ และความยับยั้งชั่งใจสูง
02:51
People in that quadrant tend to be great students, great test-takers,
71
171021
3576
คนที่อยู่ในกลุ่มนี้มักเป็นนักเรียนที่เก่ง เป็นนักทำข้อสอบที่เก่ง
02:54
great at project management or accounting.
72
174621
2136
เด่นในเรื่อง การจัดการโปรเจกต์หรือบัญชี
02:56
But if you clap immediately on red and sometimes clap on green,
73
176781
3336
แต่ถ้าคุณปรบมือทันทีเมื่อเห็นสีแดง และปรบมือบ้างตอนสีเขียว
03:00
that might mean that you're more impulsive and creative,
74
180141
2656
อาจจะหมายความว่าคุณเป็นคน หุนหันและสร้างสรรค์
03:02
and we've found that top-performing salespeople often embody these traits.
75
182821
3875
เราพบว่านักขายที่เก่ง ๆ มักมีคุณลักษณะนี้
03:06
The way we actually use this in hiring
76
186721
2016
วิธีที่เราใช้สิ่งนี้ในการเลือกคนเข้าทำงาน
03:08
is we have top performers in a role go through neuroscience exercises
77
188761
3696
คือเราเอาคนเก่ง ๆ ในงาน มาทำแบบทดสอบทางประสาทวิทยา
03:12
like this one.
78
192481
1216
เหมือนอันนี้
03:13
Then we develop an algorithm
79
193721
1376
จากนั้นเราพัฒนาอัลกอริทึม
03:15
that understands what makes those top performers unique.
80
195121
2656
ที่เข้าใจว่าอะไรทำให้คนเก่ง ๆ เหล่านี้ มีความพิเศษ
03:17
And then when people apply to the job,
81
197801
1936
จากนั้นเมื่อมีคนมาสมัครงาน
03:19
we're able to surface the candidates who might be best suited for that job.
82
199761
4136
เราจะสามารถกรองผู้สมัคร ที่อาจมีความเหมาะสมที่สุดกับงาน
03:23
So you might be thinking there's a danger in this.
83
203921
2376
คุณอาจคิดว่าา มันมีความเสี่ยงเหมือนกันนะ
03:26
The work world today is not the most diverse
84
206321
2136
โลกการทำงานในปัจจุบัน ไม่ได้มีความหลากหลายนัก
03:28
and if we're building algorithms based on current top performers,
85
208481
3096
ถ้าเราสร้างอัลกอริทึมโดยอาศัย คนเก่ง ๆ ที่มีอยู่
03:31
how do we make sure
86
211601
1216
เราจะแน่ใจได้ยังไง
03:32
that we're not just perpetuating the biases that already exist?
87
212841
2976
ว่าเราไม่ได้ไป ส่งเสริมอคติที่มีอยู่แล้ว
03:35
For example, if we were building an algorithm based on top performing CEOs
88
215841
4056
ตัวอย่างเช่น ถ้าเราพัฒนาอัลกอริทึม โดยอาศัยซีอีโอท็อป ๆ
03:39
and use the S&P 500 as a training set,
89
219921
3216
และใช้ข้อมูลจาก S&P 500 ในการทดสอบ
03:43
you would actually find
90
223161
1256
คุณจะพบว่า
03:44
that you're more likely to hire a white man named John than any woman.
91
224441
3816
คุณมีแนวโน้มจะจ้างชายผิวขาวชื่อจอร์น มากกว่าผู้หญิง
03:48
And that's the reality of who's in those roles right now.
92
228281
2696
และนั่นคือความจริงที่ว่า ใครอยู่ในตำแหน่งนั้นตอนนี้
03:51
But technology actually poses a really interesting opportunity.
93
231001
3376
แต่เทคโนโลยี ก็มอบโอกาสที่น่าสนใจเช่นกัน
03:54
We can create algorithms that are more equitable
94
234401
2256
เราสามารถสร้างอัลกอริทึม ที่มีความเท่าเทียม
03:56
and more fair than human beings have ever been.
95
236681
2256
และยุติธรรมมากว่าที่มนุษย์เคยเห็นมา
03:58
Every algorithm that we put into production has been pretested
96
238961
3696
อัลกอริทึมทุกตัวที่เราใช้ได้ถูกทดสอบ
04:02
to ensure that it doesn't favor any gender or ethnicity.
97
242681
3096
เพื่อให้แน่ใจว่ามันไม่ได้เอนเอียง ไปทางเพศใดหรือเชื้อชาติใด
04:05
And if there's any population that's being overfavored,
98
245801
2736
และหากมีประชากรใด ที่ได้รับความชื่นชอบมากกว่า
04:08
we can actually alter the algorithm until that's no longer true.
99
248561
3120
เราก็สามารถที่จะปรับอัลกอริทึม จนกว่ามันจะหายไป
04:12
When we focus on the inherent characteristics
100
252041
2216
เมื่อเราสนใจไปที่คุณลักษณะตามธรรมชาติ
04:14
that can make somebody a good fit for a job,
101
254281
2096
ที่ทำให้ให้สักคนเหมาะสมกับงาน
04:16
we can transcend racism, classism, sexism, ageism --
102
256401
3576
เราสามารถก้าวข้ามการเหยีดเชื้อชาติ ชนชั้น เพศ อายุ --
04:20
even good schoolism.
103
260001
1416
แม้กระทั่งการไปโรงเรียนดี ๆ
04:21
Our best technology and algorithms shouldn't just be used
104
261441
2896
เทคโนโลยีที่ดีและอัลกิริทึมที่ดีที่สุด ไม่ควรถูกใช้แค่
04:24
for helping us find our next movie binge or new favorite Justin Bieber song.
105
264361
3736
การช่วยให้เราหาหนังเรื่องถัดไป หรือเพลงใหม่ติดหูของจัสติน บีเบอร์
04:28
Imagine if we could harness the power of technology
106
268121
2656
จินตนาการดูว่าเราจะสามารถ ใช้พลังของเทคโนโลยี
04:30
to get real guidance on what we should be doing
107
270801
2296
เพื่อให้ได้แนวทางว่า เราควรจะทำอะไร
04:33
based on who we are at a deeper level.
108
273121
1936
จากสิ่งที่เราเป็น ในระดับลึกลงไป
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7