3 myths about the future of work (and why they're not true) | Daniel Susskind

169,353 views

2018-04-05 ・ TED


New videos

3 myths about the future of work (and why they're not true) | Daniel Susskind

169,353 views ・ 2018-04-05

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Khoa Nguyen Reviewer: Dan Nguyen
00:12
Automation anxiety has been spreading lately,
0
12760
3376
Mối lo về tự động hóa đã lan rộng trong thời gian gần đây,
00:16
a fear that in the future,
1
16160
2656
nỗi lo sợ rằng trong tương lai,
00:18
many jobs will be performed by machines
2
18840
2456
nhiều việc làm sẽ được thực hiện bởi máy móc
00:21
rather than human beings,
3
21320
1336
thay cho con người,
00:22
given the remarkable advances that are unfolding
4
22680
2936
những tiến bộ đáng chú ý đang diễn ra
00:25
in artificial intelligence and robotics.
5
25640
2776
trong lĩnh vực trí tuệ nhân tạo và nghiên cứu người máy.
00:28
What's clear is that there will be significant change.
6
28440
2816
Điều rõ ràng ở đây là sẽ có sự thay đổi đáng kể.
00:31
What's less clear is what that change will look like.
7
31280
3616
Điều chưa rõ ở đây là thay đổi đó sẽ trông như thế nào.
00:34
My research suggests that the future is both troubling and exciting.
8
34920
4936
Theo nghiên cứu của tôi thì tương lai sẽ vừa khó khăn lại vừa thú vị.
00:39
The threat of technological unemployment is real,
9
39880
3736
Mối đe dọa về nạn thất nghiệp gây ra bởi công nghệ là có thật,
00:43
and yet it's a good problem to have.
10
43640
2056
nhưng nó là một vấn đề tốt mà ta cần có.
00:45
And to explain how I came to that conclusion,
11
45720
3216
Và để giải thích bằng cách nào tôi đi đến kết luận đó,
00:48
I want to confront three myths
12
48960
2536
Tôi muốn đương đầu với 3 quan niệm sai lầm
00:51
that I think are currently obscuring our vision of this automated future.
13
51520
4280
mà tôi nghĩ hiện đang che khuất tầm nhìn của chúng ta về tương lai của tự động hóa.
00:56
A picture that we see on our television screens,
14
56880
2336
Một hình ảnh mà ta thấy trên các màn hình tivi,
00:59
in books, in films, in everyday commentary
15
59240
2216
trong sách, phim, bản tin hàng ngày
01:01
is one where an army of robots descends on the workplace
16
61480
3696
là một đội quân robot bất ngờ tràn vào nơi làm việc
01:05
with one goal in mind:
17
65200
1376
với một mục tiêu trong đầu:
01:06
to displace human beings from their work.
18
66600
2496
thay thế con người làm công việc của họ.
01:09
And I call this the Terminator myth.
19
69120
2696
Tôi gọi đây là lầm tưởng Kẻ hủy diệt.
01:11
Yes, machines displace human beings from particular tasks,
20
71840
3976
Vâng, máy móc thay thế con người làm những việc nhất định,
01:15
but they don't just substitute for human beings.
21
75840
2256
nhưng chúng không chỉ thay thế loài người.
01:18
They also complement them in other tasks,
22
78120
1976
Chúng còn bổ sung cho họ ở các việc khác,
01:20
making that work more valuable and more important.
23
80120
3616
làm cho công việc đó trở nên quan trọng và có giá trị hơn.
01:23
Sometimes they complement human beings directly,
24
83760
3336
Đôi khi chúng trực tiếp hỗ trợ cho con người,
01:27
making them more productive or more efficient at a particular task.
25
87120
4016
giúp họ làm việc có năng suất hay hiệu quả hơn trong những việc cụ thể.
01:31
So a taxi driver can use a satnav system to navigate on unfamiliar roads.
26
91160
4616
Một tài xế taxi có thể dùng hệ thống định vị vệ tinh trên những con đường lạ.
01:35
An architect can use computer-assisted design software
27
95800
3336
Một kiến trúc sư có thể sử dụng phần mềm thiết kế được máy tính hỗ trợ
01:39
to design bigger, more complicated buildings.
28
99160
3096
để thiết kế những tòa nhà to lớn hơn, phức tạp hơn.
01:42
But technological progress doesn't just complement human beings directly.
29
102280
3696
Nhưng sự phát triển kỹ thuật không chỉ trực tiếp bổ sung cho con người.
01:46
It also complements them indirectly, and it does this in two ways.
30
106000
3336
Nó cũng bổ trợ họ một cách gián tiếp, và nó làm điều này theo hai cách.
01:49
The first is if we think of the economy as a pie,
31
109360
3336
Đầu tiên là nếu ta xem nền kinh tế như một cái bánh,
01:52
technological progress makes the pie bigger.
32
112720
2896
thì tiến bộ kỹ thuật làm cái bánh to hơn.
01:55
As productivity increases, incomes rise and demand grows.
33
115640
3856
Khi năng suất tăng, thu nhập và nhu cầu cũng nhiều hơn.
01:59
The British pie, for instance,
34
119520
1776
Ví dụ như chiếc bánh của nước Anh,
02:01
is more than a hundred times the size it was 300 years ago.
35
121320
3960
có kích thước gấp hàng trăm lần so với 300 năm trước.
02:05
And so people displaced from tasks in the old pie
36
125920
3216
Và vì thế những ai đã rời khỏi các công việc ở chiếc bánh cũ
02:09
could find tasks to do in the new pie instead.
37
129160
2720
có thể tìm các công việc thay thế trong chiếc bánh mới.
02:12
But technological progress doesn't just make the pie bigger.
38
132800
3936
Nhưng tiến bộ kỹ thuật không chỉ làm chiếc bánh to hơn.
02:16
It also changes the ingredients in the pie.
39
136760
2856
Nó cũng thay đổi các thành phần trong chiếc bánh.
02:19
As time passes, people spend their income in different ways,
40
139640
3456
Theo thời gian, con người sử dụng thu nhập theo những cách khác nhau,
02:23
changing how they spread it across existing goods,
41
143120
2816
thay đổi cách mà họ chi tiêu qua các mặt hàng hiện hữu,
02:25
and developing tastes for entirely new goods, too.
42
145960
3216
và cũng phát triển thị hiếu cho các mặt hàng hoàn toàn mới nữa.
02:29
New industries are created,
43
149200
1776
Các ngành mới được tạo ra,
02:31
new tasks have to be done
44
151000
1816
các nhiệm vụ mới phải được thực hiện
02:32
and that means often new roles have to be filled.
45
152840
2536
có nghĩa là các vai trò mới cũng phải được đáp ứng.
02:35
So again, the British pie:
46
155400
1496
Trở lại chiếc bánh nước Anh:
02:36
300 years ago, most people worked on farms,
47
156920
2976
300 năm trước, hầu hết người ta làm ở nông trại,
02:39
150 years ago, in factories,
48
159920
2336
150 năm trước, thì trong các nhà máy,
02:42
and today, most people work in offices.
49
162280
2856
và ngày nay, hầu hết người ta làm việc trong văn phòng.
02:45
And once again, people displaced from tasks in the old bit of pie
50
165160
4056
Một lần nữa, những người bị thay thế khỏi các công việc ở chiếc bánh cũ
02:49
could tumble into tasks in the new bit of pie instead.
51
169240
2800
thay vào đó có thể lao vào công việc ở mẩu bánh mới.
02:52
Economists call these effects complementarities,
52
172720
3336
Các nhà kinh tế học gọi những hiệu ứng này là nguyên tắc bổ sung,
02:56
but really that's just a fancy word to capture the different way
53
176080
3256
nhưng thực sự đó chỉ là một mỹ từ để diễn tả theo một cách khác
02:59
that technological progress helps human beings.
54
179360
3136
những gì tiến bộ kỹ thuật giúp loài người.
03:02
Resolving this Terminator myth
55
182520
2096
Giải quyết sự lầm tưởng Kẻ hủy diệt này
03:04
shows us that there are two forces at play:
56
184640
2336
cho chúng ta thấy rằng có hai sức mạnh hiện hữu:
03:07
one, machine substitution that harms workers,
57
187000
3536
một là, việc thay thế bằng máy móc gây thiệt hại cho người lao động,
03:10
but also these complementarities that do the opposite.
58
190560
2880
nhưng các nguyên tắc bổ sung lại có tác động ngược lại.
03:13
Now the second myth,
59
193960
1376
Giờ là lầm tưởng thứ hai,
03:15
what I call the intelligence myth.
60
195360
2280
điều mà tôi gọi là lầm tưởng về sự thông minh.
03:18
What do the tasks of driving a car, making a medical diagnosis
61
198440
4896
Điểm chung của việc lái một chiếc xe hơi, thực hiện một chẩn đoán y học,
03:23
and identifying a bird at a fleeting glimpse have in common?
62
203360
2920
và xác định một con chim khi nhìn thoáng qua là gì?
03:27
Well, these are all tasks that until very recently,
63
207280
2976
Đây là tất cả các công việc mà cho đến rất gần đây,
03:30
leading economists thought couldn't readily be automated.
64
210280
3336
các nhà kinh tế học hàng đầu đã nghĩ là chưa sẵn sàng để tự động hóa.
03:33
And yet today, all of these tasks can be automated.
65
213640
3176
Nhưng đến hôm nay, tất cả những việc này có thể tự động hóa.
03:36
You know, all major car manufacturers have driverless car programs.
66
216840
3496
Bạn biết đấy, các nhà sản xuất xe hơi lớn đều có dự án xe không người lái.
03:40
There's countless systems out there that can diagnose medical problems.
67
220360
3976
Có vô số hệ thống ngoài kia có thể chẩn đoán các vấn đề y tế.
03:44
And there's even an app that can identify a bird
68
224360
2416
Và còn có cả ứng dụng có thể xác định một con chim
03:46
at a fleeting glimpse.
69
226800
1200
trong một cái liếc mắt.
03:48
Now, this wasn't simply a case of bad luck on the part of economists.
70
228920
4376
Đây không đơn giản là một trường hợp thiếu may mắn của các nhà kinh tế học.
03:53
They were wrong,
71
233320
1296
Họ đã sai,
03:54
and the reason why they were wrong is very important.
72
234640
2496
và lý do tại sao họ đã sai là rất quan trọng.
03:57
They've fallen for the intelligence myth,
73
237160
2256
Họ bị rơi vào lầm tưởng về sự thông minh,
03:59
the belief that machines have to copy the way
74
239440
2896
niềm tin rằng các máy móc phải bắt chước
04:02
that human beings think and reason
75
242360
2056
cách mà con người suy nghĩ và lý luận
04:04
in order to outperform them.
76
244440
1776
để làm tốt hơn họ.
04:06
When these economists were trying to figure out
77
246240
2216
Khi những nhà kinh tế học này đang cố tìm ra
04:08
what tasks machines could not do,
78
248480
1856
những việc mà máy móc không thể làm,
04:10
they imagined the only way to automate a task
79
250360
2136
họ nghĩ cách duy nhất để tự động hóa nhiệm vụ
04:12
was to sit down with a human being,
80
252520
1816
là ngồi cùng với một con người,
04:14
get them to explain to you how it was they performed a task,
81
254360
3536
để họ giải thích cho bạn cách họ thực hiện một nhiệm vụ,
04:17
and then try and capture that explanation
82
257920
2656
thử nắm bắt và ánh xạ cách giải thích đó
04:20
in a set of instructions for a machine to follow.
83
260600
2776
vào một tập hợp các chỉ dẫn để một máy tính làm theo.
04:23
This view was popular in artificial intelligence at one point, too.
84
263400
4176
Quan điểm này cũng đã được phổ biến trong trí tuệ nhân tạo tại một thời điểm.
04:27
I know this because Richard Susskind,
85
267600
2176
Tôi biết điều này nhờ Richard Susskind,
04:29
who is my dad and my coauthor,
86
269800
2856
bố tôi và cũng là đồng tác giả của tôi,
04:32
wrote his doctorate in the 1980s on artificial intelligence and the law
87
272680
4056
đã viết luận án tiến sĩ vào những năm 1980 về trí thông minh nhân tạo và luật
04:36
at Oxford University,
88
276760
1416
tại Đại học Oxford,
04:38
and he was part of the vanguard.
89
278200
1576
và ông ấy thuộc nhóm tiên phong.
04:39
And with a professor called Phillip Capper
90
279800
2256
Và cùng với một vị giáo sư là Phillp Capper
04:42
and a legal publisher called Butterworths,
91
282080
2096
và một nhà xuất bản về luật Butterworths,
04:44
they produced the world's first commercially available
92
284200
5896
họ đã chế tạo ra hệ thống trí thông minh nhân tạo mang tính thương mại
04:50
artificial intelligence system in the law.
93
290120
2776
đầu tiên trên thế giới về luật pháp.
04:52
This was the home screen design.
94
292920
2616
Đây là thiết kế giao diện màn hình chính.
04:55
He assures me this was a cool screen design at the time.
95
295560
2696
Ông cam đoan đây là thiết kế màn hình tuyệt nhất thời đó.
04:58
(Laughter)
96
298280
1016
(Cười)
04:59
I've never been entirely convinced.
97
299320
1696
Tôi chưa bị thuyết phục hoàn toàn.
05:01
He published it in the form of two floppy disks,
98
301040
2616
Ông đã phát hành nó dưới dạng hai đĩa mềm,
05:03
at a time where floppy disks genuinely were floppy,
99
303680
3536
vào cái thời mà đĩa mềm thực sự mềm,
05:07
and his approach was the same as the economists':
100
307240
2336
và cách ông ấy tiếp cận giống như các nhà kinh tế:
05:09
sit down with a lawyer,
101
309600
1256
ngồi cùng với một luật sư,
05:10
get her to explain to you how it was she solved a legal problem,
102
310880
3176
để cô ấy giải thích cho bạn cách cô ấy giải quyết vấn đề pháp lý,
05:14
and then try and capture that explanation in a set of rules for a machine to follow.
103
314080
5376
rồi thử nắm bắt lời giải thích đó vào một bộ quy tắc cho một cái máy làm theo.
05:19
In economics, if human beings could explain themselves in this way,
104
319480
3616
Trong kinh tế học, nếu con người có thể tự giải thích theo cách này,
05:23
the tasks are called routine, and they could be automated.
105
323120
3296
các nhiệm vụ được gọi là các trình tự, và chúng có thể tự động hóa.
05:26
But if human beings can't explain themselves,
106
326440
2336
Nhưng nếu con người không thể tự giải thích,
05:28
the tasks are called non-routine, and they're thought to be out reach.
107
328800
4256
các nhiệm vụ được gọi là phi trình tự, và chúng được cho là không thể tiếp cận.
05:33
Today, that routine-nonroutine distinction is widespread.
108
333080
3296
Ngày nay, sự phân biệt trình tự - phi trình tự này rất phổ biến.
05:36
Think how often you hear people say to you
109
336400
2056
Hãy nghĩ mọi người thường nói với bạn
05:38
machines can only perform tasks that are predictable or repetitive,
110
338480
3256
máy móc chỉ có thể thực hiện các tác vụ có thể dự đoán hoặc lặp lại,
05:41
rules-based or well-defined.
111
341760
1896
dựa trên quy tắc hoặc được xác định rõ.
05:43
Those are all just different words for routine.
112
343680
2936
Tất cả chúng chỉ là những từ khác nhau chỉ thủ tục trình tự.
05:46
And go back to those three cases that I mentioned at the start.
113
346640
3976
Và trở lại với ba tình huống tôi đã đề cập từ lúc đầu.
05:50
Those are all classic cases of nonroutine tasks.
114
350640
2896
Đây đều là các ví dụ kinh điển của các tác vụ phi trình tự.
05:53
Ask a doctor, for instance, how she makes a medical diagnosis,
115
353560
2976
Hỏi một bác sĩ, ví dụ, cách cô ấy đưa ra một chẩn đoán y tế,
05:56
and she might be able to give you a few rules of thumb,
116
356560
2656
và cô ấy có thể sẽ đưa cho bạn một vài kinh nghiệm,
05:59
but ultimately she'd struggle.
117
359240
1656
mà sau cùng cô ấy phải nghĩ lại.
06:00
She'd say it requires things like creativity and judgment and intuition.
118
360920
4816
Cô ấy sẽ nói nó đòi hỏi những thứ như sự sáng tạo, óc phán đoán và trực giác.
06:05
And these things are very difficult to articulate,
119
365760
2376
Và những điều này rất khó để nói rõ,
06:08
and so it was thought these tasks would be very hard to automate.
120
368160
3096
và do đó, các nhiệm vụ này được cho là sẽ rất khó để tự động hóa.
06:11
If a human being can't explain themselves,
121
371280
2536
Nếu con người không thể tự giải thích,
06:13
where on earth do we begin in writing a set of instructions
122
373840
2896
thì bằng cách nào chúng ta có thể bắt đầu viết ra bộ chỉ dẫn,
06:16
for a machine to follow?
123
376760
1200
cho máy móc làm theo?
06:18
Thirty years ago, this view was right,
124
378640
2576
Ba mươi năm về trước, quan điểm này là đúng,
06:21
but today it's looking shaky,
125
381240
2136
nhưng ngày nay quan điểm này đang lung lay,
06:23
and in the future it's simply going to be wrong.
126
383400
2256
và trong tương lai, nó đơn giản là sai lầm.
06:25
Advances in processing power, in data storage capability
127
385680
3256
Những tiến bộ trong năng lực xử lý, trong khả năng lưu trữ dữ liệu
06:28
and in algorithm design
128
388960
1656
và trong thiết kế thuật toán
06:30
mean that this routine-nonroutine distinction
129
390640
2496
nghĩa là sự khác biệt giữa có trình tự - phi trình tự
06:33
is diminishingly useful.
130
393160
1736
không còn ý nghĩa nhiều.
06:34
To see this, go back to the case of making a medical diagnosis.
131
394920
3256
Để thấy được điều này, hãy trở lại với trường hợp chẩn đoán y tế.
06:38
Earlier in the year,
132
398200
1376
Đầu năm nay,
06:39
a team of researchers at Stanford announced they'd developed a system
133
399600
3296
nhóm các nhà nghiên cứu ở Stanford tuyên bố họ đã phát triển hệ thống
06:42
which can tell you whether or not a freckle is cancerous
134
402920
3056
có thể cho bạn biết vết tàn nhang có phải là ung thư hay không
06:46
as accurately as leading dermatologists.
135
406000
2680
chính xác như các bác sĩ da liễu hàng đầu.
06:49
How does it work?
136
409280
1256
Nó hoạt động như thế nào?
06:50
It's not trying to copy the judgment or the intuition of a doctor.
137
410560
5296
Nó không cố gắng để sao chép óc phán đoán hoặc trực giác của một bác sĩ.
06:55
It knows or understands nothing about medicine at all.
138
415880
3136
Nó không có bất kỳ nhận thức hay hiểu biết gì về y học cả.
06:59
Instead, it's running a pattern recognition algorithm
139
419040
2576
Thay vào đó, nó đang chạy một thuật toán nhận dạng mẫu
07:01
through 129,450 past cases,
140
421640
4656
trên 129.450 trường hợp trong quá khứ,
07:06
hunting for similarities between those cases
141
426320
3096
tìm kiếm sự tương đồng giữa các trường hợp
07:09
and the particular lesion in question.
142
429440
2080
và thương tổn cụ thể trong câu hỏi.
07:12
It's performing these tasks in an unhuman way,
143
432080
3216
Nó thực hiện những nhiệm vụ này không theo cách của con người,
07:15
based on the analysis of more possible cases
144
435320
2336
mà dựa trên phân tích các trường hợp có thể xảy ra
07:17
than any doctor could hope to review in their lifetime.
145
437680
2616
nhiều hơn bất kỳ bác sĩ nào có thể xem hết trong đời.
07:20
It didn't matter that that human being,
146
440320
1896
Nó không quan trọng là con người đó,
07:22
that doctor, couldn't explain how she'd performed the task.
147
442240
2800
bác sĩ đó, không thể giải thích cô ấy làm như thế nào.
07:25
Now, there are those who dwell upon that the fact
148
445640
2336
Bây giờ, có nhiều người sống với thực tế rằng
07:28
that these machines aren't built in our image.
149
448000
2296
máy móc không tạo dựng theo bản chất con người.
07:30
As an example, take IBM's Watson,
150
450320
2056
Lấy IBM's Watson làm ví dụ,
07:32
the supercomputer that went on the US quiz show "Jeopardy!" in 2011,
151
452400
4856
siêu máy tính đã tham gia chương trình đố vui của Mỹ "Jeopardy!" trong năm 2011,
07:37
and it beat the two human champions at "Jeopardy!"
152
457280
3016
và nó đã đánh bại hai nhà vô địch tại "Jeopardy!"
07:40
The day after it won,
153
460320
1696
Một ngày sau chiến thắng của nó,
07:42
The Wall Street Journal ran a piece by the philosopher John Searle
154
462040
3296
Tờ nhật báo phố Wall xuất bản tác phẩm của nhà triết học John Searle
07:45
with the title "Watson Doesn't Know It Won on 'Jeopardy!'"
155
465360
3376
với tiêu đề "Watson không biết rằng nó đã chiến thắng tại 'Jeopardy!'"
07:48
Right, and it's brilliant, and it's true.
156
468760
1976
Phải, nó rất tài giỏi, và đó là sự thật.
07:50
You know, Watson didn't let out a cry of excitement.
157
470760
2456
Bạn biết đấy, Watson không bật khóc vì phấn khích.
07:53
It didn't call up its parents to say what a good job it had done.
158
473240
3096
Nó đã không gọi bố mẹ của nó để nói nó đã làm tốt như thế nào.
07:56
It didn't go down to the pub for a drink.
159
476360
2336
Nó cũng không đi đến quán rượu để uống.
07:58
This system wasn't trying to copy the way that those human contestants played,
160
478720
4456
Hệ thống này đã không cố gắng bắt chước cái cách mà các đối thủ tham gia đã chơi,
08:03
but it didn't matter.
161
483200
1256
nhưng không thành vấn đề.
08:04
It still outperformed them.
162
484480
1976
Nó vẫn vượt trội so với họ.
08:06
Resolving the intelligence myth
163
486480
1576
Hoá giải lầm tưởng về thông minh
08:08
shows us that our limited understanding about human intelligence,
164
488080
3376
cho thấy sự hạn chế trong hiểu biết của chúng ta về trí tuệ con người,
08:11
about how we think and reason,
165
491480
1896
về cách mà chúng ta tư duy và suy luận,
08:13
is far less of a constraint on automation than it was in the past.
166
493400
3456
ít bị ràng buộc hơn về sự tự động hoá so với trong quá khứ.
08:16
What's more, as we've seen,
167
496880
1496
Hơn nữa, như chúng ta đã thấy,
08:18
when these machines perform tasks differently to human beings,
168
498400
3416
khi máy móc thực hiện các nhiệm vụ một cách khác biệt so với con người,
08:21
there's no reason to think
169
501840
1256
không có lý do gì để nghĩ
08:23
that what human beings are currently capable of doing
170
503120
2536
rằng những điều mà con người hiện tại có thể làm được
08:25
represents any sort of summit
171
505680
1456
đại diện cho bất cứ đỉnh cao nào
08:27
in what these machines might be capable of doing in the future.
172
507160
3000
mà các máy móc có khả năng thực hiện trong tương lai.
08:31
Now the third myth,
173
511040
1256
Giờ là lầm tưởng thứ ba,
08:32
what I call the superiority myth.
174
512320
2456
cái mà tôi gọi là lầm tưởng về tính ưu việt.
08:34
It's often said that those who forget
175
514800
2216
Mọi người thường nói rằng những người quên đi
08:37
about the helpful side of technological progress,
176
517040
2456
khía cạnh hữu ích của tiến bộ công nghệ,
08:39
those complementarities from before,
177
519520
2496
những sự bổ trợ từ trước đây,
08:42
are committing something known as the lump of labor fallacy.
178
522040
3040
đang phạm vào cái gọi là sai lầm về nguồn nhân lực.
08:45
Now, the problem is the lump of labor fallacy
179
525840
2295
Giờ thì, vấn đề là sai lầm về nguồn nhân lực
08:48
is itself a fallacy,
180
528159
1496
bản thân nó là sự sai lầm,
08:49
and I call this the lump of labor fallacy fallacy,
181
529679
2937
và tôi gọi nó là sai lầm của sai lầm về nguồn nhân lực,
08:52
or LOLFF, for short.
182
532640
2320
hay ngắn gọn là LOLFF.
08:56
Let me explain.
183
536000
1416
Hãy để tôi giải thích.
08:57
The lump of labor fallacy is a very old idea.
184
537440
2136
Sai lầm về nguồn nhân lực là khái niệm cũ.
08:59
It was a British economist, David Schloss, who gave it this name in 1892.
185
539600
4216
Nhà kinh tế học người Anh David Schloss đã đặt ra khái niệm này vào năm 1892.
09:03
He was puzzled to come across a dock worker
186
543840
2816
Ông ngạc nhiên khi đi qua thấy một công nhân bến tàu
09:06
who had begun to use a machine to make washers,
187
546680
2336
bắt đầu dùng máy móc tạo ra vòng đệm,
09:09
the small metal discs that fasten on the end of screws.
188
549040
3320
loại đĩa kim loại nhỏ giúp giữ chặt đầu đinh ốc.
09:13
And this dock worker felt guilty for being more productive.
189
553000
3760
Rồi người công nhân bến tàu này cảm thấy tội lỗi vì làm việc năng suất hơn.
09:17
Now, most of the time, we expect the opposite,
190
557560
2176
Giờ, hầu hết, ta lại mong điều ngược lại
09:19
that people feel guilty for being unproductive,
191
559760
2216
là con người mặc cảm vì làm việc không hiệu quả
09:22
you know, a little too much time on Facebook or Twitter at work.
192
562000
3016
bạn biết đấy, như lướt Facebook hay Twitter ở chỗ làm quá nhiều.
09:25
But this worker felt guilty for being more productive,
193
565040
2536
Nhưng người này lại thấy mặc cảm khi làm việc hiệu quả
09:27
and asked why, he said, "I know I'm doing wrong.
194
567600
2296
khi được hỏi, anh nói "Tôi biết tôi đang làm sai.
09:29
I'm taking away the work of another man."
195
569920
2040
Tôi sẽ khiến người khác mất việc."
09:32
In his mind, there was some fixed lump of work
196
572760
2976
Trong tâm trí mình, anh nghĩ có một khối lượng việc cố định
09:35
to be divided up between him and his pals,
197
575760
2136
để chia cho anh và đồng nghiệp,
09:37
so that if he used this machine to do more,
198
577920
2056
vì thế nếu dùng cỗ máy này để làm nhiều hơn
09:40
there'd be less left for his pals to do.
199
580000
2016
thì sẽ không còn việc cho đồng nghiệp nữa.
09:42
Schloss saw the mistake.
200
582040
1856
Và Schloss thấy được sai lầm.
09:43
The lump of work wasn't fixed.
201
583920
1856
Khối lượng công việc không hề cố định.
09:45
As this worker used the machine and became more productive,
202
585800
2816
Khi công nhân này dùng máy móc và trở nên năng suất hơn,
09:48
the price of washers would fall, demand for washers would rise,
203
588640
2976
giá vòng đệm sẽ giảm, nhu cầu cho vòng đệm sẽ tăng,
09:51
more washers would have to be made,
204
591640
1696
cần sản xuất nhiều vòng đệm hơn,
09:53
and there'd be more work for his pals to do.
205
593360
2096
và có nhiều việc hơn cho đồng nghiệp của anh
09:55
The lump of work would get bigger.
206
595480
1696
Khối lượng công việc sẽ nhiều hơn.
09:57
Schloss called this "the lump of labor fallacy."
207
597200
2680
Schloss gọi đây là "sai lầm về nguồn nhân lực."
10:00
And today you hear people talk about the lump of labor fallacy
208
600560
2936
Và hôm nay bạn nghe người ta nói về sai lầm về nguồn nhân lực
10:03
to think about the future of all types of work.
209
603520
2216
để nghĩ tới tương lai của mọi loại công việc.
10:05
There's no fixed lump of work out there to be divided up
210
605760
2656
Không có một khối lượng công việc cố định được chia đều
10:08
between people and machines.
211
608440
1376
giữa con người và máy móc.
10:09
Yes, machines substitute for human beings, making the original lump of work smaller,
212
609840
4656
Đúng vậy, máy móc thay thế con người khiến khối lượng công việc ban đầu nhỏ lại
10:14
but they also complement human beings,
213
614520
1856
nhưng chúng cũng bổ trợ cho con người,
10:16
and the lump of work gets bigger and changes.
214
616400
2096
nên khối lượng việc lớn hơn và thay đổi.
10:19
But LOLFF.
215
619760
1616
Thế nhưng LOLFF.
10:21
Here's the mistake:
216
621400
1376
Sai lầm chính là đây:
10:22
it's right to think that technological progress
217
622800
2216
Tư duy cho rằng tiến bộ công nghệ
10:25
makes the lump of work to be done bigger.
218
625040
1976
khiến việc được hoàn tất nhiều hơn là đúng
10:27
Some tasks become more valuable. New tasks have to be done.
219
627040
3016
Giờ đây nhiệm vụ trở nên giá trị hơn. Nhiệm vụ mới cần được làm.
10:30
But it's wrong to think that necessarily,
220
630080
2536
Nhưng tư duy rằng con người sẽ là tốt nhất
10:32
human beings will be best placed to perform those tasks.
221
632640
3256
để thực hiện những nhiệm vụ đó là sai.
10:35
And this is the superiority myth.
222
635920
1616
Và đây là lầm tưởng về sự ưu việt.
10:37
Yes, the lump of work might get bigger and change,
223
637560
3416
Đúng vậy, khối lượng công việc có thể trở nên lớn hơn,
10:41
but as machines become more capable,
224
641000
1976
nhưng máy móc cũng trở nên năng lực hơn,
10:43
it's likely that they'll take on the extra lump of work themselves.
225
643000
3896
Nhiều khả năng chúng sẽ tự lấy thêm phần công việc khác.
10:46
Technological progress, rather than complement human beings,
226
646920
3256
Tiến bộ công nghệ, thay vì bổ trợ con người,
10:50
complements machines instead.
227
650200
1880
thay vào đó sẽ bổ trợ cho máy móc.
10:52
To see this, go back to the task of driving a car.
228
652920
3016
Để hiểu điều này, quay lại việc lái một chiếc xe.
10:55
Today, satnav systems directly complement human beings.
229
655960
4096
Ngày nay, hệ thống định vị vệ tinh bổ trợ con người một cách trực tiếp.
11:00
They make some human beings better drivers.
230
660080
2280
Chúng làm cho một số người thành tài xế tốt hơn.
11:02
But in the future,
231
662920
1256
Nhưng trong tương lai,
11:04
software is going to displace human beings from the driving seat,
232
664200
3096
phần mềm sẽ thay thế con người ở ghế lái,
11:07
and these satnav systems, rather than complement human beings,
233
667320
2936
và những hệ thống định vị vệ tinh, thay vì bổ trợ con người,
11:10
will simply make these driverless cars more efficient,
234
670280
2536
sẽ đơn giản làm cho xe tự lái hiệu quả hơn,
11:12
helping the machines instead.
235
672840
1536
giúp máy móc hiệu quả hơn.
11:14
Or go to those indirect complementarities that I mentioned as well.
236
674400
4056
Hoặc xét đến những bổ trợ gián tiếp mà tôi đã từng đề cập.
11:18
The economic pie may get larger,
237
678480
1776
Miếng bánh kinh tế trở nên lớn hơn,
11:20
but as machines become more capable,
238
680280
1736
khi máy móc trở nên có năng lực hơn,
11:22
it's possible that any new demand will fall on goods that machines,
239
682040
3143
Có khả năng những nhu cầu mới ở những loại hàng hoá mà máy móc,
11:25
rather than human beings, are best placed to produce.
240
685207
2649
sản xuất tốt hơn con người.
11:27
The economic pie may change,
241
687880
1896
Miếng bánh kinh tế sẽ thay đổi,
11:29
but as machines become more capable,
242
689800
1896
khi máy móc trở nên có năng lực hơn,
11:31
it's possible that they'll be best placed to do the new tasks that have to be done.
243
691720
4856
chúng sẽ có khả năng làm nhiệm vụ mới hơn những gì chúng phải bị bắt phải làm.
11:36
In short, demand for tasks isn't demand for human labor.
244
696600
3696
Nói ngắn gọn, nhu cầu cho những công việc không cần sức lao động con người.
11:40
Human beings only stand to benefit
245
700320
1936
Con người chỉ cần đứng đó để hưởng lợi,
11:42
if they retain the upper hand in all these complemented tasks,
246
702280
3816
nếu họ nắm được ưu thế trong tất cả những công việc được bổ trợ này,
11:46
but as machines become more capable, that becomes less likely.
247
706120
3720
nhưng máy móc cũng trở nên năng lực hơn, do đó điều này ít khả năng xảy ra hơn.
11:50
So what do these three myths tell us then?
248
710760
2016
Vậy ba sự lầm tưởng này nói lên điều gì?
11:52
Well, resolving the Terminator myth
249
712800
1696
Giải quyết sự lầm tưởng Kẻ huỷ diệt
11:54
shows us that the future of work depends upon this balance between two forces:
250
714520
3696
cho ta thấy tương lai của công việc phụ thuộc vào cân bằng giữa hai sức mạnh:
11:58
one, machine substitution that harms workers
251
718240
3136
một là sự thay thế của máy móc ảnh hưởng đến người lao động
12:01
but also those complementarities that do the opposite.
252
721400
2576
nhưng cũng có những sự bổ trợ ngược lại.
12:04
And until now, this balance has fallen in favor of human beings.
253
724000
4040
Cho đến hiện nay, sự cân bằng này đã nghiêng về phía con người.
12:09
But resolving the intelligence myth
254
729120
1736
Nhưng giải quyết lầm tưởng
12:10
shows us that that first force, machine substitution,
255
730880
2496
về sự thông minh cho ta thấy sức mạnh đầu tiên,
12:13
is gathering strength.
256
733400
1296
là máy móc đang mạnh dần.
12:14
Machines, of course, can't do everything,
257
734720
1976
Đương nhiên máy móc không thể làm mọi thứ
12:16
but they can do far more,
258
736720
1256
chúng có thể làm nhiều hơn
12:18
encroaching ever deeper into the realm of tasks performed by human beings.
259
738000
4576
lấn sâu vào những lĩnh vực công việc được thực hiện bởi con người.
12:22
What's more, there's no reason to think
260
742600
1896
Còn gì hơn nữa, không có lý gì để nghĩ
12:24
that what human beings are currently capable of
261
744520
2216
rằng những gì con người đang có khả năng làm
12:26
represents any sort of finishing line,
262
746760
1856
đại diện cho bất kỳ một loại đích đến,
12:28
that machines are going to draw to a polite stop
263
748640
2256
mà máy móc chuẩn bị vẽ một đường vạch ngăn lại
12:30
once they're as capable as us.
264
750920
1816
một khi chúng có khả năng như chúng ta
12:32
Now, none of this matters
265
752760
1536
Ngay bây giờ, không có vấn đề gì
12:34
so long as those helpful winds of complementarity
266
754320
2816
miễn là những sự bổ trợ hữu ích đó
12:37
blow firmly enough,
267
757160
1736
đủ chắc chắn,
12:38
but resolving the superiority myth
268
758920
1936
nhưng giải quyết lầm tưởng về sự ưu việt
12:40
shows us that that process of task encroachment
269
760880
3096
cho chúng ta thấy sự tiến bộ của việc giành lấy công việc
12:44
not only strengthens the force of machine substitution,
270
764000
3936
không chỉ tăng thêm sức mạnh của việc thay thế bằng máy móc
12:47
but it wears down those helpful complementarities too.
271
767960
3336
mà còn làm yếu đi những sự bổ trợ hữu ích.
12:51
Bring these three myths together
272
771320
1936
Đem ba sự lầm tưởng này lại với nhau
12:53
and I think we can capture a glimpse of that troubling future.
273
773280
2936
và tôi nghĩ chúng ta có thể hiểu được một tương lai khó khăn.
12:56
Machines continue to become more capable,
274
776240
2016
Máy móc tiếp tục trở nên có năng lực hơn,
12:58
encroaching ever deeper on tasks performed by human beings,
275
778280
3656
lấn sâu hơn vào công việc được thực hiện bởi con người,
13:01
strengthening the force of machine substitution,
276
781960
2576
tăng sức mạnh cho việc thay thế con người bằng máy móc,
13:04
weakening the force of machine complementarity.
277
784560
3616
và làm suy yếu đi phần mà nó bổ trợ.
13:08
And at some point, that balance falls in favor of machines
278
788200
4296
Và tại vài điểm, sự cân bằng đó lại nghiêng về phía máy móc
13:12
rather than human beings.
279
792520
2056
hơn là con người.
13:14
This is the path we're currently on.
280
794600
1736
Đây là con đường mà ta đang đi.
13:16
I say "path" deliberately, because I don't think we're there yet,
281
796360
3176
Tôi nói "con đường" chậm rãi, vì tôi không nghĩ là ta đã ở đó,
13:19
but it is hard to avoid the conclusion that this is our direction of travel.
282
799560
3640
nhưng khó để tránh một kết cục rằng đó là phía mà ta đang hướng đến.
13:24
That's the troubling part.
283
804640
1456
Đó là phần khó khăn.
13:26
Let me say now why I think actually this is a good problem to have.
284
806120
3520
Để tôi giải thích thực tế vì sao đây là một vấn đề tốt cần có.
13:30
For most of human history, one economic problem has dominated:
285
810520
3536
Trong phần lớn lịch sử con người, có một vấn đề kinh tế nổi cộm:
13:34
how to make the economic pie large enough for everyone to live on.
286
814080
4056
làm thế nào để tạo ra miếng bánh kinh tế đủ lớn cho tất cả mọi người.
13:38
Go back to the turn of the first century AD,
287
818160
2176
Quay lại thế kỷ thứ nhất sau Công Nguyên,
13:40
and if you took the global economic pie
288
820360
2096
nếu bạn lấy miếng bánh kinh tế toàn cầu
13:42
and divided it up into equal slices for everyone in the world,
289
822480
3296
và chia đều cho tất cả mọi người trên thế giới,
13:45
everyone would get a few hundred dollars.
290
825800
2136
mỗi người sẽ nhận được vài trăm đô la.
13:47
Almost everyone lived on or around the poverty line.
291
827960
2760
Hầu hết mọi người đều sống trên hoặc quanh mức nghèo.
13:51
And if you roll forward a thousand years,
292
831320
2176
Và nếu bạn đi tới một nghìn năm sau,
13:53
roughly the same is true.
293
833520
1240
điều tương tự y như vậy.
13:55
But in the last few hundred years, economic growth has taken off.
294
835680
3576
Nhưng trong vài trăm năm gần đây, tốc độ phát triển kinh tế đã cất cánh.
13:59
Those economic pies have exploded in size.
295
839280
2376
Những miếng bánh kinh tế đó đã bùng nổ về kích cỡ.
14:01
Global GDP per head,
296
841680
2056
Tổng sản phẩm đầu người toàn cầu,
14:03
the value of those individual slices of the pie today,
297
843760
3376
giá trị từng mẩu bánh riêng lẻ ngày nay,
14:07
they're about 10,150 dollars.
298
847160
2816
cũng sấp sỉ 10.150 đô la.
14:10
If economic growth continues at two percent,
299
850000
2696
Nếu tốc độ phát triển kinh tế tiếp tục giữ ở mức 2% thì
14:12
our children will be twice as rich as us.
300
852720
2056
con cái chúng ta sẽ giàu gấp đôi chúng ta.
14:14
If it continues at a more measly one percent,
301
854800
2296
Nếu nó tiếp tục tăng ở mức hơn 1% thì,
14:17
our grandchildren will be twice as rich as us.
302
857120
2656
cháu chúng ta sẽ giàu gấp đôi chúng ta.
14:19
By and large, we've solved that traditional economic problem.
303
859800
3680
Nhìn chung, chúng ta đã giải được vấn đề kinh tế truyền thống đó.
14:24
Now, technological unemployment, if it does happen,
304
864200
3016
Bây giờ, vấn đề thất nghiệp do công nghệ, nếu nó xảy ra,
14:27
in a strange way will be a symptom of that success,
305
867240
3216
sẽ là một hội chứng của thành công theo cách kì lạ nhất,
14:30
will have solved one problem -- how to make the pie bigger --
306
870480
3856
sẽ giải quyết được vấn đề -- làm cho miếng bánh to hơn --
14:34
but replaced it with another --
307
874360
1816
theo cách thay thế nó bằng miếng khác
14:36
how to make sure that everyone gets a slice.
308
876200
2760
thì làm thế nào đảm bảo rằng ai cũng được một phần.
14:39
As other economists have noted, solving this problem won't be easy.
309
879840
3496
Theo một nhà kinh tế học từng nói, giải quyết vấn đề này không đơn giản.
14:43
Today, for most people,
310
883360
1656
Ngày nay, với đa số mọi người,
14:45
their job is their seat at the economic dinner table,
311
885040
2496
công việc như một chỗ ngồi trong bàn ăn kinh tế,
14:47
and in a world with less work or even without work,
312
887560
2416
trong thế giới ít hoặc thậm chí không có việc làm
14:50
it won't be clear how they get their slice.
313
890000
2056
không rõ là họ sẽ có miếng bánh thế nào.
14:52
There's a great deal of discussion, for instance,
314
892080
2336
Ví dụ như có nhiều cuộc thảo luận,
14:54
about various forms of universal basic income
315
894440
2696
về những dạng khác nhau của thu nhập cơ bản chung
14:57
as one possible approach,
316
897160
1216
như cách tiếp cận khả dĩ,
14:58
and there's trials underway
317
898400
1616
và có những thử nghiệm đang xảy ra
15:00
in the United States and in Finland and in Kenya.
318
900040
2400
ở nước Mỹ, Phần Lan và Kenya.
15:03
And this is the collective challenge that's right in front of us,
319
903000
3176
Và đây là thử thách chung ngay trước mắt chúng ta,
15:06
to figure out how this material prosperity generated by our economic system
320
906200
5056
để tìm ra cách mà sự phồn vinh vật chất được sinh ra bởi hệ thống kinh tế
15:11
can be enjoyed by everyone
321
911280
1976
có thể được tận hưởng bởi mọi người
15:13
in a world in which our traditional mechanism
322
913280
2416
trong một thế giới mà những cơ chế truyền thống
15:15
for slicing up the pie,
323
915720
1856
của việc chia miếng bánh,
15:17
the work that people do,
324
917600
1936
việc mà chúng ta làm,
15:19
withers away and perhaps disappears.
325
919560
2160
tàn lụi và có lẽ là biến mất.
15:22
Solving this problem is going to require us to think in very different ways.
326
922280
4360
Giải quyết vấn đề này buộc chúng ta phải suy nghĩ theo rất nhiều cách khác nhau.
15:27
There's going to be a lot of disagreement about what ought to be done,
327
927400
4176
Sẽ có rất nhiều sự phản đối về việc điều gì nên làm,
15:31
but it's important to remember that this is a far better problem to have
328
931600
3416
nhưng điều quan trọng cần nhớ là đây là một vấn đề tốt hơn nhiều
15:35
than the one that haunted our ancestors for centuries:
329
935040
2816
so với nỗi ám ảnh của tổ tiên chúng ta trong hàng thế kỷ:
15:37
how to make that pie big enough in the first place.
330
937880
3376
làm cách nào để cái bánh đủ lớn ngay từ đầu.
15:41
Thank you very much.
331
941280
1256
Cám ơn rất nhiều.
15:42
(Applause)
332
942560
3840
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7