3 myths about the future of work (and why they're not true) | Daniel Susskind

171,485 views ・ 2018-04-05

TED


वीडियो चलाने के लिए कृपया नीचे दिए गए अंग्रेजी उपशीर्षक पर डबल-क्लिक करें।

Translator: Amol P. Pachchhapurkar Reviewer: Arvind Patil
00:12
Automation anxiety has been spreading lately,
0
12760
3376
ऑटोमेशन (स्वचालित मशीनीकरण) आजकल चिंता का विषय बन गया है,
00:16
a fear that in the future,
1
16160
2656
एक डर फैला हुआ है कि, भविष्य में,
00:18
many jobs will be performed by machines
2
18840
2456
कई कार्य मशीनों द्वारा होंगे,
00:21
rather than human beings,
3
21320
1336
न कि मनुष्यों द्वारा,
00:22
given the remarkable advances that are unfolding
4
22680
2936
क्यूँकि AI (कृत्रिम बुद्धिमत्ता) और रोबोट विज्ञान
00:25
in artificial intelligence and robotics.
5
25640
2776
में अभूतपूर्व प्रगति हो रही है.
00:28
What's clear is that there will be significant change.
6
28440
2816
ये साफ़ है कि बड़े पैमाने पर बदलाव होंगे.
00:31
What's less clear is what that change will look like.
7
31280
3616
ये बदलाव कैसे असर करेंगे, ये साफ़ नहीं है.
00:34
My research suggests that the future is both troubling and exciting.
8
34920
4936
मेरी शोध संकेत देती है कि भविष्य, चिंताजनक और रोमांचक, दोनों ही होगा.
00:39
The threat of technological unemployment is real,
9
39880
3736
तकनीक की वजह से बेरोज़गारी का खतरा है,
00:43
and yet it's a good problem to have.
10
43640
2056
लेकिन फिर भी ये एक अच्छी समस्या है.
00:45
And to explain how I came to that conclusion,
11
45720
3216
मेरे इस निष्कर्ष को समझाने के लिए,
00:48
I want to confront three myths
12
48960
2536
मैं तीन मिथकों पर चर्चा करना चाहूँगा,
00:51
that I think are currently obscuring our vision of this automated future.
13
51520
4280
जो अभी इस स्वचालित भविष्य के बारे में, हमारी दृष्टी को धुंधला किए हुए है.
00:56
A picture that we see on our television screens,
14
56880
2336
हम जो तस्वीर TV में, किताबों में,
00:59
in books, in films, in everyday commentary
15
59240
2216
फिल्मों में, और रोजमर्रा की चर्चा
01:01
is one where an army of robots descends on the workplace
16
61480
3696
में देख रहे हैं, वह है रोबोट की सेना का कार्य-स्थल पर उतर आना,
01:05
with one goal in mind:
17
65200
1376
सिर्फ़ एक उद्देश्य लिए:
01:06
to displace human beings from their work.
18
66600
2496
मनुष्यों को उनकी नौकरियों से हटाना.
01:09
And I call this the Terminator myth.
19
69120
2696
ये "टर्मिनेटर मिथक" -
01:11
Yes, machines displace human beings from particular tasks,
20
71840
3976
मशीने मनुष्यों से कुछ कार्य छीनेंगी,
01:15
but they don't just substitute for human beings.
21
75840
2256
किन्तु मनुष्यों की जगह पूर्णतया नहीं ले सकती.
01:18
They also complement them in other tasks,
22
78120
1976
वे कई कार्यों में हमारी सहायक भी होती हैं,
01:20
making that work more valuable and more important.
23
80120
3616
उस कार्य को बेहतर और अहम बनाती हैं.
01:23
Sometimes they complement human beings directly,
24
83760
3336
कभी सीधे तौर पर मनुष्यों की पूरक बनती हैं,
01:27
making them more productive or more efficient at a particular task.
25
87120
4016
हमें कार्यकुशल और उत्पादक बनाती हैं.
01:31
So a taxi driver can use a satnav system to navigate on unfamiliar roads.
26
91160
4616
जैसे कि टैक्सी चालक, ऑनलाइन नक़्शे का इस्तेमाल कर अनजानी जगह पर जा सकता है.
01:35
An architect can use computer-assisted design software
27
95800
3336
एक वास्तुकार, डिजाईन सॉफ्टवेर का इस्तेमाल
01:39
to design bigger, more complicated buildings.
28
99160
3096
बड़ी और जटिल इमारतें बनाने के लिए कर सकता है.
01:42
But technological progress doesn't just complement human beings directly.
29
102280
3696
तकनीकी प्रगति मनुष्यों को सिर्फ़ सीधे तौर पर ही नहीं
01:46
It also complements them indirectly, and it does this in two ways.
30
106000
3336
बल्कि अप्रत्यक्ष रूप से भी असर करती है. इसके दो तरीके हैं -
01:49
The first is if we think of the economy as a pie,
31
109360
3336
अगर हम अर्थव्यवस्था को एक केक की तरह मानें,
01:52
technological progress makes the pie bigger.
32
112720
2896
तो तकनीकी प्रगति उसके आकार को बड़ा करती है.
01:55
As productivity increases, incomes rise and demand grows.
33
115640
3856
जैसे जैसे उत्पादकता बढती है, आय भी बढती है और खपत भी.
01:59
The British pie, for instance,
34
119520
1776
उदहारणतः, ब्रिटेन का केक,
02:01
is more than a hundred times the size it was 300 years ago.
35
121320
3960
३०० साल में १०० गुना बढा है.
02:05
And so people displaced from tasks in the old pie
36
125920
3216
पुराने केक में काम से विस्थापित लोगों
02:09
could find tasks to do in the new pie instead.
37
129160
2720
को नए केक में नए तरह के कार्य मिले.
02:12
But technological progress doesn't just make the pie bigger.
38
132800
3936
तकनीकी प्रगति केवल केक का आकर ही नहीं बढाती है.
02:16
It also changes the ingredients in the pie.
39
136760
2856
वह उसकी सामग्री को भी बदल देती है.
02:19
As time passes, people spend their income in different ways,
40
139640
3456
समय के साथ, लोगों की खर्च करने की पद्धति बदलती है,
02:23
changing how they spread it across existing goods,
41
143120
2816
मौजूदा सामान के अलावा,
02:25
and developing tastes for entirely new goods, too.
42
145960
3216
नए सामानों में भी रूचि बढती है.
02:29
New industries are created,
43
149200
1776
नए उद्योगों की संरचना होती है
नए कार्य पैदा होते हैं,
02:31
new tasks have to be done
44
151000
1816
02:32
and that means often new roles have to be filled.
45
152840
2536
और नए पद तैयार होते हैं.
02:35
So again, the British pie:
46
155400
1496
दोबारा ब्रिटेन के केक को देखते हैं:
02:36
300 years ago, most people worked on farms,
47
156920
2976
३०० साल पहले, ज्यादातर लोग खेतों में काम करते थे
02:39
150 years ago, in factories,
48
159920
2336
१५० साल पहले, कारखानों में,
02:42
and today, most people work in offices.
49
162280
2856
और आज, ज्यादातर दफ्तरों में.
02:45
And once again, people displaced from tasks in the old bit of pie
50
165160
4056
ऐसे ही, पुराने केक के कामों से विस्थापित लोग
02:49
could tumble into tasks in the new bit of pie instead.
51
169240
2800
नए केक में नए कामों में लग गए.
02:52
Economists call these effects complementarities,
52
172720
3336
अर्थशास्त्री इसे संपूरक प्रभाव कहते हैं,
02:56
but really that's just a fancy word to capture the different way
53
176080
3256
जो तकनीकी प्रगति से हुई मानवता की मदद
02:59
that technological progress helps human beings.
54
179360
3136
को दर्शाने वाला एक मनोहर शब्द है.
03:02
Resolving this Terminator myth
55
182520
2096
टर्मिनेटर मिथक दर्शाता है
03:04
shows us that there are two forces at play:
56
184640
2336
कि दो शाक्तियाँ काम कर रही हैं:
मशीन द्वारा विस्थापन, जो नुकसानदायक है,
03:07
one, machine substitution that harms workers,
57
187000
3536
03:10
but also these complementarities that do the opposite.
58
190560
2880
और संपूरक प्रभाव, जो फायदेमंद है.
03:13
Now the second myth,
59
193960
1376
अब दूसरा मिथक
03:15
what I call the intelligence myth.
60
195360
2280
जो है, बुद्धिमत्ता मिथक.
03:18
What do the tasks of driving a car, making a medical diagnosis
61
198440
4896
कार चलाने, रोग-निदान करने, और किसी चिड़िया
03:23
and identifying a bird at a fleeting glimpse have in common?
62
203360
2920
को पलक झपकते ही पहचान लेने में क्या समानता है?
03:27
Well, these are all tasks that until very recently,
63
207280
2976
अर्थशास्त्रियों के अनुसार, ये सब वह काम हैं जो कुछ समय
03:30
leading economists thought couldn't readily be automated.
64
210280
3336
पहले तक स्वचालित नहीं किये जा सकते थे.
03:33
And yet today, all of these tasks can be automated.
65
213640
3176
लेकिन आज किये जा सकते हैं.
03:36
You know, all major car manufacturers have driverless car programs.
66
216840
3496
बड़ी कार कंपनियां आज बिना ड्राईवर की कार को लाने पर काम कर रही हैं.
03:40
There's countless systems out there that can diagnose medical problems.
67
220360
3976
रोगों को समझकर निदान करने की कई प्रणालिया उपलब्ध हैं.
03:44
And there's even an app that can identify a bird
68
224360
2416
और एक एप भी है जो पलक झपकते ही
03:46
at a fleeting glimpse.
69
226800
1200
चिड़िया की प्रजाति पहचान लेता है.
03:48
Now, this wasn't simply a case of bad luck on the part of economists.
70
228920
4376
इसका मतलब ये नहीं है,
कि उन अर्थशास्त्रियों की किस्मत खराब थी. वे गलत थे.
03:53
They were wrong,
71
233320
1296
03:54
and the reason why they were wrong is very important.
72
234640
2496
गलती महत्त्वपूर्ण है.
03:57
They've fallen for the intelligence myth,
73
237160
2256
वे बुद्धिमत्ता मिथक के शिकार हुए,
03:59
the belief that machines have to copy the way
74
239440
2896
यह मानना कि मशीनें वैसे ही सोचेंगी
04:02
that human beings think and reason
75
242360
2056
और पता लगाएंगी, जैसे मनुष्य करते हैं.
04:04
in order to outperform them.
76
244440
1776
और तेज गति से बेहतर काम करेंगी.
04:06
When these economists were trying to figure out
77
246240
2216
जब ये लोग पता लगा रहे थे
04:08
what tasks machines could not do,
78
248480
1856
कि कौन से काम मशीनें नहीं कर सकती,
04:10
they imagined the only way to automate a task
79
250360
2136
उन्होंने सोचा कि कार्य को स्वचालित
04:12
was to sit down with a human being,
80
252520
1816
करने के लिए, मनुष्यों के तरीके को
04:14
get them to explain to you how it was they performed a task,
81
254360
3536
ठीक तरह से समझ कर,
04:17
and then try and capture that explanation
82
257920
2656
मशीनों के लिए निर्देशों की नियत श्रेणी
04:20
in a set of instructions for a machine to follow.
83
260600
2776
बनाकर दे दी जाए.
04:23
This view was popular in artificial intelligence at one point, too.
84
263400
4176
यह पद्धति कृत्रिम बुद्धिमत्ता में इस्तेमाल होती थी.
04:27
I know this because Richard Susskind,
85
267600
2176
मैं ये जानता हूँ क्यूँकि रिचर्ड सस्किंड,
04:29
who is my dad and my coauthor,
86
269800
2856
जो मेरे पिता और सहलेखक हैं,
04:32
wrote his doctorate in the 1980s on artificial intelligence and the law
87
272680
4056
ने १९८० के दशक में ऑक्सफ़ोर्ड यूनिवर्सिटी
04:36
at Oxford University,
88
276760
1416
में अपनी डॉक्टरेट में लिखा था,
04:38
and he was part of the vanguard.
89
278200
1576
वे इस क्षेत्र के पुरोगामी थे.
04:39
And with a professor called Phillip Capper
90
279800
2256
प्रोफेसर फिलिप कैपर और एक
04:42
and a legal publisher called Butterworths,
91
282080
2096
कानून के क्षेत्र के प्रकाशक, बटरवर्थ
04:44
they produced the world's first commercially available
92
284200
5896
के साथ क़ानून के क्षेत्र की, विश्व की पहली
04:50
artificial intelligence system in the law.
93
290120
2776
कृत्रिम बुद्धिमत्ता प्रणाली निर्मित की.
04:52
This was the home screen design.
94
292920
2616
इसकी होम स्क्रीन ऐसी थी.
04:55
He assures me this was a cool screen design at the time.
95
295560
2696
वे बताते हैं कि ये उस समय की शानदार होम स्क्रीन है.
04:58
(Laughter)
96
298280
1016
(हँसी)
04:59
I've never been entirely convinced.
97
299320
1696
मैं ये नहीं मानता.
05:01
He published it in the form of two floppy disks,
98
301040
2616
इसे २ फ्लॉपी में प्रकाशित किया,
05:03
at a time where floppy disks genuinely were floppy,
99
303680
3536
उन दिनों फ्लॉपी सच में कमज़ोर होती थी.
05:07
and his approach was the same as the economists':
100
307240
2336
उनकी पद्धति उन अर्थशास्त्रियों जैसी थी:
05:09
sit down with a lawyer,
101
309600
1256
एक वकील से समझिये कि वह कैसे एक कानूनी
05:10
get her to explain to you how it was she solved a legal problem,
102
310880
3176
समस्या को सुलझाती है, उस
05:14
and then try and capture that explanation in a set of rules for a machine to follow.
103
314080
5376
वर्णन से निर्देशों की श्रंखला तैयार की जाए, जिसका मशीन पालन करे.
05:19
In economics, if human beings could explain themselves in this way,
104
319480
3616
अर्थशास्त्र में ऐसे कार्य, जिनका वर्णन हो सकता है, नियमित कार्य कहलाते हैं,
05:23
the tasks are called routine, and they could be automated.
105
323120
3296
और इनको आसानी से स्वचालित किया जा सकता है.
05:26
But if human beings can't explain themselves,
106
326440
2336
अगर वर्णन नहीं हो सकता, तो वे अनियमित कार्य हैं,
05:28
the tasks are called non-routine, and they're thought to be out reach.
107
328800
4256
और उनको पहुँच के बाहर समझा जाता है.
05:33
Today, that routine-nonroutine distinction is widespread.
108
333080
3296
आज यह नियमित-अनियमित के बीच बहुत फासला है.
05:36
Think how often you hear people say to you
109
336400
2056
आपने कई बार लोगों को कहते सुना होगा
05:38
machines can only perform tasks that are predictable or repetitive,
110
338480
3256
मशीने वही कार्य कर सकती हैं जिनका अनुमान लग सके, जो पुनरावृत्तिय हो
05:41
rules-based or well-defined.
111
341760
1896
हों, नियमों और निश्चित सीमा में हों.
05:43
Those are all just different words for routine.
112
343680
2936
ये सब नियमित कामों की अलग-अलग परिभाषाएँ हैं.
05:46
And go back to those three cases that I mentioned at the start.
113
346640
3976
मैंने जो 3 उदाहरण पहले दिए,
05:50
Those are all classic cases of nonroutine tasks.
114
350640
2896
वे अनियमित कार्यों की श्रेणी में आते हैं.
05:53
Ask a doctor, for instance, how she makes a medical diagnosis,
115
353560
2976
किसी डॉक्टर से पूछा जाए कि वह रोग-निर्धारण कैसे करती है,
05:56
and she might be able to give you a few rules of thumb,
116
356560
2656
तो वह कुछ आंकलन के नियम बता पाएगी,
05:59
but ultimately she'd struggle.
117
359240
1656
लेकिन आगे बताने में संघर्ष होगा.
06:00
She'd say it requires things like creativity and judgment and intuition.
118
360920
4816
उसका कहना होगा कि इसमें रचनात्मकता और अनुमान की आवश्यकता होगी.
06:05
And these things are very difficult to articulate,
119
365760
2376
और इनको स्पष्ट बता पाना मुश्किल है.
06:08
and so it was thought these tasks would be very hard to automate.
120
368160
3096
इसलिए इन कार्यों को स्वचालित करना मुश्किल समझा जाता था.
06:11
If a human being can't explain themselves,
121
371280
2536
अगर मनुष्य वर्णन नहीं कर सकते,
06:13
where on earth do we begin in writing a set of instructions
122
373840
2896
तो मशीनों के लिए निर्देश
06:16
for a machine to follow?
123
376760
1200
कैसे लिखे जाएँ?
06:18
Thirty years ago, this view was right,
124
378640
2576
३० साल पहले ये सही था,
06:21
but today it's looking shaky,
125
381240
2136
किन्तु आज शायद नहीं,
06:23
and in the future it's simply going to be wrong.
126
383400
2256
और भविष्य में पूर्णरूप से असत्य होगा.
06:25
Advances in processing power, in data storage capability
127
385680
3256
कम्पुटर की कार्यशक्ति, संग्रह क्षमता,
06:28
and in algorithm design
128
388960
1656
अल्गोरिथम रचना में हुई प्रगति से
06:30
mean that this routine-nonroutine distinction
129
390640
2496
नियमित-अनियमित कार्यों में भेद करना
06:33
is diminishingly useful.
130
393160
1736
ज्यादा काम का नहीं रहा.
06:34
To see this, go back to the case of making a medical diagnosis.
131
394920
3256
इसे समझने के लिए, रोग-निर्धारण वाले उदहारण पर चलते हैं.
06:38
Earlier in the year,
132
398200
1376
इसी साल स्टेनफोर्ड के
06:39
a team of researchers at Stanford announced they'd developed a system
133
399600
3296
शोधकोंने सूचित किया कि उन्होंने ऐसी प्रणाली बना ली है
06:42
which can tell you whether or not a freckle is cancerous
134
402920
3056
जो बता सकती है कि कोई दाग या चकत्ता कैंसर है या नहीं,
उसी तरह जैसे कोई त्वचा का डॉक्टर बताता है.
06:46
as accurately as leading dermatologists.
135
406000
2680
06:49
How does it work?
136
409280
1256
ये कैसे काम करता है?
06:50
It's not trying to copy the judgment or the intuition of a doctor.
137
410560
5296
वह डॉक्टर के अनुमान या अनुभव की नक़ल नहीं उतार रहा.
06:55
It knows or understands nothing about medicine at all.
138
415880
3136
उसको चिकित्सा पद्धति के बारे में कुछ नहीं पता.
06:59
Instead, it's running a pattern recognition algorithm
139
419040
2576
वह तो केवल एक स्वरुप पहचान करने वाला अल्गोरिथम है
07:01
through 129,450 past cases,
140
421640
4656
जो पिछले १२९,४५० केस पढ़कर
07:06
hunting for similarities between those cases
141
426320
3096
उनके और अभी के केस के बीच की
07:09
and the particular lesion in question.
142
429440
2080
समानताएं खोज रहा है.
07:12
It's performing these tasks in an unhuman way,
143
432080
3216
यह अपना काम मनुष्यों के जैसे नहीं कर रहा,
07:15
based on the analysis of more possible cases
144
435320
2336
वह इतने सारे केस का अध्ययन कर रहा है,
07:17
than any doctor could hope to review in their lifetime.
145
437680
2616
जो एक डॉक्टर अपने जीवनकाल में नहीं कर सकता.
07:20
It didn't matter that that human being,
146
440320
1896
इस बात से कोई फरक नहीं पड़ता कि मनुष्य,
07:22
that doctor, couldn't explain how she'd performed the task.
147
442240
2800
या वह डॉक्टर अपनी कार्य पद्धति का वर्णन नहीं कर पाया.
07:25
Now, there are those who dwell upon that the fact
148
445640
2336
कुछ लोग कहते हैं कि
07:28
that these machines aren't built in our image.
149
448000
2296
यह मशीन हमारे जैसी नहीं बनी है.
07:30
As an example, take IBM's Watson,
150
450320
2056
उदाहरणतः, IBM का वाटसन सुपरकम्पुटर,
07:32
the supercomputer that went on the US quiz show "Jeopardy!" in 2011,
151
452400
4856
जिसने "जेओपरडी" नामक US का क्विज शो में भाग लिया,
07:37
and it beat the two human champions at "Jeopardy!"
152
457280
3016
और २ विजेताओं को हरा दिया.
07:40
The day after it won,
153
460320
1696
उसके जीतने के एक दिन पश्चात्,
07:42
The Wall Street Journal ran a piece by the philosopher John Searle
154
462040
3296
द वॉल स्ट्रीट जर्नल में जॉन सीरले ने लिखा,
07:45
with the title "Watson Doesn't Know It Won on 'Jeopardy!'"
155
465360
3376
"वाटसन को नहीं पता कि वह जीता !"
07:48
Right, and it's brilliant, and it's true.
156
468760
1976
ये बहुत बढ़िया है, और अचूक सत्य है.
07:50
You know, Watson didn't let out a cry of excitement.
157
470760
2456
वाटसन ने ख़ुशी से चिल्लाकर जीत जाहिर नहीं की.
07:53
It didn't call up its parents to say what a good job it had done.
158
473240
3096
उसने अपने माता पिता को फ़ोन करके अपने अच्छे कार्य की खबर नहीं दी.
07:56
It didn't go down to the pub for a drink.
159
476360
2336
या किसी बार में जाकर जश्न नहीं मनाया.
07:58
This system wasn't trying to copy the way that those human contestants played,
160
478720
4456
वह दूसरे प्रतियोगियों के तरीके की नक़ल नहीं उतार रहा था,
08:03
but it didn't matter.
161
483200
1256
लेकिन कोई फर्क नहीं पड़ा.
08:04
It still outperformed them.
162
484480
1976
वह फिर भी जीत गया.
08:06
Resolving the intelligence myth
163
486480
1576
बुद्धिमत्ता मिथक हमें बताता है कि
08:08
shows us that our limited understanding about human intelligence,
164
488080
3376
मानवीय बुद्धिमत्ता, और हमारी
08:11
about how we think and reason,
165
491480
1896
सोच विचार करने की समझ,
08:13
is far less of a constraint on automation than it was in the past.
166
493400
3456
स्वचलन के लिए रुकावट नहीं है.
08:16
What's more, as we've seen,
167
496880
1496
और तो और
08:18
when these machines perform tasks differently to human beings,
168
498400
3416
जब ये मशीने उसी काम को मनुष्य से अलग तरीके से करती हैं,
08:21
there's no reason to think
169
501840
1256
यह सोचना भी गलत होगा,
08:23
that what human beings are currently capable of doing
170
503120
2536
कि मनुष्य की क्षमता,
08:25
represents any sort of summit
171
505680
1456
सबसे बेहतरीन है,
08:27
in what these machines might be capable of doing in the future.
172
507160
3000
क्यूँकि ये मशीनें आगे और भी बहुत कुछ करने में सक्षम होंगी.
08:31
Now the third myth,
173
511040
1256
अब तीसरा मिथक,
08:32
what I call the superiority myth.
174
512320
2456
जिसे मैं उच्चता मिथक कहता हूँ.
08:34
It's often said that those who forget
175
514800
2216
अक्सर कहा जाता है कि जो लोग
08:37
about the helpful side of technological progress,
176
517040
2456
तकनीकी प्रगति का उपयोगी पहलू भूल जाते हैं,
08:39
those complementarities from before,
177
519520
2496
वे भुलावे में हैं जिसे हम
08:42
are committing something known as the lump of labor fallacy.
178
522040
3040
"श्रम के ढेले का भुलावा" कहते हैं.
08:45
Now, the problem is the lump of labor fallacy
179
525840
2295
यह भुलावा ही,
08:48
is itself a fallacy,
180
528159
1496
एक प्रकार से भुलावा है.
08:49
and I call this the lump of labor fallacy fallacy,
181
529679
2937
और मैं इसे "श्रम के ढेले के भुलावे का भुलावा" कहता हूँ.
08:52
or LOLFF, for short.
182
532640
2320
संक्षेप में - LOLFF. लम्प ऑफ़ लेबर फलास्यी ऑफ़ फ्यूचर
08:56
Let me explain.
183
536000
1416
मैं स्पष्ट करता हूँ.
08:57
The lump of labor fallacy is a very old idea.
184
537440
2136
श्रम के ढेले का भुलावा एक पुरानी धारणा है.
08:59
It was a British economist, David Schloss, who gave it this name in 1892.
185
539600
4216
डेविड श्लोस नामक एक अर्थशास्त्री ने १८९२ में इसे प्रचारित किया.
09:03
He was puzzled to come across a dock worker
186
543840
2816
उसने बंदरगाह के एक मजदूर
09:06
who had begun to use a machine to make washers,
187
546680
2336
को देखा, जो वॉशर बना रहा था,
09:09
the small metal discs that fasten on the end of screws.
188
549040
3320
वो गोलाकार चपटी वस्तुएँ जो स्क्रू में लगते हैं,
09:13
And this dock worker felt guilty for being more productive.
189
553000
3760
यह मजदूर अपनी अधिक उत्पादकता के लिए ग्लानी महसूस कर रहा था.
09:17
Now, most of the time, we expect the opposite,
190
557560
2176
अधिकतर, हमें इसका उल्टा अपेक्षित होता है,
09:19
that people feel guilty for being unproductive,
191
559760
2216
कि लोग कम उत्पादकता पर ग्लानी महसूस करते हैं,
09:22
you know, a little too much time on Facebook or Twitter at work.
192
562000
3016
जैसे काम के वक्त फेसबुक या ट्विटर पर ज्यादा समय व्यतीत करने पर.
09:25
But this worker felt guilty for being more productive,
193
565040
2536
लेकिन ये व्यक्ति अधिक उत्पादकता से परेशान था.
09:27
and asked why, he said, "I know I'm doing wrong.
194
567600
2296
पूछनेपर उसने कहा - "मैं गलत कर रहा हूँ."
09:29
I'm taking away the work of another man."
195
569920
2040
"मैं किसी और का रोजगार छीन रहा हूँ"
09:32
In his mind, there was some fixed lump of work
196
572760
2976
उसके अनुसार काम का एक ढेला है, जो
09:35
to be divided up between him and his pals,
197
575760
2136
उसके मित्रों और उसके बीच बांटा जाना है.
09:37
so that if he used this machine to do more,
198
577920
2056
और अगर वह मशीन से ज्यादा काम करेगा,
09:40
there'd be less left for his pals to do.
199
580000
2016
तो उसके मित्रों को कम काम मिलेगा.
09:42
Schloss saw the mistake.
200
582040
1856
श्लोस उसकी गलती समझ गया.
09:43
The lump of work wasn't fixed.
201
583920
1856
काम का वह ढेला स्थायी नहीं था.
09:45
As this worker used the machine and became more productive,
202
585800
2816
मशीन के इस्तेमाल से ज्यादा उत्पादन होने पर
09:48
the price of washers would fall, demand for washers would rise,
203
588640
2976
वॉशर का दाम गिरेगा, और उसकी खपत बढ़ेगी,
09:51
more washers would have to be made,
204
591640
1696
और ज्यादा वॉशर बनाने पड़ेंगे
09:53
and there'd be more work for his pals to do.
205
593360
2096
जिससे और ज्यादा लोगों को काम मिलेगा.
09:55
The lump of work would get bigger.
206
595480
1696
काम का वह ढेला बड़ा हो जाएगा.
09:57
Schloss called this "the lump of labor fallacy."
207
597200
2680
श्लोस ने इसे "श्रम के ढेले का भुलावा" कहा.
10:00
And today you hear people talk about the lump of labor fallacy
208
600560
2936
आज लोग इसके बारे में बात करते हैं, जब वे भविष्य में
10:03
to think about the future of all types of work.
209
603520
2216
काम के रूप के बारे में सोचते हैं
10:05
There's no fixed lump of work out there to be divided up
210
605760
2656
भविष्य में काम का कोई स्थायी ढेला नहीं है, जिसको मशीनों
10:08
between people and machines.
211
608440
1376
और इंसानों में बांटना है
10:09
Yes, machines substitute for human beings, making the original lump of work smaller,
212
609840
4656
हाँ, मशीने मनुष्यों की जगह ले लेंगी, जिससे काम का स्वरूप छोटा हो जायेगा,
10:14
but they also complement human beings,
213
614520
1856
लेकिन वे मनुष्यों के पूरक भी होंगे,
10:16
and the lump of work gets bigger and changes.
214
616400
2096
और काम का ढेला बड़ा हो जायेगा.
10:19
But LOLFF.
215
619760
1616
शायद नहीं!
10:21
Here's the mistake:
216
621400
1376
गलती यहाँ है:
10:22
it's right to think that technological progress
217
622800
2216
तकनीक के विकास से,
10:25
makes the lump of work to be done bigger.
218
625040
1976
काम के ढेले का आकार बढेगा.
10:27
Some tasks become more valuable. New tasks have to be done.
219
627040
3016
कुछ कार्य अहम हो जायेंगे, और कुछ नए कार्य पैदा हो जायेंगे.
10:30
But it's wrong to think that necessarily,
220
630080
2536
पर ये सोचना गलत है कि
10:32
human beings will be best placed to perform those tasks.
221
632640
3256
नए कार्य मनुष्यों के लिए होंगे.
10:35
And this is the superiority myth.
222
635920
1616
इसे मैं उच्चता मिथक कहता हूँ.
10:37
Yes, the lump of work might get bigger and change,
223
637560
3416
हाँ, काम का ढेला आकार और स्वरुप में बढेगा,
10:41
but as machines become more capable,
224
641000
1976
पर जैसे जैसे मशीनों की क्षमता बढ़ेगी,
10:43
it's likely that they'll take on the extra lump of work themselves.
225
643000
3896
वे ज्यादा कार्य खुद ही कर लेंगी.
10:46
Technological progress, rather than complement human beings,
226
646920
3256
तकनीकी विकास, मनुष्यों के बजाय, मशीनों का
10:50
complements machines instead.
227
650200
1880
पूरक सिद्ध होगा.
10:52
To see this, go back to the task of driving a car.
228
652920
3016
इसको गाडी चलाने के उदहारण से समझते हैं.
10:55
Today, satnav systems directly complement human beings.
229
655960
4096
GPS की तकनीक मनुष्यों की पूरक है,
11:00
They make some human beings better drivers.
230
660080
2280
क्यूँकि इससे हम कार को बेहतर चला सकते हैं.
11:02
But in the future,
231
662920
1256
किन्तु भविष्य में,
11:04
software is going to displace human beings from the driving seat,
232
664200
3096
सॉफ्टवेर मनुष्यों को चालक की सीट से हटा देगा.
11:07
and these satnav systems, rather than complement human beings,
233
667320
2936
और GPS, मनुष्यों का पूरक होने की जगह,
11:10
will simply make these driverless cars more efficient,
234
670280
2536
इस बिना ड्राईवर की गाडी को
11:12
helping the machines instead.
235
672840
1536
अधिक कुशल बनाएगा.
11:14
Or go to those indirect complementarities that I mentioned as well.
236
674400
4056
इसके अलावा तकनीक के संपूरक प्रभाव को देखिये जिनकी हमने बात की थी.
11:18
The economic pie may get larger,
237
678480
1776
आर्थिक रूप से केक का आकार बढेगा,
11:20
but as machines become more capable,
238
680280
1736
लेकिन मशीनों की क्षमता बढ़ने से,
11:22
it's possible that any new demand will fall on goods that machines,
239
682040
3143
हो सकता है कि जिन वस्तुओं की खपत बढ़ेगी,
11:25
rather than human beings, are best placed to produce.
240
685207
2649
उनको मनुष्यों से कहीं बेहतर मशीने ही बना पाएंगी.
11:27
The economic pie may change,
241
687880
1896
केक का स्वरुप बदल जायेगा,
11:29
but as machines become more capable,
242
689800
1896
लेकिन मशीनों की क्षमता बढ़ने से,
11:31
it's possible that they'll be best placed to do the new tasks that have to be done.
243
691720
4856
वे कई कार्य मनुष्यों से बेहतर ढंग से कर पाएंगी.
11:36
In short, demand for tasks isn't demand for human labor.
244
696600
3696
संक्षेप में, कार्यों के बढ़ने से, मानवीय श्रम की जरुरत नहीं बढ़ेगी.
11:40
Human beings only stand to benefit
245
700320
1936
मनुष्यों का फायदा तभी होगा जब
11:42
if they retain the upper hand in all these complemented tasks,
246
702280
3816
वे पूरक कार्यों में अपनी श्रेष्ठता बनाकर रखेंगे,
11:46
but as machines become more capable, that becomes less likely.
247
706120
3720
लेकिन मशीनों की क्षमता बढ़ने से, ये संभव नहीं हो पायेगा.
11:50
So what do these three myths tell us then?
248
710760
2016
तो ये 3 मिथक हमें क्या बताते हैं?
11:52
Well, resolving the Terminator myth
249
712800
1696
टर्मिनेटर मिथक से हमने जाना कि काम
11:54
shows us that the future of work depends upon this balance between two forces:
250
714520
3696
का भविष्य दो शक्तियों पर निर्भर करेगा
11:58
one, machine substitution that harms workers
251
718240
3136
एक, मनुष्यों का मशीनों द्वारा बदला जाना, जो हानिकारक है
12:01
but also those complementarities that do the opposite.
252
721400
2576
लेकिन कई नए कार्यों का पैदा होना, जिससे फायदा होगा.
12:04
And until now, this balance has fallen in favor of human beings.
253
724000
4040
अभी तक इस गतिविधि से मनुष्यों का फायदा ही हुआ है.
12:09
But resolving the intelligence myth
254
729120
1736
बुद्धिमत्ता मिथक दर्शाता है कि
12:10
shows us that that first force, machine substitution,
255
730880
2496
मशीनों का मनुष्यों की जगह लेना
12:13
is gathering strength.
256
733400
1296
सत्य होता जा रहा है.
12:14
Machines, of course, can't do everything,
257
734720
1976
मशीनें सब कुछ नहीं कर सकतीं,
12:16
but they can do far more,
258
736720
1256
लेकिन बहुत कुछ कर रही हैं,
12:18
encroaching ever deeper into the realm of tasks performed by human beings.
259
738000
4576
जिन्हें पहले मनुष्यों का ही कार्य समझा जाता था.
12:22
What's more, there's no reason to think
260
742600
1896
ऐसा सोचने का कोई कारण नहीं है
12:24
that what human beings are currently capable of
261
744520
2216
की मशीने, मनुष्यों की कार्यक्षमता
12:26
represents any sort of finishing line,
262
746760
1856
की सीमा रेखा तक ही जा सकती हैं,
12:28
that machines are going to draw to a polite stop
263
748640
2256
और मानव के सामान काबिल होकर
12:30
once they're as capable as us.
264
750920
1816
वहीं पर रुक जाएँगी.
12:32
Now, none of this matters
265
752760
1536
मशीने तब तक परेशान नहीं करेंगी,
12:34
so long as those helpful winds of complementarity
266
754320
2816
जब तक उनके इस्तेमाल से नए कार्य पैदा
12:37
blow firmly enough,
267
757160
1736
होते रहेंगे, जिन्हें मनुष्य करेंगे.
12:38
but resolving the superiority myth
268
758920
1936
लेकिन उच्चता मिथक बताता है कि
12:40
shows us that that process of task encroachment
269
760880
3096
नए कार्य भी मशीनों के इस्तेमाल को
12:44
not only strengthens the force of machine substitution,
270
764000
3936
बढ़ावा देंगे और मनुष्यों की पूरक क्षमता
12:47
but it wears down those helpful complementarities too.
271
767960
3336
को भी हानि पहुचाएंगे.
12:51
Bring these three myths together
272
771320
1936
इन तीनो मिथकों से हम भविष्य की
12:53
and I think we can capture a glimpse of that troubling future.
273
773280
2936
चिंताजनक झलक देख सकते हैं.
12:56
Machines continue to become more capable,
274
776240
2016
मशीनों की क्षमता बढती जाएगी,
12:58
encroaching ever deeper on tasks performed by human beings,
275
778280
3656
जो मनुष्यों के कार्यो को भी खुद कर पाएंगी,
13:01
strengthening the force of machine substitution,
276
781960
2576
जिससे मनुष्यों का मशीनों द्वारा बदला जाना और तेज होगा
13:04
weakening the force of machine complementarity.
277
784560
3616
और दोनों का पूरक होना कम होता जायेगा.
13:08
And at some point, that balance falls in favor of machines
278
788200
4296
और कभी न कभी, मशीनें मनुष्यों से
13:12
rather than human beings.
279
792520
2056
बेहतर कार्य कर पाएंगी.
13:14
This is the path we're currently on.
280
794600
1736
आज, हम उसी राह पर हैं.
13:16
I say "path" deliberately, because I don't think we're there yet,
281
796360
3176
"राह" इसलिए क्यूँकि हम अभी मंजिल पर नहीं पहुंचे हैं,
13:19
but it is hard to avoid the conclusion that this is our direction of travel.
282
799560
3640
लेकिन उसी दिशा में बढ़ रहे हैं.
13:24
That's the troubling part.
283
804640
1456
यही परेशानी है.
13:26
Let me say now why I think actually this is a good problem to have.
284
806120
3520
मेरा मानना है कि ये एक अच्छी समस्या है.
13:30
For most of human history, one economic problem has dominated:
285
810520
3536
मानवीय इतिहास में एक आर्थिक समस्या हावी रही है
13:34
how to make the economic pie large enough for everyone to live on.
286
814080
4056
कार्यों के केक को कैसे बढाया जाए, ताकि सबका गुजारा हो सके.
13:38
Go back to the turn of the first century AD,
287
818160
2176
पहली शताब्दी के
13:40
and if you took the global economic pie
288
820360
2096
वैश्विक आर्थिक केक को अगर
13:42
and divided it up into equal slices for everyone in the world,
289
822480
3296
सबके लिए बराबर बांटे तो सबके हिस्से में,
13:45
everyone would get a few hundred dollars.
290
825800
2136
कुछ सौ डॉलर आयेंगे.
13:47
Almost everyone lived on or around the poverty line.
291
827960
2760
लगभग सभी गरीबी रेखा के आस पास ही थे.
13:51
And if you roll forward a thousand years,
292
831320
2176
एक हज़ार साल बाद भी
13:53
roughly the same is true.
293
833520
1240
लगभग यही स्थिति थी.
13:55
But in the last few hundred years, economic growth has taken off.
294
835680
3576
किन्तु पिछले कुछ शतकों में बहुत आर्थिक प्रगति हुई है.
13:59
Those economic pies have exploded in size.
295
839280
2376
और केक का आकार कई गुणा बढ़ा है.
14:01
Global GDP per head,
296
841680
2056
विश्व का प्रतिव्यक्ति सकल उत्पाद,
14:03
the value of those individual slices of the pie today,
297
843760
3376
उन केक के प्रतिव्यक्ति हिस्से का मूल्य,
14:07
they're about 10,150 dollars.
298
847160
2816
लगभग 10,150 डौलर है.
14:10
If economic growth continues at two percent,
299
850000
2696
अगर आर्थिक वृद्धिदर 2% भी रहता है,
14:12
our children will be twice as rich as us.
300
852720
2056
तो हमारे बच्चे हमसे दुगुने अमीर होंगे.
14:14
If it continues at a more measly one percent,
301
854800
2296
अगर ये सिर्फ़ 1% भी रहता है,
14:17
our grandchildren will be twice as rich as us.
302
857120
2656
तो हमारे नाती-पोते हमसे दुगुने अमीर होंगे.
14:19
By and large, we've solved that traditional economic problem.
303
859800
3680
सामान्यतः, हमने मूल आर्थिक समस्या सुलझा ली है.
14:24
Now, technological unemployment, if it does happen,
304
864200
3016
अब, तकनीकी बेरोजगार, अगर ऐसा हुआ,
14:27
in a strange way will be a symptom of that success,
305
867240
3216
इस सफलता का अजीब लक्षण होगा.
14:30
will have solved one problem -- how to make the pie bigger --
306
870480
3856
एक समस्या सुलझाई - केक के आकार को बड़ा करना -
14:34
but replaced it with another --
307
874360
1816
पर उसकी जगह दूसरी खड़ी हो गयी -
14:36
how to make sure that everyone gets a slice.
308
876200
2760
कैसे हर किसी को उसका हिस्सा मिले.
14:39
As other economists have noted, solving this problem won't be easy.
309
879840
3496
कई अर्थशास्त्रियों के अनुसार, यह समस्या जटिल है.
14:43
Today, for most people,
310
883360
1656
आज, लोगों के लिए
14:45
their job is their seat at the economic dinner table,
311
885040
2496
उनकी नौकरी ही पेट भरने का मुख्य जरिया है,
14:47
and in a world with less work or even without work,
312
887560
2416
और ऐसी दुनिया में, जहाँ कम या बिलकुल भी काम न हो,
14:50
it won't be clear how they get their slice.
313
890000
2056
उन्हें उनका हिस्सा कैसे मिलेगा.
14:52
There's a great deal of discussion, for instance,
314
892080
2336
आजकल, सामान्य मूल आय के विषय पर
14:54
about various forms of universal basic income
315
894440
2696
बहुत चर्चा हो रही है,
14:57
as one possible approach,
316
897160
1216
यह एक उपाय हो सकता है,
14:58
and there's trials underway
317
898400
1616
और कई प्रयोग भी चल रहे हैं,
15:00
in the United States and in Finland and in Kenya.
318
900040
2400
USA, फ़िनलैंड और केन्या जैसे देशो में.
15:03
And this is the collective challenge that's right in front of us,
319
903000
3176
ये सामूहिक चुनौती हम सबके सामने है,
15:06
to figure out how this material prosperity generated by our economic system
320
906200
5056
कि कैसे हर कोई इस आर्थिक खुशहाली
का मजा उठा सके.
15:11
can be enjoyed by everyone
321
911280
1976
15:13
in a world in which our traditional mechanism
322
913280
2416
ऐसी दुनिया में जहाँ की पारंपरिक व्यवस्था,
15:15
for slicing up the pie,
323
915720
1856
केक के हिस्से काटना, अर्थात,
15:17
the work that people do,
324
917600
1936
लोगों का काम
15:19
withers away and perhaps disappears.
325
919560
2160
नष्ट हो रहा है, और शायद गायब भी हो जाए.
15:22
Solving this problem is going to require us to think in very different ways.
326
922280
4360
इस चुनौती का हल निकालने के लिए कई अलग तरीकों से सोचना होगा.
15:27
There's going to be a lot of disagreement about what ought to be done,
327
927400
4176
और सही कदम क्या होगा, इसपर बहुत मतभेद होगा
15:31
but it's important to remember that this is a far better problem to have
328
931600
3416
लेकिन ये याद रखना जरुरी है कि ये हमारे पूर्वजों की
15:35
than the one that haunted our ancestors for centuries:
329
935040
2816
समस्या - केक का आकार कैसे बढाया जाए -
15:37
how to make that pie big enough in the first place.
330
937880
3376
से बहुत अच्छी समस्या है.
15:41
Thank you very much.
331
941280
1256
बहुत बहुत धन्यवाद.
15:42
(Applause)
332
942560
3840
(तालियाँ)
इस वेबसाइट के बारे में

यह साइट आपको YouTube वीडियो से परिचित कराएगी जो अंग्रेजी सीखने के लिए उपयोगी हैं। आप दुनिया भर के शीर्षस्थ शिक्षकों द्वारा पढ़ाए जाने वाले अंग्रेजी पाठ देखेंगे। वहां से वीडियो चलाने के लिए प्रत्येक वीडियो पृष्ठ पर प्रदर्शित अंग्रेजी उपशीर्षक पर डबल-क्लिक करें। उपशीर्षक वीडियो प्लेबैक के साथ सिंक में स्क्रॉल करते हैं। यदि आपकी कोई टिप्पणी या अनुरोध है, तो कृपया इस संपर्क फ़ॉर्म का उपयोग करके हमसे संपर्क करें।

https://forms.gle/WvT1wiN1qDtmnspy7