3 myths about the future of work (and why they're not true) | Daniel Susskind

171,485 views ・ 2018-04-05

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Hooman Hosseini Zahraee Reviewer: Leila Ataei
00:12
Automation anxiety has been spreading lately,
0
12760
3376
اخیرا اضطراب ماشینی شدن رو به افزایش بوده است،
00:16
a fear that in the future,
1
16160
2656
ترس از اینکه در آینده،
00:18
many jobs will be performed by machines
2
18840
2456
شغل‌های زیادی به جای انسان‌ها با ماشین‌ها
00:21
rather than human beings,
3
21320
1336
انجام خواهد شد،
00:22
given the remarkable advances that are unfolding
4
22680
2936
با توجه به پیشرفت‌های قابل توجهی که
00:25
in artificial intelligence and robotics.
5
25640
2776
در هوش مصنوعی و رباتیک شاهد هستیم.
00:28
What's clear is that there will be significant change.
6
28440
2816
چیزی که واضح است تغییرات چشم گیری است که وجود خواهد داشت.
00:31
What's less clear is what that change will look like.
7
31280
3616
چیزی که کمتر مشخص است شکلی است که آن تغییرات خواهند داشت.
00:34
My research suggests that the future is both troubling and exciting.
8
34920
4936
تحقیقات من نشان می‌دهد که آینده هم دردسرساز و هم هیجان‌انگیز است.
00:39
The threat of technological unemployment is real,
9
39880
3736
تهدید بیکاری حاصل از فناوری‌ها واقعی است،
00:43
and yet it's a good problem to have.
10
43640
2056
با این حال این مشکل خوبی است که داریم.
00:45
And to explain how I came to that conclusion,
11
45720
3216
و برای اینکه نشان بدهم چطور به این نتیجه رسیدم،
00:48
I want to confront three myths
12
48960
2536
می‌خواهم با سه افسانه روبرو شویم
00:51
that I think are currently obscuring our vision of this automated future.
13
51520
4280
که به نظر من درحال حاضر تصویر ما از آینده را مخدوش می‌کنند.
00:56
A picture that we see on our television screens,
14
56880
2336
تصویری که روی صفحه نمایش مشاهده می‌کنیم،
00:59
in books, in films, in everyday commentary
15
59240
2216
در کتاب‌ها، فیلم‌ها، تفسیرهای روزانه
01:01
is one where an army of robots descends on the workplace
16
61480
3696
این است که یک ارتش از ربات‌ها به محل‌های کار سرازیر می‌شوند:
01:05
with one goal in mind:
17
65200
1376
با داشتن تنها یک هدف:
01:06
to displace human beings from their work.
18
66600
2496
تا انسان‌ها را از کارشان برکنار کنند.
01:09
And I call this the Terminator myth.
19
69120
2696
و من به این می‌گویم افسانه نابودگر.
01:11
Yes, machines displace human beings from particular tasks,
20
71840
3976
بله، ماشین‌ها انسان‌ها را از کارهای خاصی برکنار می‌کنند،
01:15
but they don't just substitute for human beings.
21
75840
2256
اما آن‌ها فقط جایگزین انسان‌ها نمی‌شوند.
بلکه آن‌ها در کارهای دیگر انسان را کامل می‌کنند،
01:18
They also complement them in other tasks,
22
78120
1976
01:20
making that work more valuable and more important.
23
80120
3616
که آن کار را با ارزش‌‌تر و مهم‌‌تر می‌کند.
01:23
Sometimes they complement human beings directly,
24
83760
3336
گاهی اوقات به طور مستقیم انسان‌ها را کامل می‌کنند،
01:27
making them more productive or more efficient at a particular task.
25
87120
4016
آن‌ها را در کار خاصی سازنده‌تر یا پر بازده‌تر می‌کنند.
پس یک راننده تاکسی می‌تواند از راهیابی ماهواره‌ای
01:31
So a taxi driver can use a satnav system to navigate on unfamiliar roads.
26
91160
4616
برای پیدا کردن مسیر در جاده ناآشنا استفاده کند.
01:35
An architect can use computer-assisted design software
27
95800
3336
یک معمار می‌تواند از نرم افزار طراحی رایانه‌ای استفاده کند
01:39
to design bigger, more complicated buildings.
28
99160
3096
تا طرح بزرگتر و پیچیده تری برای ساختمان‌ها ارائه کند.
01:42
But technological progress doesn't just complement human beings directly.
29
102280
3696
اما پیشرفت فناوری فقط به طور مستقیم انسان‌ها را کامل تر نمی‌کند.
01:46
It also complements them indirectly, and it does this in two ways.
30
106000
3336
بلکه به طور غیر مستقیم نیز این کار را به دو صورت انجام می‌دهد.
01:49
The first is if we think of the economy as a pie,
31
109360
3336
روش اول به این صورت است که اگر ما اقتصاد را مثل کیکی در نظر بگیریم،
01:52
technological progress makes the pie bigger.
32
112720
2896
پیشرفت فناوری این کیک را بزرگتر می‌کند.
01:55
As productivity increases, incomes rise and demand grows.
33
115640
3856
وقتی که سازندگی افزایش می‌یابد، درآمد بیشتر شده و تقاضا افزایش می‌یابد.
01:59
The British pie, for instance,
34
119520
1776
برای مثال، کیک بریتانیا،
02:01
is more than a hundred times the size it was 300 years ago.
35
121320
3960
بیشتر از صد برابر بزرگتر از ۳۰۰ سال پیش شده است.
02:05
And so people displaced from tasks in the old pie
36
125920
3216
و مردم زیادی که از کارهای خود در کیک قدیمی برکنار شده‌اند
02:09
could find tasks to do in the new pie instead.
37
129160
2720
می‌توانند کارهایی را در کیک جدید پیدا کنند.
02:12
But technological progress doesn't just make the pie bigger.
38
132800
3936
اما پیشرفت فناوری فقط این کیک را بزرگتر نمی‌کند.
02:16
It also changes the ingredients in the pie.
39
136760
2856
بلکه اجزای این کیک را نیز تغییر می‌دهد.
02:19
As time passes, people spend their income in different ways,
40
139640
3456
با گذشت زمان، مردم درآمد خود را به گونه‌های مختلفی خرج می‌کنند،
02:23
changing how they spread it across existing goods,
41
143120
2816
با تغییردادن چگونگی خرج کردن آن‌ روی کالاهای موجود،
02:25
and developing tastes for entirely new goods, too.
42
145960
3216
و همینطور با بوجود آمدن اشتیاق برای کالاهای کاملا جدید،
02:29
New industries are created,
43
149200
1776
صنایع جدیدی ساخته شده‌ است،
02:31
new tasks have to be done
44
151000
1816
وظایف جدیدی باید انجام داده شوند
02:32
and that means often new roles have to be filled.
45
152840
2536
و این به این معنی است که نقشهای جدیدی باید اجرا شود.
02:35
So again, the British pie:
46
155400
1496
پس دوباره، همان کیک بریتانیا:
02:36
300 years ago, most people worked on farms,
47
156920
2976
۳۰۰ سال قبل، بیشتر مردم درمزارع کار می‌کردند،
02:39
150 years ago, in factories,
48
159920
2336
۱۵۰ سال پیش، در کاخانه‌ها کار می‌کردند،
02:42
and today, most people work in offices.
49
162280
2856
و امروزه بیشتر مردم در اداره‌ها کار می‌کنند.
02:45
And once again, people displaced from tasks in the old bit of pie
50
165160
4056
و بار دیگر، مردم بیکار شده در کیک قدیمی
02:49
could tumble into tasks in the new bit of pie instead.
51
169240
2800
می‌توانند در وظایف جدید در قسمت‌های جدید کیک مشغول شوند.
02:52
Economists call these effects complementarities,
52
172720
3336
اقتصاددان‌ها این اثرها را کامل کننده‌‌ها می‌نامند،
02:56
but really that's just a fancy word to capture the different way
53
176080
3256
اما در حقیقت کلمه شیکی است که نشان‌دهنده راه‌های مختلفی است که
02:59
that technological progress helps human beings.
54
179360
3136
پیشرفت فناوری به انسان‌ها می‌کند.
03:02
Resolving this Terminator myth
55
182520
2096
حل این افسانه ترمیناتور (نابود کننده)
03:04
shows us that there are two forces at play:
56
184640
2336
نشان می‌دهد که دو نیرو در این ماجرا نقش دارند:
03:07
one, machine substitution that harms workers,
57
187000
3536
یک، جایگزینی ماشین‌ها که به کارگران آسیب می‌زند،
03:10
but also these complementarities that do the opposite.
58
190560
2880
اما این تکمیل کننده‌ها برعکس عمل می‌کنند.
03:13
Now the second myth,
59
193960
1376
حالا افسانه دوم،
03:15
what I call the intelligence myth.
60
195360
2280
که من به آن افسانه هوش میگویم.
03:18
What do the tasks of driving a car, making a medical diagnosis
61
198440
4896
چه اشتراک‌هایی بین راندن یک ماشین، تشخیص‌ پزشکی
03:23
and identifying a bird at a fleeting glimpse have in common?
62
203360
2920
و شناسایی یک پرنده در یک لحظه وجود دارد؟
03:27
Well, these are all tasks that until very recently,
63
207280
2976
خب، انجام تمام این وظایف تا همین اواخر،
03:30
leading economists thought couldn't readily be automated.
64
210280
3336
در نظر اقتصاددانان قابل خودکار شدن نبودند.
03:33
And yet today, all of these tasks can be automated.
65
213640
3176
و امروز، تمامی این کارها را می‌توان به صورت خودکار انجام داد.
03:36
You know, all major car manufacturers have driverless car programs.
66
216840
3496
می‌دانید که، تمام تولید کنندگان بزرگ خودرو برنامه خوردروهای بدون راننده دارند.
03:40
There's countless systems out there that can diagnose medical problems.
67
220360
3976
تعداد زیادی سیستم وجود دارد که می‌توانند بیماری های پزشکی را تشخیص بدهند
03:44
And there's even an app that can identify a bird
68
224360
2416
و حتی یک برنامه وجود دارد که می‌تواند
03:46
at a fleeting glimpse.
69
226800
1200
یک پرنده را در لحظه شناسایی کند.
03:48
Now, this wasn't simply a case of bad luck on the part of economists.
70
228920
4376
این فقط یک بد شانسی ساده برای اقتصاددان‌ها نبود.
03:53
They were wrong,
71
233320
1296
آن‌ها اشتباه می‌کردند،
03:54
and the reason why they were wrong is very important.
72
234640
2496
و دلیل این اشتباه آن‌ها بسیار مهم است.
03:57
They've fallen for the intelligence myth,
73
237160
2256
آن‌ها در افسانه هوش گیر افتاده بودند،
03:59
the belief that machines have to copy the way
74
239440
2896
باوری که می‌گوید ماشین‌ها باید طرز فکر
04:02
that human beings think and reason
75
242360
2056
و دلیل آوردن انسانها را تقلید کنند.
04:04
in order to outperform them.
76
244440
1776
تا بتوانند از آنها پیشی بگیرند.
04:06
When these economists were trying to figure out
77
246240
2216
زمانی که این اقتصاددانان تلاش می‌کردند کشف کنند
04:08
what tasks machines could not do,
78
248480
1856
که ماشین‌ها چه کارهایی را نمی‌توانند انجام بدهند،
04:10
they imagined the only way to automate a task
79
250360
2136
تصور می‌کردند تنها راه برای خودکار انجام دادن یک کار،
04:12
was to sit down with a human being,
80
252520
1816
این بود که با یک انسان بنشینند،
04:14
get them to explain to you how it was they performed a task,
81
254360
3536
و آن‌ها رو مجبور کنند تا به آن‌ها توضیح بدهند که چگونه کاری را انجام می‌دهد،
04:17
and then try and capture that explanation
82
257920
2656
و سپس سعی کنند آن توضیح را در قالب
04:20
in a set of instructions for a machine to follow.
83
260600
2776
یک سری دستورات به ماشین بدهند که تقلید کند.
04:23
This view was popular in artificial intelligence at one point, too.
84
263400
4176
این دیدگاه در حوزه هوش مصنوعی نیز رایج بود،
04:27
I know this because Richard Susskind,
85
267600
2176
من این را می‌دانم چون ریچارد سوزکیند،
04:29
who is my dad and my coauthor,
86
269800
2856
که پدر و مولف همکار من است،
04:32
wrote his doctorate in the 1980s on artificial intelligence and the law
87
272680
4056
پروژه دکترا خود را در سالهای ۱۹۸۰ روی هوش مصنوعی و قانون
04:36
at Oxford University,
88
276760
1416
در دانشگاه آکسفورد انجام داد،
04:38
and he was part of the vanguard.
89
278200
1576
و او یکی از پیشگامان این حوزه بود.
04:39
And with a professor called Phillip Capper
90
279800
2256
و به همراه پرفسوری به نام فیلیپ کوپر
04:42
and a legal publisher called Butterworths,
91
282080
2096
و یک ناشر قانونی به نام باترورث،
04:44
they produced the world's first commercially available
92
284200
5896
آن‌ها اولین سیستم هوش مصنوعی دنیا را طبق قانون ساختند
04:50
artificial intelligence system in the law.
93
290120
2776
که برای خرید در دسترس بود.
04:52
This was the home screen design.
94
292920
2616
این طرح صفحه اصلی بود،
04:55
He assures me this was a cool screen design at the time.
95
295560
2696
و او به من اطمینان داد که در آن زمان این طرح جالبی بود.
04:58
(Laughter)
96
298280
1016
04:59
I've never been entirely convinced.
97
299320
1696
(خنده) و من هیچوقت کاملا قانع نشدم.
05:01
He published it in the form of two floppy disks,
98
301040
2616
او به وسیله دو فلاپی دیسک این موضوع را منتشر کرد،
05:03
at a time where floppy disks genuinely were floppy,
99
303680
3536
در زمانی که فلاپی دیسک‌ها واقعا فلاپی (مسخره) بودند!
05:07
and his approach was the same as the economists':
100
307240
2336
و رویکرد او همان رویکرد اقتصاددانان بود:
05:09
sit down with a lawyer,
101
309600
1256
با یک وکیل صحبت کرد،
05:10
get her to explain to you how it was she solved a legal problem,
102
310880
3176
تا به شما توضیح بدهد چگونه یک مشکل قانونی را حل کرد،
05:14
and then try and capture that explanation in a set of rules for a machine to follow.
103
314080
5376
و بعد آن توضیح را به صورت قوانینی برای ماشین‌ها درآورد تا از آن پیروی کنند.
05:19
In economics, if human beings could explain themselves in this way,
104
319480
3616
در اقتصاد، انسان‌ها به این روش می‌توانند خود را توضیح بدهند،
05:23
the tasks are called routine, and they could be automated.
105
323120
3296
که به آن وظایف روال گفته می‌شود و می‌توانند خودکار انجام بشوند.
05:26
But if human beings can't explain themselves,
106
326440
2336
اما اگر انسان‌ها نتوانند خود را توضیح دهند،
05:28
the tasks are called non-routine, and they're thought to be out reach.
107
328800
4256
به آن کارها غیر عادی گفته می‌شود، و آنها فکر می‌کنند که خارج از دسترس می‌باشد.
05:33
Today, that routine-nonroutine distinction is widespread.
108
333080
3296
امروز، تمایز بین معمول و غیر معمول گسترده شده است.
05:36
Think how often you hear people say to you
109
336400
2056
فکر کنید که چقدر مردم به شما می‌گویند
05:38
machines can only perform tasks that are predictable or repetitive,
110
338480
3256
ماشین‌ها فقط کارهای تکراری و قابل پیش‌بینی را می‌توانند انجام دهند،
05:41
rules-based or well-defined.
111
341760
1896
کارهایی که بر اساس قانون یا مشخص هستند.
05:43
Those are all just different words for routine.
112
343680
2936
این‌ها فقط کلمات متفاوتی برای معمولی هستند.
05:46
And go back to those three cases that I mentioned at the start.
113
346640
3976
و به آن سه موردی که درابتدا اشاره کردم برگردید و نگاهی بندازید.
05:50
Those are all classic cases of nonroutine tasks.
114
350640
2896
آن‌ها همه مواردی کلاسیک از کارهای غیر معمول هستند.
05:53
Ask a doctor, for instance, how she makes a medical diagnosis,
115
353560
2976
برای مثال از یک دکتر بپرسید چگونه یک تشخیص پزشکی را می‌دهد،
05:56
and she might be able to give you a few rules of thumb,
116
356560
2656
و او ممکن است بتواند به شما تعدادی قاعده بگوید،
05:59
but ultimately she'd struggle.
117
359240
1656
اما در نهایت نخواهد توانست.
06:00
She'd say it requires things like creativity and judgment and intuition.
118
360920
4816
او خواهد گفت این چیزها نیازمند خلاقیت، قضاوت و مشاهده است.
06:05
And these things are very difficult to articulate,
119
365760
2376
و بیان این چیزها بسیار سخت هستند،
06:08
and so it was thought these tasks would be very hard to automate.
120
368160
3096
و فکر می‌کنند که این کارها بسیار سخت هستند تا خودکار انجام بشوند.
06:11
If a human being can't explain themselves,
121
371280
2536
اگر یک انسان نتواند خودش را توضیح بدهد،
06:13
where on earth do we begin in writing a set of instructions
122
373840
2896
چطور می‌خواهد شروع به نوشتن دستوراتی کند تا
06:16
for a machine to follow?
123
376760
1200
یک ماشین از آن پیروی کند؟
06:18
Thirty years ago, this view was right,
124
378640
2576
۳۰ سال پیش، این دیدگاه درست بود،
06:21
but today it's looking shaky,
125
381240
2136
اما امروزه تکان دهنده به نظر می‌رسد،
06:23
and in the future it's simply going to be wrong.
126
383400
2256
و در آینده این دیدگاه‌ها براحتی اشتباه خواهند بود.
06:25
Advances in processing power, in data storage capability
127
385680
3256
پیشرفت در قدرت پردازش، قابلیت ذخیره سازی داده‌ها
06:28
and in algorithm design
128
388960
1656
و طراحی الگوریتم‌ها
06:30
mean that this routine-nonroutine distinction
129
390640
2496
به این معنی است که فرق بین معمول و غیر معمول
06:33
is diminishingly useful.
130
393160
1736
کاربرد کمتری پیدا کرده است.
06:34
To see this, go back to the case of making a medical diagnosis.
131
394920
3256
برای دیدن این موضوع، به مورد تشخیص پزشکی برگردیم.
06:38
Earlier in the year,
132
398200
1376
در اوایل این سال،
06:39
a team of researchers at Stanford announced they'd developed a system
133
399600
3296
یک تیم تحقیقاتی در استنفورد اعلام کرد که سیستمی را توسعه می‌دهند
06:42
which can tell you whether or not a freckle is cancerous
134
402920
3056
که می‌تواند به شما بگوید آیا یک لکه، سرطان هست یا نه،
06:46
as accurately as leading dermatologists.
135
406000
2680
با دقتی به اندازه دقت یک متخصص پوست.
06:49
How does it work?
136
409280
1256
این چگونه کار می‌کند؟
06:50
It's not trying to copy the judgment or the intuition of a doctor.
137
410560
5296
این سیستم قضاوت و مشاهدات یک دکتر را کپی نمی‌کند.
06:55
It knows or understands nothing about medicine at all.
138
415880
3136
این سیستم اصلا چیزی درباره دارو درک نمی‌کند و نمی‌داند.
06:59
Instead, it's running a pattern recognition algorithm
139
419040
2576
درعوض، یک الگوریتم تشخیص الگو را اجرا می‌کند
07:01
through 129,450 past cases,
140
421640
4656
در ۱۲۹,۴۵۰ مورد گذشته،
07:06
hunting for similarities between those cases
141
426320
3096
به دنبال شکار شباهت‌هایی بین آن موارد
07:09
and the particular lesion in question.
142
429440
2080
و زخم‌های مشخصی بوده‌اند.
07:12
It's performing these tasks in an unhuman way,
143
432080
3216
اجرای این کارهای از طریق یک راه غیر انسانی،
07:15
based on the analysis of more possible cases
144
435320
2336
بر اساس بررسی حداکثر موردهای ‌ممکن است
07:17
than any doctor could hope to review in their lifetime.
145
437680
2616
که هر پزشکی در طول زندگی آرزوی انجامش را دارد.
07:20
It didn't matter that that human being,
146
440320
1896
اصلا مهم نیست که آن انسان، آن پزشک،
07:22
that doctor, couldn't explain how she'd performed the task.
147
442240
2800
نتواند توضیح بدهد که چگونه آن کار را انجام می‌دهد.
07:25
Now, there are those who dwell upon that the fact
148
445640
2336
در حال حاضر کسانی روی این واقعیت متمرکز هستند که
07:28
that these machines aren't built in our image.
149
448000
2296
این ماشین‌ها در تصور ما ساخته نشده‌اند.
07:30
As an example, take IBM's Watson,
150
450320
2056
برای مثال واتسون، آی‌بی‌ام را در نظر بگیرید،
07:32
the supercomputer that went on the US quiz show "Jeopardy!" in 2011,
151
452400
4856
یک اَبَر کامپیوتر که در سال ۲۰۱۱ در برنامه پرسش و پاسخ آمریکایی جئوپاردی شرکت کرد!
07:37
and it beat the two human champions at "Jeopardy!"
152
457280
3016
و دو تا از افراد قهرمان در جئوپاردی را شکست داد !
07:40
The day after it won,
153
460320
1696
روز بعد از این پیروزی،
07:42
The Wall Street Journal ran a piece by the philosopher John Searle
154
462040
3296
روزنامه وال‌ استریت متنی از جان سارل فیلسوف را منتشر کرد
07:45
with the title "Watson Doesn't Know It Won on 'Jeopardy!'"
155
465360
3376
با این عنوان که "واتسون نمی‌داند که جئوپاردی را برده است!"
07:48
Right, and it's brilliant, and it's true.
156
468760
1976
بله، و بسیار هوشمندانه و درست هم هست.
07:50
You know, Watson didn't let out a cry of excitement.
157
470760
2456
شما می‌دانید که واتسون اشک شوق نریخت.
07:53
It didn't call up its parents to say what a good job it had done.
158
473240
3096
خانواده‌اش به او برای کاری که انجام داده بود آفرین نگفت.
07:56
It didn't go down to the pub for a drink.
159
476360
2336
به بار نرفت تا شادی کند و بنوشد.
07:58
This system wasn't trying to copy the way that those human contestants played,
160
478720
4456
این سیستم تلاشی برای تقلید از روشی که افراد شرکت کننده داشتند نکرد،
08:03
but it didn't matter.
161
483200
1256
اما مهم هم نبود.
08:04
It still outperformed them.
162
484480
1976
این سیستم همچنان بر آنها برتری دارد.
08:06
Resolving the intelligence myth
163
486480
1576
حل این افسانه هوش
08:08
shows us that our limited understanding about human intelligence,
164
488080
3376
نشان داد درک محدود ما درباره هوش انسانی،
08:11
about how we think and reason,
165
491480
1896
درباره فکر کردن و دلیل پیدا کردن‌ها،
08:13
is far less of a constraint on automation than it was in the past.
166
493400
3456
به مراتب کمتر از محدودیت در اتوماسیونی است که در گذشته بوده است.
08:16
What's more, as we've seen,
167
496880
1496
علاوه بر این مشاهده کردیم،
08:18
when these machines perform tasks differently to human beings,
168
498400
3416
وقتی این ماشین‌ها وظایف مختلفی را برای انسان‌ها انجام می‌دهند،
08:21
there's no reason to think
169
501840
1256
دلیلی ندارد که فکر کنیم
08:23
that what human beings are currently capable of doing
170
503120
2536
کارهایی که انسان‌ها در حال حاضر توانایی انجام آن را دارند،
08:25
represents any sort of summit
171
505680
1456
نشان دهنده بالاترین کارهایی است که
08:27
in what these machines might be capable of doing in the future.
172
507160
3000
ممکن است یک ماشین در آینده بتواند انجام بدهد.
08:31
Now the third myth,
173
511040
1256
و حالا افسانه سوم،
08:32
what I call the superiority myth.
174
512320
2456
که آن را افسانه برتری می‌نامم.
08:34
It's often said that those who forget
175
514800
2216
معمولا گفته می‌شود کسانی که درباره قسمت مفید
08:37
about the helpful side of technological progress,
176
517040
2456
پیشرویی فناوری، آن تکمیل‌کننده اسبق،
08:39
those complementarities from before,
177
519520
2496
را فراموش می‌کنند،
08:42
are committing something known as the lump of labor fallacy.
178
522040
3040
مرتکب چیزی می‌شوند که "به اشتباه توده حزب کارگری" شناخته می‌شود.
08:45
Now, the problem is the lump of labor fallacy
179
525840
2295
حالا مشکل اشتباه توده حزب کارگری این است
08:48
is itself a fallacy,
180
528159
1496
که خودش یک اشتباه است،
08:49
and I call this the lump of labor fallacy fallacy,
181
529679
2937
و من به آن اشتباه اشتباه توده حزب کارگری می‌گویم،
08:52
or LOLFF, for short.
182
532640
2320
یا به اختصار LOLFF.
08:56
Let me explain.
183
536000
1416
اجازه بدید توضیح بدم.
08:57
The lump of labor fallacy is a very old idea.
184
537440
2136
اشتباه توده کارگری یک ایده بسیار قدیمی می‌باشد.
08:59
It was a British economist, David Schloss, who gave it this name in 1892.
185
539600
4216
یک اقتصاددان بریتانیایی در سال ۱۸۹۲ به اسم دیوید اِشلاس این اسم را به آن داده است.
09:03
He was puzzled to come across a dock worker
186
543840
2816
او به یک کارگر بار انداز خیره شده بود
09:06
who had begun to use a machine to make washers,
187
546680
2336
که شروع به ساخت واشر با استفاده از ماشین کرده بود،
09:09
the small metal discs that fasten on the end of screws.
188
549040
3320
دیسک‌های فلزی کوچکی که در انتهای پیچ‌ها قرار می‌گیرند.
09:13
And this dock worker felt guilty for being more productive.
189
553000
3760
و این کارگر بار انداز برای شروع تولید بیشتری که داشت، احساس گناه می‌کرد.
09:17
Now, most of the time, we expect the opposite,
190
557560
2176
حالا در بیشتر اوقات ما انتظاری برعکس داریم،
09:19
that people feel guilty for being unproductive,
191
559760
2216
که مردم از بازده نداشتن احساس گناه می‌کنند،
مثلا صرف وقت بیشتری توی فیسبوک یا توییتر در محل کار.
09:22
you know, a little too much time on Facebook or Twitter at work.
192
562000
3016
اما این کارگر از بیشتر تولید کردن ناراحت بود،
09:25
But this worker felt guilty for being more productive,
193
565040
2536
و در جواب چرا گفت "میدونم که دارم اشتباه می‌کنم،
09:27
and asked why, he said, "I know I'm doing wrong.
194
567600
2296
09:29
I'm taking away the work of another man."
195
569920
2040
"من دارم کار یک نفر دیگه رو ازش می‌گیرم".
09:32
In his mind, there was some fixed lump of work
196
572760
2976
در ذهن آن شخص یک توده کارگری ثابت برای تقسیم بین
09:35
to be divided up between him and his pals,
197
575760
2136
آن و دوستانش وجود داشت،
09:37
so that if he used this machine to do more,
198
577920
2056
پس اگر او دارد از این ماشین برای تولید بیشتر استفاده می‌کند
کار کمتری برای دوستانش وجود دارد تا انجام بدهند.
09:40
there'd be less left for his pals to do.
199
580000
2016
09:42
Schloss saw the mistake.
200
582040
1856
اِشلاس این مشکل رو دید.
09:43
The lump of work wasn't fixed.
201
583920
1856
حجم کاری که وجود دارد ثابت نیست.
09:45
As this worker used the machine and became more productive,
202
585800
2816
همانطور که این کارگر از ماشین برای تولید بیشتر استفاده می‌کند
09:48
the price of washers would fall, demand for washers would rise,
203
588640
2976
قیمت واشر افت می‌کند، درخواست برای واشر افزایش می‌یابد،
09:51
more washers would have to be made,
204
591640
1696
واشر‌های بیشتری باید ساخته شوند،
09:53
and there'd be more work for his pals to do.
205
593360
2096
و کار بیشتری وجود دارد تا دوستانش انجام دهند.
09:55
The lump of work would get bigger.
206
595480
1696
حجم کار بزرگ‌تر خواهد شد.
09:57
Schloss called this "the lump of labor fallacy."
207
597200
2680
اِشلاس به این "اشتباه توده کارگری" گفت.
10:00
And today you hear people talk about the lump of labor fallacy
208
600560
2936
و امروزه شما می‌شنوید که مردم درباره این اشتباه حرف می‌زنند
10:03
to think about the future of all types of work.
209
603520
2216
تا درباره آینده انواع کارها فکر کنند.
10:05
There's no fixed lump of work out there to be divided up
210
605760
2656
میزان ثابتی کار وجود ندارد که بخواهد بین
10:08
between people and machines.
211
608440
1376
مردم و ماشین‌ها تقسیم بشود.
10:09
Yes, machines substitute for human beings, making the original lump of work smaller,
212
609840
4656
بله، ماشین‌ها جایگزین انسان‌ها می‌شوند، حجم کار اصلی را کاهش می‌دهند،
10:14
but they also complement human beings,
213
614520
1856
اما در کنار آن انسان ها را کامل می‌کنند،
10:16
and the lump of work gets bigger and changes.
214
616400
2096
و میزان کار موجود تغییر کرده و بزرگتر می‌شود.
10:19
But LOLFF.
215
619760
1616
اما LOLFF.
10:21
Here's the mistake:
216
621400
1376
مشکل و اشتباه اینجاست:
10:22
it's right to think that technological progress
217
622800
2216
کاملا درست است که فکر کنیم پیشرفت فناوری
10:25
makes the lump of work to be done bigger.
218
625040
1976
حجم کار انجام شده را بزرگتر می‌کند.
10:27
Some tasks become more valuable. New tasks have to be done.
219
627040
3016
برخی کارها با ارزش‌تر می‌شوند. وظایف جدیدی باید انجام ‌شوند.
10:30
But it's wrong to think that necessarily,
220
630080
2536
اما این درست نیست که فکر کنیم لزوما انسان‌ها
10:32
human beings will be best placed to perform those tasks.
221
632640
3256
بهترین وظایف را خواهند داشت.
10:35
And this is the superiority myth.
222
635920
1616
و این افسانه برتری هست.
10:37
Yes, the lump of work might get bigger and change,
223
637560
3416
درست است، حجم کار موجود ممکن است بزرگ‌تر شود یا تغییر کند،
10:41
but as machines become more capable,
224
641000
1976
اما ماشین‌ها که توانا‌تر می‌شوند،
10:43
it's likely that they'll take on the extra lump of work themselves.
225
643000
3896
ممکن است که تمام میزان کار اضافی را خودشان پر کنند.
10:46
Technological progress, rather than complement human beings,
226
646920
3256
پیشرفت فناوری، به جای مکمل بودن برای انسان‌ها،
10:50
complements machines instead.
227
650200
1880
کار ماشین‌ها را تکمیل می‌کند.
10:52
To see this, go back to the task of driving a car.
228
652920
3016
برای دیدن این به مثال روندن ماشین برگردیم.
10:55
Today, satnav systems directly complement human beings.
229
655960
4096
امروزه سیستم راهیابی ماهواره‌ای مستقیما انسان‌های را تکمیل می‌کند
11:00
They make some human beings better drivers.
230
660080
2280
آنها انسان‌ها را راننده‌های بهتری می‌کنند.
11:02
But in the future,
231
662920
1256
اما در آینده،
11:04
software is going to displace human beings from the driving seat,
232
664200
3096
نرم‌افزار می‌خواهد راننده‌ را جایگزین کند،
11:07
and these satnav systems, rather than complement human beings,
233
667320
2936
و سیستم راه‌یابی ماهواره‌ای، به جای تکمیل انسان‌ها،
11:10
will simply make these driverless cars more efficient,
234
670280
2536
به راحتی ماشین‌های بدون راننده را کارآمدتر می‌کند،
11:12
helping the machines instead.
235
672840
1536
با کمک کردن به ماشین‌ها.
11:14
Or go to those indirect complementarities that I mentioned as well.
236
674400
4056
یا به آن تکمیل کننده‌های غیر مستقیمی که اشاره کردم دقت کنید.
11:18
The economic pie may get larger,
237
678480
1776
کیک اقتصادی بزرگتر می‌شود،
11:20
but as machines become more capable,
238
680280
1736
اما با توانمندتر شدن ماشین‌ها،
11:22
it's possible that any new demand will fall on goods that machines,
239
682040
3143
ممکن است که نیازهای جدید برای کالاهایی بهتر باشد،
11:25
rather than human beings, are best placed to produce.
240
685207
2649
که ماشین در قیاس با انسان‌ها، در تولید آن بهترین است.
11:27
The economic pie may change,
241
687880
1896
کیک اقتصاد ممکن است تغییر کند،
11:29
but as machines become more capable,
242
689800
1896
اما با توانمندتر شدن ماشین‌ها،
11:31
it's possible that they'll be best placed to do the new tasks that have to be done.
243
691720
4856
امکان دارد که آن‌ها گزینه مناسب‌تری برای قرار گرفتن در کارهای جدید باشند.
11:36
In short, demand for tasks isn't demand for human labor.
244
696600
3696
خلاصه، نیاز به کار، نیاز به نیروی انسانی نیست.
11:40
Human beings only stand to benefit
245
700320
1936
انسان‌ها تنها در صورتی نفع می‌برند
11:42
if they retain the upper hand in all these complemented tasks,
246
702280
3816
که در تمام این وظایف تکمیلی برتری خود را حفظ کنند،
11:46
but as machines become more capable, that becomes less likely.
247
706120
3720
اما با کارآمدتر شدن ماشین‌ها، احتمال این موضوع کاهش پیدا می‌کند.
11:50
So what do these three myths tell us then?
248
710760
2016
حالا این سه افسانه به ما چه می‌گویند؟
11:52
Well, resolving the Terminator myth
249
712800
1696
خب، حل افسانه نابودگر
11:54
shows us that the future of work depends upon this balance between two forces:
250
714520
3696
به ما نشان می‌دهد که آینده کارها به تعادل بین این دو نیرو بستگی دارد:
11:58
one, machine substitution that harms workers
251
718240
3136
یک، جایگزینی ماشین‌ها که به کارگرها آسیب می‌زند
12:01
but also those complementarities that do the opposite.
252
721400
2576
و آن کارهای تکمیلی که برعکس این را انجام می‌دهد.
12:04
And until now, this balance has fallen in favor of human beings.
253
724000
4040
و تا الان این تعادل به نفع انسان‌ها بوده.
12:09
But resolving the intelligence myth
254
729120
1736
اما بررسی افسانه هوش
12:10
shows us that that first force, machine substitution,
255
730880
2496
به ما نشان می‌دهد که نیروی اول، جایگزینی ماشین‌ها،
12:13
is gathering strength.
256
733400
1296
نیرومندتر می‌شود.
12:14
Machines, of course, can't do everything,
257
734720
1976
با اینکه ماشین‌ها همه کارها را نمی‌توانند انجام دهند
12:16
but they can do far more,
258
736720
1256
اما قادر به انجام کارهای زیادی هستند،
12:18
encroaching ever deeper into the realm of tasks performed by human beings.
259
738000
4576
ورود به حوزه کارهایی که انسان‌ها انجام می‌دهند را عمیق‌تر می‌کند.
12:22
What's more, there's no reason to think
260
742600
1896
علاوه بر این، نیازی نیست فکر کنیم که
12:24
that what human beings are currently capable of
261
744520
2216
کارهایی که از دست انسان‌ها بر می‌آید
12:26
represents any sort of finishing line,
262
746760
1856
دلالت بر هر گونه خط پایان دارد،
12:28
that machines are going to draw to a polite stop
263
748640
2256
که ماشین‌ها با توانمند شدن در سطح انسان
12:30
once they're as capable as us.
264
750920
1816
نقطه پایان آن را ترسیم کنند.
12:32
Now, none of this matters
265
752760
1536
الان، هیچکدام این‌ها اهمیت ندارد
12:34
so long as those helpful winds of complementarity
266
754320
2816
تا زمانی که کارهای تکمیلی امیدوار کننده
12:37
blow firmly enough,
267
757160
1736
به اندازه کافی هستند،
12:38
but resolving the superiority myth
268
758920
1936
اما بررسی افسانه برتری
12:40
shows us that that process of task encroachment
269
760880
3096
به ما نشان می‌دهد که آن پیشرفت تجاوز وظایف ماشین‌ها
12:44
not only strengthens the force of machine substitution,
270
764000
3936
نه تنها نیروی جایگزینی ماشین‌ها را قوی‌تر می‌کند،
12:47
but it wears down those helpful complementarities too.
271
767960
3336
بلکه امید به وظایف تکمیلی را نیز کاهش می‌دهد.
12:51
Bring these three myths together
272
771320
1936
با کنار هم قرار دادن این سه افسانه
12:53
and I think we can capture a glimpse of that troubling future.
273
773280
2936
می‌توانیم چشم‌اندازی از مشکلات آینده داشته باشیم.
12:56
Machines continue to become more capable,
274
776240
2016
ماشین‌ها به توانمند تر شدن ادامه می‌دهند،
12:58
encroaching ever deeper on tasks performed by human beings,
275
778280
3656
تجاوز عمیق‌تر به کارهایی که انسان‌ها انجام می‌دهند بیشتر می‌شود،
13:01
strengthening the force of machine substitution,
276
781960
2576
قدرت ماشین‌ها برای جایگزینی بیشتر می‌شود،
13:04
weakening the force of machine complementarity.
277
784560
3616
ضعیف تر شدن قدرت تکمیل کنندگی ماشین‌ها برای انسان‌ها بیشتر می‌شود.
13:08
And at some point, that balance falls in favor of machines
278
788200
4296
و در بعضی جاها، تعادل مورد نظر بیشتر به نفع ماشین‌ها خواهد بود
13:12
rather than human beings.
279
792520
2056
تا به نفع انسان‌ها.
13:14
This is the path we're currently on.
280
794600
1736
این مسیری است که الان در آن قرار داریم.
13:16
I say "path" deliberately, because I don't think we're there yet,
281
796360
3176
من عمدا می‌گویم "مسیر"، زیرا هنوز به نظر من به آنجا نرسیدیم،
13:19
but it is hard to avoid the conclusion that this is our direction of travel.
282
799560
3640
اما جلوگیری کردن از این نتیجه که این جهت گیری آینده است، سخت است،
13:24
That's the troubling part.
283
804640
1456
قسمت مشکل قضیه همین جاست.
13:26
Let me say now why I think actually this is a good problem to have.
284
806120
3520
اجازه دهید بگویم چرا به نظرم مشکل خوبی است که داریم.
13:30
For most of human history, one economic problem has dominated:
285
810520
3536
در بیشتر تاریخ بشریت، یک مشکل اقتصادی حکم فرما بوده:
13:34
how to make the economic pie large enough for everyone to live on.
286
814080
4056
چگونه یک کیک اقتصادی را به اندازه کافی بزرگ کنیم تا همه بتوانند در آن زندگی کنند.
13:38
Go back to the turn of the first century AD,
287
818160
2176
برگردیم به اولین قرن میلادی
13:40
and if you took the global economic pie
288
820360
2096
و اگر شما کیک اقتصاد جهانی را در نظر بگیرید
13:42
and divided it up into equal slices for everyone in the world,
289
822480
3296
و آن را به اندازه‌های مساوی برای هر نفر در دنیا تقسیم کنید،
13:45
everyone would get a few hundred dollars.
290
825800
2136
به هر نفر چند صد دلار می‌رسد.
13:47
Almost everyone lived on or around the poverty line.
291
827960
2760
تقریبا هر فرد روی خط فقر یا اطراف آن قرار می‌گیرد.
13:51
And if you roll forward a thousand years,
292
831320
2176
و اگر هزار سال به جلو بیایید،
13:53
roughly the same is true.
293
833520
1240
تقریبا همین شرایط درست بوده است.
13:55
But in the last few hundred years, economic growth has taken off.
294
835680
3576
اما در این چند صد سال اخیر، رشد اقتصادی شروع شد.
13:59
Those economic pies have exploded in size.
295
839280
2376
آن کیک‌های اقتصادی بسیار بزرگ‌تر شدند.
14:01
Global GDP per head,
296
841680
2056
تولید ناخالص داخلی جهانی برای هر نفر،
14:03
the value of those individual slices of the pie today,
297
843760
3376
ارزش همان برش‌های انفرادی کیک امروز،
14:07
they're about 10,150 dollars.
298
847160
2816
حدود ۱۰,۱۵۰ دلار است.
14:10
If economic growth continues at two percent,
299
850000
2696
اگر رشد اقتصادی دو درصدی ادامه پیدا کند،
14:12
our children will be twice as rich as us.
300
852720
2056
کودکان ما دوبرابر ما ثروتمند خواهند بود.
14:14
If it continues at a more measly one percent,
301
854800
2296
اگر با نرخ ۱ درصدی ادامه پیدا کند،
14:17
our grandchildren will be twice as rich as us.
302
857120
2656
نوه‌های ما دوبرابر ما ثروت خواهند داشت.
14:19
By and large, we've solved that traditional economic problem.
303
859800
3680
به طور کلی، ما آن مشکل اقتصاد سنتی را حل کردیم.
14:24
Now, technological unemployment, if it does happen,
304
864200
3016
حال، اگر بیکاری فناوری اتفاق بیفتد،
14:27
in a strange way will be a symptom of that success,
305
867240
3216
به طور عجیبی، نشانه‌ای از موفقیت خواهد بود،
14:30
will have solved one problem -- how to make the pie bigger --
306
870480
3856
یک مشکل حل شده-- چگونه کیک را بزرگتر کنیم-
14:34
but replaced it with another --
307
874360
1816
اما دچار مسئله دیگری می‌شویم--
14:36
how to make sure that everyone gets a slice.
308
876200
2760
چگونه مطمئن شویم هر فرد یک برش دریافت می‌کند.
14:39
As other economists have noted, solving this problem won't be easy.
309
879840
3496
همانطور که دیگر اقتصاددانان اشاره می‌کنند، حل این مشکل آسان نخواهد بود.
14:43
Today, for most people,
310
883360
1656
امروزه برای بیشتر مردم،
14:45
their job is their seat at the economic dinner table,
311
885040
2496
شغل آنها، صندلی آنها سر میز شام اقتصاد است
14:47
and in a world with less work or even without work,
312
887560
2416
و در دنیایی با کار کمتر یا حتی بدون کار،
14:50
it won't be clear how they get their slice.
313
890000
2056
معلوم نیست چطور تکه خود را بدست آورند.
14:52
There's a great deal of discussion, for instance,
314
892080
2336
بحث‌های زیادی در این زمینه وجود دارد، برای مثال،
14:54
about various forms of universal basic income
315
894440
2696
درباره انواع درآمدهای پایه جهانی
14:57
as one possible approach,
316
897160
1216
بعنوان یک رویکرد محتمل،
14:58
and there's trials underway
317
898400
1616
و آزمایش‌هایی در آمریکا و
15:00
in the United States and in Finland and in Kenya.
318
900040
2400
فنلاند و کنیا در حال انجام است.
15:03
And this is the collective challenge that's right in front of us,
319
903000
3176
و این چالش جمعی در پیشروی ما است،
15:06
to figure out how this material prosperity generated by our economic system
320
906200
5056
چطور این رونق اقتصادی ایجاد شده توسط سیستم اقتصادی‌
15:11
can be enjoyed by everyone
321
911280
1976
می‌تواند موجب رضایت همه مردم
15:13
in a world in which our traditional mechanism
322
913280
2416
در دنیایی شود که مکانیزم‌های سنتی ما
15:15
for slicing up the pie,
323
915720
1856
برای تقسیم کردن کیک بین مردم،
15:17
the work that people do,
324
917600
1936
کاری که مردم انجام می‌دهند،
15:19
withers away and perhaps disappears.
325
919560
2160
ممکن است کم رنگ بشود و یا از بین برود را بفهمیم.
15:22
Solving this problem is going to require us to think in very different ways.
326
922280
4360
حل این مشکل نیازمند این است که ما راهی کاملا متفاوت را برای تفکر پیش بگیریم.
15:27
There's going to be a lot of disagreement about what ought to be done,
327
927400
4176
مخالفتهای زیادی برای کارهایی که باید انجام دهیم وجود خواهد داشت،
15:31
but it's important to remember that this is a far better problem to have
328
931600
3416
اما باید به خاطر داشته باشید که این مشکل بسیار بهتر از داشتن
15:35
than the one that haunted our ancestors for centuries:
329
935040
2816
مشکلی است که اجداد ما برای قرن‌ها آن را داشتند:
15:37
how to make that pie big enough in the first place.
330
937880
3376
چگونگی بزرگتر کردن کیک به اندازه کافی.
15:41
Thank you very much.
331
941280
1256
خیلی ممنون.
15:42
(Applause)
332
942560
3840
(تشویق )
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7