3 myths about the future of work (and why they're not true) | Daniel Susskind

169,353 views ・ 2018-04-05

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Hanan Zakaria المدقّق: Hussain Laghabi
00:12
Automation anxiety has been spreading lately,
0
12760
3376
انتشر الخوف من الأتمتة مؤخرًا،
00:16
a fear that in the future,
1
16160
2656
خوفا من أنه في المستقبل
00:18
many jobs will be performed by machines
2
18840
2456
ستقوم الآلات بالعديد من الوظائف
00:21
rather than human beings,
3
21320
1336
بدلًا من الناس،
00:22
given the remarkable advances that are unfolding
4
22680
2936
بالنظر إلى التقدم الملحوظ الذي يستمر
00:25
in artificial intelligence and robotics.
5
25640
2776
في مجال الذكاء الاصطناعي والروبوتات.
00:28
What's clear is that there will be significant change.
6
28440
2816
ما هو واضح على نحو جلي سيكون هناك تغيير كبير.
00:31
What's less clear is what that change will look like.
7
31280
3616
ما هو غير واضح كيف سيبدو هذا التغيير.
00:34
My research suggests that the future is both troubling and exciting.
8
34920
4936
ترجح أبحاثي أن المستقبل سيكون مليئا بالتشويق والمشكلات.
00:39
The threat of technological unemployment is real,
9
39880
3736
تهديد البطالة بسبب التكنولوجيا
00:43
and yet it's a good problem to have.
10
43640
2056
ومع ذلك فإنها مشكلة جيدة في نفس الوقت.
00:45
And to explain how I came to that conclusion,
11
45720
3216
وللتوضيح كيف وصلت لهذه النتيجة،
00:48
I want to confront three myths
12
48960
2536
أريد أن أدحض ثلاث خرافات
00:51
that I think are currently obscuring our vision of this automated future.
13
51520
4280
أظن أنها أصبحت تشوش علينا رؤيتنا لهذه المستقبل الأتوماتيكي.
00:56
A picture that we see on our television screens,
14
56880
2336
صورة رأيناها على شاشات التلفزة لدينا،
00:59
in books, in films, in everyday commentary
15
59240
2216
وفي الكتب والأفلام وفي أحاديثنا اليومية
01:01
is one where an army of robots descends on the workplace
16
61480
3696
حيث فيها جيش من الرجال الآليين ينزلون من مقرات العمل
01:05
with one goal in mind:
17
65200
1376
بهدف واحد في أذهانهم:
01:06
to displace human beings from their work.
18
66600
2496
لأخذ الوظائف والأعمال من البشر.
01:09
And I call this the Terminator myth.
19
69120
2696
وأسمي هذه بخرافات الإبادة.
01:11
Yes, machines displace human beings from particular tasks,
20
71840
3976
نعم، الآلات تأخذ من البشر مهام معينة،
01:15
but they don't just substitute for human beings.
21
75840
2256
ولكنها لا يمكن إحلالها مكان البشر.
01:18
They also complement them in other tasks,
22
78120
1976
إنهم يكملونهم أيضًا في مهام أخرى،
01:20
making that work more valuable and more important.
23
80120
3616
جاعلين من ذلك العمل أكثر قيمة وأكثر أهمية.
01:23
Sometimes they complement human beings directly,
24
83760
3336
أحيانًا يكملون البشر بشكل مباشر،
01:27
making them more productive or more efficient at a particular task.
25
87120
4016
جاعلين منهم أكثر إنتاجية أو أكثر كفاءة في مهام معينة.
01:31
So a taxi driver can use a satnav system to navigate on unfamiliar roads.
26
91160
4616
يستطيع سائق التاكسي استخدام "ساتناف" للذهاب إلى طرق غير معروفة.
01:35
An architect can use computer-assisted design software
27
95800
3336
يستطيع المهندس استخدام برنامج كمبيوتر مساعد للتصميم
01:39
to design bigger, more complicated buildings.
28
99160
3096
لتصميم أبنية أكبر وأكثر تعقيدًا.
01:42
But technological progress doesn't just complement human beings directly.
29
102280
3696
ولكن عملية التطور التكنولوجي لا تكمل الإنسان بشكل مباشر فحسب،
01:46
It also complements them indirectly, and it does this in two ways.
30
106000
3336
بل أنها تكملهم بشكل غير مباشر أيضًا وتقوم بهذا بطريقتين.
01:49
The first is if we think of the economy as a pie,
31
109360
3336
الأولى: إذا تخيلنا الاقتصاد كفطيرة،
01:52
technological progress makes the pie bigger.
32
112720
2896
يجعل التطور التكنولوجي الفطيرة أكبر حجمًا.
01:55
As productivity increases, incomes rise and demand grows.
33
115640
3856
وكلما تزداد الإنتاجية، وترتفع الدخول وترتفع القوة الشرائية.
01:59
The British pie, for instance,
34
119520
1776
الفطيرة البريطانية على سبيل المثال،
02:01
is more than a hundred times the size it was 300 years ago.
35
121320
3960
أكبر بمئات المرات مما كانت عليه قبل 300 سنة
02:05
And so people displaced from tasks in the old pie
36
125920
3216
وهكذا الناس الذين طردوا من المهام في الفطيرة القديمة
02:09
could find tasks to do in the new pie instead.
37
129160
2720
تمكنوا من إيجاد مهام جديدة ليقوموا بها في الفطيرة الجديدة.
02:12
But technological progress doesn't just make the pie bigger.
38
132800
3936
ولكن التطور التكنولوجي لا يقوم فقط بجعل الفطيرة أكبر حجمًا.
02:16
It also changes the ingredients in the pie.
39
136760
2856
إنه يغير أيضًا المكونات داخل الفطيرة.
02:19
As time passes, people spend their income in different ways,
40
139640
3456
بمضي الوقت، ينفق الناس دخولهم في أشياء مختلفة،
02:23
changing how they spread it across existing goods,
41
143120
2816
التغير في كيفية إنفاقهم على مختلف المنتجات الموجودة،
02:25
and developing tastes for entirely new goods, too.
42
145960
3216
وكذلك ظهور الرغبة لشراء منتجات جديدة تمامًا.
02:29
New industries are created,
43
149200
1776
ظهرت صناعات جديدة،
02:31
new tasks have to be done
44
151000
1816
ووظائف جديدة للقيام بها
02:32
and that means often new roles have to be filled.
45
152840
2536
وغالبًا ما يعني ذلك أدوارا جديدة لشغلها.
02:35
So again, the British pie:
46
155400
1496
مرةً أخرى، الفطيرة البريطانية:
02:36
300 years ago, most people worked on farms,
47
156920
2976
قبل 300 سنة، عمل معظم الناس في المزارع،
02:39
150 years ago, in factories,
48
159920
2336
قبل 150 سنة، في المصانع،
02:42
and today, most people work in offices.
49
162280
2856
واليوم، يعمل معظم الناس في مكاتب.
02:45
And once again, people displaced from tasks in the old bit of pie
50
165160
4056
ومرةً أخرى، الناس الذين انتقلوا من المهام في الفطيرة القديمة
02:49
could tumble into tasks in the new bit of pie instead.
51
169240
2800
استطاعوا أن يجدوا مهاما أخرى في الفطيرة الجديدة.
02:52
Economists call these effects complementarities,
52
172720
3336
يسمي الاقتصاديون هذه التأثيرات بـ "المكملات"
02:56
but really that's just a fancy word to capture the different way
53
176080
3256
ولكن تلك الكلمة حقًا عبارة عن وهم لتصوير الطريقة الختلفة
02:59
that technological progress helps human beings.
54
179360
3136
التي يساعد بها التطور التكنولوجي البشر.
03:02
Resolving this Terminator myth
55
182520
2096
للقضاء على خرافة الإبادة
03:04
shows us that there are two forces at play:
56
184640
2336
أظهر لنا عاملين مؤثرين:
03:07
one, machine substitution that harms workers,
57
187000
3536
الأول: استبدال الآلات يضر بالعمال،
03:10
but also these complementarities that do the opposite.
58
190560
2880
ولكن أيضًا هذه المكملات التي تقوم بالعكس.
03:13
Now the second myth,
59
193960
1376
الآن الخرافة الثانية،
03:15
what I call the intelligence myth.
60
195360
2280
وهي ما أسميها "خرافة الذكاء الاصطناعي".
03:18
What do the tasks of driving a car, making a medical diagnosis
61
198440
4896
ما المشترك بين مهام مثل قيادة السيارة، والتشخيص الطبي
03:23
and identifying a bird at a fleeting glimpse have in common?
62
203360
2920
والتعرف على طير يحلق سريعًا بلمح البصر؟
03:27
Well, these are all tasks that until very recently,
63
207280
2976
حسنًا، هذه المهام جميعًا والتي كانت حتى وقت متأخر
03:30
leading economists thought couldn't readily be automated.
64
210280
3336
تدفع الاقتصاديين للتفكير بأنها لا تزال صعبة الأتمتة.
03:33
And yet today, all of these tasks can be automated.
65
213640
3176
ومع ذلك اليوم، كل هذه المهام يمكن أن تصبح أتوماتيكية.
03:36
You know, all major car manufacturers have driverless car programs.
66
216840
3496
تعرفون، تملك كل مصانع السيارات الكبرى برامج قيادة ذاتية للسيارات.
03:40
There's countless systems out there that can diagnose medical problems.
67
220360
3976
هناك عدد لايحصى من الأنظمة التي تستطيع تشخيص المشاكل الطبية.
03:44
And there's even an app that can identify a bird
68
224360
2416
وهناك حتى تطبيق يستطيع التعرف على الطائر
03:46
at a fleeting glimpse.
69
226800
1200
يحلق سريعًا بلمح البصر.
03:48
Now, this wasn't simply a case of bad luck on the part of economists.
70
228920
4376
الآن، لم يكن ذلك مجرد مثال من الحظ العاثر من قبل الاقتصاديين،
03:53
They were wrong,
71
233320
1296
لقد كانوا مخطئين.
03:54
and the reason why they were wrong is very important.
72
234640
2496
والسبب وراء كونهم مخطئين مهمٌ جدًا.
03:57
They've fallen for the intelligence myth,
73
237160
2256
لقد أحبوا خرافة الذكاء الاصطناعي،
03:59
the belief that machines have to copy the way
74
239440
2896
فكرة أن الآلات تستطيع أن تقلد
04:02
that human beings think and reason
75
242360
2056
الطريقة التي يفكر ويحلل بها البشر
04:04
in order to outperform them.
76
244440
1776
حتى تتفوق عليهم.
04:06
When these economists were trying to figure out
77
246240
2216
عندما كان هؤلاء الاقتصاديون يحاولون التوصل إلى
04:08
what tasks machines could not do,
78
248480
1856
ما لا تستطيع أن تقوم الآلات بعمله،
04:10
they imagined the only way to automate a task
79
250360
2136
تخيلوا أن السبيل الوحيد لمهمة أتوماتيكية
04:12
was to sit down with a human being,
80
252520
1816
هو الجلوس مع الكائن البشري،
04:14
get them to explain to you how it was they performed a task,
81
254360
3536
وجعلهم يشرحون لك كيف يقومون بمهمة ما،
04:17
and then try and capture that explanation
82
257920
2656
ومن ثم محاولة نسخ ذلك الشرح
04:20
in a set of instructions for a machine to follow.
83
260600
2776
في مجموعة من الأوامر لتتبعها الآلة.
04:23
This view was popular in artificial intelligence at one point, too.
84
263400
4176
هذه الرؤية كانت رائجة في مجال الذكاء الاصطناعي في فترة من الزمن أيضًا.
04:27
I know this because Richard Susskind,
85
267600
2176
أعرف هذا لأن "ريشارد سسكيند"
04:29
who is my dad and my coauthor,
86
269800
2856
وهو والدي ومساعدي في البحوث،
04:32
wrote his doctorate in the 1980s on artificial intelligence and the law
87
272680
4056
كتب بحثه في الدكتوراه في الثمانينات حول الذكاء الاصطناعي والتشريعات
04:36
at Oxford University,
88
276760
1416
في جامعة أوكسفورد،
04:38
and he was part of the vanguard.
89
278200
1576
وكان جزء من شركة "فين جارد".
04:39
And with a professor called Phillip Capper
90
279800
2256
ومع البروفسور "فيليب كابر"
04:42
and a legal publisher called Butterworths,
91
282080
2096
والناشر الرسمي "بوترورثز"،
04:44
they produced the world's first commercially available
92
284200
5896
قاموا بإنتاج أول نظام عالمي تجاري
04:50
artificial intelligence system in the law.
93
290120
2776
للذكاء الاصطناعي في القانون.
04:52
This was the home screen design.
94
292920
2616
هذا هو شكل الشاشة الرئيسية.
04:55
He assures me this was a cool screen design at the time.
95
295560
2696
يؤكد لي أن هذا كان تصميما حديثا في ذلك الوقت.
04:58
(Laughter)
96
298280
1016
(ضحك)
04:59
I've never been entirely convinced.
97
299320
1696
لم أقتنع كليًا بما قاله أبدًا.
05:01
He published it in the form of two floppy disks,
98
301040
2616
قام بنشره في شكل قرصين مرنين،
05:03
at a time where floppy disks genuinely were floppy,
99
303680
3536
في وقت كانت فيه الأقراص المرنة مرنةً فعلًا،
05:07
and his approach was the same as the economists':
100
307240
2336
وكان منهجه مشابها للاقتصاديين:
05:09
sit down with a lawyer,
101
309600
1256
استشارة محامية،
05:10
get her to explain to you how it was she solved a legal problem,
102
310880
3176
طلب منها شرح أبعاد الأمر كيفية حل مشكلة قانونية،
05:14
and then try and capture that explanation in a set of rules for a machine to follow.
103
314080
5376
ومن ثم محاولة تصوره وشرحه من خلال مجموعة من القوانين التي تتبعها الآلات.
05:19
In economics, if human beings could explain themselves in this way,
104
319480
3616
في الاقتصاد، إذا استطاع البشر التعبير عن أنفسهم بنفس هذه الطريقة،
05:23
the tasks are called routine, and they could be automated.
105
323120
3296
فإن المهام التي تسمى روتينية يمكن أن تصبح أتوماتيكية.
05:26
But if human beings can't explain themselves,
106
326440
2336
ولكن إذا لم يستطع البشر التعبير عن أنفسهم،
05:28
the tasks are called non-routine, and they're thought to be out reach.
107
328800
4256
فتسمى هذه بالمهام غير الروتينية ويعتقد بأنها صعبة الأتمتة.
05:33
Today, that routine-nonroutine distinction is widespread.
108
333080
3296
اليوم، يتلاشى ذلك الفاصل بين الروتيني وغير الروتيني.
05:36
Think how often you hear people say to you
109
336400
2056
تذكر كم من المرات قد سمعت الناس يقولوا لك:
05:38
machines can only perform tasks that are predictable or repetitive,
110
338480
3256
يمكن أن تقوم الآلات بالمهام المتوقعة والمكررة،
05:41
rules-based or well-defined.
111
341760
1896
والتي تعتمد على قواعد معينة أو محددة.
05:43
Those are all just different words for routine.
112
343680
2936
كل هذا هو مجرد أوصاف مختلفة لمصطلح روتيني.
05:46
And go back to those three cases that I mentioned at the start.
113
346640
3976
وبالنظر مرة أخرى إلى هذه الثلاث الأمثلة التي ذكرتها في البداية،
05:50
Those are all classic cases of nonroutine tasks.
114
350640
2896
كلها تعتبر أمثلة نموذجية للمهام غير-الروتينية.
05:53
Ask a doctor, for instance, how she makes a medical diagnosis,
115
353560
2976
أسأل الطبيب مثلًا، كيف تقوم بعمل تشخيص طبي،
05:56
and she might be able to give you a few rules of thumb,
116
356560
2656
وربما تستطيع أن تعطيك بعض الإرشادات المفيدة،
05:59
but ultimately she'd struggle.
117
359240
1656
ولكنها بالنهاية ستجد صعوبة في ذلك.
06:00
She'd say it requires things like creativity and judgment and intuition.
118
360920
4816
ستقول أنه يتطلب أشياء مثل الإبداع وحسن الحكم والبديهة.
06:05
And these things are very difficult to articulate,
119
365760
2376
وكل هذه الأشياء يصعب التعبير عنها بالكلمات،
06:08
and so it was thought these tasks would be very hard to automate.
120
368160
3096
ولهذا كان يعتقد أن هذه المهام يصعب جعلها أتوماتيكية.
06:11
If a human being can't explain themselves,
121
371280
2536
إذا لم يستطع البشر التعبير عن أنفسهم،
06:13
where on earth do we begin in writing a set of instructions
122
373840
2896
فكيف بحق السماء سنستطيع البدء بكتابة مجموعة من الأوامر
06:16
for a machine to follow?
123
376760
1200
لتتبعها الآلة؟
06:18
Thirty years ago, this view was right,
124
378640
2576
قبل ثلاثين سنة، كان هذا المعتقد صحيحًا،
06:21
but today it's looking shaky,
125
381240
2136
ولكن اليوم يبدو غير صحيح،
06:23
and in the future it's simply going to be wrong.
126
383400
2256
وفي المستقبل سيكون بكل بساطة خاطئًا.
06:25
Advances in processing power, in data storage capability
127
385680
3256
التطور في استغلال الطاقة، في إمكانية حفظ البيانات
06:28
and in algorithm design
128
388960
1656
وتصميم اللوغارتيمات
06:30
mean that this routine-nonroutine distinction
129
390640
2496
يعني ذلك بأن هذا الفاصل بين الروتيني وغير الروتيني
06:33
is diminishingly useful.
130
393160
1736
بدأ بالتلاشي.
06:34
To see this, go back to the case of making a medical diagnosis.
131
394920
3256
ولرؤية هذا، لنعد إلى مثال عمل التشخيص الطبي.
06:38
Earlier in the year,
132
398200
1376
في بداية هذا العام،
06:39
a team of researchers at Stanford announced they'd developed a system
133
399600
3296
أعلن فريق من الباحثين في "ستانفورد" عن تطويرهم لنظام
06:42
which can tell you whether or not a freckle is cancerous
134
402920
3056
يساعد في معرفة ما إذا كانت بقعة النمش سرطانية أم لا
06:46
as accurately as leading dermatologists.
135
406000
2680
وبنفس دقة خبير الأمراض الجلدية.
06:49
How does it work?
136
409280
1256
كيف يعمل؟
06:50
It's not trying to copy the judgment or the intuition of a doctor.
137
410560
5296
إنها لا يحاول تقليد حكمة أو حدس الطبيب.
06:55
It knows or understands nothing about medicine at all.
138
415880
3136
إنه لا يعرف أو يعي شيئًا في الطب على الإطلاق.
06:59
Instead, it's running a pattern recognition algorithm
139
419040
2576
ولكنه يقوم بتشغيل خوارزمية التعرف على الأنماط
07:01
through 129,450 past cases,
140
421640
4656
من خلال 129450 من الحالات السابقة،
07:06
hunting for similarities between those cases
141
426320
3096
يبحث عن التشابهات بين تلك الحالات
07:09
and the particular lesion in question.
142
429440
2080
والمرض المحدد موضوع البحث.
07:12
It's performing these tasks in an unhuman way,
143
432080
3216
إنه يؤدي هذه المهام بطريقة مختلفة عن البشر،
07:15
based on the analysis of more possible cases
144
435320
2336
معتمدًا على التحليل للعديد من الحالات المحتملة
07:17
than any doctor could hope to review in their lifetime.
145
437680
2616
لا يستطيع أي طبيب أن يراجع نفس العدد طوال فترة حياته.
07:20
It didn't matter that that human being,
146
440320
1896
لم يكن مهمًا أن ذلك الإنسان،
07:22
that doctor, couldn't explain how she'd performed the task.
147
442240
2800
ذلك الطبيب، إذا لم يستطع شرح كيف بإمكانه القيام بالمهمة.
07:25
Now, there are those who dwell upon that the fact
148
445640
2336
الآن، هناك من يسهبون في تلك الحقيقة
07:28
that these machines aren't built in our image.
149
448000
2296
أن هذه الآلات ليست ليست مصممة لتكون مثلنا.
07:30
As an example, take IBM's Watson,
150
450320
2056
كمثال، خذوا كمبيوتر "أي-بي-إم واتسون"،
07:32
the supercomputer that went on the US quiz show "Jeopardy!" in 2011,
151
452400
4856
الكمبيوتر العملاق الذي أصبح في برنامج المسابقة الأمريكي "جيوباردي" في عام 2011،
07:37
and it beat the two human champions at "Jeopardy!"
152
457280
3016
وتغلب على كلا البطلين في "جيوباردي"
07:40
The day after it won,
153
460320
1696
اليوم الذي تلا فوز الكمبيوتر،
07:42
The Wall Street Journal ran a piece by the philosopher John Searle
154
462040
3296
صحيفة "وال ستريت" نشرت خبرًا بقلم الفيلسوف "جون سيرل"
07:45
with the title "Watson Doesn't Know It Won on 'Jeopardy!'"
155
465360
3376
تحت عنوان "واتسون لا يعرف أنه فاز في"جيوباردي!"
07:48
Right, and it's brilliant, and it's true.
156
468760
1976
مقولة صحيحة وذكية وفي محلها.
07:50
You know, Watson didn't let out a cry of excitement.
157
470760
2456
تعرفون، واتسون لم يذرف دموع الفرح.
07:53
It didn't call up its parents to say what a good job it had done.
158
473240
3096
لم يتصل بوالديه حتى يسمع منهم كلمة ياله من عمل رائع قد قمت به.
07:56
It didn't go down to the pub for a drink.
159
476360
2336
ولم يذهب إلى الحانة ليحتفل بالنصر.
07:58
This system wasn't trying to copy the way that those human contestants played,
160
478720
4456
هذا النظام لم يكن يحاول نسخ الطريقة التي يلعب بها المتسابقون البشريون،
08:03
but it didn't matter.
161
483200
1256
ولكن لا يهم.
08:04
It still outperformed them.
162
484480
1976
فلقد تغلب عليهم بكل الأحول.
08:06
Resolving the intelligence myth
163
486480
1576
إن حل معضلة الذكاء الاصطناعي
08:08
shows us that our limited understanding about human intelligence,
164
488080
3376
أظهر لنا أن فهمنا محدود للذكاء البشري،
08:11
about how we think and reason,
165
491480
1896
وأن طريقة تفكيرنا وتحليلنا،
08:13
is far less of a constraint on automation than it was in the past.
166
493400
3456
لم يعد حجر عثرة أمام الأتمتة كما كان في الماضي.
08:16
What's more, as we've seen,
167
496880
1496
ما التالي، كما رأينا،
08:18
when these machines perform tasks differently to human beings,
168
498400
3416
عندما تقوم هذه الآلات بالمهام بطريقة مختلفة عن البشر،
08:21
there's no reason to think
169
501840
1256
ليس هناك سبب للإعتقاد
08:23
that what human beings are currently capable of doing
170
503120
2536
أن كفاءة العمل البشري
08:25
represents any sort of summit
171
505680
1456
تمثل أي نوع من المثالية
08:27
in what these machines might be capable of doing in the future.
172
507160
3000
مقارنة بما قد تقوم به هذه الآلات من عمل في المستقبل.
08:31
Now the third myth,
173
511040
1256
الآن الخرافة الثالثة،
08:32
what I call the superiority myth.
174
512320
2456
وهي ما أسميها بـ "خرافة التفوق "
08:34
It's often said that those who forget
175
514800
2216
عادةً ما يقال بأن هؤلاء من ينسون
08:37
about the helpful side of technological progress,
176
517040
2456
الجانب الجيد من التقدم التكنولوجي،
08:39
those complementarities from before,
177
519520
2496
تلك الكماليات من الماضي،
08:42
are committing something known as the lump of labor fallacy.
178
522040
3040
يقعون في خطأ يسمى بـ"مغالطة اجمالي الوظائف"
08:45
Now, the problem is the lump of labor fallacy
179
525840
2295
الآن تكمن المشكلة في "مغالطة اجمالي الوظائف"
08:48
is itself a fallacy,
180
528159
1496
إنها مغالطة بحد ذاتها،
08:49
and I call this the lump of labor fallacy fallacy,
181
529679
2937
وأسميها بـ"مغالطة اجمالى الوظائف"،
08:52
or LOLFF, for short.
182
532640
2320
أو اختصارًا "LOLFF".
08:56
Let me explain.
183
536000
1416
دعوني أوضح.
08:57
The lump of labor fallacy is a very old idea.
184
537440
2136
مغالطة إجمالي الوظائف مصطلح قديم.
08:59
It was a British economist, David Schloss, who gave it this name in 1892.
185
539600
4216
الاقتصادي البريطاني "دافيد شلوس" كان أول من استخدمه في عام 1892.
09:03
He was puzzled to come across a dock worker
186
543840
2816
لقد احتار عندما مر بجانب عامل الرصيف
09:06
who had begun to use a machine to make washers,
187
546680
2336
الذي كان قد بدأ باستخدام الآلة في التنظيف،
09:09
the small metal discs that fasten on the end of screws.
188
549040
3320
الأقراص المعدنية الصغيرة التي تربط على نهاية المسامير.
09:13
And this dock worker felt guilty for being more productive.
189
553000
3760
وكان هذا العامل يشعر بالذنب لأنه أصبح أكثر إنتاجية.
09:17
Now, most of the time, we expect the opposite,
190
557560
2176
الآن، عادةً ما نتوقع ردة فعل معاكسة
09:19
that people feel guilty for being unproductive,
191
559760
2216
أن يشعر الناس بالذنب لأنهم أقل إنتاجية،
09:22
you know, a little too much time on Facebook or Twitter at work.
192
562000
3016
تعرفون وقت أكثر بقليل على الفيسبوك أو التويتر أثناء العمل.
09:25
But this worker felt guilty for being more productive,
193
565040
2536
ولكن كان هذا العامل يشعر بالذنب لأنه أصبح أكثر انتاجية
09:27
and asked why, he said, "I know I'm doing wrong.
194
567600
2296
وسأله لماذا، فأجابه: "أنا أعرف أن ما أقوم به خاطئ
09:29
I'm taking away the work of another man."
195
569920
2040
أنا أخذ العمل من رجل آخر."
09:32
In his mind, there was some fixed lump of work
196
572760
2976
من وجهة نظره، كان هناك معدل ثابت من إجمالي الوظائف
09:35
to be divided up between him and his pals,
197
575760
2136
يتم تقسيمها بينه وبين زملائه،
09:37
so that if he used this machine to do more,
198
577920
2056
ولهذا إذا استخدم هذه الآلة لفعل المزيد،
09:40
there'd be less left for his pals to do.
199
580000
2016
سيكون هناك القليل ليفعله بقية زملائه.
09:42
Schloss saw the mistake.
200
582040
1856
رأى "شلوس" هذا الخطأ.
09:43
The lump of work wasn't fixed.
201
583920
1856
لأن إجمالي حجم الوظائف لم يكن ثابتًا.
09:45
As this worker used the machine and became more productive,
202
585800
2816
فكلما استخدم هذا العامل الآلة وأصبح أكثر انتاجية،
09:48
the price of washers would fall, demand for washers would rise,
203
588640
2976
أجور المنظفين ستنخفض، والطلب على الأيدي العاملة منهم سيرتفع،
09:51
more washers would have to be made,
204
591640
1696
يجب إيجاد منظفين أكثر،
09:53
and there'd be more work for his pals to do.
205
593360
2096
وسيكون هناك عمل أكثر ليقوم به بقية زملائه.
09:55
The lump of work would get bigger.
206
595480
1696
إجمالي الوظائف سيرتفع.
09:57
Schloss called this "the lump of labor fallacy."
207
597200
2680
سمى "شلوس " هذا بـ "مغالطة إجمالي الوظائف".
10:00
And today you hear people talk about the lump of labor fallacy
208
600560
2936
واليوم تسمعون الناس يتحدثون عن مغالطة إجمالي الوظائف
10:03
to think about the future of all types of work.
209
603520
2216
لتفكرون بالمستقبل وبكل أنواع العمل فيه.
10:05
There's no fixed lump of work out there to be divided up
210
605760
2656
ليس هناك معدل ثابت للوظائف في السوق ليتم تقسيمها
10:08
between people and machines.
211
608440
1376
بين الناس والآلات.
10:09
Yes, machines substitute for human beings, making the original lump of work smaller,
212
609840
4656
نعم، الآلات تأخذ مكان الناس، وتجعل إجمالي حجم الوظائف أصغر مما كان،
10:14
but they also complement human beings,
213
614520
1856
وكنها أيضًا تكمل عمل البشر،
10:16
and the lump of work gets bigger and changes.
214
616400
2096
وبهذا يزداد حجم إجمالي الوظائف ويتغير.
10:19
But LOLFF.
215
619760
1616
لكن "مغالطة إجمالي الوظائف"
10:21
Here's the mistake:
216
621400
1376
هنا يكمن الخطأ:
10:22
it's right to think that technological progress
217
622800
2216
من الصحيح التفكير أن التقدم التكنولوجي
10:25
makes the lump of work to be done bigger.
218
625040
1976
يجعل معدل إجمالي الوظائف أكبر.
10:27
Some tasks become more valuable. New tasks have to be done.
219
627040
3016
بعض المهمام تصبح أكثر قيمة. ومهام جديدة للقيام بها.
10:30
But it's wrong to think that necessarily,
220
630080
2536
ولكن من الخاطئ أن نفكر أن ذلك يعني بالضرورة
10:32
human beings will be best placed to perform those tasks.
221
632640
3256
أن البشر هم أفضل من يقوم بهذه المهام.
10:35
And this is the superiority myth.
222
635920
1616
وهذه هي خرافة التفوق البشري.
10:37
Yes, the lump of work might get bigger and change,
223
637560
3416
نعم، إجمالي الوظائف يصبح أكبر ويتغير،
10:41
but as machines become more capable,
224
641000
1976
ولكن الآلات تصبح أكثر كفاءة،
10:43
it's likely that they'll take on the extra lump of work themselves.
225
643000
3896
فمن المرجح أنها نفسها ستستحوذ على الزيادة في إجمالي حجم الوظائف.
10:46
Technological progress, rather than complement human beings,
226
646920
3256
بدلًا من أن يكمل التقدم التكنولوجي الإنسان،
10:50
complements machines instead.
227
650200
1880
فإنه يكمل الآلآت.
10:52
To see this, go back to the task of driving a car.
228
652920
3016
لرؤية هذا، لنعد إلى مثال قيادة السيارة.
10:55
Today, satnav systems directly complement human beings.
229
655960
4096
اليوم، أصبحت أنظمة "ساتناف" تكمل الإنسان بشكل مباشر.
11:00
They make some human beings better drivers.
230
660080
2280
ويدربوا بعض الناس ليصبحوا سائقين أفضل.
11:02
But in the future,
231
662920
1256
ولكن في المستقبل،
11:04
software is going to displace human beings from the driving seat,
232
664200
3096
فإن البرامج ستقوم بإبعاد البشر من مقعد القيادة،
11:07
and these satnav systems, rather than complement human beings,
233
667320
2936
وأنظمة "سات ناف" هذه بدلًا من أن تكمل الإنسان،
11:10
will simply make these driverless cars more efficient,
234
670280
2536
ستجعل هذه السيارات بدون سائق اكثر كفاءة،
11:12
helping the machines instead.
235
672840
1536
وبهذا تساعد الآلآت بدلًا عن ذلك.
11:14
Or go to those indirect complementarities that I mentioned as well.
236
674400
4056
أو بالذهاب إلى تلك المكملات الغير مباشرة التي ذكرتها سابقًا.
11:18
The economic pie may get larger,
237
678480
1776
قد تصبح فطيرة الاقتصاد أكبر حجمًا،
11:20
but as machines become more capable,
238
680280
1736
ولكن الآلات ستصبح أكثر كفاءة،
11:22
it's possible that any new demand will fall on goods that machines,
239
682040
3143
من الممكن أن الطلب الجديد على البضائع التي تقوم الآلات
11:25
rather than human beings, are best placed to produce.
240
685207
2649
بصنعها وليس الإنسان ستكون هي خير من يقوم بالمهمة.
11:27
The economic pie may change,
241
687880
1896
قد يتغير حجم الفطيرة الاقتصادية،
11:29
but as machines become more capable,
242
689800
1896
ولكن مع تحسن قدرة الآلات،
11:31
it's possible that they'll be best placed to do the new tasks that have to be done.
243
691720
4856
من المحتمل أن تكون هي خير من يقوم بالمهام الجديدة التي يجب عملها
11:36
In short, demand for tasks isn't demand for human labor.
244
696600
3696
باختصار، الحاجة لمهام جديدة لا يعني زيادة الطلب على الأيدي العاملة البشرية.
11:40
Human beings only stand to benefit
245
700320
1936
سيستفيد البشر فقط
11:42
if they retain the upper hand in all these complemented tasks,
246
702280
3816
إذا كانوا هم اليد العليا في كل هذه المهام التكميلية،
11:46
but as machines become more capable, that becomes less likely.
247
706120
3720
ولكن مع تحسن كفاءة الآلآت اصبحت فرصتنا ضعيفة.
11:50
So what do these three myths tell us then?
248
710760
2016
إذًا ما الذي تخبرنا هذه الثلاث الخرافات؟
11:52
Well, resolving the Terminator myth
249
712800
1696
حسنًا، بحل خرافة الإبادة
11:54
shows us that the future of work depends upon this balance between two forces:
250
714520
3696
عرفنا أن مستقبل الوظائف يعتمد على التوازن بين عاملين:
11:58
one, machine substitution that harms workers
251
718240
3136
الأول أن استبدال الآلآت الذي يضر بالعمال
12:01
but also those complementarities that do the opposite.
252
721400
2576
ولكن ايضًا تلك المكملات التي تقوم بالعكس.
12:04
And until now, this balance has fallen in favor of human beings.
253
724000
4040
وحتى الآن ، هذا التوازن تلاشى لصالح الكائن البشري.
12:09
But resolving the intelligence myth
254
729120
1736
ولكن كسر خرافة الذكاء الاصطناعي
12:10
shows us that that first force, machine substitution,
255
730880
2496
أثبت لنا أنا العامل الأول، وهو استبدال الآلات،
12:13
is gathering strength.
256
733400
1296
يحشد كامل قوته.
12:14
Machines, of course, can't do everything,
257
734720
1976
بالطبع لا تستطيع الآلات عمل كل شيء،
12:16
but they can do far more,
258
736720
1256
ولكن يمكنها العمل أكثر،
12:18
encroaching ever deeper into the realm of tasks performed by human beings.
259
738000
4576
والتعمق أكثر في مجال المهام التي يقوم بها البشر.
12:22
What's more, there's no reason to think
260
742600
1896
أيضًا، ليس هناك سبب للاعتقاد
12:24
that what human beings are currently capable of
261
744520
2216
أن بمقدور البشر حاليًا
12:26
represents any sort of finishing line,
262
746760
1856
على الاستمرار إلى الأمام،
12:28
that machines are going to draw to a polite stop
263
748640
2256
أو أن الآلات ستترك لنا المكان
12:30
once they're as capable as us.
264
750920
1816
عند تمكنها من تنفيذ المهام مثلنا.
12:32
Now, none of this matters
265
752760
1536
الآن، لا يهم أيٌ من هذا
12:34
so long as those helpful winds of complementarity
266
754320
2816
طالما أن رياح المساعدة المكملة تلك
12:37
blow firmly enough,
267
757160
1736
تهب بقوة كافية،
12:38
but resolving the superiority myth
268
758920
1936
لكن بدحض خرافة التفوق
12:40
shows us that that process of task encroachment
269
760880
3096
يثبت لنا هذا أن عملية تجاوز المهام
12:44
not only strengthens the force of machine substitution,
270
764000
3936
لا يعزز فقط عامل استبدال الآلات محل البشر،
12:47
but it wears down those helpful complementarities too.
271
767960
3336
ولكنه يضعف هذه المكملات المساعدة أيضًا.
12:51
Bring these three myths together
272
771320
1936
إذا جمعنا هذه الثلاث الخرافات معًا
12:53
and I think we can capture a glimpse of that troubling future.
273
773280
2936
أظن أنه بمقدورنا أخذ لمحة عن المستقبل المتزعزع.
12:56
Machines continue to become more capable,
274
776240
2016
الآلات تتحسن لتصبح أكثر كفاءة،
12:58
encroaching ever deeper on tasks performed by human beings,
275
778280
3656
وتستولي على مهام أكثر كان يقوم بها الإنسان،
13:01
strengthening the force of machine substitution,
276
781960
2576
مما يعزز تيار التوجه نحو الآلات،
13:04
weakening the force of machine complementarity.
277
784560
3616
ويضعف من التوجه نحو اتخاذ الآلات كشيء تكميلي لدور الإنسان.
13:08
And at some point, that balance falls in favor of machines
278
788200
4296
وفي وقت من الزمن، ذلك التوازن سيختل لمصلحة الآلات
13:12
rather than human beings.
279
792520
2056
وليس لمصلحة الإنسان.
13:14
This is the path we're currently on.
280
794600
1736
هذه هو الطريق الذي نسلكه الآن.
13:16
I say "path" deliberately, because I don't think we're there yet,
281
796360
3176
أقول "طريق" عن قصد، لأنني لا أعتقد أننا وصلنا لتلك المرحلة بعد
13:19
but it is hard to avoid the conclusion that this is our direction of travel.
282
799560
3640
ولكن من الصعب تجنب الخاتمة التي تقع في نهاية الرحلة.
13:24
That's the troubling part.
283
804640
1456
تلك هي المشكلة.
13:26
Let me say now why I think actually this is a good problem to have.
284
806120
3520
دعوني أقول لما أظن أن وجود هذه المشكلة أمر جيد
13:30
For most of human history, one economic problem has dominated:
285
810520
3536
على مدى التاريخ البشري، لطالما تواجدت مشلكة اقتصادية وهي:
13:34
how to make the economic pie large enough for everyone to live on.
286
814080
4056
كيفية جعل الفطيرة الاقتصادية كبيرة بما يكفي لنجاة الجميع.
13:38
Go back to the turn of the first century AD,
287
818160
2176
وبالعودة إلى القرن الأول الميلادي،
13:40
and if you took the global economic pie
288
820360
2096
وإذا أخذنا الفطيرة الاقتصادية العالمية
13:42
and divided it up into equal slices for everyone in the world,
289
822480
3296
وقسمناها إلى شرائح متساوية للجميع في العالم،
13:45
everyone would get a few hundred dollars.
290
825800
2136
سيحصل الجميع على بضع مئات الدولارات.
13:47
Almost everyone lived on or around the poverty line.
291
827960
2760
سيعيش الجميع تقريبًا أعلى من أو قريبًا من خط الفقر.
13:51
And if you roll forward a thousand years,
292
831320
2176
وإذا مشيت بعجلة الوقت ألف سنة،
13:53
roughly the same is true.
293
833520
1240
سنكون الحال نفسه أيضًا.
13:55
But in the last few hundred years, economic growth has taken off.
294
835680
3576
ولكن خلال المائة سنة الماضية، ارتفع النمو الاقتصادي.
13:59
Those economic pies have exploded in size.
295
839280
2376
وتضخمت تلك الفطائر الاقتصادية بالحجم.
14:01
Global GDP per head,
296
841680
2056
نصيب الفرد من إجمالي الناتج المحلي،
14:03
the value of those individual slices of the pie today,
297
843760
3376
قيمة هذه الأقسام الفردية من الفطيرة اليوم،
14:07
they're about 10,150 dollars.
298
847160
2816
حوالي 10,150 دولار.
14:10
If economic growth continues at two percent,
299
850000
2696
إذا استمر النمو الاقتصادي بمعدل 2 بالمائة،
14:12
our children will be twice as rich as us.
300
852720
2056
سيصبح أولادنا أكثر ثراءً منا بمرتين.
14:14
If it continues at a more measly one percent,
301
854800
2296
إذا استمر أقل بقليل من الاثنين بالمائة،
14:17
our grandchildren will be twice as rich as us.
302
857120
2656
سيصبح أحفادنا أكثر ثراءً منا بمرتين.
14:19
By and large, we've solved that traditional economic problem.
303
859800
3680
بالنسبة والحجم، حللنا تلك المشكلة الاقتصادية القديمة.
14:24
Now, technological unemployment, if it does happen,
304
864200
3016
الآن، البطالة بسبب التكنولوجيا، إن حدثت،
14:27
in a strange way will be a symptom of that success,
305
867240
3216
على نحو غريب ستكون مؤشر على ذلك النجاح،
14:30
will have solved one problem -- how to make the pie bigger --
306
870480
3856
وستقدم حلًا لمشكلة... كيفية تكبير حجم الفطيرة...
14:34
but replaced it with another --
307
874360
1816
ولكن استبدالها بواحدة أخرى...
14:36
how to make sure that everyone gets a slice.
308
876200
2760
كيفية التأكد من أن الجميع حصل على نصيبه من الفطيرة.
14:39
As other economists have noted, solving this problem won't be easy.
309
879840
3496
وكما لاحظ الإقتصاديين، فإن حل هذه المشكلة لن يكون سهلًا.
14:43
Today, for most people,
310
883360
1656
اليوم، بالنسبة لمعظم الناس،
14:45
their job is their seat at the economic dinner table,
311
885040
2496
عمل مكتبي بحت على طاولة الفطور الاقتصادية،
14:47
and in a world with less work or even without work,
312
887560
2416
وفي عالم قليل أو معدوم الوظائف،ن
14:50
it won't be clear how they get their slice.
313
890000
2056
غير واضح كيفية حصولهم على نصيبهم من الفطيرة.
14:52
There's a great deal of discussion, for instance,
314
892080
2336
هناك نقاش محموم للكثير من الأشياء مثلًا،
14:54
about various forms of universal basic income
315
894440
2696
عن النماذج المختلفة للدخل الأساسي العالمي،
14:57
as one possible approach,
316
897160
1216
كأحد النماذج المحتملة،
14:58
and there's trials underway
317
898400
1616
وهناك جلسات قانونية تعقد
15:00
in the United States and in Finland and in Kenya.
318
900040
2400
في الولايات المتحدة وفنلندا و كينيا.
15:03
And this is the collective challenge that's right in front of us,
319
903000
3176
وهذا التحدي الكلي الذي يقف أمامنا مباشرةً،
15:06
to figure out how this material prosperity generated by our economic system
320
906200
5056
لمعرفة كيف سيتشكل هذا الرخاء المادي من قبل النظام الاقتصادي
15:11
can be enjoyed by everyone
321
911280
1976
ويستفيد منه الجميع
15:13
in a world in which our traditional mechanism
322
913280
2416
في حالم حيث فيه الآلية التقليدية
15:15
for slicing up the pie,
323
915720
1856
لتقسيم الفطيرة الاقتصادية،
15:17
the work that people do,
324
917600
1936
والعمل الذي يقوم به الناس،
15:19
withers away and perhaps disappears.
325
919560
2160
يتناقص وربما يختفي تمامًا.
15:22
Solving this problem is going to require us to think in very different ways.
326
922280
4360
سيتطلب منا حل هذه المشكلة التفكير بطرق مختلفة تمامًا.
15:27
There's going to be a lot of disagreement about what ought to be done,
327
927400
4176
سيكون هناك العديد من الخلافات حول مالذي يجب فعله،
15:31
but it's important to remember that this is a far better problem to have
328
931600
3416
لكن من المهم أن نتذكر أن هذه المشكلة أفضل بكثير
15:35
than the one that haunted our ancestors for centuries:
329
935040
2816
من تلك التي استحوذت على تفكير أجدادنا لعدة قرون ألا وهي:
15:37
how to make that pie big enough in the first place.
330
937880
3376
كيف نجعل الفطيرة أكبر حجمًا في المقام الأول.
15:41
Thank you very much.
331
941280
1256
شكرًا جزيلًا لكم.
15:42
(Applause)
332
942560
3840
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7