Leaders and machines

14,212 views ・ 2022-03-15

BBC Learning English


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو. الترجمة المترجمة تتم ترجمتها آليًا.

00:01
Robots might be on the factory floor now,
0
1520
3200
قد تكون الروبوتات في أرض المصنع الآن ،
00:04
but could they one day be your boss?
1
4720
2360
ولكن هل يمكن أن تكون في يوم من الأيام رئيسك في العمل؟
00:07
Robots are not perfect and they are not perfect for everything,
2
7080
4520
الروبوتات ليست مثالية وليست مثالية لكل شيء ،
00:11
but they do have a capability to do some things
3
11600
3640
لكن لديها القدرة على القيام ببعض الأشياء
00:15
that humans can only dream of doing.
4
15240
2720
التي لا يمكن للبشر إلا أن يحلموا بفعلها.
00:17
We are going to look at leadership in a future working alongside robots,
5
17960
4840
سننظر إلى القيادة في المستقبل من خلال العمل جنبًا إلى جنب مع الروبوتات ،
00:22
and what this could mean for you.
6
22800
3160
وما قد يعنيه هذا بالنسبة لك. تنافس شركة Alibaba ،
00:27
A global tech giant, Alibaba rivals Amazon
7
27760
4000
عملاق التكنولوجيا العالمي ، أمازون
00:31
for the title of world's largest online retailer.
8
31760
3920
على لقب أكبر بائع تجزئة عبر الإنترنت في العالم.
00:35
It has some 800 million users.
9
35680
3000
لديها حوالي 800 مليون مستخدم.
00:38
It doesn't just help you shop;
10
38680
2160
لا يساعدك فقط على التسوق ؛
00:40
it can also bank your money and store your data.
11
40840
4160
يمكنه أيضًا تحويل أموالك إلى بنوك وتخزين بياناتك.
00:45
Alibaba has got so big,
12
45000
1840
أصبحت علي بابا كبيرة جدًا ،
00:46
the Chinese government wants new rules to curb its power.
13
46840
3880
وتريد الحكومة الصينية قواعد جديدة لكبح سلطتها.
00:50
The company has long embraced artificial intelligence, or AI.
14
50720
5440
لطالما تبنت الشركة الذكاء الاصطناعي أو الذكاء الاصطناعي.
00:56
It uses algorithms to provide a personalised service for its customers
15
56160
4480
تستخدم الخوارزميات لتقديم خدمة مخصصة لعملائها
01:00
and robots to process and pack goods in its warehouses.
16
60640
4160
والروبوتات لمعالجة البضائع وتعبئتها في مستودعاتها. يعتقد
01:04
Jack Ma, who founded the firm,
17
64800
2160
جاك ما ، الذي أسس الشركة ، أن
01:06
believes robots could one day run companies.
18
66960
2880
الروبوتات يمكن أن تدير الشركات يومًا ما.
01:09
He says, 'In 30 years,
19
69840
2000
يقول ، "في غضون 30 عامًا ،
01:11
a robot will likely be on the cover of Time magazine
20
71840
2920
من المرجح أن يظهر الروبوت على غلاف مجلة تايم
01:14
as the best CEO.'
21
74760
2800
كأفضل مدير تنفيذي."
01:17
However, another pioneer of the tech world,
22
77560
2800
ومع ذلك ، فإن رائدًا آخر في عالم التكنولوجيا ،
01:20
the American Elon Musk, is more worried.
23
80360
3080
الأمريكي إيلون ماسك ، يشعر بقلق أكبر.
01:23
He fears robots could one day get rid of us entirely.
24
83440
3240
إنه يخشى أن تتخلص الروبوتات منا تمامًا يومًا ما.
01:26
So, how will leadership look in a world of AI?
25
86680
5120
إذن ، كيف ستبدو القيادة في عالم الذكاء الاصطناعي؟
01:31
So, a big advantage for human beings,
26
91800
2600
لذا ، فإن الميزة الكبيرة للبشر ،
01:34
  in having more robots and AI in the workplace,
27
94400
3280
في وجود المزيد من الروبوتات والذكاء الاصطناعي في مكان العمل ،
01:37
are clearly that... that these technologies
28
97680
2080
هي بوضوح ... أن هذه التقنيات
01:39
can perhaps in the future do a lot of the dirty work for us,
29
99760
3200
ربما يمكنها في المستقبل القيام بالكثير من الأعمال القذرة بالنسبة لنا ،
01:42
and by dirty work, I think I mean things like
30
102960
2840
ومن خلال العمل القذر ، على ما أعتقد أعني أشياء مثل
01:45
heavy lifting, cleaning, moving goods from A to B,
31
105800
4120
رفع الأشياء الثقيلة ، والتنظيف ، ونقل البضائع من أ إلى ب ،
01:49
but it can also mean repetitive, computer-based tasks
32
109920
2640
ولكن يمكن أن تعني أيضًا مهام متكررة تعتمد على الكمبيوتر ،
01:52
and it's not very healthy for human beings
33
112560
1680
وليس من الصحي جدًا أن
01:54
to be in front of a computer for extended periods of time.
34
114240
3280
يكون البشر أمام الكمبيوتر لفترات طويلة من الوقت.
01:57
And that can free up human beings to do a lot more thinking:
35
117520
3200
وهذا يمكن أن يحرر البشر للقيام بالكثير من التفكير:
02:00
to think about – big thoughts about the future,
36
120720
2680
التفكير في - أفكار كبيرة حول المستقبل ،
02:03
about what a carbon-neutral planet looks like,
37
123400
3880
حول شكل كوكب محايد للكربون ،
02:07
about the kinds of communities we want to develop.
38
127280
4320
حول أنواع المجتمعات التي نريد تطويرها.
02:11
So, robots and AI could free us
39
131600
2400
لذلك ، يمكن أن تحررنا الروبوتات والذكاء الاصطناعي
02:14
from the dull, repetitive work we don't want to do.
40
134000
3640
من العمل الممل والمتكرر الذي لا نريد القيام به.
02:17
But aren't there dangers with that?
41
137640
2640
لكن ألا توجد مخاطر في ذلك؟
02:20
So, the big danger essentially is that,
42
140280
2240
لذا ، فإن الخطر الأكبر في الأساس هو أنه
02:22
if our workplace has become more automated
43
142520
3200
إذا أصبح مكان عملنا أكثر آلية
02:25
and busier with robotics,
44
145720
2880
وانشغالًا بالروبوتات ، فسيتعين علينا القيام
02:28
that we'll have to have something to do,
45
148600
1440
بشيء ما ،
02:30
and governments will have to find solutions
46
150040
3640
وسيتعين على الحكومات إيجاد حلول
02:33
to ever greater numbers of people, who might not be out of work,
47
153680
4080
لأعداد متزايدة من الأشخاص ، الذين قد لا يكونوا كذلك. عاطل عن العمل ،
02:37
but sort-of hopping from one insecure temporary job to another.
48
157760
3400
ولكنه نوع من التنقل من وظيفة مؤقتة غير آمنة إلى وظيفة أخرى.
02:41
And that presents really big, actually, social challenges.
49
161160
3680
وهذا يمثل تحديات اجتماعية كبيرة بالفعل. إن
02:44
Giving more jobs to robots and AI
50
164840
2640
إعطاء المزيد من الوظائف للروبوتات والذكاء الاصطناعي
02:47
is going to present huge social challenges to humans.
51
167480
3800
سيطرح تحديات اجتماعية ضخمة للبشر.
02:51
Where does leadership fit into this?
52
171280
3000
أين تتناسب القيادة مع هذا؟
02:54
A key part of leadership, as opposed to management,
53
174280
3280
جزء أساسي من القيادة ، على عكس الإدارة ،
02:57
is how central care is to leadership:
54
177560
3160
هو مدى أهمية الرعاية المركزية للقيادة:
03:00
care, understanding and empathy.
55
180720
2000
الرعاية والتفاهم والتعاطف.
03:02
And so, in its most obvious guises, we can think of caring for others,
56
182720
4200
وهكذا ، في أكثر مظاهره وضوحًا ، يمكننا التفكير في الاهتمام بالآخرين ،
03:06
the people who are more vulnerable than ourselves –
57
186920
2000
الأشخاص الأكثر ضعفًا منا -
03:08
and this is just really something that robots, no matter how sophisticated,
58
188920
3600
وهذا حقًا شيء
03:12
can't be replaced by human beings.
59
192520
1920
لا يمكن أن يحل محله البشر ، بغض النظر عن مدى تطورها.
03:14
But the central task of leadership, which is walking with people,
60
194440
3320
لكن المهمة المركزية للقيادة ، وهي السير مع الناس ،
03:17
responding to their needs, caring for them –
61
197760
2320
والاستجابة لاحتياجاتهم ، والاهتمام بهم -
03:20
on the big issues as well as the small issues –
62
200080
2440
في القضايا الكبيرة وكذلك القضايا الصغيرة -
03:22
is something that robots will probably never be able to compensate for.
63
202520
5120
هي شيء ربما لن تتمكن الروبوتات من تعويضه.
03:27
So, qualities such as empathy, care
64
207640
2560
لذا ، فإن الصفات مثل التعاطف والرعاية
03:30
and understanding in leadership will be very important –
65
210200
3480
والتفهم في القيادة ستكون مهمة للغاية -
03:33
human skills that robots will probably never acquire.
66
213680
3960
المهارات البشرية التي ربما لن تكتسبها الروبوتات أبدًا.
03:37
There are loads of ethical responsibilities
67
217640
1800
هناك الكثير من المسؤوليات الأخلاقية
03:39
for people who are creating AI,
68
219440
1680
للأشخاص الذين يصنعون الذكاء الاصطناعي ،
03:41
but also people who are in charge of implementing it
69
221120
3000
ولكن أيضًا الأشخاص المسؤولين عن تنفيذه
03:44
and seeing how it progresses through organisations and society.
70
224120
3920
ومعرفة كيفية تقدمه من خلال المنظمات والمجتمع. أعتقد أن
03:48
The main ethical issue, I think, here is that AI,
71
228040
2960
القضية الأخلاقية الرئيسية هنا هي أن الذكاء الاصطناعي ،
03:51
in some senses, is a kind of automation of a human will,
72
231000
4920
في بعض النواحي ، هو نوع من أتمتة إرادة الإنسان ،
03:55
which can unfortunately include lots of human prejudices.
73
235920
2800
والتي يمكن للأسف أن تتضمن الكثير من التحيزات البشرية.
03:58
So, for example, there have been problems with policing algorithms,
74
238720
4280
لذلك ، على سبيل المثال ، كانت هناك مشاكل مع خوارزميات الشرطة ،
04:03
in the sense that they have reflected, maybe, some underlying racial biases
75
243000
4120
بمعنى أنها تعكس ، ربما ، بعض التحيزات العنصرية الكامنة
04:07
of certain police forces, in terms of where they deploy resources.
76
247120
3560
لقوات شرطة معينة ، من حيث مكان نشر الموارد.
04:10
So, we have to keep a really close eye
77
250680
1760
لذلك ، علينا أن نراقب عن كثب حقًا ، ومن مسؤولية القيادة
04:12
and it's a really big, ethical leadership responsibility
78
252440
3000
الأخلاقية الكبيرة حقًا أن
04:15
to keep a close eye on how artificial intelligence is deployed –
79
255440
4160
نراقب عن كثب كيفية نشر الذكاء الاصطناعي -
04:19
that it doesn't get out of hand and doesn't actually automate
80
259600
3160
بحيث لا يخرج عن نطاق السيطرة ولا يقوم في الواقع بأتمتة
04:22
really serious ethical problems.
81
262760
2840
المشكلات الأخلاقية الخطيرة حقًا .
04:25
We need our leaders to be ethical and responsible when implementing AI,
82
265600
4840
نحن بحاجة إلى أن يكون قادتنا أخلاقيين ومسؤولين عند تطبيق الذكاء الاصطناعي ،
04:30
so that we don't automate and repeat our own human prejudices.
83
270440
5560
حتى لا نتمكّن من أتمتة وتكرار تحيزاتنا البشرية.
04:40
Could you one day have a boss like this?
84
280120
3000
هل يمكن أن يكون لديك رئيس مثل هذا في يوم من الأيام؟
04:43
Meet Ai-Da, the first human-like robot artist.
85
283120
4880
قابل Ai-Da ، أول فنان روبوت يشبه الإنسان.
04:48
Ai-Da can draw and recite poetry.
86
288000
3480
يمكن لـ Ai-Da رسم الشعر وتلاوته.
04:51
The eerie sounds, which echoed throughout
87
291480
4640
الأصوات المخيفة التي تردد صداها في كل مكان
04:56
with the weight of the world itself.
88
296120
3800
مع وزن العالم نفسه.
04:59
But what her creators really want her to do
89
299920
2920
ولكن ما يريدها منشئوها حقًا
05:02
  is to get people thinking about a world with AI,
90
302840
4200
هو جعل الناس يفكرون في عالم به الذكاء الاصطناعي ،
05:07
and that includes thinking about the impact it will have on leadership.
91
307040
4760
وهذا يشمل التفكير في التأثير الذي سيحدثه على القيادة.
05:13
Robots are great, but not human.
92
313120
3200
الروبوتات رائعة ، لكنها ليست بشرية.
05:16
They are not perfect and they are not perfect for everything,
93
316320
4040
إنها ليست مثالية وليست مثالية لكل شيء ،
05:20
but they do have a capability to do some things
94
320360
3680
لكن لديها القدرة على القيام ببعض الأشياء
05:24
that humans can only dream of doing.
95
324040
3800
التي لا يستطيع البشر إلا أن يحلموا بفعلها.
05:27
More challenging is how to direct this capability
96
327840
3600
التحدي الأكبر هو كيفية توجيه هذه القدرة
05:31
for a sustainable environment and our future.
97
331440
3800
نحو بيئة مستدامة ومستقبلنا.
05:35
This is difficult.
98
335240
2560
هذا صعب.
05:37
Robots will bring opportunities and challenges.
99
337800
3360
سوف تجلب الروبوتات الفرص والتحديات.
05:41
Would robots make better leaders than humans?
100
341160
3520
هل يمكن للروبوتات أن تكون قادة أفضل من البشر؟
05:44
They work together.
101
344680
2000
يعملون معا.
05:46
At the end of the day, the state of the game
102
346680
2920
في نهاية اليوم ، تعود حالة اللعبة
05:49
is up to how we design and use technology/robots.
103
349600
5440
إلى كيفية تصميم واستخدام التكنولوجيا / الروبوتات.
05:55
So, humans need to be more conscious
104
355040
2160
لذلك ، يحتاج البشر إلى أن يكونوا أكثر وعياً
05:57
of how much we are doing and what we are doing,
105
357200
2640
بمدى ما نقوم به وما نقوم به ،
05:59
when we create and use new technology.
106
359840
3760
عندما نبتكر التكنولوجيا الجديدة ونستخدمها.
06:03
So we, as humans, and robots need to work together.
107
363600
4200
لذلك نحن ، كبشر ، وروبوتات نحتاج إلى العمل معًا.
06:07
We should understand the power of new technologies.
108
367800
3680
يجب أن نفهم قوة التقنيات الجديدة.
06:11
In order to truly appreciate
109
371480
2080
من أجل تقدير
06:13
the opportunities that are emerging,
110
373560
3240
الفرص الناشئة حقًا ،
06:16
we need to first understand the past.
111
376800
3440
نحتاج أولاً إلى فهم الماضي.
06:20
With this, we can be more aware and flexible
112
380240
3240
مع هذا ، يمكننا أن نكون أكثر وعياً ومرونة
06:23
to deal with an unpredictable future.
113
383480
4000
للتعامل مع مستقبل لا يمكن التنبؤ به.
06:27
The world is changing.
114
387480
2280
العالم يتغير.
06:29
The future is not what we consider it to be.
115
389760
3640
المستقبل ليس ما نعتبره.
06:33
It is requiring from us
116
393400
2000
إنه يتطلب منا
06:35
a willingness to give up our comfort zone.
117
395400
4040
استعدادًا للتخلي عن منطقة الراحة الخاصة بنا. يعني
06:39
Giving up your comfort zone means opening yourself up
118
399440
3400
التخلي عن منطقة الراحة الخاصة بك الانفتاح
06:42
to new possibilities.
119
402840
2000
على إمكانيات جديدة.
06:44
To do this, it helps to understand the past.
120
404840
3280
للقيام بذلك ، من المفيد فهم الماضي.
06:48
So, what does Ai-Da think is a key quality for leadership?
121
408120
4680
إذن ، ما الذي تعتقده منظمة Ai-Da أنها صفة أساسية للقيادة؟
06:52
Humility: we are to be humble in every action
122
412800
4440
التواضع: يجب أن نكون متواضعين في كل عمل
06:57
and this includes what we are willing to do
123
417240
2720
وهذا يشمل ما نرغب في فعله
06:59
and say to help others.
124
419960
2280
ونقوله لمساعدة الآخرين.
07:02
Leadership is not the same thing as success or failure.
125
422240
4240
القيادة ليست مثل النجاح أو الفشل. لقد
07:06
We have all failed,
126
426480
1880
فشلنا جميعًا ،
07:08
but we can recognise the mistakes that we made
127
428360
2560
لكن يمكننا التعرف على الأخطاء التي ارتكبناها
07:10
and learn from them.
128
430920
2040
والتعلم منها.
07:12
Humility is when you put yourself in someone else's shoes.
129
432960
4520
التواضع هو أن تضع نفسك مكان شخص آخر.
07:17
Showing humility, recognising mistakes and learning from them,
130
437480
4640
إظهار التواضع ، والتعرف على الأخطاء والتعلم منها ،
07:22
are qualities this robot wants to see in leaders.
131
442120
5360
هي صفات يريد هذا الروبوت رؤيتها في القادة. من
07:31
It's hard to know exactly how leadership will look in the future,
132
451040
3960
الصعب أن تعرف بالضبط كيف ستبدو القيادة في المستقبل ،
07:35
but it is clear that human qualities of care and empathy will be vital.
133
455000
4640
لكن من الواضح أن الصفات الإنسانية للرعاية والتعاطف ستكون حيوية. من المهم
07:39
Having a detailed knowledge of the technology
134
459640
2200
امتلاك معرفة تفصيلية بالتكنولوجيا
07:41
and its potential is important,
135
461840
1960
وإمكانياتها ،
07:43
as is being ethical and responsible in how we use it.
136
463800
4920
كما هو الأمر الأخلاقي والمسؤول في كيفية استخدامها.

Original video on YouTube.com
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7