How humans and AI can work together to create better businesses | Sylvain Duranton

29,531 views ・ 2020-02-14

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
المترجم: JAMILA Rezk المدقّق: Shimaa Nabil
00:12
Let me share a paradox.
1
12865
2127
دعوني أشارككم هذا التناقض.
00:16
For the last 10 years,
2
16429
1467
خلال السنوات العشر الماضية،
00:17
many companies have been trying to become less bureaucratic,
3
17920
3848
العديد من الشركات حاولت أن تصبح أقل بيروقراطية،
00:21
to have fewer central rules and procedures,
4
21792
2833
بامتلاكها إجراءات وقواعد أساسية أقل،
00:24
more autonomy for their local teams to be more agile.
5
24649
3245
واستقلالية أكبر لفرقهم ليصبحوا أكثر مرونة.
00:28
And now they are pushing artificial intelligence, AI,
6
28204
4586
والآن أطلقوا العنان للذكاء الاصطناعي،
00:32
unaware that cool technology
7
32814
2445
غير مدركين أن تلك التقنية الرائعة،
00:35
might make them more bureaucratic than ever.
8
35283
3602
قد تجعلهم أكثر بيروقراطية أكثر من أي وقت سبق.
00:39
Why?
9
39378
1151
لماذا؟
00:40
Because AI operates just like bureaucracies.
10
40553
3492
لأن الذكاء الاصطناعي يعمل مثل البيروقراطيات،
00:44
The essence of bureaucracy
11
44403
2412
حيث يكمن جوهر البيروقراطية
00:46
is to favor rules and procedures over human judgment.
12
46839
4444
في تفضيل القواعد والإجراءات على التقييم البشري.
00:51
And AI decides solely based on rules.
13
51887
3841
ويعتمد الذكاء الاصطناعي على القواعد فحسب.
00:56
Many rules inferred from past data
14
56062
2833
العديد من القواعد مبنية على بيانات قديمة،
00:58
but only rules.
15
58919
1904
لكنها مجرد قواعد.
01:01
And if human judgment is not kept in the loop,
16
61204
3730
ولو استبعد التقييم البشري خارج هذه الاستنتاجات،
01:04
AI will bring a terrifying form of new bureaucracy --
17
64958
4556
فإن الذكاء الاصطناعي سيجلب شكلاً مرعباً من البيروقراطية الجديدة -
01:09
I call it "algocracy" --
18
69538
2999
أدعوه "الجوقراطية" -
01:12
where AI will take more and more critical decisions by the rules
19
72561
4500
حيث سيتخذ الذكاء الاصطناعي المزيد والمزيد من القرارات الحاسمة وفق القواعد،
01:17
outside of any human control.
20
77085
2317
بعيداً عن رقابة التقييم البشري.
01:20
Is there a real risk?
21
80427
1674
هل هذا خطر حقيقي؟
01:22
Yes.
22
82514
1150
أجل.
01:23
I'm leading a team of 800 AI specialists.
23
83688
3006
أنا أدير فريقا مكونا من 800 متخصص في الذكاء الاصطناعي.
01:26
We have deployed over 100 customized AI solutions
24
86718
3857
نشرنا ما يفوق 100 من الحلول المصممة خصيصا للذكاء الاصطناعي،
01:30
for large companies around the world.
25
90599
2467
للشركات الكبيرة حول العالم.
01:33
And I see too many corporate executives behaving like bureaucrats from the past.
26
93417
5819
رأيت العديد من مديري الشركات يتصرفون كبيروقراطيين من الماضي
01:39
They want to take costly, old-fashioned humans out of the loop
27
99784
4912
باستبعادهم الطراز البشري القديم المُكلف خارج دائرة القيادة،
01:44
and rely only upon AI to take decisions.
28
104720
3865
والاعتماد على الذكاء الاصطناعي فقط في اتخاذ القرارات.
01:49
I call this the "human-zero mindset."
29
109244
4253
أسمي ذلك "انعدام العقلية البشرية."
01:54
And why is it so tempting?
30
114260
2118
ولماذا هذا الأمر مغري جداً؟
01:56
Because the other route, "Human plus AI," is long,
31
116879
5404
لأن الخيار الآخر، "الإنسان زائد الذكاء الاصطناعي"،
02:02
costly and difficult.
32
122307
2609
طويل وباهظ الثمن وصعب.
02:04
Business teams, tech teams, data-science teams
33
124940
3293
إن فرق إدارة الأعمال وفرق التكنولوجيا وفرق علم البيانات،
02:08
have to iterate for months
34
128257
2079
لا بد أن يكرروا لشهور،
02:10
to craft exactly how humans and AI can best work together.
35
130360
5268
لصوغ كيف يمكن للإنسان والذكاء الاصطناعي أن يعملا بشكل أفضل معاً،
02:16
Long, costly and difficult.
36
136160
3428
طويل وباهظ الثمن وصعب.
02:19
But the reward is huge.
37
139891
2070
لكن النتيجة مذهلة.
02:22
A recent survey from BCG and MIT
38
142343
3306
أجريت دراسة مؤخراً من BCG وMIT
02:25
shows that 18 percent of companies in the world
39
145673
4507
أوضحت أن: 18% من الشركات في العالم،
02:30
are pioneering AI,
40
150204
2214
من رواد الذكاء الاصطناعي،
02:32
making money with it.
41
152442
2301
تجني المال من خلاله.
02:35
Those companies focus 80 percent of their AI initiatives
42
155157
5590
تركز تلك الشركات في مبادراتها للذكاء الاصطناعي بنسبة 80%،
02:40
on effectiveness and growth,
43
160771
1953
على الفاعلية والتقدم.
02:42
taking better decisions --
44
162748
2170
آخذة بعين الاعتبار خيارات أفضل،
02:44
not replacing humans with AI to save costs.
45
164942
3538
عدم استبدال البشر بالذكاء الاصطناعي لتوفير النفقات.
02:50
Why is it important to keep humans in the loop?
46
170159
3200
لماذا من المهم أن يبقى البشر ضمن دائرة اتخاذ القرار؟
02:54
Simply because, left alone, AI can do very dumb things.
47
174032
4847
ببساطة، لأن الذكاء الاصطناعي بمفرده يرتكب أشياء غبية.
02:59
Sometimes with no consequences, like in this tweet.
48
179363
3373
أحياناً دون أي عواقب، كما في هذه التغريدة.
03:03
"Dear Amazon,
49
183212
1564
"عزيزي أمازون،
03:04
I bought a toilet seat.
50
184800
1386
فمت بشراء مقعد مرحاض.
03:06
Necessity, not desire.
51
186210
1661
ضرورة، لا رغبة.
03:07
I do not collect them,
52
187895
1452
لم أقم باستلامهم،
03:09
I'm not a toilet-seat addict.
53
189371
2238
لست مدمن كرسي حمام.
03:11
No matter how temptingly you email me,
54
191633
2206
لا يهم بأي طريقة راسلتني على البريد الإلكتروني،
03:13
I am not going to think, 'Oh, go on, then,
55
193863
2349
لن أقوم بالتفكير، صحيح، هيا، ثم،
03:16
one more toilet seat, I'll treat myself.' "
56
196236
2140
مقعد مرحاض إضافي، سأكافئ نفسي."
03:18
(Laughter)
57
198400
1344
(ضحك)
03:19
Sometimes, with more consequence, like in this other tweet.
58
199768
4618
أحياناً، دون أي عواقب، كما في هذه التغريدة أيضاً،
03:24
"Had the same situation
59
204903
1787
"يكون لدينا نفس الوضع،
03:26
with my mother's burial urn."
60
206714
2459
بما يتعلق بقبر والدتي."
03:29
(Laughter)
61
209197
1008
(ضحك)
03:30
"For months after her death,
62
210229
1365
بعد أشهر من وفاتها،
03:31
I got messages from Amazon, saying, 'If you liked that ...' "
63
211618
3548
استلمت رسالة من موقع أمازون، تقول "إذا أعجبك ذلك... "
03:35
(Laughter)
64
215190
2015
(ضحك)
03:37
Sometimes with worse consequences.
65
217229
2528
وأحياناً مع عواقب أسوأ من ذلك.
03:39
Take an AI engine rejecting a student application for university.
66
219781
4730
حين يكون الذكاء الاصطناعي، بمثابة أداة رفض لطلبات طلاب الجامعة.
03:44
Why?
67
224535
1150
لماذا؟
03:45
Because it has "learned," on past data,
68
225709
2670
لأن قراراته مكتسبة من بيانات قديمة،
03:48
characteristics of students that will pass and fail.
69
228403
3182
لخصائص الطلاب التي سوف يتجاوزها ويقرر فشلها.
03:51
Some are obvious, like GPAs.
70
231609
2103
بعضها يكون بديهي، كما في حال المعدلات.
03:54
But if, in the past, all students from a given postal code have failed,
71
234069
5109
ولكن ماذا لو كان جميع الطلاب ذوي الرمز البريدي قد فشلوا سابقاً،
03:59
it is very likely that AI will make this a rule
72
239202
3532
فعلى الأرجح سيتخذ الذكاء الاصطناعي ذلك قاعدة له،
04:02
and will reject every student with this postal code,
73
242758
3770
وسيقوم برفض أي طالب مع هذا الرمز البريدي،
04:06
not giving anyone the opportunity to prove the rule wrong.
74
246552
4813
مع عدم إعطاء أي شخص فرصة ليثبت خطأ هذه القاعدة.
04:11
And no one can check all the rules,
75
251857
2516
وتفقد جميع القواعد ليس بقدرة أحد،
04:14
because advanced AI is constantly learning.
76
254397
3452
لأن الذكاء الاصطناعي يتعلم بصورة مستمرة.
04:18
And if humans are kept out of the room,
77
258307
2326
وإذا تم استبعاد اليد البشرية من دائرة القيادة،
04:20
there comes the algocratic nightmare.
78
260657
3277
سيأتي كابوس الجوقراطية.
04:24
Who is accountable for rejecting the student?
79
264466
2857
من هو المسؤول عن رفض الطلاب؟
04:27
No one, AI did.
80
267347
1643
لا أحد، غير الذكاء الاصطناعي.
04:29
Is it fair? Yes.
81
269014
1674
هل هذا منصف للجميع؟ نعم.
04:30
The same set of objective rules has been applied to everyone.
82
270712
3242
فإن هذه القواعد الموضوعية تم تطبيقها على الجميع.
04:34
Could we reconsider for this bright kid with the wrong postal code?
83
274367
3902
هل يمكننا إعادة النظر بشأن الطلاب مع خطأ الرمز البريدي؟
04:38
No, algos don't change their mind.
84
278899
3111
لا، فالجوقراطي لا يغير رأيه.
04:42
We have a choice here.
85
282974
2016
يكون لنا الخيار هنا.
04:45
Carry on with algocracy
86
285756
2524
نستمر بمنهج الجوقراطية،
04:48
or decide to go to "Human plus AI."
87
288304
2865
أو نتبع منهج "الإنسان زائد الذكاء الإصطناعي."
04:51
And to do this,
88
291193
1333
ولتحقيق ذلك،
04:52
we need to stop thinking tech first,
89
292550
3440
علينا أولاً إيقاف التفكير التقني،
04:56
and we need to start applying the secret formula.
90
296014
3650
والبدء بتطبيق المعادلة السرية.
05:00
To deploy "Human plus AI,"
91
300601
2103
لنشر "البشر + الذكاء الاصطناعي"،
05:02
10 percent of the effort is to code algos;
92
302728
2921
10% من الجهود موجهة لتشفير الجوقراطي،
05:05
20 percent to build tech around the algos,
93
305673
3531
و20% لبناء التقنية حول الجوقراطي،
05:09
collecting data, building UI, integrating into legacy systems;
94
309228
4106
جمع البيانات، بناء واجهة مستخدم، دمج في النظم القديمة.
05:13
But 70 percent, the bulk of the effort,
95
313358
2904
ولكن مجمل هذه الجهود، بنسبة 70%،
05:16
is about weaving together AI with people and processes
96
316286
4476
هي جمع الذكاء الاصطناعي مع البشر والإجراءات،
05:20
to maximize real outcome.
97
320786
2374
لزيادة تحقيق نتيجة حقيقية.
05:24
AI fails when cutting short on the 70 percent.
98
324136
4634
يخفق الذكاء الاصطناعي عندما نوقف مسيرة هذه الـ 70%
05:28
The price tag for that can be small,
99
328794
3159
يمكن أن يكون الثمن لذلك قليل،
05:31
wasting many, many millions of dollars on useless technology.
100
331977
3985
دون هدر العديد من ملايين الدولارات على هذه التقنية غير المجدية.
05:35
Anyone cares?
101
335986
1150
من يهتم؟
05:38
Or real tragedies:
102
338153
2325
المآسي الكبرى:
05:41
346 casualties in the recent crashes of two B-737 aircrafts
103
341137
7515
مؤخراً، 346 ضحية بسبب تصادم طائرتين من طراز B-737.
05:48
when pilots could not interact properly
104
348776
3261
حيث لم يتعامل الطيارون كما ينبغي،
05:52
with a computerized command system.
105
352061
2467
مع نظام القيادة الحاسوبي.
05:55
For a successful 70 percent,
106
355974
1794
لنجاح نسبة 70% من المعادلة،
05:57
the first step is to make sure that algos are coded by data scientists
107
357792
5095
الخطوة الأولى هي التأكد من تشفير الجوقراطي من قبل عالم بيانات،
06:02
and domain experts together.
108
362911
2118
وأن خبراء المجال يعملون معاً.
06:05
Take health care for example.
109
365427
2198
خذ العناية الصحية كمثال،
06:07
One of our teams worked on a new drug with a slight problem.
110
367649
4817
عمل أحد فرقنا على عقار جديد وواجهتهم مشكلة طفيفة،
06:12
When taking their first dose,
111
372784
1499
عندما يأخذ المرضى جرعتهم الأولى،
06:14
some patients, very few, have heart attacks.
112
374307
3484
تتعرض قلة قليلة منهم لنوبة قلبية.
06:18
So, all patients, when taking their first dose,
113
378117
3135
لذلك، جميع المرضى عند أخذهم الجرعة الأولى،
06:21
have to spend one day in hospital,
114
381276
2682
مضطرون للبقاء يوماً كاملاً في المشفى،
06:23
for monitoring, just in case.
115
383982
2071
ليبقوا تحت المراقبة، تحسباً،
06:26
Our objective was to identify patients who were at zero risk of heart attacks,
116
386613
5556
لتحديد المرضى الآمنين من التعرض لنوبات قلبية،
06:32
who could skip the day in hospital.
117
392193
2333
وغير المضطرين للبقاء تحت المراقبة.
06:34
We used AI to analyze data from clinical trials,
118
394962
4079
استعملنا الذكاء الاصطناعي لتحليل البيانات من التجارب الدوائية،
06:40
to correlate ECG signal, blood composition, biomarkers,
119
400145
4368
للربط بين التخطيط الكهربائي للقلب، قوام الدم والمؤشرات الحيوية،
06:44
with the risk of heart attack.
120
404537
2000
مع احتمال حدوث نوبة قلبية.
06:47
In one month,
121
407232
1274
خلال شهر واحد،
06:48
our model could flag 62 percent of patients at zero risk.
122
408530
6031
أفاد نموذجنا أن 62% من المرضى في أمان،
06:54
They could skip the day in hospital.
123
414887
2222
وبإمكانهم تخطي البقاء تحت المراقبة.
06:57
Would you be comfortable staying at home for your first dose
124
417863
3492
قد يكون من المريح البقاء في المنزل بعد الجرعة الأولى.
07:01
if the algo said so?
125
421379
1524
لو قرر الجوقراطي ذلك؟
07:02
(Laughter)
126
422927
1015
(ضحك)
07:03
Doctors were not.
127
423966
1650
سيكون للأطباء رأي آخر.
07:05
What if we had false negatives,
128
425966
2302
ماذا لو كانت هذه النتائج زائفة،
07:08
meaning people who are told by AI they can stay at home, and die?
129
428292
5229
معنى ذلك موت المرضى الذين بقوا في بيوتهم.
07:13
(Laughter)
130
433545
1365
(ضحك)
07:14
There started our 70 percent.
131
434934
2452
لنبدأ بتحقيق نسبتنا البناءة،
07:17
We worked with a team of doctors
132
437410
1992
عملنا مع فريق من الأطباء،
07:19
to check the medical logic of each variable in our model.
133
439426
3799
لتفقد الأساس المنطقي الطبي لكل متغير في نموذج دراستنا.
07:23
For instance, we were using the concentration of a liver enzyme
134
443537
4569
على سبيل المثال، استخدام تركيز إنزيم الكبد
07:28
as a predictor,
135
448130
1273
كمؤشر،
07:29
for which the medical logic was not obvious.
136
449427
3698
بشأن الأساس المنطقي الطبي الغير واضح.
07:33
The statistical signal was quite strong.
137
453149
2666
كانت الإشارات الإحصائية قوية للغاية.
07:36
But what if it was a bias in our sample?
138
456300
2833
ولكن ماذا إن كان هناك انحياز في العينة الخاصة بنا؟
07:39
That predictor was taken out of the model.
139
459157
2800
سيُلغى ذلك المؤشر من نموذج الدراسة.
07:42
We also took out predictors for which experts told us
140
462307
3445
ونلغي المؤشرات المحصلة من الخبراء،
07:45
they cannot be rigorously measured by doctors in real life.
141
465776
3936
فلا نعتبرهم مقياساً دقيقاً في الواقع.
07:50
After four months,
142
470371
1690
بعد مرور أربعة أشهر،
07:52
we had a model and a medical protocol.
143
472085
3071
أصبح لدينا نموذج وبروتوكول طبي.
07:55
They both got approved
144
475514
1666
تمت الموافقة على كلاهما،
07:57
my medical authorities in the US last spring,
145
477204
3222
من قبل سلطاتي الطبية في الولايات الأمريكية الربيع الماضي،
08:00
resulting in far less stress for half of the patients
146
480450
3706
مما يؤدي لتقليل الضغط عند نصف المرضى،
08:04
and better quality of life.
147
484180
1800
ونوعية حياة أفضل.
08:06
And an expected upside on sales over 100 million for that drug.
148
486355
4269
من المتوقع زيادة في مبيعات ذلك الدواء بما يفوق 100مليون.
08:11
Seventy percent weaving AI with team and processes
149
491668
4198
تلك الـ 70% الهادفة لجمع الذكاء الاصطناعي مع الفريق والإجراءات،
08:15
also means building powerful interfaces
150
495890
3571
تعادل أيضاً بناء روابط وثيقة،
08:19
for humans and AI to solve the most difficult problems together.
151
499485
5309
بين البشر والذكاء الاصطناعي لحل أصعب العقبات بالعمل المشترك بينهما.
08:25
Once, we got challenged by a fashion retailer.
152
505286
4635
سابقاً، واجهنا تحدياً من قبل تاجر تجزئة للألبسة.
08:31
"We have the best buyers in the world.
153
511143
2498
"لدينا أفضل زبائن في العالم.
08:33
Could you build an AI engine that would beat them at forecasting sales?
154
513665
5111
هل تستطيع إنشاء قاعدة للذكاء الاصطناعي تتغلب على توقعات المبيعات؟
08:38
At telling how many high-end, light-green, men XL shirts
155
518800
4166
بتوقع كم من قمصان الرجال الفاخرة باللون الأخضر الفاتح، مقاس إكس لارج
08:42
we need to buy for next year?
156
522990
2047
علينا توفيرها للسنة القادمة؟
08:45
At predicting better what will sell or not
157
525061
2810
وإنشاء توقع أفضل للمبيعات،
08:47
than our designers."
158
527895
1960
من توقعات مصممينا."
08:50
Our team trained a model in a few weeks, on past sales data,
159
530434
3976
خلال أسابيع قليلة، أنشأ فريقنا نموذج بناء على معطيات المبيعات السابقة،
08:54
and the competition was organized with human buyers.
160
534434
3533
بدأت منافسة تم تنظيمها مع الزبائن،
08:58
Result?
161
538347
1150
والنتيجة؟
09:00
AI wins, reducing forecasting errors by 25 percent.
162
540061
4682
فوز الذكاء الاصطناعي، بتقليل أخطاء التوقعات بنسبة 25%.
09:05
Human-zero champions could have tried to implement this initial model
163
545903
4833
لا يوجد أي بشري قادراً على تنفيذ هذا النموذج الأولي
09:10
and create a fight with all human buyers.
164
550760
2754
ومنافسة جميع الزبائن.
09:13
Have fun.
165
553538
1150
لا بأس.
09:15
But we knew that human buyers had insights on fashion trends
166
555205
5126
ولكن نحن نعلم أن الزبائن لهم آراء حول اتجاهات الموضة،
09:20
that could not be found in past data.
167
560355
2845
التي لا توجد في المعطيات القديمة.
09:23
There started our 70 percent.
168
563701
2857
هنا تبدأ الـ 70% من خطتنا.
09:26
We went for a second test,
169
566582
1944
ننتقل إلى التجربة الثانية،
09:28
where human buyers were reviewing quantities
170
568550
3103
حيث قام الزبائن بمراجعة الكميات
09:31
suggested by AI
171
571677
1662
المقترحة من قبل الذكاء الاصطناعي،
09:33
and could correct them if needed.
172
573363
2325
وتصحيحها إذا لزم الأمر.
09:36
Result?
173
576180
1150
والنتيجة؟
09:37
Humans using AI ...
174
577704
2117
يستخدم البشر الذكاء الاصطناعي...
09:39
lose.
175
579845
1407
يخسر.
09:41
Seventy-five percent of the corrections made by a human
176
581795
4151
يفتقر 75% من التعديلات المدخلة من قبل البشر،
09:45
were reducing accuracy.
177
585970
2055
إلى دقة الوصف.
09:49
Was it time to get rid of human buyers?
178
589002
3174
هل هذا وقت التخلص من دور الزبائن؟
09:52
No.
179
592200
1158
لا.
09:53
It was time to recreate a model
180
593382
2617
إنه وقت إعادة إنشاء نموذج جديد،
09:56
where humans would not try to guess when AI is wrong,
181
596023
5071
ينص على عدم محاولة البشر بالتخمين متى يكون الذكاء الاصطناعي مخطئاً،
10:01
but where AI would take real input from human buyers.
182
601118
4542
بل بإدخال معطيات صحيحة في نموذج الذكاء الاصطناعي.
10:06
We fully rebuilt the model
183
606962
1611
أعدنا إنشاء النموذج بشكل كامل،
10:08
and went away from our initial interface, which was, more or less,
184
608597
5964
وابتعدنا عن واجهتنا الأولية مهما كانت قليلة أو كثيرة،
10:14
"Hey, human! This is what I forecast,
185
614585
2437
أيها البشر، هذا هو ما أتوقعه،
10:17
correct whatever you want,"
186
617046
1761
صحح ما تريد،
10:18
and moved to a much richer one, more like,
187
618831
3636
بالأحرى، تحول لأغنى رجل بالعالم،
10:22
"Hey, humans!
188
622491
1976
"أيها الإنسان!
10:24
I don't know the trends for next year.
189
624491
1825
أنا لا أعرف اتجاهات السنة القادمة.
10:26
Could you share with me your top creative bets?"
190
626340
2956
هل تشاركني بقمة رهاناتك الخلاقة؟
10:30
"Hey, humans!
191
630063
1476
"أيها الإنسان!
10:31
Could you help me quantify those few big items?
192
631563
2719
هل تساعدني بقياس مقدار القليل من تلك البنود الكبيرة؟
10:34
I cannot find any good comparables in the past for them."
193
634306
3317
لم أجد أشياء قيمة لمقارنتها معها في السابق.
10:38
Result?
194
638401
1150
والنتيجة؟
10:40
"Human plus AI" wins,
195
640195
2000
فوز "البشر زائد الذكاء الإصطناعي"،
10:42
reducing forecast errors by 50 percent.
196
642219
3919
بتقليل أخطاء التوقعات بنسبة 50%.
10:47
It took one year to finalize the tool.
197
647770
2828
استغرق الأمر سنة واحدة.
10:51
Long, costly and difficult.
198
651073
3317
طويل وباهظ الثمن وصعب.
10:55
But profits and benefits
199
655046
2206
لكن الأرباح والفوائد،
10:57
were in excess of 100 million of savings per year for that retailer.
200
657276
5396
كانت بتوفير ما يزيد على 100 مليون في السنة لبائع التجزئة ذاك،
11:03
Seventy percent on very sensitive topics
201
663459
2936
%70 من المواضيع الشديدة الحساسية،
11:06
also means human have to decide what is right or wrong
202
666419
3778
تعني أن الإنسان يحدد ما هو الصواب أو الخطأ،
11:10
and define rules for what AI can do or not,
203
670221
4086
ويحدد القواعد التي يستطيع الذكاء الاصطناعي استيعابها أم لا،
11:14
like setting caps on prices to prevent pricing engines
204
674331
3484
مثل، ضبط الأسعار المرتفعة لمنع محركات الأسعار
11:17
[from charging] outrageously high prices to uneducated customers
205
677839
4524
[من فرض رسوم] أسعار باهظة للعملاء غير المتعلمين
11:22
who would accept them.
206
682387
1466
من سيصدق ذلك؟
11:24
Only humans can define those boundaries --
207
684538
2563
فقط الإنسان يمكنه أن يحدد هذه الحدود الفاصلة،
11:27
there is no way AI can find them in past data.
208
687125
3621
لا يمكن للذكاء الاصطناعي إيجادها في البيانات القديمة،
11:31
Some situations are in the gray zone.
209
691230
2467
بعض الحالات تكون في المنطقة الرمادية،
11:34
We worked with a health insurer.
210
694135
2745
عملنا مع التأمين الصحي،
11:36
He developed an AI engine to identify, among his clients,
211
696904
4713
طور قواعد في الذكاء الاصطناعي ليحدد من ضمن عملائه،
11:41
people who are just about to go to hospital
212
701641
2548
الأشخاص الذين على وشك الدخول إلى المشفى،
11:44
to sell them premium services.
213
704213
2269
لتوفير خدمات متميزة لهم،
11:46
And the problem is,
214
706506
1515
المشكلة أن،
11:48
some prospects were called by the commercial team
215
708045
2969
استدعى الفريق التجاري بعض الاحتمالات،
11:51
while they did not know yet
216
711038
2697
في حين أنهم لم يعرفوا بعد،
11:53
they would have to go to hospital very soon.
217
713759
2818
بأنه ستعين عليهم أن يذهبوا للمشفى بأقرب وقت.
11:57
You are the CEO of this company.
218
717720
2317
أنت المدير التنفيذي لهذه الشركة.
12:00
Do you stop that program?
219
720061
1667
هلا أوقفت ذلك البرنامج؟
12:02
Not an easy question.
220
722577
1913
ليس من السهل الإجابة،
12:04
And to tackle this question, some companies are building teams,
221
724514
3563
لمعالجة هذا الأمر، أنشأت بعض الشركات فرقاً
12:08
defining ethical rules and standards to help business and tech teams set limits
222
728101
5793
لتحديد قواعد أخلاقية ومعايير لمساعدة فرق الأعمال والتقنيين لوضع حدود،
12:13
between personalization and manipulation,
223
733918
3596
بين إضفاء الطابع الشخصي والاستغلال،
12:17
customization of offers and discrimination,
224
737538
2969
تخصيص العروض وممارسة التمييز،
12:20
targeting and intrusion.
225
740531
2023
التوجيه والإقحام.
12:24
I am convinced that in every company,
226
744562
3674
أنا على ثقة أنه في كل شركة،
12:28
applying AI where it really matters has massive payback.
227
748260
4650
تطبق الذكاء الاصطناعي البالغ الأهمية يكون لديها مردود هائل.
12:33
Business leaders need to be bold
228
753474
2151
يلزم كبار رجال الأعمال التحلي بالجرأة
12:35
and select a few topics,
229
755649
1976
واختيارهم القليل من المواضيع،
12:37
and for each of them, mobilize 10, 20, 30 people from their best teams --
230
757649
4936
ولكل واحد منهم، حشد 10، 20، 30 شخصاً من أفضل فرقهم،
12:42
tech, AI, data science, ethics --
231
762609
3333
التقنية، الذكاء الاصطناعي، علم البيانات، الأخلاقيات،
12:45
and go through the full 10-, 20-, 70-percent cycle
232
765966
4421
والخوض في دائرة 10، 20، 70% بأكملها
12:50
of "Human plus AI,"
233
770411
1722
من "البشر زائد الذكاء الاصطناعي"،
12:52
if they want to land AI effectively in their teams and processes.
234
772157
4340
لضمان فاعلية الذكاء الاصطناعي في فرقهم وإجراءاتهم.
12:57
There is no other way.
235
777006
1889
لا يوجد سبل أخرى.
12:58
Citizens in developed economies already fear algocracy.
236
778919
4724
يخشى المواطنون في الاقتصادات المتقدمة من الجوقراطية بالفعل.
13:04
Seven thousand were interviewed in a recent survey.
237
784196
3571
أجرينا مقابلات مع 7000 شخص في دراسة استثنائية حديثة.
13:08
More than 75 percent expressed real concerns
238
788157
3555
عبر ما يزيد عن 75% عن قلق حقيقي،
13:11
on the impact of AI on the workforce, on privacy,
239
791736
3937
حيال أثر الذكاء الاصطناعي على القوى العاملة في مجال الخصوصية،
13:15
on the risk of a dehumanized society.
240
795697
3436
خطر قيام مجتمع غير إنساني.
13:19
Pushing algocracy creates a real risk of severe backlash against AI
241
799157
5380
إن دفع الجوقراطية يخلق خطرا حقيقيا من ردود الفعل العنيفة ضد الذكاء الاصطناعي
13:24
within companies or in society at large.
242
804561
4103
داخل الشركات أو في المجتمع ككل.
13:29
"Human plus AI" is our only option
243
809014
3285
"البشر زائد الذكاء الاصطناعي" هو خيارنا الوحيد
13:32
to bring the benefits of AI to the real world.
244
812323
3134
لجلب فوائد الذكاء الاصطناعي لعالمنا.
13:36
And in the end,
245
816038
1158
وفي نهاية المطاف،
13:37
winning organizations will invest in human knowledge,
246
817220
4134
فإن المنظمات الفائزة ستستثمر في المعرفة البشرية،
13:41
not just AI and data.
247
821378
2325
ليس فقط الذكاء الاصطناعي والبيانات.
13:44
Recruiting, training, rewarding human experts.
248
824792
3328
توظيف، تدريب، استعانة بخبراء بشر.
13:48
Data is said to be the new oil,
249
828800
3142
ويقال إن البيانات هي النفط الجديد،
13:51
but believe me, human knowledge will make the difference,
250
831966
4071
ولكن صدقوني، ستحدث المعرفة البشرية الفرق
13:56
because it is the only derrick available
251
836061
3588
لأنها الخيار الوحيد المتاح
13:59
to pump the oil hidden in the data.
252
839673
3674
لضخ النفط الكامن في البيانات.
14:04
Thank you.
253
844633
1153
شكرا لكم.
14:05
(Applause)
254
845810
3904
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7