Machine intelligence makes human morals more important | Zeynep Tufekci

180,762 views ・ 2016-11-11

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Mutaz Salloum المدقّق: Ralah Haddad
00:12
So, I started my first job as a computer programmer
0
12739
4122
لقد بدأت عملي الأول كمبرمجة كمبيوتر
00:16
in my very first year of college --
1
16885
1956
في أول سنة جامعة لي--
00:18
basically, as a teenager.
2
18865
1507
بشكل أساسي، كمراهقة.
00:20
Soon after I started working,
3
20889
1732
بعدما بدأت العمل بوقت قصير،
00:22
writing software in a company,
4
22645
1610
بكتابة البرمجيات في الشركة،
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
آتى مدير في الشركة إلى حيث كنت أعمل،
00:28
and he whispered to me,
6
28458
1268
و همس لي،
00:30
"Can he tell if I'm lying?"
7
30229
2861
"هل يستطيع أن يُخبر فيما إذا كنتُ أكذب؟"
00:33
There was nobody else in the room.
8
33806
2077
لم يكن هناك أحد آخر في الغرفة.
"من الذي سيُخبرإذا كنتَ تكذب؟ ولماذا نحن نهمس؟"
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
00:42
The manager pointed at the computer in the room.
10
42266
3107
أشار المدير إلى الكمبيوترالموجود في الغرفة.
00:45
"Can he tell if I'm lying?"
11
45397
3096
"هل يستطيع أن يُخبر فيما إذا كنتُ أكذب؟"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
حسناً، المدير كان على علاقة مع موظفة الاستقبال.
00:53
(Laughter)
13
53999
1112
(ضحك)
وكنت لا أزال مراهقة.
00:55
And I was still a teenager.
14
55135
1766
00:57
So I whisper-shouted back to him,
15
57447
2019
ولذالك همست له بصوت مرتفع،
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"نعم الكمبيوتر يستطيع أن يُخبر فيما إذا كنتَ تكذب."
(ضحك)
01:03
(Laughter)
17
63138
1806
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
حسنا، لقد ضحكت، ولكن في الحقيقة ضحكت على نفسي.
01:07
Nowadays, there are computational systems
19
67915
3268
هذه الأيام، يوجد هنالك أنظمة حسابية
01:11
that can suss out emotional states and even lying
20
71207
3548
من الممكن أن نعمل عليها على الحالات العاطفية وحتى الكذب
01:14
from processing human faces.
21
74779
2044
من معالجة وجوه الناس.
01:17
Advertisers and even governments are very interested.
22
77248
4153
العاملون في مجال الإعلان وحتى الحكومات مهتمون جداً.
01:22
I had become a computer programmer
23
82319
1862
لقد أصبحت مبرمجة كمبيوتر
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
لأنني كنت واحدة من أولئك الأطفال المحبين للرياضيات والعلوم.
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
ولكن في مكان ما من هذا الطريق تعلمت عن الأسلحة النووية،
وأنا حقاً قلقة حول أخلاقيات العلم.
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
كنت مضطربة.
01:34
I was troubled.
27
94050
1204
01:35
However, because of family circumstances,
28
95278
2641
على أية حال، بسبب ظروف العائلة،
01:37
I also needed to start working as soon as possible.
29
97943
3298
أنا أيضاً بحاجة أن أبدأ العمل بأسرع ما يمكن.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
لذلك فكرت بنفسي، مهلاً، أدخلي في المجال التقني
01:44
where I can get a job easily
31
104588
1796
حيث أستطيع أن أحصل على عمل بسهولة
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
وحيث ليس علي أن أتعامل مع أسئلة أخلاقية مزعجة.
لذلك اخترت الحواسيب.
01:51
So I picked computers.
33
111022
1529
01:52
(Laughter)
34
112575
1104
(ضحك)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
حسناً، ها، ها، ها! كل الضحك علي.
هذه الأيام، علماء الحاسوب يقومون بصياغة البرامج
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
01:59
that control what a billion people see every day.
37
119915
4209
والتي تتحكم بما يستطيع أن يشاهده مليار شخص كل يوم.
إنهم يطورون السيارات التي ممكن أن تقرر مَن تجاوز السرعة.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
02:09
They're even building machines, weapons,
39
129707
3213
إنهم حتى يبنون الألات و الأسلحة،
02:12
that might kill human beings in war.
40
132944
2285
التي يُمكن أن تقتل الإنسان في الحرب.
02:15
It's ethics all the way down.
41
135253
2771
إنها الأخلاق دائماً في النطاق.
02:19
Machine intelligence is here.
42
139183
2058
ذكاء الألة يكون هنا.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
نحن نستخدم الألة لنتخذ كل أنواع القرارات،
02:25
but also new kinds of decisions.
44
145321
1886
ولكن ايضاً الأنواع الجديدة من القرارات.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
نحن نسأل الحاسب أسئلة ليس له إجابات صحيحة منفردة
02:32
that are subjective
46
152427
1202
والتي تكون غير موضوعية
02:33
and open-ended and value-laden.
47
153653
2325
مفتوحة وذات قيمة.
نحن نسأل أسئلة مثل،
02:36
We're asking questions like,
48
156002
1758
02:37
"Who should the company hire?"
49
157784
1650
"من الذي يجب على الشركة توظيفه؟"
"أي تحديث ومن أي صديق يجب أن تُشاهد؟"
02:40
"Which update from which friend should you be shown?"
50
160096
2759
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
"أي إنتهاك من المرجح أن يُعاد إدانته؟"
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
"أي الأخبار أو الأفلام يجب أن يوصى بها إلى الناس؟"
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
انظر، نعم، نحن نستخدم الحاسوب منذ فترة،
02:51
but this is different.
54
171988
1517
ولكن هذا مُختلف.
02:53
This is a historical twist,
55
173529
2067
هذا تطور تاريخي،
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
لأننا لا نستطيع أن نُركّز الحساب من أجل هكذا قرارات شخصية
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
الطريقة التي نستطيع أن نُركّز الحساب لأجل تحليق الطائرات، بناء الجسور،
03:06
going to the moon.
58
186425
1259
الذهاب إلى القمر
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
هل الطائرات أكثر أماناً؟ هل الجسر تأرجح وانهار؟
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
هناك، نحن اتفقنا عليه، معيار واضح ألى حد ما،
03:16
and we have laws of nature to guide us.
61
196254
2239
ونحن لدينا قوانين طبيعية لتُرشِدنا.
03:18
We have no such anchors and benchmarks
62
198517
3394
ليس لدينا هكذا مرتكز أو معيار
03:21
for decisions in messy human affairs.
63
201935
3963
للقرارات في العلاقات الإنسانية الفوضوية.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
لنجعل الأشياء أكثر تعقيداً، برمجياتُنا أصبحت أكثر قوة،
03:30
but it's also getting less transparent and more complex.
65
210183
3773
ولكنها أصبحت أيضاً أقل شفافية وأكثر تعقيداً.
03:34
Recently, in the past decade,
66
214542
2040
مؤخراً، في العقد الماضي،
03:36
complex algorithms have made great strides.
67
216606
2729
الخوارزميات المعقدة صنعت خطوات عظيمة.
03:39
They can recognize human faces.
68
219359
1990
تستطيع أن تُميز الوجوه البشرية.
03:41
They can decipher handwriting.
69
221985
2055
تستطيع أن تحل شيفرة خط اليد.
03:44
They can detect credit card fraud
70
224436
2066
تستطيع أن تكشف تزوير البطاقة الإتمانية
03:46
and block spam
71
226526
1189
وتمنع البريد المزعج
03:47
and they can translate between languages.
72
227739
2037
وتستطيع الترجمة بين اللغات.
03:49
They can detect tumors in medical imaging.
73
229800
2574
تستطيع أن تكشف الأمراض في التصوير الطبي.
03:52
They can beat humans in chess and Go.
74
232398
2205
تستطيع أن تتغلب على الإنسان في الشطرنج.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
معظم هذا التقدم يأتي من اسلوب يُدعى"تعلم الآلة."
تعلم الآلة يختلف عن البرمجة التقليدية،
04:00
Machine learning is different than traditional programming,
76
240175
3187
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
حيث تُعطي الحاسوب تعليمات دقيقة ومضبوطة ومُفصلة.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
إنه مثل أن تأخذ النظام وتُلقمه الكثير من البيانات،
04:11
including unstructured data,
79
251584
1656
بما في ذلك البيانات الغير منظمة،
04:13
like the kind we generate in our digital lives.
80
253264
2278
مثل النوع الذي أنتجناه في حياتنا الرقمية.
04:15
And the system learns by churning through this data.
81
255566
2730
والنظام المتعلم من خلال الخوض بهذه البيانات.
04:18
And also, crucially,
82
258669
1526
و أيضاً، بشكل حاسم،
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
هذه الأنظمة لا تعمل تحت منطق الإجابة الفريدة.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
إنها لا تُنتج إجابة بسيطة؛ إنها أكثر إحتمالية:
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"من المحتمل أن يكون هذا الشيء هو ما تبحث عنه."
الآن، الجزء الجيد هو: هذه الطريقة حقاً قوية.
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
رئيس أنظمة غوغل دعاه،
04:35
The head of Google's AI systems called it,
87
275117
2076
04:37
"the unreasonable effectiveness of data."
88
277217
2197
"الفاعلية الغير منطقية للبيانات."
04:39
The downside is,
89
279791
1353
الجانب السلبي هو،
04:41
we don't really understand what the system learned.
90
281738
3071
لا نستطيع أن نفهم ماذا يُعلم النظام تماماً.
04:44
In fact, that's its power.
91
284833
1587
في الحقيقة، تلك قوته.
04:46
This is less like giving instructions to a computer;
92
286946
3798
هذا بدرجة أقل مثل إعطاء التعليمات للحاسوب؛
04:51
it's more like training a puppy-machine-creature
93
291200
4064
إنه بالأكثر مثل تدريب مخلوق آلي مغرور
04:55
we don't really understand or control.
94
295288
2371
لا نستطيع حقاً أن نفهمه أو نتحكم به.
04:58
So this is our problem.
95
298362
1551
لذلك هذه هي مُشكلتنا.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
إنها مشكلة عندما يصنع نظام الذكاء الإصطناعي هذا أشياء خاطئة.
05:04
It's also a problem when it gets things right,
97
304713
3540
إنها أيضاً مُشكلة عندما نحصل على الأشياء الصحيحة،
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
لأننا لا نعرف حتى متى تكون مشكلة غير موضوعية.
05:11
We don't know what this thing is thinking.
99
311929
2339
نحن لا نعلم ماذا يُفكر هذه الشيء.
05:15
So, consider a hiring algorithm --
100
315493
3683
لذلك، تأمل خوارزمية التوظيف--
نظام يستعمل لتوظيف الناس، باستعمال أنظمة تعلّم الآلة.
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
هكذا نظام قد تم تمرينه على بيانات العاملين السابقة
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
05:28
and instructed to find and hire
103
328655
2591
وأَعطي تعليمات ليجد ويوظف
05:31
people like the existing high performers in the company.
104
331270
3038
الناس مثل الموجودين في الشركة من ذوي الكفاءات العالية.
05:34
Sounds good.
105
334814
1153
يبدو جيداً.
05:35
I once attended a conference
106
335991
1999
حضرت إجتماعاً ذات مرة
مع مدراء الموارد البشرية والمدراء التنفيذيين،
05:38
that brought together human resources managers and executives,
107
338014
3125
أشخاص على مستوى عال،
05:41
high-level people,
108
341163
1206
05:42
using such systems in hiring.
109
342393
1559
وباستخدام هكذا أنظمة في التوظيف.
05:43
They were super excited.
110
343976
1646
كانوا متحمسين بشكل كبير.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
اعتقدوا أن هذا سيجعل التوظيف أكثر موضوعية وأقل تحيز،
05:50
and give women and minorities a better shot
112
350323
3000
وإعطاء النساء والأقليات محاولة أفضل
05:53
against biased human managers.
113
353347
2188
ضد تحيز مدراء الموارد البشرية.
05:55
And look -- human hiring is biased.
114
355559
2843
انظر-- التوظيف البشري متحيز.
أنا أعلم.
05:59
I know.
115
359099
1185
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
أعني، في أحد أعمالي المبكرة كمبرمجة،
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
مديرتي المباشرة كانت تأتي أحياناً إلي حيث كُنت أعمل
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
باكراً في الصباح أو متأخرة بعد الظهر،
وكانت تقول، "زينب، دعينا نذهب ألى الغداء!"
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
06:14
I'd be puzzled by the weird timing.
120
374724
2167
وأكون في حيرة من التوقيت الغريب.
06:16
It's 4pm. Lunch?
121
376915
2129
إنه الساعة الرابعة بعد الظهر. الغداء؟
كُنت مُفلسة، وكذلك الغداء مجاني. كنت دائماً أذهب.
06:19
I was broke, so free lunch. I always went.
122
379068
3094
06:22
I later realized what was happening.
123
382618
2067
فيما بعد أدركت ماذا كان يحدث.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
مُدرائي المباشرين لم يخبروا المدراء في المستوى الأعلى
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
إن المبرمج الذي وظفوه في العمل المُهم كانت فتاة شابة
06:32
who wore jeans and sneakers to work.
126
392416
3930
والتي ترتدي الجنز والأحذية الرياضية في العمل.
كُنت أعمل عملاً جيداً، فقط مظهري كان خاطئاً
06:37
I was doing a good job, I just looked wrong
127
397174
2202
06:39
and was the wrong age and gender.
128
399400
1699
لقد كان العمر الخطأ والجنس الخطأ.
لذلك التوظيف بطريقة الجنس والعرق العمياء
06:41
So hiring in a gender- and race-blind way
129
401123
3346
06:44
certainly sounds good to me.
130
404493
1865
بالتأكيد تبدو جيدة بالنسبة لي.
ولكن مع هذه الأنظمة، إنه أكثر تعقيداً، والسبب:
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
حالياً، الأنظمة الحسابية تستطيع أن تستدل على كل الأشياء حولك
06:56
from your digital crumbs,
133
416783
1872
من أجزائك الرقمية الصغيرة،
06:58
even if you have not disclosed those things.
134
418679
2333
حتى لو أنك لم تكشف هذه الأشياء.
07:01
They can infer your sexual orientation,
135
421506
2927
تستطيع أن تكشف توجهك الجنسي،
07:04
your personality traits,
136
424994
1306
ميزاتك الشخصية،
07:06
your political leanings.
137
426859
1373
ميولك السياسية.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
لديها قوة تنبئية بمستوى عالي من الدقة.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
تذّكر- حتى بالنسبة للأشياء التي لم تكشفها.
07:15
This is inference.
140
435964
1591
هذا هو الاستدلال.
07:17
I have a friend who developed such computational systems
141
437579
3261
لدي صديق والذي طور هكذا أنظمة حسابية
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
ليتنبأ باحتمالية الإكتئاب المرضي أو الإكتئاب ما بعد الولادة
07:24
from social media data.
143
444529
1416
من بيانات وسائل الإعلام.
07:26
The results are impressive.
144
446676
1427
النتائج كانت مؤثرة.
07:28
Her system can predict the likelihood of depression
145
448492
3357
نظامها يستطيع التنبؤ باحتمالية الإكتئاب
07:31
months before the onset of any symptoms --
146
451873
3903
أشهر قبل بداية أي أعراض --
07:35
months before.
147
455800
1373
أشهر قبل.
07:37
No symptoms, there's prediction.
148
457197
2246
لا أعراض، يوجد هنا تنبؤ.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
تأمل أنه سيستعمل للتدخل المُبكر. عظيم!
07:44
But now put this in the context of hiring.
150
464911
2040
لكن الآن ضع هذا في حالة التوظيف.
لذلك في مؤتمر مدراء الموارد البشرية هذا،
07:48
So at this human resources managers conference,
151
468027
3046
اقتربت من مدير في المستوى الأعلى في شركة كبيرة جداً،
07:51
I approached a high-level manager in a very large company,
152
471097
4709
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
وقُلت لها،" انظري، ماذا لو، غير معروف لك،
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
أن نظامك يُزيل الأشخاص ذوي الاحتمالية المستقبلية الكبيرة من الإكتئاب؟
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
إنهم غير مكتئبين الآن، ربما فقط في المستقبل، أكثر احتمالية.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
ماذا لو يُزل النساء الأكثر احتمالية لأن يكونوا حوامل
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
في السنة المقبلة أوالسنتين ولكن غير حوامل الآن؟
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
ماذا لو يوظف الناس العدائيين لأن ذلك هو ثقافة مكان عملك؟"
لا تستطيع أن تحكي هذا بالنظر إلى التقسيم من حيث الجنس.
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
08:27
Those may be balanced.
160
507888
1502
هؤلاء ربما يكونوا متوازنيين.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
وبما أن هذا تعّلم الآلة، وليس تدوين تقليدي،
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
لا يوجد هنا متغير يوجد اسمه "خطر أعلى من الإكتئاب،"
08:37
"higher risk of pregnancy,"
163
517926
1833
"خطر أعلى من الحمل،"
08:39
"aggressive guy scale."
164
519783
1734
"مقياس شخص عدواني."
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
ليس فقط أنك لا تعلم ما يختار نظامك،
08:45
you don't even know where to begin to look.
166
525698
2323
أنت لا تعلم أيضاً أين يجب أن تبدأ النظر.
إنه صندوق أسود.
08:48
It's a black box.
167
528045
1246
08:49
It has predictive power, but you don't understand it.
168
529315
2807
إنه يملك قوة تنبؤية، لكنك لا تفهمها.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
سألتها "ما إجراءات الوقاية"، ستملكين
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
لتتأكد أن صندوقك الأسود لا يعمل أي شيء مضلل؟"
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
نظرت ألي كما لو أنني ضربتها بعشرة ذيول جِراء.
09:04
(Laughter)
172
544765
1248
(ضحك)
حدقت إلي وقالت،
09:06
She stared at me and she said,
173
546037
2041
09:08
"I don't want to hear another word about this."
174
548556
4333
" أنا لا أريد أن أسمع كلمة أخرى حول هذا."
09:13
And she turned around and walked away.
175
553458
2034
و دارت نفسها وذهبت بعيداً.
إنتبهوا-- لم تكن وقحة.
09:16
Mind you -- she wasn't rude.
176
556064
1486
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
إنه كان واضحاً: الذي لا أعرفه ليس مشكلتي، اذهب بعيداً، الموت يُحدق.
09:23
(Laughter)
178
563906
1246
(ضحك)
09:25
Look, such a system may even be less biased
179
565862
3839
انظر، هكذا نظام ربما يكون أقل تحيزاً
09:29
than human managers in some ways.
180
569725
2103
مِن المدراء البشر في بعض الطرق.
09:31
And it could make monetary sense.
181
571852
2146
ويمكن أن يصنع إدراك عملي.
09:34
But it could also lead
182
574573
1650
ولكنه ممكن أن يقود أيضاً
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
إلى الثبات ولكن إغلاق خفي لسوق العمل
للناس بمستوى عالي من الإكتئاب.
09:41
of people with higher risk of depression.
184
581019
2293
09:43
Is this the kind of society we want to build,
185
583753
2596
هل هذا هو النوع من المجتمع الذي نريد أن نبنيه،
09:46
without even knowing we've done this,
186
586373
2285
بدون حتى أن نعلم أننا فعلنا هذا،
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
لأننا حولّنا اتخاذ القرارات إلى ألات لا نفهمها تماماً؟
09:53
Another problem is this:
188
593265
1458
مشكلة أخرى وهي كالتالي:
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
هذه الأنظمة غالباً ما تكون دُربت على البيانات أُنتجت من أعمالنا،
09:59
human imprints.
190
599790
1816
بصمات الإنسان.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
حسناً، ربما هُن فقط يعكسن تحيزنا،
وهذه الأنظمة ربما قد تختار تحيزنا
10:06
and these systems could be picking up on our biases
192
606020
3593
10:09
and amplifying them
193
609637
1313
وتبالغ فيه
10:10
and showing them back to us,
194
610974
1418
وتعود لترينا اياه
10:12
while we're telling ourselves,
195
612416
1462
بينما نحن نُخبر أنفسنا،
10:13
"We're just doing objective, neutral computation."
196
613902
3117
"نحن فقط نفعل الهدف، الحساب الحيادي."
10:18
Researchers found that on Google,
197
618314
2677
الباحثون وجدوا ذلك على غوغل،
النساء أقل احتمالية من الرجال لإعلانات العمل بالنسبة للأعمال بالدخل العالي.
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
10:28
And searching for African-American names
199
628463
2530
والبحث في الأسماء الأميريكية الإفريقية
أكثراحتمالية ليجلب إعلانات مُقترحة تاريخ جنائي،
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
10:35
even when there is none.
201
635747
1567
حتى عندما لا توجد.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
هكذا تحيز مخفي وخوارزميات الصندوق الأسود
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
والتي لا يُغطيها الباحثون أحياناً ولكن أحياناً لا نعلم،
10:46
can have life-altering consequences.
204
646263
2661
يُمكن أن يكون لديها عواقب تغيير مدى الحياة.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
في ويسكونسن، حُكم على المدعى عليه ست سنوات في السجن
لأجل تجاهل الشرطة.
10:54
for evading the police.
206
654141
1355
10:56
You may not know this,
207
656824
1186
ربما لا تعلم هذا،
لكن الخوارزميات وبازدياد تُستعمل في اطلاق السراح وقرارات اصدار الأحكام.
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
هو أراد أن يعرف: كيف تُحسب هذه النتيجة؟
11:02
He wanted to know: How is this score calculated?
209
662056
2955
11:05
It's a commercial black box.
210
665795
1665
إنه صندوق أسود تجاري.
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
رفضت الشركة لأن تكون خوارزميتها مُعترض عليها في المحكمة المفتوحة.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
ولكن شركة التحقيق بروبابليكا الغير ربحية، دققت الخوارزمية
11:17
with what public data they could find,
213
677952
2016
مع البيانات العامة التي استطاعوا إيجادها،
11:19
and found that its outcomes were biased
214
679992
2316
ووجدوا أن المُخرجات كانت مُتحيزة
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
وقوته التنبؤية كانت مُحزنة، بالكاد أفضل من الفرصة،
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
وكان من الخطأ تصنيف المُدعى عليهم السود كمجرمي المستقبل
11:30
at twice the rate of white defendants.
217
690425
3895
كضِعف المُدعى عليهم البيض.
11:35
So, consider this case:
218
695891
1564
لذا، تأمل هذه الحالة :
هذه المرأة كانت مُتأخرة لتقل أختها
11:38
This woman was late picking up her godsister
219
698103
3852
11:41
from a school in Broward County, Florida,
220
701979
2075
من المدرسة في بلدة بروارد، فلوريدا،
11:44
running down the street with a friend of hers.
221
704757
2356
توقفت في الشارع مع صديقتها.
واكتشفوا دراجة طفل غير مُقفلة ودراجة على الرواق
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
11:51
and foolishly jumped on it.
223
711260
1632
وبكل حماقة قفزوا عليها.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
بينما كانوا يستعجلون، ظهرت امرأة وقالت،
11:55
"Hey! That's my kid's bike!"
225
715539
2205
"مرحبا! تلك دراجة طفلي!"
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
فقاموا بتركها ومشوا بعيداً، ولكنهم كانوا قد أُعتقلوا.
كانت مُخطئة، كانت حمقى، ولكنها كانت بعمر 18 سنة أيضاً.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
لديها العديد من المخالفات الصبيانية.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
في الوقت نفسه، ذلك الرجل كان قد أُعتقل للسرقة مخزن المنزل --
ما قيمته 85 دولار من الأغراض، جريمة سخيفة مُشابهة.
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
12:16
But he had two prior armed robbery convictions.
231
736766
4559
ولكن كان لديه جُرمي سطو مُسلح سابقين.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
ولكن الخوارزمية سجلت المرأة كخطر كبير ولم تُسجله.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
بعد سنتين، وجدت شركة بروبابليكا أن المرأة لم تكن قد ارتكبت مُخالفة.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
كان من الصعب عليها فقط أن تحصل على عمل بسبب سجلها.
12:33
He, on the other hand, did reoffend
235
753218
2076
هو، في الجهة المقابلة، ارتكب مخالفة
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
وهو يخدم الآن فترة ثماني سنوات سجن بسبب جريمة لاحقة.
بكل وضوح، نحن بحاجة إلى تدقيق صناديقنا السود
12:40
Clearly, we need to audit our black boxes
237
760088
3369
12:43
and not have them have this kind of unchecked power.
238
763481
2615
وأن لا يكون لديها هذا النوع من القوة الغير مفحوصة.
(تصفيق)
12:46
(Applause)
239
766120
2879
تدقيق الحسابات عظيم وهام، ولكنهن لا يحللن كل مشاكلنا.
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
خذ قوة أخبار فيس بوك لُقمت بالخوارزمية --
أنت تعلم، الشخص الذي صنف كل شيء ويقرر ما يُظهر لك
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
13:01
from all the friends and pages you follow.
243
781992
2284
من كل الأصدقاء والصفحات التي تُتابعها.
13:04
Should you be shown another baby picture?
244
784898
2275
هل يجب أن ترى صورة طفل آخر؟
13:07
(Laughter)
245
787197
1196
(ضحك)
13:08
A sullen note from an acquaintance?
246
788417
2596
ملاحظة مُتجهمة من شخص معروف؟
13:11
An important but difficult news item?
247
791449
1856
الأخبار المُهمة ولكنها عويصة؟
13:13
There's no right answer.
248
793329
1482
لا يوجد هنا أي اجابة صحيحة.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
يبحث فيس بوك عن أفضل الحلول للتشابك على الموقع:
13:17
likes, shares, comments.
250
797518
1415
اعجابات، مشاركات، تعليقات.
في شهرآب من 2014،
13:20
In August of 2014,
251
800168
2696
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
اندلعت الاحتجاجات في فيرغوسن، مُقاطعة ميسوري،
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
بعد مقتل مراهق أميريكي-افريقي من قبل ضابط شرطة أبيض،
في ظروف غامضة.
13:30
under murky circumstances.
254
810015
1570
13:31
The news of the protests was all over
255
811974
2007
الأخبار عن الاحتجاجات كانت قد انتهت
خوارزميتي الحسابية لم تُصفي تلقيم تويتر،
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
13:36
but nowhere on my Facebook.
257
816714
1950
ولكن هنا على الفيس بوك خاصتي.
13:39
Was it my Facebook friends?
258
819182
1734
هل كانوا أصدقاء حسابي الفيس بوك؟
13:40
I disabled Facebook's algorithm,
259
820940
2032
عَطلتُ خوارزمية فيس بوك الحسابية،
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
حيث إنه صعب، لأن فيس بوك دائماً يُريد أن يجعلك
13:46
come under the algorithm's control,
261
826344
2036
تبقى تحت سيطرة الخوارزمية،
13:48
and saw that my friends were talking about it.
262
828404
2238
وشاهدت أصدقائي كانوا يتكلمون عنه.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
أنه فقط أن الخوارزمية لم تكن تُظهره لي.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
بحثت حول هذا ووجدت أن هذا كان مُشكلة واسعة الانتشار.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
قصة فيرغوسن لم تكن ضمن نظام الخوارزمية بشكل ودّي.
إنه ليس"جدير بالمحبة."
14:00
It's not "likable."
266
840102
1171
14:01
Who's going to click on "like?"
267
841297
1552
مَن سيضغط على "اعجاب؟"
14:03
It's not even easy to comment on.
268
843500
2206
إنه حتى ليس من السهل أن تُعلق عليه.
14:05
Without likes and comments,
269
845730
1371
من دون الاعجابات والتعليقات،
الخوارزمية كانت من المحتمل أن تظهره لعدد أقل من الناس،
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
14:10
so we didn't get to see this.
271
850441
1542
لذلك نحن لا نُريد أن نرى هذا.
14:12
Instead, that week,
272
852946
1228
بدلاً من، ذلك الاسبوع،
14:14
Facebook's algorithm highlighted this,
273
854198
2298
خوارزمية فيس بوك ألقت الضوء على هذا،
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
حيث إنه تحدي الدلو الجليدي ALS.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
سبب قيّم؛ الماء الجليدي المفرغ، صُنع المعروف، جميل.
14:22
But it was super algorithm-friendly.
276
862536
1904
ولكنها كانت خوارزمية صديقة بامتياز.
14:25
The machine made this decision for us.
277
865219
2613
الآلة صنعت هذا القرار من أجلنا.
14:27
A very important but difficult conversation
278
867856
3497
محادثة مهمة جداً ولكنها صعبة
14:31
might have been smothered,
279
871377
1555
ربما تكون قد غُطت بكثافة،
14:32
had Facebook been the only channel.
280
872956
2696
ربما كان فيس بوك القناة الوحيدة.
الآن،وأخيراً، هذه الأنظمة يمكن أيضاً أن تكون مخطئة
14:36
Now, finally, these systems can also be wrong
281
876117
3797
14:39
in ways that don't resemble human systems.
282
879938
2736
في الطُرق التي لا تُماثل الأنظمة الانسانية.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
هل تتذكرون واتسون، نظام الذكاء الآلي لشركة IBM
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
والذي أزال الإرباك مع المتنافسين البشر على لعبة Jeopardy؟
كان لاعب عظيم.
14:49
It was a great player.
285
889131
1428
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
ولكن فيما بعد، بالنسبة للعبة الأخيرة، سُأل واتسون هذا السؤال:
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
"مطاره الأكبر سُمي لبطل الحرب العالمية الثانية،
14:57
its second-largest for a World War II battle."
288
897615
2252
ثاني أكبر مطار لمعركة الحرب العالمية الثانية."
14:59
(Hums Final Jeopardy music)
289
899891
1378
(دندنة لموسيقا اللعبة الأخيرة)
15:01
Chicago.
290
901582
1182
شيكاغو.
15:02
The two humans got it right.
291
902788
1370
الشخصين أجابوا بشكل صحيح.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
واتسون، على الجهة المقابلة، أجاب "تورونتو"--
عوضاً عن تصنيف مدينة أمريكية!
15:09
for a US city category!
293
909069
1818
15:11
The impressive system also made an error
294
911596
2901
النظام المُثير للاعجاب أيضاً يصنع أخطاء
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
التي لا يُمكن أن يصنعها الإنسان، الصنف الثاني سوف لن يصنعها.
15:18
Our machine intelligence can fail
296
918823
3109
ذكاء ألتُنا الصناعي يُمكن أن يفشل
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
في الطرق التي لا تناسب نماذج خطأ الانسان
في الطرق التي لا نتوقعها ونكون مُحضرين لها.
15:25
in ways we won't expect and be prepared for.
298
925080
2950
سيكون من الحقارة أن لا يحصل الشخص على عمل يكون مؤهل له،
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
لكن سيكون استيعاب ثلاثي إذا كان بسبب فائض مُكدس
15:35
in some subroutine.
301
935467
1432
في بعض الروتين الفعلي.
15:36
(Laughter)
302
936923
1579
(ضحك)
15:38
In May of 2010,
303
938526
2786
في شهر شهر مايو/أيارعام 2010،
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
الإنهيار السريع في وول ستريت المُغذى بحلقة ردود الفعل
15:45
in Wall Street's "sell" algorithm
305
945404
3028
في خوارزمية "البيع" الحسابية في وول ستريت
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
أزال ما قيمته ترليليون دولار في 36 دقيقة.
15:53
I don't even want to think what "error" means
307
953722
2187
أنا لا أريد حتى أن أعتقد ما يعني"الخطأ"
15:55
in the context of lethal autonomous weapons.
308
955933
3589
في سياق الأسلحة المستقلة المُهلكة.
16:01
So yes, humans have always made biases.
309
961894
3790
لذا نعم، الناس دائماً يصنعون التحيز.
16:05
Decision makers and gatekeepers,
310
965708
2176
صانعوا القرارات و حارسوا البوابات،
16:07
in courts, in news, in war ...
311
967908
3493
في المحاكم، في الأخبار، في الحرب...
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
هم يصنعون الأخطاء؛ ولكن تلك فكرتي بالضبط.
16:14
We cannot escape these difficult questions.
313
974487
3521
نحن لا نستطيع الهرب من هذه الأسئلة الصعبة.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
نحن لا نستطيع التعهد بمسؤلياتنا إلى الآلات.
16:22
(Applause)
315
982676
4208
(تصفيق)
الذكاء الاصطناعي لا يعطينا بطاقة "الخروج من الأخلاق بحرية".
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
عالم البيانات فريد بيننسون يدعو هذا غسيل الرياضيات.
نحن نحتاج العكس.
16:38
We need the opposite.
318
998147
1389
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
نريد أن نصقل التشكيك حول الخوارزمية، الفحص الدقيق و الاستقصاء.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
نريد أن نتأكد أنه لدينا مسؤلية حول ما يتعلق بالخوارزمية.
16:48
auditing and meaningful transparency.
321
1008602
2445
التدقيق، الشفافية ذات المعنى.
16:51
We need to accept that bringing math and computation
322
1011380
3234
نريد أن نقبل أن نجلب الرياضيات والحساب
16:54
to messy, value-laden human affairs
323
1014638
2970
للأشياء الفوضوية، العلاقات الانسانية المحملة بالقيمة
16:57
does not bring objectivity;
324
1017632
2384
لا تجلب الموضوعية؛
بالأحرى، العلاقات الانسانية المعقدة تنتهك الخوارزميات.
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
نعم، نحن نستطيع ويجب علينا أن نستخدم الحساب
17:04
Yes, we can and we should use computation
326
1024148
3487
17:07
to help us make better decisions.
327
1027659
2014
ليساعدنا على اتخاذ قرارات أفضل.
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
ولكن يجب علينا أن نعترف بمسؤليتنا الاخلاقية في الحكم،
وأن نستخدم الخوارزميات ضمن اطار العمل ذلك،
17:15
and use algorithms within that framework,
329
1035053
2818
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
ليس بمعنى أن نتنازل و نتعهد بمسؤلياتنا
17:22
to one another as human to human.
331
1042854
2454
لشخص آخر مثلاً إنسان لإنسان.
17:25
Machine intelligence is here.
332
1045807
2609
الذكاء الآلي هنا.
17:28
That means we must hold on ever tighter
333
1048440
3421
والذي يعني أنه يجب علينا ننتظر بشكل محكم أكثر من أي وقت مضى
17:31
to human values and human ethics.
334
1051885
2147
للقيم الانسانية والأخلاق الانسانية.
شكراً لكم.
17:34
Thank you.
335
1054056
1154
17:35
(Applause)
336
1055234
5020
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7