The era of blind faith in big data must end | Cathy O'Neil

232,156 views ・ 2017-09-07

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Nawal Sharabati المدقّق: Hani Eldalees
00:12
Algorithms are everywhere.
0
12795
1596
نجدُ الخوارزميات في كل مكان.
00:15
They sort and separate the winners from the losers.
1
15931
3125
إنها تُصنّفُ وتفصل الفائزين عن الخاسرين.
00:19
The winners get the job
2
19839
2264
يحصل الفائزون على الوظيفة
00:22
or a good credit card offer.
3
22127
1743
أو على أحد عروض بطاقات الائتمان الجيّدة.
00:23
The losers don't even get an interview
4
23894
2651
بينما لا يحصل الخاسرون حتى على مقابلة عمل
00:27
or they pay more for insurance.
5
27410
1777
أو يدفعون أكثر مقابل التأمين.
00:30
We're being scored with secret formulas that we don't understand
6
30017
3549
يتمّ تقييمنا بصيغ سرّية لا نفهمها
00:34
that often don't have systems of appeal.
7
34495
3217
والتي لا يمكننا استئناف أحكامها في معظم الأحيان.
00:39
That begs the question:
8
39060
1296
مما يطرح السؤال:
00:40
What if the algorithms are wrong?
9
40380
2913
ماذا لو كانت الخوارزميات خاطئة؟
00:44
To build an algorithm you need two things:
10
44920
2040
لبناء خوارزمية فأنتم تحتاجون لشيئين:
00:46
you need data, what happened in the past,
11
46984
1981
تحتاجون لبيانات، أي ما حدث في الماضي،
00:48
and a definition of success,
12
48989
1561
وتحتاجون تعريفًا للنجاح،
00:50
the thing you're looking for and often hoping for.
13
50574
2457
أي الأمر الذي تبحثون عنه وتأملون غالبًا إيجاده.
00:53
You train an algorithm by looking, figuring out.
14
53055
5037
تدرّبون الخوارزمية بالبحث أو التحديد.
00:58
The algorithm figures out what is associated with success.
15
58116
3419
أي تحدّد الخوارزمية ما هو متعلق بالنجاح.
01:01
What situation leads to success?
16
61559
2463
أي حالة تقود إلى النجاح؟
01:04
Actually, everyone uses algorithms.
17
64701
1762
في الواقع، يستخدمُ كلُ شخص الخوارزميات.
01:06
They just don't formalize them in written code.
18
66487
2718
لكن فقط هم لا يستطيعون صياغتها على هيئة شفرات مكتوبة.
01:09
Let me give you an example.
19
69229
1348
دعوني أعطيكم مثالاً.
01:10
I use an algorithm every day to make a meal for my family.
20
70601
3316
أستخدمُ الخوارزميات كل يوم لأصنع وجبة غذائية لأسرتي.
01:13
The data I use
21
73941
1476
فالبيانات التي أستخدمها
01:16
is the ingredients in my kitchen,
22
76214
1659
هي محتويات مطبخي،
01:17
the time I have,
23
77897
1527
ووقتي،
01:19
the ambition I have,
24
79448
1233
وطموحي،
01:20
and I curate that data.
25
80705
1709
وأقوم بتنظيم هذه البيانات.
01:22
I don't count those little packages of ramen noodles as food.
26
82438
4251
لا أعتبر هذه العبوّات الصغيرة من الرامن (حساء المعكرونة) طعامًا.
01:26
(Laughter)
27
86713
1869
(ضحك)
01:28
My definition of success is:
28
88606
1845
تعريفي للنجاح هو:
01:30
a meal is successful if my kids eat vegetables.
29
90475
2659
تعتبرُ الوجبة الغذائية ناجحة إذا تناول أطفالي الخضروات.
01:34
It's very different from if my youngest son were in charge.
30
94001
2854
سيختلف هذا إن كان ابني الصغير هو المسؤول.
01:36
He'd say success is if he gets to eat lots of Nutella.
31
96879
2788
سيقول أن النجاح هو إذا تناول الكثير من شوكولاتة "نوتيلا".
01:40
But I get to choose success.
32
100999
2226
لكن يتوجب عليّ اختيار النجاح.
01:43
I am in charge. My opinion matters.
33
103249
2707
أنا المسؤولة. لذا فرأيي مهمّ.
01:45
That's the first rule of algorithms.
34
105980
2675
هذه هي أول قاعدة للخوارزميات.
01:48
Algorithms are opinions embedded in code.
35
108679
3180
الخوارزميات هي آراء موضوعة في شفرات.
01:53
It's really different from what you think most people think of algorithms.
36
113382
3663
إنها مختلفة حقًا عما يعتقده معظم الناس.
01:57
They think algorithms are objective and true and scientific.
37
117069
4504
إنهم يعتقدون أن الخوارزميات موضوعية وصحيحة وعلمية.
02:02
That's a marketing trick.
38
122207
1699
إنها خدعة تسويقية.
02:05
It's also a marketing trick
39
125089
2125
وإنها أيضًا خدعة تسويقية
02:07
to intimidate you with algorithms,
40
127238
3154
لتخويفكم بهذه الخوارزميات،
02:10
to make you trust and fear algorithms
41
130416
3661
لجعلكم تثقون في الخوارزميات وتخافونها
02:14
because you trust and fear mathematics.
42
134101
2018
لأنكم تثقون في الرياضيات وتخافونها.
02:17
A lot can go wrong when we put blind faith in big data.
43
137387
4830
الكثير من الأمور قد تسوء عندما نضع ثقة عمياء في البيانات الضخمة.
02:23
This is Kiri Soares. She's a high school principal in Brooklyn.
44
143504
3373
هذه هي (كيري سوريس)، إنها مديرة مدرسة ثانوية في (بروكلين).
02:26
In 2011, she told me her teachers were being scored
45
146901
2586
في عام 2011، أخبرتني بأنه كان يتمّ تصنيف معلميها
02:29
with a complex, secret algorithm
46
149511
2727
بناءً على خوارزمية سرية معقدة
02:32
called the "value-added model."
47
152262
1489
سمّيت "نموذج القيمة المضافة".
02:34
I told her, "Well, figure out what the formula is, show it to me.
48
154325
3092
قلت لها: "حسنًا، اكتشفي ما هي الصيغة، وأريني إياها.
02:37
I'm going to explain it to you."
49
157441
1541
وسأشرحها لكِ."
02:39
She said, "Well, I tried to get the formula,
50
159006
2141
قالت، "حسنًا، حاولتُ الحصول على الصيغة،
02:41
but my Department of Education contact told me it was math
51
161171
2772
ولكن أخبرني شخص في وزارة التربية والتعليم أنها عبارة عن رياضيات
02:43
and I wouldn't understand it."
52
163967
1546
وأنني لن أفهمها."
02:47
It gets worse.
53
167086
1338
يزدادُ الأمرُ سوءًا.
02:48
The New York Post filed a Freedom of Information Act request,
54
168448
3530
قدّمت صحيفة (نيويورك بوست) "طلب قانون حماية المعلومات"
02:52
got all the teachers' names and all their scores
55
172002
2959
وحصلت على أسماء كل المعلمين وتقييماتهم
02:54
and they published them as an act of teacher-shaming.
56
174985
2782
وتم نشرها على سبيل الخزي للمعلمين.
02:58
When I tried to get the formulas, the source code, through the same means,
57
178904
3860
عندما حاولتُ الحصول على الصيَغ والشيفرة المصدرية عبر الوسائل نفسها،
03:02
I was told I couldn't.
58
182788
2149
قيل لي أنني لا أستطيع.
03:04
I was denied.
59
184961
1236
تمّ رفضي.
03:06
I later found out
60
186221
1174
واكتشفتُ لاحقًا
03:07
that nobody in New York City had access to that formula.
61
187419
2866
بأنه لم يستطع أحد في مدينة (نيويورك) الوصول إلى تلك الصيغة.
03:10
No one understood it.
62
190309
1305
لم يفهمها أحد.
03:13
Then someone really smart got involved, Gary Rubinstein.
63
193749
3224
ثُم اهتم بالموضوع شخص ذكي حقًا، يدعى (غاري روبنشتاين).
03:16
He found 665 teachers from that New York Post data
64
196997
3621
وجد أن 665 معلمًا من بيانات صحفية (نيويورك بوست) تلك
03:20
that actually had two scores.
65
200642
1866
لديهم في الحقيقة تقييمان.
03:22
That could happen if they were teaching
66
202532
1881
ويمكن حدوث ذلك إن كانوا يدرّسون
03:24
seventh grade math and eighth grade math.
67
204437
2439
مادة الرياضيات للصفين السابع والثامن.
03:26
He decided to plot them.
68
206900
1538
قرّر تمثيلهم برسم بياني.
03:28
Each dot represents a teacher.
69
208462
1993
تمثلُ كل نقطة معلمًا.
03:30
(Laughter)
70
210924
2379
(ضحك)
03:33
What is that?
71
213327
1521
ما هذا؟
03:34
(Laughter)
72
214872
1277
(ضحك)
03:36
That should never have been used for individual assessment.
73
216173
3446
لم يكن ينبغي استخدام ذلك على الإطلاق للتقييم الفردي.
03:39
It's almost a random number generator.
74
219643
1926
إنه تقريبًا مُولّد أرقام عشوائية.
03:41
(Applause)
75
221593
2946
(تصفيق)
03:44
But it was.
76
224563
1162
ولكنه ما حدث.
03:45
This is Sarah Wysocki.
77
225749
1176
هذه هي (سارة ويسوكي).
03:46
She got fired, along with 205 other teachers,
78
226949
2175
تمّ طردها من العمل -بالإضافة إلى 205 معلم آخر-
03:49
from the Washington, DC school district,
79
229148
2662
من قطاع مدارس العاصمة (واشنطن)،
03:51
even though she had great recommendations from her principal
80
231834
2909
مع أن لديها توصيات عظيمة من مديرتها
03:54
and the parents of her kids.
81
234767
1428
وأولياء أمور طلابها.
03:57
I know what a lot of you guys are thinking,
82
237210
2032
أعرفُ ما يفكرُ فيه الكثير منكم يا رفاق،
03:59
especially the data scientists, the AI experts here.
83
239266
2487
خاصةً علماء البيانات وخبراء الذكاء الاصطناعي هنا.
04:01
You're thinking, "Well, I would never make an algorithm that inconsistent."
84
241777
4226
تفكّرون: "حسنًا، لم أكن لأنشئ خوارزمية غير متجانسة كهذه".
04:06
But algorithms can go wrong,
85
246673
1683
ولكن يمكنُ للخوارزميات أن تفشل
04:08
even have deeply destructive effects with good intentions.
86
248380
4598
وتسبّبَ آثارًا مدمّرة بشدّة حتى رغم النوايا حسنة.
04:14
And whereas an airplane that's designed badly
87
254351
2379
وبينما الطائرة التي صُممت بطريقة سيئة
04:16
crashes to the earth and everyone sees it,
88
256754
2001
تتحطم على الأرض ويراها الجميع،
04:18
an algorithm designed badly
89
258779
1850
إلا أن الخوارزمية المصمّمة بطريقة سيئة
04:22
can go on for a long time, silently wreaking havoc.
90
262065
3865
يمكنُ أن تبقى لوقت طويل تعيث فسادًا في صمت.
04:27
This is Roger Ailes.
91
267568
1570
هذا هو (روجير إيلس).
04:29
(Laughter)
92
269162
2000
(ضحك)
04:32
He founded Fox News in 1996.
93
272344
2388
قام بتأسيس قناة (فوكس) الإخبارية عام 1996.
04:35
More than 20 women complained about sexual harassment.
94
275256
2581
اشتكت أكثر من 20 امرأة من التحرش الجنسي.
04:37
They said they weren't allowed to succeed at Fox News.
95
277861
3235
قلن أن ذلك أثّر عليهن فلم يستطعن النجاح في قناة (فوكس) الإخبارية.
04:41
He was ousted last year, but we've seen recently
96
281120
2520
تم طرده العام الماضي، لكن رأينا مؤخرًا
04:43
that the problems have persisted.
97
283664
2670
بأن المشاكل ما زالت مستمرة.
04:47
That begs the question:
98
287474
1400
مما يطرحُ السؤال:
04:48
What should Fox News do to turn over another leaf?
99
288898
2884
ما الذي ينبغي على قناة (فوكس) الإخبارية عمله لتبدأ صفحة جديدة؟
04:53
Well, what if they replaced their hiring process
100
293065
3041
ماذا لو استبدلوا عملية التوظيف لديهم
04:56
with a machine-learning algorithm?
101
296130
1654
بخوارزمية "التعلّم الآلي"؟
04:57
That sounds good, right?
102
297808
1595
يبدو هذا جيدًا، أليس كذلك؟
04:59
Think about it.
103
299427
1300
فكّروا في الأمر.
05:00
The data, what would the data be?
104
300751
2105
بالنسبة للبيانات، ماذا ستكون البيانات؟
05:02
A reasonable choice would be the last 21 years of applications to Fox News.
105
302880
4947
ربما طلبات التوظيف في (فوكس) الإخبارية خلال 21 سنة الأخيرة.
05:07
Reasonable.
106
307851
1502
منطقي.
05:09
What about the definition of success?
107
309377
1938
ماذا عن تعريف النجاح؟
05:11
Reasonable choice would be,
108
311741
1324
سيكون الاختيار المعقول هو،
05:13
well, who is successful at Fox News?
109
313089
1778
من هو الناجح في قناة (فوكس) الإخبارية؟
05:14
I guess someone who, say, stayed there for four years
110
314891
3580
لنقل أنه شخص بقي هناك لمدة أربع سنوات
05:18
and was promoted at least once.
111
318495
1654
وتم ترقيته مرة واحدة على الأقل.
05:20
Sounds reasonable.
112
320636
1561
يبدو الأمر معقولًا.
05:22
And then the algorithm would be trained.
113
322221
2354
وبعد ذلك سيتم تدريب الخوارزمية.
05:24
It would be trained to look for people to learn what led to success,
114
324599
3877
سيتم تدريبها للبحث عن الأشخاص لمعرفة ما الذي أدّى إلى النجاح،
05:29
what kind of applications historically led to success
115
329039
4318
ما نوع طلبات التوظيف التي أدت تاريخيًا إلى النجاح
05:33
by that definition.
116
333381
1294
بناءً على التعريف السابق.
05:36
Now think about what would happen
117
336020
1775
فكّروا الآن فيما سيحدث
05:37
if we applied that to a current pool of applicants.
118
337819
2555
لو طبّقنا ذلك على المجموعة الحالية من طالبي التوظيف.
05:40
It would filter out women
119
340939
1629
ستَستبعِد الخوارزمية النساء
05:43
because they do not look like people who were successful in the past.
120
343483
3930
لأنهن لا يشبهن الأشخاص الذين نجحوا في الماضي.
05:51
Algorithms don't make things fair
121
351572
2537
لا تحقق الخوارزميات العدالة
05:54
if you just blithely, blindly apply algorithms.
122
354133
2694
إن طبّقتموها على نحو أعمى وبدون تفكير.
05:56
They don't make things fair.
123
356851
1482
لا تجعل الأمور عادلة.
05:58
They repeat our past practices,
124
358357
2128
تعيدُ ممارساتنا الماضية،
06:00
our patterns.
125
360509
1183
وأنماط تصرّفاتنا.
06:01
They automate the status quo.
126
361716
1939
وتدير الوضع الراهن آليًّا.
06:04
That would be great if we had a perfect world,
127
364538
2389
سيكون ذلك عظيمًا لو كان لدينا عالم مثالي،
06:07
but we don't.
128
367725
1312
ولكن ليس لدينا.
06:09
And I'll add that most companies don't have embarrassing lawsuits,
129
369061
4102
وسأضيفُ أن معظم الشركات ليس لديها شكاوي قضائية محرجة،
06:14
but the data scientists in those companies
130
374266
2588
ولكن علماء البيانات في هذه الشركات
06:16
are told to follow the data,
131
376878
2189
يُطلب منهم تتبّع البيانات
06:19
to focus on accuracy.
132
379091
2143
للتركيز على الدقة.
06:22
Think about what that means.
133
382093
1381
فكّروا فيما يعنيه ذلك.
06:23
Because we all have bias, it means they could be codifying sexism
134
383498
4027
لأنه لدى جميعنا نزعة تحيّز، فيمكن أن يقوموا بتقنين التمييز الجنسي
06:27
or any other kind of bigotry.
135
387549
1836
أو أي نوع آخر من التعصب الأعمى.
06:31
Thought experiment,
136
391308
1421
إليكم تجربة فكرية،
06:32
because I like them:
137
392753
1509
لأني أحبهم:
06:35
an entirely segregated society --
138
395394
2975
إن افترضنا وجود مجتمع مفصول عنصريًا بالكامل،
06:40
racially segregated, all towns, all neighborhoods
139
400067
3328
كل بلداته وأحياؤه مفصولة على أساس عنصري
06:43
and where we send the police only to the minority neighborhoods
140
403419
3037
وحيث أننا نرسلُ الشرطة لأحياء الأقليّات فقط
06:46
to look for crime.
141
406480
1193
للبحث عن الجريمة،
06:48
The arrest data would be very biased.
142
408271
2219
فإن بيانات الاعتقال ستكون منحازة جدًا.
06:51
What if, on top of that, we found the data scientists
143
411671
2575
وعلاوة على ذلك، ماذا لو وجدنا علماء البيانات
06:54
and paid the data scientists to predict where the next crime would occur?
144
414270
4161
ودفعنا لهم للتنبؤ بمكان الجريمة التالية؟
06:59
Minority neighborhood.
145
419095
1487
سيقولون أحد أحياء الأقليات.
07:01
Or to predict who the next criminal would be?
146
421105
3125
أو للتنبؤ بالمجرم التالي؟
07:04
A minority.
147
424708
1395
أيضًا من الأقليات.
07:07
The data scientists would brag about how great and how accurate
148
427769
3541
سيتباهى علماء البيانات كم أن نموذجهم
07:11
their model would be,
149
431334
1297
سيكون رائعًا ودقيقًا،
07:12
and they'd be right.
150
432655
1299
وسيكونون محقّين بالفعل.
07:15
Now, reality isn't that drastic, but we do have severe segregations
151
435771
4615
الآن، ليست الحقيقة بذلك التطرف، ولكن لدينا تمييز وفصل شديد
07:20
in many cities and towns,
152
440410
1287
في عدة مدن وبلدات
07:21
and we have plenty of evidence
153
441721
1893
ولدينا الكثير من البراهين
07:23
of biased policing and justice system data.
154
443638
2688
من بيانات رجال الشرطة المتحيزة، وبيانات نظام العدالة.
07:27
And we actually do predict hotspots,
155
447452
2815
ونستطيع في الواقع التنبؤ بمواقع ساخنة،
07:30
places where crimes will occur.
156
450291
1530
وأماكن حيث ستحدث الجرائم.
07:32
And we do predict, in fact, the individual criminality,
157
452221
3866
ونستطيع التنبؤ، في الواقع، بالجريمة الفردية،
07:36
the criminality of individuals.
158
456111
1770
جرائم الأفراد.
07:38
The news organization ProPublica recently looked into
159
458792
3963
بحثت المنظمة الإخبارية (بروبليكا) مؤخرًا
07:42
one of those "recidivism risk" algorithms,
160
462779
2024
أحد تلك الخوارزميات، "خطر التعرض للانتكاس"
07:44
as they're called,
161
464827
1163
كما يطلق عليهم،
07:46
being used in Florida during sentencing by judges.
162
466014
3194
تم استخدامها في ولاية (فلوريدا) أثناء إعلان الحُكم من قبل القضاة.
07:50
Bernard, on the left, the black man, was scored a 10 out of 10.
163
470231
3585
تم تصنيف (بيرنارد)، على اليسار، الرجل الأسود، 10/10.
07:54
Dylan, on the right, 3 out of 10.
164
474999
2007
و(ديلان)، على اليمين، 3/10.
07:57
10 out of 10, high risk. 3 out of 10, low risk.
165
477030
2501
10 من 10، الخطر الأكبر، و3 من 10، الخطر المنخفض.
08:00
They were both brought in for drug possession.
166
480418
2385
تم القبض على كليهما لحيازتهما المخدرات.
08:02
They both had records,
167
482827
1154
ولدى كلاهما سجلات،
08:04
but Dylan had a felony
168
484005
2806
ولكن لدى (ديلان) جناية
08:06
but Bernard didn't.
169
486835
1176
بعكس (بيرنارد).
08:09
This matters, because the higher score you are,
170
489638
3066
هذا يهم، لأنه إذا كانت درجتكم أعلى،
08:12
the more likely you're being given a longer sentence.
171
492728
3473
فستمنحون على الأرجح أحكامًا قضائية أطول.
08:18
What's going on?
172
498114
1294
ما الذي يجري هنا؟
08:20
Data laundering.
173
500346
1332
غسل البيانات.
08:22
It's a process by which technologists hide ugly truths
174
502750
4427
إنها عملية حيث يخفي التقنيون حقائق بشعة
08:27
inside black box algorithms
175
507201
1821
داخل خوارزميات الصندوق الأسود
08:29
and call them objective;
176
509046
1290
ويطلقون عليها موضوعية،
08:31
call them meritocratic.
177
511140
1568
أطلقوا عليها "الإستحقاقراطية".
08:34
When they're secret, important and destructive,
178
514938
2385
عندما تكون سرية، ومهمة، ومدمرة،
08:37
I've coined a term for these algorithms:
179
517347
2487
قمتُ بصياغة مصطلح لهذه الخوارزميات:
08:39
"weapons of math destruction."
180
519858
1999
"أسلحة دمار العمليات الحسابية".
08:41
(Laughter)
181
521881
1564
(ضحك)
08:43
(Applause)
182
523469
3054
(تصفيق)
08:46
They're everywhere, and it's not a mistake.
183
526547
2354
إنها في كل مكان، وليست خطأ.
08:49
These are private companies building private algorithms
184
529515
3723
هذه هي شركات خاصة تبني خوارزميات خاصة
08:53
for private ends.
185
533262
1392
لأغراض خاصة.
08:55
Even the ones I talked about for teachers and the public police,
186
535034
3214
حتى تلك التي تحدثتُ حولها بشأن المعلمين ورجال الشرطة،
08:58
those were built by private companies
187
538272
1869
تم بناء الخوارزميات من قبل شركات خاصة
09:00
and sold to the government institutions.
188
540165
2231
وتم بيعها إلى مؤســسات حكومية.
09:02
They call it their "secret sauce" --
189
542420
1873
يسمونها "التركيبة السرية الخاصة" --
09:04
that's why they can't tell us about it.
190
544317
2128
ولهذا السبب لا يمكنهم الإفصاح عنها.
09:06
It's also private power.
191
546469
2220
إنها أيضًا سلطة خاصة.
09:09
They are profiting for wielding the authority of the inscrutable.
192
549744
4695
إنهم يستفيدون من الممارسة البارعة للسلطة الغامضة.
09:16
Now you might think, since all this stuff is private
193
556934
2934
قد تعتقدون الآن، ولأنّ كل هذه الامور خاصة
09:19
and there's competition,
194
559892
1158
وهناك منافسة،
09:21
maybe the free market will solve this problem.
195
561074
2306
ربما سيعالجُ السوق الحر هذه المشكلة.
09:23
It won't.
196
563404
1249
لن يقوم بذلك.
09:24
There's a lot of money to be made in unfairness.
197
564677
3120
تُجبى كمية ضخمة من الأموال نتيجة عدم الإنصاف.
09:28
Also, we're not economic rational agents.
198
568947
3369
كذلك، لسنا عملاء اقتصاديون منطقيون.
09:32
We all are biased.
199
572851
1292
جميعنا منحازون.
09:34
We're all racist and bigoted in ways that we wish we weren't,
200
574780
3377
جميعنا عنصريون ومتعصبون بطرق نرغبُ بأننا لم نسلكها،
09:38
in ways that we don't even know.
201
578181
2019
بطرق حتى لا نعرفها.
09:41
We know this, though, in aggregate,
202
581172
3081
ورغم ذلك نعلمُ هذا، في كل الأحوال،
09:44
because sociologists have consistently demonstrated this
203
584277
3220
لأن علماء الاجتماع قدّموا لنا ذلك باستمرار
09:47
with these experiments they build,
204
587521
1665
بهذه التجارب التي بنوها،
09:49
where they send a bunch of applications to jobs out,
205
589210
2568
حيثُ يرسلوا حزمة من طلبات الوظائف المطلوبة
09:51
equally qualified but some have white-sounding names
206
591802
2501
مؤهلين بالتساوي لكن لدى بعضهم أسماء تبدو لأشخاص بيض
09:54
and some have black-sounding names,
207
594327
1706
ولدى البعض أسماء تبدو لأشخاص سود
09:56
and it's always disappointing, the results -- always.
208
596057
2694
ودائمًا النتائج مخيبة للآمال، دائمًا.
09:59
So we are the ones that are biased,
209
599330
1771
لذلك فنحن المتحيزون،
10:01
and we are injecting those biases into the algorithms
210
601125
3429
ونحنُ من يضع تلك التحيزات داخل الخوارزميات
10:04
by choosing what data to collect,
211
604578
1812
باختيار ما هي البينات التي علينا جمعها،
10:06
like I chose not to think about ramen noodles --
212
606414
2743
مثل ما اخترته لعدم التفكير بالشعيرية المجففة --
10:09
I decided it was irrelevant.
213
609181
1625
قررتُ بأنه ليس لها صلة بالموضوع.
10:10
But by trusting the data that's actually picking up on past practices
214
610830
5684
لكن وبالثقة بالبيانات التي هي في الواقع اختيار الممارسات الماضية
10:16
and by choosing the definition of success,
215
616538
2014
واختيار تعريف النجاح،
10:18
how can we expect the algorithms to emerge unscathed?
216
618576
3983
كيف يمكننا توقع ظهور الخوارزميات متكاملة؟
10:22
We can't. We have to check them.
217
622583
2356
لا نستطيع. علينا التحقق منهم.
10:25
We have to check them for fairness.
218
625985
1709
علينا التحقق منهم من أجل الإنصاف.
10:27
The good news is, we can check them for fairness.
219
627718
2711
الخبر السار هو، نستطيعُ التحقق منهم من أجل الإنصاف.
10:30
Algorithms can be interrogated,
220
630453
3352
يمكنُ فحص واستنطاق الخوارزميات،
10:33
and they will tell us the truth every time.
221
633829
2034
ويمكنهم قول الحقيقة كل الوقت.
10:35
And we can fix them. We can make them better.
222
635887
2493
ويمكننا اصلاحهم. ويمكننا جعلهم أفضل.
10:38
I call this an algorithmic audit,
223
638404
2375
أطلقُ على هذه تدقيق الخوارزمية،
10:40
and I'll walk you through it.
224
640803
1679
وسأخبركم عنها.
10:42
First, data integrity check.
225
642506
2196
أولاً، التحقق من نزاهة وتكامل البيانات.
10:45
For the recidivism risk algorithm I talked about,
226
645952
2657
بالنسبة إلى خوارزمية خطر الانتكاس التي تحدثتُ عنها،
10:49
a data integrity check would mean we'd have to come to terms with the fact
227
649402
3573
ستعني التحقق من نزاهة البيانات بأنه علينا التوصل إلى تفاهم مع الواقع
10:52
that in the US, whites and blacks smoke pot at the same rate
228
652999
3526
بأنه في أمريكا، يدخنُ الحشيشَ البيض والسود بنفس المعدل
10:56
but blacks are far more likely to be arrested --
229
656549
2485
لكن يتمُ اعتقال السود على الأرجح أكثر بكثير --
10:59
four or five times more likely, depending on the area.
230
659058
3184
أربع أو خمس مرات أكثر من البيض، اعتمادًا على المنطقة.
11:03
What is that bias looking like in other crime categories,
231
663137
2826
كيف يبدو هذا التحيز في فئات الجرائم الأخرى،
11:05
and how do we account for it?
232
665987
1451
وكيف يمكننا حساب ذلك؟
11:07
Second, we should think about the definition of success,
233
667982
3039
ثانيًا، ينبغي علينا التفكير بتعريف النجاح،
11:11
audit that.
234
671045
1381
تدقيق ذلك.
11:12
Remember -- with the hiring algorithm? We talked about it.
235
672450
2752
تذكروا، خوارزمية التوظيف، التي تحدثنا عنها.
11:15
Someone who stays for four years and is promoted once?
236
675226
3165
يبقى شخص ما في الوظيفة لمدة أربع سنوات ويتمُ ترقيته لمرة واحدة.
11:18
Well, that is a successful employee,
237
678415
1769
حسنًا، هذا موظفُ ناجح،
11:20
but it's also an employee that is supported by their culture.
238
680208
3079
وإنه أيضًا موظف مدعوم من قبل التقاليد الموروثة.
11:23
That said, also it can be quite biased.
239
683909
1926
وذلك، يمكن أن يكون ذلك تحيزًا
11:25
We need to separate those two things.
240
685859
2065
نحتاجُ لفصل هذين الأمرين.
11:27
We should look to the blind orchestra audition
241
687948
2426
علينا النظر في تجربة أداء الأوركسترا العمياء
11:30
as an example.
242
690398
1196
كمثال.
11:31
That's where the people auditioning are behind a sheet.
243
691618
2756
حيث يجري الأشخاص أداءهم من وراء جدار.
11:34
What I want to think about there
244
694766
1931
ما أرغبُ أن أفكر فيه هنا
11:36
is the people who are listening have decided what's important
245
696721
3417
أن من يستمع إلى هؤلاء قد قرروا ما هو المهم
11:40
and they've decided what's not important,
246
700162
2029
وما ليس مهمًا،
11:42
and they're not getting distracted by that.
247
702215
2059
ولم يتم ازعاجهم بأي شيء بهذا القرار.
11:44
When the blind orchestra auditions started,
248
704781
2749
عندما بدأت تجربة أداء الأوكسترا العمياء،
11:47
the number of women in orchestras went up by a factor of five.
249
707554
3444
ارتفع عدد النساء في الأوكسترا بمقدار خمسة.
11:52
Next, we have to consider accuracy.
250
712073
2015
وبعد ذلك، علينا النظر في الدقة.
11:55
This is where the value-added model for teachers would fail immediately.
251
715053
3734
وهذا هو حيث سيفشل نموذج القيمة المضافة بشأن المعلمين على الفور.
11:59
No algorithm is perfect, of course,
252
719398
2162
لا يوجد خوارزمية مثالية، بطبيعة الحال،
12:02
so we have to consider the errors of every algorithm.
253
722440
3605
لذلك ينبغي علينا حساب الأخطاء في كل خوارزمية.
12:06
How often are there errors, and for whom does this model fail?
254
726656
4359
كم مرة تتكرر هذه الأخطاء، ولمن يفشل هذا النموذج؟
12:11
What is the cost of that failure?
255
731670
1718
وما هي تكلفة هذا الفشل؟
12:14
And finally, we have to consider
256
734254
2207
وأخيرًا، علينا اعتبار
12:17
the long-term effects of algorithms,
257
737793
2186
الآثار طويلة الأجل للخوارزمية،
12:20
the feedback loops that are engendering.
258
740686
2207
ومجموعات التقييم التي تم إحداثها.
12:23
That sounds abstract,
259
743406
1236
يبدو ذلك نظرية مجردة،
12:24
but imagine if Facebook engineers had considered that
260
744666
2664
لكن تخيلوا لو أن مهندسو الفيسبوك أخذوا بعين الاعتبار ذلك
12:28
before they decided to show us only things that our friends had posted.
261
748090
4855
قبل أن يقرروا أن يُظهروا لنا الأشياء التي ينشرها أصدقاؤنا فقط.
12:33
I have two more messages, one for the data scientists out there.
262
753581
3234
عندي رسالتان أخريان، الأولى لعلماء البيانات الموجودن من حولنا.
12:37
Data scientists: we should not be the arbiters of truth.
263
757270
3409
يا علماء البيانات: لا ينبغي علينا أن نقرر ما هي الحقيقة.
12:41
We should be translators of ethical discussions that happen
264
761340
3783
علينا أن نترجم النقاشات الأخلاقية التي تحدثُ في المجتمع الأكبر.
12:45
in larger society.
265
765147
1294
(تصفيق)
12:47
(Applause)
266
767399
2133
12:49
And the rest of you,
267
769556
1556
والبقية منكم،
12:51
the non-data scientists:
268
771831
1396
من غير علماء البيانات:
12:53
this is not a math test.
269
773251
1498
هذا ليس اختبار رياضيات.
12:55
This is a political fight.
270
775452
1348
إنها معركة سياسية.
12:58
We need to demand accountability for our algorithmic overlords.
271
778407
3907
نحتاجُ أن نطالبَ بالمساءلة لمن يضع الخوارزميات من الأسياد.
13:03
(Applause)
272
783938
1499
(تصفيق)
13:05
The era of blind faith in big data must end.
273
785461
4225
يجب أن ينتهي عصر الثقة العمياء في البيانات الضخمة.
13:09
Thank you very much.
274
789710
1167
13:10
(Applause)
275
790901
5303
شكرًا جزيلًا لكم.
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7