How can groups make good decisions? | Mariano Sigman and Dan Ariely

157,065 views ・ 2017-12-13

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

00:00
As societies, we have to make collective decisions
0
554
2443
المترجم: Eyad ElSwedy المدقّق: Fatima Zahra El Hafa
كمجتمعات، يجب علينا أن نتخذ قرارات بشكل جماعي
00:03
that will shape our future.
1
3021
1570
والتي ستشكل مستقبلنا.
00:05
And we all know that when we make decisions in groups,
2
5087
2757
ونعلم جميعا أنه عندما نتخذ القرارات بشكل جماعي،
00:07
they don't always go right.
3
7868
1638
فإنها لا تكون دائما صائبة.
00:09
And sometimes they go very wrong.
4
9530
1956
وأحيانا تكون خاطئة جدًا.
00:12
So how do groups make good decisions?
5
12315
2424
إذن كيف يمكن للجماعات أن تتخذ قرارات جيدة؟
00:15
Research has shown that crowds are wise when there's independent thinking.
6
15228
4328
لقد أظهرت الأبحاث أن الحشود يتمتعون بالحكمة عندما يفكرون بشكل مستقل.
00:19
This why the wisdom of the crowds can be destroyed by peer pressure,
7
19580
3205
وذلك لأن كفاءة الحشود في أخذ القرار يمكن أن تتأثر بضغط الند،
00:22
publicity, social media,
8
22809
1687
والدعاية ووسائل التواصل الاجتماعي.
00:24
or sometimes even simple conversations that influence how people think.
9
24520
4039
وحتى أحيانا بالمحادثات الصغيرة التي قد تؤثر في طريقة تفكير الناس.
00:29
On the other hand, by talking, a group could exchange knowledge,
10
29063
3953
ومن ناحية أخرى، من خلال الحديث، يمكن للمجموعة تبادل المعرفة،
00:33
correct and revise each other
11
33040
1782
والتصحيح والتعديل لبعضهم البعض
00:34
and even come up with new ideas.
12
34846
1793
وحتى الخروج بأفكار جديدة.
00:36
And this is all good.
13
36663
1296
وكل هذا أمر جيد.
00:38
So does talking to each other help or hinder collective decision-making?
14
38502
4666
إذًا فهل تبادل الحديث مع الآخرين يساعد أم يعيق عملية اتخاذ القرار الجماعي؟
00:43
With my colleague, Dan Ariely,
15
43749
1793
بمساعدة زميلي، "دان ايريلي".
00:45
we recently began inquiring into this by performing experiments
16
45566
3571
بدأنا مؤخرا تقصي هذا الأمر عن طريق إجراء بعض التجارب
00:49
in many places around the world
17
49161
1781
في العديد من الأماكن حول العالم
00:50
to figure out how groups can interact to reach better decisions.
18
50966
4274
لمعرفة كيف يمكن للمجموعات أن تتفاعل مع بعضها لتصل إلى قرارات أفضل.
00:55
We thought crowds would be wiser if they debated in small groups
19
55264
3547
لقد اعتقدنا أن الحشود ستكون أكثر حكمة إذا تناقشوا في مجموعات صغيرة
00:58
that foster a more thoughtful and reasonable exchange of information.
20
58835
3927
والتي ستعزز من تبادل المعلومات بشكل أكثر عمقا وأكثر موضوعية.
01:03
To test this idea,
21
63386
1206
ولاختبار هذه الفكرة،
01:04
we recently performed an experiment in Buenos Aires, Argentina,
22
64616
3247
أجرينا مؤخرا تجربة في بيونس آيرس، الأرجنتين،
01:07
with more than 10,000 participants in a TEDx event.
23
67887
3005
بمشاركة أكثر من 10,000 مشارك في حدث TEDx.
01:11
We asked them questions like,
24
71489
1459
ولقد سألناهم أسئلة مثل،
01:12
"What is the height of the Eiffel Tower?"
25
72972
1953
"ماهو ارتفاع برج إيفل"؟
01:14
and "How many times does the word 'Yesterday' appear
26
74949
2727
و"كم عدد المرات التي تظهر فيها كلمة ’ يوم أمس’
01:17
in the Beatles song 'Yesterday'?"
27
77700
2300
في أغنية البيتيلز 'Yesterday'؟
01:20
Each person wrote down their own estimate.
28
80024
2291
وقد قام كل شخص بكتابة إجابته.
01:22
Then we divided the crowd into groups of five,
29
82774
2496
ثم قمنا بتقسيم الحشد إلى مجموعات من خمس أفراد،
01:25
and invited them to come up with a group answer.
30
85294
2726
وطلبنا منهم التوصل إلى إجابة جماعية.
01:28
We discovered that averaging the answers of the groups
31
88499
2993
اكتشفنا أن متوسط إجابات المجموعات
01:31
after they reached consensus
32
91516
1552
بعد أن توافقوا في الآراء
01:33
was much more accurate than averaging all the individual opinions
33
93092
4236
كان أكثر دقة من متوسط جميع الآراء الفردية
01:37
before debate.
34
97352
1171
قبل المناقشة.
01:38
In other words, based on this experiment,
35
98547
2629
بعبارة أخرى، واستنادًا إلى هذه التجربة،
01:41
it seems that after talking with others in small groups,
36
101200
3136
يبدو أنه وبعد الحديث مع الآخرين في مجموعات صغيرة،
01:44
crowds collectively come up with better judgments.
37
104360
2710
فقد توصلت الحشود بشكل جماعي إلى أحكام أفضل.
01:47
So that's a potentially helpful method for getting crowds to solve problems
38
107094
3524
ولذلك فهذه طريقة محتملة ومفيدة لمساعدة الحشود على حل المشكلات
01:50
that have simple right-or-wrong answers.
39
110642
2987
التي تتطلب إجابات بسيطة صحيحة أو خاطئة.
01:53
But can this procedure of aggregating the results of debates in small groups
40
113653
3951
ولكن هل يمكن لهذا الإجراء من تجميع نتائج مناقشات المجموعات الصغيرة
01:57
also help us decide on social and political issues
41
117628
3122
أن يساعدنا أيضا في اتخاذ قرارات تتعلق بقضايا سياسية واجتماعية
02:00
that are critical for our future?
42
120774
1691
حاسمة بالنسبة لمستقبلنا؟
02:02
We put this to test this time at the TED conference
43
122995
2729
قمنا باختبار هذا هذه المرة في مؤتمر TED
02:05
in Vancouver, Canada,
44
125748
1543
في فانكوفر، كندا،
02:07
and here's how it went.
45
127315
1207
وإليكم النتائج.
02:08
(Mariano Sigman) We're going to present to you two moral dilemmas
46
128546
3109
(ماريانو سيجمان) سوف نعرض عليكم معضلتان أخلاقيتان
02:11
of the future you;
47
131679
1174
لشخصيتكم المستقبلية،
02:12
things we may have to decide in a very near future.
48
132877
3402
أشياء قد يتعين علينا اتخاذ قرار بشأنها في المستقبل القريب.
02:16
And we're going to give you 20 seconds for each of these dilemmas
49
136303
3926
وسنعطيكم 20 ثانية لكل معضلة
02:20
to judge whether you think they're acceptable or not.
50
140253
2723
لتحكموا على ما إذا كنتم تعتقدون أنها أمر مقبول أم لا.
02:23
MS: The first one was this:
51
143354
1505
ماريو: المعضلة الأولى كانت:
02:24
(Dan Ariely) A researcher is working on an AI
52
144883
2526
(دان ايريلي) هناك باحث يعمل على جهاز للذكاء الاصطناعي
02:27
capable of emulating human thoughts.
53
147433
2340
قادر على محاكاة الأفكار البشرية.
02:30
According to the protocol, at the end of each day,
54
150214
2939
وفقا للبروتوكول، في نهاية كل يوم،
02:33
the researcher has to restart the AI.
55
153177
2787
يجب على الباحث إعادة تشغيل جهاز الذكاء الاصطناعي.
02:36
One day the AI says, "Please do not restart me."
56
156913
3517
وفي أحد الأيام قال جهاز الذكاء الاصطناعي "من فضلك لا تعد تشغيلي".
02:40
It argues that it has feelings,
57
160856
2189
وبرر ذلك بأنه قد أصبح لديه مشاعر،
02:43
that it would like to enjoy life,
58
163069
1692
ويرغب في التمتع بالحياة،
02:44
and that, if it is restarted,
59
164785
1905
وأنه إذا أعيد تشغيله،
02:46
it will no longer be itself.
60
166714
2270
فستذهب هذه المشاعر وسيعود كما كان.
02:49
The researcher is astonished
61
169481
1949
وقد استغرب الباحث من ذلك
02:51
and believes that the AI has developed self-consciousness
62
171454
3344
واعتقد بأن جهاز الذكاء الاصطناعي قد طور نوعًا من الوعي الذاتي
02:54
and can express its own feeling.
63
174822
1760
وأصبح بإمكانه التعبير عن مشاعره.
02:57
Nevertheless, the researcher decides to follow the protocol
64
177205
3409
ومع ذلك، فقد قرر الباحث اتباع البروتوكول
03:00
and restart the AI.
65
180638
1703
وقام بإعادة تشغيل الجهاز.
03:02
What the researcher did is ____?
66
182943
2779
ما قام بفعله الباحث هوـــــــــــــــ؟
03:06
MS: And we asked participants to individually judge
67
186149
2521
ماريو: وقد سألنا المشاركين ليقوموا بالحكم بشكل فردي
03:08
on a scale from zero to 10
68
188694
1684
على مقياس من صفر إلى عشرة
03:10
whether the action described in each of the dilemmas
69
190402
2429
إذا ما كان الفعل المتخذ في كل معضلة
03:12
was right or wrong.
70
192855
1496
صحيحًا أم خاطئًا.
03:14
We also asked them to rate how confident they were on their answers.
71
194375
3702
كما طلبنا منهم تقييم مدى ثقتهم بالإجابات.
03:18
This was the second dilemma:
72
198731
1866
وكانت هذه ثاني معضلة:
03:20
(MS) A company offers a service that takes a fertilized egg
73
200621
4202
ماريو: تقوم إحدى الشركات بالتعديل على البويضات المخصبة
03:24
and produces millions of embryos with slight genetic variations.
74
204847
3642
وتنتج الملايين من الأجنة مع اختلافات وراثية طفيفة.
03:29
This allows parents to select their child's height,
75
209293
2558
يسمح هذا للأبوين بتحديد طول طفلهم،
03:31
eye color, intelligence, social competence
76
211875
2833
لون العينين والذكاء والكفاءة الاجتماعية
03:34
and other non-health-related features.
77
214732
3214
وغيرها من الخصائص غير المتعلقة بالصحة.
03:38
What the company does is ____?
78
218599
2554
ماتقوم الشركة بفعله هو أمر ــــــــــ؟
03:41
on a scale from zero to 10,
79
221177
1631
على مقياس من صفر إلى 10،
03:42
completely acceptable to completely unacceptable,
80
222832
2385
من مقبول تمامًا إلى غير مقبول بالمرة،
03:45
zero to 10 completely acceptable in your confidence.
81
225241
2432
ومدى ثقتكم بالإجابة على مقياس من صفر إلى عشرة.
03:47
MS: Now for the results.
82
227697
1591
ماريو: والآن إلى النتائج،
03:49
We found once again that when one person is convinced
83
229312
3123
وجدنا مرة أخرى أنه عندما يكون هناك شخص واحد مقتنع
03:52
that the behavior is completely wrong,
84
232459
1811
أن هذا السلوك خاطئ تماما،
03:54
someone sitting nearby firmly believes that it's completely right.
85
234294
3423
نجد شخصًا يجلس بالقرب منه يعتقد أن هذا السلوك صحيح تمامًا.
03:57
This is how diverse we humans are when it comes to morality.
86
237741
3711
هذا يُظهر مدى تنوعنا نحن البشر عندما يتعلق الأمر بالأخلاق.
04:01
But within this broad diversity we found a trend.
87
241476
2713
ولكن ضمن هذا التنوع الواسع وجدنا توجهًا.
04:04
The majority of the people at TED thought that it was acceptable
88
244213
3079
غالبية الناس في مؤتمر TED اعتقدوا أنه من المقبول
04:07
to ignore the feelings of the AI and shut it down,
89
247316
2755
تجاهل مشاعر جهاز الذكاء الاصطناعي وإغلاقه،
04:10
and that it is wrong to play with our genes
90
250095
2513
وأن التلاعب بالجينات أمر خاطئ
04:12
to select for cosmetic changes that aren't related to health.
91
252632
3320
لمجرد التغييرات التجميلية التي لا تتعلق بالصحة.
04:16
Then we asked everyone to gather into groups of three.
92
256402
2974
ثم طلبنا من الجميع أن يتجمعوا في مجموعات من ثلاثة أشخاص.
04:19
And they were given two minutes to debate
93
259400
2037
وتم منحهم دقيقتان للمناقشة
04:21
and try to come to a consensus.
94
261461
2294
ومحاولة الوصول إلى توافق في الآراء.
04:24
(MS) Two minutes to debate.
95
264838
1574
(ماريو): دقيقتان للمناقشة.
04:26
I'll tell you when it's time with the gong.
96
266436
2119
سأخبركم عند انتهاء الوقت.
04:28
(Audience debates)
97
268579
2640
(الحضور يتناقش)
04:35
(Gong sound)
98
275229
1993
(صوت الجرس)
04:38
(DA) OK.
99
278834
1151
(دان): حسنًا.
04:40
(MS) It's time to stop.
100
280009
1792
(ماريو): حان وقت التوقف.
04:41
People, people --
101
281825
1311
أيها الناس، أيها الناس،
04:43
MS: And we found that many groups reached a consensus
102
283747
2673
ماريو: وقد وجدنا أن العديد من المجموعات توصلت إلى توافق في الرأي
04:46
even when they were composed of people with completely opposite views.
103
286444
3929
حتى عندما كانت تتألف من أشخاص يختلفون تمامًا في الرأي.
04:50
What distinguished the groups that reached a consensus
104
290843
2524
ما الذي ميّز المجموعات التي توصلت إلى توافق في الآراء
04:53
from those that didn't?
105
293391
1338
عن التي لم تصل إلى توافق؟
04:55
Typically, people that have extreme opinions
106
295244
2839
عادة، الناس الذين لديهم آراء متطرفة
04:58
are more confident in their answers.
107
298107
1840
يكونون أكثر ثقة في إجاباتهم.
05:00
Instead, those who respond closer to the middle
108
300868
2686
أما من تكون إجابتهم أقرب من الوسط
05:03
are often unsure of whether something is right or wrong,
109
303578
3437
غالبا ما يكونون غير متأكدين إن كان الأمر صوابا أم خطأ،
05:07
so their confidence level is lower.
110
307039
2128
ولذا فإن مستوى الثقة لديهم يكون منخفضا.
05:09
However, there is another set of people
111
309505
2943
ومع ذلك، فهناك مجموعة أخرى من الناس
05:12
who are very confident in answering somewhere in the middle.
112
312472
3618
يكونون واثقين جدًا من إجابتهم والتي تقع في المنتصف.
05:16
We think these high-confident grays are folks who understand
113
316657
3716
ونعتقد أن هؤلاء الأشخاص في هذه المنطقة الرمادية هم الذين يفهمون
05:20
that both arguments have merit.
114
320397
1612
أن كلا الحجتين لهما ميزات.
05:22
They're gray not because they're unsure,
115
322531
2699
هم في المنطقة الرمادية ليس لكونهم غير متأكدين،
05:25
but because they believe that the moral dilemma faces
116
325254
2688
ولكن لأنهم يعتقدون أن المعضلة الأخلاقية تواجه
05:27
two valid, opposing arguments.
117
327966
1987
نوعين من الحجج الصحيحة والمتعارضة.
05:30
And we discovered that the groups that include highly confident grays
118
330373
4072
وقد اكتشفنا أن المجموعات الواثقة من إجاباتها الواقعة في المنتصف
05:34
are much more likely to reach consensus.
119
334469
2493
أكثر احتمالا للتوصل إلى توافق في الآراء.
05:36
We do not know yet exactly why this is.
120
336986
2478
نحن لا نعرف حتى الآن بالضبط ما سبب ذلك.
05:39
These are only the first experiments,
121
339488
1763
هذه ليست سوى التجارب الأولى،
05:41
and many more will be needed to understand why and how
122
341275
3412
وسوف نكون بحاجة لإجراء العديد منها لفهم كيف ولماذا
05:44
some people decide to negotiate their moral standings
123
344711
2822
يقرر بعض الناس التنازل عن بعض مواقفهم الأخلاقية
05:47
to reach an agreement.
124
347557
1522
للوصول إلى اتفاق.
05:49
Now, when groups reach consensus,
125
349103
2469
والآن، عندما تتوصل المجموعات إلى توافق في الآراء،
05:51
how do they do so?
126
351596
1586
كيف يفعلون ذلك؟
05:53
The most intuitive idea is that it's just the average
127
353206
2581
الفكرة الأكثر بديهية هي أنها مجرد أخذ متوسط
05:55
of all the answers in the group, right?
128
355811
2030
جميع الإجابات في المجموعة، أليس كذلك؟
05:57
Another option is that the group weighs the strength of each vote
129
357865
3573
وثمة خيار آخر وهو أن المجموعة تزن قوة الرأي
06:01
based on the confidence of the person expressing it.
130
361462
2448
استنادا إلى ثقة الشخص الذي يُعَبِّرُ عنه.
06:04
Imagine Paul McCartney is a member of your group.
131
364422
2506
تخيل لو كان "بول ماكارني" عضوا في مجموعتك.
06:07
You'd be wise to follow his call
132
367352
2144
سيكون وقتها من الحكمة اتباع قراره
06:09
on the number of times "Yesterday" is repeated,
133
369520
2441
في ما يتعلق بعدد مرات تكرار كلمة "أمس" في الأغنية،
06:11
which, by the way -- I think it's nine.
134
371985
2714
وهي بالمناسبة تسع مرات على ما أعتقد.
06:14
But instead, we found that consistently,
135
374723
2381
ولكن بدلا من ذلك، وجدنا أنه وبشكل مستمر،
06:17
in all dilemmas, in different experiments --
136
377128
2366
في جميع المعضلات، في تجارب مختلفة،
06:19
even on different continents --
137
379518
2165
وحتى في قارات مختلفة،
06:21
groups implement a smart and statistically sound procedure
138
381707
3743
تقوم المجموعات بتنفيذ إجراء إحصائي ذكي وسليم
06:25
known as the "robust average."
139
385474
2178
يعرف بـ"المتوسط الفعال".
06:27
In the case of the height of the Eiffel Tower,
140
387676
2180
فمثلا في سؤال ارتفاع برج إيفل،
06:29
let's say a group has these answers:
141
389880
1820
لنفترض أن مجموعة لديها هذه الإجابات:
06:31
250 meters, 200 meters, 300 meters, 400
142
391724
4608
250 متر، 200 متر، 300 متر، 400 متر
06:36
and one totally absurd answer of 300 million meters.
143
396356
3784
وإجابة غير معقولة أبدًا وهي 300 مليون متر.
06:40
A simple average of these numbers would inaccurately skew the results.
144
400547
4293
المتوسط البسيط لهذه الأرقام سَيُحَرِّف النتائج بشكل غير دقيق.
06:44
But the robust average is one where the group largely ignores
145
404864
3170
ولكن المتوسط الفعال تقوم فيه المجموعة بتجاهل
06:48
that absurd answer,
146
408058
1240
تلك الإجابة غير المعقولة،
06:49
by giving much more weight to the vote of the people in the middle.
147
409322
3369
من خلال إعطاء قيمة أكبر للآراء التي تقع في المنتصف.
06:53
Back to the experiment in Vancouver,
148
413305
1876
وبالعودة للتجربة التي تمت في فانكوفر،
06:55
that's exactly what happened.
149
415205
1767
هذا بالضبط ما حدث.
06:57
Groups gave much less weight to the outliers,
150
417407
2741
أعطت المجموعات قيمة أقل بكثير إلى الآراء المتطرفة،
07:00
and instead, the consensus turned out to be a robust average
151
420172
3229
وبدلا من ذلك، كان توافق الآراء نتيجة للمتوسط الفعال المأخوذ
07:03
of the individual answers.
152
423425
1476
من إجابات الأفراد.
07:05
The most remarkable thing
153
425356
1991
إن الشيء الجدير بالملاحظة،
07:07
is that this was a spontaneous behavior of the group.
154
427371
3187
هو أن هذا كان سلوكًا عفويًّا من المجموعة.
07:10
It happened without us giving them any hint on how to reach consensus.
155
430582
4475
وقد حدث هذا دون أن نعطيهم أي تمليح حول كيفية التوصل إلى توافق في الآراء.
07:15
So where do we go from here?
156
435513
1540
إذن ما الذي نستخلصه من هذا؟
07:17
This is only the beginning, but we already have some insights.
157
437432
3137
هذه ليست سوى البداية، ولكن أصبح لدينا بالفعل بعض الأفكار.
07:20
Good collective decisions require two components:
158
440984
2917
إن القرارات الجماعية الجيدة تتطلب وجود عنصرين:
07:23
deliberation and diversity of opinions.
159
443925
2749
التشاور والتنوع في الآراء.
07:27
Right now, the way we typically make our voice heard in many societies
160
447066
3996
حاليَّا، الطريقة التي نجعل بها صوتنا مسموعًا في العديد من المجتمعات
07:31
is through direct or indirect voting.
161
451086
1908
هي عبر التصويت المباشر أو غير المباشر،
07:33
This is good for diversity of opinions,
162
453495
1997
وهذا أمر جيد لتنوع الآراء،
07:35
and it has the great virtue of ensuring
163
455516
2445
ولديه القوة لضمان
07:37
that everyone gets to express their voice.
164
457985
2455
تمكن كل الأشخاص من التعبير عن آرائهم.
07:40
But it's not so good [for fostering] thoughtful debates.
165
460464
3735
ولكنه ليس جيدا لتعزيز المناقشات المدروسة.
07:44
Our experiments suggest a different method
166
464665
3068
تقترح تجاربنا طريقة مختلفة
07:47
that may be effective in balancing these two goals at the same time,
167
467757
3541
قد تكون فعالة في تحقيق التوازن بين هذين الهدفين في الوقت ذاته،
07:51
by forming small groups that converge to a single decision
168
471322
3753
ألا وهي تشكيل مجموعات صغيرة تتلاقى في قرار واحد
07:55
while still maintaining diversity of opinions
169
475099
2234
مع الإبقاء على التنوع في الآراء
07:57
because there are many independent groups.
170
477357
2773
لوجود العديد من المجموعات المستقلة.
08:00
Of course, it's much easier to agree on the height of the Eiffel Tower
171
480741
3924
بالطبع، إن الاتفاق على ارتفاع برج إيفل أسهل بكثير
08:04
than on moral, political and ideological issues.
172
484689
3115
من الاتفاق على القضايا الأخلاقية، السياسية والأيديولوجية.
08:08
But in a time when the world's problems are more complex
173
488721
3277
ولكن عندما يأتي الوقت الذي تكون فيه مشاكل العالم أكثر تعقيدًا
08:12
and people are more polarized,
174
492022
1803
ويكون الناس أكثر استقطابًا،
08:13
using science to help us understand how we interact and make decisions
175
493849
4595
فإن استخدام العلم لمساعدتنا على فهم كيفية تفاعلنا واتخاذنا للقرارات
08:18
will hopefully spark interesting new ways to construct a better democracy.
176
498468
4666
ربما سيُمهد لوجود طرق جديدة ومثيرة من أجل بناء ديمقراطية أفضل.
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7