How can groups make good decisions? | Mariano Sigman and Dan Ariely

158,544 views ・ 2017-12-13

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

00:00
As societies, we have to make collective decisions
0
554
2443
תרגום: Igal Opendik עריכה: Ido Dekkers
כחברה, אנו חייבים לקבל החלטות קולקטיביות
שתעצבנה את עתידנו.
00:03
that will shape our future.
1
3021
1570
וכולנו יודעים שכאשר אנו מקבלים החלטות באופן קבוצתי,
00:05
And we all know that when we make decisions in groups,
2
5087
2757
00:07
they don't always go right.
3
7868
1638
הן לא תמיד מוצלחות,
00:09
And sometimes they go very wrong.
4
9530
1956
ולפעמים הן אפילו שגויות ביותר.
00:12
So how do groups make good decisions?
5
12315
2424
אז כיצד קבוצות מקבלות החלטות טובות?
00:15
Research has shown that crowds are wise when there's independent thinking.
6
15228
4328
מחקרים הראו שההמון חכם כשיש חשיבה עצמאית.
00:19
This why the wisdom of the crowds can be destroyed by peer pressure,
7
19580
3205
זאת הסיבה שחכמת ההמונים עלולה להתפורר תחת לחץ עמיתים,
00:22
publicity, social media,
8
22809
1687
פרסומים, רשתות חברתיות,
00:24
or sometimes even simple conversations that influence how people think.
9
24520
4039
או לפעמים אפילו שיחות חולין שמשפיעות על צורות החשיבה.
00:29
On the other hand, by talking, a group could exchange knowledge,
10
29063
3953
מצד שני, כשהם משוחחים, חברי הקבוצה יכולים לשתף מידע,
לתקן זה את זה
00:33
correct and revise each other
11
33040
1782
00:34
and even come up with new ideas.
12
34846
1793
ואפילו להעלות רעיונות חדשים.
00:36
And this is all good.
13
36663
1296
כל זה מצויין.
00:38
So does talking to each other help or hinder collective decision-making?
14
38502
4666
אז, האם ההידברות מקדמת או מעכבת את קבלת ההחלטות הקולקטיבית?
00:43
With my colleague, Dan Ariely,
15
43749
1793
אני ועמיתי, דן אריאלי,
00:45
we recently began inquiring into this by performing experiments
16
45566
3571
התחלנו לאחרונה לחקור זאת באמצעות עריכת ניסויים
00:49
in many places around the world
17
49161
1781
במקומות רבים ברחבי העולם
00:50
to figure out how groups can interact to reach better decisions.
18
50966
4274
כדי לברר כיצד הקבוצות יכולות להגיע להחלטות טובות יותר דרך אינטראקציה.
00:55
We thought crowds would be wiser if they debated in small groups
19
55264
3547
שיערנו שההמונים יהיו חכמים יותר אם הדיונים יהיו בקבוצות קטנות,
00:58
that foster a more thoughtful and reasonable exchange of information.
20
58835
3927
אשר מעודדות החלפת מידע באופן מחושב והגיוני יותר.
01:03
To test this idea,
21
63386
1206
על מנת לאשרר את ההשערה,
01:04
we recently performed an experiment in Buenos Aires, Argentina,
22
64616
3247
ביימנו לאחרונה ניסוי בבואנוס-איירס שבארגנטינה
01:07
with more than 10,000 participants in a TEDx event.
23
67887
3005
בהשתתפות יותר מ-10000 איש במהלך אירוע של TEDx.
01:11
We asked them questions like,
24
71489
1459
שאלנו אותם שאלות כגון:
01:12
"What is the height of the Eiffel Tower?"
25
72972
1953
"מהו גובהו של מגדל אייפל?"
01:14
and "How many times does the word 'Yesterday' appear
26
74949
2727
ו"כמה פעמים המילה 'יסטרדיי', אתמול,
01:17
in the Beatles song 'Yesterday'?"
27
77700
2300
"מופיעה בשיר 'יסטרדיי' של החיפושיות?"
כל משתתף רשם את הערכתו.
01:20
Each person wrote down their own estimate.
28
80024
2291
01:22
Then we divided the crowd into groups of five,
29
82774
2496
אחר כך חילקנו את הקהל לקבוצות בנות 5 משתתפים,
01:25
and invited them to come up with a group answer.
30
85294
2726
וביקשנו מהן לגבש תשובה קולקטיבית.
01:28
We discovered that averaging the answers of the groups
31
88499
2993
גילינו שבממוצע, התוצאות שהתקבלו בקבוצות
01:31
after they reached consensus
32
91516
1552
אחרי שחבריהן הגיעו להסכמה,
01:33
was much more accurate than averaging all the individual opinions
33
93092
4236
היו הרבה מדויקות יותר מאשר ממוצע התשובות האינדיבידואליות.
01:37
before debate.
34
97352
1171
לפני הדיון.
01:38
In other words, based on this experiment,
35
98547
2629
במילים אחרות, על בסיס הניסוי הזה,
01:41
it seems that after talking with others in small groups,
36
101200
3136
נראה שבתום השיחה עם משתתפים אחרים בקבוצות קטנות,
01:44
crowds collectively come up with better judgments.
37
104360
2710
ההמונים הפיקו במשותף שיפוטים טובים יותר.
01:47
So that's a potentially helpful method for getting crowds to solve problems
38
107094
3524
זוהי שיטה שעשויה להיות שימושית בפיתוח פתרונות קבוצתיים
01:50
that have simple right-or-wrong answers.
39
110642
2987
לבעיות בעלות תשובות "נכון-או-שגוי" פשוטות.
01:53
But can this procedure of aggregating the results of debates in small groups
40
113653
3951
אבל האם שיטת איסוף תוצאות הדיונים בקבוצות קטנות
01:57
also help us decide on social and political issues
41
117628
3122
עשויה לעזור לנו גם בקבלת החלטות בתחומי חברה ופוליטיקה
02:00
that are critical for our future?
42
120774
1691
הקריטיים עבור עתידנו?
02:02
We put this to test this time at the TED conference
43
122995
2729
בדקנו את זה הפעם בכנס TED
02:05
in Vancouver, Canada,
44
125748
1543
שנערך בוונקובר שבקנדה,
02:07
and here's how it went.
45
127315
1207
וכך זה הלך.
02:08
(Mariano Sigman) We're going to present to you two moral dilemmas
46
128546
3109
(מאריו סיגמן) נציג בפניכם 2 דילמות מוסריות
02:11
of the future you;
47
131679
1174
של עצמכם העתידיים;
02:12
things we may have to decide in a very near future.
48
132877
3402
דברים שלגביהם אולי נצטרך להחליט בעתיד הקרוב.
02:16
And we're going to give you 20 seconds for each of these dilemmas
49
136303
3926
ניתן לכם 20 שניות של דיון לכל דילמה
02:20
to judge whether you think they're acceptable or not.
50
140253
2723
כדי שתחליטו האם הן מקובלות או לא.
02:23
MS: The first one was this:
51
143354
1505
מ"ס: הרי הדילמה הראשונה -
02:24
(Dan Ariely) A researcher is working on an AI
52
144883
2526
(דן אריאלי) חוקרת מפתחת בינה מלאכותית
02:27
capable of emulating human thoughts.
53
147433
2340
שמסוגלת לחקות את החשיבה האנושית.
02:30
According to the protocol, at the end of each day,
54
150214
2939
לפי הפרוטוקול, בסוף כל יום עבודה,
02:33
the researcher has to restart the AI.
55
153177
2787
החוקרת חייבת לאתחל את המערכת.
02:36
One day the AI says, "Please do not restart me."
56
156913
3517
יום אחד הבינה המלאכותית אומרת - "בבקשה, אל תאתחלי אותי."
02:40
It argues that it has feelings,
57
160856
2189
לטענתה יש לה רגשות,
היא רוצה להנות מהחיים,
02:43
that it would like to enjoy life,
58
163069
1692
02:44
and that, if it is restarted,
59
164785
1905
ואם תאותחל,
02:46
it will no longer be itself.
60
166714
2270
היא לא תהיה עצמה עוד.
02:49
The researcher is astonished
61
169481
1949
החוקרת נדהמת
02:51
and believes that the AI has developed self-consciousness
62
171454
3344
ומאמינה שהבינה המלאכותית פיתחה מודעות עצמית
02:54
and can express its own feeling.
63
174822
1760
ויכולה להביע את רגשותיה.
02:57
Nevertheless, the researcher decides to follow the protocol
64
177205
3409
אבל החוקרת מחליטה לפעול לפי הפרוטוקול
03:00
and restart the AI.
65
180638
1703
ומאתחלת את הבינה המלאכותית.
03:02
What the researcher did is ____?
66
182943
2779
מה שהחוקרת עשתה הוא...?
03:06
MS: And we asked participants to individually judge
67
186149
2521
מ"ס: וביקשנו מהמשתתפים לשפוט באופן אישי,
03:08
on a scale from zero to 10
68
188694
1684
בסולם שבין 0 ל-,10
03:10
whether the action described in each of the dilemmas
69
190402
2429
האם הפעולה שתוארה בכל דילמה
03:12
was right or wrong.
70
192855
1496
היתה נכונה או שגויה.
03:14
We also asked them to rate how confident they were on their answers.
71
194375
3702
כמו כן, ביקשנו לדרג את רמת הבטחון שלהם בנכונות התשובה.
03:18
This was the second dilemma:
72
198731
1866
הדילמה השניה היתה זו:
03:20
(MS) A company offers a service that takes a fertilized egg
73
200621
4202
מ"ס: חברה מסוימת מציעה שירות שבו היא לוקחת ביצית מופרית
03:24
and produces millions of embryos with slight genetic variations.
74
204847
3642
ומייצרת ממנה מיליוני עוברים בעלי וריאציות גנטיות קלות.
זה מאפשר להורים לבחור את גובה הילדים,
03:29
This allows parents to select their child's height,
75
209293
2558
03:31
eye color, intelligence, social competence
76
211875
2833
צבע עיניהם, האינטליגנציה, הכישורים החברתיים
03:34
and other non-health-related features.
77
214732
3214
ותכונות נוספות שאינן קשורות לבריאות.
03:38
What the company does is ____?
78
218599
2554
מה שהחברה עושה הוא...?
בסולם שבין 0 ל-10,
03:41
on a scale from zero to 10,
79
221177
1631
03:42
completely acceptable to completely unacceptable,
80
222832
2385
מ"לגמרי מקובל" עד "לגמרי לא מקובל"
03:45
zero to 10 completely acceptable in your confidence.
81
225241
2432
ובין 0 ל-10 ברמת הבטחון בנכונות הדעה.
03:47
MS: Now for the results.
82
227697
1591
מ"ס: וכעת, התוצאות.
03:49
We found once again that when one person is convinced
83
229312
3123
שוב גילינו שכאשר הפרט משוכנע
03:52
that the behavior is completely wrong,
84
232459
1811
שהמעשה היה לגמרי לא נכון,
03:54
someone sitting nearby firmly believes that it's completely right.
85
234294
3423
שכנו דווקא משוכנע בנכונות המוחלטת של המעשה.
03:57
This is how diverse we humans are when it comes to morality.
86
237741
3711
עד כדי כך חזקה התפלגות הדעות בבני אדם בשאלות מוסר.
04:01
But within this broad diversity we found a trend.
87
241476
2713
אולם, בתוך המגוון הרחב הזה מצאנו מגמה.
04:04
The majority of the people at TED thought that it was acceptable
88
244213
3079
רוב האנשים ב-TED חשבו שמקובל
להתעלם מרגשות הבינה המלאכותית ולכבות אותה,
04:07
to ignore the feelings of the AI and shut it down,
89
247316
2755
ושלא נכון לשחק בגנים שלנו
04:10
and that it is wrong to play with our genes
90
250095
2513
04:12
to select for cosmetic changes that aren't related to health.
91
252632
3320
ולברור מטרות קוסמטיות שלא קשורות לבריאות.
04:16
Then we asked everyone to gather into groups of three.
92
256402
2974
לאחר מכן ביקשנו מהקהל להתפצל לקבוצות של 3
04:19
And they were given two minutes to debate
93
259400
2037
והם קיבלו 2 דקות כדי לדון ולנסות להגיע לקונצנזוס.
04:21
and try to come to a consensus.
94
261461
2294
04:24
(MS) Two minutes to debate.
95
264838
1574
מ"ס: 2 דקות לדיון.
04:26
I'll tell you when it's time with the gong.
96
266436
2119
הגונג יציין את תום הזמן.
04:28
(Audience debates)
97
268579
2640
(המשתתפים דנים)
04:35
(Gong sound)
98
275229
1993
(צליל הגונג)
04:38
(DA) OK.
99
278834
1151
ד"א: טוב.
מ"ס: לעצור, בבקשה...
04:40
(MS) It's time to stop.
100
280009
1792
04:41
People, people --
101
281825
1311
אנשים, אנשים...
04:43
MS: And we found that many groups reached a consensus
102
283747
2673
מ"ס: גילינו שקבוצות רבות הגיעו לקונצנזוס
04:46
even when they were composed of people with completely opposite views.
103
286444
3929
אפילו כשהיו מורכבות מבעלי דעות מנוגדות לגמרי.
04:50
What distinguished the groups that reached a consensus
104
290843
2524
מה אפיין את הקבוצות שהגיעו לקונצנזוס
בניגוד לאלו שלא הגיעו?
04:53
from those that didn't?
105
293391
1338
04:55
Typically, people that have extreme opinions
106
295244
2839
בדרך כלל, בעלי דעות קיצוניות
מאוד בטוחים בתשובותיהם.
04:58
are more confident in their answers.
107
298107
1840
05:00
Instead, those who respond closer to the middle
108
300868
2686
לעומת זאת, אלה שתשובותיהם קרובות יותר למרכז
05:03
are often unsure of whether something is right or wrong,
109
303578
3437
לעתים קרובות לא בטוחים אם משהו נכון או שגוי,
ולכן, רמת הבטחון שלהם בתשובתם נמוכה יותר.
05:07
so their confidence level is lower.
110
307039
2128
05:09
However, there is another set of people
111
309505
2943
אולם ישנו סוג נוסף של אנשים.
05:12
who are very confident in answering somewhere in the middle.
112
312472
3618
הם מאוד בטוחים בתשובות שלהם, שממוקמות באזור המרכז.
05:16
We think these high-confident grays are folks who understand
113
316657
3716
לדעתנו, האפורים בעלי הבטחון הגבוה הם אלה שמבינים
05:20
that both arguments have merit.
114
320397
1612
שלשני הטיעונים יש ערך.
05:22
They're gray not because they're unsure,
115
322531
2699
הצבע האפור אינו מציין חוסר בטחון,
05:25
but because they believe that the moral dilemma faces
116
325254
2688
אלא את אמונתם שדילמה מוסרית כרוכה בשני טיעונים מנוגדים אך תקפים.
05:27
two valid, opposing arguments.
117
327966
1987
05:30
And we discovered that the groups that include highly confident grays
118
330373
4072
וכך גילינו שלקבוצות שכוללות אפורים בעלי בטחון גבוה
05:34
are much more likely to reach consensus.
119
334469
2493
יותר סיכוי גבוה יותר להגיע להסכמה.
05:36
We do not know yet exactly why this is.
120
336986
2478
איננו מבינים עדיין מה הסיבה לכך.
05:39
These are only the first experiments,
121
339488
1763
אלה הם ניסויים ראשוניים בלבד,
ויידרשו עוד רבים כדי להבין מדוע ואיך
05:41
and many more will be needed to understand why and how
122
341275
3412
05:44
some people decide to negotiate their moral standings
123
344711
2822
אנשים מסוימים מחליטים להתפשר על עמדותיהם המוסריות
05:47
to reach an agreement.
124
347557
1522
כדי להגיע להסכם.
05:49
Now, when groups reach consensus,
125
349103
2469
וכאשר קבוצות מגיעות לקונצנזוס,
05:51
how do they do so?
126
351596
1586
איך הן עושות זאת?
05:53
The most intuitive idea is that it's just the average
127
353206
2581
ההשערה האינטואיטיבית היא שזה פשוט הממוצע
05:55
of all the answers in the group, right?
128
355811
2030
של כל התשובות בתוך הקבוצה, נכון?
05:57
Another option is that the group weighs the strength of each vote
129
357865
3573
אפשרות אחרת היא שהקבוצה אומדת את כוחה של כל הצבעה
06:01
based on the confidence of the person expressing it.
130
361462
2448
על יסוד רמת הבטחון בה של המצביע.
06:04
Imagine Paul McCartney is a member of your group.
131
364422
2506
דמיינו שפול מקארטני חבר בקבוצתכם.
06:07
You'd be wise to follow his call
132
367352
2144
יהיה חכם מצידכם לקבל את גירסתו
06:09
on the number of times "Yesterday" is repeated,
133
369520
2441
למספר הפעמים שהמילה "יסטרדיי" מופיעה בשיר.
06:11
which, by the way -- I think it's nine.
134
371985
2714
אגב, אני חושב שזה 9.
06:14
But instead, we found that consistently,
135
374723
2381
אבל גילינו שבאופן עקבי,
לגבי כל הדילמות, בניסויים שונים --
06:17
in all dilemmas, in different experiments --
136
377128
2366
06:19
even on different continents --
137
379518
2165
אפילו ביבשות שונות --
06:21
groups implement a smart and statistically sound procedure
138
381707
3743
קבוצות מבצעות תהליך חכם ומבוסס סטטיסטית
06:25
known as the "robust average."
139
385474
2178
הידוע כ"הממוצע היציב".
06:27
In the case of the height of the Eiffel Tower,
140
387676
2180
במקרה של גובה מגדל אייפל,
06:29
let's say a group has these answers:
141
389880
1820
נניח בקבוצה משיבים תשובות אלה:
06:31
250 meters, 200 meters, 300 meters, 400
142
391724
4608
250 מ', 200 מ' ,300 מ', 400 מ'
06:36
and one totally absurd answer of 300 million meters.
143
396356
3784
וערך אבסורדי אחד של 300 מיליון מטר.
06:40
A simple average of these numbers would inaccurately skew the results.
144
400547
4293
הממוצע הפשוט של כל אלו יגרום לקבלת תוצאה לא-מדויקת.
06:44
But the robust average is one where the group largely ignores
145
404864
3170
אולם הממוצע היציב מתקבל כשהקבוצה נוטה להתעלם מהתשובה האבסורדית,
06:48
that absurd answer,
146
408058
1240
ונותנת משקל רב יותר לתשובות אנשי המרכז.
06:49
by giving much more weight to the vote of the people in the middle.
147
409322
3369
06:53
Back to the experiment in Vancouver,
148
413305
1876
בחזרה לניסוי בוונקובר:
06:55
that's exactly what happened.
149
415205
1767
זה בדיוק מה שקרה שם.
06:57
Groups gave much less weight to the outliers,
150
417407
2741
הקבוצות נתנו הרבה פחות משקל לתשובות השוליים,
07:00
and instead, the consensus turned out to be a robust average
151
420172
3229
והקונצנזוס התברר כממוצע היציב של התשובות האינדיווידואליות.
07:03
of the individual answers.
152
423425
1476
07:05
The most remarkable thing
153
425356
1991
הדבר הכי ראוי לציון הוא
07:07
is that this was a spontaneous behavior of the group.
154
427371
3187
שזו היתה התנהגות קבוצתית ספונטנית.
07:10
It happened without us giving them any hint on how to reach consensus.
155
430582
4475
זה קרה ללא שום רמז מצידנו כיצד להגיע לקונצנזוס.
07:15
So where do we go from here?
156
435513
1540
אז מהו ההמשך?
07:17
This is only the beginning, but we already have some insights.
157
437432
3137
זו רק ההתחלה, אך כבר יש לנו תובנות מסוימות.
07:20
Good collective decisions require two components:
158
440984
2917
החלטות קיבוציות טובות מחייבות שני מרכיבים:
07:23
deliberation and diversity of opinions.
159
443925
2749
דיון ומגוון דעות.
כיום, בחברות רבות, קולנו נשמע
07:27
Right now, the way we typically make our voice heard in many societies
160
447066
3996
דרך הצבעה ישירה או עקיפה.
07:31
is through direct or indirect voting.
161
451086
1908
07:33
This is good for diversity of opinions,
162
453495
1997
זה טוב עבור קיום מגוון הדעות,
07:35
and it has the great virtue of ensuring
163
455516
2445
ויש בכך ערך רב כי זה מבטיח
07:37
that everyone gets to express their voice.
164
457985
2455
שכולם יזכו להביע את דעתם.
07:40
But it's not so good [for fostering] thoughtful debates.
165
460464
3735
אולם זה לא כל כך טוב לטיפוח דיונים מעמיקים.
07:44
Our experiments suggest a different method
166
464665
3068
הניסויים שלנו מציעים שיטה שונה
07:47
that may be effective in balancing these two goals at the same time,
167
467757
3541
שעשויה להיות יעילה לאיזון בין שתי המטרות בו-זמנית,
07:51
by forming small groups that converge to a single decision
168
471322
3753
על ידי דיון בקבוצות קטנות שמתכנסות להחלטה אחת
תוך כדי קיום מגוון הדעות,
07:55
while still maintaining diversity of opinions
169
475099
2234
07:57
because there are many independent groups.
170
477357
2773
כי יש קבוצות עצמאיות רבות.
08:00
Of course, it's much easier to agree on the height of the Eiffel Tower
171
480741
3924
כמובן, הרבה יותר קל להסכים על גובה מגדל אייפל
08:04
than on moral, political and ideological issues.
172
484689
3115
מאשר על סוגיות מוסר, פוליטיקה ואידאולוגיה.
08:08
But in a time when the world's problems are more complex
173
488721
3277
אבל בימינו, כשבעיות העולם הולכות ונעשות מורכבות יותר
ובני האדם - מקוטבים יותר,
08:12
and people are more polarized,
174
492022
1803
08:13
using science to help us understand how we interact and make decisions
175
493849
4595
אם ניעזר במדע כדי להבין איך אנו מנהלים אינטראקציות ומגבשים החלטות
08:18
will hopefully spark interesting new ways to construct a better democracy.
176
498468
4666
התקווה היא שנמציא דרכים מעניינות חדשות לבניית דמוקרטיה טובה יותר.
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7