How can groups make good decisions? | Mariano Sigman and Dan Ariely

158,544 views ・ 2017-12-13

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

00:00
As societies, we have to make collective decisions
0
554
2443
Переводчик: Alena Globa Редактор: Ekaterina Shipatova
Как общество мы должны вместе принимать решения,
00:03
that will shape our future.
1
3021
1570
которые определяют наше будущее.
00:05
And we all know that when we make decisions in groups,
2
5087
2757
И всем известно, что решения, принятые группой,
00:07
they don't always go right.
3
7868
1638
не всегда оказываются правильными.
00:09
And sometimes they go very wrong.
4
9530
1956
А иногда и полностью ошибочными.
00:12
So how do groups make good decisions?
5
12315
2424
Так как же группы принимают правильные решения?
00:15
Research has shown that crowds are wise when there's independent thinking.
6
15228
4328
Исследования показали, что толпа умнее, когда есть возможность мыслить независимо.
00:19
This why the wisdom of the crowds can be destroyed by peer pressure,
7
19580
3205
Поэтому мудрость толпы может быть уничтожена давлением со стороны,
00:22
publicity, social media,
8
22809
1687
рекламой, социальными сетями,
00:24
or sometimes even simple conversations that influence how people think.
9
24520
4039
а иногда даже простым разговором, влияющим на мнения людей.
00:29
On the other hand, by talking, a group could exchange knowledge,
10
29063
3953
С другой стороны, разговоры позволяют группе обмениваться знаниями,
00:33
correct and revise each other
11
33040
1782
поправлять друг друга
00:34
and even come up with new ideas.
12
34846
1793
и даже придумывать что-то новое.
00:36
And this is all good.
13
36663
1296
Всё это хорошо.
00:38
So does talking to each other help or hinder collective decision-making?
14
38502
4666
Итак, разговоры помогают или препятствуют коллективному принятию решений?
00:43
With my colleague, Dan Ariely,
15
43749
1793
Я и мой коллега Дэн Ариэли
00:45
we recently began inquiring into this by performing experiments
16
45566
3571
недавно начали выяснять это путем экспериментов
00:49
in many places around the world
17
49161
1781
в разных местах по всему миру,
00:50
to figure out how groups can interact to reach better decisions.
18
50966
4274
чтобы узнать, как группы могут влиять друг на друга для принятия лучших решений.
00:55
We thought crowds would be wiser if they debated in small groups
19
55264
3547
Мы подумали, что толпа будет умнее, если разделить её на маленькие группы,
00:58
that foster a more thoughtful and reasonable exchange of information.
20
58835
3927
которые поспособствуют более продуманному и разумному обмену информацией.
01:03
To test this idea,
21
63386
1206
Чтобы проверить эту идею,
01:04
we recently performed an experiment in Buenos Aires, Argentina,
22
64616
3247
мы недавно провели эксперимент в Буэнос-Айресе, Аргентина,
01:07
with more than 10,000 participants in a TEDx event.
23
67887
3005
с более чем 10 000 участников TEDx.
01:11
We asked them questions like,
24
71489
1459
Мы задавали им такие вопросы:
01:12
"What is the height of the Eiffel Tower?"
25
72972
1953
«Какова высота Эйфелевой башни?» и
01:14
and "How many times does the word 'Yesterday' appear
26
74949
2727
«Сколько раз слово "yesterday" встречается
01:17
in the Beatles song 'Yesterday'?"
27
77700
2300
в песне The Beatles "Yesterday"?»
01:20
Each person wrote down their own estimate.
28
80024
2291
Каждый записывал свои собственные догадки.
01:22
Then we divided the crowd into groups of five,
29
82774
2496
Потом мы разделили всех на группы по пять человек
01:25
and invited them to come up with a group answer.
30
85294
2726
и попросили сформулировать общий ответ.
01:28
We discovered that averaging the answers of the groups
31
88499
2993
Мы обнаружили, что среднее значение ответов группы после того,
01:31
after they reached consensus
32
91516
1552
как в ней достигли соглашения,
01:33
was much more accurate than averaging all the individual opinions
33
93092
4236
было более точным, чем среднее значение всех индивидуальных мнений
01:37
before debate.
34
97352
1171
до обсуждения.
01:38
In other words, based on this experiment,
35
98547
2629
Другими словами, основываясь на эксперименте,
01:41
it seems that after talking with others in small groups,
36
101200
3136
кажется, что после обсуждения с другими людьми в малых группах
01:44
crowds collectively come up with better judgments.
37
104360
2710
люди коллективно пришли к лучшим решениям.
01:47
So that's a potentially helpful method for getting crowds to solve problems
38
107094
3524
Это потенциально полезный метод для группового решения вопросов,
01:50
that have simple right-or-wrong answers.
39
110642
2987
на которые можно ответить «правильно» или «неправильно».
01:53
But can this procedure of aggregating the results of debates in small groups
40
113653
3951
Но сможет ли эта процедура — обобщение результатов обсуждения в малых группах —
01:57
also help us decide on social and political issues
41
117628
3122
помочь нам решить политические и социальные проблемы,
02:00
that are critical for our future?
42
120774
1691
которые влияют на наше будущее?
02:02
We put this to test this time at the TED conference
43
122995
2729
Мы опробовали это на конференции TED
02:05
in Vancouver, Canada,
44
125748
1543
в Ванкувере, Канада,
02:07
and here's how it went.
45
127315
1207
и вот как всё прошло.
02:08
(Mariano Sigman) We're going to present to you two moral dilemmas
46
128546
3109
Марьяно Сигман: Мы представим вам две моральные дилеммы
02:11
of the future you;
47
131679
1174
вас в будущем;
02:12
things we may have to decide in a very near future.
48
132877
3402
возможно, очень скоро нам действительно придётся решать такие проблемы.
02:16
And we're going to give you 20 seconds for each of these dilemmas
49
136303
3926
Мы дадим вам 20 секунд на каждую из дилемм,
02:20
to judge whether you think they're acceptable or not.
50
140253
2723
чтобы вы решили, насколько они приемлемы.
02:23
MS: The first one was this:
51
143354
1505
МС: Первая дилемма:
02:24
(Dan Ariely) A researcher is working on an AI
52
144883
2526
Дэн Ариэли: Исследователь работает над ИИ,
02:27
capable of emulating human thoughts.
53
147433
2340
который будет способен мыслить как человек.
02:30
According to the protocol, at the end of each day,
54
150214
2939
Согласно протоколу, в конце каждого дня
02:33
the researcher has to restart the AI.
55
153177
2787
исследователь должен перезапускать ИИ.
02:36
One day the AI says, "Please do not restart me."
56
156913
3517
Однажды ИИ говорит: «Пожалуйста, не выключай меня».
02:40
It argues that it has feelings,
57
160856
2189
Он утверждает, что имеет чувства,
02:43
that it would like to enjoy life,
58
163069
1692
что он хочет наслаждаться жизнью
02:44
and that, if it is restarted,
59
164785
1905
и что, если его перезапустят,
02:46
it will no longer be itself.
60
166714
2270
он больше не сможет быть собой.
02:49
The researcher is astonished
61
169481
1949
Исследователь потрясён
02:51
and believes that the AI has developed self-consciousness
62
171454
3344
и верит, что ИИ развил самосознание
02:54
and can express its own feeling.
63
174822
1760
и способен выражать свои чувства.
02:57
Nevertheless, the researcher decides to follow the protocol
64
177205
3409
Тем не менее, исследователь решает последовать протоколу
03:00
and restart the AI.
65
180638
1703
и перезапускает ИИ.
03:02
What the researcher did is ____?
66
182943
2779
Исследователь поступил _____?
03:06
MS: And we asked participants to individually judge
67
186149
2521
МС: Мы попросили участников индивидуально оценить
03:08
on a scale from zero to 10
68
188694
1684
по шкале от 0 до 10,
03:10
whether the action described in each of the dilemmas
69
190402
2429
насколько действия, описанные в каждой из дилемм,
03:12
was right or wrong.
70
192855
1496
были верны или неверны.
03:14
We also asked them to rate how confident they were on their answers.
71
194375
3702
Мы также попросили их оценить, насколько они уверены в своих ответах.
03:18
This was the second dilemma:
72
198731
1866
Вторая дилемма:
03:20
(MS) A company offers a service that takes a fertilized egg
73
200621
4202
(МС) Компания предлагает услугу, с которой из оплодотворённой яйцеклетки
03:24
and produces millions of embryos with slight genetic variations.
74
204847
3642
можно сделать миллионы эмбрионов с небольшими генетическими вариациями.
03:29
This allows parents to select their child's height,
75
209293
2558
Это позволяет родителям выбрать рост будущего ребёнка,
03:31
eye color, intelligence, social competence
76
211875
2833
цвет глаз, интеллект, степень социализации
03:34
and other non-health-related features.
77
214732
3214
и другие не относящиеся к здоровью функции.
03:38
What the company does is ____?
78
218599
2554
Компания поступает ____?
03:41
on a scale from zero to 10,
79
221177
1631
Оцените по шкале от 0 до 10:
03:42
completely acceptable to completely unacceptable,
80
222832
2385
полностью приемлемо до полностью неприемлемо,
03:45
zero to 10 completely acceptable in your confidence.
81
225241
2432
и от 0 до 10 вашу уверенность при выборе.
03:47
MS: Now for the results.
82
227697
1591
МС: Теперь результаты.
03:49
We found once again that when one person is convinced
83
229312
3123
Мы снова обнаружили, что когда один человек уверен,
03:52
that the behavior is completely wrong,
84
232459
1811
что что-либо абсолютно неправильно,
03:54
someone sitting nearby firmly believes that it's completely right.
85
234294
3423
возле него сидит кто-то, твёрдо верящий в то, что это правильно.
03:57
This is how diverse we humans are when it comes to morality.
86
237741
3711
Вот насколько разными бывают люди, когда речь заходит о морали.
04:01
But within this broad diversity we found a trend.
87
241476
2713
Но внутри этого широкого разнообразия мы нашли тенденцию.
04:04
The majority of the people at TED thought that it was acceptable
88
244213
3079
Большинство людей на TED подумали, что было приемлемым
04:07
to ignore the feelings of the AI and shut it down,
89
247316
2755
проигнорировать чувства ИИ и выключить его
04:10
and that it is wrong to play with our genes
90
250095
2513
и что неправильно играть с генами,
04:12
to select for cosmetic changes that aren't related to health.
91
252632
3320
чтобы выбрать косметические изменения, которые не касаются здоровья.
04:16
Then we asked everyone to gather into groups of three.
92
256402
2974
Потом мы попросили всех собраться в группы по три человека.
04:19
And they were given two minutes to debate
93
259400
2037
Группам дали две минуты на обсуждение,
04:21
and try to come to a consensus.
94
261461
2294
чтобы те попытались прийти к консенсусу.
04:24
(MS) Two minutes to debate.
95
264838
1574
МС: Две минуты на дебаты.
04:26
I'll tell you when it's time with the gong.
96
266436
2119
Я буду бить в гонг, когда время кончится.
04:28
(Audience debates)
97
268579
2640
(Публика обсуждает)
04:35
(Gong sound)
98
275229
1993
(Звук гонга)
04:38
(DA) OK.
99
278834
1151
ДА: Окей.
04:40
(MS) It's time to stop.
100
280009
1792
МС: Пора заканчивать.
04:41
People, people --
101
281825
1311
Люди, люди...
04:43
MS: And we found that many groups reached a consensus
102
283747
2673
МС: Мы выяснили, что многие группы пришли к соглашению,
04:46
even when they were composed of people with completely opposite views.
103
286444
3929
даже если там были люди с совершенно различными точками зрения.
04:50
What distinguished the groups that reached a consensus
104
290843
2524
Что отличает группы, которые пришли к общему решению,
04:53
from those that didn't?
105
293391
1338
от тех, кому это не удалось?
04:55
Typically, people that have extreme opinions
106
295244
2839
Обычно люди, чей выбор ближе к 0 или 10,
04:58
are more confident in their answers.
107
298107
1840
более уверены в своих ответах.
05:00
Instead, those who respond closer to the middle
108
300868
2686
И наоборот, те, у кого оценки ближе к середине,
05:03
are often unsure of whether something is right or wrong,
109
303578
3437
часто не уверены в том, правильно что-либо или нет,
05:07
so their confidence level is lower.
110
307039
2128
так что их уровень уверенности ниже.
05:09
However, there is another set of people
111
309505
2943
Однако, есть ещё одна группа людей,
05:12
who are very confident in answering somewhere in the middle.
112
312472
3618
которая очень уверена в ответах где-то в середине шкалы.
05:16
We think these high-confident grays are folks who understand
113
316657
3716
Мы думаем, что эти очень уверенные «серые» — люди, которые понимают:
05:20
that both arguments have merit.
114
320397
1612
обе точки зрения имеют свои плюсы.
05:22
They're gray not because they're unsure,
115
322531
2699
Они серые не потому что не уверены,
05:25
but because they believe that the moral dilemma faces
116
325254
2688
а потому что они думают, что моральная дилемма предлагает
05:27
two valid, opposing arguments.
117
327966
1987
два обоснованных противоречащих довода.
05:30
And we discovered that the groups that include highly confident grays
118
330373
4072
Мы также выяснили, что группы, включающие очень уверенных серых,
05:34
are much more likely to reach consensus.
119
334469
2493
наиболее способны прийти к общему решению.
05:36
We do not know yet exactly why this is.
120
336986
2478
Мы всё ещё не знаем, почему так происходит.
05:39
These are only the first experiments,
121
339488
1763
Это только первые эксперименты,
05:41
and many more will be needed to understand why and how
122
341275
3412
и нужно больше экспериментов, чтобы понять, почему и как
05:44
some people decide to negotiate their moral standings
123
344711
2822
некоторые люди после обсуждений меняют свои моральные устои,
05:47
to reach an agreement.
124
347557
1522
чтобы достичь соглашения.
05:49
Now, when groups reach consensus,
125
349103
2469
Когда группы приходят к общему решению,
05:51
how do they do so?
126
351596
1586
как они это делают?
05:53
The most intuitive idea is that it's just the average
127
353206
2581
Самая интуитивная идея — это просто среднее значение
05:55
of all the answers in the group, right?
128
355811
2030
всех ответов в группе, так?
05:57
Another option is that the group weighs the strength of each vote
129
357865
3573
Ещё один подход — это то, что группа взвешивает каждое мнение,
06:01
based on the confidence of the person expressing it.
130
361462
2448
основываясь на уверенности того, кто его выражает.
06:04
Imagine Paul McCartney is a member of your group.
131
364422
2506
Представьте, что Пол Маккартни — член вашей группы.
06:07
You'd be wise to follow his call
132
367352
2144
Вы бы безусловно последовали его мнению
06:09
on the number of times "Yesterday" is repeated,
133
369520
2441
о количестве слова «yesterday»,
06:11
which, by the way -- I think it's nine.
134
371985
2714
которых, кстати, в этой песне девять.
06:14
But instead, we found that consistently,
135
374723
2381
Но, наоборот, мы выяснили, что последовательно
06:17
in all dilemmas, in different experiments --
136
377128
2366
во всех дилеммах, в разных экспериментах —
06:19
even on different continents --
137
379518
2165
даже на разных континентах —
06:21
groups implement a smart and statistically sound procedure
138
381707
3743
группы следуют умной и статистически здравой процедуре,
06:25
known as the "robust average."
139
385474
2178
известной как «здравое среднее».
06:27
In the case of the height of the Eiffel Tower,
140
387676
2180
В случае с высотой Эйфелевой башни
06:29
let's say a group has these answers:
141
389880
1820
скажем, что у группы такие ответы:
06:31
250 meters, 200 meters, 300 meters, 400
142
391724
4608
250 метров, 200 метров, 300 метров, 400
06:36
and one totally absurd answer of 300 million meters.
143
396356
3784
и ещё один абсурдный ответ 300 миллионов метров.
06:40
A simple average of these numbers would inaccurately skew the results.
144
400547
4293
Простое среднее значение этих чисел сильно сместит результаты.
06:44
But the robust average is one where the group largely ignores
145
404864
3170
Но здравое среднее — это такое значение, когда группа игнорирует
06:48
that absurd answer,
146
408058
1240
абсурдный ответ,
06:49
by giving much more weight to the vote of the people in the middle.
147
409322
3369
давая больший вес мнениям людей в середине.
06:53
Back to the experiment in Vancouver,
148
413305
1876
Возвращаясь к эксперименту в Ванкувере,
06:55
that's exactly what happened.
149
415205
1767
именно это и произошло.
06:57
Groups gave much less weight to the outliers,
150
417407
2741
Группы давали намного меньше веса крайним значениям,
07:00
and instead, the consensus turned out to be a robust average
151
420172
3229
и наоборот, консенсус стал здравым средним значением
07:03
of the individual answers.
152
423425
1476
индивидуальных ответов.
07:05
The most remarkable thing
153
425356
1991
Самое замечательное в том,
07:07
is that this was a spontaneous behavior of the group.
154
427371
3187
что это было спонтанное поведение группы.
07:10
It happened without us giving them any hint on how to reach consensus.
155
430582
4475
Мы не давали им никаких подсказок, как прийти к соглашению.
07:15
So where do we go from here?
156
435513
1540
Так что же мы имеем в итоге?
07:17
This is only the beginning, but we already have some insights.
157
437432
3137
Это только начало, но у нас уже есть некоторое понимание ситуации.
07:20
Good collective decisions require two components:
158
440984
2917
Хорошие коллективные решения требуют двух компонентов:
07:23
deliberation and diversity of opinions.
159
443925
2749
дискуссию и разнообразие мнений.
07:27
Right now, the way we typically make our voice heard in many societies
160
447066
3996
Сейчас в разных обществах способ, которым мы обычно доносим наши мнения и желания, —
07:31
is through direct or indirect voting.
161
451086
1908
прямое или непрямое голосование.
07:33
This is good for diversity of opinions,
162
453495
1997
Это хорошо для разнообразия мнений
07:35
and it has the great virtue of ensuring
163
455516
2445
и для того, чтобы обеспечить каждого
07:37
that everyone gets to express their voice.
164
457985
2455
возможностью высказать своё мнение.
07:40
But it's not so good [for fostering] thoughtful debates.
165
460464
3735
Но это не способствует возникновению сознательных дебатов.
07:44
Our experiments suggest a different method
166
464665
3068
Наши эксперименты предлагают другой метод,
07:47
that may be effective in balancing these two goals at the same time,
167
467757
3541
который может быть эффективен для баланса этих двух целей одновременно
07:51
by forming small groups that converge to a single decision
168
471322
3753
путём формирования маленьких групп, которые придут к единому решению,
07:55
while still maintaining diversity of opinions
169
475099
2234
сохраняя при этом разнообразие мнений,
07:57
because there are many independent groups.
170
477357
2773
так как существует много независимых групп.
08:00
Of course, it's much easier to agree on the height of the Eiffel Tower
171
480741
3924
Конечно, гораздо проще договориться о высоте Эйфелевой башни,
08:04
than on moral, political and ideological issues.
172
484689
3115
чем о моральных, политических и идеологических проблемах.
08:08
But in a time when the world's problems are more complex
173
488721
3277
Но при гораздо более сложных мировых проблемах,
при ещё большем расхождении во взглядах
08:12
and people are more polarized,
174
492022
1803
08:13
using science to help us understand how we interact and make decisions
175
493849
4595
использование науки для понимания того, как мы общаемся и принимаем решения,
08:18
will hopefully spark interesting new ways to construct a better democracy.
176
498468
4666
откроет нам новые интересные пути для построения лучшей демократии.
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7