How can groups make good decisions? | Mariano Sigman and Dan Ariely

151,263 views ・ 2017-12-13

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

00:00
As societies, we have to make collective decisions
0
554
2443
Translator: Dimana Boshnakova Reviewer: Darina Stoyanova
Като общество ние трябва да взимаме колективни решения,
00:03
that will shape our future.
1
3021
1570
които ще оформят бъдещето ни.
00:05
And we all know that when we make decisions in groups,
2
5087
2757
И ние всики знаем, че когато взимаме решения като група,
00:07
they don't always go right.
3
7868
1638
те не винаги вървят на добре.
00:09
And sometimes they go very wrong.
4
9530
1956
И понякога те завършват много зле.
00:12
So how do groups make good decisions?
5
12315
2424
Как групите взимат решения?
00:15
Research has shown that crowds are wise when there's independent thinking.
6
15228
4328
Проучване показва, че групите са умни, когато има независимо мислене
00:19
This why the wisdom of the crowds can be destroyed by peer pressure,
7
19580
3205
Ето защо мъдростта на групите може да бъде унищожена с натиск от връстниците,
00:22
publicity, social media,
8
22809
1687
публичността, социалните медии
00:24
or sometimes even simple conversations that influence how people think.
9
24520
4039
или понякога дори и обикновенни разговори повлияват на мисленето на хората.
00:29
On the other hand, by talking, a group could exchange knowledge,
10
29063
3953
От друга страна, чрез говорене, групата може да обмени знания,
00:33
correct and revise each other
11
33040
1782
да се коригират и да се преразглеждат
00:34
and even come up with new ideas.
12
34846
1793
и дори да измислят нови идеи.
00:36
And this is all good.
13
36663
1296
И всико това е добре.
00:38
So does talking to each other help or hinder collective decision-making?
14
38502
4666
Говоренето един с друг помага или пречи на колективното вземане на решения?
00:43
With my colleague, Dan Ariely,
15
43749
1793
С моя колега Дан Арили,
00:45
we recently began inquiring into this by performing experiments
16
45566
3571
наскоро започнахме да питаме за това чрез извършване на експерименти
00:49
in many places around the world
17
49161
1781
на много места около света, за да разберем
00:50
to figure out how groups can interact to reach better decisions.
18
50966
4274
как групите могат да взаимодействат за да достигнат по-добри решения.
00:55
We thought crowds would be wiser if they debated in small groups
19
55264
3547
Помислихме си, че тълпите ще са по-мъдри ако обсъждат на малки групи
00:58
that foster a more thoughtful and reasonable exchange of information.
20
58835
3927
които насърчават по-внимателно и разумно обменяне на информация.
01:03
To test this idea,
21
63386
1206
За да тестваме тази идея,
01:04
we recently performed an experiment in Buenos Aires, Argentina,
22
64616
3247
наскоро проведохме експеримент в Буенос Айрес, Аржентина,
01:07
with more than 10,000 participants in a TEDx event.
23
67887
3005
с повече от 10,000 участници в TEDx събития.
01:11
We asked them questions like,
24
71489
1459
Зададохме им въпроси като,
01:12
"What is the height of the Eiffel Tower?"
25
72972
1953
"Каква е височината на Айфеловата кула?"
01:14
and "How many times does the word 'Yesterday' appear
26
74949
2727
и "Колко пъти думата 'вчера' се появява
01:17
in the Beatles song 'Yesterday'?"
27
77700
2300
в песента на Бийтълс 'Вчера'?"
01:20
Each person wrote down their own estimate.
28
80024
2291
Всеки човек написа собствената си преценка
01:22
Then we divided the crowd into groups of five,
29
82774
2496
След това разделихме тълпата на групи по петима
01:25
and invited them to come up with a group answer.
30
85294
2726
и ги поканихме да дойдат с групов отговор
01:28
We discovered that averaging the answers of the groups
31
88499
2993
Отхрихме, че средно отговорите на групите
01:31
after they reached consensus
32
91516
1552
след като са постигнали консенсус
01:33
was much more accurate than averaging all the individual opinions
33
93092
4236
беше много по-точна от средната на всички индивидуални мнения
01:37
before debate.
34
97352
1171
преди дебат.
01:38
In other words, based on this experiment,
35
98547
2629
С други думи, въз основа на този експеримент,
01:41
it seems that after talking with others in small groups,
36
101200
3136
изглежда, че след разговор с други в малки групи,
01:44
crowds collectively come up with better judgments.
37
104360
2710
тълпите колективно измислят по-добри преценки.
01:47
So that's a potentially helpful method for getting crowds to solve problems
38
107094
3524
Това е потенциално добър метод за даване на тълпите да взимат решения
01:50
that have simple right-or-wrong answers.
39
110642
2987
които имат верен или грешен отговор.
01:53
But can this procedure of aggregating the results of debates in small groups
40
113653
3951
Но може ли тази процедура от обобщаване на резултата от дебати на малки групи
01:57
also help us decide on social and political issues
41
117628
3122
също да ни помогне за решенията на социални и политически въпроси
02:00
that are critical for our future?
42
120774
1691
които са критични за бъдещето ни?
02:02
We put this to test this time at the TED conference
43
122995
2729
Изложихме това на тест този път на конференцията на TED
02:05
in Vancouver, Canada,
44
125748
1543
в Ванкувър, Канада
02:07
and here's how it went.
45
127315
1207
и ето как протече.
02:08
(Mariano Sigman) We're going to present to you two moral dilemmas
46
128546
3109
(Мариано Сигман) Ще ви представим две морални дилеми
02:11
of the future you;
47
131679
1174
на бъдещото ви аз;
02:12
things we may have to decide in a very near future.
48
132877
3402
неща, които може да се наложи да решим в близкото бъдеще.
02:16
And we're going to give you 20 seconds for each of these dilemmas
49
136303
3926
И ще ви дадем 20 секунди за всяка от дилемите
02:20
to judge whether you think they're acceptable or not.
50
140253
2723
за да решите дали те са допустими или не
02:23
MS: The first one was this:
51
143354
1505
МС: Първото беше:
02:24
(Dan Ariely) A researcher is working on an AI
52
144883
2526
(Дан Арили) Изследовател работи над изкуствен интелект,
02:27
capable of emulating human thoughts.
53
147433
2340
който да е способен да имитира човешки мисли.
02:30
According to the protocol, at the end of each day,
54
150214
2939
Според протокола в края на всеки ден
02:33
the researcher has to restart the AI.
55
153177
2787
Изследователя ще трябва да рестартира изкуствения интелект.
02:36
One day the AI says, "Please do not restart me."
56
156913
3517
Един ден Изкуственият интелект казал: "Моля те не ме рестартирай."
02:40
It argues that it has feelings,
57
160856
2189
То твърди, че има чувства,
02:43
that it would like to enjoy life,
58
163069
1692
и че би искало да се наслади на живота
02:44
and that, if it is restarted,
59
164785
1905
и ако се рестартира,
02:46
it will no longer be itself.
60
166714
2270
той повече няма да бъде себе си.
02:49
The researcher is astonished
61
169481
1949
Изледователят е учуден
02:51
and believes that the AI has developed self-consciousness
62
171454
3344
и вярва, че изкуственият интелект е развил самосъзнание
02:54
and can express its own feeling.
63
174822
1760
и може да изразява собствените си чувства
02:57
Nevertheless, the researcher decides to follow the protocol
64
177205
3409
Въпреки това, изследователят решава да следва протокола
03:00
and restart the AI.
65
180638
1703
и рестартира изкуствения интелект.
03:02
What the researcher did is ____?
66
182943
2779
Това е което проучването направи е___?
03:06
MS: And we asked participants to individually judge
67
186149
2521
МС: И попитахме участниците индивидуално да решат
03:08
on a scale from zero to 10
68
188694
1684
със скалата от 0 до 10
03:10
whether the action described in each of the dilemmas
69
190402
2429
дали описаното действие във всяка от дилемите
03:12
was right or wrong.
70
192855
1496
е правилно или грешно?
03:14
We also asked them to rate how confident they were on their answers.
71
194375
3702
Също така ги попитахме да се оценят колко са уверени в отговора си.
03:18
This was the second dilemma:
72
198731
1866
Това е втората дилема:
03:20
(MS) A company offers a service that takes a fertilized egg
73
200621
4202
(МС) Компания предлага обслужване което взима оплодено яйце
03:24
and produces millions of embryos with slight genetic variations.
74
204847
3642
и произвежда милиони ембриони с леки генетични вариации.
03:29
This allows parents to select their child's height,
75
209293
2558
Това позволява на родителите да изберат височината на тяхното дете
03:31
eye color, intelligence, social competence
76
211875
2833
цвета на очите, ителигентността, социална компетентност
03:34
and other non-health-related features.
77
214732
3214
и други несвързани със здравето характеристики.
03:38
What the company does is ____?
78
218599
2554
Това което компанията направи е___?
03:41
on a scale from zero to 10,
79
221177
1631
със скалата от 0 до 10,
03:42
completely acceptable to completely unacceptable,
80
222832
2385
напълно приемливо до напълно неприемливо,
03:45
zero to 10 completely acceptable in your confidence.
81
225241
2432
0 до 10 напълно приемливо в увереността.
03:47
MS: Now for the results.
82
227697
1591
МС: Сега за резултатите.
03:49
We found once again that when one person is convinced
83
229312
3123
Открихме още веднъж че когато един човек е убеден,
03:52
that the behavior is completely wrong,
84
232459
1811
че поведението е напълно грешно
03:54
someone sitting nearby firmly believes that it's completely right.
85
234294
3423
някой, който седи наблизо, твърдо вярва че е напълно прав.
03:57
This is how diverse we humans are when it comes to morality.
86
237741
3711
Ето как сме различни ние, хората когато става дума за морал.
04:01
But within this broad diversity we found a trend.
87
241476
2713
Но в рамките на това голямо разнообразие открихме тенденция.
04:04
The majority of the people at TED thought that it was acceptable
88
244213
3079
Повечето от хората на TED решиха, че е приемливо
04:07
to ignore the feelings of the AI and shut it down,
89
247316
2755
да игнорират чувствата на изкуствения интелект и да го изключат
04:10
and that it is wrong to play with our genes
90
250095
2513
и че е грешно да и си играят с нашите гени
04:12
to select for cosmetic changes that aren't related to health.
91
252632
3320
за да изберете козметични промени които не са свързани със здравето.
04:16
Then we asked everyone to gather into groups of three.
92
256402
2974
След това помолихме всички да се съберат на групи по трима.
04:19
And they were given two minutes to debate
93
259400
2037
И им бяха дадени две минути, за да обсъдят
04:21
and try to come to a consensus.
94
261461
2294
и да се опитат да стигнат до консенсус.
04:24
(MS) Two minutes to debate.
95
264838
1574
(МС) Две минути за обсъждане.
04:26
I'll tell you when it's time with the gong.
96
266436
2119
Ще ви кажа когато е време с гонга.
04:28
(Audience debates)
97
268579
2640
(Публиката обсъждат)
04:35
(Gong sound)
98
275229
1993
(Звук от гонг)
04:38
(DA) OK.
99
278834
1151
(ДА) Окей
04:40
(MS) It's time to stop.
100
280009
1792
(МС) Време е да спрете.
04:41
People, people --
101
281825
1311
Хора, хора --
04:43
MS: And we found that many groups reached a consensus
102
283747
2673
МС: И открихме, че много групи са стигнали до консенсус
04:46
even when they were composed of people with completely opposite views.
103
286444
3929
дори когато са заобиколени от хора с напълно противоположни гледни точки.
04:50
What distinguished the groups that reached a consensus
104
290843
2524
Какво отличаваше групите които постигна консенсус
04:53
from those that didn't?
105
293391
1338
от тези които не постигнаха?
04:55
Typically, people that have extreme opinions
106
295244
2839
Обикновено хората, които имат крайни мнения
04:58
are more confident in their answers.
107
298107
1840
са по-уверени в отговорите си.
05:00
Instead, those who respond closer to the middle
108
300868
2686
Вместо това, тези, които отговарят близо до средата
05:03
are often unsure of whether something is right or wrong,
109
303578
3437
често не са сигурни дали нещо е правилно или не,
05:07
so their confidence level is lower.
110
307039
2128
тяхната увереност е по-слаба.
05:09
However, there is another set of people
111
309505
2943
Има обаче и друг тип хора
05:12
who are very confident in answering somewhere in the middle.
112
312472
3618
тези които са сигурни в отговарянето някъде посредата.
05:16
We think these high-confident grays are folks who understand
113
316657
3716
Смятаме, че тези много уверени са хора, които разбират
05:20
that both arguments have merit.
114
320397
1612
че и двата аргумента имат заслуга.
05:22
They're gray not because they're unsure,
115
322531
2699
Те са (сиви) не защото са несигурни,
05:25
but because they believe that the moral dilemma faces
116
325254
2688
но защото вярват, че тяхната морална дилема
05:27
two valid, opposing arguments.
117
327966
1987
е изправена пред два валидни противоположни аргумента.
05:30
And we discovered that the groups that include highly confident grays
118
330373
4072
И открихме, че групите, които включват силно уверени (grays)
05:34
are much more likely to reach consensus.
119
334469
2493
са много по-склонни да постигнат консенсус.
05:36
We do not know yet exactly why this is.
120
336986
2478
Още не знаем точно защо това е така.
05:39
These are only the first experiments,
121
339488
1763
Това са само първите експерименти
05:41
and many more will be needed to understand why and how
122
341275
3412
и още много ще трябват, за да разберем защо и как
05:44
some people decide to negotiate their moral standings
123
344711
2822
някой хора решават да преговарят тяхното морално класиране
05:47
to reach an agreement.
124
347557
1522
за да стигнат то разбиране.
05:49
Now, when groups reach consensus,
125
349103
2469
Сега, когато групите постигнат консенсус,
05:51
how do they do so?
126
351596
1586
как го правят?
05:53
The most intuitive idea is that it's just the average
127
353206
2581
Най-интуитивната идея е, че това е просто средната стойност
05:55
of all the answers in the group, right?
128
355811
2030
от всички отговори в групата, нали?
05:57
Another option is that the group weighs the strength of each vote
129
357865
3573
Друга опция е, че групата носи силата на всеки вот
06:01
based on the confidence of the person expressing it.
130
361462
2448
въз основа на увереността на човека.
06:04
Imagine Paul McCartney is a member of your group.
131
364422
2506
Представете си Пол Маккартни е част от твоята група.
06:07
You'd be wise to follow his call
132
367352
2144
Би било разумно да го следвате
06:09
on the number of times "Yesterday" is repeated,
133
369520
2441
от броя пъти където "Вчера" се повтаря,
06:11
which, by the way -- I think it's nine.
134
371985
2714
което междо другото мисля че е девет.
06:14
But instead, we found that consistently,
135
374723
2381
Но вместо това, ние открихме, че последователно,
06:17
in all dilemmas, in different experiments --
136
377128
2366
във всички дилеми, в различни експерименти
06:19
even on different continents --
137
379518
2165
дори и на различни континенти,
06:21
groups implement a smart and statistically sound procedure
138
381707
3743
групите прилагат интелигентен и статистически стабилна процедура
06:25
known as the "robust average."
139
385474
2178
известна като "стабилна средна стойност".
06:27
In the case of the height of the Eiffel Tower,
140
387676
2180
В случая с височината на Айфеловата кула
06:29
let's say a group has these answers:
141
389880
1820
нека кажем, че групите имат тези отговори:
06:31
250 meters, 200 meters, 300 meters, 400
142
391724
4608
250 метра, 200 метра, 300 метра, 400
06:36
and one totally absurd answer of 300 million meters.
143
396356
3784
и тотално абсурден отговор 300 милиона метра.
06:40
A simple average of these numbers would inaccurately skew the results.
144
400547
4293
Проста средна стойност от тези числа би изкривила неправилно резултатите.
06:44
But the robust average is one where the group largely ignores
145
404864
3170
Но стабилната средна стойност е една където групата пренебрегва
06:48
that absurd answer,
146
408058
1240
абсурдния отговор,
06:49
by giving much more weight to the vote of the people in the middle.
147
409322
3369
като дава много по-голяма тежест до гласуването на хората в средата.
06:53
Back to the experiment in Vancouver,
148
413305
1876
Обратно на експеримента във Ванкувър,
06:55
that's exactly what happened.
149
415205
1767
точно това стана.
06:57
Groups gave much less weight to the outliers,
150
417407
2741
Групите дадоха много по-малко тегло на крайните,
07:00
and instead, the consensus turned out to be a robust average
151
420172
3229
и вместо това, консенсусът се оказва стабилна средна стойност
07:03
of the individual answers.
152
423425
1476
на индивидуалните отговори.
07:05
The most remarkable thing
153
425356
1991
Най-впечатляващото нещо
07:07
is that this was a spontaneous behavior of the group.
154
427371
3187
е, че това беше спонтанно поведение на групата.
07:10
It happened without us giving them any hint on how to reach consensus.
155
430582
4475
Това се случи, без да им даваме намеци за постигането на консенсус.
07:15
So where do we go from here?
156
435513
1540
Къде отиваме оттук?
07:17
This is only the beginning, but we already have some insights.
157
437432
3137
Това е само началото, но вече имаме някои прозрения.
07:20
Good collective decisions require two components:
158
440984
2917
Добрите колективни решения изискват два компонента:
07:23
deliberation and diversity of opinions.
159
443925
2749
обсъждане и разнообразие на мнения.
07:27
Right now, the way we typically make our voice heard in many societies
160
447066
3996
Точно сега, обикновено правим така, че гласът ни да бъде чут в много общества
07:31
is through direct or indirect voting.
161
451086
1908
чрез директно или индиректно гласуване.
07:33
This is good for diversity of opinions,
162
453495
1997
Това е добре за разнообразието от мнения,
07:35
and it has the great virtue of ensuring
163
455516
2445
и има огромна добродетел да гарантира,
07:37
that everyone gets to express their voice.
164
457985
2455
че всички да могат да изразят гласа си.
07:40
But it's not so good [for fostering] thoughtful debates.
165
460464
3735
Но това не е толкова добре [за насърчаване] смислени дебати.
07:44
Our experiments suggest a different method
166
464665
3068
Нашите експерименти предлагат различен метод,
07:47
that may be effective in balancing these two goals at the same time,
167
467757
3541
което може да е ефективно при балансирането на тези две цели в същото време,
07:51
by forming small groups that converge to a single decision
168
471322
3753
чрез формиране на малки групи които се сближават с едно решение
07:55
while still maintaining diversity of opinions
169
475099
2234
докато все още поддържат разнообразие от мнения,
07:57
because there are many independent groups.
170
477357
2773
защото има много независими групи.
08:00
Of course, it's much easier to agree on the height of the Eiffel Tower
171
480741
3924
Разбира се много по-лесно е да се съгласиш за височината на Айфеловата кула
08:04
than on moral, political and ideological issues.
172
484689
3115
от колкото на морални, политически и идеологически проблеми.
08:08
But in a time when the world's problems are more complex
173
488721
3277
Но във време, когато проблемите на света са по-сложни
08:12
and people are more polarized,
174
492022
1803
и хората са по-поляризирани,
08:13
using science to help us understand how we interact and make decisions
175
493849
4595
използвайки науката, за да ни помогне да разберем
как взаимодействаме и взимаме решения
08:18
will hopefully spark interesting new ways to construct a better democracy.
176
498468
4666
ще се надяваме да предизвикат интересни нови начини
да изградим по-добра демокрация.
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7