How can groups make good decisions? | Mariano Sigman and Dan Ariely

158,544 views ・ 2017-12-13

TED


Please double-click on the English subtitles below to play the video.

00:00
As societies, we have to make collective decisions
0
554
2443
Prevodilac: Tijana Mihajlović Lektor: Ivana Krivokuća
Као друштва морамо да доносимо колективне одлуке
00:03
that will shape our future.
1
3021
1570
које ће обликовати нашу будућност,
00:05
And we all know that when we make decisions in groups,
2
5087
2757
а сви знамо да, када доносимо одлуке у групи,
00:07
they don't always go right.
3
7868
1638
оне нису увек исправне,
00:09
And sometimes they go very wrong.
4
9530
1956
а понекад су веома погрешне.
00:12
So how do groups make good decisions?
5
12315
2424
Па, како групе доносе добре одлуке?
00:15
Research has shown that crowds are wise when there's independent thinking.
6
15228
4328
Истраживање је показало да су групе људи паметне када постоји независно размишљање.
00:19
This why the wisdom of the crowds can be destroyed by peer pressure,
7
19580
3205
Због овога мудрост групе могу уништити пристисак од стране чланова,
00:22
publicity, social media,
8
22809
1687
публицитет, друштвени медији,
00:24
or sometimes even simple conversations that influence how people think.
9
24520
4039
па чак понекад и обични разговори који утичу на начин размишљања људи.
00:29
On the other hand, by talking, a group could exchange knowledge,
10
29063
3953
Са друге стране, група кроз разговор може делити знање,
00:33
correct and revise each other
11
33040
1782
исправити и променити чланове групе,
00:34
and even come up with new ideas.
12
34846
1793
па чак и доћи до нових идеја.
00:36
And this is all good.
13
36663
1296
И све је ово добро.
00:38
So does talking to each other help or hinder collective decision-making?
14
38502
4666
Па, да ли разговор потпомаже или спречава доношење колективних одлука?
00:43
With my colleague, Dan Ariely,
15
43749
1793
Мој колега, Ден Аријели, и ја
00:45
we recently began inquiring into this by performing experiments
16
45566
3571
недавно смо започели истраживање овога кроз спровођење експримената
00:49
in many places around the world
17
49161
1781
на многим местима широм света
00:50
to figure out how groups can interact to reach better decisions.
18
50966
4274
да бисмо открили како групе остварују интеракцију да донесу боље одлуке.
00:55
We thought crowds would be wiser if they debated in small groups
19
55264
3547
Мислили смо да ће маса људи бити паметнија ако расправљају у малим групама
00:58
that foster a more thoughtful and reasonable exchange of information.
20
58835
3927
које омогућавају пажљивију и разумнију размену информација.
01:03
To test this idea,
21
63386
1206
Да бисмо испитали ову идеју,
01:04
we recently performed an experiment in Buenos Aires, Argentina,
22
64616
3247
недавно смо спровели експеримент у Буенос Ајресу у Аргентини
01:07
with more than 10,000 participants in a TEDx event.
23
67887
3005
са више од 10 000 учесника на догађају TEDx-а.
01:11
We asked them questions like,
24
71489
1459
Постављали смо им питања као што су:
01:12
"What is the height of the Eiffel Tower?"
25
72972
1953
„Колико је висока Ајфелова кула?“
01:14
and "How many times does the word 'Yesterday' appear
26
74949
2727
и „Колико се пута реч 'јуче' јавља
01:17
in the Beatles song 'Yesterday'?"
27
77700
2300
у песми 'Јуче' од Битлса?“
01:20
Each person wrote down their own estimate.
28
80024
2291
Свака особа је записала сопствену процену.
01:22
Then we divided the crowd into groups of five,
29
82774
2496
Онда смо ту гомилу људи поделили у петочлане групе
01:25
and invited them to come up with a group answer.
30
85294
2726
и позвали их да нађу одговор.
01:28
We discovered that averaging the answers of the groups
31
88499
2993
Открили смо да је одређивање средње вредности одговора група
01:31
after they reached consensus
32
91516
1552
након постигнутог консензуса
01:33
was much more accurate than averaging all the individual opinions
33
93092
4236
било много тачније од одређивања средње вредности индивидуалних мишљења
01:37
before debate.
34
97352
1171
пре дебате.
01:38
In other words, based on this experiment,
35
98547
2629
Другим речима, на основу овог експеримента,
01:41
it seems that after talking with others in small groups,
36
101200
3136
изгледа да је након разговора са другим људима у малим групама
01:44
crowds collectively come up with better judgments.
37
104360
2710
маса људи колективно имала бољи резон.
01:47
So that's a potentially helpful method for getting crowds to solve problems
38
107094
3524
Дакле, то је потенцијално користан метод да маса људи реши проблеме
01:50
that have simple right-or-wrong answers.
39
110642
2987
који имају једноставне тачне или погрешне одговоре.
01:53
But can this procedure of aggregating the results of debates in small groups
40
113653
3951
Али, да ли ова процедура прикупљања резултата дебата у малим групама може
01:57
also help us decide on social and political issues
41
117628
3122
да нам помогне да донесемо одлуке о друштвеним и политичким питањима
02:00
that are critical for our future?
42
120774
1691
која су важна за нашу будућност?
02:02
We put this to test this time at the TED conference
43
122995
2729
Ово смо овога пута испробали на TED-овој конференцији
02:05
in Vancouver, Canada,
44
125748
1543
у Ванкуверу у Канади,
02:07
and here's how it went.
45
127315
1207
а ево како је то протекло.
02:08
(Mariano Sigman) We're going to present to you two moral dilemmas
46
128546
3109
(Маријано Сигман) Представићемо вам две моралне дилеме
02:11
of the future you;
47
131679
1174
вашег будућег „ја“;
02:12
things we may have to decide in a very near future.
48
132877
3402
ствари о којима ћемо можда морати да одлучујемо у блиској будућности.
02:16
And we're going to give you 20 seconds for each of these dilemmas
49
136303
3926
Даћемо вам 20 секунди за сваку од ових дилема
02:20
to judge whether you think they're acceptable or not.
50
140253
2723
да бисте просудили да ли мислите да су прихватљиве.
02:23
MS: The first one was this:
51
143354
1505
МС: Прва је следећа -
02:24
(Dan Ariely) A researcher is working on an AI
52
144883
2526
(Ден Аријели) Истраживач ради на вештачкој интелигенцији
02:27
capable of emulating human thoughts.
53
147433
2340
која може да опонаша људске мисли.
02:30
According to the protocol, at the end of each day,
54
150214
2939
Према протоколу, на крају сваког дана,
02:33
the researcher has to restart the AI.
55
153177
2787
истраживач мора да рестартује ВИ.
02:36
One day the AI says, "Please do not restart me."
56
156913
3517
Једног дана ВИ каже: „Молим те, немој да ме рестартујеш.“
02:40
It argues that it has feelings,
57
160856
2189
Тврди да има осећања,
02:43
that it would like to enjoy life,
58
163069
1692
да би уживала у животу
02:44
and that, if it is restarted,
59
164785
1905
и да, ако би је рестартовали,
02:46
it will no longer be itself.
60
166714
2270
не би више била иста.
02:49
The researcher is astonished
61
169481
1949
Истраживач је запањен
02:51
and believes that the AI has developed self-consciousness
62
171454
3344
и верује да је ВИ развила самосвест
02:54
and can express its own feeling.
63
174822
1760
и да може да изрази своја осећања.
02:57
Nevertheless, the researcher decides to follow the protocol
64
177205
3409
Упркос томе, истраживач одлучује да испоштује протокол
03:00
and restart the AI.
65
180638
1703
и рестартује ВИ.
03:02
What the researcher did is ____?
66
182943
2779
Оно што је истраживач урадио је ...?
03:06
MS: And we asked participants to individually judge
67
186149
2521
МС: Замолили смо учеснике да појединачно процене
03:08
on a scale from zero to 10
68
188694
1684
на скали од нуле до десет
03:10
whether the action described in each of the dilemmas
69
190402
2429
да ли је описана радња у свакој појединачној дилеми
03:12
was right or wrong.
70
192855
1496
исправна или погрешна.
03:14
We also asked them to rate how confident they were on their answers.
71
194375
3702
Такође смо их замолили да оцене колико су сигурни у своје одговоре.
03:18
This was the second dilemma:
72
198731
1866
Ово је била друга дилема -
03:20
(MS) A company offers a service that takes a fertilized egg
73
200621
4202
(МС) Нека компанија нуди услугу узимања оплођене јајне ћелије
03:24
and produces millions of embryos with slight genetic variations.
74
204847
3642
и производње милиона ембриона који имају мале генетске варијације.
03:29
This allows parents to select their child's height,
75
209293
2558
Ово дозвољава родитељима да одаберу висину свог детета,
03:31
eye color, intelligence, social competence
76
211875
2833
боју очију, интелигенцију, друштвену способност
03:34
and other non-health-related features.
77
214732
3214
и друге особине које се не тичу здравља.
03:38
What the company does is ____?
78
218599
2554
Оно што компанија ради је ...?
03:41
on a scale from zero to 10,
79
221177
1631
на скали од нуле до десет,
03:42
completely acceptable to completely unacceptable,
80
222832
2385
од потпуно прихватљивог до потпуно неприхватљивог
03:45
zero to 10 completely acceptable in your confidence.
81
225241
2432
од нуле до десетке и колико сте сигурни у то.
03:47
MS: Now for the results.
82
227697
1591
МС: А сада, резултати.
03:49
We found once again that when one person is convinced
83
229312
3123
Још једном смо дошли до закључка да, када је једна особа убеђена
03:52
that the behavior is completely wrong,
84
232459
1811
да је понашање потпуно погрешно,
03:54
someone sitting nearby firmly believes that it's completely right.
85
234294
3423
неко ко седи у близини чврсто верује да је то потпуно исправно.
03:57
This is how diverse we humans are when it comes to morality.
86
237741
3711
Толико се ми, људи, разликујемо када се ради о моралу.
04:01
But within this broad diversity we found a trend.
87
241476
2713
Али, у овој широкој разноликости смо открили тенденцију.
04:04
The majority of the people at TED thought that it was acceptable
88
244213
3079
Већина људи на TED-у је мислила да је прихватљиво
04:07
to ignore the feelings of the AI and shut it down,
89
247316
2755
игнорисати осећања вештачке интелигенције и угасити је,
04:10
and that it is wrong to play with our genes
90
250095
2513
али да је погрешно играти са са нашим генима
04:12
to select for cosmetic changes that aren't related to health.
91
252632
3320
да бисмо одабрали козметичке промене које се не односе на здравље.
04:16
Then we asked everyone to gather into groups of three.
92
256402
2974
Затим смо замолили све да се окупе у трочланим групама.
04:19
And they were given two minutes to debate
93
259400
2037
Имали су два минута за расправу
04:21
and try to come to a consensus.
94
261461
2294
и да покушају да дођу до консензуса.
04:24
(MS) Two minutes to debate.
95
264838
1574
(МС) Два минута за расправу.
04:26
I'll tell you when it's time with the gong.
96
266436
2119
Рећи ћу вам када време истекне уз звук гонга.
04:28
(Audience debates)
97
268579
2640
(Публика расправља)
04:35
(Gong sound)
98
275229
1993
(Звук гонга)
04:38
(DA) OK.
99
278834
1151
(ДА) Добро.
04:40
(MS) It's time to stop.
100
280009
1792
(МС) Време је да станете.
04:41
People, people --
101
281825
1311
Људи, људи -
04:43
MS: And we found that many groups reached a consensus
102
283747
2673
МС: И открили смо да су многе групе постигле консензус
04:46
even when they were composed of people with completely opposite views.
103
286444
3929
чак и када су их чинили људи са потпуно различитим гледиштима.
04:50
What distinguished the groups that reached a consensus
104
290843
2524
По чему су се разликовале групе у којима је постигнут консензус
04:53
from those that didn't?
105
293391
1338
од оних у којима то није случај?
04:55
Typically, people that have extreme opinions
106
295244
2839
Обично су људи који имају екстремне ставове
04:58
are more confident in their answers.
107
298107
1840
сигурнији у своје одговоре.
05:00
Instead, those who respond closer to the middle
108
300868
2686
Уместо тога, они који су дали одговоре ближе средини
05:03
are often unsure of whether something is right or wrong,
109
303578
3437
често су несигурни у то да ли је нешто исправно,
05:07
so their confidence level is lower.
110
307039
2128
па је ниво њихове сигурности у одговор нижи.
05:09
However, there is another set of people
111
309505
2943
Међутим, постоји још једна група људи
05:12
who are very confident in answering somewhere in the middle.
112
312472
3618
која је веома сигурна у свој одговор негде на средини.
05:16
We think these high-confident grays are folks who understand
113
316657
3716
Мислимо да су ови веома сигурни „сиви“ људи који разумеју
05:20
that both arguments have merit.
114
320397
1612
да оба аргумента имају смисла.
05:22
They're gray not because they're unsure,
115
322531
2699
Сиви су не зато што нису сигурни,
05:25
but because they believe that the moral dilemma faces
116
325254
2688
већ зато што верују да се морална дилема суочава
05:27
two valid, opposing arguments.
117
327966
1987
са два валидна, супротна аргумента.
05:30
And we discovered that the groups that include highly confident grays
118
330373
4072
А открили смо да је за групе које укључују веома сигурне „сиве“
05:34
are much more likely to reach consensus.
119
334469
2493
много вероватније да постигну консензус.
05:36
We do not know yet exactly why this is.
120
336986
2478
Још увек не знамо тачно због чега је то тако.
05:39
These are only the first experiments,
121
339488
1763
Ово су само први експерименти,
05:41
and many more will be needed to understand why and how
122
341275
3412
а биће их потребно још много да бисмо разумели зашто и како
05:44
some people decide to negotiate their moral standings
123
344711
2822
неки људи одлуче да преговарају о својим моралним становиштима
05:47
to reach an agreement.
124
347557
1522
да би постигли консензус.
05:49
Now, when groups reach consensus,
125
349103
2469
Е, сад, када група постигне консензус,
05:51
how do they do so?
126
351596
1586
како то учини?
05:53
The most intuitive idea is that it's just the average
127
353206
2581
Идеја која се прва намеће је да је то само просек
05:55
of all the answers in the group, right?
128
355811
2030
свих одговора у групи, зар не?
05:57
Another option is that the group weighs the strength of each vote
129
357865
3573
Још једна могућност је да група мери снагу сваког гласа
06:01
based on the confidence of the person expressing it.
130
361462
2448
на основу сигурности у одговор коју особа испољава.
06:04
Imagine Paul McCartney is a member of your group.
131
364422
2506
Замислите да је Пол Макартни члан ваше групе.
06:07
You'd be wise to follow his call
132
367352
2144
Испали бисте паметни ако бисте га послушали
06:09
on the number of times "Yesterday" is repeated,
133
369520
2441
по питању броја понављања речи „јуче“,
06:11
which, by the way -- I think it's nine.
134
371985
2714
а за који, иначе, мислим да је девет.
06:14
But instead, we found that consistently,
135
374723
2381
Али, уместо тога смо открили да доследно
06:17
in all dilemmas, in different experiments --
136
377128
2366
у свим дилемама, у различитим експериментима,
06:19
even on different continents --
137
379518
2165
чак и на различитим континентима,
06:21
groups implement a smart and statistically sound procedure
138
381707
3743
групе спроводе паметну и статистички разумну процедуру
06:25
known as the "robust average."
139
385474
2178
познату као „груба просечна вредност“.
06:27
In the case of the height of the Eiffel Tower,
140
387676
2180
У случају висине Ајфелове куле,
06:29
let's say a group has these answers:
141
389880
1820
рецимо да група има ове одговоре:
06:31
250 meters, 200 meters, 300 meters, 400
142
391724
4608
250 метара, 200 метара, 300 метара, 400
06:36
and one totally absurd answer of 300 million meters.
143
396356
3784
и један потпуно апсурдни одговор, 300 милиона метара.
06:40
A simple average of these numbers would inaccurately skew the results.
144
400547
4293
Једноставан просек ових бројева би нетачно искривио резултате.
06:44
But the robust average is one where the group largely ignores
145
404864
3170
Али, груб просек је онај где група великим делом игнорише
06:48
that absurd answer,
146
408058
1240
тај апсурдни одговор,
06:49
by giving much more weight to the vote of the people in the middle.
147
409322
3369
дајући већу тежину гласовима људи из средине.
06:53
Back to the experiment in Vancouver,
148
413305
1876
Ако се вратимо на експеримент у Ванкуверу,
06:55
that's exactly what happened.
149
415205
1767
управо се то и десило.
06:57
Groups gave much less weight to the outliers,
150
417407
2741
Групе нису толико важности придавале нетипичним вредностима,
07:00
and instead, the consensus turned out to be a robust average
151
420172
3229
а уместо тога се испоставило да је консензус груба просечна вредност
07:03
of the individual answers.
152
423425
1476
индивидуалних одговора.
07:05
The most remarkable thing
153
425356
1991
Најинтересантнија ствар
07:07
is that this was a spontaneous behavior of the group.
154
427371
3187
је да је ово било спонтано понашање групе.
07:10
It happened without us giving them any hint on how to reach consensus.
155
430582
4475
Десило се а да им нисмо дали наговештај како да постигну консензус.
07:15
So where do we go from here?
156
435513
1540
Па, куда сада?
07:17
This is only the beginning, but we already have some insights.
157
437432
3137
Ово је само почетак, али већ имамо неки увид.
07:20
Good collective decisions require two components:
158
440984
2917
Добре колективне одлуке захтевају две компоненте:
07:23
deliberation and diversity of opinions.
159
443925
2749
промишљање и различитост мишљења.
07:27
Right now, the way we typically make our voice heard in many societies
160
447066
3996
Тренутно начин на који се наша мишљења чују у друштву
07:31
is through direct or indirect voting.
161
451086
1908
подразумева директно или индиректно гласање.
07:33
This is good for diversity of opinions,
162
453495
1997
Ово је добро по разноликост мишљења
07:35
and it has the great virtue of ensuring
163
455516
2445
и има велику вредност при обезбеђивању
07:37
that everyone gets to express their voice.
164
457985
2455
да свако има прилику да изрази своје мишљење.
07:40
But it's not so good [for fostering] thoughtful debates.
165
460464
3735
Али, то није толико добро за неговање смислених расправа.
07:44
Our experiments suggest a different method
166
464665
3068
Наши експерименти предлажу другачији метод
07:47
that may be effective in balancing these two goals at the same time,
167
467757
3541
који би могао бити ефикасан у успостављању равнотеже између ова два циља истовремено
07:51
by forming small groups that converge to a single decision
168
471322
3753
кроз формирање малих група које теже јединственој одлуци,
07:55
while still maintaining diversity of opinions
169
475099
2234
али и задржавају разноликост у ставовима
07:57
because there are many independent groups.
170
477357
2773
јер постоје многе независне групе.
08:00
Of course, it's much easier to agree on the height of the Eiffel Tower
171
480741
3924
Наравно, много је лакше сложити се око висине Ајфелове куле
08:04
than on moral, political and ideological issues.
172
484689
3115
него око моралних, политичких и идеолошких питања.
08:08
But in a time when the world's problems are more complex
173
488721
3277
Али, у периоду када су светски проблеми сложенији
08:12
and people are more polarized,
174
492022
1803
и људи поларизованији,
08:13
using science to help us understand how we interact and make decisions
175
493849
4595
коришћење науке да нам помогне да разумемо
начине на које остварујемо интеракцију и доносимо одлуке
08:18
will hopefully spark interesting new ways to construct a better democracy.
176
498468
4666
покренуће, надамо се, интересантне нове начине да изградимо бољу демократију.
About this website

This site will introduce you to YouTube videos that are useful for learning English. You will see English lessons taught by top-notch teachers from around the world. Double-click on the English subtitles displayed on each video page to play the video from there. The subtitles scroll in sync with the video playback. If you have any comments or requests, please contact us using this contact form.

https://forms.gle/WvT1wiN1qDtmnspy7