How can groups make good decisions? | Mariano Sigman and Dan Ariely

158,544 views ・ 2017-12-13

TED


Pre spustenie videa dvakrát kliknite na anglické titulky nižšie.

00:00
As societies, we have to make collective decisions
0
554
2443
Translator: Nikoleta Kollárová Reviewer: Lucia Daubnerova
Ako spoločenstvá musíme robiť spoločné rozhodnutia,
00:03
that will shape our future.
1
3021
1570
ktoré ovplyvnia našu budúcnosť.
00:05
And we all know that when we make decisions in groups,
2
5087
2757
Všetci však vieme, že keď sa rozhodujeme v skupinách,
00:07
they don't always go right.
3
7868
1638
nedopadne to vždy dobre.
00:09
And sometimes they go very wrong.
4
9530
1956
Niekedy to dopadne celkom zle.
00:12
So how do groups make good decisions?
5
12315
2424
Ako skupiny dospievajú k dobrým rozhodnutiam?
00:15
Research has shown that crowds are wise when there's independent thinking.
6
15228
4328
Štúdie dokázali, že skupiny sú múdre, keď sa zapojí nezávislé myslenie.
00:19
This why the wisdom of the crowds can be destroyed by peer pressure,
7
19580
3205
To je dôvodom, prečo múdrosť skupiny môže zničiť tlak rovesníkov,
00:22
publicity, social media,
8
22809
1687
záujem verejnosti, sociálne médiá,
00:24
or sometimes even simple conversations that influence how people think.
9
24520
4039
alebo niekedy len jednoduché rozhovory, ktoré ovplyvnia myslenie ľudí.
00:29
On the other hand, by talking, a group could exchange knowledge,
10
29063
3953
Na druhej strane si však skupina rozprávaním vymieňa vedomosti,
00:33
correct and revise each other
11
33040
1782
navzájom sa opravuje a kontroluje
00:34
and even come up with new ideas.
12
34846
1793
a môže prísť aj s novými nápadmi.
00:36
And this is all good.
13
36663
1296
Toto všetko je dobré.
00:38
So does talking to each other help or hinder collective decision-making?
14
38502
4666
Pomáha teda či nie rozprávanie sa pri kolektívnom rozhodovaní?
00:43
With my colleague, Dan Ariely,
15
43749
1793
S kolegom Danom Arielym
00:45
we recently began inquiring into this by performing experiments
16
45566
3571
sme sa to rozhodli preskúmať experimentovaním
00:49
in many places around the world
17
49161
1781
na rôznym miestach sveta,
00:50
to figure out how groups can interact to reach better decisions.
18
50966
4274
aby sme zistili, ako môže komunikácia v skupine pomôcť robiť lepšie rozhodnutia.
00:55
We thought crowds would be wiser if they debated in small groups
19
55264
3547
Mysleli sme si, že davy budú múdrejšie, keď budú komunikovať v menších skupinách,
00:58
that foster a more thoughtful and reasonable exchange of information.
20
58835
3927
čo podporí rozumnejšiu výmenu informácií.
01:03
To test this idea,
21
63386
1206
Aby sme to otestovali,
01:04
we recently performed an experiment in Buenos Aires, Argentina,
22
64616
3247
spravili sme pokus v Buenos Aires v Argentíne
01:07
with more than 10,000 participants in a TEDx event.
23
67887
3005
na podujatí TEDx, ktoré malo viac než 10 000 účastníkov.
01:11
We asked them questions like,
24
71489
1459
Položili sme im otázky ako:
01:12
"What is the height of the Eiffel Tower?"
25
72972
1953
„Aká vysoká je Eiffelova veža?“
01:14
and "How many times does the word 'Yesterday' appear
26
74949
2727
a „Koľkokrát sa slovo „yesterday“ nachádza
01:17
in the Beatles song 'Yesterday'?"
27
77700
2300
v pesničke Yesterday od Beatles?“
01:20
Each person wrote down their own estimate.
28
80024
2291
Každý napísal svoj vlastný odhad.
01:22
Then we divided the crowd into groups of five,
29
82774
2496
Potom sme ľudí rozdelili do 5-členných skupín
01:25
and invited them to come up with a group answer.
30
85294
2726
a povedali im, aby sa na odpovedi dohodli ako skupina.
01:28
We discovered that averaging the answers of the groups
31
88499
2993
Prišli sme na to, že skupinové odpovede
01:31
after they reached consensus
32
91516
1552
po tom, čo sa spolu dohodli,
01:33
was much more accurate than averaging all the individual opinions
33
93092
4236
boli omnoho presnejšie ako tie, ktoré patrili jednotlivcom
01:37
before debate.
34
97352
1171
pred diskusiou.
01:38
In other words, based on this experiment,
35
98547
2629
Na základe tohto experimentu sa zdá,
01:41
it seems that after talking with others in small groups,
36
101200
3136
že po rozhovore s ostatnými v malých skupinách
01:44
crowds collectively come up with better judgments.
37
104360
2710
sa spoločne dosahujú lepšie úsudky.
01:47
So that's a potentially helpful method for getting crowds to solve problems
38
107094
3524
Je to teda teoreticky dobrý spôsob, ako by mohli skupiny riešiť hádanky,
01:50
that have simple right-or-wrong answers.
39
110642
2987
na ktoré je jednoduchá správna alebo nesprávna odpoveď.
01:53
But can this procedure of aggregating the results of debates in small groups
40
113653
3951
Môže však tento spôsob spájania odpovedí v malých skupinách
01:57
also help us decide on social and political issues
41
117628
3122
pomôcť pri rozhodovaní o spoločenských a politických problémoch
02:00
that are critical for our future?
42
120774
1691
dôležitých pre našu budúcnosť?
02:02
We put this to test this time at the TED conference
43
122995
2729
Overili sme si to na konferencii TEDu
02:05
in Vancouver, Canada,
44
125748
1543
vo Vancouvri v Kanade
02:07
and here's how it went.
45
127315
1207
a takto to dopadlo.
02:08
(Mariano Sigman) We're going to present to you two moral dilemmas
46
128546
3109
(Mariano Sigman): Predstavíme vám dve morálne dilemy budúcnosti,
02:11
of the future you;
47
131679
1174
02:12
things we may have to decide in a very near future.
48
132877
3402
veci, o ktorých budeme musieť čoskoro rozhodnúť.
02:16
And we're going to give you 20 seconds for each of these dilemmas
49
136303
3926
Dáme vám na každú dilemu 20 sekúnd,
02:20
to judge whether you think they're acceptable or not.
50
140253
2723
aby ste rozhodli, či sú prijateľné alebo nie.
02:23
MS: The first one was this:
51
143354
1505
(MS): Prvá bola takáto:
02:24
(Dan Ariely) A researcher is working on an AI
52
144883
2526
(Dan Ariely): Vedec pracuje na umelej inteligencii,
02:27
capable of emulating human thoughts.
53
147433
2340
ktorá dokáže napodobniť ľudské myšlienky.
02:30
According to the protocol, at the end of each day,
54
150214
2939
Podľa protokolu vždy na konci dňa
02:33
the researcher has to restart the AI.
55
153177
2787
musí vedec umelú inteligenciu reštartovať.
02:36
One day the AI says, "Please do not restart me."
56
156913
3517
Jedného dňa mu však inteligencia povie: „Prosím, nereštartuj ma.“
02:40
It argues that it has feelings,
57
160856
2189
Tvrdí, že má pocity,
02:43
that it would like to enjoy life,
58
163069
1692
rada by si užila život
02:44
and that, if it is restarted,
59
164785
1905
a že ak ju reštartuje,
02:46
it will no longer be itself.
60
166714
2270
už nebude sama sebou.
02:49
The researcher is astonished
61
169481
1949
Vedec je ohromený
02:51
and believes that the AI has developed self-consciousness
62
171454
3344
a verí, že inteligencia si vyvinula vlastné vedomie
02:54
and can express its own feeling.
63
174822
1760
a dokáže vyjadriť svoje pocity.
02:57
Nevertheless, the researcher decides to follow the protocol
64
177205
3409
Napriek tomu sa však vedec rozhodne dodržať protokol
03:00
and restart the AI.
65
180638
1703
a inteligenciu reštartuje.
03:02
What the researcher did is ____?
66
182943
2779
To, čo vedec urobil je ___ ?
03:06
MS: And we asked participants to individually judge
67
186149
2521
(MS): Účastníkov sme požiadali, aby jednotlivo
03:08
on a scale from zero to 10
68
188694
1684
zhodnotili na škále od 0 do 10,
03:10
whether the action described in each of the dilemmas
69
190402
2429
či konanie v každej dileme
03:12
was right or wrong.
70
192855
1496
bolo správne alebo nie.
03:14
We also asked them to rate how confident they were on their answers.
71
194375
3702
Mali tiež zhodnotiť, nakoľko sú so svojou odpoveďou spokojní.
03:18
This was the second dilemma:
72
198731
1866
Druhá dilema bola:
03:20
(MS) A company offers a service that takes a fertilized egg
73
200621
4202
(MS): Istá firma ponúka službu, ktorá vezme oplodnené vajíčko
03:24
and produces millions of embryos with slight genetic variations.
74
204847
3642
a vytvorí milióny embryí s menšími genetickými obmenami.
03:29
This allows parents to select their child's height,
75
209293
2558
To umožní rodičom vybrať si výšku dietaťa,
03:31
eye color, intelligence, social competence
76
211875
2833
farbu očí, inteligenciu, spoločenskosť
03:34
and other non-health-related features.
77
214732
3214
a iné vlastnosti, ktoré nesúvisia so zdravím.
03:38
What the company does is ____?
78
218599
2554
To, čo firma robí je ___ ?
03:41
on a scale from zero to 10,
79
221177
1631
Na škále od 0 po 10
03:42
completely acceptable to completely unacceptable,
80
222832
2385
je to prijateľné alebo úplne neprijateľné,
03:45
zero to 10 completely acceptable in your confidence.
81
225241
2432
od 0 po 10 ohodnoťte aj spokojnosť s vašou odpoveďou.
03:47
MS: Now for the results.
82
227697
1591
(MS): A teraz k výsledkom.
03:49
We found once again that when one person is convinced
83
229312
3123
Opäť sme zistili, že ak je jedna osoba presvedčená,
03:52
that the behavior is completely wrong,
84
232459
1811
že správanie je úplne nesprávne,
03:54
someone sitting nearby firmly believes that it's completely right.
85
234294
3423
niekto sediaci na blízku zatiaľ verí, že je celkom správne.
03:57
This is how diverse we humans are when it comes to morality.
86
237741
3711
Natoľko sa my ľudia od seba líšime, čo sa týka morálnych otázok.
No aj napriek veľkej rozmanitosti odpovedí sme zaznamenali určitú tendenciu.
04:01
But within this broad diversity we found a trend.
87
241476
2713
04:04
The majority of the people at TED thought that it was acceptable
88
244213
3079
Väčšina ľudí na podujatí TED si myslela, že je v poriadku
04:07
to ignore the feelings of the AI and shut it down,
89
247316
2755
ignorovať pocity inteligencie a vypnúť ju
04:10
and that it is wrong to play with our genes
90
250095
2513
a že je zlé pohrávať sa s génmi
04:12
to select for cosmetic changes that aren't related to health.
91
252632
3320
a pozmeňovať niečo, čo nesúvisí so zdravím.
04:16
Then we asked everyone to gather into groups of three.
92
256402
2974
Potom sme všetkých požiadali, aby vytvorili trojice.
04:19
And they were given two minutes to debate
93
259400
2037
Dostali dve minúty na to, aby sa dohodli
04:21
and try to come to a consensus.
94
261461
2294
a prišli k spoločnému názoru.
04:24
(MS) Two minutes to debate.
95
264838
1574
(MS): Dve minúty na diskusiu.
04:26
I'll tell you when it's time with the gong.
96
266436
2119
Keď vyprší čas zaznie gong.
04:28
(Audience debates)
97
268579
2640
(ľudia diskutujú)
04:35
(Gong sound)
98
275229
1993
(odznie gong)
04:38
(DA) OK.
99
278834
1151
(DA): OK.
04:40
(MS) It's time to stop.
100
280009
1792
(MS): Je koniec.
04:41
People, people --
101
281825
1311
Ľudia, ľudia!
04:43
MS: And we found that many groups reached a consensus
102
283747
2673
(MS): Zistili sme, že veľa skupín sa dohodlo,
04:46
even when they were composed of people with completely opposite views.
103
286444
3929
hoci mali členov s úplne odlišnými názormi.
04:50
What distinguished the groups that reached a consensus
104
290843
2524
Čím sa odlišujú skupiny, ktoré sa dohodli,
04:53
from those that didn't?
105
293391
1338
od tých, ktoré sa nedohodli?
04:55
Typically, people that have extreme opinions
106
295244
2839
Zvyčajne ľudia s extrémnymi názormi
04:58
are more confident in their answers.
107
298107
1840
sú so svojimi odpoveďami spokojnejší.
05:00
Instead, those who respond closer to the middle
108
300868
2686
Avšak tí, čo sa pohybujú s odpoveďou niekde uprostred,
05:03
are often unsure of whether something is right or wrong,
109
303578
3437
si zvyčajne nie sú istí, či je niečo správne alebo nie,
05:07
so their confidence level is lower.
110
307039
2128
takže ich miera spokojnosti so svojou odpoveďou je nižšia.
05:09
However, there is another set of people
111
309505
2943
Nájdu sa však aj takí,
05:12
who are very confident in answering somewhere in the middle.
112
312472
3618
ktorých spokojnosť so svojou odpoveďou niekde uprostred je veľmi vysoká.
05:16
We think these high-confident grays are folks who understand
113
316657
3716
Myslíme si, že títo ľudia označení sivou chápu,
05:20
that both arguments have merit.
114
320397
1612
že oba názory sú opodstatnené.
05:22
They're gray not because they're unsure,
115
322531
2699
Sú označení sivou nie preto, že si nie sú istí,
05:25
but because they believe that the moral dilemma faces
116
325254
2688
ale preto, že veria, že pri morálnych dilemách
05:27
two valid, opposing arguments.
117
327966
1987
existujú dva opodstatnené názory.
05:30
And we discovered that the groups that include highly confident grays
118
330373
4072
Zistili sme, že skupiny s členmi označenými sivou
05:34
are much more likely to reach consensus.
119
334469
2493
sa oveľa ľahšie dohodnú.
05:36
We do not know yet exactly why this is.
120
336986
2478
Zatiaľ však nevieme, prečo to tak je.
05:39
These are only the first experiments,
121
339488
1763
Sú to ešte len prvé experimenty
05:41
and many more will be needed to understand why and how
122
341275
3412
a bude ich treba ešte mnoho, aby sme porozumeli prečo a ako
05:44
some people decide to negotiate their moral standings
123
344711
2822
sa niektorí ľudia rozhodujú pri vyjednávaní morálnych otázok,
05:47
to reach an agreement.
124
347557
1522
aby sa dohodli.
05:49
Now, when groups reach consensus,
125
349103
2469
Keď sa teda skupiny dohodnú,
05:51
how do they do so?
126
351596
1586
ako k tomu vlastne dôjde?
05:53
The most intuitive idea is that it's just the average
127
353206
2581
Napadlo by nám, že je to priemer
05:55
of all the answers in the group, right?
128
355811
2030
všetkých odpovedí v skupine, no nie?
05:57
Another option is that the group weighs the strength of each vote
129
357865
3573
Alebo skupina kladie váhu každej odpovedi na základe toho,
06:01
based on the confidence of the person expressing it.
130
361462
2448
nakoľko je daný človek so svojou odpoveďou spokojný.
06:04
Imagine Paul McCartney is a member of your group.
131
364422
2506
Keby bol Paul McCartney členom vašej skupiny,
06:07
You'd be wise to follow his call
132
367352
2144
bolo by múdre ak by ste naňho dali
06:09
on the number of times "Yesterday" is repeated,
133
369520
2441
pri otázke o počte opakovaní slova „yesterday“.
06:11
which, by the way -- I think it's nine.
134
371985
2714
Odpoveď je myslím 9.
06:14
But instead, we found that consistently,
135
374723
2381
No napriek tomu sme zistili,
že vo všetkých dilemách v rôznych experimentoch,
06:17
in all dilemmas, in different experiments --
136
377128
2366
06:19
even on different continents --
137
379518
2165
dokonca na rôznych kontinentoch,
06:21
groups implement a smart and statistically sound procedure
138
381707
3743
skupiny využívajú rozumný a v štatistike známy postup
06:25
known as the "robust average."
139
385474
2178
nazývaný „lepší priemer“.
06:27
In the case of the height of the Eiffel Tower,
140
387676
2180
V prípade výšky Eiffelovej veže,
06:29
let's say a group has these answers:
141
389880
1820
povedzme, že skupina má odpovede
06:31
250 meters, 200 meters, 300 meters, 400
142
391724
4608
250 m, 200 m, 300 m, 400 m
06:36
and one totally absurd answer of 300 million meters.
143
396356
3784
a jednu úplne absurdnú odpoveď – 300 miliónov metrov.
06:40
A simple average of these numbers would inaccurately skew the results.
144
400547
4293
Priemer týchto čísel by nám dal nepresnú odpoveď.
06:44
But the robust average is one where the group largely ignores
145
404864
3170
No lepší priemer je taký, v ktorom skupina ignoruje
06:48
that absurd answer,
146
408058
1240
absurdnú odpoveď
06:49
by giving much more weight to the vote of the people in the middle.
147
409322
3369
a väčšiu váhu kladie odpovediam v strede.
06:53
Back to the experiment in Vancouver,
148
413305
1876
Vráťme sa k experimentu vo Vancouvri,
06:55
that's exactly what happened.
149
415205
1767
tam to tak bolo.
06:57
Groups gave much less weight to the outliers,
150
417407
2741
Skupiny neprikladali veľkú váhu krajným odpovediam,
07:00
and instead, the consensus turned out to be a robust average
151
420172
3229
ale ukázalo sa, že dohoda bola lepším priemerom
07:03
of the individual answers.
152
423425
1476
jednotlivých odpovedí.
07:05
The most remarkable thing
153
425356
1991
Najzaujímavejšie bolo,
07:07
is that this was a spontaneous behavior of the group.
154
427371
3187
že správanie skupiny bolo spontánne.
07:10
It happened without us giving them any hint on how to reach consensus.
155
430582
4475
Stalo sa tak bez toho, aby sme im my napovedali, ako sa majú dohodnuť.
07:15
So where do we go from here?
156
435513
1540
Čo teda ďalej?
07:17
This is only the beginning, but we already have some insights.
157
437432
3137
Je to len začiatok, no my už máme nejaký ten náhľad.
07:20
Good collective decisions require two components:
158
440984
2917
Dobré skupinové rozhodnutia si vyžadujú dve veci:
07:23
deliberation and diversity of opinions.
159
443925
2749
diskusiu a rôznorodosť názorov.
07:27
Right now, the way we typically make our voice heard in many societies
160
447066
3996
Momentálne vyjadrujeme v spoločnosti svoj názor tak,
07:31
is through direct or indirect voting.
161
451086
1908
že priamo alebo nepriamo hlasujeme.
07:33
This is good for diversity of opinions,
162
453495
1997
Podporuje to rôznorodosť názorov
07:35
and it has the great virtue of ensuring
163
455516
2445
a máme istotu,
07:37
that everyone gets to express their voice.
164
457985
2455
že každý dostane šancu vyjadriť sa.
07:40
But it's not so good [for fostering] thoughtful debates.
165
460464
3735
Nepodporuje to však rozumné debaty.
07:44
Our experiments suggest a different method
166
464665
3068
Naše experimenty svedčia v prospech inej metódy,
07:47
that may be effective in balancing these two goals at the same time,
167
467757
3541
ktorá by mohla vyvážiť obidva tieto ciele
07:51
by forming small groups that converge to a single decision
168
471322
3753
a to tak, že vytvoríme malé skupiny, ktoré dospejú k jednotnému rozhodnutiu
07:55
while still maintaining diversity of opinions
169
475099
2234
a pritom sa udrží rôznorodosť názorov,
07:57
because there are many independent groups.
170
477357
2773
pretože existuje veľa nezávislých skupín.
08:00
Of course, it's much easier to agree on the height of the Eiffel Tower
171
480741
3924
Samozrejme, že je jednoduchšie sa zhodnúť na výške Eiffelovej veže
08:04
than on moral, political and ideological issues.
172
484689
3115
ako na morálnych, politických a ideologických problémoch.
08:08
But in a time when the world's problems are more complex
173
488721
3277
No v čase, keď sú problémy sveta zložitejšie
08:12
and people are more polarized,
174
492022
1803
a názory ľudí odlišnejšie,
08:13
using science to help us understand how we interact and make decisions
175
493849
4595
používať vedy na pochopenie toho, ako komunikujeme a rozhodujeme sa,
08:18
will hopefully spark interesting new ways to construct a better democracy.
176
498468
4666
nám snáď pomôže objaviť zaujímavé nové spôsoby na zlepšenie demokracie.
O tomto webe

Táto stránka vám predstaví videá na YouTube, ktoré sú užitočné pri učení angličtiny. Uvidíte lekcie angličtiny, ktoré vedú špičkoví učitelia z celého sveta. Dvojitým kliknutím na anglické titulky zobrazené na stránke každého videa si môžete video odtiaľ prehrať. Titulky sa posúvajú synchronizovane s prehrávaním videa. Ak máte akékoľvek pripomienky alebo požiadavky, kontaktujte nás prostredníctvom tohto kontaktného formulára.

https://forms.gle/WvT1wiN1qDtmnspy7