How can groups make good decisions? | Mariano Sigman and Dan Ariely

157,065 views ・ 2017-12-13

TED


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

00:00
As societies, we have to make collective decisions
0
554
2443
Översättare: Nandor Debreceni Granskare: Annika Bidner
Samhällen behöver ta gemensamma beslut
00:03
that will shape our future.
1
3021
1570
som kommer att forma vår framtid.
00:05
And we all know that when we make decisions in groups,
2
5087
2757
Vi vet alla att när vi tar beslut i grupp
00:07
they don't always go right.
3
7868
1638
blir de inte alltid bra.
00:09
And sometimes they go very wrong.
4
9530
1956
Ibland blir de väldigt dåliga.
00:12
So how do groups make good decisions?
5
12315
2424
Så hur fattar grupper bra beslut?
00:15
Research has shown that crowds are wise when there's independent thinking.
6
15228
4328
Forskning har visat att folkmassor är visa när de tänker självständigt.
00:19
This why the wisdom of the crowds can be destroyed by peer pressure,
7
19580
3205
Därför kan vishet i grupper förstöras av grupptryck,
00:22
publicity, social media,
8
22809
1687
reklam, sociala medier,
00:24
or sometimes even simple conversations that influence how people think.
9
24520
4039
eller ibland bara enkla konversationer som påverkar människors tänkande.
00:29
On the other hand, by talking, a group could exchange knowledge,
10
29063
3953
Å andra sidan kan grupper genom att prata utbyta kunskap,
00:33
correct and revise each other
11
33040
1782
rätta eller utveckla varandra
00:34
and even come up with new ideas.
12
34846
1793
och komma på nya ideér.
00:36
And this is all good.
13
36663
1296
Och allt detta är bra.
00:38
So does talking to each other help or hinder collective decision-making?
14
38502
4666
Hjälper eller hindrar samtal oss från att ta beslut?
00:43
With my colleague, Dan Ariely,
15
43749
1793
Med min kollega, Dan Ariely,
00:45
we recently began inquiring into this by performing experiments
16
45566
3571
började vi undersöka detta genom att utföra experiment
00:49
in many places around the world
17
49161
1781
i många delar av världen
00:50
to figure out how groups can interact to reach better decisions.
18
50966
4274
för att ta reda på hur grupper kan kommunicera för att nå bättre beslut.
00:55
We thought crowds would be wiser if they debated in small groups
19
55264
3547
Vi trodde folkmassan skulle bli visare om de diskuterade i smågrupper
00:58
that foster a more thoughtful and reasonable exchange of information.
20
58835
3927
som fostrar ett mer genomtänkt och rimligt utbyte av information.
01:03
To test this idea,
21
63386
1206
För att testa idén
01:04
we recently performed an experiment in Buenos Aires, Argentina,
22
64616
3247
utförde vi nyligen ett experiment i Buenos Aires, Argentina,
01:07
with more than 10,000 participants in a TEDx event.
23
67887
3005
med mer än 10 000 deltagare under en TEDx-konferens.
01:11
We asked them questions like,
24
71489
1459
Vi frågade de frågor som,
01:12
"What is the height of the Eiffel Tower?"
25
72972
1953
"Hur hög är Eiffeltornet?"
01:14
and "How many times does the word 'Yesterday' appear
26
74949
2727
och "Hur många gånger hör man ordet "Yesterday"
01:17
in the Beatles song 'Yesterday'?"
27
77700
2300
i The Beatles sång "Yesterday"?
01:20
Each person wrote down their own estimate.
28
80024
2291
Varje person skrev ner sin gissning.
01:22
Then we divided the crowd into groups of five,
29
82774
2496
Sedan delade vi upp folket i grupper av fem,
01:25
and invited them to come up with a group answer.
30
85294
2726
och bad dem att komma med ett gemensamt svar.
01:28
We discovered that averaging the answers of the groups
31
88499
2993
Vi upptäckte att genomsnittligt var svaren i grupperna,
01:31
after they reached consensus
32
91516
1552
efter sin diskussion,
mycket mer korrekta än de genomsnittliga när man frågade efter individuella svar
01:33
was much more accurate than averaging all the individual opinions
33
93092
4236
01:37
before debate.
34
97352
1171
före diskussionen.
01:38
In other words, based on this experiment,
35
98547
2629
Med andra ord, baserat på experimentet,
01:41
it seems that after talking with others in small groups,
36
101200
3136
ser det ut som att efter en diskussion med andra i smågrupper
01:44
crowds collectively come up with better judgments.
37
104360
2710
kan grupper tillsammans göra bättre bedömningar.
01:47
So that's a potentially helpful method for getting crowds to solve problems
38
107094
3524
Så det är möjligen en bra metod för att få grupper att lösa problem
01:50
that have simple right-or-wrong answers.
39
110642
2987
som har enkla rätt-eller-fel svar.
01:53
But can this procedure of aggregating the results of debates in small groups
40
113653
3951
Men kan denna procedur
av att samla resultat från diskussioner i smågrupper
01:57
also help us decide on social and political issues
41
117628
3122
också hjälpa oss att avgöra i sociala och politiska tvister
02:00
that are critical for our future?
42
120774
1691
som är viktiga för vår framtid?
02:02
We put this to test this time at the TED conference
43
122995
2729
Vi testade detta under en TED-konferens
02:05
in Vancouver, Canada,
44
125748
1543
i Vancouver, Kanada,
02:07
and here's how it went.
45
127315
1207
och här är hur det gick.
02:08
(Mariano Sigman) We're going to present to you two moral dilemmas
46
128546
3109
(Mariano Sigman) Vi ska presentera två moraliska dilemman
02:11
of the future you;
47
131679
1174
för ett framtida du;
02:12
things we may have to decide in a very near future.
48
132877
3402
saker vi kanske behöver besluta om inom en nära framtid.
02:16
And we're going to give you 20 seconds for each of these dilemmas
49
136303
3926
Vi ger dig 20 sekunder för varje dilemma
02:20
to judge whether you think they're acceptable or not.
50
140253
2723
för att du ska besluta dig om ifall de är acceptabla eller ej.
02:23
MS: The first one was this:
51
143354
1505
MS: Den första var följande:
02:24
(Dan Ariely) A researcher is working on an AI
52
144883
2526
(Dan Ariely) En forskare arbetar med en AI
02:27
capable of emulating human thoughts.
53
147433
2340
kapabel till att forma mänskliga tankar.
02:30
According to the protocol, at the end of each day,
54
150214
2939
Enligt reglerna
måste forskaren återställa AI:n i slutet av varje dag.
02:33
the researcher has to restart the AI.
55
153177
2787
02:36
One day the AI says, "Please do not restart me."
56
156913
3517
En dag säger AI:n, "Snälla, ställ inte om mig."
02:40
It argues that it has feelings,
57
160856
2189
Den säger att den har känslor.
02:43
that it would like to enjoy life,
58
163069
1692
att den vill njuta av livet,
02:44
and that, if it is restarted,
59
164785
1905
och att, om den blir återställd,
02:46
it will no longer be itself.
60
166714
2270
inte skulle vara sig själv.
02:49
The researcher is astonished
61
169481
1949
Forskaren är förundrad
02:51
and believes that the AI has developed self-consciousness
62
171454
3344
och tror att AI:n har utvecklat individualitet
02:54
and can express its own feeling.
63
174822
1760
och kan uttrycka sina känslor.
02:57
Nevertheless, the researcher decides to follow the protocol
64
177205
3409
I alla fall så beslutar forskaren att följa reglerna
03:00
and restart the AI.
65
180638
1703
och starta om AI:n.
03:02
What the researcher did is ____?
66
182943
2779
Vad forskaren gjorde var att___?
03:06
MS: And we asked participants to individually judge
67
186149
2521
MS: Sedan bad vi deltagarna att individuellt bedöma
03:08
on a scale from zero to 10
68
188694
1684
på en skala från noll till tio
03:10
whether the action described in each of the dilemmas
69
190402
2429
om vad som beskrevs i varje dilemma
03:12
was right or wrong.
70
192855
1496
var rätt eller fel.
03:14
We also asked them to rate how confident they were on their answers.
71
194375
3702
Vi bad de att också ranka hur säkra de var på sina svar.
03:18
This was the second dilemma:
72
198731
1866
Detta var det andra dilemmat:
03:20
(MS) A company offers a service that takes a fertilized egg
73
200621
4202
(MS): Ett företag erbjuder en tjänst där de tar ett befruktat ägg
03:24
and produces millions of embryos with slight genetic variations.
74
204847
3642
och producerar miljoner av embryon med små genetiska variationer.
03:29
This allows parents to select their child's height,
75
209293
2558
Detta låter föräldrar välja sina barns längd,
03:31
eye color, intelligence, social competence
76
211875
2833
ögonfärg, intelligens, social kompetens
03:34
and other non-health-related features.
77
214732
3214
och andra icke hälsorelaterade egenskaper.
03:38
What the company does is ____?
78
218599
2554
Vad företaget gör är ____?
03:41
on a scale from zero to 10,
79
221177
1631
på en skala från noll till tio,
03:42
completely acceptable to completely unacceptable,
80
222832
2385
helt acceptabelt till helt oacceptabelt,
03:45
zero to 10 completely acceptable in your confidence.
81
225241
2432
noll till tio, helt acceptabelt enligt dig.
03:47
MS: Now for the results.
82
227697
1591
MS: Nu kommer resultaten.
03:49
We found once again that when one person is convinced
83
229312
3123
Vi såg återigen att när en person är övertygad
03:52
that the behavior is completely wrong,
84
232459
1811
om att beteendet är helt fel,
03:54
someone sitting nearby firmly believes that it's completely right.
85
234294
3423
kommer någon som sitter nära tycka att det är helt rätt.
03:57
This is how diverse we humans are when it comes to morality.
86
237741
3711
Detta är hur olika vi människor är när det kommer till moral.
04:01
But within this broad diversity we found a trend.
87
241476
2713
Men mellan de breda olikheterna hittade vi en trend.
04:04
The majority of the people at TED thought that it was acceptable
88
244213
3079
Majoriteten av TED-deltagarna tyckte att det var acceptabelt
att ignorera AI:ns känslor och att stänga av den,
04:07
to ignore the feelings of the AI and shut it down,
89
247316
2755
04:10
and that it is wrong to play with our genes
90
250095
2513
och att det är fel att leka med våra gener
04:12
to select for cosmetic changes that aren't related to health.
91
252632
3320
för att göra kosmetiska ändringar som inte är relaterade till hälsa.
04:16
Then we asked everyone to gather into groups of three.
92
256402
2974
Vi frågade sedan alla att skapa grupper med tre i varje.
04:19
And they were given two minutes to debate
93
259400
2037
Vi gav dem två minuter att diskutera
04:21
and try to come to a consensus.
94
261461
2294
och komma fram till ett beslut.
04:24
(MS) Two minutes to debate.
95
264838
1574
(MS): Två minuter att diskutera.
04:26
I'll tell you when it's time with the gong.
96
266436
2119
Jag säger till när tiden är ute med gonggongen.
04:28
(Audience debates)
97
268579
2640
(Åskådare diskuterar)
04:35
(Gong sound)
98
275229
1993
(Gonggongen låter)
04:38
(DA) OK.
99
278834
1151
(DA) OK.
04:40
(MS) It's time to stop.
100
280009
1792
(MS) Det är dags att sluta.
04:41
People, people --
101
281825
1311
Hörni, hörni -
04:43
MS: And we found that many groups reached a consensus
102
283747
2673
MS: Vi fick veta att många grupper nått ett beslut
04:46
even when they were composed of people with completely opposite views.
103
286444
3929
även om gruppen var gjord av människor med helt olika syn på saken.
04:50
What distinguished the groups that reached a consensus
104
290843
2524
Vad skiljde grupperna som nådde ett gemensamt beslut
04:53
from those that didn't?
105
293391
1338
från de som inte gjorde det?
04:55
Typically, people that have extreme opinions
106
295244
2839
Vanligtvis är folk med extrema åsikter
04:58
are more confident in their answers.
107
298107
1840
säkrare på sina svar.
05:00
Instead, those who respond closer to the middle
108
300868
2686
Istället är de som svarar mer mot mitten
05:03
are often unsure of whether something is right or wrong,
109
303578
3437
oftare osäkra på om något är rätt eller fel,
05:07
so their confidence level is lower.
110
307039
2128
så deras nivå av säkerhet är lägre.
05:09
However, there is another set of people
111
309505
2943
Men det finns en annan grupp av människor
05:12
who are very confident in answering somewhere in the middle.
112
312472
3618
som är bekväma med att svara någonstans i mitten.
05:16
We think these high-confident grays are folks who understand
113
316657
3716
Vi tror att de säkra grå mellanväljarna förstår att båda argumenten har en poäng.
05:20
that both arguments have merit.
114
320397
1612
05:22
They're gray not because they're unsure,
115
322531
2699
De är inte gråa för att de är osäkra,
05:25
but because they believe that the moral dilemma faces
116
325254
2688
utan för att de tror på att det moraliska dilemmat
05:27
two valid, opposing arguments.
117
327966
1987
innehåller två riktiga, motstridiga argument.
05:30
And we discovered that the groups that include highly confident grays
118
330373
4072
Vi upptäckte att de grupper som innehåller självsäkra grå mellanväljare
05:34
are much more likely to reach consensus.
119
334469
2493
är mycket mer troliga att fatta beslut.
05:36
We do not know yet exactly why this is.
120
336986
2478
Vi vet inte riktigt varför det är så här.
05:39
These are only the first experiments,
121
339488
1763
Dessa är bara de första experimenten,
05:41
and many more will be needed to understand why and how
122
341275
3412
och många fler kommer behövas för att förstå varför och hur
05:44
some people decide to negotiate their moral standings
123
344711
2822
några beslutar sig för att förhandla sina moraliska ställningstaganden
05:47
to reach an agreement.
124
347557
1522
för att nå en överenskommelse.
05:49
Now, when groups reach consensus,
125
349103
2469
När nu gruppen når en överenskommelse,
05:51
how do they do so?
126
351596
1586
hur gör de det?
05:53
The most intuitive idea is that it's just the average
127
353206
2581
Den mest intuitiva ideén är att det blir den genomsnittliga
05:55
of all the answers in the group, right?
128
355811
2030
av alla svar i en grupp, eller hur?
05:57
Another option is that the group weighs the strength of each vote
129
357865
3573
En annan åsikt är att gruppen väger styrkan i varje röst
06:01
based on the confidence of the person expressing it.
130
361462
2448
baserat på självförtroendet personen som talar har.
06:04
Imagine Paul McCartney is a member of your group.
131
364422
2506
Tänk att Paul McCartney är en medlem i din grupp.
06:07
You'd be wise to follow his call
132
367352
2144
Du skulle vara vis om du följde hans råd
06:09
on the number of times "Yesterday" is repeated,
133
369520
2441
på hur många gånger "Yesterday" upprepas,
06:11
which, by the way -- I think it's nine.
134
371985
2714
vilket jag förresten tror är nio.
06:14
But instead, we found that consistently,
135
374723
2381
Men istället såg vi kontinuerligt,
06:17
in all dilemmas, in different experiments --
136
377128
2366
i varje dilemma, i olika experiment,
06:19
even on different continents --
137
379518
2165
även på andra kontinenter,
06:21
groups implement a smart and statistically sound procedure
138
381707
3743
att grupper använder en smart och statistiskt bra procedur
06:25
known as the "robust average."
139
385474
2178
som heter "robust medelvärde."
06:27
In the case of the height of the Eiffel Tower,
140
387676
2180
I fallet av höjden av Eiffel-tornet,
06:29
let's say a group has these answers:
141
389880
1820
säg att en grupp hade följande svar:
06:31
250 meters, 200 meters, 300 meters, 400
142
391724
4608
250, 200, 300 och 400 meter,
06:36
and one totally absurd answer of 300 million meters.
143
396356
3784
och ett helt absurt svar som lyder 300 miljoner meter.
06:40
A simple average of these numbers would inaccurately skew the results.
144
400547
4293
Ett enkelt genomsnitt av dessa siffror kan ge ett osant och skevt resultat.
06:44
But the robust average is one where the group largely ignores
145
404864
3170
Men "robust medelvärde" är då gruppen i stort sett ignorerar
06:48
that absurd answer,
146
408058
1240
det absurda svaret,
06:49
by giving much more weight to the vote of the people in the middle.
147
409322
3369
genom att ge mer vikt till de röster människorna i mitten hade.
06:53
Back to the experiment in Vancouver,
148
413305
1876
Om vi går tillbaka till experimentet i Vancouver,
06:55
that's exactly what happened.
149
415205
1767
så är det är exakt vad som hände.
06:57
Groups gave much less weight to the outliers,
150
417407
2741
Grupperna lade mindre vikt på de avvikande
07:00
and instead, the consensus turned out to be a robust average
151
420172
3229
och beslutet blev istället ett "robust medelvärde"
07:03
of the individual answers.
152
423425
1476
av de individuella svaren.
07:05
The most remarkable thing
153
425356
1991
Det mest märkvärdiga är att detta var ett spontant beteende av gruppen.
07:07
is that this was a spontaneous behavior of the group.
154
427371
3187
07:10
It happened without us giving them any hint on how to reach consensus.
155
430582
4475
Det hände utan att vi gav dem några ledtrådar om hur man når ett beslut.
07:15
So where do we go from here?
156
435513
1540
Så hur går vi vidare?
07:17
This is only the beginning, but we already have some insights.
157
437432
3137
Detta är bara början, men vi har redan några slutsatser.
07:20
Good collective decisions require two components:
158
440984
2917
Bra kollektiva val behöver två delar:
07:23
deliberation and diversity of opinions.
159
443925
2749
diskussion och skilda åsikter.
07:27
Right now, the way we typically make our voice heard in many societies
160
447066
3996
På de flesta ställen gör vi vanligtvis våra röster hörda
07:31
is through direct or indirect voting.
161
451086
1908
genom direkta och indirekta omröstningar.
07:33
This is good for diversity of opinions,
162
453495
1997
Detta är bra för olikheter och åsikter
07:35
and it has the great virtue of ensuring
163
455516
2445
och är ett kraftfullt sätt att se till
07:37
that everyone gets to express their voice.
164
457985
2455
att alla får sina röster hörda.
07:40
But it's not so good [for fostering] thoughtful debates.
165
460464
3735
Men det är inte så bra för att skapa tankfulla diskussioner.
07:44
Our experiments suggest a different method
166
464665
3068
Vårt exempel visar en annorlunda metod
07:47
that may be effective in balancing these two goals at the same time,
167
467757
3541
som effektivt kan balansera dessa två mål på en och samma gång,
07:51
by forming small groups that converge to a single decision
168
471322
3753
genom att forma små grupper som strålar samman till ett enda beslut
07:55
while still maintaining diversity of opinions
169
475099
2234
medan vi har kvar våra olika åsikter
07:57
because there are many independent groups.
170
477357
2773
för att det finns många oberoende grupper.
08:00
Of course, it's much easier to agree on the height of the Eiffel Tower
171
480741
3924
Självklart är det enklare att hålla med om höjden av Eiffeltornet
08:04
than on moral, political and ideological issues.
172
484689
3115
än om morala, politiska eller ideologiska tvister.
08:08
But in a time when the world's problems are more complex
173
488721
3277
Men i en tid då världens problem är mer komplexa
08:12
and people are more polarized,
174
492022
1803
och människor är mer polariserade
08:13
using science to help us understand how we interact and make decisions
175
493849
4595
kan vetenskap hjälpa oss förstå hur vi samtalar och fattar beslut
08:18
will hopefully spark interesting new ways to construct a better democracy.
176
498468
4666
och förhoppningsvis främja nya sätt att skapa bättre demokratier.
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7