How can groups make good decisions? | Mariano Sigman and Dan Ariely

157,974 views ・ 2017-12-13

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

00:00
As societies, we have to make collective decisions
0
554
2443
Vertaald door: Mathilde Kennis Nagekeken door: Peter van de Ven
Als maatschappij nemen we collectieve beslissingen
die onze toekomst bepalen
00:03
that will shape our future.
1
3021
1570
en we weten allemaal dat collective beslissingen
00:05
And we all know that when we make decisions in groups,
2
5087
2757
00:07
they don't always go right.
3
7868
1638
niet altijd goed aflopen.
00:09
And sometimes they go very wrong.
4
9530
1956
Soms gaat het zelfs helemaal fout.
00:12
So how do groups make good decisions?
5
12315
2424
Dus hoe kunnen groepen goede beslissingen nemen?
00:15
Research has shown that crowds are wise when there's independent thinking.
6
15228
4328
Uit onderzoek blijkt dat groepen wijs zijn wanneer er onafhankelijk nagedacht wordt.
00:19
This why the wisdom of the crowds can be destroyed by peer pressure,
7
19580
3205
Daarom kan de groepswijsheid vernietigd worden door groepsdruk,
00:22
publicity, social media,
8
22809
1687
publiciteit, sociale media
00:24
or sometimes even simple conversations that influence how people think.
9
24520
4039
of soms zelfs simpele gesprekken die iemands denken beïnvloeden.
00:29
On the other hand, by talking, a group could exchange knowledge,
10
29063
3953
Aan de andere kant kan een groep door te praten kennis uitwisselen,
elkaar verbeteren
00:33
correct and revise each other
11
33040
1782
00:34
and even come up with new ideas.
12
34846
1793
en zelfs nieuwe ideeën bedenken.
00:36
And this is all good.
13
36663
1296
En dat is allemaal goed.
00:38
So does talking to each other help or hinder collective decision-making?
14
38502
4666
Dus is praten met elkaar goed of slecht bij het nemen van groepsbeslissingen?
00:43
With my colleague, Dan Ariely,
15
43749
1793
Met mijn collega, Dan Ariely, ben ik onlangs begonnen dit te onderzoeken
00:45
we recently began inquiring into this by performing experiments
16
45566
3571
door experimenten uit te voeren over de hele wereld
00:49
in many places around the world
17
49161
1781
00:50
to figure out how groups can interact to reach better decisions.
18
50966
4274
om uit te dokteren hoe groepen tot betere beslissingen kunnen komen.
00:55
We thought crowds would be wiser if they debated in small groups
19
55264
3547
We dachten dat groepen wijzer waren als ze in kleine groepjes debatteerden
00:58
that foster a more thoughtful and reasonable exchange of information.
20
58835
3927
vanwege de meer doordachte uitwisseling van informatie.
01:03
To test this idea,
21
63386
1206
Om dit idee te testen
01:04
we recently performed an experiment in Buenos Aires, Argentina,
22
64616
3247
voerden we onlangs een experiment uit in Buenos Aires, Argentinië,
01:07
with more than 10,000 participants in a TEDx event.
23
67887
3005
met meer dan tienduizend deelnemers aan een TEDx evenement.
01:11
We asked them questions like,
24
71489
1459
We stelden hen vragen zoals
01:12
"What is the height of the Eiffel Tower?"
25
72972
1953
"Hoe hoog is de Eiffeltoren?"
01:14
and "How many times does the word 'Yesterday' appear
26
74949
2727
en "Hoe vaak hoor je het woord 'Yesterday'
01:17
in the Beatles song 'Yesterday'?"
27
77700
2300
in het gelijknamige lied van de Beatles?"
01:20
Each person wrote down their own estimate.
28
80024
2291
Iedereen schreef zijn of haar schatting neer.
01:22
Then we divided the crowd into groups of five,
29
82774
2496
Dan verdeelden we de hele groep in groepjes van vijf
01:25
and invited them to come up with a group answer.
30
85294
2726
en nodigden hen uit een antwoord als groep te geven.
01:28
We discovered that averaging the answers of the groups
31
88499
2993
We ontdekten dat het gemiddelde van de antwoorden van de groepjes
01:31
after they reached consensus
32
91516
1552
nadat er overlegd was
01:33
was much more accurate than averaging all the individual opinions
33
93092
4236
veel juister was dan het gemiddelde van al de individuele schattingen
01:37
before debate.
34
97352
1171
vóór het overleg.
01:38
In other words, based on this experiment,
35
98547
2629
Met andere woorden, volgens dit experiment
01:41
it seems that after talking with others in small groups,
36
101200
3136
lijkt het dat na gesprekken in kleinere groepjes
01:44
crowds collectively come up with better judgments.
37
104360
2710
grote groepen samen juistere oordelen vellen.
01:47
So that's a potentially helpful method for getting crowds to solve problems
38
107094
3524
Dus dat is mogelijk een goede methode om groepen te helpen bij problemen
01:50
that have simple right-or-wrong answers.
39
110642
2987
die vragen om een simpel juist-of-fout-antwoord.
01:53
But can this procedure of aggregating the results of debates in small groups
40
113653
3951
Maar kan die procedure van het samenvoegen van overleg in kleine groepjes
01:57
also help us decide on social and political issues
41
117628
3122
ons ook helpen bij beslissingen rond sociale en politieke zaken
02:00
that are critical for our future?
42
120774
1691
die kritiek zijn voor onze toekomst?
02:02
We put this to test this time at the TED conference
43
122995
2729
Dat onderzochten we op de TED conferentie
02:05
in Vancouver, Canada,
44
125748
1543
in Vancouver, Canada,
02:07
and here's how it went.
45
127315
1207
en het ging zo ...
02:08
(Mariano Sigman) We're going to present to you two moral dilemmas
46
128546
3109
We leggen jullie twee morele dilemma's voor
02:11
of the future you;
47
131679
1174
van de toekomstige jij;
02:12
things we may have to decide in a very near future.
48
132877
3402
zaken waarover we misschien al in de nabije toekomst moeten beslissen.
02:16
And we're going to give you 20 seconds for each of these dilemmas
49
136303
3926
En we geven je 20 seconden per dilemma
02:20
to judge whether you think they're acceptable or not.
50
140253
2723
om te bepalen of je vindt dat het acceptabel is of niet.
02:23
MS: The first one was this:
51
143354
1505
Dit was het eerste dilemma:
02:24
(Dan Ariely) A researcher is working on an AI
52
144883
2526
Een onderzoeker werkt aan een AI,
kunstmatige intelligentie die menselijke gedachten kan produceren.
02:27
capable of emulating human thoughts.
53
147433
2340
02:30
According to the protocol, at the end of each day,
54
150214
2939
Volgens het protocol moet de wetenschapper aan het eind van elke dag
02:33
the researcher has to restart the AI.
55
153177
2787
de AI herstarten.
02:36
One day the AI says, "Please do not restart me."
56
156913
3517
Op een dag zegt de AI: "Herstart me alsjeblieft niet."
02:40
It argues that it has feelings,
57
160856
2189
Het beweert gevoelens te hebben
02:43
that it would like to enjoy life,
58
163069
1692
en van het leven te willen genieten,
02:44
and that, if it is restarted,
59
164785
1905
en dat het na het herstarten
02:46
it will no longer be itself.
60
166714
2270
niet langer zichzelf zal zijn.
02:49
The researcher is astonished
61
169481
1949
De onderzoeker is verwonderd
02:51
and believes that the AI has developed self-consciousness
62
171454
3344
en gelooft dat de AI een zelfbewustzijn heeft ontwikkeld
02:54
and can express its own feeling.
63
174822
1760
en zijn eigen gevoel kan uitdrukken.
02:57
Nevertheless, the researcher decides to follow the protocol
64
177205
3409
Toch besluit de onderzoeker het protocol uit te voeren
03:00
and restart the AI.
65
180638
1703
en de AI te herstarten.
03:02
What the researcher did is ____?
66
182943
2779
Wat de onderzoeker deed is ... ?
03:06
MS: And we asked participants to individually judge
67
186149
2521
We vroegen deelnemers individueel te beoordelen
03:08
on a scale from zero to 10
68
188694
1684
op een schaal van nul tot tien
03:10
whether the action described in each of the dilemmas
69
190402
2429
of de acties beschreven in de dilemma's
03:12
was right or wrong.
70
192855
1496
juist of fout waren.
03:14
We also asked them to rate how confident they were on their answers.
71
194375
3702
We vroegen hen ook aan te geven hoe zeker ze waren van hun antwoorden.
03:18
This was the second dilemma:
72
198731
1866
Dit was het tweede dilemma:
03:20
(MS) A company offers a service that takes a fertilized egg
73
200621
4202
Een bedrijf heeft als dienst een bevrucht eitje te nemen
03:24
and produces millions of embryos with slight genetic variations.
74
204847
3642
en miljoenen embryo's te produceren met lichte genetische variaties.
03:29
This allows parents to select their child's height,
75
209293
2558
Zo kunnen ouders de lengte, oogkleur,
03:31
eye color, intelligence, social competence
76
211875
2833
intelligentie, sociale vaardigheid
03:34
and other non-health-related features.
77
214732
3214
en andere niet aan de gezondheid gerelateerde eigenschappen kiezen.
03:38
What the company does is ____?
78
218599
2554
Wat het bedrijf doet is ... ?
03:41
on a scale from zero to 10,
79
221177
1631
Op een schaal van nul tot tien,
03:42
completely acceptable to completely unacceptable,
80
222832
2385
volledig acceptabel tot volledig onacceptabel
03:45
zero to 10 completely acceptable in your confidence.
81
225241
2432
en hoe zeker ben je daarvan?
03:47
MS: Now for the results.
82
227697
1591
Hier zijn de resultaten.
03:49
We found once again that when one person is convinced
83
229312
3123
Opnieuw ondervonden we dat wanneer iemand ervan overtuigd is
03:52
that the behavior is completely wrong,
84
232459
1811
dat het gedrag helemaal verkeerd is,
03:54
someone sitting nearby firmly believes that it's completely right.
85
234294
3423
iemand die vlakbij zit het juist helemaal goed vindt.
03:57
This is how diverse we humans are when it comes to morality.
86
237741
3711
Zo divers zijn wij mensen als het gaat om moraliteit.
04:01
But within this broad diversity we found a trend.
87
241476
2713
Maar we zagen wel een trend in die verscheidenheid.
04:04
The majority of the people at TED thought that it was acceptable
88
244213
3079
De meerderheid van de TED-bezoekers vond het acceptabel
04:07
to ignore the feelings of the AI and shut it down,
89
247316
2755
om de gevoelens van de AI te negeren en het uit te schakelen
04:10
and that it is wrong to play with our genes
90
250095
2513
en vond dat het fout was met onze genen te spelen
04:12
to select for cosmetic changes that aren't related to health.
91
252632
3320
om uiterlijkheden te selecteren die niets te maken hebben met gezondheid.
04:16
Then we asked everyone to gather into groups of three.
92
256402
2974
Hierna vroegen we iedereen groepjes van drie personen te vormen.
04:19
And they were given two minutes to debate
93
259400
2037
Ze kregen twee minuten om te debatteren
04:21
and try to come to a consensus.
94
261461
2294
en te trachten tot een consensus te komen.
04:24
(MS) Two minutes to debate.
95
264838
1574
Twee minuten voor overleg.
04:26
I'll tell you when it's time with the gong.
96
266436
2119
De gong geeft aan wanneer de tijd om is.
04:28
(Audience debates)
97
268579
2640
(Publiek overlegt)
04:35
(Gong sound)
98
275229
1993
(Geluid van de gong)
04:38
(DA) OK.
99
278834
1151
Oké.
04:40
(MS) It's time to stop.
100
280009
1792
Tijd om te stoppen.
04:41
People, people --
101
281825
1311
Mensen, mensen --
04:43
MS: And we found that many groups reached a consensus
102
283747
2673
En we zagen dat veel groepen een consensus bereikt hadden,
04:46
even when they were composed of people with completely opposite views.
103
286444
3929
ook al hadden de groepsleden volledig uiteenlopende visies.
04:50
What distinguished the groups that reached a consensus
104
290843
2524
Waarin verschilden de groepen met consensus dan
04:53
from those that didn't?
105
293391
1338
van de groepen zonder?
04:55
Typically, people that have extreme opinions
106
295244
2839
Mensen met extreme meningen
04:58
are more confident in their answers.
107
298107
1840
hebben meer vertrouwen in hun antwoorden.
05:00
Instead, those who respond closer to the middle
108
300868
2686
Degenen die meer naar het midden neigen,
05:03
are often unsure of whether something is right or wrong,
109
303578
3437
zijn vaak onzeker of iets goed of fout is,
dus hun vertrouwen ligt lager.
05:07
so their confidence level is lower.
110
307039
2128
05:09
However, there is another set of people
111
309505
2943
Er is echter nog een groep mensen
05:12
who are very confident in answering somewhere in the middle.
112
312472
3618
die vol vertrouwen ergens in het midden antwoorden.
05:16
We think these high-confident grays are folks who understand
113
316657
3716
Volgens ons zijn die zelfzekere grijzerds díe mensen
05:20
that both arguments have merit.
114
320397
1612
die begrijpen dat beide argumenten iets hebben.
05:22
They're gray not because they're unsure,
115
322531
2699
Ze zijn niet grijs omdat ze onzeker zijn,
05:25
but because they believe that the moral dilemma faces
116
325254
2688
maar omdat ze geloven dat het morele dilemma
05:27
two valid, opposing arguments.
117
327966
1987
twee valide, tegengestelde argumenten confronteert.
05:30
And we discovered that the groups that include highly confident grays
118
330373
4072
We ontdekten dat groepen met zelfzekere grijzerds
05:34
are much more likely to reach consensus.
119
334469
2493
veel waarschijnlijker consensus bereiken.
05:36
We do not know yet exactly why this is.
120
336986
2478
We weten nog niet precies waarom.
05:39
These are only the first experiments,
121
339488
1763
Dit waren de eerste experimenten
05:41
and many more will be needed to understand why and how
122
341275
3412
en er zijn er nog veel meer nodig om te begrijpen hoe en waarom
05:44
some people decide to negotiate their moral standings
123
344711
2822
sommigen willen onderhandelen over hun morele standpunt
05:47
to reach an agreement.
124
347557
1522
om een akkoord te bereiken.
05:49
Now, when groups reach consensus,
125
349103
2469
Als groepen consensus bereiken,
05:51
how do they do so?
126
351596
1586
hoe doen ze dat dan?
05:53
The most intuitive idea is that it's just the average
127
353206
2581
Je intuïtie zegt dat het gewoon het gemiddelde
05:55
of all the answers in the group, right?
128
355811
2030
van alle antwoorden in de groep is, toch?
05:57
Another option is that the group weighs the strength of each vote
129
357865
3573
Een andere optie is dat de groep een gewicht geeft aan elke stem
06:01
based on the confidence of the person expressing it.
130
361462
2448
gebaseerd op de zekerheid van de persoon erachter.
06:04
Imagine Paul McCartney is a member of your group.
131
364422
2506
Stel dat Paul McCartney een lid van jouw groep is.
06:07
You'd be wise to follow his call
132
367352
2144
Het zou wijs zijn om zijn idee te volgen
06:09
on the number of times "Yesterday" is repeated,
133
369520
2441
omtrent hoe vaak 'Yesterday' herhaald wordt --
06:11
which, by the way -- I think it's nine.
134
371985
2714
wat trouwens negen keer is, denk ik.
06:14
But instead, we found that consistently,
135
374723
2381
Maar in plaats daarvan vonden we steeds,
06:17
in all dilemmas, in different experiments --
136
377128
2366
in alle dilemma's, in verschillende experimenten,
06:19
even on different continents --
137
379518
2165
zelfs op verschillende continenten,
06:21
groups implement a smart and statistically sound procedure
138
381707
3743
dat groepen gebruik maken van een slim, statistisch concept,
06:25
known as the "robust average."
139
385474
2178
namelijk het 'robuuste gemiddelde'.
06:27
In the case of the height of the Eiffel Tower,
140
387676
2180
Stel dat in het geval van de Eiffeltoren
06:29
let's say a group has these answers:
141
389880
1820
een groep deze antwoorden heeft:
06:31
250 meters, 200 meters, 300 meters, 400
142
391724
4608
250 meter, 200 meter, 300 meter, 400 meter
06:36
and one totally absurd answer of 300 million meters.
143
396356
3784
en een volledig absurd antwoord van 300 miljoen meter.
06:40
A simple average of these numbers would inaccurately skew the results.
144
400547
4293
Een simpel gemiddelde van die getallen zou het resultaat scheeftrekken.
06:44
But the robust average is one where the group largely ignores
145
404864
3170
Maar bij het robuuste gemiddelde negeert de groep grotendeels
06:48
that absurd answer,
146
408058
1240
het absurde antwoord
06:49
by giving much more weight to the vote of the people in the middle.
147
409322
3369
door meer gewicht te geven aan de stemmen in het midden.
06:53
Back to the experiment in Vancouver,
148
413305
1876
Terug naar het experiment in Vancouver:
06:55
that's exactly what happened.
149
415205
1767
dat is precies wat er gebeurde.
06:57
Groups gave much less weight to the outliers,
150
417407
2741
Groepen gaven veel minder gewicht aan de uitschieters
07:00
and instead, the consensus turned out to be a robust average
151
420172
3229
en de consensus bleek overeen te komen met het robuuste gemiddelde
07:03
of the individual answers.
152
423425
1476
van de individuele antwoorden.
07:05
The most remarkable thing
153
425356
1991
Het meest opvallende hieraan
07:07
is that this was a spontaneous behavior of the group.
154
427371
3187
is dat de groep dit spontaan deed.
07:10
It happened without us giving them any hint on how to reach consensus.
155
430582
4475
Het gebeurde zonder dat we hen een hint moesten geven.
07:15
So where do we go from here?
156
435513
1540
Hoe gaan we hier nu mee verder?
07:17
This is only the beginning, but we already have some insights.
157
437432
3137
Dit is nog maar het begin, maar we hebben al wel wat inzicht.
07:20
Good collective decisions require two components:
158
440984
2917
Goede collectieve beslissingen vereisen twee componenten:
07:23
deliberation and diversity of opinions.
159
443925
2749
overleg en verscheiden meningen.
07:27
Right now, the way we typically make our voice heard in many societies
160
447066
3996
Hoe we vandaag doorgaans onze stem laten horen in de maatschappij,
07:31
is through direct or indirect voting.
161
451086
1908
is door directe en indirecte stemming.
07:33
This is good for diversity of opinions,
162
453495
1997
Dit is goed voor verscheiden meningen
07:35
and it has the great virtue of ensuring
163
455516
2445
en het heeft het grote voordeel
07:37
that everyone gets to express their voice.
164
457985
2455
dat iedereen zijn of haar stem kan laten horen.
07:40
But it's not so good [for fostering] thoughtful debates.
165
460464
3735
Maar het is niet zo goed voor bedachtzame debatten.
07:44
Our experiments suggest a different method
166
464665
3068
Onze experimenten suggereren een andere methode
07:47
that may be effective in balancing these two goals at the same time,
167
467757
3541
die deze twee doelen in balans kan brengen
07:51
by forming small groups that converge to a single decision
168
471322
3753
door kleine groepen te vormen die samen tot één besluit komen,
07:55
while still maintaining diversity of opinions
169
475099
2234
wat de verscheidenheid aan meningen behoudt
07:57
because there are many independent groups.
170
477357
2773
omdat er veel onafhankelijke groepen zijn.
08:00
Of course, it's much easier to agree on the height of the Eiffel Tower
171
480741
3924
Het is natuurlijk veel makkelijker om het eens te zijn over de Eiffeltoren
08:04
than on moral, political and ideological issues.
172
484689
3115
dan over morele, politieke en ideologische kwesties.
08:08
But in a time when the world's problems are more complex
173
488721
3277
Maar in tijden waarin wereldproblemen zo complex zijn
08:12
and people are more polarized,
174
492022
1803
en de mensen zo gepolariseerd,
08:13
using science to help us understand how we interact and make decisions
175
493849
4595
kan de wetenschap ons leren hoe we met elkaar om moeten gaan
08:18
will hopefully spark interesting new ways to construct a better democracy.
176
498468
4666
om beslissingen te nemen die hopelijk tot een betere democratie leiden.
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7