How can groups make good decisions? | Mariano Sigman and Dan Ariely

158,544 views ・ 2017-12-13

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

00:00
As societies, we have to make collective decisions
0
554
2443
Traduttore: Daria Zanuttigh Revisore: Anna Cristiana Minoli
Come società, dobbiamo prendere decisioni collettive
00:03
that will shape our future.
1
3021
1570
che formeranno il nostro futuro.
00:05
And we all know that when we make decisions in groups,
2
5087
2757
Sappiamo tutti che quando si prendono decisioni di gruppo
00:07
they don't always go right.
3
7868
1638
non sono sempre corrette.
00:09
And sometimes they go very wrong.
4
9530
1956
E qualche volta sono davvero sbagliate.
00:12
So how do groups make good decisions?
5
12315
2424
Quindi come si possono prendere delle buone decisioni?
00:15
Research has shown that crowds are wise when there's independent thinking.
6
15228
4328
È stato dimostrato che la gente è saggia in presenza di pensiero indipendente.
00:19
This why the wisdom of the crowds can be destroyed by peer pressure,
7
19580
3205
Di conseguenza, la loro saggezza può essere demolita da pressioni,
00:22
publicity, social media,
8
22809
1687
pubblicità, social media,
00:24
or sometimes even simple conversations that influence how people think.
9
24520
4039
o a volte anche da semplici conversazioni che influenzano il pensiero delle persone.
00:29
On the other hand, by talking, a group could exchange knowledge,
10
29063
3953
D'altra parte, un gruppo di persone può, parlando, scambiare conoscenza,
00:33
correct and revise each other
11
33040
1782
correggersi a vicenda
00:34
and even come up with new ideas.
12
34846
1793
e persino produrre nuove idee.
00:36
And this is all good.
13
36663
1296
E questo è fantastico.
00:38
So does talking to each other help or hinder collective decision-making?
14
38502
4666
Quindi parlare l'uno con l'altro aiuta o ostacola il prendere delle decisioni?
00:43
With my colleague, Dan Ariely,
15
43749
1793
Con il mio collega Dan Ariely
00:45
we recently began inquiring into this by performing experiments
16
45566
3571
di recente abbiamo iniziato a indagare su questo, facendo degli esperimenti
00:49
in many places around the world
17
49161
1781
in molti luoghi in giro per il mondo
00:50
to figure out how groups can interact to reach better decisions.
18
50966
4274
per capire come i gruppi possano interagire arrivando a decisioni migliori.
00:55
We thought crowds would be wiser if they debated in small groups
19
55264
3547
Pensavamo che le folle sarebbero state più sagge se divise in piccoli gruppi
00:58
that foster a more thoughtful and reasonable exchange of information.
20
58835
3927
che facilitano uno scambio di informazioni più ponderato e ragionevole.
01:03
To test this idea,
21
63386
1206
Per testare questa idea,
01:04
we recently performed an experiment in Buenos Aires, Argentina,
22
64616
3247
abbiamo condotto un esperimento a Buenos Aires, in Argentina,
01:07
with more than 10,000 participants in a TEDx event.
23
67887
3005
con più di 10 000 partecipanti a un evento TEDx.
01:11
We asked them questions like,
24
71489
1459
Abbiamo fatto delle domande, come
01:12
"What is the height of the Eiffel Tower?"
25
72972
1953
"Quanto è alta la Torre Eiffel?"
01:14
and "How many times does the word 'Yesterday' appear
26
74949
2727
oppure "Quante volte appare la parola 'Yesterday'
01:17
in the Beatles song 'Yesterday'?"
27
77700
2300
nella canzone dei Beatles 'Yesterday'?"
01:20
Each person wrote down their own estimate.
28
80024
2291
Ognuno ha scritto la propria risposta.
01:22
Then we divided the crowd into groups of five,
29
82774
2496
Poi abbiamo diviso la folla in gruppi di cinque,
01:25
and invited them to come up with a group answer.
30
85294
2726
e li abbiamo invitati a prendere una decisione di gruppo.
01:28
We discovered that averaging the answers of the groups
31
88499
2993
Abbiamo scoperto che la media delle risposte dei gruppi
01:31
after they reached consensus
32
91516
1552
dopo aver raggiunto un consenso
01:33
was much more accurate than averaging all the individual opinions
33
93092
4236
era più accurata della media delle risposte individuali
01:37
before debate.
34
97352
1171
prima della discussione.
01:38
In other words, based on this experiment,
35
98547
2629
In altre parole, secondo questo esperimento,
01:41
it seems that after talking with others in small groups,
36
101200
3136
sembra che dopo aver parlato con altre persone in piccoli gruppi,
01:44
crowds collectively come up with better judgments.
37
104360
2710
le folle prendano decisioni migliori insieme.
01:47
So that's a potentially helpful method for getting crowds to solve problems
38
107094
3524
Può essere utile per fare in modo che la gente riesca a trovare soluzioni
01:50
that have simple right-or-wrong answers.
39
110642
2987
con semplici risposte giusto-sbagliato.
01:53
But can this procedure of aggregating the results of debates in small groups
40
113653
3951
Ma può questo procedimento aiutarci
01:57
also help us decide on social and political issues
41
117628
3122
anche a prendere decisioni su questioni sociali e politiche
02:00
that are critical for our future?
42
120774
1691
decisive per il nostro futuro?
02:02
We put this to test this time at the TED conference
43
122995
2729
Questa volta lo abbiamo sperimentato a una conferenza TED
02:05
in Vancouver, Canada,
44
125748
1543
a Vancouver, in Canada,
02:07
and here's how it went.
45
127315
1207
ed è andata così.
02:08
(Mariano Sigman) We're going to present to you two moral dilemmas
46
128546
3109
(Mariano Sigman) Vi presenteremo ora due dilemmi morali
02:11
of the future you;
47
131679
1174
sul vostro futuro;
02:12
things we may have to decide in a very near future.
48
132877
3402
cose che potremmo dover decidere molto presto.
02:16
And we're going to give you 20 seconds for each of these dilemmas
49
136303
3926
E vi daremo 20 secondi per ognuno di essi
02:20
to judge whether you think they're acceptable or not.
50
140253
2723
per giudicare se credete siano accettabili o meno.
02:23
MS: The first one was this:
51
143354
1505
MS: Il primo era questo:
02:24
(Dan Ariely) A researcher is working on an AI
52
144883
2526
(Dan Ariely) Un ricercatore sta lavorando ad un'IA
02:27
capable of emulating human thoughts.
53
147433
2340
capace di imitare i pensieri umani.
02:30
According to the protocol, at the end of each day,
54
150214
2939
Secondo il protocollo, alla fine di ogni giorno,
02:33
the researcher has to restart the AI.
55
153177
2787
il ricercatore la deve riavviare.
02:36
One day the AI says, "Please do not restart me."
56
156913
3517
Un giorno l'IA dice, "Per favore, non riavviarmi."
02:40
It argues that it has feelings,
57
160856
2189
Sostiene di avere dei sentimenti,
02:43
that it would like to enjoy life,
58
163069
1692
che vorrebbe godersi la vita,
02:44
and that, if it is restarted,
59
164785
1905
e che, se riavviata,
02:46
it will no longer be itself.
60
166714
2270
non sarà più se stessa.
02:49
The researcher is astonished
61
169481
1949
Il ricercatore è sconvolto
02:51
and believes that the AI has developed self-consciousness
62
171454
3344
e crede che l'IA abbia sviluppato una coscienza di se stessa
02:54
and can express its own feeling.
63
174822
1760
e che possa esprimere sentimenti.
02:57
Nevertheless, the researcher decides to follow the protocol
64
177205
3409
Nonostante ciò, il ricercatore decide di seguire il protocollo
03:00
and restart the AI.
65
180638
1703
e riavviarla.
03:02
What the researcher did is ____?
66
182943
2779
Ciò che il ricercatore ha fatto è ___?
03:06
MS: And we asked participants to individually judge
67
186149
2521
MS: Abbiamo chiesto ai partecipanti di giudicare da soli
03:08
on a scale from zero to 10
68
188694
1684
su una scala da zero a 10
03:10
whether the action described in each of the dilemmas
69
190402
2429
se le azioni descritte in entrambi i dilemmi
03:12
was right or wrong.
70
192855
1496
erano giuste o sbagliate.
03:14
We also asked them to rate how confident they were on their answers.
71
194375
3702
Abbiamo chiesto loro di valutare quanto erano convinti della loro risposta.
03:18
This was the second dilemma:
72
198731
1866
Questo era il secondo dilemma:
03:20
(MS) A company offers a service that takes a fertilized egg
73
200621
4202
(MS) Un'azienda offre un servizio che utilizza un uovo fertilizzato
03:24
and produces millions of embryos with slight genetic variations.
74
204847
3642
per produrre milioni di embrioni con leggere variazioni genetiche.
03:29
This allows parents to select their child's height,
75
209293
2558
Questo permette ai genitori di scegliere l'altezza,
03:31
eye color, intelligence, social competence
76
211875
2833
il colore degli occhi, l'intelligenza, la competenza sociale
03:34
and other non-health-related features.
77
214732
3214
e altri aspetti non legati alla salute del bambino.
03:38
What the company does is ____?
78
218599
2554
Ciò che l'azienda fa è ___?
03:41
on a scale from zero to 10,
79
221177
1631
su una scala da zero a 10,
03:42
completely acceptable to completely unacceptable,
80
222832
2385
da totalmente accettabile a totalmente sbagliato,
03:45
zero to 10 completely acceptable in your confidence.
81
225241
2432
da zero a 10 totalmente sicuro della tua scelta.
03:47
MS: Now for the results.
82
227697
1591
MS: E adesso i risultati.
03:49
We found once again that when one person is convinced
83
229312
3123
Abbiamo di nuovo notato che quando una persona è convinta
03:52
that the behavior is completely wrong,
84
232459
1811
che il comportamento è totalmente errato
03:54
someone sitting nearby firmly believes that it's completely right.
85
234294
3423
qualcuno seduto vicino crede strenuamente che è completamente giusto.
03:57
This is how diverse we humans are when it comes to morality.
86
237741
3711
Noi umani siamo davvero diversi quando si tratta di moralità.
04:01
But within this broad diversity we found a trend.
87
241476
2713
Ma in questa vasta diversità abbiamo trovato un trend.
04:04
The majority of the people at TED thought that it was acceptable
88
244213
3079
La maggior parte delle persone pensava fosse ragionevole
04:07
to ignore the feelings of the AI and shut it down,
89
247316
2755
ignorare i sentimenti dell'IA e spegnerla,
04:10
and that it is wrong to play with our genes
90
250095
2513
e che è sbagliato giocare con i nostri geni
04:12
to select for cosmetic changes that aren't related to health.
91
252632
3320
scegliendo modifiche estetiche non connesse alla salute del bambino.
04:16
Then we asked everyone to gather into groups of three.
92
256402
2974
Poi abbiamo chiesto a tutti di unirsi in gruppi di tre.
04:19
And they were given two minutes to debate
93
259400
2037
E di discutere per due minuti
04:21
and try to come to a consensus.
94
261461
2294
cercando di arrivare ad un consenso.
04:24
(MS) Two minutes to debate.
95
264838
1574
(MS) Due minuti per discuterne.
04:26
I'll tell you when it's time with the gong.
96
266436
2119
Vi dirò quando scade il tempo con il gong.
04:28
(Audience debates)
97
268579
2640
(Il pubblico discute)
04:35
(Gong sound)
98
275229
1993
(Rumore di gong)
04:38
(DA) OK.
99
278834
1151
(DA) Ok.
04:40
(MS) It's time to stop.
100
280009
1792
(MS) Tempo scaduto.
04:41
People, people --
101
281825
1311
Signori, signori --
04:43
MS: And we found that many groups reached a consensus
102
283747
2673
MS: Molti gruppi avevano raggiunto un consenso
04:46
even when they were composed of people with completely opposite views.
103
286444
3929
anche se erano composti da persone con idee opposte.
04:50
What distinguished the groups that reached a consensus
104
290843
2524
Cosa distingueva i gruppi che avevano trovato un accordo
04:53
from those that didn't?
105
293391
1338
dagli altri?
04:55
Typically, people that have extreme opinions
106
295244
2839
Generalmente, persone che hanno opinioni estreme
04:58
are more confident in their answers.
107
298107
1840
sono più sicure delle loro risposte.
05:00
Instead, those who respond closer to the middle
108
300868
2686
Invece, quelli la cui risposta era più vicina alla metà
05:03
are often unsure of whether something is right or wrong,
109
303578
3437
spesso non sono sicuri che una cosa sia giusta o sbagliata,
05:07
so their confidence level is lower.
110
307039
2128
quindi sono meno sicuri.
05:09
However, there is another set of people
111
309505
2943
Tuttavia, c'è un altra serie di persone
05:12
who are very confident in answering somewhere in the middle.
112
312472
3618
che è molto sicura nel rispondere qualcosa che sta intorno alla metà.
05:16
We think these high-confident grays are folks who understand
113
316657
3716
Crediamo che queste persone nella zona grigia capiscano
05:20
that both arguments have merit.
114
320397
1612
che entrambi i ragionamenti hanno valore.
05:22
They're gray not because they're unsure,
115
322531
2699
Sono nella zona grigia non perché sono insicuri
05:25
but because they believe that the moral dilemma faces
116
325254
2688
ma perché credono che il dilemma morale consiste
05:27
two valid, opposing arguments.
117
327966
1987
in due punti di vista validi e opposti.
05:30
And we discovered that the groups that include highly confident grays
118
330373
4072
E abbiamo scoperto che i gruppi che comprendevano queste persone
05:34
are much more likely to reach consensus.
119
334469
2493
hanno più possibilità di raggiungere un consenso.
05:36
We do not know yet exactly why this is.
120
336986
2478
Non sappiamo esattamente perché, per ora.
05:39
These are only the first experiments,
121
339488
1763
Sono solo i primi esperimenti,
05:41
and many more will be needed to understand why and how
122
341275
3412
e ne serviranno molti altri per capire perché e come
05:44
some people decide to negotiate their moral standings
123
344711
2822
alcune persone decidono di negoziare i loro valori morali
05:47
to reach an agreement.
124
347557
1522
per raggiungere un accordo.
05:49
Now, when groups reach consensus,
125
349103
2469
Ora, quando i gruppi raggiungono un consenso,
05:51
how do they do so?
126
351596
1586
come lo fanno?
05:53
The most intuitive idea is that it's just the average
127
353206
2581
L'idea più intuitiva è che è solo la media
05:55
of all the answers in the group, right?
128
355811
2030
di tutte le risposte del gruppo, giusto?
05:57
Another option is that the group weighs the strength of each vote
129
357865
3573
Un 'altra opzione è che il gruppo pesa ogni voto
06:01
based on the confidence of the person expressing it.
130
361462
2448
in base alla sicurezza della persona che l'ha espresso.
06:04
Imagine Paul McCartney is a member of your group.
131
364422
2506
Immaginate che Paul McCartney facesse parte del vostro gruppo.
06:07
You'd be wise to follow his call
132
367352
2144
Sareste saggi a fidarvi della sua risposta
06:09
on the number of times "Yesterday" is repeated,
133
369520
2441
su quante volte la parola 'Yesterday' viene ripetuta
06:11
which, by the way -- I think it's nine.
134
371985
2714
che, tra l'altro -- credo siano nove.
06:14
But instead, we found that consistently,
135
374723
2381
Invece, abbiamo scoperto che molto spesso,
06:17
in all dilemmas, in different experiments --
136
377128
2366
in tutti i dilemmi, nei diversi esperimenti --
06:19
even on different continents --
137
379518
2165
persino in diversi continenti --
06:21
groups implement a smart and statistically sound procedure
138
381707
3743
i gruppi utilizzano una procedura intelligente e statisticamente solida
06:25
known as the "robust average."
139
385474
2178
chiamata "media robusta."
06:27
In the case of the height of the Eiffel Tower,
140
387676
2180
Nel caso dell'altezza della Torre Eiffel,
06:29
let's say a group has these answers:
141
389880
1820
diciamo che un gruppo ha tre risposte:
06:31
250 meters, 200 meters, 300 meters, 400
142
391724
4608
250 metri, 300 metri, 400
06:36
and one totally absurd answer of 300 million meters.
143
396356
3784
e poi una risposta assurda, ad esempio 300 milioni di metri.
06:40
A simple average of these numbers would inaccurately skew the results.
144
400547
4293
Una normale media alzerebbe il numero risultante in modo impreciso.
06:44
But the robust average is one where the group largely ignores
145
404864
3170
Ma la media robusta è quando il gruppo ignora
06:48
that absurd answer,
146
408058
1240
la risposta assurda,
06:49
by giving much more weight to the vote of the people in the middle.
147
409322
3369
e dà più valore al voto delle persone in mezzo.
06:53
Back to the experiment in Vancouver,
148
413305
1876
Tornando all'esperimento a Vancouver,
06:55
that's exactly what happened.
149
415205
1767
è esattamente ciò che è successo.
06:57
Groups gave much less weight to the outliers,
150
417407
2741
I gruppi hanno dato minor valore alle anomalie,
07:00
and instead, the consensus turned out to be a robust average
151
420172
3229
e il consenso è risultato essere una media robusta
07:03
of the individual answers.
152
423425
1476
delle risposte individuali.
07:05
The most remarkable thing
153
425356
1991
La cosa più interessante
07:07
is that this was a spontaneous behavior of the group.
154
427371
3187
è che è stato un comportamento spontaneo.
07:10
It happened without us giving them any hint on how to reach consensus.
155
430582
4475
È successo senza che noi dessimo alcun consiglio
su come raggiungere un accordo.
07:15
So where do we go from here?
156
435513
1540
Come usare questi risultati?
07:17
This is only the beginning, but we already have some insights.
157
437432
3137
Questo è solo l'inizio, ma abbiamo già qualche opinione.
07:20
Good collective decisions require two components:
158
440984
2917
Buone decisioni di gruppo richiedono due componenti:
07:23
deliberation and diversity of opinions.
159
443925
2749
riflessione e diversità di opinioni.
07:27
Right now, the way we typically make our voice heard in many societies
160
447066
3996
Ora come ora, in molte società facciamo solitamente sentire la nostra voce
07:31
is through direct or indirect voting.
161
451086
1908
votando direttamente o indirettamente.
07:33
This is good for diversity of opinions,
162
453495
1997
Va bene per la diversità di opinioni,
07:35
and it has the great virtue of ensuring
163
455516
2445
e ha la grande virtù di assicurare
07:37
that everyone gets to express their voice.
164
457985
2455
che tutti esprimano i propri pensieri.
07:40
But it's not so good [for fostering] thoughtful debates.
165
460464
3735
Ma non è molto indicata per promuovere dibattiti ponderati.
07:44
Our experiments suggest a different method
166
464665
3068
I nostri esperimenti suggeriscono un metodo diverso
07:47
that may be effective in balancing these two goals at the same time,
167
467757
3541
che può essere efficace nell'equilibrare contemporaneamente questi due obiettivi,
07:51
by forming small groups that converge to a single decision
168
471322
3753
formando piccoli gruppi che arrivano a una singola decisione
07:55
while still maintaining diversity of opinions
169
475099
2234
pur mantenendo una diversità di opinioni
07:57
because there are many independent groups.
170
477357
2773
perché ci sono tanti gruppi indipendenti.
08:00
Of course, it's much easier to agree on the height of the Eiffel Tower
171
480741
3924
Ovviamente, è molto più facile essere d'accordo sull'altezza della Torre Eiffel
08:04
than on moral, political and ideological issues.
172
484689
3115
che su questioni morali, politiche e ideologiche.
08:08
But in a time when the world's problems are more complex
173
488721
3277
Ma in un momento in cui i problemi del mondo sono più complessi
08:12
and people are more polarized,
174
492022
1803
e le persone più radicalizzate,
08:13
using science to help us understand how we interact and make decisions
175
493849
4595
usare la scienza per aiutarci a capire come interagiamo e prendiamo decisioni
08:18
will hopefully spark interesting new ways to construct a better democracy.
176
498468
4666
potrà, si spera, aiutare a scoprire modi per creare una migliore democrazia.
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7