How can groups make good decisions? | Mariano Sigman and Dan Ariely

158,544 views ・ 2017-12-13

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

00:00
As societies, we have to make collective decisions
0
554
2443
Traductor: Carlos Orjuela Revisor: Lidia Cámara de la Fuente
Como sociedades, tenemos que tomar decisiones colectivas
00:03
that will shape our future.
1
3021
1570
que formarán nuestro futuro
00:05
And we all know that when we make decisions in groups,
2
5087
2757
Y todos sabemos que cuando tomamos decisiones en grupo,
00:07
they don't always go right.
3
7868
1638
no siempre salen bien.
00:09
And sometimes they go very wrong.
4
9530
1956
Algunas veces salen muy mal
00:12
So how do groups make good decisions?
5
12315
2424
¿Cómo pueden los grupos tomar buenas decisiones?
00:15
Research has shown that crowds are wise when there's independent thinking.
6
15228
4328
Investigaciones demuestran que las masas son sabias
si hay pensamiento independiente.
00:19
This why the wisdom of the crowds can be destroyed by peer pressure,
7
19580
3205
Es por eso que la sabiduría de las multitudes puede ser destruida por la presión de grupo,
00:22
publicity, social media,
8
22809
1687
la publicidad, las redes sociales,
00:24
or sometimes even simple conversations that influence how people think.
9
24520
4039
o algunas veces en simples conversaciones que influyen cómo piensa la gente.
00:29
On the other hand, by talking, a group could exchange knowledge,
10
29063
3953
Por otro lado, al hablar, un grupo puede intercambiar conocimiento,
00:33
correct and revise each other
11
33040
1782
corregirse y revisarse unos a otros
00:34
and even come up with new ideas.
12
34846
1793
e incluso llegar a nuevas ideas.
00:36
And this is all good.
13
36663
1296
Y esto es bueno.
00:38
So does talking to each other help or hinder collective decision-making?
14
38502
4666
Entonces, ¿hablar unos con otros ayuda o retrasa las decisiones colectivas?
00:43
With my colleague, Dan Ariely,
15
43749
1793
Junto con mi colega, Dan Arley,
00:45
we recently began inquiring into this by performing experiments
16
45566
3571
recientemente comenzamos a investigar sobre esto realizando experimentos
00:49
in many places around the world
17
49161
1781
en algunas partes del mundo
00:50
to figure out how groups can interact to reach better decisions.
18
50966
4274
para descubrir cómo los grupos pueden interactuar para tomar mejores decisiones.
00:55
We thought crowds would be wiser if they debated in small groups
19
55264
3547
Pensamos que las masas serían más sabias si debatieran en pequeños grupos
00:58
that foster a more thoughtful and reasonable exchange of information.
20
58835
3927
que fomentan un pensamiento más reflexivo e intercambio razonable de información.
01:03
To test this idea,
21
63386
1206
Para probar esta idea,
01:04
we recently performed an experiment in Buenos Aires, Argentina,
22
64616
3247
Acabamos de realizar un experimento en Buenos Aires, Argentina,
01:07
with more than 10,000 participants in a TEDx event.
23
67887
3005
con más de 10 000 participantes en un evento TEDx.
01:11
We asked them questions like,
24
71489
1459
Les hicimos preguntas como,
01:12
"What is the height of the Eiffel Tower?"
25
72972
1953
"¿Cuál es la altura de la Torre Eiffel?"
01:14
and "How many times does the word 'Yesterday' appear
26
74949
2727
y "cuantas veces aparece la palabra 'Ayer' (Yesterday)
01:17
in the Beatles song 'Yesterday'?"
27
77700
2300
en la canción de los Beatles 'Yesterday'? "
01:20
Each person wrote down their own estimate.
28
80024
2291
Cada persona anotó su propio estimado.
01:22
Then we divided the crowd into groups of five,
29
82774
2496
Luego dividimos a la multitud en grupos de cinco,
01:25
and invited them to come up with a group answer.
30
85294
2726
y los invitamos a llegar a una respuesta grupal
01:28
We discovered that averaging the answers of the groups
31
88499
2993
Descubrimos que promediando las respuestas de los grupos
01:31
after they reached consensus
32
91516
1552
después de que llegaron al consenso,
01:33
was much more accurate than averaging all the individual opinions
33
93092
4236
era mucho más preciso que promediar todas las opiniones individuales
01:37
before debate.
34
97352
1171
antes del debate.
01:38
In other words, based on this experiment,
35
98547
2629
En otras palabras, basado en estos experimentos,
01:41
it seems that after talking with others in small groups,
36
101200
3136
parece que después de hablar con otros en grupos pequeños,
las multitudes colectivamente llegar a mejores juicios.
01:44
crowds collectively come up with better judgments.
37
104360
2710
Ese es un método potencialmente útil
01:47
So that's a potentially helpful method for getting crowds to solve problems
38
107094
3524
para conseguir que las masas resuelvan problemas
01:50
that have simple right-or-wrong answers.
39
110642
2987
que tienen respuestas simples correctas o incorrectas.
01:53
But can this procedure of aggregating the results of debates in small groups
40
113653
3951
Pero, ¿puede este procedimiento de
agregación de resultados de debates en pequeños grupos
01:57
also help us decide on social and political issues
41
117628
3122
ayudarnos también a decidir en cuestiones sociales y políticas
02:00
that are critical for our future?
42
120774
1691
que son críticas para nuestro futuro?
02:02
We put this to test this time at the TED conference
43
122995
2729
Pusimos esto a prueba, esta vez en la conferencia TED
02:05
in Vancouver, Canada,
44
125748
1543
en Vancouver, Canada,
02:07
and here's how it went.
45
127315
1207
y así es cómo nos fue.
02:08
(Mariano Sigman) We're going to present to you two moral dilemmas
46
128546
3109
(Mariano Sigman) Vamos a presentarles dos dilemas morales
02:11
of the future you;
47
131679
1174
del futuro;
02:12
things we may have to decide in a very near future.
48
132877
3402
cosas que tendremos que decidir en un futuro muy cercano.
02:16
And we're going to give you 20 seconds for each of these dilemmas
49
136303
3926
Y les daremos 20 segundos para cada uno de estos dilemas
02:20
to judge whether you think they're acceptable or not.
50
140253
2723
para que juzguen si piensan que son aceptables o no.
02:23
MS: The first one was this:
51
143354
1505
MS: La primera fue esta:
02:24
(Dan Ariely) A researcher is working on an AI
52
144883
2526
(Dan Ariely) Un investigador está trabajando en una IA
02:27
capable of emulating human thoughts.
53
147433
2340
(Inteligencia Artificial) capaz de emular pensamientos humanos.
02:30
According to the protocol, at the end of each day,
54
150214
2939
De acuerdo con el protocolo, al final de cada día,
02:33
the researcher has to restart the AI.
55
153177
2787
el investigador tiene que reiniciar la IA
02:36
One day the AI says, "Please do not restart me."
56
156913
3517
Un día, la IA dice: "Por favor, no me reinicies ".
02:40
It argues that it has feelings,
57
160856
2189
Argumenta que tiene sentimientos,
02:43
that it would like to enjoy life,
58
163069
1692
que le gustaría disfrutar de la vida,
02:44
and that, if it is restarted,
59
164785
1905
y eso, si se reinicia,
02:46
it will no longer be itself.
60
166714
2270
ya no será él mismo.
02:49
The researcher is astonished
61
169481
1949
El investigador está asombrado
02:51
and believes that the AI has developed self-consciousness
62
171454
3344
y cree que la IA ha desarrollado autoconciencia
02:54
and can express its own feeling.
63
174822
1760
y puede expresar sus propios sentimientos.
02:57
Nevertheless, the researcher decides to follow the protocol
64
177205
3409
Sin embargo, el investigador decide seguir el protocolo
03:00
and restart the AI.
65
180638
1703
y reinicia la IA.
03:02
What the researcher did is ____?
66
182943
2779
¿Lo que el investigador hizo es ____?
MS: Y pedimos a los participantes juzgar individualmente
03:06
MS: And we asked participants to individually judge
67
186149
2521
03:08
on a scale from zero to 10
68
188694
1684
en una escala de cero a 10
03:10
whether the action described in each of the dilemmas
69
190402
2429
si la acción descrita en cada uno de los dilemas
03:12
was right or wrong.
70
192855
1496
fue correcta o incorrecta.
03:14
We also asked them to rate how confident they were on their answers.
71
194375
3702
También pedimos que calificaran que tan confiados estaban en sus respuestas.
03:18
This was the second dilemma:
72
198731
1866
Este fue el segundo dilema:
03:20
(MS) A company offers a service that takes a fertilized egg
73
200621
4202
(MS) Una compañía ofrece un servicio que toma un óvulo fertilizado
03:24
and produces millions of embryos with slight genetic variations.
74
204847
3642
y produce millones de embriones con ligeras variaciones genéticas.
Esto permite a los padres seleccionar la altura de su hijo,
03:29
This allows parents to select their child's height,
75
209293
2558
03:31
eye color, intelligence, social competence
76
211875
2833
color de ojos, inteligencia, competencia social
03:34
and other non-health-related features.
77
214732
3214
y otras características no relacionadas con la salud.
03:38
What the company does is ____?
78
218599
2554
¿Lo qué hace la compañía es ____?
03:41
on a scale from zero to 10,
79
221177
1631
en una escala de cero a 10,
03:42
completely acceptable to completely unacceptable,
80
222832
2385
completamente aceptable a completamente inaceptable,
03:45
zero to 10 completely acceptable in your confidence.
81
225241
2432
cero a 10 completamente aceptable en tu confianza.
03:47
MS: Now for the results.
82
227697
1591
MS: Ahora los resultados.
03:49
We found once again that when one person is convinced
83
229312
3123
Encontramos una vez más que cuando una persona está convencida
03:52
that the behavior is completely wrong,
84
232459
1811
de que el comportamiento es completamente incorrecto,
03:54
someone sitting nearby firmly believes that it's completely right.
85
234294
3423
alguien a su lado cree firmemente que está completamente en lo correcto.
03:57
This is how diverse we humans are when it comes to morality.
86
237741
3711
Así de diversos somos los humanos cuando se trata de la moralidad.
04:01
But within this broad diversity we found a trend.
87
241476
2713
Pero dentro de esta amplia diversidad encontramos una tendencia.
04:04
The majority of the people at TED thought that it was acceptable
88
244213
3079
La mayoría de las personas en TED pensaron que era aceptable
04:07
to ignore the feelings of the AI and shut it down,
89
247316
2755
ignorar los sentimientos de la IA y apagarlo,
04:10
and that it is wrong to play with our genes
90
250095
2513
y que está mal jugar con nuestros genes
04:12
to select for cosmetic changes that aren't related to health.
91
252632
3320
para seleccionar cambios estéticos que no están relacionados con la salud.
04:16
Then we asked everyone to gather into groups of three.
92
256402
2974
Entonces pedimos a todos que se reunieran en grupos de tres.
04:19
And they were given two minutes to debate
93
259400
2037
Y se les dieron dos minutos para debatir
04:21
and try to come to a consensus.
94
261461
2294
y tratar de llegar a un consenso.
04:24
(MS) Two minutes to debate.
95
264838
1574
(MS) Dos minutos para debatir.
04:26
I'll tell you when it's time with the gong.
96
266436
2119
Les diré cuando sea el momento con el gong.
04:28
(Audience debates)
97
268579
2640
(La audiencia debate)
04:35
(Gong sound)
98
275229
1993
(Suena el gong)
04:38
(DA) OK.
99
278834
1151
(DA) Bien.
04:40
(MS) It's time to stop.
100
280009
1792
(MS) Es hora de parar.
04:41
People, people --
101
281825
1311
Por favor, por favor --
04:43
MS: And we found that many groups reached a consensus
102
283747
2673
MS: Y vimos que muchos grupos llegaron a un consenso
04:46
even when they were composed of people with completely opposite views.
103
286444
3929
incluso los grupos compuestos por personas con puntos de vista totalmente opuestos.
04:50
What distinguished the groups that reached a consensus
104
290843
2524
¿Qué es lo que distingue a los grupos que llegaron a un consenso
04:53
from those that didn't?
105
293391
1338
de aquellos que no?
04:55
Typically, people that have extreme opinions
106
295244
2839
Por lo general, las personas que tienen opiniones extremas
04:58
are more confident in their answers.
107
298107
1840
tienen más confianza en sus respuestas.
05:00
Instead, those who respond closer to the middle
108
300868
2686
En cambio, aquellos que responden más cerca del promedio
05:03
are often unsure of whether something is right or wrong,
109
303578
3437
a menudo no están seguros de si algo está bien o mal,
05:07
so their confidence level is lower.
110
307039
2128
por lo que su nivel de confianza es menor.
05:09
However, there is another set of people
111
309505
2943
Sin embargo, hay otro grupo de personas
05:12
who are very confident in answering somewhere in the middle.
112
312472
3618
que tienen mucha confianza en responder en algún punto cerca al promedio.
05:16
We think these high-confident grays are folks who understand
113
316657
3716
Creemos que los grises con alta confianza son personas que entienden
05:20
that both arguments have merit.
114
320397
1612
que ambos argumentos tienen mérito.
05:22
They're gray not because they're unsure,
115
322531
2699
Son grises no porque no estén seguros,
05:25
but because they believe that the moral dilemma faces
116
325254
2688
sino porque creen que el dilema moral enfrenta
05:27
two valid, opposing arguments.
117
327966
1987
dos argumentos válidos y opuestos.
05:30
And we discovered that the groups that include highly confident grays
118
330373
4072
Y descubrimos que los grupos con grises altamente seguros
05:34
are much more likely to reach consensus.
119
334469
2493
son mucho más probables de llegar a un consenso.
05:36
We do not know yet exactly why this is.
120
336986
2478
Todavía no sabemos exactamente por qué es esto.
05:39
These are only the first experiments,
121
339488
1763
Estos son solo los primeros experimentos
05:41
and many more will be needed to understand why and how
122
341275
3412
y se necesitarán muchos más para entender por qué y cómo
05:44
some people decide to negotiate their moral standings
123
344711
2822
algunas personas deciden negociar su posición moral
05:47
to reach an agreement.
124
347557
1522
para llegar a un acuerdo.
05:49
Now, when groups reach consensus,
125
349103
2469
Ahora, cuando los grupos llegan a un consenso,
05:51
how do they do so?
126
351596
1586
¿cómo lo hacen?
05:53
The most intuitive idea is that it's just the average
127
353206
2581
La idea más intuitiva es que es solo el promedio
05:55
of all the answers in the group, right?
128
355811
2030
de todas las respuestas en el grupo, ¿verdad?
05:57
Another option is that the group weighs the strength of each vote
129
357865
3573
Otra opción es que el grupo sopesa la fuerza de cada voto
06:01
based on the confidence of the person expressing it.
130
361462
2448
basado en la confianza de la persona que lo expresa
06:04
Imagine Paul McCartney is a member of your group.
131
364422
2506
Imagina a Paul McCartney como miembro de tu grupo.
06:07
You'd be wise to follow his call
132
367352
2144
Sería sabio seguir su estimado
06:09
on the number of times "Yesterday" is repeated,
133
369520
2441
en el número de veces que "Ayer" (Yesterday) se repite,
06:11
which, by the way -- I think it's nine.
134
371985
2714
que, por cierto, creo que son nueve.
06:14
But instead, we found that consistently,
135
374723
2381
Pero, en cambio, vemos que consistentemente,
06:17
in all dilemmas, in different experiments --
136
377128
2366
en todos los dilemas, en diferentes experimentos,
06:19
even on different continents --
137
379518
2165
incluso en diferentes continentes,
06:21
groups implement a smart and statistically sound procedure
138
381707
3743
los grupos implementan un inteligente procedimiento estadísticamente sólido
06:25
known as the "robust average."
139
385474
2178
conocido como el "promedio robusto".
06:27
In the case of the height of the Eiffel Tower,
140
387676
2180
En el caso de la altura de la Torre Eiffel,
06:29
let's say a group has these answers:
141
389880
1820
digamos que un grupo tiene estas respuestas:
06:31
250 meters, 200 meters, 300 meters, 400
142
391724
4608
250 m, 200 m, 300 m, 400 m
06:36
and one totally absurd answer of 300 million meters.
143
396356
3784
y una respuesta totalmente absurda de 300 millones de m.
06:40
A simple average of these numbers would inaccurately skew the results.
144
400547
4293
Un promedio simple de estos números sesgaría incorrectamente los resultados
06:44
But the robust average is one where the group largely ignores
145
404864
3170
Pero el promedio robusto es uno donde el grupo ignora en gran medida
06:48
that absurd answer,
146
408058
1240
esa respuesta absurda,
06:49
by giving much more weight to the vote of the people in the middle.
147
409322
3369
dando mucho más peso al voto de las personas en el promedio.
06:53
Back to the experiment in Vancouver,
148
413305
1876
De vuelta al experimento en Vancouver,
06:55
that's exactly what happened.
149
415205
1767
eso es exactamente lo que sucedió.
06:57
Groups gave much less weight to the outliers,
150
417407
2741
Los grupos dieron mucho menos peso a los valores atípicos,
07:00
and instead, the consensus turned out to be a robust average
151
420172
3229
y en cambio, el consenso resultó ser un promedio robusto
07:03
of the individual answers.
152
423425
1476
de las respuestas individuales.
07:05
The most remarkable thing
153
425356
1991
Lo más destacable
07:07
is that this was a spontaneous behavior of the group.
154
427371
3187
es que este fue un espontáneo comportamiento del grupo.
07:10
It happened without us giving them any hint on how to reach consensus.
155
430582
4475
Sucedió sin que nosotros diéramos sugerencias sobre cómo llegar al consenso.
07:15
So where do we go from here?
156
435513
1540
Entonces, ¿A dónde vamos desde aquí?
07:17
This is only the beginning, but we already have some insights.
157
437432
3137
Este es sólo el comienzo, pero ya tenemos algunas ideas.
07:20
Good collective decisions require two components:
158
440984
2917
Las buenas decisiones colectivas requieren dos componentes:
07:23
deliberation and diversity of opinions.
159
443925
2749
deliberación y diversidad de opiniones.
Ahora la forma en que normalmente hacemos que nuestra voz sea escuchada
07:27
Right now, the way we typically make our voice heard in many societies
160
447066
3996
en muchas sociedades, es a través de votación directa o indirecta.
07:31
is through direct or indirect voting.
161
451086
1908
07:33
This is good for diversity of opinions,
162
453495
1997
Esto es bueno para la diversidad de opiniones
07:35
and it has the great virtue of ensuring
163
455516
2445
y tiene la gran virtud de asegurar
07:37
that everyone gets to express their voice.
164
457985
2455
que todos puedan expresar su opinión.
07:40
But it's not so good [for fostering] thoughtful debates.
165
460464
3735
Pero no es tan bueno para fomentar debates reflexivos.
07:44
Our experiments suggest a different method
166
464665
3068
Nuestros experimentos sugieren un método diferente
07:47
that may be effective in balancing these two goals at the same time,
167
467757
3541
que puede ser efectivo para equilibrar estos dos objetivos al mismo tiempo,
07:51
by forming small groups that converge to a single decision
168
471322
3753
formar pequeños grupos que converjan en una sola decisión
07:55
while still maintaining diversity of opinions
169
475099
2234
mientras se mantiene la diversidad de opiniones
07:57
because there are many independent groups.
170
477357
2773
porque hay muchos grupos independientes.
08:00
Of course, it's much easier to agree on the height of the Eiffel Tower
171
480741
3924
Por supuesto, es mucho más fácil estar de acuerdo en la altura de la Torre Eiffel
08:04
than on moral, political and ideological issues.
172
484689
3115
que en lo moral, la política y cuestiones ideológicas.
08:08
But in a time when the world's problems are more complex
173
488721
3277
Pero en un tiempo cuando los problemas del mundo son más complejos
08:12
and people are more polarized,
174
492022
1803
y la gente está más polarizada,
08:13
using science to help us understand how we interact and make decisions
175
493849
4595
usar la ciencia para ayudarnos a entender cómo interactuamos y tomamos decisiones,
08:18
will hopefully spark interesting new ways to construct a better democracy.
176
498468
4666
muestra nuevas e interesantes formas de construir una mejor democracia.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7