How can groups make good decisions? | Mariano Sigman and Dan Ariely

158,544 views ・ 2017-12-13

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

00:00
As societies, we have to make collective decisions
0
554
2443
번역: Sujee Cho 검토: Jihyeon J. Kim
우리는 공동체로서 모두의 미래를 위한
00:03
that will shape our future.
1
3021
1570
공동의 결정을 내립니다.
00:05
And we all know that when we make decisions in groups,
2
5087
2757
그룹으로서 내리는 결정이
00:07
they don't always go right.
3
7868
1638
항상 옳지만은 않음을 우리는 알고 있습니다.
00:09
And sometimes they go very wrong.
4
9530
1956
때때로 매우 잘못되기도 합니다.
00:12
So how do groups make good decisions?
5
12315
2424
그렇다면 집단은 어떻게 옳은 결정을 내릴 수 있을까요?
00:15
Research has shown that crowds are wise when there's independent thinking.
6
15228
4328
연구에 따르면 사람들은 독립적으로 생각할 때 현명해진다고 합니다.
00:19
This why the wisdom of the crowds can be destroyed by peer pressure,
7
19580
3205
그래서 바로 군중의 지혜가 동료의 압박과 사람들의 관심
00:22
publicity, social media,
8
22809
1687
소셜미디어에 의해서 파괴되는 겁니다.
00:24
or sometimes even simple conversations that influence how people think.
9
24520
4039
가끔은 단순한 대화가 사람들의 생각에 영향을 끼칩니다.
00:29
On the other hand, by talking, a group could exchange knowledge,
10
29063
3953
반대로, 대화를 통해서 집단은 지식을 교환하고
00:33
correct and revise each other
11
33040
1782
서로 고쳐주기도하고
00:34
and even come up with new ideas.
12
34846
1793
또한 새로운 아이디어들을 떠올리기도 합니다.
00:36
And this is all good.
13
36663
1296
이것은 모두 좋은 것입니다.
00:38
So does talking to each other help or hinder collective decision-making?
14
38502
4666
그렇다면 대화는 공동의 결정에 도움이 될까요, 방해가 될까요?
00:43
With my colleague, Dan Ariely,
15
43749
1793
저는 최근 동료 댄 아리엘리와 함께
00:45
we recently began inquiring into this by performing experiments
16
45566
3571
세계 곳곳에서 이에 대해 실험하기 시작했습니다.
00:49
in many places around the world
17
49161
1781
00:50
to figure out how groups can interact to reach better decisions.
18
50966
4274
집단이 더 나은 결정을 내리기 위해서 어떻게 상호작용하는지를 알아봤습니다.
00:55
We thought crowds would be wiser if they debated in small groups
19
55264
3547
작은 집단으로 토론을 한다면 더 현명해질거라 생각했습니다.
00:58
that foster a more thoughtful and reasonable exchange of information.
20
58835
3927
더 많은 생각을 하고 이성적으로 정보를 교환하면서요.
01:03
To test this idea,
21
63386
1206
이 아이디어를 시험해보기 위해
01:04
we recently performed an experiment in Buenos Aires, Argentina,
22
64616
3247
우리는 아르헨티나 부에노스아이레스에서 실험을 진행했습니다
01:07
with more than 10,000 participants in a TEDx event.
23
67887
3005
TEDx 행사에 참여한 만여 명을 대상으로요.
01:11
We asked them questions like,
24
71489
1459
우리는 이런 질문을 했습니다.
01:12
"What is the height of the Eiffel Tower?"
25
72972
1953
에펠탑의 높이는 얼마죠?
01:14
and "How many times does the word 'Yesterday' appear
26
74949
2727
비틀즈의 예스터데이라는 노래에서
01:17
in the Beatles song 'Yesterday'?"
27
77700
2300
예스터데이는 몇 번 나올까요?
01:20
Each person wrote down their own estimate.
28
80024
2291
사람들은 각자의 추측을 적었습니다.
01:22
Then we divided the crowd into groups of five,
29
82774
2496
그리고나서 사람들을 다섯 명씩 그룹으로 나누고
01:25
and invited them to come up with a group answer.
30
85294
2726
그룹으로서의 정답을 말해달라고 얘기했죠.
01:28
We discovered that averaging the answers of the groups
31
88499
2993
그룹이 합의에 도달한 이후 그룹들의 정답을 평균내는 것이
01:31
after they reached consensus
32
91516
1552
토론하지 않고
01:33
was much more accurate than averaging all the individual opinions
33
93092
4236
개인의 의견을 평균내는 것보다
훨씬 더 정확함을 발견했습니다.
01:37
before debate.
34
97352
1171
01:38
In other words, based on this experiment,
35
98547
2629
즉, 이 실험을 분석하면
01:41
it seems that after talking with others in small groups,
36
101200
3136
소그룹에서 이야기를 나눈 후에
01:44
crowds collectively come up with better judgments.
37
104360
2710
군중이 더 나은 결정을 내립니다.
01:47
So that's a potentially helpful method for getting crowds to solve problems
38
107094
3524
단순한 옳고 그름의 문제를 해결할 때, 이 방법은 잠정적으로
01:50
that have simple right-or-wrong answers.
39
110642
2987
사람들에게 도움을 준다는 뜻이죠.
01:53
But can this procedure of aggregating the results of debates in small groups
40
113653
3951
그러나 소그룹으로 토론을 하는 절차가
01:57
also help us decide on social and political issues
41
117628
3122
우리의 미래를 위해 중요한
사회적이고 정치적인 문제들을 결정하는 데에도 도움이 될까요?
02:00
that are critical for our future?
42
120774
1691
02:02
We put this to test this time at the TED conference
43
122995
2729
이번에는 캐나다 밴쿠버에서 열린 TED 행사에서 실험해봤습니다.
02:05
in Vancouver, Canada,
44
125748
1543
02:07
and here's how it went.
45
127315
1207
이것이 바로 그 현장입니다.
02:08
(Mariano Sigman) We're going to present to you two moral dilemmas
46
128546
3109
미래의 여러분이 직면할 수 있는 두 개의 도덕적 딜레마를 제시하겠습니다.
02:11
of the future you;
47
131679
1174
02:12
things we may have to decide in a very near future.
48
132877
3402
우리가 매우 가까운 미래에 결정해야 하는 것들에 대해서요.
02:16
And we're going to give you 20 seconds for each of these dilemmas
49
136303
3926
그리고 각각의 딜레마들에 대해서 20초를 드리겠습니다.
02:20
to judge whether you think they're acceptable or not.
50
140253
2723
받아들일만 한지 그렇지 않은지 판단해보세요.
02:23
MS: The first one was this:
51
143354
1505
첫 번째
02:24
(Dan Ariely) A researcher is working on an AI
52
144883
2526
연구원은 사람의 생각을 모방할 수 있는
02:27
capable of emulating human thoughts.
53
147433
2340
AI를 만들고 있습니다.
02:30
According to the protocol, at the end of each day,
54
150214
2939
절차에 따르면 일과 마지막에
02:33
the researcher has to restart the AI.
55
153177
2787
연구원들은 AI를 재시작해야 합니다.
02:36
One day the AI says, "Please do not restart me."
56
156913
3517
어느 날, AI가 말합니다. "제발 저를 재시작하지 말아주세요."
02:40
It argues that it has feelings,
57
160856
2189
그것은 자기가 감정을 느낄 수 있다고 합니다.
02:43
that it would like to enjoy life,
58
163069
1692
인생을 즐기고 싶다고 합니다.
02:44
and that, if it is restarted,
59
164785
1905
만약 재시작된다면
02:46
it will no longer be itself.
60
166714
2270
지금의 자신이 아니라고 합니다.
02:49
The researcher is astonished
61
169481
1949
연구원은 깜짝 놀랐습니다.
02:51
and believes that the AI has developed self-consciousness
62
171454
3344
AI가 자의식을 만들어냈고
느낌을 표현할 수 있다고 믿었습니다.
02:54
and can express its own feeling.
63
174822
1760
02:57
Nevertheless, the researcher decides to follow the protocol
64
177205
3409
그럼에도 불구하고, 연구원은 절차를 따르기로 결정하고
03:00
and restart the AI.
65
180638
1703
AI를 재시작시킵니다.
03:02
What the researcher did is ____?
66
182943
2779
연구원이 한 것은 무엇입니까?
03:06
MS: And we asked participants to individually judge
67
186149
2521
그 후 우리는 참가자들이 개별적으로
03:08
on a scale from zero to 10
68
188694
1684
0부터 10까지 중 한 숫자를 택해서
03:10
whether the action described in each of the dilemmas
69
190402
2429
그 각각의 딜레마를 통해 묘사되어진 행동들이
03:12
was right or wrong.
70
192855
1496
옳은지 그른지를 나타내게 했습니다.
03:14
We also asked them to rate how confident they were on their answers.
71
194375
3702
그리고 자신의 대답에 대해서 얼마나 확신이 있는지도 물었습니다.
03:18
This was the second dilemma:
72
198731
1866
두 번째 딜레마입니다.
03:20
(MS) A company offers a service that takes a fertilized egg
73
200621
4202
수정란을 다루고 유전자의 작은 변형으로
03:24
and produces millions of embryos with slight genetic variations.
74
204847
3642
수 백만의 태아를 탄생시키는 서비스를 제공하는 기업이 있습니다.
03:29
This allows parents to select their child's height,
75
209293
2558
이 서비스를 통해 부모는 자식의 키
03:31
eye color, intelligence, social competence
76
211875
2833
눈동자 색, 지능, 사회성
03:34
and other non-health-related features.
77
214732
3214
그리고 건강과 관련되지 않은 특성들을 고를 수 있게 되었습니다.
03:38
What the company does is ____?
78
218599
2554
기업이 하는 것은 무엇일까요?
03:41
on a scale from zero to 10,
79
221177
1631
0에서부터 10까지의 숫자를 통해
03:42
completely acceptable to completely unacceptable,
80
222832
2385
완전히 수용할 수 있는지 완전히 수용이 불가능한지
03:45
zero to 10 completely acceptable in your confidence.
81
225241
2432
그리고 자신의 생각에 확신이 있는지 평가를 해보세요.
03:47
MS: Now for the results.
82
227697
1591
결과를 보여드리겠습니다.
03:49
We found once again that when one person is convinced
83
229312
3123
설문 결과에 따르면
그 행동이 완전히 잘못되었다고 확신하는 사람이 있는 반면
03:52
that the behavior is completely wrong,
84
232459
1811
03:54
someone sitting nearby firmly believes that it's completely right.
85
234294
3423
완전히 좋은 행동이라고 확신하는 사람도 있었습니다.
03:57
This is how diverse we humans are when it comes to morality.
86
237741
3711
인간이 도덕성에 관해 가지는 다양한 관점을 보여줍니다.
04:01
But within this broad diversity we found a trend.
87
241476
2713
이런 폭넓은 다양성 가운데 우리는 경향성을 발견했습니다.
04:04
The majority of the people at TED thought that it was acceptable
88
244213
3079
TED의 대부분의 사람들은 AI의 감정을 무시하고 끄는 행위를
04:07
to ignore the feelings of the AI and shut it down,
89
247316
2755
수용 가능하다고 판단했습니다.
04:10
and that it is wrong to play with our genes
90
250095
2513
그리고 건강과는 관련 없이 미용을 위해
04:12
to select for cosmetic changes that aren't related to health.
91
252632
3320
유전자를 바꾸는 것은 옳지 않다고 생각했습니다.
04:16
Then we asked everyone to gather into groups of three.
92
256402
2974
그 후에 사람들을 3명의 그룹으로 나눴습니다.
04:19
And they were given two minutes to debate
93
259400
2037
그리고 2분간 토론을 하여
04:21
and try to come to a consensus.
94
261461
2294
의견을 합치시키도록 했습니다.
04:24
(MS) Two minutes to debate.
95
264838
1574
토론은 2분간 이루어집니다!
04:26
I'll tell you when it's time with the gong.
96
266436
2119
시간이 다 되면 소리가 들릴 겁니다!
04:28
(Audience debates)
97
268579
2640
04:35
(Gong sound)
98
275229
1993
04:38
(DA) OK.
99
278834
1151
좋아요.
04:40
(MS) It's time to stop.
100
280009
1792
이제 그만 하세요.
04:41
People, people --
101
281825
1311
여러분!
04:43
MS: And we found that many groups reached a consensus
102
283747
2673
많은 그룹들이 합의에 도달했습니다.
04:46
even when they were composed of people with completely opposite views.
103
286444
3929
반대의 의견을 가진 사람들로 구성되었다고 할지라도 말이죠.
04:50
What distinguished the groups that reached a consensus
104
290843
2524
합의에 빨리 도달한 그룹과
04:53
from those that didn't?
105
293391
1338
그렇지 않은 그룹의 차이점은 무엇일까요?
04:55
Typically, people that have extreme opinions
106
295244
2839
보통 극단적인 의견을 가진 사람들은
04:58
are more confident in their answers.
107
298107
1840
본인의 대답에 확신을 가지는 경향을 보입니다.
05:00
Instead, those who respond closer to the middle
108
300868
2686
온건한 대답한 사람들은
05:03
are often unsure of whether something is right or wrong,
109
303578
3437
어떤 것이 옳은지 그른지에 대해서 분명한 의견을 가지지 못했고
05:07
so their confidence level is lower.
110
307039
2128
대답에 대해 확신하는 경향 역시 낮았습니다.
05:09
However, there is another set of people
111
309505
2943
다른 종류의 사람들도 있습니다.
05:12
who are very confident in answering somewhere in the middle.
112
312472
3618
아주 자신 있게 온건한 대답을 하는 사람들이죠.
05:16
We think these high-confident grays are folks who understand
113
316657
3716
중립지대에서 확신을 가진 이들은
05:20
that both arguments have merit.
114
320397
1612
양쪽의 주장이 모두 이점이 있음을 이해하는 사람들입니다.
05:22
They're gray not because they're unsure,
115
322531
2699
확신하지 못해서 중립성향을 띄는 것이 아니라
05:25
but because they believe that the moral dilemma faces
116
325254
2688
도덕적 딜레마가 두 개의 유효하면서도
05:27
two valid, opposing arguments.
117
327966
1987
반대되는 주장들을 보여준다는 것을 믿고 있기 때문입니다.
05:30
And we discovered that the groups that include highly confident grays
118
330373
4072
이 확신을 가진 중립자를 포함한 그룹이
05:34
are much more likely to reach consensus.
119
334469
2493
합의에 훨씬 더 쉽게 도달합니다.
05:36
We do not know yet exactly why this is.
120
336986
2478
정확히 왜 그런지는 모릅니다.
05:39
These are only the first experiments,
121
339488
1763
아직 실험 초기단계일 뿐이니까요.
05:41
and many more will be needed to understand why and how
122
341275
3412
어떤 사람이 합의를 얻기 위해 본인의 도덕적 관점을 협상하는
05:44
some people decide to negotiate their moral standings
123
344711
2822
이유와 방법을 이해하기 위해서는
05:47
to reach an agreement.
124
347557
1522
더 많은 실험이 이루어져야 합니다.
05:49
Now, when groups reach consensus,
125
349103
2469
집단이 합의에 도달하려고 할 때
05:51
how do they do so?
126
351596
1586
어떤 방법을 쓸까요?
05:53
The most intuitive idea is that it's just the average
127
353206
2581
가장 직관적인 생각은
집단 안에서 나온 모든 답의 평균을 내는 것입니다.
05:55
of all the answers in the group, right?
128
355811
2030
05:57
Another option is that the group weighs the strength of each vote
129
357865
3573
다른 방법은 개인이 본인의 주장에 대해
얼마나 확신하느냐에 따라 더 큰 가중치를 두는 겁니다.
06:01
based on the confidence of the person expressing it.
130
361462
2448
06:04
Imagine Paul McCartney is a member of your group.
131
364422
2506
폴 매카트니가 여러분 그룹의 구성원이라고 생각해보세요.
06:07
You'd be wise to follow his call
132
367352
2144
'예스터데이'가 몇 번이나 반복되느냐는
06:09
on the number of times "Yesterday" is repeated,
133
369520
2441
질문의 답은 폴을 믿는 게 좋지 않을까요?
06:11
which, by the way -- I think it's nine.
134
371985
2714
제 생각에는 아홉 번 같아요.
06:14
But instead, we found that consistently,
135
374723
2381
그런데 우리가 발견한 결과에 따르면
06:17
in all dilemmas, in different experiments --
136
377128
2366
모든 딜레마와 모든 다른 실험들에서
06:19
even on different continents --
137
379518
2165
심지어는 다른 대륙에서 역시
06:21
groups implement a smart and statistically sound procedure
138
381707
3743
집단은 통계적으로 건강한 절차인
06:25
known as the "robust average."
139
385474
2178
'강력한 평균'이라는 방법을 시행하려고 노력합니다.
06:27
In the case of the height of the Eiffel Tower,
140
387676
2180
에펠탑의 높이 질문을 예로 들겠습니다.
06:29
let's say a group has these answers:
141
389880
1820
이러한 대답을 가진 그룹이 있다고 합시다.
06:31
250 meters, 200 meters, 300 meters, 400
142
391724
4608
250m, 200m, 300m
400m와 말도 안 되게 3억m까지요.
06:36
and one totally absurd answer of 300 million meters.
143
396356
3784
06:40
A simple average of these numbers would inaccurately skew the results.
144
400547
4293
이 숫자들을 단순하게 평균내는 것은 결과를 왜곡할 것입니다.
06:44
But the robust average is one where the group largely ignores
145
404864
3170
그러나 강력한 평균은 터무니없는 답을
06:48
that absurd answer,
146
408058
1240
거의 무시하는 방법입니다.
06:49
by giving much more weight to the vote of the people in the middle.
147
409322
3369
중간지대의 답에 더 큰 가중치를 둠으로써 말이죠.
06:53
Back to the experiment in Vancouver,
148
413305
1876
밴쿠버에서 한 실험으로 돌아가볼까요?
06:55
that's exactly what happened.
149
415205
1767
거기서 이 방법이 사용되었습니다.
06:57
Groups gave much less weight to the outliers,
150
417407
2741
집단이 합의에 도달할 때, 특이치에 훨씬 적은 가중치를 두고
07:00
and instead, the consensus turned out to be a robust average
151
420172
3229
개인의 대답에 강력한 평균 방법을 도입한 것입니다.
07:03
of the individual answers.
152
423425
1476
07:05
The most remarkable thing
153
425356
1991
가장 놀라운 일은
07:07
is that this was a spontaneous behavior of the group.
154
427371
3187
이것이 자연스럽게 일어난 현상이라는 겁니다.
07:10
It happened without us giving them any hint on how to reach consensus.
155
430582
4475
우리는 어떠한 힌트도 주지 않았습니다.
07:15
So where do we go from here?
156
435513
1540
여기서 어떤 결과를 도출할 수 있을까요?
07:17
This is only the beginning, but we already have some insights.
157
437432
3137
아직 초기 단계에 불과하지만 이미 짐작된는 결과가 있습니다.
07:20
Good collective decisions require two components:
158
440984
2917
좋은 공동의 결정은 두 가지 요소를 필요로합니다.
07:23
deliberation and diversity of opinions.
159
443925
2749
의견의 심사숙고와 의견의 다양성입니다.
07:27
Right now, the way we typically make our voice heard in many societies
160
447066
3996
현재 대부분의 공동체에서 우리의 목소리가 전달되는 방식은
07:31
is through direct or indirect voting.
161
451086
1908
대개 직간접적인 투표를 통해서입니다.
07:33
This is good for diversity of opinions,
162
453495
1997
의견의 다양성을 위해 좋은 방법이고
07:35
and it has the great virtue of ensuring
163
455516
2445
모두가 각자의 의견을 표현할 수 있다는
07:37
that everyone gets to express their voice.
164
457985
2455
굉장한 장점을 가지는 방법입니다.
07:40
But it's not so good [for fostering] thoughtful debates.
165
460464
3735
그렇지만 의견을 나누는 토론을 장려하는 방법은 아닙니다.
07:44
Our experiments suggest a different method
166
464665
3068
우리의 실험은 다른 방법을 제시합니다.
07:47
that may be effective in balancing these two goals at the same time,
167
467757
3541
이 두 가지 다른 목표 사이에서 균형을 맞출 수 있는 방법이죠.
07:51
by forming small groups that converge to a single decision
168
471322
3753
의견의 다양성을 유지하는 한편
07:55
while still maintaining diversity of opinions
169
475099
2234
하나의 결정을 내리는 소그룹을 만다는 겁니다.
07:57
because there are many independent groups.
170
477357
2773
우리 사회에는 많은 독립적인 집단들이 존재하고 있으니까요.
08:00
Of course, it's much easier to agree on the height of the Eiffel Tower
171
480741
3924
당연히 에펠탑의 높이에 대해 합의하는 것은
08:04
than on moral, political and ideological issues.
172
484689
3115
도덕적, 정치적, 개념적 문제들에 합의하는 것보다 훨씬 쉽습니다.
08:08
But in a time when the world's problems are more complex
173
488721
3277
세상의 문제들이 복잡해지고
08:12
and people are more polarized,
174
492022
1803
사람들이 양극화되어 가는 시대에
08:13
using science to help us understand how we interact and make decisions
175
493849
4595
과학을 통해 우리가 어떻게 상호작용하고 결정을 내리는 지 이해함으로써
08:18
will hopefully spark interesting new ways to construct a better democracy.
176
498468
4666
더 진보된 민주주의를 만들 새로운 방법이 나오기를 바랍니다.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7