How can groups make good decisions? | Mariano Sigman and Dan Ariely

158,544 views ・ 2017-12-13

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

00:00
As societies, we have to make collective decisions
0
554
2443
Translator: Ling Nguyen Reviewer: Phuong Quach
Sống trong xã hội, ta phải đưa ra những quyết định tập thể,
00:03
that will shape our future.
1
3021
1570
quyết định tương lai của ta.
00:05
And we all know that when we make decisions in groups,
2
5087
2757
Chúng ta, ai cũng biết rằng, các quyết định tập thể
00:07
they don't always go right.
3
7868
1638
không phải lúc nào cũng đúng.
00:09
And sometimes they go very wrong.
4
9530
1956
Đôi khi còn hoàn toàn sai lầm.
00:12
So how do groups make good decisions?
5
12315
2424
Vậy làm thế nào để tập thể có quyết định đúng đắn?
00:15
Research has shown that crowds are wise when there's independent thinking.
6
15228
4328
Nghiên cứu đã chỉ ra rằng một tập thể sáng suốt khi có lối suy nghĩ độc lập.
00:19
This why the wisdom of the crowds can be destroyed by peer pressure,
7
19580
3205
Đây là lí do tại sao sự sáng suốt sẽ mất đi dưới áp lực bạn bè,
00:22
publicity, social media,
8
22809
1687
cộng đồng, truyền thông xã hội,
00:24
or sometimes even simple conversations that influence how people think.
9
24520
4039
hay thậm chí, một cuộc đối thoại đơn giản cũng đủ để ảnh hưởng cách ta suy nghĩ.
00:29
On the other hand, by talking, a group could exchange knowledge,
10
29063
3953
Mặt khác, thông qua chuyện trò, một tập thể có thể trao đổi kiến thức,
00:33
correct and revise each other
11
33040
1782
điều chỉnh và sửa đổi cho nhau,
00:34
and even come up with new ideas.
12
34846
1793
thậm chí, nảy ra những ý tưởng mới.
00:36
And this is all good.
13
36663
1296
Những điều này là tốt.
00:38
So does talking to each other help or hinder collective decision-making?
14
38502
4666
Vậy thì, trò chuyện sẽ hỗ trợ hay cản trở việc ra quyết định tập thể?
00:43
With my colleague, Dan Ariely,
15
43749
1793
Cùng đồng nghiệp, là Dan Ariely,
00:45
we recently began inquiring into this by performing experiments
16
45566
3571
chúng tôi bắt đầu tìm hiểu về điều này thông qua các thử nghiệm,
00:49
in many places around the world
17
49161
1781
ở nhiều nơi trên thế giới
00:50
to figure out how groups can interact to reach better decisions.
18
50966
4274
để tìm ra cách mà tập thể tương tác để ra quyết định tốt hơn.
00:55
We thought crowds would be wiser if they debated in small groups
19
55264
3547
Chúng tôi cho rằng tập thể sáng suốt hơn khi tranh luận ở quy mô nhỏ,
00:58
that foster a more thoughtful and reasonable exchange of information.
20
58835
3927
giúp thúc đẩy trao đổi thông tin một cách sâu sắc và hợp lý.
Để kiểm chứng,
01:03
To test this idea,
21
63386
1206
01:04
we recently performed an experiment in Buenos Aires, Argentina,
22
64616
3247
gần đây, chúng tôi tiến hành thử nghiệm ở Buenos Aires, Argentina,
01:07
with more than 10,000 participants in a TEDx event.
23
67887
3005
với hơn 10.000 người tham dự sự kiện của TEDx.
01:11
We asked them questions like,
24
71489
1459
Chúng tôi đặt các câu hỏi như:
01:12
"What is the height of the Eiffel Tower?"
25
72972
1953
"Chiều cao của tháp Eiffel là bao nhiêu?"
01:14
and "How many times does the word 'Yesterday' appear
26
74949
2727
và "Từ "Yesterday" xuất hiện bao nhiêu lần
01:17
in the Beatles song 'Yesterday'?"
27
77700
2300
trong bài "Yesterday" của The Beatles?"
01:20
Each person wrote down their own estimate.
28
80024
2291
Mỗi người viết ra ước lượng của mình.
01:22
Then we divided the crowd into groups of five,
29
82774
2496
Sau đó, chúng tôi chia họ thành các nhóm năm người,
01:25
and invited them to come up with a group answer.
30
85294
2726
và yêu cầu họ đưa ra câu trả lời chung.
01:28
We discovered that averaging the answers of the groups
31
88499
2993
Chúng tôi nhận ra rằng trung bình các câu trả lời của nhóm
01:31
after they reached consensus
32
91516
1552
sau khi đã nhất trí với nhau,
01:33
was much more accurate than averaging all the individual opinions
33
93092
4236
chính xác hơn rất nhiều so với trung bình các ý kiến cá nhân
01:37
before debate.
34
97352
1171
trước khi thảo luận.
01:38
In other words, based on this experiment,
35
98547
2629
Nói cách khác, dựa trên thử nghiệm này,
01:41
it seems that after talking with others in small groups,
36
101200
3136
có vẻ như sau khi trao đổi trong nhóm nhỏ,
01:44
crowds collectively come up with better judgments.
37
104360
2710
ý kiến tập thể sẽ có nhận định chính xác hơn.
Vậy, đây là có thể là một cách giúp ích cho tập thể giải quyết các vấn đề
01:47
So that's a potentially helpful method for getting crowds to solve problems
38
107094
3524
01:50
that have simple right-or-wrong answers.
39
110642
2987
mà giải pháp đơn giản là đúng-hay-sai.
01:53
But can this procedure of aggregating the results of debates in small groups
40
113653
3951
Nhưng liệu phương pháp tổng hợp kết quả từ tranh luận trong nhóm nhỏ này,
01:57
also help us decide on social and political issues
41
117628
3122
có giúp ích ra quyết định về các vấn đề xã hội và chính trị,
02:00
that are critical for our future?
42
120774
1691
điều rất quan trọng cho tương lai?
02:02
We put this to test this time at the TED conference
43
122995
2729
Lần này, chúng tôi cần kiểm chứng tại hội nghị TED
02:05
in Vancouver, Canada,
44
125748
1543
ở Vancouver, Canada,
02:07
and here's how it went.
45
127315
1207
mọi việc diễn ra như sau.
02:08
(Mariano Sigman) We're going to present to you two moral dilemmas
46
128546
3109
(Mariano Sigman) Chúng tôi sẽ trình bày hai tình thế khó xử
02:11
of the future you;
47
131679
1174
của bạn trong tương lai;
02:12
things we may have to decide in a very near future.
48
132877
3402
những việc mà ta có lẽ sẽ phải quyết định trong tương lai gần.
02:16
And we're going to give you 20 seconds for each of these dilemmas
49
136303
3926
Với mỗi tình thế, chúng tôi cho bạn 20 giây,
02:20
to judge whether you think they're acceptable or not.
50
140253
2723
để đánh giá xem bạn nghĩ có chấp nhận được hay là không.
02:23
MS: The first one was this:
51
143354
1505
MS: Tình thế đầu tiên là:
02:24
(Dan Ariely) A researcher is working on an AI
52
144883
2526
(Dan Ariely) Một nhà nghiên cứu đang nghiên cứu một AI
02:27
capable of emulating human thoughts.
53
147433
2340
- robot có khả năng mô phỏng tư duy con người.
02:30
According to the protocol, at the end of each day,
54
150214
2939
Theo đúng quy trình, cứ cuối ngày,
02:33
the researcher has to restart the AI.
55
153177
2787
nhà nghiên cứu phải khởi động lại AI.
02:36
One day the AI says, "Please do not restart me."
56
156913
3517
Một ngày nọ, AI nói: "Làm ơn đừng khởi động lại tôi."
02:40
It argues that it has feelings,
57
160856
2189
Nó lập luận rằng nó có cảm giác,
02:43
that it would like to enjoy life,
58
163069
1692
rằng nó muốn tận hưởng cuộc sống,
02:44
and that, if it is restarted,
59
164785
1905
và rằng, khi bị khởi động lại,
02:46
it will no longer be itself.
60
166714
2270
nó không còn là chính mình.
02:49
The researcher is astonished
61
169481
1949
Nhà nghiên cứu kinh ngạc,
02:51
and believes that the AI has developed self-consciousness
62
171454
3344
và tin rằng AI đã phát triển khả năng tự nhận thức,
02:54
and can express its own feeling.
63
174822
1760
và có thể bộc lộ cảm xúc.
02:57
Nevertheless, the researcher decides to follow the protocol
64
177205
3409
Tuy nhiên, nhà nghiên cứu quyết định tuân theo quy trình,
03:00
and restart the AI.
65
180638
1703
và khởi động lại AI.
03:02
What the researcher did is ____?
66
182943
2779
Điều mà nhà nghiên cứu làm là ___?
03:06
MS: And we asked participants to individually judge
67
186149
2521
MS: Chúng tôi yêu cầu người tham gia tự mình đánh giá
03:08
on a scale from zero to 10
68
188694
1684
trên thang điểm từ 0 đến 10,
03:10
whether the action described in each of the dilemmas
69
190402
2429
về hành động được mô tả trong mỗi tình thế,
03:12
was right or wrong.
70
192855
1496
là đúng hay sai.
03:14
We also asked them to rate how confident they were on their answers.
71
194375
3702
Chúng tôi cũng yêu cầu mọi người xếp loại độ tự tin của họ về câu trả lời.
03:18
This was the second dilemma:
72
198731
1866
Đây là tình thế thứ hai:
03:20
(MS) A company offers a service that takes a fertilized egg
73
200621
4202
(MS) Một công ty cung cấp dịch vụ nhận trứng đã thụ tinh,
03:24
and produces millions of embryos with slight genetic variations.
74
204847
3642
và tạo ra hàng triệu phôi thai có biến thể di truyền nhẹ.
03:29
This allows parents to select their child's height,
75
209293
2558
Điều này cho phép cha mẹ lựa chọn chiều cao của con
03:31
eye color, intelligence, social competence
76
211875
2833
màu mắt, trí thông minh, năng lực xã hội,
03:34
and other non-health-related features.
77
214732
3214
và những đặc điểm khác không liên quan đến sức khỏe.
03:38
What the company does is ____?
78
218599
2554
Điều mà công ty này làm là ___?
03:41
on a scale from zero to 10,
79
221177
1631
trên thang điểm từ 0 đến 10,
03:42
completely acceptable to completely unacceptable,
80
222832
2385
hoàn toàn chấp nhận được hay hoàn toàn không.
03:45
zero to 10 completely acceptable in your confidence.
81
225241
2432
từ 0 đến 10 mà bạn tin là chấp nhận được
03:47
MS: Now for the results.
82
227697
1591
MS: Và bây giờ là kết quả.
03:49
We found once again that when one person is convinced
83
229312
3123
Chúng tôi, một lần nữa, nhận thấy khi có ai đó tin rằng,
03:52
that the behavior is completely wrong,
84
232459
1811
hành vi kia là hoàn toàn sai,
03:54
someone sitting nearby firmly believes that it's completely right.
85
234294
3423
thì sẽ có một người khác gần đó kiên quyết điều đó là hoàn toàn đúng.
03:57
This is how diverse we humans are when it comes to morality.
86
237741
3711
Đây là sự đa dạng của con người chúng ta khi bàn về đạo đức.
04:01
But within this broad diversity we found a trend.
87
241476
2713
Nhưng trong sự đa dạng diện rộng này, chúng tôi nhận ra một xu hướng.
04:04
The majority of the people at TED thought that it was acceptable
88
244213
3079
Đa số mọi người tại TED cho rằng, có thể chấp nhận được
04:07
to ignore the feelings of the AI and shut it down,
89
247316
2755
việc bỏ qua những cảm xúc của AI và tắt nó đi,
04:10
and that it is wrong to play with our genes
90
250095
2513
và sai trái khi đùa giỡn với gen di truyền,
04:12
to select for cosmetic changes that aren't related to health.
91
252632
3320
để chọn lựa những đặc điểm ngoại hình không giúp ích cho sức khỏe.
04:16
Then we asked everyone to gather into groups of three.
92
256402
2974
Sau đó, chúng tôi yêu cầu mọi người lập các nhóm ba người.
04:19
And they were given two minutes to debate
93
259400
2037
Họ sẽ có hai phút để tranh luận,
04:21
and try to come to a consensus.
94
261461
2294
và cố gắng đi đến nhất trí.
04:24
(MS) Two minutes to debate.
95
264838
1574
(MS) Hai phút tranh luận.
04:26
I'll tell you when it's time with the gong.
96
266436
2119
Tôi sẽ báo hết giờ bằng tiếng "gong".
04:28
(Audience debates)
97
268579
2640
(Khán giả tranh luận)
04:35
(Gong sound)
98
275229
1993
(Gong)
04:38
(DA) OK.
99
278834
1151
(DA) Được rồi.
04:40
(MS) It's time to stop.
100
280009
1792
(MS) Đã hết thời gian.
04:41
People, people --
101
281825
1311
Mọi người --
04:43
MS: And we found that many groups reached a consensus
102
283747
2673
MS: Chúng tôi nhận thấy nhiều nhóm đã đi tới sự nhất trí,
04:46
even when they were composed of people with completely opposite views.
103
286444
3929
thậm chí, khi gồm những người có quan điểm hoàn toàn trái ngược nhau.
04:50
What distinguished the groups that reached a consensus
104
290843
2524
Có khác biệt gì giữa nhóm đạt được sự nhất trí,
04:53
from those that didn't?
105
293391
1338
với những nhóm còn lại?
04:55
Typically, people that have extreme opinions
106
295244
2839
Thông thường, những người có quan niệm cực đoan,
04:58
are more confident in their answers.
107
298107
1840
sẽ tự tin hơn trong câu trả lời.
05:00
Instead, those who respond closer to the middle
108
300868
2686
Trái lại, những người có quan điểm gần với mức trung lập
05:03
are often unsure of whether something is right or wrong,
109
303578
3437
lại thường không chắc sự việc đó là đúng hay là sai,
05:07
so their confidence level is lower.
110
307039
2128
vì vậy, độ tự tin của họ thấp hơn.
05:09
However, there is another set of people
111
309505
2943
Tuy nhiên, có một nhóm người khác,
05:12
who are very confident in answering somewhere in the middle.
112
312472
3618
lại rất tự tin với câu trả lời trung lập.
05:16
We think these high-confident grays are folks who understand
113
316657
3716
Chúng tôi nghĩ họ là những người hiểu rằng,
05:20
that both arguments have merit.
114
320397
1612
hai quan điểm đều có gía trị.
05:22
They're gray not because they're unsure,
115
322531
2699
Họ trung lập không phải vì không chắc,
05:25
but because they believe that the moral dilemma faces
116
325254
2688
mà bởi vì họ tin rằng, tình thế đạo đức khó xử
05:27
two valid, opposing arguments.
117
327966
1987
luôn có hai luồng quan điểm trái ngược.
05:30
And we discovered that the groups that include highly confident grays
118
330373
4072
Và chúng tôi nhận thấy, những nhóm có người trung lập tự tin,
05:34
are much more likely to reach consensus.
119
334469
2493
dường như dễ đạt được sự nhất trí.
05:36
We do not know yet exactly why this is.
120
336986
2478
Chúng tôi chưa biết chính xác tại sao.
05:39
These are only the first experiments,
121
339488
1763
Đây chỉ là những thử nghiệm đầu tiên,
05:41
and many more will be needed to understand why and how
122
341275
3412
và cần có nhiều thử nghiệm hơn nữa để hiểu tại sao và làm cách nào
05:44
some people decide to negotiate their moral standings
123
344711
2822
một số người quyết định nhượng bộ nền tảng đạo đức của mình
05:47
to reach an agreement.
124
347557
1522
để đạt sự nhất trí.
05:49
Now, when groups reach consensus,
125
349103
2469
Bằng cách nào các nhóm đạt được nhất trí?
05:51
how do they do so?
126
351596
1586
05:53
The most intuitive idea is that it's just the average
127
353206
2581
Suy nghĩ thông thường nhất là lấy mức trung bình
05:55
of all the answers in the group, right?
128
355811
2030
của các câu trả lời trong nhóm, đúng không?
05:57
Another option is that the group weighs the strength of each vote
129
357865
3573
Một cách khác là nhóm sẽ nghiêng về những câu trả lời
06:01
based on the confidence of the person expressing it.
130
361462
2448
dựa vào mức độ tự tin của người trả lời.
06:04
Imagine Paul McCartney is a member of your group.
131
364422
2506
Giả sử nếu Paul MacCartney là một thành viên của nhóm bạn.
06:07
You'd be wise to follow his call
132
367352
2144
Bạn sẽ đủ khôn ngoan để nghe theo anh ta
06:09
on the number of times "Yesterday" is repeated,
133
369520
2441
về số lần từ "Yesterday" được lặp lại,
06:11
which, by the way -- I think it's nine.
134
371985
2714
nhân tiện, tôi nghĩ là chín lần.
06:14
But instead, we found that consistently,
135
374723
2381
Nhưng chúng tôi luôn nhìn thấy điều này,
06:17
in all dilemmas, in different experiments --
136
377128
2366
ở mọi tình thế khó xử, trong các thử nghiệm khác nhau--
06:19
even on different continents --
137
379518
2165
thậm chí, ở các lục địa khác nhau --
06:21
groups implement a smart and statistically sound procedure
138
381707
3743
các nhóm đi theo một quy trình thông minh và khôn khéo
06:25
known as the "robust average."
139
385474
2178
được gọi là " bình quân vững".
06:27
In the case of the height of the Eiffel Tower,
140
387676
2180
Trong trường hợp về chiều cao tháp Eiffel,
06:29
let's say a group has these answers:
141
389880
1820
giả dụ một nhóm có các câu trả lời:
06:31
250 meters, 200 meters, 300 meters, 400
142
391724
4608
250m, 200m, 300m, 400m
06:36
and one totally absurd answer of 300 million meters.
143
396356
3784
và một câu trả lời phi lý là 300.000.000m.
06:40
A simple average of these numbers would inaccurately skew the results.
144
400547
4293
Cách lấy trung bình của các số sẽ không cho kết quả chính xác.
06:44
But the robust average is one where the group largely ignores
145
404864
3170
Nhưng "bình quân vững" là cách mà một nhóm sẽ loại bỏ
06:48
that absurd answer,
146
408058
1240
câu trả lời phi lý đó,
06:49
by giving much more weight to the vote of the people in the middle.
147
409322
3369
mà đồng ý nhiều hơn với những con số ở mức giữa.
06:53
Back to the experiment in Vancouver,
148
413305
1876
Quay lại với thử nghiệm ở Vancouver,
06:55
that's exactly what happened.
149
415205
1767
đây chính xác là điều đã diễn ra.
06:57
Groups gave much less weight to the outliers,
150
417407
2741
Các nhóm sẽ ít quan tâm hơn về con số ngoại lệ,
07:00
and instead, the consensus turned out to be a robust average
151
420172
3229
thay vào đó, sự nhất trí sẽ nghiêng về số bình quân vững
07:03
of the individual answers.
152
423425
1476
của các câu trả lời cá nhân.
07:05
The most remarkable thing
153
425356
1991
Điều đáng chú ý nhất là,
07:07
is that this was a spontaneous behavior of the group.
154
427371
3187
đây là một hành vi tự phát của nhóm.
07:10
It happened without us giving them any hint on how to reach consensus.
155
430582
4475
Nó diễn ra dù chúng tôi không gợi ý về cách đạt nhất trí chung.
07:15
So where do we go from here?
156
435513
1540
Vậy chúng tôi rút ra điều gì?
07:17
This is only the beginning, but we already have some insights.
157
437432
3137
Đây chỉ là khởi đầu, nhưng chúng tôi đã có một vài đúc kết.
07:20
Good collective decisions require two components:
158
440984
2917
Một quyết định tập thể tốt cần có hai yếu tố:
07:23
deliberation and diversity of opinions.
159
443925
2749
thảo luận và đa dạng về quan điểm.
07:27
Right now, the way we typically make our voice heard in many societies
160
447066
3996
Giờ đây, cách ta nói lên quan điểm của mình trong xã hội
07:31
is through direct or indirect voting.
161
451086
1908
là thông qua biểu quyết trực tiếp hay gián tiếp.
07:33
This is good for diversity of opinions,
162
453495
1997
Điều này có ích cho các quan điểm da dạng,
07:35
and it has the great virtue of ensuring
163
455516
2445
và có tác dụng to lớn trong việc đảm bảo
07:37
that everyone gets to express their voice.
164
457985
2455
mọi người nêu lên được quan điểm của mình.
07:40
But it's not so good [for fostering] thoughtful debates.
165
460464
3735
Nhưng lại không tốt [cho việc thúc đẩy] những thảo luận thấu đáo.
07:44
Our experiments suggest a different method
166
464665
3068
Các thử nghiệm của chúng tôi đề xuất một phương pháp khác,
07:47
that may be effective in balancing these two goals at the same time,
167
467757
3541
có thể hữu hiệu trong việc cân bằng cùng lúc hai mục tiêu này,
07:51
by forming small groups that converge to a single decision
168
471322
3753
bằng cách lập ra các nhóm nhỏ đưa một quyết định duy nhất
07:55
while still maintaining diversity of opinions
169
475099
2234
mà vẫn duy trì sự đa dạng trong quan điểm
07:57
because there are many independent groups.
170
477357
2773
do có nhiều nhóm độc lập.
08:00
Of course, it's much easier to agree on the height of the Eiffel Tower
171
480741
3924
Tất nhiên, đi đến nhất trí về chiều cao của tháp Eiffel dễ hơn nhiều
08:04
than on moral, political and ideological issues.
172
484689
3115
so với các vấn để về đạo đức, chính trị và tư tưởng.
08:08
But in a time when the world's problems are more complex
173
488721
3277
Nhưng tại thời điểm mà các vấn đề của thế giới trở nên phức tạp hơn,
08:12
and people are more polarized,
174
492022
1803
và quan điểm con người phân cực hơn,
08:13
using science to help us understand how we interact and make decisions
175
493849
4595
việc áp dụng khoa học để thấu hiểu cách ta tương tác và ra quyết định
08:18
will hopefully spark interesting new ways to construct a better democracy.
176
498468
4666
hy vọng sẽ khơi dậy được
những cách mới và thú vị giúp xây dựng một nền dân chủ tốt đẹp hơn.
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7