How can groups make good decisions? | Mariano Sigman and Dan Ariely

151,320 views ・ 2017-12-13

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

00:00
As societies, we have to make collective decisions
0
554
2443
Translator: Pongsakorn Puavaranukroh Reviewer: Ying Tueanrat
ในฐานะส่วนหนึ่งของสังคม เราต่างมีส่วนร่วมในการตัดสินใจ
00:03
that will shape our future.
1
3021
1570
ที่อาจส่งผลต่อเราในอนาคต
00:05
And we all know that when we make decisions in groups,
2
5087
2757
พวกเรารู้ดีว่าเมื่อไหร่ที่เรา ตัดสินใจเป็นหมู่คณะ
00:07
they don't always go right.
3
7868
1638
ผลลัพธ์มักจะออกมาไม่ค่อยดีนัก
00:09
And sometimes they go very wrong.
4
9530
1956
บ่อยครั้งที่ยิ่งแย่กันไปใหญ่
00:12
So how do groups make good decisions?
5
12315
2424
แล้วจะทำอย่างไรให้การตัดสินใจแบบกลุ่ม ได้ผลออกมาดี
00:15
Research has shown that crowds are wise when there's independent thinking.
6
15228
4328
งานวิจัยเผยว่าปัญญาฝูงชนจะเกิด ก็ต่อเมื่อต่างคนต่างคิดอย่างเป็นอิสระ
00:19
This why the wisdom of the crowds can be destroyed by peer pressure,
7
19580
3205
นี่เป็นเหตุผลว่าทำไมปัญญาฝูงชน จึงถูกบดบัง จากแรงกดดันของคนรอบข้าง
00:22
publicity, social media,
8
22809
1687
การโฆษณา สื่อสังคมออนไลน์
00:24
or sometimes even simple conversations that influence how people think.
9
24520
4039
หรือบางครั้งแค่การพูดคุยกัน ก็มีผลต่อความคิดของคน
00:29
On the other hand, by talking, a group could exchange knowledge,
10
29063
3953
ในทางกลับกัน การถกกันในกลุ่ม ทำให้มีการแลกเปลี่ยนมุมมอง
00:33
correct and revise each other
11
33040
1782
ปรับปรุงแก้ไขความเห็นซึ่งกันและกัน
00:34
and even come up with new ideas.
12
34846
1793
บางครั้งยังก่อให้เกิดแนวคิดใหม่ๆ
00:36
And this is all good.
13
36663
1296
ซึ่งทั้งหมดนี้เป็นเรื่องดี
00:38
So does talking to each other help or hinder collective decision-making?
14
38502
4666
สรุปว่าการปรึกษาหารือกันในกลุ่ม เป็นตัวช่วยหรือตัวถ่วงในการตัดสินใจกันแน่
00:43
With my colleague, Dan Ariely,
15
43749
1793
ผมและเพื่อนร่วมงานของผม แดน อารีลีย์
00:45
we recently began inquiring into this by performing experiments
16
45566
3571
พวกเราได้เริ่มลงมือค้นหาคำตอบนี้ โดยทำการทดลอง
00:49
in many places around the world
17
49161
1781
ในหลายๆที่ทั่วโลก
00:50
to figure out how groups can interact to reach better decisions.
18
50966
4274
เพื่อจะหาคำตอบว่าทำอย่างไรให้ การตัดสินใจแบบกลุ่มได้ผลออกมาดี
00:55
We thought crowds would be wiser if they debated in small groups
19
55264
3547
เราคาดว่า ฝูงชนจะตัดสินใจได้ดี ถ้ามีการถกกันในกลุ่มเล็กๆ
00:58
that foster a more thoughtful and reasonable exchange of information.
20
58835
3927
ที่ช่วยให้เกิดการแลกเปลี่ยนความคิด อย่างเป็นเหตุเป็นผล
01:03
To test this idea,
21
63386
1206
เพื่อทดสอบสมมติฐานนี้
01:04
we recently performed an experiment in Buenos Aires, Argentina,
22
64616
3247
พวกเราได้ทำการทดลองนึง ที่กรุงบัวโนสไอเรส ประเทศอาร์เจนตินา
01:07
with more than 10,000 participants in a TEDx event.
23
67887
3005
มีผู้เข้าร่วมการทดลองกว่า 10,000 ราย จากงาน TEDx
01:11
We asked them questions like,
24
71489
1459
นี่คือตัวอย่างคำถามในการทดลอง
01:12
"What is the height of the Eiffel Tower?"
25
72972
1953
"หอไอเฟลสูงเท่าไหร่"
01:14
and "How many times does the word 'Yesterday' appear
26
74949
2727
"มีคำว่า 'Yesterday' กี่คำ"
01:17
in the Beatles song 'Yesterday'?"
27
77700
2300
ในเพลง 'Yesterday' ของวงเดอะบีเทิ้ล
01:20
Each person wrote down their own estimate.
28
80024
2291
ต่างคนต่างเขียนคำตอบของตัวเอง
01:22
Then we divided the crowd into groups of five,
29
82774
2496
ต่อมาเราก็แบ่งคนทั้งหมด ออกเป็นกลุ่มละ 5 คน
01:25
and invited them to come up with a group answer.
30
85294
2726
แล้วให้แต่ละกลุ่ม ช่วยกันหาคำตอบ
01:28
We discovered that averaging the answers of the groups
31
88499
2993
เราพบว่า ค่าเฉลี่ยของคำตอบจากแต่ละกลุ่ม
01:31
after they reached consensus
32
91516
1552
หลังจากที่ได้จากการปรึกษาหารือกัน
01:33
was much more accurate than averaging all the individual opinions
33
93092
4236
มีค่าใกล้เคียงกับค่าจริง มากกว่าค่าเฉลี่ยของคำตอบจากแต่ละคน
01:37
before debate.
34
97352
1171
ที่ทำไปก่อนแบ่งกลุ่ม
01:38
In other words, based on this experiment,
35
98547
2629
หรือก็คือ จากการทดลองนี้
01:41
it seems that after talking with others in small groups,
36
101200
3136
ดูเหมือนว่า การปรึกษากันในกลุ่มเล็กๆ
01:44
crowds collectively come up with better judgments.
37
104360
2710
จะช่วยให้ได้ข้อสรุปที่ดีขึ้นกว่าเดิม
01:47
So that's a potentially helpful method for getting crowds to solve problems
38
107094
3524
นี่อาจเป็นวิธีที่ช่วยให้เรา สามารถแก้ปัญหาโดยอาศัยฝูงชน
01:50
that have simple right-or-wrong answers.
39
110642
2987
สำหรับปัญหาถูกผิดง่ายๆ
01:53
But can this procedure of aggregating the results of debates in small groups
40
113653
3951
แต่การรวมรวมผลลัพธ์ จากกลุ่มย่อยๆแต่ละกลุ่ม
01:57
also help us decide on social and political issues
41
117628
3122
จะสามารถช่วยให้เรา แก้ปัญหาสังคมหรือปัญหาการเมือง
02:00
that are critical for our future?
42
120774
1691
ที่สำคัญต่ออนาคตของเราได้หรือไม่
02:02
We put this to test this time at the TED conference
43
122995
2729
เราทำการทดลองในประเด็นนี้ ที่งานสัมมนา TED
02:05
in Vancouver, Canada,
44
125748
1543
ที่แวนคูเวอร์ ประเทศแคนาดา
02:07
and here's how it went.
45
127315
1207
นี่เป็นบรรยากาศในงานนั้น
02:08
(Mariano Sigman) We're going to present to you two moral dilemmas
46
128546
3109
(มาริอาโน ซิกแมน) เราจะนำเสนอ ปัญหาความขัดแย้งทางจริยธรรม 2 เหตุการณ์
02:11
of the future you;
47
131679
1174
ที่เกิดขึ้นในอนาคต
02:12
things we may have to decide in a very near future.
48
132877
3402
ที่พวกเราอาจต้องทำการตัดสินใจ
02:16
And we're going to give you 20 seconds for each of these dilemmas
49
136303
3926
เราจะให้เวลาพวกคุณ 20 วินาที สำหรับปัญหาแต่ละข้อ
02:20
to judge whether you think they're acceptable or not.
50
140253
2723
ให้คุณตัดสินว่าคุณรับมันได้หรือไม่
02:23
MS: The first one was this:
51
143354
1505
ปัญหาแรก คือ
02:24
(Dan Ariely) A researcher is working on an AI
52
144883
2526
นักวิจัยคนนึงกำลังทดลอง เกี่ยวกับหุ่นยนต์
02:27
capable of emulating human thoughts.
53
147433
2340
ที่สามารถคิดเลียนแบบมนุษย์ได้
02:30
According to the protocol, at the end of each day,
54
150214
2939
ซึ่งตามคู่มือ เมื่อเสร็จงานในแต่ละวัน
02:33
the researcher has to restart the AI.
55
153177
2787
นักวิจัยคนดังกล่าวต้องปิดและเปิด หุ่นยนต์ตัวนั้นใหม่ทุกครั้ง
02:36
One day the AI says, "Please do not restart me."
56
156913
3517
วันนึง หุ่นยนต์พูดขึ้นว่า "อย่าปิดสวิตช์ฉันเลย"
02:40
It argues that it has feelings,
57
160856
2189
มันอ้างว่ามันมีความรู้สึก
02:43
that it would like to enjoy life,
58
163069
1692
มันอยากจะใช้ชีวิตของมัน
02:44
and that, if it is restarted,
59
164785
1905
ซึ่งถ้ามันถูกปิดและเปิดใหม่
02:46
it will no longer be itself.
60
166714
2270
มันจะเสียตัวตนของมันไป
02:49
The researcher is astonished
61
169481
1949
นักวิจัยรู้สึกประหลาดใจ
02:51
and believes that the AI has developed self-consciousness
62
171454
3344
และเชื่อว่าหุ่นยนต์ได้พัฒนา จนมีสติสัมปชัญญะขึ้นมา
02:54
and can express its own feeling.
63
174822
1760
จนสามารถแสดงความรู้สึกออกมาได้
02:57
Nevertheless, the researcher decides to follow the protocol
64
177205
3409
อย่างไรก็ตาม นักวิจัยตัดสินใจที่จะทำตามคู่มือ
03:00
and restart the AI.
65
180638
1703
แล้วกดปิดสวิตช์หุ่นยนต์
03:02
What the researcher did is ____?
66
182943
2779
สิ่งที่นักวิจัยทำนั้น ____
03:06
MS: And we asked participants to individually judge
67
186149
2521
เราได้ให้ผู้เข้าร่วมแต่ละคน ให้คะแนน
03:08
on a scale from zero to 10
68
188694
1684
จาก 0 ถึง 10
03:10
whether the action described in each of the dilemmas
69
190402
2429
ว่าการกระทำในแต่ละสถานการณ์
03:12
was right or wrong.
70
192855
1496
นั้นถูกหรือผิด
03:14
We also asked them to rate how confident they were on their answers.
71
194375
3702
เรายังให้ผู้เข้าร่วมให้คะแนนว่า พวกเขามั่นใจในคำตอบของตัวเองแค่ไหน
03:18
This was the second dilemma:
72
198731
1866
ส่วนนี่เป็นคำถามที่สอง
03:20
(MS) A company offers a service that takes a fertilized egg
73
200621
4202
บริษัทนึงให้บริการนำไข่ที่ผสมแล้ว
03:24
and produces millions of embryos with slight genetic variations.
74
204847
3642
ไปผลิตเป็นตัวอ่อนนับล้าน โดยมียีนต่างกันในรูปแบบต่างๆ
03:29
This allows parents to select their child's height,
75
209293
2558
แล้วให้พ่อแม่เด็กเป็นคนเลือก ส่วนสูง
03:31
eye color, intelligence, social competence
76
211875
2833
สีตา สติปัญญา ทักษะทางสังคม
03:34
and other non-health-related features.
77
214732
3214
และ คุณสมบัติอื่นๆ ที่ไม่เกี่ยวกับสุขภาพทารก
03:38
What the company does is ____?
78
218599
2554
สิ่งที่บริษัททำอยู่นั้น ____
03:41
on a scale from zero to 10,
79
221177
1631
ให้คะแนน 0 ถึง 10
03:42
completely acceptable to completely unacceptable,
80
222832
2385
รับได้ไม่มีข้อโต้แย้ง จนถึง รับไม่ได้โดยสิ้นเชิง
03:45
zero to 10 completely acceptable in your confidence.
81
225241
2432
ให้คะแนน 0 ถึง 10 ว่ามั่นใจในคำตอบของคุณแค่ไหน
03:47
MS: Now for the results.
82
227697
1591
และนี่คือผลการทดลอง
03:49
We found once again that when one person is convinced
83
229312
3123
เป็นอีกครั้งที่เราพบว่า เมื่อใครคนนึงรู้สึกมั่นใจว่า
03:52
that the behavior is completely wrong,
84
232459
1811
พฤติกรรมนั้นเป็นสิ่งผิดแน่ๆ
03:54
someone sitting nearby firmly believes that it's completely right.
85
234294
3423
กลับมีคนใกล้ๆกันที่ แน่ใจว่ามันถูกต้องแล้ว
03:57
This is how diverse we humans are when it comes to morality.
86
237741
3711
จะเห็นว่ามนุษย์เรามีความหลากหลาย ในเรื่องจริยธรรม
04:01
But within this broad diversity we found a trend.
87
241476
2713
แต่กระนั้น เรายังสามารถเห็นแนวโน้มของคำตอบ
04:04
The majority of the people at TED thought that it was acceptable
88
244213
3079
เสียงส่วนใหญ่ของผู้ร่วมงาน TED คิดว่ามันเป็นสิ่งที่ยอมรับได้
04:07
to ignore the feelings of the AI and shut it down,
89
247316
2755
ที่จะเพิกเฉยต่อความรู้สึกของหุ่นยนต์ และปิดสวิตช์มัน
04:10
and that it is wrong to play with our genes
90
250095
2513
และคิดว่ามันผิด ที่จะไปดัดแปลงยีนของมนุษย์
04:12
to select for cosmetic changes that aren't related to health.
91
252632
3320
เพื่อประโยชน์ทางรูปลักษณ์ ที่ไม่เกี่ยวข้องกับการรักษา
04:16
Then we asked everyone to gather into groups of three.
92
256402
2974
ทีนี้เราแบ่งผู้เข้าร่วมออกเป็นกลุ่มละ 3 คน
04:19
And they were given two minutes to debate
93
259400
2037
และให้เวลา 2 นาที สำหรับถกเถียงกัน
04:21
and try to come to a consensus.
94
261461
2294
เพื่อให้ได้ข้อสรุปออกมา
04:24
(MS) Two minutes to debate.
95
264838
1574
เวลา 2 นาที สำหรับถกเถียงกัน
04:26
I'll tell you when it's time with the gong.
96
266436
2119
ผมจะใช้เสียงฆ้อง บอกเมื่อหมดเวลา
04:28
(Audience debates)
97
268579
2640
(ผู้เข้าร่วม ถกเถียงกัน)
04:35
(Gong sound)
98
275229
1993
(เสียงฆ้อง)
04:38
(DA) OK.
99
278834
1151
เอาละ
04:40
(MS) It's time to stop.
100
280009
1792
หมดเวลาแล้วครับ
04:41
People, people --
101
281825
1311
ทุกๆ คน
04:43
MS: And we found that many groups reached a consensus
102
283747
2673
เราพบว่า หลายๆ กลุ่ม สามารถได้ข้อสรุปออกมา
04:46
even when they were composed of people with completely opposite views.
103
286444
3929
แม้ว่าความเห็นเดิมของสมาชิก จะแตกต่างกันอย่างมาก
04:50
What distinguished the groups that reached a consensus
104
290843
2524
อะไรคือข้อแตกต่าง ระหว่างกลุ่มที่ได้ข้อสรุป
04:53
from those that didn't?
105
293391
1338
กับกลุ่มที่ไม่ได้ข้อสรุป
04:55
Typically, people that have extreme opinions
106
295244
2839
โดยทั่วไป คนที่มีความเห็นแบบสุดโต่ง
04:58
are more confident in their answers.
107
298107
1840
จะค่อนข้างมั่นใจในคำตอบของตัวเอง
05:00
Instead, those who respond closer to the middle
108
300868
2686
ขณะที่ คนที่ให้ความเห็นกลางๆ
05:03
are often unsure of whether something is right or wrong,
109
303578
3437
จะไม่ค่อยแน่ใจว่าควรตอบอะไรดี
05:07
so their confidence level is lower.
110
307039
2128
ระดับความมั่นใจจึงต่ำไปด้วย
05:09
However, there is another set of people
111
309505
2943
อย่างไรก็ตาม มีคนอีกกลุ่มนึง
05:12
who are very confident in answering somewhere in the middle.
112
312472
3618
ที่กลับมั่นใจในคำตอบ แม้ว่าจะให้ความเห็นแบบกลางๆ
05:16
We think these high-confident grays are folks who understand
113
316657
3716
เราคิดว่าคนกลุ่มนี้ มีความเข้าใจดี
05:20
that both arguments have merit.
114
320397
1612
ว่าความเห็นทั้งสองขั้วนั้น ต่างก็มีเหตุผล
05:22
They're gray not because they're unsure,
115
322531
2699
พวกเขาเป็นกลาง ไม่ใช่เพราะพวกเขาไม่แน่ใจ
05:25
but because they believe that the moral dilemma faces
116
325254
2688
แต่เพราะพวกเขาเชื่อว่า ประเด็นทางศีลธรรมที่เจอ
05:27
two valid, opposing arguments.
117
327966
1987
ไม่มีคำตอบที่ผิดหรือถูก
05:30
And we discovered that the groups that include highly confident grays
118
330373
4072
เราพบว่า ถ้าในกลุ่มมีคนที่แน่ใจ ว่าไม่มีคำตอบที่ผิดหรือถูก
05:34
are much more likely to reach consensus.
119
334469
2493
ก็จะมีแนวโน้มสูง ที่จะได้ข้อสรุป
05:36
We do not know yet exactly why this is.
120
336986
2478
เรายังไม่รู้แน่ชัด ว่าทำไมจึงเป็นเช่นนั้น
05:39
These are only the first experiments,
121
339488
1763
นี่เป็นแค่การทดลองแรกๆ
05:41
and many more will be needed to understand why and how
122
341275
3412
ยังมีอีกมากที่เราต้องทำความเข้าใจ ว่าทำไมและอย่างไร
05:44
some people decide to negotiate their moral standings
123
344711
2822
บางคนถึงยอม ปรับมุมมองทางศีลธรรมของเขา
05:47
to reach an agreement.
124
347557
1522
เพื่อให้ได้ข้อสรุปของกลุ่ม
05:49
Now, when groups reach consensus,
125
349103
2469
ในการที่กลุ่มได้ข้อสรุป
05:51
how do they do so?
126
351596
1586
พวกเขามันทำอย่างไร
05:53
The most intuitive idea is that it's just the average
127
353206
2581
วิธีที่คาดเดาได้ง่ายที่สุด ก็คือใช้ค่าเฉลี่ย
05:55
of all the answers in the group, right?
128
355811
2030
จากทุกคนในกลุ่ม จริงไหม
05:57
Another option is that the group weighs the strength of each vote
129
357865
3573
อีกวิธีได้แก่ ดูว่าคำตอบไหนน่าเชื่อถือ
06:01
based on the confidence of the person expressing it.
130
361462
2448
ตามความมั่นใจของคนตอบ
06:04
Imagine Paul McCartney is a member of your group.
131
364422
2506
สมมติว่า พอล แม็กคาร์ตนีย์ อยู่ในกลุ่มคุณ
06:07
You'd be wise to follow his call
132
367352
2144
คำตอบของเขาน่าจะเป็นตัวเลือกที่ดี
06:09
on the number of times "Yesterday" is repeated,
133
369520
2441
ว่ามีคำว่า "Yesterday" กี่คำในเพลง
06:11
which, by the way -- I think it's nine.
134
371985
2714
ซึ่งผมคิดว่าคำตอบคือ 9 คำ
06:14
But instead, we found that consistently,
135
374723
2381
แต่กระนั้น สิ่งที่เราพบอยู่เสมอ
06:17
in all dilemmas, in different experiments --
136
377128
2366
ในทุกปัญหาจริยธรรม ทุกครั้งที่ทำการทดลอง
06:19
even on different continents --
137
379518
2165
แม้ในต่างทวีป
06:21
groups implement a smart and statistically sound procedure
138
381707
3743
กลุ่มมีการใช้วิธีทางสถิติที่แยบคาย
06:25
known as the "robust average."
139
385474
2178
ที่เรียกว่า "ค่าเฉลี่ยสมจริง (robust average)"
06:27
In the case of the height of the Eiffel Tower,
140
387676
2180
ยกตัวอย่างในคำถาม ความสูงหอไอเฟล
06:29
let's say a group has these answers:
141
389880
1820
สมมติว่าคำตอบในกลุ่มเป็นดังนี้
06:31
250 meters, 200 meters, 300 meters, 400
142
391724
4608
250, 200, 300, 400 เมตร
06:36
and one totally absurd answer of 300 million meters.
143
396356
3784
และคำตอบไร้สาระ 300 ล้านเมตร
06:40
A simple average of these numbers would inaccurately skew the results.
144
400547
4293
ค่าเฉลี่ยทั่วไป จากคำตอบทั้งหมด จะผิดจากค่าจริงไปไกล
06:44
But the robust average is one where the group largely ignores
145
404864
3170
แต่ด้วยวิธีค่าเฉลี่ยสมจริง กลุ่มจะตัดคำตอบ
06:48
that absurd answer,
146
408058
1240
ที่ดูไร้สาระออกไป
06:49
by giving much more weight to the vote of the people in the middle.
147
409322
3369
โดยให้น้ำหนักกับคำตอบ ที่ดูกลางๆ มากกว่า
06:53
Back to the experiment in Vancouver,
148
413305
1876
กลับมาที่การทดลองในแวนคูเวอร์
06:55
that's exactly what happened.
149
415205
1767
นั่นคือสิ่งที่เกิดขึ้นจริงๆ
06:57
Groups gave much less weight to the outliers,
150
417407
2741
กลุ่มจะให้น้ำหนักน้อย กับค่าที่ดูผิดปกติ
07:00
and instead, the consensus turned out to be a robust average
151
420172
3229
และคำตอบสุดท้ายที่ได้ กลับพบว่าใช้ค่าเฉลี่ยสมจริง
07:03
of the individual answers.
152
423425
1476
จากคำตอบของสมาชิกในกลุ่ม
07:05
The most remarkable thing
153
425356
1991
สิ่งที่น่าจดจำที่สุดก็คือ
07:07
is that this was a spontaneous behavior of the group.
154
427371
3187
นี่เป็นพฤติกรรมของกลุ่ม ที่เกิดขึ้นเอง
07:10
It happened without us giving them any hint on how to reach consensus.
155
430582
4475
เราไม่ได้บอกพวกเขาว่าต้องทำอย่างไร ถึงจะได้ฉันทามติ
07:15
So where do we go from here?
156
435513
1540
เราจะเอาข้อค้นพบนี้ไปต่อยอดอย่างไร
07:17
This is only the beginning, but we already have some insights.
157
437432
3137
นี้เพิ่งแค่เริ่มต้นเท่านั้น แต่เราก็ได้เข้าใจอะไรๆ หลายอย่าง
07:20
Good collective decisions require two components:
158
440984
2917
การตัดสินใจแบบกลุ่มที่ดี ต้องมีองค์ประกอบ 2 อย่าง
07:23
deliberation and diversity of opinions.
159
443925
2749
ความรอบคอบ และ ความความเห็นที่หลากหลาย
07:27
Right now, the way we typically make our voice heard in many societies
160
447066
3996
ทุกวันนี้ วิธีสามัญที่เราใช้ ในการหยั่งเสียงในสังคม
07:31
is through direct or indirect voting.
161
451086
1908
คือการเลือกตั้งทางตรงหรือทางอ้อม
07:33
This is good for diversity of opinions,
162
453495
1997
ซึ่งก็ดีในแง่ของเสียงที่หลากหลาย
07:35
and it has the great virtue of ensuring
163
455516
2445
อีกทั้งยังเป็นเครื่องรับรองว่า
07:37
that everyone gets to express their voice.
164
457985
2455
ทุกคนมีสิทธิมีเสียงเท่าเทียมกัน
07:40
But it's not so good [for fostering] thoughtful debates.
165
460464
3735
แต่มันยังไม่ดีพอ ที่ให้เกิดการถกเถียงอย่างมีเหตุผล
07:44
Our experiments suggest a different method
166
464665
3068
จากผลการทดลองของเรา บ่งชี้ไปยังอีกวิธี
07:47
that may be effective in balancing these two goals at the same time,
167
467757
3541
ที่อาจมีประสิทธิภาพ ในการเข้าถึงทั้ง 2 องค์ประกอบ
07:51
by forming small groups that converge to a single decision
168
471322
3753
โดยอาศัยฉันทามติจากกลุ่มย่อยๆ
07:55
while still maintaining diversity of opinions
169
475099
2234
โดยที่ยังคงความเห็น อันหลากหลายเอาไว้ได้
07:57
because there are many independent groups.
170
477357
2773
จากกลุ่มย่อยๆ ที่มีจำนวนมากมาย
08:00
Of course, it's much easier to agree on the height of the Eiffel Tower
171
480741
3924
แน่นอนว่า ปัญหาความสูงของหอไอเฟล นั้นง่ายในการหาข้อสรุป
08:04
than on moral, political and ideological issues.
172
484689
3115
ต่างจาก ประเด็นทางจริยธรรม การเมือง หรือ อุดมการณ์
08:08
But in a time when the world's problems are more complex
173
488721
3277
แต่ในช่วงเวลาที่ปัญหาของมนุษยชาติ ทวีความซับซ้อน
08:12
and people are more polarized,
174
492022
1803
ผู้คนแตกแยก แบ่งเป็นกลุ่มขั้วต่างๆ
08:13
using science to help us understand how we interact and make decisions
175
493849
4595
การใช้วิทยาศาสตร์มาทำความเข้าใจ ว่าเรามีปฎิสัมพันธ์ในการตัดสินใจกันอย่างไร
08:18
will hopefully spark interesting new ways to construct a better democracy.
176
498468
4666
อาจจะช่วยจุดประกายแนวทางใหม่ๆ เพื่อสร้างประชาธิปไตยที่ดีขึ้น
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7