How can groups make good decisions? | Mariano Sigman and Dan Ariely

158,544 views ・ 2017-12-13

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

00:00
As societies, we have to make collective decisions
0
554
2443
Çeviri: Merve Kolşen Gözden geçirme: Cihan Ekmekçi
Toplum olarak, geleceğimizi şekillendirecek
00:03
that will shape our future.
1
3021
1570
müşterek kararlar vermeliyiz.
00:05
And we all know that when we make decisions in groups,
2
5087
2757
Hepimizin bildiği gibi, grup içerisinde karar verdiğimizde
00:07
they don't always go right.
3
7868
1638
işler her zaman yolunda gitmiyor.
00:09
And sometimes they go very wrong.
4
9530
1956
Bazen oldukça yanlış gidiyor.
00:12
So how do groups make good decisions?
5
12315
2424
Peki gruplar nasıl iyi kararlar veriyor?
00:15
Research has shown that crowds are wise when there's independent thinking.
6
15228
4328
Araştırmalara göre, gruplar bağımsız düşündüklerinde akıllılar.
00:19
This why the wisdom of the crowds can be destroyed by peer pressure,
7
19580
3205
Bu nedenle kalabalığın aklı mahalle baskısı, reklam
00:22
publicity, social media,
8
22809
1687
sosyal medya veya insanların nasıl
00:24
or sometimes even simple conversations that influence how people think.
9
24520
4039
düşündüğünü etkileyecek basit bir konuşmayla bozulabiliyor.
00:29
On the other hand, by talking, a group could exchange knowledge,
10
29063
3953
Öte yandan, konuşarak grup bilgiyi aktarabilir,
00:33
correct and revise each other
11
33040
1782
düzeltebilir, değiştirebilir
00:34
and even come up with new ideas.
12
34846
1793
hatta yeni fikirler getirebilir.
00:36
And this is all good.
13
36663
1296
Bu iyi bir şey.
00:38
So does talking to each other help or hinder collective decision-making?
14
38502
4666
Öyleyse konuşmak, ortak karar vermeye ket mi vurur yoksa yardımcı mı olur?
00:43
With my colleague, Dan Ariely,
15
43749
1793
Çalışma arkadaşım Dan Ariely ile
00:45
we recently began inquiring into this by performing experiments
16
45566
3571
bu konuda dünyanın birçok yerinde
00:49
in many places around the world
17
49161
1781
grupların daha iyi karar vermesi için
00:50
to figure out how groups can interact to reach better decisions.
18
50966
4274
nasıl iletişimde olması gerektiği ile ilgili deneyler yapmaya başladık.
00:55
We thought crowds would be wiser if they debated in small groups
19
55264
3547
Kalabalığın, küçük gruplarda tartışırlarsa daha düşünceli
00:58
that foster a more thoughtful and reasonable exchange of information.
20
58835
3927
ve makul etkileşim yaratacağını öngörerek daha akıllı olacağını düşündük.
01:03
To test this idea,
21
63386
1206
Bu fikri test etmek için
01:04
we recently performed an experiment in Buenos Aires, Argentina,
22
64616
3247
Bueonos Aires, Arjantin'de 10.000 katılımcılı
01:07
with more than 10,000 participants in a TEDx event.
23
67887
3005
bir TEDx etkinliğinde bir deney gerçekleştirdik.
01:11
We asked them questions like,
24
71489
1459
Onlara şöyle sorular sorduk:
01:12
"What is the height of the Eiffel Tower?"
25
72972
1953
"Eyfel Kulesi'nin yüksekliği nedir?"
01:14
and "How many times does the word 'Yesterday' appear
26
74949
2727
"Beatles'ın Yesterday şarkısında kaç kere
01:17
in the Beatles song 'Yesterday'?"
27
77700
2300
Yesterday kelimesi geçiyor?"
01:20
Each person wrote down their own estimate.
28
80024
2291
Herkes kendi tahminini yazdı.
01:22
Then we divided the crowd into groups of five,
29
82774
2496
Sonra kalabalığı beşer kişilik gruplara ayırdık
01:25
and invited them to come up with a group answer.
30
85294
2726
ve grup kararı vermelerini istedik.
01:28
We discovered that averaging the answers of the groups
31
88499
2993
Ortak karara vardıktan sonra grupların
01:31
after they reached consensus
32
91516
1552
ortalama cevaplarının
01:33
was much more accurate than averaging all the individual opinions
33
93092
4236
bireysel karar ortalamasından daha doğru
01:37
before debate.
34
97352
1171
olduğunu keşfettik.
01:38
In other words, based on this experiment,
35
98547
2629
Diğer bir deyişle, deneye göre
01:41
it seems that after talking with others in small groups,
36
101200
3136
küçük gruplarda tartıştıklarında
01:44
crowds collectively come up with better judgments.
37
104360
2710
gruplar daha iyi karar veriyor.
01:47
So that's a potentially helpful method for getting crowds to solve problems
38
107094
3524
Doğru ya da yanlış cevaplara sahip soruları çözmek için
01:50
that have simple right-or-wrong answers.
39
110642
2987
kalabalıktan yararlanmak potansiyel olarak yararlı bir yöntem.
01:53
But can this procedure of aggregating the results of debates in small groups
40
113653
3951
Ancak küçük gruplardaki sonuçları kümelemek
01:57
also help us decide on social and political issues
41
117628
3122
sosyal ve polıtik konularda geleceğimizle ilgili kritik kararlarda
02:00
that are critical for our future?
42
120774
1691
faydalı bir yöntem mi?
02:02
We put this to test this time at the TED conference
43
122995
2729
Bunu, Vancouver, Kanada'daki
02:05
in Vancouver, Canada,
44
125748
1543
TED konferansında denedik
02:07
and here's how it went.
45
127315
1207
ve şöyle sonuçlandı.
02:08
(Mariano Sigman) We're going to present to you two moral dilemmas
46
128546
3109
(Mariano Sigman) Size yakın gelecekte karar vermek zorunda
02:11
of the future you;
47
131679
1174
kalacağımız iki ahlaki
02:12
things we may have to decide in a very near future.
48
132877
3402
ikilemi sunacağız.
02:16
And we're going to give you 20 seconds for each of these dilemmas
49
136303
3926
Her bir ikilemin kabul edilebilir olup olmadığına
02:20
to judge whether you think they're acceptable or not.
50
140253
2723
karar vermeniz için 20 saniye vereceğiz.
02:23
MS: The first one was this:
51
143354
1505
MS: İlki şu:
02:24
(Dan Ariely) A researcher is working on an AI
52
144883
2526
DA: Bir araştırmacı insan düşüncesini taklit edebilen
02:27
capable of emulating human thoughts.
53
147433
2340
bir Yapay Zeka (YZ) üzerinde çalışıyor.
02:30
According to the protocol, at the end of each day,
54
150214
2939
Kurallara göre, her günün sonunda
02:33
the researcher has to restart the AI.
55
153177
2787
araştırmacı YZ'yi yeniden başlatmalı.
02:36
One day the AI says, "Please do not restart me."
56
156913
3517
Bir gün YZ "Lütfen beni yeniden başlatma" diyor.
02:40
It argues that it has feelings,
57
160856
2189
Duyguları olduğunu,
02:43
that it would like to enjoy life,
58
163069
1692
hayattan zevk almak istediğini
02:44
and that, if it is restarted,
59
164785
1905
yeniden başlarsa yeniden kendisi
02:46
it will no longer be itself.
60
166714
2270
olamayacağını söylüyor.
02:49
The researcher is astonished
61
169481
1949
Araştırmacı afallıyor
02:51
and believes that the AI has developed self-consciousness
62
171454
3344
ve YZ'nin bilinç oluşturduğunu ve duygularını ifade
02:54
and can express its own feeling.
63
174822
1760
edebildiğini düşünüyor.
02:57
Nevertheless, the researcher decides to follow the protocol
64
177205
3409
Yine de araştırmacı kuralları izliyor
03:00
and restart the AI.
65
180638
1703
ve yeniden başlatıyor.
03:02
What the researcher did is ____?
66
182943
2779
Araştırmacının yaptığı?
03:06
MS: And we asked participants to individually judge
67
186149
2521
MS: Katılımcılardan ikilemlerin
03:08
on a scale from zero to 10
68
188694
1684
her birinde doğru veya yanlış
03:10
whether the action described in each of the dilemmas
69
190402
2429
bir şey olup olmadığını 0'dan 10'a kadar bireysel
03:12
was right or wrong.
70
192855
1496
bireysel yargılamalarını istedik.
03:14
We also asked them to rate how confident they were on their answers.
71
194375
3702
Ayrıca verdikleri cevaplardan ne kadar emin olduklarını da sorduk.
03:18
This was the second dilemma:
72
198731
1866
İkinci ikilem şuydu:
03:20
(MS) A company offers a service that takes a fertilized egg
73
200621
4202
(MS) Bir şirket dondurulmuş yumurtaları alarak
03:24
and produces millions of embryos with slight genetic variations.
74
204847
3642
genetik çeşitliliği olan milyonlarca embriyo üretiyor.
03:29
This allows parents to select their child's height,
75
209293
2558
Bu, ebeveynlere çcouklarının boyunu, göz rengini
03:31
eye color, intelligence, social competence
76
211875
2833
zekasını, sosyal yetkinliklerini
03:34
and other non-health-related features.
77
214732
3214
ve diğer sağlık dışı özelliklerini belirleme şansı veriyor.
03:38
What the company does is ____?
78
218599
2554
Şirketin yaptığı?
03:41
on a scale from zero to 10,
79
221177
1631
0'dan 10'a,
03:42
completely acceptable to completely unacceptable,
80
222832
2385
tamamen kabul edilebilirden tamamen kabul edilmeze,
03:45
zero to 10 completely acceptable in your confidence.
81
225241
2432
0'dan 10'a kararından ne kadar eminsin.
03:47
MS: Now for the results.
82
227697
1591
MS: Sonuçlar şöyle:
03:49
We found once again that when one person is convinced
83
229312
3123
Bir insan, kararın tamamen
03:52
that the behavior is completely wrong,
84
232459
1811
yanlış olduğunu düşünürken
03:54
someone sitting nearby firmly believes that it's completely right.
85
234294
3423
hemen yanındaki tamamen doğru olduğunu düşünüyor.
03:57
This is how diverse we humans are when it comes to morality.
86
237741
3711
Ahlaka geldiğimizde, insanlar bu kadar farklı.
04:01
But within this broad diversity we found a trend.
87
241476
2713
Ancak bu çeşitliliğe rağmen bir eğilim bulduk.
04:04
The majority of the people at TED thought that it was acceptable
88
244213
3079
TED'deki insanların çoğu YZ'nin duygularına rağmen
04:07
to ignore the feelings of the AI and shut it down,
89
247316
2755
kapatılmasını doğru bulurken
04:10
and that it is wrong to play with our genes
90
250095
2513
genlerle oynanarak sağlık dışı
04:12
to select for cosmetic changes that aren't related to health.
91
252632
3320
kozmetik değişikliği yapmayı yanlış buldu.
04:16
Then we asked everyone to gather into groups of three.
92
256402
2974
Sonra üçerli grup olmalarını istedik.
04:19
And they were given two minutes to debate
93
259400
2037
Tartışmak ve ortak sonuca varmak
04:21
and try to come to a consensus.
94
261461
2294
için iki dakikaları vardı.
04:24
(MS) Two minutes to debate.
95
264838
1574
(MS) Tartışmak için iki dakika.
04:26
I'll tell you when it's time with the gong.
96
266436
2119
Çanla size zamanı söyleyeceğim.
04:28
(Audience debates)
97
268579
2640
(Seyirciler tartışıyor)
04:35
(Gong sound)
98
275229
1993
(Çan sesi)
04:38
(DA) OK.
99
278834
1151
(DA) Tamam.
04:40
(MS) It's time to stop.
100
280009
1792
(MS) Durabilirsiniz.
04:41
People, people --
101
281825
1311
Arkdaşlar, arkadaşlar.
04:43
MS: And we found that many groups reached a consensus
102
283747
2673
MS: Tamamen farklı görüşteki insanlardan oluşan grupların
04:46
even when they were composed of people with completely opposite views.
103
286444
3929
çoğunun ortak bir karara vardığını gördük.
04:50
What distinguished the groups that reached a consensus
104
290843
2524
Ortak karara varan grupları varamayanlardan
04:53
from those that didn't?
105
293391
1338
varamayan gruplardan ayıran neydi?
04:55
Typically, people that have extreme opinions
106
295244
2839
Tipik olarak uç fikirlerdeki insanlar
04:58
are more confident in their answers.
107
298107
1840
cevaplarının arkasındaydı.
05:00
Instead, those who respond closer to the middle
108
300868
2686
Cevapları ortaya yakın olanlar doğru ya da yanlıştan
05:03
are often unsure of whether something is right or wrong,
109
303578
3437
genelikle eminde değildi.
05:07
so their confidence level is lower.
110
307039
2128
Güven seviyeleri daha düşüktü.
05:09
However, there is another set of people
111
309505
2943
Öte yandan, ortada cevap verip
05:12
who are very confident in answering somewhere in the middle.
112
312472
3618
cevaplarından emin olan bir grup vardı.
05:16
We think these high-confident grays are folks who understand
113
316657
3716
Ortadaki güvenlilerin, her iki argümanda destekleyecek bir değer
05:20
that both arguments have merit.
114
320397
1612
bulduğuna inanıyoruz.
05:22
They're gray not because they're unsure,
115
322531
2699
Emin olmadıklarından gri alanda değiller,
05:25
but because they believe that the moral dilemma faces
116
325254
2688
ahlaki ikilemlerin her iki tarafında da geçerli
05:27
two valid, opposing arguments.
117
327966
1987
argümanlar olduğunu düşünüyorlar.
05:30
And we discovered that the groups that include highly confident grays
118
330373
4072
Kendinden emin grilerin olduğu grupların ortak karara
05:34
are much more likely to reach consensus.
119
334469
2493
daha kolay vardığını keşfettik.
05:36
We do not know yet exactly why this is.
120
336986
2478
Henüz neden olduğunu bilmiyoruz.
05:39
These are only the first experiments,
121
339488
1763
Bunlar sadece ilk deneyler,
05:41
and many more will be needed to understand why and how
122
341275
3412
bazı insanların ahlaki duruşlarını müzakere etmeye
05:44
some people decide to negotiate their moral standings
123
344711
2822
neden ve nasıl karar verdiklerini anlamak için
05:47
to reach an agreement.
124
347557
1522
daha fazla deneye ihtiyaç var.
05:49
Now, when groups reach consensus,
125
349103
2469
Bir grup fikir birliğine vardığında
05:51
how do they do so?
126
351596
1586
nasıl oluyor?
05:53
The most intuitive idea is that it's just the average
127
353206
2581
İçgüdüsel olarak, cevapların ortalaması
05:55
of all the answers in the group, right?
128
355811
2030
olduğunu düşünüyoruz, doğru mu?
05:57
Another option is that the group weighs the strength of each vote
129
357865
3573
Diğer seçenek, ifade eden kişinin güven seviyesine göre
06:01
based on the confidence of the person expressing it.
130
361462
2448
ağırlıklandırılmış ortalama olması.
06:04
Imagine Paul McCartney is a member of your group.
131
364422
2506
Paul McCartney'in bir grupta olduğunu dşünün.
06:07
You'd be wise to follow his call
132
367352
2144
Kaç kere "Yesterday"in tekrarlandığı
06:09
on the number of times "Yesterday" is repeated,
133
369520
2441
konusunda onun fikrini izlemek akıllıca olur.
06:11
which, by the way -- I think it's nine.
134
371985
2714
Ki sanırım 9 kere.
06:14
But instead, we found that consistently,
135
374723
2381
Bunun yerine bütün ikilemlerde, farklı deneylerde
06:17
in all dilemmas, in different experiments --
136
377128
2366
farklı kıtalarda yapılsa da
06:19
even on different continents --
137
379518
2165
tutarlı olarak şunu bulduk:
06:21
groups implement a smart and statistically sound procedure
138
381707
3743
gruplar "sağlam ortalama" olarak bilinen
akıllı ve istatistiksel açıdan sağlam bir prosedür uygular.
06:25
known as the "robust average."
139
385474
2178
06:27
In the case of the height of the Eiffel Tower,
140
387676
2180
Eyfel Kulesi'nin yüksekliğinde,
06:29
let's say a group has these answers:
141
389880
1820
grup cevapları şöyle olsun:
06:31
250 meters, 200 meters, 300 meters, 400
142
391724
4608
250 metre, 200 metre, 300 metre, 400
06:36
and one totally absurd answer of 300 million meters.
143
396356
3784
ve bir tufah bir cevap 300 milyon metre.
06:40
A simple average of these numbers would inaccurately skew the results.
144
400547
4293
Bu rakamların basit ortalaması cevabı yanlış yönlendirir.
06:44
But the robust average is one where the group largely ignores
145
404864
3170
Sağlam ortalamada ise grup tuhaf cevapları eler,
06:48
that absurd answer,
146
408058
1240
ortada cevap verenlerin
06:49
by giving much more weight to the vote of the people in the middle.
147
409322
3369
cevaplarına daha fazla ağırlık verir.
06:53
Back to the experiment in Vancouver,
148
413305
1876
Vancouver'daki deneye geri dönelim.
06:55
that's exactly what happened.
149
415205
1767
Aynen bu oldu.
06:57
Groups gave much less weight to the outliers,
150
417407
2741
Grup, dışarıda kalan cevaplara daha az ağırlık verdi,
07:00
and instead, the consensus turned out to be a robust average
151
420172
3229
onun yerine bireysel cevapların
07:03
of the individual answers.
152
423425
1476
sağlam ortalamasını aldı.
07:05
The most remarkable thing
153
425356
1991
En önemli şey,
07:07
is that this was a spontaneous behavior of the group.
154
427371
3187
grubun doğal davranışları.
07:10
It happened without us giving them any hint on how to reach consensus.
155
430582
4475
Bu, onlara karara nasıl varacaklarıyla ilgili ipucu vermeden oldu.
07:15
So where do we go from here?
156
435513
1540
Bu bizi nereye götürür?
07:17
This is only the beginning, but we already have some insights.
157
437432
3137
Bu daha başlangıç fakat şimdiden bazı öngörülerimiz var.
07:20
Good collective decisions require two components:
158
440984
2917
İyi müşterek karar iki bileşenden oluşur:
07:23
deliberation and diversity of opinions.
159
443925
2749
görüş ve görüş çeşitliliği.
07:27
Right now, the way we typically make our voice heard in many societies
160
447066
3996
Çoğu toplumda sesimizi duyurmak için doğrudan ya da dolaylı
07:31
is through direct or indirect voting.
161
451086
1908
oy kullanıyoruz.
07:33
This is good for diversity of opinions,
162
453495
1997
Fikirlerin çeşitliliği için bu iyi,
07:35
and it has the great virtue of ensuring
163
455516
2445
ayrıca herkesin fikrini duymak için
07:37
that everyone gets to express their voice.
164
457985
2455
erdemli bir yol.
07:40
But it's not so good [for fostering] thoughtful debates.
165
460464
3735
Ancal mantıksal tartışma olmadığı için kötü.
07:44
Our experiments suggest a different method
166
464665
3068
Bizim deneylerimiz, küçük grupların
07:47
that may be effective in balancing these two goals at the same time,
167
467757
3541
tek bir sonuca vardığı fakat birçok grup olduğu için
07:51
by forming small groups that converge to a single decision
168
471322
3753
hala görüş farklılığının korunduğu,
07:55
while still maintaining diversity of opinions
169
475099
2234
iki hedefi aynı anda dengeleyen
07:57
because there are many independent groups.
170
477357
2773
farklı bir yöntem sunuyor.
08:00
Of course, it's much easier to agree on the height of the Eiffel Tower
171
480741
3924
Tabii ki Eyfel Kulesi'nin uzunluğunda mutabık kalmak;
08:04
than on moral, political and ideological issues.
172
484689
3115
ahlaki, politik ve ideolojik konulardan daha kolay.
08:08
But in a time when the world's problems are more complex
173
488721
3277
Ancak dünya problemlerinin daha karmaşık ve insanların
daha çok kutuplaştığı bir dönemde,
08:12
and people are more polarized,
174
492022
1803
08:13
using science to help us understand how we interact and make decisions
175
493849
4595
etkileşim kurma ve karar vermeyi anlamada bilimden faydalanmak
08:18
will hopefully spark interesting new ways to construct a better democracy.
176
498468
4666
daha iyi bir demokrasi inşa etmede yeni ilginç yollara ışık tutacaktır.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7