Clay Shirky: How cognitive surplus will change the world

Clay Shirky: Zihin fazlası nasıl dünyayı değiştirecek

120,738 views

2010-06-29 ・ TED


New videos

Clay Shirky: How cognitive surplus will change the world

Clay Shirky: Zihin fazlası nasıl dünyayı değiştirecek

120,738 views ・ 2010-06-29

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Meric Aydonat Gözden geçirme: yasin alp aluç
00:16
The story starts in Kenya
0
16260
2000
Hikaye, 2007 aralığında
00:18
in December of 2007,
1
18260
2000
Kenya'daki tartışmalı başkanlık
00:20
when there was a disputed presidential election,
2
20260
2000
seçimleriyle başlıyor.
00:22
and in the immediate aftermath of that election,
3
22260
3000
Seçimlerin hemen sonrasında
00:25
there was an outbreak of ethnic violence.
4
25260
2000
ülkede etnik şiddet salgını patlak verdi.
00:27
And there was a lawyer in Nairobi, Ory Okolloh --
5
27260
3000
Nairobi'de Ory Okolloh isminde bir avukat,
00:30
who some of you may know from her TEDTalk --
6
30260
2000
kiminiz onu TEDTalk'dan biliyor olabilirsiniz,
00:32
who began blogging about it on her site,
7
32260
2000
Kenyan Pundit isimli siteden
00:34
Kenyan Pundit.
8
34260
2000
blog yazmaya başladı.
00:36
And shortly after the election and the outbreak of violence,
9
36260
3000
Seçimden ve şiddet salgınından hemen sonra,
00:39
the government suddenly imposed
10
39260
2000
yönetim medyaya ciddi
00:41
a significant media blackout.
11
41260
2000
kısıtlamalar getirdi.
00:43
And so weblogs went from being
12
43260
2000
Böylece, bloglar
00:45
commentary as part of the media landscape
13
45260
2000
medyanın yorumcu bir alanı olmaktan
00:47
to being a critical part of the media landscape
14
47260
3000
daha kritik bir görev üstlendi,
00:50
in trying to understand where the violence was.
15
50260
3000
şiddetin nerede olduğunu anlatma görevi.
00:53
And Okolloh solicited
16
53260
2000
Ve Okolloh yazdıklarına
00:55
from her commenters
17
55260
2000
yorum yapan insanlardan
00:57
more information about what was going on.
18
57260
2000
neler olduğu hakkında daha fazla bilgi vermelerini istedi.
00:59
The comments began pouring in,
19
59260
2000
Böylece yorumlar yağmaya başladı.
01:01
and Okolloh would collate them. She would post them.
20
61260
2000
Okolloh bunları birleştirip yayınlıyordu.
01:03
And she quickly said, "It's too much.
21
63260
2000
Kısa sürede "Bu çok fazla.
01:05
I could do this all day every day
22
65260
2000
Bunu her gün, bütün gün yapsam da
01:07
and I can't keep up.
23
67260
2000
yetişemem" dedi.
01:09
There is more information
24
69260
2000
"Şimdi Kenya'da neler olduğuyla ilgili
01:11
about what's going on in Kenya right now
25
71260
2000
bir kişinin başa çıkabileceğinden
01:13
than any one person can manage.
26
73260
2000
çok daha fazla bilgi var.
01:15
If only there was a way to automate this."
27
75260
2000
Keşke bunları otomatik hale getirmenin bir yolu olsaydı." dedi.
01:17
And two programmers who read her blog
28
77260
2000
Onun blogunu okuyan iki programcı
01:19
held their hands up and said, "We could do that,"
29
79260
3000
ellerini kaldırıp "Bunu biz yapabiliriz." dediler.
01:22
and in 72 hours, they launched Ushahidi.
30
82260
3000
Ve 72 saat içinde Ushahidi'yi kurdular.
01:25
Ushahidi -- the name means "witness"
31
85260
2000
Ushahidi -- kelime olarak Swahili dilinde
01:27
or "testimony" in Swahili --
32
87260
2000
"tanık" veya "ifade" anlamına geliyor --
01:29
is a very simple way of taking reports from the field,
33
89260
3000
sahadan ya internet aracılığıyla ya da
01:32
whether it's from the web or, critically,
34
92260
3000
daha kritik olarak cep telefonlarından ve mesajlardan
01:35
via mobile phones and SMS,
35
95260
2000
raporları alıp onları birleştirip
01:37
aggregating it and putting it on a map.
36
97260
3000
bir harita üzerine koymanın kolay bir yolu.
01:40
That's all it is, but that's all that's needed
37
100260
2000
Sadece bundan ibaret ama gerekeni de bu kadar.
01:42
because what it does is it takes the tacit information
38
102260
3000
Çünkü bunun yaptığı
01:45
available to the whole population --
39
105260
2000
herkesin bildiği
01:47
everybody knows where the violence is,
40
107260
2000
ama açıkça
01:49
but no one person knows what everyone knows --
41
109260
3000
konuşulmayan bilgileri
01:52
and it takes that tacit information
42
112260
2000
birleştirip
01:54
and it aggregates it,
43
114260
2000
haritaya yerleştirip
01:56
and it maps it and it makes it public.
44
116260
2000
halka sunmak.
01:58
And that, that maneuver
45
118260
2000
"Kriz haritalandırması"
02:00
called "crisis mapping,"
46
120260
2000
denilen bu hareketin
02:02
was kicked off in Kenya
47
122260
3000
başlangıcı 2008 Ocak'ında
02:05
in January of 2008.
48
125260
2000
Kenya'da gerçekleşti.
02:07
And enough people looked at it and found it valuable enough
49
127260
3000
Ve yeterince insan bunu kullanıp
02:10
that the programmers who created Ushahidi
50
130260
2000
değerli görünce, programcıları
02:12
decided they were going to make it open source
51
132260
2000
Ushahidi'yi herkese açık kaynaklı
02:14
and turn it into a platform.
52
134260
2000
bir platforma dönüştürmeye karar verdiler.
02:16
It's since been deployed in Mexico
53
136260
2000
O zamandan beri Meksika'da
02:18
to track electoral fraud.
54
138260
2000
seçim yolsuzluğunu takip etmek amacıyla kullanıldı.
02:20
It's been deployed in Washington D.C. to track snow cleanup.
55
140260
3000
Washington'da karların temizlenmesini takip etmek için kullanıldı.
02:23
And it's been used most famously in Haiti
56
143260
2000
En ünlüsü de Haiti'deki
02:25
in the aftermath of the earthquake.
57
145260
3000
depremin sonrasında kullanıldı.
02:28
And when you look at the map
58
148260
2000
Ushahidi açılış sayfasındaki
02:30
now posted on the Ushahidi front page,
59
150260
2000
haritaya baktığınızda, Ushahidi'nin
02:32
you can see that the number of deployments in Ushahidi
60
152260
2000
kaç defa kullanıldığını görüyorsunuz,
02:34
has gone worldwide, all right?
61
154260
3000
dünya dört bir yanında kullanılmış, değil mi?
02:37
This went from a single idea
62
157260
2000
Doğu Afrika'da 2008'in başında
02:39
and a single implementation
63
159260
2000
ortaya çıkan basit bir fikir
02:41
in East Africa in the beginning of 2008
64
161260
3000
ve uygulama
02:44
to a global deployment
65
164260
2000
üç yıldan kısa sürede
02:46
in less than three years.
66
166260
3000
küresel bir boyut kazandı.
02:49
Now what Okolloh did
67
169260
3000
Okolloh'un yaptığı,
02:52
would not have been possible
68
172260
2000
dijital teknoloji olmasaydı
02:54
without digital technology.
69
174260
3000
imkansızdı.
02:57
What Okolloh did would not have been possible
70
177260
3000
Okolloh'un yaptığı, insanların cömertliği olmasaydı
03:00
without human generosity.
71
180260
2000
imkansızdı.
03:02
And the interesting moment now,
72
182260
2000
Şimdi ilginç olansa,
03:04
the number of environments
73
184260
2000
sosyal düzene meydan okuyan
03:06
where the social design challenge
74
186260
2000
oluşumların sayısı
03:08
relies on both of those things being true.
75
188260
3000
bu iki kavramın varlığına bağlı.
03:11
That is the resource that I'm talking about.
76
191260
3000
Benim bahsettiğim kaynak bu.
03:14
I call it cognitive surplus.
77
194260
2000
Ben ona "zihin fazlası" diyorum.
03:16
And it represents the ability
78
196260
2000
Ve bu dünya nüfusunun
03:18
of the world's population
79
198260
2000
gönüllü olarak
03:20
to volunteer and to contribute and collaborate
80
200260
3000
büyük, hatta bazen de küresel projelere
03:23
on large, sometimes global, projects.
81
203260
3000
katkıda bulunmasını temsil ediyor.
03:26
Cognitive surplus is made up of two things.
82
206260
2000
Zihin fazlası iki şeyden oluşuyor.
03:28
The first, obviously, is the world's free time and talents.
83
208260
3000
İlki, doğal olarak dünyanın boş zamanı ve yetenekleri.
03:31
The world has over
84
211260
2000
Dünyanın
03:33
a trillion hours a year
85
213260
3000
ortaklaşa projelere harcayacak
03:36
of free time
86
216260
2000
bir yılda bir trilyon saatten fazla
03:38
to commit to shared projects.
87
218260
2000
zamanı var.
03:40
Now, that free time existed in the 20th century,
88
220260
2000
20. yüzyılda da dünyanın bol bol boş vakti vardı,
03:42
but we didn't get Ushahidi in the 20th century.
89
222260
3000
ama Ushahidi'yi 20. yüzyılda kullanamadık.
03:45
That's the second half of cognitive surplus.
90
225260
2000
Zihin fazlasının ikinci parçası da bu.
03:47
The media landscape in the 20th century
91
227260
2000
20. yüzyıldaki medya ortamı
03:49
was very good at helping people consume,
92
229260
3000
insanların tüketmelerine yardımcı olmakta çok başarılıydı.
03:52
and we got, as a result,
93
232260
2000
Sonuç olarak da
03:54
very good at consuming.
94
234260
2000
tüketmekte çok başarılı olduk.
03:56
But now that we've been given media tools --
95
236260
2000
Ama şimdi internet gibi cep telefonları gibi
03:58
the Internet, mobile phones -- that let us do more than consume,
96
238260
3000
tüketmekten daha fazlasını yapmamıza imkan sağlayan
04:01
what we're seeing is that people weren't couch potatoes
97
241260
3000
medya araçlarıyla insanların tembellikten hoşlandıkları için
04:04
because we liked to be.
98
244260
2000
tembellik yapmadıklarını görüyoruz.
04:06
We were couch potatoes because that was
99
246260
2000
Tembeldik, çünkü
04:08
the only opportunity given to us.
100
248260
2000
sadece bunu yapabiliyorduk.
04:10
We still like to consume, of course.
101
250260
2000
Tabii ki hala tüketmekten hoşlanıyoruz.
04:12
But it turns out we also like to create,
102
252260
2000
Ama yaratmaktan ve paylaşmaktan da
04:14
and we like to share.
103
254260
3000
hoşlanıyoruz.
04:17
And it's those two things together --
104
257260
2000
Eskiden beri varolan insan motivasyonu
04:19
ancient human motivation
105
259260
2000
ve motivasyonu büyük ölçekte
04:21
and the modern tools to allow that motivation
106
261260
2000
birleştirebilen
04:23
to be joined up in large-scale efforts --
107
263260
3000
modern araçlar
04:26
that are the new design resource.
108
266260
3000
yeni tasarım kaynakları.
04:29
And using cognitive surplus,
109
269260
2000
Ve zihin fazlasını kullanarak
04:31
we're starting to see truly incredible experiments
110
271260
3000
bilimde, edebiyatta,
04:34
in scientific, literary,
111
274260
2000
sanatta, politikada
04:36
artistic, political efforts.
112
276260
3000
yaratılan inanılmaz şeyler görüyoruz.
04:39
Designing.
113
279260
2000
Tasarımda.
04:41
We're also getting, of course, a lot of LOLcats.
114
281260
3000
Bununla birlikte pek çok
04:44
LOLcats are cute pictures of cats
115
284260
2000
şirin başlıklarla daha komikleştirilen
04:46
made cuter with the addition of cute captions.
116
286260
3000
kedi resimleri de alıyoruz.
04:49
And they are also
117
289260
2000
Bunlar medya ortamının bize
04:51
part of the abundant media landscape we're getting now.
118
291260
3000
sağladığı fazlalıklardan.
04:54
This is one of the participatory --
119
294260
2000
Aynı zamanda Ushahidi ile
04:56
one of the participatory models
120
296260
2000
birlikte gelen insanların
04:58
we see coming out of that, along with Ushahidi.
121
298260
3000
katılımıyla oluşan başka bir model.
05:01
Now I want to stipulate, as the lawyers say,
122
301260
2000
Avukatların deyimiyle iddia ediyorum ki
05:03
that LOLcats are the stupidest possible
123
303260
2000
bu komik kedi resimleri yaratılabilecek
05:05
creative act.
124
305260
2000
en aptal şey.
05:07
There are other candidates of course,
125
307260
2000
Tabii ki başka adaylar da var
05:09
but LOLcats will do as a general case.
126
309260
3000
ama komik kedi resimlerini genel bir örnek olarak alabiliriz.
05:12
But here's the thing:
127
312260
2000
Olay şu.
05:14
The stupidest possible creative act
128
314260
2000
Yaratılabilecek en aptal şeyin bile sonucunda
05:16
is still a creative act.
129
316260
3000
bir şeyler yaratılıyor.
05:19
Someone who has done something like this,
130
319260
3000
Böyle bir şey yapan birisi,
05:22
however mediocre and throwaway,
131
322260
3000
ne kadar orta hâlli de olsa
05:25
has tried something, has put something forward in public.
132
325260
3000
bir şeyler denedi ve ortaya bir şeyler sundu.
05:28
And once they've done it, they can do it again,
133
328260
3000
Ve bunu bir kere yaptıktan sonra, bir daha yapabilirler.
05:31
and they could work on getting it better.
134
331260
2000
Ve bunun daha iyi olması için çalışabilirler.
05:33
There is a spectrum between mediocre work and good work,
135
333260
3000
Orta hâlli işler ile iyi işler arasında bir kuşak var.
05:36
and as anybody who's worked as an artist or a creator knows,
136
336260
3000
Bir sanat dalıyla uğraşan ya da bir şey yaratan herkesin
05:39
it's a spectrum you're constantly
137
339260
2000
bildiği gibi bu sürekli en üst noktasına
05:41
struggling to get on top of.
138
341260
2000
çıkmayı çabaladığımız bir kuşak.
05:43
The gap is between
139
343260
2000
Asıl boşluk,
05:45
doing anything and doing nothing.
140
345260
3000
bir şeyler yapmakla yapmamak arasında.
05:48
And someone who makes a LOLcat
141
348260
2000
Ve komik kedi resimleriyle uğraşan birisi
05:50
has already crossed over that gap.
142
350260
3000
bu boşluğu çoktan aştı.
05:53
Now it's tempting to want to get the Ushahidis
143
353260
2000
Şimdi komik kedi resimlerini almadan
05:55
without the LOLcats, right,
144
355260
2000
Ushahidiler'i almak çekici geliyor, değil mi,
05:57
to get the serious stuff without the throwaway stuff.
145
357260
3000
gereksiz şeyleri almadan ciddi şeyleri almak.
06:00
But media abundance never works that way.
146
360260
3000
Ama medya bolluğu böyle bir şey.
06:03
Freedom to experiment means freedom to experiment with anything.
147
363260
3000
Deneme özgürlüğü her şeyi deneyebilme özgürlüğü anlamına geliyor.
06:06
Even with the sacred printing press,
148
366260
2000
Kutsal matbaa ile bile
06:08
we got erotic novels 150 years
149
368260
2000
erotik romanları bilimsel makalelerden
06:10
before we got scientific journals.
150
370260
3000
150 yıl önce aldık.
06:14
So before I talk about
151
374260
3000
Ushahidi ile komik kediler arasındaki
06:17
what is, I think, the critical difference
152
377260
2000
kritik fark ile ilgili konuşmadan önce
06:19
between LOLcats and Ushahidi,
153
379260
2000
onların ortak
06:21
I want to talk about
154
381260
2000
kaynaklarından
06:23
their shared source.
155
383260
2000
bahsetmek istiyorum.
06:25
And that source is design for generosity.
156
385260
3000
Bu kaynak cömertlik için tasarım.
06:28
It is one of the curiosities of our historical era
157
388260
3000
Bu, çağımızın ilginçliklerinden biri, zihin fazlası
06:31
that even as cognitive surplus
158
391260
2000
bile çevresinde tasarımımızı
06:33
is becoming a resource we can design around,
159
393260
2000
gerçekleştirebileceğimiz bir kaynak haline geliyor,
06:35
social sciences are also starting to explain
160
395260
3000
sosyal bilimler de bunu açıklamaya çalışıyorlar,
06:38
how important
161
398260
2000
içimizden gelerek yaptığımız şeylerin
06:40
our intrinsic motivations are to us,
162
400260
2000
bizim için ne kadar önemli olduğunu,
06:42
how much we do things because we like to do them
163
402260
3000
patronumuz bize yapmamızı söylediğinden,
06:45
rather than because our boss told us to do them,
164
405260
2000
onları yapmak için para aldığımızdan değil de
06:47
or because we're being paid to do them.
165
407260
3000
yapmayı istediğimiz için yaptığımızı.
06:50
This is a graph from a paper
166
410260
3000
Bu Uri Gneezy ve Afredo Rusticini'nin
06:53
by Uri Gneezy and Aldo Rustichini,
167
413260
2000
2000'lerin başında
06:55
who set out to test, at the beginning of this decade,
168
415260
3000
"caydırıcılık teorisi" hakkında
06:58
what they called "deterrence theory."
169
418260
2000
test edip yazdıkları makaleden bir grafik.
07:00
And deterrence theory is a very simple theory of human behavior:
170
420260
2000
Caydırıcılık teorisi insan davranışıyla ilgili çok basit bir teori.
07:02
If you want somebody to do less of something,
171
422260
2000
Birisinin bir şeyi daha az yapmasını istiyorsanız
07:04
add a punishment and they'll do less of it.
172
424260
2000
ona ceza verin, o şeyi daha az yapacaklardır.
07:06
Simple, straightforward, commonsensical --
173
426260
3000
Basit, apaçık, mantıklı,
07:09
also, largely untested.
174
429260
2000
aynı zamanda test edilmemiş birşey.
07:11
And so they went and studied
175
431260
2000
Hayfa, İsrail'de 10 kreşe
07:13
10 daycare centers in Haifa, Israel.
176
433260
2000
gidip oraları incelediler.
07:15
They studied those daycare centers
177
435260
2000
Buraları, insanların
07:17
at the time of highest tension,
178
437260
2000
en sinirli zamanlarında,
07:19
which is pick-up time.
179
439260
2000
çocukların alındığı saatte incelediler.
07:21
At pick-up time the teachers,
180
441260
2000
Çocukların alınma saatinde
07:23
who have been with your children all day,
181
443260
2000
bütün gün onlarla birlikte olan öğretmenler
07:25
would like you to be there at the appointed hour to take your children back.
182
445260
3000
sizin çocukları gelip zamanında almanızı isterler.
07:28
Meanwhile, the parents -- perhaps a little busy at work, running late, running errands --
183
448260
3000
Aynı zamanda ebeveynler, işlerinin yoğun olmasından ya da evin başka işlerine
07:31
want a little slack to pick the kids up late.
184
451260
3000
koşturmalarından dolayı birazcık geç kalmalarının anlayışla karşılanmasını isterler.
07:34
So Gneezy and Rustichini said,
185
454260
2000
Gneezy ve Rusticini
07:36
"How many instances of late pick-ups
186
456260
2000
bu 10 kreşteki geç gelme
07:38
are there at these 10 daycare centers?"
187
458260
2000
sayısını merak ettiler.
07:40
Now they saw -- and this is what the graph is,
188
460260
2000
Bu grafikte gördüğünüz gibi
07:42
these are the number of weeks and these are the number of late arrivals --
189
462260
3000
--bunlar hafta sayısı, bunlar da geç gelme sayısı--
07:45
that there were between six and 10
190
465260
2000
bu 10 kreşte ortalama
07:47
instances of late pick-ups
191
467260
2000
6 ila 10 geç gelme
07:49
on average in these 10 daycare centers.
192
469260
2000
görülüyor.
07:51
So they divided the daycare centers into two groups.
193
471260
3000
Bunun üzerine bu kreşleri iki gruba ayırdılar.
07:54
The white group there
194
474260
2000
Burada gördüğünüz beyaz grup kontrol grubu oldu,
07:56
is the control group; they change nothing.
195
476260
3000
bunlarda hiçbir şeyi değiştirmediler.
07:59
But the group of daycare centers represented by the black line,
196
479260
3000
Siyah çizgiyle gördüğünüz gruba
08:02
they said, "We are changing this bargain
197
482260
2000
"Şimdi anlaşmayı değiştiriyoruz.
08:04
as of right now.
198
484260
2000
Çocuğunuzu 10 dakikadan
08:06
If you pick your kid up more than 10 minutes late,
199
486260
2000
geç alırsanız,
08:08
we're going to add a 10 shekel fine to your bill.
200
488260
2000
faturanuza 10 şekel ekleyeceğiz.
08:10
Boom. No ifs, ands or buts."
201
490260
3000
Aması maması yok." dediler.
08:13
And the minute they did that,
202
493260
2000
Bunu yapar yapmaz
08:15
the behavior in those daycare centers changed.
203
495260
2000
insanların davranışları değişti.
08:17
Late pick-ups went up
204
497260
2000
Geç almalar takip eden
08:19
every week for the next four weeks
205
499260
3000
dört hafta boyunca cezadan önceki ortalamanın
08:22
until they topped out at triple the pre-fine average,
206
502260
3000
üç katına kadar arttı
08:25
and then they fluctuated
207
505260
2000
ve sonrasında ceza öncesinin
08:27
at between double and triple the pre-fine average
208
507260
2000
iki ve üç katı
08:29
for the life of the fine.
209
509260
2000
arasında kaldı.
08:31
And you can see immediately what happened, right?
210
511260
3000
Burada ne olduğunu görebiliyorsunuz değil mi?
08:35
The fine broke the culture
211
515260
2000
Ceza, kreşin
08:37
of the daycare center.
212
517260
2000
alışılagelmişini bozdu.
08:39
By adding a fine,
213
519260
2000
Cezaya başlayınca,
08:41
what they did was communicate to the parents
214
521260
2000
ebeveynler öğretmenlere
08:43
that their entire debt to the teachers
215
523260
2000
10 şekel ödeyince
08:45
had been discharged
216
525260
2000
çocuklarını geç almalarının
08:47
with the payment of 10 shekels,
217
527260
2000
bedelini ödediklerini düşünmeye başladılar
08:49
and that there was no residue of guilt or social concern
218
529260
3000
ve bunun için öğretmenlere karşı duydukları
08:52
that the parents owed the teachers.
219
532260
2000
suçluluk veya endişe ortadan kalktı.
08:54
And so the parents, quite sensibly, said,
220
534260
2000
Böylece ebeveynler gayet mantıklı olarak,
08:56
"10 shekels to pick my kid up late?
221
536260
2000
"Çocuğumu geç almak için 10 şekel,
08:58
What could be bad?"
222
538260
2000
bunun nesi kötü olabilir ki?" dediler.
09:00
(Laughter)
223
540260
2000
(Gülüşmeler)
09:04
The explanation of human behavior
224
544260
2000
20. yüzyılda kazandığımız insan
09:06
that we inherited in the 20th century
225
546260
3000
davranışının açıklaması şöyledir;
09:09
was that we are all rational, self-maximizing actors,
226
549260
3000
hepimiz mantıklı, kazancımızı mümkün olduğunca arttırmaya çalışan varlıklarız.
09:12
and in that explanation --
227
552260
2000
Kreşin yazılı bir anlaşması yoktu.
09:14
the daycare center had no contract --
228
554260
3000
Ve bu açıklama
09:17
should have been operating without any constraints.
229
557260
3000
ortada bağlayıcı bir şey olmadığında geçerli.
09:20
But that's not right.
230
560260
2000
Ama kreş meselesinde bu geçerli değil.
09:22
They were operating with social constraints
231
562260
2000
Bu olayda yazılı anlaşmadansa
09:24
rather than contractual ones.
232
564260
2000
sosyal bağlayıcılar vardı.
09:26
And critically, the social constraints
233
566260
2000
Ve sosyal bağlayıcılar
09:28
created a culture that was more generous
234
568260
3000
yazılı anlaşmaların yaratacağından
09:31
than the contractual constraints did.
235
571260
2000
daha cömert bir kültür yarattı.
09:33
So Gneezy and Rustichini run this experiment for a dozen weeks --
236
573260
3000
Böylece Gneezy ve Rustichini bu deneyi
09:36
run the fine for a dozen weeks --
237
576260
2000
on hafta boyunca tekrarladılar.
09:38
and then they say, "Okay, that's it. All done; fine."
238
578260
3000
Onbirinci hafta ceza vermeyi kesince
09:41
And then a really interesting thing happens:
239
581260
2000
ilginç bir şey oldu.
09:43
Nothing changes.
240
583260
3000
Hiçbir şey değişmedi.
09:46
The culture that got broken by the fine
241
586260
3000
Cezayla bozulan alışılagelmiş davranış
09:49
stayed broken when the fine was removed.
242
589260
3000
aynen devam etti.
09:52
Not only are economic motivations
243
592260
3000
Ekonomik ve insanların içinden gelen
09:55
and intrinsic motivations
244
595260
2000
davranışlar sadece birbirleriyle uyumsuz değil,
09:57
incompatible,
245
597260
2000
bu uyumsuzluk
09:59
that incompatibility
246
599260
2000
uzun bir süre boyunca
10:01
can persist over long periods.
247
601260
3000
devam edebiliyor.
10:04
So the trick
248
604260
2000
Bu tarz durumları tasarlarken
10:06
in designing these kinds of situations
249
606260
2000
aklınızda bulundurmanız gereken şey
10:08
is to understand where you're relying on
250
608260
3000
işin hangi boyutuna ağırlık verdiğiniz:
10:11
the economic part of the bargain -- as with the parents paying the teachers --
251
611260
3000
ekonomik tarafına, yani ebeveynlerin öğretmenlere para ödemesine
10:14
and when you're relying on the social part of the bargain,
252
614260
3000
ya da sosyal tarafına ağırlık vermeniz,
10:17
when you're really designing for generosity.
253
617260
3000
bu durumda cömertlik için tasarım yapıyor olursunuz.
10:20
This brings me back to the LOLcats
254
620260
3000
Komik kedilere ve Ushahidi'ye
10:23
and to Ushahidi.
255
623260
2000
geri geliyoruz.
10:25
This is, I think, the range that matters.
256
625260
2000
Burada işin boyutu fark yaratıyor.
10:27
Both of these rely on cognitive surplus.
257
627260
2000
Bunların ikisi de zihin fazlasına dayanıyor.
10:29
Both of these design for the assumption
258
629260
2000
İkisi de insanların yaratma
10:31
that people like to create and we want to share.
259
631260
3000
ve yarattıklarını paylaşma arzularına dayanıyor.
10:34
Here is the critical difference between these:
260
634260
3000
İkisi arasındaki kritik fark şurada.
10:39
LOLcats is communal value.
261
639260
3000
Komik kediler o topluma özgü bir değer.
10:42
It's value created by the participants
262
642260
2000
Katılımcılar bunları birbirleri
10:44
for each other.
263
644260
2000
için yaratıyorlar.
10:46
Communal value on the networks we have
264
646260
3000
Belirli toplumlara özgü değerleri
10:49
is everywhere --
265
649260
2000
pek çok yerde görüyoruz.
10:51
every time you see a large aggregate
266
651260
2000
Mesela Flickr'daki fotoğraflar olsun
10:53
of shared, publicly available data,
267
653260
3000
ya da Youtube'daki videolar olsun
10:56
whether it's photos on Flickr
268
656260
2000
toplu ve herkese açık
10:58
or videos on Youtube or whatever.
269
658260
2000
alanlarda bunlardan bolca var.
11:00
This is good. I like LOLcats as much as the next guy,
270
660260
2000
Bu iyi bir şey. Komik kedileri ben de herkes
11:02
maybe a little more even,
271
662260
2000
kadar belki de daha fazla seviyorum.
11:04
but this is also
272
664260
3000
Ama bu aynı zamanda
11:07
a largely solved problem.
273
667260
2000
büyük ölçüde çözülmüş bir sorun.
11:09
I have a hard time envisioning a future
274
669260
2000
İleride "Nereden şirin
11:11
in which someone is saying,
275
671260
2000
bir kedi fotoğrafı bulabilirim?"
11:13
"Where, oh where, can I find a picture
276
673260
2000
sorusunun sorulduğu
11:15
of a cute cat?"
277
675260
2000
bir zamanı göremiyorum.
11:17
Ushahidi, by contrast,
278
677260
2000
Buna zıt olarak, Ushahidi
11:19
is civic value.
279
679260
2000
toplumsal bir değer.
11:21
It's value created by the participants
280
681260
2000
Katılımcılar tarafından yaratılan ama
11:23
but enjoyed by society as a whole.
281
683260
2000
toplum tarafından bir bütün olarak yararlanılan bir değer.
11:25
The goals set out by Ushahidi
282
685260
2000
Ushahidi için belirlenen amaç
11:27
are not just to make life better
283
687260
2000
hayatı sadece katılımcılar için değil,
11:29
for the participants,
284
689260
2000
Ushahidi'nin bir şeyler ifade ettiği
11:31
but to make life better for everyone in the society
285
691260
3000
toplumdaki herkes için
11:34
in which Ushahidi is operating.
286
694260
2000
daha iyi bir hale getirmek.
11:36
And that kind of civic value
287
696260
3000
Ve bu toplumsal değer
11:39
is not just a side effect
288
699260
2000
insan motivasyonunun
11:41
of opening up to human motivation.
289
701260
3000
bir yan etkisi değil.
11:44
It really is going to be a side effect
290
704260
2000
Bizim topluca bu tarz
11:46
of what we, collectively,
291
706260
2000
uğraşılarımızın bir
11:48
make of these kinds of efforts.
292
708260
3000
yan etkisi olacak.
11:51
There are a trillion
293
711260
2000
Bir yılda
11:53
hours a year
294
713260
2000
bu işler için kullanılabilecek
11:55
of participatory value
295
715260
2000
bir trilyon
11:57
up for grabs.
296
717260
2000
saat var.
11:59
That will be true year-in and year-out.
297
719260
3000
Bu yıl var, önümüzdeki yıl da olacak.
12:02
The number of people who are going to be able
298
722260
2000
Ve bu tarz işlerle
12:04
to participate in these kinds of projects
299
724260
2000
uğraşabilecek insan sayısı
12:06
is going to grow,
300
726260
2000
artacak.
12:08
and we can see that organizations
301
728260
3000
Ve görüyoruz ki insanların cömertliklerine
12:11
designed around a culture of generosity
302
731260
2000
dayanan bir kültür için tasarlanan
12:13
can achieve incredible effects
303
733260
2000
organizasyonlar, fazla yazılı anlaşma
12:15
without an enormous amount of contractual overhead --
304
735260
3000
olmadan inanılmaz sonuçlar alabiliyor.
12:18
a very different model
305
738260
2000
Bu 20. yüzyıldaki geniş grupların
12:20
than our default model for large-scale group action in the 20th century.
306
740260
3000
katılımını gerektirenden farklı bir model.
12:24
What's going to make the difference here
307
744260
3000
Burada farkı yaratan şey
12:27
is what Dean Kamen said,
308
747260
3000
mucit ve girişimci Dean Kamen'in
12:30
the inventor and entrepreneur.
309
750260
2000
söylediğine göre;
12:32
Kamen said, "Free cultures get what they celebrate."
310
752260
3000
"Özgür kültürler kutladıkları şeyleri alırlar."
12:36
We've got a choice before us.
311
756260
3000
Bizim önümüzde bir seçim var.
12:39
We've got this trillion hours a year.
312
759260
2000
Bir senede bir trilyon saat var.
12:41
We can use it to crack each other up, and we're going to do that.
313
761260
3000
Bu süreyi birbirimizi güldürmeye harcayabiliriz, bunu yapacağız da.
12:44
That, we get for free.
314
764260
2000
Bu bedava.
12:46
But we can also celebrate
315
766260
2000
Ama bu süreyi insanları kutlayarak,
12:48
and support and reward the people
316
768260
2000
destekleyerek ve ödüllendirerek,
12:50
trying to use cognitive surplus
317
770260
2000
zihin fazlasını toplumsal bir değer
12:52
to create civic value.
318
772260
2000
yaratarak da harcayabiliriz.
12:54
And to the degree we're going to do that, to the degree we're able to do that,
319
774260
3000
Ve bunu yapabildiğimiz, buna muktedir olduğumuz ölçüde,
12:57
we'll be able to change society.
320
777260
2000
toplumu değiştirebiliriz.
12:59
Thank you very much.
321
779260
2000
Çok teşekkür ederim.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7