Clay Shirky: How cognitive surplus will change the world

120,602 views ・ 2010-06-29

TED


Pro přehrání videa dvakrát klikněte na anglické titulky níže.

Překladatel: Simon Buryan Korektor: Lucie Sara Zavodna
00:16
The story starts in Kenya
0
16260
2000
Příběh začíná v Keňi
00:18
in December of 2007,
1
18260
2000
v prosinci 2007,
00:20
when there was a disputed presidential election,
2
20260
2000
kdy došlo k pochybným prezidentským volbám.
00:22
and in the immediate aftermath of that election,
3
22260
3000
Za dozvuků těchto voleb
00:25
there was an outbreak of ethnic violence.
4
25260
2000
vypuklo k etnické násilí.
00:27
And there was a lawyer in Nairobi, Ory Okolloh --
5
27260
3000
Právnička z Nairobi, Ory Okolloh -
00:30
who some of you may know from her TEDTalk --
6
30260
2000
můžete ji znát z jejího TED Talku -
00:32
who began blogging about it on her site,
7
32260
2000
o tom začala blogovat na její stránce,
00:34
Kenyan Pundit.
8
34260
2000
Kenyan Pundit (keňský učenec).
00:36
And shortly after the election and the outbreak of violence,
9
36260
3000
Krátce po volbách a po propuknutí násilí,
00:39
the government suddenly imposed
10
39260
2000
vláda náhle zavedla
00:41
a significant media blackout.
11
41260
2000
embargo na zpravodajství.
00:43
And so weblogs went from being
12
43260
2000
A tak se blogy staly z
00:45
commentary as part of the media landscape
13
45260
2000
komentářů součástí mediální scény,
00:47
to being a critical part of the media landscape
14
47260
3000
které měly mezi médii zásadní vliv,
00:50
in trying to understand where the violence was.
15
50260
3000
s ohledem na chápání, kde došlo k násilí.
00:53
And Okolloh solicited
16
53260
2000
A Okolloh žádala
00:55
from her commenters
17
55260
2000
ve svých komentářích
00:57
more information about what was going on.
18
57260
2000
více informací o tom, co se dělo.
00:59
The comments began pouring in,
19
59260
2000
A byl to celý příval komentářů.
01:01
and Okolloh would collate them. She would post them.
20
61260
2000
Okolloh je sbírala a pak je zveřejňovala.
01:03
And she quickly said, "It's too much.
21
63260
2000
Rychle prohlásila: "Je toho moc.
01:05
I could do this all day every day
22
65260
2000
Mohla bych to dělat po celé dny
01:07
and I can't keep up.
23
67260
2000
a nestíhala bych to.
01:09
There is more information
24
69260
2000
Bylo tady víc informací
01:11
about what's going on in Kenya right now
25
71260
2000
o tom, co se právě teď v Keňi děje,
01:13
than any one person can manage.
26
73260
2000
než by kdokoli dokázal zvládnout.
01:15
If only there was a way to automate this."
27
75260
2000
Pokud by to jenom šlo zautomatizovat."
01:17
And two programmers who read her blog
28
77260
2000
A dva programátoři, kteří četli její blog
01:19
held their hands up and said, "We could do that,"
29
79260
3000
se přihlásili a řekli: "Můžeme to udělat."
01:22
and in 72 hours, they launched Ushahidi.
30
82260
3000
A během 72 hodin spustili program Ushahidi.
01:25
Ushahidi -- the name means "witness"
31
85260
2000
Ushahidi - znamená "svěděk"
01:27
or "testimony" in Swahili --
32
87260
2000
nebo "svědectví" ve Swahilštině -
01:29
is a very simple way of taking reports from the field,
33
89260
3000
je to velice jednoduchý způsob jak publikovat zprávy z dotyčného místa,
01:32
whether it's from the web or, critically,
34
92260
3000
pokud je to skrz web nebo skrz
01:35
via mobile phones and SMS,
35
95260
2000
mobilní telefony a SMS,
01:37
aggregating it and putting it on a map.
36
97260
3000
agregovat je a umístit na mapu.
01:40
That's all it is, but that's all that's needed
37
100260
2000
To je vše, co to je, ale také to, co je zapotřebí.
01:42
because what it does is it takes the tacit information
38
102260
3000
Tento program vezme tichou informaci
01:45
available to the whole population --
39
105260
2000
a předá ji celému obyvatelstvu -
01:47
everybody knows where the violence is,
40
107260
2000
každý ví, kde dochází k násilnostem,
01:49
but no one person knows what everyone knows --
41
109260
3000
ale nikdo netuší to, co ví všichni -
01:52
and it takes that tacit information
42
112260
2000
a vezme tu tichou informaci
01:54
and it aggregates it,
43
114260
2000
agreguje ji
01:56
and it maps it and it makes it public.
44
116260
2000
zmapuje ji a zveřejní ji.
01:58
And that, that maneuver
45
118260
2000
A tento manévr
02:00
called "crisis mapping,"
46
120260
2000
známý jako "krizové mapování"
02:02
was kicked off in Kenya
47
122260
3000
započalo v Keňi
02:05
in January of 2008.
48
125260
2000
v lednu 2008.
02:07
And enough people looked at it and found it valuable enough
49
127260
3000
Hodně lidí to zpozorovalo a přišlo jim cenné,
02:10
that the programmers who created Ushahidi
50
130260
2000
že ti programátoři, kteří vytvořili Ushahidi,
02:12
decided they were going to make it open source
51
132260
2000
se rozhodli, že program nabídnou jako open source
02:14
and turn it into a platform.
52
134260
2000
a učiní z něho platformu.
02:16
It's since been deployed in Mexico
53
136260
2000
Bylo to použito v Mexiku
02:18
to track electoral fraud.
54
138260
2000
na odhalení volebních podvodů.
02:20
It's been deployed in Washington D.C. to track snow cleanup.
55
140260
3000
Bylo to použito ve Washingtonu k monitorování odklízení sněhu.
02:23
And it's been used most famously in Haiti
56
143260
2000
A s velkým ohlasem to bylo použito na Haiti
02:25
in the aftermath of the earthquake.
57
145260
3000
při dozvucích zemětřesení.
02:28
And when you look at the map
58
148260
2000
A když se podíváte na mapu
02:30
now posted on the Ushahidi front page,
59
150260
2000
nyní zvěřejňenou na domácí stránce Ushahidi,
02:32
you can see that the number of deployments in Ushahidi
60
152260
2000
můžete si všimnout, že Ushahidi se teď používá
02:34
has gone worldwide, all right?
61
154260
3000
na celém světě.
02:37
This went from a single idea
62
157260
2000
Toto se vyvíjelo z jediné myšlenky
02:39
and a single implementation
63
159260
2000
a jediného uplatnění
02:41
in East Africa in the beginning of 2008
64
161260
3000
ve východní Africe během r. 2008
02:44
to a global deployment
65
164260
2000
do celosvětově využívané utility
02:46
in less than three years.
66
166260
3000
během méně jak tří let.
02:49
Now what Okolloh did
67
169260
3000
To co Okolloh udělal
02:52
would not have been possible
68
172260
2000
by bylo nemožné
02:54
without digital technology.
69
174260
3000
bez digitální technologie.
02:57
What Okolloh did would not have been possible
70
177260
3000
To co Okolloh udělala by bylo nemožné
03:00
without human generosity.
71
180260
2000
bez lidské velkorysosti.
03:02
And the interesting moment now,
72
182260
2000
A zajímavým momentem je
03:04
the number of environments
73
184260
2000
počet prostředí,
03:06
where the social design challenge
74
186260
2000
kde výzva společenské struktury
03:08
relies on both of those things being true.
75
188260
3000
závisí na obou těchto věcech.
03:11
That is the resource that I'm talking about.
76
191260
3000
O tomto zdroji právě mluvím.
03:14
I call it cognitive surplus.
77
194260
2000
Říkám mu kognitivní nadbytek.
03:16
And it represents the ability
78
196260
2000
A značí to schopnost
03:18
of the world's population
79
198260
2000
světové populace
03:20
to volunteer and to contribute and collaborate
80
200260
3000
spolupracovat a přispět na dobrovolné bázi
03:23
on large, sometimes global, projects.
81
203260
3000
na velkých, někdy celosvětových, projektech.
03:26
Cognitive surplus is made up of two things.
82
206260
2000
Kognitivní nadbytek se skládá ze dvou prvků.
03:28
The first, obviously, is the world's free time and talents.
83
208260
3000
První je samozřejmě volný čas a schopnosti.
03:31
The world has over
84
211260
2000
svět má více jak
03:33
a trillion hours a year
85
213260
3000
bilión hodin ročně
03:36
of free time
86
216260
2000
volného času
03:38
to commit to shared projects.
87
218260
2000
na práci na společných projektech.
03:40
Now, that free time existed in the 20th century,
88
220260
2000
Tento volný čas existoval během 20. století,
03:42
but we didn't get Ushahidi in the 20th century.
89
222260
3000
ale neměli jsme ve 20. století Ushahidi po ruce.
03:45
That's the second half of cognitive surplus.
90
225260
2000
To je druhý prvek kognitivního přebytku.
03:47
The media landscape in the 20th century
91
227260
2000
Mediální scéna ve 20. století
03:49
was very good at helping people consume,
92
229260
3000
velice dobře pomáhala lidem konzumovat.
03:52
and we got, as a result,
93
232260
2000
A kvůli tomu jsme se stali
03:54
very good at consuming.
94
234260
2000
velice dobří v konzumování.
03:56
But now that we've been given media tools --
95
236260
2000
Ale teď, když nám byly dány mediální nástroje -
03:58
the Internet, mobile phones -- that let us do more than consume,
96
238260
3000
internet, mobilní telefony - to nám umožňuje mnohem více než konzumovat,
04:01
what we're seeing is that people weren't couch potatoes
97
241260
3000
pozorujeme, že lidé nebyli povaleči,
04:04
because we liked to be.
98
244260
2000
protože se nám to tak líbilo.
04:06
We were couch potatoes because that was
99
246260
2000
Byli jsme povaleči proto, že to byla
04:08
the only opportunity given to us.
100
248260
2000
jediná volba, která nám byla dána.
04:10
We still like to consume, of course.
101
250260
2000
Pořád rádi konzumujeme, ovšem.
04:12
But it turns out we also like to create,
102
252260
2000
Ale ukazuje se, že také rádi tvoříme
04:14
and we like to share.
103
254260
3000
a rádi sdílíme.
04:17
And it's those two things together --
104
257260
2000
A ty dvě věci dohromady -
04:19
ancient human motivation
105
259260
2000
prastará lidská motivace
04:21
and the modern tools to allow that motivation
106
261260
2000
a moderní nástroje umožnily, aby ta motivace
04:23
to be joined up in large-scale efforts --
107
263260
3000
byla zahrnuta do velkorozměrných projektů -
04:26
that are the new design resource.
108
266260
3000
což je nový zdroj designu.
04:29
And using cognitive surplus,
109
269260
2000
Za využítí kognitivního přebytku
04:31
we're starting to see truly incredible experiments
110
271260
3000
začínáme pozorovat opravdu vyjímečné experimenty,
04:34
in scientific, literary,
111
274260
2000
ve vědeckých, literárních,
04:36
artistic, political efforts.
112
276260
3000
uměleckých, politických projektech.
04:39
Designing.
113
279260
2000
Co se týče designu.
04:41
We're also getting, of course, a lot of LOLcats.
114
281260
3000
Také dostáváme hodně srandovních koček.
04:44
LOLcats are cute pictures of cats
115
284260
2000
LOLcats jsou roztomilé obrázky koček
04:46
made cuter with the addition of cute captions.
116
286260
3000
vyrobených, aby vyvolaly milý pocit.
04:49
And they are also
117
289260
2000
A jsou také
04:51
part of the abundant media landscape we're getting now.
118
291260
3000
součástí rozsáhlého mediálního prostoru.
04:54
This is one of the participatory --
119
294260
2000
Tato z účastněných -
04:56
one of the participatory models
120
296260
2000
jeden z těchto modelů,
04:58
we see coming out of that, along with Ushahidi.
121
298260
3000
který vidíme přicházet, spolu s Ushahidi.
05:01
Now I want to stipulate, as the lawyers say,
122
301260
2000
Chtěl bych se ohradit, jak říkají právníci,
05:03
that LOLcats are the stupidest possible
123
303260
2000
LOLcats jsou nejpitomější z možných
05:05
creative act.
124
305260
2000
tvůrčích umění.
05:07
There are other candidates of course,
125
307260
2000
Jsou samozřejmě také další,
05:09
but LOLcats will do as a general case.
126
309260
3000
ale LOLcats slouží jako vzor.
05:12
But here's the thing:
127
312260
2000
Ale pozor na tento fakt.
05:14
The stupidest possible creative act
128
314260
2000
Nejpitomější možný kreativní čin
05:16
is still a creative act.
129
316260
3000
je nadále kreativním činem.
05:19
Someone who has done something like this,
130
319260
3000
Někdo, kdo udělal něco jako toto,
05:22
however mediocre and throwaway,
131
322260
3000
jakkoli průměrné a zanedbatelné,
05:25
has tried something, has put something forward in public.
132
325260
3000
se pokusil o něco, co pak zveřejnil.
05:28
And once they've done it, they can do it again,
133
328260
3000
Pokud to už jednou udělali, můžou to udělat znovu.
05:31
and they could work on getting it better.
134
331260
2000
A můžou se v tom zlepšovat.
05:33
There is a spectrum between mediocre work and good work,
135
333260
3000
Existuje škála mezi průměrnou a dobrou prací.
05:36
and as anybody who's worked as an artist or a creator knows,
136
336260
3000
Ten, kdo někdy pracoval jako umělec nebo tvůrce ví,
05:39
it's a spectrum you're constantly
137
339260
2000
že jde o spektrum, ve kterém se neustále
05:41
struggling to get on top of.
138
341260
2000
snažíte dostat na vrchol.
05:43
The gap is between
139
343260
2000
Existuje mezera mezi
05:45
doing anything and doing nothing.
140
345260
3000
děláním čehokoli a nic neděláním.
05:48
And someone who makes a LOLcat
141
348260
2000
A někým, kdo vyfotí LOLcat,
05:50
has already crossed over that gap.
142
350260
3000
už přešel přes tuto mezeru.
05:53
Now it's tempting to want to get the Ushahidis
143
353260
2000
Teď přišla chuť na vytváření programů Ushahidi
05:55
without the LOLcats, right,
144
355260
2000
namísto LOLcats, že?
05:57
to get the serious stuff without the throwaway stuff.
145
357260
3000
Snaha vytvořit věci bez zbytné veteše.
06:00
But media abundance never works that way.
146
360260
3000
Ale mediální dostatek nikdy takhle nepracuje.
06:03
Freedom to experiment means freedom to experiment with anything.
147
363260
3000
Svoboda experimentovat znamená svobodu experimentovat se vším.
06:06
Even with the sacred printing press,
148
366260
2000
Dokonce s posvátným tiskařským strojem,
06:08
we got erotic novels 150 years
149
368260
2000
erotické romány existují 150 let,
06:10
before we got scientific journals.
150
370260
3000
to je dříve než vědecké žurnály.
06:14
So before I talk about
151
374260
3000
Dříve než promluvím o
06:17
what is, I think, the critical difference
152
377260
2000
tom, co je - podle mě - kritický rozdíl.
06:19
between LOLcats and Ushahidi,
153
379260
2000
mezi LOLcats a Ushahidi,
06:21
I want to talk about
154
381260
2000
chtěl bych promluvit o
06:23
their shared source.
155
383260
2000
jejich sdíleném sdroji.
06:25
And that source is design for generosity.
156
385260
3000
A tím je design z velkorysosti.
06:28
It is one of the curiosities of our historical era
157
388260
3000
K jedné z kuriozit naší doby patří
06:31
that even as cognitive surplus
158
391260
2000
to, že když kognitivní přebytek
06:33
is becoming a resource we can design around,
159
393260
2000
se stává zdrojem, který můžeme přetvářet,
06:35
social sciences are also starting to explain
160
395260
3000
společenské vědy také začínají vysvětlovat,
06:38
how important
161
398260
2000
jak důležité
06:40
our intrinsic motivations are to us,
162
400260
2000
jsou pro nás naše vnitřní motivy,
06:42
how much we do things because we like to do them
163
402260
3000
jak moc věci děláme, protože je máme rádi,
06:45
rather than because our boss told us to do them,
164
405260
2000
spíše než proto, že nám to nakázal náš šéf,
06:47
or because we're being paid to do them.
165
407260
3000
nebo proto, že jsme za ně placeni.
06:50
This is a graph from a paper
166
410260
3000
Toto je graf ze studie
06:53
by Uri Gneezy and Aldo Rustichini,
167
413260
2000
od pánů Uri Gneezy a Aldo Rustichini,
06:55
who set out to test, at the beginning of this decade,
168
415260
3000
kteří otestovali na počátku této dekády to,
06:58
what they called "deterrence theory."
169
418260
2000
čemu říkali determinační teorie.
07:00
And deterrence theory is a very simple theory of human behavior:
170
420260
2000
A determinační teorie je velice jednoduchá teorie lidského chování.
07:02
If you want somebody to do less of something,
171
422260
2000
Pokud chcete po někom, aby něco dělal méně,
07:04
add a punishment and they'll do less of it.
172
424260
2000
potrestejte ho a budou toho dělat méně.
07:06
Simple, straightforward, commonsensical --
173
426260
3000
Jednoduché, přímočaré, rozumné,
07:09
also, largely untested.
174
429260
2000
ale také netestované.
07:11
And so they went and studied
175
431260
2000
a tak se vydali zkoumat
07:13
10 daycare centers in Haifa, Israel.
176
433260
2000
10 družin v Haifě, v Izraeli.
07:15
They studied those daycare centers
177
435260
2000
A zkoumali ty družiny
07:17
at the time of highest tension,
178
437260
2000
v nejnáročnější denní době,
07:19
which is pick-up time.
179
439260
2000
což je doba vyzvedávání.
07:21
At pick-up time the teachers,
180
441260
2000
V tu dobu učitelé,
07:23
who have been with your children all day,
181
443260
2000
kteří byli s vašimi dětmi celý den,
07:25
would like you to be there at the appointed hour to take your children back.
182
445260
3000
by byli rádi, pokud byste dorazili v danou dobu a vzali si děti domů.
07:28
Meanwhile, the parents -- perhaps a little busy at work, running late, running errands --
183
448260
3000
Mezitím, rodiče - moc zaměstaní, opozdilci -
07:31
want a little slack to pick the kids up late.
184
451260
3000
chtějí časovou rezervu na vyzvednutí dětí.
07:34
So Gneezy and Rustichini said,
185
454260
2000
A tak Gneezy a Rustichini řekli:
07:36
"How many instances of late pick-ups
186
456260
2000
"Ke kolika případům opožděných vyzvednutí
07:38
are there at these 10 daycare centers?"
187
458260
2000
v 10 družinách došlo?"
07:40
Now they saw -- and this is what the graph is,
188
460260
2000
Teď uviděli - a toto ukazuje graf,
07:42
these are the number of weeks and these are the number of late arrivals --
189
462260
3000
toto jsou jednotlivé týdny a to je počet opožděných příjezdů -
07:45
that there were between six and 10
190
465260
2000
došlo k šeseti a deseti
07:47
instances of late pick-ups
191
467260
2000
případům zpožděných vyzvednutí
07:49
on average in these 10 daycare centers.
192
469260
2000
průměrně v deseti družinách.
07:51
So they divided the daycare centers into two groups.
193
471260
3000
Rozděli družiny do dvou skupin.
07:54
The white group there
194
474260
2000
Bílá skupina
07:56
is the control group; they change nothing.
195
476260
3000
je kontrolní; nic zde neměnili.
07:59
But the group of daycare centers represented by the black line,
196
479260
3000
Ale skupina černých družin představuje ty,
08:02
they said, "We are changing this bargain
197
482260
2000
kde řekli: "Měníme dohodu
08:04
as of right now.
198
484260
2000
právě teď.
08:06
If you pick your kid up more than 10 minutes late,
199
486260
2000
Pokud si vyzvednete své dítě víc jak o 10 minut pozdě.
08:08
we're going to add a 10 shekel fine to your bill.
200
488260
2000
Připíšeme Vám pokutu 10 šekelů na Váš účet.
08:10
Boom. No ifs, ands or buts."
201
490260
3000
Bác. Žádné vyjímky."
08:13
And the minute they did that,
202
493260
2000
V momentě, kdy to udělali,
08:15
the behavior in those daycare centers changed.
203
495260
2000
chování se v těch družinách změnilo.
08:17
Late pick-ups went up
204
497260
2000
Pozdní příchody se zvýšily
08:19
every week for the next four weeks
205
499260
3000
každý týden během příštích čtyřech týdnů
08:22
until they topped out at triple the pre-fine average,
206
502260
3000
až 3x převýšili původní stav
08:25
and then they fluctuated
207
505260
2000
a pak kolísali
08:27
at between double and triple the pre-fine average
208
507260
2000
mezi dvojnásobkem a trojnásobkem průměru původního stavu,
08:29
for the life of the fine.
209
509260
2000
kdy pokuty byly platné.
08:31
And you can see immediately what happened, right?
210
511260
3000
Můžete hned vidět, co se stalo.
08:35
The fine broke the culture
211
515260
2000
Pokuta zničila kulturu
08:37
of the daycare center.
212
517260
2000
družin.
08:39
By adding a fine,
213
519260
2000
Zavedením pokuty
08:41
what they did was communicate to the parents
214
521260
2000
řekli rodičům,
08:43
that their entire debt to the teachers
215
523260
2000
že celý jejich dluh vůči učitelům
08:45
had been discharged
216
525260
2000
byl uhrazen zaplacením
08:47
with the payment of 10 shekels,
217
527260
2000
deseti šekelů
08:49
and that there was no residue of guilt or social concern
218
529260
3000
a nebyla v tom žádná hanba nebo neshoda
08:52
that the parents owed the teachers.
219
532260
2000
rodičů vůči učitelům.
08:54
And so the parents, quite sensibly, said,
220
534260
2000
A tak si rodiče řekli:
08:56
"10 shekels to pick my kid up late?
221
536260
2000
"10 šekelů za pozdní vyzvednutí dítěte?
08:58
What could be bad?"
222
538260
2000
Co je na tom špatného?"
09:00
(Laughter)
223
540260
2000
(Smích)
09:04
The explanation of human behavior
224
544260
2000
Vysvětlení lidského chování,
09:06
that we inherited in the 20th century
225
546260
3000
které jsme zdědili ve 20. století,
09:09
was that we are all rational, self-maximizing actors,
226
549260
3000
nám prozrazovalo, že jsme všichni racionální, užitek maximující hráči.
09:12
and in that explanation --
227
552260
2000
A vysvětlení -
09:14
the daycare center had no contract --
228
554260
3000
proč to v družinách nefunguje -
09:17
should have been operating without any constraints.
229
557260
3000
by mělo fungovat bez jakýchkoli omezení.
09:20
But that's not right.
230
560260
2000
Ale to není správně.
09:22
They were operating with social constraints
231
562260
2000
Pracují na základě společenských regulí
09:24
rather than contractual ones.
232
564260
2000
spíš než na základě smluv.
09:26
And critically, the social constraints
233
566260
2000
A především společenské regule
09:28
created a culture that was more generous
234
568260
3000
vytvořily kulturu, která byla více velkorysá,
09:31
than the contractual constraints did.
235
571260
2000
než ta na základě smlouvy.
09:33
So Gneezy and Rustichini run this experiment for a dozen weeks --
236
573260
3000
A tak Gneezy a Rustichini nechali tento experiment běžet tucet týdnů -
09:36
run the fine for a dozen weeks --
237
576260
2000
pokuty se vydávaly během 12 týdnů -
09:38
and then they say, "Okay, that's it. All done; fine."
238
578260
3000
a pak řekli: "OK, skončíme s tím."
09:41
And then a really interesting thing happens:
239
581260
2000
A potom se přihodila zajímavá věc.
09:43
Nothing changes.
240
583260
3000
Nedošlo k žádné změně.
09:46
The culture that got broken by the fine
241
586260
3000
Kultura, která byla zničena pokutou,
09:49
stayed broken when the fine was removed.
242
589260
3000
zůstala zničena, když zrušili pokuty.
09:52
Not only are economic motivations
243
592260
3000
Nejenom, že jsou ekonomické motivy
09:55
and intrinsic motivations
244
595260
2000
a vnitřní motivy
09:57
incompatible,
245
597260
2000
nezaměnitelné,
09:59
that incompatibility
246
599260
2000
tento rozpor
10:01
can persist over long periods.
247
601260
3000
může přetrvat po dlouhou dobu.
10:04
So the trick
248
604260
2000
Trik v
10:06
in designing these kinds of situations
249
606260
2000
utváření těchto druhů situací
10:08
is to understand where you're relying on
250
608260
3000
spočívá v pochopení, kde záleží na
10:11
the economic part of the bargain -- as with the parents paying the teachers --
251
611260
3000
ekonomické části dohody - když rodiče platí učitelům -
10:14
and when you're relying on the social part of the bargain,
252
614260
3000
a kde záleží na společenské dohodě,
10:17
when you're really designing for generosity.
253
617260
3000
když se snažíte vytvářet velkorysost.
10:20
This brings me back to the LOLcats
254
620260
3000
Chtěl bych se ale vrátit k LOLcats
10:23
and to Ushahidi.
255
623260
2000
a Ushahidi.
10:25
This is, I think, the range that matters.
256
625260
2000
To je podle mě škála, na které záleží.
10:27
Both of these rely on cognitive surplus.
257
627260
2000
Obě záleží na kognitivním nadbytku.
10:29
Both of these design for the assumption
258
629260
2000
Oba jsou vytvořeny za předpokladu,
10:31
that people like to create and we want to share.
259
631260
3000
že lidé rádi tvoří a chtějí sdílet.
10:34
Here is the critical difference between these:
260
634260
3000
Toto je kritický rozdíl mezi nimi.
10:39
LOLcats is communal value.
261
639260
3000
LOLcat je společenská hodnota.
10:42
It's value created by the participants
262
642260
2000
Jejich hodnota je vytvořena účastníky
10:44
for each other.
263
644260
2000
pro další účastníky.
10:46
Communal value on the networks we have
264
646260
3000
Společenská hodnota na síti
10:49
is everywhere --
265
649260
2000
je všude kolem.
10:51
every time you see a large aggregate
266
651260
2000
Kdykoli vidíte velký celek
10:53
of shared, publicly available data,
267
653260
3000
sdílených nebo veřejných dat,
10:56
whether it's photos on Flickr
268
656260
2000
pokud to jsou fotky na Flickeru
10:58
or videos on Youtube or whatever.
269
658260
2000
nebo videa na Youtube nebo cokoli.
11:00
This is good. I like LOLcats as much as the next guy,
270
660260
2000
Je to dobře. Mám rád LOLcats stejně jako další chlápek,
11:02
maybe a little more even,
271
662260
2000
možná, že i o trochu víc.
11:04
but this is also
272
664260
3000
Ale toto je také
11:07
a largely solved problem.
273
667260
2000
z valné části vyřešený problém.
11:09
I have a hard time envisioning a future
274
669260
2000
Dělá mi těžkosti představit si budoucnost,
11:11
in which someone is saying,
275
671260
2000
ve které někdo prohlásí:
11:13
"Where, oh where, can I find a picture
276
673260
2000
"Kde jenom sehnat obrázek
11:15
of a cute cat?"
277
675260
2000
roztomilé kočky?"
11:17
Ushahidi, by contrast,
278
677260
2000
Ushahidi proti tomu
11:19
is civic value.
279
679260
2000
je občanská hodnota.
11:21
It's value created by the participants
280
681260
2000
Je to hodnota vytvořená pro účastníky,
11:23
but enjoyed by society as a whole.
281
683260
2000
ale využívaná celou společností.
11:25
The goals set out by Ushahidi
282
685260
2000
Cíle určené programem Ushahidi
11:27
are not just to make life better
283
687260
2000
nespočívají jenom ve zlepšování života
11:29
for the participants,
284
689260
2000
účastníků,
11:31
but to make life better for everyone in the society
285
691260
3000
ale be zlepšení života celé společnosti,
11:34
in which Ushahidi is operating.
286
694260
2000
ve které Ushahidi operuje.
11:36
And that kind of civic value
287
696260
3000
A ten druh občanské hodnoty
11:39
is not just a side effect
288
699260
2000
není jenom vedlejší efekt
11:41
of opening up to human motivation.
289
701260
3000
uvolnění lidské motivace.
11:44
It really is going to be a side effect
290
704260
2000
Bude to opravdu vedlejší efekt
11:46
of what we, collectively,
291
706260
2000
toho, co dohromady
11:48
make of these kinds of efforts.
292
708260
3000
tvoří tyto různé snahy.
11:51
There are a trillion
293
711260
2000
Existuje bilion
11:53
hours a year
294
713260
2000
hodin ročně
11:55
of participatory value
295
715260
2000
účastnické hodnoty,
11:57
up for grabs.
296
717260
2000
která je k dispozici.
11:59
That will be true year-in and year-out.
297
719260
3000
To se stane pravdou během následujících let.
12:02
The number of people who are going to be able
298
722260
2000
Počet lidí, kteří budou schopní se
12:04
to participate in these kinds of projects
299
724260
2000
účastnit se na těchto projektech,
12:06
is going to grow,
300
726260
2000
bude růst.
12:08
and we can see that organizations
301
728260
3000
A pozorujeme, jak organizace
12:11
designed around a culture of generosity
302
731260
2000
navržené na základě velkorysosti
12:13
can achieve incredible effects
303
733260
2000
mohou dosáhnout velkých úspěchů
12:15
without an enormous amount of contractual overhead --
304
735260
3000
aniž by fungovaly na základě nařízení.
12:18
a very different model
305
738260
2000
Je to jiný model,
12:20
than our default model for large-scale group action in the 20th century.
306
740260
3000
než náš základní model pro velké akční skupiny 20. století.
12:24
What's going to make the difference here
307
744260
3000
Zásadní změnou bude to,
12:27
is what Dean Kamen said,
308
747260
3000
co řekl Dean Kamen,
12:30
the inventor and entrepreneur.
309
750260
2000
vynálezce a podnikatel,
12:32
Kamen said, "Free cultures get what they celebrate."
310
752260
3000
Kamen řekl: "Svobodné kultury dostanou to, co oslavují."
12:36
We've got a choice before us.
311
756260
3000
Máme před sebou volbu.
12:39
We've got this trillion hours a year.
312
759260
2000
Máme ten bilión hodin na každý rok.
12:41
We can use it to crack each other up, and we're going to do that.
313
761260
3000
Můžeme ho použít k tomu, že budem jeden druhého bavit a to také uděláme.
12:44
That, we get for free.
314
764260
2000
To máme k dipozici zdarma.
12:46
But we can also celebrate
315
766260
2000
Ale můžeme také oslavovat
12:48
and support and reward the people
316
768260
2000
a podporovat a odměňovat lidi,
12:50
trying to use cognitive surplus
317
770260
2000
kteří se snaží využít kognitivní nadbytek
12:52
to create civic value.
318
772260
2000
k vytvoření občanské hodnoty.
12:54
And to the degree we're going to do that, to the degree we're able to do that,
319
774260
3000
A podle toho, do jakého stupně to dokážeme dovést,
12:57
we'll be able to change society.
320
777260
2000
podle toho dokážeme změnit společnost.
12:59
Thank you very much.
321
779260
2000
Děkuji vám.
O tomto webu

Tato stránka vám představí videa na YouTube, která jsou užitečná pro výuku angličtiny. Uvidíte lekce angličtiny vedené špičkovými učiteli z celého světa. Dvojklikem na anglické titulky zobrazené na každé stránce s videem si video přehrajete přímo odtud. Titulky se posouvají synchronizovaně s přehráváním videa. Pokud máte nějaké připomínky nebo požadavky, kontaktujte nás prosím pomocí tohoto kontaktního formuláře.

https://forms.gle/WvT1wiN1qDtmnspy7