Clay Shirky: How cognitive surplus will change the world

120,738 views ・ 2010-06-29

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Nakho Kim 검토: Mike Hong
00:16
The story starts in Kenya
0
16260
2000
이야기는 2007년 12월
00:18
in December of 2007,
1
18260
2000
케냐에서 시작합니다.
00:20
when there was a disputed presidential election,
2
20260
2000
논쟁적인 대통령 선거가 있었던 시기죠.
00:22
and in the immediate aftermath of that election,
3
22260
3000
그 선거가 끝난 직후에는
00:25
there was an outbreak of ethnic violence.
4
25260
2000
인종간 폭력이 터져나왔습니다.
00:27
And there was a lawyer in Nairobi, Ory Okolloh --
5
27260
3000
그 때 나이로비에 오리 오콜로라는 변호사가 있었죠.
00:30
who some of you may know from her TEDTalk --
6
30260
2000
여러분 중 일부는 TED강연을 통해 들어보셨을 겁니다.
00:32
who began blogging about it on her site,
7
32260
2000
그 분은 자신의 사이트 '케냐 전문가'(Kenyan Pundit)에
00:34
Kenyan Pundit.
8
34260
2000
이 문제에 대해 블로깅을 하기 시작했죠.
00:36
And shortly after the election and the outbreak of violence,
9
36260
3000
선거와 폭력발발 직후,
00:39
the government suddenly imposed
10
39260
2000
정부는 갑자기
00:41
a significant media blackout.
11
41260
2000
중대한 미디어 폐쇄 조치를 내렸습니다.
00:43
And so weblogs went from being
12
43260
2000
그래서 블로그들은
00:45
commentary as part of the media landscape
13
45260
2000
더이상 비평 역할로서 미디어 지형의 일부분에 머물지 않고
00:47
to being a critical part of the media landscape
14
47260
3000
폭력의 발발 지점들이 어느 곳인지 이해하게 하는
00:50
in trying to understand where the violence was.
15
50260
3000
미디어 지형의 핵심으로 변모했습니다.
00:53
And Okolloh solicited
16
53260
2000
오콜로는 덧글을 달아준
00:55
from her commenters
17
55260
2000
이들로부터
00:57
more information about what was going on.
18
57260
2000
무슨 일들이 벌어지는지 더 많은 정보를 모았습니다.
00:59
The comments began pouring in,
19
59260
2000
그러자 덧글들이 더욱 쏟아졌죠.
01:01
and Okolloh would collate them. She would post them.
20
61260
2000
오콜로는 그들을 취합하고, 포스팅했습니다.
01:03
And she quickly said, "It's too much.
21
63260
2000
그리고 곧 이렇게 말했습니다: "너무 많습니다.
01:05
I could do this all day every day
22
65260
2000
하루종일 매일 이것만 해도
01:07
and I can't keep up.
23
67260
2000
도저히 따라갈 수 없어요.
01:09
There is more information
24
69260
2000
케냐에서 현재 진행되는 일들에 대해
01:11
about what's going on in Kenya right now
25
71260
2000
누군가 한 명이 담당할 수 있는 것 이상의
01:13
than any one person can manage.
26
73260
2000
정보들이 넘치고 있죠.
01:15
If only there was a way to automate this."
27
75260
2000
이것을 자동화시킬 방법이 있으면 얼마나 좋을까요."
01:17
And two programmers who read her blog
28
77260
2000
그 블로그를 읽던 두 명의 프로그래머가
01:19
held their hands up and said, "We could do that,"
29
79260
3000
손을 올리고 말했습니다. "우리가 할 수 있어요"
01:22
and in 72 hours, they launched Ushahidi.
30
82260
3000
72시간 뒤, 우샤히디가 개장되었습니다.
01:25
Ushahidi -- the name means "witness"
31
85260
2000
우샤히디라는 이름은 스와힐리어로
01:27
or "testimony" in Swahili --
32
87260
2000
"목격" 내지 "증언"이라는 의미인데,
01:29
is a very simple way of taking reports from the field,
33
89260
3000
이 사이트는 현장 보도들을
01:32
whether it's from the web or, critically,
34
92260
3000
웹 혹은 더 중요한 방식으로
01:35
via mobile phones and SMS,
35
95260
2000
핸드폰과 문자서비스를 통해서 얻어내고는
01:37
aggregating it and putting it on a map.
36
97260
3000
취합하여 지도에 표시하는 매우 간편한 방법을 제공했습니다.
01:40
That's all it is, but that's all that's needed
37
100260
2000
그 정도가 전부지만, 필요한 것은 딱 그 정도죠.
01:42
because what it does is it takes the tacit information
38
102260
3000
왜냐하면 이것이 해내는 것은
01:45
available to the whole population --
39
105260
2000
누구나 얻을 수 있는 암묵적 정보들을 얻어내는 것,
01:47
everybody knows where the violence is,
40
107260
2000
그러니까 누구든 폭력이 어디서 발생하는지는 알지만
01:49
but no one person knows what everyone knows --
41
109260
3000
어떤 이도 다른 모든 이들이 아는 것을 전부 알 수는 없는
01:52
and it takes that tacit information
42
112260
2000
그런 식의 암묵적 정보들을 모아
01:54
and it aggregates it,
43
114260
2000
취합해서,
01:56
and it maps it and it makes it public.
44
116260
2000
지도에 그려넣어 널리 공개하는 것입니다.
01:58
And that, that maneuver
45
118260
2000
그리고 이런 활동을
02:00
called "crisis mapping,"
46
120260
2000
"위기 지도" 라고 부르는데,
02:02
was kicked off in Kenya
47
122260
3000
케냐에서
02:05
in January of 2008.
48
125260
2000
2008년 1월에 시작했습니다.
02:07
And enough people looked at it and found it valuable enough
49
127260
3000
충분히 많은 이들이 그것을 열람하고, 충분히 가치 있다고 느껴주어서
02:10
that the programmers who created Ushahidi
50
130260
2000
우샤히디를 만든 프로그래머들은
02:12
decided they were going to make it open source
51
132260
2000
이것을 오픈소스(open source)화시켜서
02:14
and turn it into a platform.
52
134260
2000
아예 범용 플랫폼으로 쓸 수 있게 하겠다 결정했습니다.
02:16
It's since been deployed in Mexico
53
136260
2000
그 이후 이것은 멕시코에서
02:18
to track electoral fraud.
54
138260
2000
선거부정 현황을 파악하기 위해 활용되었습니다.
02:20
It's been deployed in Washington D.C. to track snow cleanup.
55
140260
3000
워싱턴DC에서 제설작업 현황을 파악하기 위해서도 사용되었죠.
02:23
And it's been used most famously in Haiti
56
143260
2000
그리고 가장 유명한 사례로는, 아이티에서
02:25
in the aftermath of the earthquake.
57
145260
3000
대지진 이후 피해상황을 파악하는 것에 사용되었습니다.
02:28
And when you look at the map
58
148260
2000
우샤히디 웹사이트 첫페이지에 걸린
02:30
now posted on the Ushahidi front page,
59
150260
2000
이 지도를 보시면
02:32
you can see that the number of deployments in Ushahidi
60
152260
2000
우샤히디가 사용되고 있는 사례들이
02:34
has gone worldwide, all right?
61
154260
3000
전세계로 뻗어나간 것을 알 수 있죠.
02:37
This went from a single idea
62
157260
2000
하나의 발상에서
02:39
and a single implementation
63
159260
2000
하나의 적용사례에서
02:41
in East Africa in the beginning of 2008
64
161260
3000
즉 2008년초 동아프리카에서 시작하여
02:44
to a global deployment
65
164260
2000
전지구적으로 활용되기까지
02:46
in less than three years.
66
166260
3000
3년도 걸리지 않았습니다.
02:49
Now what Okolloh did
67
169260
3000
오콜로가 한 것은
02:52
would not have been possible
68
172260
2000
디지털 기술 없이는
02:54
without digital technology.
69
174260
3000
불가능했을 것입니다.
02:57
What Okolloh did would not have been possible
70
177260
3000
오콜로가 한 것은
03:00
without human generosity.
71
180260
2000
사람들의 관대함 없이는 불가능했을 것입니다.
03:02
And the interesting moment now,
72
182260
2000
그리고 오늘날 흥미로운 것은
03:04
the number of environments
73
184260
2000
이런 두가지가 성립되어야 가능해지는
03:06
where the social design challenge
74
186260
2000
사회적 설계 시도가 일어나는 환경이
03:08
relies on both of those things being true.
75
188260
3000
늘어나고 있다는 사실입니다.
03:11
That is the resource that I'm talking about.
76
191260
3000
이것이 바로 제가 이야기하는 '자원'입니다.
03:14
I call it cognitive surplus.
77
194260
2000
저는 그것을 인지잉여라고 부릅니다.
03:16
And it represents the ability
78
196260
2000
그리고 이것은
03:18
of the world's population
79
198260
2000
세상 사람들이
03:20
to volunteer and to contribute and collaborate
80
200260
3000
더 커다랗고 어떨 때는 전지구적인 프로젝트에
03:23
on large, sometimes global, projects.
81
203260
3000
자원하고 기여하고 협력하는 능력을 나타냅니다.
03:26
Cognitive surplus is made up of two things.
82
206260
2000
인지 잉여는 두 가지로 만들어져 있습니다.
03:28
The first, obviously, is the world's free time and talents.
83
208260
3000
첫째는 당연하게도, 세상의 여유 시간과 여유 재능입니다.
03:31
The world has over
84
211260
2000
세상에는
03:33
a trillion hours a year
85
213260
3000
공동 프로젝트에 투여할만한
03:36
of free time
86
216260
2000
여유 시간이
03:38
to commit to shared projects.
87
218260
2000
연간 1조 시간 이상 존재합니다.
03:40
Now, that free time existed in the 20th century,
88
220260
2000
그 여유시간은 20세기에도 있었지만,
03:42
but we didn't get Ushahidi in the 20th century.
89
222260
3000
20세기에는 우샤히디가 없었죠.
03:45
That's the second half of cognitive surplus.
90
225260
2000
그것이 인지 잉여의 다른 반쪽입니다.
03:47
The media landscape in the 20th century
91
227260
2000
20세기의 미디어 지형은
03:49
was very good at helping people consume,
92
229260
3000
사람들의 소비를 돕는 것에 능했습니다.
03:52
and we got, as a result,
93
232260
2000
그리고 우리는 결과적으로
03:54
very good at consuming.
94
234260
2000
소비에 무척 능해졌습니다.
03:56
But now that we've been given media tools --
95
236260
2000
하지만 인터넷, 휴대폰 같이 소비 그 이상의 것을 가능하게 해주는
03:58
the Internet, mobile phones -- that let us do more than consume,
96
238260
3000
미디어 도구들이 우리에게 주어진 지금
04:01
what we're seeing is that people weren't couch potatoes
97
241260
3000
우리가 알게된 바는, 사람들이 딱히 스스로 원해서
04:04
because we liked to be.
98
244260
2000
카우치포테이토 노릇을 했던 것이 아니라는 점입니다.
04:06
We were couch potatoes because that was
99
246260
2000
카우치포테이토 노릇을 한 것은
04:08
the only opportunity given to us.
100
248260
2000
그것이 주어진 유일한 선택사항이었기 때문입니다.
04:10
We still like to consume, of course.
101
250260
2000
물론 우리는 여전히 소비하기 좋아하죠.
04:12
But it turns out we also like to create,
102
252260
2000
하지만 드러난 바는, 우리가 마찬가지로 창조하기,
04:14
and we like to share.
103
254260
3000
그리고 나누기도 좋아한다는 것입니다.
04:17
And it's those two things together --
104
257260
2000
그리고 이 두 가지가 합쳐진 것,
04:19
ancient human motivation
105
259260
2000
즉 매우 오래된 사람들의 활동 동인과
04:21
and the modern tools to allow that motivation
106
261260
2000
그런 동인들을 큰 스케일의 결과물로
04:23
to be joined up in large-scale efforts --
107
263260
3000
합쳐내는 현대적 도구들,
04:26
that are the new design resource.
108
266260
3000
바로 그것이 새로운 사회 설계 자원입니다.
04:29
And using cognitive surplus,
109
269260
2000
그리고 인지 잉여를 활용한
04:31
we're starting to see truly incredible experiments
110
271260
3000
실로 엄청난 실험들이
04:34
in scientific, literary,
111
274260
2000
과학, 문학,
04:36
artistic, political efforts.
112
276260
3000
예술, 정치 영역에서 등장하고 있음을 볼 수 있죠.
04:39
Designing.
113
279260
2000
설계 말입니다.
04:41
We're also getting, of course, a lot of LOLcats.
114
281260
3000
물론, 고양이 짤방도 많이 나옵고 있습니다.
04:44
LOLcats are cute pictures of cats
115
284260
2000
고양이 짤방(LOLcats)이란, 귀여운 고양이 사진에
04:46
made cuter with the addition of cute captions.
116
286260
3000
귀여운 자막을 첨가해서 더욱 귀엽게 만든 것이죠.
04:49
And they are also
117
289260
2000
이것들은 또한 현재
04:51
part of the abundant media landscape we're getting now.
118
291260
3000
우리에게 주어진 풍부한 미디어지형의 일부입니다.
04:54
This is one of the participatory --
119
294260
2000
이것은 참여형--
04:56
one of the participatory models
120
296260
2000
즉 우샤히디 같은 것들과 함께
04:58
we see coming out of that, along with Ushahidi.
121
298260
3000
탄생한 참여형 모델 가운데 하나입니다.
05:01
Now I want to stipulate, as the lawyers say,
122
301260
2000
변호사들이 종종 그렇게 하듯, 저도 굳이 규정을 내리자면
05:03
that LOLcats are the stupidest possible
123
303260
2000
고양이짤방은 창작행위 중에서도
05:05
creative act.
124
305260
2000
가장 바보같은 것입니다.
05:07
There are other candidates of course,
125
307260
2000
물론 다른 후보도 있겠지만,
05:09
but LOLcats will do as a general case.
126
309260
3000
고양이짤방 정도면 일반적으로 쉽게 꼽아볼만 하겠죠.
05:12
But here's the thing:
127
312260
2000
하지만 중요한 것은 이겁니다.
05:14
The stupidest possible creative act
128
314260
2000
가장 바보같은 창작행위라고 할지라도
05:16
is still a creative act.
129
316260
3000
결국 여전히 창작행위라는 것입니다.
05:19
Someone who has done something like this,
130
319260
3000
이런 것을 해본 사람이라면,
05:22
however mediocre and throwaway,
131
322260
3000
아무리 그저 그런 쓸모없는 수준이라 할지라도
05:25
has tried something, has put something forward in public.
132
325260
3000
무언가를 시도해봤고, 대중 앞에 내밀었습니다.
05:28
And once they've done it, they can do it again,
133
328260
3000
그리고 한번 해봤으면, 다시 해 볼 수 있죠.
05:31
and they could work on getting it better.
134
331260
2000
나아가 더 낫게 만들기 위해 함께 작업할 수 있습니다.
05:33
There is a spectrum between mediocre work and good work,
135
333260
3000
그저그런 작업과 훌륭한 작업 사이에는 스펙트럼이 있습니다.
05:36
and as anybody who's worked as an artist or a creator knows,
136
336260
3000
예술이나 기타 창작 작업을 해본 사람이라면 누구나 알고 있듯,
05:39
it's a spectrum you're constantly
137
339260
2000
그 스펙트럼 상에서
05:41
struggling to get on top of.
138
341260
2000
위로 올라가기 위해 끝없이 분투하곤 하죠.
05:43
The gap is between
139
343260
2000
진짜 갭은
05:45
doing anything and doing nothing.
140
345260
3000
무언가를 하는 것과 아무것도 안하는 것 사이에 있습니다.
05:48
And someone who makes a LOLcat
141
348260
2000
고양이짤방을 만드는 사람은
05:50
has already crossed over that gap.
142
350260
3000
이미 그 갭을 넘어선 것이죠.
05:53
Now it's tempting to want to get the Ushahidis
143
353260
2000
고양이짤방 같은 것 없이
05:55
without the LOLcats, right,
144
355260
2000
우샤히디 같은 것을 얻어내는 것,
05:57
to get the serious stuff without the throwaway stuff.
145
357260
3000
즉 무가치한 것들 없이 진지한 것들만 얻고 싶은 유혹이 들 수 있습니다.
06:00
But media abundance never works that way.
146
360260
3000
그러나 미디어의 풍요는 결코 그런 식으로 작동하지 않습니다.
06:03
Freedom to experiment means freedom to experiment with anything.
147
363260
3000
실험할 자유란, 어떤 것으로든지 실험할 자유입니다.
06:06
Even with the sacred printing press,
148
366260
2000
추앙받곤 하는 인쇄 매체만 하더라도
06:08
we got erotic novels 150 years
149
368260
2000
과학 저널이 만들어지기보다 150년 전에
06:10
before we got scientific journals.
150
370260
3000
에로 소설부터 만들어졌죠.
06:14
So before I talk about
151
374260
3000
그런 의미에서 제가 생각하는
06:17
what is, I think, the critical difference
152
377260
2000
고양이짤방과 우샤히디 사이의
06:19
between LOLcats and Ushahidi,
153
379260
2000
결정적인 차이점들을 말하기 전에
06:21
I want to talk about
154
381260
2000
먼저 그들 사이에
06:23
their shared source.
155
383260
2000
공통된 요소들을 말하고 싶습니다.
06:25
And that source is design for generosity.
156
385260
3000
그 요소란 '관대함을 모으는 설계방식'입니다.
06:28
It is one of the curiosities of our historical era
157
388260
3000
우리들이 사는 현 시대의 신기한 점 가운데 하나인데,
06:31
that even as cognitive surplus
158
391260
2000
인지잉여가
06:33
is becoming a resource we can design around,
159
393260
2000
사회 설계에 사용될 수 있는 자원이 되어가는 와중에
06:35
social sciences are also starting to explain
160
395260
3000
사회과학에서도 이런 것을 설명하기 시작했습니다.
06:38
how important
161
398260
2000
우리들의 내적 동기가
06:40
our intrinsic motivations are to us,
162
400260
2000
얼마나 큰 비중을 차지하는 것인지,
06:42
how much we do things because we like to do them
163
402260
3000
즉 우리들이 얼마나 많은 것들을 그저 좋아서 하는 것인지 말이죠.
06:45
rather than because our boss told us to do them,
164
405260
2000
상사가 하라고 시켰거나
06:47
or because we're being paid to do them.
165
407260
3000
또는 돈을 지급받기 때문에 하는 것이 아니라.
06:50
This is a graph from a paper
166
410260
3000
이 그래프는
06:53
by Uri Gneezy and Aldo Rustichini,
167
413260
2000
Uri Gneezy와 Afredo Rusticini의 논문에 나왔는데,
06:55
who set out to test, at the beginning of this decade,
168
415260
3000
이번 십년의 초엽에 소위 "억제 이론"이라는
06:58
what they called "deterrence theory."
169
418260
2000
것을 검증하고자 했던 이들이죠.
07:00
And deterrence theory is a very simple theory of human behavior:
170
420260
2000
억제이론은 매우 단순한 인간행동 이론입니다.
07:02
If you want somebody to do less of something,
171
422260
2000
만약 누군가로 하여금 무언가를 덜 하도록 하고 싶으면,
07:04
add a punishment and they'll do less of it.
172
424260
2000
처벌을 도입하세요. 그러면 덜 하게 됩니다.
07:06
Simple, straightforward, commonsensical --
173
426260
3000
단순하고, 직선적이며, 상식적이고
07:09
also, largely untested.
174
429260
2000
대체로 검증 대상도 아니죠.
07:11
And so they went and studied
175
431260
2000
그래서 그들은 이것을
07:13
10 daycare centers in Haifa, Israel.
176
433260
2000
이스라엘의 하이파에 있는 10개 탁아소에서 연구를 했습니다.
07:15
They studied those daycare centers
177
435260
2000
그 탁아소들에서
07:17
at the time of highest tension,
178
437260
2000
가장 긴장감이 높을 때
07:19
which is pick-up time.
179
439260
2000
즉 아이를 다시 데려가는 시간대를 관찰했습니다.
07:21
At pick-up time the teachers,
180
441260
2000
그 시간대에는 여러분의 아이와
07:23
who have been with your children all day,
181
443260
2000
하루 종일 같이 있었던 선생님은
07:25
would like you to be there at the appointed hour to take your children back.
182
445260
3000
여러분이 약속된 시간에 나타나서 아이를 데려가시기를 원합니다.
07:28
Meanwhile, the parents -- perhaps a little busy at work, running late, running errands --
183
448260
3000
한편 부모들은 - 어쩌면 일터에서 좀 바쁘고, 시간이 늦었고, 잔업이 남은 -
07:31
want a little slack to pick the kids up late.
184
451260
3000
아이를 약간 더 늦게 데려가고 싶어집니다.
07:34
So Gneezy and Rustichini said,
185
454260
2000
그래서 연구자들이 질문했습니다.
07:36
"How many instances of late pick-ups
186
456260
2000
"10개의 탁아소에서
07:38
are there at these 10 daycare centers?"
187
458260
2000
아이를 늦게 데려가는 경우가 몇번이나 발생하는가?"
07:40
Now they saw -- and this is what the graph is,
188
460260
2000
그들이 발견한 것이 이 그래프인데,
07:42
these are the number of weeks and these are the number of late arrivals --
189
462260
3000
이쪽은 몇 주가 지났는지, 그리고 이쪽은 늦게 데려간 횟수입니다 -
07:45
that there were between six and 10
190
465260
2000
10개 탁아소에서 보통
07:47
instances of late pick-ups
191
467260
2000
늦게 데려간 횟수는
07:49
on average in these 10 daycare centers.
192
469260
2000
평균적으로 6에서 10회 정도입니다.
07:51
So they divided the daycare centers into two groups.
193
471260
3000
이제 그들은 탁아소를 두 집단으로 나눴습니다.
07:54
The white group there
194
474260
2000
흰색 집단은 통제집단입니다.
07:56
is the control group; they change nothing.
195
476260
3000
아무런 변화도 주지 않죠.
07:59
But the group of daycare centers represented by the black line,
196
479260
3000
하지만 검은 선으로 표시된 탁아소들에서는 이렇게 했습니다.
08:02
they said, "We are changing this bargain
197
482260
2000
"이제부터 거래조건을
08:04
as of right now.
198
484260
2000
변경합니다.
08:06
If you pick your kid up more than 10 minutes late,
199
486260
2000
10분 이상 늦게 아이를 데리러 오시면
08:08
we're going to add a 10 shekel fine to your bill.
200
488260
2000
요금청구서에 10쉐켈을 추가하겠습니다.
08:10
Boom. No ifs, ands or buts."
201
490260
3000
쾅. 혹시, 그리고, 그러나, 뭐 그런 말은 듣지 않습니다."
08:13
And the minute they did that,
202
493260
2000
그렇게 하자마자
08:15
the behavior in those daycare centers changed.
203
495260
2000
그 탁아소들에서 나타나는 행동패턴이 바뀌었습니다.
08:17
Late pick-ups went up
204
497260
2000
그 이후 4주라는 기간동안
08:19
every week for the next four weeks
205
499260
3000
늦게 데려가는 경우가 증가했습니다.
08:22
until they topped out at triple the pre-fine average,
206
502260
3000
벌금제 이전 평균의 3배에 도달할 때까지 말이죠.
08:25
and then they fluctuated
207
505260
2000
그리고 나서는 벌금제 이전 평균의
08:27
at between double and triple the pre-fine average
208
507260
2000
2배에서 3배 사이에서
08:29
for the life of the fine.
209
509260
2000
벌금제 기간 내내 왔다갔다 했습니다.
08:31
And you can see immediately what happened, right?
210
511260
3000
무슨 일이 벌어졌는지 금방 알아보실 수 있을 것입니다.
08:35
The fine broke the culture
211
515260
2000
벌금제가
08:37
of the daycare center.
212
517260
2000
탁아소의 문화를 파괴했습니다.
08:39
By adding a fine,
213
519260
2000
벌금을 도입함으로써
08:41
what they did was communicate to the parents
214
521260
2000
부모들에게 이런 메시지를 남기게 된 것이죠:
08:43
that their entire debt to the teachers
215
523260
2000
부모들이 선생님들에게 지는 모든 빚은
08:45
had been discharged
216
525260
2000
10쉐켈을 지불함으로써
08:47
with the payment of 10 shekels,
217
527260
2000
해소되며,
08:49
and that there was no residue of guilt or social concern
218
529260
3000
부모가 선생님들에게 가져야 할
08:52
that the parents owed the teachers.
219
532260
2000
가책이나 사회적 염려는 조금도 남지 않는다고 말입니다.
08:54
And so the parents, quite sensibly, said,
220
534260
2000
그래서 부모들은 당당하게 이야기했습니다.
08:56
"10 shekels to pick my kid up late?
221
536260
2000
"내 아이를 늦게 데려가는 것에 10쉐켈?
08:58
What could be bad?"
222
538260
2000
나쁠 것 없는데?"
09:00
(Laughter)
223
540260
2000
(웃음)
09:04
The explanation of human behavior
224
544260
2000
우리가 20세기로부터 물려받은
09:06
that we inherited in the 20th century
225
546260
3000
인간행동에 대한 설명이란
09:09
was that we are all rational, self-maximizing actors,
226
549260
3000
사람들이 합리적이며 자기만족 최대화를 추구하는 행위자라는 것입니다.
09:12
and in that explanation --
227
552260
2000
그 설명에 따르자면
09:14
the daycare center had no contract --
228
554260
3000
(벌금)계약관계가 없는 탁아소는
09:17
should have been operating without any constraints.
229
557260
3000
제약 없이 운영되는 곳으로 봐야 할 것입니다.
09:20
But that's not right.
230
560260
2000
하지만 사실이 아니죠.
09:22
They were operating with social constraints
231
562260
2000
그 곳들은 계약에 의한 것이 아니라
09:24
rather than contractual ones.
232
564260
2000
사회적 제약에 의해 움직였습니다.
09:26
And critically, the social constraints
233
566260
2000
무엇보다, 사회적 제약은
09:28
created a culture that was more generous
234
568260
3000
계약에 의한 제약보다
09:31
than the contractual constraints did.
235
571260
2000
더 관대한 문화를 만들어놓았던 것이죠.
09:33
So Gneezy and Rustichini run this experiment for a dozen weeks --
236
573260
3000
연구자들은 이 실험을 12주 가량 계속 했습니다.
09:36
run the fine for a dozen weeks --
237
576260
2000
벌금제를 12주간 운영하고는
09:38
and then they say, "Okay, that's it. All done; fine."
238
578260
3000
"자 이제 끝났습니다. 됐어요"라고 선언했습니다.
09:41
And then a really interesting thing happens:
239
581260
2000
그러자 정말 흥미로운 일이 일어났습니다.
09:43
Nothing changes.
240
583260
3000
아무것도 바뀌지 않은 것입니다.
09:46
The culture that got broken by the fine
241
586260
3000
벌금제에 의해 파괴된 그 문화는
09:49
stayed broken when the fine was removed.
242
589260
3000
벌금제가 없어진 후에도 계속 파괴된 상태 그대로 남았죠.
09:52
Not only are economic motivations
243
592260
3000
경제적 동기와
09:55
and intrinsic motivations
244
595260
2000
내적 동기는
09:57
incompatible,
245
597260
2000
서로 호환불가능할 뿐만 아니라,
09:59
that incompatibility
246
599260
2000
그 호환불능 상태가
10:01
can persist over long periods.
247
601260
3000
장기간 지속될 수 있습니다.
10:04
So the trick
248
604260
2000
그렇기에
10:06
in designing these kinds of situations
249
606260
2000
이런 종류의 상황을 설계하려면
10:08
is to understand where you're relying on
250
608260
3000
여러분이 어떤 쪽에 의존하고 있는지 이해하셔야 합니다.
10:11
the economic part of the bargain -- as with the parents paying the teachers --
251
611260
3000
부모가 선생님들에게 돈을 지불하는 식의 경제적 거래 쪽인지,
10:14
and when you're relying on the social part of the bargain,
252
614260
3000
아니면 사실은 관대함을 얻도록 설계하는
10:17
when you're really designing for generosity.
253
617260
3000
사회적 거래 쪽에 의존하는지 말입니다.
10:20
This brings me back to the LOLcats
254
620260
3000
다시 고양이짤방과
10:23
and to Ushahidi.
255
623260
2000
우샤히디로 넘어와보죠.
10:25
This is, I think, the range that matters.
256
625260
2000
저는 범위라는 것이 중요하다고 봅니다.
10:27
Both of these rely on cognitive surplus.
257
627260
2000
이들 둘 다 인지잉여에 의존하고 있습니다.
10:29
Both of these design for the assumption
258
629260
2000
둘 다, 사람들은 창조하기 좋아하고 공유하고자 한다는
10:31
that people like to create and we want to share.
259
631260
3000
가정 위에 설계되어 있습니다.
10:34
Here is the critical difference between these:
260
634260
3000
그런데 둘 사이에 결정적 차이가 있죠.
10:39
LOLcats is communal value.
261
639260
3000
고양이짤방은 공동적 가치를 지닙니다.
10:42
It's value created by the participants
262
642260
2000
참여하는 이들이
10:44
for each other.
263
644260
2000
서로에게 만들어내는 가치죠.
10:46
Communal value on the networks we have
264
646260
3000
네트워크상에서 공동적 가치는
10:49
is everywhere --
265
649260
2000
어디에나 있습니다.
10:51
every time you see a large aggregate
266
651260
2000
공개 접근할 수 있게 되어있는 공유된 데이터가
10:53
of shared, publicly available data,
267
653260
3000
대량으로 모인 곳이라면 어디라도,
10:56
whether it's photos on Flickr
268
656260
2000
Flickr의 사진들이든
10:58
or videos on Youtube or whatever.
269
658260
2000
Youtube의 동영상이든 어디서든 말이죠.
11:00
This is good. I like LOLcats as much as the next guy,
270
660260
2000
좋은 현상입니다. 저는 주변 누군가만큼이나,
11:02
maybe a little more even,
271
662260
2000
혹은 조금 더, 고양이짤방을 좋아합니다.
11:04
but this is also
272
664260
3000
하지만 이것은
11:07
a largely solved problem.
273
667260
2000
대체로 이미 충분히 해결된 문제이기도 하죠.
11:09
I have a hard time envisioning a future
274
669260
2000
미래에 누군가가
11:11
in which someone is saying,
275
671260
2000
이런 고민을 하는 모습은 상상하기 힘듭니다:
11:13
"Where, oh where, can I find a picture
276
673260
2000
"도대체 어디로 가야 좀
11:15
of a cute cat?"
277
675260
2000
귀여운 고양이 사진을 찾아볼 수 있을까?"
11:17
Ushahidi, by contrast,
278
677260
2000
반면, 우샤히디는
11:19
is civic value.
279
679260
2000
시민적 가치를 가지고 있습니다.
11:21
It's value created by the participants
280
681260
2000
참여자들이 만들어내지만
11:23
but enjoyed by society as a whole.
281
683260
2000
사회 전체가 향유하는 가치죠.
11:25
The goals set out by Ushahidi
282
685260
2000
우샤히디가 지향하는 목표는
11:27
are not just to make life better
283
687260
2000
그저 참여자들의 삶을
11:29
for the participants,
284
689260
2000
향상시키는 것이 아니라,
11:31
but to make life better for everyone in the society
285
691260
3000
우샤히디가 운영되고 있는 사회의
11:34
in which Ushahidi is operating.
286
694260
2000
모든 이들의 삶을 향상시키는 것입니다.
11:36
And that kind of civic value
287
696260
3000
그런 시민적 가치는
11:39
is not just a side effect
288
699260
2000
그저 사람들의 동기를 받아들임으로서 나오는
11:41
of opening up to human motivation.
289
701260
3000
부대효과 같은 것이 아닙니다.
11:44
It really is going to be a side effect
290
704260
2000
사실은 우리들이 함께
11:46
of what we, collectively,
291
706260
2000
이런 작업들을 어떻게 받아들이는지에 따라서
11:48
make of these kinds of efforts.
292
708260
3000
나오는 부대효과입니다.
11:51
There are a trillion
293
711260
2000
매년,
11:53
hours a year
294
713260
2000
참여적 가치라는 것이
11:55
of participatory value
295
715260
2000
수조(兆) 시간 어치씩
11:57
up for grabs.
296
717260
2000
손쉽게 가용한 상태입니다.
11:59
That will be true year-in and year-out.
297
719260
3000
연중무휴로 말이죠.
12:02
The number of people who are going to be able
298
722260
2000
이런 프로젝트에 참여할 수 있는
12:04
to participate in these kinds of projects
299
724260
2000
사람들의 숫자는
12:06
is going to grow,
300
726260
2000
계속 증가할 것입니다.
12:08
and we can see that organizations
301
728260
3000
그리고 관대함의 문화를 바탕으로
12:11
designed around a culture of generosity
302
731260
2000
설계된 조직들은
12:13
can achieve incredible effects
303
733260
2000
엄청난 양의 계약관계가 없어도
12:15
without an enormous amount of contractual overhead --
304
735260
3000
놀라운 효과를 얻어낼 수 있습니다.
12:18
a very different model
305
738260
2000
이것은 20세기의 대규모 집단행동에 적용되었던
12:20
than our default model for large-scale group action in the 20th century.
306
740260
3000
일반적 모델과는 전혀 다른 방식이죠.
12:24
What's going to make the difference here
307
744260
3000
이런 차이를 만들어내는 것은
12:27
is what Dean Kamen said,
308
747260
3000
Dean Kamen이 이야기한
12:30
the inventor and entrepreneur.
309
750260
2000
"발명가와 사업가"입니다.
12:32
Kamen said, "Free cultures get what they celebrate."
310
752260
3000
Kamen은 "무료의 문화는, 자신이 칭송하는 바대로 얻어낸다"고 했습니다.
12:36
We've got a choice before us.
311
756260
3000
우리 앞에 선택이 놓여있습니다.
12:39
We've got this trillion hours a year.
312
759260
2000
한 해 수 조 시간이 주어졌습니다.
12:41
We can use it to crack each other up, and we're going to do that.
313
761260
3000
그것을 서로를 웃기는 일에 쓸 수 있죠. 아마 그렇게 할 것입니다.
12:44
That, we get for free.
314
764260
2000
무료로 얻을 수 있죠.
12:46
But we can also celebrate
315
766260
2000
하지만 우리는 또한
12:48
and support and reward the people
316
768260
2000
시민적 가치를 만들기 위해
12:50
trying to use cognitive surplus
317
770260
2000
인지 잉여를 사용하고자 하는 이들을
12:52
to create civic value.
318
772260
2000
칭송하고 지원해줄 수도 있습니다.
12:54
And to the degree we're going to do that, to the degree we're able to do that,
319
774260
3000
우리가 그런 것을 하는 정도만큼, 그런 것을 할 수 있는 정도 만큼씩,
12:57
we'll be able to change society.
320
777260
2000
우리는 사회를 변화시킬 수 있을 것입니다.
12:59
Thank you very much.
321
779260
2000
감사합니다.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7