Nicholas Christakis: How social networks predict epidemics

93,421 views ・ 2010-09-16

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Sunphil Ga 검토: Tae-Hoon Chung
00:15
For the last 10 years, I've been spending my time trying to figure out
0
15260
3000
지난 10 년 동안 저는 인간이라는 존재가
00:18
how and why human beings
1
18260
2000
어떻게 그리고 왜 서로 모여 사회적 네트워크를 형성하는지
00:20
assemble themselves into social networks.
2
20260
3000
이해하기 위해 연구했습니다.
00:23
And the kind of social network I'm talking about
3
23260
2000
제가 이야기하는 사회적 네트워크는
00:25
is not the recent online variety,
4
25260
2000
최근 등장한 온라인 상의 다양한 네트워크가 아니라
00:27
but rather, the kind of social networks
5
27260
2000
인류가 아프리카 사바나에 나타난 이래
00:29
that human beings have been assembling for hundreds of thousands of years,
6
29260
3000
수십 만 년에 걸쳐 서로 모이며 만들어 온
00:32
ever since we emerged from the African savannah.
7
32260
3000
그런 사회적 네트워크입니다.
00:35
So, I form friendships and co-worker
8
35260
2000
이를 통해 저는 다른 사람과 더불어 우정과 동료애를 쌓고
00:37
and sibling and relative relationships with other people
9
37260
3000
형제 관계 혹은 친척 관계를 형성할 뿐 아니라
00:40
who in turn have similar relationships with other people.
10
40260
2000
그들 또한 또 다른 사람과 더불어 비슷한 관계를 이룹니다.
00:42
And this spreads on out endlessly into a distance.
11
42260
3000
이렇게 이러한 관계는 끝도 없이 멀리 퍼져 있습니다.
00:45
And you get a network that looks like this.
12
45260
2000
여러분도 이와 같은 네트워크를 가지고 있으시겠죠.
00:47
Every dot is a person.
13
47260
2000
모든 점은 사람을 나타냅니다.
00:49
Every line between them is a relationship between two people --
14
49260
2000
점 사이에 놓인 선은 두 사람 사이의 관계를 나타내죠.
00:51
different kinds of relationships.
15
51260
2000
서로 다른 종류의 관계들입니다.
00:53
And you can get this kind of vast fabric of humanity,
16
53260
3000
우리 모두는 이와 같이 방대한 인류의 관계도를 형성하고
00:56
in which we're all embedded.
17
56260
2000
그 어딘가에 놓여 있을 겁니다.
00:58
And my colleague, James Fowler and I have been studying for quite sometime
18
58260
3000
저의 동료 제임스 파울러와 저는 꽤 많은 시간을 들여
01:01
what are the mathematical, social,
19
61260
2000
이들 네트워크가 만들어지는 방식을 결정하는
01:03
biological and psychological rules
20
63260
3000
수학적, 사회적, 생물학적 그리고
01:06
that govern how these networks are assembled
21
66260
2000
심리학적 법칙은 어떤 것인지 그리고
01:08
and what are the similar rules
22
68260
2000
이 네트워크가 작동하고 우리의 삶에 영향을 주는 방식을
01:10
that govern how they operate, how they affect our lives.
23
70260
3000
결정하는 법칙은 어떤 것인지 연구했습니다.
01:13
But recently, we've been wondering
24
73260
2000
그리고 최근에 저희는 이와 같은 연구를 통해 알게된 사실을
01:15
whether it might be possible to take advantage of this insight,
25
75260
3000
단지 현상을 이해만 하는 것이 아니라
01:18
to actually find ways to improve the world,
26
78260
2000
세상을 발전시키거나, 보다 나은 일을 하거나,
01:20
to do something better,
27
80260
2000
아니면 실제로 문제를 해결하는데
01:22
to actually fix things, not just understand things.
28
82260
3000
이용할 수 있지 않을까 고민했습니다.
01:25
So one of the first things we thought we would tackle
29
85260
3000
그러다 제일 먼저 생각하게 된 것이 바로
01:28
would be how we go about predicting epidemics.
30
88260
3000
전염병을 어떻게 예측할 수 있을까 하는 문제였습니다.
01:31
And the current state of the art in predicting an epidemic --
31
91260
2000
전염병을 예측하는 최근의 기술은 이렇습니다.
01:33
if you're the CDC or some other national body --
32
93260
3000
여러분께서 질병통제센터나 다른 어떤 국가기관에 계신다고 하면
01:36
is to sit in the middle where you are
33
96260
2000
여러분을 가운데 지점에 두고
01:38
and collect data
34
98260
2000
특정 상태의 환자 발생빈도나 유병율을
01:40
from physicians and laboratories in the field
35
100260
2000
보고하도록 되어 있는 분야의
01:42
that report the prevalence or the incidence of certain conditions.
36
102260
3000
의사나 실험실에서 온 자료를 모읍니다.
01:45
So, so and so patients have been diagnosed with something,
37
105260
3000
이런 이런 환자는 여기서 이런 진단을 받았고
01:48
or other patients have been diagnosed,
38
108260
2000
다른 환자는 저기에서 진단을 받았고
01:50
and all these data are fed into a central repository, with some delay.
39
110260
3000
이런 식의 모든 정보가 약간씩 늦기는 해도 중앙 상황실에 모입니다.
01:53
And if everything goes smoothly,
40
113260
2000
그리고 모든 게 별 탈 없이
01:55
one to two weeks from now
41
115260
2000
지금부터 일, 이 주 정도 진행되면
01:57
you'll know where the epidemic was today.
42
117260
3000
오늘 어디에 전염병이 있었는지 알게 되는 것입니다.
02:00
And actually, about a year or so ago,
43
120260
2000
실제로 대략 1년 쯤 전에 공개된
02:02
there was this promulgation
44
122260
2000
구글 독감 추이 정보의 아이디어는
02:04
of the idea of Google Flu Trends, with respect to the flu,
45
124260
3000
독감에 관해 사람들이 현재
02:07
where by looking at people's searching behavior today,
46
127260
3000
검색하는 방식을 지켜보면
02:10
we could know where the flu --
47
130260
2000
어디에 독감이 퍼졌는지
02:12
what the status of the epidemic was today,
48
132260
2000
현재 세계적으로 전염된 상태는 어떤지
02:14
what's the prevalence of the epidemic today.
49
134260
3000
현재 유병율은 어떤지 등을 알 수 있다는 것이었죠.
02:17
But what I'd like to show you today
50
137260
2000
하지만 오늘 여러분께 보여드리고자 하는 것은
02:19
is a means by which we might get
51
139260
2000
우리가 단지 전염병에 대한 징후를
02:21
not just rapid warning about an epidemic,
52
141260
3000
빨리 포착하게 될 뿐 아니라
02:24
but also actually
53
144260
2000
실제로 전염병을 빨리
02:26
early detection of an epidemic.
54
146260
2000
발견할 수도 있는 방법입니다.
02:28
And, in fact, this idea can be used
55
148260
2000
실제로 이 아이디어는
02:30
not just to predict epidemics of germs,
56
150260
3000
단지 전염균을 예방하는 것 뿐만 아니라
02:33
but also to predict epidemics of all sorts of kinds.
57
153260
3000
모든 종류의 전염성이 있는 현상을 예측하는데 사용할 수 있습니다.
02:37
For example, anything that spreads by a form of social contagion
58
157260
3000
예를 들어 전염병과 비슷하게 퍼지는 모든 사회적인 현상은
02:40
could be understood in this way,
59
160260
2000
이 방법으로 이해할 수 있습니다.
02:42
from abstract ideas on the left
60
162260
2000
왼쪽에 있는 애국심, 이타주의, 종교 등의
02:44
like patriotism, or altruism, or religion
61
164260
3000
추상적인 아이디어에서부터
02:47
to practices
62
167260
2000
음식섭취, 도서구매,
02:49
like dieting behavior, or book purchasing,
63
169260
2000
음주, 자전거용 헬멧이나 기타 안전용구의 활용,
02:51
or drinking, or bicycle-helmet [and] other safety practices,
64
171260
3000
사람들이 구입할 제품,
02:54
or products that people might buy,
65
174260
2000
전자 제품 구입 등
02:56
purchases of electronic goods,
66
176260
2000
사람과 사람 사이에 퍼질 수 있는
02:58
anything in which there's kind of an interpersonal spread.
67
178260
3000
모든 실용적인 것까지 말이죠.
03:01
A kind of a diffusion of innovation
68
181260
2000
새로운 것이 퍼지는 것 같은 현상은
03:03
could be understood and predicted
69
183260
2000
이제 여러분께 소개할 메커니즘으로
03:05
by the mechanism I'm going to show you now.
70
185260
3000
이해할 수 있고, 예측할 수 있습니다.
03:08
So, as all of you probably know,
71
188260
2000
여러분 모두 아시는 것처럼
03:10
the classic way of thinking about this
72
190260
2000
이런 것에 관한 고전적인 생각은
03:12
is the diffusion-of-innovation,
73
192260
2000
'혁신의 확산' 혹은
03:14
or the adoption curve.
74
194260
2000
'수용 곡선'으로 불리는 것입니다.
03:16
So here on the Y-axis, we have the percent of the people affected,
75
196260
2000
여기 Y축은 영향을 받은 사람의 퍼센트를 나타내고
03:18
and on the X-axis, we have time.
76
198260
2000
X축은 시간을 나타냅니다.
03:20
And at the very beginning, not too many people are affected,
77
200260
3000
맨 처음에는 영향 받은 사람이 별로 많지 않죠.
03:23
and you get this classic sigmoidal,
78
203260
2000
그래서 고전적인 시그모이드 형태
03:25
or S-shaped, curve.
79
205260
2000
혹은 S자 모양의 곡선이 됩니다.
03:27
And the reason for this shape is that at the very beginning,
80
207260
2000
이런 모양이 만들어진 이유는 맨 처음
03:29
let's say one or two people
81
209260
2000
한 사람 혹은 두 사람이
03:31
are infected, or affected by the thing
82
211260
2000
어떤 것에 영향을 받거나 감염되고
03:33
and then they affect, or infect, two people,
83
213260
2000
그들이 다시 두 명에 영향을 주거나 감염시키고
03:35
who in turn affect four, eight, 16 and so forth,
84
215260
3000
그럼 그들이 다시 4명, 8명, 16명에게 영향을 끼치고
03:38
and you get the epidemic growth phase of the curve.
85
218260
3000
이런 식으로 전염병의 성장단계 곡선부분이 만들어지죠.
03:41
And eventually, you saturate the population.
86
221260
2000
궁극적으로 전체 집단에 골고루 퍼집니다.
03:43
There are fewer and fewer people
87
223260
2000
그래서 감염시킬 사람이
03:45
who are still available that you might infect,
88
225260
2000
점점 줄어들게 되고
03:47
and then you get the plateau of the curve,
89
227260
2000
곡선이 평탄해지면서
03:49
and you get this classic sigmoidal curve.
90
229260
3000
고전적인 S자형 곡선이 되는 것입니다.
03:52
And this holds for germs, ideas,
91
232260
2000
이것은 세균, 아이디어,
03:54
product adoption, behaviors,
92
234260
2000
제품의 구매, 행동과 같은 것 등에
03:56
and the like.
93
236260
2000
모두 적용됩니다.
03:58
But things don't just diffuse in human populations at random.
94
238260
3000
하지만 뭔가가 사람들 사이에서 무작위로 퍼지지는 않습니다.
04:01
They actually diffuse through networks.
95
241260
2000
이것들은 실제로 네트워크를 통해 퍼집니다.
04:03
Because, as I said, we live our lives in networks,
96
243260
3000
왜냐하면 말씀드렸던 것처럼 우리는 네트워크 안에서 살고
04:06
and these networks have a particular kind of a structure.
97
246260
3000
이 네트워크들은 특정한 구조를 가지고 있기 때문입니다.
04:09
Now if you look at a network like this --
98
249260
2000
만약 이와 같은 네트워크를 보신다면...
04:11
this is 105 people.
99
251260
2000
이것은 105명의 사람인데요
04:13
And the lines represent -- the dots are the people,
100
253260
2000
점들은 사람을 나타내고
04:15
and the lines represent friendship relationships.
101
255260
2000
연결선은 친구 관계를 나타냅니다.
04:17
You might see that people occupy
102
257260
2000
사람들이 이 네트워크 안에서 각기 다른 위치를
04:19
different locations within the network.
103
259260
2000
차지하고 있다는 것을 아실 수 있을 겁니다.
04:21
And there are different kinds of relationships between the people.
104
261260
2000
사람들 사이에는 서로 다른 관계가 있습니다.
04:23
You could have friendship relationships, sibling relationships,
105
263260
3000
여러분들은 친구 관계, 형제 관계,
04:26
spousal relationships, co-worker relationships,
106
266260
3000
배우자 관계, 동료 관계,
04:29
neighbor relationships and the like.
107
269260
3000
이웃 관계 등을 형성할 수 있죠.
04:32
And different sorts of things
108
272260
2000
다른 종류의 것들은
04:34
spread across different sorts of ties.
109
274260
2000
다른 종류의 관계를 따라서 퍼집니다.
04:36
For instance, sexually transmitted diseases
110
276260
2000
예를들어, 성관계에 의해 전염된 질병은
04:38
will spread across sexual ties.
111
278260
2000
성적인 인간 관계를 따라 퍼집니다.
04:40
Or, for instance, people's smoking behavior
112
280260
2000
예를 들어, 사람들이 담배 피는 행동은 아마도
04:42
might be influenced by their friends.
113
282260
2000
그들의 친구들에게서 영향을 받았을지 모릅니다.
04:44
Or their altruistic or their charitable giving behavior
114
284260
2000
이타적인 행동이나 기부하는 행위는
04:46
might be influenced by their coworkers,
115
286260
2000
아마도 그들의 동료 혹은 이웃에게서
04:48
or by their neighbors.
116
288260
2000
영향을 받은 것일 수 있구요.
04:50
But not all positions in the network are the same.
117
290260
3000
하지만 이 네트워크에서 모든 위치가 같지는 않습니다.
04:53
So if you look at this, you might immediately grasp
118
293260
2000
그래서 이 네트워크를 보는 순간 여러분은 바로
04:55
that different people have different numbers of connections.
119
295260
3000
사람마다 연결선의 수가 다르다는 것을 눈치채셨을 겁니다.
04:58
Some people have one connection, some have two,
120
298260
2000
몇몇 사람들은 하나의 연결선을 가집니다. 몇몇은 2개,
05:00
some have six, some have 10 connections.
121
300260
3000
6개, 10개의 연결선을 가집니다.
05:03
And this is called the "degree" of a node,
122
303260
2000
그리고 이것을 각 점의 "차수"라고 합니다.
05:05
or the number of connections that a node has.
123
305260
2000
각 점이 가지는 연결선의 수입니다.
05:07
But in addition, there's something else.
124
307260
2000
게다가 그 밖의 무언가가 존재하는데요,
05:09
So, if you look at nodes A and B,
125
309260
2000
이렇게 점 A 와 B를 보면
05:11
they both have six connections.
126
311260
2000
둘은 같이 6개의 연결선을 가지고 있습니다.
05:13
But if you can see this image [of the network] from a bird's eye view,
127
313260
3000
하지만 넓은 시각으로 네트워크 그림을 본다면,
05:16
you can appreciate that there's something very different
128
316260
2000
여러분은 점 A 와 B가 뭔가 매우 다르다는 것을
05:18
about nodes A and B.
129
318260
2000
아실 수 있습니다.
05:20
So, let me ask you this -- I can cultivate this intuition by asking a question --
130
320260
3000
이런 질문을 해 보죠. 방금 언급한 직감은 이 질문으로 한층 배가될텐데요
05:23
who would you rather be
131
323260
2000
만약 치명적인 세균이 네트워크에 퍼지고 있다면
05:25
if a deadly germ was spreading through the network, A or B?
132
325260
3000
여러분은 A가 되고 싶으세요 아님 B가 되고 싶으세요?
05:28
(Audience: B.) Nicholas Christakis: B, it's obvious.
133
328260
2000
(관객: B) 니콜라스 크리스타키스:B, 분명하죠.
05:30
B is located on the edge of the network.
134
330260
2000
B는 네트워크 가장 자리에 위치하고 있습니다.
05:32
Now, who would you rather be
135
332260
2000
이제 구미가 당기는 소문이 네트워크에 퍼지고 있다면
05:34
if a juicy piece of gossip were spreading through the network?
136
334260
3000
여러분은 A가 되고 싶으세요 아님 B가 되고 싶으세요?
05:37
A. And you have an immediate appreciation
137
337260
3000
A죠. A가 지금 퍼지고 있는 소문을
05:40
that A is going to be more likely
138
340260
2000
듣던지 혹은 듣더라도 남보다 빨리 듣게 될 거라는 걸
05:42
to get the thing that's spreading and to get it sooner
139
342260
3000
네트워크 안에서의 구조적 위치 덕분에
05:45
by virtue of their structural location within the network.
140
345260
3000
여러분은 바로 알 수 있는 것입니다.
05:48
A, in fact, is more central,
141
348260
2000
A는 사실상 좀 더 중심적이라고 할 수 있는데
05:50
and this can be formalized mathematically.
142
350260
3000
이걸 수학적으로 표현할 수도 있습니다.
05:53
So, if we want to track something
143
353260
2000
이렇게 만약 네트워크를 통해
05:55
that was spreading through a network,
144
355260
3000
퍼지고 있는 무언가의 자취를 알고자 한다면,
05:58
what we ideally would like to do is to set up sensors
145
358260
2000
이상적으로 우리는
06:00
on the central individuals within the network,
146
360260
2000
A를 포함해 네트워크 안에서
06:02
including node A,
147
362260
2000
중심적인 역할을 하는 개인에 센서를 부착하고
06:04
monitor those people that are right there in the middle of the network,
148
364260
3000
바로 저기 네트워크 가운데 있는 사람들을 추적해
06:07
and somehow get an early detection
149
367260
2000
네트워크를 타고 퍼지는 것은 무엇이건
06:09
of whatever it is that is spreading through the network.
150
369260
3000
조기에 발견하고 싶을 겁니다.
06:12
So if you saw them contract a germ or a piece of information,
151
372260
3000
만약 저들이 세균이나 정보와 접촉했다는 것을 안다면
06:15
you would know that, soon enough,
152
375260
2000
여러분은 모든 사람들이 이제 곧 이 세균이나
06:17
everybody was about to contract this germ
153
377260
2000
정보에 노출될 것이라는 것을
06:19
or this piece of information.
154
379260
2000
충분히 이른 시간에 알 수 있습니다.
06:21
And this would be much better
155
381260
2000
이것은 전체 인구의 구조를 고려하지 않고
06:23
than monitoring six randomly chosen people,
156
383260
2000
무작위로 선택된 6명의 사람을
06:25
without reference to the structure of the population.
157
385260
3000
관찰하는 것보다 훨씬 나은 방법입니다.
06:28
And in fact, if you could do that,
158
388260
2000
실제로 그렇게 할 수 있다면
06:30
what you would see is something like this.
159
390260
2000
우리는 이와 비슷한 것을 보게 될 것입니다.
06:32
On the left-hand panel, again, we have the S-shaped curve of adoption.
160
392260
3000
다시 한 번 왼쪽 패널에는 S자 모양의 수용 곡선이 있습니다.
06:35
In the dotted red line, we show
161
395260
2000
빨간색 점선은 무작위로 고른 사람들이
06:37
what the adoption would be in the random people,
162
397260
2000
얼마나 수용할 것인지를 나타내는 곡선이고
06:39
and in the left-hand line, shifted to the left,
163
399260
3000
그 왼쪽으로 이동한 곡선은
06:42
we show what the adoption would be
164
402260
2000
네트워크에 중심적인 개인들이 수용하는
06:44
in the central individuals within the network.
165
404260
2000
경향이 어떤지 보여주죠.
06:46
On the Y-axis is the cumulative instances of contagion,
166
406260
2000
Y축은 누적된 전염병의 발생건수이고
06:48
and on the X-axis is the time.
167
408260
2000
X축은 시간입니다.
06:50
And on the right-hand side, we show the same data,
168
410260
2000
오른쪽 부분도 같은 정보를 보여주는데
06:52
but here with daily incidence.
169
412260
2000
단지 여기에는 매일매일의 발생건수입니다.
06:54
And what we show here is -- like, here --
170
414260
2000
여기서 우리가 보는 것은 --
06:56
very few people are affected, more and more and more and up to here,
171
416260
2000
아주 적은 사람들이 감염됐다가 점점 많은 사람들이 이 지점까지 감염이 되고
06:58
and here's the peak of the epidemic.
172
418260
2000
바로 여기서 전염병은 최고조에 달하죠.
07:00
But shifted to the left is what's occurring in the central individuals.
173
420260
2000
왼쪽으로 이동하면 중심적인 개인에게서 나타나는 현상입니다.
07:02
And this difference in time between the two
174
422260
3000
이 두 곡선 사이의 시간적인 차이가 바로
07:05
is the early detection, the early warning we can get,
175
425260
3000
우리 인간 개체군에게 곧 일어날
07:08
about an impending epidemic
176
428260
2000
전염병에 대해 우리가 얻을 수 있는
07:10
in the human population.
177
430260
2000
조기 발견 혹은 조기 신호가 되는 셈이죠.
07:12
The problem, however,
178
432260
2000
하지만 문제는
07:14
is that mapping human social networks
179
434260
2000
사회적 네트워크를 파악하는 것이
07:16
is not always possible.
180
436260
2000
늘 가능한 것이 아니라는 점입니다.
07:18
It can be expensive, not feasible,
181
438260
2000
이 일은 비용이 많이 들고, 아주 어려우며
07:20
unethical,
182
440260
2000
비윤리적일 수도 있고
07:22
or, frankly, just not possible to do such a thing.
183
442260
3000
단순히 그냥 불가능 합니다.
07:25
So, how can we figure out
184
445260
2000
그럼 실제로 네트워크를 파악하지도 않고
07:27
who the central people are in a network
185
447260
2000
누가 중심적인 인물인지
07:29
without actually mapping the network?
186
449260
3000
어떻게 알 수 있을까요?
07:32
What we came up with
187
452260
2000
우리가 생각해낸 것은
07:34
was an idea to exploit an old fact,
188
454260
2000
사회적 네트워크에 관해 오래 동안 알려진
07:36
or a known fact, about social networks,
189
456260
2000
혹은 그냥 알려진 사실을 이용하는 것인데
07:38
which goes like this:
190
458260
2000
내용은 이런 겁니다:
07:40
Do you know that your friends
191
460260
2000
여러분의 친구들이 여러분들보다
07:42
have more friends than you do?
192
462260
3000
더 많은 친구를 가졌다는 걸 혹시 아세요?
07:45
Your friends have more friends than you do,
193
465260
3000
여러분들의 친구가 여러분들보다 더 친구가 많습니다.
07:48
and this is known as the friendship paradox.
194
468260
2000
이것은 '우정의 역설'로 알려져 있습니다.
07:50
Imagine a very popular person in the social network --
195
470260
2000
사회적 네트워크에서 아주 인기 있는 사람과 --
07:52
like a party host who has hundreds of friends --
196
472260
3000
예를 들어 100명의 친구를 가진 파티 주인과 같은 사람말이죠 --
07:55
and a misanthrope who has just one friend,
197
475260
2000
그리고 친구가 단 한 명인 외톨이를 생각해 보세요.
07:57
and you pick someone at random from the population;
198
477260
3000
그리고 전체 인구에서 무작위로 누군가를 뽑았다고 상상해 보시죠.
08:00
they were much more likely to know the party host.
199
480260
2000
이들은 파티 주인을 알고 있을 가능성이 아주 높습니다.
08:02
And if they nominate the party host as their friend,
200
482260
2000
그들이 만약 파티 주인을 친구로 지목한다면
08:04
that party host has a hundred friends,
201
484260
2000
그 파티의 주인은 100명의 친구를 가진 셈이니
08:06
therefore, has more friends than they do.
202
486260
3000
그들이 가진 친구보다 많은 친구를 가지게 됩니다.
08:09
And this, in essence, is what's known as the friendship paradox.
203
489260
3000
이것이 '우정의 역설'의 핵심입니다.
08:12
The friends of randomly chosen people
204
492260
3000
무작위로 선택된 사람들의 친구는
08:15
have higher degree, and are more central
205
495260
2000
그 사람들보다 높은 차수를 가지고
08:17
than the random people themselves.
206
497260
2000
좀 더 네트워크의 중심적인 인물이 됩니다.
08:19
And you can get an intuitive appreciation for this
207
499260
2000
네트워크 주변의 사람들을 상상해 보시면
08:21
if you imagine just the people at the perimeter of the network.
208
501260
3000
이 사실에 대해 직감적으로 이해하실 수 있을 겁니다.
08:24
If you pick this person,
209
504260
2000
여러분이 이 사람을 뽑으면
08:26
the only friend they have to nominate is this person,
210
506260
3000
지목할 친구는 이 사람 밖에 없는데
08:29
who, by construction, must have at least two
211
509260
2000
이 사람은 구성에 따라 적어도 두 명의 친구가 있는 것이고
08:31
and typically more friends.
212
511260
2000
보통은 더 많은 친구가 있을 겁니다.
08:33
And that happens at every peripheral node.
213
513260
2000
모든 주변부의 점에서 이런 현상이 발생합니다.
08:35
And in fact, it happens throughout the network as you move in,
214
515260
3000
실제로 여러분이 네트워크를 타고 돌아다니면서
08:38
everyone you pick, when they nominate a random --
215
518260
2000
누구를 선택하건 그들이 무작위로 친구를 지목하면 이 현상이 발생합니다.
08:40
when a random person nominates a friend of theirs,
216
520260
3000
무작위로 뽑힌 사람이 그들 중 한 친구를 지명하면
08:43
you move closer to the center of the network.
217
523260
3000
여러분은 좀 더 네트워크의 중앙으로 이동하는 겁니다.
08:46
So, we thought we would exploit this idea
218
526260
3000
그래서 네트워크에서 발생하는 현상을 예측할 수 있을지 연구할 때
08:49
in order to study whether we could predict phenomena within networks.
219
529260
3000
우리는 이 아이디어를 이용해야겠다고 생각했습니다.
08:52
Because now, with this idea
220
532260
2000
왜냐하면 지금 이 아이디어에 따라
08:54
we can take a random sample of people,
221
534260
2000
우리가 무작위로 사람을 선택하고
08:56
have them nominate their friends,
222
536260
2000
그들이 친구를 지명하도록 하면
08:58
those friends would be more central,
223
538260
2000
그 친구들은 좀 더 중심적인 위치를 차지하고
09:00
and we could do this without having to map the network.
224
540260
3000
우리는 네트워크를 파악할 필요없이 이 연구를 할 수 있습니다.
09:03
And we tested this idea with an outbreak of H1N1 flu
225
543260
3000
우리는 이 아이디어를 겨우 몇 달 전
09:06
at Harvard College
226
546260
2000
2009년 가을에서 겨울 사이 하버드 대에서 발생한
09:08
in the fall and winter of 2009, just a few months ago.
227
548260
3000
H1N1 독감에 적용해 보았습니다.
09:11
We took 1,300 randomly selected undergraduates,
228
551260
3000
1,300 명의 대학생을 무작위로 선택
09:14
we had them nominate their friends,
229
554260
2000
그들에게 친구를 지명하도록 한 다음
09:16
and we followed both the random students and their friends
230
556260
2000
무작위로 선택된 학생과 그들의 친구를
09:18
daily in time
231
558260
2000
전염성 독감을 가졌는지 아닌지
09:20
to see whether or not they had the flu epidemic.
232
560260
3000
확인하기 위해 매일 관찰했습니다.
09:23
And we did this passively by looking at whether or not they'd gone to university health services.
233
563260
3000
그들이 대학 건강 서비스 센터에 갔는지를 관찰하는 간접적인 방식을 택했죠.
09:26
And also, we had them [actively] email us a couple of times a week.
234
566260
3000
한편으로 그들이 우리에게 한 주에 2번씩 이메일을 보내도록 했죠.
09:29
Exactly what we predicted happened.
235
569260
3000
정확히 우리가 예상했던 일이 발생했습니다.
09:32
So the random group is in the red line.
236
572260
3000
빨간색 선이 무작위 그룹입니다.
09:35
The epidemic in the friends group has shifted to the left, over here.
237
575260
3000
친구 그룹에서 발생한 전염병은 이곳 왼쪽으로 이동했습니다.
09:38
And the difference in the two is 16 days.
238
578260
3000
그리고 두 그룹의 차이는 16일이었죠.
09:41
By monitoring the friends group,
239
581260
2000
친구 그룹을 관찰함으로써
09:43
we could get 16 days advance warning
240
583260
2000
우리는 전체 인구에 곧 퍼질 전염병을
09:45
of an impending epidemic in this human population.
241
585260
3000
16일이나 앞서 눈치챌 수 있었던 것입니다.
09:48
Now, in addition to that,
242
588260
2000
여기에 덧붙여
09:50
if you were an analyst who was trying to study an epidemic
243
590260
3000
만약 여러분이 전염병을 연구하거나 혹은
09:53
or to predict the adoption of a product, for example,
244
593260
3000
예를 들어 제품의 판매경향을 예측하는 분석가시라면
09:56
what you could do is you could pick a random sample of the population,
245
596260
3000
여러분은 전체 인구에서 무작위로 대상을 선정
09:59
also have them nominate their friends and follow the friends
246
599260
3000
그들이 친구를 지명하도록 하고 그 친구를 따라
10:02
and follow both the randoms and the friends.
247
602260
3000
무작위로 뽑힌 사람과 그가 지명한 친구를 함께 관찰합니다.
10:05
Among the friends, the first evidence you saw of a blip above zero
248
605260
3000
친구들 사이에서 예를 들어 새로운 것를 선택하는 경향이
10:08
in adoption of the innovation, for example,
249
608260
3000
0보다 높게 뛰면 이게 바로
10:11
would be evidence of an impending epidemic.
250
611260
2000
곧 전체 인구로 퍼질 것이라는 증거가 됩니다.
10:13
Or you could see the first time the two curves diverged,
251
613260
3000
혹은 왼쪽에 나타난 것처럼 두 곡선이 갈라지기 시작하는
10:16
as shown on the left.
252
616260
2000
첫 번째 시간에 주목할 수도 있겠죠.
10:18
When did the randoms -- when did the friends take off
253
618260
3000
선택된 친구는 언제 떨어져 나가 무작위로 뽑힌 사람과
10:21
and leave the randoms,
254
621260
2000
차이를 나타낼까요 그리고
10:23
and [when did] their curve start shifting?
255
623260
2000
언제 그들의 커브가 이동할까요?
10:25
And that, as indicated by the white line,
256
625260
2000
그것도 하얀색 선이 나타낸 것처럼
10:27
occurred 46 days
257
627260
2000
전염병이 최고조에 달하기
10:29
before the peak of the epidemic.
258
629260
2000
46일 전이었습니다.
10:31
So this would be a technique
259
631260
2000
그러니까 이 방법은 특정 집단에 퍼질
10:33
whereby we could get more than a month-and-a-half warning
260
633260
2000
전염성 독감을 한 달 반이나 앞서서 눈치챌 수 있는
10:35
about a flu epidemic in a particular population.
261
635260
3000
한 가지 기법인 것입니다.
10:38
I should say that
262
638260
2000
제각 꼭 말씀드리고 싶은 것은 어떤 사항에 대해
10:40
how far advanced a notice one might get about something
263
640260
2000
얼마나 앞서 알아챌 수 있느냐 하는 것이
10:42
depends on a host of factors.
264
642260
2000
여러 가지 요인에 달려 있다는 점입니다.
10:44
It could depend on the nature of the pathogen --
265
644260
2000
이것은 병원균의 특징에도 달려 있어서
10:46
different pathogens,
266
646260
2000
서로 다른 병원균들은 이 기술을 사용해도
10:48
using this technique, you'd get different warning --
267
648260
2000
다른 신호를 포착하게 될 겁니다 --
10:50
or other phenomena that are spreading,
268
650260
2000
혹은 퍼지고 있는 현상 자체에도 달려 있고
10:52
or frankly, on the structure of the human network.
269
652260
3000
솔직히 인간 네트워크의 구조에도 달려 있습니다.
10:55
Now in our case, although it wasn't necessary,
270
655260
3000
우리의 경우 필요하지는 않았지만
10:58
we could also actually map the network of the students.
271
658260
2000
우리는 또한 실제로 학생들 사이의 네트워크를 파악할 수 있었습니다.
11:00
So, this is a map of 714 students
272
660260
2000
이것은 714 명의 학생과
11:02
and their friendship ties.
273
662260
2000
그들의 친구 관계를 나타낸 것입니다.
11:04
And in a minute now, I'm going to put this map into motion.
274
664260
2000
그리고 1분 안에 이 지도는 움직일 겁니다.
11:06
We're going to take daily cuts through the network
275
666260
2000
매일매일의 네트워크 상태를
11:08
for 120 days.
276
668260
2000
120일에 걸쳐 보여드리겠습니다.
11:10
The red dots are going to be cases of the flu,
277
670260
3000
빨간 점은 독감에 걸린 사람이고
11:13
and the yellow dots are going to be friends of the people with the flu.
278
673260
3000
노란 점은 독감에 걸린 사람의 친구들입니다.
11:16
And the size of the dots is going to be proportional
279
676260
2000
점의 크기는 얼마나 많은 친구가
11:18
to how many of their friends have the flu.
280
678260
2000
독감에 걸렸는지를 나타냅니다.
11:20
So bigger dots mean more of your friends have the flu.
281
680260
3000
그래서 큰 점은 더 많은 친구들이 독감에 걸렸음을 나타냅니다.
11:23
And if you look at this image -- here we are now in September the 13th --
282
683260
3000
이 그림을 보시면 -- 이건 9월 13일인데요 --
11:26
you're going to see a few cases light up.
283
686260
2000
여러분은 몇몇 사례가 나타난 것을 알 수 있습니다.
11:28
You're going to see kind of blooming of the flu in the middle.
284
688260
2000
가운데 부분에서 독감이 증가하는 것을 보시게 됩니다.
11:30
Here we are on October the 19th.
285
690260
3000
이건 10월 19일입니다.
11:33
The slope of the epidemic curve is approaching now, in November.
286
693260
2000
11월에는 전염병 곡선에 접근하고 있습니다.
11:35
Bang, bang, bang, bang, bang -- you're going to see lots of blooming in the middle,
287
695260
3000
빵, 빵, 빵, 빵, 빵, 여러분은 가운데 부분에서 많은 감염자가 생겼음을 아시게 됩니다.
11:38
and then you're going to see a sort of leveling off,
288
698260
2000
그리고 12월 말에 가까워 지면서 점차 감염자 수가 줄어
11:40
fewer and fewer cases towards the end of December.
289
700260
3000
곡선이 편평한 상태가 되는 것을 보시게 됩니다.
11:43
And this type of a visualization
290
703260
2000
그리고 이렇게 보여줌으로써
11:45
can show that epidemics like this take root
291
705260
2000
이와 같은 전염병이 다른 사람들에게 영향을 미치기에 앞서
11:47
and affect central individuals first,
292
707260
2000
중심부의 개인을 먼저 감염시켜
11:49
before they affect others.
293
709260
2000
이들로부터 퍼져 나갔음을 알 수 있습니다.
11:51
Now, as I've been suggesting,
294
711260
2000
제가 이제껏 언급한 것처럼
11:53
this method is not restricted to germs,
295
713260
3000
이 방법이 세균에만 국한되지 않고
11:56
but actually to anything that spreads in populations.
296
716260
2000
실제로 집단에서 퍼져 나가는 모든 것에 해당됩니다.
11:58
Information spreads in populations,
297
718260
2000
정보는 집단에 퍼집니다.
12:00
norms can spread in populations,
298
720260
2000
규범 역시 집단에 퍼집니다.
12:02
behaviors can spread in populations.
299
722260
2000
행동방식도 집단에 퍼질 수 있습니다.
12:04
And by behaviors, I can mean things like criminal behavior,
300
724260
3000
여기서 행동방식이라 하면 범죄 행위,
12:07
or voting behavior, or health care behavior,
301
727260
3000
투표 행위 혹은 흡연, 예방접종 등과 같은
12:10
like smoking, or vaccination,
302
730260
2000
건강을 보호하기 위한 행동,
12:12
or product adoption, or other kinds of behaviors
303
732260
2000
제품구매 행위, 혹은 사람과 사람 사이에
12:14
that relate to interpersonal influence.
304
734260
2000
서로 주고 받는 영향에 관계되는 모든 행위가 해당됩니다.
12:16
If I'm likely to do something that affects others around me,
305
736260
3000
제 주변의 다른 이들에게 영향을 주는 어떤 행동을 할 가능성이 있다면
12:19
this technique can get early warning or early detection
306
739260
3000
이 기법을 통해 전체 집단이 그것을 얼마나 빨리 받아들일지
12:22
about the adoption within the population.
307
742260
3000
눈치채거나 미리 알 수 있습니다.
12:25
The key thing is that for it to work,
308
745260
2000
이 기법이 제대로 작동하는데는
12:27
there has to be interpersonal influence.
309
747260
2000
상호간의 영향력이 존재한다는 것이 핵심입니다.
12:29
It cannot be because of some broadcast mechanism
310
749260
2000
모든 이에게 골고루 영향을 미치는
12:31
affecting everyone uniformly.
311
751260
3000
방송과 같은 방식은 이렇게 되지 않습니다.
12:35
Now the same insights
312
755260
2000
네트워크에 관련된 동일한 직관력은
12:37
can also be exploited -- with respect to networks --
313
757260
3000
또한 다른 방식으로
12:40
can also be exploited in other ways,
314
760260
3000
써먹을 수 있습니다.
12:43
for example, in the use of targeting
315
763260
2000
예를 들어 특별한 사람들을 선정해
12:45
specific people for interventions.
316
765260
2000
영향을 미치는 것 등이 되겠군요.
12:47
So, for example, most of you are probably familiar
317
767260
2000
예를 들어 여러분 대부분은 집단 면역이라는
12:49
with the notion of herd immunity.
318
769260
2000
얘기를 들으신 적이 있을 겁니다.
12:51
So, if we have a population of a thousand people,
319
771260
3000
그러니까 천 명이 되는 어떤 집단을
12:54
and we want to make the population immune to a pathogen,
320
774260
3000
어떤 병원균에 대해 면역이 되게 하려면
12:57
we don't have to immunize every single person.
321
777260
2000
우리는 모든 개개인을 면역시킬 필요가 없습니다.
12:59
If we immunize 960 of them,
322
779260
2000
그들 가운데 960명의 사람들만 면역시키면
13:01
it's as if we had immunized a hundred [percent] of them.
323
781260
3000
이것은 우리가 100%를 면역시킨 것과 같게 됩니다.
13:04
Because even if one or two of the non-immune people gets infected,
324
784260
3000
왜냐하면 비록 면역되지 않은 한 두 사람이 감염되어도
13:07
there's no one for them to infect.
325
787260
2000
그들이 감염시킬 사람이 남아 있지 않기 때문이죠.
13:09
They are surrounded by immunized people.
326
789260
2000
그들은 면역된 사람들로 둘러싸여 있습니다.
13:11
So 96 percent is as good as 100 percent.
327
791260
3000
그러니까 96%는 100%나 마찬가지 입니다.
13:14
Well, some other scientists have estimated
328
794260
2000
음, 몇몇 다른 과학자들은 1,000명 가운데
13:16
what would happen if you took a 30 percent random sample
329
796260
2000
무작위로 30%를 선정, 그 300명을 면역시키면
13:18
of these 1000 people, 300 people and immunized them.
330
798260
3000
앞으로 무슨 일이 벌어질까를 예측해 봤습니다.
13:21
Would you get any population-level immunity?
331
801260
2000
전체 집단이 면역된 것처럼 될까요?
13:23
And the answer is no.
332
803260
3000
결과는 아니었습니다.
13:26
But if you took this 30 percent, these 300 people
333
806260
2000
하지만 만약 이 30%, 300명의 사람에게
13:28
and had them nominate their friends
334
808260
2000
친구를 지명하게 하고
13:30
and took the same number of vaccine doses
335
810260
3000
같은 양의 백신으로
13:33
and vaccinated the friends of the 300 --
336
813260
2000
300명이 지목한 300명의 친구들에게
13:35
the 300 friends --
337
815260
2000
예방접종을 한다면,
13:37
you can get the same level of herd immunity
338
817260
2000
여러분은 전체 집단의 96%를 면역시킨 것과 같은 수준의
13:39
as if you had vaccinated 96 percent of the population
339
819260
3000
집단 면역 효과를 거둘 수 있습니다.
13:42
at a much greater efficiency, with a strict budget constraint.
340
822260
3000
훨씬 효율성은 큰 반면에 적은 예산이 들죠.
13:45
And similar ideas can be used, for instance,
341
825260
2000
그리고 비슷한 아이디어는 예를 들어 개발 도상국에
13:47
to target distribution of things like bed nets
342
827260
2000
침대 모기장과 같은 것을 공급할 대상을 선정하는 등의 일에도
13:49
in the developing world.
343
829260
2000
적용할 수 있습니다.
13:51
If we could understand the structure of networks in villages,
344
831260
3000
만약 우리가 마을 내의 네트워크 구조를 이해할 수 있다면
13:54
we could target to whom to give the interventions
345
834260
2000
누구를 선정하면 작업의 효과가 잘 퍼지게 될 것인지
13:56
to foster these kinds of spreads.
346
836260
2000
알 수 있게 되는 것입니다.
13:58
Or, frankly, for advertising with all kinds of products.
347
838260
3000
솔직히 모든 종류의 제품을 광고할 대상을 찾을 때도 쓸 수 있겠죠.
14:01
If we could understand how to target,
348
841260
2000
어떤 사람을 대상으로 할 것인지 이해할 수 있다면
14:03
it could affect the efficiency
349
843260
2000
우리가 하고자 하는 일의 효율은
14:05
of what we're trying to achieve.
350
845260
2000
달라질 것입니다.
14:07
And in fact, we can use data
351
847260
2000
실제로 오늘날 우리는 무궁무진한 방식으로
14:09
from all kinds of sources nowadays [to do this].
352
849260
2000
데이터를 이용할 수 있습니다.
14:11
This is a map of eight million phone users
353
851260
2000
이것은 유럽 국가에 있는 8 백만 명의
14:13
in a European country.
354
853260
2000
휴대전화 사용자를 나타낸 것입니다.
14:15
Every dot is a person, and every line represents
355
855260
2000
모든 점은 사람이고 모든 선은
14:17
a volume of calls between the people.
356
857260
2000
그들 사이의 통화량을 나타냅니다.
14:19
And we can use such data, that's being passively obtained,
357
859260
3000
이렇게 간접적으로 수집된 정보라 할지라도 이를 이용하면
14:22
to map these whole countries
358
862260
2000
전체 국가를 파악하고 네트워크 안에서 누가 어디에 있는지
14:24
and understand who is located where within the network.
359
864260
3000
이해할 수 있습니다.
14:27
Without actually having to query them at all,
360
867260
2000
실제로 그들에게 전혀 질문하지 않고도
14:29
we can get this kind of a structural insight.
361
869260
2000
우리는 이와 같이 직관적으로 구조를 파악하게 됩니다.
14:31
And other sources of information, as you're no doubt aware
362
871260
3000
이렇게 활용할 수 있는 정보 가운데는 누구나 아는 것도 있습니다.
14:34
are available about such features, from email interactions,
363
874260
3000
이메일을 주고 받는 정보라던지
14:37
online interactions,
364
877260
2000
온라인 상에서 이뤄지는 접촉,
14:39
online social networks and so forth.
365
879260
3000
온라인 사회적 네트워크 등이 되겠죠.
14:42
And in fact, we are in the era of what I would call
366
882260
2000
실제로 우리는 제가 "대규모 간접" 정보수집
14:44
"massive-passive" data collection efforts.
367
884260
3000
활동의 시대라 부르는 시대에 들어서 있습니다.
14:47
They're all kinds of ways we can use massively collected data
368
887260
3000
여기에는 대규모로 수집된 정보를 활용해
14:50
to create sensor networks
369
890260
3000
센서 네트워크를 만들고 전체 집단을 추적
14:53
to follow the population,
370
893260
2000
그 안에서 무슨 일이 발생하는지 이해하고
14:55
understand what's happening in the population,
371
895260
2000
더 나은 환경을 조성하기 위해 사용하는
14:57
and intervene in the population for the better.
372
897260
3000
여러 가지 수단까지 모두를 망라합니다.
15:00
Because these new technologies tell us
373
900260
2000
왜냐하면 이런 새로운 기술을 통해 우리는
15:02
not just who is talking to whom,
374
902260
2000
단지 누가 누구에게 이야기 하는지 뿐 아니라
15:04
but where everyone is,
375
904260
2000
다들 어디에 있고
15:06
and what they're thinking based on what they're uploading on the Internet,
376
906260
3000
그들이 인터넷에 업로드 한 것을 바탕으로 무슨 생각을 하는지
15:09
and what they're buying based on their purchases.
377
909260
2000
그들이 이미 구매한 품목을 바탕으로 무엇을 살 것인지 알 수 있기 때문입니다.
15:11
And all this administrative data can be pulled together
378
911260
3000
그리고 이렇게 행정적으로 모은 정보를 한데 가져다가
15:14
and processed to understand human behavior
379
914260
2000
우리가 이전에는 할 수 없던 방법으로 분석해
15:16
in a way we never could before.
380
916260
3000
인간의 행동을 이해할 수 있습니다.
15:19
So, for example, we could use truckers' purchases of fuel.
381
919260
3000
예를 들어 우리는 트럭 운전사가 연료를 구입한 기록을 활용할 수 있습니다.
15:22
So the truckers are just going about their business,
382
922260
2000
트럭 운전사들은 단지 그들의 일을 하며
15:24
and they're buying fuel.
383
924260
2000
연료를 구입합니다.
15:26
And we see a blip up in the truckers' purchases of fuel,
384
926260
3000
트럭 운전사들이 연료를 구입한 양이 갑자기 증가했다면
15:29
and we know that a recession is about to end.
385
929260
2000
경기침체가 끝나간다는 것을 알게 됩니다.
15:31
Or we can monitor the velocity
386
931260
2000
혹은 사람들이 가지고 다니는 핸드폰을 통해
15:33
with which people are moving with their phones on a highway,
387
933260
3000
고속도로에서의 속도를 추적할 수도 있습니다.
15:36
and the phone company can see,
388
936260
2000
핸드폰 회사는 속도가 떨어지는 것을 보고
15:38
as the velocity is slowing down,
389
938260
2000
교통이 혼잡하다는 것을
15:40
that there's a traffic jam.
390
940260
2000
알아챌 수가 있습니다.
15:42
And they can feed that information back to their subscribers,
391
942260
3000
그리고 이 정보를 그 회사 가입자들에게 보낼 수 있겠죠.
15:45
but only to their subscribers on the same highway
392
945260
2000
그것도 같은 고속도로의 교통혼잡 구역
15:47
located behind the traffic jam!
393
947260
2000
뒷편에 있는 가입자들에게만 말이죠.
15:49
Or we can monitor doctors prescribing behaviors, passively,
394
949260
3000
혹은 의사들이 처방하는 방식을 간접적으로 관찰해
15:52
and see how the diffusion of innovation with pharmaceuticals
395
952260
3000
새로운 약물이 의사들 사이에서
15:55
occurs within [networks of] doctors.
396
955260
2000
어떻게 선택되는지 확인할 수 있습니다.
15:57
Or again, we can monitor purchasing behavior in people
397
957260
2000
혹은 다시 한번 사람들의 구매 행동을 관찰
15:59
and watch how these types of phenomena
398
959260
2000
이런 유형의 현상이 인구집단 안에서
16:01
can diffuse within human populations.
399
961260
3000
어떻게 퍼져가는지 관찰할 수 있습니다.
16:04
And there are three ways, I think,
400
964260
2000
제 생각에 대량의 간접적 데이터를 활용하는
16:06
that these massive-passive data can be used.
401
966260
2000
방식에는 세 가지가 있습니다.
16:08
One is fully passive,
402
968260
2000
하나는 제가 설명한 것과 같이
16:10
like I just described --
403
970260
2000
완전히 간접적이 되는 것입니다.
16:12
as in, for instance, the trucker example,
404
972260
2000
아까 예를 들었던 트럭 운전사의 경우와 같이
16:14
where we don't actually intervene in the population in any way.
405
974260
2000
우리가 실제로 대상 집단에 어떤 전혀 개입하지 않는 거죠.
16:16
One is quasi-active,
406
976260
2000
다른 하나는 약간 직접적인 방식으로
16:18
like the flu example I gave,
407
978260
2000
제가 이야기했던 독감의 경우처럼
16:20
where we get some people to nominate their friends
408
980260
3000
우리가 몇몇 사람들에게 그들의 친구를 지명하게 하고
16:23
and then passively monitor their friends --
409
983260
2000
이후 간접적으로 그들의 친구를 관찰하는 것이죠.
16:25
do they have the flu, or not? -- and then get warning.
410
985260
2000
그들이 독감에 걸렸는지 안걸렸는지 -- 그러면서 징후를 포착하게 되는 거죠
16:27
Or another example would be,
411
987260
2000
혹은 다른 예로
16:29
if you're a phone company, you figure out who's central in the network
412
989260
3000
만약 여러분께서 전화 회사에 계신다면 누가 네트워크에 중심적인지 알 것이고
16:32
and you ask those people, "Look, will you just text us your fever every day?
413
992260
3000
그 사람들에게 "매일 그냥 체온을 문자로
16:35
Just text us your temperature."
414
995260
2000
보내 주실 수 있을까요?"라고 부탁하는 겁니다.
16:37
And collect vast amounts of information about people's temperature,
415
997260
3000
그리고 중심부에 위치한 개인들의
16:40
but from centrally located individuals.
416
1000260
2000
체온만 모으는 겁니다.
16:42
And be able, on a large scale,
417
1002260
2000
이렇게 하면 임박한 전염병에 대해
16:44
to monitor an impending epidemic
418
1004260
2000
각 개인이 제공하는 조그마한 정보를
16:46
with very minimal input from people.
419
1006260
2000
대량으로 모아 추적할 수 있는 겁니다.
16:48
Or, finally, it can be more fully active --
420
1008260
2000
혹은 마지막으로 좀 더 완전히 직접적일 수 있습니다 --
16:50
as I know subsequent speakers will also talk about today --
421
1010260
2000
제 뒤의 연설자들께서도 오늘 이에 관해 말씀하시겠지만 --
16:52
where people might globally participate in wikis,
422
1012260
2000
전세계적으로 사람들이 위키나
16:54
or photographing, or monitoring elections,
423
1014260
3000
사진촬영, 선거감시 등에 동참하면서
16:57
and upload information in a way that allows us to pool
424
1017260
2000
정보를 쉽게 수집할 수 있는 방식으로 공유해
16:59
information in order to understand social processes
425
1019260
2000
사회적으로 진행되고 있는 일이나
17:01
and social phenomena.
426
1021260
2000
현상을 이해할 수 있게 되는 것이죠.
17:03
In fact, the availability of these data, I think,
427
1023260
2000
제 생각에는 실제로 이런 정보를 활용할 수 있다는 것 자체가
17:05
heralds a kind of new era
428
1025260
2000
저나 다른 사람들이
17:07
of what I and others would like to call
429
1027260
2000
"계산적 사회과학"이라 부르는
17:09
"computational social science."
430
1029260
2000
새로운 시대가 다가왔음을 의미한다고 봅니다.
17:11
It's sort of like when Galileo invented -- or, didn't invent --
431
1031260
3000
이것은 갈릴레오가 만원경을 발명했을 때 -- 아니지 발명한게 아니죠 --
17:14
came to use a telescope
432
1034260
2000
만원경을 사용하여
17:16
and could see the heavens in a new way,
433
1036260
2000
새로운 방식으로 천체를 바라 본 것
17:18
or Leeuwenhoek became aware of the microscope --
434
1038260
2000
혹은 레벤후크가 현미경을 알게 되었거나 --
17:20
or actually invented --
435
1040260
2000
아니지 실제로 발명했죠 --
17:22
and could see biology in a new way.
436
1042260
2000
새로운 방식으로 생물학을 바라볼 수 있었던 것에 비견된다고 하겠습니다.
17:24
But now we have access to these kinds of data
437
1044260
2000
하지만 이제는 사회적으로 진행되고 있는 일이나
17:26
that allow us to understand social processes
438
1046260
2000
사회적인 현상을 이전에는 가능하지 않았던
17:28
and social phenomena
439
1048260
2000
새로운 기법으로 이해할 수 있게 해 주는
17:30
in an entirely new way that was never before possible.
440
1050260
3000
그런 종류의 정보를 활용할 수 있습니다.
17:33
And with this science, we can
441
1053260
2000
이런 과학을 통해 우리는
17:35
understand how exactly
442
1055260
2000
정확히 어째서 전체가
17:37
the whole comes to be greater
443
1057260
2000
부분을 합한 것보다 더
17:39
than the sum of its parts.
444
1059260
2000
클 수 있는지 이해할 수 있습니다.
17:41
And actually, we can use these insights
445
1061260
2000
실제로 사회를 개선하고 인류의 복지를 향상시키는데
17:43
to improve society and improve human well-being.
446
1063260
3000
우리는 이와 같은 직관력을 이용할 수 있습니다.
17:46
Thank you.
447
1066260
2000
감사합니다.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7