Nicholas Christakis: How social networks predict epidemics

93,295 views ・ 2010-09-16

TED


Please double-click on the English subtitles below to play the video.

Prevodilac: Ivana Korom Lektor: Sandra Gojic
00:15
For the last 10 years, I've been spending my time trying to figure out
0
15260
3000
Последњих 10 година проводим време у покушавању да схватим
00:18
how and why human beings
1
18260
2000
како и зашто се људска бића
00:20
assemble themselves into social networks.
2
20260
3000
окупљају у друштвене мреже.
00:23
And the kind of social network I'm talking about
3
23260
2000
А та врста друштвене мреже о којој причам
00:25
is not the recent online variety,
4
25260
2000
није ова нова интернет врста,
00:27
but rather, the kind of social networks
5
27260
2000
него пре она врста друштвених мрежа
00:29
that human beings have been assembling for hundreds of thousands of years,
6
29260
3000
које људи формирају стотинама хиљада година,
00:32
ever since we emerged from the African savannah.
7
32260
3000
од кад смо се појавили у афричкој пустињи.
00:35
So, I form friendships and co-worker
8
35260
2000
Дакле, ја имам пријатељске и сарадничке
00:37
and sibling and relative relationships with other people
9
37260
3000
и братске и рођачке везе са другим људима
00:40
who in turn have similar relationships with other people.
10
40260
2000
који такође имају сличне везе са другим људима.
00:42
And this spreads on out endlessly into a distance.
11
42260
3000
И ово се бескрајно шири у даљину.
00:45
And you get a network that looks like this.
12
45260
2000
И добијате мрежу која изгледа овако.
00:47
Every dot is a person.
13
47260
2000
Свака тачка је једна особа.
00:49
Every line between them is a relationship between two people --
14
49260
2000
Свака линија је нека веза међу двоје људи -
00:51
different kinds of relationships.
15
51260
2000
различите врсте веза.
00:53
And you can get this kind of vast fabric of humanity,
16
53260
3000
И можете добити овакву тканину човечанства
00:56
in which we're all embedded.
17
56260
2000
у коју смо сви ми уткани.
00:58
And my colleague, James Fowler and I have been studying for quite sometime
18
58260
3000
Мој колега, Џејмс Фаулер и ја, већ дуже време истражујемо
01:01
what are the mathematical, social,
19
61260
2000
каква су математичка, друштвена,
01:03
biological and psychological rules
20
63260
3000
биолошка и психолошка правила
01:06
that govern how these networks are assembled
21
66260
2000
која управљају начином формирања ових веза
01:08
and what are the similar rules
22
68260
2000
и каква су слична правила
01:10
that govern how they operate, how they affect our lives.
23
70260
3000
која управљају њиховим функционисањем и утицајем на наше животе.
01:13
But recently, we've been wondering
24
73260
2000
У последње време се питамо
01:15
whether it might be possible to take advantage of this insight,
25
75260
3000
да ли је могуће искористити овај увид,
01:18
to actually find ways to improve the world,
26
78260
2000
како бисмо нашли начине да побољшамо свет,
01:20
to do something better,
27
80260
2000
учинимо нешто боље,
01:22
to actually fix things, not just understand things.
28
82260
3000
да стварно поправимо ствари, не само да их разумемо.
01:25
So one of the first things we thought we would tackle
29
85260
3000
Једна од првих ствари на којима бисмо радили
01:28
would be how we go about predicting epidemics.
30
88260
3000
била би како бисмо могли да предвиђамо епидемије.
01:31
And the current state of the art in predicting an epidemic --
31
91260
2000
Тренутна уметност предвиђања епидемија -
01:33
if you're the CDC or some other national body --
32
93260
3000
ако припадате Центру за контролу болести или неком другом телу -
01:36
is to sit in the middle where you are
33
96260
2000
састоји се у седењу тамо где јесте
01:38
and collect data
34
98260
2000
и прикупљању података
01:40
from physicians and laboratories in the field
35
100260
2000
од лекара и лабораторија са терена,
01:42
that report the prevalence or the incidence of certain conditions.
36
102260
3000
који пријављују преваленцу и инциденцу одређених стања.
01:45
So, so and so patients have been diagnosed with something,
37
105260
3000
Дакле, толико и толико пацијената има такву дијагнозу овде,
01:48
or other patients have been diagnosed,
38
108260
2000
или неки други имају дијагнозу овде,
01:50
and all these data are fed into a central repository, with some delay.
39
110260
3000
и сви ови подаци сливају се у централно складиште, са кашњењем.
01:53
And if everything goes smoothly,
40
113260
2000
И ако све иде као по лоју,
01:55
one to two weeks from now
41
115260
2000
за недељу до две од сада,
01:57
you'll know where the epidemic was today.
42
117260
3000
знаћете где је епидемија била на данашњи дан.
02:00
And actually, about a year or so ago,
43
120260
2000
И уствари, пре неких годину дана
02:02
there was this promulgation
44
122260
2000
објављена је идеја
02:04
of the idea of Google Flu Trends, with respect to the flu,
45
124260
3000
о "Google Flu Trends", о грипу,
02:07
where by looking at people's searching behavior today,
46
127260
3000
где, пратећи шта људи претражују данас,
02:10
we could know where the flu --
47
130260
2000
могли бисмо знати где грип...
02:12
what the status of the epidemic was today,
48
132260
2000
какав је данас статус епидемије,
02:14
what's the prevalence of the epidemic today.
49
134260
3000
каква је данас преваленца епидемије.
02:17
But what I'd like to show you today
50
137260
2000
Али данас желим да вам покажем
02:19
is a means by which we might get
51
139260
2000
средство помоћу којег можемо добити
02:21
not just rapid warning about an epidemic,
52
141260
3000
не само брзо упозорење о епидемији,
02:24
but also actually
53
144260
2000
него и заправо
02:26
early detection of an epidemic.
54
146260
2000
рано откривање епидемије.
02:28
And, in fact, this idea can be used
55
148260
2000
Уствари, ова идеја се може користити
02:30
not just to predict epidemics of germs,
56
150260
3000
не само за предикцију епидемије болести,
02:33
but also to predict epidemics of all sorts of kinds.
57
153260
3000
него за предикцију свакаквих других ствари.
02:37
For example, anything that spreads by a form of social contagion
58
157260
3000
На пример, све што се шири у облику друштвене заразе
02:40
could be understood in this way,
59
160260
2000
може се посматрати на овај начин,
02:42
from abstract ideas on the left
60
162260
2000
од апстрактних идеја с леве стране,
02:44
like patriotism, or altruism, or religion
61
164260
3000
као што су патриотизам, алтруизам, религија
02:47
to practices
62
167260
2000
до понашања,
02:49
like dieting behavior, or book purchasing,
63
169260
2000
као што су дијете, куповина књига,
02:51
or drinking, or bicycle-helmet [and] other safety practices,
64
171260
3000
или пијење, ношење кациге и друге безбедносне мере,
02:54
or products that people might buy,
65
174260
2000
или производи које људи купују,
02:56
purchases of electronic goods,
66
176260
2000
куповина електричних уређаја,
02:58
anything in which there's kind of an interpersonal spread.
67
178260
3000
било шта где постоји интерперсонално ширење.
03:01
A kind of a diffusion of innovation
68
181260
2000
Нека врста распростирања иновација
03:03
could be understood and predicted
69
183260
2000
може се разумети и предвидети
03:05
by the mechanism I'm going to show you now.
70
185260
3000
механизмом који ћу вам сада показати.
03:08
So, as all of you probably know,
71
188260
2000
Дакле, као што сви вероватно знате,
03:10
the classic way of thinking about this
72
190260
2000
стари начин гледања на ово
03:12
is the diffusion-of-innovation,
73
192260
2000
је расипање-иновација
03:14
or the adoption curve.
74
194260
2000
или крива усвајања.
03:16
So here on the Y-axis, we have the percent of the people affected,
75
196260
2000
Овде на Y оси имамо проценат заражених људи,
03:18
and on the X-axis, we have time.
76
198260
2000
а на Х оси имамо време.
03:20
And at the very beginning, not too many people are affected,
77
200260
3000
На самом почетку није много људи заражено,
03:23
and you get this classic sigmoidal,
78
203260
2000
и добијамо ову класичну сигмоидалну,
03:25
or S-shaped, curve.
79
205260
2000
или S кривуљу.
03:27
And the reason for this shape is that at the very beginning,
80
207260
2000
А разлог за овај облик је да је на самом почетку,
03:29
let's say one or two people
81
209260
2000
рецимо једно или двоје људи
03:31
are infected, or affected by the thing
82
211260
2000
заражено, инфицирано, том ствари
03:33
and then they affect, or infect, two people,
83
213260
2000
и онда они заразе или инфицирају двоје људи,
03:35
who in turn affect four, eight, 16 and so forth,
84
215260
3000
који потом заразе четворо, осморо, 16 итд,
03:38
and you get the epidemic growth phase of the curve.
85
218260
3000
и добијете фазу раста епидемије на кривуљи.
03:41
And eventually, you saturate the population.
86
221260
2000
И коначно, дође до засићења популације.
03:43
There are fewer and fewer people
87
223260
2000
Све је мање и мање људи
03:45
who are still available that you might infect,
88
225260
2000
које још можете да заразите,
03:47
and then you get the plateau of the curve,
89
227260
2000
и онда долазимо до платоа кривуље,
03:49
and you get this classic sigmoidal curve.
90
229260
3000
и имамо класичну S кривуљу.
03:52
And this holds for germs, ideas,
91
232260
2000
Ово важи за бациле, идеје,
03:54
product adoption, behaviors,
92
234260
2000
прихватање производа, понашања,
03:56
and the like.
93
236260
2000
и слично.
03:58
But things don't just diffuse in human populations at random.
94
238260
3000
Али ствари се не расипају међу људима случајно.
04:01
They actually diffuse through networks.
95
241260
2000
Оне се уствари шире мрежама.
04:03
Because, as I said, we live our lives in networks,
96
243260
3000
Јер, како сам рекао, живимо животе у мрежама,
04:06
and these networks have a particular kind of a structure.
97
246260
3000
а оне имају посебну врсту структуре.
04:09
Now if you look at a network like this --
98
249260
2000
Када погледате једну овакву мрежу...
04:11
this is 105 people.
99
251260
2000
Овде има 105 људи.
04:13
And the lines represent -- the dots are the people,
100
253260
2000
Линије представњају... тачке су људи,
04:15
and the lines represent friendship relationships.
101
255260
2000
а линије представљају пријатељске везе.
04:17
You might see that people occupy
102
257260
2000
Можете видети да људи заузимају
04:19
different locations within the network.
103
259260
2000
различита места унутар мреже.
04:21
And there are different kinds of relationships between the people.
104
261260
2000
И постоје различите везе међу људима.
04:23
You could have friendship relationships, sibling relationships,
105
263260
3000
Имате пријатељске везе, братске,
04:26
spousal relationships, co-worker relationships,
106
266260
3000
супружничке, сарадничке,
04:29
neighbor relationships and the like.
107
269260
3000
комшијске и сличне.
04:32
And different sorts of things
108
272260
2000
И различите ствари
04:34
spread across different sorts of ties.
109
274260
2000
се шире различитим везама.
04:36
For instance, sexually transmitted diseases
110
276260
2000
На пример, сексуално преносиве болести
04:38
will spread across sexual ties.
111
278260
2000
шириће се сексуалним везама.
04:40
Or, for instance, people's smoking behavior
112
280260
2000
Или, на пример, пушачко понашање
04:42
might be influenced by their friends.
113
282260
2000
је можда под утицајем пријатеља.
04:44
Or their altruistic or their charitable giving behavior
114
284260
2000
Или на алтруистично или добротворно понашање
04:46
might be influenced by their coworkers,
115
286260
2000
можда утичу колеге
04:48
or by their neighbors.
116
288260
2000
или суседи.
04:50
But not all positions in the network are the same.
117
290260
3000
Али нису све позиције у мрежи исте.
04:53
So if you look at this, you might immediately grasp
118
293260
2000
Када погледате ово, можда одмах можете схватити
04:55
that different people have different numbers of connections.
119
295260
3000
да различити људи имају различит број веза.
04:58
Some people have one connection, some have two,
120
298260
2000
Неки имају једну везу, неки две,
05:00
some have six, some have 10 connections.
121
300260
3000
неки шест, неки имају десет.
05:03
And this is called the "degree" of a node,
122
303260
2000
Ово се зове "степен" чвора,
05:05
or the number of connections that a node has.
123
305260
2000
или број повезаности које неки чвор има.
05:07
But in addition, there's something else.
124
307260
2000
Али, има још нешто поред тога.
05:09
So, if you look at nodes A and B,
125
309260
2000
Дакле, ако погледате чвор А и Б,
05:11
they both have six connections.
126
311260
2000
оба имају по шест веза.
05:13
But if you can see this image [of the network] from a bird's eye view,
127
313260
3000
Али ако можете да видите ову слику мреже из птичије перспективе,
05:16
you can appreciate that there's something very different
128
316260
2000
примећујете да има много разлике
05:18
about nodes A and B.
129
318260
2000
међу чворовима А и Б.
05:20
So, let me ask you this -- I can cultivate this intuition by asking a question --
130
320260
3000
Питам вас - могу покренути ово размишљање питањем -
05:23
who would you rather be
131
323260
2000
ко бисте радије били,
05:25
if a deadly germ was spreading through the network, A or B?
132
325260
3000
да се смртоносни бацил шири мрежом, А или Б?
05:28
(Audience: B.) Nicholas Christakis: B, it's obvious.
133
328260
2000
(Публика: Б) Николас Кристакис: Б, очигледно.
05:30
B is located on the edge of the network.
134
330260
2000
Б се налази на ивици мреже.
05:32
Now, who would you rather be
135
332260
2000
А сада, ко бисте радије били,
05:34
if a juicy piece of gossip were spreading through the network?
136
334260
3000
да се неки сочни трач шири мрежом?
05:37
A. And you have an immediate appreciation
137
337260
3000
А. И одмах схватате
05:40
that A is going to be more likely
138
340260
2000
да је вероватније да ће А,
05:42
to get the thing that's spreading and to get it sooner
139
342260
3000
због своје структурне позиције у мрежи,
05:45
by virtue of their structural location within the network.
140
345260
3000
пре добити ту ствар која се њоме шири.
05:48
A, in fact, is more central,
141
348260
2000
А је уствари централнији,
05:50
and this can be formalized mathematically.
142
350260
3000
и то се може и математички приказати.
05:53
So, if we want to track something
143
353260
2000
Дакле, ако желимо да пратимо нешто
05:55
that was spreading through a network,
144
355260
3000
што се шири мрежом,
05:58
what we ideally would like to do is to set up sensors
145
358260
2000
заправо желимо да поставимо сензоре
06:00
on the central individuals within the network,
146
360260
2000
на централне поједнице у мрежи,
06:02
including node A,
147
362260
2000
укључујући чвор А,
06:04
monitor those people that are right there in the middle of the network,
148
364260
3000
да посматрамо те људе који се налазе усред мреже
06:07
and somehow get an early detection
149
367260
2000
и некако рано откријемо
06:09
of whatever it is that is spreading through the network.
150
369260
3000
шта год да је то што се шири мрежом.
06:12
So if you saw them contract a germ or a piece of information,
151
372260
3000
То јест, ако их видите да се заразе бацилом или неком информацијом,
06:15
you would know that, soon enough,
152
375260
2000
знаћете да ће, ускоро,
06:17
everybody was about to contract this germ
153
377260
2000
сви да се заразе тим бацилом
06:19
or this piece of information.
154
379260
2000
или том информацијом.
06:21
And this would be much better
155
381260
2000
Ово би било много боље
06:23
than monitoring six randomly chosen people,
156
383260
2000
него посматрање шесторо насумичних људи,
06:25
without reference to the structure of the population.
157
385260
3000
без знања о структури популације.
06:28
And in fact, if you could do that,
158
388260
2000
Уствари, кад бисте то могли,
06:30
what you would see is something like this.
159
390260
2000
добили бисте нешто што изгледа као ово.
06:32
On the left-hand panel, again, we have the S-shaped curve of adoption.
160
392260
3000
С леве стране опет имамо Ѕ кривуљу прихватања.
06:35
In the dotted red line, we show
161
395260
2000
Црвеном истачканом линијом приказано је
06:37
what the adoption would be in the random people,
162
397260
2000
како би то ширење изгледало у насумичној популацији,
06:39
and in the left-hand line, shifted to the left,
163
399260
3000
и на левој страни, померено улево,
06:42
we show what the adoption would be
164
402260
2000
приказано је како би изгледало
06:44
in the central individuals within the network.
165
404260
2000
међу централним појединцима у оквиру мреже.
06:46
On the Y-axis is the cumulative instances of contagion,
166
406260
2000
На Y оси је кумулативни случај заразе,
06:48
and on the X-axis is the time.
167
408260
2000
а на Х оси је време.
06:50
And on the right-hand side, we show the same data,
168
410260
2000
А са десне стране приказани су исти подаци,
06:52
but here with daily incidence.
169
412260
2000
али овде са дневном инциденцом.
06:54
And what we show here is -- like, here --
170
414260
2000
Овде је приказано да је
06:56
very few people are affected, more and more and more and up to here,
171
416260
2000
само неколико људи инфицирано, све више довде,
06:58
and here's the peak of the epidemic.
172
418260
2000
а овде је врхунац епидемије.
07:00
But shifted to the left is what's occurring in the central individuals.
173
420260
2000
Али с леве стране је оно што се догађа централним појединцима.
07:02
And this difference in time between the two
174
422260
3000
Та разлика у времену између ова два
07:05
is the early detection, the early warning we can get,
175
425260
3000
је то рано откривање, рано упозорење које можемо добити,
07:08
about an impending epidemic
176
428260
2000
о предстојећој епидемији
07:10
in the human population.
177
430260
2000
у људској популацији.
07:12
The problem, however,
178
432260
2000
Међутим, проблем је
07:14
is that mapping human social networks
179
434260
2000
што мапирање људских друштвених мрежа
07:16
is not always possible.
180
436260
2000
није увек могуће.
07:18
It can be expensive, not feasible,
181
438260
2000
Може бити скупо, веома тешко,
07:20
unethical,
182
440260
2000
неетичко,
07:22
or, frankly, just not possible to do such a thing.
183
442260
3000
или, искрено, само немогуће да се тако нешто уради.
07:25
So, how can we figure out
184
445260
2000
Дакле, како можемо утврдити
07:27
who the central people are in a network
185
447260
2000
ко су централни појединци у некој мрежи
07:29
without actually mapping the network?
186
449260
3000
а да не мапирамо ту мрежу?
07:32
What we came up with
187
452260
2000
Дошли смо на идеју
07:34
was an idea to exploit an old fact,
188
454260
2000
да истражимо стару чињеницу,
07:36
or a known fact, about social networks,
189
456260
2000
или познату чињеницу, о друштвеним мрежама,
07:38
which goes like this:
190
458260
2000
која је следећа:
07:40
Do you know that your friends
191
460260
2000
Да ли знате да ваши пријатељи
07:42
have more friends than you do?
192
462260
3000
имају више пријатеља него ви?
07:45
Your friends have more friends than you do,
193
465260
3000
Ваши пријатељи имају више пријатеља него ви.
07:48
and this is known as the friendship paradox.
194
468260
2000
Ово је познато као парадокс пријатељства.
07:50
Imagine a very popular person in the social network --
195
470260
2000
Замислите веома популарну особу у друштвеној мрежи -
07:52
like a party host who has hundreds of friends --
196
472260
3000
на пример домаћина забаве који има стотине пријатеља -
07:55
and a misanthrope who has just one friend,
197
475260
2000
и мизантропа који има само једног пријатеља,
07:57
and you pick someone at random from the population;
198
477260
3000
и изаберете насумично неког из популације;
08:00
they were much more likely to know the party host.
199
480260
2000
та особа ће вероватније познавати тог домаћина забаве.
08:02
And if they nominate the party host as their friend,
200
482260
2000
И ако означе да им је домаћин пријатељ,
08:04
that party host has a hundred friends,
201
484260
2000
тај домаћин има стотине пријатеља,
08:06
therefore, has more friends than they do.
202
486260
3000
и на тај начин има више пријатеља него они.
08:09
And this, in essence, is what's known as the friendship paradox.
203
489260
3000
Ово је, у суштини, познато као парадокс пријатељства.
08:12
The friends of randomly chosen people
204
492260
3000
Пријатељи насумично одабраних људи
08:15
have higher degree, and are more central
205
495260
2000
имају виши степен и централнији су,
08:17
than the random people themselves.
206
497260
2000
него сами ти насумични људи.
08:19
And you can get an intuitive appreciation for this
207
499260
2000
Можете интуитивно схватити ово,
08:21
if you imagine just the people at the perimeter of the network.
208
501260
3000
ако замислите само људе на ивицама мреже.
08:24
If you pick this person,
209
504260
2000
Ако одаберете ову особу,
08:26
the only friend they have to nominate is this person,
210
506260
3000
једини пријатељ кога могу да наведу је ова особа,
08:29
who, by construction, must have at least two
211
509260
2000
која, по конструкцији, мора имати барем два,
08:31
and typically more friends.
212
511260
2000
а заправо и више, пријатеља.
08:33
And that happens at every peripheral node.
213
513260
2000
И то се дешава са сваким периферним чвором.
08:35
And in fact, it happens throughout the network as you move in,
214
515260
3000
Уствари, дешава се кроз мрежу, како пролазите њоме,
08:38
everyone you pick, when they nominate a random --
215
518260
2000
свако кога изаберете, када они одаберу неког...
08:40
when a random person nominates a friend of theirs,
216
520260
3000
када насумична особа наведе једног свог пријатеља,
08:43
you move closer to the center of the network.
217
523260
3000
приближавате се центру мреже.
08:46
So, we thought we would exploit this idea
218
526260
3000
Ми смо мислили да истражимо ову идеју
08:49
in order to study whether we could predict phenomena within networks.
219
529260
3000
како бисмо видели можемо ли да предвидимо феномене унутар мрежа.
08:52
Because now, with this idea
220
532260
2000
Јер сада, са овом идејом,
08:54
we can take a random sample of people,
221
534260
2000
можемо узети насумични узорак људи,
08:56
have them nominate their friends,
222
536260
2000
тражити да наведу своје пријатеље,
08:58
those friends would be more central,
223
538260
2000
ти пријатељи ће бити централнији
09:00
and we could do this without having to map the network.
224
540260
3000
и то бисмо урадили без мапирања мреже.
09:03
And we tested this idea with an outbreak of H1N1 flu
225
543260
3000
Ову идеју тестирали смо са епидемијом H1N1 грипа,
09:06
at Harvard College
226
546260
2000
на Харварду
09:08
in the fall and winter of 2009, just a few months ago.
227
548260
3000
у јесен и зиму 2009., пре само неколико месеци.
09:11
We took 1,300 randomly selected undergraduates,
228
551260
3000
Узели смо 1300 насумично одабраних студената,
09:14
we had them nominate their friends,
229
554260
2000
замолили их да наведу своје пријатеље,
09:16
and we followed both the random students and their friends
230
556260
2000
и пратили смо и насумичне студенте и њихове пријатеље
09:18
daily in time
231
558260
2000
дневно у одређено време,
09:20
to see whether or not they had the flu epidemic.
232
560260
3000
да видимо да ли су заражени или не.
09:23
And we did this passively by looking at whether or not they'd gone to university health services.
233
563260
3000
То смо чинили пасивно, посматрајући да ли иду у студентске амбуланте.
09:26
And also, we had them [actively] email us a couple of times a week.
234
566260
3000
Такође су нам они слали мејлове неколико пута недељно.
09:29
Exactly what we predicted happened.
235
569260
3000
Десило се управо оно што смо предвидели.
09:32
So the random group is in the red line.
236
572260
3000
Црвена линија представља насумичну групу.
09:35
The epidemic in the friends group has shifted to the left, over here.
237
575260
3000
Епидемија међу пријатељима померила се улево, овде.
09:38
And the difference in the two is 16 days.
238
578260
3000
А разлика између две групе је 16 дана.
09:41
By monitoring the friends group,
239
581260
2000
Посматрајући групу пријатеља,
09:43
we could get 16 days advance warning
240
583260
2000
могли смо да добијемо упозорење о
09:45
of an impending epidemic in this human population.
241
585260
3000
долазећој епидемији у овој популацији 16 дана унапред.
09:48
Now, in addition to that,
242
588260
2000
Сад, поврх тога,
09:50
if you were an analyst who was trying to study an epidemic
243
590260
3000
ако сте аналитичар који покушава да проучи епидемију
09:53
or to predict the adoption of a product, for example,
244
593260
3000
или предвиди усвајање неког производа на пример,
09:56
what you could do is you could pick a random sample of the population,
245
596260
3000
могли бисте узети насумичан узорак из популације,
09:59
also have them nominate their friends and follow the friends
246
599260
3000
такође тражити да именују своје пријатеље и пратити пријатеље,
10:02
and follow both the randoms and the friends.
247
602260
3000
и пратити и пријатеље и насумичну групу.
10:05
Among the friends, the first evidence you saw of a blip above zero
248
605260
3000
Међу пријатељима, први доказ пораста изнад нуле
10:08
in adoption of the innovation, for example,
249
608260
3000
у прихватању неке иновације, не пример,
10:11
would be evidence of an impending epidemic.
250
611260
2000
био би доказ предстојеће епидемије.
10:13
Or you could see the first time the two curves diverged,
251
613260
3000
Или бисте први пут видели да се две кривуље разилазе,
10:16
as shown on the left.
252
616260
2000
као што је приказано с леве стране.
10:18
When did the randoms -- when did the friends take off
253
618260
3000
Када су пријатељи отишли
10:21
and leave the randoms,
254
621260
2000
и оставили насумичне,
10:23
and [when did] their curve start shifting?
255
623260
2000
а њихова кривуља почела да се мења?
10:25
And that, as indicated by the white line,
256
625260
2000
То се, као што показује бела линија,
10:27
occurred 46 days
257
627260
2000
десило 46 дана
10:29
before the peak of the epidemic.
258
629260
2000
пре врхунца епидемије.
10:31
So this would be a technique
259
631260
2000
Дакле ово би била техника
10:33
whereby we could get more than a month-and-a-half warning
260
633260
2000
којом бисмо више од месец ипо дана унапред добили
10:35
about a flu epidemic in a particular population.
261
635260
3000
упозорење о епидемији грипа у некој популацији.
10:38
I should say that
262
638260
2000
Морам да кажем да,
10:40
how far advanced a notice one might get about something
263
640260
2000
добијање раног упозорења о нечему
10:42
depends on a host of factors.
264
642260
2000
зависи од сијасет фактора.
10:44
It could depend on the nature of the pathogen --
265
644260
2000
Може зависити од природе патогена -
10:46
different pathogens,
266
646260
2000
различитих патогена,
10:48
using this technique, you'd get different warning --
267
648260
2000
коришћењем ове технике добили бисте разна упозорења -
10:50
or other phenomena that are spreading,
268
650260
2000
или других феномена који се шире,
10:52
or frankly, on the structure of the human network.
269
652260
3000
или, заправо од структуре мреже.
10:55
Now in our case, although it wasn't necessary,
270
655260
3000
Сада, у нашем случају, иако није било потребно,
10:58
we could also actually map the network of the students.
271
658260
2000
могли смо такође да мапирамо мрежу студената.
11:00
So, this is a map of 714 students
272
660260
2000
Дакле, ово је мапа 714 студената
11:02
and their friendship ties.
273
662260
2000
и њихових пријатељских веза.
11:04
And in a minute now, I'm going to put this map into motion.
274
664260
2000
За тренутак ћу покренути ову мапу.
11:06
We're going to take daily cuts through the network
275
666260
2000
Направићемо дневни преглед кроз мрежу
11:08
for 120 days.
276
668260
2000
у трајању од 120 дана.
11:10
The red dots are going to be cases of the flu,
277
670260
3000
Црвене тачке ће бити случајеви грипа,
11:13
and the yellow dots are going to be friends of the people with the flu.
278
673260
3000
а жуте тачке ће бити пријатељи људи са грипом.
11:16
And the size of the dots is going to be proportional
279
676260
2000
А величина тачака биће пропорционална
11:18
to how many of their friends have the flu.
280
678260
2000
броју пријатеља који имају грип.
11:20
So bigger dots mean more of your friends have the flu.
281
680260
3000
Веће тачке значе да више ваших пријатеља има грип.
11:23
And if you look at this image -- here we are now in September the 13th --
282
683260
3000
Ако погледате ову слику - сада смо у 13. септемрбу -
11:26
you're going to see a few cases light up.
283
686260
2000
видећете да се појављује неколико случајева.
11:28
You're going to see kind of blooming of the flu in the middle.
284
688260
2000
Видећете неку врста процвата грипа у средини.
11:30
Here we are on October the 19th.
285
690260
3000
Овде смо у 19. октобру.
11:33
The slope of the epidemic curve is approaching now, in November.
286
693260
2000
Нагиб епидемије се приближава сад, у новембру.
11:35
Bang, bang, bang, bang, bang -- you're going to see lots of blooming in the middle,
287
695260
3000
Бенг, бенг, бенг, бенг, бенг, видећете много процвата у средини,
11:38
and then you're going to see a sort of leveling off,
288
698260
2000
и онда ћете видети заравњење,
11:40
fewer and fewer cases towards the end of December.
289
700260
3000
све мање и мање случајева до краја децембра.
11:43
And this type of a visualization
290
703260
2000
Ова врста визуализације
11:45
can show that epidemics like this take root
291
705260
2000
приказује да се овакве епидемије јављају
11:47
and affect central individuals first,
292
707260
2000
и утичу прво на централне појединце,
11:49
before they affect others.
293
709260
2000
пре него што погоде друге.
11:51
Now, as I've been suggesting,
294
711260
2000
Сад, као што сам рекао,
11:53
this method is not restricted to germs,
295
713260
3000
овај метод није ограничен на бациле,
11:56
but actually to anything that spreads in populations.
296
716260
2000
него на било шта што се шири у популацијама.
11:58
Information spreads in populations,
297
718260
2000
Информације се шире у популацијама.
12:00
norms can spread in populations,
298
720260
2000
Норме могу да се шире.
12:02
behaviors can spread in populations.
299
722260
2000
Понашања могу да се шире.
12:04
And by behaviors, I can mean things like criminal behavior,
300
724260
3000
Под тиме мислим на криминална понашања,
12:07
or voting behavior, or health care behavior,
301
727260
3000
или гласање, брига о здравственом стању,
12:10
like smoking, or vaccination,
302
730260
2000
као што је пушење, вакцинација,
12:12
or product adoption, or other kinds of behaviors
303
732260
2000
или прихватање неког производа, или друге врсте понашања
12:14
that relate to interpersonal influence.
304
734260
2000
које имају везе са интерперсоналним утицајем.
12:16
If I'm likely to do something that affects others around me,
305
736260
3000
Ако ћу ја урадити нешто што утиче на људе око мене,
12:19
this technique can get early warning or early detection
306
739260
3000
ова техника може дати рано упозорење, рано откривање,
12:22
about the adoption within the population.
307
742260
3000
прихватања у популацији.
12:25
The key thing is that for it to work,
308
745260
2000
Кључна ствар је, да би функционисало,
12:27
there has to be interpersonal influence.
309
747260
2000
неопходно је да постоји интерперсонални утицај.
12:29
It cannot be because of some broadcast mechanism
310
749260
2000
Не дешава се тако што неки механизам емитовања
12:31
affecting everyone uniformly.
311
751260
3000
утиче на све једнако.
12:35
Now the same insights
312
755260
2000
Исти ови налази
12:37
can also be exploited -- with respect to networks --
313
757260
3000
могу се користити - који се односе на мреже -
12:40
can also be exploited in other ways,
314
760260
3000
могу се користити и на друге начине,
12:43
for example, in the use of targeting
315
763260
2000
на пример, у корист циљања на
12:45
specific people for interventions.
316
765260
2000
одређене људе за интервенције.
12:47
So, for example, most of you are probably familiar
317
767260
2000
На пример, већина вас је вероватно упозната
12:49
with the notion of herd immunity.
318
769260
2000
са идејом "имунитета стада".
12:51
So, if we have a population of a thousand people,
319
771260
3000
дакле, имамо популацију од хиљаду људи,
12:54
and we want to make the population immune to a pathogen,
320
774260
3000
и желимо да је учинимо имуном на неки патоген,
12:57
we don't have to immunize every single person.
321
777260
2000
не морамо да вакцинишемо сваку поједину особу.
12:59
If we immunize 960 of them,
322
779260
2000
Ако имунизирамо њих 960,
13:01
it's as if we had immunized a hundred [percent] of them.
323
781260
3000
то је као да смо имунизирали 100 посто.
13:04
Because even if one or two of the non-immune people gets infected,
324
784260
3000
Јер чак иако се један или двоје од неимунизираних зарази,
13:07
there's no one for them to infect.
325
787260
2000
нема никога коме би пренели.
13:09
They are surrounded by immunized people.
326
789260
2000
Окружени су имунизованим људима.
13:11
So 96 percent is as good as 100 percent.
327
791260
3000
Дакле, 96% је једнако добро као и 100%.
13:14
Well, some other scientists have estimated
328
794260
2000
Па, неки други научници су проценили
13:16
what would happen if you took a 30 percent random sample
329
796260
2000
шта би се догодило кад бисте узели 30% насумичног узорка
13:18
of these 1000 people, 300 people and immunized them.
330
798260
3000
од ових 1000 људи, њих 300 и имунизовали их.
13:21
Would you get any population-level immunity?
331
801260
2000
Да ли бисте добили имунитет на нивоу популације?
13:23
And the answer is no.
332
803260
3000
Одговор је не.
13:26
But if you took this 30 percent, these 300 people
333
806260
2000
Али ако узмете тих 30%, тих 300 људи,
13:28
and had them nominate their friends
334
808260
2000
и тражите да наведу своје пријатеље
13:30
and took the same number of vaccine doses
335
810260
3000
и узмете исти број доза вакцина,
13:33
and vaccinated the friends of the 300 --
336
813260
2000
и вакцинишете пријатеље од тих 300 људи,
13:35
the 300 friends --
337
815260
2000
300 пријатеља,
13:37
you can get the same level of herd immunity
338
817260
2000
можете добити исти ниво "имунитета стада"
13:39
as if you had vaccinated 96 percent of the population
339
819260
3000
као да сте вакцинисали 96% популације,
13:42
at a much greater efficiency, with a strict budget constraint.
340
822260
3000
са много већом ефикасношћу и ограниченим буџетом.
13:45
And similar ideas can be used, for instance,
341
825260
2000
Сличне идеје се могу користити, на пример,
13:47
to target distribution of things like bed nets
342
827260
2000
за циљање дистрибуције ствари као што су балдахини
13:49
in the developing world.
343
829260
2000
у земљама у развоју.
13:51
If we could understand the structure of networks in villages,
344
831260
3000
Кад бисмо разумели структуру мрежа у селима,
13:54
we could target to whom to give the interventions
345
834260
2000
могли бисмо одредити на коме треба интервенисати
13:56
to foster these kinds of spreads.
346
836260
2000
да бисмо покренули ова ширења.
13:58
Or, frankly, for advertising with all kinds of products.
347
838260
3000
Или за рекламирање свих врста производа.
14:01
If we could understand how to target,
348
841260
2000
Кад бисмо разумели како да циљамо,
14:03
it could affect the efficiency
349
843260
2000
то би утицало на ефикасност
14:05
of what we're trying to achieve.
350
845260
2000
онога што желимо да постигнемо.
14:07
And in fact, we can use data
351
847260
2000
Данас за ово можемо да користимо
14:09
from all kinds of sources nowadays [to do this].
352
849260
2000
податке из свакаквих извора.
14:11
This is a map of eight million phone users
353
851260
2000
Ово је мапа осам милиона корисника телефона
14:13
in a European country.
354
853260
2000
у једној европској земљи.
14:15
Every dot is a person, and every line represents
355
855260
2000
Свака тачка је једна особа, а свака линија представља
14:17
a volume of calls between the people.
356
857260
2000
количину позива међу људима.
14:19
And we can use such data, that's being passively obtained,
357
859260
3000
Можемо користити такве податке, који се пасивно скупљају,
14:22
to map these whole countries
358
862260
2000
да мапирамо читаве земље
14:24
and understand who is located where within the network.
359
864260
3000
и разумемо ко је где лоциран у мрежи.
14:27
Without actually having to query them at all,
360
867260
2000
Не бисмо морали ни да их испитујемо,
14:29
we can get this kind of a structural insight.
361
869260
2000
а добили бисмо увид у структуру.
14:31
And other sources of information, as you're no doubt aware
362
871260
3000
И друге врсте информација су, као што знате,
14:34
are available about such features, from email interactions,
363
874260
3000
доступне о тим особинама, као комуницирање мејловима,
14:37
online interactions,
364
877260
2000
интеракције на интернету,
14:39
online social networks and so forth.
365
879260
3000
друштвене мреже на интернету, итд.
14:42
And in fact, we are in the era of what I would call
366
882260
2000
Уствари, налазимо се у ери коју зовем
14:44
"massive-passive" data collection efforts.
367
884260
3000
"масовно-пасивно" прикупљање података.
14:47
They're all kinds of ways we can use massively collected data
368
887260
3000
Постоје многи начини да искористимо масовно прикупљене податке
14:50
to create sensor networks
369
890260
3000
да бисмо створили мреже сензоре
14:53
to follow the population,
370
893260
2000
пратили популацију,
14:55
understand what's happening in the population,
371
895260
2000
разумели шта се дешава у популацији,
14:57
and intervene in the population for the better.
372
897260
3000
и интервенисали у популацији због добробити.
15:00
Because these new technologies tell us
373
900260
2000
Јер ове нове технологије нам не говоре
15:02
not just who is talking to whom,
374
902260
2000
само ко с ким разговара,
15:04
but where everyone is,
375
904260
2000
него где се сви налазе,
15:06
and what they're thinking based on what they're uploading on the Internet,
376
906260
3000
и о чему размишљају, на основу онога што постављају на интернет,
15:09
and what they're buying based on their purchases.
377
909260
2000
и шта купују, на основу њихових куповина.
15:11
And all this administrative data can be pulled together
378
911260
3000
И сви ови примењиви подаци могу да се скупе
15:14
and processed to understand human behavior
379
914260
2000
и обраде да би се разумело људско понашање
15:16
in a way we never could before.
380
916260
3000
као што никада пре нисмо могли.
15:19
So, for example, we could use truckers' purchases of fuel.
381
919260
3000
На пример, возачи камиона купују гориво.
15:22
So the truckers are just going about their business,
382
922260
2000
камионџије само раде свој посао,
15:24
and they're buying fuel.
383
924260
2000
и купују гориво.
15:26
And we see a blip up in the truckers' purchases of fuel,
384
926260
3000
И видимо пораст куповине горива и
15:29
and we know that a recession is about to end.
385
929260
2000
знамо да се рецесија ближи крају.
15:31
Or we can monitor the velocity
386
931260
2000
Или можемо посматрати брзину
15:33
with which people are moving with their phones on a highway,
387
933260
3000
којом се људи са мобилним телефонима крећу по ауто путу
15:36
and the phone company can see,
388
936260
2000
и телефонске компаније могу видети,
15:38
as the velocity is slowing down,
389
938260
2000
како се брзина успорава,
15:40
that there's a traffic jam.
390
940260
2000
да постоји саобраћајна гужва.
15:42
And they can feed that information back to their subscribers,
391
942260
3000
Ту информацију могу послати својим претплатницима,
15:45
but only to their subscribers on the same highway
392
945260
2000
али само онима који се налазе на истом ауто путу
15:47
located behind the traffic jam!
393
947260
2000
иза саобраћајне гужве!
15:49
Or we can monitor doctors prescribing behaviors, passively,
394
949260
3000
Или можемо пасивно да посматрамо шта доктори преписују,
15:52
and see how the diffusion of innovation with pharmaceuticals
395
952260
3000
и видимо како се ширење нових лекова
15:55
occurs within [networks of] doctors.
396
955260
2000
јавља међу мрежама доктора.
15:57
Or again, we can monitor purchasing behavior in people
397
957260
2000
Или опет, можемо посматрати куповно понашање међу људима,
15:59
and watch how these types of phenomena
398
959260
2000
и видети како се ови феномени
16:01
can diffuse within human populations.
399
961260
3000
могу ширити међу људским популацијама.
16:04
And there are three ways, I think,
400
964260
2000
Мислим да постоје три начина
16:06
that these massive-passive data can be used.
401
966260
2000
на које се овако прикупљени подаци могу користити.
16:08
One is fully passive,
402
968260
2000
Један је потпуно пасиван,
16:10
like I just described --
403
970260
2000
као што сам управо описао -
16:12
as in, for instance, the trucker example,
404
972260
2000
као у примеру са камионџијама,
16:14
where we don't actually intervene in the population in any way.
405
974260
2000
где се не мешамо у популацију ни на који начин.
16:16
One is quasi-active,
406
976260
2000
Један је квази-активан,
16:18
like the flu example I gave,
407
978260
2000
као пример са грипом,
16:20
where we get some people to nominate their friends
408
980260
3000
где неки људи наводе своје пријатеље,
16:23
and then passively monitor their friends --
409
983260
2000
и онда пасивно посматрамо њихове пријатеље -
16:25
do they have the flu, or not? -- and then get warning.
410
985260
2000
имају ли грип или не? - и онда добијемо упозорење.
16:27
Or another example would be,
411
987260
2000
Или још један пример био би,
16:29
if you're a phone company, you figure out who's central in the network
412
989260
3000
ако сте телефонска компанија, сазнате ко је централан у некој мрежи
16:32
and you ask those people, "Look, will you just text us your fever every day?
413
992260
3000
и питате те људе, "Да ли бисте нам написали вашу температуру сваког дана?
16:35
Just text us your temperature."
414
995260
2000
Само нам пошаљите колика вам је температура."
16:37
And collect vast amounts of information about people's temperature,
415
997260
3000
И скупите огромне количине података о температурама људи
16:40
but from centrally located individuals.
416
1000260
2000
али од индивидуа које су у центру.
16:42
And be able, on a large scale,
417
1002260
2000
И можете, у великом обиму,
16:44
to monitor an impending epidemic
418
1004260
2000
посматрати долазећу епидемију
16:46
with very minimal input from people.
419
1006260
2000
са веома мало података од људи.
16:48
Or, finally, it can be more fully active --
420
1008260
2000
Или коначно, може бити потпуно активно -
16:50
as I know subsequent speakers will also talk about today --
421
1010260
2000
знам да ће и наредни говорници о томе причати данас -
16:52
where people might globally participate in wikis,
422
1012260
2000
где људи могу глобално учествовати у викијима,
16:54
or photographing, or monitoring elections,
423
1014260
3000
или фотографисати или посматрати изборе
16:57
and upload information in a way that allows us to pool
424
1017260
2000
и постављати информације тако да можемо да их
16:59
information in order to understand social processes
425
1019260
2000
скупљамо како бисмо разумели друштвене процесе
17:01
and social phenomena.
426
1021260
2000
и друштвене феномене.
17:03
In fact, the availability of these data, I think,
427
1023260
2000
Уствари, мислим да доступност ових података
17:05
heralds a kind of new era
428
1025260
2000
најављује нову еру
17:07
of what I and others would like to call
429
1027260
2000
онога што ја и други волимо да зовемо
17:09
"computational social science."
430
1029260
2000
"рачунарска друштвена наука".
17:11
It's sort of like when Galileo invented -- or, didn't invent --
431
1031260
3000
Како кад је Галијеј изумео - или, није изумео -
17:14
came to use a telescope
432
1034260
2000
почео да користи телескоп
17:16
and could see the heavens in a new way,
433
1036260
2000
и могао да види небеса на нови начин,
17:18
or Leeuwenhoek became aware of the microscope --
434
1038260
2000
или кад је Ливенхок открио микроскоп -
17:20
or actually invented --
435
1040260
2000
или изумео -
17:22
and could see biology in a new way.
436
1042260
2000
и могао да види биологију на нов начин.
17:24
But now we have access to these kinds of data
437
1044260
2000
Али сада имамо приступ овим врстама података
17:26
that allow us to understand social processes
438
1046260
2000
који нам дозвољавају да разумемо друштвене процесе
17:28
and social phenomena
439
1048260
2000
и друштвене феномене
17:30
in an entirely new way that was never before possible.
440
1050260
3000
на потпуно нов начин који никада није био могућ.
17:33
And with this science, we can
441
1053260
2000
И са овом науком, можемо
17:35
understand how exactly
442
1055260
2000
разумети како је тачно
17:37
the whole comes to be greater
443
1057260
2000
целина већа
17:39
than the sum of its parts.
444
1059260
2000
од збира својих делова.
17:41
And actually, we can use these insights
445
1061260
2000
И заправо, можемо користити ова сазнања
17:43
to improve society and improve human well-being.
446
1063260
3000
да побољшамо друштво и добробит људи.
17:46
Thank you.
447
1066260
2000
Хвала вам.
About this website

This site will introduce you to YouTube videos that are useful for learning English. You will see English lessons taught by top-notch teachers from around the world. Double-click on the English subtitles displayed on each video page to play the video from there. The subtitles scroll in sync with the video playback. If you have any comments or requests, please contact us using this contact form.

https://forms.gle/WvT1wiN1qDtmnspy7