Nicholas Christakis: How social networks predict epidemics

93,295 views ・ 2010-09-16

TED


Pro přehrání videa dvakrát klikněte na anglické titulky níže.

Překladatel: Tereza Pavlickova Korektor: Petr Frish
00:15
For the last 10 years, I've been spending my time trying to figure out
0
15260
3000
Posledních 10 let trávím čas tím, že se snažím zjistit,
00:18
how and why human beings
1
18260
2000
jak a proč se lidé
00:20
assemble themselves into social networks.
2
20260
3000
sdružují v sociálních sítích.
00:23
And the kind of social network I'm talking about
3
23260
2000
Sociálními sítěmi, které mám na mysli,
00:25
is not the recent online variety,
4
25260
2000
nejsou současné online sítě,
00:27
but rather, the kind of social networks
5
27260
2000
ale ty sociální sítě,
00:29
that human beings have been assembling for hundreds of thousands of years,
6
29260
3000
ve kterých se lidé sdružují po stovky tisíc let,
00:32
ever since we emerged from the African savannah.
7
32260
3000
od té doby co jsme se objevili na afrických savanách.
00:35
So, I form friendships and co-worker
8
35260
2000
Takže, navazuji přátelství, vztahy s kolegy,
00:37
and sibling and relative relationships with other people
9
37260
3000
sourozenecké a příbuzenské vztahy s ostatními lidmi,
00:40
who in turn have similar relationships with other people.
10
40260
2000
kteří mají obdobné vztahy s dalšími lidmi.
00:42
And this spreads on out endlessly into a distance.
11
42260
3000
A to se jde dál a dál.
00:45
And you get a network that looks like this.
12
45260
2000
Získáme síť, která vypadá takto.
00:47
Every dot is a person.
13
47260
2000
Každý bod je jeden člověk.
00:49
Every line between them is a relationship between two people --
14
49260
2000
Každá čára představuje vztah mezi dvěma lidmi --
00:51
different kinds of relationships.
15
51260
2000
různé typy vztahů.
00:53
And you can get this kind of vast fabric of humanity,
16
53260
3000
Získáte tak rozsáhlou spleť lidstva,
00:56
in which we're all embedded.
17
56260
2000
jehož jsme všichni součástí.
00:58
And my colleague, James Fowler and I have been studying for quite sometime
18
58260
3000
S kolegou Jamesem Fowlerem už delší dobu studujeme,
01:01
what are the mathematical, social,
19
61260
2000
jaká jsou matematická, společenská,
01:03
biological and psychological rules
20
63260
3000
biologická a psychologická pravidla,
01:06
that govern how these networks are assembled
21
66260
2000
která určují, jak jsou tyto sítě sestavovány,
01:08
and what are the similar rules
22
68260
2000
a stejně tak pravidla
01:10
that govern how they operate, how they affect our lives.
23
70260
3000
určující jak fungují a jak ovlivňují naše životy.
01:13
But recently, we've been wondering
24
73260
2000
Poslední dobou jsme přemýšleli,
01:15
whether it might be possible to take advantage of this insight,
25
75260
3000
jestli by bylo možné využít těchto poznatků
01:18
to actually find ways to improve the world,
26
78260
2000
při hledání způsobů jak zlepšit svět,
01:20
to do something better,
27
80260
2000
něco zlepšit,
01:22
to actually fix things, not just understand things.
28
82260
3000
něco opravdu vylepšit, nejen tomu porozumět.
01:25
So one of the first things we thought we would tackle
29
85260
3000
Jedna z prvních věcí, na které jsme se rozhodli zaměřit,
01:28
would be how we go about predicting epidemics.
30
88260
3000
je jak předpovídat epidemie.
01:31
And the current state of the art in predicting an epidemic --
31
91260
2000
Současný způsob předvídání epidemií --
01:33
if you're the CDC or some other national body --
32
93260
3000
jste-li CDC (Centrum kontroly a prevence chorob) či jiné národní centrum --
01:36
is to sit in the middle where you are
33
96260
2000
je být uprostřed
01:38
and collect data
34
98260
2000
a sbírat údaje
01:40
from physicians and laboratories in the field
35
100260
2000
od lékařů a laboratoří v dané oblasti,
01:42
that report the prevalence or the incidence of certain conditions.
36
102260
3000
kteří referují o rozšíření nebo výskytu určitých podmínek.
01:45
So, so and so patients have been diagnosed with something,
37
105260
3000
Ti a ti pacienti byli s něčím diagnostikováni,
01:48
or other patients have been diagnosed,
38
108260
2000
ti pacienti byli diagnostikováni [tady],
01:50
and all these data are fed into a central repository, with some delay.
39
110260
3000
a všechny tyto údaje se s jistým zpožděním shromažďují v centrálním archivu.
01:53
And if everything goes smoothly,
40
113260
2000
A jde-li vše hladce,
01:55
one to two weeks from now
41
115260
2000
budete ode dneška za týden či dva
01:57
you'll know where the epidemic was today.
42
117260
3000
vědět, kde byla epidemie dnes.
02:00
And actually, about a year or so ago,
43
120260
2000
Vlastně, asi tak před rokem
02:02
there was this promulgation
44
122260
2000
byl spuštěn
02:04
of the idea of Google Flu Trends, with respect to the flu,
45
124260
3000
projekt Google Flu Trends (Google vývoj chřipky),
02:07
where by looking at people's searching behavior today,
46
127260
3000
kde na základě toho, jak a co dnes lidé vyhledávají,
02:10
we could know where the flu --
47
130260
2000
můžeme říct, že chřipka …
02:12
what the status of the epidemic was today,
48
132260
2000
jaký je dnešní stav epidemie,
02:14
what's the prevalence of the epidemic today.
49
134260
3000
jak je epidemie rozšířená právě dnes.
02:17
But what I'd like to show you today
50
137260
2000
Nyní bych vám však chtěl ukázat
02:19
is a means by which we might get
51
139260
2000
způsob, díky němuž bychom mohli získat
02:21
not just rapid warning about an epidemic,
52
141260
3000
nejen rychlé varování před epidemií,
02:24
but also actually
53
144260
2000
ale rovněž možnost odhalit
02:26
early detection of an epidemic.
54
146260
2000
nákazu v jejím začátku.
02:28
And, in fact, this idea can be used
55
148260
2000
Tento způsob může být použit
02:30
not just to predict epidemics of germs,
56
150260
3000
nejen k předvídání epidemií bacilů,
02:33
but also to predict epidemics of all sorts of kinds.
57
153260
3000
ale k předvídání nákaz nejrůznějšího druhu.
02:37
For example, anything that spreads by a form of social contagion
58
157260
3000
To znamená vše, co se může šířit mezi lidmi formou
02:40
could be understood in this way,
59
160260
2000
společenské nákazy,
02:42
from abstract ideas on the left
60
162260
2000
od abstraktních idejí, nalevo,
02:44
like patriotism, or altruism, or religion
61
164260
3000
jako je vlastenectví, altruismus nebo náboženství
02:47
to practices
62
167260
2000
k zvyklostem
02:49
like dieting behavior, or book purchasing,
63
169260
2000
jako jsou diety, nákup knih,
02:51
or drinking, or bicycle-helmet [and] other safety practices,
64
171260
3000
pití alkoholu, používání cyklistické helmy a jiné bezpečnostní praktiky,
02:54
or products that people might buy,
65
174260
2000
nebo zboží, které si lidé mohou koupit,
02:56
purchases of electronic goods,
66
176260
2000
nákup elektroniky,
02:58
anything in which there's kind of an interpersonal spread.
67
178260
3000
cokoliv, co se může šířit mezilidskými vztahy.
03:01
A kind of a diffusion of innovation
68
181260
2000
Jakékoliv šíření inovací
03:03
could be understood and predicted
69
183260
2000
může být chápáno a předpovídáno
03:05
by the mechanism I'm going to show you now.
70
185260
3000
způsobem, který vám teď ukážu.
03:08
So, as all of you probably know,
71
188260
2000
Jak asi všichni víte,
03:10
the classic way of thinking about this
72
190260
2000
klasicky se používá
03:12
is the diffusion-of-innovation,
73
192260
2000
model "šíření inovací"
03:14
or the adoption curve.
74
194260
2000
neboli křivka osvojení.
03:16
So here on the Y-axis, we have the percent of the people affected,
75
196260
2000
Zde, osa Y znázorňuje procento ovlivněných lidí
03:18
and on the X-axis, we have time.
76
198260
2000
a na ose X máme čas.
03:20
And at the very beginning, not too many people are affected,
77
200260
3000
Na úplném začátku je jen velmi málo ovlivněných lidí,
03:23
and you get this classic sigmoidal,
78
203260
2000
získáme tuto klasickou sigmoidu,
03:25
or S-shaped, curve.
79
205260
2000
neboli křivku ve tvaru S.
03:27
And the reason for this shape is that at the very beginning,
80
207260
2000
Tento tvar má díky tomu, že na úplném začátku
03:29
let's say one or two people
81
209260
2000
je řekněme jeden nebo dva lidé,
03:31
are infected, or affected by the thing
82
211260
2000
kteří jsou tím něčím zasaženi nebo nakaženi,
03:33
and then they affect, or infect, two people,
83
213260
2000
ti pak to pak přenesou dál a nakazí další dva,
03:35
who in turn affect four, eight, 16 and so forth,
84
215260
3000
kteří pak následně nakazí 4, 8, 16 lidí, a tak dál,
03:38
and you get the epidemic growth phase of the curve.
85
218260
3000
a tak získáte vzrůstající fázi křivky epidemie.
03:41
And eventually, you saturate the population.
86
221260
2000
A nakonec nasytíte populaci.
03:43
There are fewer and fewer people
87
223260
2000
Je zde méně a méně lidí,
03:45
who are still available that you might infect,
88
225260
2000
které ještě stále můžete infikovat,
03:47
and then you get the plateau of the curve,
89
227260
2000
a to je moment, kdy je křivka opět rovná,
03:49
and you get this classic sigmoidal curve.
90
229260
3000
a vznikne tak tato klasická sigmoidní křivka.
03:52
And this holds for germs, ideas,
91
232260
2000
To platí po bacily, ideje,
03:54
product adoption, behaviors,
92
234260
2000
osvojení zboží, chování,
03:56
and the like.
93
236260
2000
a tak podobně.
03:58
But things don't just diffuse in human populations at random.
94
238260
3000
Ale věci se nešíří lidskou populací náhodně.
04:01
They actually diffuse through networks.
95
241260
2000
Ve skutečnosti se šíří skrze sítě.
04:03
Because, as I said, we live our lives in networks,
96
243260
3000
Jak jsem již řekl, žijeme v sítích
04:06
and these networks have a particular kind of a structure.
97
246260
3000
a tyto sítě mají určitou strukturu.
04:09
Now if you look at a network like this --
98
249260
2000
Teď, když se podíváte na síť jako je tato...
04:11
this is 105 people.
99
251260
2000
Toto je 105 lidí.
04:13
And the lines represent -- the dots are the people,
100
253260
2000
Ty čáry představují ... body jsou lidé
04:15
and the lines represent friendship relationships.
101
255260
2000
a čáry představují přátelské vztahy.
04:17
You might see that people occupy
102
257260
2000
Můžete vidět, že lidé se nachází
04:19
different locations within the network.
103
259260
2000
na různých místech v rámci sítě.
04:21
And there are different kinds of relationships between the people.
104
261260
2000
A vztahy mezi lidmi mají nejrůznější charakter.
04:23
You could have friendship relationships, sibling relationships,
105
263260
3000
Můžete mít přátelský či sourozenecký vztah,
04:26
spousal relationships, co-worker relationships,
106
266260
3000
manželský nebo pracovní vztah,
04:29
neighbor relationships and the like.
107
269260
3000
sousedský vztah, a tak dále.
04:32
And different sorts of things
108
272260
2000
A různé věci
04:34
spread across different sorts of ties.
109
274260
2000
se šíří prostřednictvím odlišných vazeb.
04:36
For instance, sexually transmitted diseases
110
276260
2000
Například, sexuálně přenosné choroby
04:38
will spread across sexual ties.
111
278260
2000
se budou šíří sexuálními vazbami.
04:40
Or, for instance, people's smoking behavior
112
280260
2000
Nebo třeba vztah lidí ke kouření
04:42
might be influenced by their friends.
113
282260
2000
může být ovlivněn jejich přáteli.
04:44
Or their altruistic or their charitable giving behavior
114
284260
2000
Jejich altruismus či ochota přispívat na charitu
04:46
might be influenced by their coworkers,
115
286260
2000
mohou být ovlivněny jejich spolupracovníky
04:48
or by their neighbors.
116
288260
2000
či sousedy.
04:50
But not all positions in the network are the same.
117
290260
3000
Ne všechna postavení v rámci sítě jsou totožná.
04:53
So if you look at this, you might immediately grasp
118
293260
2000
Podíváte-li se sem, okamžitě si všimnete,
04:55
that different people have different numbers of connections.
119
295260
3000
že různí lidé mají odlišný počet vazeb.
04:58
Some people have one connection, some have two,
120
298260
2000
Někteří mají jednu vazbu, jiní dvě,
05:00
some have six, some have 10 connections.
121
300260
3000
někteří šest a jiní deset.
05:03
And this is called the "degree" of a node,
122
303260
2000
Tomu se říká "stupeň" uzlového bodu,
05:05
or the number of connections that a node has.
123
305260
2000
čili množství vazeb, které daný uzel má.
05:07
But in addition, there's something else.
124
307260
2000
A pak je tu ještě jedna věc.
05:09
So, if you look at nodes A and B,
125
309260
2000
Když se podíváte na uzel A a B,
05:11
they both have six connections.
126
311260
2000
oba mají šest vazeb.
05:13
But if you can see this image [of the network] from a bird's eye view,
127
313260
3000
Ale podíváte-li se na tento obrázek z ptačího pohledu,
05:16
you can appreciate that there's something very different
128
316260
2000
uvědomíte si, že mezi uzlem A a B
05:18
about nodes A and B.
129
318260
2000
je velký rozdíl.
05:20
So, let me ask you this -- I can cultivate this intuition by asking a question --
130
320260
3000
Takže se vás zeptám -- trochu to tou otázkou rozvinu --
05:23
who would you rather be
131
323260
2000
kým byste chtěli být,
05:25
if a deadly germ was spreading through the network, A or B?
132
325260
3000
kdyby se sítí šířila smrtelná bakterie, A nebo B?
05:28
(Audience: B.) Nicholas Christakis: B, it's obvious.
133
328260
2000
(Publikum: B) Nicholas Christakis: B, samozřejmě.
05:30
B is located on the edge of the network.
134
330260
2000
B se nachází na okraji sítě.
05:32
Now, who would you rather be
135
332260
2000
Teď, kým byste chtěli být,
05:34
if a juicy piece of gossip were spreading through the network?
136
334260
3000
kdyby se sítí šířil šťavnatý drb?
05:37
A. And you have an immediate appreciation
137
337260
3000
A. Okamžitě vám je jasné,
05:40
that A is going to be more likely
138
340260
2000
že A má mnohem větší šanci
05:42
to get the thing that's spreading and to get it sooner
139
342260
3000
dostat to, co se šíří, a že to dostane rychleji
05:45
by virtue of their structural location within the network.
140
345260
3000
díky své pozici v rámci dané struktury sítě.
05:48
A, in fact, is more central,
141
348260
2000
Ve skutečnosti je 'A' mnohem více v centru,
05:50
and this can be formalized mathematically.
142
350260
3000
což může být vyjádřeno matematicky.
05:53
So, if we want to track something
143
353260
2000
Takže pokud chceme sledovat to,
05:55
that was spreading through a network,
144
355260
3000
co se šíří sítí,
05:58
what we ideally would like to do is to set up sensors
145
358260
2000
ideálně bychom měli umístit senzory
06:00
on the central individuals within the network,
146
360260
2000
na jedince, kteří jsou v centru sítě,
06:02
including node A,
147
362260
2000
včetně uzlu A,
06:04
monitor those people that are right there in the middle of the network,
148
364260
3000
sledovat tyto osoby, jež jsou v centru sítě,
06:07
and somehow get an early detection
149
367260
2000
a tím nějak včasně odhalit to,
06:09
of whatever it is that is spreading through the network.
150
369260
3000
ať už je to cokoliv, co se šíří sítí.
06:12
So if you saw them contract a germ or a piece of information,
151
372260
3000
Takže, kdybyste viděli, že mají nějaký bacil nebo informaci,
06:15
you would know that, soon enough,
152
375260
2000
věděli byste, že časem
06:17
everybody was about to contract this germ
153
377260
2000
ten bacil nebo tu informaci
06:19
or this piece of information.
154
379260
2000
budou mít i všichni ostatní.
06:21
And this would be much better
155
381260
2000
Tohle by bylo mnohem lepší
06:23
than monitoring six randomly chosen people,
156
383260
2000
než sledovat šest náhodně vybraných jedinců
06:25
without reference to the structure of the population.
157
385260
3000
bez ohledu na strukturu dané populace.
06:28
And in fact, if you could do that,
158
388260
2000
Takže pokud byste to udělali,
06:30
what you would see is something like this.
159
390260
2000
uviděli byste něco takovéhoto.
06:32
On the left-hand panel, again, we have the S-shaped curve of adoption.
160
392260
3000
Nalevo máme opět esovitou křivku osvojení.
06:35
In the dotted red line, we show
161
395260
2000
Červeně tečkovaná linie ukazuje,
06:37
what the adoption would be in the random people,
162
397260
2000
jaké by bylo osvojení u náhodného vzorku,
06:39
and in the left-hand line, shifted to the left,
163
399260
3000
a křivka nalevo, posunutá doleva,
06:42
we show what the adoption would be
164
402260
2000
ukazuje, jaké by bylo osvojení
06:44
in the central individuals within the network.
165
404260
2000
v případě jedinců uprostřed sítě.
06:46
On the Y-axis is the cumulative instances of contagion,
166
406260
2000
Osa Y ukazuje narůstající případy nákazy
06:48
and on the X-axis is the time.
167
408260
2000
a osa X znázorňuje čas.
06:50
And on the right-hand side, we show the same data,
168
410260
2000
Napravo máme ty samé údaje,
06:52
but here with daily incidence.
169
412260
2000
které tentokrát ukazují výskyt podle dní.
06:54
And what we show here is -- like, here --
170
414260
2000
Zde vidíte -- třeba tady --
06:56
very few people are affected, more and more and more and up to here,
171
416260
2000
jen několik málo lidí je zasaženo, víc, víc a víc až sem,
06:58
and here's the peak of the epidemic.
172
418260
2000
a toto je vrchol epidemie.
07:00
But shifted to the left is what's occurring in the central individuals.
173
420260
2000
Křivka posunutá doleva ukazuje situaci u jedinců v centru.
07:02
And this difference in time between the two
174
422260
3000
A tento rozdíl v čase mezi těmito dvěma křivkami
07:05
is the early detection, the early warning we can get,
175
425260
3000
říká, jak včasné odhalení či upozornění můžeme
07:08
about an impending epidemic
176
428260
2000
získat o epidemii šířící se
07:10
in the human population.
177
430260
2000
populací.
07:12
The problem, however,
178
432260
2000
Problémem ovšem je,
07:14
is that mapping human social networks
179
434260
2000
že ne vždy je možné mapovat
07:16
is not always possible.
180
436260
2000
lidské společenské sítě.
07:18
It can be expensive, not feasible,
181
438260
2000
Může to být drahé, obtížné,
07:20
unethical,
182
440260
2000
neetické,
07:22
or, frankly, just not possible to do such a thing.
183
442260
3000
nebo to prostě není proveditelné.
07:25
So, how can we figure out
184
445260
2000
Takže, jak můžeme zjistit,
07:27
who the central people are in a network
185
447260
2000
kdo jsou lidé ve středu sítě,
07:29
without actually mapping the network?
186
449260
3000
aniž bychom tu síť mapovali?
07:32
What we came up with
187
452260
2000
Napadalo nás
07:34
was an idea to exploit an old fact,
188
454260
2000
využít starou známou skutečnost,
07:36
or a known fact, about social networks,
189
456260
2000
známý fakt o společenských sítích,
07:38
which goes like this:
190
458260
2000
který říká:
07:40
Do you know that your friends
191
460260
2000
Víte, že vaši přátelé
07:42
have more friends than you do?
192
462260
3000
mají více přátel než vy?
07:45
Your friends have more friends than you do,
193
465260
3000
Vaši přátelé mají více přátel než vy.
07:48
and this is known as the friendship paradox.
194
468260
2000
To je označováno jako paradox přátelství.
07:50
Imagine a very popular person in the social network --
195
470260
2000
Představte si velmi oblíbeného člena společenské sítě --
07:52
like a party host who has hundreds of friends --
196
472260
3000
třeba hostitele party, který má stovky přátel --
07:55
and a misanthrope who has just one friend,
197
475260
2000
a misantropa, který má jen jednoho přítele,
07:57
and you pick someone at random from the population;
198
477260
3000
a náhodně vyberte několik lidí z populace.
08:00
they were much more likely to know the party host.
199
480260
2000
Je mnohem větší šance, že budou znát daného organizátora party.
08:02
And if they nominate the party host as their friend,
200
482260
2000
Pokud oni označí tohoto hostitele jako svého přítele,
08:04
that party host has a hundred friends,
201
484260
2000
tento hostitel má stovky přátel,
08:06
therefore, has more friends than they do.
202
486260
3000
takže má více přátel než oni sami.
08:09
And this, in essence, is what's known as the friendship paradox.
203
489260
3000
A to je v podstatě to, čemu se říká paradox přátelství.
08:12
The friends of randomly chosen people
204
492260
3000
Přátelé náhodně vybraného vzorku
08:15
have higher degree, and are more central
205
495260
2000
mají vyšší stupeň a jsou více v centru,
08:17
than the random people themselves.
206
497260
2000
než jedinci z náhodného vzorku samotní.
08:19
And you can get an intuitive appreciation for this
207
499260
2000
Což je zřejmé ve chvíli, kdy si
08:21
if you imagine just the people at the perimeter of the network.
208
501260
3000
představíte pouze lidi na obvodu dané sítě.
08:24
If you pick this person,
209
504260
2000
Pokud vyberete tuto osobu,
08:26
the only friend they have to nominate is this person,
210
506260
3000
ta může jako svého přítele označit pouze tuto osobu,
08:29
who, by construction, must have at least two
211
509260
2000
která musí mít, vzhledem ke struktuře, alespoň dva,
08:31
and typically more friends.
212
511260
2000
ale většinou více přátel.
08:33
And that happens at every peripheral node.
213
513260
2000
K tomu dochází na každém okrajovém uzlu.
08:35
And in fact, it happens throughout the network as you move in,
214
515260
3000
To se děje v celé sítí, jak se pohybujete směrem ke středu,
08:38
everyone you pick, when they nominate a random --
215
518260
2000
když náhodně vybraný člověk
08:40
when a random person nominates a friend of theirs,
216
520260
3000
označí svého přítele,
08:43
you move closer to the center of the network.
217
523260
3000
dostanete se blíže ke středu sítě.
08:46
So, we thought we would exploit this idea
218
526260
3000
Tak jsme si řekli, že využijeme tuto teorii,
08:49
in order to study whether we could predict phenomena within networks.
219
529260
3000
abychom zjistili, jestli můžeme předvídat jevy v rámci sítí.
08:52
Because now, with this idea
220
532260
2000
Na základě této ideje totiž
08:54
we can take a random sample of people,
221
534260
2000
můžeme vzít náhodný vzorek,
08:56
have them nominate their friends,
222
536260
2000
který označí své přátele,
08:58
those friends would be more central,
223
538260
2000
a ti budou blíže středu,
09:00
and we could do this without having to map the network.
224
540260
3000
to můžeme dělat, aniž bychom tu síť museli mapovat.
09:03
And we tested this idea with an outbreak of H1N1 flu
225
543260
3000
Rozhodli jsme se to otestovat, když propukla chřipka H1N1
09:06
at Harvard College
226
546260
2000
na harvardské koleji
09:08
in the fall and winter of 2009, just a few months ago.
227
548260
3000
na podzim a v zimě 2009, což je před pár měsíci.
09:11
We took 1,300 randomly selected undergraduates,
228
551260
3000
Náhodně jsme vybrali 1300 vysokoškoláků,
09:14
we had them nominate their friends,
229
554260
2000
nechali jsme je označit své přátele
09:16
and we followed both the random students and their friends
230
556260
2000
a denně jsme sledovali jak náhodně vybrané studenty
09:18
daily in time
231
558260
2000
tak jejich přátele,
09:20
to see whether or not they had the flu epidemic.
232
560260
3000
abychom viděli, jestli tu chřipku mají nebo nemají.
09:23
And we did this passively by looking at whether or not they'd gone to university health services.
233
563260
3000
Pasivně jsme sledovali, zda byli či nebyli v univerzitním zdravotnickém středisku.
09:26
And also, we had them [actively] email us a couple of times a week.
234
566260
3000
Také jsme je požádali, aby nám několikrát za týden poslali email.
09:29
Exactly what we predicted happened.
235
569260
3000
Stalo se přesně to, co jsme předpověděli.
09:32
So the random group is in the red line.
236
572260
3000
Náhodný vzorek je červená linka.
09:35
The epidemic in the friends group has shifted to the left, over here.
237
575260
3000
Epidemie u skupiny 'přátelé' se posunula doleva, zde.
09:38
And the difference in the two is 16 days.
238
578260
3000
Rozdíl mezi těmito dvěma skupinami je 16 dní.
09:41
By monitoring the friends group,
239
581260
2000
Sledováním skupiny 'přátelé'
09:43
we could get 16 days advance warning
240
583260
2000
bychom získali varování před blížící se
09:45
of an impending epidemic in this human population.
241
585260
3000
epidemii v lidské populaci o 16 dní dříve.
09:48
Now, in addition to that,
242
588260
2000
Navíc, jste-li
09:50
if you were an analyst who was trying to study an epidemic
243
590260
3000
analytik, který se snaží studovat nějakou nákazu,
09:53
or to predict the adoption of a product, for example,
244
593260
3000
nebo například předvídat osvojení produktu,
09:56
what you could do is you could pick a random sample of the population,
245
596260
3000
můžete vzít náhodný vzorek populace,
09:59
also have them nominate their friends and follow the friends
246
599260
3000
nechat je vybrat své přátele a sledovat tyto přátele,
10:02
and follow both the randoms and the friends.
247
602260
3000
sledovat jak náhodný vzorek, tak skupinu 'přátelé'.
10:05
Among the friends, the first evidence you saw of a blip above zero
248
605260
3000
Jakmile by v případě 'přátel' vzskočila křivka
10:08
in adoption of the innovation, for example,
249
608260
3000
osvojení inovace nad nulu
10:11
would be evidence of an impending epidemic.
250
611260
2000
znamenalo by to, že nastupuje epidemie.
10:13
Or you could see the first time the two curves diverged,
251
613260
3000
Nalevo můžete vidět, kdy se ty dvě křivky
10:16
as shown on the left.
252
616260
2000
poprvé rozchází.
10:18
When did the randoms -- when did the friends take off
253
618260
3000
Kdy se přátelé odtrhnou
10:21
and leave the randoms,
254
621260
2000
a nechají náhodný vzorek za sebou
10:23
and [when did] their curve start shifting?
255
623260
2000
a kdy se jejich křivka začne posouvat?
10:25
And that, as indicated by the white line,
256
625260
2000
To, což ukazuje bílá linka,
10:27
occurred 46 days
257
627260
2000
nastalo 46 dní
10:29
before the peak of the epidemic.
258
629260
2000
před vyvrcholením epidemie.
10:31
So this would be a technique
259
631260
2000
Takže tímto způsobem
10:33
whereby we could get more than a month-and-a-half warning
260
633260
2000
můžeme získat upozornění na epidemii chřipky
10:35
about a flu epidemic in a particular population.
261
635260
3000
v konkrétní populaci víc než měsíc a půl předem.
10:38
I should say that
262
638260
2000
Měl bych říct, že to jak
10:40
how far advanced a notice one might get about something
263
640260
2000
moc dopředu dostaneme na něco upozornění,
10:42
depends on a host of factors.
264
642260
2000
záleží na množství faktorů.
10:44
It could depend on the nature of the pathogen --
265
644260
2000
Může to záležet na povaze patogenu --
10:46
different pathogens,
266
646260
2000
u různých patogenů,
10:48
using this technique, you'd get different warning --
267
648260
2000
použitím této techniky, můžete dostat různá varování --
10:50
or other phenomena that are spreading,
268
650260
2000
nebo dalších jevech, které se šíří,
10:52
or frankly, on the structure of the human network.
269
652260
3000
strukturou lidské sítě.
10:55
Now in our case, although it wasn't necessary,
270
655260
3000
V našem případě, i přestože to nebylo nutné,
10:58
we could also actually map the network of the students.
271
658260
2000
jsme mohli rovněž mapovat síť studentů.
11:00
So, this is a map of 714 students
272
660260
2000
Tahle mapa zobrazuje 714 studentů
11:02
and their friendship ties.
273
662260
2000
a jejich přátelské vztahy.
11:04
And in a minute now, I'm going to put this map into motion.
274
664260
2000
Za dám tu mapu do pohybu.
11:06
We're going to take daily cuts through the network
275
666260
2000
Uvidíte situaci den po dni,
11:08
for 120 days.
276
668260
2000
po dobu 120 dní.
11:10
The red dots are going to be cases of the flu,
277
670260
3000
Červené body budou případy chřipky,
11:13
and the yellow dots are going to be friends of the people with the flu.
278
673260
3000
a žluté body budou přátelé lidí s chřipkou.
11:16
And the size of the dots is going to be proportional
279
676260
2000
Velikost každého bodu je úměrná
11:18
to how many of their friends have the flu.
280
678260
2000
počtu přátel s chřipkou.
11:20
So bigger dots mean more of your friends have the flu.
281
680260
3000
Je-li bod větší, znamená to, že máte více přátel, kteří mají chřipku.
11:23
And if you look at this image -- here we are now in September the 13th --
282
683260
3000
Když se podíváte na tento obrázek -- 13. září --
11:26
you're going to see a few cases light up.
283
686260
2000
uvidíte, že se rozzáří několik případů.
11:28
You're going to see kind of blooming of the flu in the middle.
284
688260
2000
Uprostřed uvidíte jakýsi rozkvět chřipky.
11:30
Here we are on October the 19th.
285
690260
3000
Toto je 19. října.
11:33
The slope of the epidemic curve is approaching now, in November.
286
693260
2000
Svažování křivky epidemie se blíží, tady, v listopadu.
11:35
Bang, bang, bang, bang, bang -- you're going to see lots of blooming in the middle,
287
695260
3000
bum, bum, bum, bum, bum, uvidíte velký rozkvět uprostřed,
11:38
and then you're going to see a sort of leveling off,
288
698260
2000
a pak uvidíte jakousi stabilizaci,
11:40
fewer and fewer cases towards the end of December.
289
700260
3000
méně a méně případů ke konci prosince.
11:43
And this type of a visualization
290
703260
2000
Tento typ vizualizace
11:45
can show that epidemics like this take root
291
705260
2000
může ukázat, že epidemie, jako je tato, mají základy
11:47
and affect central individuals first,
292
707260
2000
a působí jako první na osoby uprostřed,
11:49
before they affect others.
293
709260
2000
předtím než zasáhnou ostatní.
11:51
Now, as I've been suggesting,
294
711260
2000
Jak jsem již naznačoval,
11:53
this method is not restricted to germs,
295
713260
3000
tato metoda neplatí pouze na bacily,
11:56
but actually to anything that spreads in populations.
296
716260
2000
ale na vše, co se šíří populací.
11:58
Information spreads in populations,
297
718260
2000
Informace se šíří populací.
12:00
norms can spread in populations,
298
720260
2000
Normy se mohou šíří populací.
12:02
behaviors can spread in populations.
299
722260
2000
Chování se může šířit populací.
12:04
And by behaviors, I can mean things like criminal behavior,
300
724260
3000
Chováním mám na mysli, například kriminální jednání,
12:07
or voting behavior, or health care behavior,
301
727260
3000
nebo jak lidé volí, jak se starají o své zdraví
12:10
like smoking, or vaccination,
302
730260
2000
například vztah ke kouření, očkování,
12:12
or product adoption, or other kinds of behaviors
303
732260
2000
nebo osvojování produktů, či jiná jednání,
12:14
that relate to interpersonal influence.
304
734260
2000
která souvisí s tím, jak se lidé ovlivňují mezi sebou.
12:16
If I'm likely to do something that affects others around me,
305
736260
3000
Chci-li udělat něco, co bude mít vliv na lidi kolem mě,
12:19
this technique can get early warning or early detection
306
739260
3000
tato metoda mě může upozornit nebo včasně odhalit
12:22
about the adoption within the population.
307
742260
3000
osvojení v rámci populace.
12:25
The key thing is that for it to work,
308
745260
2000
Má-li to fungovat, klíčovým faktorem je
12:27
there has to be interpersonal influence.
309
747260
2000
přítomnost mezilidského vlivu.
12:29
It cannot be because of some broadcast mechanism
310
749260
2000
Nemůže to být postaveno na nějakém vysílání,
12:31
affecting everyone uniformly.
311
751260
3000
které působí na všechny jednotně.
12:35
Now the same insights
312
755260
2000
Tato zjištění
12:37
can also be exploited -- with respect to networks --
313
757260
3000
můžeme použít -- s ohledem na síť --
12:40
can also be exploited in other ways,
314
760260
3000
můžeme použít i jinými způsoby,
12:43
for example, in the use of targeting
315
763260
2000
například pro zacílení těch,
12:45
specific people for interventions.
316
765260
2000
kteří by měli být zasaženi či vybráni.
12:47
So, for example, most of you are probably familiar
317
767260
2000
Například, většina z vás je nejspíše obeznámena
12:49
with the notion of herd immunity.
318
769260
2000
s pojmem imunita stáda.
12:51
So, if we have a population of a thousand people,
319
771260
3000
Takže, máme-li skupinu čítající tisíc obyvatel.
12:54
and we want to make the population immune to a pathogen,
320
774260
3000
a chceme, aby tito obyvatelé byli imunní vůči určitému patogenu,
12:57
we don't have to immunize every single person.
321
777260
2000
nemusíme očkovat všechny jedince v dané skupině.
12:59
If we immunize 960 of them,
322
779260
2000
Oočkujeme-li 960 z nich,
13:01
it's as if we had immunized a hundred [percent] of them.
323
781260
3000
je to, jako bychom oočkovali sto [procent].
13:04
Because even if one or two of the non-immune people gets infected,
324
784260
3000
I kdyby se jeden nebo dva z těch, kteří nebyli očkování, nakazili,
13:07
there's no one for them to infect.
325
787260
2000
oni sami nemají koho nakazit.
13:09
They are surrounded by immunized people.
326
789260
2000
Jsou obklopeni oočkovanými.
13:11
So 96 percent is as good as 100 percent.
327
791260
3000
Takže 96 procent je stejně dobrých jako 100 procent.
13:14
Well, some other scientists have estimated
328
794260
2000
Jiní vědci odhadli,
13:16
what would happen if you took a 30 percent random sample
329
796260
2000
co by se stalo, kdybyste vzali náhodný vzorek 30%
13:18
of these 1000 people, 300 people and immunized them.
330
798260
3000
z 1000 lidí, tedy 300 lidí a oočkovali je.
13:21
Would you get any population-level immunity?
331
801260
2000
Je možné, aby pak daná skupina byla imunní?
13:23
And the answer is no.
332
803260
3000
Odpověď je ne.
13:26
But if you took this 30 percent, these 300 people
333
806260
2000
Ale pokud vezmete těchto 300 lidí,
13:28
and had them nominate their friends
334
808260
2000
a necháte je nominovat své přátele,
13:30
and took the same number of vaccine doses
335
810260
3000
budete mít stejné množství vakcín jako předtím,
13:33
and vaccinated the friends of the 300 --
336
813260
2000
a oočkujete jen přátele těch náhodných 300 lidí,
13:35
the 300 friends --
337
815260
2000
tedy 300 přátel,
13:37
you can get the same level of herd immunity
338
817260
2000
získáte stejnou úroveň stádové imunity,
13:39
as if you had vaccinated 96 percent of the population
339
819260
3000
jako byste oočkovali 96 procent dané populace,
13:42
at a much greater efficiency, with a strict budget constraint.
340
822260
3000
s větší účinností a s omezeným rozpočtem.
13:45
And similar ideas can be used, for instance,
341
825260
2000
Podobně lze například určit,
13:47
to target distribution of things like bed nets
342
827260
2000
jak distribuovat například moskytiéry
13:49
in the developing world.
343
829260
2000
v rozvojových zemích.
13:51
If we could understand the structure of networks in villages,
344
831260
3000
Když porozumíme struktuře vztahů ve vesnicích
13:54
we could target to whom to give the interventions
345
834260
2000
můžeme určit jedince, které zplnomocníme,
13:56
to foster these kinds of spreads.
346
836260
2000
aby měli dané šíření na starosti.
13:58
Or, frankly, for advertising with all kinds of products.
347
838260
3000
Nebo pro reklamu a různé produkty.
14:01
If we could understand how to target,
348
841260
2000
Pochopíme-li, jak určit cíl,
14:03
it could affect the efficiency
349
843260
2000
můžeme ovlivnit účinnost
14:05
of what we're trying to achieve.
350
845260
2000
toho, čeho se snažíme dosáhnout.
14:07
And in fact, we can use data
351
847260
2000
Takto, můžeme použít údaje
14:09
from all kinds of sources nowadays [to do this].
352
849260
2000
z nejrůznějších zdrojů.
14:11
This is a map of eight million phone users
353
851260
2000
Toto je mapa 8 milionů uživatelů mobilů
14:13
in a European country.
354
853260
2000
v jedné z evropských zemí.
14:15
Every dot is a person, and every line represents
355
855260
2000
Každý bod je osoba a každá linka představuje
14:17
a volume of calls between the people.
356
857260
2000
množství hovorů mezi těmito lidmi.
14:19
And we can use such data, that's being passively obtained,
357
859260
3000
Tyto údaje, které jsme získali pasivně, můžeme použít
14:22
to map these whole countries
358
862260
2000
k zmapování těchto zemí
14:24
and understand who is located where within the network.
359
864260
3000
a k pochopení, kdo se nachází kde v rámci této sítě.
14:27
Without actually having to query them at all,
360
867260
2000
Aniž bychom museli s kýmkoliv mluvit,
14:29
we can get this kind of a structural insight.
361
869260
2000
můžeme zjistit, jaká je struktura dané sítě.
14:31
And other sources of information, as you're no doubt aware
362
871260
3000
Dalším zdrojem takovýchto informací,
14:34
are available about such features, from email interactions,
363
874260
3000
což si určitě uvědomujete, je výměna emailů,
14:37
online interactions,
364
877260
2000
online interakce,
14:39
online social networks and so forth.
365
879260
3000
online sociální sítě, a tak dále.
14:42
And in fact, we are in the era of what I would call
366
882260
2000
Nacházíme se v době, kterou bych mohl nazvat
14:44
"massive-passive" data collection efforts.
367
884260
3000
"masivně pasivní" snahou o sběr dat.
14:47
They're all kinds of ways we can use massively collected data
368
887260
3000
Jsou zde různé způsoby, jak můžeme použít masově získaná data
14:50
to create sensor networks
369
890260
3000
k vytvoření senzorů v síti,
14:53
to follow the population,
370
893260
2000
abychom sledovali danou populaci
14:55
understand what's happening in the population,
371
895260
2000
a pochopili, k čemu v této populaci dochází,
14:57
and intervene in the population for the better.
372
897260
3000
a mohli tak zasáhnout a přispět ke zlepšení.
15:00
Because these new technologies tell us
373
900260
2000
Protože nové technologie nám nejen
15:02
not just who is talking to whom,
374
902260
2000
řeknou, kdo mluví s kým,
15:04
but where everyone is,
375
904260
2000
ale také kde se kdo nachází,
15:06
and what they're thinking based on what they're uploading on the Internet,
376
906260
3000
a podle toho, co zveřejňují na internetu, co si myslí,
15:09
and what they're buying based on their purchases.
377
909260
2000
a podle toho co kupují, podle jejich předešlých nákupů.
15:11
And all this administrative data can be pulled together
378
911260
3000
Všechny takovéto informace mohou být shromážděny
15:14
and processed to understand human behavior
379
914260
2000
a použity k pochopili lidského jednání
15:16
in a way we never could before.
380
916260
3000
způsobem, jaký do té doby nebyl možný.
15:19
So, for example, we could use truckers' purchases of fuel.
381
919260
3000
Mohli bychom například použít údaje o nákupu paliva autodopravci.
15:22
So the truckers are just going about their business,
382
922260
2000
Takže autodopravce dělá svou práci,
15:24
and they're buying fuel.
383
924260
2000
a kupuje palivo.
15:26
And we see a blip up in the truckers' purchases of fuel,
384
926260
3000
My vidíme, že autodopravcův nákup paliva vyskočil nahoru,
15:29
and we know that a recession is about to end.
385
929260
2000
a víme, že recese brzo skončí.
15:31
Or we can monitor the velocity
386
931260
2000
Nebo můžeme monitorovat rychlost,
15:33
with which people are moving with their phones on a highway,
387
933260
3000
s jakou se lidé s telefony pohybují na dálnici,
15:36
and the phone company can see,
388
936260
2000
takže telefonní společnost může vidět,
15:38
as the velocity is slowing down,
389
938260
2000
že se rychlost snižuje, takže
15:40
that there's a traffic jam.
390
940260
2000
je tam dopravní zácpa.
15:42
And they can feed that information back to their subscribers,
391
942260
3000
Tyto informace pak mohou zpět poskytnout svým klientům,
15:45
but only to their subscribers on the same highway
392
945260
2000
ale pouze těm, kteří jsou na té samé dálnici
15:47
located behind the traffic jam!
393
947260
2000
mířící k té dopravní zácpě!
15:49
Or we can monitor doctors prescribing behaviors, passively,
394
949260
3000
Můžeme pasivně sledovat, jak doktoři předepisují léky,
15:52
and see how the diffusion of innovation with pharmaceuticals
395
952260
3000
a uvidíme, jak se nové farmaceutické produkty
15:55
occurs within [networks of] doctors.
396
955260
2000
šíří v rámci [sítě] doktorů.
15:57
Or again, we can monitor purchasing behavior in people
397
957260
2000
Opět, můžeme monitorovat, jak lidé nakupují
15:59
and watch how these types of phenomena
398
959260
2000
a sledovat jak se takové jevy
16:01
can diffuse within human populations.
399
961260
3000
mohou šířit v rámci populace.
16:04
And there are three ways, I think,
400
964260
2000
Zde jsou tři způsoby,
16:06
that these massive-passive data can be used.
401
966260
2000
jak tato masivně pasivní data mohou být použita.
16:08
One is fully passive,
402
968260
2000
První je zcela pasivní,
16:10
like I just described --
403
970260
2000
jak jsem již popsal --
16:12
as in, for instance, the trucker example,
404
972260
2000
třeba ten příklad autodopravců,
16:14
where we don't actually intervene in the population in any way.
405
974260
2000
kde vlastně vůbec nezasahujeme do dané populace.
16:16
One is quasi-active,
406
976260
2000
Druhý je napůl aktivní,
16:18
like the flu example I gave,
407
978260
2000
jako příklad chřipky, který jsem uvedl,
16:20
where we get some people to nominate their friends
408
980260
3000
kde necháme určité lidi nominovat své přátele,
16:23
and then passively monitor their friends --
409
983260
2000
a pak pasivně sledujeme tyto přátele --
16:25
do they have the flu, or not? -- and then get warning.
410
985260
2000
mají chřipku, nebo ne? -- až dostaneme varování.
16:27
Or another example would be,
411
987260
2000
Další příklad by byl,
16:29
if you're a phone company, you figure out who's central in the network
412
989260
3000
jste-li telefonní společnost, zjistíte, kdo je v centru sítě,
16:32
and you ask those people, "Look, will you just text us your fever every day?
413
992260
3000
a zeptáte se jich: "Můžete nám každý den poslat SMS se svou tělesnou teplotou?
16:35
Just text us your temperature."
414
995260
2000
Jen nám pošlete svou teplotu."
16:37
And collect vast amounts of information about people's temperature,
415
997260
3000
Sbíráte rozsáhlé informace o teplotě lidí,
16:40
but from centrally located individuals.
416
1000260
2000
ale od lidí, kteří jsou ve středu.
16:42
And be able, on a large scale,
417
1002260
2000
A jste schopni, ve velkém měřítku,
16:44
to monitor an impending epidemic
418
1004260
2000
monitorovat hrozící epidemii
16:46
with very minimal input from people.
419
1006260
2000
s jen minimálním vkladem informací od lidí.
16:48
Or, finally, it can be more fully active --
420
1008260
2000
A nakonec třetí, který je aktivní --
16:50
as I know subsequent speakers will also talk about today --
421
1010260
2000
následující řečník o tom dnes bude rovněž mluvit --
16:52
where people might globally participate in wikis,
422
1012260
2000
kde se lidé mohou globálně účastnit ve wiki systémech,
16:54
or photographing, or monitoring elections,
423
1014260
3000
nebo fotografování, monitorování voleb,
16:57
and upload information in a way that allows us to pool
424
1017260
2000
a nahrávání údajů způsobem, který nám umožňuje sdílet
16:59
information in order to understand social processes
425
1019260
2000
informace za účelem porozumět sociálním procesům
17:01
and social phenomena.
426
1021260
2000
a společenským jevům.
17:03
In fact, the availability of these data, I think,
427
1023260
2000
Myslím, že dostupnost těchto údajů,
17:05
heralds a kind of new era
428
1025260
2000
ohlašuje určitou novou éru,
17:07
of what I and others would like to call
429
1027260
2000
něčeho, co bych spolu s ostatními chtěl označit jako
17:09
"computational social science."
430
1029260
2000
"výpočetní společenské vědy".
17:11
It's sort of like when Galileo invented -- or, didn't invent --
431
1031260
3000
To je jako když Galileo vynalezl -- nevynalezl --
17:14
came to use a telescope
432
1034260
2000
začal používat telescop
17:16
and could see the heavens in a new way,
433
1036260
2000
a uviděl nebe novým způsobem,
17:18
or Leeuwenhoek became aware of the microscope --
434
1038260
2000
nebo Leeuwenhoek, který začal používat mikroskop --
17:20
or actually invented --
435
1040260
2000
-- vlastně vynalezl --
17:22
and could see biology in a new way.
436
1042260
2000
pohlédl na biologii novým způsobem.
17:24
But now we have access to these kinds of data
437
1044260
2000
Nyní máme přístup k těmto údajům,
17:26
that allow us to understand social processes
438
1046260
2000
které nám umožňují pochopit společenské procesy
17:28
and social phenomena
439
1048260
2000
a společenské jevy
17:30
in an entirely new way that was never before possible.
440
1050260
3000
zcela novým způsobem, který do té doby nebyl možný.
17:33
And with this science, we can
441
1053260
2000
S touto znalostí můžeme
17:35
understand how exactly
442
1055260
2000
pochopit, jak přesně
17:37
the whole comes to be greater
443
1057260
2000
celek může být větší
17:39
than the sum of its parts.
444
1059260
2000
než součet jeho částí.
17:41
And actually, we can use these insights
445
1061260
2000
Dokonce můžeme použít tyto zjištění
17:43
to improve society and improve human well-being.
446
1063260
3000
ke zlepšení společnosti a lidského blahobytu.
17:46
Thank you.
447
1066260
2000
Děkuji.
O tomto webu

Tato stránka vám představí videa na YouTube, která jsou užitečná pro výuku angličtiny. Uvidíte lekce angličtiny vedené špičkovými učiteli z celého světa. Dvojklikem na anglické titulky zobrazené na každé stránce s videem si video přehrajete přímo odtud. Titulky se posouvají synchronizovaně s přehráváním videa. Pokud máte nějaké připomínky nebo požadavky, kontaktujte nás prosím pomocí tohoto kontaktního formuláře.

https://forms.gle/WvT1wiN1qDtmnspy7