Nicholas Christakis: How social networks predict epidemics

93,295 views ・ 2010-09-16

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Timmoty Wigboldus Nagekeken door: Christel Foncke
00:15
For the last 10 years, I've been spending my time trying to figure out
0
15260
3000
Tijdens de afgelopen tien jaar heb ik geprobeerd uit te zoeken
00:18
how and why human beings
1
18260
2000
hoe en waarom mensen
00:20
assemble themselves into social networks.
2
20260
3000
zich in sociale netwerken verenigen.
00:23
And the kind of social network I'm talking about
3
23260
2000
Het soort sociaal netwerk waar ik het over heb,
00:25
is not the recent online variety,
4
25260
2000
is niet de nieuwe online-variant,
00:27
but rather, the kind of social networks
5
27260
2000
maar het soort sociaal netwerk
00:29
that human beings have been assembling for hundreds of thousands of years,
6
29260
3000
waarin mensen zich al honderdduizenden jaren verzamelen,
00:32
ever since we emerged from the African savannah.
7
32260
3000
vanaf de tijd dat we op de Afrikaanse savanne verschenen.
00:35
So, I form friendships and co-worker
8
35260
2000
Ik heb vriendschaps- en familiebanden met mensen,
00:37
and sibling and relative relationships with other people
9
37260
3000
ik heb collega's. Deze mensen
00:40
who in turn have similar relationships with other people.
10
40260
2000
hebben op hun beurt gelijkaardige banden met andere mensen.
00:42
And this spreads on out endlessly into a distance.
11
42260
3000
Dit spreidt zich eindeloos uit.
00:45
And you get a network that looks like this.
12
45260
2000
Je krijgt een netwerk als dit.
00:47
Every dot is a person.
13
47260
2000
Elke stip is een mens.
00:49
Every line between them is a relationship between two people --
14
49260
2000
Elke lijn daartussen is een band tussen twee mensen -
00:51
different kinds of relationships.
15
51260
2000
verschillende soorten banden.
00:53
And you can get this kind of vast fabric of humanity,
16
53260
3000
Er ontstaat een uitgestrekt weefsel van mensen,
00:56
in which we're all embedded.
17
56260
2000
waar we allemaal in verankerd zitten.
00:58
And my colleague, James Fowler and I have been studying for quite sometime
18
58260
3000
Mijn collega James Fowler en ik zijn al een hele tijd aan het onderzoeken
01:01
what are the mathematical, social,
19
61260
2000
wat de wiskundige, sociale,
01:03
biological and psychological rules
20
63260
3000
biologische en psychologische regels zijn
01:06
that govern how these networks are assembled
21
66260
2000
die bepalen hoe deze netwerken samengesteld zijn
01:08
and what are the similar rules
22
68260
2000
en wat de regels zijn
01:10
that govern how they operate, how they affect our lives.
23
70260
3000
die bepalen hoe ze werken, hoe ze onze levens beïnvloeden.
01:13
But recently, we've been wondering
24
73260
2000
De laatste tijd hebben we ons afgevraagd
01:15
whether it might be possible to take advantage of this insight,
25
75260
3000
of het misschien mogelijk is dit inzicht in ons voordeel te gebruiken,
01:18
to actually find ways to improve the world,
26
78260
2000
om manieren te vinden om de wereld te verbeteren,
01:20
to do something better,
27
80260
2000
om iets beters te doen,
01:22
to actually fix things, not just understand things.
28
82260
3000
zaken op te lossen, niet slechts te begrijpen.
01:25
So one of the first things we thought we would tackle
29
85260
3000
Eén van de eerste dingen die we wilden aanpakken,
01:28
would be how we go about predicting epidemics.
30
88260
3000
was kijken hoe we epidemieën konden voorspellen.
01:31
And the current state of the art in predicting an epidemic --
31
91260
2000
Als op dit moment de overheid
01:33
if you're the CDC or some other national body --
32
93260
3000
een epidemie wil voorspellen,
01:36
is to sit in the middle where you are
33
96260
2000
gaat men het veld in
01:38
and collect data
34
98260
2000
en verzamelt gegevens
01:40
from physicians and laboratories in the field
35
100260
2000
bij artsen en laboratoria
01:42
that report the prevalence or the incidence of certain conditions.
36
102260
3000
die de verspreidingsgraad rapporteren.
01:45
So, so and so patients have been diagnosed with something,
37
105260
3000
Patiënten zus en zo hebben hier de diagnose gekregen,
01:48
or other patients have been diagnosed,
38
108260
2000
andere patiënten daar ook,
01:50
and all these data are fed into a central repository, with some delay.
39
110260
3000
en al deze gegevens komen met wat vertraging in een informatiecentrum terecht.
01:53
And if everything goes smoothly,
40
113260
2000
Als alles soepel verloopt,
01:55
one to two weeks from now
41
115260
2000
weet men over één of twee weken
01:57
you'll know where the epidemic was today.
42
117260
3000
waar de epidemie vandaag was.
02:00
And actually, about a year or so ago,
43
120260
2000
Ongeveer een jaar geleden
02:02
there was this promulgation
44
122260
2000
kwam het idee van
02:04
of the idea of Google Flu Trends, with respect to the flu,
45
124260
3000
Google Grieptrends in de wereld:
02:07
where by looking at people's searching behavior today,
46
127260
3000
door te kijken waar mensen het woord griep googelen,
02:10
we could know where the flu --
47
130260
2000
kwamen we erachter
02:12
what the status of the epidemic was today,
48
132260
2000
wat de status van de griepepidemie vandaag is,
02:14
what's the prevalence of the epidemic today.
49
134260
3000
wat vandaag de verspreiding is.
02:17
But what I'd like to show you today
50
137260
2000
Wat ik vandaag graag laat zien,
02:19
is a means by which we might get
51
139260
2000
is een manier
02:21
not just rapid warning about an epidemic,
52
141260
3000
waarmee we niet alleen een snelle waarschuwing krijgen
02:24
but also actually
53
144260
2000
voor een epidemie, maar waarmee we een epidemie
02:26
early detection of an epidemic.
54
146260
2000
zelfs in een vroeg stadium kunnen ontdekken.
02:28
And, in fact, this idea can be used
55
148260
2000
Deze vinding kan niet alleen gebruikt worden
02:30
not just to predict epidemics of germs,
56
150260
3000
om de verspreiding van ziekten te voorspellen
02:33
but also to predict epidemics of all sorts of kinds.
57
153260
3000
maar ook de verspreiding van allerlei andere zaken.
02:37
For example, anything that spreads by a form of social contagion
58
157260
3000
Alles bijvoorbeeld dat zich verspreid door een vorm van sociale besmetting
02:40
could be understood in this way,
59
160260
2000
kunnen we hiermee begrijpen,
02:42
from abstract ideas on the left
60
162260
2000
van abstracte ideeën aan de ene kant,
02:44
like patriotism, or altruism, or religion
61
164260
3000
zoals vaderlandsliefde, onbaatzuchtigheid of een geloof
02:47
to practices
62
167260
2000
tot gebruiken
02:49
like dieting behavior, or book purchasing,
63
169260
2000
zoals eetgedrag, het kopen van boeken,
02:51
or drinking, or bicycle-helmet [and] other safety practices,
64
171260
3000
drinken, het dragen van een fietshelm en het nemen
02:54
or products that people might buy,
65
174260
2000
van andere veiligheidsmaatregelen, de spullen die men koopt,
02:56
purchases of electronic goods,
66
176260
2000
het kopen van elektronische goederen,
02:58
anything in which there's kind of an interpersonal spread.
67
178260
3000
werkelijk alles waarmee mensen elkaar beïnvloeden.
03:01
A kind of a diffusion of innovation
68
181260
2000
De verspreiding van nieuwe dingen
03:03
could be understood and predicted
69
183260
2000
kan worden begrepen en voorspeld
03:05
by the mechanism I'm going to show you now.
70
185260
3000
met het mechanisme dat ik ga laten zien.
03:08
So, as all of you probably know,
71
188260
2000
Zoals jullie waarschijnlijk allemaal weten,
03:10
the classic way of thinking about this
72
190260
2000
denkt men hier meestal over
03:12
is the diffusion-of-innovation,
73
192260
2000
in termen van
03:14
or the adoption curve.
74
194260
2000
de verspreidingscurve.
03:16
So here on the Y-axis, we have the percent of the people affected,
75
196260
2000
Hier op de Y-as staat het percentage beïnvloede mensen
03:18
and on the X-axis, we have time.
76
198260
2000
en op de X-as staat de tijd.
03:20
And at the very beginning, not too many people are affected,
77
200260
3000
Eerst worden er maar weinig mensen beïnvloed,
03:23
and you get this classic sigmoidal,
78
203260
2000
en er ontstaat de bekende sigmoïdale,
03:25
or S-shaped, curve.
79
205260
2000
of S-vormige boog.
03:27
And the reason for this shape is that at the very beginning,
80
207260
2000
Dit ontstaat doordat in het begin
03:29
let's say one or two people
81
209260
2000
bijvoorbeeld één of twee mensen
03:31
are infected, or affected by the thing
82
211260
2000
erdoor beïnvloed of geïnfecteerd zijn.
03:33
and then they affect, or infect, two people,
83
213260
2000
Dan beïnvloeden of infecteren zij twee mensen,
03:35
who in turn affect four, eight, 16 and so forth,
84
215260
3000
die dan vier, acht, 16 mensen beïnvloeden, enzovoort.
03:38
and you get the epidemic growth phase of the curve.
85
218260
3000
Hierdoor ontstaat de epidemische groeifase.
03:41
And eventually, you saturate the population.
86
221260
2000
Later raakt de populatie verzadigd.
03:43
There are fewer and fewer people
87
223260
2000
Er zijn steeds minder mensen
03:45
who are still available that you might infect,
88
225260
2000
die nog beïnvloed kunnen worden
03:47
and then you get the plateau of the curve,
89
227260
2000
Dan ontstaat het vlakke deel van de boog,
03:49
and you get this classic sigmoidal curve.
90
229260
3000
en daarmee de klassieke sigmoïdaal.
03:52
And this holds for germs, ideas,
91
232260
2000
Dit geldt voor ziekten, ideeën
03:54
product adoption, behaviors,
92
234260
2000
producten, gedrag,
03:56
and the like.
93
236260
2000
enzovoort.
03:58
But things don't just diffuse in human populations at random.
94
238260
3000
Maar de verspreiding door de populatie is niet willekeurig.
04:01
They actually diffuse through networks.
95
241260
2000
Deze verloopt door netwerken.
04:03
Because, as I said, we live our lives in networks,
96
243260
3000
Want, zoals ik zei, we leven in netwerken
04:06
and these networks have a particular kind of a structure.
97
246260
3000
en deze netwerken hebben een bepaalde structuur.
04:09
Now if you look at a network like this --
98
249260
2000
Als je nu naar zo'n netwerk kijkt...
04:11
this is 105 people.
99
251260
2000
Dit zijn 105 mensen.
04:13
And the lines represent -- the dots are the people,
100
253260
2000
De stippen zijn mensen
04:15
and the lines represent friendship relationships.
101
255260
2000
en de lijnen zijn vriendschapsbanden.
04:17
You might see that people occupy
102
257260
2000
Je kan zien dat mensen
04:19
different locations within the network.
103
259260
2000
verschillende plekken innemen in het netwerk.
04:21
And there are different kinds of relationships between the people.
104
261260
2000
Er zijn verschillende soorten banden tussen mensen.
04:23
You could have friendship relationships, sibling relationships,
105
263260
3000
Banden tussen vrienden, broers en zussen,
04:26
spousal relationships, co-worker relationships,
106
266260
3000
echtgenoten, collega's,
04:29
neighbor relationships and the like.
107
269260
3000
buren, en dergelijke.
04:32
And different sorts of things
108
272260
2000
Verschillende zaken
04:34
spread across different sorts of ties.
109
274260
2000
verspreiden zich langs verschillende soorten relaties.
04:36
For instance, sexually transmitted diseases
110
276260
2000
soa's bijvoorbeeld
04:38
will spread across sexual ties.
111
278260
2000
verspreiden zich langs seksuele relaties.
04:40
Or, for instance, people's smoking behavior
112
280260
2000
Het rookgedrag van mensen
04:42
might be influenced by their friends.
113
282260
2000
kan bijvoorbeeld beïnvloed worden door vrienden.
04:44
Or their altruistic or their charitable giving behavior
114
284260
2000
Of hun onbaatzuchtigheid of het geven van donaties
04:46
might be influenced by their coworkers,
115
286260
2000
kan worden beïnvloed door collega's
04:48
or by their neighbors.
116
288260
2000
of buren.
04:50
But not all positions in the network are the same.
117
290260
3000
Maar niet alle plekken in het netwerk zijn hetzelfde.
04:53
So if you look at this, you might immediately grasp
118
293260
2000
Als je dit ziet, begrijp je waarschijnlijk meteen
04:55
that different people have different numbers of connections.
119
295260
3000
dat verschillende mensen verschillende aantallen verbindingen hebben.
04:58
Some people have one connection, some have two,
120
298260
2000
Sommige mensen hebben er één,
05:00
some have six, some have 10 connections.
121
300260
3000
sommigen hebben er twee, sommigen zes of 10.
05:03
And this is called the "degree" of a node,
122
303260
2000
Dit noemt men de 'graad' van een knoop,
05:05
or the number of connections that a node has.
123
305260
2000
of het aantal verbindingen dat een knoop heeft.
05:07
But in addition, there's something else.
124
307260
2000
Maar er komt nog meer bij.
05:09
So, if you look at nodes A and B,
125
309260
2000
Als je naar knopen A en B kijkt,
05:11
they both have six connections.
126
311260
2000
zie je dat ze beide zes verbindingen hebben.
05:13
But if you can see this image [of the network] from a bird's eye view,
127
313260
3000
Maar als je er van bovenaf naar kijkt,
05:16
you can appreciate that there's something very different
128
316260
2000
zie je dat er een groot verschil is
05:18
about nodes A and B.
129
318260
2000
tussen knoop A en B.
05:20
So, let me ask you this -- I can cultivate this intuition by asking a question --
130
320260
3000
Laat ik je dit vragen - ik kan dit gevoel verduidelijken door een vraag te stellen:
05:23
who would you rather be
131
323260
2000
wie zou je liever zijn
05:25
if a deadly germ was spreading through the network, A or B?
132
325260
3000
als er zich een dodelijke ziekte door het netwerk verspreidde, A of B?
05:28
(Audience: B.) Nicholas Christakis: B, it's obvious.
133
328260
2000
(Publiek: B.) Nicholas: B, dat is duidelijk.
05:30
B is located on the edge of the network.
134
330260
2000
B ligt aan de rand van het netwerk.
05:32
Now, who would you rather be
135
332260
2000
Wie zou je liever zijn
05:34
if a juicy piece of gossip were spreading through the network?
136
334260
3000
als er een sappige roddel rondging?
05:37
A. And you have an immediate appreciation
137
337260
3000
A. En je snapt meteen
05:40
that A is going to be more likely
138
340260
2000
dat A een veel grotere kans heeft
05:42
to get the thing that's spreading and to get it sooner
139
342260
3000
om datgene te krijgen dat rondgaat, om het sneller te krijgen
05:45
by virtue of their structural location within the network.
140
345260
3000
door de positie binnen het netwerk.
05:48
A, in fact, is more central,
141
348260
2000
A ligt veel meer in het midden
05:50
and this can be formalized mathematically.
142
350260
3000
en dit kan wiskundig worden beschreven.
05:53
So, if we want to track something
143
353260
2000
Als we dus iets willen volgen
05:55
that was spreading through a network,
144
355260
3000
dat zich door het netwerk verspreidt,
05:58
what we ideally would like to do is to set up sensors
145
358260
2000
zouden we het liefst de mensen in het midden van het netwerk
06:00
on the central individuals within the network,
146
360260
2000
in de gaten willen houden,
06:02
including node A,
147
362260
2000
zoals knoop A.
06:04
monitor those people that are right there in the middle of the network,
148
364260
3000
Hou de mensen in het midden in de gaten
06:07
and somehow get an early detection
149
367260
2000
en je kan vroeg doorhebben
06:09
of whatever it is that is spreading through the network.
150
369260
3000
dat er zich iets door het netwerk verspreidt.
06:12
So if you saw them contract a germ or a piece of information,
151
372260
3000
Als je zou zien dat deze mensen een ziekte of bepaalde informatie krijgen,
06:15
you would know that, soon enough,
152
375260
2000
weet je dat vrij snel
06:17
everybody was about to contract this germ
153
377260
2000
iedereen die ziekte
06:19
or this piece of information.
154
379260
2000
of dat stuk informatie zou krijgen.
06:21
And this would be much better
155
381260
2000
Dit zou veel beter zijn
06:23
than monitoring six randomly chosen people,
156
383260
2000
dan zes willekeurige mensen in de gaten houden,
06:25
without reference to the structure of the population.
157
385260
3000
zonder rekening te houden met de structuur van de groep.
06:28
And in fact, if you could do that,
158
388260
2000
En in feite, als je dat kon doen,
06:30
what you would see is something like this.
159
390260
2000
zou je zoiets zien.
06:32
On the left-hand panel, again, we have the S-shaped curve of adoption.
160
392260
3000
Aan de linkerkant is er weer de S-vormige verspreidingscurve.
06:35
In the dotted red line, we show
161
395260
2000
De rode gestippelde lijn laat zien
06:37
what the adoption would be in the random people,
162
397260
2000
wat de adoptiecurve is van willekeurige mensen.
06:39
and in the left-hand line, shifted to the left,
163
399260
3000
De linkerlijn, de lijn meer naar links,
06:42
we show what the adoption would be
164
402260
2000
laat zien hoe de verspreidingscurve loopt
06:44
in the central individuals within the network.
165
404260
2000
bij de centrale individuen in het netwerk.
06:46
On the Y-axis is the cumulative instances of contagion,
166
406260
2000
Op de Y-as staat de totale besmettingsgraad
06:48
and on the X-axis is the time.
167
408260
2000
en op de X-as de tijd.
06:50
And on the right-hand side, we show the same data,
168
410260
2000
Aan de rechterkant staan dezelfde gegevens,
06:52
but here with daily incidence.
169
412260
2000
maar hier met de incidentie van dag tot dag.
06:54
And what we show here is -- like, here --
170
414260
2000
Hier zie je dat er weinig mensen beïnvloed zijn,
06:56
very few people are affected, more and more and more and up to here,
171
416260
2000
hier wordt het steeds meer,
06:58
and here's the peak of the epidemic.
172
418260
2000
en hier is het hoogtepunt van de epidemie.
07:00
But shifted to the left is what's occurring in the central individuals.
173
420260
2000
Meer naar links staat wat er gebeurt met de mensen in het midden.
07:02
And this difference in time between the two
174
422260
3000
Het verschil in tijd tussen deze twee
07:05
is the early detection, the early warning we can get,
175
425260
3000
is de vroege waarneming en waarschuwing die we krijgen
07:08
about an impending epidemic
176
428260
2000
over een dreigende epidemie
07:10
in the human population.
177
430260
2000
in een groep mensen.
07:12
The problem, however,
178
432260
2000
Echter, het probleem
07:14
is that mapping human social networks
179
434260
2000
is dat de sociale netwerken van mensen
07:16
is not always possible.
180
436260
2000
niet altijd in kaart kunnen worden gebracht.
07:18
It can be expensive, not feasible,
181
438260
2000
Het kan duur zijn, erg lastig,
07:20
unethical,
182
440260
2000
onethisch,
07:22
or, frankly, just not possible to do such a thing.
183
442260
3000
of ronduit onmogelijk om zoiets te doen.
07:25
So, how can we figure out
184
445260
2000
Hoe kunnen we erachter komen
07:27
who the central people are in a network
185
447260
2000
wie de centrale mensen in het netwerk zijn
07:29
without actually mapping the network?
186
449260
3000
zonder het netwerk in kaart te brengen?
07:32
What we came up with
187
452260
2000
We kwamen op het idee
07:34
was an idea to exploit an old fact,
188
454260
2000
om een oud idee of een bekend feit
07:36
or a known fact, about social networks,
189
456260
2000
over sociale netwerken te gebruiken.
07:38
which goes like this:
190
458260
2000
Dit is het:
07:40
Do you know that your friends
191
460260
2000
wist je dat je vrienden
07:42
have more friends than you do?
192
462260
3000
meer vrienden hebben dan jij?
07:45
Your friends have more friends than you do,
193
465260
3000
Je vrienden hebben meer vrienden dan jij.
07:48
and this is known as the friendship paradox.
194
468260
2000
Dit staat bekend als de vriendschapsparadox.
07:50
Imagine a very popular person in the social network --
195
470260
2000
Stel je een heel populaire persoon voor in het netwerk,
07:52
like a party host who has hundreds of friends --
196
472260
3000
zoals iemand die een feest geeft voor honderden vrienden,
07:55
and a misanthrope who has just one friend,
197
475260
2000
en een mensenhater met maar één vriend
07:57
and you pick someone at random from the population;
198
477260
3000
en je neemt een willekeurige persoon uit de groep,
08:00
they were much more likely to know the party host.
199
480260
2000
dan is het waarschijnlijker dat die persoon de feestgever kent.
08:02
And if they nominate the party host as their friend,
200
482260
2000
Als iemand de feester aanwijst als zijn vriend
08:04
that party host has a hundred friends,
201
484260
2000
is dat dus iemand met honderd vrienden
08:06
therefore, has more friends than they do.
202
486260
3000
en heeft hij dus meer vrienden dan die persoon.
08:09
And this, in essence, is what's known as the friendship paradox.
203
489260
3000
Dit is, in wezen, de vriendschapsparadox.
08:12
The friends of randomly chosen people
204
492260
3000
De vrienden van willekeurige mensen
08:15
have higher degree, and are more central
205
495260
2000
hebben een hogere graad, zijn centraler,
08:17
than the random people themselves.
206
497260
2000
dan de willekeurige mensen zelf.
08:19
And you can get an intuitive appreciation for this
207
499260
2000
Je kan dit gevoelsmatig doorzien
08:21
if you imagine just the people at the perimeter of the network.
208
501260
3000
als je je alleen de mensen aan de buitenrand van het netwerk voorstelt.
08:24
If you pick this person,
209
504260
2000
Als je deze persoon kiest,
08:26
the only friend they have to nominate is this person,
210
506260
3000
kan die alleen deze persoon aanwijzen
08:29
who, by construction, must have at least two
211
509260
2000
die dus minstens twee vrienden moet hebben
08:31
and typically more friends.
212
511260
2000
en er misschien meer heeft.
08:33
And that happens at every peripheral node.
213
513260
2000
Dat gebeurt bij elke knoop aan de buitenrand.
08:35
And in fact, it happens throughout the network as you move in,
214
515260
3000
Dit gaat zo door als je meer naar binnen beweegt.
08:38
everyone you pick, when they nominate a random --
215
518260
2000
Als je een willekeurig persoon kiest
08:40
when a random person nominates a friend of theirs,
216
520260
3000
en zij nomineert een vriend van haar
08:43
you move closer to the center of the network.
217
523260
3000
beweeg je verder naar het midden van het netwerk.
08:46
So, we thought we would exploit this idea
218
526260
3000
We besloten dit idee te gebruiken
08:49
in order to study whether we could predict phenomena within networks.
219
529260
3000
om te bestuderen of we verschijnsels in netwerken konden voorspellen.
08:52
Because now, with this idea
220
532260
2000
Want nu, met dit idee,
08:54
we can take a random sample of people,
221
534260
2000
kunnen we willekeurige mensen nemen,
08:56
have them nominate their friends,
222
536260
2000
hun vrienden laten voordragen
08:58
those friends would be more central,
223
538260
2000
die centraler zijn, en we zouden
09:00
and we could do this without having to map the network.
224
540260
3000
dit kunnen doen zonder het netwerk in kaart te brengen.
09:03
And we tested this idea with an outbreak of H1N1 flu
225
543260
3000
We hebben deze gedachte beproefd bij een uitbraak
09:06
at Harvard College
226
546260
2000
van de H1N1-griep op Harvard
09:08
in the fall and winter of 2009, just a few months ago.
227
548260
3000
in de herfst en winter van 2009, net een paar maand geleden.
09:11
We took 1,300 randomly selected undergraduates,
228
551260
3000
We namen 1300 willekeurige studenten
09:14
we had them nominate their friends,
229
554260
2000
die we hun vrienden lieten voordragen
09:16
and we followed both the random students and their friends
230
556260
2000
en we volgden zowel de studenten als hun vrienden
09:18
daily in time
231
558260
2000
elke dag
09:20
to see whether or not they had the flu epidemic.
232
560260
3000
om te zien of de griep bij ze rondging.
09:23
And we did this passively by looking at whether or not they'd gone to university health services.
233
563260
3000
We deden dit passief door te kijken of ze naar artsenpost van de universiteit waren geweest.
09:26
And also, we had them [actively] email us a couple of times a week.
234
566260
3000
We lieten ze ook actief een paar keer in de week naar ons mailen.
09:29
Exactly what we predicted happened.
235
569260
3000
Er gebeurde precies wat we voorspeld hadden.
09:32
So the random group is in the red line.
236
572260
3000
De willekeurige groep is de rode lijn.
09:35
The epidemic in the friends group has shifted to the left, over here.
237
575260
3000
De epidemie in de groep vrienden is naar links verschoven, hier.
09:38
And the difference in the two is 16 days.
238
578260
3000
Het verschil tussen de twee is 16 dagen.
09:41
By monitoring the friends group,
239
581260
2000
Door de groep vrienden te volgen,
09:43
we could get 16 days advance warning
240
583260
2000
kregen we 16 dagen van tevoren een waarschuwing
09:45
of an impending epidemic in this human population.
241
585260
3000
van een dreigende epidemie in deze groep mensen.
09:48
Now, in addition to that,
242
588260
2000
Daar komt nog bij dat
09:50
if you were an analyst who was trying to study an epidemic
243
590260
3000
als je een analist was die een epidemie wilde bestuderen
09:53
or to predict the adoption of a product, for example,
244
593260
3000
of de ingebruikname van een product bijvoorbeeld,
09:56
what you could do is you could pick a random sample of the population,
245
596260
3000
je een willekeurig monster uit de populatie zou kunnen nemen,
09:59
also have them nominate their friends and follow the friends
246
599260
3000
vrienden kan laten voordragen, en de vrienden volgen,
10:02
and follow both the randoms and the friends.
247
602260
3000
en beide groepen volgen.
10:05
Among the friends, the first evidence you saw of a blip above zero
248
605260
3000
Wanneer er bij de vrienden een schommeling boven de nul is
10:08
in adoption of the innovation, for example,
249
608260
3000
in het gebruik van een vernieuwing bijvoorbeeld,
10:11
would be evidence of an impending epidemic.
250
611260
2000
zou dat bewijs zijn van de komende verspreiding.
10:13
Or you could see the first time the two curves diverged,
251
613260
3000
Of je zou het eerste moment kunnen zien waarop de beide lijnen uit elkaar gaan,
10:16
as shown on the left.
252
616260
2000
zoals te zien aan de linkerkant.
10:18
When did the randoms -- when did the friends take off
253
618260
3000
Wanneer begonnen de vrienden te bewegen
10:21
and leave the randoms,
254
621260
2000
en lieten ze de willekeurige groep achter
10:23
and [when did] their curve start shifting?
255
623260
2000
en wanneer begonnen ze te bewegen?
10:25
And that, as indicated by the white line,
256
625260
2000
En dat, zoals de witte lijn aangeeft,
10:27
occurred 46 days
257
627260
2000
gebeurde 46 dagen
10:29
before the peak of the epidemic.
258
629260
2000
voor het hoogtepunt van de epidemie.
10:31
So this would be a technique
259
631260
2000
Dus dit kan een techniek zijn
10:33
whereby we could get more than a month-and-a-half warning
260
633260
2000
waarmee we een waarschuwing zouden kunnen krijgen
10:35
about a flu epidemic in a particular population.
261
635260
3000
over een griepepidemie, anderhalve maand van tevoren.
10:38
I should say that
262
638260
2000
Ik moet erbij zeggen dat
10:40
how far advanced a notice one might get about something
263
640260
2000
hoe lang van tevoren je iets te zien krijgt
10:42
depends on a host of factors.
264
642260
2000
afhangt van vele factoren.
10:44
It could depend on the nature of the pathogen --
265
644260
2000
Het kan afhangen van het soort pathogeen.
10:46
different pathogens,
266
646260
2000
Bij verschillende ziekten
10:48
using this technique, you'd get different warning --
267
648260
2000
krijg je met deze techniek verschillende waarschuwingen.
10:50
or other phenomena that are spreading,
268
650260
2000
Het verschilt ook bij andere verschijnsels
10:52
or frankly, on the structure of the human network.
269
652260
3000
en hangt af van de structuur van het netwerk.
10:55
Now in our case, although it wasn't necessary,
270
655260
3000
In ons geval konden we, hoewel dat niet nodig was,
10:58
we could also actually map the network of the students.
271
658260
2000
het netwerk van de studenten echt in kaart brengen.
11:00
So, this is a map of 714 students
272
660260
2000
Dit is een kaart van 714 studenten
11:02
and their friendship ties.
273
662260
2000
en hun vriendschapsbanden.
11:04
And in a minute now, I'm going to put this map into motion.
274
664260
2000
Ik ga deze kaart zo in beweging zetten.
11:06
We're going to take daily cuts through the network
275
666260
2000
We gaan van 120 bekijken
11:08
for 120 days.
276
668260
2000
hoe het netwerk ervoor staat.
11:10
The red dots are going to be cases of the flu,
277
670260
3000
De rode stippen zullen de gevallen zijn met griep
11:13
and the yellow dots are going to be friends of the people with the flu.
278
673260
3000
en de gele de vrienden van mensen met de griep.
11:16
And the size of the dots is going to be proportional
279
676260
2000
De grootte van de stippen staat in verhouding
11:18
to how many of their friends have the flu.
280
678260
2000
tot het aantal vrienden dat de griep heeft.
11:20
So bigger dots mean more of your friends have the flu.
281
680260
3000
Hoe groter de stippen, hoe meer vrienden de griep hebben.
11:23
And if you look at this image -- here we are now in September the 13th --
282
683260
3000
Als je naar dit beeld kijkt, dit is 13 september,
11:26
you're going to see a few cases light up.
283
686260
2000
zie je een paar gevallen oplichten.
11:28
You're going to see kind of blooming of the flu in the middle.
284
688260
2000
Je zal de griep in het midden tot bloei zien komen.
11:30
Here we are on October the 19th.
285
690260
3000
Dit is de negentiende oktober.
11:33
The slope of the epidemic curve is approaching now, in November.
286
693260
2000
De helling van de verspreidingscurve komt eraan, in november.
11:35
Bang, bang, bang, bang, bang -- you're going to see lots of blooming in the middle,
287
695260
3000
Hup, hup, hup, hup, je ziet het in het midden oplichten
11:38
and then you're going to see a sort of leveling off,
288
698260
2000
en dan weer minder worden
11:40
fewer and fewer cases towards the end of December.
289
700260
3000
met minder en minder gevallen tegen het eind van december.
11:43
And this type of a visualization
290
703260
2000
Dit soort plaatjes
11:45
can show that epidemics like this take root
291
705260
2000
laat zien dat zulke epidemieën
11:47
and affect central individuals first,
292
707260
2000
eerst de mensen in het midden treffen
11:49
before they affect others.
293
709260
2000
voordat ze anderen treffen.
11:51
Now, as I've been suggesting,
294
711260
2000
Zoals ik al zei,
11:53
this method is not restricted to germs,
295
713260
3000
is deze methode niet alleen geschikt voor ziekten
11:56
but actually to anything that spreads in populations.
296
716260
2000
maar voor alles dat zich door een populatie verspreidt.
11:58
Information spreads in populations,
297
718260
2000
Informatie verspreidt zich door populaties.
12:00
norms can spread in populations,
298
720260
2000
Normen kunnen zich door populaties verspreiden.
12:02
behaviors can spread in populations.
299
722260
2000
Gedrag kan zich door populaties verspreiden.
12:04
And by behaviors, I can mean things like criminal behavior,
300
724260
3000
Met gedrag bedoel ik dingen als crimineel gedrag,
12:07
or voting behavior, or health care behavior,
301
727260
3000
stemgedrag, omgang met gezondheid
12:10
like smoking, or vaccination,
302
730260
2000
zoals roken en vaccinering,
12:12
or product adoption, or other kinds of behaviors
303
732260
2000
of de acceptatie van producten, of andere soorten gedrag
12:14
that relate to interpersonal influence.
304
734260
2000
die te maken hebben met invloed van mensen op elkaar.
12:16
If I'm likely to do something that affects others around me,
305
736260
3000
Als ik iets doe dat anderen om mij heen beïnvloedt,
12:19
this technique can get early warning or early detection
306
739260
3000
kan deze techniek vroeg zichtbaar maken
12:22
about the adoption within the population.
307
742260
3000
hoe het overgenomen wordt door anderen.
12:25
The key thing is that for it to work,
308
745260
2000
Om dit te laten werken moet er invloed zijn
12:27
there has to be interpersonal influence.
309
747260
2000
van één persoon op een andere.
12:29
It cannot be because of some broadcast mechanism
310
749260
2000
Het werkt niet met een uitzending
12:31
affecting everyone uniformly.
311
751260
3000
die iedereen evenveel beïnvloedt.
12:35
Now the same insights
312
755260
2000
Deze inzichten
12:37
can also be exploited -- with respect to networks --
313
757260
3000
over netwerken
12:40
can also be exploited in other ways,
314
760260
3000
kunnen bijvoorbeeld ook worden gebruikt
12:43
for example, in the use of targeting
315
763260
2000
om bepaalde mensen te bereiken
12:45
specific people for interventions.
316
765260
2000
om in te grijpen.
12:47
So, for example, most of you are probably familiar
317
767260
2000
De meesten van jullie kennen waarschijnlijk
12:49
with the notion of herd immunity.
318
769260
2000
het begrip kudde-immuniteit.
12:51
So, if we have a population of a thousand people,
319
771260
3000
Als we een populatie hebben van duizend mensen
12:54
and we want to make the population immune to a pathogen,
320
774260
3000
en we willen de populatie immuun maken voor een pathogeen,
12:57
we don't have to immunize every single person.
321
777260
2000
hoeven we niet iedereen te vaccineren.
12:59
If we immunize 960 of them,
322
779260
2000
Als we er 960 vaccineren
13:01
it's as if we had immunized a hundred [percent] of them.
323
781260
3000
is dat net zo goed als wanneer we iedereen vaccineerden.
13:04
Because even if one or two of the non-immune people gets infected,
324
784260
3000
Want zelfs als er één of twee mensen besmet worden,
13:07
there's no one for them to infect.
325
787260
2000
kunnen zij niemand infecteren.
13:09
They are surrounded by immunized people.
326
789260
2000
Ze worden omringd door mensen die immuun zijn.
13:11
So 96 percent is as good as 100 percent.
327
791260
3000
96 procent is net zo goed als 100 procent.
13:14
Well, some other scientists have estimated
328
794260
2000
Er is een schatting gemaakt
13:16
what would happen if you took a 30 percent random sample
329
796260
2000
wat er zou gebeuren als je willekeurig 30 procent
13:18
of these 1000 people, 300 people and immunized them.
330
798260
3000
van deze mensen zou vaccineren, 300 mensen.
13:21
Would you get any population-level immunity?
331
801260
2000
Zou er een vorm van immuniteit op groepsniveau ontstaan?
13:23
And the answer is no.
332
803260
3000
Dat is niet zo.
13:26
But if you took this 30 percent, these 300 people
333
806260
2000
Maar als je deze 30 procent, deze 300 mensen,
13:28
and had them nominate their friends
334
808260
2000
hun vrienden liet voordragen
13:30
and took the same number of vaccine doses
335
810260
3000
en dezelfde hoeveelheid vaccins nam
13:33
and vaccinated the friends of the 300 --
336
813260
2000
en de voorgedragen vrienden zou vaccineren,
13:35
the 300 friends --
337
815260
2000
de 300 vrienden,
13:37
you can get the same level of herd immunity
338
817260
2000
zou je dezelfde mate van kudde-immuniteit krijgen
13:39
as if you had vaccinated 96 percent of the population
339
819260
3000
als wanneer je 96 procent van de groep vaccineerde,
13:42
at a much greater efficiency, with a strict budget constraint.
340
822260
3000
alleen veel doeltreffender, voor veel minder geld.
13:45
And similar ideas can be used, for instance,
341
825260
2000
Soortgelijke ideeën kunnen bijvoorbeeld worden gebruikt
13:47
to target distribution of things like bed nets
342
827260
2000
om de verdeling van zaken als klamboes te regelen
13:49
in the developing world.
343
829260
2000
in ontwikkelingslanden.
13:51
If we could understand the structure of networks in villages,
344
831260
3000
Als we de opbouw van netwerken in dorpen konden begrijpen,
13:54
we could target to whom to give the interventions
345
834260
2000
konden we bepalen wie spullen moet krijgen
13:56
to foster these kinds of spreads.
346
836260
2000
om dit soort zaken te verspreiden.
13:58
Or, frankly, for advertising with all kinds of products.
347
838260
3000
Of gewoon om reclame te maken.
14:01
If we could understand how to target,
348
841260
2000
Als we begrijpen wie we moeten hebben,
14:03
it could affect the efficiency
349
843260
2000
kan dat de efficiëntie beïnvloeden
14:05
of what we're trying to achieve.
350
845260
2000
van wat we proberen te bereiken.
14:07
And in fact, we can use data
351
847260
2000
Tegenwoordig kunnen we gegevens gebruiken
14:09
from all kinds of sources nowadays [to do this].
352
849260
2000
uit allerlei bronnen om dit te doen.
14:11
This is a map of eight million phone users
353
851260
2000
Dit is een kaart van acht miljoen telefoongebruikers
14:13
in a European country.
354
853260
2000
in een Europees land.
14:15
Every dot is a person, and every line represents
355
855260
2000
Elke stip is een mens en elke lijn
14:17
a volume of calls between the people.
356
857260
2000
stelt de hoeveelheid belverkeer tussen mensen voor.
14:19
And we can use such data, that's being passively obtained,
357
859260
3000
We kunnen zulke passief verkregen gegevens gebruiken
14:22
to map these whole countries
358
862260
2000
om hele landen in kaart te brengen
14:24
and understand who is located where within the network.
359
864260
3000
en te begrijpen wie waar in het netwerk zit.
14:27
Without actually having to query them at all,
360
867260
2000
We kunnen zulke structurele inzichten verkrijgen
14:29
we can get this kind of a structural insight.
361
869260
2000
helemaal zonder vragen te hoeven stellen.
14:31
And other sources of information, as you're no doubt aware
362
871260
3000
Je weet dat andere bronnen van informatie hierover
14:34
are available about such features, from email interactions,
363
874260
3000
beschikbaar zijn van e-mailverkeer,
14:37
online interactions,
364
877260
2000
internet,
14:39
online social networks and so forth.
365
879260
3000
sociale media, enzovoort.
14:42
And in fact, we are in the era of what I would call
366
882260
2000
We bevinden ons in het tijdperk van wat ik
14:44
"massive-passive" data collection efforts.
367
884260
3000
'massaal-passieve' gegevensverzameling zou noemen.
14:47
They're all kinds of ways we can use massively collected data
368
887260
3000
Er zijn allerlei manieren waarop we deze gegevens kunnen gebruiken
14:50
to create sensor networks
369
890260
3000
om netwerken te maken
14:53
to follow the population,
370
893260
2000
waarmee we de bevolking kunnen volgen
14:55
understand what's happening in the population,
371
895260
2000
en begrijpen wat er onder de bevolking gebeurt
14:57
and intervene in the population for the better.
372
897260
3000
en kunnen ingrijpen om dingen te verbeteren.
15:00
Because these new technologies tell us
373
900260
2000
Omdat deze nieuwe technologieën ons niet alleen vertellen
15:02
not just who is talking to whom,
374
902260
2000
wie met wie spreekt
15:04
but where everyone is,
375
904260
2000
maar waar iedereen is
15:06
and what they're thinking based on what they're uploading on the Internet,
376
906260
3000
en wat ze denken afgaande op wat ze op het internet zetten
15:09
and what they're buying based on their purchases.
377
909260
2000
en wat mensen kopen afgaande op online aankopen.
15:11
And all this administrative data can be pulled together
378
911260
3000
Al deze gegevens kunnen samengevoegd worden
15:14
and processed to understand human behavior
379
914260
2000
en verwerkt worden om menselijk gedrag te begrijpen
15:16
in a way we never could before.
380
916260
3000
op een manier die nog nooit mogelijk was.
15:19
So, for example, we could use truckers' purchases of fuel.
381
919260
3000
Bijvoorbeeld de aankoop van brandstof door vrachtwagenchauffeurs.
15:22
So the truckers are just going about their business,
382
922260
2000
De chauffeurs werken gewoon
15:24
and they're buying fuel.
383
924260
2000
en ze kopen brandstof.
15:26
And we see a blip up in the truckers' purchases of fuel,
384
926260
3000
Als we een stijging in de aankoop van brandstof zien,
15:29
and we know that a recession is about to end.
385
929260
2000
weten we dat een recessie op zijn einde is.
15:31
Or we can monitor the velocity
386
931260
2000
We kunnen de snelheid meten
15:33
with which people are moving with their phones on a highway,
387
933260
3000
waarmee mensen over de snelweg rijden.
15:36
and the phone company can see,
388
936260
2000
De telefoonmaatschappij kan zien
15:38
as the velocity is slowing down,
389
938260
2000
dat er een file is
15:40
that there's a traffic jam.
390
940260
2000
wanneer mensen afremmen.
15:42
And they can feed that information back to their subscribers,
391
942260
3000
Ze kunnen die informatie aanbieden aan hun klanten,
15:45
but only to their subscribers on the same highway
392
945260
2000
maar alleen aan de klanten op dezelfde snelweg
15:47
located behind the traffic jam!
393
947260
2000
die richting de file bewegen.
15:49
Or we can monitor doctors prescribing behaviors, passively,
394
949260
3000
Of we zouden kunnen kijken welke medicijnen artsen voorschrijven,
15:52
and see how the diffusion of innovation with pharmaceuticals
395
952260
3000
passief, en zien hoe de verspreiding daarvan verloopt
15:55
occurs within [networks of] doctors.
396
955260
2000
binnen netwerken van artsen.
15:57
Or again, we can monitor purchasing behavior in people
397
957260
2000
Of we kunnen kijken wat mensen kopen
15:59
and watch how these types of phenomena
398
959260
2000
om te zien hoe zulk gedrag
16:01
can diffuse within human populations.
399
961260
3000
zich verspreidt tussen mensen.
16:04
And there are three ways, I think,
400
964260
2000
Ik denk dat er drie manieren zijn
16:06
that these massive-passive data can be used.
401
966260
2000
waarop deze massaal-passieve gegevens gebruikt kunnen worden.
16:08
One is fully passive,
402
968260
2000
Eén is volledig passief,
16:10
like I just described --
403
970260
2000
zoals ik zojuist beschreef
16:12
as in, for instance, the trucker example,
404
972260
2000
in het voorbeeld van de vrachtwagenchauffeurs
16:14
where we don't actually intervene in the population in any way.
405
974260
2000
waar we mensen helemaal ongemoeid laten.
16:16
One is quasi-active,
406
976260
2000
Eén is half actief,
16:18
like the flu example I gave,
407
978260
2000
zoals in het griepvoorbeeld,
16:20
where we get some people to nominate their friends
408
980260
3000
waar sommige mensen hun vrienden voordragen
16:23
and then passively monitor their friends --
409
983260
2000
die dan passief gevolgd worden -
16:25
do they have the flu, or not? -- and then get warning.
410
985260
2000
Hebben ze de griep, of niet? - om een waarschuwing te krijgen.
16:27
Or another example would be,
411
987260
2000
Een ander voorbeeld zou kunnen zijn
16:29
if you're a phone company, you figure out who's central in the network
412
989260
3000
dat een telefoonmaatschappij kijkt wie centraal is in het netwerk
16:32
and you ask those people, "Look, will you just text us your fever every day?
413
992260
3000
en die mensen vraagt elke dag hun koorts door te geven,
16:35
Just text us your temperature."
414
995260
2000
alleen hun temperatuur.
16:37
And collect vast amounts of information about people's temperature,
415
997260
3000
Verzamel een heleboel informatie over de temperatuur van mensen,
16:40
but from centrally located individuals.
416
1000260
2000
maar dan wel van de centrale mensen.
16:42
And be able, on a large scale,
417
1002260
2000
Zo kan je op grote schaal
16:44
to monitor an impending epidemic
418
1004260
2000
een epidemie zien aankomen
16:46
with very minimal input from people.
419
1006260
2000
terwijl je mensen heel weinig vraagt.
16:48
Or, finally, it can be more fully active --
420
1008260
2000
Ten derde kan het actiever.
16:50
as I know subsequent speakers will also talk about today --
421
1010260
2000
Ik weet dat anderen het hier vandaag nog over zullen hebben.
16:52
where people might globally participate in wikis,
422
1012260
2000
Mensen kunnen wereldwijd meedoen aan wiki's,
16:54
or photographing, or monitoring elections,
423
1014260
3000
of fotograferen, of verkiezingen controleren,
16:57
and upload information in a way that allows us to pool
424
1017260
2000
en deze informatie uploaden op een manier dat we het kunnen samenbrengen
16:59
information in order to understand social processes
425
1019260
2000
om sociale processen
17:01
and social phenomena.
426
1021260
2000
en sociale verschijnsels te begrijpen.
17:03
In fact, the availability of these data, I think,
427
1023260
2000
De beschikbaarheid van deze gegevens luidt,
17:05
heralds a kind of new era
428
1025260
2000
denk ik, een nieuw tijdperk in
17:07
of what I and others would like to call
429
1027260
2000
die we graag 'computationele sociale wetenschappen'
17:09
"computational social science."
430
1029260
2000
willen noemen.
17:11
It's sort of like when Galileo invented -- or, didn't invent --
431
1031260
3000
Het is een beetje zoals toen Galileo
17:14
came to use a telescope
432
1034260
2000
een telescoop ging gebruiken
17:16
and could see the heavens in a new way,
433
1036260
2000
en de hemel op een nieuwe manier kon zien,
17:18
or Leeuwenhoek became aware of the microscope --
434
1038260
2000
of toen Van Leeuwenhoek de microscoop leerde kennen,
17:20
or actually invented --
435
1040260
2000
of uitvond,
17:22
and could see biology in a new way.
436
1042260
2000
en de biologie op een nieuwe manier zag.
17:24
But now we have access to these kinds of data
437
1044260
2000
Maar nu hebben we toegang tot dit soort gegevens
17:26
that allow us to understand social processes
438
1046260
2000
die het mogelijk maken sociale processen
17:28
and social phenomena
439
1048260
2000
en verschijnselen te begrijpen
17:30
in an entirely new way that was never before possible.
440
1050260
3000
op een heel nieuwe manier die nooit mogelijk was.
17:33
And with this science, we can
441
1053260
2000
Met deze wetenschap kunnen we begrijpen
17:35
understand how exactly
442
1055260
2000
hoe het nu kan
17:37
the whole comes to be greater
443
1057260
2000
dat het geheel groter wordt
17:39
than the sum of its parts.
444
1059260
2000
dan de som der delen.
17:41
And actually, we can use these insights
445
1061260
2000
We kunnen deze inzichten gebruiken
17:43
to improve society and improve human well-being.
446
1063260
3000
om de maatschappij en menselijk welzijn te verbeteren.
17:46
Thank you.
447
1066260
2000
Bedankt.
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7