Nicholas Christakis: How social networks predict epidemics

93,295 views ・ 2010-09-16

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Bíborka Szántó Lektor: Laszlo Kereszturi
00:15
For the last 10 years, I've been spending my time trying to figure out
0
15260
3000
Az utóbbi tíz évben annak a kérdésnek a megválaszolásával foglalkoztam,
00:18
how and why human beings
1
18260
2000
hogy az emberek miért és hogyan
00:20
assemble themselves into social networks.
2
20260
3000
szerveződnek közösségi hálózatokba.
00:23
And the kind of social network I'm talking about
3
23260
2000
Amikor közösségi hálózatról beszélek, nem a
00:25
is not the recent online variety,
4
25260
2000
nemrég megjelent online változatára gondolok,
00:27
but rather, the kind of social networks
5
27260
2000
hanem azokra a közösségi hálózatokra,
00:29
that human beings have been assembling for hundreds of thousands of years,
6
29260
3000
amelyekbe az emberek több százezer éve szerveződnek,
00:32
ever since we emerged from the African savannah.
7
32260
3000
azóta, amióta az ember afrikai szavannákon megjelent.
00:35
So, I form friendships and co-worker
8
35260
2000
Tehát az ember baráti, munkatársi
00:37
and sibling and relative relationships with other people
9
37260
3000
testvéri és rokoni kapcsolatokat alakít ki más emberekkel,
00:40
who in turn have similar relationships with other people.
10
40260
2000
akik maguk is hasonló kapcsolatokat létesítenek.
00:42
And this spreads on out endlessly into a distance.
11
42260
3000
Ez pedig végtelenbe nyúlik.
00:45
And you get a network that looks like this.
12
45260
2000
Így egy olyan hálózat alakul ki, ami a következőképpen néz ki.
00:47
Every dot is a person.
13
47260
2000
Minden pont egy-egy személy.
00:49
Every line between them is a relationship between two people --
14
49260
2000
A pontok közötti vonalak a két ember közötti kapcsolatot jelölik --
00:51
different kinds of relationships.
15
51260
2000
különböző kapcsolatokat.
00:53
And you can get this kind of vast fabric of humanity,
16
53260
3000
Így kialakul ez a hatalmas emberiség szövevény,
00:56
in which we're all embedded.
17
56260
2000
amelybe mindannyian be vagyunk ágyazva.
00:58
And my colleague, James Fowler and I have been studying for quite sometime
18
58260
3000
A kollégám, James Fowler és én, már egy jó ideje vizsgáljuk,
01:01
what are the mathematical, social,
19
61260
2000
hogy melyek azok a matematikai, társadalmi,
01:03
biological and psychological rules
20
63260
3000
biológiai és pszichológiai szabályszerűségek,
01:06
that govern how these networks are assembled
21
66260
2000
amelyek ezeknek a hálózatoknak a felépítését meghatározzák,
01:08
and what are the similar rules
22
68260
2000
és azt, hogy melyek azok a hasonló szabályok,
01:10
that govern how they operate, how they affect our lives.
23
70260
3000
amelyek a működésüket meghatározzák, és ezek miként befolyásolják az életünket.
01:13
But recently, we've been wondering
24
73260
2000
Nemrégiben felmerült bennünk az a kérdés, hogy
01:15
whether it might be possible to take advantage of this insight,
25
75260
3000
vajon előnyt lehetne-e kovácsolni a kutatási eredményeinkből,
01:18
to actually find ways to improve the world,
26
78260
2000
hozzásegíthetnek-e ezek a világ fejlődéséhez,
01:20
to do something better,
27
80260
2000
hogy jobbá tegyünk dolgokat,
01:22
to actually fix things, not just understand things.
28
82260
3000
hogy ne csupán megértsünk dolgokat, hanem jobbá is tegyük azokat.
01:25
So one of the first things we thought we would tackle
29
85260
3000
Az egyik első dolog, amire gondoltunk az volt,
01:28
would be how we go about predicting epidemics.
30
88260
3000
hogy miként jelezzük előre a járványokat.
01:31
And the current state of the art in predicting an epidemic --
31
91260
2000
A dolgok mai állása szerint a járványok előrejelzése --
01:33
if you're the CDC or some other national body --
32
93260
3000
CDC-ként vagy más országos szervezetként --
01:36
is to sit in the middle where you are
33
96260
2000
úgy történik, hogy ott, ahol éppen tartózkodsz,
01:38
and collect data
34
98260
2000
adatokat gyűjtesz
01:40
from physicians and laboratories in the field
35
100260
2000
a szakavatott orvosoktól, illetve laboratóriumoktól,
01:42
that report the prevalence or the incidence of certain conditions.
36
102260
3000
amelyek beszámolnak bizonyos betegségek előfordulásáról, gyakoriságáról.
01:45
So, so and so patients have been diagnosed with something,
37
105260
3000
Ilyen és ilyen pácienseket valamilyen betegséggel diagnosztizálták [itt],
01:48
or other patients have been diagnosed,
38
108260
2000
más betegeket más betegséggel diagnosztizáltak [ott],
01:50
and all these data are fed into a central repository, with some delay.
39
110260
3000
és ezek az adatok egy központi összesítő rendszerbe kerülnek, bizonyos időbeli eltolódással.
01:53
And if everything goes smoothly,
40
113260
2000
Ha minden simán megy,
01:55
one to two weeks from now
41
115260
2000
egy-két héten belül
01:57
you'll know where the epidemic was today.
42
117260
3000
kiderül, hogy a járvány hol tartott ma.
02:00
And actually, about a year or so ago,
43
120260
2000
Mintegy egy évvel ezelőtt
02:02
there was this promulgation
44
122260
2000
nyilvánosságra hozták
02:04
of the idea of Google Flu Trends, with respect to the flu,
45
124260
3000
a Google Influenza Tendenciák ötletét, az influenzára vonatkozóan,
02:07
where by looking at people's searching behavior today,
46
127260
3000
amely keretében az emberek Google keresési szokásait vizsgálva
02:10
we could know where the flu --
47
130260
2000
rá lehet jönni, hogy az influenza hol ...
02:12
what the status of the epidemic was today,
48
132260
2000
mi volt a járvány helyzete ma,
02:14
what's the prevalence of the epidemic today.
49
134260
3000
mekkora volt az előfordulási gyakorisága ma.
02:17
But what I'd like to show you today
50
137260
2000
Ma azt szeretném megmutatni önöknek,
02:19
is a means by which we might get
51
139260
2000
hogy létezik egy olyan módszer, amellyel nemcsak
02:21
not just rapid warning about an epidemic,
52
141260
3000
gyors figyelmeztetést kaphatunk egy járványról,
02:24
but also actually
53
144260
2000
hanem lényegében
02:26
early detection of an epidemic.
54
146260
2000
a járvány nagyon korán kimutatható.
02:28
And, in fact, this idea can be used
55
148260
2000
Ez a módszer nemcsak arra alkalmas, hogy
02:30
not just to predict epidemics of germs,
56
150260
3000
a baktériumok által okozott járványokat előrejelezze,
02:33
but also to predict epidemics of all sorts of kinds.
57
153260
3000
hanem arra is, hogy bármilyen fajta járványt megjósoljon.
02:37
For example, anything that spreads by a form of social contagion
58
157260
3000
Például, bármi, ami társadalmi érintkezéssel terjed,
02:40
could be understood in this way,
59
160260
2000
megérthető ily módon,
02:42
from abstract ideas on the left
60
162260
2000
az absztrakt gondolatoktól, balra,
02:44
like patriotism, or altruism, or religion
61
164260
3000
mint például a hazaszeretet, az altruizmus, a vallás
02:47
to practices
62
167260
2000
az olyan gyakorlatokig, mint például
02:49
like dieting behavior, or book purchasing,
63
169260
2000
a fogyókúrázás vagy könyvvásárlás,
02:51
or drinking, or bicycle-helmet [and] other safety practices,
64
171260
3000
alkoholfogyasztás, védősisak-viselés vagy egyéb biztonsági viselkedésmódok,
02:54
or products that people might buy,
65
174260
2000
vagy vásárlási szokások,
02:56
purchases of electronic goods,
66
176260
2000
elektronikai termékek vásárlása,
02:58
anything in which there's kind of an interpersonal spread.
67
178260
3000
bármi, ami személyek között terjedhet.
03:01
A kind of a diffusion of innovation
68
181260
2000
Az innováció terjedése
03:03
could be understood and predicted
69
183260
2000
megérthető és előrejelezhető
03:05
by the mechanism I'm going to show you now.
70
185260
3000
azzal a mechanizmussal, amit bemutatok most önöknek.
03:08
So, as all of you probably know,
71
188260
2000
Ahogyan talán mindannyian tudják,
03:10
the classic way of thinking about this
72
190260
2000
klasszikusan erről az
03:12
is the diffusion-of-innovation,
73
192260
2000
innováció-diffúzióval
03:14
or the adoption curve.
74
194260
2000
vagy az ún. elfogadási görbével gondolkodnak.
03:16
So here on the Y-axis, we have the percent of the people affected,
75
196260
2000
Itt, az Y tengelyen található az érintett személyek aránya,
03:18
and on the X-axis, we have time.
76
198260
2000
az X tengelyen pedig az idő látható.
03:20
And at the very beginning, not too many people are affected,
77
200260
3000
Az elején nem túl sok ember érintett,
03:23
and you get this classic sigmoidal,
78
203260
2000
a klasszikus szigmoid,
03:25
or S-shaped, curve.
79
205260
2000
S-alakú görbét látjuk.
03:27
And the reason for this shape is that at the very beginning,
80
207260
2000
A görbe oka, hogy a legeslegelején
03:29
let's say one or two people
81
209260
2000
mondjuk egy-két ember
03:31
are infected, or affected by the thing
82
211260
2000
érintett vagy fertőzött,
03:33
and then they affect, or infect, two people,
83
213260
2000
majd megérint vagy megfertőz két személyt,
03:35
who in turn affect four, eight, 16 and so forth,
84
215260
3000
akik maguk is átadják még 4, 8 majd 16 személynek, és így tovább,
03:38
and you get the epidemic growth phase of the curve.
85
218260
3000
amíg megkapjuk a járvány terjedésének növekedési görbéjét.
03:41
And eventually, you saturate the population.
86
221260
2000
És így tovább, amíg az egész népesség megfertőződik.
03:43
There are fewer and fewer people
87
223260
2000
Egyre kevesebb ember van, aki
03:45
who are still available that you might infect,
88
225260
2000
még nem érintett, és aki megfertőzhető,
03:47
and then you get the plateau of the curve,
89
227260
2000
majd a görbe plafonizálódik,
03:49
and you get this classic sigmoidal curve.
90
229260
3000
és az eredmény ez a klasszikus szigmoid görbe lesz.
03:52
And this holds for germs, ideas,
91
232260
2000
Ez érvényes a baktériumokra, a gondolatokra,
03:54
product adoption, behaviors,
92
234260
2000
a termékelfogadásra, a viselkedés-terjedésre,
03:56
and the like.
93
236260
2000
és hasonlókra.
03:58
But things don't just diffuse in human populations at random.
94
238260
3000
De a dolgok nem véletlenszerűen terjednek az emberi populációkban,
04:01
They actually diffuse through networks.
95
241260
2000
hanem hálózatokon keresztül.
04:03
Because, as I said, we live our lives in networks,
96
243260
3000
Mert, mint ahogyan említettem, hálózatokban éljük az életünket,
04:06
and these networks have a particular kind of a structure.
97
246260
3000
és ezeknek a hálózatoknak különleges szerkezetük van.
04:09
Now if you look at a network like this --
98
249260
2000
Ha megnéznek egy ilyen hálózatot ...
04:11
this is 105 people.
99
251260
2000
Ezt 105 személy alkotja.
04:13
And the lines represent -- the dots are the people,
100
253260
2000
És a vonalak... a pontok az emberek,
04:15
and the lines represent friendship relationships.
101
255260
2000
a vonalak pedig a közöttük fennálló baráti kapcsolatokat jelölik.
04:17
You might see that people occupy
102
257260
2000
Látható, hogy az emberek
04:19
different locations within the network.
103
259260
2000
különböző helyeket foglalnak el a hálózaton belül.
04:21
And there are different kinds of relationships between the people.
104
261260
2000
És az is látszik, hogy az emberek között különböző kapcsolatok vannak.
04:23
You could have friendship relationships, sibling relationships,
105
263260
3000
Találunk baráti kapcsolatokat, testvéri kapcsolatokat,
04:26
spousal relationships, co-worker relationships,
106
266260
3000
házastársi kapcsolatokat, munkatársi kapcsolatokat,
04:29
neighbor relationships and the like.
107
269260
3000
szomszédsági kapcsolatokat és így tovább.
04:32
And different sorts of things
108
272260
2000
Különböző dolgok terjednek
04:34
spread across different sorts of ties.
109
274260
2000
a különböző kapcsolatokon keresztül.
04:36
For instance, sexually transmitted diseases
110
276260
2000
Például, szexuális úton terjedő betegségek
04:38
will spread across sexual ties.
111
278260
2000
szexuális kapcsolatokon keresztül terjednek.
04:40
Or, for instance, people's smoking behavior
112
280260
2000
Vagy az emberek dohányzási szokásait például
04:42
might be influenced by their friends.
113
282260
2000
befolyásolják barátaik.
04:44
Or their altruistic or their charitable giving behavior
114
284260
2000
Vagy altruista vagy jótékonysági viselkedésüket
04:46
might be influenced by their coworkers,
115
286260
2000
munkatársaik
04:48
or by their neighbors.
116
288260
2000
vagy szomszédjaik irányítják.
04:50
But not all positions in the network are the same.
117
290260
3000
Nem minden helyzet egyforma a hálózaton belül.
04:53
So if you look at this, you might immediately grasp
118
293260
2000
Ha megnézik ezt, egyből látják,
04:55
that different people have different numbers of connections.
119
295260
3000
hogy a különböző személyeknek nem ugyanannyi kapcsolatuk van.
04:58
Some people have one connection, some have two,
120
298260
2000
Egyes embereknek csak egy kapcsolatuk van, másoknak kettő,
05:00
some have six, some have 10 connections.
121
300260
3000
megint másoknak hat, esetleg tíz.
05:03
And this is called the "degree" of a node,
122
303260
2000
Ezt a csomópont "érték"-ének nevezik,
05:05
or the number of connections that a node has.
123
305260
2000
vagy a csomópont kapcsolatai számának.
05:07
But in addition, there's something else.
124
307260
2000
De ezenkívül valami más is van.
05:09
So, if you look at nodes A and B,
125
309260
2000
Ha megnézik az A és B csomópontot,
05:11
they both have six connections.
126
311260
2000
akkor látják, hogy mindekettőnek hat kapcsolata van.
05:13
But if you can see this image [of the network] from a bird's eye view,
127
313260
3000
De ha a hálózat képét madártávlatból nézzük,
05:16
you can appreciate that there's something very different
128
316260
2000
látszik, hogy valami nagyon különbözik
05:18
about nodes A and B.
129
318260
2000
az A és a B csomópontok esetében.
05:20
So, let me ask you this -- I can cultivate this intuition by asking a question --
130
320260
3000
Engedjék meg, hogy megkérdezzem -- egy kérdéssel segíthetem ennek megértését --
05:23
who would you rather be
131
323260
2000
kinek a helyében lennének inkább,
05:25
if a deadly germ was spreading through the network, A or B?
132
325260
3000
ha egy halálos vírus terjedne a hálózaton keresztül, A-nak vagy B-nek?
05:28
(Audience: B.) Nicholas Christakis: B, it's obvious.
133
328260
2000
(Hallgatóság: B-nek.) Nicholas Christakis: B-nek, egyértelmű.
05:30
B is located on the edge of the network.
134
330260
2000
B a hálózat szélén helyezkedik el.
05:32
Now, who would you rather be
135
332260
2000
Kinek a helyében lennének inkább,
05:34
if a juicy piece of gossip were spreading through the network?
136
334260
3000
ha egy jó szaftos pletyka keringene a hálózaton?
05:37
A. And you have an immediate appreciation
137
337260
3000
A-nak. Egyből ráéreztek, hogy
05:40
that A is going to be more likely
138
340260
2000
A-hoz nagyobb valószínűséggel
05:42
to get the thing that's spreading and to get it sooner
139
342260
3000
eljut a terjedő dolog, és korábban jut el hozzá
05:45
by virtue of their structural location within the network.
140
345260
3000
a hálózat szerkezetén belül elfoglalt helye miatt.
05:48
A, in fact, is more central,
141
348260
2000
A valójában sokkal központibb helyet foglal el,
05:50
and this can be formalized mathematically.
142
350260
3000
és ez matematikai képletben is kifejezhető.
05:53
So, if we want to track something
143
353260
2000
Tehát, ha valamit ki akarunk mutatni,
05:55
that was spreading through a network,
144
355260
3000
ami a hálózaton keresztül terjed,
05:58
what we ideally would like to do is to set up sensors
145
358260
2000
akkor - ideális esetben - szenzorokat állítanánk fel
06:00
on the central individuals within the network,
146
360260
2000
a hálózat központi figuráin,
06:02
including node A,
147
362260
2000
beleértve az A csomópontot,
06:04
monitor those people that are right there in the middle of the network,
148
364260
3000
figyelnénk azokat az embereket, akik a hálózat közepén helyezkednek el,
06:07
and somehow get an early detection
149
367260
2000
és így korán értesülnénk bármiről,
06:09
of whatever it is that is spreading through the network.
150
369260
3000
ami a hálózatban terjed.
06:12
So if you saw them contract a germ or a piece of information,
151
372260
3000
Vagyis, ha látjuk, hogy ezek elkaptak egy vírust vagy eljutott hozzájuk valamilyen információ,
06:15
you would know that, soon enough,
152
375260
2000
tudnánk, hogy hamarosan
06:17
everybody was about to contract this germ
153
377260
2000
mindenki elkapja a vírust vagy
06:19
or this piece of information.
154
379260
2000
mindenkihez eljut az információ.
06:21
And this would be much better
155
381260
2000
Ez sokkal hatékonyabb lenne,
06:23
than monitoring six randomly chosen people,
156
383260
2000
mint véletlenszerűen kiválasztott személyeket figyelni,
06:25
without reference to the structure of the population.
157
385260
3000
figyelmen kívül hagyva a népesség szerkezetét.
06:28
And in fact, if you could do that,
158
388260
2000
Ha ezt meg tudnánk tenni,
06:30
what you would see is something like this.
159
390260
2000
akkor valami ilyesmit látnánk.
06:32
On the left-hand panel, again, we have the S-shaped curve of adoption.
160
392260
3000
A bal oldalon, ismét, az S-alakú elfogadási görbét látjuk.
06:35
In the dotted red line, we show
161
395260
2000
A piros pontozott vonal azt mutatja,
06:37
what the adoption would be in the random people,
162
397260
2000
hogyan nézne ki az átvétel a véletlenszerűen választott emberek esetében,
06:39
and in the left-hand line, shifted to the left,
163
399260
3000
a bal oldali vonalon
06:42
we show what the adoption would be
164
402260
2000
pedig azt látjuk, hogyan nézne ki az átvétel
06:44
in the central individuals within the network.
165
404260
2000
a hálózat központi helyén található személyek esetében.
06:46
On the Y-axis is the cumulative instances of contagion,
166
406260
2000
Az Y tengelyen a fertőzés kumulatív eseteit látjuk,
06:48
and on the X-axis is the time.
167
408260
2000
az X tengelyen pedig az időt.
06:50
And on the right-hand side, we show the same data,
168
410260
2000
A jobb oldalon ugyanazokat az adatokat mutatjuk,
06:52
but here with daily incidence.
169
412260
2000
napi előfordulásuk lebontásában.
06:54
And what we show here is -- like, here --
170
414260
2000
És amit itt mutatunk -- itt -- az az,
06:56
very few people are affected, more and more and more and up to here,
171
416260
2000
hogy nagyon kevés ember érintett, majd egyre több és több,
06:58
and here's the peak of the epidemic.
172
418260
2000
és itt van a betegség csúcsa.
07:00
But shifted to the left is what's occurring in the central individuals.
173
420260
2000
Visszatérve a bal oldalihoz, az látjuk, mi történik a központi egyéneknél.
07:02
And this difference in time between the two
174
422260
3000
És ez az az időbeli különbség a kettő között
07:05
is the early detection, the early warning we can get,
175
425260
3000
a korai értesülés, a korai figyelmeztetés
07:08
about an impending epidemic
176
428260
2000
egy fenyegető járványról,
07:10
in the human population.
177
430260
2000
ami az emberi populációban terjed.
07:12
The problem, however,
178
432260
2000
A gond az,
07:14
is that mapping human social networks
179
434260
2000
hogy az emberi hálózatok feltérképezése
07:16
is not always possible.
180
436260
2000
nem mindig lehetséges.
07:18
It can be expensive, not feasible,
181
438260
2000
Nagyon drága, bonyolult lehet,
07:20
unethical,
182
440260
2000
vagy nem etikus,
07:22
or, frankly, just not possible to do such a thing.
183
442260
3000
vagy egyszerűen nem lehet végrehajtani.
07:25
So, how can we figure out
184
445260
2000
Tehát, hogyan határozható meg,
07:27
who the central people are in a network
185
447260
2000
hogy kik a központi személyek egy hálózatban
07:29
without actually mapping the network?
186
449260
3000
a hálózat teljes feltérképezése nélkül?
07:32
What we came up with
187
452260
2000
Amit kitaláltunk,
07:34
was an idea to exploit an old fact,
188
454260
2000
egy régi dolgon alapszik,
07:36
or a known fact, about social networks,
189
456260
2000
egy, a közösségi hálózatokról ismert dolgon,
07:38
which goes like this:
190
458260
2000
ami a következőképpen néz ki:
07:40
Do you know that your friends
191
460260
2000
Tudták, hogy a barátaiknak
07:42
have more friends than you do?
192
462260
3000
több barátjuk van, mint önöknek?
07:45
Your friends have more friends than you do,
193
465260
3000
A barátaiknak több barátjuk van, mint önöknek.
07:48
and this is known as the friendship paradox.
194
468260
2000
Ez a tény a barátság paradoxonaként ismert.
07:50
Imagine a very popular person in the social network --
195
470260
2000
Képzeljenek el egy nagyon népszerű személyt a közösségi hálózaton belül --
07:52
like a party host who has hundreds of friends --
196
472260
3000
például egy buli házigazdát, akinek több száz barátja van --
07:55
and a misanthrope who has just one friend,
197
475260
2000
és egy mizantrópot, akinek csak egy barátja van,
07:57
and you pick someone at random from the population;
198
477260
3000
és válasszanak véletlenszerűen egy embert a népességből:
08:00
they were much more likely to know the party host.
199
480260
2000
nagyobb a valószínűsége, hogy ez az ember a buli házigazdát ismeri.
08:02
And if they nominate the party host as their friend,
200
482260
2000
És, ha ő a buli házigazdát nevezi meg barátjaként,
08:04
that party host has a hundred friends,
201
484260
2000
a buli házgazdának több barátja van,
08:06
therefore, has more friends than they do.
202
486260
3000
tehát, több mint az előbbinek.
08:09
And this, in essence, is what's known as the friendship paradox.
203
489260
3000
Ez lényegében a barátság paradoxon.
08:12
The friends of randomly chosen people
204
492260
3000
A véletlenszerűen kiválasztott személyek barátai
08:15
have higher degree, and are more central
205
495260
2000
magasabb értékkel rendelkeznek, és központibb helyet foglalnak el,
08:17
than the random people themselves.
206
497260
2000
mint a véletlenszerűen kiválasztott emberek.
08:19
And you can get an intuitive appreciation for this
207
499260
2000
Megérthetik ezt intuitív módon,
08:21
if you imagine just the people at the perimeter of the network.
208
501260
3000
ha csak azokat az embereket képzelik el, aki a hálózat perifériáján vannak.
08:24
If you pick this person,
209
504260
2000
Ha kiválasztják ezt az embert,
08:26
the only friend they have to nominate is this person,
210
506260
3000
az egyetlen barát, akit meg tud nevezni, ez a személy,
08:29
who, by construction, must have at least two
211
509260
2000
akinek, a szerkezet jellegéből adódóan legalább kettő,
08:31
and typically more friends.
212
511260
2000
de általában több barátja van.
08:33
And that happens at every peripheral node.
213
513260
2000
Ez történik mindenik periferikus csomópontnál.
08:35
And in fact, it happens throughout the network as you move in,
214
515260
3000
És valójában ez történik az egész hálózaton belül, ahogy haladunk befele,
08:38
everyone you pick, when they nominate a random --
215
518260
2000
bárki, akit kiválasztunk, amikor véletlenszerűen nevez meg...
08:40
when a random person nominates a friend of theirs,
216
520260
3000
amikor egy véletlenszerűen kiválasztott személy megnevezi egyik barátját,
08:43
you move closer to the center of the network.
217
523260
3000
közelebb kerülünk a hálózat központjához.
08:46
So, we thought we would exploit this idea
218
526260
3000
Úgy gondoltuk, hogy felhasználhatnánk ezt
08:49
in order to study whether we could predict phenomena within networks.
219
529260
3000
annak érdekében, hogy előrejelezzünk bizonyos jelenségeket a hálózaton belül.
08:52
Because now, with this idea
220
532260
2000
Mert ezzel a módszerrel
08:54
we can take a random sample of people,
221
534260
2000
kiválaszthatunk egy véletlenszerű embermintát,
08:56
have them nominate their friends,
222
536260
2000
akik megnevezik barátaikat,
08:58
those friends would be more central,
223
538260
2000
és ez utóbbiak központibbak lesznek, mint az előbbiek,
09:00
and we could do this without having to map the network.
224
540260
3000
és ezt megtehetjük anélkül, hogy teljesen feltérképeznénk a hálózatot.
09:03
And we tested this idea with an outbreak of H1N1 flu
225
543260
3000
Leteszteltük ezt a módszert a H1N1 vírus megjelenésekor
09:06
at Harvard College
226
546260
2000
a Harvard Egyetemen
09:08
in the fall and winter of 2009, just a few months ago.
227
548260
3000
2009 őszén és telén, néhány hónappal ezelőtt.
09:11
We took 1,300 randomly selected undergraduates,
228
551260
3000
Véletlenszerűen kiválasztottunk 1300 egyetemistát,
09:14
we had them nominate their friends,
229
554260
2000
megkértük, hogy nevezzék meg barátaikat,
09:16
and we followed both the random students and their friends
230
556260
2000
és figyelemmel követtük mind a kiválasztott egyetemistákat, mind pedig ezek barátait
09:18
daily in time
231
558260
2000
nap mint nap
09:20
to see whether or not they had the flu epidemic.
232
560260
3000
azért, hogy lássuk, elkapták vagy sem az influenzát.
09:23
And we did this passively by looking at whether or not they'd gone to university health services.
233
563260
3000
Passzív megfigyelést tettünk: figyeltük, hogy igénybe vették vagy sem az egyetemi betegrendelőt.
09:26
And also, we had them [actively] email us a couple of times a week.
234
566260
3000
Ezenkívül pedig néhány alkalommal egy héten e-mailt kellett írniuk nekünk.
09:29
Exactly what we predicted happened.
235
569260
3000
Pontosan az történt, ami feltételeztünk.
09:32
So the random group is in the red line.
236
572260
3000
A véletlenszerűen kiválasztott csoportot a piros vonal jelöli.
09:35
The epidemic in the friends group has shifted to the left, over here.
237
575260
3000
A betegség a baráti körben balra tolódott, itt.
09:38
And the difference in the two is 16 days.
238
578260
3000
A kettő közötti különbség 16 nap.
09:41
By monitoring the friends group,
239
581260
2000
Megfigyelve a baráti csoportot,
09:43
we could get 16 days advance warning
240
583260
2000
16 napi előnyre tettünk szert
09:45
of an impending epidemic in this human population.
241
585260
3000
egy közelgő járvány előrejelzésében.
09:48
Now, in addition to that,
242
588260
2000
És, ezenkívül,
09:50
if you were an analyst who was trying to study an epidemic
243
590260
3000
ha olyan szakértők lennénk, akik egy betegséget tanulmányoznak,
09:53
or to predict the adoption of a product, for example,
244
593260
3000
vagy egy termék el- és befogadását tanulmányozzák például,
09:56
what you could do is you could pick a random sample of the population,
245
596260
3000
azt lehetne tenni, hogy kiválasztanánk az emberi populációból egy véletlenszerű mintát,
09:59
also have them nominate their friends and follow the friends
246
599260
3000
akik megnevezik barátaikat, majd figyelemmel követjük
10:02
and follow both the randoms and the friends.
247
602260
3000
mind a véletlenszerűen kiválasztott mintát, mind pedig a mintát alkotó egyének barátait.
10:05
Among the friends, the first evidence you saw of a blip above zero
248
605260
3000
A barátok között az első dolog, ami szembeötlik, a nullánál valamivel magasabb
10:08
in adoption of the innovation, for example,
249
608260
3000
hajlam egy újdonság elfogadására például,
10:11
would be evidence of an impending epidemic.
250
611260
2000
és ez egy veszélyes betegség bizonyítéka is lehetne.
10:13
Or you could see the first time the two curves diverged,
251
613260
3000
Vagy láthatóvá válik, hogy a két görbe különböző irányokba halad,
10:16
as shown on the left.
252
616260
2000
ahogyan azt itt a bal oldalon látjuk.
10:18
When did the randoms -- when did the friends take off
253
618260
3000
Mikor hagyták le a véletlenszerűen kiválasztott mintában szereplő egyének barátai,
10:21
and leave the randoms,
254
621260
2000
a véletlenszerűen kiválasztott mintában szereplő egyéneket,
10:23
and [when did] their curve start shifting?
255
623260
2000
és mikor kezdett eltolódni a görbe.
10:25
And that, as indicated by the white line,
256
625260
2000
És ez, mint ahogyan a fehér vonal mutatja,
10:27
occurred 46 days
257
627260
2000
46 nappal azelőtt történt, mielőtt
10:29
before the peak of the epidemic.
258
629260
2000
a járvány tetőződött volna.
10:31
So this would be a technique
259
631260
2000
Tehát ez egy olyan technika lehet,
10:33
whereby we could get more than a month-and-a-half warning
260
633260
2000
amely segítségével több mint egy és fél hónapos előrejelzést tudunk adni
10:35
about a flu epidemic in a particular population.
261
635260
3000
az influenza járványról egy emberi populáción belül.
10:38
I should say that
262
638260
2000
El kell mondanom,
10:40
how far advanced a notice one might get about something
263
640260
2000
hogy az, hogy mennyi idővel korábban kap valaki előrejelzést egy jelenségről,
10:42
depends on a host of factors.
264
642260
2000
számos tényezőtől függ.
10:44
It could depend on the nature of the pathogen --
265
644260
2000
Függhet a kórfejlődés természetétől --
10:46
different pathogens,
266
646260
2000
különböző kórfejlődésekről,
10:48
using this technique, you'd get different warning --
267
648260
2000
ennek a módszernek az alkalmazásával, különböző figyelmeztetést kapunk --
10:50
or other phenomena that are spreading,
268
650260
2000
vagy más terjedő jelenségektől,
10:52
or frankly, on the structure of the human network.
269
652260
3000
vagy az emberi közösségi hálózat szerkezetétől.
10:55
Now in our case, although it wasn't necessary,
270
655260
3000
A mi esetünkben, bár nem volt szükséges,
10:58
we could also actually map the network of the students.
271
658260
2000
feltérképeztük az egyetemisták teljes hálózatát.
11:00
So, this is a map of 714 students
272
660260
2000
Ez egy 174 diákból álló hálózattérkép,
11:02
and their friendship ties.
273
662260
2000
amely tartalmazza baráti kapcsolataikat.
11:04
And in a minute now, I'm going to put this map into motion.
274
664260
2000
Mindjárt mozgásba hozom ezt a térképet.
11:06
We're going to take daily cuts through the network
275
666260
2000
Napi metszeteket készítünk a hálózatról
11:08
for 120 days.
276
668260
2000
120 napon keresztül.
11:10
The red dots are going to be cases of the flu,
277
670260
3000
A piros pontok az influenzás eseteket jelölik,
11:13
and the yellow dots are going to be friends of the people with the flu.
278
673260
3000
a sárga pontok pedig az influenzások barátait.
11:16
And the size of the dots is going to be proportional
279
676260
2000
A pontok mérete arányos
11:18
to how many of their friends have the flu.
280
678260
2000
az influenzás barátok számával.
11:20
So bigger dots mean more of your friends have the flu.
281
680260
3000
Minél nagyobb a pont,az illetőnek annál több barátja kapta el a vírust.
11:23
And if you look at this image -- here we are now in September the 13th --
282
683260
3000
Ha megnézik ezt a képet -- ez a szeptember 13-i nap --
11:26
you're going to see a few cases light up.
283
686260
2000
láthatják, hogy csak néhány eset gyúl ki.
11:28
You're going to see kind of blooming of the flu in the middle.
284
688260
2000
Középen az influenzának mintegy a virágzását látják.
11:30
Here we are on October the 19th.
285
690260
3000
Most pedig október 19-én vagyunk.
11:33
The slope of the epidemic curve is approaching now, in November.
286
693260
2000
A járvány görbéje közeledik novemberben.
11:35
Bang, bang, bang, bang, bang -- you're going to see lots of blooming in the middle,
287
695260
3000
Bumm, bumm, bumm, bumm, sok-sok kigyulladást látnak ott középen,
11:38
and then you're going to see a sort of leveling off,
288
698260
2000
majd csökken az esetek száma,
11:40
fewer and fewer cases towards the end of December.
289
700260
3000
kevesebb és kevesebb lesz december vége fele.
11:43
And this type of a visualization
290
703260
2000
Ez a fajta vizualizáció
11:45
can show that epidemics like this take root
291
705260
2000
azt tudja megmutatni, ahogy az ilyenfajta járványok gyökeret vernek,
11:47
and affect central individuals first,
292
707260
2000
és a központi személyeket fertőzik meg először,
11:49
before they affect others.
293
709260
2000
mielőtt másokat is megfertőznének.
11:51
Now, as I've been suggesting,
294
711260
2000
Ahogyan utaltam rá,
11:53
this method is not restricted to germs,
295
713260
3000
ennek a módszernek alkalmazása nem korlátozódik a vírusokra,
11:56
but actually to anything that spreads in populations.
296
716260
2000
hanem bárminek a letapogatására alkalmas, ami egy populáción belül terjed.
11:58
Information spreads in populations,
297
718260
2000
Az információ is a populációkban terjed.
12:00
norms can spread in populations,
298
720260
2000
A normák is a populációkban terjednek.
12:02
behaviors can spread in populations.
299
722260
2000
A viselkedésminták is a populációkban terjednek.
12:04
And by behaviors, I can mean things like criminal behavior,
300
724260
3000
Viselkedés alatt értem például a bűnözői viselkedést,
12:07
or voting behavior, or health care behavior,
301
727260
3000
a szavazási veselkedést vagy az egészségügyi viselkedésformákat,
12:10
like smoking, or vaccination,
302
730260
2000
mint például a dohányzás vagy a védőoltások beadása,
12:12
or product adoption, or other kinds of behaviors
303
732260
2000
vagy egy-egy terméknek az elfogadása, vagy más viselkedésformák,
12:14
that relate to interpersonal influence.
304
734260
2000
amelyek személyközi befolyást mutatnak.
12:16
If I'm likely to do something that affects others around me,
305
736260
3000
Az ember környezetében élőket befolyásoló tevékenységek
12:19
this technique can get early warning or early detection
306
739260
3000
korai előrejelzésére, korai figyelmeztetésre alkalmas ez a technika,
12:22
about the adoption within the population.
307
742260
3000
amely jelzi a jelenségek terjedését a populáción belül.
12:25
The key thing is that for it to work,
308
745260
2000
Működéséhez kulcsfontosságú,
12:27
there has to be interpersonal influence.
309
747260
2000
hogy olyan jelenségről legyen szó, amely személyről személyre terjed.
12:29
It cannot be because of some broadcast mechanism
310
749260
2000
Nem alkalmas olyan jelenségek terjedésének előrejelzésére, amelyek
12:31
affecting everyone uniformly.
311
751260
3000
valamilyen egységes közvetítés következtében egyszerre érintenek mindenkit.
12:35
Now the same insights
312
755260
2000
Ezek az eredmények
12:37
can also be exploited -- with respect to networks --
313
757260
3000
felhasználhatók -- hálózatokra vonatkozóan --
12:40
can also be exploited in other ways,
314
760260
3000
felhasználhatók más módon is,
12:43
for example, in the use of targeting
315
763260
2000
például kiválasztani
12:45
specific people for interventions.
316
765260
2000
bizonyos személyeket a megelőzés érdekében.
12:47
So, for example, most of you are probably familiar
317
767260
2000
Talán legtöbbjüknek már ismerős
12:49
with the notion of herd immunity.
318
769260
2000
a csordaimmunitás fogalma.
12:51
So, if we have a population of a thousand people,
319
771260
3000
Vagyis, ha van egy ezer emberből álló populáció,
12:54
and we want to make the population immune to a pathogen,
320
774260
3000
és ezt immúnissá szeretnénk tenni egy betegséggel szemben,
12:57
we don't have to immunize every single person.
321
777260
2000
akkor nem kell minden egyes személyt immúnissá tennünk.
12:59
If we immunize 960 of them,
322
779260
2000
Ha immúnissá teszünk közülük 960-at,
13:01
it's as if we had immunized a hundred [percent] of them.
323
781260
3000
egyenlő azzal, mintha mindenkit imúnnissá tettünk volna.
13:04
Because even if one or two of the non-immune people gets infected,
324
784260
3000
Mert, ha a nem immunizáltak közül egy-két személy meg is fertőződik,
13:07
there's no one for them to infect.
325
787260
2000
nincs, akinek továbbadnia a betegséget.
13:09
They are surrounded by immunized people.
326
789260
2000
Hiszen immunizált személyekkel vannak körbevéve.
13:11
So 96 percent is as good as 100 percent.
327
791260
3000
Tehát a 96 százalék pont annyira jó, mint a 100 százalék.
13:14
Well, some other scientists have estimated
328
794260
2000
Tudósok megbecsülték, hogy
13:16
what would happen if you took a 30 percent random sample
329
796260
2000
mi történne, ha egy 30 százalékos véletlenszerű mintát vennének
13:18
of these 1000 people, 300 people and immunized them.
330
798260
3000
ebből az 1000 emberből, vagyis 300 személyt, és immunizálnák őket.
13:21
Would you get any population-level immunity?
331
801260
2000
Vajon a populáció immúnissá válna?
13:23
And the answer is no.
332
803260
3000
A válasz: nem.
13:26
But if you took this 30 percent, these 300 people
333
806260
2000
De ha ez a 30 százalék, a 300 személy
13:28
and had them nominate their friends
334
808260
2000
megnevezné a barátait,
13:30
and took the same number of vaccine doses
335
810260
3000
beszereznénk ezeknek is a védőoltást,
13:33
and vaccinated the friends of the 300 --
336
813260
2000
és beoltanánk a 300 személy barátait,
13:35
the 300 friends --
337
815260
2000
a 300 barátot,
13:37
you can get the same level of herd immunity
338
817260
2000
akkor kialakulna a csordaimmunitás,
13:39
as if you had vaccinated 96 percent of the population
339
819260
3000
pont úgy, mintha a populáció 96 százaléka kapott volna oltást,
13:42
at a much greater efficiency, with a strict budget constraint.
340
822260
3000
tehát növekszik a hatékonyság, miközben a költségek alacsonyabbak.
13:45
And similar ideas can be used, for instance,
341
825260
2000
Hasonlóan alkalmazható a módszer például
13:47
to target distribution of things like bed nets
342
827260
2000
az olyan dolgok szétosztásában, mint az ágyháló
13:49
in the developing world.
343
829260
2000
a fejlődő országokban.
13:51
If we could understand the structure of networks in villages,
344
831260
3000
Ha sikerülne megérteni a falvak hálózatának szerkezetét,
13:54
we could target to whom to give the interventions
345
834260
2000
le lehetne nyomozni, kiknek adják ezeket a dolgokat,
13:56
to foster these kinds of spreads.
346
836260
2000
hogy elősegítsék terjedésüket.
13:58
Or, frankly, for advertising with all kinds of products.
347
838260
3000
Vagy a különböző termékek reklámkampányának megtervezésében...
14:01
If we could understand how to target,
348
841260
2000
Ha megértenénk, hogyan célozzuk meg a célközönséget,
14:03
it could affect the efficiency
349
843260
2000
növelné a hatékonyságát
14:05
of what we're trying to achieve.
350
845260
2000
annak, amit el szeretnénk érni.
14:07
And in fact, we can use data
351
847260
2000
Tulajdonképpen bármilyen forrásból származó
14:09
from all kinds of sources nowadays [to do this].
352
849260
2000
adatot felhasználhatunk manapság ennek érdekében.
14:11
This is a map of eight million phone users
353
851260
2000
Ez nyolcmillió telefonhasználó személy térképe
14:13
in a European country.
354
853260
2000
egy európai országban.
14:15
Every dot is a person, and every line represents
355
855260
2000
Minden pont egy személy, minden vonal
14:17
a volume of calls between the people.
356
857260
2000
az emberek közötti telefonbeszélgetéseket jelöli.
14:19
And we can use such data, that's being passively obtained,
357
859260
3000
És ezt a passzív módon begyűjtött adatbázist
14:22
to map these whole countries
358
862260
2000
egész országok feltérkepézésére felhasználhatjuk
14:24
and understand who is located where within the network.
359
864260
3000
azért, hogy megtudjuk, ki hol helyezkedik el a hálózaton belül.
14:27
Without actually having to query them at all,
360
867260
2000
Anélkül tehát, hogy megkérdeznénk őket,
14:29
we can get this kind of a structural insight.
361
869260
2000
megkaphatjuk a hálózat szerkezeti képét.
14:31
And other sources of information, as you're no doubt aware
362
871260
3000
És más információforrások is, mint ahogyan biztosan önök is tudják,
14:34
are available about such features, from email interactions,
363
874260
3000
elérhetőek, az e-mailezésen át
14:37
online interactions,
364
877260
2000
más online interakciókon keresztül
14:39
online social networks and so forth.
365
879260
3000
az online közösségi hálózatokig, és így tovább.
14:42
And in fact, we are in the era of what I would call
366
882260
2000
Tulajdonképpen a masszív-passzív
14:44
"massive-passive" data collection efforts.
367
884260
3000
adatgyűjtésnek nevezhető korszakot élünk.
14:47
They're all kinds of ways we can use massively collected data
368
887260
3000
Számos módja van annak, hogy ezeket a nagy tételben összegyűjtött adatokat
14:50
to create sensor networks
369
890260
3000
érzékelő hálózatok létrehozására használjuk fel,
14:53
to follow the population,
370
893260
2000
hogy figyeljük a népességet,
14:55
understand what's happening in the population,
371
895260
2000
megértsük, mi történik a populáción belül,
14:57
and intervene in the population for the better.
372
897260
3000
és közbelépjünk a populáció érdekében.
15:00
Because these new technologies tell us
373
900260
2000
Mert ezek az új technológiák nemcsak arról tájékoztatnak,
15:02
not just who is talking to whom,
374
902260
2000
hogy ki beszél kivel,
15:04
but where everyone is,
375
904260
2000
hanem arról is, hogy ki hol helyezkedik el,
15:06
and what they're thinking based on what they're uploading on the Internet,
376
906260
3000
és mit gondol, például abból kikövetkeztetve, hogy mit tölt fel a világhálóra,
15:09
and what they're buying based on their purchases.
377
909260
2000
vagy hogy mit vásárol, a vásárlásait megfigyelve.
15:11
And all this administrative data can be pulled together
378
911260
3000
És mindezeket az adatokat össze lehet gyűjteni,
15:14
and processed to understand human behavior
379
914260
2000
és feldolgozni az emberi viselkedés megértése érdekében
15:16
in a way we never could before.
380
916260
3000
úgy, ahogyan azt eddig nem tették.
15:19
So, for example, we could use truckers' purchases of fuel.
381
919260
3000
Például, felhasználhatjuk a kamionsofőrök üzemenyag-vásárlási szokását.
15:22
So the truckers are just going about their business,
382
922260
2000
A kamionsofőrök teszik a dolgukat,
15:24
and they're buying fuel.
383
924260
2000
és üzemanyagot vásárolnak.
15:26
And we see a blip up in the truckers' purchases of fuel,
384
926260
3000
Látjuk a növekedést a kamionsofőrök által vásárolt üzemanyag-mennyiségben,
15:29
and we know that a recession is about to end.
385
929260
2000
és tudjuk, hogy a válság a végéhez közeleg.
15:31
Or we can monitor the velocity
386
931260
2000
Vagy megfigyelhetjük a sebességet,
15:33
with which people are moving with their phones on a highway,
387
933260
3000
amellyel az emberek mobiltelfonukkal az autópályán közlekednek,
15:36
and the phone company can see,
388
936260
2000
és a telefonos vállalat láthatja,
15:38
as the velocity is slowing down,
389
938260
2000
abból ahogy a sebesség csökken,
15:40
that there's a traffic jam.
390
940260
2000
hogy dugó alakult ki.
15:42
And they can feed that information back to their subscribers,
391
942260
3000
Ezt az információt visszaküldhetik ügyfeleiknek,
15:45
but only to their subscribers on the same highway
392
945260
2000
de csupán azoknak az ügyfeleknek, akik ugyanazon az autópályán közlekednek,
15:47
located behind the traffic jam!
393
947260
2000
és a közlekedési dugó előtt vannak!
15:49
Or we can monitor doctors prescribing behaviors, passively,
394
949260
3000
Vagy passzívan megfigyelhetjük az orvosok receptírási szokásait,
15:52
and see how the diffusion of innovation with pharmaceuticals
395
952260
3000
és képet alkothatunk arról, ahogy az új gyógyszerek terjedése
15:55
occurs within [networks of] doctors.
396
955260
2000
történik az orvoshálózatokon belül.
15:57
Or again, we can monitor purchasing behavior in people
397
957260
2000
Vagy ismét, megfigyelhetjük az emberek vásárlási szokásait,
15:59
and watch how these types of phenomena
398
959260
2000
és láthatjuk, hogy ezek a jelenségek
16:01
can diffuse within human populations.
399
961260
3000
emberi populációkon belül terjednek.
16:04
And there are three ways, I think,
400
964260
2000
Úgy gondolom, háromféleképpen használhatók fel
16:06
that these massive-passive data can be used.
401
966260
2000
ezek a nagy tételben passzívan begyűjtött adatok.
16:08
One is fully passive,
402
968260
2000
Az egyik: teljes mértékben passzívan,
16:10
like I just described --
403
970260
2000
ahogyan az imént elmondtam --
16:12
as in, for instance, the trucker example,
404
972260
2000
mint a kamionsofőrös példában,
16:14
where we don't actually intervene in the population in any way.
405
974260
2000
ahol nem befolyásoljuk semilyen módon a populációt.
16:16
One is quasi-active,
406
976260
2000
A második mód a kvázi-aktív,
16:18
like the flu example I gave,
407
978260
2000
ilyen volt az influenzás példa,
16:20
where we get some people to nominate their friends
408
980260
3000
amelyben megkértük az embereket, hogy nevezzék meg barátaikat,
16:23
and then passively monitor their friends --
409
983260
2000
majd passzívan monitorizáltuk a barátaikat --
16:25
do they have the flu, or not? -- and then get warning.
410
985260
2000
hogy elkapták vagy sem az influenzát -- majd figyelmeztettük őket.
16:27
Or another example would be,
411
987260
2000
Egy másik példa erre,
16:29
if you're a phone company, you figure out who's central in the network
412
989260
3000
a telefonos vállalat, ebben az esetben meg lehet nézni, ki foglal el központi helyet a hálózaton belül,
16:32
and you ask those people, "Look, will you just text us your fever every day?
413
992260
3000
majd megkérni őket, hogy küldjék el üzenetben naponta a testhőmérsékletüket.
16:35
Just text us your temperature."
414
995260
2000
Csak küldjenek egy üzenetet a testhőmérsékletükkel.
16:37
And collect vast amounts of information about people's temperature,
415
997260
3000
Így nagy mennyiségű adat gyűl össze az emberek testhőmérsékletéről,
16:40
but from centrally located individuals.
416
1000260
2000
de csak azokéról, akik központi helyen találhatók.
16:42
And be able, on a large scale,
417
1002260
2000
Így nagyban
16:44
to monitor an impending epidemic
418
1004260
2000
figyelemmel követhető egy várható járvány
16:46
with very minimal input from people.
419
1006260
2000
az emberektől igényelt minimális hozzájárulással.
16:48
Or, finally, it can be more fully active --
420
1008260
2000
Vagy végül teljes mértékben aktív is lehet --
16:50
as I know subsequent speakers will also talk about today --
421
1010260
2000
amiről az utánam következő előadók is beszélnek majd --
16:52
where people might globally participate in wikis,
422
1012260
2000
amikor az emberek globálisan részt vesznek wikikben,
16:54
or photographing, or monitoring elections,
423
1014260
3000
fényképezéssel vagy szavazásfigyelőkként
16:57
and upload information in a way that allows us to pool
424
1017260
2000
és feltöltenek információt úgy, hogy mi ezt összegyűjthessük,
16:59
information in order to understand social processes
425
1019260
2000
a társadalmi folyamatok vagy társadalmi jelenségek
17:01
and social phenomena.
426
1021260
2000
megértése érdekében.
17:03
In fact, the availability of these data, I think,
427
1023260
2000
Ezeknek az adatoknak az elérhetősége, azt hiszem,
17:05
heralds a kind of new era
428
1025260
2000
egy új korszakot jelez,
17:07
of what I and others would like to call
429
1027260
2000
amit én és mások
17:09
"computational social science."
430
1029260
2000
a komputációs társadalomtudományok korszakának nevezünk.
17:11
It's sort of like when Galileo invented -- or, didn't invent --
431
1031260
3000
Ez valami olyasmi, amikor Galileó felfedezte -- vagy nem fedezte fel --
17:14
came to use a telescope
432
1034260
2000
a teleszkóp használatát,
17:16
and could see the heavens in a new way,
433
1036260
2000
és az eget egészen más módon látta,
17:18
or Leeuwenhoek became aware of the microscope --
434
1038260
2000
vagy amikor Leeuwenhoek
17:20
or actually invented --
435
1040260
2000
feltalálta a mikroszkópot --
17:22
and could see biology in a new way.
436
1042260
2000
és teljesen más szemszögből látta a biológiát.
17:24
But now we have access to these kinds of data
437
1044260
2000
Most hozzáférünk ezekhez az adatokhoz,
17:26
that allow us to understand social processes
438
1046260
2000
amelyek lehetővé teszik, hogy a társadalmi folyamatokat
17:28
and social phenomena
439
1048260
2000
és a társadalmi jelenségeket
17:30
in an entirely new way that was never before possible.
440
1050260
3000
teljesen más módon szemléljük, ami ezelőtt nem volt lehetséges.
17:33
And with this science, we can
441
1053260
2000
Ezzel a tudománnyal
17:35
understand how exactly
442
1055260
2000
pontosan megérthetjük,
17:37
the whole comes to be greater
443
1057260
2000
hogy az egész miért jelent többet,
17:39
than the sum of its parts.
444
1059260
2000
mint a részek összege.
17:41
And actually, we can use these insights
445
1061260
2000
És ezeket a felfedezéseket arra használhatjuk,
17:43
to improve society and improve human well-being.
446
1063260
3000
hogy a társadalmat és az emberi jólétet fejlesszük.
17:46
Thank you.
447
1066260
2000
Köszönöm.
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7