Nicholas Christakis: How social networks predict epidemics

93,295 views ・ 2010-09-16

TED


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

Tłumaczenie: Jakub Czaplicki Korekta: Marcin Cwikla
00:15
For the last 10 years, I've been spending my time trying to figure out
0
15260
3000
Przez ostatnie 10 lat, spędzałem czas próbując się dowiedzieć
00:18
how and why human beings
1
18260
2000
jak i dlaczego ludzie
00:20
assemble themselves into social networks.
2
20260
3000
gromadzą się w sieciach społecznych.
00:23
And the kind of social network I'm talking about
3
23260
2000
Rodzaj sieci społecznych o których mówię
00:25
is not the recent online variety,
4
25260
2000
nie jest internetowym bytem,
00:27
but rather, the kind of social networks
5
27260
2000
ale raczej typem sieci społecznych
00:29
that human beings have been assembling for hundreds of thousands of years,
6
29260
3000
jakie ludzie tworzą od setek tysięcy lat,
00:32
ever since we emerged from the African savannah.
7
32260
3000
odkąd pojawiliśmy się na afrykańskiej sawannie.
00:35
So, I form friendships and co-worker
8
35260
2000
Tak więc, formuję przyjaźnie, współpracę
00:37
and sibling and relative relationships with other people
9
37260
3000
i małżeństwa i relacje z innymi ludźmi,
00:40
who in turn have similar relationships with other people.
10
40260
2000
którzy z kolei mają podobne relacje z innymi ludźmi.
00:42
And this spreads on out endlessly into a distance.
11
42260
3000
I to rozprzestrzenia się tak bez końca na odległość.
00:45
And you get a network that looks like this.
12
45260
2000
I dostajecie sieć, która wygląda tak.
00:47
Every dot is a person.
13
47260
2000
Każda kropka to osoba.
00:49
Every line between them is a relationship between two people --
14
49260
2000
Każda linia pomiędzy nimi jest związkiem pomiędzy dwojgiem ludzi --
00:51
different kinds of relationships.
15
51260
2000
różnego rodzaju związkami.
00:53
And you can get this kind of vast fabric of humanity,
16
53260
3000
I można uzyskać tego rodzaju ogromną tkaninę ludzkości,
00:56
in which we're all embedded.
17
56260
2000
w którą wszyscy jesteśmy wrośnięci.
00:58
And my colleague, James Fowler and I have been studying for quite sometime
18
58260
3000
I wraz z moim kolegą, Jamesem Fowlerem, analizowaliśmy przez pewien czas
01:01
what are the mathematical, social,
19
61260
2000
jakie są matematyczne, społeczne,
01:03
biological and psychological rules
20
63260
3000
biologiczne i psychologiczne reguły,
01:06
that govern how these networks are assembled
21
66260
2000
które rządzą tym, jak te sieci powstają
01:08
and what are the similar rules
22
68260
2000
i jakie są podobne reguły,
01:10
that govern how they operate, how they affect our lives.
23
70260
3000
które rządzą tym, jak one funkcjonują, jak wpływają na nasze życie.
01:13
But recently, we've been wondering
24
73260
2000
I ostatnio zastanawialiśmy się
01:15
whether it might be possible to take advantage of this insight,
25
75260
3000
czy możliwe jest wykorzystanie tej wiedzy,
01:18
to actually find ways to improve the world,
26
78260
2000
w celu znalezienia sposobów na udoskonalenie świata
01:20
to do something better,
27
80260
2000
aby zrobić coś lepszego,
01:22
to actually fix things, not just understand things.
28
82260
3000
żeby konkretnie naprawić rzeczy, nie tylko je zrozumieć.
01:25
So one of the first things we thought we would tackle
29
85260
3000
I tak jedną z pierwszych spraw do jakich postanowiliśmy podejść
01:28
would be how we go about predicting epidemics.
30
88260
3000
był sposób przewidywania epidemii.
01:31
And the current state of the art in predicting an epidemic --
31
91260
2000
Aktualny stan wiedzy w przewidywaniu epidemii --
01:33
if you're the CDC or some other national body --
32
93260
3000
jeśli jesteś CDC (www.cdc.gov) lub innym organem krajowym --
01:36
is to sit in the middle where you are
33
96260
2000
polega na siedzeniu w miejscu
01:38
and collect data
34
98260
2000
i zbieraniu danych
01:40
from physicians and laboratories in the field
35
100260
2000
od lekarzy i laboratoriów w terenie,
01:42
that report the prevalence or the incidence of certain conditions.
36
102260
3000
którzy raportują występowanie lub częstość występowania pewnych warunków.
01:45
So, so and so patients have been diagnosed with something,
37
105260
3000
Tacy i tacy pacjenci zostali zdiagnozowani z czymś tutaj
01:48
or other patients have been diagnosed,
38
108260
2000
lub inni pacjenci zostali zdiagnozowani tam,
01:50
and all these data are fed into a central repository, with some delay.
39
110260
3000
i wszystkie te dane są wprowadzane do centralnego repozytorium, z pewnym opóźnieniem.
01:53
And if everything goes smoothly,
40
113260
2000
I jeśli wszystko pójdzie gładko,
01:55
one to two weeks from now
41
115260
2000
w ciągu tygodnia lub dwóch,
01:57
you'll know where the epidemic was today.
42
117260
3000
dowiesz się że epidemia wystąpiła dzisiaj.
02:00
And actually, about a year or so ago,
43
120260
2000
I w zasadzie, mniej więcej rok temu,
02:02
there was this promulgation
44
122260
2000
powstał pomysł stworzenia
02:04
of the idea of Google Flu Trends, with respect to the flu,
45
124260
3000
trendów rozwoju grypy - Google Flu Trends,
02:07
where by looking at people's searching behavior today,
46
127260
3000
gdzie, poprzez dzisiejszą analizę zapytań w wyszukiwarce
02:10
we could know where the flu --
47
130260
2000
moglibyśmy się dowiedzieć gdzie grypa...
02:12
what the status of the epidemic was today,
48
132260
2000
jaki jest status epidemii na dzień dzisiejszy,
02:14
what's the prevalence of the epidemic today.
49
134260
3000
jaki jest stan występowania epidemii na dziś.
02:17
But what I'd like to show you today
50
137260
2000
Ale to co chciałem wam pokazać dzisiaj,
02:19
is a means by which we might get
51
139260
2000
to sposób, dzięki któremu możemy uzyskać
02:21
not just rapid warning about an epidemic,
52
141260
3000
nie tylko wczesne ostrzeżenie o epidemii,
02:24
but also actually
53
144260
2000
ale także
02:26
early detection of an epidemic.
54
146260
2000
wczesne wykrycie epidemii.
02:28
And, in fact, this idea can be used
55
148260
2000
I w zasadzie ta idea może być użyta
02:30
not just to predict epidemics of germs,
56
150260
3000
nie tylko w przypadku epidemii zarazków
02:33
but also to predict epidemics of all sorts of kinds.
57
153260
3000
ale także przy przewidywaniu jakiegokolwiek rodzaju epidemii.
02:37
For example, anything that spreads by a form of social contagion
58
157260
3000
Na przykład, cokolwiek co rozprzestrzenia się w formie społecznej zarazy
02:40
could be understood in this way,
59
160260
2000
może być rozumiane w ten sposób,
02:42
from abstract ideas on the left
60
162260
2000
od abstrakcyjnych idei po lewej,
02:44
like patriotism, or altruism, or religion
61
164260
3000
takich jak patriotyzm, czy altruizm, czy religia
02:47
to practices
62
167260
2000
po praktyczne
02:49
like dieting behavior, or book purchasing,
63
169260
2000
takie jak dieta, czy zakup książek,
02:51
or drinking, or bicycle-helmet [and] other safety practices,
64
171260
3000
czy też picie alkoholu, czy kask rowerowy i inne praktyki BHP
02:54
or products that people might buy,
65
174260
2000
lub produkty które ludzie mogą kupić,
02:56
purchases of electronic goods,
66
176260
2000
zakupy sprzętu elektronicznego,
02:58
anything in which there's kind of an interpersonal spread.
67
178260
3000
wszystko z czym związane jest interpersonalne rozpowszechnienie.
03:01
A kind of a diffusion of innovation
68
181260
2000
Rodzaj dyfuzji innowacji
03:03
could be understood and predicted
69
183260
2000
może być rozumiane i przewidywane
03:05
by the mechanism I'm going to show you now.
70
185260
3000
poprzez mechanizm który wam teraz pokażę.
03:08
So, as all of you probably know,
71
188260
2000
A więc, jak zapewne wszyscy wiecie,
03:10
the classic way of thinking about this
72
190260
2000
klasyczny sposób myślenia o tym
03:12
is the diffusion-of-innovation,
73
192260
2000
jest dyfuzja innowacji
03:14
or the adoption curve.
74
194260
2000
lub też krzywa adoptacji.
03:16
So here on the Y-axis, we have the percent of the people affected,
75
196260
2000
Więc tu na osi Y, mamy procent ludzi którzy zostali dotknięci,
03:18
and on the X-axis, we have time.
76
198260
2000
i na osi X mamy czas.
03:20
And at the very beginning, not too many people are affected,
77
200260
3000
I na samym początku, niewiele osób jest dotkniętych,
03:23
and you get this classic sigmoidal,
78
203260
2000
i dostajemy klasyczną krzywą
03:25
or S-shaped, curve.
79
205260
2000
w kształcie litery S.
03:27
And the reason for this shape is that at the very beginning,
80
207260
2000
Powodem takiego kształtu jest fakt, że na samym początku,
03:29
let's say one or two people
81
209260
2000
powiedzmy jedna lub dwie osoby
03:31
are infected, or affected by the thing
82
211260
2000
zostały dotknięte, lub zainfekowane przez tą rzecz
03:33
and then they affect, or infect, two people,
83
213260
2000
i następnie infekują, dwie następne osoby
03:35
who in turn affect four, eight, 16 and so forth,
84
215260
3000
które w efekcie wpływają na cztery, osiem, 16, itd.
03:38
and you get the epidemic growth phase of the curve.
85
218260
3000
i powstaje faza epidemicznego wzrostu krzywej.
03:41
And eventually, you saturate the population.
86
221260
2000
I w końcu, nasyca się populacja.
03:43
There are fewer and fewer people
87
223260
2000
Jest coraz mniej osób
03:45
who are still available that you might infect,
88
225260
2000
które są dostępne, które można zarazić;
03:47
and then you get the plateau of the curve,
89
227260
2000
i osiągamy plateau krzywej,
03:49
and you get this classic sigmoidal curve.
90
229260
3000
i otrzymujemy klasyczną esowatą krzywą.
03:52
And this holds for germs, ideas,
91
232260
2000
I to dotyczy zarazków, pomysłów,
03:54
product adoption, behaviors,
92
234260
2000
adoptacji produktów, zachowań
03:56
and the like.
93
236260
2000
i tym podobnych.
03:58
But things don't just diffuse in human populations at random.
94
238260
3000
Ale w populacji ludzi rzeczy nie rozprzestrzeniają się w sposób przypadkowy.
04:01
They actually diffuse through networks.
95
241260
2000
One szerzą się poprzez sieci.
04:03
Because, as I said, we live our lives in networks,
96
243260
3000
Ponieważ, jak juz wspomniałem, nasze życie spędzamy w sieciach
04:06
and these networks have a particular kind of a structure.
97
246260
3000
i sieci te mają konkretną strukturę.
04:09
Now if you look at a network like this --
98
249260
2000
Teraz.. jeśli popatrzycie na sieć w taki sposób...
04:11
this is 105 people.
99
251260
2000
To jest 105 osób.
04:13
And the lines represent -- the dots are the people,
100
253260
2000
Linie reprezentują... kropki to ludzie,
04:15
and the lines represent friendship relationships.
101
255260
2000
a linie reprezentują przyjaźnie.
04:17
You might see that people occupy
102
257260
2000
Możecie zauważyć że ludzie okupują
04:19
different locations within the network.
103
259260
2000
różne miejsca w sieci.
04:21
And there are different kinds of relationships between the people.
104
261260
2000
I jest wiele różnych rodzajów związków pomiędzy ludźmi.
04:23
You could have friendship relationships, sibling relationships,
105
263260
3000
Możecie mieć związki przyjaźni, związki rodzeństwa,
04:26
spousal relationships, co-worker relationships,
106
266260
3000
związki małżeńskie, związki współpracowników,
04:29
neighbor relationships and the like.
107
269260
3000
związki sąsiedzkie i tym podobne.
04:32
And different sorts of things
108
272260
2000
I różne rzeczy
04:34
spread across different sorts of ties.
109
274260
2000
rozprzestrzeniają się poprzez różne więzi.
04:36
For instance, sexually transmitted diseases
110
276260
2000
Na przykład, choroby przenoszone drogą płciową
04:38
will spread across sexual ties.
111
278260
2000
będą rozprzestrzeniać się poprzez więzi seksualne.
04:40
Or, for instance, people's smoking behavior
112
280260
2000
Lub, na przykład, zachowanie ludzi pod kątem palenia
04:42
might be influenced by their friends.
113
282260
2000
może być pod wpływem ich przyjaciół.
04:44
Or their altruistic or their charitable giving behavior
114
284260
2000
Lub ich altruistyczna lub charytatywna działalność
04:46
might be influenced by their coworkers,
115
286260
2000
może być pod wpływem ich współpracowników
04:48
or by their neighbors.
116
288260
2000
lub ich sąsiadów.
04:50
But not all positions in the network are the same.
117
290260
3000
Ale nie wszystkie pozycje w sieci są takie same.
04:53
So if you look at this, you might immediately grasp
118
293260
2000
Jeśli spojrzycie na to, możecie natychmiast zrozumieć
04:55
that different people have different numbers of connections.
119
295260
3000
że różni ludzie mają różny połączeń.
04:58
Some people have one connection, some have two,
120
298260
2000
Jedni mają jedno połączenie, inni dwa
05:00
some have six, some have 10 connections.
121
300260
3000
inny sześć, a jeszcze inni 10 połączeń.
05:03
And this is called the "degree" of a node,
122
303260
2000
I to nazywamy "stopniem" wierzchołka,
05:05
or the number of connections that a node has.
123
305260
2000
lub liczą połączeń które dany wierzchołek posiada.
05:07
But in addition, there's something else.
124
307260
2000
Ale, ponad to, jest coś jeszcze.
05:09
So, if you look at nodes A and B,
125
309260
2000
Jeśli przyjrzycie się wierzchołkom A i B,
05:11
they both have six connections.
126
311260
2000
oba mają po sześć połączeń.
05:13
But if you can see this image [of the network] from a bird's eye view,
127
313260
3000
Ale jeśli spojrzycie na ten obrazek [sieci] z lotu ptaka,
05:16
you can appreciate that there's something very different
128
316260
2000
uznacie że jest coś co powoduje że wierzchołki
05:18
about nodes A and B.
129
318260
2000
A i B są zdecydowanie różne.
05:20
So, let me ask you this -- I can cultivate this intuition by asking a question --
130
320260
3000
Pozwólcie że was zapytam tak -- mogę podtrzymywać tą intuicję poprzez pytanie --
05:23
who would you rather be
131
323260
2000
kim wolelibyście być
05:25
if a deadly germ was spreading through the network, A or B?
132
325260
3000
gdyby zabójczy zarazek rozprzestrzeniał się poprzez sieć, A czy B ?
05:28
(Audience: B.) Nicholas Christakis: B, it's obvious.
133
328260
2000
(Sala: B) Nicholas Christakis: B, to oczywiste.
05:30
B is located on the edge of the network.
134
330260
2000
B jest ulokowane na krawędzi sieci.
05:32
Now, who would you rather be
135
332260
2000
A teraz, kim wolelibyście być
05:34
if a juicy piece of gossip were spreading through the network?
136
334260
3000
gdyby soczysta plotka krążyła w tej sieci ?
05:37
A. And you have an immediate appreciation
137
337260
3000
A. I możecie niemal natychmiast zauważyć
05:40
that A is going to be more likely
138
340260
2000
że A ma większe szanse
05:42
to get the thing that's spreading and to get it sooner
139
342260
3000
aby dostać tę rzecz która się rozprzestrzenia i dostać prędzej
05:45
by virtue of their structural location within the network.
140
345260
3000
ze względu na na jego położenie w strukturach sieci.
05:48
A, in fact, is more central,
141
348260
2000
A jest bardziej centralne,
05:50
and this can be formalized mathematically.
142
350260
3000
i to może być sformalizowane matematycznie.
05:53
So, if we want to track something
143
353260
2000
Więc, jeśli chcielibyśmy śledzić coś
05:55
that was spreading through a network,
144
355260
3000
co się rozprzestrzenia poprzez sieć,
05:58
what we ideally would like to do is to set up sensors
145
358260
2000
w idealnym świecie chcielibyśmy ustawić sensory
06:00
on the central individuals within the network,
146
360260
2000
na centralnych jednostkach w sieci,
06:02
including node A,
147
362260
2000
włączając wierzchołek A,
06:04
monitor those people that are right there in the middle of the network,
148
364260
3000
monitorować te osoby które są właśnie tam, w samym środku sieci,
06:07
and somehow get an early detection
149
367260
2000
i w jakiś sposób dokonać wczesnego odkrycia
06:09
of whatever it is that is spreading through the network.
150
369260
3000
tego co się rozprzestrzenia w sieci, czymkolwiek to jest.
06:12
So if you saw them contract a germ or a piece of information,
151
372260
3000
Oznacza to, że jeśli zauważylibyście moment w którym złapali wirusa lub fragment informacji,
06:15
you would know that, soon enough,
152
375260
2000
wiedzielibyście, że wkrótce,
06:17
everybody was about to contract this germ
153
377260
2000
wszyscy zostaliby zarażeni
06:19
or this piece of information.
154
379260
2000
lub posiadali ten fragment informacji.
06:21
And this would be much better
155
381260
2000
I byłoby to dużo lepsze
06:23
than monitoring six randomly chosen people,
156
383260
2000
od monitorowania sześciu przypadkowo wybranych osób
06:25
without reference to the structure of the population.
157
385260
3000
bez żadnego odniesienia do struktury populacji.
06:28
And in fact, if you could do that,
158
388260
2000
I co więcej, jeśli moglibyście to zrobić
06:30
what you would see is something like this.
159
390260
2000
to co byście zobaczyli wyglądałoby mniej więcej tak.
06:32
On the left-hand panel, again, we have the S-shaped curve of adoption.
160
392260
3000
Po lewej stronie panelu, znowu, mamy krzywą adoptacji w kształcie S.
06:35
In the dotted red line, we show
161
395260
2000
Czerwona przerywana linia pokazuje
06:37
what the adoption would be in the random people,
162
397260
2000
jak wyglądałaby adoptacja u przypadkowych ludzi,
06:39
and in the left-hand line, shifted to the left,
163
399260
3000
i linia po lewej stronie, przesunięta do lewej
06:42
we show what the adoption would be
164
402260
2000
pokazuje jak wyglądałaby adoptacja
06:44
in the central individuals within the network.
165
404260
2000
u osób znajdujących się w centrum sieci.
06:46
On the Y-axis is the cumulative instances of contagion,
166
406260
2000
Na osi Y jest łączne wystąpienie zakażenia,
06:48
and on the X-axis is the time.
167
408260
2000
i na osi X jest czas.
06:50
And on the right-hand side, we show the same data,
168
410260
2000
I po prawej stronie, pokazujemy te same dane,
06:52
but here with daily incidence.
169
412260
2000
ale z dzienną zapadalnością.
06:54
And what we show here is -- like, here --
170
414260
2000
I to co tu pokazujemy jest, tak jak tutaj
06:56
very few people are affected, more and more and more and up to here,
171
416260
2000
bardzo mało ludzi jest dotkniętych, więcej i więcej i więcej i do tego momentu
06:58
and here's the peak of the epidemic.
172
418260
2000
i tu jest szczyt epidemii.
07:00
But shifted to the left is what's occurring in the central individuals.
173
420260
2000
Ale przesunięty jest w lewo, i to występuje u centralnej jednostki.
07:02
And this difference in time between the two
174
422260
3000
I ta różnica w czasie pomiędzy obiema (epidemiami)
07:05
is the early detection, the early warning we can get,
175
425260
3000
to wczesne wykrycie, wczesne ostrzeżenie które możemy uzyskać
07:08
about an impending epidemic
176
428260
2000
o nadchodzącej epidemii
07:10
in the human population.
177
430260
2000
w populacji ludzi.
07:12
The problem, however,
178
432260
2000
Problem, jednak jest taki,
07:14
is that mapping human social networks
179
434260
2000
że mapowanie sieci społecznych ludzi
07:16
is not always possible.
180
436260
2000
nie zawsze jest możliwe.
07:18
It can be expensive, not feasible,
181
438260
2000
Może być drogie, [bardzo trudne],
07:20
unethical,
182
440260
2000
nieetyczne
07:22
or, frankly, just not possible to do such a thing.
183
442260
3000
lub, szczerze, po prostu niemożliwe do zrobienia.
07:25
So, how can we figure out
184
445260
2000
A więc, jak możemy rozgryźć
07:27
who the central people are in a network
185
447260
2000
kto znajduje sie w centrum sieci
07:29
without actually mapping the network?
186
449260
3000
bez właściwego jej mapowania ?
07:32
What we came up with
187
452260
2000
Wpadliśmy na pomysł
07:34
was an idea to exploit an old fact,
188
454260
2000
wykorzystania starej informacji
07:36
or a known fact, about social networks,
189
456260
2000
lub też znanego faktu o sieciach społecznych,
07:38
which goes like this:
190
458260
2000
który mówi:
07:40
Do you know that your friends
191
460260
2000
Czy wiesz że Twoi znajomi
07:42
have more friends than you do?
192
462260
3000
mają więcej znajomych niż ty ?
07:45
Your friends have more friends than you do,
193
465260
3000
Twoi przyjaciele mają więcej przyjaciół niż ty.
07:48
and this is known as the friendship paradox.
194
468260
2000
To jest znane jako paradoks przyjaźni.
07:50
Imagine a very popular person in the social network --
195
470260
2000
Wyobraźcie sobie bardzo popularną osobę w sieci społecznej --
07:52
like a party host who has hundreds of friends --
196
472260
3000
jak np. organizator imprezy, który ma setkę przyjaciół --
07:55
and a misanthrope who has just one friend,
197
475260
2000
i mizantropa który ma tylko jednego przyjaciela,
07:57
and you pick someone at random from the population;
198
477260
3000
i wybieracie przypadkową osobę z populacji;
08:00
they were much more likely to know the party host.
199
480260
2000
ta osoba ma dużo większe szanse znać organizatora imprezy
08:02
And if they nominate the party host as their friend,
200
482260
2000
I jeśli ta osoba nominuje gospodarza imprezy jako przyjaciela,
08:04
that party host has a hundred friends,
201
484260
2000
ten organizator imprezy ma setkę przyjaciół,
08:06
therefore, has more friends than they do.
202
486260
3000
a zatem ma więcej przyjaciół niż wybrany przez was osobnik.
08:09
And this, in essence, is what's known as the friendship paradox.
203
489260
3000
I to, w skrócie, jest paradoks przyjaźni.
08:12
The friends of randomly chosen people
204
492260
3000
Przyjaciele przypadkowo wybranych ludzi
08:15
have higher degree, and are more central
205
495260
2000
mają wyższy stopień, i są bardziej centralni
08:17
than the random people themselves.
206
497260
2000
niż przypadkowi ludzie.
08:19
And you can get an intuitive appreciation for this
207
499260
2000
Można to zrozumieć intuicyjnie
08:21
if you imagine just the people at the perimeter of the network.
208
501260
3000
jeśli wyobrazicie sobie osoby znajdujące się na obrzeżu sieci.
08:24
If you pick this person,
209
504260
2000
Jeśli wybierzecie taką osobę,
08:26
the only friend they have to nominate is this person,
210
506260
3000
jedynym osobnikiem który może zostać jej przyjacielem,
08:29
who, by construction, must have at least two
211
509260
2000
jest ten który ma już co najmniej dwoje,
08:31
and typically more friends.
212
511260
2000
a zazwyczaj więcej, przyjaciół.
08:33
And that happens at every peripheral node.
213
513260
2000
I tak dzieje się z każdym krańcowym wierzchołkiem.
08:35
And in fact, it happens throughout the network as you move in,
214
515260
3000
I co więcej, tak dzieje się w obrębie całej sieci, po której się poruszamy,
08:38
everyone you pick, when they nominate a random --
215
518260
2000
kogokolwiek wybierzesz, kiedy nominują przypadkową..
08:40
when a random person nominates a friend of theirs,
216
520260
3000
kiedy przypadkowa osoba nominuje kogoś jako swojego przyjaciela,
08:43
you move closer to the center of the network.
217
523260
3000
ty przybliżasz się do centrum sieci.
08:46
So, we thought we would exploit this idea
218
526260
3000
Tak więc, postanowiliśmy wykorzystać ten pomysł
08:49
in order to study whether we could predict phenomena within networks.
219
529260
3000
w celu zbadania, czy możemy przewidywać zjawiska w sieciach.
08:52
Because now, with this idea
220
532260
2000
Ponieważ teraz, z tym pomysłem,
08:54
we can take a random sample of people,
221
534260
2000
możemy brać przypadkowe próbki spośród ludzi,
08:56
have them nominate their friends,
222
536260
2000
wskazać ich przyjaciół,
08:58
those friends would be more central,
223
538260
2000
ci przyjaciele byliby bardziej centralni,
09:00
and we could do this without having to map the network.
224
540260
3000
i moglibyśmy dokonać tego bez potrzeby mapowania sieci.
09:03
And we tested this idea with an outbreak of H1N1 flu
225
543260
3000
Przetestowaliśmy ten pomysł na epidemii świńskiej grypy H1N1
09:06
at Harvard College
226
546260
2000
na Harwardzie,
09:08
in the fall and winter of 2009, just a few months ago.
227
548260
3000
jesienią i zimą 2009, tylko kilka miesięcy temu.
09:11
We took 1,300 randomly selected undergraduates,
228
551260
3000
Wzięliśmy 1300 losowo wybranych studentów,
09:14
we had them nominate their friends,
229
554260
2000
poprosiliśmy ich o wskazanie swoich znajomych,
09:16
and we followed both the random students and their friends
230
556260
2000
a następnie śledziliśmy zarówno studentów, jak ich przyjaciół
09:18
daily in time
231
558260
2000
codziennie,
09:20
to see whether or not they had the flu epidemic.
232
560260
3000
żeby zobaczyć czy zostali zarażeni grypą.
09:23
And we did this passively by looking at whether or not they'd gone to university health services.
233
563260
3000
Zrobiliśmy to w sposób pasywny, patrząc czy któryś ze studentów zgłosił się do uniwersyteckiego lekarza.
09:26
And also, we had them [actively] email us a couple of times a week.
234
566260
3000
Jak również, poprosiliśmy ich o przesyłanie nam emaili kilka razy w tygodniu.
09:29
Exactly what we predicted happened.
235
569260
3000
Stało się dokładnie to, co przewidzieliśmy.
09:32
So the random group is in the red line.
236
572260
3000
I tak losowo wybrana grupa, jest czerwoną linią.
09:35
The epidemic in the friends group has shifted to the left, over here.
237
575260
3000
Epidemia w grupie przyjaciół jest przesunięta do lewej, tutaj.
09:38
And the difference in the two is 16 days.
238
578260
3000
Różnica czasu wynosi 16 dni.
09:41
By monitoring the friends group,
239
581260
2000
Poprzez monitorowanie grupy przyjaciół,
09:43
we could get 16 days advance warning
240
583260
2000
udało nam się z 16 dniowym wyprzedzeniem przestrzec
09:45
of an impending epidemic in this human population.
241
585260
3000
o zbliżającej się epidemii w tej populacji ludzi.
09:48
Now, in addition to that,
242
588260
2000
Teraz, ponadto
09:50
if you were an analyst who was trying to study an epidemic
243
590260
3000
jeśli bylibyście analitykami i próbowali studiować epidemię
09:53
or to predict the adoption of a product, for example,
244
593260
3000
lub przewidzieć przyjęcie się produktu, na przykład,
09:56
what you could do is you could pick a random sample of the population,
245
596260
3000
to co moglibyście zrobić, to wybrać losową próbkę populacji,
09:59
also have them nominate their friends and follow the friends
246
599260
3000
poprosić ich o wskazanie ich przyjaciół i śledzić tychże przyjaciół,
10:02
and follow both the randoms and the friends.
247
602260
3000
i śledzić zarówno losowo wybranych ludzi, jak również ich przyjaciół.
10:05
Among the friends, the first evidence you saw of a blip above zero
248
605260
3000
Spośród przyjaciół, pierwsza oznaką jaką byście zobaczyli, mały piksel nad zerem
10:08
in adoption of the innovation, for example,
249
608260
3000
na krzywej adoptacji, oznaczałaby na przykład
10:11
would be evidence of an impending epidemic.
250
611260
2000
oznakę nadchodzącej epidemii.
10:13
Or you could see the first time the two curves diverged,
251
613260
3000
Lub moglibyście zaobserwować jak dwie krzywe rozchodzą się
10:16
as shown on the left.
252
616260
2000
tak jak to jest pokazane po lewej.
10:18
When did the randoms -- when did the friends take off
253
618260
3000
Kiedy.. Kiedy przyjaciele odbiegają,
10:21
and leave the randoms,
254
621260
2000
i zostawiają losowych wybrańców
10:23
and [when did] their curve start shifting?
255
623260
2000
i kiedy ich krzywa zaczyna się przesuwać?
10:25
And that, as indicated by the white line,
256
625260
2000
I to, jak wskazuje biała linia,
10:27
occurred 46 days
257
627260
2000
odbyło się 46 dni
10:29
before the peak of the epidemic.
258
629260
2000
przed szczytowym dniem epidemii.
10:31
So this would be a technique
259
631260
2000
Więc to byłaby technika,
10:33
whereby we could get more than a month-and-a-half warning
260
633260
2000
dzięki której moglibyśmy z ponad półtoramiesięcznym wyprzedzeniem
10:35
about a flu epidemic in a particular population.
261
635260
3000
dostać ostrzeżenie o epidemii grypy w konkretnej populacji.
10:38
I should say that
262
638260
2000
Powinienem dodać,
10:40
how far advanced a notice one might get about something
263
640260
2000
że to jak wczesne ostrzeżenie o czymś można dostać
10:42
depends on a host of factors.
264
642260
2000
zależy od wielu czynników.
10:44
It could depend on the nature of the pathogen --
265
644260
2000
Może zależeć od natury danego patogenu --
10:46
different pathogens,
266
646260
2000
w przypadku różnych patogenów
10:48
using this technique, you'd get different warning --
267
648260
2000
używając tej techniki, dostalibyście różne ostrzeżenia --
10:50
or other phenomena that are spreading,
268
650260
2000
może zależeć od innych zjawisk, które się rozprzestrzeniają,
10:52
or frankly, on the structure of the human network.
269
652260
3000
lub, po prostu, może zależeć od struktury sieci.
10:55
Now in our case, although it wasn't necessary,
270
655260
3000
W naszym przypadku, mimo że nie było to konieczne
10:58
we could also actually map the network of the students.
271
658260
2000
mogliśmy zmapować sieć studentów.
11:00
So, this is a map of 714 students
272
660260
2000
I tak, oto jest jest mapa 714 studentów
11:02
and their friendship ties.
273
662260
2000
i ich więzi przyjaźni,
11:04
And in a minute now, I'm going to put this map into motion.
274
664260
2000
I za moment, puszczę tą mapę w ruch.
11:06
We're going to take daily cuts through the network
275
666260
2000
Zaprezentuję jak wyglądała ta sieć dzień po dniu
11:08
for 120 days.
276
668260
2000
przez okres 120 dni.
11:10
The red dots are going to be cases of the flu,
277
670260
3000
Czerwone kropki będą przypadkami grypy,
11:13
and the yellow dots are going to be friends of the people with the flu.
278
673260
3000
żółte kropki to przyjaciele osób zarażonych grypą.
11:16
And the size of the dots is going to be proportional
279
676260
2000
Rozmiar kropki jest proporcjonalny do
11:18
to how many of their friends have the flu.
280
678260
2000
ilości przyjaciół zarażonych grypą.
11:20
So bigger dots mean more of your friends have the flu.
281
680260
3000
Zatem większa kropka oznacza, że więcej twoich przyjaciół ma grypę.
11:23
And if you look at this image -- here we are now in September the 13th --
282
683260
3000
I jeśli spojrzycie na ten obrazek -- mamy teraz 13 września --
11:26
you're going to see a few cases light up.
283
686260
2000
zobaczycie kilka przypadków które się podświetlą.
11:28
You're going to see kind of blooming of the flu in the middle.
284
688260
2000
Zobaczycie swoisty rodzaj rozkwitu grypy w środku.
11:30
Here we are on October the 19th.
285
690260
3000
Tutaj mamy 19 października.
11:33
The slope of the epidemic curve is approaching now, in November.
286
693260
2000
Zbliża się nachylenie krzywej epidemii, teraz, w listopadzie.
11:35
Bang, bang, bang, bang, bang -- you're going to see lots of blooming in the middle,
287
695260
3000
Bang, bang, bang, bang, bang, teraz zobaczycie duży rozkwit w środku,
11:38
and then you're going to see a sort of leveling off,
288
698260
2000
a następnie zobaczycie swoiste wyrównanie
11:40
fewer and fewer cases towards the end of December.
289
700260
3000
coraz mniej przypadków pod koniec grudnia.
11:43
And this type of a visualization
290
703260
2000
I tego typu wizualizacja
11:45
can show that epidemics like this take root
291
705260
2000
może pokazać, że epidemie jak ta, ukorzeniają się
11:47
and affect central individuals first,
292
707260
2000
i wpływają najpierw na centralne jednostki,
11:49
before they affect others.
293
709260
2000
zanim zaczną wpływać na innych.
11:51
Now, as I've been suggesting,
294
711260
2000
Teraz, tak jak sugerowałem,
11:53
this method is not restricted to germs,
295
713260
3000
ta metoda nie ogranicza się jedynie do zarazków,
11:56
but actually to anything that spreads in populations.
296
716260
2000
ale do czegokolwiek co może się rozprzestrzeniać w populacjach.
11:58
Information spreads in populations,
297
718260
2000
Informacja rozprzestrzenia się w populacjach.
12:00
norms can spread in populations,
298
720260
2000
Normy rozprzestrzeniają się w populacjach.
12:02
behaviors can spread in populations.
299
722260
2000
Zachowania mogą się rozprzestrzeniać w populacjach.
12:04
And by behaviors, I can mean things like criminal behavior,
300
724260
3000
I przez zachowanie, mam na myśli rzeczy takie jak kryminalne zachowania,
12:07
or voting behavior, or health care behavior,
301
727260
3000
głosowanie, podejście do zdrowia
12:10
like smoking, or vaccination,
302
730260
2000
takie jak palenie czy szczepionki,
12:12
or product adoption, or other kinds of behaviors
303
732260
2000
lub adoptacja produktu, lub inne typy zachowań
12:14
that relate to interpersonal influence.
304
734260
2000
które odnoszą się do wpływania interpersonalnego.
12:16
If I'm likely to do something that affects others around me,
305
736260
3000
Jeśli ja jestem skłonny zrobić coś, co wpłynie na innych wokół mnie,
12:19
this technique can get early warning or early detection
306
739260
3000
ta technika umożliwia wczesne ostrzeżenie, lub wczesną detekcje
12:22
about the adoption within the population.
307
742260
3000
o wyborach wewnątrz populacji.
12:25
The key thing is that for it to work,
308
745260
2000
Aby to zadziałało, kluczową rzeczą jest
12:27
there has to be interpersonal influence.
309
747260
2000
interpersonalny wpływ.
12:29
It cannot be because of some broadcast mechanism
310
749260
2000
To nie może być z powodu jakiegoś mechanizmu transmisji
12:31
affecting everyone uniformly.
311
751260
3000
który wpływa na wszystkich jednakowo.
12:35
Now the same insights
312
755260
2000
Te same spostrzeżenia
12:37
can also be exploited -- with respect to networks --
313
757260
3000
mogą być wykorzystane -- w odniesieniu do sieci --
12:40
can also be exploited in other ways,
314
760260
3000
mogą być wykorzystane na inne sposoby
12:43
for example, in the use of targeting
315
763260
2000
na przykład, w stosunku do wyszukiwania
12:45
specific people for interventions.
316
765260
2000
konkretnych osób do interwencji.
12:47
So, for example, most of you are probably familiar
317
767260
2000
I tak, na przykład, większość z was prawdopodobnie zna
12:49
with the notion of herd immunity.
318
769260
2000
pojęcie odporności stada.
12:51
So, if we have a population of a thousand people,
319
771260
3000
Gdy weźmiemy populacje tysiąca osób,
12:54
and we want to make the population immune to a pathogen,
320
774260
3000
i chcemy, aby populacja była odporna na dany patogen,
12:57
we don't have to immunize every single person.
321
777260
2000
nie musimy szczepić każdej pojedynczej osoby.
12:59
If we immunize 960 of them,
322
779260
2000
Jeśli zaszczepimy 960 osób,
13:01
it's as if we had immunized a hundred [percent] of them.
323
781260
3000
to prawie tak jakbyśmy zaszczepili sto procent.
13:04
Because even if one or two of the non-immune people gets infected,
324
784260
3000
Ponieważ, nawet jeśli jedna lub dwie nie zaszczepione osoby zostaną zainfekowane,
13:07
there's no one for them to infect.
325
787260
2000
nie ma nikogo kogo mogłyby zarazić.
13:09
They are surrounded by immunized people.
326
789260
2000
Są otoczone przez osoby zaszczepione.
13:11
So 96 percent is as good as 100 percent.
327
791260
3000
Zatem 96 procent jest tak samo dobre jak 100 procent.
13:14
Well, some other scientists have estimated
328
794260
2000
Niektórzy naukowcy oszacowali
13:16
what would happen if you took a 30 percent random sample
329
796260
2000
co by się stało gdyby wziąć 30 procent losowo wybranych ludzi
13:18
of these 1000 people, 300 people and immunized them.
330
798260
3000
z grupy 1000 osób, 300 osób i je zaszczepić.
13:21
Would you get any population-level immunity?
331
801260
2000
Czy osiągnęlibyśmy odporność na poziomie populacji ?
13:23
And the answer is no.
332
803260
3000
Odpowiedź brzmi: nie.
13:26
But if you took this 30 percent, these 300 people
333
806260
2000
Ale jeśli weźmiecie te 30 procent, te 300 osób,
13:28
and had them nominate their friends
334
808260
2000
poprosicie ich aby wskazali swoich przyjaciół
13:30
and took the same number of vaccine doses
335
810260
3000
i użyli tej samej liczby szczepionek
13:33
and vaccinated the friends of the 300 --
336
813260
2000
i zaczepili przyjaciół tej 300tki,
13:35
the 300 friends --
337
815260
2000
300 przyjaciół,
13:37
you can get the same level of herd immunity
338
817260
2000
moglibyście osiągnąć ten sam poziom odporności stada
13:39
as if you had vaccinated 96 percent of the population
339
819260
3000
jak w przypadku zaszczepienia 96 procent populacji
13:42
at a much greater efficiency, with a strict budget constraint.
340
822260
3000
przy dużo większej wydajności i ograniczeniach budżetowych.
13:45
And similar ideas can be used, for instance,
341
825260
2000
I podobne pomysły mogą być użyte, na przykład,
13:47
to target distribution of things like bed nets
342
827260
2000
do zwalczania dystrybucji rzeczy takich jak moskitiery
13:49
in the developing world.
343
829260
2000
w krajach rozwijających się.
13:51
If we could understand the structure of networks in villages,
344
831260
3000
Gdybyśmy mogli zrozumieć strukturę sieci w wioskach,
13:54
we could target to whom to give the interventions
345
834260
2000
moglibyśmy określić komu nadać wpływ
13:56
to foster these kinds of spreads.
346
836260
2000
do wspierania tego typu rozprzestrzeniania.
13:58
Or, frankly, for advertising with all kinds of products.
347
838260
3000
Lub, szczerze, to reklamowania wszelkiego rodzaju produktów.
14:01
If we could understand how to target,
348
841260
2000
Gdybyśmy mogli zrozumieć jak to ukierunkowywać
14:03
it could affect the efficiency
349
843260
2000
wpłynęło by to znacznie na wydajność
14:05
of what we're trying to achieve.
350
845260
2000
tego co chcemy osiągnąć.
14:07
And in fact, we can use data
351
847260
2000
I ponadto, moglibyśmy użyć danych
14:09
from all kinds of sources nowadays [to do this].
352
849260
2000
z różnego rodzaju źródeł.
14:11
This is a map of eight million phone users
353
851260
2000
To jest mapa ośmiu milionów użytkowników telefonów
14:13
in a European country.
354
853260
2000
w europejskim kraju.
14:15
Every dot is a person, and every line represents
355
855260
2000
Każdy punkt to osoba, i każda linia reprezentuje
14:17
a volume of calls between the people.
356
857260
2000
ilość rozmów pomiędzy ludźmi.
14:19
And we can use such data, that's being passively obtained,
357
859260
3000
I możemy użyć takich danych, które zostały pobrane pasywnie,
14:22
to map these whole countries
358
862260
2000
w celu zmapowania całych krajów
14:24
and understand who is located where within the network.
359
864260
3000
i zrozumieć kto jest zlokalizowany gdzie w sieci.
14:27
Without actually having to query them at all,
360
867260
2000
Bez potrzeby zadawania jakichkolwiek pytań,
14:29
we can get this kind of a structural insight.
361
869260
2000
możemy osiągnąć tego typu wgląd w strukturę sieci.
14:31
And other sources of information, as you're no doubt aware
362
871260
3000
I inne źródła informacji, których bez wątpienia jesteście świadomi,
14:34
are available about such features, from email interactions,
363
874260
3000
są dostępne o takich cechach, od wymiany emaili,
14:37
online interactions,
364
877260
2000
interakcji online,
14:39
online social networks and so forth.
365
879260
3000
sieci społeczne, itd.
14:42
And in fact, we are in the era of what I would call
366
882260
2000
I do tego, żyjemy w czasach, które ja nazywam
14:44
"massive-passive" data collection efforts.
367
884260
3000
czasami "masywno-pasywnego" kolekcjonowania danych.
14:47
They're all kinds of ways we can use massively collected data
368
887260
3000
Jest mnóstwo sposobów jakich możemy użyć do masywnego zbierania danych
14:50
to create sensor networks
369
890260
3000
do tworzenie sieci sensorów
14:53
to follow the population,
370
893260
2000
aby śledzić populację,
14:55
understand what's happening in the population,
371
895260
2000
zrozumieć co się dzieje w populacji,
14:57
and intervene in the population for the better.
372
897260
3000
i wpłynąć na populację dla jej dobra.
15:00
Because these new technologies tell us
373
900260
2000
Ponieważ te nowe technologie mówią nam
15:02
not just who is talking to whom,
374
902260
2000
nie tylko kto z kim rozmawia,
15:04
but where everyone is,
375
904260
2000
ale gdzie wszyscy są,
15:06
and what they're thinking based on what they're uploading on the Internet,
376
906260
3000
i o czym myśleli na podstawie tego co ściągają z internetu,
15:09
and what they're buying based on their purchases.
377
909260
2000
i co kupowali na podstawie ich zakupów.
15:11
And all this administrative data can be pulled together
378
911260
3000
I wszystkie te dane administracyjne mogą być zebrane razem
15:14
and processed to understand human behavior
379
914260
2000
i przetworzone aby zrozumieć ludzkie zachowanie
15:16
in a way we never could before.
380
916260
3000
w sposób jaki nigdy wcześniej nie był możliwy.
15:19
So, for example, we could use truckers' purchases of fuel.
381
919260
3000
I tak na przykład, moglibyśmy użyć dane o zakupach paliwa kierowcy TIRa.
15:22
So the truckers are just going about their business,
382
922260
2000
Tak więc kierowcy ciężarówek prowadzą swoją działalność
15:24
and they're buying fuel.
383
924260
2000
i kupują paliwo.
15:26
And we see a blip up in the truckers' purchases of fuel,
384
926260
3000
Widzimy skok w zakupie paliwa,
15:29
and we know that a recession is about to end.
385
929260
2000
i wiemy, że recesja się wkrótce skończy.
15:31
Or we can monitor the velocity
386
931260
2000
Lub też możemy monitorować prędkość
15:33
with which people are moving with their phones on a highway,
387
933260
3000
z jaką ludzie poruszają się ze swoimi telefonami na autostradzie,
15:36
and the phone company can see,
388
936260
2000
i firma telekomunikacyjna może zobaczyć,
15:38
as the velocity is slowing down,
389
938260
2000
gdy prędkość się zmniejsza,
15:40
that there's a traffic jam.
390
940260
2000
że pojawił się korek.
15:42
And they can feed that information back to their subscribers,
391
942260
3000
I mogą przesłać te informacje do swoich użytkowników,
15:45
but only to their subscribers on the same highway
392
945260
2000
ale tylko do tych którzy są na tej samej autostradzie
15:47
located behind the traffic jam!
393
947260
2000
zlokalizowani przed korkiem.
15:49
Or we can monitor doctors prescribing behaviors, passively,
394
949260
3000
Lub możemy monitorować recepty wypisane przez lekarzy,
15:52
and see how the diffusion of innovation with pharmaceuticals
395
952260
3000
i zobaczyć jak dyfuzja innowacji farmaceutycznych
15:55
occurs within [networks of] doctors.
396
955260
2000
występuje w środowisku lekarzy.
15:57
Or again, we can monitor purchasing behavior in people
397
957260
2000
Lub też, możemy monitorować zakupy ludzi,
15:59
and watch how these types of phenomena
398
959260
2000
i obserwować jak tego typu zjawiska
16:01
can diffuse within human populations.
399
961260
3000
szerzą się wśród ludzkiej populacji.
16:04
And there are three ways, I think,
400
964260
2000
I są trzy sposoby, moim zdaniem,
16:06
that these massive-passive data can be used.
401
966260
2000
na które te masywno-pasywne zbieranie danych, które mogą być użyte.
16:08
One is fully passive,
402
968260
2000
Jeden z nich jest całkowicie pasywny,
16:10
like I just described --
403
970260
2000
tak jak to właśnie opisałem --
16:12
as in, for instance, the trucker example,
404
972260
2000
na przykładzie kierowców ciężarówek,
16:14
where we don't actually intervene in the population in any way.
405
974260
2000
gdzie w zasadzie nie wpływamy na populacje w żaden sposób.
16:16
One is quasi-active,
406
976260
2000
Drugi jest pseudo-aktywny
16:18
like the flu example I gave,
407
978260
2000
jak w przykładzie grypy,
16:20
where we get some people to nominate their friends
408
980260
3000
gdzie prosimy niektórych ludzi o wskazanie swoich przyjaciół
16:23
and then passively monitor their friends --
409
983260
2000
i następnie pasywnie monitorujemy ich przyjaciół --
16:25
do they have the flu, or not? -- and then get warning.
410
985260
2000
czy mają grypę, czy nie? -- i wtedy otrzymujemy ostrzeżenie.
16:27
Or another example would be,
411
987260
2000
Inny przykład mógłby być taki:
16:29
if you're a phone company, you figure out who's central in the network
412
989260
3000
jeśli jesteś firmą telekomunikacyjną, rozgryzłyś kto znajduje się w centrum sieci,
16:32
and you ask those people, "Look, will you just text us your fever every day?
413
992260
3000
i spytałbyś tych ludzi: "Słuchaj, czy mógłbyś nam wysłać
16:35
Just text us your temperature."
414
995260
2000
codziennie swoją temperaturę?"
16:37
And collect vast amounts of information about people's temperature,
415
997260
3000
I zbierać ogromne ilości informacji o temperaturach ludzi,
16:40
but from centrally located individuals.
416
1000260
2000
ale tylko od centralnie ulokowanych osobników.
16:42
And be able, on a large scale,
417
1002260
2000
I być w stanie, na dużą skalę,
16:44
to monitor an impending epidemic
418
1004260
2000
monitorować nadchodzącą epidemię
16:46
with very minimal input from people.
419
1006260
2000
przy minimalnym udziale ludzi.
16:48
Or, finally, it can be more fully active --
420
1008260
2000
Lub, w końcu, trzeci sposób w pełni aktywny --
16:50
as I know subsequent speakers will also talk about today --
421
1010260
2000
o ile mi wiadomo następni prelegenci będą dziś o tym mówić --
16:52
where people might globally participate in wikis,
422
1012260
2000
gdzie ludzie mogą globalnie brać udział w wiki,
16:54
or photographing, or monitoring elections,
423
1014260
3000
lub fotografiach lub monitorowaniu wyborów,
16:57
and upload information in a way that allows us to pool
424
1017260
2000
i wgrywać informacje w sposób jaki umożliwiłby nam zbieranie tych
16:59
information in order to understand social processes
425
1019260
2000
informacji w celu zrozumienia procesów społecznych
17:01
and social phenomena.
426
1021260
2000
i zjawisk społecznych.
17:03
In fact, the availability of these data, I think,
427
1023260
2000
I na dobrą sprawę, uważam, że dostępność tych danych
17:05
heralds a kind of new era
428
1025260
2000
otwiera nową erę,
17:07
of what I and others would like to call
429
1027260
2000
którą ja i inni chcielibyśmy nazwać
17:09
"computational social science."
430
1029260
2000
"komputerowa nauka społeczna".
17:11
It's sort of like when Galileo invented -- or, didn't invent --
431
1031260
3000
To jest coś jak, gdy Galileo wynalazł -- albo raczej nie tyle wynalazł, co
17:14
came to use a telescope
432
1034260
2000
zaczął używać teleskopu
17:16
and could see the heavens in a new way,
433
1036260
2000
i zobaczył niebo w zupełnie nowy sposób,
17:18
or Leeuwenhoek became aware of the microscope --
434
1038260
2000
lub Leeuwenhoek dowiedział się o mikroskopie --
17:20
or actually invented --
435
1040260
2000
lub właściwie go wynalazł --
17:22
and could see biology in a new way.
436
1042260
2000
i mógł zobaczyć biologię w nowy sposób.
17:24
But now we have access to these kinds of data
437
1044260
2000
Ale teraz mamy dostęp do tych danych
17:26
that allow us to understand social processes
438
1046260
2000
które pozwolą nam zrozumieć procesy społeczne
17:28
and social phenomena
439
1048260
2000
i zjawiska społeczne
17:30
in an entirely new way that was never before possible.
440
1050260
3000
w zupełnie nowy sposób, który nigdy wcześniej nie był możliwy.
17:33
And with this science, we can
441
1053260
2000
I z tą nauką, możemy
17:35
understand how exactly
442
1055260
2000
zrozumieć jak dokładnie
17:37
the whole comes to be greater
443
1057260
2000
całość staje się czymś więcej
17:39
than the sum of its parts.
444
1059260
2000
niż tylko sumą części.
17:41
And actually, we can use these insights
445
1061260
2000
I właściwie, możemy użyć tych spostrzeżeń
17:43
to improve society and improve human well-being.
446
1063260
3000
do poprawy społeczeństwa i poprawy dobrobytu ludzi.
17:46
Thank you.
447
1066260
2000
Dziękuję.
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7