Nicholas Christakis: How social networks predict epidemics

93,295 views ・ 2010-09-16

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Emilian Ionita Corector: Brandusa Gheorghe
00:15
For the last 10 years, I've been spending my time trying to figure out
0
15260
3000
În ultimii 10 ani, mi-am petrecut timpul încercând să-mi dau seama
00:18
how and why human beings
1
18260
2000
cum și de ce oamenii
00:20
assemble themselves into social networks.
2
20260
3000
se organizează în rețele sociale.
00:23
And the kind of social network I'm talking about
3
23260
2000
Și rețelele sociale despre care vorbesc
00:25
is not the recent online variety,
4
25260
2000
nu fac parte din recenta varietate online
00:27
but rather, the kind of social networks
5
27260
2000
ci, mai degrabă, din tipul de rețele sociale
00:29
that human beings have been assembling for hundreds of thousands of years,
6
29260
3000
în care oamenii se organizează de sute de mii de ani,
00:32
ever since we emerged from the African savannah.
7
32260
3000
încă de când au apărut în savana africană.
00:35
So, I form friendships and co-worker
8
35260
2000
Deci eu formez relații de prietenie, de colegialitate,
00:37
and sibling and relative relationships with other people
9
37260
3000
relații între frați sau de rudenie, cu alți oameni,
00:40
who in turn have similar relationships with other people.
10
40260
2000
care, la rândul lor, stabilesc aceleași tipuri de relații cu alți oameni.
00:42
And this spreads on out endlessly into a distance.
11
42260
3000
Şi acest proces se extinde la nesfârşit.
00:45
And you get a network that looks like this.
12
45260
2000
Ce obții este o rețea care arată astfel.
00:47
Every dot is a person.
13
47260
2000
Fiecare punct reprezintă o persoană.
00:49
Every line between them is a relationship between two people --
14
49260
2000
Fiecare linie care le unește reprezintă relația dintre acele persoane --
00:51
different kinds of relationships.
15
51260
2000
diferite tipuri de relații.
00:53
And you can get this kind of vast fabric of humanity,
16
53260
3000
Și poți obține o reprezentare a acestei vaste țesături a umanității,
00:56
in which we're all embedded.
17
56260
2000
în care toți suntem încorporați.
00:58
And my colleague, James Fowler and I have been studying for quite sometime
18
58260
3000
Colegul meu, James Fowler, și cu mine studiem de ceva vreme
01:01
what are the mathematical, social,
19
61260
2000
care sunt regulile matematice, sociale,
01:03
biological and psychological rules
20
63260
3000
biologice și psihologice
01:06
that govern how these networks are assembled
21
66260
2000
care guvernează modul în care aceste rețele sunt formate
01:08
and what are the similar rules
22
68260
2000
și care sunt regulile, similare,
01:10
that govern how they operate, how they affect our lives.
23
70260
3000
care guvernează modul lor de operare și modul în care ne afectează viețile.
01:13
But recently, we've been wondering
24
73260
2000
Și, recent, am început să ne întrebăm
01:15
whether it might be possible to take advantage of this insight,
25
75260
3000
dacă am putea să profităm de pe urma acestor intuiții,
01:18
to actually find ways to improve the world,
26
78260
2000
în așa fel încât să facem lumea un loc mai bun,
01:20
to do something better,
27
80260
2000
să facem ceva mai bine,
01:22
to actually fix things, not just understand things.
28
82260
3000
să remediem ceva, nu doar să înțelegem.
01:25
So one of the first things we thought we would tackle
29
85260
3000
Astfel, unul din primele lucruri pe care le-am avea în vedere
01:28
would be how we go about predicting epidemics.
30
88260
3000
ar fi cum am putea prezice epidemii.
01:31
And the current state of the art in predicting an epidemic --
31
91260
2000
Stadiul actual în acest domeniu --
01:33
if you're the CDC or some other national body --
32
93260
3000
dacă faci parte din CDC sau altă instituție națională --
01:36
is to sit in the middle where you are
33
96260
2000
este să stai în locul în care ești deja
01:38
and collect data
34
98260
2000
şi să colectezi date
01:40
from physicians and laboratories in the field
35
100260
2000
de la medici și laboratoare specializate
01:42
that report the prevalence or the incidence of certain conditions.
36
102260
3000
care raportează prevalenţa sau incidenţa anumitor afecțiuni.
01:45
So, so and so patients have been diagnosed with something,
37
105260
3000
Atâți pacienți au fost diagnosticați cu o boală [aici],
01:48
or other patients have been diagnosed,
38
108260
2000
sau atâți pacienți au fost diagnosticați [acolo],
01:50
and all these data are fed into a central repository, with some delay.
39
110260
3000
toate aceste date sunt introduse într-un repertoriu central, cu o anumită întârziere.
01:53
And if everything goes smoothly,
40
113260
2000
Și, dacă totul funcționează cum trebuie,
01:55
one to two weeks from now
41
115260
2000
o săptămână sau două mai târziu,
01:57
you'll know where the epidemic was today.
42
117260
3000
vei știi unde s-a aflat epidemia azi.
02:00
And actually, about a year or so ago,
43
120260
2000
Și, de fapt, acum un an,
02:02
there was this promulgation
44
122260
2000
a apărut această
02:04
of the idea of Google Flu Trends, with respect to the flu,
45
124260
3000
idee de Google Flu Trends, în ceea ce privește gripa,
02:07
where by looking at people's searching behavior today,
46
127260
3000
în care, dacă studiem tiparele căutărilor oamenilor azi,
02:10
we could know where the flu --
47
130260
2000
am putea ști unde gripa...
02:12
what the status of the epidemic was today,
48
132260
2000
care a fost starea epidemiei azi,
02:14
what's the prevalence of the epidemic today.
49
134260
3000
care a fost prevalența epidemiei azi.
02:17
But what I'd like to show you today
50
137260
2000
Dar ce aș vrea să vă arăt azi
02:19
is a means by which we might get
51
139260
2000
este o metodă prin care putem obține
02:21
not just rapid warning about an epidemic,
52
141260
3000
nu doar alertare rapidă în cazul unei epidemii,
02:24
but also actually
53
144260
2000
dar de asemenea
02:26
early detection of an epidemic.
54
146260
2000
și detectarea din timp a unei epidemii.
02:28
And, in fact, this idea can be used
55
148260
2000
Și, de fapt, această idee poate fi folosită
02:30
not just to predict epidemics of germs,
56
150260
3000
nu doar pentru predicția epidemiilor microbiene,
02:33
but also to predict epidemics of all sorts of kinds.
57
153260
3000
dar, de asemenea, pentru predicția oricărui tip de epidemie.
02:37
For example, anything that spreads by a form of social contagion
58
157260
3000
De exemplu, orice se răspândește printr-o formă de contagiune socială
02:40
could be understood in this way,
59
160260
2000
poate fi înțeles în acest fel,
02:42
from abstract ideas on the left
60
162260
2000
de la idei abstracte, la stânga,
02:44
like patriotism, or altruism, or religion
61
164260
3000
precum patriotismul, altruismul, sau religia,
02:47
to practices
62
167260
2000
până la practici
02:49
like dieting behavior, or book purchasing,
63
169260
2000
precum dietele, sau achiziționarea de cărți,
02:51
or drinking, or bicycle-helmet [and] other safety practices,
64
171260
3000
consumul de alcool, practicile de siguranță,
02:54
or products that people might buy,
65
174260
2000
sau produsele pe care oamenii le-ar cumpăra,
02:56
purchases of electronic goods,
66
176260
2000
achizițiile de bunuri electronice,
02:58
anything in which there's kind of an interpersonal spread.
67
178260
3000
orice are vreo înclinație către o răspândire interpersonală.
03:01
A kind of a diffusion of innovation
68
181260
2000
Un tip de difuzie a inovațiilor
03:03
could be understood and predicted
69
183260
2000
poate fi înțeles și prezis
03:05
by the mechanism I'm going to show you now.
70
185260
3000
de mecanismul pe care îl voi prezenta acum.
03:08
So, as all of you probably know,
71
188260
2000
După cum probabil știți,
03:10
the classic way of thinking about this
72
190260
2000
modul clasic de a privi problema
03:12
is the diffusion-of-innovation,
73
192260
2000
este "răspândirea-inovației".
03:14
or the adoption curve.
74
194260
2000
sau curba de adoptare.
03:16
So here on the Y-axis, we have the percent of the people affected,
75
196260
2000
Aici, pe axa Y, avem procentul de oameni afectați,
03:18
and on the X-axis, we have time.
76
198260
2000
și pe axa X, avem timpul.
03:20
And at the very beginning, not too many people are affected,
77
200260
3000
La început, nu foarte multe persoane sunt afectate,
03:23
and you get this classic sigmoidal,
78
203260
2000
și obținem această curbă clasică sigmoidă,
03:25
or S-shaped, curve.
79
205260
2000
sau de forma literei S.
03:27
And the reason for this shape is that at the very beginning,
80
207260
2000
Motivul pentru care obținem această formă este că, la început,
03:29
let's say one or two people
81
209260
2000
să spunem, unul sau doi oameni
03:31
are infected, or affected by the thing
82
211260
2000
sunt afectați, sau infectați,
03:33
and then they affect, or infect, two people,
83
213260
2000
și apoi afectează, sau infectează, doi oameni,
03:35
who in turn affect four, eight, 16 and so forth,
84
215260
3000
care, la rândul lor, infectează patru, opt, 16 și aşa mai departe,
03:38
and you get the epidemic growth phase of the curve.
85
218260
3000
astfel obținând porțiunea din curbă care indică creșterea.
03:41
And eventually, you saturate the population.
86
221260
2000
Până la urmă, saturezi populația.
03:43
There are fewer and fewer people
87
223260
2000
Din ce în ce mai puțini oameni
03:45
who are still available that you might infect,
88
225260
2000
mai pot fi infectați,
03:47
and then you get the plateau of the curve,
89
227260
2000
și aşa obții porțiunea de platou a curbei,
03:49
and you get this classic sigmoidal curve.
90
229260
3000
rezultatul fiind această formă clasică sigmoidă.
03:52
And this holds for germs, ideas,
91
232260
2000
Același lucru este valabil pentru microbi, idei,
03:54
product adoption, behaviors,
92
234260
2000
produse noi, comportamente,
03:56
and the like.
93
236260
2000
și altele.
03:58
But things don't just diffuse in human populations at random.
94
238260
3000
Dar aceste lucruri nu se propagă în rândurile populației aleatoriu.
04:01
They actually diffuse through networks.
95
241260
2000
Ele, de fapt, se propagă prin rețele.
04:03
Because, as I said, we live our lives in networks,
96
243260
3000
Pentru că, așa cum am spus, noi înșine trăim în rețele,
04:06
and these networks have a particular kind of a structure.
97
246260
3000
și aceste rețele au un anumit tip de structură.
04:09
Now if you look at a network like this --
98
249260
2000
Dacă te uiţi la o reţea ca aceasta...
04:11
this is 105 people.
99
251260
2000
Aici sunt 105 oameni.
04:13
And the lines represent -- the dots are the people,
100
253260
2000
Și liniile reprezintă... punctele sunt oamenii,
04:15
and the lines represent friendship relationships.
101
255260
2000
iar liniile reprezintă relațiile de prietenie.
04:17
You might see that people occupy
102
257260
2000
Puteți vedea că oamenii ocupă
04:19
different locations within the network.
103
259260
2000
locații diferite în cadrul rețelei.
04:21
And there are different kinds of relationships between the people.
104
261260
2000
Și sunt diverse tipuri de relații între oameni.
04:23
You could have friendship relationships, sibling relationships,
105
263260
3000
Ai putea avea relații de prietenie, relații intre frați,
04:26
spousal relationships, co-worker relationships,
106
266260
3000
relații între soți, sau între colegi de serviciu,
04:29
neighbor relationships and the like.
107
269260
3000
relații între vecini, și altele.
04:32
And different sorts of things
108
272260
2000
Și multe alte lucruri
04:34
spread across different sorts of ties.
109
274260
2000
se propagă de-a lungul multor altor tipuri de legături.
04:36
For instance, sexually transmitted diseases
110
276260
2000
De exemplu, bolile cu transmitere sexuală
04:38
will spread across sexual ties.
111
278260
2000
se vor propaga de-a lungul legăturilor sexuale.
04:40
Or, for instance, people's smoking behavior
112
280260
2000
Sau, de exemplu, obiceiul de a fuma
04:42
might be influenced by their friends.
113
282260
2000
poate fi generat de anturaj.
04:44
Or their altruistic or their charitable giving behavior
114
284260
2000
Sau comportamentul altruist sau caritabil
04:46
might be influenced by their coworkers,
115
286260
2000
poate fi influențat de colegii de muncă,
04:48
or by their neighbors.
116
288260
2000
sau de către vecini.
04:50
But not all positions in the network are the same.
117
290260
3000
Dar nu toate pozițiile în rețea sunt identice.
04:53
So if you look at this, you might immediately grasp
118
293260
2000
Dacă vă uitați aici, v-ați putea da seama imediat
04:55
that different people have different numbers of connections.
119
295260
3000
că persoane diferite au numărul de conexiuni diferit.
04:58
Some people have one connection, some have two,
120
298260
2000
Unii oameni au o conexiune, alții au două,
05:00
some have six, some have 10 connections.
121
300260
3000
unii au șase, iar alții au 10.
05:03
And this is called the "degree" of a node,
122
303260
2000
Această caracteristică se numește "gradul" unui nod,
05:05
or the number of connections that a node has.
123
305260
2000
sau numărul de conexiuni pe care le are un nod.
05:07
But in addition, there's something else.
124
307260
2000
Dar, în plus, mai e ceva.
05:09
So, if you look at nodes A and B,
125
309260
2000
Dacă te uiți la nodurile A și B,
05:11
they both have six connections.
126
311260
2000
ambele au câte șase conexiuni.
05:13
But if you can see this image [of the network] from a bird's eye view,
127
313260
3000
Dar dacă ai vedea această imagine de undeva de deasupra,
05:16
you can appreciate that there's something very different
128
316260
2000
ai observa că ceva diferă într-o măsură foarte mare
05:18
about nodes A and B.
129
318260
2000
în ce privește nodurile A şi B.
05:20
So, let me ask you this -- I can cultivate this intuition by asking a question --
130
320260
3000
Aşa că, lăsați-mă să vă întreb -- vă pot ajuta să înțelegeți cu o întrebare --
05:23
who would you rather be
131
323260
2000
cine ai prefera să fii,
05:25
if a deadly germ was spreading through the network, A or B?
132
325260
3000
dacă un microb letal s-ar răspândi prin rețea, A sau B?
05:28
(Audience: B.) Nicholas Christakis: B, it's obvious.
133
328260
2000
(Audienta: B.) Nicholas Christakis: B, este evident.
05:30
B is located on the edge of the network.
134
330260
2000
B e așezat la marginea rețelei.
05:32
Now, who would you rather be
135
332260
2000
Acum, cine ai prefera să fii
05:34
if a juicy piece of gossip were spreading through the network?
136
334260
3000
dacă o bârfă interesantă s-ar răspândi prin rețea?
05:37
A. And you have an immediate appreciation
137
337260
3000
A. Și înțelegi imediat
05:40
that A is going to be more likely
138
340260
2000
că e mai probabil ca A
05:42
to get the thing that's spreading and to get it sooner
139
342260
3000
să intre în contact cu orice se propagă în rețea și să o facă mai devreme
05:45
by virtue of their structural location within the network.
140
345260
3000
în virtutea poziției sale în structura rețelei.
05:48
A, in fact, is more central,
141
348260
2000
A, de fapt, este mai central,
05:50
and this can be formalized mathematically.
142
350260
3000
și asta poate fi exprimată matematic.
05:53
So, if we want to track something
143
353260
2000
Aşa că, dacă vrem să dăm de urma a ceva
05:55
that was spreading through a network,
144
355260
3000
ce se propagă prin rețea,
05:58
what we ideally would like to do is to set up sensors
145
358260
2000
ce ar trebui să facem este să folosim senzori
06:00
on the central individuals within the network,
146
360260
2000
conectați la indivizii centrali din cadrul rețelei,
06:02
including node A,
147
362260
2000
incluzând nodul A,
06:04
monitor those people that are right there in the middle of the network,
148
364260
3000
monitorizând acei oameni care sunt acolo, în centrul rețelei,
06:07
and somehow get an early detection
149
367260
2000
și, cumva, obținând o detecție precoce
06:09
of whatever it is that is spreading through the network.
150
369260
3000
a orice s-ar propaga prin rețea.
06:12
So if you saw them contract a germ or a piece of information,
151
372260
3000
Adică, dacă ei ar intra în contact cu vreun microb sau o informație,
06:15
you would know that, soon enough,
152
375260
2000
ai știi că, ulterior,
06:17
everybody was about to contract this germ
153
377260
2000
toți ceilalți vor intra în contact cu acel microb
06:19
or this piece of information.
154
379260
2000
sau acea informație.
06:21
And this would be much better
155
381260
2000
Această metodă este mult mai bună
06:23
than monitoring six randomly chosen people,
156
383260
2000
decât cea bazată pe șase oameni aleși aleatoriu,
06:25
without reference to the structure of the population.
157
385260
3000
fără a lua în calcul structura populației.
06:28
And in fact, if you could do that,
158
388260
2000
Și, de fapt, dacă ai putea face asa ceva,
06:30
what you would see is something like this.
159
390260
2000
ai obține ceva de genul acesta.
06:32
On the left-hand panel, again, we have the S-shaped curve of adoption.
160
392260
3000
În partea stângă, din nou, avem curba adoptării, în forma de S.
06:35
In the dotted red line, we show
161
395260
2000
Linia punctată roșie indică
06:37
what the adoption would be in the random people,
162
397260
2000
cum ar arăta adoptarea într-un eșantion aleatoriu,
06:39
and in the left-hand line, shifted to the left,
163
399260
3000
iar linia din stânga, trecută la stânga,
06:42
we show what the adoption would be
164
402260
2000
indică cum ar arăta adoptarea
06:44
in the central individuals within the network.
165
404260
2000
luând în calcul indivizii centrali ai rețelei.
06:46
On the Y-axis is the cumulative instances of contagion,
166
406260
2000
Pe axa Y se află stadiile contagiunii, luate cumulativ,
06:48
and on the X-axis is the time.
167
408260
2000
iar pe axa X se află timpul.
06:50
And on the right-hand side, we show the same data,
168
410260
2000
În partea dreaptă avem aceleași date,
06:52
but here with daily incidence.
169
412260
2000
dar, de data asta, în funcție de incidenţa zilnică.
06:54
And what we show here is -- like, here --
170
414260
2000
Și ce vrem să arătăm aici -- aici --
06:56
very few people are affected, more and more and more and up to here,
171
416260
2000
foarte puţini oameni sunt afectați, din ce în ce mai mulţi și până aici, sus,
06:58
and here's the peak of the epidemic.
172
418260
2000
unde avem vârful epidemiei.
07:00
But shifted to the left is what's occurring in the central individuals.
173
420260
2000
În stânga, avem o reprezentare a ce se întâmplă cu indivizii centrali.
07:02
And this difference in time between the two
174
422260
3000
Și această diferență în timp dintre cele două
07:05
is the early detection, the early warning we can get,
175
425260
3000
e detecția precoce, acel preaviz pe care îl putem obține,
07:08
about an impending epidemic
176
428260
2000
despre o epidemie iminentă
07:10
in the human population.
177
430260
2000
într-o anumită populație.
07:12
The problem, however,
178
432260
2000
Problema, totuși,
07:14
is that mapping human social networks
179
434260
2000
e că o cartografiere precisă a rețelelor sociale
07:16
is not always possible.
180
436260
2000
nu este întotdeauna posibilă.
07:18
It can be expensive, not feasible,
181
438260
2000
Poate fi prea scumpă, [prea dificilă],
07:20
unethical,
182
440260
2000
poate să nu fie etică,
07:22
or, frankly, just not possible to do such a thing.
183
442260
3000
sau, chiar, poate să nu fie posibilă.
07:25
So, how can we figure out
184
445260
2000
Deci cum ne putem da seama
07:27
who the central people are in a network
185
447260
2000
cine sunt indivizii centrali într-o rețea
07:29
without actually mapping the network?
186
449260
3000
fără a cartografia rețeaua?
07:32
What we came up with
187
452260
2000
Am venit cu
07:34
was an idea to exploit an old fact,
188
454260
2000
ideea de a exploata un fapt vechi,
07:36
or a known fact, about social networks,
189
456260
2000
cunoscut, despre rețelele sociale,
07:38
which goes like this:
190
458260
2000
care sună așa:
07:40
Do you know that your friends
191
460260
2000
Știi că prietenii tăi
07:42
have more friends than you do?
192
462260
3000
au mai mulţi prieteni decât tine?
07:45
Your friends have more friends than you do,
193
465260
3000
Prietenii tăi au mai mulţi prieteni decât tine.
07:48
and this is known as the friendship paradox.
194
468260
2000
E cunoscut ca paradoxul prieteniei.
07:50
Imagine a very popular person in the social network --
195
470260
2000
Imaginați-vă o persoană foarte populară în rețeaua socială --
07:52
like a party host who has hundreds of friends --
196
472260
3000
cum ar fi gazda unei petreceri cu sute de prieteni --
07:55
and a misanthrope who has just one friend,
197
475260
2000
și un mizantrop care are un singur prieten,
07:57
and you pick someone at random from the population;
198
477260
3000
și alegi pe cineva aleatoriu din populație;
08:00
they were much more likely to know the party host.
199
480260
2000
acel cineva e mult mai probabil să fie conectat cu gazda petrecerii.
08:02
And if they nominate the party host as their friend,
200
482260
2000
Și dacă acea persoană nominalizează gazda ca prieten,
08:04
that party host has a hundred friends,
201
484260
2000
atunci acea gazdă are o sută de prieteni,
08:06
therefore, has more friends than they do.
202
486260
3000
deci are mai multi prieteni decât persoana aleasă aleatoriu.
08:09
And this, in essence, is what's known as the friendship paradox.
203
489260
3000
Și acesta, în esență, este paradoxul prieteniei.
08:12
The friends of randomly chosen people
204
492260
3000
Prietenii unor indivizi aleși aleatoriu
08:15
have higher degree, and are more central
205
495260
2000
au grade mai mari și sunt mai centrali,
08:17
than the random people themselves.
206
497260
2000
decât indivizii pe care îi alegem aleatoriu.
08:19
And you can get an intuitive appreciation for this
207
499260
2000
Puteți aprecia acest fapt, la nivel intuitiv,
08:21
if you imagine just the people at the perimeter of the network.
208
501260
3000
dacă vă imaginați doar oamenii de la periferia rețelei.
08:24
If you pick this person,
209
504260
2000
Dacă alegeți o persoană,
08:26
the only friend they have to nominate is this person,
210
506260
3000
singurul prieten pe care aceasta îl poate nominaliza,
08:29
who, by construction, must have at least two
211
509260
2000
este unul care prin definiție are cel puțin doi prieteni,
08:31
and typically more friends.
212
511260
2000
și, de obicei, mai multi prieteni.
08:33
And that happens at every peripheral node.
213
513260
2000
Acest fapt apare la orice nod periferic.
08:35
And in fact, it happens throughout the network as you move in,
214
515260
3000
De fapt, același lucru se întâmplă pe măsură ce înaintăm înspre interiorul rețelei,
08:38
everyone you pick, when they nominate a random --
215
518260
2000
pe oricine ai alege, atunci când nominalizez aleatoriu...
08:40
when a random person nominates a friend of theirs,
216
520260
3000
când o persoană la întâmplare își nominalizează un prieten,
08:43
you move closer to the center of the network.
217
523260
3000
ajungem mai aproape de centrul rețelei.
08:46
So, we thought we would exploit this idea
218
526260
3000
Ne-am gândit să exploatăm această idee
08:49
in order to study whether we could predict phenomena within networks.
219
529260
3000
pentru a studia dacă putem prezice fenomene în interiorul rețelelor.
08:52
Because now, with this idea
220
532260
2000
Pentru că acum, cu această idee,
08:54
we can take a random sample of people,
221
534260
2000
putem extrage un eșantion aleatoriu de oameni,
08:56
have them nominate their friends,
222
536260
2000
să îi rugăm să își nominalizeze prietenii,
08:58
those friends would be more central,
223
538260
2000
și acei prieteni vor fi automat mai centrali,
09:00
and we could do this without having to map the network.
224
540260
3000
şi putem face asta fără să trebuiască să cartografiem rețeaua.
09:03
And we tested this idea with an outbreak of H1N1 flu
225
543260
3000
Am testat această idee la apariția gripei H1N1
09:06
at Harvard College
226
546260
2000
la Colegiul Harvard
09:08
in the fall and winter of 2009, just a few months ago.
227
548260
3000
în toamna și iarna lui 2009, acum doar câteva luni.
09:11
We took 1,300 randomly selected undergraduates,
228
551260
3000
Am ales un eșantion aleatoriu de 1.300 de studenți,
09:14
we had them nominate their friends,
229
554260
2000
i-am rugat să își nominalizeze prietenii,
09:16
and we followed both the random students and their friends
230
556260
2000
și i-am urmărit atât pe studenții din eșantion, cât și pe prietenii lor
09:18
daily in time
231
558260
2000
zilnic
09:20
to see whether or not they had the flu epidemic.
232
560260
3000
să vedem dacă contractează sau nu gripa.
09:23
And we did this passively by looking at whether or not they'd gone to university health services.
233
563260
3000
Am făcut acest lucru pasiv, observând dacă au apelat la serviciile medicale ale universității.
09:26
And also, we had them [actively] email us a couple of times a week.
234
566260
3000
De asemenea, i-am rugat să ne scrie prin e-mail de câteva ori pe săptămână.
09:29
Exactly what we predicted happened.
235
569260
3000
S-a întâmplat exact ce am prezis.
09:32
So the random group is in the red line.
236
572260
3000
Grupul aleatoriu este reprezentat de linia roșie.
09:35
The epidemic in the friends group has shifted to the left, over here.
237
575260
3000
Epidemia în grupul prietenilor apare la stânga, acolo.
09:38
And the difference in the two is 16 days.
238
578260
3000
Diferența între cele două este de 16 zile.
09:41
By monitoring the friends group,
239
581260
2000
Monitorizând grupul prietenilor,
09:43
we could get 16 days advance warning
240
583260
2000
putem fi preveniți cu 16 zile înainte
09:45
of an impending epidemic in this human population.
241
585260
3000
despre o epidemie iminentă în populație.
09:48
Now, in addition to that,
242
588260
2000
În plus,
09:50
if you were an analyst who was trying to study an epidemic
243
590260
3000
în calitate de analist care încearcă să studieze o epidemie
09:53
or to predict the adoption of a product, for example,
244
593260
3000
sau să prezică adoptarea unui produs, de exemplu,
09:56
what you could do is you could pick a random sample of the population,
245
596260
3000
ce ai putea face este să alegi un eșantion aleatoriu din populație,
09:59
also have them nominate their friends and follow the friends
246
599260
3000
și, în același mod, să îi rogi să-și nominalizeze prietenii, iar tu să-i urmărești,
10:02
and follow both the randoms and the friends.
247
602260
3000
atât pe cei din eșantion, cât și pe prietenii lor.
10:05
Among the friends, the first evidence you saw of a blip above zero
248
605260
3000
Între prieteni, primul semn al unei variații peste 0
10:08
in adoption of the innovation, for example,
249
608260
3000
în adoptarea unei inovații, de exemplu,
10:11
would be evidence of an impending epidemic.
250
611260
2000
dovedește iminența unei epidemii.
10:13
Or you could see the first time the two curves diverged,
251
613260
3000
Sau ai putea observa prima divergență între cele două curbe,
10:16
as shown on the left.
252
616260
2000
după cum apare în stânga.
10:18
When did the randoms -- when did the friends take off
253
618260
3000
Când au început cei aleși aleatoriu... când au început prietenii să
10:21
and leave the randoms,
254
621260
2000
se despartă de cei aleși aleatoriu,
10:23
and [when did] their curve start shifting?
255
623260
2000
și când a început curba să se desprindă?
10:25
And that, as indicated by the white line,
256
625260
2000
Și aceasta, așa cum indică linia albă,
10:27
occurred 46 days
257
627260
2000
s-a întâmplat cu 46 de zile
10:29
before the peak of the epidemic.
258
629260
2000
înainte de punctul maxim al epidemiei.
10:31
So this would be a technique
259
631260
2000
Deci aceasta ar fi o tehnică
10:33
whereby we could get more than a month-and-a-half warning
260
633260
2000
prin care am putea obține o avertizare cu o lună și jumătate înainte.
10:35
about a flu epidemic in a particular population.
261
635260
3000
despre o epidemie într-o anumită populație.
10:38
I should say that
262
638260
2000
Aș spune că
10:40
how far advanced a notice one might get about something
263
640260
2000
avansul cu care primești un astfel de avertisment
10:42
depends on a host of factors.
264
642260
2000
depinde de o multitudine de factori.
10:44
It could depend on the nature of the pathogen --
265
644260
2000
Ar putea depinde de natura patogenului --
10:46
different pathogens,
266
646260
2000
patogeni diferiți,
10:48
using this technique, you'd get different warning --
267
648260
2000
folosind această tehnică, permit avertismente diferite --
10:50
or other phenomena that are spreading,
268
650260
2000
sau alte fenomene care se răspândesc,
10:52
or frankly, on the structure of the human network.
269
652260
3000
sau, pur și simplu, de structura rețelei umane.
10:55
Now in our case, although it wasn't necessary,
270
655260
3000
Acum, în cazul nostru, deși nu a fost necesar,
10:58
we could also actually map the network of the students.
271
658260
2000
am putut cartografia rețeaua de studenți.
11:00
So, this is a map of 714 students
272
660260
2000
Aşa, am obținut o hartă cu 714 studenți
11:02
and their friendship ties.
273
662260
2000
și legăturile de prietenie dintre ei.
11:04
And in a minute now, I'm going to put this map into motion.
274
664260
2000
Și într-un minut, voi pune în mișcare această hartă.
11:06
We're going to take daily cuts through the network
275
666260
2000
Vom avea în vedere secțiuni zilnice prin rețea
11:08
for 120 days.
276
668260
2000
timp de 120 zile.
11:10
The red dots are going to be cases of the flu,
277
670260
3000
Punctele roșii sunt cazurile de gripă,
11:13
and the yellow dots are going to be friends of the people with the flu.
278
673260
3000
iar punctele galbene sunt prietenii persoanelor cu gripă.
11:16
And the size of the dots is going to be proportional
279
676260
2000
Și mărimea punctului este proporțională
11:18
to how many of their friends have the flu.
280
678260
2000
cu numărul prietenilor care au gripă.
11:20
So bigger dots mean more of your friends have the flu.
281
680260
3000
Deci, cu cât punctul este mai mare, cu atât mai mulţi prieteni au gripă.
11:23
And if you look at this image -- here we are now in September the 13th --
282
683260
3000
Și dacă vă uitați la această imagine -- aici suntem în data de 13 septembrie --
11:26
you're going to see a few cases light up.
283
686260
2000
veți vedea că apar câteva cazuri.
11:28
You're going to see kind of blooming of the flu in the middle.
284
688260
2000
Veți vedea o înflorire a gripei în mijloc.
11:30
Here we are on October the 19th.
285
690260
3000
Aici suntem în data de 19 octombrie.
11:33
The slope of the epidemic curve is approaching now, in November.
286
693260
2000
Panta curbei epidemiei se apropie de acest moment, în noiembrie.
11:35
Bang, bang, bang, bang, bang -- you're going to see lots of blooming in the middle,
287
695260
3000
Bang, bang, bang, bang, bang, veți vedea multe cazuri în mijloc,
11:38
and then you're going to see a sort of leveling off,
288
698260
2000
și apoi un fel de nivelare,
11:40
fewer and fewer cases towards the end of December.
289
700260
3000
din ce în ce mai puține cazuri către finele lui decembrie.
11:43
And this type of a visualization
290
703260
2000
Și acest tip de vizualizare
11:45
can show that epidemics like this take root
291
705260
2000
poate indica faptul că epidemii de genul acesta își au originea
11:47
and affect central individuals first,
292
707260
2000
și afectează mai întâi indivizi centrali,
11:49
before they affect others.
293
709260
2000
înainte de a-i afecta pe alții.
11:51
Now, as I've been suggesting,
294
711260
2000
Acum, după cum am sugerat,
11:53
this method is not restricted to germs,
295
713260
3000
această metodă nu este aplicabilă doar microbilor,
11:56
but actually to anything that spreads in populations.
296
716260
2000
ci, de fapt, oricărui lucru care se poate răspândi într-o populație.
11:58
Information spreads in populations,
297
718260
2000
Informația se răspândește în populație.
12:00
norms can spread in populations,
298
720260
2000
Normele se pot răspândi în populație.
12:02
behaviors can spread in populations.
299
722260
2000
Comportamentele se pot răspândi în populație.
12:04
And by behaviors, I can mean things like criminal behavior,
300
724260
3000
Și, prin comportament, înțeleg lucruri precum comportamentul infracțional
12:07
or voting behavior, or health care behavior,
301
727260
3000
sau comportamentul de vot, sau comportamentul legat de sănătatate,
12:10
like smoking, or vaccination,
302
730260
2000
precum fumatul sau vaccinarea,
12:12
or product adoption, or other kinds of behaviors
303
732260
2000
sau adoptarea de produse, sau alte tipuri de comportamente
12:14
that relate to interpersonal influence.
304
734260
2000
care se leagă de influenţa interpersonală.
12:16
If I'm likely to do something that affects others around me,
305
736260
3000
Dacă sunt înclinat să fac ceva care îi afectează pe cei din jur,
12:19
this technique can get early warning or early detection
306
739260
3000
această tehnică poate avertiza, sau poate detecta din timp,
12:22
about the adoption within the population.
307
742260
3000
adoptarea comportamentului în masa populației.
12:25
The key thing is that for it to work,
308
745260
2000
Cheia este că, pentru a funcționa,
12:27
there has to be interpersonal influence.
309
747260
2000
trebuie să existe influenţă interpersonală.
12:29
It cannot be because of some broadcast mechanism
310
749260
2000
Nu se poate lega de vreo metodă de propagare
12:31
affecting everyone uniformly.
311
751260
3000
care îi afectează pe toți uniform.
12:35
Now the same insights
312
755260
2000
Aceleași idei
12:37
can also be exploited -- with respect to networks --
313
757260
3000
pot fi exploatate -- în ceea ce privește rețelele --
12:40
can also be exploited in other ways,
314
760260
3000
pot fi exploatate în alte moduri,
12:43
for example, in the use of targeting
315
763260
2000
de exemplu, în vizarea
12:45
specific people for interventions.
316
765260
2000
anumitor persoane pentru intervenții.
12:47
So, for example, most of you are probably familiar
317
767260
2000
De exemplu, cei mai multi dintre voi sunteți familiarizaţi
12:49
with the notion of herd immunity.
318
769260
2000
cu noțiunea de "imunitate de turmă".
12:51
So, if we have a population of a thousand people,
319
771260
3000
Deci, dacă avem o populație de o mie de persoane,
12:54
and we want to make the population immune to a pathogen,
320
774260
3000
şi vrem să imunizăm populația la un anumit patogen,
12:57
we don't have to immunize every single person.
321
777260
2000
nu e nevoie să imunizăm toate persoanele.
12:59
If we immunize 960 of them,
322
779260
2000
Dacă imunizăm 960 dintre ei,
13:01
it's as if we had immunized a hundred [percent] of them.
323
781260
3000
e ca și cum i-am fi imunizat în proporție de 100%.
13:04
Because even if one or two of the non-immune people gets infected,
324
784260
3000
Pentru că, deși dacă unul sau doi dintre cei ne-imunizați e infectat,
13:07
there's no one for them to infect.
325
787260
2000
nu au cum să-i infecteze pe alții.
13:09
They are surrounded by immunized people.
326
789260
2000
Ei sunt înconjurați de persoane imune.
13:11
So 96 percent is as good as 100 percent.
327
791260
3000
Aşa că un procentaj de 96 este la fel de bun ca unul de 100.
13:14
Well, some other scientists have estimated
328
794260
2000
Ei bine, unii oameni de știință au estimat
13:16
what would happen if you took a 30 percent random sample
329
796260
2000
ce s-ar întâmpla dacă ai lua un eșantion aleatoriu de 30 de procente
13:18
of these 1000 people, 300 people and immunized them.
330
798260
3000
din acești 1.000 de oameni, 300, și i-ai imuniza.
13:21
Would you get any population-level immunity?
331
801260
2000
Ai obține vreo imunitate la nivelul populației?
13:23
And the answer is no.
332
803260
3000
Răspunsul este nu.
13:26
But if you took this 30 percent, these 300 people
333
806260
2000
Dar, dacă ai lua acest procentaj, acești 300 de oameni,
13:28
and had them nominate their friends
334
808260
2000
și i-ai pune să își nominalizeze prietenii
13:30
and took the same number of vaccine doses
335
810260
3000
și ai folosi același număr de doze de vaccin
13:33
and vaccinated the friends of the 300 --
336
813260
2000
și ai vaccina prietenii celor 300,
13:35
the 300 friends --
337
815260
2000
cei 300 de prieteni,
13:37
you can get the same level of herd immunity
338
817260
2000
poți obține același nivel de imunitate de turmă
13:39
as if you had vaccinated 96 percent of the population
339
819260
3000
ca atunci când ai vaccina un procentaj de 96 din populație
13:42
at a much greater efficiency, with a strict budget constraint.
340
822260
3000
cu o eficiență mult mai mare, cu o constrângere bugetară strictă.
13:45
And similar ideas can be used, for instance,
341
825260
2000
Idei similare pot fi folosite, de exemplu,
13:47
to target distribution of things like bed nets
342
827260
2000
pentru țintirea distribuției unor lucruri precum plasele împotriva țânțarilor
13:49
in the developing world.
343
829260
2000
în statele în curs de dezvoltare.
13:51
If we could understand the structure of networks in villages,
344
831260
3000
Dacă am putea înțelege structura rețelelor în sate,
13:54
we could target to whom to give the interventions
345
834260
2000
am putea ținti beneficiarii unor astfel de intervenții
13:56
to foster these kinds of spreads.
346
836260
2000
pentru a obține răspândirea dorită.
13:58
Or, frankly, for advertising with all kinds of products.
347
838260
3000
Sau, sincer, pentru publicitatea diferitelor tipuri de produse.
14:01
If we could understand how to target,
348
841260
2000
Dacă am putea înțelege cum să țintim,
14:03
it could affect the efficiency
349
843260
2000
asta ar putea afecta eficiența
14:05
of what we're trying to achieve.
350
845260
2000
a ceea ce încercăm să obținem.
14:07
And in fact, we can use data
351
847260
2000
Și, de fapt, putem folosi date
14:09
from all kinds of sources nowadays [to do this].
352
849260
2000
dintr-o multitudine de surse în ziua de azi.
14:11
This is a map of eight million phone users
353
851260
2000
Aceasta este o hartă cu opt milioane de utilizatori de telefonie
14:13
in a European country.
354
853260
2000
într-o țară europeană.
14:15
Every dot is a person, and every line represents
355
855260
2000
Fiecare punct este o persoană, iar fiecare linie reprezintă
14:17
a volume of calls between the people.
356
857260
2000
volumul convorbirilor telefonice dintre persoane.
14:19
And we can use such data, that's being passively obtained,
357
859260
3000
Putem folosi astfel de date, obținute pasiv,
14:22
to map these whole countries
358
862260
2000
să cartografiem aceste ţări în întregime
14:24
and understand who is located where within the network.
359
864260
3000
și să înțelegem cine este așezat unde în cadrul rețelei.
14:27
Without actually having to query them at all,
360
867260
2000
Fără a fi nevoie să îi contactăm,
14:29
we can get this kind of a structural insight.
361
869260
2000
putem obține astfel de perspective structurale.
14:31
And other sources of information, as you're no doubt aware
362
871260
3000
Și alte surse de informație, după cum bine știți,
14:34
are available about such features, from email interactions,
363
874260
3000
sunt disponibile pentru caracteristici precum interacțiuni pe e-mail,
14:37
online interactions,
364
877260
2000
interacțiuni online,
14:39
online social networks and so forth.
365
879260
3000
rețele sociale online, și așa mai departe.
14:42
And in fact, we are in the era of what I would call
366
882260
2000
Și, de fapt, suntem într-o epocă a ceea ce eu aş numi
14:44
"massive-passive" data collection efforts.
367
884260
3000
eforturi de colectare de date "masiv-pasive".
14:47
They're all kinds of ways we can use massively collected data
368
887260
3000
Sunt multe moduri în care putem folosi date obținute astfel
14:50
to create sensor networks
369
890260
3000
pentru a crea rețele de senzori
14:53
to follow the population,
370
893260
2000
pentru a urmări populația,
14:55
understand what's happening in the population,
371
895260
2000
a înțelege ce se întâmplă în populație,
14:57
and intervene in the population for the better.
372
897260
3000
și a interveni la nivelul populației pentru a face bine.
15:00
Because these new technologies tell us
373
900260
2000
Pentru că aceste noi tehnologii ne spun
15:02
not just who is talking to whom,
374
902260
2000
nu doar cine vorbește cu cine,
15:04
but where everyone is,
375
904260
2000
dar și unde se află,
15:06
and what they're thinking based on what they're uploading on the Internet,
376
906260
3000
și ce gândește fiecare, bazându-se pe conținutul încărcat de aceștia pe Internet,
15:09
and what they're buying based on their purchases.
377
909260
2000
și ce cumpăra fiecare, bazându-se pe achizițiile lor.
15:11
And all this administrative data can be pulled together
378
911260
3000
Toate aceste date administrative pot fi agregate
15:14
and processed to understand human behavior
379
914260
2000
și procesate pentru a înțelege comportamentul uman
15:16
in a way we never could before.
380
916260
3000
într-un mod imposibil până acum.
15:19
So, for example, we could use truckers' purchases of fuel.
381
919260
3000
Deci, de exemplu, putem folosi achizițiile de combustibil ale conducătorilor de camioane.
15:22
So the truckers are just going about their business,
382
922260
2000
Deci camionagii își văd de treabă,
15:24
and they're buying fuel.
383
924260
2000
și cumpără combustibil.
15:26
And we see a blip up in the truckers' purchases of fuel,
384
926260
3000
Iar noi vedem o creștere a achizițiilor lor de combustibil,
15:29
and we know that a recession is about to end.
385
929260
2000
și știm că recesiunea e aproape de sfârșit.
15:31
Or we can monitor the velocity
386
931260
2000
Sau putem monitoriza viteza
15:33
with which people are moving with their phones on a highway,
387
933260
3000
cu care oamenii se deplasează pe autostradă folosind telefoanele
15:36
and the phone company can see,
388
936260
2000
și compania de telefonie poate vedea,
15:38
as the velocity is slowing down,
389
938260
2000
atunci când viteza e în descreștere,
15:40
that there's a traffic jam.
390
940260
2000
că există un ambuteiaj.
15:42
And they can feed that information back to their subscribers,
391
942260
3000
Iar ei pot trimite informația înapoi la abonați,
15:45
but only to their subscribers on the same highway
392
945260
2000
dar doar abonaților aflați pe acea autostradă
15:47
located behind the traffic jam!
393
947260
2000
aflați în spatele ambuteiajului!
15:49
Or we can monitor doctors prescribing behaviors, passively,
394
949260
3000
Sau putem monitoriza pasiv comportamentul medicilor de a prescrie medicamente
15:52
and see how the diffusion of innovation with pharmaceuticals
395
952260
3000
și putem vedea cum arată răspândirea inovațiilor din domeniul farmaceutic
15:55
occurs within [networks of] doctors.
396
955260
2000
în interiorul rețelei de medici.
15:57
Or again, we can monitor purchasing behavior in people
397
957260
2000
Sau, din nou, putem monitoriza comportamentul de achiziție al oamenilor,
15:59
and watch how these types of phenomena
398
959260
2000
și putem observa cum acest gen de fenomene
16:01
can diffuse within human populations.
399
961260
3000
se pot propaga în populație.
16:04
And there are three ways, I think,
400
964260
2000
Sunt trei moduri, cred,
16:06
that these massive-passive data can be used.
401
966260
2000
în care aceste date masiv-pasive pot fi folosite.
16:08
One is fully passive,
402
968260
2000
Unul dintre ele este în totalitate pasiv,
16:10
like I just described --
403
970260
2000
așa cum am arătat --
16:12
as in, for instance, the trucker example,
404
972260
2000
aşa ca, de exemplu, situația camionagiilor,
16:14
where we don't actually intervene in the population in any way.
405
974260
2000
unde nu intervenim de fapt la nivelul populației în niciun fel.
16:16
One is quasi-active,
406
976260
2000
Unul este cvasi-activ,
16:18
like the flu example I gave,
407
978260
2000
ca în exemplul gripei pe care l-am dat,
16:20
where we get some people to nominate their friends
408
980260
3000
unde putem ruga câteva persoane să își nominalizeze prietenii
16:23
and then passively monitor their friends --
409
983260
2000
și apoi, pasiv, să îi monitorizam pe aceștia --
16:25
do they have the flu, or not? -- and then get warning.
410
985260
2000
au sau nu au gripă? -- și astfel să fim avertizați.
16:27
Or another example would be,
411
987260
2000
Un alt exemplu ar fi,
16:29
if you're a phone company, you figure out who's central in the network
412
989260
3000
dacă ești o companie telefonică, îți dai seama cine se află în centrul rețelei,
16:32
and you ask those people, "Look, will you just text us your fever every day?
413
992260
3000
și îi întrebi "Uite, vrei să ne trimiți zilnic un mesaj în care să ne spui dacă ai sau nu febră?
16:35
Just text us your temperature."
414
995260
2000
Doar trimite-ne un mesaj cu temperatura ta."
16:37
And collect vast amounts of information about people's temperature,
415
997260
3000
Și colectezi cantități mari de informație despre temperatura oamenilor,
16:40
but from centrally located individuals.
416
1000260
2000
dar de la indivizi localizați central.
16:42
And be able, on a large scale,
417
1002260
2000
Și poți, pe scară largă,
16:44
to monitor an impending epidemic
418
1004260
2000
să monitorizezi o epidemie iminentă
16:46
with very minimal input from people.
419
1006260
2000
cu o contribuție minimă din partea oamenilor.
16:48
Or, finally, it can be more fully active --
420
1008260
2000
Sau, în cele din urmă, poate fi vorba despre ceva activ --
16:50
as I know subsequent speakers will also talk about today --
421
1010260
2000
după cum știu că vor aminti și alți co-vorbitori azi --
16:52
where people might globally participate in wikis,
422
1012260
2000
unde oamenii pot participa global la platforme de tip "wiki",
16:54
or photographing, or monitoring elections,
423
1014260
3000
sau prin fotografii, sau monitorizând alegeri,
16:57
and upload information in a way that allows us to pool
424
1017260
2000
și încărcând informația într-un mod care să ne permită să o agregăm
16:59
information in order to understand social processes
425
1019260
2000
pentru a înțelege procese sociale
17:01
and social phenomena.
426
1021260
2000
și fenomene sociale.
17:03
In fact, the availability of these data, I think,
427
1023260
2000
De fapt, disponibilitatea unor astfel de date, cred,
17:05
heralds a kind of new era
428
1025260
2000
prevestește o nouă epocă
17:07
of what I and others would like to call
429
1027260
2000
a ceea ce eu, dar și alții, numim
17:09
"computational social science."
430
1029260
2000
"știință socială computațională"
17:11
It's sort of like when Galileo invented -- or, didn't invent --
431
1031260
3000
E ca atunci când Galileo a inventat -- sau, nu a inventat --
17:14
came to use a telescope
432
1034260
2000
a ajuns să folosească telescopul
17:16
and could see the heavens in a new way,
433
1036260
2000
și a putut privi cerul într-un nou mod,
17:18
or Leeuwenhoek became aware of the microscope --
434
1038260
2000
sau Leeuwenhoek a aflat despre microscop --
17:20
or actually invented --
435
1040260
2000
sau, de fapt, l-a inventat --
17:22
and could see biology in a new way.
436
1042260
2000
și a putut vedea biologia într-un nou mod.
17:24
But now we have access to these kinds of data
437
1044260
2000
Dar acum avem acces la aceste tipuri de date
17:26
that allow us to understand social processes
438
1046260
2000
care ne permit să înțelegem procesele sociale
17:28
and social phenomena
439
1048260
2000
și fenomenele sociale
17:30
in an entirely new way that was never before possible.
440
1050260
3000
într-un mod cu totul nou, imposibil până acum.
17:33
And with this science, we can
441
1053260
2000
Și cu acest tip de știință, putem
17:35
understand how exactly
442
1055260
2000
înțelege exact cum
17:37
the whole comes to be greater
443
1057260
2000
întregul ajunge să fie mai mult
17:39
than the sum of its parts.
444
1059260
2000
decât suma părților sale.
17:41
And actually, we can use these insights
445
1061260
2000
Și, de fapt, putem folosi aceste informații
17:43
to improve society and improve human well-being.
446
1063260
3000
pentru a îmbunătăți societatea și a creşte bunăstarea omului.
17:46
Thank you.
447
1066260
2000
Vă mulțumesc.
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7