Nicholas Christakis: How social networks predict epidemics

93,295 views ・ 2010-09-16

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Hadas Shema מבקר: Ido Dekkers
00:15
For the last 10 years, I've been spending my time trying to figure out
0
15260
3000
במהלך עשר השנים האחרונות, ביליתי את זמני בניסיון להבין
00:18
how and why human beings
1
18260
2000
כיצד ומדוע בני אדם
00:20
assemble themselves into social networks.
2
20260
3000
מקבצים עצמם לרשתות חברתיות
00:23
And the kind of social network I'm talking about
3
23260
2000
וסוגי הרשתות החברתיות שאני מדבר עליהן
00:25
is not the recent online variety,
4
25260
2000
אינן הרשתות המקוונות שצצו לאחרונה
00:27
but rather, the kind of social networks
5
27260
2000
אלא רשתות חברתיות מסוג
00:29
that human beings have been assembling for hundreds of thousands of years,
6
29260
3000
שבני האדם יוצרים כבר מאות אלפי שנים
00:32
ever since we emerged from the African savannah.
7
32260
3000
מאז הגחנו מהסוואנה האפריקנית
00:35
So, I form friendships and co-worker
8
35260
2000
כך, אני יוצר חברויות וקשרי עבודה
00:37
and sibling and relative relationships with other people
9
37260
3000
קשרי אחים ומערכות יחסים עם בני משפחה אחרים
00:40
who in turn have similar relationships with other people.
10
40260
2000
ולהם בתורם מערכות יחסים דומות עם אנשים אחרים.
00:42
And this spreads on out endlessly into a distance.
11
42260
3000
וזה מתפשט עד אין סוף למרחקים
00:45
And you get a network that looks like this.
12
45260
2000
ואנו מקבלים רשת שנראית כך.
00:47
Every dot is a person.
13
47260
2000
כל נקודה מייצגת אדם
00:49
Every line between them is a relationship between two people --
14
49260
2000
כל קו ביניהן מייצג מערכת יחסים בין שני בני אדם --
00:51
different kinds of relationships.
15
51260
2000
מערכות יחסים מסוגים שונים.
00:53
And you can get this kind of vast fabric of humanity,
16
53260
3000
ואתם יכולים לקבל מין מארג עצום של האנושות,
00:56
in which we're all embedded.
17
56260
2000
בתוכו כולנו מוטמעים.
00:58
And my colleague, James Fowler and I have been studying for quite sometime
18
58260
3000
ועמיתי, ג'יימס פאולר, ואני חוקרים כבר זמן רב למדי
01:01
what are the mathematical, social,
19
61260
2000
מהם החוקים המתמטיים, החברתיים
01:03
biological and psychological rules
20
63260
3000
הביולוגיים והפסיכולוגיים
01:06
that govern how these networks are assembled
21
66260
2000
המושלים ביצירת הרשתות הללו
01:08
and what are the similar rules
22
68260
2000
ומהם החוקים המקבילים
01:10
that govern how they operate, how they affect our lives.
23
70260
3000
המושלים באופן פעולתן, באופן בו הן משפיעות על חיינו.
01:13
But recently, we've been wondering
24
73260
2000
ולאחרונה, התחלנו לתהות
01:15
whether it might be possible to take advantage of this insight,
25
75260
3000
האם ייתכן לנצל את התובנה הזו,
01:18
to actually find ways to improve the world,
26
78260
2000
על מנת למצוא דרכים לשפר את העולם,
01:20
to do something better,
27
80260
2000
לעשייה חיובית יותר,
01:22
to actually fix things, not just understand things.
28
82260
3000
לתקן דברים, לא רק להבין דברים.
01:25
So one of the first things we thought we would tackle
29
85260
3000
אז אחד הדברים הראשונים שחשבנו שנתמודד איתם
01:28
would be how we go about predicting epidemics.
30
88260
3000
היה האופן בו אנו חוזים מגיפות.
01:31
And the current state of the art in predicting an epidemic --
31
91260
2000
והשיטה העדכנית ביותר בניבוי מגיפה --
01:33
if you're the CDC or some other national body --
32
93260
3000
אם אתם המרכז הלאומי לבקרת מחלות או גוף לאומי אחר כלשהו --
01:36
is to sit in the middle where you are
33
96260
2000
היא לשבת במרכז, איפה שלא תהיה,
01:38
and collect data
34
98260
2000
ולאסוף נתונים
01:40
from physicians and laboratories in the field
35
100260
2000
מרופאים ומעבדות הנמצאים בשטח
01:42
that report the prevalence or the incidence of certain conditions.
36
102260
3000
המדווחים מהי שכיחותם או היקפם של תנאים מסויימים.
01:45
So, so and so patients have been diagnosed with something,
37
105260
3000
אז, כך וכך מטופלים אובחנו כחולים במשהו מסויים [במקום זה]
01:48
or other patients have been diagnosed,
38
108260
2000
או מטופלים אחרים אובחנו כחולים [במקום אחר]
01:50
and all these data are fed into a central repository, with some delay.
39
110260
3000
וכל הנתונים האלו מוזנים למאגר מרכזי, באיחור מסויים.
01:53
And if everything goes smoothly,
40
113260
2000
ואם הכל מתנהל כשורה
01:55
one to two weeks from now
41
115260
2000
בעוד שבוע עד שבועיים מעכשיו,
01:57
you'll know where the epidemic was today.
42
117260
3000
תדעו איפה נמצאת המגיפה היום.
02:00
And actually, about a year or so ago,
43
120260
2000
ולמעשה, לפני כשנה,
02:02
there was this promulgation
44
122260
2000
הייתה אותה הכרזה
02:04
of the idea of Google Flu Trends, with respect to the flu,
45
124260
3000
על רעיון "מגמות השפעת של גוגל", בהתייחס לשפעת,
02:07
where by looking at people's searching behavior today,
46
127260
3000
שם, באמצעות התבוננות בהתנהגות החיפוש של אנשים היום
02:10
we could know where the flu --
47
130260
2000
נוכל לדעת איפה השפעת...
02:12
what the status of the epidemic was today,
48
132260
2000
מה מצבה העדכני של המגיפה היום
02:14
what's the prevalence of the epidemic today.
49
134260
3000
מה שכיחות המגיפה היום
02:17
But what I'd like to show you today
50
137260
2000
אבל מה שהייתי רוצה להראות לכם היום
02:19
is a means by which we might get
51
139260
2000
זהו אמצעי שבעזרתו ייתכן שנוכל לקבל
02:21
not just rapid warning about an epidemic,
52
141260
3000
לא רק אזהרה בזמן אמת במקרה של מגיפה
02:24
but also actually
53
144260
2000
אלא אפילו
02:26
early detection of an epidemic.
54
146260
2000
איתור מוקדם של מגפה.
02:28
And, in fact, this idea can be used
55
148260
2000
ולמעשה, הרעיון הזה יכול לשמש
02:30
not just to predict epidemics of germs,
56
150260
3000
לא רק לשם חיזוי מגפות חיידקיות
02:33
but also to predict epidemics of all sorts of kinds.
57
153260
3000
אלא גם מגיפות ממגוון סוגים.
02:37
For example, anything that spreads by a form of social contagion
58
157260
3000
לדוגמה, כל מה שמתפשט בצורה של הדבקה חברתית
02:40
could be understood in this way,
59
160260
2000
יוכל להיות מובן בצורה הזו,
02:42
from abstract ideas on the left
60
162260
2000
החל מרעיונות מופשטים משמאל
02:44
like patriotism, or altruism, or religion
61
164260
3000
כמו פטריוטיות, אלטרואיזם או דת
02:47
to practices
62
167260
2000
וכלה במנהגים
02:49
like dieting behavior, or book purchasing,
63
169260
2000
כמו הרגלי דיאטה, או קניית ספרים,
02:51
or drinking, or bicycle-helmet [and] other safety practices,
64
171260
3000
או שתייה, או קסדות אופניים...[ו] נוהגי בטיחות אחרים,
02:54
or products that people might buy,
65
174260
2000
או מוצרים שאנשים עשויים לקנות,
02:56
purchases of electronic goods,
66
176260
2000
רכישות של מוצרי אלקטרוניקה
02:58
anything in which there's kind of an interpersonal spread.
67
178260
3000
כל דבר בו יש צורה כלשהי של התפשטות בין-אישית.
03:01
A kind of a diffusion of innovation
68
181260
2000
מעין דיפוזיה של חדשנות
03:03
could be understood and predicted
69
183260
2000
הניתנת להבנה ולניבוי
03:05
by the mechanism I'm going to show you now.
70
185260
3000
בעזרת המנגנון שאני עומד להראות לכם כעת.
03:08
So, as all of you probably know,
71
188260
2000
אז, כמו שכולכם בוודאי יודעים,
03:10
the classic way of thinking about this
72
190260
2000
הדרך הקלאסית לחשוב על זה
03:12
is the diffusion-of-innovation,
73
192260
2000
היא דרך ההפצה של חידוש,
03:14
or the adoption curve.
74
194260
2000
או עקומת ההטמעה.
03:16
So here on the Y-axis, we have the percent of the people affected,
75
196260
2000
אז כאן, על ציר ה-Y, יש לנו את אחוז האנשים המושפעים
03:18
and on the X-axis, we have time.
76
198260
2000
ועל ציר ה-X, יש לנו זמן.
03:20
And at the very beginning, not too many people are affected,
77
200260
3000
ממש בהתחלה, לא יותר מדי אנשים מושפעים,
03:23
and you get this classic sigmoidal,
78
203260
2000
ואנו מקבלים עקומה סיגמואידית,
03:25
or S-shaped, curve.
79
205260
2000
או עקומה דמויית-S.
03:27
And the reason for this shape is that at the very beginning,
80
207260
2000
והסיבה לצורה הזו היא שממש בהתחלה,
03:29
let's say one or two people
81
209260
2000
בואו נאמר אדם אחד או שניים
03:31
are infected, or affected by the thing
82
211260
2000
מושפעים, או מודבקים, על ידי הדבר המסויים,
03:33
and then they affect, or infect, two people,
83
213260
2000
והם משפיעים על, או מדביקים, שני אנשים,
03:35
who in turn affect four, eight, 16 and so forth,
84
215260
3000
שבתורם משפיעים על ארבעה, שמונה, שישה עשר וכן הלאה,
03:38
and you get the epidemic growth phase of the curve.
85
218260
3000
ואז מקבלים את שלב התפשטות המגיפה של העקומה.
03:41
And eventually, you saturate the population.
86
221260
2000
ולבסוף, אתם מרווים את האוכלוסיה.
03:43
There are fewer and fewer people
87
223260
2000
יש פחות ופחות אנשים
03:45
who are still available that you might infect,
88
225260
2000
שעדיין זמינים להדבקה,
03:47
and then you get the plateau of the curve,
89
227260
2000
ואז מקבלים את הישור של העקומה,
03:49
and you get this classic sigmoidal curve.
90
229260
3000
ואתם מקבלים את העקומה הסיגמואידית הקלאסית.
03:52
And this holds for germs, ideas,
91
232260
2000
וזה נכון בעבור חיידקים, רעיונות
03:54
product adoption, behaviors,
92
234260
2000
אימוץ של מוצרים, התנהגויות
03:56
and the like.
93
236260
2000
ודומיהם.
03:58
But things don't just diffuse in human populations at random.
94
238260
3000
אלא שדברים אינם מתפשטים באוכלוסיות אנושיות באופן אקראי.
04:01
They actually diffuse through networks.
95
241260
2000
הם למעשה מתפשטים דרך רשתות.
04:03
Because, as I said, we live our lives in networks,
96
243260
3000
מאחר וכמו שאמרתי, אנו חיים את חיינו ברשתות,
04:06
and these networks have a particular kind of a structure.
97
246260
3000
ולרשתות אלו יש מבנה מסוג מסוים.
04:09
Now if you look at a network like this --
98
249260
2000
אם נסתכל על רשת כמו זו...
04:11
this is 105 people.
99
251260
2000
יש כאן 105 אנשים.
04:13
And the lines represent -- the dots are the people,
100
253260
2000
והקווים מייצגים.. הנקודות הם האנשים,
04:15
and the lines represent friendship relationships.
101
255260
2000
והקווים מייצגים קשרי חברות.
04:17
You might see that people occupy
102
257260
2000
אולי תוכלו לראות שאנשים מאכלסים
04:19
different locations within the network.
103
259260
2000
מיקומים שונים בתוך הרשת.
04:21
And there are different kinds of relationships between the people.
104
261260
2000
וישנם סוגים שונים של מערכות יחסים בין האנשים.
04:23
You could have friendship relationships, sibling relationships,
105
263260
3000
יכולים להיות לכם מערכות יחסים עם חברים, מערכות יחסים עם אחים,
04:26
spousal relationships, co-worker relationships,
106
266260
3000
מערכות יחסים עם בני זוג, מערכות יחסים עם חברים לעבודה.
04:29
neighbor relationships and the like.
107
269260
3000
מערכות יחסים עם שכנים וכדומה.
04:32
And different sorts of things
108
272260
2000
ודברים מסוגים שונים
04:34
spread across different sorts of ties.
109
274260
2000
מתפשטים דרך קשרים מסוגים שונים.
04:36
For instance, sexually transmitted diseases
110
276260
2000
למשל, מחלות מין
04:38
will spread across sexual ties.
111
278260
2000
יתפזרו לאורך קשרים מיניים
04:40
Or, for instance, people's smoking behavior
112
280260
2000
או לדוגמה, הרגלי עישון של אנשים
04:42
might be influenced by their friends.
113
282260
2000
עלולים להיות מושפעים מחבריהם.
04:44
Or their altruistic or their charitable giving behavior
114
284260
2000
או התנהגותם האלטרואיסטית או הנתינה שלהם לצדקה
04:46
might be influenced by their coworkers,
115
286260
2000
עשויים להיות מושפעים על ידי חבריהם לעבודה,
04:48
or by their neighbors.
116
288260
2000
או על ידי שכניהם.
04:50
But not all positions in the network are the same.
117
290260
3000
אבל לא כל העמדות ברשת דומות זו לזו.
04:53
So if you look at this, you might immediately grasp
118
293260
2000
אז אם תסתכלו בתמונה, ייתכן שתתפסו מיד
04:55
that different people have different numbers of connections.
119
295260
3000
שלאנשים שונים יש מספר שונה של קשרים.
04:58
Some people have one connection, some have two,
120
298260
2000
לחלק מהאנשים יש קשר אחד, לאחרים יש שניים.
05:00
some have six, some have 10 connections.
121
300260
3000
לחלק יש שישה, לאחרים עשרה קשרים.
05:03
And this is called the "degree" of a node,
122
303260
2000
וזה נקרה "מעלה" של צומת,
05:05
or the number of connections that a node has.
123
305260
2000
או מספר הקשרים שיש לצומת.
05:07
But in addition, there's something else.
124
307260
2000
אך בנוסף, יש משהו אחר.
05:09
So, if you look at nodes A and B,
125
309260
2000
כך, אם תסתכלו בצמתים A ו-B,
05:11
they both have six connections.
126
311260
2000
לכל אחד יש שישה קשרים.
05:13
But if you can see this image [of the network] from a bird's eye view,
127
313260
3000
אבל אם אתם מסוגלים לראות את התמונה הזו [של הרשת] ממעוף הציפור,
05:16
you can appreciate that there's something very different
128
316260
2000
אתם יכולים להעריך שיש משהו שונה מאוד
05:18
about nodes A and B.
129
318260
2000
בין צמתים A ו-B.
05:20
So, let me ask you this -- I can cultivate this intuition by asking a question --
130
320260
3000
אז, תנו לי לשאול אתכם את זה -- אנסה לפתח את האינטואיציה הזו על ידי שאלה -
05:23
who would you rather be
131
323260
2000
מי הייתם מעדיפים להיות
05:25
if a deadly germ was spreading through the network, A or B?
132
325260
3000
אם חיידק קטלני היה מתפשט דרך הרשת, A או B ?
05:28
(Audience: B.) Nicholas Christakis: B, it's obvious.
133
328260
2000
(קהל : B.) ניקולס כריסטאקיס: B, זה ברור.
05:30
B is located on the edge of the network.
134
330260
2000
B ממוקם בקצה הרשת.
05:32
Now, who would you rather be
135
332260
2000
עכשיו, מי הייתם מעדיפים להיות
05:34
if a juicy piece of gossip were spreading through the network?
136
334260
3000
אם פיסת רכילות עסיסית הייתה מתפשטת דרך הרשת?
05:37
A. And you have an immediate appreciation
137
337260
3000
A. ויש לכם יכולת להערכה מיידית
05:40
that A is going to be more likely
138
340260
2000
שסביר יותר להניח ש-A
05:42
to get the thing that's spreading and to get it sooner
139
342260
3000
יחשף למה שמתפשט ויחשף אליו מוקדם יותר
05:45
by virtue of their structural location within the network.
140
345260
3000
בזכות מיקומו המבני בתוך הרשת.
05:48
A, in fact, is more central,
141
348260
2000
A, למעשה, הוא מרכזי יותר,
05:50
and this can be formalized mathematically.
142
350260
3000
ותכונה זו אפשר לאשר רשמית באופן מתמטי.
05:53
So, if we want to track something
143
353260
2000
אז, אם אנו רוצים לעקוב אחר משהו
05:55
that was spreading through a network,
144
355260
3000
שהתפשט דרך רשת כלשהי,
05:58
what we ideally would like to do is to set up sensors
145
358260
2000
מה שהיינו רוצים לעשות, באופן אידיאלי, הוא להציב חיישנים
06:00
on the central individuals within the network,
146
360260
2000
בצמתים המרכזיים ברשת,
06:02
including node A,
147
362260
2000
כולל צומת A,
06:04
monitor those people that are right there in the middle of the network,
148
364260
3000
לנטר אנשים אלו, שהם ממש במרכז הרשת,
06:07
and somehow get an early detection
149
367260
2000
ובצורה כלשהי לקבל איתור מוקדם
06:09
of whatever it is that is spreading through the network.
150
369260
3000
של מה שלא יהיה שמתפשט דרך הרשת..
06:12
So if you saw them contract a germ or a piece of information,
151
372260
3000
כלומר, אם הבחנתם בכך שהם נדבקים בחיידק או מתוודעים למידע כלשהו,
06:15
you would know that, soon enough,
152
375260
2000
תוכלו לדעת שבקרוב מאוד,
06:17
everybody was about to contract this germ
153
377260
2000
כולם עומדים להדבק בחיידק הזה
06:19
or this piece of information.
154
379260
2000
או לגלות את המידע הזה.
06:21
And this would be much better
155
381260
2000
וזה יהיה הרבה יותר טוב
06:23
than monitoring six randomly chosen people,
156
383260
2000
מאשר לנטר שישה אנשים שנבחרו בצורה אקראית,
06:25
without reference to the structure of the population.
157
385260
3000
בלי התייחסות למבנה האוכלוסיה.
06:28
And in fact, if you could do that,
158
388260
2000
ולמעשה, אם נוכל לעשות זאת,
06:30
what you would see is something like this.
159
390260
2000
מה שתראו הוא משהו כמו זה.
06:32
On the left-hand panel, again, we have the S-shaped curve of adoption.
160
392260
3000
בפאנל השמאלי יש לנו, שוב, את עקומת ה-S של אימוץ החידוש.
06:35
In the dotted red line, we show
161
395260
2000
בקו המנוקד באדום, אנו מראים
06:37
what the adoption would be in the random people,
162
397260
2000
מה יהיה האימוץ של האנשים שנבחרו אקראית
06:39
and in the left-hand line, shifted to the left,
163
399260
3000
ובקו השמאלי (הצהוב), בהסטה מסויימת לשמאל,
06:42
we show what the adoption would be
164
402260
2000
אנו רואים את עקומת האימוץ של
06:44
in the central individuals within the network.
165
404260
2000
הפרטים המרכזיים ברשת.
06:46
On the Y-axis is the cumulative instances of contagion,
166
406260
2000
ציר ה-Y מייצג את הצטברות מקרי ההידבקות,
06:48
and on the X-axis is the time.
167
408260
2000
וציר ה-X מייצג את הזמן.
06:50
And on the right-hand side, we show the same data,
168
410260
2000
ובצד ימין, אנו מראים אותם הנתונים
06:52
but here with daily incidence.
169
412260
2000
אבל במדידה יומית.
06:54
And what we show here is -- like, here --
170
414260
2000
ומה שאנו מראים כאן הוא -- כאילו, כאן --
06:56
very few people are affected, more and more and more and up to here,
171
416260
2000
מעט מאוד אנשים מושפעים, עוד ועוד ועוד ועד למעלה,
06:58
and here's the peak of the epidemic.
172
418260
2000
והנה שיא המגפה.
07:00
But shifted to the left is what's occurring in the central individuals.
173
420260
2000
מוסט לשמאל הוא מה שמתרחש אצל הפרטים המרכזיים.
07:02
And this difference in time between the two
174
422260
3000
וההבדל הזה בזמן בין השניים
07:05
is the early detection, the early warning we can get,
175
425260
3000
הוא האיתור המוקדם, האזהרה המוקדמת שאנו יכולים לקבל,
07:08
about an impending epidemic
176
428260
2000
על המגפה שבדרך
07:10
in the human population.
177
430260
2000
באוכלוסייה האנושית.
07:12
The problem, however,
178
432260
2000
אולם הבעיה היא,
07:14
is that mapping human social networks
179
434260
2000
שמיפוי רשתות חברתיות של בני אדם
07:16
is not always possible.
180
436260
2000
אינו תמיד אפשרי.
07:18
It can be expensive, not feasible,
181
438260
2000
זה יכול להיות יקר, [קשה מאוד],
07:20
unethical,
182
440260
2000
לא אתי,
07:22
or, frankly, just not possible to do such a thing.
183
442260
3000
או, למען האמת, פשוט לא אפשרי.
07:25
So, how can we figure out
184
445260
2000
אז, כיצד נבין
07:27
who the central people are in a network
185
447260
2000
מי הם האנשים המרכזיים ברשת
07:29
without actually mapping the network?
186
449260
3000
מבלי למעשה למפות את הרשת ?
07:32
What we came up with
187
452260
2000
מה שהעלינו
07:34
was an idea to exploit an old fact,
188
454260
2000
הוא רעיון המנצל עובדה ישנה,
07:36
or a known fact, about social networks,
189
456260
2000
או עובדה ידועה, על רשתות חברתיות,
07:38
which goes like this:
190
458260
2000
שהולך כך:
07:40
Do you know that your friends
191
460260
2000
האם אתה יודע שלחברים שלך
07:42
have more friends than you do?
192
462260
3000
יש יותר חברים מאשר לך ?
07:45
Your friends have more friends than you do,
193
465260
3000
לחברים שלך יש יותר חברים מאשר לך.
07:48
and this is known as the friendship paradox.
194
468260
2000
וזה ידוע בתור פרדוקס החברות.
07:50
Imagine a very popular person in the social network --
195
470260
2000
דמיינו לעצמכם אדם מאוד פופולרי ברשת חברתית --
07:52
like a party host who has hundreds of friends --
196
472260
3000
כמו מארח מסיבה שיש לו מאות חברים --
07:55
and a misanthrope who has just one friend,
197
475260
2000
ומיזנטרופ (שונא אדם) שיש לו רק חבר אחד,
07:57
and you pick someone at random from the population;
198
477260
3000
ותבחרו מישהו באופן אקראי מהאוכלוסיה;
08:00
they were much more likely to know the party host.
199
480260
2000
להם יש הרבה יותר סיכוי להכיר את מארח המסיבה.
08:02
And if they nominate the party host as their friend,
200
482260
2000
ואם הם בוחרים במארח המסיבה בתור החבר שלהם,
08:04
that party host has a hundred friends,
201
484260
2000
למארח יש מאה חברים,
08:06
therefore, has more friends than they do.
202
486260
3000
ולכן יש לו יותר חברים מאשר להם.
08:09
And this, in essence, is what's known as the friendship paradox.
203
489260
3000
וזה, במהותו, ידוע כפרדוקס החברות.
08:12
The friends of randomly chosen people
204
492260
3000
החברים של אנשים שנבחרו באקראי
08:15
have higher degree, and are more central
205
495260
2000
בעלי דרגה יותר גבוהה, והם יותר מרכזיים,
08:17
than the random people themselves.
206
497260
2000
מאשר האנשים שנבחרו באקראי.
08:19
And you can get an intuitive appreciation for this
207
499260
2000
ואתם יכולים לקבל הערכה אינטואיטיבית לזה
08:21
if you imagine just the people at the perimeter of the network.
208
501260
3000
אם תדמיינו רק את האנשים שנמצאים בקצוות הרשת.
08:24
If you pick this person,
209
504260
2000
אם תבחרו באדם הזה,
08:26
the only friend they have to nominate is this person,
210
506260
3000
האדם היחיד שהם יבחרו בו בתור חבר הוא האדם הזה,
08:29
who, by construction, must have at least two
211
509260
2000
ולו לפחות שניים
08:31
and typically more friends.
212
511260
2000
ובאופן טיפוסי - יותר חברים.
08:33
And that happens at every peripheral node.
213
513260
2000
וזה קורה בכל צומת הנמצאת בקצה הרשת.
08:35
And in fact, it happens throughout the network as you move in,
214
515260
3000
ולמעשה, זה קורה בכל הרשת, ככל שמתקדמים פנימה.
08:38
everyone you pick, when they nominate a random --
215
518260
2000
כל אחד שתבחרו, כאשר הם מציעים מועמד אקראי..
08:40
when a random person nominates a friend of theirs,
216
520260
3000
כאשר אדם אקראי מציע חבר שלו
08:43
you move closer to the center of the network.
217
523260
3000
אנו מתקרבים לכיוון מרכז הרשת.
08:46
So, we thought we would exploit this idea
218
526260
3000
אז, חשבנו שנוכל להשתמש ברעיון זה
08:49
in order to study whether we could predict phenomena within networks.
219
529260
3000
על מנת ללמוד האם אנו יכולים לחזות תופעות בתוך רשתות.
08:52
Because now, with this idea
220
532260
2000
מאחר ועכשיו, עם הרעיון הזה
08:54
we can take a random sample of people,
221
534260
2000
אנו יכולים לקחת קבוצה אקראית של אנשים,
08:56
have them nominate their friends,
222
536260
2000
לבקש מהם להציע את חבריהם
08:58
those friends would be more central,
223
538260
2000
אנשים אלו יהיו יותר מרכזיים,
09:00
and we could do this without having to map the network.
224
540260
3000
ונוכל לעשות זאת ללא הצורך למפות את הרשת כולה.
09:03
And we tested this idea with an outbreak of H1N1 flu
225
543260
3000
בדקנו את הרעיון הזה עם התפרצות של שפעת H1N1
09:06
at Harvard College
226
546260
2000
בקולג' הרווארד
09:08
in the fall and winter of 2009, just a few months ago.
227
548260
3000
בסתיו וחורף של 2009, לפני מספר חודשים בלבד.
09:11
We took 1,300 randomly selected undergraduates,
228
551260
3000
לקחנו 1300 סטודנטים אקראיים לתואר ראשון,
09:14
we had them nominate their friends,
229
554260
2000
ביקשנו מהם להציע חבר אחד
09:16
and we followed both the random students and their friends
230
556260
2000
ועקבנו אחריהם ואחרי החברים שבחרו
09:18
daily in time
231
558260
2000
יום אחר יום
09:20
to see whether or not they had the flu epidemic.
232
560260
3000
על מנת לבדוק האם הם נדבקו במגפת השפעת.
09:23
And we did this passively by looking at whether or not they'd gone to university health services.
233
563260
3000
ועשינו זאת באופן פאסיבי, על ידי בדיקה האם הם הלכו לשירותי הרפואה של האוניברסיטה
09:26
And also, we had them [actively] email us a couple of times a week.
234
566260
3000
ובנוסף, ביקשנו מהם לשלוח לנו דוא"ל פעמיים בשבוע.
09:29
Exactly what we predicted happened.
235
569260
3000
קרה בדיוק מה שניבאנו.
09:32
So the random group is in the red line.
236
572260
3000
אז הקבוצה האקראית מסומנת בקו אדום.
09:35
The epidemic in the friends group has shifted to the left, over here.
237
575260
3000
המגפה בקבוצת החברים- בהיסט לשמאל, כאן.
09:38
And the difference in the two is 16 days.
238
578260
3000
וההבדל בין השתיים הוא 16 ימים.
09:41
By monitoring the friends group,
239
581260
2000
על ידי ניטור קבוצת החברים,
09:43
we could get 16 days advance warning
240
583260
2000
היינו מסוגלים לקבל התראה מראש של 16 ימים
09:45
of an impending epidemic in this human population.
241
585260
3000
למגפה שבדרך באוכלוסייה האנושית הזו.
09:48
Now, in addition to that,
242
588260
2000
ובנוסף לזה,
09:50
if you were an analyst who was trying to study an epidemic
243
590260
3000
אם היית אנליסט שמנסה לחקור מגפה
09:53
or to predict the adoption of a product, for example,
244
593260
3000
או לחזות את האימוץ של מוצר, לדוגמה,
09:56
what you could do is you could pick a random sample of the population,
245
596260
3000
מה שהייתם יכולים לעשות הוא לבחור מדגם אקראי של האוכלוסיה,
09:59
also have them nominate their friends and follow the friends
246
599260
3000
שיבחרו מיהם חבריהם ולעקוב אחרי החברים,
10:02
and follow both the randoms and the friends.
247
602260
3000
ולעקוב אחרי המדגם האקראי ואחרי החברים.
10:05
Among the friends, the first evidence you saw of a blip above zero
248
605260
3000
בקרב החברים, הראיה הראשונה שראיתם של נקודה מעל האפס
10:08
in adoption of the innovation, for example,
249
608260
3000
באימוץ של ההמצאה, לדוגמה,
10:11
would be evidence of an impending epidemic.
250
611260
2000
יהווה ראיה למגיפה ממשמשת ובאה.
10:13
Or you could see the first time the two curves diverged,
251
613260
3000
או שתוכלו לראות את הפעם הראשונה בה שתי עקומות מתפצלות,
10:16
as shown on the left.
252
616260
2000
כפי שרואים משמאל.
10:18
When did the randoms -- when did the friends take off
253
618260
3000
מתי האקראיים...מתי החברים המריאו
10:21
and leave the randoms,
254
621260
2000
והשאירו את האקראיים מאחור,
10:23
and [when did] their curve start shifting?
255
623260
2000
ו[מתי] העקומה שלהם החלה לזוז?
10:25
And that, as indicated by the white line,
256
625260
2000
וזה, כפי שהראה הקו הלבן,
10:27
occurred 46 days
257
627260
2000
קרה 46 ימים
10:29
before the peak of the epidemic.
258
629260
2000
לפני שיא המחלה.
10:31
So this would be a technique
259
631260
2000
כך שזו יכולה להיות טכניקה
10:33
whereby we could get more than a month-and-a-half warning
260
633260
2000
שבעזרתם נוכל לקבל התראה של יותר מחודש וחצי
10:35
about a flu epidemic in a particular population.
261
635260
3000
על מגיפת שפעת באוכלוסיה מסוימת.
10:38
I should say that
262
638260
2000
עלי לומר
10:40
how far advanced a notice one might get about something
263
640260
2000
שההתראה שאדם עשוי לקבל לגבי משהו
10:42
depends on a host of factors.
264
642260
2000
תלויה בהרבה מאוד גורמים.
10:44
It could depend on the nature of the pathogen --
265
644260
2000
היא יכולה להיות תלויה בטבעו של הפתוגן --
10:46
different pathogens,
266
646260
2000
פתוגנים שונים,
10:48
using this technique, you'd get different warning --
267
648260
2000
בשימוש בטכניקה זו, תקבלו התראות שונות --
10:50
or other phenomena that are spreading,
268
650260
2000
או תופעות מתפשטות אחרות,
10:52
or frankly, on the structure of the human network.
269
652260
3000
או, בכנות, על מבנה הרשת האנושית.
10:55
Now in our case, although it wasn't necessary,
270
655260
3000
עכשיו, במקרה שלנו, אף-על-פי שזה לא היה נחוץ
10:58
we could also actually map the network of the students.
271
658260
2000
יכולנו למעשה למפות את רשת הסטודנטים.
11:00
So, this is a map of 714 students
272
660260
2000
אז, זו מפה של 714 סטודנטים
11:02
and their friendship ties.
273
662260
2000
וקשרי החברות שלהם.
11:04
And in a minute now, I'm going to put this map into motion.
274
664260
2000
ובעוד דקה עכשיו, אני עומד להכניס את המפה זו לתנועה.
11:06
We're going to take daily cuts through the network
275
666260
2000
אנחנו הולכים לקחת תמונות מצב יומיות דרך הרשת,
11:08
for 120 days.
276
668260
2000
במשך 120 ימים.
11:10
The red dots are going to be cases of the flu,
277
670260
3000
הנקודות האדומות עומדות להיות מקרי שפעת,
11:13
and the yellow dots are going to be friends of the people with the flu.
278
673260
3000
והנקודות הצהובות עומדות להיות חברים של אנשים עם שפעת.
11:16
And the size of the dots is going to be proportional
279
676260
2000
וגודל הנקודות עומד להיות פרופורציונלי
11:18
to how many of their friends have the flu.
280
678260
2000
למספר חבריהם החולים.
11:20
So bigger dots mean more of your friends have the flu.
281
680260
3000
כך שנקודות גדולות יותר אומרות שליותר מחבריך יש שפעת.
11:23
And if you look at this image -- here we are now in September the 13th --
282
683260
3000
ואם תסתכלו בתמונה זו -- כאן אנחנו עכשיו ב-13 בספטמבר --
11:26
you're going to see a few cases light up.
283
686260
2000
תוכלו לראות כמה מקרים נדלקים.
11:28
You're going to see kind of blooming of the flu in the middle.
284
688260
2000
אתם עומדים לראות סוג של שגשוג של השפעת במרכז.
11:30
Here we are on October the 19th.
285
690260
3000
כאן אנו ב-19 באוקטובר
11:33
The slope of the epidemic curve is approaching now, in November.
286
693260
2000
השיפוע של עקומת המגיפה מתקרב עכשיו, בנובמבר.
11:35
Bang, bang, bang, bang, bang -- you're going to see lots of blooming in the middle,
287
695260
3000
בום, בום, בום, בום, בום, אתם עומדים לראות הרבה שגשוג באמצע,
11:38
and then you're going to see a sort of leveling off,
288
698260
2000
ואז אתם הולכים לראות סוג של התיישרות,
11:40
fewer and fewer cases towards the end of December.
289
700260
3000
מקרים מעטים יותר ויותר לקראת סוף דצמבר.
11:43
And this type of a visualization
290
703260
2000
וסוג כזה של ויזואליזציה
11:45
can show that epidemics like this take root
291
705260
2000
יכול להראות שמגיפות כמו זו משתרשות אצל
11:47
and affect central individuals first,
292
707260
2000
ומשפיעות על פרטים מרכזיים תחילה,
11:49
before they affect others.
293
709260
2000
לפני שהן משפיעות על אחרים.
11:51
Now, as I've been suggesting,
294
711260
2000
עכשיו, כפי שהצעתי,
11:53
this method is not restricted to germs,
295
713260
3000
שיטה זו אינה מוגבלת לחיידקים,
11:56
but actually to anything that spreads in populations.
296
716260
2000
אלא למעשה לכל דבר שמתפשט באוכלוסיות.
11:58
Information spreads in populations,
297
718260
2000
מידע מתפשט באוכלוסיות.
12:00
norms can spread in populations,
298
720260
2000
נורמות יכולות להתפשט באוכלוסיות.
12:02
behaviors can spread in populations.
299
722260
2000
צורות התנהגות יכולות להתפשט באוכלוסיות.
12:04
And by behaviors, I can mean things like criminal behavior,
300
724260
3000
ובצורות התנהגות, אני יכול להתכוון לדברים כמו התנהגות פושעת,
12:07
or voting behavior, or health care behavior,
301
727260
3000
או התנהגות של הצבעה, או התנהגות שקשורה בבריאות,
12:10
like smoking, or vaccination,
302
730260
2000
כמו עישון, או חיסון,
12:12
or product adoption, or other kinds of behaviors
303
732260
2000
או אימוץ מוצרים, או סוגים אחרים של התנהגות
12:14
that relate to interpersonal influence.
304
734260
2000
הקשורים להשפעה בין-אישית.
12:16
If I'm likely to do something that affects others around me,
305
736260
3000
אם סביר שאעשה משהו שמשפיע על אחרים מסביבי,
12:19
this technique can get early warning or early detection
306
739260
3000
טכניקה זו יכולה לתת התראה מוקדמת, או איתור מוקדם,
12:22
about the adoption within the population.
307
742260
3000
על רמת האימוץ באוכלוסיה.
12:25
The key thing is that for it to work,
308
745260
2000
הדבר החשוב הוא, על מנת שזה יעבוד,
12:27
there has to be interpersonal influence.
309
747260
2000
חייבת להיות השפעה בין-אישית.
12:29
It cannot be because of some broadcast mechanism
310
749260
2000
זה לא יכול לקרות בגלל סוג כלשהו של מנגנון שידור
12:31
affecting everyone uniformly.
311
751260
3000
המשפיע על כולם באופן אחיד.
12:35
Now the same insights
312
755260
2000
כעת אותן התובנות
12:37
can also be exploited -- with respect to networks --
313
757260
3000
יכולות להיות מנוצלות -- בהתיחס לרשתות --
12:40
can also be exploited in other ways,
314
760260
3000
יכולות גם להיות מנוצלות בדרכים אחרות,
12:43
for example, in the use of targeting
315
763260
2000
לדוגמה, בשימוש בכיוון אל
12:45
specific people for interventions.
316
765260
2000
אנשים ספציפיים להתערבויות (interventions).
12:47
So, for example, most of you are probably familiar
317
767260
2000
כך, למשל, רובכם קרוב לוודאי מכירים
12:49
with the notion of herd immunity.
318
769260
2000
את מושג חסינות העדר.
12:51
So, if we have a population of a thousand people,
319
771260
3000
כך, אם יש לנו אוכלוסיה של אלף איש,
12:54
and we want to make the population immune to a pathogen,
320
774260
3000
ואנו רוצים לעשות אוכלוסיה זו חסינה לפתוגן,
12:57
we don't have to immunize every single person.
321
777260
2000
איננו חייבים לחסן כל אדם ואדם.
12:59
If we immunize 960 of them,
322
779260
2000
אם נחסן 960 מהם
13:01
it's as if we had immunized a hundred [percent] of them.
323
781260
3000
כאילו חיסנו מאה [אחוזים] מהם.
13:04
Because even if one or two of the non-immune people gets infected,
324
784260
3000
מכיון שאפילו אם אחד או שניים מהאנשים הלא מחוסנים נדבק,
13:07
there's no one for them to infect.
325
787260
2000
אין להם איש להדביק.
13:09
They are surrounded by immunized people.
326
789260
2000
הם מוקפים באנשים מחוסנים.
13:11
So 96 percent is as good as 100 percent.
327
791260
3000
כך ש-96 אחוזים טובים כמו 100 אחוזים.
13:14
Well, some other scientists have estimated
328
794260
2000
ובכן, מדענים מסוימים אחרים אמדו
13:16
what would happen if you took a 30 percent random sample
329
796260
2000
מה יקרה אם תיקחו מדגם אקראי של 30 אחוזים
13:18
of these 1000 people, 300 people and immunized them.
330
798260
3000
מאלף האנשים האלו, 300 אנשים, ותחסנו אותם.
13:21
Would you get any population-level immunity?
331
801260
2000
האם תקבלו חסינות ברמת האוכלוסיה?
13:23
And the answer is no.
332
803260
3000
והתשובה היא לא.
13:26
But if you took this 30 percent, these 300 people
333
806260
2000
אבל אם הייתם לוקחים את שלושים האחוזים האלו, 300 האנשים האלה,
13:28
and had them nominate their friends
334
808260
2000
והייתם מבקשים מהם להעמיד לבחירה את חבריהם
13:30
and took the same number of vaccine doses
335
810260
3000
והייתם לוקחים אותו מספר של מנות חיסון
13:33
and vaccinated the friends of the 300 --
336
813260
2000
והייתם מחסנים את חבריהם של ה-300,
13:35
the 300 friends --
337
815260
2000
300 החברים,
13:37
you can get the same level of herd immunity
338
817260
2000
תוכלו לקבל אותה רמה של חסינות עדרית
13:39
as if you had vaccinated 96 percent of the population
339
819260
3000
כאילו חיסנתם 96 אחוזים של האוכלוסיה
13:42
at a much greater efficiency, with a strict budget constraint.
340
822260
3000
ביעילות גדולה יותר, תחת מגבלה תקציבית נוקשה
13:45
And similar ideas can be used, for instance,
341
825260
2000
וניתן להשתמש ברעיונות דומים, לדוגמה,
13:47
to target distribution of things like bed nets
342
827260
2000
כדי לכוון הפצה של דברים כמו כילות
13:49
in the developing world.
343
829260
2000
בעולם המתפתח.
13:51
If we could understand the structure of networks in villages,
344
831260
3000
אם נוכל להבין את מבנה הרשתות בכפרים,
13:54
we could target to whom to give the interventions
345
834260
2000
נוכל לכוון אצל מי כדאי להתערב
13:56
to foster these kinds of spreads.
346
836260
2000
על מנת לעודד התפשטויות מהסוגים האלה
13:58
Or, frankly, for advertising with all kinds of products.
347
838260
3000
או, בכנות, לפרסום כל סוגי המוצרים.
14:01
If we could understand how to target,
348
841260
2000
אם נוכל להבין כיצד לכוון,
14:03
it could affect the efficiency
349
843260
2000
זה יוכל להשפיע על היעילות
14:05
of what we're trying to achieve.
350
845260
2000
של מה שאנו מנסים להשיג.
14:07
And in fact, we can use data
351
847260
2000
ולמעשה, אנו יכולים להשתמש בנתונים
14:09
from all kinds of sources nowadays [to do this].
352
849260
2000
ממגוון סוגי מקורות כיום [על מנת לעשות זאת]
14:11
This is a map of eight million phone users
353
851260
2000
זוהי מפה של שמונה מיליון משתמשי טלפון
14:13
in a European country.
354
853260
2000
בארץ אירופית.
14:15
Every dot is a person, and every line represents
355
855260
2000
כל נקודה היא אדם, וכל קו מייצג
14:17
a volume of calls between the people.
356
857260
2000
את נפח השיחות בין האנשים.
14:19
And we can use such data, that's being passively obtained,
357
859260
3000
ואנו יכולים להשתמש בנתונים כאלה, שהושגו בצורה פסיבית,
14:22
to map these whole countries
358
862260
2000
כדי למפות ארצות שלמות
14:24
and understand who is located where within the network.
359
864260
3000
ולהבין מי ממוקם היכן בתוך הרשת.
14:27
Without actually having to query them at all,
360
867260
2000
בלי למעשה לשאול אותם כלל,
14:29
we can get this kind of a structural insight.
361
869260
2000
נוכל לקבל סוג כזה של תובנה מבנית.
14:31
And other sources of information, as you're no doubt aware
362
871260
3000
ומקורות אחרים של אינפורמציה, כפי שאתם מודעים ללא ספק,
14:34
are available about such features, from email interactions,
363
874260
3000
זמינים בנוגע למאפיינים כאלה, מאינטראקציות דוא"ל,
14:37
online interactions,
364
877260
2000
אינטראקציות מקוונות,
14:39
online social networks and so forth.
365
879260
3000
רשתות חברתיות מקוונות, וכך הלאה.
14:42
And in fact, we are in the era of what I would call
366
882260
2000
ולמעשה, אנחנו בתקופה של מה שאקרא
14:44
"massive-passive" data collection efforts.
367
884260
3000
מאמצי איסוף נתונים "מאסיביים-פסיביים".
14:47
They're all kinds of ways we can use massively collected data
368
887260
3000
אלו הן מגוון דרכים שבהן אנחנו יכולים להשתמש בנתונים שנאספו בצורה מאסיבית
14:50
to create sensor networks
369
890260
3000
כדי ליצור רשתות חיישנים
14:53
to follow the population,
370
893260
2000
לעקוב אחרי האוכלוסיה,
14:55
understand what's happening in the population,
371
895260
2000
להבין מה קורה באוכלוסיה,
14:57
and intervene in the population for the better.
372
897260
3000
ולהתערב לטובה באוכלוסיה.
15:00
Because these new technologies tell us
373
900260
2000
מכיון שהטכנולוגיות החדשות האלו אומרות לנו
15:02
not just who is talking to whom,
374
902260
2000
לא רק מי מדבר עם מי,
15:04
but where everyone is,
375
904260
2000
אלא איפה נמצא כל אחד,
15:06
and what they're thinking based on what they're uploading on the Internet,
376
906260
3000
ומה הם חושבים בהתבסס על מה הם מעלים לאינטרנט,
15:09
and what they're buying based on their purchases.
377
909260
2000
ומה הם קונים בהתבסס על רכישותיהם.
15:11
And all this administrative data can be pulled together
378
911260
3000
וכל הנתונים המנהליים האלו יכולים להיאסף יחד
15:14
and processed to understand human behavior
379
914260
2000
ולהיות מעובדים על מנת להבין התנהגות אנושית
15:16
in a way we never could before.
380
916260
3000
באופן שמעולם לא יכולנו לפני כן.
15:19
So, for example, we could use truckers' purchases of fuel.
381
919260
3000
כך, לדוגמה, נוכל להשתמש ברכישות הדלק של נהגי משאיות.
15:22
So the truckers are just going about their business,
382
922260
2000
הנהגים האלו עוסקים בענייניהם,
15:24
and they're buying fuel.
383
924260
2000
והם קונים דלק.
15:26
And we see a blip up in the truckers' purchases of fuel,
384
926260
3000
ואנו רואים עליה ברכישות הדלק של נהגי משאיות,
15:29
and we know that a recession is about to end.
385
929260
2000
ואנו יודעים שהמיתון עומד להסתיים.
15:31
Or we can monitor the velocity
386
931260
2000
או אנו יכולים לנטר את המהירות
15:33
with which people are moving with their phones on a highway,
387
933260
3000
בה אנשים נעים עם הטלפונים שלהם בכביש ראשי,
15:36
and the phone company can see,
388
936260
2000
וחברת הטלפון יכולה לראות,
15:38
as the velocity is slowing down,
389
938260
2000
כשהמהירות מאטה,
15:40
that there's a traffic jam.
390
940260
2000
שיש פקק תנועה.
15:42
And they can feed that information back to their subscribers,
391
942260
3000
והם יכולים להזין את האינפורמציה הזו בחזרה למנויים שלהם,
15:45
but only to their subscribers on the same highway
392
945260
2000
אבל רק למנויים שלהם באותו כביש ראשי
15:47
located behind the traffic jam!
393
947260
2000
הממוקמים מאחורי פקק התנועה!
15:49
Or we can monitor doctors prescribing behaviors, passively,
394
949260
3000
או שאנו יכולים לנטר את התנהגויות רישום המרשמים של רופאים, באופן פסיבי,
15:52
and see how the diffusion of innovation with pharmaceuticals
395
952260
3000
ולראות כיצד התפשטות של חידושים תרופתיים
15:55
occurs within [networks of] doctors.
396
955260
2000
קורית בין [רשת של] רופאים.
15:57
Or again, we can monitor purchasing behavior in people
397
957260
2000
או שוב, אנו יכולים לנטר התנהגות רכישה של אנשים
15:59
and watch how these types of phenomena
398
959260
2000
ולצפות כיצד סוגים כאלה של תופעות
16:01
can diffuse within human populations.
399
961260
3000
יכולים להתפשט באוכלוסיות אנושיות.
16:04
And there are three ways, I think,
400
964260
2000
ויש שלוש דרכים, אני חושב,
16:06
that these massive-passive data can be used.
401
966260
2000
של שימוש בנתונים המאסיביים-פאסיביים האלה.
16:08
One is fully passive,
402
968260
2000
אחת היא פאסיבית לחלוטין,
16:10
like I just described --
403
970260
2000
כמו שרק תיארתי --
16:12
as in, for instance, the trucker example,
404
972260
2000
כמו, לדוגמה, אצל נהגי המשאיות,
16:14
where we don't actually intervene in the population in any way.
405
974260
2000
שם אנחנו לא מתערבים למעשה באוכלוסייה בדרך כלשהי.
16:16
One is quasi-active,
406
976260
2000
אחת היא מעין-אקטיבית,
16:18
like the flu example I gave,
407
978260
2000
כמו בדוגמת השפעת שנתתי,
16:20
where we get some people to nominate their friends
408
980260
3000
שם אנו מבקשים מאנשים מסויימים להציע את חבריהם
16:23
and then passively monitor their friends --
409
983260
2000
ואז מנטרים את החברים באופן פסיבי --
16:25
do they have the flu, or not? -- and then get warning.
410
985260
2000
האם הם חולים בשפעת, או לא? -- ואז מקבלים התראה.
16:27
Or another example would be,
411
987260
2000
או דוגמה אחרת יכולה להיות,
16:29
if you're a phone company, you figure out who's central in the network
412
989260
3000
אם אתם חברת טלפון, אתם תבינו מי מרכזי ברשת,
16:32
and you ask those people, "Look, will you just text us your fever every day?
413
992260
3000
ותבקשו מהאנשים האלו, "תראו, האם פשוט תשלחו לנו טקסט עם החום שלכם מדי יום?
16:35
Just text us your temperature."
414
995260
2000
פשוט תשלחו לנו טקסט עם הטמפרטורה שלכם."
16:37
And collect vast amounts of information about people's temperature,
415
997260
3000
ולאסוף כמויות עצומות של אינפורמציה על הטמפרטורה של אנשים,
16:40
but from centrally located individuals.
416
1000260
2000
מפרטים הממוקמים במרכז.
16:42
And be able, on a large scale,
417
1002260
2000
ולהיות מסוגלים, בקנה מידה גדול,
16:44
to monitor an impending epidemic
418
1004260
2000
לנטר מגיפה מתקרבת
16:46
with very minimal input from people.
419
1006260
2000
עם קלט מועט מאוד מאנשים.
16:48
Or, finally, it can be more fully active --
420
1008260
2000
או, לבסוף, זה יכול להיות אקטיבי יותר --
16:50
as I know subsequent speakers will also talk about today --
421
1010260
2000
כפי שאני יודע שגם הדוברים הבאים ידברו על האפשרות היום --
16:52
where people might globally participate in wikis,
422
1012260
2000
שאנשים עשויים להשתתף גלובלית בויקי,
16:54
or photographing, or monitoring elections,
423
1014260
3000
או צילום, או ניטור בחירות,
16:57
and upload information in a way that allows us to pool
424
1017260
2000
ולהעלות את האינפורמציה בדרך שתרשה לנו לאגור
16:59
information in order to understand social processes
425
1019260
2000
אינפורמציה על מנת להבין תהליכים חברתיים
17:01
and social phenomena.
426
1021260
2000
ותופעות חברתיות.
17:03
In fact, the availability of these data, I think,
427
1023260
2000
למעשה, זמינותם של הנתונים האלו, אני חושב,
17:05
heralds a kind of new era
428
1025260
2000
מכריזה על סוג של תקופה חדשה
17:07
of what I and others would like to call
429
1027260
2000
שאני ואחרים רוצים לקרוא לה
17:09
"computational social science."
430
1029260
2000
"מדע חברתי חישובי."
17:11
It's sort of like when Galileo invented -- or, didn't invent --
431
1031260
3000
זה בערך כמו כאשר גלילאו המציא -- או, לא המציא --
17:14
came to use a telescope
432
1034260
2000
התחיל להשתמש בטלסקופ
17:16
and could see the heavens in a new way,
433
1036260
2000
והיה יכול לראות את הרקיע בצורה חדשה
17:18
or Leeuwenhoek became aware of the microscope --
434
1038260
2000
או כאשר לייבנהוק הפך מודע למיקרוסקופ --
17:20
or actually invented --
435
1040260
2000
או למעשה המציא --
17:22
and could see biology in a new way.
436
1042260
2000
והיה מסוגל לראות ביולוגיה בדרך חדשה.
17:24
But now we have access to these kinds of data
437
1044260
2000
אך כעת יש לנו גישה לסוגי נתונים כאלה
17:26
that allow us to understand social processes
438
1046260
2000
שמאפשרים לנו להבין תהליכים חברתיים
17:28
and social phenomena
439
1048260
2000
ותופעות חברתיות
17:30
in an entirely new way that was never before possible.
440
1050260
3000
בדרך חדשה לחלוטין שמעולם לא היתה אפשרית לפני כן
17:33
And with this science, we can
441
1053260
2000
ובעזרת מדע זה, אנו יכולים
17:35
understand how exactly
442
1055260
2000
להבין בדיוק כיצד
17:37
the whole comes to be greater
443
1057260
2000
השלם הופך להיות גדול יותר
17:39
than the sum of its parts.
444
1059260
2000
מסכום חלקיו.
17:41
And actually, we can use these insights
445
1061260
2000
ולמעשה, אנו יכולים להשתמש בתובנות אלו
17:43
to improve society and improve human well-being.
446
1063260
3000
על מנת לשפר את החברה ולשפר את הרווחה האנושית.
17:46
Thank you.
447
1066260
2000
תודה לכם
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7