What really happens when you mix medications? | Russ Altman

188,456 views ・ 2016-03-23

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Michael Coslovsky מבקר: Zeeva Livshitz
00:12
So you go to the doctor and get some tests.
0
12811
3321
אתם הולכים לרופא והוא רושם לכם כמה בדיקות.
00:16
The doctor determines that you have high cholesterol
1
16674
2620
הרופא קובע שיש לכם כולסטרול גבוה
00:19
and you would benefit from medication to treat it.
2
19318
3171
ושכדאי לכם לקחת תרופה בשביל זה.
00:22
So you get a pillbox.
3
22981
1556
אז אתם מקבלים קופסת גלולות.
00:25
You have some confidence,
4
25505
1199
יש לכם ביטחון מסוים,
00:26
your physician has some confidence that this is going to work.
5
26728
2937
לרופא שלכם יש ביטחון מסוים שזה יעשה את העבודה.
00:29
The company that invented it did a lot of studies, submitted it to the FDA.
6
29689
3553
החברה שפיתחה את זה ערכה מחקרים רבים,
הגישה את זה למינהל המזון והתרופות,
הם בחנו את זה ביסודיות, בספקנות. הם אישרו את זה.
00:33
They studied it very carefully, skeptically, they approved it.
7
33266
3107
00:36
They have a rough idea of how it works,
8
36397
1889
יש להם מושג כללי איך זה עובד,
00:38
they have a rough idea of what the side effects are.
9
38310
2453
יש להם מושג כללי מה הן תופעות הלוואי.
00:40
It should be OK.
10
40787
1150
זה צריך להיות בסדר.
00:42
You have a little more of a conversation with your physician
11
42864
2818
אתם מנהלים שיחה קצת יותר מעמיקה עם הרופא שלכם
00:45
and the physician is a little worried because you've been blue,
12
45706
2963
והרופא קצת מודאג כי לאחרונה הייתם במצב רוח רע,
00:48
haven't felt like yourself,
13
48693
1293
לא הרגשתם כרגיל,
לא הצלחתם ליהנות מהדברים בחיים כמו בדרך כלל.
00:50
you haven't been able to enjoy things in life quite as much as you usually do.
14
50010
3731
00:53
Your physician says, "You know, I think you have some depression.
15
53765
3186
הרופא אומר, "אתם יודעים, אני חושב שאתם קצת בדיכאון.
00:57
I'm going to have to give you another pill."
16
57792
2315
"אני אצטרך לתת לכם עוד כדור."
01:00
So now we're talking about two medications.
17
60934
2483
עכשיו אנחנו כבר מדברים על שתי תרופות.
01:03
This pill also -- millions of people have taken it,
18
63441
3104
גם הכדור הזה-- מיליוני אנשים לקחו אותו,
01:06
the company did studies, the FDA looked at it -- all good.
19
66569
3631
החברה עשתה מחקרים, המינהל בחן אותו -- הכל טוב.
01:10
Think things should go OK.
20
70823
2057
סביר שהכל יהיה בסדר.
01:12
Think things should go OK.
21
72904
2197
סביר שהכל יהיה בסדר.
01:15
Well, wait a minute.
22
75125
1439
אבל, רק רגע.
01:16
How much have we studied these two together?
23
76588
3517
כמה חקרנו את שתי אלו ביחד?
01:20
Well, it's very hard to do that.
24
80630
2300
את זה קשה מאד לעשות.
01:22
In fact, it's not traditionally done.
25
82954
2130
למעשה, לא נוהגים לעשות זאת.
01:25
We totally depend on what we call "post-marketing surveillance,"
26
85108
5518
אנחנו מסתמכים באופן מוחלט על "מעקב לאחר השיווק",
01:30
after the drugs hit the market.
27
90650
1880
אחרי שהתרופות הופצו למכירה.
01:32
How can we figure out if bad things are happening
28
92996
2848
איך אנחנו יכולים לגלות אם דברים לא טובים קורים
01:35
between two medications?
29
95868
1357
בין שתי תרופות?
01:37
Three? Five? Seven?
30
97249
2030
שלוש? חמש? שבע תרופות?
01:39
Ask your favorite person who has several diagnoses
31
99708
2415
שאלו את האדם האהוב עליכם שיש לו כמה אבחונים
01:42
how many medications they're on.
32
102147
1834
כמה תרופות הוא לוקח כרגע.
01:44
Why do I care about this problem?
33
104530
1580
למה איכפת לי מהבעיה הזו? איכפת לי ממנה מאד.
01:46
I care about it deeply.
34
106134
1157
אני מידען וחוקר נתונים, ולמען האמת, לדעתי,
01:47
I'm an informatics and data science guy and really, in my opinion,
35
107315
4304
01:51
the only hope -- only hope -- to understand these interactions
36
111643
3745
התקווה היחידה -- היחידה -- להבין את האינטראקציות הללו
01:55
is to leverage lots of different sources of data
37
115412
3056
היא לנצל הרבה מקורות של נתונים
01:58
in order to figure out when drugs can be used together safely
38
118492
3556
כדי למצוא מתי ניתן להשתמש בתרופות בו-זמנית באופן בטוח
02:02
and when it's not so safe.
39
122072
1777
ומתי זה לא כל כך בטוח.
02:04
So let me tell you a data science story.
40
124615
2051
אז תרשו לי לספר לכם סיפור ממדעי הנתונים.
02:06
And it begins with my student Nick.
41
126690
2154
והוא מתחיל עם הסטודנט שלי, ניק.
02:08
Let's call him "Nick," because that's his name.
42
128868
2380
נקרא לו "ניק", כי זה השם שלו.
02:11
(Laughter)
43
131272
1592
(צחוק)
02:12
Nick was a young student.
44
132888
1201
ניק היה סטודנט צעיר.
02:14
I said, "You know, Nick, we have to understand how drugs work
45
134113
3079
אמרתי, "אתה יודע, ניק, אנחנו צריכים להבין איך תרופות עובדות
02:17
and how they work together and how they work separately,
46
137216
2626
"איך הן עובדות ביחד, ואיך הן עובדות בנפרד,
02:19
and we don't have a great understanding.
47
139866
1922
"ואין לנו הבנה מי יודע מה."
02:21
But the FDA has made available an amazing database.
48
141812
2405
אבל מינהל המזון והתרופות הנגיש מאגר מידע מדהים.
02:24
It's a database of adverse events.
49
144241
1699
זה מאגר מידע של תופעות שליליות.
02:26
They literally put on the web --
50
146321
1642
הם ממש מעלים לאינטרנט --
02:27
publicly available, you could all download it right now --
51
147987
3119
נגיש לציבור, כולכם יכולים להוריד את זה ממש עכשיו --
02:31
hundreds of thousands of adverse event reports
52
151130
3627
מאות אלפי דו"חות של אירועי תופעות שליליות
02:34
from patients, doctors, companies, pharmacists.
53
154781
3760
ממטופלים, רופאים, חברות, רוקחים.
02:38
And these reports are pretty simple:
54
158565
1749
והדו"חות האלה הם פשוטים למדי:
02:40
it has all the diseases that the patient has,
55
160338
2658
כתובות בהם כל המחלות מהן סובל המטופל,
02:43
all the drugs that they're on,
56
163020
1767
כל התרופות שהוא לוקח,
02:44
and all the adverse events, or side effects, that they experience.
57
164811
3818
וכל התופעות השליליות, או תופעות הלוואי, שהם חווים.
02:48
It is not all of the adverse events that are occurring in America today,
58
168653
3436
אלו לא כל התופעות השליליות שמתרחשות באמריקה כיום,
02:52
but it's hundreds and hundreds of thousands of drugs.
59
172113
2578
אבל אלו מאות ומאות אלפי תרופות.
02:54
So I said to Nick,
60
174715
1299
אז אמרתי לניק, "בוא נחשוב על גלוקוז.
02:56
"Let's think about glucose.
61
176038
1826
02:57
Glucose is very important, and we know it's involved with diabetes.
62
177888
3567
"הגלוקוז חשוב מאד, ואנחנו יודעים שהוא קשור בסכרת.
03:01
Let's see if we can understand glucose response.
63
181479
3970
"בוא נראה אם נוכל להבין את התגובה לגלוקוז."
03:05
I sent Nick off. Nick came back.
64
185473
2458
שלחתי את ניק לדרכו. ניק חזר.
03:08
"Russ," he said,
65
188248
1786
"ראס", הוא אמר,
03:10
"I've created a classifier that can look at the side effects of a drug
66
190351
5112
"יצרתי כלי מיון שיכול לבחון את תופעות הלוואי של תרופה
03:15
based on looking at this database,
67
195487
2051
"בהתבסס על מאגר המידע הזה,
03:17
and can tell you whether that drug is likely to change glucose or not."
68
197562
4271
"שיכול לומר לך אם סביר שהתרופה הזו תשנה את רמת הגלוקוז."
03:21
He did it. It was very simple, in a way.
69
201857
2016
הוא עשה זאת. זה מאד פשוט, איכשהו.
03:23
He took all the drugs that were known to change glucose
70
203897
2635
הוא לקח את כל התרופות שהיה ידוע שהן משנות את הגלוקוז
03:26
and a bunch of drugs that don't change glucose,
71
206556
2389
וכמה תרופות שלא משנות את הגלוקוז,
03:28
and said, "What's the difference in their side effects?
72
208969
2888
ואמר, "מה ההבדל בתופעות הלוואי שלהן?
03:31
Differences in fatigue? In appetite? In urination habits?"
73
211881
4852
"ההבדל בתחושת התשישות? בתיאבון? בהרגלי מתן השתן?"
03:36
All those things conspired to give him a really good predictor.
74
216757
2960
כל הדברים הללו יחד נתנו לו כלי בעל יכולות ניבוי ממש טובות.
03:39
He said, "Russ, I can predict with 93 percent accuracy
75
219741
2548
הוא אמר, "ראס, אני יכול לנבא, בדיוק של 93 אחוזים
03:42
when a drug will change glucose."
76
222313
1572
"מתי תרופה תשנה את הגלוקוז."
03:43
I said, "Nick, that's great."
77
223909
1416
אמרתי, "ניק, זה נהדר."
הוא סטודנט צעיר וצריך לעודד את הבטחון העצמי שלו.
03:45
He's a young student, you have to build his confidence.
78
225349
2896
"אבל ניק, יש בעיה:
03:48
"But Nick, there's a problem.
79
228269
1390
03:49
It's that every physician in the world knows all the drugs that change glucose,
80
229683
3960
"כל רופא בעולם מכיר את כל התרופות שמשנות את הגלוקוז,
03:53
because it's core to our practice.
81
233667
2038
"כי זה חשוב מאד בפרקטיקה שלנו.
03:55
So it's great, good job, but not really that interesting,
82
235729
3722
"אז נהדר, עבודה טובה, אבל לא באמת כל כך מעניין,
03:59
definitely not publishable."
83
239475
1531
"ובהחלט לא משהו שאפשר לפרסם."
04:01
(Laughter)
84
241030
1014
(צחוק)
04:02
He said, "I know, Russ. I thought you might say that."
85
242068
2550
הוא אמר, "אני יודע, ראס. חשבתי שזה מה שתגיד."
04:04
Nick is smart.
86
244642
1152
ניק בחור פיקח.
04:06
"I thought you might say that, so I did one other experiment.
87
246149
2874
"חשבתי שזה מה שתגיד, אז עשיתי עוד ניסוי אחד.
"בדקתי אנשים במאגר המידע הזה שלקחו שתי תרופות בו זמנית,
04:09
I looked at people in this database who were on two drugs,
88
249047
2928
04:11
and I looked for signals similar, glucose-changing signals,
89
251999
4422
"וחיפשתי סימנים דומים, סימני שינוי רמת גלוקוז,
04:16
for people taking two drugs,
90
256445
1624
"אצל אנשים שלוקחים שתי תרופות,
04:18
where each drug alone did not change glucose,
91
258093
5569
"כאשר כל אחת מהתרופות בפני עצמה לא משנה את רמת הגלוקוז,
04:23
but together I saw a strong signal."
92
263686
2460
"אבל יחד, הן נתנו סימן חזק."
04:26
And I said, "Oh! You're clever. Good idea. Show me the list."
93
266170
3149
ואני אמרתי, "או! אתה פיקח. רעיון טוב. תראה לי את הרשימה."
04:29
And there's a bunch of drugs, not very exciting.
94
269343
2254
ויש קבוצה של תרופות, לא מאוד מרגש.
04:31
But what caught my eye was, on the list there were two drugs:
95
271621
3932
אבל מה שמשך את תשומת לבי היה, שברשימה היו שתי תרופות:
04:35
paroxetine, or Paxil, an antidepressant;
96
275577
3393
פארוקסטין, או פקסיל, נוגד דיכאון;
04:39
and pravastatin, or Pravachol, a cholesterol medication.
97
279756
3570
ופרבסטאטין, או פראבאכול, תרופה לכולסטרול.
04:43
And I said, "Huh. There are millions of Americans on those two drugs."
98
283936
4283
ואני אמרתי, "אהה! מיליוני אמריקאים לוקחים את שתי התרופות האלה."
04:48
In fact, we learned later,
99
288243
1246
בפועל גילינו אחר כך,
04:49
15 million Americans on paroxetine at the time, 15 million on pravastatin,
100
289513
6032
ש-15 מיליון אמריקאים לוקחים פארוקסטין בכל רגע נתון, 15 מיליון על פרבסטטין,
04:55
and a million, we estimated, on both.
101
295569
2817
וכמיליון, הערכנו, לוקחים את שתיהן.
04:58
So that's a million people
102
298767
1254
אז מדובר במיליון אנשים שאולי סובלים מבעיות עם הגלוקוז שלהם
05:00
who might be having some problems with their glucose
103
300045
2453
05:02
if this machine-learning mumbo jumbo that he did in the FDA database
104
302522
3206
אם ההוקוס פוקוס של הלמידת-מכונה שלו במאגר המידע של מינהל המזון והתרופות
05:05
actually holds up.
105
305752
1254
יעמוד במבחן.
05:07
But I said, "It's still not publishable,
106
307030
1927
אבל אמרתי, "זה עדיין לא מספיק לפירסום,
05:08
because I love what you did with the mumbo jumbo,
107
308981
2296
"כי אני אוהב את מה שעשית עם ההוקוס-פוקוס ולמידת המכונה,
05:11
with the machine learning,
108
311301
1246
05:12
but it's not really standard-of-proof evidence that we have."
109
312571
3864
"אבל מה שיש לנו איננו בדיוק ראיות בלתי מעורערות."
05:17
So we have to do something else.
110
317618
1589
אז אנחנו צריכים לעשות משהו אחר.
05:19
Let's go into the Stanford electronic medical record.
111
319231
2876
בוא ניכנס למאגר הרפואי האלקטרוני של סטנפורד.
05:22
We have a copy of it that's OK for research,
112
322131
2064
יש לנו עותק שלו שמתאים למחקר,
הוצאנו מידע מזהה.
05:24
we removed identifying information.
113
324219
2046
05:26
And I said, "Let's see if people on these two drugs
114
326581
2503
ואני אמרתי, "בוא נראה אם לאנשים שלוקחים את שתי התרופות האלה
05:29
have problems with their glucose."
115
329108
1769
"יש בעיה עם הגלוקוז שלהם."
05:31
Now there are thousands and thousands of people
116
331242
2207
יש אלפים רבים של אנשים
05:33
in the Stanford medical records that take paroxetine and pravastatin.
117
333473
3459
במאגר הרפואי של סטנפורד שלוקחים פרוקסטין ופרבסטטין.
05:36
But we needed special patients.
118
336956
1799
אבל היינו זקוקים למטופלים מיוחדים.
05:38
We needed patients who were on one of them and had a glucose measurement,
119
338779
4597
היינו זקוקים למטופלים שלוקחים אחת מהתרופות האלה ושיש להם מדידות של גלוקוז,
05:43
then got the second one and had another glucose measurement,
120
343400
3449
ואז התחילו עם השנייה והיתה להם מדידת גלוקוז נוספת,
05:46
all within a reasonable period of time -- something like two months.
121
346873
3615
כל זה בתקופה לא ארוכה מדי -- משהו כמו חודשיים.
05:50
And when we did that, we found 10 patients.
122
350512
3159
וכשעשינו את זה, מצאנו 10 מטופלים.
05:54
However, eight out of the 10 had a bump in their glucose
123
354592
4538
אבל, ל-8 מתוך ה-10 היתה קפיצה ברמת הגלוקוז
כשהם קיבלו את ה-"פ" השנייה -- אנחנו קוראים לזה "פ" ו-"פ" --
05:59
when they got the second P -- we call this P and P --
124
359154
2645
06:01
when they got the second P.
125
361823
1310
כשהם קיבלו את ה-"פ" השנייה.
06:03
Either one could be first, the second one comes up,
126
363157
2562
זה לא משנה איזה היתה קודם, ברגע שבאה השנייה,
06:05
glucose went up 20 milligrams per deciliter.
127
365743
2847
רמת הגלוקוז עלתה ב-20 מיליגרם לדציליטר.
06:08
Just as a reminder,
128
368614
1158
רק כתזכורת,
06:09
you walk around normally, if you're not diabetic,
129
369796
2325
באופן טבעי יש לכם, אם אתם לא חולי סכרת,
רמת גלוקוז בסביבות ה-90.
06:12
with a glucose of around 90.
130
372145
1359
06:13
And if it gets up to 120, 125,
131
373528
2076
ואם זה עולה ל-120, 125,
06:15
your doctor begins to think about a potential diagnosis of diabetes.
132
375628
3450
הרופא שלכם מתחיל לחשוב על אבחון של סכרת בפוטנציה.
06:19
So a 20 bump -- pretty significant.
133
379102
2991
אז קפיצה של 20 -- די משמעותי.
06:22
I said, "Nick, this is very cool.
134
382601
1904
אמרתי, "ניק, זה ממש מדליק.
06:25
But, I'm sorry, we still don't have a paper,
135
385616
2053
"אבל לצערי עדיין אין לנו מאמר, "כי זה 10 מטופלים, בחייך --
06:27
because this is 10 patients and -- give me a break --
136
387693
2579
"זה לא מספיק מטופלים."
06:30
it's not enough patients."
137
390296
1245
06:31
So we said, what can we do?
138
391565
1306
אז אמרנו, מה אנחנו יכולים לעשות?
06:32
And we said, let's call our friends at Harvard and Vanderbilt,
139
392895
2976
ואמרנו, בוא נקרא לחברים שלנו בהרוורד ובוונדרבילט,
06:35
who also -- Harvard in Boston, Vanderbilt in Nashville,
140
395895
2587
שגם -- אוניברסיטאות הרוורד בבוסטון, ו-וונדרבילט בנשוויל,
06:38
who also have electronic medical records similar to ours.
141
398506
2821
שגם להם יש מאגרי מידע רפואי אלקטרוניים דומים לשלנו,
06:41
Let's see if they can find similar patients
142
401351
2020
ונראה אם הם יכולים למצוא לנו מטופלים דומים
06:43
with the one P, the other P, the glucose measurements
143
403395
3276
עם ה-"פ" האחת ועם ה-"פ" השניה, ועם מדידות הגלוקוז
06:46
in that range that we need.
144
406695
1600
בתחום שאנחנו צריכים.
06:48
God bless them, Vanderbilt in one week found 40 such patients,
145
408787
4955
וונדרבילט, יבורכו, מצאו בשבוע אחד 40 מטופלים כאלו
06:53
same trend.
146
413766
1189
עם אותה המגמה.
06:55
Harvard found 100 patients, same trend.
147
415804
3620
הרוורד מצאו 100 מטופלים. אותה המגמה.
06:59
So at the end, we had 150 patients from three diverse medical centers
148
419448
4281
כך שלבסוף, היו לנו 150 מטופלים משלושה מרכזים רפואיים
07:03
that were telling us that patients getting these two drugs
149
423753
3297
שהראו לנו שמטופלים שמקבלים את שתי התרופות הללו
07:07
were having their glucose bump somewhat significantly.
150
427074
2703
קיבלו קפיצת גלוקוז משמעותית.
07:10
More interestingly, we had left out diabetics,
151
430317
2810
ויותר מעניין, לא הכללנו את חולי הסכרת,
07:13
because diabetics already have messed up glucose.
152
433151
2317
כי אצל חולי סכרת, הגלוקוז כבר משובש.
07:15
When we looked at the glucose of diabetics,
153
435492
2238
כשהסתכלנו על הגלוקוז של חולי סכרת,
07:17
it was going up 60 milligrams per deciliter, not just 20.
154
437754
3435
הוא עלה ב-60 מ"ג לדציליטר, לא רק 20.
07:21
This was a big deal, and we said, "We've got to publish this."
155
441760
3452
זה היה משהו רציני, ואמרנו, "אנחנו חייבים לפרסם את זה."
07:25
We submitted the paper.
156
445236
1179
הגשנו את המאמר. הכל היה ראיות מנתונים,
07:26
It was all data evidence,
157
446439
2111
07:28
data from the FDA, data from Stanford,
158
448574
2483
נתונים ממינהל המזון והתרופות, נתונים מסטנפורד,
נתונים מוונדרבילט, נתונים מהרוורד.
07:31
data from Vanderbilt, data from Harvard.
159
451081
1946
לא עשינו אפילו ניסוי אמיתי אחד.
07:33
We had not done a single real experiment.
160
453051
2396
07:36
But we were nervous.
161
456495
1296
אבל היינו מתוחים.
07:38
So Nick, while the paper was in review, went to the lab.
162
458201
3730
אז ניק, בזמן שהמאמר עבר ביקורת, הלך למעבדה.
07:41
We found somebody who knew about lab stuff.
163
461955
2462
מצאנו מישהו שמתמצא במעבדות.
07:44
I don't do that.
164
464441
1393
אני לא מתעסק בזה.
07:45
I take care of patients, but I don't do pipettes.
165
465858
2417
אני מטפל בחולים, אבל אני לא עושה פיפטות.
07:49
They taught us how to feed mice drugs.
166
469420
3053
הם לימדו אותנו להאכיל עכברים בתרופות.
07:52
We took mice and we gave them one P, paroxetine.
167
472864
2414
לקחנו עכברים ונתנו להם "פ" אחת, פרוקסטין.
07:55
We gave some other mice pravastatin.
168
475302
2508
לכמה עכברים אחרים נתנו פרבסטטין.
07:57
And we gave a third group of mice both of them.
169
477834
3595
ולקבוצה שלישית של עכברים נתנו את שניהם.
08:01
And lo and behold, glucose went up 20 to 60 milligrams per deciliter
170
481893
3946
והפלא ופלא, רמות הגלוקוז עלו בעכברים ב-20 עד 60 מ"ג לדציליטר.
08:05
in the mice.
171
485863
1171
08:07
So the paper was accepted based on the informatics evidence alone,
172
487058
3158
אז המאמר התקבל בהתבסס על הראיות מהנתונים בלבד,
08:10
but we added a little note at the end,
173
490240
1894
אבל הוספנו הערה קטנה בסוף:
"אה, דרך אגב, אם נותנים את זה לעכברים, זה עולה."
08:12
saying, oh by the way, if you give these to mice, it goes up.
174
492158
2899
זה היה נהדר, והסיפור יכול היה להסתיים שם.
08:15
That was great, and the story could have ended there.
175
495081
2508
08:17
But I still have six and a half minutes.
176
497613
1997
אבל יש לי עוד שש וחצי דקות.
08:19
(Laughter)
177
499634
2807
(צחוק)
08:22
So we were sitting around thinking about all of this,
178
502465
2815
אז אנחנו יושבים לנו וחושבים על כל זה,
08:25
and I don't remember who thought of it, but somebody said,
179
505304
2735
ואני לא זוכר מי חשב על זה, אבל מישהו אמר,
"מעניין אם מטופלים שלוקחים את שתי התרופות הללו
08:28
"I wonder if patients who are taking these two drugs
180
508063
3201
08:31
are noticing side effects of hyperglycemia.
181
511288
3553
"מבחינים בתופעות לוואי של היפר-גליקמיה.
08:34
They could and they should.
182
514865
1496
"הם עלולים וצפויים לחוות זאת."
08:36
How would we ever determine that?"
183
516761
1877
איך נוכל לבדוק את זה?
08:39
We said, well, what do you do?
184
519551
1443
אמרנו, טוב, מה עושים?
אם אתם לוקחים תרופה, תרופה חדשה אחת או שתיים,
08:41
You're taking a medication, one new medication or two,
185
521018
2580
08:43
and you get a funny feeling.
186
523622
1538
ויש לכם הרגשה מוזרה.
08:45
What do you do?
187
525184
1151
מה אתם עושים?
08:46
You go to Google
188
526359
1151
אתם נכנסים לגוגל
08:47
and type in the two drugs you're taking or the one drug you're taking,
189
527534
3349
ומקלידים את שתי התרופות שאתם לוקחים או את האחת שאתם לוקחים,
08:50
and you type in "side effects."
190
530907
1603
ואתם מקלידים "תופעות לוואי."
08:52
What are you experiencing?
191
532534
1356
את מה שאתם חווים.
08:54
So we said OK,
192
534239
1151
אז אמרנו "בסדר,
08:55
let's ask Google if they will share their search logs with us,
193
535414
3056
"נשאל את גוגל אם הם ישתפו אותנו ברישומי החיפושים שלהם,
08:58
so that we can look at the search logs
194
538494
1833
"כך שנוכל לבחון את רישומי החיפוש
09:00
and see if patients are doing these kinds of searches.
195
540351
2565
"ולבדוק אם מטופלים עורכים חיפושים כאלה."
09:02
Google, I am sorry to say, denied our request.
196
542940
3275
גוגל, צר לי לומר, סירבו לבקשה שלנו.
09:06
So I was bummed.
197
546819
1151
אז הייתי בבאסה.
09:07
I was at a dinner with a colleague who works at Microsoft Research
198
547994
3166
הייתי בארוחת ערב עם חבר שעובד ב"מיקרוסופט מחקר"
ואמרתי, "רצינו לעשות איזה מחקר,
09:11
and I said, "We wanted to do this study,
199
551184
1941
"גוגל סירבו, זה די באסה."
09:13
Google said no, it's kind of a bummer."
200
553149
1880
הוא אמר, "טוב, לנו יש את החיפושים מבינג."
09:15
He said, "Well, we have the Bing searches."
201
555053
2086
09:18
(Laughter)
202
558195
3483
(צחוק)
09:22
Yeah.
203
562805
1267
כן.
09:24
That's great.
204
564096
1151
נהדר.
09:25
Now I felt like I was --
205
565271
1151
עכשיו הרגשתי כאילו אני -
09:26
(Laughter)
206
566446
1000
(צחוק)
09:27
I felt like I was talking to Nick again.
207
567470
2412
הרגשתי כאילו אני מדבר אל ניק שוב.
09:30
He works for one of the largest companies in the world,
208
570437
2624
הוא עובד באחת החברות הגדולות בעולם,
ואני עוד מנסה לגרום לו להרגיש יותר טוב.
09:33
and I'm already trying to make him feel better.
209
573085
2206
09:35
But he said, "No, Russ -- you might not understand.
210
575315
2445
אבל הוא אמר, "לא, ראס, אולי אינך מבין.
"לא רק שיש לנו החיפושים של בינג:
09:37
We not only have Bing searches,
211
577784
1500
"אם אתה משתמש באינטרנט אקספלורר כדי לעשות חיפושים בגוגל,
09:39
but if you use Internet Explorer to do searches at Google,
212
579308
3340
09:42
Yahoo, Bing, any ...
213
582672
1891
"יאהו, בינג, מה שלא יהיה...
09:44
Then, for 18 months, we keep that data for research purposes only."
214
584587
3643
"אז למשך שנה וחצי אנו שומרים את המידע הזה ל'מטרות מחקר' בלבד."
09:48
I said, "Now you're talking!"
215
588254
1936
אמרתי, "אלו דיבורים!"
09:50
This was Eric Horvitz, my friend at Microsoft.
216
590214
2198
זה היה אריק הורוביץ, החבר שלי במיקרוסופט.
09:52
So we did a study
217
592436
1695
אז עשינו מחקר
09:54
where we defined 50 words that a regular person might type in
218
594155
4619
בו הגדרנו 50 מילים שאדם רגיל עשוי להקליד
09:58
if they're having hyperglycemia,
219
598798
1602
אם יש לו היפרגליקמיה,
10:00
like "fatigue," "loss of appetite," "urinating a lot," "peeing a lot" --
220
600424
4762
כגון "תשישות", "חוסר תיאבון", "נותן הרבה שתן", "משתין הרבה" --
10:05
forgive me, but that's one of the things you might type in.
221
605210
2767
סלחו לי, אבל זה אחד הדברים שהוא עשוי להקליד.
אז יש לנו 50 ביטויים שכינינו: "מילות הסכרת."
10:08
So we had 50 phrases that we called the "diabetes words."
222
608001
2790
10:10
And we did first a baseline.
223
610815
2063
וקודם יצרנו בסיס.
10:12
And it turns out that about .5 to one percent
224
612902
2704
ומסתבר שבערך חצי אחוז עד אחוז אחד
10:15
of all searches on the Internet involve one of those words.
225
615630
2982
מכל החיפושים באינטרנט מכיל את אחת מהמילים הללו.
10:18
So that's our baseline rate.
226
618636
1742
זאת הרמה הבסיסית שלנו.
10:20
If people type in "paroxetine" or "Paxil" -- those are synonyms --
227
620402
4143
אם אנשים מקלידים "פרוקסטין" או "פקסיל" -- אלה מילים נרדפות --
10:24
and one of those words,
228
624569
1215
ואת אחת המילים הללו,
10:25
the rate goes up to about two percent of diabetes-type words,
229
625808
4890
אז תדירות הופעת מילות הסכרת עולה מעל שני אחוזים,
10:30
if you already know that there's that "paroxetine" word.
230
630722
3044
אם יודעים שהמילה "פרוקסטין" כבר קיימת.
10:34
If it's "pravastatin," the rate goes up to about three percent from the baseline.
231
634191
4547
אם זה "פרבסטטין", התדירות עולה לכ-3% מרמת הבסיס.
10:39
If both "paroxetine" and "pravastatin" are present in the query,
232
639171
4390
אם "פרוקסטין" ו"פרבסטטין" מופיעות שתיהן בשאילתא,
10:43
it goes up to 10 percent,
233
643585
1669
זה עולה עד ל-10 אחוזים,
10:45
a huge three- to four-fold increase
234
645278
3461
עליה ענקית של פי שלוש או ארבע
10:48
in those searches with the two drugs that we were interested in,
235
648763
3389
בחיפושים הללו עם שתי התרופות שמעניינות אותנו,
10:52
and diabetes-type words or hyperglycemia-type words.
236
652176
3566
ומילות הסכרת או מילות היפרגליקמיה.
10:56
We published this,
237
656216
1265
פרסמנו את זה,
10:57
and it got some attention.
238
657505
1466
וזה זכה לקצת תשומת לב.
10:58
The reason it deserves attention
239
658995
1778
הסיבה שזה ראוי לתשומת לב
11:00
is that patients are telling us their side effects indirectly
240
660797
4312
היא שכך המטופלים מספרים לנו בעקיפין על תופעות הלוואי שלהם
11:05
through their searches.
241
665133
1156
דרך החיפושים שלהם.
11:06
We brought this to the attention of the FDA.
242
666313
2138
הסבנו לכך את תשומת הלב של מינהל המזון והתרופות.
11:08
They were interested.
243
668475
1269
זה סיקרן אותם.
11:09
They have set up social media surveillance programs
244
669768
3606
הם התקינו תוכניות מעקב אחרי רשתות חברתיות
11:13
to collaborate with Microsoft,
245
673398
1751
בשיתוף פעולה עם מיקרוסופט,
11:15
which had a nice infrastructure for doing this, and others,
246
675173
2794
שיש לה תשתית יפה לשם כך, ועם אחרים,
11:17
to look at Twitter feeds,
247
677991
1282
לבחון ציוצים בטוויטר,
11:19
to look at Facebook feeds,
248
679297
1716
לבחון פרסומים בפייסבוק,
11:21
to look at search logs,
249
681037
1311
לבחון רישומים ממנועי חיפוש,
11:22
to try to see early signs that drugs, either individually or together,
250
682372
4909
כדי לנסות ולאתר סימנים מוקדמים לכך שתרופות, בנפרד או ביחד,
11:27
are causing problems.
251
687305
1589
יוצרות בעיות.
11:28
What do I take from this? Why tell this story?
252
688918
2174
מה הלקח שלי בכל זה? למה לספר את הסיפור?
ובכן, קודם כל,
11:31
Well, first of all,
253
691116
1207
11:32
we have now the promise of big data and medium-sized data
254
692347
4037
יש לנו כעת את ההבטחה הגלומה בנתונים רבים ובינוניים
11:36
to help us understand drug interactions
255
696408
2918
שיאפשרו לנו להבין אינטראקציות בין תרופות
11:39
and really, fundamentally, drug actions.
256
699350
2420
ובעצם, באופן בסיסי, פעילות של תרופות.
11:41
How do drugs work?
257
701794
1413
איך עובדות תרופות?
11:43
This will create and has created a new ecosystem
258
703231
2836
זה ייצור, וכבר יצר, מערכת אקולוגית חדשה
11:46
for understanding how drugs work and to optimize their use.
259
706091
3267
בשביל להבין איך תרופות עובדות ולמטב את השימוש בהן.
11:50
Nick went on; he's a professor at Columbia now.
260
710303
2659
ניק התקדם הלאה; עכשיו הוא פרופסור באוניברסיטת קולומביה.
11:52
He did this in his PhD for hundreds of pairs of drugs.
261
712986
4072
הוא עשה את זה בדוקטורט שלו עם מאות זוגות של תרופות.
11:57
He found several very important interactions,
262
717082
2517
הוא מצא כמה אינטראקציות מאד חשובות,
11:59
and so we replicated this
263
719623
1214
וכך שיכפלנו את זה
12:00
and we showed that this is a way that really works
264
720861
2574
והראינו שזו דרך שבאמת פועלת
12:03
for finding drug-drug interactions.
265
723459
2339
ומצליחה לאתר אינטראקציות בין-תרופתיות.
12:06
However, there's a couple of things.
266
726282
1734
אבל יש כמה דברים.
12:08
We don't just use pairs of drugs at a time.
267
728040
3046
אנחנו לא לוקחים בבת אחת רק זוגות של תרופות.
12:11
As I said before, there are patients on three, five, seven, nine drugs.
268
731110
4469
כפי שאמרתי קודם, ישנם מטופלים שלוקחים שלוש, חמש, שבע, תשע תרופות.
12:15
Have they been studied with respect to their nine-way interaction?
269
735981
3642
האם הן באמת נחקרו בהקשר לאינטראקציה התשע-כיוונית שלהן?
12:19
Yes, we can do pair-wise, A and B, A and C, A and D,
270
739647
4208
נכון, אנחנו יכולים לבחון זוגות: א ו-ב, א ו-ג, א ו-ד,
12:23
but what about A, B, C, D, E, F, G all together,
271
743879
4286
אבל מה עם א, ב, ג, ד, ה, ו, ו-ז כולם ביחד,
12:28
being taken by the same patient,
272
748189
1762
בהילקחן על ידי אותו המטופל,
12:29
perhaps interacting with each other
273
749975
2118
שאולי יוצרות אינטראקציה ביניהן
12:32
in ways that either makes them more effective or less effective
274
752117
3778
בדרכים שמגבירות או מקטינות את יעילותן,
12:35
or causes side effects that are unexpected?
275
755919
2332
או גורמות לתופעות לוואי בלתי צפויות?
12:38
We really have no idea.
276
758275
1827
באמת שאין לנו מושג.
12:40
It's a blue sky, open field for us to use data
277
760126
3756
זהו אופק פתוח, תחום לא-ידוע עבורנו באשר לשימוש בנתונים
12:43
to try to understand the interaction of drugs.
278
763906
2502
כדי לנסות ולהבין אינטראקציות בין תרופות.
12:46
Two more lessons:
279
766848
1370
שני לקחים נוספים:
12:48
I want you to think about the power that we were able to generate
280
768242
4199
אני רוצה שתחשבו על הכוח שהצלחנו ליצור
12:52
with the data from people who had volunteered their adverse reactions
281
772465
4711
עם הנתונים מאנשים שנידבו את התופעות השליליות שלהם
12:57
through their pharmacists, through themselves, through their doctors,
282
777200
3269
דרך הרוקחים שלהם, בעצמם, דרך הרופאים שלהם,
13:00
the people who allowed the databases at Stanford, Harvard, Vanderbilt,
283
780493
3667
האנשים שאיפשרו למאגרי המידע בסטאנפורד, הרוורד, וונדרבילט,
13:04
to be used for research.
284
784184
1427
להיות מנוצלים לצרכי מחקר.
13:05
People are worried about data.
285
785929
1445
אנשים מודאגים בקשר למידע.
13:07
They're worried about their privacy and security -- they should be.
286
787398
3187
הם דואגים לפרטיות ולבטחון שלהם-- ובצדק.
אנחנו צריכים מערכות מאובטחות.
13:10
We need secure systems.
287
790609
1151
13:11
But we can't have a system that closes that data off,
288
791784
3406
אבל אנחנו לא יכולים שתהיה מערכת שחוסמת את הנתונים,
13:15
because it is too rich of a source
289
795214
2752
כי זה מקור יותר מדי עשיר
13:17
of inspiration, innovation and discovery
290
797990
3971
של השראה, חדשנות וגילוי
13:21
for new things in medicine.
291
801985
1578
עבור דברים חדשים ברפואה.
13:24
And the final thing I want to say is,
292
804494
1794
והדבר האחרון שאני רוצה לומר הוא,
13:26
in this case we found two drugs and it was a little bit of a sad story.
293
806312
3357
במקרה הזה מצאנו שתי תרופות וזה היה סיפור קצת עצוב.
13:29
The two drugs actually caused problems.
294
809693
1921
שתי התרופות באמת יצרו בעיות.
13:31
They increased glucose.
295
811638
1475
הם הגבירו רמות גלוקוז.
13:33
They could throw somebody into diabetes
296
813137
2446
הם יכלו לגרום למישהו סכרת
13:35
who would otherwise not be in diabetes,
297
815607
2294
שבנסיבות אחרות לא היתה לו,
13:37
and so you would want to use the two drugs very carefully together,
298
817925
3175
כך שכדאי להשתמש בשתי התרופות האלה מאד בזהירות ביחד,
אולי לא לקחת אותן יחד,
13:41
perhaps not together,
299
821124
1151
13:42
make different choices when you're prescribing.
300
822299
2340
אולי לרשום תרופות אחרות.
13:44
But there was another possibility.
301
824663
1846
אבל היתה אפשרות אחרת.
13:46
We could have found two drugs or three drugs
302
826533
2344
יכולנו למצוא שתיים או שלוש תרופות
13:48
that were interacting in a beneficial way.
303
828901
2261
שפועלות באינטראקציה ויוצרות אפקט חיובי.
13:51
We could have found new effects of drugs
304
831616
2712
היינו יכולים לגלות אפקטים חדשים של תרופות
13:54
that neither of them has alone,
305
834352
2160
שלא קיימים לאף אחת מהן בנפרד,
13:56
but together, instead of causing a side effect,
306
836536
2493
אך ביחד, במקום לגרום לתופעות לוואי,
13:59
they could be a new and novel treatment
307
839053
2425
הן יכולות להוות טיפול חדש וחדשני
14:01
for diseases that don't have treatments
308
841502
1882
למחלות להן אין לנו טיפול או שהטיפול בהן איננו יעיל.
14:03
or where the treatments are not effective.
309
843408
2007
אם ניקח טיפול תרופתי כיום, את כל פריצות הדרך החשובות --
14:05
If we think about drug treatment today,
310
845439
2395
14:07
all the major breakthroughs --
311
847858
1752
14:09
for HIV, for tuberculosis, for depression, for diabetes --
312
849634
4297
לאיידס, לשחפת, לדיכאון, לסכרת --
14:13
it's always a cocktail of drugs.
313
853955
2830
זה תמיד קוקטייל של תרופות.
14:16
And so the upside here,
314
856809
1730
כך שהצד החיובי כאן,
14:18
and the subject for a different TED Talk on a different day,
315
858563
2849
והנושא להרצאת TED אחרת, ביום אחר,
14:21
is how can we use the same data sources
316
861436
2593
הוא איך אנחנו יכולים להשתמש באותם מקורות המידע
14:24
to find good effects of drugs in combination
317
864053
3563
כדי למצוא אפקטים חיוביים של שילובי תרופות
14:27
that will provide us new treatments,
318
867640
2175
שייצרו לנו טיפולים חדשים,
14:29
new insights into how drugs work
319
869839
1852
תובנות חדשות באשר לדרכי הפעולה של תרופות,
14:31
and enable us to take care of our patients even better?
320
871715
3786
ויאפשרו לנו לטפל בחולים שלנו אפילו יותר טוב?
14:35
Thank you very much.
321
875525
1166
תודה רבה.
14:36
(Applause)
322
876715
3499
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7