Thomas Goetz: It's time to redesign medical data

57,348 views ・ 2011-01-27

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Ariel Kirson מבקר: Ido Dekkers
00:15
I'm going to be talking to you
0
15330
2000
אני עומד לדבר איתכם
00:17
about how we can tap
1
17330
2000
על דרך שבה נוכל לנצל
00:19
a really underutilized resource in health care,
2
19330
2000
משאב מאד לא מנוצל בתחום שירותי הבריאות,
00:21
which is the patient,
3
21330
2000
וזהו המטופל,
00:23
or, as I like to use the scientific term,
4
23330
3000
או - כמו שזה נקרא במונחים מדעיים -
00:26
people.
5
26330
2000
אנשים.
00:28
Because we are all patients, we are all people.
6
28330
2000
בגלל שכולנו מטופלים, כולנו אנשים.
00:30
Even doctors are patients at some point.
7
30330
2000
אפילו רופאים הם מטופלים לפעמים.
00:32
So I want to talk about that
8
32330
2000
אז אני רוצה לדבר על כך
00:34
as an opportunity
9
34330
2000
כהזדמנות
00:36
that we really have failed to engage with very well in this country
10
36330
3000
שבמדינה זו לא נרתמנו אליה בצורה טובה במיוחד,
00:39
and, in fact, worldwide.
11
39330
2000
ולמעשה, בשאר העולם המצב דומה.
00:41
If you want to get at the big part --
12
41330
2000
אם תרצו לגשת ללב העניין -
00:43
I mean from a public health level, where my training is --
13
43330
3000
כלומר מבחינת בריאות הציבור, שזהו תחום ההתמחות שלי -
00:46
you're looking at behavioral issues.
14
46330
2000
תראו מאפיינים התנהגותיים,
00:48
You're looking at things where people are actually given information,
15
48330
3000
תראו מצבים בהם אנשים ממש מקבלים מידע,
00:51
and they're not following through with it.
16
51330
2000
ואינם עושים איתו דבר.
00:53
It's a problem that manifests itself in diabetes,
17
53330
4000
זוהי בעיה שמתבטאת בסכרת,
00:57
obesity, many forms of heart disease,
18
57330
2000
בהשמנת יתר, במחלות לב מסוגים שונים,
00:59
even some forms of cancer -- when you think of smoking.
19
59330
3000
אפילו בסוגי סרטן מסויימים - כשמדובר בעישון.
01:02
Those are all behaviors where people know what they're supposed to do.
20
62330
3000
אלה כולן התנהגויות שבהן אנשים יודעים מה הם צריכים לעשות.
01:05
They know what they're supposed to be doing,
21
65330
2000
הם יודעים מה הם צריכים לעשות,
01:07
but they're not doing it.
22
67330
2000
אבל הם לא עושים את זה.
01:09
Now behavior change is something
23
69330
2000
עכשיו, שינוי התנהגותי הוא משהו
01:11
that is a long-standing problem in medicine.
24
71330
2000
שמנסים לפתור כבר הרבה זמן בתחום הרפואה.
01:13
It goes all the way back to Aristotle.
25
73330
2000
מאז ימי אריסטו.
01:15
And doctors hate it, right?
26
75330
2000
ורופאים שונאים את זה, נכון.
01:17
I mean, they complain about it all the time.
27
77330
2000
כלומר, הם מתלוננים על זה כל הזמן.
01:19
We talk about it in terms of engagement, or non-compliance.
28
79330
3000
אנחנו מדברים על זה במושגים של חוסר הירתמות, או של אי-ציות,
01:22
When people don't take their pills,
29
82330
2000
כשאנשים אינם נוטלים את הכדורים שלהם,
01:24
when people don't follow doctors' orders --
30
84330
2000
או כשהם אינם עושים כמצוות רופאיהם.
01:26
these are behavior problems.
31
86330
2000
אלה בעיות התנהגותיות.
01:28
But for as much as clinical medicine
32
88330
2000
אבל למרות שהעוסקים ברפואה קלינית
01:30
agonizes over behavior change,
33
90330
2000
מתייסרים משינויים התנהגותיים,
01:32
there's not a lot of work done
34
92330
2000
לא נעשה מאמץ רב
01:34
in terms of trying to fix that problem.
35
94330
3000
לנסות לתקן את הבעיה הזו.
01:37
So the crux of it
36
97330
2000
אז במהות העניין נמצא
01:39
comes down to this notion of decision-making --
37
99330
2000
הרעיון הזה של של קבלת החלטות -
01:41
giving information to people in a form
38
101330
2000
לתת לאנשים מידע בצורה
01:43
that doesn't just educate them
39
103330
2000
שלא רק מחכימה אותם
01:45
or inform them,
40
105330
2000
או מיידעת אותם,
01:47
but actually leads them to make better decisions,
41
107330
2000
אלא שמאפשרת להם לקבל החלטות טובות יותר,
01:49
better choices in their lives.
42
109330
2000
החלטות טובות יותר לגבי חייהם.
01:51
One part of medicine, though,
43
111330
2000
ישנו תחום אחד ברפואה
01:53
has faced the problem of behavior change pretty well,
44
113330
4000
בו מתמודדים לא רע עם בעית השינוי ההתנהגותי,
01:57
and that's dentistry.
45
117330
2000
וזהו תחום רפואת השיניים.
01:59
Dentistry might seem -- and I think it is --
46
119330
2000
רפואת השיניים נחשבת - ואני חושב שהיא -
02:01
many dentists would have to acknowledge
47
121330
2000
הרבה רופאי שיניים יאלצו להסכים
02:03
it's somewhat of a mundane backwater of medicine.
48
123330
2000
שרפואת השיניים היא קצת בחלק הצדדי והשגרתי של הרפואה.
02:05
Not a lot of cool, sexy stuff happening in dentistry.
49
125330
3000
לא קורים הרבה דברים מגניבים וסקסיים בתחום רפואת השיניים.
02:08
But they have really taken this problem of behavior change
50
128330
3000
אבל הם התמקדו בבעיה הזאת של שינוי התנהגותי
02:11
and solved it.
51
131330
2000
ופתרו אותה.
02:13
It's the one great preventive health success
52
133330
2000
זוהי ההצלחה היחידה בתחום הרפואה המונעת
02:15
we have in our health care system.
53
135330
2000
שיש בכל מערכת הבריאות שלנו.
02:17
People brush and floss their teeth.
54
137330
2000
אנשים מצחצחים שיניים ומשתמשים בחוט דנטאלי.
02:19
They don't do it as much as they should, but they do it.
55
139330
3000
הם לא עושים את זה מספיק, אבל הם עושים את זה.
02:22
So I'm going to talk about one experiment
56
142330
2000
אז אני אדבר על ניסוי אחד
02:24
that a few dentists in Connecticut
57
144330
2000
שמספר רופאי שיניים בקונטיקט
02:26
cooked up about 30 years ago.
58
146330
2000
יזמו לפני כ-30 שנה.
02:28
So this is an old experiment, but it's a really good one,
59
148330
2000
אז זהו ניסוי ישן, אבל הוא מצויין,
02:30
because it was very simple,
60
150330
2000
כי הוא היה מאד פשוט,
02:32
so it's an easy story to tell.
61
152330
2000
אז קל מאד לספר עליו.
02:34
So these Connecticut dentists decided
62
154330
2000
אז רופאי השיניים האלה מקונטיקט החליטו
02:36
that they wanted to get people to brush their teeth and floss their teeth more often,
63
156330
3000
שהם רצו שאנשים יצחצחו שיניים וישתמשו בחוט דנטאלי יותר.
02:39
and they were going to use one variable:
64
159330
2000
והם החליטו להשתמש במשתנה אחד:
02:41
they wanted to scare them.
65
161330
2000
הם רצו להפחיד אנשים.
02:43
They wanted to tell them how bad it would be
66
163330
3000
הם רצו לספר להם כמה זה יהיה רע
02:46
if they didn't brush and floss their teeth.
67
166330
2000
אם הם לא יצחצחו שיניים וישתמשו בחוט דנטאלי.
02:48
They had a big patient population.
68
168330
3000
הייתה להם אוכלוסיית חולים גדולה.
02:51
They divided them up into two groups.
69
171330
2000
הם חילקו אותם לשתי קבוצות.
02:53
They had a low-fear population,
70
173330
2000
הייתה אוכלוסיה אחת שהפחידו מעט,
02:55
where they basically gave them a 13-minute presentation,
71
175330
2000
שלמעשה הם הראו להם מצגת של 13 דקות,
02:57
all based in science,
72
177330
2000
שכולה מבוססת על עובדות מדעיות,
02:59
but told them that, if you didn't brush and floss your teeth,
73
179330
3000
אבל המסר שלה היה, שאם לא תצחצחו שיניים ותשתמשו בחוט דנטאלי,
03:02
you could get gum disease. If you get gum disease, you will lose your teeth,
74
182330
3000
אתם עלולים לחלות במחלות חניכיים. ושאם זה יקרה, תאבדו את השיניים.
03:05
but you'll get dentures, and it won't be that bad.
75
185330
2000
אבל תקבלו תותבות, וזה לא יהיה נורא כל-כך.
03:07
So that was the low-fear group.
76
187330
2000
אז זו הייתה הקבוצה שהפחידו אותה מעט.
03:09
The high-fear group, they laid it on really thick.
77
189330
3000
לקבוצה שהפחידו מאד, הם ממש הגזימו.
03:12
They showed bloody gums.
78
192330
2000
הם הראו חניכיים מדממים,
03:14
They showed puss oozing out from between their teeth.
79
194330
3000
הם הראו מוגלה נשפכת מבין השיניים שלהם,
03:17
They told them that their teeth were going to fall out.
80
197330
2000
הם אמרו להם שהשיניים שלהם עומדות לנשור,
03:19
They said that they could have infections
81
199330
2000
הם אמרו שעלול להיות להם זיהום
03:21
that would spread from their jaws to other parts of their bodies,
82
201330
3000
שיתפשט מהלסתות שלהם לחלקי גוף אחרים,
03:24
and ultimately, yes, they would lose their teeth.
83
204330
2000
ושבסוף, כן, השיניים שלהם תנשורנה.
03:26
They would get dentures, and if you got dentures,
84
206330
2000
הם יקבלו תותבות, ואם הם יקבלו תותבות,
03:28
you weren't going to be able to eat corn-on-the-cob,
85
208330
2000
הם לא יוכלו לאכול קלחי תירס,
03:30
you weren't going to be able to eat apples,
86
210330
2000
הם לא יוכלו לאכול תפוחים,
03:32
you weren't going to be able to eat steak.
87
212330
2000
הם לא יוכלו לאכול סטייקים;
03:34
You'll eat mush for the rest of your life.
88
214330
2000
והם ייאלצו לאכול עיסה עד סוף ימיהם.
03:36
So go brush and floss your teeth.
89
216330
3000
אז תצחצחו שיניים.
03:39
That was the message. That was the experiment.
90
219330
2000
זה היה המסר; זה היה הניסוי.
03:41
Now they measured one other variable.
91
221330
2000
אחרי זה הם מדדו עוד משתנה אחד.
03:43
They wanted to capture one other variable,
92
223330
2000
הם רצו לבחון משתנה נוסף,
03:45
which was the patients' sense of efficacy.
93
225330
3000
והוא תחושת החולים לגבי יכולתם.
03:48
This was the notion of whether the patients felt
94
228330
2000
הכוונה לשאלה אם החולים הרגישו
03:50
that they actually would go ahead and brush and floss their teeth.
95
230330
3000
שהם אכן ירתמו למשימת הצחצוח והשימוש בחוט דנטאלי.
03:53
So they asked them at the beginning,
96
233330
2000
אז הם שאלו אותם בהתחלה,
03:55
"Do you think you'll actually be able to stick with this program?"
97
235330
2000
"האם אתם חושבים שבאמת תצליחו לדבוק בתכנית הזאת?"
03:57
And the people who said, "Yeah, yeah. I'm pretty good about that,"
98
237330
2000
ואנשים שאמרו, "כן, כן. אני די מתמיד בדברים כאלו,"
03:59
they were characterized as high efficacy,
99
239330
2000
אופיינו כבעלי יכולת גבוהה,
04:01
and the people who said,
100
241330
2000
ואנשים שאמרו,
04:03
"Eh, I never get around to brushing and flossing as much as I should,"
101
243330
2000
"אה, אני אף פעם לא מצחצח ומשתמש בחוט דנטאלי כמו שאני אמור,"
04:05
they were characterized as low efficacy.
102
245330
2000
אופיינו כבעלי יכולת נמוכה.
04:07
So the upshot was this.
103
247330
3000
אז המסקנה הייתה כדלהלן.
04:10
The upshot of this experiment
104
250330
2000
המסקנה מהניסוי הייתה
04:12
was that fear was not really a primary driver
105
252330
3000
שהפחד לא היה ממש מניע מרכזי
04:15
of the behavior at all.
106
255330
2000
להתנהגות בכלל.
04:17
The people who brushed and flossed their teeth
107
257330
2000
האנשים שצחצחו שיניים והשתמשו בחוט דנטאלי
04:19
were not necessarily the people
108
259330
2000
לא היו בהכרח האנשים
04:21
who were really scared about what would happen --
109
261330
2000
שמאד פחדו ממה שיקרה -
04:23
it's the people who simply felt that they had the capacity
110
263330
3000
אלא האנשים שפשוט הרגישו שיש ביכולתם
04:26
to change their behavior.
111
266330
2000
לשנות את התנהגותם.
04:28
So fear showed up as not really the driver.
112
268330
3000
אז הפחד לא יצא המניע האמיתי;
04:31
It was the sense of efficacy.
113
271330
3000
אלא תחושת היכולת.
04:34
So I want to isolate this,
114
274330
2000
אז אני רוצה לבודד את זה,
04:36
because it was a great observation --
115
276330
2000
כי זו הייתה תצפית מעולה -
04:38
30 years ago, right, 30 years ago --
116
278330
2000
לפני 30 שנה, נכון, לפני 30 שנה -
04:40
and it's one that's laid fallow in research.
117
280330
3000
והיא מושמטת ממחקרים.
04:43
It was a notion that really came out
118
283330
2000
זו הייתה תובנה שנחשפה במיוחד
04:45
of Albert Bandura's work,
119
285330
2000
בעבודתו של אלברט בנדורה,
04:47
who studied whether
120
287330
2000
שחקר האם
04:49
people could get a sense of empowerment.
121
289330
3000
אנשים יכולים לרכוש תחושת העצמה.
04:52
The notion of efficacy basically boils down to one -- that
122
292330
3000
רעיון היכולת הוא בבסיסו הרעיון
04:55
if somebody believes that they have the capacity to change their behavior.
123
295330
3000
שמישהו מאמין שיש לו את היכולת לשנות את התנהגותו.
04:58
In health care terms, you could characterize this
124
298330
3000
במושגי שירות רפואי, אפשר לתאר זאת במונחים של
05:01
as whether or not somebody feels
125
301330
2000
האם מישהו מרגיש
05:03
that they see a path towards better health,
126
303330
2000
שישנה דרך לשפר את בריאותו,
05:05
that they can actually see their way towards getting better health,
127
305330
2000
שהוא ממש יכול לראות את הדרך לבריאות טובה יותר.
05:07
and that's a very important notion.
128
307330
2000
וזהו רעיון מאד חשוב.
05:09
It's an amazing notion.
129
309330
2000
זהו רעיון מדהים.
05:11
We don't really know how to manipulate it, though, that well.
130
311330
3000
אבל אנחנו לא ממש יודעים איך לנצל אותו כל-כך טוב.
05:14
Except, maybe we do.
131
314330
3000
אלא שאולי כן.
05:17
So fear doesn't work, right? Fear doesn't work.
132
317330
2000
אז הפחדה לא עובדת, נכון, הפחדה לא עובדת.
05:19
And this is a great example
133
319330
2000
והנה דוגמה מצויינת
05:21
of how we haven't learned that lesson at all.
134
321330
3000
לכך שלא למדנו את הלקח הזה בכלל.
05:24
This is a campaign from the American Diabetes Association.
135
324330
3000
זהו מסע פרסום מאיגוד הסוכרת האמריקאי.
05:27
This is still the way we're communicating messages about health.
136
327330
3000
זוהי עדיין הדרך שבה אנו מתקשרים בנושאי בריאות.
05:30
I mean, I showed my three-year-old this slide last night,
137
330330
3000
כלומר, אני הראיתי את השקף הזה לבן שלי בן השלוש אתמול בלילה,
05:33
and he's like, "Papa, why is an ambulance in these people's homes?"
138
333330
4000
והוא אמר, "אבא, למה יש אמבולנס בבתים של האנשים האלה?"
05:37
And I had to explain, "They're trying to scare people."
139
337330
3000
ונאלצתי להסביר, "הם מנסים להפחיד אנשים."
05:40
And I don't know if it works.
140
340330
2000
ואני לא יודע אם זה עובד.
05:42
Now here's what does work:
141
342330
2000
עכשיו הנה משהו שכן עובד,
05:44
personalized information works.
142
344330
2000
מידע מותאם אישית עובד.
05:46
Again, Bandura recognized this
143
346330
2000
שוב, בנדורה זיהה את זה
05:48
years ago, decades ago.
144
348330
2000
לפני שנים, לפני עשורים.
05:50
When you give people specific information
145
350330
2000
כשמספקים לאנשים מידע ספציפי
05:52
about their health, where they stand,
146
352330
2000
לגבי בריאותם, מה מצבם הנוכחי,
05:54
and where they want to get to, where they might get to,
147
354330
2000
ולאן הם רוצים להגיע, לאן אולי הם יגיעו,
05:56
that path, that notion of a path --
148
356330
2000
הדרך הזו, הרעיון שישנה דרך,
05:58
that tends to work for behavior change.
149
358330
2000
זה נוטה להביא לשינוי התנהגותי.
06:00
So let me just spool it out a little bit.
150
360330
2000
אז תנו לי לפרט את זה קצת.
06:02
So you start with personalized data, personalized information
151
362330
3000
מתחילים עם נתונים מותאמים אישית, מידע מותאם אישית,
06:05
that comes from an individual,
152
365330
2000
שמקורם באדם מסוים,
06:07
and then you need to connect it to their lives.
153
367330
3000
ומחברים אותם לחיים של אותו אדם.
06:10
You need to connect it to their lives,
154
370330
2000
צריך לחבר את המידע לחייו של אדם,
06:12
hopefully not in a fear-based way, but one that they understand.
155
372330
2000
רצוי שיהיה בדרך שאינה מבוססת פחד, אבל שהיא מובנת.
06:14
Okay, I know where I sit. I know where I'm situated.
156
374330
3000
טוב, אני יודע איפה אני עומד. אני יודע מה מצבי.
06:17
And that doesn't just work for me in terms of abstract numbers --
157
377330
3000
וזה עובד לא רק במושגים של מספרים מופשטים,
06:20
this overload of health information
158
380330
2000
העומס הזה של מידע רפואי
06:22
that we're inundated with.
159
382330
2000
שאנחנו מוצפים בו,
06:24
But it actually hits home.
160
384330
2000
אבל הוא באמת מגיע ליעדו.
06:26
It's not just hitting us in our heads; it's hitting us in our hearts.
161
386330
2000
הוא אינו מגיע רק לראשינו, הוא מגיע גם לליבנו.
06:28
There's an emotional connection to information
162
388330
2000
ישנו חיבור רגשי למידע
06:30
because it's from us.
163
390330
2000
מפני שמקורו ממנו.
06:32
That information then needs to be connected to choices,
164
392330
3000
אחר-כך המידע הזה צריך להיות מקושר לבחירות,
06:35
needs to be connected to a range of options,
165
395330
2000
הוא צריך להיות מקושר לקשת אפשרויות,
06:37
directions that we might go to --
166
397330
2000
כיוונים אליהם אנחנו עשויים ללכת -
06:39
trade-offs, benefits.
167
399330
2000
יתרונות וחסרונות.
06:41
Finally, we need to be presented with a clear point of action.
168
401330
3000
ולבסוף, צריכים להציג לנו כוון פעולה ברור.
06:44
We need to connect the information
169
404330
2000
אנחנו צריכים להתחבר למידע.
06:46
always with the action,
170
406330
2000
תמיד עם פעולה,
06:48
and then that action feeds back
171
408330
2000
ואז הפעולה הזאת מובילה
06:50
into different information,
172
410330
2000
למידע אחר,
06:52
and it creates, of course, a feedback loop.
173
412330
2000
והיא יוצרת, כמובן, לולאת היזון חוזר.
06:54
Now this is a very well-observed and well-established notion
174
414330
3000
זהו רעיון מאד מוכר ומאד מבוסס
06:57
for behavior change.
175
417330
2000
לשינוי התנהגותי.
06:59
But the problem is that things -- in the upper-right corner there --
176
419330
3000
אבל הבעיה היא שהדברים שם בפינה הימנית העליונה,
07:02
personalized data, it's been pretty hard to come by.
177
422330
2000
מידע מותאם אישית, קשה מאד למצוא.
07:04
It's a difficult and expensive commodity,
178
424330
3000
זהו מצרך יקר וקשה להשגה,
07:07
until now.
179
427330
2000
עד עכשיו.
07:09
So I'm going to give you an example, a very simple example of how this works.
180
429330
3000
אז אני אתן לכם דוגמה, דוגמה מאד פשוטה לצורה שזה עובד.
07:12
So we've all seen these. These are the "your speed limit" signs.
181
432330
3000
אז כולנו ראינו כאלו. אלו הם שלטי "המהירות המותרת שלך".
07:15
You've seen them all around,
182
435330
2000
ראיתם אותם בכל מקום,
07:17
especially these days as radars are cheaper.
183
437330
2000
במיוחד כיום כשמחירי המכמונות הם זולים.
07:19
And here's how they work in the feedback loop.
184
439330
2000
וכך הם עובדים בלולאת ההיזון החוזר.
07:21
So you start with the personalized data
185
441330
2000
אז מתחילים במידע מותאם אישית
07:23
where the speed limit on the road that you are at that point
186
443330
2000
כאשר המהירות המותרת בכביש עליו אתה נוסע
07:25
is 25,
187
445330
2000
היא 25,
07:27
and, of course, you're going faster than that.
188
447330
2000
ואתה, כמובן, נוסע יותר מהר מזה.
07:29
We always are. We're always going above the speed limit.
189
449330
3000
ככה זה תמיד. אנחנו נוסעים מעל המהירות המותרת.
07:32
The choice in this case is pretty simple.
190
452330
2000
הבחירה במקרה זה היא פשוטה למדי.
07:34
We either keep going fast, or we slow down.
191
454330
2000
או שאנחנו ממשיכים ליסוע מהר, או שאנחנו מאטים.
07:36
We should probably slow down,
192
456330
2000
עדיף כנראה שנאט,
07:38
and that point of action is probably now.
193
458330
2000
וכנראה שעכשיו הוא הרגע להחליט כיצד לפעול.
07:40
We should take our foot off the pedal right now,
194
460330
3000
אנחנו צריכים להוריד את הרגל מהדוושה מיד.
07:43
and generally we do. These things are shown to be pretty effective
195
463330
3000
ובדרך כלל זה מה שאנחנו עושים; הוכח שהדברים האלו די יעילים
07:46
in terms of getting people to slow down.
196
466330
2000
במושגים של האטת מהירות הנסיעה.
07:48
They reduce speeds by about five to 10 percent.
197
468330
2000
הם מורידים מהירויות בכחמישה עד עשרה אחוזים.
07:50
They last for about five miles,
198
470330
2000
הם משפיעים למשך כחמישה מיילים,
07:52
in which case we put our foot back on the pedal.
199
472330
2000
ואז אנחנו מחזירים את הרגל לדוושה.
07:54
But it works, and it even has some health repercussions.
200
474330
2000
אבל זה עובד, ויש לזה אפילו השלכות בריאותיות,
07:56
Your blood pressure might drop a little bit.
201
476330
2000
לחץ הדם שלך עשוי לרדת קצת.
07:58
Maybe there's fewer accidents, so there's public health benefits.
202
478330
3000
אולי יש פחות תאונות דרכים, אז ישנה גם תועלת מבחינת בריאות הציבור.
08:01
But by and large, this is a feedback loop
203
481330
2000
אבל בסה"כ יש כאן לולאת היזון חוזר
08:03
that's so nifty and too rare.
204
483330
3000
זה מגניב מאד ונדיר מדי.
08:06
Because in health care, most health care,
205
486330
2000
מפני שבשירותי בריאות, רוב שירותי הבריאות,
08:08
the data is very removed from the action.
206
488330
3000
המידע מרוחק מאד מהפעולה.
08:11
It's very difficult to line things up so neatly.
207
491330
3000
קשה מאד לסדר דברים בצורה כל-כך יפה.
08:14
But we have an opportunity.
208
494330
2000
אבל יש לנו הזדמנות.
08:16
So I want to talk about, I want to shift now to think about
209
496330
2000
אז אני רוצה לדבר על, אני רוצה לשנות כיוון ולחשוב על
08:18
how we deliver health information in this country,
210
498330
2000
הדרך שבה אנחנו מעבירים מידע רפואי במדינה הזו,
08:20
how we actually get information.
211
500330
3000
איך בעצם אנחנו מקבלים מידע.
08:23
This is a pharmaceutical ad.
212
503330
3000
זוהי פרסומת לתרופה.
08:26
Actually, it's a spoof. It's not a real pharmaceutical ad.
213
506330
2000
למעשה, זו אינה פרסומת אמיתית.
08:28
Nobody's had the brilliant idea
214
508330
2000
לאף אחד לא היה עדיין את הרעיון המבריק
08:30
of calling their drug Havidol quite yet.
215
510330
3000
לקרוא לתרופה שלהם Havidol ("יש בו הכל").
08:34
But it looks completely right.
216
514330
2000
אבל היא נראית לגמרי בסדר.
08:36
So it's exactly the way we get
217
516330
2000
וזוהי בדיוק הדרך שבא אנחנו מקבלים
08:38
health information and pharmaceutical information,
218
518330
3000
מידע רפואי ומידע תרופתי,
08:41
and it just sounds perfect.
219
521330
2000
וזה נשמע פשוט מושלם.
08:43
And then we turn the page of the magazine,
220
523330
2000
ואז אנחנו מעבירים דף בירחון,
08:45
and we see this --
221
525330
3000
ואנחנו רואים את זה, נכון, את זה.
08:48
now this is the page the FDA requires pharmaceutical companies
222
528330
3000
זהו הדף שמנהל המזון והתרופות דורש מחברות התרופות
08:51
to put into their ads, or to follow their ads,
223
531330
3000
לצרף לפרסומות שלהן, או לפרסם מיד אחריהן.
08:54
and to me, this is one of the most cynical exercises in medicine.
224
534330
4000
ולטעמי, זהו אחד התרגילים הציניים ביותר בעולם הרפואה.
08:58
Because we know.
225
538330
2000
כי אנחנו יודעים
09:00
Who among us would actually say that people read this?
226
540330
2000
מי מאיתנו יאמר שאנשים באמת קוראים את זה?
09:02
And who among us would actually say
227
542330
2000
ומי מאיתנו באמת יאמר
09:04
that people who do try to read this
228
544330
2000
שאנשים שאכן קוראים את זה
09:06
actually get anything out of it?
229
546330
2000
באמת יקבלו מזה משהו?
09:08
This is a bankrupt effort
230
548330
2000
זהו ניסיון כושל
09:10
at communicating health information.
231
550330
3000
לתקשר מידע רפואי.
09:13
There is no good faith in this.
232
553330
2000
אין בזה כוונה טובה בכלל.
09:15
So this is a different approach.
233
555330
2000
אז לפניכם גישה אחרת.
09:17
This is an approach that has been developed
234
557330
3000
זוהי גישה שפותחה על ידי
09:20
by a couple researchers at Dartmouth Medical School,
235
560330
3000
שני חוקרים מבית הספר לרפואה בדרטמוט.
09:23
Lisa Schwartz and Steven Woloshin.
236
563330
2000
ליסה שוורץ וסטיבן וולושין.
09:25
And they created this thing called the "drug facts box."
237
565330
3000
הם יצרו משהו שקוראים לו תיבת העובדות לגבי תרופה.
09:28
They took inspiration from, of all things,
238
568330
2000
ומכל הדברים, הם קיבלו השראה
09:30
Cap'n Crunch.
239
570330
2000
מדגני הבוקר Cap'n Crunch.
09:32
They went to the nutritional information box
240
572330
3000
הם צפו בתיבת המידע התזונתי
09:35
and saw that what works for cereal, works for our food,
241
575330
3000
וראו שמה שעובד עבור דגני בוקר, עבור המזון שלנו,
09:38
actually helps people understand what's in their food.
242
578330
3000
באמת עוזר לאנשים להבין מה יש באוכל שלהם.
09:42
God forbid we should use that same standard
243
582330
2000
למה שלא ניקח, חס וחלילה, את אותו הסטנדרט
09:44
that we make Cap'n Crunch live by
244
584330
2000
שאנחנו דורשים מ-Cap'n Crunch
09:46
and bring it to drug companies.
245
586330
3000
ונביא אותו לחברות התרופות.
09:49
So let me just walk through this quickly.
246
589330
2000
אז תרשו לי להציג לכם את הרעיון בקצרה.
09:51
It says very clearly what the drug is for, specifically who it is good for,
247
591330
3000
רשום בצורה ברורה מאד מה מטרת התרופה, ובפרט למי היא מיועדת
09:54
so you can start to personalize your understanding
248
594330
2000
אז אפשר להתחיל להבין באופן אישי
09:56
of whether the information is relevant to you
249
596330
2000
אם המידע רלוונטי לך
09:58
or whether the drug is relevant to you.
250
598330
2000
ואם התרופה רלוונטית לך.
10:00
You can understand exactly what the benefits are.
251
600330
3000
אפשר להבין בדיוק מה התועלת.
10:03
It isn't this kind of vague promise that it's going to work no matter what,
252
603330
3000
זו אינה הבטחה סתמית שהתרופה תעזור בכל מקרה,
10:06
but you get the statistics for how effective it is.
253
606330
3000
אלא מקבלים את הסטטיסטיקה לגבי יעילותה.
10:09
And finally, you understand what those choices are.
254
609330
3000
ולבסוף, אתם מבינים מה הן האפשרויות העומדות בפניכם.
10:12
You can start to unpack the choices involved
255
612330
2000
אפשר להתחיל לפתוח את האפשרויות
10:14
because of the side effects.
256
614330
2000
בגלל תופעות הלוואי.
10:16
Every time you take a drug, you're walking into a possible side effect.
257
616330
3000
בכל פעם שלוקחים תרופה, יש אפשרות שתהיה תופעת לוואי.
10:19
So it spells those out in very clean terms,
258
619330
2000
אז זה רשום במושגים מאד ברורים.
10:21
and that works.
259
621330
2000
וזה עובד.
10:23
So I love this. I love that drug facts box.
260
623330
2000
אז אני מת על זה. אני מת על תיבת המידע התרופתי.
10:25
And so I was thinking about,
261
625330
2000
אז חשבתי,
10:27
what's an opportunity that I could have
262
627330
2000
איפה ישנה עוד הזדמנות
10:29
to help people understand information?
263
629330
3000
לעזור לאנשים להבין מידע?
10:32
What's another latent body of information that's out there
264
632330
4000
היכן ישנו עוד מאגר ידע חבוי
10:36
that people are really not putting to use?
265
636330
3000
שאף אחד לא משתמש בו.
10:39
And so I came up with this: lab test results.
266
639330
3000
אז עלה לי הרעיון הבא: תוצאות מעבדה.
10:42
Blood test results are this great source of information.
267
642330
3000
בדיקות דם הן מקור מידע מעולה.
10:45
They're packed with information.
268
645330
2000
הן מפוצצות במידע.
10:47
They're just not for us. They're not for people. They're not for patients.
269
647330
3000
הן פשוט לא עבורנו; הן לא עבור אנשים; הן לא עבור חולים.
10:50
They go right to doctors.
270
650330
2000
הן מגיעות ישר לרופאים.
10:52
And God forbid -- I think many doctors, if you really asked them,
271
652330
3000
והס מלהזכיר - אני חושב שהרבה רופאים, אם תשאלו אותם,
10:55
they don't really understand all this stuff either.
272
655330
3000
לא ממש מבינים את הדברים האלה.
10:58
This is the worst presented information.
273
658330
3000
זהו המידע שמוגש בצורה הגרועה ביותר.
11:01
You ask Tufte, and he would say,
274
661330
3000
אם הייתם שואלים את טאפטי (Tufte) הוא היה אומר,
11:04
"Yes, this is the absolute worst presentation of information possible."
275
664330
3000
"כן, זוהי הצורה הגרועה ביותר להציג מידע."
11:07
What we did at Wired
276
667330
2000
מה שעשינו ב-Wired
11:09
was we went, and I got our graphic design department
277
669330
2000
זה שפנינו למחלקת העיצוב הגרפי שלנו
11:11
to re-imagine these lab reports.
278
671330
2000
כדי שידמיינו מחדש את תוצאות המעבדה האלו.
11:13
So that's what I want to walk you through.
279
673330
2000
וזה מה שאני רוצה להציג לכם.
11:15
So this is the general blood work before,
280
675330
3000
אז הנה תוצאות בדיקות דם כלליות לפני,
11:18
and this is the after, this is what we came up with.
281
678330
2000
והנה מה שאנחנו עיצבנו.
11:20
The after takes what was four pages --
282
680330
2000
העיצוב שלנו לוקח את מה שהיה ארבעה עמודים -
11:22
that previous slide was actually
283
682330
2000
השקף הקודם היה למעשה
11:24
the first of four pages of data
284
684330
2000
העמוד הראשון מבין ארבעה עמודי מידע
11:26
that's just the general blood work.
285
686330
2000
ואלו הן רק התוצאות הכלליות.
11:28
It goes on and on and on, all these values, all these numbers you don't know.
286
688330
3000
זה ממשיך עוד ועוד, כל הערכים האלו, כל המספרים האלו שאתם לא מכירים.
11:31
This is our one-page summary.
287
691330
3000
והנה דף הסיכום שלנו.
11:34
We use the notion of color.
288
694330
2000
אנחנו משתמשים בצבע.
11:36
It's an amazing notion that color could be used.
289
696330
3000
זה רעיון מדהים שאפשר להשתמש בצבע.
11:39
So on the top-level you have your overall results,
290
699330
3000
אז בחלק העליון יש את התוצאות הכלליות שלכם,
11:42
the things that might jump out at you from the fine print.
291
702330
3000
הדברים שעשויים לעניין אתכם מתוך האותיות הקטנות.
11:45
Then you can drill down
292
705330
2000
ואז אפשר להכנס לפרטים
11:47
and understand how actually we put your level in context,
293
707330
3000
ולהבין את ההקשר של התוצאה המספרית,
11:50
and we use color to illustrate
294
710330
2000
ואנחנו משתמשים בצבע כדי להסביר
11:52
exactly where your value falls.
295
712330
2000
בדיוק איפה התוצאה שלכם נמצאת.
11:54
In this case, this patient is slightly at risk of diabetes
296
714330
3000
במקרה הזה, החולה בסיכון קל לסוכרת
11:57
because of their glucose level.
297
717330
2000
בשל רמת הגלוקוזה שלו.
11:59
Likewise, you can go over your lipids
298
719330
2000
באופן דומה, אפשר לעבור על הליפידים שלכם
12:01
and, again, understand what your overall cholesterol level is
299
721330
3000
ושוב, להבין את רמת הכולסטרול הכללית שלכם
12:04
and then break down into the HDL and the LDL if you so choose.
300
724330
3000
ואז לפרק אותה ל-HDL ול-LDL אם תבחרו לעשות כן.
12:07
But again, always using color
301
727330
2000
אבל שוב, תמיד תוך שימוש בצבע
12:09
and personalized proximity
302
729330
2000
וקירבה אישית
12:11
to that information.
303
731330
2000
למידע הזה.
12:13
All those other values,
304
733330
2000
כל הערכים האחרים האלה,
12:15
all those pages and pages of values that are full of nothing,
305
735330
2000
כל הדפים על גבי דפים של ערכים חסרי ערך,
12:17
we summarize.
306
737330
2000
אנחנו מסכמים.
12:19
We tell you that you're okay, you're normal.
307
739330
2000
אנחנו אומרים לכם שאתם בסדר, אתם נורמאליים.
12:21
But you don't have to wade through it. You don't have to go through the junk.
308
741330
3000
אבל אתם לא צריכים לדשדש בזה. אתם לא צריכים לעבור על כל הזבל.
12:24
And then we do two other very important things
309
744330
2000
ואז אנחנו עושים עוד שני דברים מאד חשובים
12:26
that kind of help fill in this feedback loop:
310
746330
2000
שעוזרים להשלים את נושא לולאת המשוב.
12:28
we help people understand in a little more detail
311
748330
2000
אנחנו עוזרים לאנשים להבין קצת יותר
12:30
what these values are and what they might indicate.
312
750330
3000
מהם הערכים האלו ומה הם עשויים להביע.
12:33
And then we go a further step -- we tell them what they can do.
313
753330
3000
ואז אנחנו מתקדמים צעד נוסף: אנחנו אומרים להם מה הם יכולים לעשות.
12:36
We give them some insight
314
756330
2000
אנחנו מספקים להם מעט תובנה
12:38
into what choices they can make, what actions they can take.
315
758330
3000
לגבי הבחירות העומדות בפניהם, הפעולות שהם יכולים לבצע.
12:41
So that's our general blood work test.
316
761330
3000
אז אלו תוצאות בדיקות הדם הכלליות שלנו.
12:44
Then we went to CRP test.
317
764330
2000
אחרי זה עברנו לבדיקת CRP (חלבון בדם).
12:46
In this case, it's a sin of omission.
318
766330
2000
הפעם מדובר בהשמטת מידע.
12:48
They have this huge amount of space,
319
768330
2000
יש להם את המרווח הגדול הזה,
12:50
and they don't use it for anything, so we do.
320
770330
2000
והם לא משתמשים בו, אז אנחנו כן.
12:52
Now the CRP test is often done
321
772330
2000
בדיקת ה-CRP מבוצעת לעיתים קרובות
12:54
following a cholesterol test,
322
774330
2000
בעקבות בדיקת כולסטרול,
12:56
or in conjunction with a cholesterol test.
323
776330
2000
או בשילוב עם בדיקת כולסטרול.
12:58
So we take the bold step
324
778330
2000
אז עשינו מעשה נועז
13:00
of putting the cholesterol information on the same page,
325
780330
3000
ושמנו את המידע לגבי הכולסטרול באותו העמוד,
13:03
which is the way the doctor is going to evaluate it.
326
783330
2000
שזו הדרך שבה הרופא יבחן אותו.
13:05
So we thought the patient might actually want to know the context as well.
327
785330
3000
אז חשבנו שאולי החולה הזה גם ירצה לדעת את ההקשר.
13:08
It's a protein that shows up
328
788330
2000
זהו חלבון שמופיע
13:10
when your blood vessels might be inflamed,
329
790330
2000
כשכלי הדם עלולים להיות מודלקים,
13:12
which might be a risk for heart disease.
330
792330
2000
שעלול להוות סיכון למחלת לב.
13:14
What you're actually measuring
331
794330
2000
מה שאתם מודדים למעשה
13:16
is spelled out in clean language.
332
796330
2000
מוצג בשפה ברורה.
13:18
Then we use the information
333
798330
2000
ואז אנחנו משתמשים במידע
13:20
that's already in the lab report.
334
800330
2000
שכבר נמצא בתוצאות המעבדה.
13:22
We use the person's age and their gender
335
802330
2000
אנחנו לוקחים את גיל החולה ואת מינו
13:24
to start to fill in the personalized risks.
336
804330
3000
כדי להתחיל להשלים את הסיכונים האישיים שלו.
13:27
So we start to use the data we have
337
807330
2000
אז אנחנו מתחילים להשתמש בנתונים שבידינו
13:29
to run a very simple calculation
338
809330
2000
כדי לבצע חישוב פשוט מאד
13:31
that's on all sorts of online calculators
339
811330
2000
שנמצא בכל מיני מחשבונים ברשת
13:33
to get a sense of what the actual risk is.
340
813330
3000
כדי לקבל תחושה לגבי הסיכון האמיתי.
13:36
The last one I'll show you is a PSA test.
341
816330
2000
הבדיקה האחרונה שאראה לכם היא בדיקת PSA (אנטיגנים בבלוטת הערמונית).
13:38
Here's the before, and here's the after.
342
818330
3000
הנה התוצאות לפני, והנה אחרי.
13:41
Now a lot of our effort on this one --
343
821330
2000
הרבה מהמאמץ שלנו במקרה זה -
13:43
as many of you probably know,
344
823330
2000
וכפי שרבים מכם יודעים כנראה,
13:45
a PSA test is a very controversial test.
345
825330
2000
בדיקת ה-PSA היא מאד שנויה במחלוקת.
13:47
It's used to test for prostate cancer,
346
827330
2000
היא משמשת לבדיקת סרטן הערמונית,
13:49
but there are all sorts of reasons
347
829330
2000
אבל ישנן כל מיני סיבות לכך
13:51
why your prostate might be enlarged.
348
831330
2000
שבלוטת הערמונית שלכם תהיה מוגדלת.
13:53
And so we spent a good deal of our time
349
833330
2000
אז בילינו הרבה מזמננו
13:55
indicating that.
350
835330
2000
בלציין זאת.
13:57
We again personalized the risks.
351
837330
2000
שוב התאמנו אישית את הסיכונים.
13:59
So this patient is in their 50s,
352
839330
2000
אז החולה הזה הוא בשנות ה-50 שלו,
14:01
so we can actually give them a very precise estimate
353
841330
2000
ואנחנו יכולים לספק לו הערכה מאד מדויקת
14:03
of what their risk for prostate cancer is.
354
843330
2000
של הסיכון שלו לחלות בסרטן הערמונית.
14:05
In this case it's about 25 percent, based on that.
355
845330
3000
במקרה הזה הסבירות היא של 25%, בהסתמך על כך.
14:08
And then again, the follow-up actions.
356
848330
3000
ושוב, הפעולות לביצוע.
14:11
So our cost for this was less than 10,000 dollars, all right.
357
851330
3000
אז העלות עבור הפעילות שלנו הייתה פחות מ-$10,000, בסדר.
14:14
That's what Wired magazine spent on this.
358
854330
3000
זה מה שירחון Wired הוציא על זה.
14:17
Why is Wired magazine doing this?
359
857330
2000
למה ירחון Wired עושה את זה?
14:19
(Laughter)
360
859330
3000
(צחוק)
14:22
Quest Diagnostics and LabCorp,
361
862330
2000
חברת Quest Diagnostics וחברת LabCorp,
14:24
the two largest lab testing companies --
362
864330
3000
שני מכוני הבדיקה הגדולים ביותר:
14:27
last year, they made profits of over 700 million dollars
363
867330
3000
בשנה שעברה הרוויחו למעלה מ-700 מיליון דולרים
14:30
and over 500 million dollars respectively.
364
870330
3000
ו-500 מיליון דולרים בהתאמה.
14:33
Now this is not a problem of resources;
365
873330
2000
אז זו אינה בעית משאבים,
14:35
this is a problem of incentives.
366
875330
3000
זוהי בעית תמריצים.
14:38
We need to recognize that the target of this information
367
878330
3000
עלינו להבין שמטרת המידע הזה
14:41
should not be the doctor, should not be the insurance company.
368
881330
3000
לא אמורה להיות הרופא ולא חברת הביטוח;
14:44
It should be the patient.
369
884330
2000
היא אמורה להיות החולה.
14:46
It's the person who actually, in the end,
370
886330
2000
זהו הבן אדם שלמעשה, בסופו של יום,
14:48
is going to be having to change their lives
371
888330
2000
יצטרך לשנות את חייו
14:50
and then start adopting new behaviors.
372
890330
2000
ולהתחיל לאמץ התנהגויות חדשות.
14:52
This is information that is incredibly powerful.
373
892330
2000
זהו מידע רב עוצמה.
14:54
It's an incredibly powerful catalyst to change.
374
894330
3000
הוא מהווה זרז חזק לשינוי.
14:57
But we're not using it. It's just sitting there.
375
897330
2000
אבל איננו משתמשים בו; הוא פשוט יושב שם.
14:59
It's being lost.
376
899330
2000
הוא הולך לאיבוד.
15:01
So I want to just offer four questions
377
901330
2000
אז אני מציע ארבע שאלות
15:03
that every patient should ask,
378
903330
2000
שלדעתי כל חולה צריך לשאול,
15:05
because I don't actually expect people
379
905330
2000
בגלל שאיני מצפה שאנשים באמת
15:07
to start developing these lab test reports.
380
907330
2000
יתחילו לפתח את דוחות המעבדה האלו.
15:09
But you can create your own feedback loop.
381
909330
2000
אבל אתם יכולים לייצר לעצמכם לולאת משוב אישית.
15:11
Anybody can create their feedback loop by asking these simple questions:
382
911330
3000
כל אחד יכול לייצר משוב אישי אם ישאל את השאלות הפשוטות הבאות:
15:14
Can I have my results?
383
914330
2000
אפשר לקבל את התוצאות שלי?
15:16
And the only acceptable answer is --
384
916330
2000
והתשובה היחידה המקובלת תהיה -
15:18
(Audience: Yes.) -- yes.
385
918330
2000
(קהל: כן.) - כן.
15:20
What does this mean? Help me understand what the data is.
386
920330
2000
מה זה אומר? עיזרו לי להבין את הנתונים.
15:22
What are my options? What choices are now on the table?
387
922330
3000
מה האפשרויות שלי? אלו בחירות מונחות לפני?
15:25
And then, what's next?
388
925330
2000
ולבסוף, מה קורה עכשיו?
15:27
How do I integrate this information
389
927330
2000
איך אני משלב את המידע הזה
15:29
into the longer course of my life?
390
929330
2000
באורח חיי לאורך זמן?
15:32
So I want to wind up by just showing
391
932330
2000
אז אני רוצה לסיים בכך שאראה
15:34
that people have the capacity to understand this information.
392
934330
2000
שאנשים יכולים להבין את המידע הזה.
15:36
This is not beyond the grasp of ordinary people.
393
936330
3000
אנשים רגילים יכולים לקלוט אותו.
15:39
You do not need to have the education level of people in this room.
394
939330
3000
אינכם צריכים את רמת ההשכלה של האנשים בחדר הזה.
15:42
Ordinary people are capable of understanding this information,
395
942330
3000
אנשים רגילים יכולים להבין את המידע הזה,
15:45
if we only go to the effort of presenting it to them
396
945330
3000
אם רק נתאמץ להציג להם אותו
15:48
in a form that they can engage with.
397
948330
2000
בצורה שהם יכולים להתחבר אליה.
15:50
And engagement is essential here,
398
950330
2000
וההתחברות היא הכרחית,
15:52
because it's not just giving them information;
399
952330
2000
כי איננו נותנים להם רק מידע,
15:54
it's giving them an opportunity to act.
400
954330
2000
אלא גם הזדמנות לפעול.
15:56
That's what engagement is. It's different from compliance.
401
956330
2000
זוהי מהות ההתחברות; היא שונה מציות.
15:58
It works totally different from the way we talk about behavior
402
958330
3000
היא פועלת בצורה שונה לגמרי מהצורה שאנו מדברים על התנהגות
16:01
in medicine today.
403
961330
2000
בתחום הרפואה היום.
16:03
And this information is out there.
404
963330
2000
והמידע הזה זמין.
16:05
I've been talking today about latent information,
405
965330
2000
אני דיברתי היום על מידע חבוי,
16:07
all this information that exists in the system
406
967330
2000
כל המידע הזה שקיים במערכת
16:09
that we're not putting to use.
407
969330
2000
ושאיננו משתמשים בו.
16:11
But there are all sorts of other bodies of information
408
971330
2000
אבל ישנם מקורות מידע מגוונים
16:13
that are coming online,
409
973330
2000
שעולים לרשת.
16:15
and we need to recognize the capacity of this information
410
975330
3000
ועלינו לזהות את היכולת של מידע זה
16:18
to engage people, to help people
411
978330
2000
לגרום לאנשים להתחבר, לעזור לאנשים
16:20
and to change the course of their lives.
412
980330
2000
לשנות את מהלך חייהם.
16:22
Thank you very much.
413
982330
2000
תודה רבה.
16:24
(Applause)
414
984330
3000
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7