Thomas Goetz: It's time to redesign medical data

57,314 views ・ 2011-01-27

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Rik Delaet Nagekeken door: Jeroen Trappers
00:15
I'm going to be talking to you
0
15330
2000
Ik zal het hebben over hoe we een beter gebruik
00:17
about how we can tap
1
17330
2000
kunnen maken van een echt onderbenut
00:19
a really underutilized resource in health care,
2
19330
2000
hulpmiddel in de gezondheidszorg
00:21
which is the patient,
3
21330
2000
namelijk de patiënt.
00:23
or, as I like to use the scientific term,
4
23330
3000
Of beter (ik heb liever de wetenschappelijke term):
00:26
people.
5
26330
2000
mensen.
00:28
Because we are all patients, we are all people.
6
28330
2000
Omdat we allemaal patiënten zijn. We zijn allemaal mensen.
00:30
Even doctors are patients at some point.
7
30330
2000
Zelfs artsen zijn soms patiënten.
00:32
So I want to talk about that
8
32330
2000
Ik beschouw deze toestand
00:34
as an opportunity
9
34330
2000
als een gemiste kans
00:36
that we really have failed to engage with very well in this country
10
36330
3000
in dit land.
00:39
and, in fact, worldwide.
11
39330
2000
In feite in de hele wereld.
00:41
If you want to get at the big part --
12
41330
2000
Als je wil kijken naar het grotere plaatje,
00:43
I mean from a public health level, where my training is --
13
43330
3000
(En dat bedoel ik in relatie tot de openbare gezondheidszorg, waar ik vandaan kom)
00:46
you're looking at behavioral issues.
14
46330
2000
gaat het over gedrag.
00:48
You're looking at things where people are actually given information,
15
48330
3000
Het gaat over mensen die concrete informatie krijgen
00:51
and they're not following through with it.
16
51330
2000
en er niets doen mee.
00:53
It's a problem that manifests itself in diabetes,
17
53330
4000
Dit probleem heeft betrekking op diabetes,
00:57
obesity, many forms of heart disease,
18
57330
2000
zwaarlijvigheid, verschillende hart- en vaatziekten,
00:59
even some forms of cancer -- when you think of smoking.
19
59330
3000
zelfs bepaalde vormen van kanker - denk maar aan roken.
01:02
Those are all behaviors where people know what they're supposed to do.
20
62330
3000
Dit is allemaal gedrag van mensen die weten wat ze zouden moeten doen.
01:05
They know what they're supposed to be doing,
21
65330
2000
Je weet wat je moet doen.
01:07
but they're not doing it.
22
67330
2000
Maar je doet het niet.
01:09
Now behavior change is something
23
69330
2000
Nu is een gedragsverandering
01:11
that is a long-standing problem in medicine.
24
71330
2000
een veelvoorkomend probleem in de geneeskunde.
01:13
It goes all the way back to Aristotle.
25
73330
2000
Het gaat terug tot Aristoteles.
01:15
And doctors hate it, right?
26
75330
2000
En ja, artsen haten dat.
01:17
I mean, they complain about it all the time.
27
77330
2000
Ze klagen er constant over.
01:19
We talk about it in terms of engagement, or non-compliance.
28
79330
3000
We spreken van niet-coöperatief gedrag of niet-naleving,
01:22
When people don't take their pills,
29
82330
2000
als mensen hun medicatie niet nemen,
01:24
when people don't follow doctors' orders --
30
84330
2000
of als ze zich niet aan de instructies van hun arts houden.
01:26
these are behavior problems.
31
86330
2000
Dit zijn gedragsproblemen.
01:28
But for as much as clinical medicine
32
88330
2000
Maar hoewel de klinische geneeskunde
01:30
agonizes over behavior change,
33
90330
2000
worstelt om veranderingen in gedrag te bereiken,
01:32
there's not a lot of work done
34
92330
2000
zijn er weinig concrete benaderingen
01:34
in terms of trying to fix that problem.
35
94330
3000
om het probleem effectief op te lossen.
01:37
So the crux of it
36
97330
2000
Wat op het spel staat is dit:
01:39
comes down to this notion of decision-making --
37
99330
2000
Het gaat over het begrijpen van een besluitvormingsproces.
01:41
giving information to people in a form
38
101330
2000
We moeten mensen op zo'n manier informatie geven
01:43
that doesn't just educate them
39
103330
2000
dat ze hen niet alleen opvoedt
01:45
or inform them,
40
105330
2000
of op de hoogte brengt.
01:47
but actually leads them to make better decisions,
41
107330
2000
Het komt erop aan dat ze betere beslissingen gaan nemen,
01:49
better choices in their lives.
42
109330
2000
betere keuzes voor hun leven gaan maken.
01:51
One part of medicine, though,
43
111330
2000
Er is een deel van de geneeskunde,
01:53
has faced the problem of behavior change pretty well,
44
113330
4000
dat gedragsverandering al vrij goed heeft aangepakt,
01:57
and that's dentistry.
45
117330
2000
en dat is tandheelkunde.
01:59
Dentistry might seem -- and I think it is --
46
119330
2000
Tandheelkunde wordt - ik denk dat ook en
02:01
many dentists would have to acknowledge
47
121330
2000
veel tandartsen zullen dat bevestigen -
02:03
it's somewhat of a mundane backwater of medicine.
48
123330
2000
een beetje stiefmoederlijk behandeld door de moderne geneeskunde.
02:05
Not a lot of cool, sexy stuff happening in dentistry.
49
125330
3000
In de tandheelkunde gebeuren niet zo heel veel coole en sexy dingen.
02:08
But they have really taken this problem of behavior change
50
128330
3000
Maar het probleem van gedragsverandering in de tandheelkunde
02:11
and solved it.
51
131330
2000
hebben ze goed aangepakt en opgelost.
02:13
It's the one great preventive health success
52
133330
2000
Het is een van de succesverhalen
02:15
we have in our health care system.
53
135330
2000
van medische preventie in ons gezondheidssysteem.
02:17
People brush and floss their teeth.
54
137330
2000
Mensen poetsen hun tanden en gebruiken tandzijde.
02:19
They don't do it as much as they should, but they do it.
55
139330
3000
Ze doen het niet zo regelmatig als ze zouden moeten, maar ze doen het.
02:22
So I'm going to talk about one experiment
56
142330
2000
Hier een experiment
02:24
that a few dentists in Connecticut
57
144330
2000
dat een paar tandartsen in Connecticut
02:26
cooked up about 30 years ago.
58
146330
2000
30 jaar geleden bedacht hebben.
02:28
So this is an old experiment, but it's a really good one,
59
148330
2000
Het is een oud experiment - maar het is echt goed
02:30
because it was very simple,
60
150330
2000
want het was eenvoudig
02:32
so it's an easy story to tell.
61
152330
2000
en het is snel verteld.
02:34
So these Connecticut dentists decided
62
154330
2000
Deze tandartsen uit Connecticut vonden
02:36
that they wanted to get people to brush their teeth and floss their teeth more often,
63
156330
3000
dat mensen hun tanden vaker moesten poetsen.
02:39
and they were going to use one variable:
64
159330
2000
Ze wilden daarvoor gebruik maken van één variabele.
02:41
they wanted to scare them.
65
161330
2000
Ze wilden hen bang maken.
02:43
They wanted to tell them how bad it would be
66
163330
3000
Ze wilden ze vertellen hoe erg het was
02:46
if they didn't brush and floss their teeth.
67
166330
2000
als ze hun tanden niet grondig reinigden.
02:48
They had a big patient population.
68
168330
3000
Ze hadden een grote patiëntenpopulatie.
02:51
They divided them up into two groups.
69
171330
2000
Ze maakten twee groepen.
02:53
They had a low-fear population,
70
173330
2000
Een daarvan was de zogenaamde lage-angstgroep.
02:55
where they basically gave them a 13-minute presentation,
71
175330
2000
Deze groep kreeg een 13-minuten durende presentatie,
02:57
all based in science,
72
177330
2000
- allemaal heel wetenschappelijk -
02:59
but told them that, if you didn't brush and floss your teeth,
73
179330
3000
waarin duidelijk gemaakt werd dat, als je je tanden niet goed schoonmaakte,
03:02
you could get gum disease. If you get gum disease, you will lose your teeth,
74
182330
3000
je bloedend tandvlees kon krijgen en dit kon leiden tot uitvallen van tanden.
03:05
but you'll get dentures, and it won't be that bad.
75
185330
2000
Je zou dan een kunstgebit krijgen. Wat niet zo erg was.
03:07
So that was the low-fear group.
76
187330
2000
Dit was de lage-angstgroep.
03:09
The high-fear group, they laid it on really thick.
77
189330
3000
In de grote-angstgroep legden ze het er dik op:
03:12
They showed bloody gums.
78
192330
2000
Ze toonden dia's met bloedend en
03:14
They showed puss oozing out from between their teeth.
79
194330
3000
etterend tandvlees.
03:17
They told them that their teeth were going to fall out.
80
197330
2000
Ze kregen te horen dat hun tanden zouden uitvallen
03:19
They said that they could have infections
81
199330
2000
en ze infecties konden krijgen, die zich ook nog eens
03:21
that would spread from their jaws to other parts of their bodies,
82
201330
3000
vanuit de kaak naar andere delen van het lichaam konden verspreiden.
03:24
and ultimately, yes, they would lose their teeth.
83
204330
2000
En ja, uiteindelijk zouden ze hun tanden verliezen
03:26
They would get dentures, and if you got dentures,
84
206330
2000
en kunstgebitten krijgen.
03:28
you weren't going to be able to eat corn-on-the-cob,
85
208330
2000
Ze konden het vergeten om ooit nog maïs van de kolf,
03:30
you weren't going to be able to eat apples,
86
210330
2000
appels
03:32
you weren't going to be able to eat steak.
87
212330
2000
of biefstuk te eten.
03:34
You'll eat mush for the rest of your life.
88
214330
2000
Voor de rest van je leven kon je alleen nog maar prakjes eten.
03:36
So go brush and floss your teeth.
89
216330
3000
Dus: reinig je tanden en gebruik tandzijde!
03:39
That was the message. That was the experiment.
90
219330
2000
Dat was de boodschap van dat experiment.
03:41
Now they measured one other variable.
91
221330
2000
Toen werd een andere variabele onderzocht.
03:43
They wanted to capture one other variable,
92
223330
2000
Ze wilden het gevoel van de patiënten
03:45
which was the patients' sense of efficacy.
93
225330
3000
voor hun eigen kunnen testen.
03:48
This was the notion of whether the patients felt
94
228330
2000
Ze wilden weten of de patiënten zelf geloofden
03:50
that they actually would go ahead and brush and floss their teeth.
95
230330
3000
of ze hun tanden in de toekomst grondig zouden gaan reinigen.
03:53
So they asked them at the beginning,
96
233330
2000
De patiënten werden in het begin gevraagd:
03:55
"Do you think you'll actually be able to stick with this program?"
97
235330
2000
"Denken jullie dat jullie dit daadwerkelijk gaan kunnen naleven?"
03:57
And the people who said, "Yeah, yeah. I'm pretty good about that,"
98
237330
2000
Mensen die reageerden met "Ja, daar ben ik vrij zeker van."
03:59
they were characterized as high efficacy,
99
239330
2000
werden beschreven als zeer efficiënt.
04:01
and the people who said,
100
241330
2000
Anderen die zeiden:
04:03
"Eh, I never get around to brushing and flossing as much as I should,"
101
243330
2000
"Bah, ik poets en flos niet zoveel als zou moeten."
04:05
they were characterized as low efficacy.
102
245330
2000
werden gecategoriseerd als niet bijzonder effectief.
04:07
So the upshot was this.
103
247330
3000
Dit was de conclusie
04:10
The upshot of this experiment
104
250330
2000
van het experiment:
04:12
was that fear was not really a primary driver
105
252330
3000
Angst was niet de voornaamste drijvende kracht
04:15
of the behavior at all.
106
255330
2000
of zelfs een oorzaak van gedragsverandering.
04:17
The people who brushed and flossed their teeth
107
257330
2000
Degenen die hun gebit reinigden en flosten,
04:19
were not necessarily the people
108
259330
2000
waren niet noodzakelijk diegenen
04:21
who were really scared about what would happen --
109
261330
2000
de echt grote angst hadden voor wat er zou kunnen gebeuren.
04:23
it's the people who simply felt that they had the capacity
110
263330
3000
Het waren die mensen die geloofden dat ze in staat waren
04:26
to change their behavior.
111
266330
2000
om hun gedrag te veranderen.
04:28
So fear showed up as not really the driver.
112
268330
3000
Dus angst was niet de bepalende factor.
04:31
It was the sense of efficacy.
113
271330
3000
Het was het geloof in eigen kunnen.
04:34
So I want to isolate this,
114
274330
2000
Ik wil dit nogmaals benadrukken
04:36
because it was a great observation --
115
276330
2000
want het was een geweldige vaststelling.
04:38
30 years ago, right, 30 years ago --
116
278330
2000
Dat was 30 jaar geleden.
04:40
and it's one that's laid fallow in research.
117
280330
3000
Maar ze bleef lange tijd onbenut in het onderzoek.
04:43
It was a notion that really came out
118
283330
2000
Het begon eigenlijk pas door te dringen
04:45
of Albert Bandura's work,
119
285330
2000
na Albert Bandura's werk.
04:47
who studied whether
120
287330
2000
Hij onderzocht of je
04:49
people could get a sense of empowerment.
121
289330
3000
mensen meer zelfvertrouwen kon bijbrengen.
04:52
The notion of efficacy basically boils down to one -- that
122
292330
3000
"Effectiviteit" gaat uiteindelijk
04:55
if somebody believes that they have the capacity to change their behavior.
123
295330
3000
over het in staat zijn je gedrag te veranderen.
04:58
In health care terms, you could characterize this
124
298330
3000
Toegepast op de gezondheidszorg betekent dat
05:01
as whether or not somebody feels
125
301330
2000
of mensen geloven
05:03
that they see a path towards better health,
126
303330
2000
dat ze een weg zien naar een betere gezondheid,
05:05
that they can actually see their way towards getting better health,
127
305330
2000
hoe ze echt gezonder kunnen gaan leven.
05:07
and that's a very important notion.
128
307330
2000
En dat is een heel belangrijk idee.
05:09
It's an amazing notion.
129
309330
2000
Het is een ongelooflijk idee.
05:11
We don't really know how to manipulate it, though, that well.
130
311330
3000
We weten niet zo goed hoe het te behandelen.
05:14
Except, maybe we do.
131
314330
3000
Behalve, misschien toch wel.
05:17
So fear doesn't work, right? Fear doesn't work.
132
317330
2000
Angst werkt dus niet, toch?
05:19
And this is a great example
133
319330
2000
En dit is een goed voorbeeld
05:21
of how we haven't learned that lesson at all.
134
321330
3000
dat wij deze les nog niet hebben begrepen.
05:24
This is a campaign from the American Diabetes Association.
135
324330
3000
Dit is een campagne van de American Diabetes Association.
05:27
This is still the way we're communicating messages about health.
136
327330
3000
We formuleren onze gezondheidsboodschappen nog altijd op dezelfde manier.
05:30
I mean, I showed my three-year-old this slide last night,
137
330330
3000
Gisteravond toonde ik mijn drie jaar oude zoon deze film
05:33
and he's like, "Papa, why is an ambulance in these people's homes?"
138
333330
4000
en hij zie: "Papa, waarom hebben deze mensen thuis een ambulance?"
05:37
And I had to explain, "They're trying to scare people."
139
337330
3000
En ik moest uitleggen: "Ze willen mensen laten schrikken."
05:40
And I don't know if it works.
140
340330
2000
Maar ik weet niet of het werkt.
05:42
Now here's what does work:
141
342330
2000
Maar hier is iets dat wel werkt:
05:44
personalized information works.
142
344330
2000
Gepersonaliseerde informatie.
05:46
Again, Bandura recognized this
143
346330
2000
Bandura heeft dit jaren,
05:48
years ago, decades ago.
144
348330
2000
tientallen jaren geleden onderkend.
05:50
When you give people specific information
145
350330
2000
Je moet mensen concrete informatie geven
05:52
about their health, where they stand,
146
352330
2000
over hun gezondheid, over waar ze staan
05:54
and where they want to get to, where they might get to,
147
354330
2000
en wat ze willen en kunnen bereiken.
05:56
that path, that notion of a path --
148
356330
2000
Dit idee van een te volgen pad
05:58
that tends to work for behavior change.
149
358330
2000
brengt een gedragsverandering teweeg.
06:00
So let me just spool it out a little bit.
150
360330
2000
Laat me daar wat meer over uitweiden.
06:02
So you start with personalized data, personalized information
151
362330
3000
Je begint met de persoonlijke gegevens,
06:05
that comes from an individual,
152
365330
2000
persoonlijke informatie van een individu.
06:07
and then you need to connect it to their lives.
153
367330
3000
Vervolgens combineer je deze informatie met hun leven.
06:10
You need to connect it to their lives,
154
370330
2000
Dat moet, hopelijk op een niet met angst geassocieerde manier,
06:12
hopefully not in a fear-based way, but one that they understand.
155
372330
2000
maar wel zo dat ze het begrijpen.
06:14
Okay, I know where I sit. I know where I'm situated.
156
374330
3000
OK, ik weet waar ik sta, ik weet waar ik ben.
06:17
And that doesn't just work for me in terms of abstract numbers --
157
377330
3000
En het werkt voor mij niet alleen met abstracte getallen,
06:20
this overload of health information
158
380330
2000
met deze overdaad aan medische gegevens
06:22
that we're inundated with.
159
382330
2000
waaraan we zijn blootgesteld,
06:24
But it actually hits home.
160
384330
2000
maar het slaat de nagel op de kop.
06:26
It's not just hitting us in our heads; it's hitting us in our hearts.
161
386330
2000
Het bereikt niet alleen onze hoofden, maar ook onze harten.
06:28
There's an emotional connection to information
162
388330
2000
Er is een emotionele band tussen ons en die informatie
06:30
because it's from us.
163
390330
2000
want het zijn onze eigen gegevens.
06:32
That information then needs to be connected to choices,
164
392330
3000
Deze informatie moet dan in verband worden gebracht met keuzes,
06:35
needs to be connected to a range of options,
165
395330
2000
met verschillende opties en mogelijkheden,
06:37
directions that we might go to --
166
397330
2000
richtingen die we uit kunnen gaan,
06:39
trade-offs, benefits.
167
399330
2000
compromissen, voordelen.
06:41
Finally, we need to be presented with a clear point of action.
168
401330
3000
Tot slot moeten we ons kunnen richten op een zeer specifiek actiepunt.
06:44
We need to connect the information
169
404330
2000
We moeten die actie altijd kunnen kaderen
06:46
always with the action,
170
406330
2000
in de informatie,
06:48
and then that action feeds back
171
408330
2000
en dan geeft die actie weer aanleiding
06:50
into different information,
172
410330
2000
tot andere informatie.
06:52
and it creates, of course, a feedback loop.
173
412330
2000
Dit creëert een terugkoppelingslus.
06:54
Now this is a very well-observed and well-established notion
174
414330
3000
Dit is een goed gedocumenteerd en goed gevestigd idee
06:57
for behavior change.
175
417330
2000
om gedragsverandering te bereiken.
06:59
But the problem is that things -- in the upper-right corner there --
176
419330
3000
Het probleem is dat die zaak hier aan de rechterkant,
07:02
personalized data, it's been pretty hard to come by.
177
422330
2000
namelijk persoonlijke informatie, moeilijk was vast te krijgen.
07:04
It's a difficult and expensive commodity,
178
424330
3000
Het was altijd al een complex en kostbaar goed.
07:07
until now.
179
427330
2000
Tot nu toe.
07:09
So I'm going to give you an example, a very simple example of how this works.
180
429330
3000
Ik zal kort laten zien hoe het werkt.
07:12
So we've all seen these. These are the "your speed limit" signs.
181
432330
3000
Dit is wat we allemaal kennen. Het zijn "jullie snelheidslimieten".
07:15
You've seen them all around,
182
435330
2000
Je komt ze overal tegen
07:17
especially these days as radars are cheaper.
183
437330
2000
vooral omdat radars goedkoper zijn geworden.
07:19
And here's how they work in the feedback loop.
184
439330
2000
En zo werkt het in de feedback-lus:
07:21
So you start with the personalized data
185
441330
2000
Je begint met de gepersonaliseerde gegevens.
07:23
where the speed limit on the road that you are at that point
186
443330
2000
De maximumsnelheid op deze plaats
07:25
is 25,
187
445330
2000
is 40 kilometer per uur,
07:27
and, of course, you're going faster than that.
188
447330
2000
maar natuurlijk rijd je sneller.
07:29
We always are. We're always going above the speed limit.
189
449330
3000
Doen we altijd. We gaan altijd een beetje te snel.
07:32
The choice in this case is pretty simple.
190
452330
2000
De opties hier zijn simpel:
07:34
We either keep going fast, or we slow down.
191
454330
2000
Ofwel blijven we snel rijden, ofwel vertragen we.
07:36
We should probably slow down,
192
456330
2000
We moeten waarschijnlijk langzamer,
07:38
and that point of action is probably now.
193
458330
2000
en daaraan zijn we waarschijnlijk juist nu toe.
07:40
We should take our foot off the pedal right now,
194
460330
3000
Onze voet moet nu van het gaspedaal.
07:43
and generally we do. These things are shown to be pretty effective
195
463330
3000
Meestal doen we dat ook. Van deze borden is aangetoond
07:46
in terms of getting people to slow down.
196
466330
2000
dat ze zeer effectief zijn om mensen trager te laten rijden.
07:48
They reduce speeds by about five to 10 percent.
197
468330
2000
Zij verminderen de snelheid met vijf tot tien procent.
07:50
They last for about five miles,
198
470330
2000
Het effect duurt ongeveer tien kilometer,
07:52
in which case we put our foot back on the pedal.
199
472330
2000
waarna ze weer harder gaan rijden.
07:54
But it works, and it even has some health repercussions.
200
474330
2000
Maar het hele ding werkt en heeft zelfs gevolgen voor de gezondheid.
07:56
Your blood pressure might drop a little bit.
201
476330
2000
Uw bloeddruk daalt waarschijnlijk iets.
07:58
Maybe there's fewer accidents, so there's public health benefits.
202
478330
3000
Waarschijnlijk minder ongevallen, en dat is goed voor de volksgezondheid.
08:01
But by and large, this is a feedback loop
203
481330
2000
Maar over het geheel genomen is dit een feedback-lus.
08:03
that's so nifty and too rare.
204
483330
3000
Fijn maar je komt ze zelden tegen. Waarom?
08:06
Because in health care, most health care,
205
486330
2000
Op bijna alle gebieden van de gezondheidszorg
08:08
the data is very removed from the action.
206
488330
3000
zijn de gegevens niet geassocieerd met een specifieke actie.
08:11
It's very difficult to line things up so neatly.
207
491330
3000
Het is zeer moeilijk om alles netjes op een rij te krijgen.
08:14
But we have an opportunity.
208
494330
2000
Maar we hebben een kans.
08:16
So I want to talk about, I want to shift now to think about
209
496330
2000
Ik wil het er over hebben en gaan nadenken over
08:18
how we deliver health information in this country,
210
498330
2000
hoe we in dit land omgaan met informatie over gezondheid
08:20
how we actually get information.
211
500330
3000
en hoe we die informatie verkrijgen.
08:23
This is a pharmaceutical ad.
212
503330
3000
Dit is een advertentie voor de farmaceutische industrie.
08:26
Actually, it's a spoof. It's not a real pharmaceutical ad.
213
506330
2000
In feite een grap, geen echte advertentie.
08:28
Nobody's had the brilliant idea
214
508330
2000
Tot nu toe is niemand op het briljante idee gekomen
08:30
of calling their drug Havidol quite yet.
215
510330
3000
hun geneesmiddel Havidol te noemen.
08:34
But it looks completely right.
216
514330
2000
Maar het ziet er echt uit.
08:36
So it's exactly the way we get
217
516330
2000
En zo is het hoe we onze
08:38
health information and pharmaceutical information,
218
518330
3000
gezondheids- en farmaceutische informatie verkrijgen.
08:41
and it just sounds perfect.
219
521330
2000
Het klinkt gewoon perfect.
08:43
And then we turn the page of the magazine,
220
523330
2000
Dan gaan we scrollen en
08:45
and we see this --
221
525330
3000
krijgen we dit te zien.
08:48
now this is the page the FDA requires pharmaceutical companies
222
528330
3000
De Food and Drug Administration verplicht alle farmaceutische bedrijven
08:51
to put into their ads, or to follow their ads,
223
531330
3000
deze pagina in hun advertenties op te nemen.
08:54
and to me, this is one of the most cynical exercises in medicine.
224
534330
4000
Dit lijkt me een van de cynischer aspecten van de moderne geneeskunde.
08:58
Because we know.
225
538330
2000
Omdat we weten wat er gaande is.
09:00
Who among us would actually say that people read this?
226
540330
2000
Wie van ons gelooft echt dat mensen dit lezen?
09:02
And who among us would actually say
227
542330
2000
Wie gelooft echt
09:04
that people who do try to read this
228
544330
2000
dat mensen die zoiets lezen
09:06
actually get anything out of it?
229
546330
2000
er iets aan hebben?
09:08
This is a bankrupt effort
230
548330
2000
Dit is een tot mislukking gedoemde poging om
09:10
at communicating health information.
231
550330
3000
gezondheidsinformatie over te brengen.
09:13
There is no good faith in this.
232
553330
2000
Fout.
09:15
So this is a different approach.
233
555330
2000
Hier een andere benadering.
09:17
This is an approach that has been developed
234
557330
3000
Ze werd ontwikkeld door
09:20
by a couple researchers at Dartmouth Medical School,
235
560330
3000
een paar onderzoekers aan de Dartmouth Medical School,
09:23
Lisa Schwartz and Steven Woloshin.
236
563330
2000
Lisa en Steven Schwartz Woloshin.
09:25
And they created this thing called the "drug facts box."
237
565330
3000
Ze hebben iets ontwikkeld dat ze "the drug facts box" noemen.
09:28
They took inspiration from, of all things,
238
568330
2000
Hun inspiratie haalden ze uitgerekend uit
09:30
Cap'n Crunch.
239
570330
2000
Cap'n Crunch (een populair Amerikaans merk van ontbijtgranen)
09:32
They went to the nutritional information box
240
572330
3000
Ze keken naar de gedrukte informatie over voeding
09:35
and saw that what works for cereal, works for our food,
241
575330
3000
en zagen dat wat werkte voor voedingsmiddelen
09:38
actually helps people understand what's in their food.
242
578330
3000
de mensen hielp om te begrijpen wat er in hun voeding zat.
09:42
God forbid we should use that same standard
243
582330
2000
De hemel verhoede dat we dezelfde normen,
09:44
that we make Cap'n Crunch live by
244
584330
2000
die we toepassen op Cap'n Crunch,
09:46
and bring it to drug companies.
245
586330
3000
zouden gaan toepassen op farmaceutische bedrijven.
09:49
So let me just walk through this quickly.
246
589330
2000
Laat ik het kort uitleggen.
09:51
It says very clearly what the drug is for, specifically who it is good for,
247
591330
3000
Het legt precies uit waarvoor het middel dient en wie het helpt.
09:54
so you can start to personalize your understanding
248
594330
2000
Zo begin je je inzicht te personaliseren,
09:56
of whether the information is relevant to you
249
596330
2000
of die informatie voor jou relevant is,
09:58
or whether the drug is relevant to you.
250
598330
2000
of het medicijn voor jou relevant is.
10:00
You can understand exactly what the benefits are.
251
600330
3000
In een oogopslag zie je wat de voordelen zijn.
10:03
It isn't this kind of vague promise that it's going to work no matter what,
252
603330
3000
Het is geen vage belofte dat het geneesmiddel in ieder geval helpt,
10:06
but you get the statistics for how effective it is.
253
606330
3000
maar je kan precies zien hoe effectief het is.
10:09
And finally, you understand what those choices are.
254
609330
3000
En tenslotte kun je zien wat je opties zijn.
10:12
You can start to unpack the choices involved
255
612330
2000
Je kan sommige opties eruit gooien
10:14
because of the side effects.
256
614330
2000
wegens mogelijke bijwerkingen.
10:16
Every time you take a drug, you're walking into a possible side effect.
257
616330
3000
Telkens je een medicijn neemt, wordt je geconfronteerd met een mogelijke bijwerking.
10:19
So it spells those out in very clean terms,
258
619330
2000
Dat is de reden waarom ze hier in duidelijke en heldere taal zijn opgenomen.
10:21
and that works.
259
621330
2000
En het werkt.
10:23
So I love this. I love that drug facts box.
260
623330
2000
Daar hou ik van, van deze medicijn-feiten-doos.
10:25
And so I was thinking about,
261
625330
2000
Daarom heb ik nagedacht over
10:27
what's an opportunity that I could have
262
627330
2000
hoe ik mensen kon helpen
10:29
to help people understand information?
263
629330
3000
informatie beter te begrijpen.
10:32
What's another latent body of information that's out there
264
632330
4000
Welke verborgen informatie is er beschikbaar
10:36
that people are really not putting to use?
265
636330
3000
die mensen niet echt weten te gebruiken?
10:39
And so I came up with this: lab test results.
266
639330
3000
En het antwoord was: labo onderzoeksresultaten.
10:42
Blood test results are this great source of information.
267
642330
3000
Bloedonderzoeken zijn een grote bron van informatie.
10:45
They're packed with information.
268
645330
2000
Ze zitten barstensvol informatie.
10:47
They're just not for us. They're not for people. They're not for patients.
269
647330
3000
Maar ze zijn niet voor ons bedoeld: niet voor de mensen, niet voor de patiënt.
10:50
They go right to doctors.
270
650330
2000
Maar voor de dokter.
10:52
And God forbid -- I think many doctors, if you really asked them,
271
652330
3000
En ik denk (God verhoede het)
10:55
they don't really understand all this stuff either.
272
655330
3000
dat de dokters het ook niet altijd begrijpen.
10:58
This is the worst presented information.
273
658330
3000
Het is de ergste vorm van desinformatie.
11:01
You ask Tufte, and he would say,
274
661330
3000
Als je het aan Edward Tufte zou vragen, zou hij zeggen:
11:04
"Yes, this is the absolute worst presentation of information possible."
275
664330
3000
"Dit is de slechts mogelijke presentatie van informatie."
11:07
What we did at Wired
276
667330
2000
Bij WIRED hebben we
11:09
was we went, and I got our graphic design department
277
669330
2000
onze grafisch-ontwerp afdeling gevraagd
11:11
to re-imagine these lab reports.
278
671330
2000
dit laborapport opnieuw voor te stellen.
11:13
So that's what I want to walk you through.
279
673330
2000
Dat wil ik jullie nu laten zien.
11:15
So this is the general blood work before,
280
675330
3000
Dit is hoe laboratoria dit bloedonderzoek normaliter voorstellen
11:18
and this is the after, this is what we came up with.
281
678330
2000
en dit is wat wij ervan hebben gemaakt.
11:20
The after takes what was four pages --
282
680330
2000
Voorheen hadden we vier pagina's -
11:22
that previous slide was actually
283
682330
2000
de laatste dia toonde
11:24
the first of four pages of data
284
684330
2000
de eerste van de vier bladzijden,
11:26
that's just the general blood work.
285
686330
2000
zo wordt een bloedbeeld gewoonlijk gepresenteerd.
11:28
It goes on and on and on, all these values, all these numbers you don't know.
286
688330
3000
Het blijft maar doorgaan, rijen getallen waar je niks van begrijpt.
11:31
This is our one-page summary.
287
691330
3000
Dit is een samenvatting van één pagina.
11:34
We use the notion of color.
288
694330
2000
We maken gebruik van een kleurencode.
11:36
It's an amazing notion that color could be used.
289
696330
3000
Het is geweldig dat hier kleuren in kunnen worden gebruikt.
11:39
So on the top-level you have your overall results,
290
699330
3000
Hier bovenaan staan de algemene resultaten,
11:42
the things that might jump out at you from the fine print.
291
702330
3000
de dingen die onmiddellijk in het oog springen.
11:45
Then you can drill down
292
705330
2000
Dan kun je verfijnen en jullie kunnen zien
11:47
and understand how actually we put your level in context,
293
707330
3000
hoe wij de waarden in context voorstellen.
11:50
and we use color to illustrate
294
710330
2000
We maken gebruik van kleur om aan te duiden
11:52
exactly where your value falls.
295
712330
2000
waar je eigen waarden precies vallen.
11:54
In this case, this patient is slightly at risk of diabetes
296
714330
3000
In dit geval heeft de patiënt een iets hoger risico om diabetes te ontwikkelen.
11:57
because of their glucose level.
297
717330
2000
Wat blijkt uit de bloedsuikerspiegel.
11:59
Likewise, you can go over your lipids
298
719330
2000
Zo kan je ook de bloedlipiden in beeld brengen,
12:01
and, again, understand what your overall cholesterol level is
299
721330
3000
en begrijpen hoe het zit met met de totale cholesterol.
12:04
and then break down into the HDL and the LDL if you so choose.
300
724330
3000
Vervolgens, als je wil, opsplitsen in de HDL- en LDL-cholesterol.
12:07
But again, always using color
301
727330
2000
En nogmaals, we gebruiken kleur,
12:09
and personalized proximity
302
729330
2000
en laten zien hoe jullie gepersonaliseerde waarden
12:11
to that information.
303
731330
2000
samenvallen met deze informatie.
12:13
All those other values,
304
733330
2000
Al de andere waarden,
12:15
all those pages and pages of values that are full of nothing,
305
735330
2000
al deze pagina's vol met nietszeggende waarden
12:17
we summarize.
306
737330
2000
vatten we samen.
12:19
We tell you that you're okay, you're normal.
307
739330
2000
Wij vertellen jullie dat alles goed is, dat jullie normaal zijn.
12:21
But you don't have to wade through it. You don't have to go through the junk.
308
741330
3000
Maar je hoeft je geen weg te banen door die jungle van niet ter zake doende informatie.
12:24
And then we do two other very important things
309
744330
2000
Dan doen we nog twee andere belangrijke dingen
12:26
that kind of help fill in this feedback loop:
310
746330
2000
ter ondersteuning van deze feedback-lus.
12:28
we help people understand in a little more detail
311
748330
2000
We helpen mensen een beetje beter begrijpen
12:30
what these values are and what they might indicate.
312
750330
3000
wat die waarden zijn en wat ze zouden kunnen betekenen.
12:33
And then we go a further step -- we tell them what they can do.
313
753330
3000
Dan gaan we een stap verder: we vertellen ze wat ze kunnen doen.
12:36
We give them some insight
314
756330
2000
Wij helpen hen aan meer inzicht over
12:38
into what choices they can make, what actions they can take.
315
758330
3000
welke opties ze hebben, wat ze kunnen doen.
12:41
So that's our general blood work test.
316
761330
3000
Dit is ons algemene laboratoriumrapport.
12:44
Then we went to CRP test.
317
764330
2000
Vervolgens namen we een CPR-test (C-reactieve proteïne).
12:46
In this case, it's a sin of omission.
318
766330
2000
In dit geval is het een zonde van verzuim.
12:48
They have this huge amount of space,
319
768330
2000
Je hebt zo veel ruimte
12:50
and they don't use it for anything, so we do.
320
770330
2000
die niet wordt benut. Dus doen wij dat maar.
12:52
Now the CRP test is often done
321
772330
2000
De CPR-test wordt vaak gedaan na
12:54
following a cholesterol test,
322
774330
2000
een cholesteroltest of
12:56
or in conjunction with a cholesterol test.
323
776330
2000
samen met een cholesteroltest.
12:58
So we take the bold step
324
778330
2000
We waren zo stout om ook stukjes cholesterolinformatie
13:00
of putting the cholesterol information on the same page,
325
780330
3000
op dezelfde pagina te zetten
13:03
which is the way the doctor is going to evaluate it.
326
783330
2000
zodat de arts het kan evalueren.
13:05
So we thought the patient might actually want to know the context as well.
327
785330
3000
We dachten dat ook een patiënt de context graag zou begrijpen.
13:08
It's a protein that shows up
328
788330
2000
CRP is een eiwit dat gevormd wordt
13:10
when your blood vessels might be inflamed,
329
790330
2000
als je bloedvaten ontstoken zijn.
13:12
which might be a risk for heart disease.
330
792330
2000
Dit kan wijzen op hart- en vaatziekten.
13:14
What you're actually measuring
331
794330
2000
Wat wordt gemeten
13:16
is spelled out in clean language.
332
796330
2000
wordt hier in alledaagse termen verwoord.
13:18
Then we use the information
333
798330
2000
We gebruiken de informatie
13:20
that's already in the lab report.
334
800330
2000
die reeds is opgenomen in het labrapport.
13:22
We use the person's age and their gender
335
802330
2000
We houden rekening met leeftijd en geslacht van patiënt
13:24
to start to fill in the personalized risks.
336
804330
3000
om zijn persoonlijke risico's te rapporteren.
13:27
So we start to use the data we have
337
807330
2000
We gebruiken die informatie
13:29
to run a very simple calculation
338
809330
2000
om met een eenvoudig programma,
13:31
that's on all sorts of online calculators
339
811330
2000
dat je online kan vinden, te gaan rekenen.
13:33
to get a sense of what the actual risk is.
340
813330
3000
Dit geeft ons een overzicht van het werkelijke risico.
13:36
The last one I'll show you is a PSA test.
341
816330
2000
De laatste test, die ik je zal laten zien, is een PSA-test.
13:38
Here's the before, and here's the after.
342
818330
3000
Hier ervoor, en hier erna.
13:41
Now a lot of our effort on this one --
343
821330
2000
Hier hebben we veel moeite in gestoken omdat,
13:43
as many of you probably know,
344
823330
2000
zoals de meesten van jullie weten,
13:45
a PSA test is a very controversial test.
345
825330
2000
die PSA-test nogal omstreden is.
13:47
It's used to test for prostate cancer,
346
827330
2000
Hij wordt gebruikt in de diagnose van prostaatkanker,
13:49
but there are all sorts of reasons
347
829330
2000
maar er zijn vele andere redenen,
13:51
why your prostate might be enlarged.
348
831330
2000
waarom de prostaat vergroot kan zijn.
13:53
And so we spent a good deal of our time
349
833330
2000
Daar hebben we dus veel tijd
13:55
indicating that.
350
835330
2000
ingestoken.
13:57
We again personalized the risks.
351
837330
2000
We hebben de risico's weer gepersonaliseerd.
13:59
So this patient is in their 50s,
352
839330
2000
Deze patiënt is ongeveer 50.
14:01
so we can actually give them a very precise estimate
353
841330
2000
We kunnen vrij nauwkeurig zeggen hoe groot zijn risico
14:03
of what their risk for prostate cancer is.
354
843330
2000
op het ontwikkelen van prostaatkanker is.
14:05
In this case it's about 25 percent, based on that.
355
845330
3000
In dit geval is dat 25%.
14:08
And then again, the follow-up actions.
356
848330
3000
En ook hier weer de mogelijk te nemen acties.
14:11
So our cost for this was less than 10,000 dollars, all right.
357
851330
3000
Dit heeft ons minder dan 10.000 dollar (7.200 euro) gekost.
14:14
That's what Wired magazine spent on this.
358
854330
3000
Zoveel heeft het tijdschrift WIRED daaraan uitgegeven.
14:17
Why is Wired magazine doing this?
359
857330
2000
Waarom doet WIRED dat?
14:19
(Laughter)
360
859330
3000
(Gelach)
14:22
Quest Diagnostics and LabCorp,
361
862330
2000
Quest Diagnostics en LabCorp
14:24
the two largest lab testing companies --
362
864330
3000
zijn de twee grootste medische-laboratoriabedrijven.
14:27
last year, they made profits of over 700 million dollars
363
867330
3000
Vorig jaar hebben ze meer dan 700 miljoen dollar (500 miljoen EUR),
14:30
and over 500 million dollars respectively.
364
870330
3000
en 500 miljoen dollar (360 miljoen euro) winst gemaakt.
14:33
Now this is not a problem of resources;
365
873330
2000
Het is dus geen kwestie van middelen,
14:35
this is a problem of incentives.
366
875330
3000
maar een kwestie van motivatie.
14:38
We need to recognize that the target of this information
367
878330
3000
We moeten begrijpen dat de doelgroep van deze informatie
14:41
should not be the doctor, should not be the insurance company.
368
881330
3000
niet de arts, en niet de verzekeringsmaatschappijen,
14:44
It should be the patient.
369
884330
2000
maar de patiënt is.
14:46
It's the person who actually, in the end,
370
886330
2000
Het is de persoon die uiteindelijk
14:48
is going to be having to change their lives
371
888330
2000
zijn leven moet gaan veranderen
14:50
and then start adopting new behaviors.
372
890330
2000
en nieuw gedrag ontwikkelen.
14:52
This is information that is incredibly powerful.
373
892330
2000
Het gaat over informatie die ongelooflijk belangrijk is.
14:54
It's an incredibly powerful catalyst to change.
374
894330
3000
Het is een ongelooflijk sterke katalysator voor verandering.
14:57
But we're not using it. It's just sitting there.
375
897330
2000
Maar we maken geen gebruik van. De gegevens zijn er,
14:59
It's being lost.
376
899330
2000
maar gaan verloren.
15:01
So I want to just offer four questions
377
901330
2000
Daarom zou elke patiënt
15:03
that every patient should ask,
378
903330
2000
deze vier vragen moeten stellen,
15:05
because I don't actually expect people
379
905330
2000
omdat ik eigenlijk niet verwacht dat iemand
15:07
to start developing these lab test reports.
380
907330
2000
dit soort van onderzoeksrapporten zal gaan ontwikkelen.
15:09
But you can create your own feedback loop.
381
909330
2000
Iedereen kan zijn eigen feedback-lus maken
15:11
Anybody can create their feedback loop by asking these simple questions:
382
911330
3000
door de volgende eenvoudige vragen te stellen.
15:14
Can I have my results?
383
914330
2000
Krijg ik mijn resultaten mee?
15:16
And the only acceptable answer is --
384
916330
2000
En het enige aanvaardbare antwoord is:
15:18
(Audience: Yes.) -- yes.
385
918330
2000
(Publiek: Ja) - Ja.
15:20
What does this mean? Help me understand what the data is.
386
920330
2000
Wat betekent dit? Help me de gegevens begrijpen.
15:22
What are my options? What choices are now on the table?
387
922330
3000
Wat kan ik doen? Welke opties heb ik?
15:25
And then, what's next?
388
925330
2000
En dan, wat volgt?
15:27
How do I integrate this information
389
927330
2000
Hoe integreer ik deze informatie
15:29
into the longer course of my life?
390
929330
2000
in de grotere context van mijn privéleven?
15:32
So I want to wind up by just showing
391
932330
2000
Ik ben nu aan het einde gekomen en je zult zien,
15:34
that people have the capacity to understand this information.
392
934330
2000
dat mensen in staat zijn om deze informatie te begrijpen.
15:36
This is not beyond the grasp of ordinary people.
393
936330
3000
Dit is niets dat het begrijpen van gewone mensen te boven gaat.
15:39
You do not need to have the education level of people in this room.
394
939330
3000
Je hoeft niet het opleidingsniveau van het publiek in deze zaal te hebben.
15:42
Ordinary people are capable of understanding this information,
395
942330
3000
Gewone mensen kunnen deze informatie begrijpen
15:45
if we only go to the effort of presenting it to them
396
945330
3000
als we proberen ze zo te presenteren
15:48
in a form that they can engage with.
397
948330
2000
dat ze er iets mee kunnen aanvangen.
15:50
And engagement is essential here,
398
950330
2000
En dit is essentieel
15:52
because it's not just giving them information;
399
952330
2000
omdat het hen niet alleen informatie geeft.
15:54
it's giving them an opportunity to act.
400
954330
2000
Het geeft hen de kans om er iets mee te doen.
15:56
That's what engagement is. It's different from compliance.
401
956330
2000
Dat is het verschil tussen samenwerking en naleving.
15:58
It works totally different from the way we talk about behavior
402
958330
3000
Het werkt volledig anders dan de manier
16:01
in medicine today.
403
961330
2000
waarop geneeskunde tot nu toe is omgegaan met gedrag.
16:03
And this information is out there.
404
963330
2000
De informatie is er.
16:05
I've been talking today about latent information,
405
965330
2000
Ik heb het gehad over latente informatie,
16:07
all this information that exists in the system
406
967330
2000
die in het systeem besloten ligt,
16:09
that we're not putting to use.
407
969330
2000
maar waar we niets mee doen.
16:11
But there are all sorts of other bodies of information
408
971330
2000
Er zijn vele andere soorten informatie,
16:13
that are coming online,
409
973330
2000
die binnenkort online beschikbaar zullen zijn.
16:15
and we need to recognize the capacity of this information
410
975330
3000
We moeten de mogelijkheden van deze informatie begrijpen
16:18
to engage people, to help people
411
978330
2000
om daarmee mensen te motiveren en te helpen om
16:20
and to change the course of their lives.
412
980330
2000
hun leven te veranderen.
16:22
Thank you very much.
413
982330
2000
Dank je.
16:24
(Applause)
414
984330
3000
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7