Thomas Goetz: It's time to redesign medical data

57,348 views ・ 2011-01-27

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Laura Bularca Corector: Antoniu Gugu
00:15
I'm going to be talking to you
0
15330
2000
Voi discuta cu voi
00:17
about how we can tap
1
17330
2000
despre cum putem să folosim
00:19
a really underutilized resource in health care,
2
19330
2000
o resursă rar utilizată în îngrijirea medicală,
00:21
which is the patient,
3
21330
2000
care e pacientul,
00:23
or, as I like to use the scientific term,
4
23330
3000
sau -- cum îmi place să folosesc termenul științific --
00:26
people.
5
26330
2000
oamenii.
00:28
Because we are all patients, we are all people.
6
28330
2000
Pentru că suntem cu toții pacienți, suntem cu toții oameni.
00:30
Even doctors are patients at some point.
7
30330
2000
Până și medicii sunt pacienți la un moment dat.
00:32
So I want to talk about that
8
32330
2000
Așa că vreau să vorbesc despre asta
00:34
as an opportunity
9
34330
2000
ca o oportunitate
00:36
that we really have failed to engage with very well in this country
10
36330
3000
pe care am eșuat să o abordăm în această țară
00:39
and, in fact, worldwide.
11
39330
2000
și, de fapt, în toată lumea.
00:41
If you want to get at the big part --
12
41330
2000
Dacă vreți să ajungem la partea serioasă
00:43
I mean from a public health level, where my training is --
13
43330
3000
adică de la un nivel al sănătății publice, în care și sunt specializat --
00:46
you're looking at behavioral issues.
14
46330
2000
analizăm probleme comportamentale,
00:48
You're looking at things where people are actually given information,
15
48330
3000
ne uităm la lucruri unde oamenilor chiar li se oferă informații,
00:51
and they're not following through with it.
16
51330
2000
și pe care nu reușesc să le urmeze.
00:53
It's a problem that manifests itself in diabetes,
17
53330
4000
E o problemă care se întâlnește în diabet,
00:57
obesity, many forms of heart disease,
18
57330
2000
obezitate, multe forme de boli de inimă,
00:59
even some forms of cancer -- when you think of smoking.
19
59330
3000
chiar și unele forme de cancer -- când te gândești la fumat.
01:02
Those are all behaviors where people know what they're supposed to do.
20
62330
3000
Acestea sunt comportamente unde oamenii știu ce ar trebui să facă.
01:05
They know what they're supposed to be doing,
21
65330
2000
Știu ce ar trebui să facă,
01:07
but they're not doing it.
22
67330
2000
dar nu fac.
01:09
Now behavior change is something
23
69330
2000
Acum, schimbarea comportamentului este ceva
01:11
that is a long-standing problem in medicine.
24
71330
2000
care este o problemă de durată în medicină.
01:13
It goes all the way back to Aristotle.
25
73330
2000
E veche de pe vremea lui Aristotel.
01:15
And doctors hate it, right?
26
75330
2000
Și doctorii o urăsc, corect.
01:17
I mean, they complain about it all the time.
27
77330
2000
Adică, se plâng de ea tot timpul.
01:19
We talk about it in terms of engagement, or non-compliance.
28
79330
3000
Vorbim despre asta în termeni de angajament sau non-complianță,
01:22
When people don't take their pills,
29
82330
2000
când oamenii nu își iau medicamentele,
01:24
when people don't follow doctors' orders --
30
84330
2000
când oamenii nu urmează sfatul doctorului.
01:26
these are behavior problems.
31
86330
2000
Acestea sunt probleme comportamentale.
01:28
But for as much as clinical medicine
32
88330
2000
Dar oricât medicina clinică ar
01:30
agonizes over behavior change,
33
90330
2000
agoniza asupra schimbării comportamentale,
01:32
there's not a lot of work done
34
92330
2000
nu se lucrează mult
01:34
in terms of trying to fix that problem.
35
94330
3000
cu privire la rezolvarea problemei.
01:37
So the crux of it
36
97330
2000
Așa că, dificultatea
01:39
comes down to this notion of decision-making --
37
99330
2000
revine noțiunii de a lua decizii -
01:41
giving information to people in a form
38
101330
2000
să le oferi oamenilor informația într-un format
01:43
that doesn't just educate them
39
103330
2000
care nu numai că îi educă
01:45
or inform them,
40
105330
2000
sau îi informează,
01:47
but actually leads them to make better decisions,
41
107330
2000
dar îi și conduce spre luarea unor decizii mai bune,
01:49
better choices in their lives.
42
109330
2000
alegeri mai bune în viețile lor.
01:51
One part of medicine, though,
43
111330
2000
O parte a medicinei, totuși,
01:53
has faced the problem of behavior change pretty well,
44
113330
4000
a înfruntat problema schimbării comportamentale destul de bine,
01:57
and that's dentistry.
45
117330
2000
și anume, stomatologia.
01:59
Dentistry might seem -- and I think it is --
46
119330
2000
Stomatologia ar părea -- și eu cred că este --
02:01
many dentists would have to acknowledge
47
121330
2000
mulți dentiști ar trebui să fie de acord
02:03
it's somewhat of a mundane backwater of medicine.
48
123330
2000
este cumva balta săracă a medicinei.
02:05
Not a lot of cool, sexy stuff happening in dentistry.
49
125330
3000
Nu se întâmplă multe lucruri interesante, sexy în stomatologie.
02:08
But they have really taken this problem of behavior change
50
128330
3000
Dar au abordat această problemă a schimbării comportamentale
02:11
and solved it.
51
131330
2000
și au rezolvat-o.
02:13
It's the one great preventive health success
52
133330
2000
Este singurul succes al sănătății preventive
02:15
we have in our health care system.
53
135330
2000
pe care îl avem în sistemul nostru sanitar.
02:17
People brush and floss their teeth.
54
137330
2000
Oamenii se spală pe dinți și folosesc ață dentară.
02:19
They don't do it as much as they should, but they do it.
55
139330
3000
Nu o fac atât de mult cât ar trebui, dar o fac.
02:22
So I'm going to talk about one experiment
56
142330
2000
Așa că voi vorbi despre un experiment
02:24
that a few dentists in Connecticut
57
144330
2000
pe care câțiva dentiști din Connecticut
02:26
cooked up about 30 years ago.
58
146330
2000
l-au făcut acum 30 de ani.
02:28
So this is an old experiment, but it's a really good one,
59
148330
2000
Este un experiment vechi, dar este unul foarte bun,
02:30
because it was very simple,
60
150330
2000
deoarece este foarte simplu,
02:32
so it's an easy story to tell.
61
152330
2000
așa că este o poveste ușor de zis.
02:34
So these Connecticut dentists decided
62
154330
2000
Deci, acești dentiști din Connecticut s-au decis
02:36
that they wanted to get people to brush their teeth and floss their teeth more often,
63
156330
3000
că vor să facă oamenii să-și spele dinții și să folosească ață dentară mai des.
02:39
and they were going to use one variable:
64
159330
2000
Și vor folosi o singură variabilă:
02:41
they wanted to scare them.
65
161330
2000
doreau să-i sperie.
02:43
They wanted to tell them how bad it would be
66
163330
3000
Vroiau să le spună cât de rău ar fi
02:46
if they didn't brush and floss their teeth.
67
166330
2000
dacă nu s-ar spăla pe dinți și nu ar folosi ața dentară.
02:48
They had a big patient population.
68
168330
3000
Aveau o populație mare de pacienți.
02:51
They divided them up into two groups.
69
171330
2000
I-au divizat în două grupuri.
02:53
They had a low-fear population,
70
173330
2000
Aveau o populație cu un nivel scăzut de teamă,
02:55
where they basically gave them a 13-minute presentation,
71
175330
2000
unde le-au ținut o prezentare de 13 minute,
02:57
all based in science,
72
177330
2000
toată bazată pe știință,
02:59
but told them that, if you didn't brush and floss your teeth,
73
179330
3000
dar le-au spus că dacă nu se spălau pe dinți și nu foloseau ața dentară
03:02
you could get gum disease. If you get gum disease, you will lose your teeth,
74
182330
3000
puteau face boli ale gingiilor. Dacă ai o boală gingivală, îți vei pierde dintii,
03:05
but you'll get dentures, and it won't be that bad.
75
185330
2000
dar vei avea proteză și nu va fi așa de rău.
03:07
So that was the low-fear group.
76
187330
2000
Acesta era grupul cu un nivel scăzut de teamă.
03:09
The high-fear group, they laid it on really thick.
77
189330
3000
Grupului cu nivel crescut de teamă le-au prezentat un scenariu mai înfricoșător.
03:12
They showed bloody gums.
78
192330
2000
Le-au arătat gingii sângerânde,
03:14
They showed puss oozing out from between their teeth.
79
194330
3000
le-au arătat puroi ieșind printre dinții lor,
03:17
They told them that their teeth were going to fall out.
80
197330
2000
le-au spus că le vor pica dinții,
03:19
They said that they could have infections
81
199330
2000
le-au spus că pot avea infecții
03:21
that would spread from their jaws to other parts of their bodies,
82
201330
3000
care se vor răspândi de la maxilarele lor la alte părți ale corpului,
03:24
and ultimately, yes, they would lose their teeth.
83
204330
2000
și, în cele din urmă, da, își vor pierde dinții.
03:26
They would get dentures, and if you got dentures,
84
206330
2000
Își vor face proteze, și dacă vor avea proteze,
03:28
you weren't going to be able to eat corn-on-the-cob,
85
208330
2000
nu vor putea mânca porumb pe știulete,
03:30
you weren't going to be able to eat apples,
86
210330
2000
nu vor putea mânca mere,
03:32
you weren't going to be able to eat steak.
87
212330
2000
nu vor putea mânca friptură,
03:34
You'll eat mush for the rest of your life.
88
214330
2000
vor mânca terci pentru tot restul vieții.
03:36
So go brush and floss your teeth.
89
216330
3000
Așa că mergeți și spălați-vă pe dinți și folosiți ața dentară.
03:39
That was the message. That was the experiment.
90
219330
2000
Acela a fost mesajul, acela a fost experimentul.
03:41
Now they measured one other variable.
91
221330
2000
Acum au măsurat o altă variabilă.
03:43
They wanted to capture one other variable,
92
223330
2000
Vroiau să captureze încă o variabilă,
03:45
which was the patients' sense of efficacy.
93
225330
3000
care era simțul de eficacitate al pacientului.
03:48
This was the notion of whether the patients felt
94
228330
2000
Aceasta era noțiunea de a afla dacă pacienții simțeau
03:50
that they actually would go ahead and brush and floss their teeth.
95
230330
3000
că vor face într-adevăr ceaa ce le-a fost spus, se vor spăla pe dinți și vor folosi ața dentară.
03:53
So they asked them at the beginning,
96
233330
2000
Așa că i-au întrebat de la început,
03:55
"Do you think you'll actually be able to stick with this program?"
97
235330
2000
"Credeți că vă veți putea ține de program?"
03:57
And the people who said, "Yeah, yeah. I'm pretty good about that,"
98
237330
2000
Și oamenii care au spus: "Da, da, sunt destul de bun la asta"
03:59
they were characterized as high efficacy,
99
239330
2000
au fost caracterizați cu eficacitate înaltă
04:01
and the people who said,
100
241330
2000
și cei care au spus:
04:03
"Eh, I never get around to brushing and flossing as much as I should,"
101
243330
2000
"Eh, niciodată nu am timp să mă spăl pe dinți și să folosesc ața dentară atât de mult pe cât ar trebui"
04:05
they were characterized as low efficacy.
102
245330
2000
au fost etichetați ca având o eficacitate scăzută.
04:07
So the upshot was this.
103
247330
3000
Concluzia a fost aceasta.
04:10
The upshot of this experiment
104
250330
2000
Concluzia acestui experiment
04:12
was that fear was not really a primary driver
105
252330
3000
a fost că frica nu este un motivator principal
04:15
of the behavior at all.
106
255330
2000
al comportamentului, deloc.
04:17
The people who brushed and flossed their teeth
107
257330
2000
Oamenii care s-au spălat pe dinți și au folosit ață dentară
04:19
were not necessarily the people
108
259330
2000
nu au fost neapărat oamenii
04:21
who were really scared about what would happen --
109
261330
2000
care erau foarte speriați de ceea ce urma să se întâmple -
04:23
it's the people who simply felt that they had the capacity
110
263330
3000
erau oamenii care au simțit ca au capacitatea
04:26
to change their behavior.
111
266330
2000
de a-și schimba comportamentul
04:28
So fear showed up as not really the driver.
112
268330
3000
Așadar nu frica este motivația principală,
04:31
It was the sense of efficacy.
113
271330
3000
ci simțul eficacității.
04:34
So I want to isolate this,
114
274330
2000
Vreau să izolez asta,
04:36
because it was a great observation --
115
276330
2000
deoarece este o observație extraordinară-
04:38
30 years ago, right, 30 years ago --
116
278330
2000
în urmă cu 30 de ani, exact, acum 30 de ani -
04:40
and it's one that's laid fallow in research.
117
280330
3000
și este una dintre marile mistere ale cercetării.
04:43
It was a notion that really came out
118
283330
2000
Este o noțiune care a rezultat
04:45
of Albert Bandura's work,
119
285330
2000
din munca lui Albert Bandura,
04:47
who studied whether
120
287330
2000
care a studiat dacă
04:49
people could get a sense of empowerment.
121
289330
3000
oamenii pot căpăta un simț de împuternicire.
04:52
The notion of efficacy basically boils down to one -- that
122
292330
3000
Noțiunea de eficacitate se rezumă practic la un singur fapt,
04:55
if somebody believes that they have the capacity to change their behavior.
123
295330
3000
dacă cineva crede cu adevărat că are capacitatea să își schimbe comportamentul.
04:58
In health care terms, you could characterize this
124
298330
3000
În medicină, ai putea caracteriza acest fapt
05:01
as whether or not somebody feels
125
301330
2000
ca posibilitatea cuiva de a simți
05:03
that they see a path towards better health,
126
303330
2000
că pot vedea calea către o sănătate mai bună,
05:05
that they can actually see their way towards getting better health,
127
305330
2000
că pot într-adevăr vedea drumul lor spre o sănătate mai bună.
05:07
and that's a very important notion.
128
307330
2000
Și aceasta este o noțiune foarte importantă.
05:09
It's an amazing notion.
129
309330
2000
Este o noțiune uimitoare.
05:11
We don't really know how to manipulate it, though, that well.
130
311330
3000
Nu știm cu adevărat să manipulăm asta, totuși, așa de bine.
05:14
Except, maybe we do.
131
314330
3000
Cu excepția că, s-ar putea să știm.
05:17
So fear doesn't work, right? Fear doesn't work.
132
317330
2000
Deci frica nu merge, corect, frica nu merge.
05:19
And this is a great example
133
319330
2000
Iar acesta este un exemplu foarte bun
05:21
of how we haven't learned that lesson at all.
134
321330
3000
că nu ne-am învățat această lecție deloc.
05:24
This is a campaign from the American Diabetes Association.
135
324330
3000
Aceasta este o campanie pentru Asociația Americană a Diabeticilor.
05:27
This is still the way we're communicating messages about health.
136
327330
3000
Acesta este în continuare modul în care comunicăm mesaje despre sănătate.
05:30
I mean, I showed my three-year-old this slide last night,
137
330330
3000
Vreau să spun, i-am arătat aseară copilului în vârstă de 3 ani această prezentare
05:33
and he's like, "Papa, why is an ambulance in these people's homes?"
138
333330
4000
și el a spus "Tati, de ce este o ambulanță în casa acestor oameni?"
05:37
And I had to explain, "They're trying to scare people."
139
337330
3000
Și a trebuit să îi explic, "Încearcă să sperie lumea."
05:40
And I don't know if it works.
140
340330
2000
Și nu știu dacă asta merge.
05:42
Now here's what does work:
141
342330
2000
Acum, iată ceea ce într-adevăr merge,
05:44
personalized information works.
142
344330
2000
informația personalizată dă rezultate.
05:46
Again, Bandura recognized this
143
346330
2000
Din nou, Bandura și-a dat seama de asta
05:48
years ago, decades ago.
144
348330
2000
cu ani în urmă, acum câteva decade.
05:50
When you give people specific information
145
350330
2000
Cănd oferi oamenilor informații specifice
05:52
about their health, where they stand,
146
352330
2000
despre sănătatea lor, despre situația lor,
05:54
and where they want to get to, where they might get to,
147
354330
2000
și despre unde ar trebui să ajungă, unde ar putea să ajungă,
05:56
that path, that notion of a path --
148
356330
2000
acea cale, acea noțiune de drum,
05:58
that tends to work for behavior change.
149
358330
2000
aceasta tinde să acționeze în favoarea schimbării de comportament.
06:00
So let me just spool it out a little bit.
150
360330
2000
Așadar, permiteți-mi să vă ajut să vă imaginați.
06:02
So you start with personalized data, personalized information
151
362330
3000
Deci începi cu date personalizate, informație personalizată,
06:05
that comes from an individual,
152
365330
2000
care vine de la o persoană,
06:07
and then you need to connect it to their lives.
153
367330
3000
și apoi trebuie să o conectezi cu viața acestei persoane.
06:10
You need to connect it to their lives,
154
370330
2000
Trebuie să o conectezi cu modul lor de viață,
06:12
hopefully not in a fear-based way, but one that they understand.
155
372330
2000
să sperăm, nu într-un mod bazat pe frică, ci într-unul pe care să îl ințeleagă.
06:14
Okay, I know where I sit. I know where I'm situated.
156
374330
3000
Bine, știu cum stau, știu unde mă situez.
06:17
And that doesn't just work for me in terms of abstract numbers --
157
377330
3000
Și asta chiar nu merge pentru mine exprimat în numere abstracte,
06:20
this overload of health information
158
380330
2000
această supraîncărcare cu informație medicală
06:22
that we're inundated with.
159
382330
2000
cu care suntem inundați,
06:24
But it actually hits home.
160
384330
2000
dar chiar mă aduce la o înțelegere.
06:26
It's not just hitting us in our heads; it's hitting us in our hearts.
161
386330
2000
Nu este vorba doar de a conștientiza obiectiv, ci de a lovi în suflet.
06:28
There's an emotional connection to information
162
388330
2000
Este o conexiune emoțională cu informația
06:30
because it's from us.
163
390330
2000
pentru că provine din noi.
06:32
That information then needs to be connected to choices,
164
392330
3000
Acea informație trebuie apoi să fie conectată la alegeri,
06:35
needs to be connected to a range of options,
165
395330
2000
trebuie să fie conectată la o paletă de opțiuni,
06:37
directions that we might go to --
166
397330
2000
direcții pe care am putea să le urmăm --
06:39
trade-offs, benefits.
167
399330
2000
compromisuri, beneficii.
06:41
Finally, we need to be presented with a clear point of action.
168
401330
3000
La final, trebuie să ni se prezinte un plan clar de acțiune.
06:44
We need to connect the information
169
404330
2000
Trebuie să conectăm informația
06:46
always with the action,
170
406330
2000
întotdeauna cu acțiunea,
06:48
and then that action feeds back
171
408330
2000
iar apoi acea acțiune să ne fie redistribuită
06:50
into different information,
172
410330
2000
în alt fel de informație,
06:52
and it creates, of course, a feedback loop.
173
412330
2000
și asta crează, desigur, un ciclu de comunicare (feedback).
06:54
Now this is a very well-observed and well-established notion
174
414330
3000
Acum aceasta este o noțiune bine observată și bine împământenită
06:57
for behavior change.
175
417330
2000
pentru schimbarea comportamentală.
06:59
But the problem is that things -- in the upper-right corner there --
176
419330
3000
Dar problema este că lucrurile din colțul din dreapta sus, chiar acolo,
07:02
personalized data, it's been pretty hard to come by.
177
422330
2000
datele personalizate, au fost destul de greu de obținut.
07:04
It's a difficult and expensive commodity,
178
424330
3000
Este o comoditate dificil și scump de obținut
07:07
until now.
179
427330
2000
până acum.
07:09
So I'm going to give you an example, a very simple example of how this works.
180
429330
3000
Așa că voi da un exemplu, un exemplu foarte simplu despre cum funcționează asta.
07:12
So we've all seen these. These are the "your speed limit" signs.
181
432330
3000
Cu toții am mai văzut așa ceva. Acestea sunt semnele care arată limita de viteză.
07:15
You've seen them all around,
182
435330
2000
Le-ați văzut cu toții peste tot
07:17
especially these days as radars are cheaper.
183
437330
2000
mai ales în zilele de astăzi când radarele sunt mai ieftine.
07:19
And here's how they work in the feedback loop.
184
439330
2000
Și iată cum funcționează ele în acest ciclu de feedback.
07:21
So you start with the personalized data
185
441330
2000
Începi cu informație personalizată
07:23
where the speed limit on the road that you are at that point
186
443330
2000
unde limita de viteză indicată pentru punctul în care te afli
07:25
is 25,
187
445330
2000
este 25
07:27
and, of course, you're going faster than that.
188
447330
2000
și, desigur, tu mergi mai repede decât atât.
07:29
We always are. We're always going above the speed limit.
189
449330
3000
Întotdeauna facem asta. Întotdeauna conducem cu o viteză peste limita legală.
07:32
The choice in this case is pretty simple.
190
452330
2000
Alegerea în acest caz este destul de simplă.
07:34
We either keep going fast, or we slow down.
191
454330
2000
Ori mergem în continuare la fel de repede, ori încetinim.
07:36
We should probably slow down,
192
456330
2000
Ar trebui, probabil, să încetinim
07:38
and that point of action is probably now.
193
458330
2000
iar momentul acelei acțiuni ar fi acum.
07:40
We should take our foot off the pedal right now,
194
460330
3000
Ar trebui să luăm piciorul de pe pedala de accelerație chiar acum.
07:43
and generally we do. These things are shown to be pretty effective
195
463330
3000
Și în general, asta facem; aceste semne se dovedesc a fi destul de eficiente
07:46
in terms of getting people to slow down.
196
466330
2000
pentru a convinge lumea să încetinească.
07:48
They reduce speeds by about five to 10 percent.
197
468330
2000
Ei reduc viteza cu circa cinci până la 10 la sută.
07:50
They last for about five miles,
198
470330
2000
Ceea ce durează cam cinci mile,
07:52
in which case we put our foot back on the pedal.
199
472330
2000
după care ne plasăm iar piciorul pe pedala de accelerație.
07:54
But it works, and it even has some health repercussions.
200
474330
2000
Dar dă rezultate, și acest fapt are chiar și consecințe legate de sănătate.
07:56
Your blood pressure might drop a little bit.
201
476330
2000
Presiunea ta arterială s-ar putea să scadă puțin.
07:58
Maybe there's fewer accidents, so there's public health benefits.
202
478330
3000
Poate că sunt și mai puține accidente, deci există beneficii pentru sănătatea publică.
08:01
But by and large, this is a feedback loop
203
481330
2000
Dar, în general, acesta este un ciclu de comunicare
08:03
that's so nifty and too rare.
204
483330
3000
care este atât de strașnic și mult prea rar.
08:06
Because in health care, most health care,
205
486330
2000
Pentru că, în medicină, în majoritatea departamentelor de sănătate,
08:08
the data is very removed from the action.
206
488330
3000
informația este foarte îndepărtată de acțiune.
08:11
It's very difficult to line things up so neatly.
207
491330
3000
Este foarte dificil să aranjezi lucrurile atât de ordonat.
08:14
But we have an opportunity.
208
494330
2000
Dar avem o oportunitate.
08:16
So I want to talk about, I want to shift now to think about
209
496330
2000
Așa că vreau să vorbesc despre, vreau să concentrez acum gândirea asupra
08:18
how we deliver health information in this country,
210
498330
2000
modului de a livra informație în această țară,
08:20
how we actually get information.
211
500330
3000
modul în care primim informație.
08:23
This is a pharmaceutical ad.
212
503330
3000
Aceasta este o reclamă farmaceutică.
08:26
Actually, it's a spoof. It's not a real pharmaceutical ad.
213
506330
2000
De fapt, este o minciună; nu este cu adevărat o reclamă la un medicament.
08:28
Nobody's had the brilliant idea
214
508330
2000
Nimeni nu a avut încă ideea minunată
08:30
of calling their drug Havidol quite yet.
215
510330
3000
de a-și numi medicamentul Havidol.
08:34
But it looks completely right.
216
514330
2000
Dar arată exact așa cum ar trebui.
08:36
So it's exactly the way we get
217
516330
2000
Este exact modul în care primim
08:38
health information and pharmaceutical information,
218
518330
3000
informație legată de sănătate și despre farmaceutice
08:41
and it just sounds perfect.
219
521330
2000
și pur și simplu sună perfect.
08:43
And then we turn the page of the magazine,
220
523330
2000
Iar apoi, dăm pagina revistei
08:45
and we see this --
221
525330
3000
și vedem asta, corect, vedem asta.
08:48
now this is the page the FDA requires pharmaceutical companies
222
528330
3000
Acum, asta este pagina pe care FDA le cere companiilor farmaceutice
08:51
to put into their ads, or to follow their ads,
223
531330
3000
să o plaseze în reclamele lor, sau să urmeze reclamele.
08:54
and to me, this is one of the most cynical exercises in medicine.
224
534330
4000
Iar pentru mine, acesta este unul din exercițiile cinice din medicină.
08:58
Because we know.
225
538330
2000
Pentru că știm.
09:00
Who among us would actually say that people read this?
226
540330
2000
Care dintre noi ar putea cu adevărat spune că oamenii chiar citesc asta?
09:02
And who among us would actually say
227
542330
2000
Și care dintre noi ar putea susține
09:04
that people who do try to read this
228
544330
2000
că oamenii care totuși încearcă să citească asta
09:06
actually get anything out of it?
229
546330
2000
chiar înțeleg ceva din ea?
09:08
This is a bankrupt effort
230
548330
2000
Acesta este un efort falimentar
09:10
at communicating health information.
231
550330
3000
de a comunica informație despre sănătate.
09:13
There is no good faith in this.
232
553330
2000
Nu este nicio urmă de încredere în asta.
09:15
So this is a different approach.
233
555330
2000
Aceasta este o alternativă diferită.
09:17
This is an approach that has been developed
234
557330
3000
Aceasta este o abordare care a fost dezvoltată
09:20
by a couple researchers at Dartmouth Medical School,
235
560330
3000
de un cuplu de cercetători de la Școala Medicală Dartmouth,
09:23
Lisa Schwartz and Steven Woloshin.
236
563330
2000
Lisa Schwartz și Steven Woloshin.
09:25
And they created this thing called the "drug facts box."
237
565330
3000
Și ei au creat acest lucru numit cutia cu realități despre medicamente.
09:28
They took inspiration from, of all things,
238
568330
2000
Ei au fost inspirati, dintre toate posibilitățile,
09:30
Cap'n Crunch.
239
570330
2000
de Cap'n Crunch.
09:32
They went to the nutritional information box
240
572330
3000
Ei s-au uitat la zona care conține informația nutrițională
09:35
and saw that what works for cereal, works for our food,
241
575330
3000
și au observat că merge pentru cereale, merge pentru mâncarea noastră,
09:38
actually helps people understand what's in their food.
242
578330
3000
chiar ajută oamenii să înțeleagă din ce e compusă mâncarea lor.
09:42
God forbid we should use that same standard
243
582330
2000
Doamne ferește să folosim același standard
09:44
that we make Cap'n Crunch live by
244
584330
2000
prin care îl facem pe Cap'n Crunch să trăiască
09:46
and bring it to drug companies.
245
586330
3000
și să îl importăm în companiile farmaceutice.
09:49
So let me just walk through this quickly.
246
589330
2000
Așadar, lăsați-mă să prezint asta foarte repede.
09:51
It says very clearly what the drug is for, specifically who it is good for,
247
591330
3000
Spune foarte clar pentru ce este destinat medicamentul, anume pentru cine este bun
09:54
so you can start to personalize your understanding
248
594330
2000
ca să poți începe să îți personalizezi înțelegerea
09:56
of whether the information is relevant to you
249
596330
2000
legată de informație și dacă aceasta este relevantă pentru tine
09:58
or whether the drug is relevant to you.
250
598330
2000
sau dacă medicamentul este relevant pentru tine.
10:00
You can understand exactly what the benefits are.
251
600330
3000
Poți înțelege exact care sunt beneficiile.
10:03
It isn't this kind of vague promise that it's going to work no matter what,
252
603330
3000
Nu este genul de promisiune vagă că va funcționa indiferent de situație,
10:06
but you get the statistics for how effective it is.
253
606330
3000
dar primești date statistice legate de eficacitatea lui.
10:09
And finally, you understand what those choices are.
254
609330
3000
Și în fine, înțelegi care sunt alegerile.
10:12
You can start to unpack the choices involved
255
612330
2000
Poți începe să analizezi alegerile implicate
10:14
because of the side effects.
256
614330
2000
din cauza efectelor secundare.
10:16
Every time you take a drug, you're walking into a possible side effect.
257
616330
3000
De fiecare dată când iei un medicament, te expui unui posibil efect secundar.
10:19
So it spells those out in very clean terms,
258
619330
2000
Așa că acestea sunt scrise în termeni foarte clari.
10:21
and that works.
259
621330
2000
Și asta funcționează.
10:23
So I love this. I love that drug facts box.
260
623330
2000
Eu iubesc asta. Iubesc pătrățelul cu fapte despre medicamente.
10:25
And so I was thinking about,
261
625330
2000
Și așa am ajuns să mă gândesc
10:27
what's an opportunity that I could have
262
627330
2000
ce este o oportunitate pe care aș putea să o am
10:29
to help people understand information?
263
629330
3000
ca să ajut oamenii să înțeleagă informația?
10:32
What's another latent body of information that's out there
264
632330
4000
Ce este un alt corp latent de informație ce se află acolo
10:36
that people are really not putting to use?
265
636330
3000
pe care oamenii chiar nu îl folosesc.
10:39
And so I came up with this: lab test results.
266
639330
3000
Și astfel am inventat asta: rezultatele analizelor.
10:42
Blood test results are this great source of information.
267
642330
3000
Rezultatele analizelor de sânge sunt o sursă excelentă de infomație.
10:45
They're packed with information.
268
645330
2000
Sunt pline de informație.
10:47
They're just not for us. They're not for people. They're not for patients.
269
647330
3000
Numai că nu e pentru noi; nu este pentru oameni; nu este pentru pacienți.
10:50
They go right to doctors.
270
650330
2000
Ele se duc direct la doctori.
10:52
And God forbid -- I think many doctors, if you really asked them,
271
652330
3000
Și Doamne ferește -- cred că mulți doctori, dacă îi întrebi,
10:55
they don't really understand all this stuff either.
272
655330
3000
nici ei nu înțeleg toate aceste chestii.
10:58
This is the worst presented information.
273
658330
3000
Acesta este cel mai rău mod de a prezenta informația.
11:01
You ask Tufte, and he would say,
274
661330
3000
Îl întrebi pe Tufte, și el ar spune,
11:04
"Yes, this is the absolute worst presentation of information possible."
275
664330
3000
"Da, acesta este cel mai rău mod posibil de a prezenta informația."
11:07
What we did at Wired
276
667330
2000
Ce am făcut la Wired
11:09
was we went, and I got our graphic design department
277
669330
2000
a fost: ne-am dus și am pus departamentul de design grafic
11:11
to re-imagine these lab reports.
278
671330
2000
să își reimagineze aceste rezultate de analize.
11:13
So that's what I want to walk you through.
279
673330
2000
Deci asta este ceea ce vreau să vă prezint.
11:15
So this is the general blood work before,
280
675330
3000
Acesta este un rezultat general al analizelor de sânge,
11:18
and this is the after, this is what we came up with.
281
678330
2000
iar acesta este după, este ceea ce am inventat noi.
11:20
The after takes what was four pages --
282
680330
2000
Rezultatul de după a luat ceea ce era scris pe patru pagini --
11:22
that previous slide was actually
283
682330
2000
pagina de dinainte era de fapt
11:24
the first of four pages of data
284
684330
2000
prima din patru pagini de date
11:26
that's just the general blood work.
285
686330
2000
care constituie rezultatul unei analize generale de sânge.
11:28
It goes on and on and on, all these values, all these numbers you don't know.
286
688330
3000
Continuă la nesfârșit, toate acele valori, toate acele numere pe care nu le înțelegi.
11:31
This is our one-page summary.
287
691330
3000
Acesta este un rezumat pe doar o pagină.
11:34
We use the notion of color.
288
694330
2000
Folosim noțiunea de culoare.
11:36
It's an amazing notion that color could be used.
289
696330
3000
Este o idee fascinantă că am putea folosi culoare.
11:39
So on the top-level you have your overall results,
290
699330
3000
Deci în partea de sus ai un sumar al rezultatelor,
11:42
the things that might jump out at you from the fine print.
291
702330
3000
lucrurile pe care le-ai putea remarca imediat din această tipăritură.
11:45
Then you can drill down
292
705330
2000
Apoi poți cerceta mai amănunțit
11:47
and understand how actually we put your level in context,
293
707330
3000
și înțelege modul în care chiar punem nivelul tău în context
11:50
and we use color to illustrate
294
710330
2000
și folosim culori pentru a ilustra
11:52
exactly where your value falls.
295
712330
2000
exact cum se prezintă rezultatele tale.
11:54
In this case, this patient is slightly at risk of diabetes
296
714330
3000
În acest caz, pacientul are un risc ușor de diabet
11:57
because of their glucose level.
297
717330
2000
din cauza nivelului de glucoză.
11:59
Likewise, you can go over your lipids
298
719330
2000
De asemenea, poți examina lipidele
12:01
and, again, understand what your overall cholesterol level is
299
721330
3000
și, din nou, înțelege care este nivelul tău general de colesterol
12:04
and then break down into the HDL and the LDL if you so choose.
300
724330
3000
și apoi să îl împarți în HDL și LDL dacă vrei asta.
12:07
But again, always using color
301
727330
2000
Dar, din nou, mereu folosing culoare
12:09
and personalized proximity
302
729330
2000
și o apropiere personalizată
12:11
to that information.
303
731330
2000
către această informație.
12:13
All those other values,
304
733330
2000
Toate aceste valori,
12:15
all those pages and pages of values that are full of nothing,
305
735330
2000
toate aceste pagini peste pagini de valori care sunt pline de nimic,
12:17
we summarize.
306
737330
2000
le rezumăm.
12:19
We tell you that you're okay, you're normal.
307
739330
2000
Îți spunem că ești ok, ești normal.
12:21
But you don't have to wade through it. You don't have to go through the junk.
308
741330
3000
Dar tu nu trebuie să te chinui prin date. Nu trebuie să treci prin toate mizeriile.
12:24
And then we do two other very important things
309
744330
2000
Și apoi facem alte două lucruri foarte importante
12:26
that kind of help fill in this feedback loop:
310
746330
2000
care tind să ajute la completarea acestui ciclu de comunicare.
12:28
we help people understand in a little more detail
311
748330
2000
Noi ajutăm oamenii să înțeleagă puțin mai detaliat
12:30
what these values are and what they might indicate.
312
750330
3000
ce sunt aceste valori și ce ar putea indica.
12:33
And then we go a further step -- we tell them what they can do.
313
753330
3000
Iar apoi mai facem un pas: Le spunem ce ar putea să facă.
12:36
We give them some insight
314
756330
2000
Le oferim un plus de intuiție
12:38
into what choices they can make, what actions they can take.
315
758330
3000
către alegerile pe care le-ar putea face, către acțiunile pe care le-ar putea întreprinde.
12:41
So that's our general blood work test.
316
761330
3000
Așadar acesta este rezultatul nostru al unei analize generale de sânge.
12:44
Then we went to CRP test.
317
764330
2000
Apoi ne-am îndreptat atenția către testul CPR.
12:46
In this case, it's a sin of omission.
318
766330
2000
În acest caz, este un păcat al omisiunii.
12:48
They have this huge amount of space,
319
768330
2000
Ei au această cantitate imensă de spațiu
12:50
and they don't use it for anything, so we do.
320
770330
2000
și ei nu o folosesc la nimic, așa că o folosim noi.
12:52
Now the CRP test is often done
321
772330
2000
Acum testul CPR este adesea făcut
12:54
following a cholesterol test,
322
774330
2000
ca urmare a unui teste de colesterol,
12:56
or in conjunction with a cholesterol test.
323
776330
2000
sau în combinație cu un test de colesterol.
12:58
So we take the bold step
324
778330
2000
Deci facem acest pas îndrăzneț
13:00
of putting the cholesterol information on the same page,
325
780330
3000
de a pune informația despre colesterol pe aceeași pagină,
13:03
which is the way the doctor is going to evaluate it.
326
783330
2000
ceeea ce constituie modul în care doctorul va evalua asta.
13:05
So we thought the patient might actually want to know the context as well.
327
785330
3000
Astfel ne-am gândit că și pacientul s-ar putea să vrea să știe acest context.
13:08
It's a protein that shows up
328
788330
2000
Este o proteină care apare
13:10
when your blood vessels might be inflamed,
329
790330
2000
când vasele tale de sânge s-ar putea să fie inflamate
13:12
which might be a risk for heart disease.
330
792330
2000
ceea ce poate constitui un risc pentru boli de inimă.
13:14
What you're actually measuring
331
794330
2000
Ceea ce măsori de fapt
13:16
is spelled out in clean language.
332
796330
2000
este tradus într-un limbaj clar.
13:18
Then we use the information
333
798330
2000
Apoi folosim informația
13:20
that's already in the lab report.
334
800330
2000
care este deja disponibilă în rezultatul de la laborator.
13:22
We use the person's age and their gender
335
802330
2000
Folosim vârsta și sexul pacientului
13:24
to start to fill in the personalized risks.
336
804330
3000
ca să începem să completăm riscurile personalizate.
13:27
So we start to use the data we have
337
807330
2000
Astfel începem să folosim datele pe care le avem
13:29
to run a very simple calculation
338
809330
2000
pentru a efectua un calcul foarte simplu
13:31
that's on all sorts of online calculators
339
811330
2000
ce este disponibil în tot felul de calculatoare online
13:33
to get a sense of what the actual risk is.
340
813330
3000
pentru a face un sens asupra riscului care se prezintă într-adevăr.
13:36
The last one I'll show you is a PSA test.
341
816330
2000
Ultimul pe care îl voi arăta este un test PSA.
13:38
Here's the before, and here's the after.
342
818330
3000
Iată varianta înainte și cea după.
13:41
Now a lot of our effort on this one --
343
821330
2000
Acum, o mare parte din efortul nostru dedicat acestuia --
13:43
as many of you probably know,
344
823330
2000
așa cum mulți dintre voi probabil că știu,
13:45
a PSA test is a very controversial test.
345
825330
2000
un test PSA este foarte controversat.
13:47
It's used to test for prostate cancer,
346
827330
2000
Este folosit pentru a testa existența cancerului de prostată,
13:49
but there are all sorts of reasons
347
829330
2000
dar sunt tot felul de motive
13:51
why your prostate might be enlarged.
348
831330
2000
pentru care prostata se poate mări.
13:53
And so we spent a good deal of our time
349
833330
2000
Și astfel am petrecut o mare parte din timp
13:55
indicating that.
350
835330
2000
pentru a indica asta.
13:57
We again personalized the risks.
351
837330
2000
Din nou am personalizat riscurile.
13:59
So this patient is in their 50s,
352
839330
2000
Acest pacient are 50 de ani
14:01
so we can actually give them a very precise estimate
353
841330
2000
deci putem să îi ofeim o estimare foarte precisă
14:03
of what their risk for prostate cancer is.
354
843330
2000
asupra riscului său de cancer la prostată.
14:05
In this case it's about 25 percent, based on that.
355
845330
3000
În acest caz, este de 25%, bazat pe asta.
14:08
And then again, the follow-up actions.
356
848330
3000
Iar apoi, din nou, acțiunile ce pot fi întreprinse.
14:11
So our cost for this was less than 10,000 dollars, all right.
357
851330
3000
Costul nostru pentru toate acestea a fost mai puțin de 10.000 de dolari, perfect.
14:14
That's what Wired magazine spent on this.
358
854330
3000
Aceasta este suma pe care revista Wired a plătit-o pentru toate acestea.
14:17
Why is Wired magazine doing this?
359
857330
2000
De ce face revista Wired asta?
14:19
(Laughter)
360
859330
3000
(Râsete)
14:22
Quest Diagnostics and LabCorp,
361
862330
2000
Quest Diagnostics și LabCorp,
14:24
the two largest lab testing companies --
362
864330
3000
cele două cele mai mari companii de testare de laborator:
14:27
last year, they made profits of over 700 million dollars
363
867330
3000
Anul trecut, au avut un profit de peste 700 milioane de dolari
14:30
and over 500 million dollars respectively.
364
870330
3000
și respectiv peste 500 milioane de dolari.
14:33
Now this is not a problem of resources;
365
873330
2000
Acum, asta nu este o problemă de resurse,
14:35
this is a problem of incentives.
366
875330
3000
aceasta este o problemă de stimulare.
14:38
We need to recognize that the target of this information
367
878330
3000
Trebuie să recunoaștem că grupul țintă al acestei informații
14:41
should not be the doctor, should not be the insurance company.
368
881330
3000
nu ar trebui să fie doctorii, nu ar trebui să fie companiile de asigurare;
14:44
It should be the patient.
369
884330
2000
ar trebui să fie pacientul.
14:46
It's the person who actually, in the end,
370
886330
2000
Este persoana care cu adevărat, la final,
14:48
is going to be having to change their lives
371
888330
2000
va trebui să își schimbe viața
14:50
and then start adopting new behaviors.
372
890330
2000
și apoi să înceapă să adopte comportamente noi.
14:52
This is information that is incredibly powerful.
373
892330
2000
Aceasta este informație care este incredibil de puternică.
14:54
It's an incredibly powerful catalyst to change.
374
894330
3000
Este un catalist incredibil de puternic pentru schimbare.
14:57
But we're not using it. It's just sitting there.
375
897330
2000
Dar nu îl folosim; doar stă acolo.
14:59
It's being lost.
376
899330
2000
Este pierdut.
15:01
So I want to just offer four questions
377
901330
2000
Și vreau să vă ofer patru întrebări
15:03
that every patient should ask,
378
903330
2000
care ar trebui puse de fiecare pacient
15:05
because I don't actually expect people
379
905330
2000
pentru că eu nu mă aștept cu adevărat ca oamenii
15:07
to start developing these lab test reports.
380
907330
2000
să înceapă să creeze aceste rezultate de laborator.
15:09
But you can create your own feedback loop.
381
909330
2000
Dar îți poți crea propriul ciclu de feedback.
15:11
Anybody can create their feedback loop by asking these simple questions:
382
911330
3000
Oricine îți poate crea un ciclu de comunicare punând aceste simple întrebări:
15:14
Can I have my results?
383
914330
2000
Îmi pot primi rezultatele?
15:16
And the only acceptable answer is --
384
916330
2000
Și singurul răspuns acceptabil este --
15:18
(Audience: Yes.) -- yes.
385
918330
2000
(Audiența: Da) -- da.
15:20
What does this mean? Help me understand what the data is.
386
920330
2000
Ce înseamnă asta? Ajută-mă să înțeleg aceste date.
15:22
What are my options? What choices are now on the table?
387
922330
3000
Care sunt opțunile mele? Ce alegeri am acum pe masă?
15:25
And then, what's next?
388
925330
2000
Și apoi, ce urmează?
15:27
How do I integrate this information
389
927330
2000
Cum integrez această informație
15:29
into the longer course of my life?
390
929330
2000
în lungul parcurs al vieții mele
15:32
So I want to wind up by just showing
391
932330
2000
Vreau să închei arătându-vă
15:34
that people have the capacity to understand this information.
392
934330
2000
că oamenii au capacitatea de a înțelege această informatie.
15:36
This is not beyond the grasp of ordinary people.
393
936330
3000
Asta nu este deasupra capacității de înțelegere a oamenilor normali.
15:39
You do not need to have the education level of people in this room.
394
939330
3000
Nu trebuie să ai nivelul de educație al oamenilor din această sală.
15:42
Ordinary people are capable of understanding this information,
395
942330
3000
Oamenii comuni sunt capabili să înțeleagă această informație,
15:45
if we only go to the effort of presenting it to them
396
945330
3000
dacă doar am face efortul de a le o prezenta
15:48
in a form that they can engage with.
397
948330
2000
într-o formă care îi poate angaja.
15:50
And engagement is essential here,
398
950330
2000
Iar angajamentul este esențial aici,
15:52
because it's not just giving them information;
399
952330
2000
pentru că nu este vorba doar de a le oferi informația,
15:54
it's giving them an opportunity to act.
400
954330
2000
este vorba de a le da șansa de a acționa.
15:56
That's what engagement is. It's different from compliance.
401
956330
2000
În asta constă angajamentul; este diferit de a te conforma.
15:58
It works totally different from the way we talk about behavior
402
958330
3000
Funcționează total diferit decât modul în care vorbim despre comportament
16:01
in medicine today.
403
961330
2000
în medicină astăzi.
16:03
And this information is out there.
404
963330
2000
Și această informație se află acolo.
16:05
I've been talking today about latent information,
405
965330
2000
Am vorbit astăzi despre informația latentă,
16:07
all this information that exists in the system
406
967330
2000
toate aceste informații care se află în sistem
16:09
that we're not putting to use.
407
969330
2000
și pe care nu le folosim.
16:11
But there are all sorts of other bodies of information
408
971330
2000
Dar există tot felul de colecții de informații
16:13
that are coming online,
409
973330
2000
care devin disponibile online.
16:15
and we need to recognize the capacity of this information
410
975330
3000
Și trebuie să recunoaștem capacitatea acestei informații
16:18
to engage people, to help people
411
978330
2000
de a angaja oamenii, de a-i ajuta
16:20
and to change the course of their lives.
412
980330
2000
și de a schimba cursul vieții lor.
16:22
Thank you very much.
413
982330
2000
Multumesc mult!
16:24
(Applause)
414
984330
3000
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7