Thomas Goetz: It's time to redesign medical data

Thomas Goetz: Tıbbı verileri yeniden tasarlamanın vakti geldi.

57,399 views

2011-01-27 ・ TED


New videos

Thomas Goetz: It's time to redesign medical data

Thomas Goetz: Tıbbı verileri yeniden tasarlamanın vakti geldi.

57,399 views ・ 2011-01-27

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Isil Arican Gözden geçirme: Sancak Gülgen
00:15
I'm going to be talking to you
0
15330
2000
Size bugün burada
00:17
about how we can tap
1
17330
2000
sağlık hizmetinde gerçekten
00:19
a really underutilized resource in health care,
2
19330
2000
olması gerekenden az faydalanılan birşeyden bahsedeceğim,
00:21
which is the patient,
3
21330
2000
yani hastadan,
00:23
or, as I like to use the scientific term,
4
23330
3000
ya da -- daha bilimsel bir terim kullanmayı seçiyorum--
00:26
people.
5
26330
2000
insanlardan.
00:28
Because we are all patients, we are all people.
6
28330
2000
Çünkü hepimiz hastayız, hepimiz insanız,
00:30
Even doctors are patients at some point.
7
30330
2000
hatta doktorlar bile bazı zamanlarda hastalar.
00:32
So I want to talk about that
8
32330
2000
Bu nedenle bundan bahsetmek istiyorum
00:34
as an opportunity
9
34330
2000
ve bu konuyu ülkemizde ve hatta bütün dünyada
00:36
that we really have failed to engage with very well in this country
10
36330
3000
insanları için içine çok iyi sokamadığımızı göstermek için
00:39
and, in fact, worldwide.
11
39330
2000
bir fırsat olarak görüyorum.
00:41
If you want to get at the big part --
12
41330
2000
Eğer olayı büyük açıdan görmek isterseniz
00:43
I mean from a public health level, where my training is --
13
43330
3000
yani halk sağlığı açısından, ki benim eğitimim bu yönde --
00:46
you're looking at behavioral issues.
14
46330
2000
davranışssal sorunlara bakıyorsunuz,
00:48
You're looking at things where people are actually given information,
15
48330
3000
insanlara bilgi verilmesine rağmen, onların bu verilen bilgileri
00:51
and they're not following through with it.
16
51330
2000
izleyip uygulamadıkları şeyler.
00:53
It's a problem that manifests itself in diabetes,
17
53330
4000
Bu diyabette, şişmanlıkta, pekçok kalp hastalığında
00:57
obesity, many forms of heart disease,
18
57330
2000
kendini gösteren bir durum,
00:59
even some forms of cancer -- when you think of smoking.
19
59330
3000
hatta bazı kanserlerde bile -- sigara içmeyi düşünün.
01:02
Those are all behaviors where people know what they're supposed to do.
20
62330
3000
Bunların hepsi, insanların yapmamaları gerektiğini bildiği davranışlar.
01:05
They know what they're supposed to be doing,
21
65330
2000
Ne yapmaları gerektiğini aslında biliyorlar,
01:07
but they're not doing it.
22
67330
2000
ama onu yapmıyorlar.
01:09
Now behavior change is something
23
69330
2000
Davranış değişikliği tıp alanındaki
01:11
that is a long-standing problem in medicine.
24
71330
2000
çözülememiş en köklü sorunlardan biri.
01:13
It goes all the way back to Aristotle.
25
73330
2000
Taa Aristo'ya kadar gidiyor.
01:15
And doctors hate it, right?
26
75330
2000
Doktorlar da bundan nefret ediyorlar, tamam.
01:17
I mean, they complain about it all the time.
27
77330
2000
yani, her zaman bu konudan yakınıyorlar.
01:19
We talk about it in terms of engagement, or non-compliance.
28
79330
3000
Hastayı işin içine katma konusunda bunlardan bahsediyoruz, hasta uyumsuzluğu
01:22
When people don't take their pills,
29
82330
2000
insanlar ilaçlarını almadıklarında ya da
01:24
when people don't follow doctors' orders --
30
84330
2000
doktorun önerilerini dinlemediklerinde bu oluyor.
01:26
these are behavior problems.
31
86330
2000
Bunlar davranışssal problemler.
01:28
But for as much as clinical medicine
32
88330
2000
Her ne kadar klinik tıp
01:30
agonizes over behavior change,
33
90330
2000
davranış değişikliğ nedeniyle acı çekiyor olsa da
01:32
there's not a lot of work done
34
92330
2000
bu sorunu çözmek için çok fazla da
01:34
in terms of trying to fix that problem.
35
94330
3000
uğraştığı söylenemez.
01:37
So the crux of it
36
97330
2000
Sonuçta iş
01:39
comes down to this notion of decision-making --
37
99330
2000
bir karar alma noktasına geliyor --
01:41
giving information to people in a form
38
101330
2000
insanlara onları sadece eğitecek
01:43
that doesn't just educate them
39
103330
2000
ya da bilgilendirecek değil,
01:45
or inform them,
40
105330
2000
aynı zamanda daha iyi kararlar
01:47
but actually leads them to make better decisions,
41
107330
2000
almalarını sağlayacak, daha iyi seçimler yapmalarını
01:49
better choices in their lives.
42
109330
2000
sağlayacak bilgiler vermek.
01:51
One part of medicine, though,
43
111330
2000
Tıbbın bir bölümü
01:53
has faced the problem of behavior change pretty well,
44
113330
4000
bu davranış değişikliği olayı ile çok iyi yüzleşmiş durumda,
01:57
and that's dentistry.
45
117330
2000
o da diş hekimliği.
01:59
Dentistry might seem -- and I think it is --
46
119330
2000
Diş hemiliği biraz -- ki bence biraz öyle --
02:01
many dentists would have to acknowledge
47
121330
2000
diş hekimlerinin çoğu işlerini
02:03
it's somewhat of a mundane backwater of medicine.
48
123330
2000
tıbbın sıradan, küçük bir yan dalı olarak görürler.
02:05
Not a lot of cool, sexy stuff happening in dentistry.
49
125330
3000
Diş hekimliğinde çekici, karizmatik şeyler çok fazla olmaz.
02:08
But they have really taken this problem of behavior change
50
128330
3000
Ama onlar bu davranış değişikliği soruna çok iyi eğilmişler
02:11
and solved it.
51
131330
2000
ve onu çözmüşler.
02:13
It's the one great preventive health success
52
133330
2000
Ve bu, saplık sistemimizdeki en muhteşem
02:15
we have in our health care system.
53
135330
2000
koruyucu hekimlik başarılarından biri.
02:17
People brush and floss their teeth.
54
137330
2000
İnsanlar dişlerini fırçalıyo ve diş ipi kullanıyorlar.
02:19
They don't do it as much as they should, but they do it.
55
139330
3000
Bunu yapmaları gerektiği sıklıkta yapmıyorlar, ama gene de yapıyorlar.
02:22
So I'm going to talk about one experiment
56
142330
2000
Size bir deneyden bahsetmek istiyorum
02:24
that a few dentists in Connecticut
57
144330
2000
Connecticut'taki birkaç diş hekimi
02:26
cooked up about 30 years ago.
58
146330
2000
bundan 30 yıl öcne yapmışlar bu deneyi.
02:28
So this is an old experiment, but it's a really good one,
59
148330
2000
Eski bir deney, ama çok iyi bir deney,
02:30
because it was very simple,
60
150330
2000
çünkü çok çok basit,
02:32
so it's an easy story to tell.
61
152330
2000
anlatması da kolay.
02:34
So these Connecticut dentists decided
62
154330
2000
Connecticut'taki bu diş hekimleri,
02:36
that they wanted to get people to brush their teeth and floss their teeth more often,
63
156330
3000
insanların daha sık dişlerini fırçalamarı ve diş ipi kullanmalarını sağlamak istemiş.
02:39
and they were going to use one variable:
64
159330
2000
Bu nedenle tek bir değişkeni ele almışlar:
02:41
they wanted to scare them.
65
161330
2000
insanları korkutmak istemişler.
02:43
They wanted to tell them how bad it would be
66
163330
3000
Onlara eğer dişlerini fırçalamazlarsa ve
02:46
if they didn't brush and floss their teeth.
67
166330
2000
diş ipi kullanmazlarsa neler olacağını göstermişler.
02:48
They had a big patient population.
68
168330
3000
Epey büyük bir hasta grubuna sahiplermiş.
02:51
They divided them up into two groups.
69
171330
2000
Onları iki gruba ayırmışlar.
02:53
They had a low-fear population,
70
173330
2000
Düşük-korku grubuna,
02:55
where they basically gave them a 13-minute presentation,
71
175330
2000
13 dakikalık bir sunum yapmışlar,
02:57
all based in science,
72
177330
2000
bilimsel bir sunum,
02:59
but told them that, if you didn't brush and floss your teeth,
73
179330
3000
ve dişlerini fırçalamaz ve diş ipi kullanmazlarsa
03:02
you could get gum disease. If you get gum disease, you will lose your teeth,
74
182330
3000
diş eti hastalığına yakalanabileceklerini, ve dişlerinin döküleceğini
03:05
but you'll get dentures, and it won't be that bad.
75
185330
2000
ama takma diş yaptırabileceklerini, bunun da çok kötü olmadığını göstermişler.
03:07
So that was the low-fear group.
76
187330
2000
Bu düşük-korku grubu.
03:09
The high-fear group, they laid it on really thick.
77
189330
3000
Yüksek-korku grubuna gerçekten epey yüklenmişler.
03:12
They showed bloody gums.
78
192330
2000
Kanlı diş etleri,
03:14
They showed puss oozing out from between their teeth.
79
194330
3000
dişlerin arasından sızan irinler göstermişler,
03:17
They told them that their teeth were going to fall out.
80
197330
2000
dişlerinin döküleceğini söylemişler,
03:19
They said that they could have infections
81
199330
2000
çeşitli enfeksiyonlar kapacaklarını, bu enfeksiyonların çene kemiklerine
03:21
that would spread from their jaws to other parts of their bodies,
82
201330
3000
hatta vücutlarının başka yerlerine yayılabileceğini,
03:24
and ultimately, yes, they would lose their teeth.
83
204330
2000
ve sonnda dişlerini kaybedeceklerini göstermişler.
03:26
They would get dentures, and if you got dentures,
84
206330
2000
Sonunda takma diş yaptırabileceklerini, ama gene de onlarla
03:28
you weren't going to be able to eat corn-on-the-cob,
85
208330
2000
mısırı koçanından yiyemeyeceklerini,
03:30
you weren't going to be able to eat apples,
86
210330
2000
elma ısıramayacaklarını,
03:32
you weren't going to be able to eat steak.
87
212330
2000
biftek çiğneyemeyeceklerini;
03:34
You'll eat mush for the rest of your life.
88
214330
2000
hayat boyu püre yemek zorunda kalacaklarını söylemişler.
03:36
So go brush and floss your teeth.
89
216330
3000
Sonunda veridikleri mesaj
03:39
That was the message. That was the experiment.
90
219330
2000
şimdi gidin ve dişlerinizi fırçalayın imiş. Deney buymuş.
03:41
Now they measured one other variable.
91
221330
2000
Bir değişkeni daha ölçmüşler.
03:43
They wanted to capture one other variable,
92
223330
2000
Ölçmek istedikleri bu değişken
03:45
which was the patients' sense of efficacy.
93
225330
3000
hastaların yararlılık hissiyatlarını ölçmek istemişler.
03:48
This was the notion of whether the patients felt
94
228330
2000
Yani hastanın gerçekten de gidip dişlerini fırçalayacağını
03:50
that they actually would go ahead and brush and floss their teeth.
95
230330
3000
düşünüp düşünmediği.
03:53
So they asked them at the beginning,
96
233330
2000
Onlara sunumun başında bunu sormuşlar,
03:55
"Do you think you'll actually be able to stick with this program?"
97
235330
2000
"Gerçekten bu plana uyabileceğinizi düşünüyor musunuz?"
03:57
And the people who said, "Yeah, yeah. I'm pretty good about that,"
98
237330
2000
"Tabi kesinlikle bunu uygulayacağımdan eminim." diyenler
03:59
they were characterized as high efficacy,
99
239330
2000
yüksek yararlılık grubu olarak belirlenmiş.
04:01
and the people who said,
100
241330
2000
bazı insanlar da,
04:03
"Eh, I never get around to brushing and flossing as much as I should,"
101
243330
2000
"Gerçekte dişlerimi yapmam gerektiği kadar fırçalayamıyorum."
04:05
they were characterized as low efficacy.
102
245330
2000
diyenler de düşük etkinlik grubu.
04:07
So the upshot was this.
103
247330
3000
Deneyin sonucu ise şu çıkmış,
04:10
The upshot of this experiment
104
250330
2000
deney sonucunda,
04:12
was that fear was not really a primary driver
105
252330
3000
korkunun aslında önde giden bir itici güç
04:15
of the behavior at all.
106
255330
2000
olmadığını bulmuşlar.
04:17
The people who brushed and flossed their teeth
107
257330
2000
Dişlerini daha sıklıkla fırçalayıp diş ipi kullanan insanlar
04:19
were not necessarily the people
108
259330
2000
yapmazlarsa olacaklardan korkan
04:21
who were really scared about what would happen --
109
261330
2000
insanlar değilmiş her zaman --
04:23
it's the people who simply felt that they had the capacity
110
263330
3000
ilginç bir şekilde bunu yapabilecek kapasitesi
04:26
to change their behavior.
111
266330
2000
olduğuna inanan insanlarmış.
04:28
So fear showed up as not really the driver.
112
268330
3000
yani, korku ana itici güç değil,
04:31
It was the sense of efficacy.
113
271330
3000
etkinlik hissiyatı esas itici güçmüş.
04:34
So I want to isolate this,
114
274330
2000
Bunu özellikle ayrı tutmak istedim,
04:36
because it was a great observation --
115
276330
2000
çünkü bu müthiş bir gözlem --
04:38
30 years ago, right, 30 years ago --
116
278330
2000
30 yıl önce, evet tam 30 yıl önce --
04:40
and it's one that's laid fallow in research.
117
280330
3000
bu konu araştırma konusu olarak epeyce ihmal edilmiş durumda.
04:43
It was a notion that really came out
118
283330
2000
Onlar, o zaman insaların bir şekilde kendilerini muktedir
04:45
of Albert Bandura's work,
119
285330
2000
hissetmelerini saplamak mümkün mü
04:47
who studied whether
120
287330
2000
konusunu araştıran Albert Bandura'nın
04:49
people could get a sense of empowerment.
121
289330
3000
araştırmalarından çıkan bir fikir bu.
04:52
The notion of efficacy basically boils down to one -- that
122
292330
3000
Etkinlik hissiyatı basitçe şu demek,
04:55
if somebody believes that they have the capacity to change their behavior.
123
295330
3000
bir kimsenin herhangi bir davranışı değiştirebilme gücü olduğuna inanması.
04:58
In health care terms, you could characterize this
124
298330
3000
Sağlık alanında, bunu bir kimsenin
05:01
as whether or not somebody feels
125
301330
2000
daha sağlıklı olabileceği bir yol görebileceğini hissetmesi
05:03
that they see a path towards better health,
126
303330
2000
olarak açıklayabilirsiniz,
05:05
that they can actually see their way towards getting better health,
127
305330
2000
bu yolu görebildikleri anda, sağlıklarının daha iyiye gittiğini göreceklerdir.
05:07
and that's a very important notion.
128
307330
2000
Bu çok önemli bir hissiyat.
05:09
It's an amazing notion.
129
309330
2000
Muhteşem bir hissiyat.
05:11
We don't really know how to manipulate it, though, that well.
130
311330
3000
Ama bu hissiyatı ne şekilde etkin kullanacağımızı bilmiyoruz.
05:14
Except, maybe we do.
131
314330
3000
Belki de biliyoruzdur.
05:17
So fear doesn't work, right? Fear doesn't work.
132
317330
2000
Korku işe yaramıyor, korku işe yaramıyor.
05:19
And this is a great example
133
319330
2000
Bu gördüğünüz, bu konuyu
05:21
of how we haven't learned that lesson at all.
134
321330
3000
hiş anlamadığımıza çok güzel bir örnek.
05:24
This is a campaign from the American Diabetes Association.
135
324330
3000
Bu, Amerik Diyabet Birliği'nin bir kampanyasından.
05:27
This is still the way we're communicating messages about health.
136
327330
3000
Sağlık ile ilgili iletişim kurarken hala bu tip şeyler kullanıyoruz.
05:30
I mean, I showed my three-year-old this slide last night,
137
330330
3000
Yani, bu resmi dün 3 yaşındaki çocuğuma gösterdim,
05:33
and he's like, "Papa, why is an ambulance in these people's homes?"
138
333330
4000
dedi ki " Baba, ambulans neden insanların evlerine girmiş?"
05:37
And I had to explain, "They're trying to scare people."
139
337330
3000
Ona "insanları korkutmaya çalışıyorlar." diye açıkladım.
05:40
And I don't know if it works.
140
340330
2000
Ve bunun işe yarayıp yaramadığını bilmiyorum.
05:42
Now here's what does work:
141
342330
2000
İşte size işe yarayan bir şey,
05:44
personalized information works.
142
344330
2000
kişiselleşmiş bilgi işe yarıyor.
05:46
Again, Bandura recognized this
143
346330
2000
Bandura bunu yıllarca
05:48
years ago, decades ago.
144
348330
2000
hatta onlarca yıl önce fark etmişti.
05:50
When you give people specific information
145
350330
2000
İnsanlara sağlıkları ile ilgili özelleşmiş bilgi verirseniz
05:52
about their health, where they stand,
146
352330
2000
diğerlerine göre nerede olduklarını,
05:54
and where they want to get to, where they might get to,
147
354330
2000
nereye gidebileceklerini, veya kendilerini nerede bulacaklarını
05:56
that path, that notion of a path --
148
356330
2000
hissettirirseniz, bir yol çizerseniz
05:58
that tends to work for behavior change.
149
358330
2000
davranış değişikliğine neden olma ihtimaliniz artar.
06:00
So let me just spool it out a little bit.
150
360330
2000
Biraz açmama izin verin.
06:02
So you start with personalized data, personalized information
151
362330
3000
Kişiselleştirilmiş veri ile başlamanız lazım, kişisel bilgi,
06:05
that comes from an individual,
152
365330
2000
bir bireye ait,
06:07
and then you need to connect it to their lives.
153
367330
3000
sonra bunu o bireyin yaşantısı ile bağdaştırmanız gerekli.
06:10
You need to connect it to their lives,
154
370330
2000
Yaşamları ile bağdaitırmanız lazım,
06:12
hopefully not in a fear-based way, but one that they understand.
155
372330
2000
ve bunu korkuya dayalı olarak değil, anlayabilecekleri şekilde yapmalı.
06:14
Okay, I know where I sit. I know where I'm situated.
156
374330
3000
Tamam, nerede durduğumu biliyorum, yerimin neresi oldunu biliyorum.
06:17
And that doesn't just work for me in terms of abstract numbers --
157
377330
3000
Ama bu benim için soyut rakamlarla olmaz,
06:20
this overload of health information
158
380330
2000
Başa çıkmamız gereken
06:22
that we're inundated with.
159
382330
2000
bu muazzam sağlık verisi
06:24
But it actually hits home.
160
384330
2000
hedefine bir şekilde ulaşıyor.
06:26
It's not just hitting us in our heads; it's hitting us in our hearts.
161
386330
2000
Sadece beynimize değil, kalbimize de ulaşıyor.
06:28
There's an emotional connection to information
162
388330
2000
Bu veriyle duygusal anlamda bir bağlantımız var.
06:30
because it's from us.
163
390330
2000
çünkü bize ait bir veri.
06:32
That information then needs to be connected to choices,
164
392330
3000
Daha sonra bu bilginin seçeneklele bağlantılandırılması gerekir,
06:35
needs to be connected to a range of options,
165
395330
2000
bir dizi seçim ile,
06:37
directions that we might go to --
166
397330
2000
gitmek istediğimiz yönlerle,
06:39
trade-offs, benefits.
167
399330
2000
tercihler ve faydalarla.
06:41
Finally, we need to be presented with a clear point of action.
168
401330
3000
Son olarak da, bize net bir hareket planı sunulmalı.
06:44
We need to connect the information
169
404330
2000
Bilgiyi her zaman hareket ile
06:46
always with the action,
170
406330
2000
bağdaştırmalıyız,
06:48
and then that action feeds back
171
408330
2000
böylece hareket, bir başka veri ile
06:50
into different information,
172
410330
2000
geri bildirim yapar ve
06:52
and it creates, of course, a feedback loop.
173
412330
2000
elbette ki bir geribildirim döngüsü yaratır.
06:54
Now this is a very well-observed and well-established notion
174
414330
3000
Bu çok iyi gizlemlenmiş ve dökümante edilmiş bir
06:57
for behavior change.
175
417330
2000
davranış değişimi.
06:59
But the problem is that things -- in the upper-right corner there --
176
419330
3000
Ama buradaki sorun sağ üst köşede,
07:02
personalized data, it's been pretty hard to come by.
177
422330
2000
kişisel veri, işte buna ulaşması epey zor.
07:04
It's a difficult and expensive commodity,
178
424330
3000
Şimdiye dek zor ve pahalı bir
07:07
until now.
179
427330
2000
üründü.
07:09
So I'm going to give you an example, a very simple example of how this works.
180
429330
3000
Size bunun nasıl işlediğini gösteren basit bir örnek göstereceğim.
07:12
So we've all seen these. These are the "your speed limit" signs.
181
432330
3000
Bunlarda görmüşsünüzdür. Bunlar "sizin hızınız" işaretleri.
07:15
You've seen them all around,
182
435330
2000
Onları her yerde görmüşsünüzdür.
07:17
especially these days as radars are cheaper.
183
437330
2000
özellikle radarların artık daha ucuz olduğu şu günlerde.
07:19
And here's how they work in the feedback loop.
184
439330
2000
Geri bildirim döngüsü şu şekilde işliyor.
07:21
So you start with the personalized data
185
441330
2000
Bulunduğunuz yoldaki hız limitinin
07:23
where the speed limit on the road that you are at that point
186
443330
2000
25 olduğu bir noktadaki kişisel verilerle
07:25
is 25,
187
445330
2000
başlıyorsunuz,
07:27
and, of course, you're going faster than that.
188
447330
2000
ve elbette limitten hızlı gidiyorsunuz.
07:29
We always are. We're always going above the speed limit.
189
449330
3000
Hepimiz öyle yapıyoruz. Hepimiz limitin üzerinde gidiyoruz.
07:32
The choice in this case is pretty simple.
190
452330
2000
Buradaki seçenekler çok basit.
07:34
We either keep going fast, or we slow down.
191
454330
2000
Ya hızlı gitmeye devam ederiz, ya da yavaşlarız.
07:36
We should probably slow down,
192
456330
2000
Muhtemelen yavaşlamamız lazım,
07:38
and that point of action is probably now.
193
458330
2000
ve bunu limdi yapmamız gerekli.
07:40
We should take our foot off the pedal right now,
194
460330
3000
Ayağımızı gaz pedalından şimdi çekmeliyiz.
07:43
and generally we do. These things are shown to be pretty effective
195
463330
3000
Genelde de bunu yaparız; bu uyarıların insanların yavaşlamalarını
07:46
in terms of getting people to slow down.
196
466330
2000
sağlamada çok etkili oldukları görülmüş.
07:48
They reduce speeds by about five to 10 percent.
197
468330
2000
Trafiğin hızını yaklaşık %10 azaltıyorlar.
07:50
They last for about five miles,
198
470330
2000
Etkileri yaklaşık 5 mil sürüyor.
07:52
in which case we put our foot back on the pedal.
199
472330
2000
daha sonra ayağımızı gaz pedalına geri koyuyoruz.
07:54
But it works, and it even has some health repercussions.
200
474330
2000
Ama işe yarıyorlar, hatta sağlığınızı bile biraz etkiliyorlar.
07:56
Your blood pressure might drop a little bit.
201
476330
2000
Tansiyonunuz düşüyor birazcık.
07:58
Maybe there's fewer accidents, so there's public health benefits.
202
478330
3000
belki daha az trafik kazası oluyo, yani halk sağlığına da faydalılar.
08:01
But by and large, this is a feedback loop
203
481330
2000
Ama bakacak olursanız, bu çok hoş
08:03
that's so nifty and too rare.
204
483330
3000
bir geri bildirim döngüsü.
08:06
Because in health care, most health care,
205
486330
2000
Çünkü sağlık hizmetlerinde, çoğunda,
08:08
the data is very removed from the action.
206
488330
3000
veri davranıştan çok kopuktur.
08:11
It's very difficult to line things up so neatly.
207
491330
3000
Ve bunlar bir araya bu şekilde düzgün getirmek pek olası değildir.
08:14
But we have an opportunity.
208
494330
2000
Ama önmüzde bir fırsat var.
08:16
So I want to talk about, I want to shift now to think about
209
496330
2000
Şimdi konuşmak istediğim konu ise
08:18
how we deliver health information in this country,
210
498330
2000
bu ülkede sağlık ile ilgili bilgileri nasıl sunduğumuz,
08:20
how we actually get information.
211
500330
3000
bilgileri nasıl alıyoruz.
08:23
This is a pharmaceutical ad.
212
503330
3000
Bu bir ilaç reklamı.
08:26
Actually, it's a spoof. It's not a real pharmaceutical ad.
213
506330
2000
Elbette düzmece, gerçek bir ilaç reklamı değil.
08:28
Nobody's had the brilliant idea
214
508330
2000
Henüz ürettiğ ilaca Havidol adını verecek
08:30
of calling their drug Havidol quite yet.
215
510330
3000
kadar parlak fikirli biri çıkmadı.
08:34
But it looks completely right.
216
514330
2000
Ama epey gerçek görünüyor.
08:36
So it's exactly the way we get
217
516330
2000
Sağlıkla, ilaçlarla ilgili bilgileri
08:38
health information and pharmaceutical information,
218
518330
3000
aynen bu şekilde alıyoruz,
08:41
and it just sounds perfect.
219
521330
2000
ve gerçekten de iyi görünüyor.
08:43
And then we turn the page of the magazine,
220
523330
2000
Sonra derginin bir sayfasını çeviriyorsunuz,
08:45
and we see this --
221
525330
3000
ve bunu görüyorsunuz.
08:48
now this is the page the FDA requires pharmaceutical companies
222
528330
3000
Bu sayfa, ilaç reklamı içine ya da takip eden sayfaya konması
08:51
to put into their ads, or to follow their ads,
223
531330
3000
FDA tarafından ilaç firmalarına zorunlu tutulan bir sayfa.
08:54
and to me, this is one of the most cynical exercises in medicine.
224
534330
4000
Bende bu tıptaki en alaycı uygulamalardan biri.
08:58
Because we know.
225
538330
2000
Çünkü hepimiz biliyoruz.
09:00
Who among us would actually say that people read this?
226
540330
2000
Aramızdan kim su sayfayı gerçekten okuduğunu söyleyebilir?
09:02
And who among us would actually say
227
542330
2000
Ve aramızdan kim, bu sayfayı
09:04
that people who do try to read this
228
544330
2000
gerçekten okusa bile
09:06
actually get anything out of it?
229
546330
2000
anladığını iddia edebilir?
09:08
This is a bankrupt effort
230
548330
2000
Bu sağlıkla ilgili bilginin
09:10
at communicating health information.
231
550330
3000
aktarılması yolunda heba edilmiş bir çaba.
09:13
There is no good faith in this.
232
553330
2000
İyi niyetli bir hareket değil.
09:15
So this is a different approach.
233
555330
2000
Bu ise farklı bir yaklaşım.
09:17
This is an approach that has been developed
234
557330
3000
Bu yaklaşım, Dartmouth Tıp Fakültesi'ndeki
09:20
by a couple researchers at Dartmouth Medical School,
235
560330
3000
bir grup araştırmacı tarafından geliştirildi
09:23
Lisa Schwartz and Steven Woloshin.
236
563330
2000
Lisa Schwartz ve Steven Woloshin.
09:25
And they created this thing called the "drug facts box."
237
565330
3000
İlaç bilgi kutusu diye bir şey geliştirdiler.
09:28
They took inspiration from, of all things,
238
568330
2000
İlham aldıkları yer ise beklemezsiniz ama
09:30
Cap'n Crunch.
239
570330
2000
Cap'n Crunch idi.
09:32
They went to the nutritional information box
240
572330
3000
Bu mısır gevreğinin kutusundaki besin değerleri
09:35
and saw that what works for cereal, works for our food,
241
575330
3000
tablosuna baktılar ve gördüler ki kahvaltılık gevrek için işe yarayan bu şey
09:38
actually helps people understand what's in their food.
242
578330
3000
insaların yediklei besinkerin içinde ne olduklarını anlamalarını sağlıyor.
09:42
God forbid we should use that same standard
243
582330
2000
Cap'n Crunch'ın kullandığı aynı standardı
09:44
that we make Cap'n Crunch live by
244
584330
2000
alıp da ilaç firmalarına götürürsek
09:46
and bring it to drug companies.
245
586330
3000
Tanrı bizi korusun.
09:49
So let me just walk through this quickly.
246
589330
2000
Sizle bunun hızlıca üzerinden geçmeme izin verin.
09:51
It says very clearly what the drug is for, specifically who it is good for,
247
591330
3000
Açıkçca ilaç ne için kullanılıyor onu gösteriyor, neyi iyileştiriyor,
09:54
so you can start to personalize your understanding
248
594330
2000
böylece ilaçtan aldığınız bilginin size uygunluğunu
09:56
of whether the information is relevant to you
249
596330
2000
veya bu ilacın size uygun olup olmadığını
09:58
or whether the drug is relevant to you.
250
598330
2000
kişiselleştirmeye başlayabilirsiniz
10:00
You can understand exactly what the benefits are.
251
600330
3000
İlacın faydalarını net olarak anlayabilirisiniz.
10:03
It isn't this kind of vague promise that it's going to work no matter what,
252
603330
3000
Ne olursa olsun ile yarayacağına dair belirsiz bir ima değil,
10:06
but you get the statistics for how effective it is.
253
606330
3000
ne kadar etkin olduğuna dair istatistikler var.
10:09
And finally, you understand what those choices are.
254
609330
3000
En son olarak da seçeneklerinizi görüyorsunuz.
10:12
You can start to unpack the choices involved
255
612330
2000
yan etkile nedeniyle yapabileceğiniz
10:14
because of the side effects.
256
614330
2000
seçimleri gözden geçirmeye başlayabilirsiniz.
10:16
Every time you take a drug, you're walking into a possible side effect.
257
616330
3000
Her ilaç alışınızda, bir grup yan etkiyle yüzleşme ihtmaliniz vardır.
10:19
So it spells those out in very clean terms,
258
619330
2000
Bu, yan etkileri çok açık terimlerle anlatıyor.
10:21
and that works.
259
621330
2000
Ve işe yarıyor.
10:23
So I love this. I love that drug facts box.
260
623330
2000
Bunu çok beğendim. Bu ilaç bilgileri kutucuğuna bayıldım.
10:25
And so I was thinking about,
261
625330
2000
Ben de, insanların bilgiyi
10:27
what's an opportunity that I could have
262
627330
2000
daha iyi anlamalarını sağlamak için
10:29
to help people understand information?
263
629330
3000
ne gibi bir fırsatlar var diye düşündüm:
10:32
What's another latent body of information that's out there
264
632330
4000
İnsanların işe yarar şekilde kullanmadıkları,
10:36
that people are really not putting to use?
265
636330
3000
atıl ve önemli diğer veriler nelerdir?
10:39
And so I came up with this: lab test results.
266
639330
3000
Ve aklıma laboratuvar test sonuçları geldi.
10:42
Blood test results are this great source of information.
267
642330
3000
Kan tahlil sonuçları inanılmaz bilgi kaynaklarıdır.
10:45
They're packed with information.
268
645330
2000
Bilgi ile yüklüdürler.
10:47
They're just not for us. They're not for people. They're not for patients.
269
647330
3000
Sadece bu bilgiler bizim için değil; insanlar, hastalar için değil.
10:50
They go right to doctors.
270
650330
2000
Doğrudan doktorlara gidiyorlar.
10:52
And God forbid -- I think many doctors, if you really asked them,
271
652330
3000
Ve Allah korusun, -- eğer soracak olursanız, doktorların çoğu da
10:55
they don't really understand all this stuff either.
272
655330
3000
bu verilerden pek bir şey anlamadıklarını itiraf ederler.
10:58
This is the worst presented information.
273
658330
3000
Bu, en kötü sunulan bilgilerden biri.
11:01
You ask Tufte, and he would say,
274
661330
3000
Tufte'ye sorsanız, muhtemelen,
11:04
"Yes, this is the absolute worst presentation of information possible."
275
664330
3000
"Evet, bu kesinlikle olabilecek en kötü veri sunumu" derdi.
11:07
What we did at Wired
276
667330
2000
Biz de Wired'da şunu yaptık
11:09
was we went, and I got our graphic design department
277
669330
2000
gittik, grafik tasarım departmanımızdan
11:11
to re-imagine these lab reports.
278
671330
2000
bu laboratuvar raporlarını yeniden tasarlamalarını istedik.
11:13
So that's what I want to walk you through.
279
673330
2000
Sizle birlikte şimdi bunların üzerinden geçmek istiyorum.
11:15
So this is the general blood work before,
280
675330
3000
Bu daha önce gördüğünüz rutin kan tahlilleri,
11:18
and this is the after, this is what we came up with.
281
678330
2000
bunlar da yenileri, bizim yaptıklarımız.
11:20
The after takes what was four pages --
282
680330
2000
Yenisi, bir önceki slayttaki dört sayfayı --
11:22
that previous slide was actually
283
682330
2000
bir önceki slaytta gerçeken de
11:24
the first of four pages of data
284
684330
2000
ilk dört sayfa sadece rutin
11:26
that's just the general blood work.
285
686330
2000
kan tahlillerini içeriyordu.
11:28
It goes on and on and on, all these values, all these numbers you don't know.
286
688330
3000
Sayfalarca sürüyor, bir sürü anlamadığınız deperlerü rakamlar var.
11:31
This is our one-page summary.
287
691330
3000
Bu ise bizim tek sayfalık özetimiz.
11:34
We use the notion of color.
288
694330
2000
Biz renk kavramını kullandık.
11:36
It's an amazing notion that color could be used.
289
696330
3000
Rengin sonuşlarda kullanılması müthüş bir fikir.
11:39
So on the top-level you have your overall results,
290
699330
3000
En üstte genel sonuçlarınız var,
11:42
the things that might jump out at you from the fine print.
291
702330
3000
ufak harfler arasından gözünüze hemen çarpacak şeyler.
11:45
Then you can drill down
292
705330
2000
daha sonra detaya inebilir
11:47
and understand how actually we put your level in context,
293
707330
3000
ve verilerin nasıl bir içerikle size hitap edecek hale geldiğini anlayabilirsiniz.
11:50
and we use color to illustrate
294
710330
2000
Sizin verinizin nereye düştüğünü gösterebilmek için
11:52
exactly where your value falls.
295
712330
2000
renkleri kullandık.
11:54
In this case, this patient is slightly at risk of diabetes
296
714330
3000
Bu örnekta, hastada kan şeker seviyesi nedeniyle
11:57
because of their glucose level.
297
717330
2000
hafif bir diyabet riski var.
11:59
Likewise, you can go over your lipids
298
719330
2000
Benzer şekilde, kan yağlarınız biraz yüksek olabilir,
12:01
and, again, understand what your overall cholesterol level is
299
721330
3000
ve yine, toplam kolestrol değerinizin ne olduğunu anlayabilir,
12:04
and then break down into the HDL and the LDL if you so choose.
300
724330
3000
hatta onu isterseniz HDL ve LDL seviyelerine parçalayabilirsiniz.
12:07
But again, always using color
301
727330
2000
Tekrar söylüyorum, her zaman renk kullanarak
12:09
and personalized proximity
302
729330
2000
ve bu bilginin normale
12:11
to that information.
303
731330
2000
kişisel yakınlığını göstererek.
12:13
All those other values,
304
733330
2000
Diğer verileri,
12:15
all those pages and pages of values that are full of nothing,
305
735330
2000
bu sayfalar dolusu olan ve birşey söylemeyen diğer verileri
12:17
we summarize.
306
737330
2000
bu şekilde özetliyoruz.
12:19
We tell you that you're okay, you're normal.
307
739330
2000
Size herşeyin yolunda olduğunu, tr-etkiklerinizin normal olduğunu süylüyoruz.
12:21
But you don't have to wade through it. You don't have to go through the junk.
308
741330
3000
Ama bunun için bu rakamların, işe yaramaz bu bilgilein içinde debelenmenize gerek yok.
12:24
And then we do two other very important things
309
744330
2000
Daha sonra öenmli iki şe daha yapıyoruz,
12:26
that kind of help fill in this feedback loop:
310
746330
2000
bunu geri bildirim döngüsünü sağlamak için yapıyoruz.
12:28
we help people understand in a little more detail
311
748330
2000
İnsanlar bu verilerin ne olduğu ve neleri gösterebildiğini
12:30
what these values are and what they might indicate.
312
750330
3000
biraz daha iyi anlamaya başladıklarında
12:33
And then we go a further step -- we tell them what they can do.
313
753330
3000
bir adım daha ileri gidiyoruz: Onlara ne yapabileceklerini söylüyoruz.
12:36
We give them some insight
314
756330
2000
Onlara yapabilecekleri seçimler, alabilecekleri önlemler,
12:38
into what choices they can make, what actions they can take.
315
758330
3000
hakkında öngörü aşılıyoruz.
12:41
So that's our general blood work test.
316
761330
3000
Bu bizim rutin kan tahlilimizdi.
12:44
Then we went to CRP test.
317
764330
2000
Daha sonra CRP testine baktık.
12:46
In this case, it's a sin of omission.
318
766330
2000
Bu vakada, tam tersi
12:48
They have this huge amount of space,
319
768330
2000
hiç bir iş için kullanılmayan
12:50
and they don't use it for anything, so we do.
320
770330
2000
kocaman bir alan vardı, biz de onu kullandık.
12:52
Now the CRP test is often done
321
772330
2000
CRP testi, genelde Kolesterol testini
12:54
following a cholesterol test,
322
774330
2000
takiben yapılıyor,
12:56
or in conjunction with a cholesterol test.
323
776330
2000
ya da onunla beraber.
12:58
So we take the bold step
324
778330
2000
Biz de cesur bir adım attık ve
13:00
of putting the cholesterol information on the same page,
325
780330
3000
kolesterol ile ilgili bilgiyi de aynı sayfaya koyduk,
13:03
which is the way the doctor is going to evaluate it.
326
783330
2000
zaten doktor bunları birlikte değerlendirecek.
13:05
So we thought the patient might actually want to know the context as well.
327
785330
3000
Biz de belki hastanın da bu içeriği anlaması gerektiğini düşündük.
13:08
It's a protein that shows up
328
788330
2000
CRP, kan damarlarınızda enflamasyon
13:10
when your blood vessels might be inflamed,
329
790330
2000
olduğunda yükselebilen bir protein,
13:12
which might be a risk for heart disease.
330
792330
2000
kalp hastalığı için bir risk faktörü olabilir.
13:14
What you're actually measuring
331
794330
2000
Neyi ölçtüğünüz yalın ve net bir dille
13:16
is spelled out in clean language.
332
796330
2000
açıklanmış durumda.
13:18
Then we use the information
333
798330
2000
Daha sonra zaten laboratuvar raporunda olan
13:20
that's already in the lab report.
334
800330
2000
bu bilgiyi kullanıyoruz.
13:22
We use the person's age and their gender
335
802330
2000
hastanın yaşı ve cinsiyetini kullanarak
13:24
to start to fill in the personalized risks.
336
804330
3000
kişisel risklerini belirlemeye başlıyoruz.
13:27
So we start to use the data we have
337
807330
2000
Burada, elimizdeki veriri
13:29
to run a very simple calculation
338
809330
2000
çok basite bir hesaplamada kullanıyoruz,
13:31
that's on all sorts of online calculators
339
811330
2000
gerçek riski hesaplayan bir sürü
13:33
to get a sense of what the actual risk is.
340
813330
3000
online hesap makinaları var.
13:36
The last one I'll show you is a PSA test.
341
816330
2000
Son göstermek istediğim bir PSA testi.
13:38
Here's the before, and here's the after.
342
818330
3000
Bu önceki hali, bu da sonraki.
13:41
Now a lot of our effort on this one --
343
821330
2000
Buna çok fazla mek harcadık --
13:43
as many of you probably know,
344
823330
2000
çoğunuz belki biliyorsunuzdur,
13:45
a PSA test is a very controversial test.
345
825330
2000
PSA epey tartışmalı bir test.
13:47
It's used to test for prostate cancer,
346
827330
2000
Prostat kanserinin teşhisiiçin kullanılıyor,
13:49
but there are all sorts of reasons
347
829330
2000
ama prostatın büyümesine neden olan
13:51
why your prostate might be enlarged.
348
831330
2000
pekçok başka neden de var.
13:53
And so we spent a good deal of our time
349
833330
2000
Bu nedenle, bunu belirtmek için
13:55
indicating that.
350
835330
2000
epey vakit harcadık.
13:57
We again personalized the risks.
351
837330
2000
Tekrar, riskleri kişisel hale getirdik.
13:59
So this patient is in their 50s,
352
839330
2000
Bu hasta 50 yaşlarında,
14:01
so we can actually give them a very precise estimate
353
841330
2000
bu nedenle ona prostat kanseri riski olma ihtimali
14:03
of what their risk for prostate cancer is.
354
843330
2000
konusunda oldukça hassas bir rakam verebiliriz.
14:05
In this case it's about 25 percent, based on that.
355
845330
3000
Bu örnekte %25 civarı.
14:08
And then again, the follow-up actions.
356
848330
3000
Bndan başka, takip için yapılması gerekenler de var.
14:11
So our cost for this was less than 10,000 dollars, all right.
357
851330
3000
Bizim bunları hazırlarken katlandığımız maliyet 10 bin dolardı.
14:14
That's what Wired magazine spent on this.
358
854330
3000
Yani Wired dergisinin bu işe yatırdığı para.
14:17
Why is Wired magazine doing this?
359
857330
2000
Wired dergisi bunu neden yapıyor?
14:19
(Laughter)
360
859330
3000
(Gülüşmeler)
14:22
Quest Diagnostics and LabCorp,
361
862330
2000
Quest Diagnostics ve LabCorp,
14:24
the two largest lab testing companies --
362
864330
3000
en büyük iki laboratuvar firması:
14:27
last year, they made profits of over 700 million dollars
363
867330
3000
geçen yıl biri 700, diğeri de 500 milyon dolar
14:30
and over 500 million dollars respectively.
364
870330
3000
kar ettiler.
14:33
Now this is not a problem of resources;
365
873330
2000
Bakın, bu bir kaynak kısıntısı problemi değil,
14:35
this is a problem of incentives.
366
875330
3000
bu bir öncelik sorunu.
14:38
We need to recognize that the target of this information
367
878330
3000
Bizler, bu bilginin hedefini iyi anlamak zorundayız
14:41
should not be the doctor, should not be the insurance company.
368
881330
3000
doktor olmamalıü sigorta şirketi olmamalı,
14:44
It should be the patient.
369
884330
2000
hastanın kendisi olmalı hedef.
14:46
It's the person who actually, in the end,
370
886330
2000
Sonunda, yaşam biçimini değiştirmek
14:48
is going to be having to change their lives
371
888330
2000
zorunda kalacak olan ve yeni davranışlar
14:50
and then start adopting new behaviors.
372
890330
2000
edinmeye çalışacak olan kişinin kendisi.
14:52
This is information that is incredibly powerful.
373
892330
2000
Bu bilgi inanılmaz derece güçlü.
14:54
It's an incredibly powerful catalyst to change.
374
894330
3000
Değişimin en hızlı katalistlerinden biri.
14:57
But we're not using it. It's just sitting there.
375
897330
2000
Ama onu kullanmıyoruz, orada duruyor.
14:59
It's being lost.
376
899330
2000
Kayboluyor.
15:01
So I want to just offer four questions
377
901330
2000
Bu nedenle her hastaya dört adet soru
15:03
that every patient should ask,
378
903330
2000
sormalarını önermek istiyorum,
15:05
because I don't actually expect people
379
905330
2000
çünkü insanların henüz bu tip laboratuvar raporları
15:07
to start developing these lab test reports.
380
907330
2000
tasarlayacağına inanmıyorum.
15:09
But you can create your own feedback loop.
381
909330
2000
Ama kendi geri bildirim döngünüzü yaratabilirsiniz.
15:11
Anybody can create their feedback loop by asking these simple questions:
382
911330
3000
Herkes bu döngüyü basit sorular sorarak oluşturabilir.
15:14
Can I have my results?
383
914330
2000
Tetkik sonuçlarımı alabilir miyim?
15:16
And the only acceptable answer is --
384
916330
2000
ve kabul edilebilir tek cevap da --
15:18
(Audience: Yes.) -- yes.
385
918330
2000
(Seyirciler: Evet.) --evet.
15:20
What does this mean? Help me understand what the data is.
386
920330
2000
Bu ne anlama geliyor? Bu veriyi anlamama yardımcı olun.
15:22
What are my options? What choices are now on the table?
387
922330
3000
Seçeneklerim neler? Masada hangi seçenekler duruyor?
15:25
And then, what's next?
388
925330
2000
Ve sonra:bundan sonra ne olacak.?
15:27
How do I integrate this information
389
927330
2000
Bu bilgiyi, daha uzun süren yaşantıma
15:29
into the longer course of my life?
390
929330
2000
ne şekilde entegre edebilirim?
15:32
So I want to wind up by just showing
391
932330
2000
Size insanların bu bilgiyi anlama
15:34
that people have the capacity to understand this information.
392
934330
2000
kapasiteleri olduğunu göstermeye çalışıyorum.
15:36
This is not beyond the grasp of ordinary people.
393
936330
3000
Bu, sıradan insanların anlayamayacakları bir konu değil.
15:39
You do not need to have the education level of people in this room.
394
939330
3000
Bu odadaki insanları bunun hakkında eğitmemize gerek yok.
15:42
Ordinary people are capable of understanding this information,
395
942330
3000
Sıradan insanlar, kendilerine verilen bilgileri anlayabilirler, ancak
15:45
if we only go to the effort of presenting it to them
396
945330
3000
sadece onlara bu bilgileri onların anlayacağı şekilde
15:48
in a form that they can engage with.
397
948330
2000
sunmak için çaba gösterirsek.
15:50
And engagement is essential here,
398
950330
2000
Ve herkesi işin içine katmak burada çok önemli.
15:52
because it's not just giving them information;
399
952330
2000
Çünkü bu sadece onlara bilgi vermekle ilgili değil,
15:54
it's giving them an opportunity to act.
400
954330
2000
onlara harkete geömek için bir de imkan sunmak.
15:56
That's what engagement is. It's different from compliance.
401
956330
2000
İşte bu işe dahil olmak; söylenenlere uymaktan farklı bir olay.
15:58
It works totally different from the way we talk about behavior
402
958330
3000
Bu mekanizma, günümüzde tıpta davarnışlar hakkında
16:01
in medicine today.
403
961330
2000
vardığımız yargılardan tamamen farklı.
16:03
And this information is out there.
404
963330
2000
Bu bilgi dışarıda öylece duruyor.
16:05
I've been talking today about latent information,
405
965330
2000
Bugün, duağan olan bir bilgiden,
16:07
all this information that exists in the system
406
967330
2000
sistem içinde yer alan ama kullanılmayan
16:09
that we're not putting to use.
407
969330
2000
bir bilgiden bahsettim.
16:11
But there are all sorts of other bodies of information
408
971330
2000
Online hale gelen pekçok başka türl
16:13
that are coming online,
409
973330
2000
bilgi ve veri mevcut.
16:15
and we need to recognize the capacity of this information
410
975330
3000
Bu bilginin kapasitesinin farkına varmamız,
16:18
to engage people, to help people
411
978330
2000
insanları işin içine katmamız, onlara yardımcı olmamız
16:20
and to change the course of their lives.
412
980330
2000
ve onların yaşantılarının akışlarını değiştirmemiz gerekli.
16:22
Thank you very much.
413
982330
2000
Çok teşekkür ederim.
16:24
(Applause)
414
984330
3000
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7