Peter Donnelly: How stats fool juries

Peter Donnelly shows how stats fool juries

243,959 views ・ 2007-01-12

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Suleyman Cengiz Gözden geçirme: Ali Maralcan
Konuşmacıların da dediği gibi, bu gerçekten ürkütücü bir deneyim-
bu seyircinin karşısında konuşmak gerçekten öyle.
Ama diğer konuşmacıların aksine,
sizlere evrenin sırlarından, ya da evrimin mucizelerinden
veya insanların dünyamızdaki eşitsizliklerle savaşmak için
00:25
As other speakers have said, it's a rather daunting experience --
0
25000
2000
buldukları akılcı ve yenilikçi yollardan bahsetmeyeceğim.
00:27
a particularly daunting experience -- to be speaking in front of this audience.
1
27000
3000
Hatta devletlerin global ekonomide karşılaştıkları zorlukları anlatmayacağım.
00:30
But unlike the other speakers, I'm not going to tell you about
2
30000
3000
00:33
the mysteries of the universe, or the wonders of evolution,
3
33000
2000
Ben kısaca, duyduğunuz gibi, size istatistikten bahsedeceğim--
00:35
or the really clever, innovative ways people are attacking
4
35000
4000
daha açık olarak, istatistikle ilgili heyecanlı bir şeylerden bahsedeceğim.
00:39
the major inequalities in our world.
5
39000
2000
00:41
Or even the challenges of nation-states in the modern global economy.
6
41000
5000
ve bu da aslında
benden önce gelmiş ve gelecek
konuşmacıların yaptıklarından daha zor bir şey.
(Gülüşmeler)
00:46
My brief, as you've just heard, is to tell you about statistics --
7
46000
4000
Mesleğe ilk başladığımda, kıdemli meslektaşlarımdan biri,
00:50
and, to be more precise, to tell you some exciting things about statistics.
8
50000
3000
gururla, istatistikçilerin rakamları seven ama muhasebeci olabilecek
00:53
And that's --
9
53000
1000
00:54
(Laughter)
10
54000
1000
00:55
-- that's rather more challenging
11
55000
2000
kişilik özelliklerine sahip olmadıklarını söylemişti.
00:57
than all the speakers before me and all the ones coming after me.
12
57000
2000
00:59
(Laughter)
13
59000
1000
(Gülüşmeler)
01:01
One of my senior colleagues told me, when I was a youngster in this profession,
14
61000
5000
İstatistikçilerin aralarında yaptıkları bir başka şaka daha var:
"İçe dönük istatistikçiyle dışa dönük istatistikçiyi nasıl ayırt edersiniz?"
01:06
rather proudly, that statisticians were people who liked figures
15
66000
4000
01:10
but didn't have the personality skills to become accountants.
16
70000
3000
Bu sorunun yanıtı ise şu:
"Dışa dönük olan, konuşurken karşısındakinin ayakkabısına bakandır"
01:13
(Laughter)
17
73000
2000
01:15
And there's another in-joke among statisticians, and that's,
18
75000
3000
(Gülüşmeler)
01:18
"How do you tell the introverted statistician from the extroverted statistician?"
19
78000
3000
Ama ben size faydalı bir şey anlatmak istiyorum -- geliyor, dikkatli dinleyin.
01:21
To which the answer is,
20
81000
2000
01:23
"The extroverted statistician's the one who looks at the other person's shoes."
21
83000
5000
Bu akşam, üniversitenin Doğa Tarihi Müzesi'nde bir tören var;
harika bir ortam, göreceksiniz.
01:28
(Laughter)
22
88000
3000
Ve Victoria döneminin en iyi örneklerinden biri.
01:31
But I want to tell you something useful -- and here it is, so concentrate now.
23
91000
5000
Pek olası değil ama -- bu özel ortamda, bu insan topluluğunda --
01:36
This evening, there's a reception in the University's Museum of Natural History.
24
96000
3000
ama bir anda kendinizi istemediğiniz biriyle konuşur hâlde bulabilirsiniz.
01:39
And it's a wonderful setting, as I hope you'll find,
25
99000
2000
01:41
and a great icon to the best of the Victorian tradition.
26
101000
5000
Bu durumda yapmanız gereken:
"Mesleğiniz nedir?" diye soracak olurlarsa -- "İstatistikçiyim" deyin.
01:46
It's very unlikely -- in this special setting, and this collection of people --
27
106000
5000
(Gülüşmeler)
Tabii şimdiki gibi önceden uyarılmış ve uydurduğunuzu bilmedikleri zaman.
01:51
but you might just find yourself talking to someone you'd rather wish that you weren't.
28
111000
3000
Bunu dediğinizde iki şeyden biri olacak:
01:54
So here's what you do.
29
114000
2000
Ya uzun zamandır görmedikleri kuzenlerini fark edip
01:56
When they say to you, "What do you do?" -- you say, "I'm a statistician."
30
116000
4000
koşarak yanına gidecekler
ya da birden susamış veya acıkmış hissedip
02:00
(Laughter)
31
120000
1000
koşa koşa yiyecek ve içecek bulmaya gidecekler.
02:01
Well, except they've been pre-warned now, and they'll know you're making it up.
32
121000
4000
Siz de, huzurla gerçekten konuşmak istediklerinizle konuşabileceksiniz.
02:05
And then one of two things will happen.
33
125000
2000
02:07
They'll either discover their long-lost cousin in the other corner of the room
34
127000
2000
Mesleğimizin en zor kısımlarından biri de insanlara yaptığımızı anlatmak.
02:09
and run over and talk to them.
35
129000
2000
02:11
Or they'll suddenly become parched and/or hungry -- and often both --
36
131000
3000
Konuk listelerinde veya sohbet ortamlarında en başta yer almıyoruz.
02:14
and sprint off for a drink and some food.
37
134000
2000
Mesleğimi anlatmanın iyi bir yolunu hiç bulamadım.
02:16
And you'll be left in peace to talk to the person you really want to talk to.
38
136000
4000
Ama karım -- o zamanlar kız arkadaşım --
02:20
It's one of the challenges in our profession to try and explain what we do.
39
140000
3000
bunu benim şimdiye dek yapabildiğimden çok daha iyi yapar.
02:23
We're not top on people's lists for dinner party guests and conversations and so on.
40
143000
5000
Yıllar önce, ilk çıkmaya başladığımızda o, İngiltere'de BBC kanalı için çalışıyordu,
bense o zamanlar Amerika'da çalışıyordum.
02:28
And it's something I've never really found a good way of doing.
41
148000
2000
Onu ziyarete geliyordum.
02:30
But my wife -- who was then my girlfriend --
42
150000
3000
Bunu söylediği iş arkadaşlarından biri, "Erkek arkadaşının işi ne?" diye sormuş.
02:33
managed it much better than I've ever been able to.
43
153000
3000
02:36
Many years ago, when we first started going out, she was working for the BBC in Britain,
44
156000
3000
Sarah, ona daha önce anlattığım şeyler üzerine çok düşünürdü
02:39
and I was, at that stage, working in America.
45
159000
2000
-- o günlerde dinlemeye odaklanmış durumdaydı.
02:41
I was coming back to visit her.
46
161000
2000
(Gülüşmeler)
02:43
She told this to one of her colleagues, who said, "Well, what does your boyfriend do?"
47
163000
6000
Size söylediğimi duymasın.
Benim evrimi ve modern genetiği anlamak için geliştirmekte
02:49
Sarah thought quite hard about the things I'd explained --
48
169000
2000
02:51
and she concentrated, in those days, on listening.
49
171000
4000
olduğum matematik modelleri çalışmalarımı düşünüyordu.
Dolayısıyla arkadaşı "Mesleği ne?" diye sorduğunda
02:55
(Laughter)
50
175000
2000
bir an duraksadı ve "Bir şeyleri modelliyor" dedi.
02:58
Don't tell her I said that.
51
178000
2000
03:00
And she was thinking about the work I did developing mathematical models
52
180000
4000
(Gülüşmeler)
Arkadaşı aniden, hak ettiğimden çok daha büyük bir ilgi duymaya başladı
03:04
for understanding evolution and modern genetics.
53
184000
3000
ve devam ederek şöyle dedi "Neyi modelliyor?"
03:07
So when her colleague said, "What does he do?"
54
187000
3000
Sarah çalışmam üzerine biraz düşündü ve "Genleri" dedi.
03:10
She paused and said, "He models things."
55
190000
4000
(Gülüşmeler)
03:14
(Laughter)
56
194000
1000
03:15
Well, her colleague suddenly got much more interested than I had any right to expect
57
195000
4000
"Genleri modelliyor."
Bu benim ilk aşkım ve size ondan biraz daha bahsedeceğim.
03:19
and went on and said, "What does he model?"
58
199000
3000
03:22
Well, Sarah thought a little bit more about my work and said, "Genes."
59
202000
3000
Daha genel olarak yapmak istediğim, sizleri dünyamızdaki
03:25
(Laughter)
60
205000
4000
belirsizlik ve rastgelelik ve şansın yeri ve bizim buna nasıl tepki verdiğimiz,
03:29
"He models genes."
61
209000
2000
onu ne kadar iyi düşündüğümüz ya da düşünmediğimizi düşünmeye sevk etmek.
03:31
That is my first love, and that's what I'll tell you a little bit about.
62
211000
4000
Şu ana, bu konuşmaya kadar rahattınız --
03:35
What I want to do more generally is to get you thinking about
63
215000
4000
biraz gülüşmeler ve benzeri.
Biraz düşünmeniz gerek ve size bazı sorular soracağım.
03:39
the place of uncertainty and randomness and chance in our world,
64
219000
3000
İşte bu, soracağım ilk sorunun görüntüsü.
03:42
and how we react to that, and how well we do or don't think about it.
65
222000
5000
Bir bozuk parayı art arda attığınızı hayal edin?
Daha ziyade belirsiz kalması gereken bir nedenden ötürü
03:47
So you've had a pretty easy time up till now --
66
227000
2000
03:49
a few laughs, and all that kind of thing -- in the talks to date.
67
229000
2000
özel bir örüntüyle ilgileniyoruz.
03:51
You've got to think, and I'm going to ask you some questions.
68
231000
3000
İşte biri -- bir tura, sonra yazı, sonra yazı.
03:54
So here's the scene for the first question I'm going to ask you.
69
234000
2000
Farz edin ki bir bozuk parayı defalarca atıyoruz.
03:56
Can you imagine tossing a coin successively?
70
236000
3000
Demin takılıp kaldığımız tura-yazı-yazı örüntüsü burada da karşımıza çıkıyor.
03:59
And for some reason -- which shall remain rather vague --
71
239000
3000
Sayabilirsiniz: Bir, iki, üç, dört, beş, altı, yedi, sekiz, dokuz, on--
04:02
we're interested in a particular pattern.
72
242000
2000
04:04
Here's one -- a head, followed by a tail, followed by a tail.
73
244000
3000
10. atışımızdan sonra oluyor.
04:07
So suppose we toss a coin repeatedly.
74
247000
3000
Yapılacak daha ilginç şeyler olabilir, ama şu an için ayak uydurun.
04:10
Then the pattern, head-tail-tail, that we've suddenly become fixated with happens here.
75
250000
5000
Dinleyicilerin şu yarısının bozuk paraları çıkartıp attığını düşünün,
04:15
And you can count: one, two, three, four, five, six, seven, eight, nine, 10 --
76
255000
4000
ta ki ilk tura-yazı-yazı örüntüsünü görene kadar.
İlk yaptıklarında, belki şimdiki gibi, 10'dan sonra olacak.
04:19
it happens after the 10th toss.
77
259000
2000
04:21
So you might think there are more interesting things to do, but humor me for the moment.
78
261000
3000
İkincide, belki dördüncüden sonra.
Sonraki 15'den sonra.
04:24
Imagine this half of the audience each get out coins, and they toss them
79
264000
4000
Yani bunu defalarca yapın ve bunların ortalamasını alın.
Bu tarafın düşünmesini istediğim şey bu.
04:28
until they first see the pattern head-tail-tail.
80
268000
3000
Dinleyicilerin öbür yarısı tura-yazı-yazı'yı sevmiyor --
04:31
The first time they do it, maybe it happens after the 10th toss, as here.
81
271000
2000
04:33
The second time, maybe it's after the fourth toss.
82
273000
2000
kültürel sebeplerden ötürü, bunu sıkıcı buluyorlar --
04:35
The next time, after the 15th toss.
83
275000
2000
ve başka bir örüntüyle ilgileniyorlar -- tura-yazı-tura.
04:37
So you do that lots and lots of times, and you average those numbers.
84
277000
3000
Bu taraf, bozuk paralarınızı çıkartıyor ve atıp duruyorsunuz.
04:40
That's what I want this side to think about.
85
280000
3000
Ve tura-yazı-tura örüntüsünü görene kadar sayıyorsunuz
04:43
The other half of the audience doesn't like head-tail-tail --
86
283000
2000
ve bu sayıların ortalamasını alıyorsunuz.
04:45
they think, for deep cultural reasons, that's boring --
87
285000
3000
Tamam? Şimdi bu taraf, bir sayınız var --
04:48
and they're much more interested in a different pattern -- head-tail-head.
88
288000
3000
defalarca yaptınız ve artık tam bir sonuç var --
04:51
So, on this side, you get out your coins, and you toss and toss and toss.
89
291000
3000
ki bu da, tura-yazı-yazı'ya varana kadarki atışlarınızın ortalaması.
04:54
And you count the number of times until the pattern head-tail-head appears
90
294000
3000
Bu taraftaysa, yine bir sayınız var -- tura-yazı-tura için sayıların ortalaması.
04:57
and you average them. OK?
91
297000
3000
İşte derin bir matematiksel gerçek --
05:00
So on this side, you've got a number --
92
300000
2000
eğer iki sayı varsa, şu üç şeyden biri doğru olmalı.
05:02
you've done it lots of times, so you get it accurately --
93
302000
2000
Ya her ikisi de aynıdır, ya bu sayı şu sayıdan büyüktür
05:04
which is the average number of tosses until head-tail-tail.
94
304000
3000
ya da şu, bu sayıdan büyüktür.
05:07
On this side, you've got a number -- the average number of tosses until head-tail-head.
95
307000
4000
Yani burada neler oluyor?
Bunun üzerine düşünmeli ve seçmelisiniz --
05:11
So here's a deep mathematical fact --
96
311000
2000
ve devam etmiyoruz.
05:13
if you've got two numbers, one of three things must be true.
97
313000
3000
İki dakikalık bir sessizlikle sonunda
herkesin düşünüp bir fikir belirlemesi için zaman vermek istemiyorum. Tamam.
05:16
Either they're the same, or this one's bigger than this one,
98
316000
3000
05:19
or this one's bigger than that one.
99
319000
1000
Yapacağınız şey, tura-yazı-tura'yı görene kadarki sayıların ortalamasıyla
05:20
So what's going on here?
100
320000
3000
05:23
So you've all got to think about this, and you've all got to vote --
101
323000
2000
tura-yazı-yazı'yı görene kadarki sayıların ortalamasını alıp karşılaştırmak.
05:25
and we're not moving on.
102
325000
1000
05:26
And I don't want to end up in the two-minute silence
103
326000
2000
05:28
to give you more time to think about it, until everyone's expressed a view. OK.
104
328000
4000
Kimler A doğrudur diyor --
yani ortalamada, tura-yazı-tura görmenin tura-yazı-yazı'dan daha uzun süreceğini?
05:32
So what you want to do is compare the average number of tosses until we first see
105
332000
4000
Kimler B doğru diyor -- yani ortalama ikisi aynı?
05:36
head-tail-head with the average number of tosses until we first see head-tail-tail.
106
336000
4000
Kimler C doğru diyor -- yani ortalamada, tura-yazı-tura'nın
05:41
Who thinks that A is true --
107
341000
2000
tura-yazı-yazı'dan daha kısa zaman alacağını?
05:43
that, on average, it'll take longer to see head-tail-head than head-tail-tail?
108
343000
4000
Kimler seçim yapmadı? Bu kötü -- zorundasınız demiştim.
05:47
Who thinks that B is true -- that on average, they're the same?
109
347000
3000
(Gülüşmeler)
Evet. Çoğunluk B'nin doğru olduğunu düşünüyor.
05:51
Who thinks that C is true -- that, on average, it'll take less time
110
351000
2000
Seçkin matematikçilerin de böyle düşündüğünü bilmek sizi rahatlatabilir.
05:53
to see head-tail-head than head-tail-tail?
111
353000
3000
Ama değil. Burada A doğru.
05:57
OK, who hasn't voted yet? Because that's really naughty -- I said you had to.
112
357000
3000
06:00
(Laughter)
113
360000
1000
Ortalamada daha uzun sürüyor.
Aslında, yazı-tura-yazı gelene kadarki ortalama 10
06:02
OK. So most people think B is true.
114
362000
3000
ve tura-yazı-yazı için ortalama 8.
06:05
And you might be relieved to know even rather distinguished mathematicians think that.
115
365000
3000
06:08
It's not. A is true here.
116
368000
4000
Bu nasıl olabilir?
Bu iki model arasında fark mı var?
06:12
It takes longer, on average.
117
372000
2000
06:14
In fact, the average number of tosses till head-tail-head is 10
118
374000
2000
06:16
and the average number of tosses until head-tail-tail is eight.
119
376000
5000
Evet var. Tura-yazı-yazı ve tura-yazı-tura üst üste geliyor.
06:21
How could that be?
120
381000
2000
Eğer tura-yazı-tura-yazı-tura-yazı gitseniz kurnazca sadece 5 atışta
06:24
Anything different about the two patterns?
121
384000
3000
modeli iki kere elde edebilirsiniz.
Bunu tura-yazı-yazı ile yapamazsınız.
06:30
There is. Head-tail-head overlaps itself.
122
390000
5000
Bunun önemli olduğu görünüyor.
Bunu düşünmenin iki yolu vardır.
06:35
If you went head-tail-head-tail-head, you can cunningly get two occurrences
123
395000
4000
Onlardan bir tanesini vereceğim.
Öyleyse hayal edin - şunu yapacağız.
06:39
of the pattern in only five tosses.
124
399000
3000
Bu taraf - hatırlayın, tura-yazı-yazı istiyoruz,
siz de tura-yazı-tura istiyorsunuz.
06:42
You can't do that with head-tail-tail.
125
402000
2000
Parayı atıyoruz ve tura--
06:44
That turns out to be important.
126
404000
2000
06:46
There are two ways of thinking about this.
127
406000
2000
heyecandan yerinizde duramıyorsunuz,
06:48
I'll give you one of them.
128
408000
2000
çünkü büyük ve muhteşem bir şey olmak üzere.
06:50
So imagine -- let's suppose we're doing it.
129
410000
2000
06:52
On this side -- remember, you're excited about head-tail-tail;
130
412000
2000
Sonraki yazı-- gerçekten heyecanlısınız.
06:54
you're excited about head-tail-head.
131
414000
2000
Buzlu şampanyanız yanınızda, kutlamaya hazırsınız.
06:56
We start tossing a coin, and we get a head --
132
416000
3000
Soluk almadan son atışı bekliyorsunuz.
06:59
and you start sitting on the edge of your seat
133
419000
1000
07:00
because something great and wonderful, or awesome, might be about to happen.
134
420000
5000
Ve bir tura daha, mükemmel.
Artık kutlamaya başlarsınız.
Eğer yazı olsaydı, tabii hayal kırıklığıyla kutlamayı bırakacaktınız.
07:05
The next toss is a tail -- you get really excited.
135
425000
2000
07:07
The champagne's on ice just next to you; you've got the glasses chilled to celebrate.
136
427000
4000
Atmayı sürdürüp heyecanlanmak için bir sonraki turayı beklerdiniz.
07:11
You're waiting with bated breath for the final toss.
137
431000
2000
Bu tarafta, farklı bir deneyim var.
07:13
And if it comes down a head, that's great.
138
433000
2000
Dizinin ilk iki kısmı için her şey aynı.
07:15
You're done, and you celebrate.
139
435000
2000
07:17
If it's a tail -- well, rather disappointedly, you put the glasses away
140
437000
2000
İlk turayla biraz heyecanlanırsınız--
07:19
and put the champagne back.
141
439000
2000
sonraki yazıyla biraz daha.
07:21
And you keep tossing, to wait for the next head, to get excited.
142
441000
3000
Sonra parayı atıyorsunuz.
Eğer yazıysa şampanyayı patlatırsınız.
07:25
On this side, there's a different experience.
143
445000
2000
Turaysa hayal kırıklığı yaşarsınız,
07:27
It's the same for the first two parts of the sequence.
144
447000
3000
ama yolun henüz üçte birindesiniz.
07:30
You're a little bit excited with the first head --
145
450000
2000
Tabii bu konuyu sunmanın gayriresmî yolu-- bu nedenle bir fark var.
07:32
you get rather more excited with the next tail.
146
452000
2000
07:34
Then you toss the coin.
147
454000
2000
Bunu düşünmenin diğer bir yolu--
07:36
If it's a tail, you crack open the champagne.
148
456000
3000
eğer parayı sekiz milyon kere atsak,
07:39
If it's a head you're disappointed,
149
459000
2000
bir milyon tura-yazı-tura ve bir milyon tura-yazı-yazı beklesek--
07:41
but you're still a third of the way to your pattern again.
150
461000
3000
tura-yazı-tura yığınları daha çok oluşabilirdi.
07:44
And that's an informal way of presenting it -- that's why there's a difference.
151
464000
4000
Yani eğer sekiz milyon pozisyonun arasına bir milyon şey koymak isterseniz
07:48
Another way of thinking about it --
152
468000
2000
07:50
if we tossed a coin eight million times,
153
470000
2000
ve bazıları çakışabilirlerse, yığınlar biraz ötede olacaktır.
07:52
then we'd expect a million head-tail-heads
154
472000
2000
07:54
and a million head-tail-tails -- but the head-tail-heads could occur in clumps.
155
474000
7000
Bu, sezgilemenin diğer bir yolu.
Anlatmak istediğim esas konu ne?
Çok basit bir örnek, herkesin-- yalnız değilsiniz--
08:01
So if you want to put a million things down amongst eight million positions
156
481000
2000
08:03
and you can have some of them overlapping, the clumps will be further apart.
157
483000
5000
herkesin yanlış yapacağı basit bir olasılık sorusu.
Gerçek tutkuma, genetiğe, küçük bir eğlence kattık.
08:08
It's another way of getting the intuition.
158
488000
2000
08:10
What's the point I want to make?
159
490000
2000
Genetikte tura-yazı-tura ile tura-yazı-yazı arasında bir ilişki var
08:12
It's a very, very simple example, an easily stated question in probability,
160
492000
4000
ve işte geliyor.
08:16
which every -- you're in good company -- everybody gets wrong.
161
496000
3000
Bir para attığınızda, bir tura ve yazı dizisi elde edersiniz.
08:19
This is my little diversion into my real passion, which is genetics.
162
499000
4000
DNA'ya baktığınızda iki şey --turalar ve yazılar-- değil,
dört harfin -A'lar, G'ler, C'ler veT'ler- dizisini bulursunuz.
08:23
There's a connection between head-tail-heads and head-tail-tails in genetics,
163
503000
3000
Kısıtlama enzimleri denen, DNA'yı belli dizilişleri gördüğünde kesen,
08:26
and it's the following.
164
506000
3000
08:29
When you toss a coin, you get a sequence of heads and tails.
165
509000
3000
küçük kimyasal makaslar var.
Bunlar modern moleküler biyolojide oldukça kullanışlı araçlar.
08:32
When you look at DNA, there's a sequence of not two things -- heads and tails --
166
512000
3000
08:35
but four letters -- As, Gs, Cs and Ts.
167
515000
3000
"Tura-yazı-turayı ne kadar sürede görürüm?" sorusu yerine --
"Örneğin, G-A-A-G'yi gördüğünde kesen bir kısıtlama enzimi kullansam,
08:38
And there are little chemical scissors, called restriction enzymes
168
518000
3000
08:41
which cut DNA whenever they see particular patterns.
169
521000
2000
parçalar hangi büyüklükte olacak?
08:43
And they're an enormously useful tool in modern molecular biology.
170
523000
4000
Uzunlukları ne kadar olacak?" sorusunu sorabilirsiniz.
Bu, olasılık ve genetik arasındaki çok basit bir bağlantı.
08:48
And instead of asking the question, "How long until I see a head-tail-head?" --
171
528000
3000
08:51
you can ask, "How big will the chunks be when I use a restriction enzyme
172
531000
3000
Anlatamayacağım çok daha derin bağlantılar var
08:54
which cuts whenever it sees G-A-A-G, for example?
173
534000
4000
ve işte modern genetik, bilimin böylesine ilginç bir alanıdır.
08:58
How long will those chunks be?"
174
538000
2000
Konferansta özellikle bunun hakkında bazı şeyler duyacağız.
09:00
That's a rather trivial connection between probability and genetics.
175
540000
5000
Ama öyle anlaşılıyor ki modern deneysel teknolojilerle
09:05
There's a much deeper connection, which I don't have time to go into
176
545000
3000
elde edilen bilgilerdeki gizemleri açmak,
09:08
and that is that modern genetics is a really exciting area of science.
177
548000
3000
oldukça karmaşık --tura-yazı-tura
09:11
And we'll hear some talks later in the conference specifically about that.
178
551000
4000
hikâyesinden çok daha karmaşık şeyleri yaptığımı duymak sizi rahatlatacaktır--
09:15
But it turns out that unlocking the secrets in the information generated by modern
179
555000
4000
bilgisayar modellemeleri, matematiksel modellemeler
ve modern istatiksel tekniklerle yapmamız gerekenin
09:19
experimental technologies, a key part of that has to do with fairly sophisticated --
180
559000
5000
esas noktasıdır.
Size, Oxford grubumla katıldığım projelerden
09:24
you'll be relieved to know that I do something useful in my day job,
181
564000
3000
iki küçük parça, örnek vereceğim;
09:27
rather more sophisticated than the head-tail-head story --
182
567000
2000
her ikisi de bence çok ilginç.
09:29
but quite sophisticated computer modelings and mathematical modelings
183
569000
4000
İnsan Genom Projesi'ni bilirsiniz.
Bu, insan genomunun bir kopyasını kaydetmeye çalışan bir projeydi.
09:33
and modern statistical techniques.
184
573000
2000
09:35
And I will give you two little snippets -- two examples --
185
575000
3000
09:38
of projects we're involved in in my group in Oxford,
186
578000
3000
Bunu yaptıktan sonra yapılacak doğal şey--
işte bu proje, Uluslararası HapMap Projesi,
09:41
both of which I think are rather exciting.
187
581000
2000
5-6 ülke laboratuvarları arasında bir ortak çalışma.
09:43
You know about the Human Genome Project.
188
583000
2000
09:45
That was a project which aimed to read one copy of the human genome.
189
585000
4000
İnsan Genom Projesi'ni, ortak yanlarımızı anlamaya çalışma olarak düşünün,
09:51
The natural thing to do after you've done that --
190
591000
2000
HapMap Projesi ise, farklı insanların
09:53
and that's what this project, the International HapMap Project,
191
593000
2000
nerede farklı olduklarını anlamaya çalışıyor.
09:55
which is a collaboration between labs in five or six different countries.
192
595000
5000
Neden önemli bu?
Çok nedeni var.
En önemlisi bazı insanları bir hastalığa --tip-2 diyabet gibi--
10:00
Think of the Human Genome Project as learning what we've got in common,
193
600000
4000
elverişli kılan farklılıkları anlamak istiyoruz
10:04
and the HapMap Project is trying to understand
194
604000
2000
10:06
where there are differences between different people.
195
606000
2000
ve kalp hastalığına yatkın insanların farklılıklarını
10:08
Why do we care about that?
196
608000
2000
10:10
Well, there are lots of reasons.
197
610000
2000
10:12
The most pressing one is that we want to understand how some differences
198
612000
4000
veya felç, otizm vb.
Bu büyük bir proje.
10:16
make some people susceptible to one disease -- type-2 diabetes, for example --
199
616000
4000
İkinci büyük bir proje var,
bu ülkede Wellcome şirketi tarafından finanse ediliyor,
10:20
and other differences make people more susceptible to heart disease,
200
620000
5000
çok geniş çalışmaları içeriyor--
binlerce birey, sekiz farklı hastalıktan,
10:25
or stroke, or autism and so on.
201
625000
2000
tip-1 ve tip-2 diyabet ve koroner kalp hastalığı gibi yaygın olanlar,
10:27
That's one big project.
202
627000
2000
10:29
There's a second big project,
203
629000
2000
manik depresiflik vb-- genetikleri anlaşılmaya çalışılıyor.
10:31
recently funded by the Wellcome Trust in this country,
204
631000
2000
10:33
involving very large studies --
205
633000
2000
Hastalıklara sebep olan genetik farklılıkları anlamaya çalışmak.
10:35
thousands of individuals, with each of eight different diseases,
206
635000
3000
Bunu neden yapmak istiyoruz?
10:38
common diseases like type-1 and type-2 diabetes, and coronary heart disease,
207
638000
4000
İnsan hastalıklarıyla ilgili çok az şey anlıyoruz.
Sebeplerini bilmiyoruz.
10:42
bipolar disease and so on -- to try and understand the genetics.
208
642000
4000
Tabana inebilir ve genetiği anlayabilirsek
hastalıkların sebebine pencere açabiliriz
10:46
To try and understand what it is about genetic differences that causes the diseases.
209
646000
3000
ve hastalık terapileriyle ilgili yeni bir anlayış
10:49
Why do we want to do that?
210
649000
2000
ve önleyici tedaviler vb.
10:51
Because we understand very little about most human diseases.
211
651000
3000
Dediğim gibi, gerçek aşkımdaki küçük oyun, bu.
10:54
We don't know what causes them.
212
654000
2000
10:56
And if we can get in at the bottom and understand the genetics,
213
656000
2000
Belirsizlikle ilgili daha yaşamsal şeylere geri dönelim.
10:58
we'll have a window on the way the disease works,
214
658000
3000
11:01
and a whole new way about thinking about disease therapies
215
661000
2000
İşte sizin için başka bir test--
11:03
and preventative treatment and so on.
216
663000
3000
bir hastalık için mutlak olmayan
bir testimiz bulunsun, ama oldukça iyi.
11:06
So that's, as I said, the little diversion on my main love.
217
666000
3000
Genellikle yüzde 99 doğru.
11:09
Back to some of the more mundane issues of thinking about uncertainty.
218
669000
5000
Birinizi alıyorum veya sokaktan birini
ve söz konusu hastalık testini yapıyorum.
11:14
Here's another quiz for you --
219
674000
2000
Varsayalım bu bir HIV testi olsun --AIDS virüsü--
11:16
now suppose we've got a test for a disease
220
676000
2000
11:18
which isn't infallible, but it's pretty good.
221
678000
2000
ve teste göre kişide hastalık var.
11:20
It gets it right 99 percent of the time.
222
680000
3000
Doğru olma olasılığı nedir?
11:23
And I take one of you, or I take someone off the street,
223
683000
3000
Test yüzde 99 doğruluk oranına sahip.
11:26
and I test them for the disease in question.
224
686000
2000
Yani doğal cevap yüzde 99.
11:28
Let's suppose there's a test for HIV -- the virus that causes AIDS --
225
688000
4000
Kim sever bu cevabı?
11:32
and the test says the person has the disease.
226
692000
3000
Hadi --herkes katılmalı.
Artık bana güvenmediğinizi düşünmeyin.
11:35
What's the chance that they do?
227
695000
3000
(Gülüşmeler)
Biraz şüpheci olmakta haklısınız, çünkü bu doğru cevap değil.
11:38
The test gets it right 99 percent of the time.
228
698000
2000
11:40
So a natural answer is 99 percent.
229
700000
4000
Bu düşünebileceğiniz şey.
Cevap değil ve değil, çünkü hikâyenin sadece bir kısmı.
11:44
Who likes that answer?
230
704000
2000
Aslında hastalığın ne kadar yaygın veya ender olduğuna bağlı.
11:46
Come on -- everyone's got to get involved.
231
706000
1000
11:47
Don't think you don't trust me anymore.
232
707000
2000
11:49
(Laughter)
233
709000
1000
Göstermeye çalışayım.
11:50
Well, you're right to be a bit skeptical, because that's not the answer.
234
710000
3000
Burada bir milyon bireyin gösterimi var.
11:53
That's what you might think.
235
713000
2000
11:55
It's not the answer, and it's not because it's only part of the story.
236
715000
3000
Salgın bir hastalık düşünelim--
oldukça nadir, 10.000'de bir kişiyi etkiliyor.
11:58
It actually depends on how common or how rare the disease is.
237
718000
3000
Bu bir milyon bireyden çoğu sağlıklı
12:01
So let me try and illustrate that.
238
721000
2000
ve bazıları hastalığa muhatap olacak.
12:03
Here's a little caricature of a million individuals.
239
723000
4000
Gerçekten, hastalığın bulunma oranına göre
12:07
So let's think about a disease that affects --
240
727000
3000
100 kişi hasta olup diğerleri olmayacak.
12:10
it's pretty rare, it affects one person in 10,000.
241
730000
2000
Herkesi test ettiğimizi varsayalım.
12:12
Amongst these million individuals, most of them are healthy
242
732000
3000
Ne olur?
Hastalığa maruz 100 kişi arasından
12:15
and some of them will have the disease.
243
735000
2000
yüzde 99 oranında doğru ve pozitif çıkacak.
12:17
And in fact, if this is the prevalence of the disease,
244
737000
3000
12:20
about 100 will have the disease and the rest won't.
245
740000
3000
Hastalık bulunmayan diğerleri arasından
12:23
So now suppose we test them all.
246
743000
2000
test, yüzde 99 oranında yine doğru çıkacak.
12:25
What happens?
247
745000
2000
Sadece yüzde 1 oranında yanlış olacak.
12:27
Well, amongst the 100 who do have the disease,
248
747000
2000
Ama o kadar çok insan var ki yanlış pozitiflerin sayısı muazzam olacak.
12:29
the test will get it right 99 percent of the time, and 99 will test positive.
249
749000
5000
Başka bir deyişle--
12:34
Amongst all these other people who don't have the disease,
250
754000
2000
pozitif çıkan tüm insanların-- katılan bireyler içinde--
12:36
the test will get it right 99 percent of the time.
251
756000
3000
12:39
It'll only get it wrong one percent of the time.
252
759000
2000
100'de birinden azı hastalıklı olacak.
12:41
But there are so many of them that there'll be an enormous number of false positives.
253
761000
4000
Her ne kadar testin doğru olduğunu düşünsek de hikâyenin önemli tarafı
12:45
Put that another way --
254
765000
2000
12:47
of all of them who test positive -- so here they are, the individuals involved --
255
767000
5000
başka bir bilgi parçası gerekiyor.
İşte anahtar öngörü.
12:52
less than one in 100 actually have the disease.
256
772000
5000
Test pozitifse yapmamız gereken
12:57
So even though we think the test is accurate, the important part of the story is
257
777000
4000
iki açıklamanın olma olasılıklarını ölçmektir.
13:01
there's another bit of information we need.
258
781000
3000
Bu açıklamaların benzer yönleri olduğu gibi farklı yönleri de var.
13:04
Here's the key intuition.
259
784000
2000
Bir açıklama kişinin hastalığı taşımadığını söylüyor--
13:07
What we have to do, once we know the test is positive,
260
787000
3000
birini rastgele seçtiğinizde bu, kaçınılmaz şekilde olası--
13:10
is to weigh up the plausibility, or the likelihood, of two competing explanations.
261
790000
6000
fakat test, olası olmayan yanlış sonucu gösteriyor.
13:16
Each of those explanations has a likely bit and an unlikely bit.
262
796000
3000
Diğer açıklama kişinin hastalığı taşıdığı -- bu olası değil--
13:19
One explanation is that the person doesn't have the disease --
263
799000
3000
ama test, olası olan doğru sonucu gösteriyor.
13:22
that's overwhelmingly likely, if you pick someone at random --
264
802000
3000
Elde ettiğimiz sayı --
100'de birden biraz küçük bir sayı --
13:25
but the test gets it wrong, which is unlikely.
265
805000
3000
bu açıklamalardan birinin diğeriyle ne kadar ilgili olduğunu gösteriyor.
13:29
The other explanation is that the person does have the disease -- that's unlikely --
266
809000
3000
13:32
but the test gets it right, which is likely.
267
812000
3000
Birlikte olmaları olası değil.
13:35
And the number we end up with --
268
815000
2000
Aynı şeyin daha konuya uygun bir örneği şöyle:
13:37
that number which is a little bit less than one in 100 --
269
817000
3000
İngiltere'dekiler iki bebeği aniden ölen Sally Clark denen kadının
13:40
is to do with how likely one of those explanations is relative to the other.
270
820000
6000
oldukça ünlü olayını bileceklerdir.
13:46
Each of them taken together is unlikely.
271
826000
2000
İlkin, gayriresmî adıyla "uykuda bebek ölümü", resmi adıyla
13:49
Here's a more topical example of exactly the same thing.
272
829000
3000
"Ani Bebek Ölümü Sendromu" sebebiyle öldükleri düşünülüyordu.
13:52
Those of you in Britain will know about what's become rather a celebrated case
273
832000
4000
Anne daha sonra cinayetten yargılandı.
13:56
of a woman called Sally Clark, who had two babies who died suddenly.
274
836000
5000
Duruşmada, seçkin bir pediatrist, böyle uzman ve sigara içmeyen bir ailede
14:01
And initially, it was thought that they died of what's known informally as "cot death,"
275
841000
4000
iki ani bebek ölümü gerçekleşme olasılığının
14:05
and more formally as "Sudden Infant Death Syndrome."
276
845000
3000
73 milyonda bir olduğu delilini verdi.
14:08
For various reasons, she was later charged with murder.
277
848000
2000
14:10
And at the trial, her trial, a very distinguished pediatrician gave evidence
278
850000
4000
Kısa keselim, o zaman anne suçlu bulundu.
14:14
that the chance of two cot deaths, innocent deaths, in a family like hers --
279
854000
5000
Çok daha sonra, ancak ikinci başvurusu sonunda temize çıktı.
14:19
which was professional and non-smoking -- was one in 73 million.
280
859000
6000
Bu bağlamda düşünürseniz, suçsuz iki çocuğunu öldürmekten yargılanmanın
14:26
To cut a long story short, she was convicted at the time.
281
866000
3000
ne kadar berbat bir şey olduğunu hayal edebilirsiniz.
14:29
Later, and fairly recently, acquitted on appeal -- in fact, on the second appeal.
282
869000
5000
Duruşmanın stresi, cinayetten yargılanma--
diğer tüm mahkûmların çocuklarını öldürdüğünü düşündükleri
14:34
And just to set it in context, you can imagine how awful it is for someone
283
874000
4000
bir hapishanede kalma-- birisinin başına gelebilecek en berbat şey.
14:38
to have lost one child, and then two, if they're innocent,
284
878000
3000
En büyük sebep, uzmanın istatistiği
14:41
to be convicted of murdering them.
285
881000
2000
14:43
To be put through the stress of the trial, convicted of murdering them --
286
883000
2000
korkunç derecede yanlış yorumlamasıydı, iki farklı şekilde.
14:45
and to spend time in a women's prison, where all the other prisoners
287
885000
3000
14:48
think you killed your children -- is a really awful thing to happen to someone.
288
888000
5000
Şimdi, 73 milyonda bir sayısını nereden buldu?
Sally Clark gibi bir ailede bir uykuda bebek ölümü olasılığının yaklaşık
14:53
And it happened in large part here because the expert got the statistics
289
893000
5000
8500'de bir olduğunu belirten bazı araştırmalara baktı.
14:58
horribly wrong, in two different ways.
290
898000
3000
"Ailede bir uykuda bebek ölümü olduysa
15:01
So where did he get the one in 73 million number?
291
901000
4000
ikincisinin olma olasılığının değişmediğini varsayıyorum." dedi.
15:05
He looked at some research, which said the chance of one cot death in a family
292
905000
3000
15:08
like Sally Clark's is about one in 8,500.
293
908000
5000
Bu, istatistikçilerin bağımsızlık varsayımı dediği şey.
"Bir parayı atıp ilk seferde tura görürseniz, ikinci seferde
15:13
So he said, "I'll assume that if you have one cot death in a family,
294
913000
4000
tura gelme olasılığı değişmez." demek gibi.
Yani bir parayı iki kez atarsanız, iki kez tura gelme olasılığı yarım
15:17
the chance of a second child dying from cot death aren't changed."
295
917000
4000
15:21
So that's what statisticians would call an assumption of independence.
296
921000
3000
--birincinin olasılığı-- çarpı yarımdır --ikincinin olasılığı.
15:24
It's like saying, "If you toss a coin and get a head the first time,
297
924000
2000
Böylece, "Burada olayların bağımsız olduğunu varsayacağım.
15:26
that won't affect the chance of getting a head the second time."
298
926000
3000
15:29
So if you toss a coin twice, the chance of getting a head twice are a half --
299
929000
5000
8500 sayısını kendisiyle çarparsanız, 73 milyon olur." dedi.
Bunların hiçbiri mahkemeye ve jüriye
15:34
that's the chance the first time -- times a half -- the chance a second time.
300
934000
3000
bir varsayım olarak sunulmadı.
15:37
So he said, "Here,
301
937000
2000
Ne yazık ki --ve gerçekten üzülerek--
15:39
I'll assume that these events are independent.
302
939000
4000
böyle bir durumda ilkin bunu deneysel olarak doğrulamalısınız.
15:43
When you multiply 8,500 together twice,
303
943000
2000
15:45
you get about 73 million."
304
945000
2000
İkincisi açıkça yanlıştır.
15:47
And none of this was stated to the court as an assumption
305
947000
2000
15:49
or presented to the jury that way.
306
949000
2000
Ani çocuk ölümleri hakkında bilmediğimiz çok şey var.
15:52
Unfortunately here -- and, really, regrettably --
307
952000
3000
Farkında olmadığımız çevresel etmenler bulunabilir
15:55
first of all, in a situation like this you'd have to verify it empirically.
308
955000
4000
ve bilmediğimiz genetik etmenlerin olma olasılığı da bulunabilir.
15:59
And secondly, it's palpably false.
309
959000
2000
Eğer bir ailede bir ani bebek ölümü olursa, yüksek risk grubuna koyarsınız.
16:02
There are lots and lots of things that we don't know about sudden infant deaths.
310
962000
5000
Muhtemelen bu çevresel risk etmenleri ve bilmediğimiz genetik etmenler vardır.
16:07
It might well be that there are environmental factors that we're not aware of,
311
967000
3000
Bu bilgileri bilmiyormuş gibi ikinci ölümün olasılığını tartışmak
16:10
and it's pretty likely to be the case that there are
312
970000
2000
16:12
genetic factors we're not aware of.
313
972000
2000
gerçekten aptalca.
16:14
So if a family suffers from one cot death, you'd put them in a high-risk group.
314
974000
3000
Aptallıktan öte --gerçekten kötü bilim.
16:17
They've probably got these environmental risk factors
315
977000
2000
16:19
and/or genetic risk factors we don't know about.
316
979000
3000
Yine de sunumu böyleydi ve duruşmada kimse tartışmadı bile.
16:22
And to argue, then, that the chance of a second death is as if you didn't know
317
982000
3000
İlk problem buydu.
16:25
that information is really silly.
318
985000
3000
İkincisi, bu 73 milyonda bir sayısı ne anlama gelir?
16:28
It's worse than silly -- it's really bad science.
319
988000
4000
Sally Clark suçlu bulunduktan sonra --
16:32
Nonetheless, that's how it was presented, and at trial nobody even argued it.
320
992000
5000
basında ne kadar çok sükse yaptığını hayal edebilirsiniz--
İngiltere'nin en saygın gazetelerinden birinde çalışan bir gazeteci
16:37
That's the first problem.
321
997000
2000
16:39
The second problem is, what does the number of one in 73 million mean?
322
999000
4000
uzmanın söylediğini şöyle aktardı:
16:43
So after Sally Clark was convicted --
323
1003000
2000
"Onun suçsuz olması olasılığı 73 milyonda bir."
16:45
you can imagine, it made rather a splash in the press --
324
1005000
4000
16:49
one of the journalists from one of Britain's more reputable newspapers wrote that
325
1009000
7000
Evet, bu mantıksal bir hata.
Bu, yüzde 99 doğruluğa sahip hastalık testinden sonra,
hastalığa sahip olma olasılığı yüzde 99'dur,
16:56
what the expert had said was,
326
1016000
2000
şeklinde düşünme mantıksal hatasıyla tam olarak aynı mantıksal hatadır.
16:58
"The chance that she was innocent was one in 73 million."
327
1018000
5000
Hastalık örneğinde, iki şeyi akılda tutmak gerekiyordu,
17:03
Now, that's a logical error.
328
1023000
2000
17:05
It's exactly the same logical error as the logical error of thinking that
329
1025000
3000
biri, testin doğru ya da yanlış olma olasılığıydı,
17:08
after the disease test, which is 99 percent accurate,
330
1028000
2000
diğeri ise kişinin hastalığı taşıyıp taşımadığı olasılığıydı.
17:10
the chance of having the disease is 99 percent.
331
1030000
4000
Bu bağlamda tamamen aynıdır.
17:14
In the disease example, we had to bear in mind two things,
332
1034000
4000
İlgili iki şey var -- açıklamanın iki parçası.
17:18
one of which was the possibility that the test got it right or not.
333
1038000
4000
İki farklı açıklamanın nasıl olası veya nispeten olası olduğunu bilmek istiyoruz.
17:22
And the other one was the chance, a priori, that the person had the disease or not.
334
1042000
4000
Biri, Sally Clark suçsuzdu--
17:26
It's exactly the same in this context.
335
1046000
3000
ki muhtemelen kuvvetli şekilde olası--
17:29
There are two things involved -- two parts to the explanation.
336
1049000
4000
çoğu anne çocuğunu öldürmez.
Açıklamanın diğer parçası ise
17:33
We want to know how likely, or relatively how likely, two different explanations are.
337
1053000
4000
çok olası olmayan bir olayla acı çekti.
17:37
One of them is that Sally Clark was innocent --
338
1057000
3000
73 milyonda bir kadar olasılıksız değil, ancak yine de oldukça olasılıksız.
17:40
which is, a priori, overwhelmingly likely --
339
1060000
2000
Diğer açıklama ise onun suçlu olduğuydu.
17:42
most mothers don't kill their children.
340
1062000
3000
Bunun muhtemelen olası olmadığını düşünüyoruz.
17:45
And the second part of the explanation
341
1065000
2000
Bir cinayet davası bağlamında suçsuzluk karinesine göre
17:47
is that she suffered an incredibly unlikely event.
342
1067000
3000
olasılıksız olduğunu düşünmeliyiz de.
17:50
Not as unlikely as one in 73 million, but nonetheless rather unlikely.
343
1070000
4000
Bu durumda çocuklarını öldürmek istediyse, başardı.
17:54
The other explanation is that she was guilty.
344
1074000
2000
Yani suçsuz olma olasılığı 73 milyonda bir değil.
17:56
Now, we probably think a priori that's unlikely.
345
1076000
2000
17:58
And we certainly should think in the context of a criminal trial
346
1078000
3000
Bunun ne olduğunu bilmiyoruz.
Bu, ona karşı olan diğer delilin gücüyle istatiksel delilin
18:01
that that's unlikely, because of the presumption of innocence.
347
1081000
3000
18:04
And then if she were trying to kill the children, she succeeded.
348
1084000
4000
karşılıklı tartılmasıyla ilgili.
18:08
So the chance that she's innocent isn't one in 73 million.
349
1088000
4000
Çocukların öldüğünü biliyoruz.
Mesele, bu iki açıklamanın birbirine göre ne kadar olası
18:12
We don't know what it is.
350
1092000
2000
veya olasılıksız olduğudur.
18:14
It has to do with weighing up the strength of the other evidence against her
351
1094000
4000
Her ikisi de mantıksız.
İstatikte hataların gerçekten derin
18:18
and the statistical evidence.
352
1098000
2000
18:20
We know the children died.
353
1100000
2000
ve talihsiz sonuçlarının olduğu bir durum var.
18:22
What matters is how likely or unlikely, relative to each other,
354
1102000
4000
Aslında, bu pediatristin delillerine dayanılarak suçlanan ve sonradan
18:26
the two explanations are.
355
1106000
2000
18:28
And they're both implausible.
356
1108000
2000
beraat ederek salınan iki kadın daha var.
18:31
There's a situation where errors in statistics had really profound
357
1111000
4000
Birçok dava yeniden bakıldı.
Özellikle tartışmalı çünkü şu an
İngiltere Genel Tıp Konseyi'nde bir itibarsızlık suçlamasıyla karşı karşıya.
18:35
and really unfortunate consequences.
358
1115000
3000
18:38
In fact, there are two other women who were convicted on the basis of the
359
1118000
2000
18:40
evidence of this pediatrician, who have subsequently been released on appeal.
360
1120000
4000
Sonuç olarak -- bundan alınacak dersler nelerdir?
18:44
Many cases were reviewed.
361
1124000
2000
Artık rassallığın, belirsizliğin ve şansın günlük hayatımızın çok içinde
18:46
And it's particularly topical because he's currently facing a disrepute charge
362
1126000
4000
bir parçası olduğunu biliyoruz.
18:50
at Britain's General Medical Council.
363
1130000
3000
Doğru da -- siz, her ne kadar bir topluluk olarak birçok yönden özel olsanız da,
18:53
So just to conclude -- what are the take-home messages from this?
364
1133000
4000
verdiğim doğru örnekleri almama hususunda tamamen tipiksiniz.
18:57
Well, we know that randomness and uncertainty and chance
365
1137000
4000
İnsanların meseleleri yanlış anladıkları çokça belgelenmiştir.
19:01
are very much a part of our everyday life.
366
1141000
3000
Belirsizlikle akıl yürütmede mantık hataları yaparlar.
19:04
It's also true -- and, although, you, as a collective, are very special in many ways,
367
1144000
5000
Dilin ustalıklarıyla zekice baş edebiliyoruz --
19:09
you're completely typical in not getting the examples I gave right.
368
1149000
4000
ve buraya nasıl geldiğimiz hakkında ilginç evrimsel sorular var.
Belirsizlikle mantık yürütmede iyi değiliz.
19:13
It's very well documented that people get things wrong.
369
1153000
3000
Bu günlük hayatımızın bir konusudur.
19:16
They make errors of logic in reasoning with uncertainty.
370
1156000
3000
Birçok görüşmeden öğrendiğiniz gibi, istatistikler, bilimdeki çok sayıdaki
19:20
We can cope with the subtleties of language brilliantly --
371
1160000
2000
araştırmayı desteklemektedir -- sosyal bilimlerde,
19:22
and there are interesting evolutionary questions about how we got here.
372
1162000
3000
tıpta ve birçok endüstride.
19:25
We are not good at reasoning with uncertainty.
373
1165000
3000
Endüstriyel süreçlerde büyük bir etkisi olan tüm kalite kontroller,
19:28
That's an issue in our everyday lives.
374
1168000
2000
istatistikler tarafından desteklenmektedir.
19:30
As you've heard from many of the talks, statistics underpins an enormous amount
375
1170000
3000
Kötü yaptığımız bir iş.
19:33
of research in science -- in social science, in medicine
376
1173000
3000
En azından bunun farkına varmalı ve yapmamalıyız.
19:36
and indeed, quite a lot of industry.
377
1176000
2000
Yasal bağlama dönersek, Sally Clark davasında
19:38
All of quality control, which has had a major impact on industrial processing,
378
1178000
4000
tüm avukatlar uzmanın söylediğini kabul ettiler.
19:42
is underpinned by statistics.
379
1182000
2000
19:44
It's something we're bad at doing.
380
1184000
2000
Dolayısıyla bir pediatrist çıkıp jüriye
19:46
At the very least, we should recognize that, and we tend not to.
381
1186000
3000
"Köprü nasıl kurulur biliyorum. Yolda bir tane var."
19:49
To go back to the legal context, at the Sally Clark trial
382
1189000
4000
Lütfen arabanızı eve üzerinden sürün," dese,
"Pediatristler nasıl köprü yapılır bilmez.
19:53
all of the lawyers just accepted what the expert said.
383
1193000
4000
Mühendislerin işi bu." derlerdi.
Öte yandan, o çıktı ve etkili bir şekilde şöyle dedi veya ima etti:
19:57
So if a pediatrician had come out and said to a jury,
384
1197000
2000
"Belirsizlikle nasıl mantık yürütülür ve istatistik yapılır biliyorum."
19:59
"I know how to build bridges. I've built one down the road.
385
1199000
3000
Herkes "Tamam, sorun değil. O bir uzman."
20:02
Please drive your car home over it,"
386
1202000
2000
20:04
they would have said, "Well, pediatricians don't know how to build bridges.
387
1204000
2000
Yani yeterliliğimizin nerede olup olmadığını anlamamız gerekir.
20:06
That's what engineers do."
388
1206000
2000
Bilim insanları, avukatlar ve bazı durumlarda hâkimlerin kanıtı rutin olarak
20:08
On the other hand, he came out and effectively said, or implied,
389
1208000
3000
20:11
"I know how to reason with uncertainty. I know how to do statistics."
390
1211000
3000
yanlış gösterdikleri DNA profillemesinin ilk günlerinde de
20:14
And everyone said, "Well, that's fine. He's an expert."
391
1214000
3000
aynı tür konular ortaya çıktı.
20:17
So we need to understand where our competence is and isn't.
392
1217000
3000
Genellikle --bir umut-- masumca, fakat yanlış gösterilmiş deliller.
20:20
Exactly the same kinds of issues arose in the early days of DNA profiling,
393
1220000
4000
Adli tıpçılar, "Bu adamın masum olma şansı üç milyonda bir." dedi.
20:24
when scientists, and lawyers and in some cases judges,
394
1224000
4000
Sayıya inansanız bile, tıpkı 73 milyonda bir gibi,
20:28
routinely misrepresented evidence.
395
1228000
3000
anlamı bu değil.
İşte bu yüzden İngiltere ve başka yerlerde
20:32
Usually -- one hopes -- innocently, but misrepresented evidence.
396
1232000
3000
ünlü beraat davaları olmuştur.
20:35
Forensic scientists said, "The chance that this guy's innocent is one in three million."
397
1235000
5000
Sadece hukuk sistemi bağlamında bitirme adına,
her şey iyi güzel ama "Kanıtı sunmak için elimizden geleni yapalım." diyelim.
20:40
Even if you believe the number, just like the 73 million to one,
398
1240000
2000
20:42
that's not what it meant.
399
1242000
2000
Fakat artan DNA profillemesi vakalarında --bu başka biri--
20:44
And there have been celebrated appeal cases
400
1244000
2000
sıradan insanlar olan jürilerin --
20:46
in Britain and elsewhere because of that.
401
1246000
2000
20:48
And just to finish in the context of the legal system.
402
1248000
3000
bu konuda kötü oldukları belgeli--
bu tür akıl yürütme sorunlarıyla başa çıkabilmelerini umuyoruz.
20:51
It's all very well to say, "Let's do our best to present the evidence."
403
1251000
4000
Hayatın diğer sahalarında, insanlar mantıksızca tartıştıklarında,
20:55
But more and more, in cases of DNA profiling -- this is another one --
404
1255000
3000
--muhtemel siyaset hariç--
20:58
we expect juries, who are ordinary people --
405
1258000
3000
bu iyi bir şey değil derdik.
21:01
and it's documented they're very bad at this --
406
1261000
2000
21:03
we expect juries to be able to cope with the sorts of reasoning that goes on.
407
1263000
4000
Bunu siyasetçilerden bekleriz ve fazlasını da beklemeyiz.
21:07
In other spheres of life, if people argued -- well, except possibly for politics --
408
1267000
5000
Belirsizlik durumunda, her zaman yanlış anlıyoruz --
en azından bunun farkında olmalıyız
21:12
but in other spheres of life, if people argued illogically,
409
1272000
2000
ve bununla ilgili bir şey yapmaya çalışabiliriz.
21:14
we'd say that's not a good thing.
410
1274000
2000
Çok teşekkürler.
21:16
We sort of expect it of politicians and don't hope for much more.
411
1276000
4000
21:20
In the case of uncertainty, we get it wrong all the time --
412
1280000
3000
21:23
and at the very least, we should be aware of that,
413
1283000
2000
21:25
and ideally, we might try and do something about it.
414
1285000
2000
21:27
Thanks very much.
415
1287000
1000
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7