Peter Donnelly: How stats fool juries

243,959 views ・ 2007-01-12

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Anna Patai Lektor: Laszlo Kereszturi
00:25
As other speakers have said, it's a rather daunting experience --
0
25000
2000
Ahogy azt mások is elmondták, nagyon rémisztő --
00:27
a particularly daunting experience -- to be speaking in front of this audience.
1
27000
3000
kifejezetten rémisztő élmény -- ezelőtt a közönség előtt beszélni.
00:30
But unlike the other speakers, I'm not going to tell you about
2
30000
3000
De más előadókkal ellentétben, én nem a világegyetem
00:33
the mysteries of the universe, or the wonders of evolution,
3
33000
2000
titkairól, az evolúció csodáiról fogok beszélni,
00:35
or the really clever, innovative ways people are attacking
4
35000
4000
vagy azokról az nagyon ügyes, újító módszerekről, amivel az emberek
00:39
the major inequalities in our world.
5
39000
2000
küzdenek a világ nagy egyenlőtlenségei ellen.
00:41
Or even the challenges of nation-states in the modern global economy.
6
41000
5000
Vagy a nemzetállamok előtt álló kihívásokról a modern globális gazdaságban.
00:46
My brief, as you've just heard, is to tell you about statistics --
7
46000
4000
A feladatom, ahogy hallották a bevezetőből, hogy a statisztikáról beszéljek --
00:50
and, to be more precise, to tell you some exciting things about statistics.
8
50000
3000
pontosabban, hogy valami izgalmasat mondjak a statisztikáról.
00:53
And that's --
9
53000
1000
És ez --
00:54
(Laughter)
10
54000
1000
(Nevetés)
00:55
-- that's rather more challenging
11
55000
2000
-- ez egy nagyobb kihívás,
00:57
than all the speakers before me and all the ones coming after me.
12
57000
2000
mint az összes előttem és utánam felszólaló előadóé.
00:59
(Laughter)
13
59000
1000
(Nevetés)
01:01
One of my senior colleagues told me, when I was a youngster in this profession,
14
61000
5000
Egy idősebb kollégám azt mondta nekem, még a pályám elején,
01:06
rather proudly, that statisticians were people who liked figures
15
66000
4000
igazán büszkén, hogy a statisztikusok azok, akik szeretik a számokat,
01:10
but didn't have the personality skills to become accountants.
16
70000
3000
de nincs elég érdekes személyiségük ahhoz, hogy könyvelők legyenek.
01:13
(Laughter)
17
73000
2000
(Nevetés)
01:15
And there's another in-joke among statisticians, and that's,
18
75000
3000
És van egy másik vicc statisztikusok között:
01:18
"How do you tell the introverted statistician from the extroverted statistician?"
19
78000
3000
"Mi a különbség az introvertált és az extrovertált statisztikus között?"
01:21
To which the answer is,
20
81000
2000
A válasz:
01:23
"The extroverted statistician's the one who looks at the other person's shoes."
21
83000
5000
"Az extrovertált statisztikus az, aki a másik cipőjét nézi."
01:28
(Laughter)
22
88000
3000
(Nevetés)
01:31
But I want to tell you something useful -- and here it is, so concentrate now.
23
91000
5000
De el akarok mondani valami hasznosat -- ez az, úgyhogy figyeljenek.
01:36
This evening, there's a reception in the University's Museum of Natural History.
24
96000
3000
Ma este lesz egy fogadás az egyetem Természettudományi Múzeumában.
01:39
And it's a wonderful setting, as I hope you'll find,
25
99000
2000
Ez egy csodálatos környezet, remélem egyetértenek,
01:41
and a great icon to the best of the Victorian tradition.
26
101000
5000
és egy kiemelkedő jelképe a Viktória korabeli hagyományok legjavának.
01:46
It's very unlikely -- in this special setting, and this collection of people --
27
106000
5000
Nem valószínű -- ebben a különleges környezetben, ilyen emberek között -- de előfordulhat,
01:51
but you might just find yourself talking to someone you'd rather wish that you weren't.
28
111000
3000
hogy egy olyan emberrel beszélgetnek, akivel inkább nem beszélgetnének.
01:54
So here's what you do.
29
114000
2000
Ez a teendő.
01:56
When they say to you, "What do you do?" -- you say, "I'm a statistician."
30
116000
4000
Amikor azt kérdezik: "Mivel foglalkozik?" -- válaszolják azt, hogy "Statisztikus vagyok."
02:00
(Laughter)
31
120000
1000
(Nevetés)
02:01
Well, except they've been pre-warned now, and they'll know you're making it up.
32
121000
4000
Persze most figyelmeztettem őket, és már tudni fogják, hogy csak kitalálták.
02:05
And then one of two things will happen.
33
125000
2000
És akkor két dolog történhet.
02:07
They'll either discover their long-lost cousin in the other corner of the room
34
127000
2000
Vagy megpillantják az unokatestvérüket a szoba másik végében,
02:09
and run over and talk to them.
35
129000
2000
és elrohannak beszélni vele.
02:11
Or they'll suddenly become parched and/or hungry -- and often both --
36
131000
3000
Vagy hirtelen éhesek vagy szomjasak lesznek -- gyakran mindkettő --
02:14
and sprint off for a drink and some food.
37
134000
2000
és elszaladnak a büfé felé.
02:16
And you'll be left in peace to talk to the person you really want to talk to.
38
136000
4000
És akkor végre nyugodtan beszélhetnek azzal, akivel igazán beszélni akarnak.
02:20
It's one of the challenges in our profession to try and explain what we do.
39
140000
3000
A szakmánk egyik kihívása megmagyarázni, hogy mit csinálunk.
02:23
We're not top on people's lists for dinner party guests and conversations and so on.
40
143000
5000
Nem hívnak meg gyakran vacsorákra vagy szeretnek velünk beszélgetni.
02:28
And it's something I've never really found a good way of doing.
41
148000
2000
És erre soha nem találtam igazán jó módszert.
02:30
But my wife -- who was then my girlfriend --
42
150000
3000
De a feleségem -- aki akkor még a barátnőm volt --
02:33
managed it much better than I've ever been able to.
43
153000
3000
ezt sokkal jobban kezelte, mint ahogy én.
02:36
Many years ago, when we first started going out, she was working for the BBC in Britain,
44
156000
3000
Sok-sok évvel ezelőtt, amikor megismerkedtünk, ő a BBC-nek dolgozott Nagy-Britanniában,
02:39
and I was, at that stage, working in America.
45
159000
2000
és én akkoriban Amerikában dolgoztam.
02:41
I was coming back to visit her.
46
161000
2000
Visszajöttem meglátogatni.
02:43
She told this to one of her colleagues, who said, "Well, what does your boyfriend do?"
47
163000
6000
Megemlítette az egyik kollégájának, aki megkérdezte: "És mivel foglalkozik a barátod?"
02:49
Sarah thought quite hard about the things I'd explained --
48
169000
2000
Sarah mélyen elgondolkozott azokon a dolgokon, amiket elmagyaráztam neki --
02:51
and she concentrated, in those days, on listening.
49
171000
4000
akkoriban még a hallgatásra koncentrált.
02:55
(Laughter)
50
175000
2000
(Nevetés)
02:58
Don't tell her I said that.
51
178000
2000
Ne mondják el neki, hogy ezt mondtam.
03:00
And she was thinking about the work I did developing mathematical models
52
180000
4000
És a munkámra gondolt, amiben matematikai modelleket dolgoztam ki
03:04
for understanding evolution and modern genetics.
53
184000
3000
az evolúció és a modern genetika megértésére.
03:07
So when her colleague said, "What does he do?"
54
187000
3000
Szóval a kollégája kérdésére: "Mivel foglalkozik?"
03:10
She paused and said, "He models things."
55
190000
4000
Elgondolkodott, és azt mondta: "Modellekkel."
03:14
(Laughter)
56
194000
1000
(Nevetés)
03:15
Well, her colleague suddenly got much more interested than I had any right to expect
57
195000
4000
Nos, a kollégája sokkal érdeklődőbb lett, mint ahogy az elvárható lett volna,
03:19
and went on and said, "What does he model?"
58
199000
3000
és tovább kérdezett, hogy "Milyen modellekkel?"
03:22
Well, Sarah thought a little bit more about my work and said, "Genes."
59
202000
3000
Sarah egy kicsit tovább gondolkodott a munkámról és azt mondta: "Genetikusokkal."
03:25
(Laughter)
60
205000
4000
(Nevetés)
03:29
"He models genes."
61
209000
2000
Genetikai modellek.
03:31
That is my first love, and that's what I'll tell you a little bit about.
62
211000
4000
Ez az első szerelmem, és erről szeretnék egy kicsit beszélni.
03:35
What I want to do more generally is to get you thinking about
63
215000
4000
Nagyobb vonalakban arról szeretném, hogy elkezdjenek gondolkodni,
03:39
the place of uncertainty and randomness and chance in our world,
64
219000
3000
hogy milyen szerepet játszik a bizonytalanság és a szerencse a világunkban,
03:42
and how we react to that, and how well we do or don't think about it.
65
222000
5000
hogy reagálunk rá, milyen jól vagy rosszul gondolkodunk róla.
03:47
So you've had a pretty easy time up till now --
66
227000
2000
Eddig könnyű dolguk volt --
03:49
a few laughs, and all that kind of thing -- in the talks to date.
67
229000
2000
néhány vicc és hasonlók -- az eddigi előadásokkal.
03:51
You've got to think, and I'm going to ask you some questions.
68
231000
3000
Most gondolkozniuk kell, és kérdéseket fogok feltenni.
03:54
So here's the scene for the first question I'm going to ask you.
69
234000
2000
Képzeljék el a következő helyzetet.
03:56
Can you imagine tossing a coin successively?
70
236000
3000
El tudják képzelni, hogy egy érmét dobnak fel folyamatosan?
03:59
And for some reason -- which shall remain rather vague --
71
239000
3000
És valamilyen okból -- ami maradjon homályos --
04:02
we're interested in a particular pattern.
72
242000
2000
egy bizonyos minta érdekel bennünket.
04:04
Here's one -- a head, followed by a tail, followed by a tail.
73
244000
3000
Itt van egy -- fej, utána írás, utána fej.
04:07
So suppose we toss a coin repeatedly.
74
247000
3000
Tegyük fel, hogy folyamatosan dobjuk fel az érmét.
04:10
Then the pattern, head-tail-tail, that we've suddenly become fixated with happens here.
75
250000
5000
És a minta, aminek hirtelen a megszállotjai lettünk, itt jelenik meg.
04:15
And you can count: one, two, three, four, five, six, seven, eight, nine, 10 --
76
255000
4000
Meg lehet számolni: egy, kettő, három, négy, öt, hat, hét, nyolc, kilenc, 10 --
04:19
it happens after the 10th toss.
77
259000
2000
10 feldobás után jelenik meg.
04:21
So you might think there are more interesting things to do, but humor me for the moment.
78
261000
3000
Most gondolhatják, hogy vannak ennél érdekesebb dolgok is, de maradjanak velem egy pillanatra.
04:24
Imagine this half of the audience each get out coins, and they toss them
79
264000
4000
Képzeljék el, hogy a közönségnek ez a fele mind kap egy érmét,
04:28
until they first see the pattern head-tail-tail.
80
268000
3000
és addig dobálják, míg megjelenik a fej-írás-írás minta.
04:31
The first time they do it, maybe it happens after the 10th toss, as here.
81
271000
2000
Az első alkalommal mondjuk a 10. feldobás után történik meg, mint itt.
04:33
The second time, maybe it's after the fourth toss.
82
273000
2000
Másodszorra talán a negyedik dobás után.
04:35
The next time, after the 15th toss.
83
275000
2000
Legközelebb a 15. dobás után.
04:37
So you do that lots and lots of times, and you average those numbers.
84
277000
3000
Megcsináljuk ezt nagyon sokszor, és megnézzük a számok átlagát.
04:40
That's what I want this side to think about.
85
280000
3000
Ez az oldal gondolkodjon ezen.
04:43
The other half of the audience doesn't like head-tail-tail --
86
283000
2000
A közönség másik fele nem szereti a fej-írás-írást --
04:45
they think, for deep cultural reasons, that's boring --
87
285000
3000
azt gondolják, mélyen gyökerező kulturális okokból, hogy ez unalmas --
04:48
and they're much more interested in a different pattern -- head-tail-head.
88
288000
3000
és sokkal jobban érdekli őket egy másik minta -- fej-írás-fej.
04:51
So, on this side, you get out your coins, and you toss and toss and toss.
89
291000
3000
Szóval ez az oldal megkapja az érméit és folyamatosan dobálják.
04:54
And you count the number of times until the pattern head-tail-head appears
90
294000
3000
És megszámolják hány dobás volt, mire megjelent a fej-írás-fej minta,
04:57
and you average them. OK?
91
297000
3000
és megnézik az átlagát. Rendben?
05:00
So on this side, you've got a number --
92
300000
2000
Szóval ezen az oldalon van egy számuk --
05:02
you've done it lots of times, so you get it accurately --
93
302000
2000
nagyon sokszor megcsinálták, ezért pontos --
05:04
which is the average number of tosses until head-tail-tail.
94
304000
3000
ami az átlagos számú dobás, amíg a fej-írás-írás minta megjelenik.
05:07
On this side, you've got a number -- the average number of tosses until head-tail-head.
95
307000
4000
Ezen az oldalon van egy számuk -- az átlagos számú dobás, amíg a fej-írás-fej minta megjelenik.
05:11
So here's a deep mathematical fact --
96
311000
2000
Íme egy alapvető matematikai tény --
05:13
if you've got two numbers, one of three things must be true.
97
313000
3000
ha van két számunk, a következő három dolog egyike igaz.
05:16
Either they're the same, or this one's bigger than this one,
98
316000
3000
Vagy egyformák, vagy ez nagyobb, mint ez,
05:19
or this one's bigger than that one.
99
319000
1000
vagy ez nagyobb, mint ez.
05:20
So what's going on here?
100
320000
3000
Miről van szó itt?
05:23
So you've all got to think about this, and you've all got to vote --
101
323000
2000
Mindannyiuknak el kell gondolkodnia és szavaznia kell --
05:25
and we're not moving on.
102
325000
1000
és nem megyünk sehová.
05:26
And I don't want to end up in the two-minute silence
103
326000
2000
És nem akarok két perc csöndet,
05:28
to give you more time to think about it, until everyone's expressed a view. OK.
104
328000
4000
hogy több idejük legyen gondolkodni ezen, amíg mindenkinek van véleménye. Rendben.
05:32
So what you want to do is compare the average number of tosses until we first see
105
332000
4000
Szóval össze akarjuk hasonlítani az átlagos számú dobást, amíg először megjelenik
05:36
head-tail-head with the average number of tosses until we first see head-tail-tail.
106
336000
4000
a fej-írás-fej az átlagos számú dobással, amíg megjelenik a fej-írás-írás.
05:41
Who thinks that A is true --
107
341000
2000
Ki gondolja azt, hogy az A az igaz --
05:43
that, on average, it'll take longer to see head-tail-head than head-tail-tail?
108
343000
4000
hogy átlagban tovább tart, míg megjelenik a fej-írás-fej, mint a fej-írás-írás?
05:47
Who thinks that B is true -- that on average, they're the same?
109
347000
3000
Ki gondolja, hogy a B az igaz -- hogy átlagban megegyeznek?
05:51
Who thinks that C is true -- that, on average, it'll take less time
110
351000
2000
Ki gondolja, hogy a C az igaz -- hogy átlagban kevesebb ideig tart,
05:53
to see head-tail-head than head-tail-tail?
111
353000
3000
míg megjelenik a fej-írás-fej, mint a fej-írás-írás?
05:57
OK, who hasn't voted yet? Because that's really naughty -- I said you had to.
112
357000
3000
Ki nem szavazott? Az szégyellje magát, azt mondtam mindenkinek kell.
06:00
(Laughter)
113
360000
1000
(Nevetés)
06:02
OK. So most people think B is true.
114
362000
3000
A legtöbben azt gondolják, hogy a B az igaz.
06:05
And you might be relieved to know even rather distinguished mathematicians think that.
115
365000
3000
És megnyugodhatnak, hogy egészen kiváló matematikusok is ezt gondolják.
06:08
It's not. A is true here.
116
368000
4000
Nem igaz. Az A az igaz.
06:12
It takes longer, on average.
117
372000
2000
Általában tovább tart.
06:14
In fact, the average number of tosses till head-tail-head is 10
118
374000
2000
Valójában átlagban 10 dobásra van szükség, hogy megjelenjen a fej-írás-fej,
06:16
and the average number of tosses until head-tail-tail is eight.
119
376000
5000
míg nyolc dobásra, hogy megjelenjen a fej-írás-írás.
06:21
How could that be?
120
381000
2000
Hogy lehet ez?
06:24
Anything different about the two patterns?
121
384000
3000
Van valamilyen különbség a két minta között?
06:30
There is. Head-tail-head overlaps itself.
122
390000
5000
Van. A fej-írás-fej átfedésben van magával.
06:35
If you went head-tail-head-tail-head, you can cunningly get two occurrences
123
395000
4000
A fej-írás-fej-írás-fej sorozatban ravaszul kétszer is megjelenik a minta
06:39
of the pattern in only five tosses.
124
399000
3000
csupán öt dobásból.
06:42
You can't do that with head-tail-tail.
125
402000
2000
Ezt nem lehet megcsinálni a fej-írás-írással.
06:44
That turns out to be important.
126
404000
2000
És ez fontosnak bizonyul.
06:46
There are two ways of thinking about this.
127
406000
2000
Kétféleképpen gondolhatunk erre.
06:48
I'll give you one of them.
128
408000
2000
Elmondom az egyiket.
06:50
So imagine -- let's suppose we're doing it.
129
410000
2000
Képzeljék el, hogy ezt csináljuk.
06:52
On this side -- remember, you're excited about head-tail-tail;
130
412000
2000
Ezen az oldalon -- ne felejtsék, a fej-írás-írás izgalmas;
06:54
you're excited about head-tail-head.
131
414000
2000
itt a fej-írás-fej izgalmas.
06:56
We start tossing a coin, and we get a head --
132
416000
3000
Elkezdjük dobálni az érmét, és fej --
06:59
and you start sitting on the edge of your seat
133
419000
1000
és mindenki tűkön ül,
07:00
because something great and wonderful, or awesome, might be about to happen.
134
420000
5000
mert valami nagyszerű és csodálatos történhet a következő pillanatban.
07:05
The next toss is a tail -- you get really excited.
135
425000
2000
A következő dobás írás -- nagyon izgatottak.
07:07
The champagne's on ice just next to you; you've got the glasses chilled to celebrate.
136
427000
4000
A pezsgő már jégen van, a poharak be vannak hűtve az ünnepléshez.
07:11
You're waiting with bated breath for the final toss.
137
431000
2000
Visszafojtott lélegzettel várják az utolsó dobást.
07:13
And if it comes down a head, that's great.
138
433000
2000
És ha fej, az remek.
07:15
You're done, and you celebrate.
139
435000
2000
Kész vannak, és ünnepelnek.
07:17
If it's a tail -- well, rather disappointedly, you put the glasses away
140
437000
2000
Ha írás, akkor csalódottan leteszik a poharakat,
07:19
and put the champagne back.
141
439000
2000
visszateszik a pezsgőt a jégre.
07:21
And you keep tossing, to wait for the next head, to get excited.
142
441000
3000
És tovább dobálnak, várva a következő fejre, hogy megint izgalomba jöjjenek.
07:25
On this side, there's a different experience.
143
445000
2000
Ezen az oldalon ez egy más élmény.
07:27
It's the same for the first two parts of the sequence.
144
447000
3000
Az első két lépés ugyanaz.
07:30
You're a little bit excited with the first head --
145
450000
2000
Kicsit izgatottak az első fej megjelenésekor --
07:32
you get rather more excited with the next tail.
146
452000
2000
sokkal izgatottabbak amikor a következő írás.
07:34
Then you toss the coin.
147
454000
2000
Aztán feldobják az érmét.
07:36
If it's a tail, you crack open the champagne.
148
456000
3000
Ha írás, eldurrantják a pezsgőt.
07:39
If it's a head you're disappointed,
149
459000
2000
Ha fej, akkor csalódottak,
07:41
but you're still a third of the way to your pattern again.
150
461000
3000
de már megint túl vannak a minta harmadán.
07:44
And that's an informal way of presenting it -- that's why there's a difference.
151
464000
4000
Ez a közvetlen módja annak, hogy ezt bemutassuk -- ezért van közte különbség.
07:48
Another way of thinking about it --
152
468000
2000
Egy másik módja, hogy erre gondoljunk --
07:50
if we tossed a coin eight million times,
153
470000
2000
hogyha nyolcmilliószor feldobunk egy érmét,
07:52
then we'd expect a million head-tail-heads
154
472000
2000
akkor azt várjuk, hogy lesz egymillió fej-írás-fej,
07:54
and a million head-tail-tails -- but the head-tail-heads could occur in clumps.
155
474000
7000
és egymillió fej-írás-írás -- de a fej-írás-fejek megjelenhetnek csomókban.
08:01
So if you want to put a million things down amongst eight million positions
156
481000
2000
Szóval ha le akarunk tenni egymillió dolgot nyolcmillió hely közé,
08:03
and you can have some of them overlapping, the clumps will be further apart.
157
483000
5000
és némelyik átfedheti egymást, akkor a csomók messzebb lesznek egymástól.
08:08
It's another way of getting the intuition.
158
488000
2000
Egy másik módja, hogy erre ráérezzünk.
08:10
What's the point I want to make?
159
490000
2000
Mit akarok ezzel mondani?
08:12
It's a very, very simple example, an easily stated question in probability,
160
492000
4000
Ez egy nagyon-nagyon egyszerű példa, egy egyszerűen megfogalmazható valószínűségszámítási kérdés,
08:16
which every -- you're in good company -- everybody gets wrong.
161
496000
3000
amit mindenki -- előkelő társaságban vannak -- mindenki elront.
08:19
This is my little diversion into my real passion, which is genetics.
162
499000
4000
Ez az én kis kitérőm az igazi szenvedélyemre, ami a genetika.
08:23
There's a connection between head-tail-heads and head-tail-tails in genetics,
163
503000
3000
Van egy kapcsolat a fej-írás-fej, a fej-írás-írás és a genetika között,
08:26
and it's the following.
164
506000
3000
és ez a következő.
08:29
When you toss a coin, you get a sequence of heads and tails.
165
509000
3000
Amikor feldobunk egy érmét, a fej és írás egy sorozatát kapjuk.
08:32
When you look at DNA, there's a sequence of not two things -- heads and tails --
166
512000
3000
Ha megnézzük a DNS-t, nem két dologból áll a sorozat -- fej és írás --
08:35
but four letters -- As, Gs, Cs and Ts.
167
515000
3000
hanem négy betűből: A, G, C és T.
08:38
And there are little chemical scissors, called restriction enzymes
168
518000
3000
És vannak kis kémiai ollók, amiket korlátozó enzimeknek hívunk,
08:41
which cut DNA whenever they see particular patterns.
169
521000
2000
amik elvágják a DNS-t, ahol bizonyos mintákat látnak.
08:43
And they're an enormously useful tool in modern molecular biology.
170
523000
4000
És ezek hihetetlenül hasznos eszközök a modern molekuláris biológiában.
08:48
And instead of asking the question, "How long until I see a head-tail-head?" --
171
528000
3000
És ahelyett, hogy azt kérdeznénk: "Mennyi idő alatt fogok fej-írás-fejet kapni?"
08:51
you can ask, "How big will the chunks be when I use a restriction enzyme
172
531000
3000
azt kérdezzük: "Milyen nagyok lesznek a darabok, ha egy korlátozó enzimet használok,
08:54
which cuts whenever it sees G-A-A-G, for example?
173
534000
4000
ami akkor vág, ha G-A-A-G mintát lát?
08:58
How long will those chunks be?"
174
538000
2000
Milyen hosszúak lesznek ezek a darabok?"
09:00
That's a rather trivial connection between probability and genetics.
175
540000
5000
Ez egy elég triviális kapcsolat a genetika és a valószínűségszámítás között.
09:05
There's a much deeper connection, which I don't have time to go into
176
545000
3000
Van egy sokkal mélyebb kapcsolat, amibe nincs időm most belemenni,
09:08
and that is that modern genetics is a really exciting area of science.
177
548000
3000
és ez az, hogy a modern genetika egy nagyon izgalmas területe a tudománynak.
09:11
And we'll hear some talks later in the conference specifically about that.
178
551000
4000
És hallani fogunk előadásokat ezen a konferencián kifejezetten erről.
09:15
But it turns out that unlocking the secrets in the information generated by modern
179
555000
4000
De kiderült, annak, hogy megfejtsük az információt, amit a modern
09:19
experimental technologies, a key part of that has to do with fairly sophisticated --
180
559000
5000
kísérleti technológiák termelnek, egy kulcsfontosságú részét képezik a kifinomult --
09:24
you'll be relieved to know that I do something useful in my day job,
181
564000
3000
örömmel fogják hallani, hogy valami hasznos dologgal is foglalkozom,
09:27
rather more sophisticated than the head-tail-head story --
182
567000
2000
ami kicsit fejlettebb, mint a fej-írás-fej történet --
09:29
but quite sophisticated computer modelings and mathematical modelings
183
569000
4000
hanem kifinomult számítógépes és matematikai modellek,
09:33
and modern statistical techniques.
184
573000
2000
és modern statisztikai technikák.
09:35
And I will give you two little snippets -- two examples --
185
575000
3000
Mutatok két kis részletet -- két példát --
09:38
of projects we're involved in in my group in Oxford,
186
578000
3000
a programokból, amikkel foglalkozunk a csapatommal Oxfordban,
09:41
both of which I think are rather exciting.
187
581000
2000
szerintem mindkettő elég izgalmas.
09:43
You know about the Human Genome Project.
188
583000
2000
Hallottak a Humán genom projektről.
09:45
That was a project which aimed to read one copy of the human genome.
189
585000
4000
Ez a projekt arról szólt, hogy leolvassa a humán genom egy példányát.
09:51
The natural thing to do after you've done that --
190
591000
2000
A magától értetődő következő lépés --
09:53
and that's what this project, the International HapMap Project,
191
593000
2000
ami ez a projekt, az International HapMap Project,
09:55
which is a collaboration between labs in five or six different countries.
192
595000
5000
ami egy együttműködés laborok között 5-6 különböző országban.
10:00
Think of the Human Genome Project as learning what we've got in common,
193
600000
4000
Gondoljanak a Humán genom projektre úgy, hogy felfedezzük, mi bennünk a közös,
10:04
and the HapMap Project is trying to understand
194
604000
2000
és a HapMap projekt megpróbálja megérteni,
10:06
where there are differences between different people.
195
606000
2000
hogy mik a különbségek különböző emberek között.
10:08
Why do we care about that?
196
608000
2000
Miért foglalkozunk ezzel?
10:10
Well, there are lots of reasons.
197
610000
2000
Ennek sok oka van.
10:12
The most pressing one is that we want to understand how some differences
198
612000
4000
Az legsürgetőbb, hogy megértsük hogyan tesznek bizonyos különbségek
10:16
make some people susceptible to one disease -- type-2 diabetes, for example --
199
616000
4000
egyeseket hajlamosabbá egy betegségre -- pl. 2-es típusú cukorbetegségre --
10:20
and other differences make people more susceptible to heart disease,
200
620000
5000
és más különbségek hajlamosabbá tesznek egyeseket a szívbetegségre,
10:25
or stroke, or autism and so on.
201
625000
2000
az agyvérzésre vagy az autizmusra, és így tovább.
10:27
That's one big project.
202
627000
2000
Ez egy nagy projekt.
10:29
There's a second big project,
203
629000
2000
Egy másik nagy projekt,
10:31
recently funded by the Wellcome Trust in this country,
204
631000
2000
amit nem rég alapított a Wellcome Trust ebben az országban,
10:33
involving very large studies --
205
633000
2000
nagyon nagy felmérésekkel --
10:35
thousands of individuals, with each of eight different diseases,
206
635000
3000
több ezer egyén nyolc különböző betegséggel,
10:38
common diseases like type-1 and type-2 diabetes, and coronary heart disease,
207
638000
4000
gyakori betegségek, mint az 1-es és 2-es típusú cukorbetegség, koszorúér betegség,
10:42
bipolar disease and so on -- to try and understand the genetics.
208
642000
4000
bipoláris zavar, és így tovább -- hogy megértsük a genetikáját.
10:46
To try and understand what it is about genetic differences that causes the diseases.
209
646000
3000
Hogy megértsük, milyen genetikai különbségek okozzák ezeket a betegségeket.
10:49
Why do we want to do that?
210
649000
2000
Miért akarjuk ezt megtudni?
10:51
Because we understand very little about most human diseases.
211
651000
3000
Mert nagyon keveset tudunk az emberi betegségekről.
10:54
We don't know what causes them.
212
654000
2000
Nem tudjuk, mi okozza őket.
10:56
And if we can get in at the bottom and understand the genetics,
213
656000
2000
És ha sikerül leásnunk a mélyére, és megérteni a genetikáját,
10:58
we'll have a window on the way the disease works,
214
658000
3000
bepillantást nyerünk abba, hogy működik egy betegség,
11:01
and a whole new way about thinking about disease therapies
215
661000
2000
és teljesen új módokat arra, hogy a gyógyításról gondolkodjunk,
11:03
and preventative treatment and so on.
216
663000
3000
és a megelőzésről, és így tovább.
11:06
So that's, as I said, the little diversion on my main love.
217
666000
3000
Szóval, ahogy mondtam, ez volt a kitérő a fő szenvedélyemre.
11:09
Back to some of the more mundane issues of thinking about uncertainty.
218
669000
5000
Visszatérve a bizonytalanság hétköznapibb problémáihoz.
11:14
Here's another quiz for you --
219
674000
2000
Íme egy másik kvíz --
11:16
now suppose we've got a test for a disease
220
676000
2000
tegyük fel, hogy van egy tesztünk egy betegségre,
11:18
which isn't infallible, but it's pretty good.
221
678000
2000
amely nem tévedhetetlen, de egész jó.
11:20
It gets it right 99 percent of the time.
222
680000
3000
Az esetek 99%-ában pontos.
11:23
And I take one of you, or I take someone off the street,
223
683000
3000
És fogok valakit itt, vagy az utcáról,
11:26
and I test them for the disease in question.
224
686000
2000
és elvégzem rajtuk ennek a betegségnek a tesztjét.
11:28
Let's suppose there's a test for HIV -- the virus that causes AIDS --
225
688000
4000
Mondjuk hogy egy HIV tesztről van szó -- az AIDS-et okozó vírusról --
11:32
and the test says the person has the disease.
226
692000
3000
és a teszt szerint a személy pozitív.
11:35
What's the chance that they do?
227
695000
3000
Mi az esélye annak, hogy tényleg az?
11:38
The test gets it right 99 percent of the time.
228
698000
2000
A teszt az esetek 99%-ában helyes.
11:40
So a natural answer is 99 percent.
229
700000
4000
Tehát a természetes válasz 99%.
11:44
Who likes that answer?
230
704000
2000
Kinek szimpatikus ez a válasz?
11:46
Come on -- everyone's got to get involved.
231
706000
1000
Gyerünk -- mindenkinek részt kell vennie.
11:47
Don't think you don't trust me anymore.
232
707000
2000
Ne arra gondoljanak, hogy már nem bíznak bennem.
11:49
(Laughter)
233
709000
1000
(Nevetés)
11:50
Well, you're right to be a bit skeptical, because that's not the answer.
234
710000
3000
Nos, igaza van annak, aki szkeptikus, mert a válasz nem 99%.
11:53
That's what you might think.
235
713000
2000
Lehet, hogy ezt gondolják.
11:55
It's not the answer, and it's not because it's only part of the story.
236
715000
3000
De nem ez a válasz, és nem csak azért, mert ez csak a történet egy része.
11:58
It actually depends on how common or how rare the disease is.
237
718000
3000
Igazából azon múlik, hogy milyen gyakori vagy ritka a betegség.
12:01
So let me try and illustrate that.
238
721000
2000
Megpróbálom ezt illusztrálni.
12:03
Here's a little caricature of a million individuals.
239
723000
4000
Itt van egy ábra egymillió emberről.
12:07
So let's think about a disease that affects --
240
727000
3000
Gondoljunk egy betegségre, ami --
12:10
it's pretty rare, it affects one person in 10,000.
241
730000
2000
nagyon ritka, 10.000-ből egy embert érint.
12:12
Amongst these million individuals, most of them are healthy
242
732000
3000
Az egymillió ember közül a legtöbb egészséges
12:15
and some of them will have the disease.
243
735000
2000
és néhány beteg.
12:17
And in fact, if this is the prevalence of the disease,
244
737000
3000
Konkrétan, ha ez a betegség előfordulása,
12:20
about 100 will have the disease and the rest won't.
245
740000
3000
akkor 100 ember lesz beteg, a többi nem.
12:23
So now suppose we test them all.
246
743000
2000
Szóval tegyük fel, hogy mindegyiken elvégezzük a tesztet.
12:25
What happens?
247
745000
2000
Mi történik?
12:27
Well, amongst the 100 who do have the disease,
248
747000
2000
Aközül a 100 közül, aki beteg,
12:29
the test will get it right 99 percent of the time, and 99 will test positive.
249
749000
5000
a teszt 99%-ban helyes eredményt mutat, és 99 pozitív lesz.
12:34
Amongst all these other people who don't have the disease,
250
754000
2000
Azok között, akik nem betegek,
12:36
the test will get it right 99 percent of the time.
251
756000
3000
a teszt 99%-ban helyes lesz.
12:39
It'll only get it wrong one percent of the time.
252
759000
2000
Csak az esetek egy százalékában téved.
12:41
But there are so many of them that there'll be an enormous number of false positives.
253
761000
4000
De olyan sok van belőlük, hogy nagyon sok hamis pozitív lesz.
12:45
Put that another way --
254
765000
2000
Máshogy fogalmazva --
12:47
of all of them who test positive -- so here they are, the individuals involved --
255
767000
5000
azok közül, akiknél pozitív a teszt -- itt vannak ezek a személyek --
12:52
less than one in 100 actually have the disease.
256
772000
5000
kevesebb mint egy a százból tényleg beteg.
12:57
So even though we think the test is accurate, the important part of the story is
257
777000
4000
Tehát még ha azt is gondoljuk, hogy a teszt pontos, a lényeg,
13:01
there's another bit of information we need.
258
781000
3000
hogy szükségünk van még egy információra.
13:04
Here's the key intuition.
259
784000
2000
Íme a legfontosabb megérzés.
13:07
What we have to do, once we know the test is positive,
260
787000
3000
Amit tennünk kell, ha tudjuk, hogy a teszt pozitív,
13:10
is to weigh up the plausibility, or the likelihood, of two competing explanations.
261
790000
6000
az felmérni a hihetőségét, vagy a valószínűségét, két ellentétes magyarázatnak.
13:16
Each of those explanations has a likely bit and an unlikely bit.
262
796000
3000
Mindkét magyarázatnak van egy valószínű és egy valószínűtlen része.
13:19
One explanation is that the person doesn't have the disease --
263
799000
3000
Az egyik magyarázat, hogy a személy nem beteg --
13:22
that's overwhelmingly likely, if you pick someone at random --
264
802000
3000
ez túlnyomóan valószínű, ha valakit véletlenszerűen választunk --
13:25
but the test gets it wrong, which is unlikely.
265
805000
3000
de a teszt téved, ami nem valószínű.
13:29
The other explanation is that the person does have the disease -- that's unlikely --
266
809000
3000
A másik magyarázat, hogy a személy beteg -- valószínűtlen --
13:32
but the test gets it right, which is likely.
267
812000
3000
de a teszt helyes, ami valószínű.
13:35
And the number we end up with --
268
815000
2000
És a szám a végén --
13:37
that number which is a little bit less than one in 100 --
269
817000
3000
a szám, ami egy kicsit kevesebb, mint az egy a százban --
13:40
is to do with how likely one of those explanations is relative to the other.
270
820000
6000
az, hogy milyen valószínű az egyik magyarázat a másikkal szemben.
13:46
Each of them taken together is unlikely.
271
826000
2000
Mindkettő egyszerre valószínűtlen.
13:49
Here's a more topical example of exactly the same thing.
272
829000
3000
Itt van egy aktuálisabb példa ugyanerre.
13:52
Those of you in Britain will know about what's become rather a celebrated case
273
832000
4000
Aki Nagy-Britanniában él biztos hallott erről a híressé vált esetről,
13:56
of a woman called Sally Clark, who had two babies who died suddenly.
274
836000
5000
egy Sally Clark nevű nő esete, akinek két csecsemője is hirtelen meghalt.
14:01
And initially, it was thought that they died of what's known informally as "cot death,"
275
841000
4000
Eleinte azt gondolták, hogy egy a köznyelvben bölcsőhalálnak nevezett betegségben haltak meg,
14:05
and more formally as "Sudden Infant Death Syndrome."
276
845000
3000
amit hivatalosan hirtelen gyermekhalál szindrómának hívnak.
14:08
For various reasons, she was later charged with murder.
277
848000
2000
Kölünböző okokból az anyát később gyilkossággal vádolták.
14:10
And at the trial, her trial, a very distinguished pediatrician gave evidence
278
850000
4000
És a tárgyalásán egy nagyon elismert gyermekorvos tanúskodott,
14:14
that the chance of two cot deaths, innocent deaths, in a family like hers --
279
854000
5000
hogy a valószínűsége két bölcsőhalálnak, ártatlan halálnak, egy ilyen családban --
14:19
which was professional and non-smoking -- was one in 73 million.
280
859000
6000
dolgozó és nemdohányzó -- egy a 73 millióhoz.
14:26
To cut a long story short, she was convicted at the time.
281
866000
3000
A rövidség kedvéért, akkor elítélték.
14:29
Later, and fairly recently, acquitted on appeal -- in fact, on the second appeal.
282
869000
5000
Később, nem olyan régen, szabadlábra helyezték -- a második fellebbezés után.
14:34
And just to set it in context, you can imagine how awful it is for someone
283
874000
4000
El tudják képzelni, milyen borzasztó valakinek, aki elveszített
14:38
to have lost one child, and then two, if they're innocent,
284
878000
3000
egy gyereket, aztán kettőt, ha ártatlan, hogy elítélik
14:41
to be convicted of murdering them.
285
881000
2000
a meggyilkolásukért.
14:43
To be put through the stress of the trial, convicted of murdering them --
286
883000
2000
Hogy keresztül kell mennie a tárgyalás megpróbáltatásain,
14:45
and to spend time in a women's prison, where all the other prisoners
287
885000
3000
elítélik gyilkosságért és egy női börtönbe kerül, ahol a többi rab
14:48
think you killed your children -- is a really awful thing to happen to someone.
288
888000
5000
azt gondolja, hogy megölte a gyerekeit -- ez egy igazán borzasztó dolog, ami valakivel történhet.
14:53
And it happened in large part here because the expert got the statistics
289
893000
5000
És ez nagyrészt azért történt meg itt, mert a szakértő
14:58
horribly wrong, in two different ways.
290
898000
3000
végzetesen félreértette a statisztikát két módon.
15:01
So where did he get the one in 73 million number?
291
901000
4000
Honnan szedte az egy a 73 millióhoz számot?
15:05
He looked at some research, which said the chance of one cot death in a family
292
905000
3000
Elolvasott egy kutatást, ami azt mondta, hogy egy bölcsőhalál esélye
15:08
like Sally Clark's is about one in 8,500.
293
908000
5000
egy olyan családban, mint Sally Clarké, egy a 8.500-hoz.
15:13
So he said, "I'll assume that if you have one cot death in a family,
294
913000
4000
És azt mondta: "Feltételezem, hogyha egy bölcsőhalál van a családban,
15:17
the chance of a second child dying from cot death aren't changed."
295
917000
4000
az esélyei egy második bölcsőhalálnak ugyanazok."
15:21
So that's what statisticians would call an assumption of independence.
296
921000
3000
Statisztikusok ezt a függetlenség feltételezésének hívják.
15:24
It's like saying, "If you toss a coin and get a head the first time,
297
924000
2000
Olyan, mint azt mondani, ha feldobunk egy érmét és először fej lesz,
15:26
that won't affect the chance of getting a head the second time."
298
926000
3000
ez nem befolyásolja annak az esélyét, hogy másodszorra is fej lesz."
15:29
So if you toss a coin twice, the chance of getting a head twice are a half --
299
929000
5000
Tehát ha kétszer dobunk fel egy érmét, az esélye, hogy mind a kétszer fej lesz, az fél --
15:34
that's the chance the first time -- times a half -- the chance a second time.
300
934000
3000
az esélye annak, hogy az első fej -- szorozva féllel -- az esélye, hogy a második fej.
15:37
So he said, "Here,
301
937000
2000
Szóval azt mondta: "Feltételezem,
15:39
I'll assume that these events are independent.
302
939000
4000
hogy ezek az események függetlenek.
15:43
When you multiply 8,500 together twice,
303
943000
2000
Ha megszorozzuk a 8.500-at önmagával,
15:45
you get about 73 million."
304
945000
2000
az kb. 73 millió."
15:47
And none of this was stated to the court as an assumption
305
947000
2000
És ezt nem feltételezésként mutatták be a bíróságnak,
15:49
or presented to the jury that way.
306
949000
2000
vagy az esküdteknek.
15:52
Unfortunately here -- and, really, regrettably --
307
952000
3000
Sajnos itt -- és tényleg nagyon sajálatos módon --
15:55
first of all, in a situation like this you'd have to verify it empirically.
308
955000
4000
először is egy ilyen helyzetet empirikusan kéne igazolni.
15:59
And secondly, it's palpably false.
309
959000
2000
Másodszor, érezhetően téves.
16:02
There are lots and lots of things that we don't know about sudden infant deaths.
310
962000
5000
Rengeteg dolgot nem tudunk a hirtelen gyermekhalálról.
16:07
It might well be that there are environmental factors that we're not aware of,
311
967000
3000
Lehetséges, hogy vannak környezeti tényezők, amikről nem tudunk,
16:10
and it's pretty likely to be the case that there are
312
970000
2000
és nagyon valószínű, hogy vannak
16:12
genetic factors we're not aware of.
313
972000
2000
genetikai tényezők, amikről nem tudunk.
16:14
So if a family suffers from one cot death, you'd put them in a high-risk group.
314
974000
3000
Ha egy családban volt egy bölcsőhalál, magas veszélyeztettségű csoportba kellene tenni őket.
16:17
They've probably got these environmental risk factors
315
977000
2000
Valószínűleg fennállnak ezek a környezeti
16:19
and/or genetic risk factors we don't know about.
316
979000
3000
és/vagy genetikai tényezők, amelyekről nem tudunk.
16:22
And to argue, then, that the chance of a second death is as if you didn't know
317
982000
3000
És egy második halál esélyével érvelni úgy, mintha nem tudnánk
16:25
that information is really silly.
318
985000
3000
ezt az információt nagyon buta dolog.
16:28
It's worse than silly -- it's really bad science.
319
988000
4000
Rosszabb, mint butaság -- rossz tudomány.
16:32
Nonetheless, that's how it was presented, and at trial nobody even argued it.
320
992000
5000
Mindenesetre ezt így mutatták be, és a tárgyaláson senki sem kérdőjelezte meg.
16:37
That's the first problem.
321
997000
2000
Ez az első probléma.
16:39
The second problem is, what does the number of one in 73 million mean?
322
999000
4000
A második probléma, hogy mit jelent az egy a 73 millióhoz?
16:43
So after Sally Clark was convicted --
323
1003000
2000
Azután, hogy Sally Clarkot elítélték --
16:45
you can imagine, it made rather a splash in the press --
324
1005000
4000
elképzelhetik, elég nagy média visszhangot váltott ki --
16:49
one of the journalists from one of Britain's more reputable newspapers wrote that
325
1009000
7000
egy újságíró Nagy-Britannia egyik tekintélyes lapjában azt írta,
16:56
what the expert had said was,
326
1016000
2000
hogy a szakértő azt mondta:
16:58
"The chance that she was innocent was one in 73 million."
327
1018000
5000
"Annak az esélye, hogy ártatlan, egy a 73 millióhoz."
17:03
Now, that's a logical error.
328
1023000
2000
Ez egy logikai hiba.
17:05
It's exactly the same logical error as the logical error of thinking that
329
1025000
3000
Ugyanaz a logikai hiba, mint azt gondolni,
17:08
after the disease test, which is 99 percent accurate,
330
1028000
2000
hogyha a teszt 99%-ban hiteles,
17:10
the chance of having the disease is 99 percent.
331
1030000
4000
akkor annak az esélye, hogy valaki beteg 99%.
17:14
In the disease example, we had to bear in mind two things,
332
1034000
4000
A betegség példában két dolgot kellett figyelembe vennünk,
17:18
one of which was the possibility that the test got it right or not.
333
1038000
4000
az egyik annak a lehetősége volt, hogy a teszt hiteles volt vagy tévedett.
17:22
And the other one was the chance, a priori, that the person had the disease or not.
334
1042000
4000
A másik az a priori esélye annak, hogy egy ember beteg vagy sem.
17:26
It's exactly the same in this context.
335
1046000
3000
Pontosan ugyanez a helyzet ebben az esetben.
17:29
There are two things involved -- two parts to the explanation.
336
1049000
4000
Két dologról van szó -- a magyarázat két részből áll.
17:33
We want to know how likely, or relatively how likely, two different explanations are.
337
1053000
4000
Szeretnénk tudni, hogy mennyire valószínű egymáshoz képest, két különböző magyarázat.
17:37
One of them is that Sally Clark was innocent --
338
1057000
3000
Az egyik az, hogy Sally Clark ártatlan volt --
17:40
which is, a priori, overwhelmingly likely --
339
1060000
2000
ami, a priori, nagyon valószínű --
17:42
most mothers don't kill their children.
340
1062000
3000
a legtöbb anya nem öli meg a gyermekét.
17:45
And the second part of the explanation
341
1065000
2000
A magyarázat másik fele,
17:47
is that she suffered an incredibly unlikely event.
342
1067000
3000
hogy egy hihetetlenül ritka esemény áldozata volt.
17:50
Not as unlikely as one in 73 million, but nonetheless rather unlikely.
343
1070000
4000
Nem olyan ritka, mint egy a 73 millióhoz, de mindenesetre nagyon ritka.
17:54
The other explanation is that she was guilty.
344
1074000
2000
A másik magyarázat, hogy bűnös volt.
17:56
Now, we probably think a priori that's unlikely.
345
1076000
2000
Valószínűleg azt gondoljuk, hogy erre a priori nem nagy az esély.
17:58
And we certainly should think in the context of a criminal trial
346
1078000
3000
És mindenképpen ezt kéne feltételeznünk egy bűnügyi tárgyaláson,
18:01
that that's unlikely, because of the presumption of innocence.
347
1081000
3000
hogy ez valószínűtlen, az ártatlanság vélelme miatt.
18:04
And then if she were trying to kill the children, she succeeded.
348
1084000
4000
És hogyha meg akarta ölni a gyerekeket, akkor sikerrel járt.
18:08
So the chance that she's innocent isn't one in 73 million.
349
1088000
4000
Tehát az ártatlanságának valószínűsége nem egy a 73 millióhoz.
18:12
We don't know what it is.
350
1092000
2000
Nem tudjuk, hogy mi az.
18:14
It has to do with weighing up the strength of the other evidence against her
351
1094000
4000
Arról van szó, hogy fel kell mérni az ellene szóló többi bizonyíték erősségét
18:18
and the statistical evidence.
352
1098000
2000
és a statisztikai bizonyítékokat.
18:20
We know the children died.
353
1100000
2000
Tudjuk, hogy a gyerekek meghaltak.
18:22
What matters is how likely or unlikely, relative to each other,
354
1102000
4000
Ami számít, hogy mennyire valószínű vagy valószínűtlen egymáshoz képest
18:26
the two explanations are.
355
1106000
2000
a két magyarázat.
18:28
And they're both implausible.
356
1108000
2000
És mindkettő valószínűtlen.
18:31
There's a situation where errors in statistics had really profound
357
1111000
4000
Ez egy olyan helyzet, ahol a statisztikai hibáknak nagyon komoly
18:35
and really unfortunate consequences.
358
1115000
3000
és sajnálatos következményei voltak.
18:38
In fact, there are two other women who were convicted on the basis of the
359
1118000
2000
Sőt, két másik nőt is elítéltek ennek a gyermekorvosnak
18:40
evidence of this pediatrician, who have subsequently been released on appeal.
360
1120000
4000
a tanúvallomása alapján, akiket később fellebbezés után felmentettek.
18:44
Many cases were reviewed.
361
1124000
2000
Sok esetet újra megvizsgáltak.
18:46
And it's particularly topical because he's currently facing a disrepute charge
362
1126000
4000
És ez különösen aktuális, mert az orvos ellen bizalmatlansági vádakat emeltek
18:50
at Britain's General Medical Council.
363
1130000
3000
a brit orvosi kamaránál.
18:53
So just to conclude -- what are the take-home messages from this?
364
1133000
4000
Csak befejezésként -- mit érdemes ebből megjegyezni?
18:57
Well, we know that randomness and uncertainty and chance
365
1137000
4000
Tudjuk, hogy a véletlen, a bizonytalanság és a szerencse
19:01
are very much a part of our everyday life.
366
1141000
3000
nagyon is részei a mindennapi életnek.
19:04
It's also true -- and, although, you, as a collective, are very special in many ways,
367
1144000
5000
Az is igaz -- és bár Önök kollektíven nagyon különlegesek sok szempontból,
19:09
you're completely typical in not getting the examples I gave right.
368
1149000
4000
teljesen tipikusak abban, hogy rosszul válaszoltak a kérdéseimre.
19:13
It's very well documented that people get things wrong.
369
1153000
3000
Nagyon jól dokumentált, hogy az emberek tévednek.
19:16
They make errors of logic in reasoning with uncertainty.
370
1156000
3000
Logikai hibákat követnek el, amikor a bizonytalannal érvelnek.
19:20
We can cope with the subtleties of language brilliantly --
371
1160000
2000
Nagyon jól bánunk a nyelv finom árnyalataival --
19:22
and there are interesting evolutionary questions about how we got here.
372
1162000
3000
és érdekes evolúciós kérdéseket vet fel, hogy hogy jutottunk ide.
19:25
We are not good at reasoning with uncertainty.
373
1165000
3000
De nem tudunk jól érvelni a bizonytalansággal.
19:28
That's an issue in our everyday lives.
374
1168000
2000
És ez egy probléma a mindennapi életünkben.
19:30
As you've heard from many of the talks, statistics underpins an enormous amount
375
1170000
3000
És mint azt sok előadásban hallották, a statisztika nagyon sok
19:33
of research in science -- in social science, in medicine
376
1173000
3000
tudományos kutatás alapja -- a társadalomtudományban,
19:36
and indeed, quite a lot of industry.
377
1176000
2000
az orvostudományban, sok iparágban.
19:38
All of quality control, which has had a major impact on industrial processing,
378
1178000
4000
A minőségellenőrzés, aminek nagy hatása volt az ipari folyamatokra,
19:42
is underpinned by statistics.
379
1182000
2000
alapja a statisztika.
19:44
It's something we're bad at doing.
380
1184000
2000
És elég rosszak vagyunk benne.
19:46
At the very least, we should recognize that, and we tend not to.
381
1186000
3000
Legalább el kéne ismernünk ezt, de nem tesszük.
19:49
To go back to the legal context, at the Sally Clark trial
382
1189000
4000
Hogy visszatérjek a jogi környezetre, a Sally Clark tárgyaláson
19:53
all of the lawyers just accepted what the expert said.
383
1193000
4000
az összes ügyvéd elfogadta a szakértői véleményt.
19:57
So if a pediatrician had come out and said to a jury,
384
1197000
2000
Ha egy gyermekorvos azt mondta volna az esküdteknek:
19:59
"I know how to build bridges. I've built one down the road.
385
1199000
3000
"Tudom hogy kell hidakat építeni. Építettem egyet arrébb.
20:02
Please drive your car home over it,"
386
1202000
2000
Hazafelé vezessenek át rajta",
20:04
they would have said, "Well, pediatricians don't know how to build bridges.
387
1204000
2000
az mondták volna: "A gyerekorvosok nem tudják, hogy kell hidakat építeni.
20:06
That's what engineers do."
388
1206000
2000
Ez a mérnökök munkája."
20:08
On the other hand, he came out and effectively said, or implied,
389
1208000
3000
Másrészről viszont azt mondta, vagy legalábbis sugallta:
20:11
"I know how to reason with uncertainty. I know how to do statistics."
390
1211000
3000
"Én tudom hogyan kell a bizonytalannal érvelni. Ismerem a statisztikát."
20:14
And everyone said, "Well, that's fine. He's an expert."
391
1214000
3000
És mindenki azt mondta: "Ez rendben van. Ő a szakértő."
20:17
So we need to understand where our competence is and isn't.
392
1217000
3000
Szóval meg kell értsük, hogy mihez értünk, és mihez nem.
20:20
Exactly the same kinds of issues arose in the early days of DNA profiling,
393
1220000
4000
Ugyanezek a problémák merültek fel a DNS jellemzés hajnalán,
20:24
when scientists, and lawyers and in some cases judges,
394
1224000
4000
amikor tudósok, ügyvédek, és időnként bírók,
20:28
routinely misrepresented evidence.
395
1228000
3000
rendszeresen tévesen mutatták be a bizonyítékokat.
20:32
Usually -- one hopes -- innocently, but misrepresented evidence.
396
1232000
3000
Általában -- remélhetőleg -- ártatlanul, de tévesen mutatták be a bizonyítékokat.
20:35
Forensic scientists said, "The chance that this guy's innocent is one in three million."
397
1235000
5000
Az igazságügyi szakértő azt mondta: "Annak az esélye, hogy ez a férfi ártatlan egy a 3 millióhoz."
20:40
Even if you believe the number, just like the 73 million to one,
398
1240000
2000
Még ha el is hisszük ezt a számot, csak úgy, mint az egy a 73 millióhoz,
20:42
that's not what it meant.
399
1242000
2000
nem ezt jelenti.
20:44
And there have been celebrated appeal cases
400
1244000
2000
És ennek eredményeként híres fellebbezések
20:46
in Britain and elsewhere because of that.
401
1246000
2000
folynak Nagy-Britanniában és máshol.
20:48
And just to finish in the context of the legal system.
402
1248000
3000
És csak hogy a jogrendszer kontextusában fejezzem be.
20:51
It's all very well to say, "Let's do our best to present the evidence."
403
1251000
4000
Egy dolog azt mondani, hogy "Tegyünk meg minden tőlünk telhetőt a bizonyítékok bemutatására."
20:55
But more and more, in cases of DNA profiling -- this is another one --
404
1255000
3000
De egyre többször, különösen a DNS jellemzések esetében -- ez egy másik ilyen --
20:58
we expect juries, who are ordinary people --
405
1258000
3000
azt várjuk az esküdtektől, akik átlagemberek --
21:01
and it's documented they're very bad at this --
406
1261000
2000
és bizonyítható, hogy ebben nagyon rosszak vagyunk --
21:03
we expect juries to be able to cope with the sorts of reasoning that goes on.
407
1263000
4000
azt várjuk az esküdtektől, hogy elboldoguljanak ezzel a fajta érveléssel.
21:07
In other spheres of life, if people argued -- well, except possibly for politics --
408
1267000
5000
Az élet más területein, ha az emberek -- nos, talán a politikát leszámítva --
21:12
but in other spheres of life, if people argued illogically,
409
1272000
2000
de az élet más területein, ha az emberek illogikusan érvelnek,
21:14
we'd say that's not a good thing.
410
1274000
2000
azt mondanánk, hogy ez nem egy jó dolog.
21:16
We sort of expect it of politicians and don't hope for much more.
411
1276000
4000
A politikusainktól ezt tulajdonképpen elvárjuk és nem is remélünk többet.
21:20
In the case of uncertainty, we get it wrong all the time --
412
1280000
3000
A bizonytalanság esetében folyton tévedünk --
21:23
and at the very least, we should be aware of that,
413
1283000
2000
a legrosszabb esetben ennek tudatában kéne lennünk,
21:25
and ideally, we might try and do something about it.
414
1285000
2000
a legjobban pedig megpróbálhatnánk változtatni ezen.
21:27
Thanks very much.
415
1287000
1000
Nagyon köszönöm.
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7