Peter Donnelly: How stats fool juries

243,959 views ・ 2007-01-12

TED


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

Tłumaczenie: Anna Ciszek Korekta: Kinga Skorupska
00:25
As other speakers have said, it's a rather daunting experience --
0
25000
2000
Jak zauważyli moi przedmówcy, występowanie tu
00:27
a particularly daunting experience -- to be speaking in front of this audience.
1
27000
3000
jest wyjątkowo onieśmielające.
00:30
But unlike the other speakers, I'm not going to tell you about
2
30000
3000
Jednak w przeciwieństwie do nich nie będę mówił
00:33
the mysteries of the universe, or the wonders of evolution,
3
33000
2000
o tajemnicach wszechświata, cudach ewolucji
00:35
or the really clever, innovative ways people are attacking
4
35000
4000
czy naprawdę mądrych, innowacyjnych sposobach
00:39
the major inequalities in our world.
5
39000
2000
zwalczania nierówności na świecie.
00:41
Or even the challenges of nation-states in the modern global economy.
6
41000
5000
Ani nawet o wyzwaniach globalnej gospodarki.
00:46
My brief, as you've just heard, is to tell you about statistics --
7
46000
4000
Moim zadaniem, jest mówienie o statystyce.
00:50
and, to be more precise, to tell you some exciting things about statistics.
8
50000
3000
A dokładniej, mówienie rzeczy ekscytujących. Jest to...
00:53
And that's --
9
53000
1000
A dokładniej, mówienie rzeczy ekscytujących. Jest to...
00:54
(Laughter)
10
54000
1000
(Śmiech)
00:55
-- that's rather more challenging
11
55000
2000
... trochę większe wyzwanie niż innych mówców.
00:57
than all the speakers before me and all the ones coming after me.
12
57000
2000
... trochę większe wyzwanie niż innych mówców.
00:59
(Laughter)
13
59000
1000
(Śmiech)
01:01
One of my senior colleagues told me, when I was a youngster in this profession,
14
61000
5000
Gdy zaczynałem w tej profesji, starszy kolega powiedział mi,
01:06
rather proudly, that statisticians were people who liked figures
15
66000
4000
dosyć dumnie, że statystycy to ludzie, którzy lubią liczby,
01:10
but didn't have the personality skills to become accountants.
16
70000
3000
ale brakuje im obejścia, aby zostać księgowymi.
01:13
(Laughter)
17
73000
2000
(Śmiech)
01:15
And there's another in-joke among statisticians, and that's,
18
75000
3000
Krąży jeszcze inny żart:
01:18
"How do you tell the introverted statistician from the extroverted statistician?"
19
78000
3000
„Jak odróżnić statystyka-introwertyka od statystyka-ekstrawertyka?”
01:21
To which the answer is,
20
81000
2000
„Jak odróżnić statystyka-introwertyka od statystyka-ekstrawertyka?”
01:23
"The extroverted statistician's the one who looks at the other person's shoes."
21
83000
5000
„Statystyk-ekstrawertyk wpatruje się buty innej osoby.” (Śmiech)
01:28
(Laughter)
22
88000
3000
„Statystyk-ekstrawertyk wpatruje się buty innej osoby.” (Śmiech)
01:31
But I want to tell you something useful -- and here it is, so concentrate now.
23
91000
5000
Powiem wam coś ważnego, więc się skupcie.
01:36
This evening, there's a reception in the University's Museum of Natural History.
24
96000
3000
W Muzeum Historii Naturalnej było przyjęcie.
01:39
And it's a wonderful setting, as I hope you'll find,
25
99000
2000
To przepiękne miejsce,
01:41
and a great icon to the best of the Victorian tradition.
26
101000
5000
ikona najlepszych tradycji wiktoriańskich.
01:46
It's very unlikely -- in this special setting, and this collection of people --
27
106000
5000
W tym wyjątkowym miejscu i towarzystwie
01:51
but you might just find yourself talking to someone you'd rather wish that you weren't.
28
111000
3000
możecie spotkać ludzi z którymi nie chcecie rozmawiać.
01:54
So here's what you do.
29
114000
2000
Oto co powinniście zrobić.
01:56
When they say to you, "What do you do?" -- you say, "I'm a statistician."
30
116000
4000
Na pytanie o zawód odpowiedzcie: „Jestem statystykiem.” (Śmiech)
02:00
(Laughter)
31
120000
1000
Na pytanie o zawód odpowiedzcie: „Jestem statystykiem.” (Śmiech)
02:01
Well, except they've been pre-warned now, and they'll know you're making it up.
32
121000
4000
Nikt prócz nas nie będzie wiedział, że blefujecie.
02:05
And then one of two things will happen.
33
125000
2000
Spotkacie się z dwiema możliwymi reakcjami.
02:07
They'll either discover their long-lost cousin in the other corner of the room
34
127000
2000
Rozmówca odkryje kuzyna na drugim końcu sali i się oddali.
02:09
and run over and talk to them.
35
129000
2000
Rozmówca odkryje kuzyna na drugim końcu sali i się oddali.
02:11
Or they'll suddenly become parched and/or hungry -- and often both --
36
131000
3000
Lub nagle poczuje się głodny i spragniony
02:14
and sprint off for a drink and some food.
37
134000
2000
więc pobiegnie po coś do picia czy jedzenia,
02:16
And you'll be left in peace to talk to the person you really want to talk to.
38
136000
4000
uwalniając was od swojego towarzystwa.
02:20
It's one of the challenges in our profession to try and explain what we do.
39
140000
3000
Wyjaśnienie czym zajmują się statystycy jest wyzwaniem.
02:23
We're not top on people's lists for dinner party guests and conversations and so on.
40
143000
5000
Nie królujemy na listach gości i towarzyszy rozmowy.
02:28
And it's something I've never really found a good way of doing.
41
148000
2000
Nigdy nie byłem dobry w pogawędkach.
02:30
But my wife -- who was then my girlfriend --
42
150000
3000
Mojej żonie, wtedy jeszcze mojej dziewczynie,
02:33
managed it much better than I've ever been able to.
43
153000
3000
wychodziło to znacznie lepiej.
02:36
Many years ago, when we first started going out, she was working for the BBC in Britain,
44
156000
3000
Lata temu pracowała dla BBC w Wielkiej Brytanii,
02:39
and I was, at that stage, working in America.
45
159000
2000
a ja w tym czasie pracowałem w Ameryce
02:41
I was coming back to visit her.
46
161000
2000
i przyjeżdżałem ją odwiedzać.
02:43
She told this to one of her colleagues, who said, "Well, what does your boyfriend do?"
47
163000
6000
Zapytana kim zajmuje się jej chłopak,
02:49
Sarah thought quite hard about the things I'd explained --
48
169000
2000
pomyślała o rzeczach, które jej wyjaśniałem,
02:51
and she concentrated, in those days, on listening.
49
171000
4000
a wtedy jeszcze skupiała się na słuchaniu...
02:55
(Laughter)
50
175000
2000
(Śmiech)
02:58
Don't tell her I said that.
51
178000
2000
Tylko tego nie powtórzcie.
03:00
And she was thinking about the work I did developing mathematical models
52
180000
4000
Pomyślała o rozwijaniu modeli matematycznych
03:04
for understanding evolution and modern genetics.
53
184000
3000
opisujących ewolucję i współczesną genetykę,
03:07
So when her colleague said, "What does he do?"
54
187000
3000
więc na to pytanie po krótkim zawahaniu
03:10
She paused and said, "He models things."
55
190000
4000
odpowiedziała: „Modelowaniem.”
03:14
(Laughter)
56
194000
1000
(Śmiech)
03:15
Well, her colleague suddenly got much more interested than I had any right to expect
57
195000
4000
Nagle jej znajomy zainteresował się dużo bardziej
03:19
and went on and said, "What does he model?"
58
199000
3000
i pytał dalej: „A co modeluje?”
03:22
Well, Sarah thought a little bit more about my work and said, "Genes."
59
202000
3000
Na to Sarah odpowiedziała: „Geny.”
03:25
(Laughter)
60
205000
4000
(Śmiech)
03:29
"He models genes."
61
209000
2000
„Modeluje geny.”
03:31
That is my first love, and that's what I'll tell you a little bit about.
62
211000
4000
To była moja pierwsza miłość, dlatego o niej opowiem.
03:35
What I want to do more generally is to get you thinking about
63
215000
4000
Chcę abyście zastanowili się nad rolą
03:39
the place of uncertainty and randomness and chance in our world,
64
219000
3000
niepewności, losowości i przypadku w naszym świecie,
03:42
and how we react to that, and how well we do or don't think about it.
65
222000
5000
i nad tym, jak na nie reagujemy i kiedy je rozważamy.
03:47
So you've had a pretty easy time up till now --
66
227000
2000
Jak dotąd było w miarę przyjemnie...
03:49
a few laughs, and all that kind of thing -- in the talks to date.
67
229000
2000
Trochę śmiechu i takie tam. Teraz konkrety.
03:51
You've got to think, and I'm going to ask you some questions.
68
231000
3000
Zadam Wam kilka pytań więc ruszcie głowami.
03:54
So here's the scene for the first question I'm going to ask you.
69
234000
2000
Wyobraźcie sobie rzucanie monetą raz za razem.
03:56
Can you imagine tossing a coin successively?
70
236000
3000
Wyobraźcie sobie rzucanie monetą raz za razem.
03:59
And for some reason -- which shall remain rather vague --
71
239000
3000
Z pewnego powodu, którego teraz nie wyjaśnię,
04:02
we're interested in a particular pattern.
72
242000
2000
poszukamy konkretnej sekwencji.
04:04
Here's one -- a head, followed by a tail, followed by a tail.
73
244000
3000
Reszka, po niej orzeł i drugi orzeł.
04:07
So suppose we toss a coin repeatedly.
74
247000
3000
Załóżmy, że rzucamy monetą wielokrotnie.
04:10
Then the pattern, head-tail-tail, that we've suddenly become fixated with happens here.
75
250000
5000
Wzór reszka-orzeł-orzeł występuje tutaj.
04:15
And you can count: one, two, three, four, five, six, seven, eight, nine, 10 --
76
255000
4000
Liczymy: 1, 2, 3, 4, 5, 6, 7, 8, 9 i dziesięć.
04:19
it happens after the 10th toss.
77
259000
2000
Po dziesiątym rzucie.
04:21
So you might think there are more interesting things to do, but humor me for the moment.
78
261000
3000
Zastanawiacie się po co to robimy, ale wytrzymajcie jeszcze chwilę.
04:24
Imagine this half of the audience each get out coins, and they toss them
79
264000
4000
Wyobraźmy sobie, że połowa sali rzuca monetami
04:28
until they first see the pattern head-tail-tail.
80
268000
3000
aż po raz pierwszy wypadnie reszka-orzeł-orzeł.
04:31
The first time they do it, maybe it happens after the 10th toss, as here.
81
271000
2000
Może to być po dziesiątym rzucie.
04:33
The second time, maybe it's after the fourth toss.
82
273000
2000
Może po drugim, a może po czwartym.
04:35
The next time, after the 15th toss.
83
275000
2000
Innym razem może po piętnastym.
04:37
So you do that lots and lots of times, and you average those numbers.
84
277000
3000
Po wielokrotnych rzutach uśredniamy wyniki.
04:40
That's what I want this side to think about.
85
280000
3000
Chcę żebyście pomyśleli właśnie o tym.
04:43
The other half of the audience doesn't like head-tail-tail --
86
283000
2000
Druga część sali nie lubi sekwencji reszka-orzeł-orzeł.
04:45
they think, for deep cultural reasons, that's boring --
87
285000
3000
Ich kultura utrzymuje, że jest nudna,
04:48
and they're much more interested in a different pattern -- head-tail-head.
88
288000
3000
interesuje ich inny wzór - reszka-orzeł-reszka.
04:51
So, on this side, you get out your coins, and you toss and toss and toss.
89
291000
3000
Po tej stronie bierzecie monety i rzucacie.
04:54
And you count the number of times until the pattern head-tail-head appears
90
294000
3000
Liczycie ilość rzutów, aż do wzoru reszka-orzeł-reszka
04:57
and you average them. OK?
91
297000
3000
i obliczacie średnią. Dobrze?
05:00
So on this side, you've got a number --
92
300000
2000
Po wielokrotnych rzutach
05:02
you've done it lots of times, so you get it accurately --
93
302000
2000
macie dokładną średnią rzutów
05:04
which is the average number of tosses until head-tail-tail.
94
304000
3000
do wystąpienia wzoru reszka-orzeł-orzeł
05:07
On this side, you've got a number -- the average number of tosses until head-tail-head.
95
307000
4000
To samo robimy dla wzoru reszka-orzeł-reszka.
05:11
So here's a deep mathematical fact --
96
311000
2000
Istnieje matematyczna prawda:
05:13
if you've got two numbers, one of three things must be true.
97
313000
3000
przy dwóch liczbach, są trzy możliwości.
05:16
Either they're the same, or this one's bigger than this one,
98
316000
3000
Są takie same, pierwsza jest większa od drugiej lub na odwrót.
05:19
or this one's bigger than that one.
99
319000
1000
Są takie same, pierwsza jest większa od drugiej lub na odwrót.
05:20
So what's going on here?
100
320000
3000
A w naszym przypadku?
05:23
So you've all got to think about this, and you've all got to vote --
101
323000
2000
Pomyślcie o tym przez chwilę i zagłosujemy.
05:25
and we're not moving on.
102
325000
1000
Nie widać postępu.
05:26
And I don't want to end up in the two-minute silence
103
326000
2000
Wolałbym uniknąć dwuminutowej ciszy,
05:28
to give you more time to think about it, until everyone's expressed a view. OK.
104
328000
4000
Każdy wyrazi swoją opinię.
05:32
So what you want to do is compare the average number of tosses until we first see
105
332000
4000
Chcemy porównać średnią liczbę rzutów dla wzorów
05:36
head-tail-head with the average number of tosses until we first see head-tail-tail.
106
336000
4000
reszka-orzeł-reszka z reszka-orzeł-orzeł.
05:41
Who thinks that A is true --
107
341000
2000
Kto myśli, że A jest prawdziwe?
05:43
that, on average, it'll take longer to see head-tail-head than head-tail-tail?
108
343000
4000
Tzn, że R-O-R wypada później niż R-O-O.
05:47
Who thinks that B is true -- that on average, they're the same?
109
347000
3000
B: średnio wypadają po jednakowej liczbie rzutów?
05:51
Who thinks that C is true -- that, on average, it'll take less time
110
351000
2000
C: średnio R-O-R wypada wcześniej niż R-O-O?
05:53
to see head-tail-head than head-tail-tail?
111
353000
3000
C: średnio R-O-R wypada wcześniej niż R-O-O?
05:57
OK, who hasn't voted yet? Because that's really naughty -- I said you had to.
112
357000
3000
Kto się wstrzymał? To nieładnie - przecież powiedziałem, że musicie.
06:00
(Laughter)
113
360000
1000
(Śmiech)
06:02
OK. So most people think B is true.
114
362000
3000
Większość uważa, że prawdziwe jest B.
06:05
And you might be relieved to know even rather distinguished mathematicians think that.
115
365000
3000
Nawet dosyć znani matematycy tak myślą.
06:08
It's not. A is true here.
116
368000
4000
Ale to nie prawda, prawdziwe jest A.
06:12
It takes longer, on average.
117
372000
2000
Średnio wzór R-O-R wypada później,
06:14
In fact, the average number of tosses till head-tail-head is 10
118
374000
2000
według faktycznych wyliczeń po 10 rzutach,
06:16
and the average number of tosses until head-tail-tail is eight.
119
376000
5000
zaś R-O-O wypada średnio po 8 rzutach.
06:21
How could that be?
120
381000
2000
Jak to możliwe?
06:24
Anything different about the two patterns?
121
384000
3000
Czy te dwa wzory jakoś się różnią?
06:30
There is. Head-tail-head overlaps itself.
122
390000
5000
Właśnie tak: R-O-R nakłada się na siebie.
06:35
If you went head-tail-head-tail-head, you can cunningly get two occurrences
123
395000
4000
Wyrzucając R-O-R-O-R w sprytny sposób otrzymamy
06:39
of the pattern in only five tosses.
124
399000
3000
dwa razy żądaną sekwencję w zaledwie pięciu rzutach.
06:42
You can't do that with head-tail-tail.
125
402000
2000
W przypadku R-O-O to niemożliwe,
06:44
That turns out to be important.
126
404000
2000
co okazuje się dosyć istotne.
06:46
There are two ways of thinking about this.
127
406000
2000
Można zrozumieć to na dwa sposoby.
06:48
I'll give you one of them.
128
408000
2000
Przedstawię jeden z nich.
06:50
So imagine -- let's suppose we're doing it.
129
410000
2000
Wyobraźcie sobie, że naprawdę rzucamy monetą.
06:52
On this side -- remember, you're excited about head-tail-tail;
130
412000
2000
Po tej stronie - wypatrujecie R-O-O,
06:54
you're excited about head-tail-head.
131
414000
2000
po drugiej - R-O-R
06:56
We start tossing a coin, and we get a head --
132
416000
3000
Zaczynamy rzucanie monetą i wypada reszka
06:59
and you start sitting on the edge of your seat
133
419000
1000
i wy zaczynacie być podekscytowani,
07:00
because something great and wonderful, or awesome, might be about to happen.
134
420000
5000
bo może zaraz zdarzy się coś fantastycznego.
07:05
The next toss is a tail -- you get really excited.
135
425000
2000
Następny rzut - orzełek, emocje.
07:07
The champagne's on ice just next to you; you've got the glasses chilled to celebrate.
136
427000
4000
Już wstawiacie szampana do lodu.
07:11
You're waiting with bated breath for the final toss.
137
431000
2000
Czekacie na ostatni rzut.
07:13
And if it comes down a head, that's great.
138
433000
2000
I jeśli wypadnie reszka, to świetnie.
07:15
You're done, and you celebrate.
139
435000
2000
Udało się, możecie świętować.
07:17
If it's a tail -- well, rather disappointedly, you put the glasses away
140
437000
2000
Jeśli wypadnie orzełek
07:19
and put the champagne back.
141
439000
2000
szampan wraca do lodówki.
07:21
And you keep tossing, to wait for the next head, to get excited.
142
441000
3000
Rzucacie dalej w oczekiwaniu na kolejną reszkę.
07:25
On this side, there's a different experience.
143
445000
2000
Doświadczenia po tej stronie są inne.
07:27
It's the same for the first two parts of the sequence.
144
447000
3000
Pierwsze dwa elementy sekwencji przeżywacie podobnie:
07:30
You're a little bit excited with the first head --
145
450000
2000
podekscytowanie przy pierwszej reszce,
07:32
you get rather more excited with the next tail.
146
452000
2000
trochę większe przy orzełku.
07:34
Then you toss the coin.
147
454000
2000
Potem rzucacie monetą.
07:36
If it's a tail, you crack open the champagne.
148
456000
3000
Jeśli wypadnie orzełek, otwieracie szampana.
07:39
If it's a head you're disappointed,
149
459000
2000
Jeśli reszka, jesteście zawiedzeni,
07:41
but you're still a third of the way to your pattern again.
150
461000
3000
ale znowu jesteście na dobrej drodze.
07:44
And that's an informal way of presenting it -- that's why there's a difference.
151
464000
4000
Na tym właśnie polega różnica.
07:48
Another way of thinking about it --
152
468000
2000
Podchodząc inaczej:
07:50
if we tossed a coin eight million times,
153
470000
2000
jeśli rzucimy monetą 8 milionów razy,
07:52
then we'd expect a million head-tail-heads
154
472000
2000
będziemy spodziewać się, że R-O-R wypadnie milion razy,
07:54
and a million head-tail-tails -- but the head-tail-heads could occur in clumps.
155
474000
7000
i tak samo R-O-O - jednak sekwencje R-O-R mogą występować w grupach.
08:01
So if you want to put a million things down amongst eight million positions
156
481000
2000
Więc chcąc wyznaczyć milion sekwencji z 8 milionów pozycji,
08:03
and you can have some of them overlapping, the clumps will be further apart.
157
483000
5000
z których niektóre nakładają się na siebie, grupy sekwencji będą
08:08
It's another way of getting the intuition.
158
488000
2000
bardziej oddalone od siebie.
08:10
What's the point I want to make?
159
490000
2000
Co chcę przez to powiedzieć?
08:12
It's a very, very simple example, an easily stated question in probability,
160
492000
4000
To był prosty przykład, proste pytanie z prawdopodobieństwa,
08:16
which every -- you're in good company -- everybody gets wrong.
161
496000
3000
na które każdy podaje złą odpowiedź.
08:19
This is my little diversion into my real passion, which is genetics.
162
499000
4000
Z tej dygresji przejdźmy do mojej pasji - genetyki.
08:23
There's a connection between head-tail-heads and head-tail-tails in genetics,
163
503000
3000
Nasz eksperyment ma coś wspólnego z genetyką,
08:26
and it's the following.
164
506000
3000
mianowicie podczas rzucania monetą
08:29
When you toss a coin, you get a sequence of heads and tails.
165
509000
3000
otrzymujemy sekwencję reszek lub orzełków.
08:32
When you look at DNA, there's a sequence of not two things -- heads and tails --
166
512000
3000
W DNA, widzimy sekwencję nie dwóch elementów
08:35
but four letters -- As, Gs, Cs and Ts.
167
515000
3000
ale czterech liter -- A, G, C i T.
08:38
And there are little chemical scissors, called restriction enzymes
168
518000
3000
Istnieją chemiczne nożyczki, zwane enzymami restrykcyjnymi,
08:41
which cut DNA whenever they see particular patterns.
169
521000
2000
które przcinają DNA po pewnych sekwencjach.
08:43
And they're an enormously useful tool in modern molecular biology.
170
523000
4000
To narzędzie przydatne w nowoczesnej biologii molekularnej.
08:48
And instead of asking the question, "How long until I see a head-tail-head?" --
171
528000
3000
Zamiast pytać: "Po ilu rzutach wypadnie R-O-R?"
08:51
you can ask, "How big will the chunks be when I use a restriction enzyme
172
531000
3000
pytamy: "Jak duże otrzymam kawałki, gdy użyję enzymu,
08:54
which cuts whenever it sees G-A-A-G, for example?
173
534000
4000
który tnie gdy zobaczy sekwencję G-A-A-G?
08:58
How long will those chunks be?"
174
538000
2000
Jak długie będą te kawałki?"
09:00
That's a rather trivial connection between probability and genetics.
175
540000
5000
To trywialny związek pomiędzy prawdopodobieństwem i genetyką.
09:05
There's a much deeper connection, which I don't have time to go into
176
545000
3000
Istnieje też głębszy na który nie mamy czasu,
09:08
and that is that modern genetics is a really exciting area of science.
177
548000
3000
a który czyni z genetyki ekscytujące pole do badań.
09:11
And we'll hear some talks later in the conference specifically about that.
178
551000
4000
W dalszej części konferencji będą prezentacje na ten właśnie temat.
09:15
But it turns out that unlocking the secrets in the information generated by modern
179
555000
4000
Wyjaśnianie sekretów ukrytych w danych generowanych
09:19
experimental technologies, a key part of that has to do with fairly sophisticated --
180
559000
5000
przez technologie badawcze wiąże się z użyciem zaawansowanego...
09:24
you'll be relieved to know that I do something useful in my day job,
181
564000
3000
Ulży wam, że na co dzień robię coś pożytecznego,
09:27
rather more sophisticated than the head-tail-head story --
182
567000
2000
i bardziej skomplikowanego niż rzucanie monetą...
09:29
but quite sophisticated computer modelings and mathematical modelings
183
569000
4000
Używam modelowania komputerowego i matematycznego
09:33
and modern statistical techniques.
184
573000
2000
oraz nowoczesnej statystki.
09:35
And I will give you two little snippets -- two examples --
185
575000
3000
Przedstawię dwa przykłady projektów,
09:38
of projects we're involved in in my group in Oxford,
186
578000
3000
w które angażuje się mój zespół w Oksfordzie,
09:41
both of which I think are rather exciting.
187
581000
2000
a które uważam za dosyć interesujące.
09:43
You know about the Human Genome Project.
188
583000
2000
Znacie projekt poznania ludzkiego genomu.
09:45
That was a project which aimed to read one copy of the human genome.
189
585000
4000
Miał na celu odkodowanie ludzkiego genomu jednego człowieka.
09:51
The natural thing to do after you've done that --
190
591000
2000
W następnej kolejności naturalnym było
09:53
and that's what this project, the International HapMap Project,
191
593000
2000
rozpoczęcie International HapMap Project,
09:55
which is a collaboration between labs in five or six different countries.
192
595000
5000
w którym uczestniczą laboratoria w 5-6 krajach.
10:00
Think of the Human Genome Project as learning what we've got in common,
193
600000
4000
Projekt odczytania ludzkiego genomu miał odkryć, co nas łączy,
10:04
and the HapMap Project is trying to understand
194
604000
2000
natomiast projekt HapMap Projec to próba zrozumienia,
10:06
where there are differences between different people.
195
606000
2000
skąd się biorą różnice pomiędzy ludźmi.
10:08
Why do we care about that?
196
608000
2000
Dlaczego miałoby to nas obchodzić?
10:10
Well, there are lots of reasons.
197
610000
2000
Cóż, istnieje wiele powodów.
10:12
The most pressing one is that we want to understand how some differences
198
612000
4000
Najbardziej palący z nich to zrozumienie, jak niektóre różnice
10:16
make some people susceptible to one disease -- type-2 diabetes, for example --
199
616000
4000
wpływają na większą podatność na cukrzyce,
10:20
and other differences make people more susceptible to heart disease,
200
620000
5000
zaś inne czynią ludzi bardziej podatnymi na choroby serca,
10:25
or stroke, or autism and so on.
201
625000
2000
wylewy, autyzm i tym podobne.
10:27
That's one big project.
202
627000
2000
To jeden poważny projekt.
10:29
There's a second big project,
203
629000
2000
Kolejny duży projekt,
10:31
recently funded by the Wellcome Trust in this country,
204
631000
2000
niedawno sfinansowany z funduszy Wellcome Trust,
10:33
involving very large studies --
205
633000
2000
obejmuje szeroko zakrojone badania.
10:35
thousands of individuals, with each of eight different diseases,
206
635000
3000
Tysiące osób z każdą z ośmiu różnych chorób,
10:38
common diseases like type-1 and type-2 diabetes, and coronary heart disease,
207
638000
4000
takich jak cukrzyca typu 1 lub 2, niedokrwienie serca, depresja.
10:42
bipolar disease and so on -- to try and understand the genetics.
208
642000
4000
Sprawdzamy jakie jest ich podłoże biologiczne.
10:46
To try and understand what it is about genetic differences that causes the diseases.
209
646000
3000
Sprawdzamy czy różnice genetyczne są przyczyną tych problemów.
10:49
Why do we want to do that?
210
649000
2000
Dlaczego właśnie geny?
10:51
Because we understand very little about most human diseases.
211
651000
3000
Ponieważ niewiele rozumiemy o ludzkich chorobach.
10:54
We don't know what causes them.
212
654000
2000
Nie znamy ich dokładnych przyczyn.
10:56
And if we can get in at the bottom and understand the genetics,
213
656000
2000
Jeśli udałoby się zrozumieć genetykę,
10:58
we'll have a window on the way the disease works,
214
658000
3000
mielibyśmy wgląd w to, jak działają choroby.
11:01
and a whole new way about thinking about disease therapies
215
661000
2000
Otwarłyby się nowe drogi myślenia o leczeniu,
11:03
and preventative treatment and so on.
216
663000
3000
profilaktyce i tak dalej.
11:06
So that's, as I said, the little diversion on my main love.
217
666000
3000
To taka dygresja o mojej największej miłości.
11:09
Back to some of the more mundane issues of thinking about uncertainty.
218
669000
5000
Wracając do bardziej przyziemnych kwestii myślenia o niepewności.
11:14
Here's another quiz for you --
219
674000
2000
Przypuśćmy, że dostaliście test na pewną chorobę,
11:16
now suppose we've got a test for a disease
220
676000
2000
przypuśćmy, że dostaliście test na pewną chorobę,
11:18
which isn't infallible, but it's pretty good.
221
678000
2000
który jest całkiem niezły, choć nie doskonały.
11:20
It gets it right 99 percent of the time.
222
680000
3000
Daje prawidłowe wyniki w 99% przypadków.
11:23
And I take one of you, or I take someone off the street,
223
683000
3000
Wybieram kogoś stąd i kogoś z ulicy
11:26
and I test them for the disease in question.
224
686000
2000
i sprawdzam za pomocą tego testu.
11:28
Let's suppose there's a test for HIV -- the virus that causes AIDS --
225
688000
4000
Przypuśćmy, że to test na obecność wirusa HIV, wywołującego AIDS.
11:32
and the test says the person has the disease.
226
692000
3000
Test pokazuje, że wybrana osoba jest chora.
11:35
What's the chance that they do?
227
695000
3000
Jakie jest prawdopodobieństwo, że tak jest naprawdę?
11:38
The test gets it right 99 percent of the time.
228
698000
2000
Test daje prawidłowy wynik w 99% przypadków,
11:40
So a natural answer is 99 percent.
229
700000
4000
więc naturalna odpowiedź do 99%.
11:44
Who likes that answer?
230
704000
2000
Kto jest za?
11:46
Come on -- everyone's got to get involved.
231
706000
1000
No dalej - każdy musi zagłosować.
11:47
Don't think you don't trust me anymore.
232
707000
2000
Nie myślcie, że nie można mi już ufać.
11:49
(Laughter)
233
709000
1000
(Śmiech)
11:50
Well, you're right to be a bit skeptical, because that's not the answer.
234
710000
3000
Możecie być sceptyczni, bo to nie tak.
11:53
That's what you might think.
235
713000
2000
Oto, co możecie myśleć.
11:55
It's not the answer, and it's not because it's only part of the story.
236
715000
3000
To zła odpowiedź, ponieważ to tylko część całej historii.
11:58
It actually depends on how common or how rare the disease is.
237
718000
3000
Odpowiedź zależy od tego, jak częsta jest dana choroba.
12:01
So let me try and illustrate that.
238
721000
2000
Spróbuję to zilustrować.
12:03
Here's a little caricature of a million individuals.
239
723000
4000
Oto karykatura miliona osób.
12:07
So let's think about a disease that affects --
240
727000
3000
Pomyślmy o chorobie, która jest dosyć rzadka
12:10
it's pretty rare, it affects one person in 10,000.
241
730000
2000
i występuje u jednej osoby na 10 tysięcy.
12:12
Amongst these million individuals, most of them are healthy
242
732000
3000
Większość z tego miliona osób jest zdrowa,
12:15
and some of them will have the disease.
243
735000
2000
zaś niektórzy są chorzy.
12:17
And in fact, if this is the prevalence of the disease,
244
737000
3000
Przy takiej częstotliwości występowania około 100 osób
12:20
about 100 will have the disease and the rest won't.
245
740000
3000
będzie chorych, a reszta nie.
12:23
So now suppose we test them all.
246
743000
2000
Przypuśćmy, że wszystkich poddamy testowi.
12:25
What happens?
247
745000
2000
Co się okazuje?
12:27
Well, amongst the 100 who do have the disease,
248
747000
2000
Pomiędzy 100 chorymi osobami
12:29
the test will get it right 99 percent of the time, and 99 will test positive.
249
749000
5000
99 otrzyma pozytywny wynik - 99%.
12:34
Amongst all these other people who don't have the disease,
250
754000
2000
Pomiędzy tymi wszystkimi, którzy nie są chorzy,
12:36
the test will get it right 99 percent of the time.
251
756000
3000
test poda prawidłową diagnozę w 99% przypadków,
12:39
It'll only get it wrong one percent of the time.
252
759000
2000
zaś błędną przy zaledwie 1%.
12:41
But there are so many of them that there'll be an enormous number of false positives.
253
761000
4000
Jednak badana grupa jest tak duża, że liczba błędnych wyników będzie znaczna.
12:45
Put that another way --
254
765000
2000
Jednak badana grupa jest tak duża, że liczba błędnych wyników będzie znaczna.
12:47
of all of them who test positive -- so here they are, the individuals involved --
255
767000
5000
Ze wszystkich, którzy otrzymają pozytywny wynik
12:52
less than one in 100 actually have the disease.
256
772000
5000
mniej niż jeden na 100 będzie naprawdę chory.
12:57
So even though we think the test is accurate, the important part of the story is
257
777000
4000
Nawet jeśli sądzimy, że test jest dokładny, nadal brakuje nam
13:01
there's another bit of information we need.
258
781000
3000
istotnej części informacji.
13:04
Here's the key intuition.
259
784000
2000
Oto kluczowa intuicja.
13:07
What we have to do, once we know the test is positive,
260
787000
3000
Gdy już wiemy, że wynik testu jest pozytywny,
13:10
is to weigh up the plausibility, or the likelihood, of two competing explanations.
261
790000
6000
musimy porównać prawdopodobieństwo dwóch możliwych wyjaśnień.
13:16
Each of those explanations has a likely bit and an unlikely bit.
262
796000
3000
Każde z nich ma prawdopodobną część i mało prawdopodobną część.
13:19
One explanation is that the person doesn't have the disease --
263
799000
3000
Jedno wyjaśnienie jest takie, że dana osoba nie jest chora -
13:22
that's overwhelmingly likely, if you pick someone at random --
264
802000
3000
co jest prawdopodobne, jeśli została wybrana losowo -
13:25
but the test gets it wrong, which is unlikely.
265
805000
3000
tylko test podał nieprawidłowy wynik, co jest mało prawdopodobne.
13:29
The other explanation is that the person does have the disease -- that's unlikely --
266
809000
3000
Albo: dana osoba jest chora - co jest mało prawdopodobne -
13:32
but the test gets it right, which is likely.
267
812000
3000
i test podaje prawidłowy wynik, co jest bardzo prawdopodobne.
13:35
And the number we end up with --
268
815000
2000
Liczba, którą na końcu otrzymujemy --
13:37
that number which is a little bit less than one in 100 --
269
817000
3000
ta trochę mniejsza niż jeden na 100 -
13:40
is to do with how likely one of those explanations is relative to the other.
270
820000
6000
zależy od tego, które z tych wyjaśnień jest bardziej prawdopodobne.
13:46
Each of them taken together is unlikely.
271
826000
2000
Każde z nich razem jest dość mało prawdopodobne.
13:49
Here's a more topical example of exactly the same thing.
272
829000
3000
Pokażę teraz ten same problem.
13:52
Those of you in Britain will know about what's become rather a celebrated case
273
832000
4000
Mieszkając w Wielkiej Brytanii można było usłyszeć o sprawie
13:56
of a woman called Sally Clark, who had two babies who died suddenly.
274
836000
5000
Sally Clark, matki dwojga dzieci, które nagle zmarły.
14:01
And initially, it was thought that they died of what's known informally as "cot death,"
275
841000
4000
Początkowo za przyczynę uznano
14:05
and more formally as "Sudden Infant Death Syndrome."
276
845000
3000
zespół nagłej śmierci łóżeczkowej.
14:08
For various reasons, she was later charged with murder.
277
848000
2000
Potem oskarżono ją o morderstwo.
14:10
And at the trial, her trial, a very distinguished pediatrician gave evidence
278
850000
4000
Podczas rozprawy znany pediatra powiedział,
14:14
that the chance of two cot deaths, innocent deaths, in a family like hers --
279
854000
5000
że tutaj prawdopodobieństwo dwóch zgonów z tego samego powodu,
14:19
which was professional and non-smoking -- was one in 73 million.
280
859000
6000
w dobrze wykształconej i niepalącej rodzinie wynosi 1 do 73 milionów.
14:26
To cut a long story short, she was convicted at the time.
281
866000
3000
Pani Clark została wtedy uznana za winną.
14:29
Later, and fairly recently, acquitted on appeal -- in fact, on the second appeal.
282
869000
5000
Niedawno została uniewinniona w wyniku drugiej apelacji.
14:34
And just to set it in context, you can imagine how awful it is for someone
283
874000
4000
Możecie sobie wyobrazić, jak okropna musi być
14:38
to have lost one child, and then two, if they're innocent,
284
878000
3000
utrata dwojga dzieci i niesłuszne
14:41
to be convicted of murdering them.
285
881000
2000
oskarżenie o ich zamordowanie,
14:43
To be put through the stress of the trial, convicted of murdering them --
286
883000
2000
przejście przez piekło rozpraw
14:45
and to spend time in a women's prison, where all the other prisoners
287
885000
3000
i odsiadka w więzieniu dla kobiet,
14:48
think you killed your children -- is a really awful thing to happen to someone.
288
888000
5000
gdzie skazane myślą, że zabiłaś swoje dzieci.
14:53
And it happened in large part here because the expert got the statistics
289
893000
5000
Wszystko dlatego, że eksperci zinterpretowali statystki
14:58
horribly wrong, in two different ways.
290
898000
3000
nieprawidłowo, z dwóch rożnych powodów.
15:01
So where did he get the one in 73 million number?
291
901000
4000
Skąd pediatra wziął 1 na 73 miliony?
15:05
He looked at some research, which said the chance of one cot death in a family
292
905000
3000
Popatrzył na badania gdzie to prawdopodobnieństwo
15:08
like Sally Clark's is about one in 8,500.
293
908000
5000
w rodzinie typu pani Clark wynosi 1 na 8 i pół tysiąca.
15:13
So he said, "I'll assume that if you have one cot death in a family,
294
913000
4000
Założył, że jeśli wystąpił jeden zgon, to prawdopodobieństwo
15:17
the chance of a second child dying from cot death aren't changed."
295
917000
4000
śmierci drugiego dziecka jest takie samo jak pierwszego.
15:21
So that's what statisticians would call an assumption of independence.
296
921000
3000
To założenie niezależności zdarzeń.
15:24
It's like saying, "If you toss a coin and get a head the first time,
297
924000
2000
To stwierdzić, przy rzucaniu monetą,
15:26
that won't affect the chance of getting a head the second time."
298
926000
3000
że pierwszy wynik nie wpływa na prawdopodobieństwo następnego.
15:29
So if you toss a coin twice, the chance of getting a head twice are a half --
299
929000
5000
Prawdopodobieństwo wyrzucenia dwóch reszek pod rząd to 1/2 razy 1/2,
15:34
that's the chance the first time -- times a half -- the chance a second time.
300
934000
3000
Prawdopodobieństwo wypadnięcia pierwszej reszki razy drugiej.
15:37
So he said, "Here,
301
937000
2000
Ten lekarz powiedział: „Załóżmy,
15:39
I'll assume that these events are independent.
302
939000
4000
że te wydarzenia są niezależne.
15:43
When you multiply 8,500 together twice,
303
943000
2000
Mnożąc 8500 razy 8500
15:45
you get about 73 million."
304
945000
2000
otrzymujemy około 73 miliony."
15:47
And none of this was stated to the court as an assumption
305
947000
2000
Założenie to nie było przedstawione sędziom,
15:49
or presented to the jury that way.
306
949000
2000
ani wyjaśnione ławie przysięgłych.
15:52
Unfortunately here -- and, really, regrettably --
307
952000
3000
Niestety w takich sytuacjach jak ta
15:55
first of all, in a situation like this you'd have to verify it empirically.
308
955000
4000
konieczna jest, po pierwsze, weryfikacja empiryczna.
15:59
And secondly, it's palpably false.
309
959000
2000
Po drugie, założenie to jest po prostu błędne.
16:02
There are lots and lots of things that we don't know about sudden infant deaths.
310
962000
5000
Nie wiemy wszystkiego o nagłej śmierci łóżeczkowej.
16:07
It might well be that there are environmental factors that we're not aware of,
311
967000
3000
Możemy być nieświadomi wpływu czynników środowiskowych
16:10
and it's pretty likely to be the case that there are
312
970000
2000
i jest bardzo prawdopodobne, że istnieją
16:12
genetic factors we're not aware of.
313
972000
2000
czynniki genetyczne, których nie znamy.
16:14
So if a family suffers from one cot death, you'd put them in a high-risk group.
314
974000
3000
Jeśli w rodzinie wystąpi jedna śmierć łóżeczkowa, może być ona w grupie ryzyka.
16:17
They've probably got these environmental risk factors
315
977000
2000
Działały tam czynniki środowiskowe
16:19
and/or genetic risk factors we don't know about.
316
979000
3000
lub genetyczne, o których nie wiemy.
16:22
And to argue, then, that the chance of a second death is as if you didn't know
317
982000
3000
Argumentowanie, że prawdopodobieństwo drugiej śmierci jest takie,
16:25
that information is really silly.
318
985000
3000
jak byśmy nie wiedzieli o pierwszej, jest niedorzeczne. To błąd.
16:28
It's worse than silly -- it's really bad science.
319
988000
4000
jak byśmy nie wiedzieli o pierwszej, jest niedorzeczne. To błąd.
16:32
Nonetheless, that's how it was presented, and at trial nobody even argued it.
320
992000
5000
Tak to zostało przedstawione i nikt się nie sprzeciwił.
16:37
That's the first problem.
321
997000
2000
To pierwszy problem.
16:39
The second problem is, what does the number of one in 73 million mean?
322
999000
4000
Drugi problem to to, co oznacza 1 na 73 miliony?
16:43
So after Sally Clark was convicted --
323
1003000
2000
Po skazaniu Sally Clark
16:45
you can imagine, it made rather a splash in the press --
324
1005000
4000
jej sprawa trafiła na pierwsze strony gazet,
16:49
one of the journalists from one of Britain's more reputable newspapers wrote that
325
1009000
7000
jeden z dziennikarzy z dobrej gazety napisał,
16:56
what the expert had said was,
326
1016000
2000
że według eksperta,
16:58
"The chance that she was innocent was one in 73 million."
327
1018000
5000
"Prawdopodobieństwo, że była niewinna wynosiło 1 do 73 milionów."
17:03
Now, that's a logical error.
328
1023000
2000
To jest poważny błąd logiczny.
17:05
It's exactly the same logical error as the logical error of thinking that
329
1025000
3000
Taki sam, jak myśleć, że po teście na daną chorobę,
17:08
after the disease test, which is 99 percent accurate,
330
1028000
2000
który ma 99% skuteczności,
17:10
the chance of having the disease is 99 percent.
331
1030000
4000
prawdopodobieństwo bycia chorym wynosi 99%.
17:14
In the disease example, we had to bear in mind two things,
332
1034000
4000
W przypadku testu musimy wziąć pod uwagę dwie rzeczy.
17:18
one of which was the possibility that the test got it right or not.
333
1038000
4000
Prawdopodobieństwo, że wynik testu był prawidłowy
17:22
And the other one was the chance, a priori, that the person had the disease or not.
334
1042000
4000
i prawdopodobieństwo bycia chorym a priori.
17:26
It's exactly the same in this context.
335
1046000
3000
W sprawie Sally Clark chodziło o to samo.
17:29
There are two things involved -- two parts to the explanation.
336
1049000
4000
Istnieją dwa czynniki - dwie części wyjaśnienia.
17:33
We want to know how likely, or relatively how likely, two different explanations are.
337
1053000
4000
Jak prawdopodobne, są te dwa różne wyjaśnienia?
17:37
One of them is that Sally Clark was innocent --
338
1057000
3000
Jedno mówi, że Sally Clark była niewinna
17:40
which is, a priori, overwhelmingly likely --
339
1060000
2000
i to a priori jest bardzo prawdopodobne,
17:42
most mothers don't kill their children.
340
1062000
3000
większość matek nie zabija swoich dzieci.
17:45
And the second part of the explanation
341
1065000
2000
Drugie możliwe wyjaśnienie mówi,
17:47
is that she suffered an incredibly unlikely event.
342
1067000
3000
że przydarzyło się jej nieprawdopodobne zdarzenie.
17:50
Not as unlikely as one in 73 million, but nonetheless rather unlikely.
343
1070000
4000
Wcale nie 1/73 mln, ale nadal mało prawdopodobne.
17:54
The other explanation is that she was guilty.
344
1074000
2000
Mogła też być winna.
17:56
Now, we probably think a priori that's unlikely.
345
1076000
2000
Tutaj uznamy je pewnie a priori za mało prawdopodobne.
17:58
And we certainly should think in the context of a criminal trial
346
1078000
3000
Powinniśmy tak myśleć szczególnie w kontekście rozprawy sądowej
18:01
that that's unlikely, because of the presumption of innocence.
347
1081000
3000
ze względu na zasadę domniemania niewinności.
18:04
And then if she were trying to kill the children, she succeeded.
348
1084000
4000
I jeszcze, jeśli Clark próbowała zabić dzieci, udało jej się.
18:08
So the chance that she's innocent isn't one in 73 million.
349
1088000
4000
Wtedy prawdopodobieństwo, że jest niewinna, nie wynosi wcale 1/73 miliona.
18:12
We don't know what it is.
350
1092000
2000
Nie wiemy, ile wynosi.
18:14
It has to do with weighing up the strength of the other evidence against her
351
1094000
4000
Należałoby porównać moc innych dowodów przeciwko niej
18:18
and the statistical evidence.
352
1098000
2000
plus dane statystyczne.
18:20
We know the children died.
353
1100000
2000
Wiemy, że dzieci zmarły.
18:22
What matters is how likely or unlikely, relative to each other,
354
1102000
4000
Istotnym jest, jak bardzo prawdopodobne lub nie są względem siebie
18:26
the two explanations are.
355
1106000
2000
dwa różne wyjaśnienia.
18:28
And they're both implausible.
356
1108000
2000
Obydwa są mało prawdopodobne.
18:31
There's a situation where errors in statistics had really profound
357
1111000
4000
W tej sytuacji błędy w statystyce miały naprawdę
18:35
and really unfortunate consequences.
358
1115000
3000
ogromne i przykre konsekwencje.
18:38
In fact, there are two other women who were convicted on the basis of the
359
1118000
2000
Dwie inne kobiety też zostały skazane na podstawie
18:40
evidence of this pediatrician, who have subsequently been released on appeal.
360
1120000
4000
dowodów tego pediatry - po apelacji je uniewinniono.
18:44
Many cases were reviewed.
361
1124000
2000
Wiele wyroków zostało zmienionych.
18:46
And it's particularly topical because he's currently facing a disrepute charge
362
1126000
4000
Lekarz ten został oskarżony o kompromitację profesji
18:50
at Britain's General Medical Council.
363
1130000
3000
przez Brytyjską Naczelną Radę Lekarską.
18:53
So just to conclude -- what are the take-home messages from this?
364
1133000
4000
Jakie wnioski powinniśmy z tego wyciągnąć?
18:57
Well, we know that randomness and uncertainty and chance
365
1137000
4000
Losowość, niepewność i prawdopodobieństwo
19:01
are very much a part of our everyday life.
366
1141000
3000
odgrywają znaczną rolę w naszym życiu.
19:04
It's also true -- and, although, you, as a collective, are very special in many ways,
367
1144000
5000
Jako grupa jesteście z wielu względów wyjątkowi,
19:09
you're completely typical in not getting the examples I gave right.
368
1149000
4000
nie podaliście jednak prawidłowych odpowiedzi na moje przykłady.
19:13
It's very well documented that people get things wrong.
369
1153000
3000
Błędne wnioskowanie w tym zakresie jest typowe.
19:16
They make errors of logic in reasoning with uncertainty.
370
1156000
3000
Obcując z niepewnością popełniamy błędy logiczne.
19:20
We can cope with the subtleties of language brilliantly --
371
1160000
2000
Doskonale radzimy sobie z językiem
19:22
and there are interesting evolutionary questions about how we got here.
372
1162000
3000
i ewolucja ciekawie wyjaśnia jak to się stało.
19:25
We are not good at reasoning with uncertainty.
373
1165000
3000
Jednak słabo radzimy sobie z niepewnością.
19:28
That's an issue in our everyday lives.
374
1168000
2000
To problem życia codziennego.
19:30
As you've heard from many of the talks, statistics underpins an enormous amount
375
1170000
3000
Na statystyce opiera się ogromna ilość
19:33
of research in science -- in social science, in medicine
376
1173000
3000
badań naukowych (w socjologii, medycynie)
19:36
and indeed, quite a lot of industry.
377
1176000
2000
i wiele sektorów przemysłowych.
19:38
All of quality control, which has had a major impact on industrial processing,
378
1178000
4000
Kontrola jakości, która wpłynęła na produkcję przemysłową,
19:42
is underpinned by statistics.
379
1182000
2000
opiera się na statystyce.
19:44
It's something we're bad at doing.
380
1184000
2000
A to z nią sobie nie radzimy.
19:46
At the very least, we should recognize that, and we tend not to.
381
1186000
3000
Powinniśmy to sobie uświadomić.
19:49
To go back to the legal context, at the Sally Clark trial
382
1189000
4000
Na rozprawie Sally Clark
19:53
all of the lawyers just accepted what the expert said.
383
1193000
4000
wszyscy zaakceptowali słowa eksperta.
19:57
So if a pediatrician had come out and said to a jury,
384
1197000
2000
Jeśli pediatra powiedziałby ławie przysięgłych:
19:59
"I know how to build bridges. I've built one down the road.
385
1199000
3000
"Umiem budować mosty. Postawiłem jeden na tej drodze.
20:02
Please drive your car home over it,"
386
1202000
2000
Proszę przejechać przez niego w drodze do domu"
20:04
they would have said, "Well, pediatricians don't know how to build bridges.
387
1204000
2000
większość byłaby sceptyczna,
20:06
That's what engineers do."
388
1206000
2000
bo to zadanie dla inżyniera.
20:08
On the other hand, he came out and effectively said, or implied,
389
1208000
3000
Ten sam lekarz zasugerował,
20:11
"I know how to reason with uncertainty. I know how to do statistics."
390
1211000
3000
że zna się na statystyce
20:14
And everyone said, "Well, that's fine. He's an expert."
391
1214000
3000
a wszyscy przyklasnęli: "Dobrze. Jest ekspertem."
20:17
So we need to understand where our competence is and isn't.
392
1217000
3000
Musimy wiedzieć, co potrafimy, a czego nie.
20:20
Exactly the same kinds of issues arose in the early days of DNA profiling,
393
1220000
4000
Podobnie było we wczesnych dniach analizowania DNA,
20:24
when scientists, and lawyers and in some cases judges,
394
1224000
4000
gdy naukowcy, prawnicy, a czasem i sędziowie,
20:28
routinely misrepresented evidence.
395
1228000
3000
notorycznie błędnie interpretowali materiał dowodowy.
20:32
Usually -- one hopes -- innocently, but misrepresented evidence.
396
1232000
3000
Zazwyczaj nieświadomie, ale jednak błędnie.
20:35
Forensic scientists said, "The chance that this guy's innocent is one in three million."
397
1235000
5000
Eksperci medycyny sądowej mówili: "Szansa, że jest niewinny wynosi 1 do 3 mln."
20:40
Even if you believe the number, just like the 73 million to one,
398
1240000
2000
Nawet jeśli ufa się tym wyliczeniom
20:42
that's not what it meant.
399
1242000
2000
to ich znaczenie jest całkiem inne.
20:44
And there have been celebrated appeal cases
400
1244000
2000
Z tego powodu w Wielkiej Brytanii i innych krajach
20:46
in Britain and elsewhere because of that.
401
1246000
2000
było wiele uniewinnień.
20:48
And just to finish in the context of the legal system.
402
1248000
3000
W kontekście prawniczym łatwo powiedzieć
20:51
It's all very well to say, "Let's do our best to present the evidence."
403
1251000
4000
"Zróbmy co w naszej mocy, aby przedstawić dowody."
20:55
But more and more, in cases of DNA profiling -- this is another one --
404
1255000
3000
Jednak w sprawach wymagających ustalenia profilu DNA
20:58
we expect juries, who are ordinary people --
405
1258000
3000
oczekujemy od ław sędziowskich, normalnych ludzi,
21:01
and it's documented they're very bad at this --
406
1261000
2000
tego z czym sobie dobrze nie radzą,
21:03
we expect juries to be able to cope with the sorts of reasoning that goes on.
407
1263000
4000
oczekujemy rozumienia statystycznej argumentacji.
21:07
In other spheres of life, if people argued -- well, except possibly for politics --
408
1267000
5000
W innych sferach życia... Może z wyjątkiem polityki.
21:12
but in other spheres of life, if people argued illogically,
409
1272000
2000
Gdyby ktoś używał nielogicznych argumentów,
21:14
we'd say that's not a good thing.
410
1274000
2000
od razu byśmy się sprzeciwili.
21:16
We sort of expect it of politicians and don't hope for much more.
411
1276000
4000
Po politykach jednak nie spodziewamy się wiele.
21:20
In the case of uncertainty, we get it wrong all the time --
412
1280000
3000
Przy prawdopodobieństwie mylimy się cały czas.
21:23
and at the very least, we should be aware of that,
413
1283000
2000
Przynajmniej powinniśmy być tego świadomi.
21:25
and ideally, we might try and do something about it.
414
1285000
2000
Najlepiej, zaradźmy temu. Bardzo dziękuję.
21:27
Thanks very much.
415
1287000
1000
Najlepiej, zaradźmy temu. Bardzo dziękuję.
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7