Peter Donnelly: How stats fool juries

243,959 views ・ 2007-01-12

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: MaYoMo com Reviewer: Anton Hikov
00:25
As other speakers have said, it's a rather daunting experience --
0
25000
2000
Както казаха други оратори, е доста обезсърчително преживяване...
00:27
a particularly daunting experience -- to be speaking in front of this audience.
1
27000
3000
особено обезсърчително преживяване... да се говори пред тази публика.
00:30
But unlike the other speakers, I'm not going to tell you about
2
30000
3000
Но за разлика от другите оратори, аз няма да ви разказвам
00:33
the mysteries of the universe, or the wonders of evolution,
3
33000
2000
за мистериите на Вселената, или чудесата на еволюцията,
00:35
or the really clever, innovative ways people are attacking
4
35000
4000
или наистина умните, иновативни начини, по които хората атакуват
00:39
the major inequalities in our world.
5
39000
2000
огромните неравенства в нашия свят.
00:41
Or even the challenges of nation-states in the modern global economy.
6
41000
5000
Дори и за предизвикателствата на нациите-държави в модерната глобална икономика.
00:46
My brief, as you've just heard, is to tell you about statistics --
7
46000
4000
Целта ми, както току-що чухте, е да ви разказвам за статистика...
00:50
and, to be more precise, to tell you some exciting things about statistics.
8
50000
3000
и, за да бъда по-точен, да ви разкажа някои вълнуващи неща за статистиката.
00:53
And that's --
9
53000
1000
А това е...
00:54
(Laughter)
10
54000
1000
(Смях)
00:55
-- that's rather more challenging
11
55000
2000
...това е доста по-предизвикателно,
00:57
than all the speakers before me and all the ones coming after me.
12
57000
2000
отколкото за всички оратори преди мен и за всички след мен.
00:59
(Laughter)
13
59000
1000
(Смях)
01:01
One of my senior colleagues told me, when I was a youngster in this profession,
14
61000
5000
Един от по-старшите ми колеги ми каза, когато бях младок в тази професия,
01:06
rather proudly, that statisticians were people who liked figures
15
66000
4000
доста гордо, че статистиците са хора, които харесват цифрите,
01:10
but didn't have the personality skills to become accountants.
16
70000
3000
но нямат личните умения, за да станат счетоводители.
01:13
(Laughter)
17
73000
2000
(Смях)
01:15
And there's another in-joke among statisticians, and that's,
18
75000
3000
Сред статистиците има и друга вътрешна шега:
01:18
"How do you tell the introverted statistician from the extroverted statistician?"
19
78000
3000
"По какво се различава статистикът интроверт от статистика екстроверт?"
01:21
To which the answer is,
20
81000
2000
А отговорът е:
01:23
"The extroverted statistician's the one who looks at the other person's shoes."
21
83000
5000
"Статистикът екстроверт е този, който гледа обувките на другия човек."
01:28
(Laughter)
22
88000
3000
(Смях)
01:31
But I want to tell you something useful -- and here it is, so concentrate now.
23
91000
5000
Искам обаче да ви кажа нещо полезно... ето го, така че се съсредоточете.
01:36
This evening, there's a reception in the University's Museum of Natural History.
24
96000
3000
Тази вечер има прием в Университетския музей по естествена история.
01:39
And it's a wonderful setting, as I hope you'll find,
25
99000
2000
Чудесна обстановка, както се надявам да откриете,
01:41
and a great icon to the best of the Victorian tradition.
26
101000
5000
и прекрасен символ на най-добротото от викторианската традиция.
01:46
It's very unlikely -- in this special setting, and this collection of people --
27
106000
5000
Доста е невероятно... при тази специална обстановка и тази сбирка от хора...
01:51
but you might just find yourself talking to someone you'd rather wish that you weren't.
28
111000
3000
но може просто да се окаже, че говорите с някого, с когото бихте предпочели да не говорите.
01:54
So here's what you do.
29
114000
2000
Ето какво да правите.
01:56
When they say to you, "What do you do?" -- you say, "I'm a statistician."
30
116000
4000
Когато ви попитат: "С какво се занимавате?", отговаряте: "Със статистика".
02:00
(Laughter)
31
120000
1000
(Смях)
02:01
Well, except they've been pre-warned now, and they'll know you're making it up.
32
121000
4000
Е, освен ако не са предупредени предварително сега и знаят, че си го измисляте.
02:05
And then one of two things will happen.
33
125000
2000
И тогава ще се случи едно от две неща.
02:07
They'll either discover their long-lost cousin in the other corner of the room
34
127000
2000
Или ще открият отдавна изгубения си братовчед в другия ъгъл на залата
02:09
and run over and talk to them.
35
129000
2000
и ще изтичат да поговорят с него,
02:11
Or they'll suddenly become parched and/or hungry -- and often both --
36
131000
3000
или пък внезапно ще ги обземе страхотен глад и/или жажда... често и двете...
02:14
and sprint off for a drink and some food.
37
134000
2000
и ще спринтират за питие и храна.
02:16
And you'll be left in peace to talk to the person you really want to talk to.
38
136000
4000
А вие ще бъдете оставени на мира да поговорите с човека, с когото наистина искате.
02:20
It's one of the challenges in our profession to try and explain what we do.
39
140000
3000
Едно от предизвикателствата в нашата професия е да се опитваме да обясним с какво се занимаваме.
02:23
We're not top on people's lists for dinner party guests and conversations and so on.
40
143000
5000
Не сме начело на хорските списъци за гости на вечеря, разговори и така нататък.
02:28
And it's something I've never really found a good way of doing.
41
148000
2000
И това е нещо, за което всъщност никога не съм намирал добър начин.
02:30
But my wife -- who was then my girlfriend --
42
150000
3000
Но жена ми... която тогава беше моя приятелка...
02:33
managed it much better than I've ever been able to.
43
153000
3000
успяваше в това далеч по-добре от мен.
02:36
Many years ago, when we first started going out, she was working for the BBC in Britain,
44
156000
3000
Преди много години, когато започнахме да излизаме отначало, тя работеше в Би Би Си в Британия,
02:39
and I was, at that stage, working in America.
45
159000
2000
а аз, на този етап, работех в Америка.
02:41
I was coming back to visit her.
46
161000
2000
Връщах се да я посетя.
02:43
She told this to one of her colleagues, who said, "Well, what does your boyfriend do?"
47
163000
6000
Тя каза това на един от колегите си, който попита: "А какво работи приятелят ти?"
02:49
Sarah thought quite hard about the things I'd explained --
48
169000
2000
Сара се замислила доста за нещата, които съм й обяснявал...
02:51
and she concentrated, in those days, on listening.
49
171000
4000
а в онези времена тя се съсредоточаваше върху изсушването.
02:55
(Laughter)
50
175000
2000
(Смях)
02:58
Don't tell her I said that.
51
178000
2000
Не й казвайте, че съм казал така.
03:00
And she was thinking about the work I did developing mathematical models
52
180000
4000
И мислеше за работата, която вършех за разработване на математически модели
03:04
for understanding evolution and modern genetics.
53
184000
3000
за разбиране на еволюцията и модерната генетика.
03:07
So when her colleague said, "What does he do?"
54
187000
3000
Затова, когато колегата й попитал: "Какво работи той",
03:10
She paused and said, "He models things."
55
190000
4000
тя замълчала за малко и отвърнала: "Моделира разни неща."
03:14
(Laughter)
56
194000
1000
(Смях)
03:15
Well, her colleague suddenly got much more interested than I had any right to expect
57
195000
4000
Е, колегата й внезапно се заинтересувал много повече, отколкото имах право да очаквам,
03:19
and went on and said, "What does he model?"
58
199000
3000
продължил и попитал: "А какво моделира?"
03:22
Well, Sarah thought a little bit more about my work and said, "Genes."
59
202000
3000
Сара помислила още малко за работата ми и отвърнала: "Гени."
03:25
(Laughter)
60
205000
4000
(Смях)
03:29
"He models genes."
61
209000
2000
"Той моделира гени."
03:31
That is my first love, and that's what I'll tell you a little bit about.
62
211000
4000
Това е първата ми любов, ще ви разкажа малко за нея.
03:35
What I want to do more generally is to get you thinking about
63
215000
4000
Онова, което искам да постигна по-общо, е да ви накарам да се замислите
03:39
the place of uncertainty and randomness and chance in our world,
64
219000
3000
за мястото на несигурността, произволността и случайността в нашия свят,
03:42
and how we react to that, and how well we do or don't think about it.
65
222000
5000
как реагираме на това и колко добре мислим, или не мислим за това.
03:47
So you've had a pretty easy time up till now --
66
227000
2000
Досега ви беше доста лесно...
03:49
a few laughs, and all that kind of thing -- in the talks to date.
67
229000
2000
малко смях, ей такива неща... на разговорите досега.
03:51
You've got to think, and I'm going to ask you some questions.
68
231000
3000
Трябва да помислите, и ще ви задам няколко въпроса.
03:54
So here's the scene for the first question I'm going to ask you.
69
234000
2000
Ето първия въпрос, който ще ви задам.
03:56
Can you imagine tossing a coin successively?
70
236000
3000
Можете ли да си представите последователно хвърляне на монета?
03:59
And for some reason -- which shall remain rather vague --
71
239000
3000
По някаква причина... която ще остане доста неясна...
04:02
we're interested in a particular pattern.
72
242000
2000
се интересуваме от определен модел.
04:04
Here's one -- a head, followed by a tail, followed by a tail.
73
244000
3000
Ето един... ези, следвано от тура, следвано от тура.
04:07
So suppose we toss a coin repeatedly.
74
247000
3000
Да предположим, че хвърляме монета многократно.
04:10
Then the pattern, head-tail-tail, that we've suddenly become fixated with happens here.
75
250000
5000
Тогава моделът, ези-тура-тура, от който внезапно сме обсебени, се случва тук.
04:15
And you can count: one, two, three, four, five, six, seven, eight, nine, 10 --
76
255000
4000
И може да се брои: едно, две, три, четири, пет, шест, седем, осем, девет, десет...
04:19
it happens after the 10th toss.
77
259000
2000
случва се след десетото хвърляне.
04:21
So you might think there are more interesting things to do, but humor me for the moment.
78
261000
3000
Може да си мислите, че има по-интересни неща за правене, но ми угодете за момента.
04:24
Imagine this half of the audience each get out coins, and they toss them
79
264000
4000
Представете си, че всички от тази половина от публиката вземат монети и ги хвърлят,
04:28
until they first see the pattern head-tail-tail.
80
268000
3000
докато видят за пръв път модела ези-тура-тура.
04:31
The first time they do it, maybe it happens after the 10th toss, as here.
81
271000
2000
За пръв път може да се случи след десетото хвърляне, както тук.
04:33
The second time, maybe it's after the fourth toss.
82
273000
2000
Втория път - може би след четвъртото хвърляне.
04:35
The next time, after the 15th toss.
83
275000
2000
Следващия път, след 15-тото хвърляне.
04:37
So you do that lots and lots of times, and you average those numbers.
84
277000
3000
Значи, това се прави много пъти и се усредняват тези числа.
04:40
That's what I want this side to think about.
85
280000
3000
За това искам да мисли тази страна.
04:43
The other half of the audience doesn't like head-tail-tail --
86
283000
2000
Другата част от публиката не обича ези-тура-тура...
04:45
they think, for deep cultural reasons, that's boring --
87
285000
3000
според тях, по дълбоки културни причини, това е скучно...
04:48
and they're much more interested in a different pattern -- head-tail-head.
88
288000
3000
и са много по-заинтересувани от различен модел - ези-тура-ези.
04:51
So, on this side, you get out your coins, and you toss and toss and toss.
89
291000
3000
Значи, от тази страна, изваждате монетите си, хвърляте и хвърляте, и хвърляте.
04:54
And you count the number of times until the pattern head-tail-head appears
90
294000
3000
И броите колко пъти, докато се появи моделът ези-тура-ези
04:57
and you average them. OK?
91
297000
3000
и ги усреднявате. Става ли?
05:00
So on this side, you've got a number --
92
300000
2000
Значи, от тази страна имате число...
05:02
you've done it lots of times, so you get it accurately --
93
302000
2000
правили сте го много пъти, така че е точно...
05:04
which is the average number of tosses until head-tail-tail.
94
304000
3000
което е средният брой хвърляния до получаване на ези-тура-тура.
05:07
On this side, you've got a number -- the average number of tosses until head-tail-head.
95
307000
4000
От тази страна имате число... средният брой хвърляния до получаване на ези-тура-ези.
05:11
So here's a deep mathematical fact --
96
311000
2000
Ето един дълбок математически факт...
05:13
if you've got two numbers, one of three things must be true.
97
313000
3000
ако има две числа, трябва да е вярно едно от три неща.
05:16
Either they're the same, or this one's bigger than this one,
98
316000
3000
Или са едни и същи, или това е по-голямо от онова,
05:19
or this one's bigger than that one.
99
319000
1000
или онова по-голямо от това.
05:20
So what's going on here?
100
320000
3000
А какво става тук?
05:23
So you've all got to think about this, and you've all got to vote --
101
323000
2000
Трябва всички да помислите за това и всички да гласуваме...
05:25
and we're not moving on.
102
325000
1000
не се придвижваме нататък.
05:26
And I don't want to end up in the two-minute silence
103
326000
2000
И не искам накрая да се получи двеминутно мълчание,
05:28
to give you more time to think about it, until everyone's expressed a view. OK.
104
328000
4000
за да ви дам повече време да мислите за това, докато всеки е изразил възглед. Така.
05:32
So what you want to do is compare the average number of tosses until we first see
105
332000
4000
Това, което искате да правите, е да сравнявате средния брой хвърляния, докато видим за пръв път
05:36
head-tail-head with the average number of tosses until we first see head-tail-tail.
106
336000
4000
ези-тура-ези със средния брой хвърляния, докато видим ези-тура-тура.
05:41
Who thinks that A is true --
107
341000
2000
Кой мисли, че А е вярно...
05:43
that, on average, it'll take longer to see head-tail-head than head-tail-tail?
108
343000
4000
че средно ще трябва по-дълго време, за да се види ези-тура-ези, отколкото ези-тура-тура?
05:47
Who thinks that B is true -- that on average, they're the same?
109
347000
3000
Кой мисли, че е вярно В - че средно са едни и същи?
05:51
Who thinks that C is true -- that, on average, it'll take less time
110
351000
2000
Кой мисли, че е вярно С - че средно ще трябва по-малко време,
05:53
to see head-tail-head than head-tail-tail?
111
353000
3000
за да се види ези-тура-ези, отколкото ези-тура-тура?
05:57
OK, who hasn't voted yet? Because that's really naughty -- I said you had to.
112
357000
3000
Така, кой не е гласувал още? Защото това е много невъзпитано - казах ви, че трябва.
06:00
(Laughter)
113
360000
1000
(Смях)
06:02
OK. So most people think B is true.
114
362000
3000
Така. Значи, повечето хора мислят, че е вярно В.
06:05
And you might be relieved to know even rather distinguished mathematicians think that.
115
365000
3000
Може да сте облекчени да научите, че така мислят дори доста изтъкнати математици.
06:08
It's not. A is true here.
116
368000
4000
Не е така. Тук е вярно А.
06:12
It takes longer, on average.
117
372000
2000
Средно е нужно по-дълго време.
06:14
In fact, the average number of tosses till head-tail-head is 10
118
374000
2000
Всъщност средният брой хвърляния, докато се падне 10 пъти ези-тура-ези
06:16
and the average number of tosses until head-tail-tail is eight.
119
376000
5000
и средният брой хвърляния, докато се падне ези-тура-тура е осем.
06:21
How could that be?
120
381000
2000
Как е възможно?
06:24
Anything different about the two patterns?
121
384000
3000
Има ли нещо различно в двата модела?
06:30
There is. Head-tail-head overlaps itself.
122
390000
5000
Има. Ези-тура-ези се застъпва.
06:35
If you went head-tail-head-tail-head, you can cunningly get two occurrences
123
395000
4000
Ако се получи ези-тура-ези-тура-ези, може хитро да се получат две появи
06:39
of the pattern in only five tosses.
124
399000
3000
на модела само при пет хвърляния.
06:42
You can't do that with head-tail-tail.
125
402000
2000
Не става с ези-тура-тура.
06:44
That turns out to be important.
126
404000
2000
Това се оказва важно.
06:46
There are two ways of thinking about this.
127
406000
2000
Има два начина да се мисли за това.
06:48
I'll give you one of them.
128
408000
2000
Ще ви дам един от тях.
06:50
So imagine -- let's suppose we're doing it.
129
410000
2000
Представете си... да предположим, че го правим.
06:52
On this side -- remember, you're excited about head-tail-tail;
130
412000
2000
От тази страна... помнете, вие сте развълнувани от ези-тура-тура,
06:54
you're excited about head-tail-head.
131
414000
2000
вие сте развълнувани от ези-тура-ези.
06:56
We start tossing a coin, and we get a head --
132
416000
3000
Започваме да хвърляме монета и получаваме ези...
06:59
and you start sitting on the edge of your seat
133
419000
1000
и започвате да седите на ръба на стола си,
07:00
because something great and wonderful, or awesome, might be about to happen.
134
420000
5000
защото може да е на път да се случи нещо прекрасно, чудесно или внушително.
07:05
The next toss is a tail -- you get really excited.
135
425000
2000
Следващото хвърляне е тура... наистина се вълнувате.
07:07
The champagne's on ice just next to you; you've got the glasses chilled to celebrate.
136
427000
4000
Шампанското се изстудява върху лед до вас, охладили сте чашите за празнуване.
07:11
You're waiting with bated breath for the final toss.
137
431000
2000
Чакате със затаен дъх последното хвърляне.
07:13
And if it comes down a head, that's great.
138
433000
2000
И се пада ези, страхотно.
07:15
You're done, and you celebrate.
139
435000
2000
Готови сте, и празнувате.
07:17
If it's a tail -- well, rather disappointedly, you put the glasses away
140
437000
2000
Ако е тура... е, доста разочароващо, оставяте чашите
07:19
and put the champagne back.
141
439000
2000
и прибирате шампанското.
07:21
And you keep tossing, to wait for the next head, to get excited.
142
441000
3000
И продължавате да хвърляте, в очакване на следващото ези, за да се развълнувате.
07:25
On this side, there's a different experience.
143
445000
2000
От тази страна, ето различно преживяване.
07:27
It's the same for the first two parts of the sequence.
144
447000
3000
Същото е за първите две части от поредицата.
07:30
You're a little bit excited with the first head --
145
450000
2000
Малко сте развълнувани от първото ези...
07:32
you get rather more excited with the next tail.
146
452000
2000
вълнувате се доста повече от следващата тура.
07:34
Then you toss the coin.
147
454000
2000
После хвърляте монетата.
07:36
If it's a tail, you crack open the champagne.
148
456000
3000
Ако е тура, гръмвате шампанското.
07:39
If it's a head you're disappointed,
149
459000
2000
Ако е ези, сте разочаровани,
07:41
but you're still a third of the way to your pattern again.
150
461000
3000
но все пак сте на една трета от пътя отново да получите вашия модел.
07:44
And that's an informal way of presenting it -- that's why there's a difference.
151
464000
4000
Това е неформален начин да се представи... затова има разлика.
07:48
Another way of thinking about it --
152
468000
2000
Друг начин да се мисли по въпроса -
07:50
if we tossed a coin eight million times,
153
470000
2000
ако хвърлим една монета осем милиона пъти,
07:52
then we'd expect a million head-tail-heads
154
472000
2000
тогава бихме очаквали един милион ези-тура-ези
07:54
and a million head-tail-tails -- but the head-tail-heads could occur in clumps.
155
474000
7000
и един милион ези-тура-тура - но ези-тура-ези би могло да се проявява накуп.
08:01
So if you want to put a million things down amongst eight million positions
156
481000
2000
Затова, ако искате да поставите милион неща сред осем милиона позиции
08:03
and you can have some of them overlapping, the clumps will be further apart.
157
483000
5000
и може някои от тях да се застъпват, куповете ще бъдат по-раздалечени.
08:08
It's another way of getting the intuition.
158
488000
2000
Това е друг начин за схващане на интуицията.
08:10
What's the point I want to make?
159
490000
2000
Какво всъщност твърдя?
08:12
It's a very, very simple example, an easily stated question in probability,
160
492000
4000
Това е много, много прост пример, лесен за излагане въпрос по вероятност,
08:16
which every -- you're in good company -- everybody gets wrong.
161
496000
3000
който всеки... в добра компания сте... всеки разбира погрешно.
08:19
This is my little diversion into my real passion, which is genetics.
162
499000
4000
Това е малкото ми отклонение от реалната ми страст, а именно генетиката.
08:23
There's a connection between head-tail-heads and head-tail-tails in genetics,
163
503000
3000
Има връзка между ези-тура-ези и ези-тура-тура в генетиката,
08:26
and it's the following.
164
506000
3000
и тя е следната.
08:29
When you toss a coin, you get a sequence of heads and tails.
165
509000
3000
При хвърляне на монета се получава поредица от ези и тура.
08:32
When you look at DNA, there's a sequence of not two things -- heads and tails --
166
512000
3000
Като погледнеш ДНК, там има поредица не от две неща - ези и тура -
08:35
but four letters -- As, Gs, Cs and Ts.
167
515000
3000
а от четири букви: А-та, Г-та, Ц-та и Т-та.
08:38
And there are little chemical scissors, called restriction enzymes
168
518000
3000
Има и малки химически ножици, наречени рестрикционни ендонуклеази,
08:41
which cut DNA whenever they see particular patterns.
169
521000
2000
които срязват ДНК, щом видят определени модели.
08:43
And they're an enormously useful tool in modern molecular biology.
170
523000
4000
И са невероятно полезен инструмент в модерната молекулярна биология.
08:48
And instead of asking the question, "How long until I see a head-tail-head?" --
171
528000
3000
Вместо да се задава въпросът: "Колко време ще мине, докато видя ези-тура-ези?",
08:51
you can ask, "How big will the chunks be when I use a restriction enzyme
172
531000
3000
може да попиташ: "Колко големи ще бъдат парчетата, когато използвам рестрикционна ендонуклеаза,
08:54
which cuts whenever it sees G-A-A-G, for example?
173
534000
4000
която реже винаги, щом види Г-А-А-Г, например?
08:58
How long will those chunks be?"
174
538000
2000
Колко дълги ще бъдат тези парчета?"
09:00
That's a rather trivial connection between probability and genetics.
175
540000
5000
Това е доста тривиална връзка между вероятност и генетика.
09:05
There's a much deeper connection, which I don't have time to go into
176
545000
3000
Има много по-дълбока връзка, в която нямам време да навлизам,
09:08
and that is that modern genetics is a really exciting area of science.
177
548000
3000
и тя е, че модерната генетика е наистина вълнуваща област от науката.
09:11
And we'll hear some talks later in the conference specifically about that.
178
551000
4000
Ще чуем някои разговори по-нататък на конференцията специално за това.
09:15
But it turns out that unlocking the secrets in the information generated by modern
179
555000
4000
Но се оказва, че отключването на тайните в информацията, генерирана от модерни
09:19
experimental technologies, a key part of that has to do with fairly sophisticated --
180
559000
5000
експериментални технологии, ключова част от него е свързана с доста сложни...
09:24
you'll be relieved to know that I do something useful in my day job,
181
564000
3000
ще бъдете облекчени, като научите, че върша нещо полезно в работата си,
09:27
rather more sophisticated than the head-tail-head story --
182
567000
2000
доста по-сложни от историята с ези-тура-ези...
09:29
but quite sophisticated computer modelings and mathematical modelings
183
569000
4000
но доста сложни компютърни моделирания, математически моделирания
09:33
and modern statistical techniques.
184
573000
2000
и модерни статистически техники.
09:35
And I will give you two little snippets -- two examples --
185
575000
3000
Ще ви дам два малки откъса... два примера...
09:38
of projects we're involved in in my group in Oxford,
186
578000
3000
от проекти, в които участваме в моята група в Оксфорд,
09:41
both of which I think are rather exciting.
187
581000
2000
според мен и двата са доста вълнуващи.
09:43
You know about the Human Genome Project.
188
583000
2000
Знаете за проекта Човешки геном.
09:45
That was a project which aimed to read one copy of the human genome.
189
585000
4000
Това беше проект, насочен към разчитане на едно копие от човешкия геном.
09:51
The natural thing to do after you've done that --
190
591000
2000
Естественото, след като си го направил...
09:53
and that's what this project, the International HapMap Project,
191
593000
2000
и това е този проект, Международният проект HapMap,
09:55
which is a collaboration between labs in five or six different countries.
192
595000
5000
който е сътрудничество между лаборатории в пет или шест различни страни.
10:00
Think of the Human Genome Project as learning what we've got in common,
193
600000
4000
Мислете за проекта Човешки геном като научаване какво общо имаме,
10:04
and the HapMap Project is trying to understand
194
604000
2000
а проектът HapMap се опитва да разбере
10:06
where there are differences between different people.
195
606000
2000
къде са разликите между различните хора.
10:08
Why do we care about that?
196
608000
2000
Защо ни е грижа за това?
10:10
Well, there are lots of reasons.
197
610000
2000
Ами, има много причини.
10:12
The most pressing one is that we want to understand how some differences
198
612000
4000
Най-непосредствената е, че искаме да разберем как някои различия
10:16
make some people susceptible to one disease -- type-2 diabetes, for example --
199
616000
4000
правят някои хора податливи на една болест - диабет тип 2, например -
10:20
and other differences make people more susceptible to heart disease,
200
620000
5000
а други различия правят хората по-податливи на сърдечни заболявания,
10:25
or stroke, or autism and so on.
201
625000
2000
удар, аутизъм и така нататък.
10:27
That's one big project.
202
627000
2000
Това е един голям проект.
10:29
There's a second big project,
203
629000
2000
Има втори голям проект,
10:31
recently funded by the Wellcome Trust in this country,
204
631000
2000
наскоро финансиран от тръста "Уелкъм" в тази страна,
10:33
involving very large studies --
205
633000
2000
включващ много големи проучвания...
10:35
thousands of individuals, with each of eight different diseases,
206
635000
3000
хиляди индивиди, с всяко от осем различни заболявания,
10:38
common diseases like type-1 and type-2 diabetes, and coronary heart disease,
207
638000
4000
често срещани заболявания като диабет тип 1 и 2, и коронарно сърдечно заболяване,
10:42
bipolar disease and so on -- to try and understand the genetics.
208
642000
4000
биполярно разстройство и така нататък... в опит да се разбере генетиката.
10:46
To try and understand what it is about genetic differences that causes the diseases.
209
646000
3000
В опит да се разбере какво в генетичните различия причинява заболяванията.
10:49
Why do we want to do that?
210
649000
2000
А защо искаме да правим това?
10:51
Because we understand very little about most human diseases.
211
651000
3000
Защото разбираме много малко за повечето човешки болести.
10:54
We don't know what causes them.
212
654000
2000
Не знаем какво ги причинява.
10:56
And if we can get in at the bottom and understand the genetics,
213
656000
2000
А ако можем да схванем основата и да разберем генетиката,
10:58
we'll have a window on the way the disease works,
214
658000
3000
ще имаме прозорец към начина, по който действа заболяването.
11:01
and a whole new way about thinking about disease therapies
215
661000
2000
И цял нов начин на мислене за терапии на заболявания,
11:03
and preventative treatment and so on.
216
663000
3000
превантивно лечение и така нататък.
11:06
So that's, as I said, the little diversion on my main love.
217
666000
3000
Това, както казах, е малкото отклонение от основната ми любов.
11:09
Back to some of the more mundane issues of thinking about uncertainty.
218
669000
5000
Да се върнем към някои по-досадни въпроси за мисленето за несигурността.
11:14
Here's another quiz for you --
219
674000
2000
Ето друга загадка за вас -
11:16
now suppose we've got a test for a disease
220
676000
2000
да предположим, че имаме тест за болест,
11:18
which isn't infallible, but it's pretty good.
221
678000
2000
който не е безотказен, но е доста добър.
11:20
It gets it right 99 percent of the time.
222
680000
3000
Резултатите са точни в 99 процента от случаите.
11:23
And I take one of you, or I take someone off the street,
223
683000
3000
Ще направя тест на вас, или ще взема някого от улицата
11:26
and I test them for the disease in question.
224
686000
2000
и ще го тествам за въпросната болест.
11:28
Let's suppose there's a test for HIV -- the virus that causes AIDS --
225
688000
4000
Да предположим, че има тест за ХИВ... вирусът, който причинява СПИН...
11:32
and the test says the person has the disease.
226
692000
3000
и според вируса лицето има болестта.
11:35
What's the chance that they do?
227
695000
3000
Каква е вероятността да е така?
11:38
The test gets it right 99 percent of the time.
228
698000
2000
Тестът е точен в 99 процента от случаите.
11:40
So a natural answer is 99 percent.
229
700000
4000
Значи, естествен отговор е 99 процента.
11:44
Who likes that answer?
230
704000
2000
На кого му харесва този отговор?
11:46
Come on -- everyone's got to get involved.
231
706000
1000
Хайде... всички трябва да се включат.
11:47
Don't think you don't trust me anymore.
232
707000
2000
Не мисля, че вече не ми вярвате.
11:49
(Laughter)
233
709000
1000
(Смях)
11:50
Well, you're right to be a bit skeptical, because that's not the answer.
234
710000
3000
Е, прави сте да сте малко скептични, защото това не е отговорът.
11:53
That's what you might think.
235
713000
2000
Това може да си помислите.
11:55
It's not the answer, and it's not because it's only part of the story.
236
715000
3000
Не е отговорът, и не защото е само част от историята.
11:58
It actually depends on how common or how rare the disease is.
237
718000
3000
Всъщност зависи от това доколко често срещана или колко рядка е болестта.
12:01
So let me try and illustrate that.
238
721000
2000
Да се опитам да го илюстрирам.
12:03
Here's a little caricature of a million individuals.
239
723000
4000
Ето една малка карикатура на един милион индивида.
12:07
So let's think about a disease that affects --
240
727000
3000
Да мислим за болестта, която засяга...
12:10
it's pretty rare, it affects one person in 10,000.
241
730000
2000
доста рядка е, засяга едно лице на 10 000.
12:12
Amongst these million individuals, most of them are healthy
242
732000
3000
Сред тези милион индивиди, повечето от тях са здрави,
12:15
and some of them will have the disease.
243
735000
2000
а някои от тях ще имат болестта.
12:17
And in fact, if this is the prevalence of the disease,
244
737000
3000
Всъщност, ако болестта е широко разпространена,
12:20
about 100 will have the disease and the rest won't.
245
740000
3000
около 100 ще имат болестта, а останалите не.
12:23
So now suppose we test them all.
246
743000
2000
Да предположим, че направим тестове на всички тях.
12:25
What happens?
247
745000
2000
Какво се случва?
12:27
Well, amongst the 100 who do have the disease,
248
747000
2000
Е, сред стоте, които имат болестта,
12:29
the test will get it right 99 percent of the time, and 99 will test positive.
249
749000
5000
тестът ще даде точни резултати в 99 от случаите, и 99 ще имат позитивен тест.
12:34
Amongst all these other people who don't have the disease,
250
754000
2000
Сред всички тези други хора, които нямат болестта,
12:36
the test will get it right 99 percent of the time.
251
756000
3000
тестът ще е верен в 99 процента от случаите.
12:39
It'll only get it wrong one percent of the time.
252
759000
2000
Ще бъде погрешен само в един процент от случаите.
12:41
But there are so many of them that there'll be an enormous number of false positives.
253
761000
4000
Но те са толкова много, че ще има огромен брой грешни позитивни резултати.
12:45
Put that another way --
254
765000
2000
Да го кажем по друг начин...
12:47
of all of them who test positive -- so here they are, the individuals involved --
255
767000
5000
от всички тях, които имат позитивен тест... ето ги, включените индивиди...
12:52
less than one in 100 actually have the disease.
256
772000
5000
повече от един на 100 наистина има болестта.
12:57
So even though we think the test is accurate, the important part of the story is
257
777000
4000
Така че, макар и да мислим, че тестът е точен, важната част от историята е,
13:01
there's another bit of information we need.
258
781000
3000
че ни трябва друга частица информация.
13:04
Here's the key intuition.
259
784000
2000
Ето я ключовата интуиция.
13:07
What we have to do, once we know the test is positive,
260
787000
3000
Това, което трябва да направим, щом веднъж знаем, че тестът е позитивен,
13:10
is to weigh up the plausibility, or the likelihood, of two competing explanations.
261
790000
6000
е да претеглим правдоподобността, или възможността за две конкурентни обяснения.
13:16
Each of those explanations has a likely bit and an unlikely bit.
262
796000
3000
Всяко от тези обяснения има вероятна част и невероятна част.
13:19
One explanation is that the person doesn't have the disease --
263
799000
3000
Едно обяснение е, че лицето няма болестта...
13:22
that's overwhelmingly likely, if you pick someone at random --
264
802000
3000
това е непреодолимо вероятно, ако се избере случаен човек...
13:25
but the test gets it wrong, which is unlikely.
265
805000
3000
но тестът е погрешен, което е невероятно.
13:29
The other explanation is that the person does have the disease -- that's unlikely --
266
809000
3000
Другото обяснение е, че лицето наистина има болестта... това е невероятно...
13:32
but the test gets it right, which is likely.
267
812000
3000
но тестът е правилен, което е вероятно.
13:35
And the number we end up with --
268
815000
2000
И числото, което се получава в крайна сметка...
13:37
that number which is a little bit less than one in 100 --
269
817000
3000
това число, което е малко по-малко от едно на сто...
13:40
is to do with how likely one of those explanations is relative to the other.
270
820000
6000
е свързано с това колко вероятно е едното от тези обяснения по отношение на другото.
13:46
Each of them taken together is unlikely.
271
826000
2000
Всяко от тях, взети заедно, е невероятно.
13:49
Here's a more topical example of exactly the same thing.
272
829000
3000
Ето един по-уместен пример за точно същото нещо.
13:52
Those of you in Britain will know about what's become rather a celebrated case
273
832000
4000
Онези от вас, които са в Британия, ще знаят за един доста прословут случай
13:56
of a woman called Sally Clark, who had two babies who died suddenly.
274
836000
5000
с жена на име Сали Кларк, която имала две бебета, починали внезапно.
14:01
And initially, it was thought that they died of what's known informally as "cot death,"
275
841000
4000
Първоначално се смятало, че са починали от това, известно неформално като "смърт в креватче",
14:05
and more formally as "Sudden Infant Death Syndrome."
276
845000
3000
а по-официално като Синдром на внезапна детска смъртност.
14:08
For various reasons, she was later charged with murder.
277
848000
2000
По различни причини, след това била обвинена в убийство.
14:10
And at the trial, her trial, a very distinguished pediatrician gave evidence
278
850000
4000
А на процеса, нейния процес, един много изтъкнат педиатър представил догазателства,
14:14
that the chance of two cot deaths, innocent deaths, in a family like hers --
279
854000
5000
че шансът от два смъртни случая в креватчето, невинни смъртни случаи, в семейство като нейното...
14:19
which was professional and non-smoking -- was one in 73 million.
280
859000
6000
професионалисти и непушачи... е едно на 73 милиона.
14:26
To cut a long story short, she was convicted at the time.
281
866000
3000
Накратко, на времето била осъдена.
14:29
Later, and fairly recently, acquitted on appeal -- in fact, on the second appeal.
282
869000
5000
По-късно, и доста наскоро, оправдана при обжалване... всъщност, при второ обжалване.
14:34
And just to set it in context, you can imagine how awful it is for someone
283
874000
4000
И просто за да го поставя в контекста - може да си представите колко е ужасно
14:38
to have lost one child, and then two, if they're innocent,
284
878000
3000
за човек да изгуби едно дете, а после две, ако е невинен,
14:41
to be convicted of murdering them.
285
881000
2000
да бъде осъден за убийството им.
14:43
To be put through the stress of the trial, convicted of murdering them --
286
883000
2000
Да преживее стреса от процеса, обвинен в убийството им...
14:45
and to spend time in a women's prison, where all the other prisoners
287
885000
3000
и да излежава присъда в женски затвор, където всички други затворнички
14:48
think you killed your children -- is a really awful thing to happen to someone.
288
888000
5000
мислят, че си убила децата си... наистина е ужасно да ти се случи такова нещо.
14:53
And it happened in large part here because the expert got the statistics
289
893000
5000
А се е случило до голяма степен, тъй като експертът ужасно
14:58
horribly wrong, in two different ways.
290
898000
3000
е объркал статистиката, по два различни начина.
15:01
So where did he get the one in 73 million number?
291
901000
4000
Откъде е взел числото едно на 73 милиона?
15:05
He looked at some research, which said the chance of one cot death in a family
292
905000
3000
Погледнал някакви изследвания, според които вероятността от една смърт в креватче на семейство
15:08
like Sally Clark's is about one in 8,500.
293
908000
5000
като това на Сали Кларк е около едно на осем хиляди и половина.
15:13
So he said, "I'll assume that if you have one cot death in a family,
294
913000
4000
Затова си казал: "Ще предположа, че ако в едно семейство има една внезапна детска смърт,
15:17
the chance of a second child dying from cot death aren't changed."
295
917000
4000
вероятността второ дете да умре от смърт в креватче не се е променила."
15:21
So that's what statisticians would call an assumption of independence.
296
921000
3000
Това статистиците биха нарекли независимо допускане.
15:24
It's like saying, "If you toss a coin and get a head the first time,
297
924000
2000
Все едно да кажеш: "Ако подхвърлиш монета и се падне ези първия път,
15:26
that won't affect the chance of getting a head the second time."
298
926000
3000
това няма да засегне вероятността да се падне ези втория път."
15:29
So if you toss a coin twice, the chance of getting a head twice are a half --
299
929000
5000
Значи, ако хвърлиш монета два пъти, вероятността да се падне ези два пъти е наполовина...
15:34
that's the chance the first time -- times a half -- the chance a second time.
300
934000
3000
това е вероятността първия път... половин път... от вероятността втория път.
15:37
So he said, "Here,
301
937000
2000
А той казал: "Да допуснем...
15:39
I'll assume that these events are independent.
302
939000
4000
ще допусна, че тези събития са независими.
15:43
When you multiply 8,500 together twice,
303
943000
2000
Като се умножи осем хиляди и половина на квадрат,
15:45
you get about 73 million."
304
945000
2000
се получават около 73 милиона."
15:47
And none of this was stated to the court as an assumption
305
947000
2000
И никаква част от това не била заявена пред съда като допускане
15:49
or presented to the jury that way.
306
949000
2000
или представена пред съдебните заседатели по този начин.
15:52
Unfortunately here -- and, really, regrettably --
307
952000
3000
За съжаление, тук... наистина за съжаление...
15:55
first of all, in a situation like this you'd have to verify it empirically.
308
955000
4000
първо, в такава ситуация ще трябва да се удостовери емпирично.
15:59
And secondly, it's palpably false.
309
959000
2000
И второ, осезаемо е погрешно.
16:02
There are lots and lots of things that we don't know about sudden infant deaths.
310
962000
5000
Има много неща, които не знаем за внезапната детска смъртност.
16:07
It might well be that there are environmental factors that we're not aware of,
311
967000
3000
Спокойно може да се окаже, че има фактори в околната среда, с които не сме наясно,
16:10
and it's pretty likely to be the case that there are
312
970000
2000
и е доста вероятно случаят да е такъв, че да има
16:12
genetic factors we're not aware of.
313
972000
2000
генетични фактори, с които не сме наясно.
16:14
So if a family suffers from one cot death, you'd put them in a high-risk group.
314
974000
3000
Затова, ако едно семейство пострада от една смърт в креватчено, те биха били поставени във високорискова група.
16:17
They've probably got these environmental risk factors
315
977000
2000
Вероятно имат тези рискови фактори в околната среда
16:19
and/or genetic risk factors we don't know about.
316
979000
3000
и/или генетични рискови фактори, които не са ни известни.
16:22
And to argue, then, that the chance of a second death is as if you didn't know
317
982000
3000
И тогава, да се твърди, че вероятността от втори смъртен случай е,
16:25
that information is really silly.
318
985000
3000
все едно не знаеш тази информация, е наистина глупаво.
16:28
It's worse than silly -- it's really bad science.
319
988000
4000
По-лошо е от глупаво... извънредно лоша наука.
16:32
Nonetheless, that's how it was presented, and at trial nobody even argued it.
320
992000
5000
Въпреки всичко така било представено, и на процеса никой дори не го оспорил.
16:37
That's the first problem.
321
997000
2000
Това е първият проблем.
16:39
The second problem is, what does the number of one in 73 million mean?
322
999000
4000
Вторият проблем е - какво означава числото едно на 73 милиона?
16:43
So after Sally Clark was convicted --
323
1003000
2000
След като Сали Кларк беше осъдена...
16:45
you can imagine, it made rather a splash in the press --
324
1005000
4000
можете да си представите какъв бум предизвика това в пресата...
16:49
one of the journalists from one of Britain's more reputable newspapers wrote that
325
1009000
7000
един от журналистите от един от по-почтените вестници в Британия писа,
16:56
what the expert had said was,
326
1016000
2000
че казаното от експертите е било:
16:58
"The chance that she was innocent was one in 73 million."
327
1018000
5000
"Вероятността тя да е невинна е бил едно на 73 милиона."
17:03
Now, that's a logical error.
328
1023000
2000
Това е логическа грешка.
17:05
It's exactly the same logical error as the logical error of thinking that
329
1025000
3000
Точно същата логическа грешка, като логическата грешка да се мисли,
17:08
after the disease test, which is 99 percent accurate,
330
1028000
2000
че след теста за болестта, който е с точност 99 процента,
17:10
the chance of having the disease is 99 percent.
331
1030000
4000
вероятността да имаш болестта е 99 процента.
17:14
In the disease example, we had to bear in mind two things,
332
1034000
4000
В примера с болестта трябва да имам епредвид две неща,
17:18
one of which was the possibility that the test got it right or not.
333
1038000
4000
едното от които е възможността тестът да е правилен, или не.
17:22
And the other one was the chance, a priori, that the person had the disease or not.
334
1042000
4000
А другото е вероятността, априори, лицето да има болестта, или не.
17:26
It's exactly the same in this context.
335
1046000
3000
Точно същото е в този контекст.
17:29
There are two things involved -- two parts to the explanation.
336
1049000
4000
Включени са две неща... обяснението има две неща.
17:33
We want to know how likely, or relatively how likely, two different explanations are.
337
1053000
4000
Искаме да разберем колко вероятни, или относително колко вероятни, са две различни обяснения.
17:37
One of them is that Sally Clark was innocent --
338
1057000
3000
Едното от тях е, че Сали Кларк е била невинна...
17:40
which is, a priori, overwhelmingly likely --
339
1060000
2000
което е, априори, поразително вероятно...
17:42
most mothers don't kill their children.
340
1062000
3000
повечето майки не убиват децата си.
17:45
And the second part of the explanation
341
1065000
2000
А втората част от обяснението
17:47
is that she suffered an incredibly unlikely event.
342
1067000
3000
е, че тя е пострадала от изключително невероятно събитие.
17:50
Not as unlikely as one in 73 million, but nonetheless rather unlikely.
343
1070000
4000
Не чак толкова невероятно като едно на 73 милиона, но въпреки това доста невероятно.
17:54
The other explanation is that she was guilty.
344
1074000
2000
Другото обяснение е, че е била виновна.
17:56
Now, we probably think a priori that's unlikely.
345
1076000
2000
Вероятно мислим априори, че това е невероятно.
17:58
And we certainly should think in the context of a criminal trial
346
1078000
3000
И сигурно трябва да мислим в контекста на един криминален процес,
18:01
that that's unlikely, because of the presumption of innocence.
347
1081000
3000
че това е невероятно, заради презумпцията за невинност.
18:04
And then if she were trying to kill the children, she succeeded.
348
1084000
4000
И тогава, ако се е опитвала да убие децата, е успяла.
18:08
So the chance that she's innocent isn't one in 73 million.
349
1088000
4000
Така че вероятността да е невинна не е едно на 73 милиона.
18:12
We don't know what it is.
350
1092000
2000
Не знаем каква е.
18:14
It has to do with weighing up the strength of the other evidence against her
351
1094000
4000
Свързана е с претегляне силата на другите доказателства срещу нея
18:18
and the statistical evidence.
352
1098000
2000
и статистическите доказателства.
18:20
We know the children died.
353
1100000
2000
Знаем, че децата са починали.
18:22
What matters is how likely or unlikely, relative to each other,
354
1102000
4000
Важното е колко вероятни или невероятни, едно спрямо друго
18:26
the two explanations are.
355
1106000
2000
са двете обяснения.
18:28
And they're both implausible.
356
1108000
2000
И двете са неприемливи.
18:31
There's a situation where errors in statistics had really profound
357
1111000
4000
Ето една ситуация, когато грешки в статистиката са имали много дълбоки
18:35
and really unfortunate consequences.
358
1115000
3000
и наистина злочести последици.
18:38
In fact, there are two other women who were convicted on the basis of the
359
1118000
2000
Всъщност има две други жени, осъдени въз основа
18:40
evidence of this pediatrician, who have subsequently been released on appeal.
360
1120000
4000
на доказателствата на този педиатър, впоследствие освободени при обжалване.
18:44
Many cases were reviewed.
361
1124000
2000
Много случаи били преразгледани.
18:46
And it's particularly topical because he's currently facing a disrepute charge
362
1126000
4000
И е особено актуално, защото той понастоящем е обвинен в дискредитиране
18:50
at Britain's General Medical Council.
363
1130000
3000
пред Британския генерален медицински съвет.
18:53
So just to conclude -- what are the take-home messages from this?
364
1133000
4000
И така, в заключение... какви послания остават от това?
18:57
Well, we know that randomness and uncertainty and chance
365
1137000
4000
Знаем, че произволността, несигурността и вероятността
19:01
are very much a part of our everyday life.
366
1141000
3000
до голяма степен са част от ежедневния ни живот.
19:04
It's also true -- and, although, you, as a collective, are very special in many ways,
367
1144000
5000
Вярно е също... и макар че вие, като цяло, сте много специални в известни отношения,
19:09
you're completely typical in not getting the examples I gave right.
368
1149000
4000
сте напълно типични в това, че не разбирате правилно примерите, които дадох.
19:13
It's very well documented that people get things wrong.
369
1153000
3000
Много добре е документирано, че хората разбират нещата погрешно.
19:16
They make errors of logic in reasoning with uncertainty.
370
1156000
3000
Правят логически грешки при разсъждения с несигурност.
19:20
We can cope with the subtleties of language brilliantly --
371
1160000
2000
Можем да се справяме блестящо с неуловимостите на езика...
19:22
and there are interesting evolutionary questions about how we got here.
372
1162000
3000
и има интересни еволюционни въпроси как сме стигнали дотам.
19:25
We are not good at reasoning with uncertainty.
373
1165000
3000
Не сме добри при разсъждения с несигурност.
19:28
That's an issue in our everyday lives.
374
1168000
2000
Това е проблем в ежедневния ни живот.
19:30
As you've heard from many of the talks, statistics underpins an enormous amount
375
1170000
3000
Както сте чули от много от разговорите, статистиката подкрепя огромна част
19:33
of research in science -- in social science, in medicine
376
1173000
3000
от изследванията в науката - в социологията, в медицината,
19:36
and indeed, quite a lot of industry.
377
1176000
2000
както и всъщност в доста голяма част от индустрията.
19:38
All of quality control, which has had a major impact on industrial processing,
378
1178000
4000
Целият качествен контрол, който е имал огромен ефект върху индустриалното производство,
19:42
is underpinned by statistics.
379
1182000
2000
е подкрепен от статистика.
19:44
It's something we're bad at doing.
380
1184000
2000
Нещо, с което се справяме зле.
19:46
At the very least, we should recognize that, and we tend not to.
381
1186000
3000
Най-малкото трябва да признаем това, а ние сме склонни да не го признаваме.
19:49
To go back to the legal context, at the Sally Clark trial
382
1189000
4000
За да се върнем към законовия контекст, на процеса на Сали Кларк
19:53
all of the lawyers just accepted what the expert said.
383
1193000
4000
всички адвокати просто приели казаното от експерта.
19:57
So if a pediatrician had come out and said to a jury,
384
1197000
2000
Ако един педиатър беше дошъл и бе заявил пред съдебните заседатели:
19:59
"I know how to build bridges. I've built one down the road.
385
1199000
3000
"Знам как се строят мостове. Построил съм един надолу по пътя.
20:02
Please drive your car home over it,"
386
1202000
2000
Моля ви, минете с колата оттам на път за вкъщи",
20:04
they would have said, "Well, pediatricians don't know how to build bridges.
387
1204000
2000
те биха казали: "Ама педиатрите не знаят как да строят мостове.
20:06
That's what engineers do."
388
1206000
2000
Това е работа на инженерите."
20:08
On the other hand, he came out and effectively said, or implied,
389
1208000
3000
От друга страна, той излязъл и казал, или загатнал:
20:11
"I know how to reason with uncertainty. I know how to do statistics."
390
1211000
3000
"Знам как да разсъждавам с несигурност. Знам как се прави статистика."
20:14
And everyone said, "Well, that's fine. He's an expert."
391
1214000
3000
И всички отвърнали: "Ами, добре. Той е експерт."
20:17
So we need to understand where our competence is and isn't.
392
1217000
3000
Затова трябва да разберем къде е компетентността ни и къде я няма.
20:20
Exactly the same kinds of issues arose in the early days of DNA profiling,
393
1220000
4000
Точно същият вид въпроси възникваха в ранните дни на ДНК профилирането,
20:24
when scientists, and lawyers and in some cases judges,
394
1224000
4000
когато учени, адвокати и в някои случаи съдии,
20:28
routinely misrepresented evidence.
395
1228000
3000
рутинно представяха погрешно доказателства.
20:32
Usually -- one hopes -- innocently, but misrepresented evidence.
396
1232000
3000
Обикновено... човек се надява... невинно, но погрешно представени доказателства.
20:35
Forensic scientists said, "The chance that this guy's innocent is one in three million."
397
1235000
5000
Според съдебни учени: "Вероятността този човек да е невинен е едно на три милиона.
20:40
Even if you believe the number, just like the 73 million to one,
398
1240000
2000
Дори ако вярвате в числото, както и в 73 милиона към едно,
20:42
that's not what it meant.
399
1242000
2000
не това означава то.
20:44
And there have been celebrated appeal cases
400
1244000
2000
Заради това е имало прочути случаи
20:46
in Britain and elsewhere because of that.
401
1246000
2000
с обжалване в Британия и другаде.
20:48
And just to finish in the context of the legal system.
402
1248000
3000
И, просто за да завършим в контекста на законовата система
20:51
It's all very well to say, "Let's do our best to present the evidence."
403
1251000
4000
Много е добре да се казва: "Да направим всичко възможно, за да представим доказателствата".
20:55
But more and more, in cases of DNA profiling -- this is another one --
404
1255000
3000
Но все повече и повече, в случаи на ДНК профилиране... още едно...
20:58
we expect juries, who are ordinary people --
405
1258000
3000
очакваме съдебните заседатели, които са обикновени хора...
21:01
and it's documented they're very bad at this --
406
1261000
2000
и е документирано, че се справят много зле с това...
21:03
we expect juries to be able to cope with the sorts of reasoning that goes on.
407
1263000
4000
очакваме съдебните заседатели да успяват да се справят с типа разсъждения, които се случват.
21:07
In other spheres of life, if people argued -- well, except possibly for politics --
408
1267000
5000
В други сфери от живота, ако хората спорят... е, освен вероятно за политиците.
21:12
but in other spheres of life, if people argued illogically,
409
1272000
2000
Но в други сфери от живота, ако хората спорят нелогично,
21:14
we'd say that's not a good thing.
410
1274000
2000
бихме казали, че това не е добре.
21:16
We sort of expect it of politicians and don't hope for much more.
411
1276000
4000
Някак си го очакваме от политиците и не се надяваме на много повече.
21:20
In the case of uncertainty, we get it wrong all the time --
412
1280000
3000
В случай на несигурност, объркваме се постоянно...
21:23
and at the very least, we should be aware of that,
413
1283000
2000
и най-малкото, трябва да сме наясно с това.
21:25
and ideally, we might try and do something about it.
414
1285000
2000
А в идеалния случай, може да опитаме да направим нещо по въпроса.
21:27
Thanks very much.
415
1287000
1000
Много благодаря.
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7