Peter Donnelly: How stats fool juries

Питер Доннелли рассказывает как статистика одурачивает присяжных.

239,984 views

2007-01-12 ・ TED


New videos

Peter Donnelly: How stats fool juries

Питер Доннелли рассказывает как статистика одурачивает присяжных.

239,984 views ・ 2007-01-12

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Maksim Maydanskiy Редактор: Ilya Sklyar
00:25
As other speakers have said, it's a rather daunting experience --
0
25000
2000
Как уже говорили другие докладчики, это довольно трудная задача —
00:27
a particularly daunting experience -- to be speaking in front of this audience.
1
27000
3000
особенно трудная задача — выступать перед этой аудиторией.
00:30
But unlike the other speakers, I'm not going to tell you about
2
30000
3000
Но в отличие от других докладчиков, я не собираюсь рассказывать вам
00:33
the mysteries of the universe, or the wonders of evolution,
3
33000
2000
о тайнах вселенной, или о чудесах эволюции,
00:35
or the really clever, innovative ways people are attacking
4
35000
4000
или о очень изобретательных, новых способах борьбы
00:39
the major inequalities in our world.
5
39000
2000
со значительным неравенством в нашем мире.
00:41
Or even the challenges of nation-states in the modern global economy.
6
41000
5000
И даже не о трудностях национальных государств в современной глобальной экономике.
00:46
My brief, as you've just heard, is to tell you about statistics --
7
46000
4000
Моя задача, как вы только что слышали, рассказать вам о статистике —
00:50
and, to be more precise, to tell you some exciting things about statistics.
8
50000
3000
а точнее, рассказать вам что-то захватывающee о статистике.
00:53
And that's --
9
53000
1000
А это
00:54
(Laughter)
10
54000
1000
(Смех)
00:55
-- that's rather more challenging
11
55000
2000
— а это гораздо более сложная задача
00:57
than all the speakers before me and all the ones coming after me.
12
57000
2000
и чем у всех докладчиков до меня, и чем у всех после.
00:59
(Laughter)
13
59000
1000
(Смех)
01:01
One of my senior colleagues told me, when I was a youngster in this profession,
14
61000
5000
Один из моих старших коллег сказал мне, когда я был еще юнцом в этой профессии,
01:06
rather proudly, that statisticians were people who liked figures
15
66000
4000
с долей гордости, что статистики это люди которым нравятся числа,
01:10
but didn't have the personality skills to become accountants.
16
70000
3000
но у которых не достаточно общительности, чтобы стать бухгалтерами.
01:13
(Laughter)
17
73000
2000
(Смех)
01:15
And there's another in-joke among statisticians, and that's,
18
75000
3000
Еще одна профессиональная шутка среди статистиков:
01:18
"How do you tell the introverted statistician from the extroverted statistician?"
19
78000
3000
«Как отличить статистика‐интроверта от статистика-экстраверта?»
01:21
To which the answer is,
20
81000
2000
Ответ:
01:23
"The extroverted statistician's the one who looks at the other person's shoes."
21
83000
5000
«Статистик-экстраверт это тот кто смотрит на ботинки собеседника.»
01:28
(Laughter)
22
88000
3000
(Смех)
01:31
But I want to tell you something useful -- and here it is, so concentrate now.
23
91000
5000
Но я хочу рассказать вам кое‐что полезное — и сейчас начну, так что сконцентрируйтесь.
01:36
This evening, there's a reception in the University's Museum of Natural History.
24
96000
3000
Сегодня вечером будет прием в Музее естественной истории при университете.
01:39
And it's a wonderful setting, as I hope you'll find,
25
99000
2000
Это замечательное место, я надеюсь вы в этом убедитесь,
01:41
and a great icon to the best of the Victorian tradition.
26
101000
5000
и замечательный символ лучшего в Викторианской традиции.
01:46
It's very unlikely -- in this special setting, and this collection of people --
27
106000
5000
Маловероятно — в этих особых обстоятельствах, и в этой группе людей —
01:51
but you might just find yourself talking to someone you'd rather wish that you weren't.
28
111000
3000
но может оказаться что вы разговариваете с кем‐то, с кем вам бы не хотелось разговаривать.
01:54
So here's what you do.
29
114000
2000
Вот что вам следует сделать.
01:56
When they say to you, "What do you do?" -- you say, "I'm a statistician."
30
116000
4000
Когда собеседник спросит вас: «Кто вы по профессии?» — скажите «Я статистик.»
02:00
(Laughter)
31
120000
1000
(Смех)
02:01
Well, except they've been pre-warned now, and they'll know you're making it up.
32
121000
4000
Правда теперь он был предупрежден, так что он будет знать что вы врете.
02:05
And then one of two things will happen.
33
125000
2000
И тогда произойдет одно из двух.
02:07
They'll either discover their long-lost cousin in the other corner of the room
34
127000
2000
Либо он обнаружит давно потерянную двоюродную сестру в углу комнаты
02:09
and run over and talk to them.
35
129000
2000
и убежит поговорить с ней.
02:11
Or they'll suddenly become parched and/or hungry -- and often both --
36
131000
3000
Либо он неожиданно почувствует жажду или голод — а часто и то и другое —
02:14
and sprint off for a drink and some food.
37
134000
2000
и помчится за едой и напитками.
02:16
And you'll be left in peace to talk to the person you really want to talk to.
38
136000
4000
И оставит вас в покое чтобы вы смогли поговорить с кем хотели.
02:20
It's one of the challenges in our profession to try and explain what we do.
39
140000
3000
Одна из сложностей нашей профессии в том, чтобы объяснить чем мы занимаемся.
02:23
We're not top on people's lists for dinner party guests and conversations and so on.
40
143000
5000
Мы не возглавляем списки приглашаемых на званые обеды, собеседников и так далее.
02:28
And it's something I've never really found a good way of doing.
41
148000
2000
Я так и не придумал как это делать.
02:30
But my wife -- who was then my girlfriend --
42
150000
3000
Но моя жена — тогда она еще была моей девушкой —
02:33
managed it much better than I've ever been able to.
43
153000
3000
преуспела в этом намного лучше чем я когда‐либо мог.
02:36
Many years ago, when we first started going out, she was working for the BBC in Britain,
44
156000
3000
Много лет назад, когда мы только начали встречаться, она работала на Би‐би‐си в Великобритании,
02:39
and I was, at that stage, working in America.
45
159000
2000
я в тот момент работал в Америке.
02:41
I was coming back to visit her.
46
161000
2000
Я собирался навестить ее.
02:43
She told this to one of her colleagues, who said, "Well, what does your boyfriend do?"
47
163000
6000
Она рассказала об этом коллеге, и та спросила, «А чем занимается твой парень?»
02:49
Sarah thought quite hard about the things I'd explained --
48
169000
2000
Сара поразмышляла над тем что я ей объяснял —
02:51
and she concentrated, in those days, on listening.
49
171000
4000
тогда она в основном слушала.
02:55
(Laughter)
50
175000
2000
(Смех)
02:58
Don't tell her I said that.
51
178000
2000
Не говорите ей что я это сказал.
03:00
And she was thinking about the work I did developing mathematical models
52
180000
4000
Она подумала о моих занятиях по разработке математических моделей
03:04
for understanding evolution and modern genetics.
53
184000
3000
для изучения эволюции и современной генетики.
03:07
So when her colleague said, "What does he do?"
54
187000
3000
И когда ее коллега спросила «Чем он занимается?»
03:10
She paused and said, "He models things."
55
190000
4000
она, после паузы, сказала «Он работает с моделями.»
03:14
(Laughter)
56
194000
1000
(Смех)
03:15
Well, her colleague suddenly got much more interested than I had any right to expect
57
195000
4000
Тогда ее коллега заинтересовалось сильнее чем я мог бы ожидать,
03:19
and went on and said, "What does he model?"
58
199000
3000
и спросила, «С какими моделями?»
03:22
Well, Sarah thought a little bit more about my work and said, "Genes."
59
202000
3000
Сара подимала еще немножко о моей работе и сказала, «Генетическими.»
03:25
(Laughter)
60
205000
4000
(Смех)
03:29
"He models genes."
61
209000
2000
«Он занимается генетическими моделями.»
03:31
That is my first love, and that's what I'll tell you a little bit about.
62
211000
4000
Это моя первая любовь, и я вам немножко об этом расскажу.
03:35
What I want to do more generally is to get you thinking about
63
215000
4000
В целом, я хочу заставить вас задуматься
03:39
the place of uncertainty and randomness and chance in our world,
64
219000
3000
о месте неопределенности, случайности и шанса в нашем мире,
03:42
and how we react to that, and how well we do or don't think about it.
65
222000
5000
как этому относиться, и о том насколько правильно или неправильно мы об этом думаем.
03:47
So you've had a pretty easy time up till now --
66
227000
2000
Так что до сих пор все было довольно просто —
03:49
a few laughs, and all that kind of thing -- in the talks to date.
67
229000
2000
несколько шуток, в таком духе — в предыдущих докладах.
03:51
You've got to think, and I'm going to ask you some questions.
68
231000
3000
Вам прийдется думать, и я буду задавать вам вопросы.
03:54
So here's the scene for the first question I'm going to ask you.
69
234000
2000
Вот ситуация про которую будет первый вопрос.
03:56
Can you imagine tossing a coin successively?
70
236000
3000
Представьте себе многократное подбрасывание монетки.
03:59
And for some reason -- which shall remain rather vague --
71
239000
3000
И по какой‐то причине — которая останется невыясненой —
04:02
we're interested in a particular pattern.
72
242000
2000
нас интересует определенная последовательность.
04:04
Here's one -- a head, followed by a tail, followed by a tail.
73
244000
3000
Например такая - решка, затем орел, затем снова орел.
04:07
So suppose we toss a coin repeatedly.
74
247000
3000
Итак представьте что мы подбрасываем монетку многократно.
04:10
Then the pattern, head-tail-tail, that we've suddenly become fixated with happens here.
75
250000
5000
Тогда последовательность решка‐орел‐орел, на которой мы внезапно сконцентрировались, встречается здесь.
04:15
And you can count: one, two, three, four, five, six, seven, eight, nine, 10 --
76
255000
4000
И вы можете посчитать: раз, два, три, четыре, пять, шесть, семь, восемь, девять, десять —
04:19
it happens after the 10th toss.
77
259000
2000
она появляется после десятого броска.
04:21
So you might think there are more interesting things to do, but humor me for the moment.
78
261000
3000
Вам может показаться, что есть занятия и поинтересней, но уважьте меня на время.
04:24
Imagine this half of the audience each get out coins, and they toss them
79
264000
4000
Представьте, что эта половина аудитории достала монетки и начала их бросать
04:28
until they first see the pattern head-tail-tail.
80
268000
3000
до тех пор как они впервые не увидят последовательность решка‐орел‐орел.
04:31
The first time they do it, maybe it happens after the 10th toss, as here.
81
271000
2000
Когда они сделают это в первый раз, может быть это случится после десятого броска, как здесь.
04:33
The second time, maybe it's after the fourth toss.
82
273000
2000
Во второй раз, может быть после четвертого броска.
04:35
The next time, after the 15th toss.
83
275000
2000
В следующий раз, после пятнадцатого.
04:37
So you do that lots and lots of times, and you average those numbers.
84
277000
3000
Они сделают это много раз, и посчитают среднее этих чисел.
04:40
That's what I want this side to think about.
85
280000
3000
Эта половина пусть думает об этом.
04:43
The other half of the audience doesn't like head-tail-tail --
86
283000
2000
Другой половине аудитории не нравится решка‐орел‐орел —
04:45
they think, for deep cultural reasons, that's boring --
87
285000
3000
они считают, по глубоким культурным причинам, что это скучно —
04:48
and they're much more interested in a different pattern -- head-tail-head.
88
288000
3000
и их гораздо больше интересует другая последовательность — решка‐орел‐решка.
04:51
So, on this side, you get out your coins, and you toss and toss and toss.
89
291000
3000
Так что, на этой стороне, вы достаете свои монетки, и начинаете подбрасывать.
04:54
And you count the number of times until the pattern head-tail-head appears
90
294000
3000
И считаете количество бросков до появления последовательности решка‐орел‐решка
04:57
and you average them. OK?
91
297000
3000
и усредняете. ОК?
05:00
So on this side, you've got a number --
92
300000
2000
Итак, эта сторона получила число —
05:02
you've done it lots of times, so you get it accurately --
93
302000
2000
и вы сделали это много раз, так что подсчет довольно точный —
05:04
which is the average number of tosses until head-tail-tail.
94
304000
3000
среднее число подбрасываний до решка‐орел‐орел.
05:07
On this side, you've got a number -- the average number of tosses until head-tail-head.
95
307000
4000
На этой стороне, вы получили число среднее число подбрасываний до решка‐орел‐решка.
05:11
So here's a deep mathematical fact --
96
311000
2000
Есть глубокий математический факт —
05:13
if you've got two numbers, one of three things must be true.
97
313000
3000
если у вас есть два числа, то верно одно из трех.
05:16
Either they're the same, or this one's bigger than this one,
98
316000
3000
Либо они одинаковы, либо это больше, чем это,
05:19
or this one's bigger than that one.
99
319000
1000
либо это больше, чем то.
05:20
So what's going on here?
100
320000
3000
А что получится здесь?
05:23
So you've all got to think about this, and you've all got to vote --
101
323000
2000
Подумайте об этом, и проголосуйте —
05:25
and we're not moving on.
102
325000
1000
мы дальше не пойдем.
05:26
And I don't want to end up in the two-minute silence
103
326000
2000
Я не хочу получить две минуты молчания
05:28
to give you more time to think about it, until everyone's expressed a view. OK.
104
328000
4000
чтобы вы могли подумать об этом, пока каждый не выразил свое мнение. ОК.
05:32
So what you want to do is compare the average number of tosses until we first see
105
332000
4000
Вам нужно сравнить среднее количество бросков до первого появления
05:36
head-tail-head with the average number of tosses until we first see head-tail-tail.
106
336000
4000
решка‐орел‐решка со средним количеством бросков до первого появления решка‐орел‐орел.
05:41
Who thinks that A is true --
107
341000
2000
Кто считает что верен ответ А —
05:43
that, on average, it'll take longer to see head-tail-head than head-tail-tail?
108
343000
4000
что, в среднем, до решка‐орел‐решка ждать дольше чем до решка‐орел‐орел?
05:47
Who thinks that B is true -- that on average, they're the same?
109
347000
3000
Кто считает что правильный ответ B — что, в среднем, они одинаковы?
05:51
Who thinks that C is true -- that, on average, it'll take less time
110
351000
2000
Кто считает что ответ C — что, в среднем, меньше ждать
05:53
to see head-tail-head than head-tail-tail?
111
353000
3000
до решка‐орел‐решка чем до решка‐орел‐орел?
05:57
OK, who hasn't voted yet? Because that's really naughty -- I said you had to.
112
357000
3000
ОК, кто еще не проголосовал? Какие непослушные — я сказал что все должны.
06:00
(Laughter)
113
360000
1000
(Смех)
06:02
OK. So most people think B is true.
114
362000
3000
ОК. Большинство считает, что верен вариант B.
06:05
And you might be relieved to know even rather distinguished mathematicians think that.
115
365000
3000
И вас может быть утешит что даже достаточно выдающиеся математики так считают.
06:08
It's not. A is true here.
116
368000
4000
Но это не верно. Правильный ответ A.
06:12
It takes longer, on average.
117
372000
2000
Это занимает дольше, в среднем.
06:14
In fact, the average number of tosses till head-tail-head is 10
118
374000
2000
На самом деле, среднее количество бросков до решка‐орел‐орел 10,
06:16
and the average number of tosses until head-tail-tail is eight.
119
376000
5000
а среднее количество бросков до решка‐орел‐решка 8.
06:21
How could that be?
120
381000
2000
Как так может быть?
06:24
Anything different about the two patterns?
121
384000
3000
Есть какая-то разница между двумя последовательностями?
06:30
There is. Head-tail-head overlaps itself.
122
390000
5000
Есть. Решка‐орел‐решка пересекается сама с собой.
06:35
If you went head-tail-head-tail-head, you can cunningly get two occurrences
123
395000
4000
Если у вас появится решка‐орел‐решка‐орел‐решка, вы хитрым образом получили два появления
06:39
of the pattern in only five tosses.
124
399000
3000
последовательности за пять бросков.
06:42
You can't do that with head-tail-tail.
125
402000
2000
С решка‐орел‐орел так не сделаешь.
06:44
That turns out to be important.
126
404000
2000
Оказывается, что это важно.
06:46
There are two ways of thinking about this.
127
406000
2000
Есть два способа это понять.
06:48
I'll give you one of them.
128
408000
2000
Я расскажу вам один из них.
06:50
So imagine -- let's suppose we're doing it.
129
410000
2000
Итак представим что мы занимаемся этим.
06:52
On this side -- remember, you're excited about head-tail-tail;
130
412000
2000
На этой стороне — помните, нас интересует решка‐орел‐орел,
06:54
you're excited about head-tail-head.
131
414000
2000
вас интересует решка‐орел‐решка.
06:56
We start tossing a coin, and we get a head --
132
416000
3000
Мы начинаем бросать монетку, и получаем решку —
06:59
and you start sitting on the edge of your seat
133
419000
1000
и вот вы уже сидите на краю сиденья
07:00
because something great and wonderful, or awesome, might be about to happen.
134
420000
5000
потому что что-то замечательное и великолепное, потрясающее, может вот-вот случиться.
07:05
The next toss is a tail -- you get really excited.
135
425000
2000
При следующем броске выпадает орел — и вы очень взволнованы.
07:07
The champagne's on ice just next to you; you've got the glasses chilled to celebrate.
136
427000
4000
Шампанское поставлено на лед, стаканы охлаждены, все готово к празднованию.
07:11
You're waiting with bated breath for the final toss.
137
431000
2000
Вы затаив дыхание ждете последнего броска .
07:13
And if it comes down a head, that's great.
138
433000
2000
И если выпадет решка, отлично.
07:15
You're done, and you celebrate.
139
435000
2000
Процесс окончен, пора праздновать.
07:17
If it's a tail -- well, rather disappointedly, you put the glasses away
140
437000
2000
Если орел — вы разочаровано убираете бокалы
07:19
and put the champagne back.
141
439000
2000
и возвращаете на место шампанское.
07:21
And you keep tossing, to wait for the next head, to get excited.
142
441000
3000
И продолжаете бросать, ожидая следующей решки чтобы снова обрадоваться.
07:25
On this side, there's a different experience.
143
445000
2000
У этой стороны дело происходит по-другому.
07:27
It's the same for the first two parts of the sequence.
144
447000
3000
Все то же самое в первые два подбрасывания.
07:30
You're a little bit excited with the first head --
145
450000
2000
Вы немножко взволнованы после первой решки —
07:32
you get rather more excited with the next tail.
146
452000
2000
и значительно более взволнованы после последующего орла.
07:34
Then you toss the coin.
147
454000
2000
Затем вы подбрасываете монетку.
07:36
If it's a tail, you crack open the champagne.
148
456000
3000
Если орел, вы открываете шампанское.
07:39
If it's a head you're disappointed,
149
459000
2000
Если решка, вы немного разочарованы,
07:41
but you're still a third of the way to your pattern again.
150
461000
3000
но вас уже опять есть треть вашей последовательности.
07:44
And that's an informal way of presenting it -- that's why there's a difference.
151
464000
4000
Неформально говоря, именно в этом разница.
07:48
Another way of thinking about it --
152
468000
2000
По-другому об этом можно подумать так —
07:50
if we tossed a coin eight million times,
153
470000
2000
если мы подбросим монетку восемь миллионов раз,
07:52
then we'd expect a million head-tail-heads
154
472000
2000
можно ожидать миллион последовательностей решка‐орел‐решка
07:54
and a million head-tail-tails -- but the head-tail-heads could occur in clumps.
155
474000
7000
и миллион последовательностей решка‐орел‐орел — но решка‐орел‐решки могут выпадать кучками.
08:01
So if you want to put a million things down amongst eight million positions
156
481000
2000
Если вы разбросаете миллион объектов среди восьми миллионов позиций
08:03
and you can have some of them overlapping, the clumps will be further apart.
157
483000
5000
и некоторые из них могут пересекаться, то кучки будут дальше друг от друга.
08:08
It's another way of getting the intuition.
158
488000
2000
Вот так еще можно интуитивно это представить.
08:10
What's the point I want to make?
159
490000
2000
Что я хочу этим показать?
08:12
It's a very, very simple example, an easily stated question in probability,
160
492000
4000
Это очень очень простой пример, вопрос по теории вероятностей, который легко сформулировать,
08:16
which every -- you're in good company -- everybody gets wrong.
161
496000
3000
и отвечая на который все — вы в хорошей компании — все ошибаются.
08:19
This is my little diversion into my real passion, which is genetics.
162
499000
4000
Это мое небольшое отступление в предмет моей страсти, в генетику.
08:23
There's a connection between head-tail-heads and head-tail-tails in genetics,
163
503000
3000
Есть связь между решка‐орел‐решка и решка‐орел‐орел и генетикой,
08:26
and it's the following.
164
506000
3000
и она в следующем.
08:29
When you toss a coin, you get a sequence of heads and tails.
165
509000
3000
Когда вы бросаете монетку, вы получаете последовательность орлов и решек.
08:32
When you look at DNA, there's a sequence of not two things -- heads and tails --
166
512000
3000
Когда вы смотрите на ДНК, видите последовательности не двух вещей — орлов и решек —
08:35
but four letters -- As, Gs, Cs and Ts.
167
515000
3000
а четырех букв — A, G, C и Т.
08:38
And there are little chemical scissors, called restriction enzymes
168
518000
3000
И есть такие химические ножницы, они называются эндонуклеазы рестрикции,
08:41
which cut DNA whenever they see particular patterns.
169
521000
2000
которые разрезают ДНК когда видят определенные последовательности.
08:43
And they're an enormously useful tool in modern molecular biology.
170
523000
4000
Это невероятно полезный инструмент в современной молекулярной биологии.
08:48
And instead of asking the question, "How long until I see a head-tail-head?" --
171
528000
3000
И вместо того чтобы спросить "Сколько пройдет пока я увижу решка-орел-решка?"
08:51
you can ask, "How big will the chunks be when I use a restriction enzyme
172
531000
3000
можно спросить "Насколько большие кусочки получатся когда я использую эндонуклеазу рестрикции
08:54
which cuts whenever it sees G-A-A-G, for example?
173
534000
4000
которая разрезает когда видит последовательность G-A-A-G, например?
08:58
How long will those chunks be?"
174
538000
2000
Какой длинны будут эти кусочки?"
09:00
That's a rather trivial connection between probability and genetics.
175
540000
5000
Это довольно тривиальная связь между теорией вероятности и генетикой.
09:05
There's a much deeper connection, which I don't have time to go into
176
545000
3000
Есть более глубокая связь, говорить о которой у меня нет времени,
09:08
and that is that modern genetics is a really exciting area of science.
177
548000
3000
и которая состоит в том что современная генетика это захватывающая научная область,
09:11
And we'll hear some talks later in the conference specifically about that.
178
551000
4000
и мы услышим несколько докладов как раз об этом позже на этой конференции,
09:15
But it turns out that unlocking the secrets in the information generated by modern
179
555000
4000
но оказывается, что чтобы раскрыть секреты информации получаемой современными
09:19
experimental technologies, a key part of that has to do with fairly sophisticated --
180
559000
5000
экспериментальными технологиями, ключевой частью этого процесса являются достаточно сложные —
09:24
you'll be relieved to know that I do something useful in my day job,
181
564000
3000
будьте покойны, я на работе занимаюсь таки чем-то полезным —
09:27
rather more sophisticated than the head-tail-head story --
182
567000
2000
значительно более сложные чем история про решка-орел-решку —
09:29
but quite sophisticated computer modelings and mathematical modelings
183
569000
4000
сложные компьютерные модели и математические модели
09:33
and modern statistical techniques.
184
573000
2000
и современные статистические приемы.
09:35
And I will give you two little snippets -- two examples --
185
575000
3000
Я расскажу два маленьких отрывка — два примера —
09:38
of projects we're involved in in my group in Oxford,
186
578000
3000
проектов в которые вовлечена моя группа в Оксфорде,
09:41
both of which I think are rather exciting.
187
581000
2000
которые оба, по-моему, довольно интересны.
09:43
You know about the Human Genome Project.
188
583000
2000
Вы слышали о проекте «Геном человека».
09:45
That was a project which aimed to read one copy of the human genome.
189
585000
4000
Это проект целью которого было прочесть одну копию генома человека.
09:51
The natural thing to do after you've done that --
190
591000
2000
После того как вы это сделали, естественно перейти к —
09:53
and that's what this project, the International HapMap Project,
191
593000
2000
и в этом идея этого проекта, проекта «HapMap»,
09:55
which is a collaboration between labs in five or six different countries.
192
595000
5000
совместной работы лабораторий в пяти или шести различных странах.
10:00
Think of the Human Genome Project as learning what we've got in common,
193
600000
4000
Считайте что суть проекта «Геном человека» узнать, что нас объединяет,
10:04
and the HapMap Project is trying to understand
194
604000
2000
а проект «HapMap» попытка понять
10:06
where there are differences between different people.
195
606000
2000
в чем различия между разными людьми.
10:08
Why do we care about that?
196
608000
2000
Почему нас это интересует?
10:10
Well, there are lots of reasons.
197
610000
2000
Ну, на это много причин.
10:12
The most pressing one is that we want to understand how some differences
198
612000
4000
Самая насущная из которых в том чтобы понять как некоторые различия
10:16
make some people susceptible to one disease -- type-2 diabetes, for example --
199
616000
4000
делают одних людей более подверженными одному заболеванию — диабету 2-го типа, например —
10:20
and other differences make people more susceptible to heart disease,
200
620000
5000
а другие различия увеличивают риск сердечных заболеваний,
10:25
or stroke, or autism and so on.
201
625000
2000
или инсульта, или аутизма и так далее.
10:27
That's one big project.
202
627000
2000
Это один большой проект.
10:29
There's a second big project,
203
629000
2000
Есть еще один большой проект,
10:31
recently funded by the Wellcome Trust in this country,
204
631000
2000
недавно профинансированный в Великобритании трастом Вэлкома,
10:33
involving very large studies --
205
633000
2000
связанный с очень большими исследованиями —
10:35
thousands of individuals, with each of eight different diseases,
206
635000
3000
тысячи человек, с каждым из восьми различных заболеваний,
10:38
common diseases like type-1 and type-2 diabetes, and coronary heart disease,
207
638000
4000
распространенных заболеваний вроде диабета 1-го и 2-го типа, коронарной болезни сердца,
10:42
bipolar disease and so on -- to try and understand the genetics.
208
642000
4000
биполярного расстройства и так далее — чтобы попытаться понять генетику.
10:46
To try and understand what it is about genetic differences that causes the diseases.
209
646000
3000
Попытаться понять что в генетических различиях становится причиной этих болезней.
10:49
Why do we want to do that?
210
649000
2000
Почему мы хотим это сделать?
10:51
Because we understand very little about most human diseases.
211
651000
3000
Потому что мы очень мало понимаем о большинстве заболеваний человека.
10:54
We don't know what causes them.
212
654000
2000
Мы не знаем их причин.
10:56
And if we can get in at the bottom and understand the genetics,
213
656000
2000
И если мы можем начать с оснований и понять генетику,
10:58
we'll have a window on the way the disease works,
214
658000
3000
у нас будет окно в механизм заболевания.
11:01
and a whole new way about thinking about disease therapies
215
661000
2000
И совершенно новый взгляд на лечение,
11:03
and preventative treatment and so on.
216
663000
3000
превентивные процедуры и тому подобное.
11:06
So that's, as I said, the little diversion on my main love.
217
666000
3000
Это было, как я и говорил, небольшое отступление о моем основном увлечении.
11:09
Back to some of the more mundane issues of thinking about uncertainty.
218
669000
5000
Вернемся к более прозаическим вопросам рассуждения о вероятностях.
11:14
Here's another quiz for you --
219
674000
2000
Вот вам еще один проверочный вопрос —
11:16
now suppose we've got a test for a disease
220
676000
2000
допустим у вас есть тест на заболевание,
11:18
which isn't infallible, but it's pretty good.
221
678000
2000
не идеальный, но довольно неплохой.
11:20
It gets it right 99 percent of the time.
222
680000
3000
Он дает верный результат в 99и процентах случаев.
11:23
And I take one of you, or I take someone off the street,
223
683000
3000
И я выбираю одного из вас, или кого-то с улицы,
11:26
and I test them for the disease in question.
224
686000
2000
и тестирую его на это заболевание.
11:28
Let's suppose there's a test for HIV -- the virus that causes AIDS --
225
688000
4000
Допустим есть тест на ВИЧ — вирус вызывающий СПИД —
11:32
and the test says the person has the disease.
226
692000
3000
и этот тест говорит что у этот человек болен.
11:35
What's the chance that they do?
227
695000
3000
Какова вероятность что он на самом деле болен?
11:38
The test gets it right 99 percent of the time.
228
698000
2000
Тест дает верный результат в 99и процентах случаев.
11:40
So a natural answer is 99 percent.
229
700000
4000
Так что естественно ответить 99 процентов.
11:44
Who likes that answer?
230
704000
2000
Кому нравится этот ответ?
11:46
Come on -- everyone's got to get involved.
231
706000
1000
Давайте-давайте — все должны поучаствовать
11:47
Don't think you don't trust me anymore.
232
707000
2000
Не думайте что вы мне больше не доверяете.
11:49
(Laughter)
233
709000
1000
(Смех)
11:50
Well, you're right to be a bit skeptical, because that's not the answer.
234
710000
3000
Что ж, вы не зря скептически настроены, этот ответ не верен.
11:53
That's what you might think.
235
713000
2000
Так можно подумать.
11:55
It's not the answer, and it's not because it's only part of the story.
236
715000
3000
Этот ответ не верен, и не верен он потому что это только часть истории.
11:58
It actually depends on how common or how rare the disease is.
237
718000
3000
На самом деле ответ зависит от отго насколько распространено или редко это заболевание.
12:01
So let me try and illustrate that.
238
721000
2000
Давйте я попробую это проиллюстрировать.
12:03
Here's a little caricature of a million individuals.
239
723000
4000
Вот небольшое карикатурное изображение миллиона людей.
12:07
So let's think about a disease that affects --
240
727000
3000
Давайте подумаем о заболевании которое затрагивает —
12:10
it's pretty rare, it affects one person in 10,000.
241
730000
2000
довольно редком, оно затрагивает одного человека из 10000.
12:12
Amongst these million individuals, most of them are healthy
242
732000
3000
Среди этих миллиона человек, большинство из них здоровы,
12:15
and some of them will have the disease.
243
735000
2000
но некоторые больны.
12:17
And in fact, if this is the prevalence of the disease,
244
737000
3000
И, при такой распространенности заболевания,
12:20
about 100 will have the disease and the rest won't.
245
740000
3000
примерно 100 будут больны, а остальные нет.
12:23
So now suppose we test them all.
246
743000
2000
Допустим мы всех их протестировали.
12:25
What happens?
247
745000
2000
Что случится?
12:27
Well, amongst the 100 who do have the disease,
248
747000
2000
Среди 100 больных
12:29
the test will get it right 99 percent of the time, and 99 will test positive.
249
749000
5000
тест даст верный результат в 99и процентах случаев, и 99 получат положительный результат.
12:34
Amongst all these other people who don't have the disease,
250
754000
2000
Среди остальных, тех кто не болен,
12:36
the test will get it right 99 percent of the time.
251
756000
3000
тест даст верный результат в 99и процентах случаев.
12:39
It'll only get it wrong one percent of the time.
252
759000
2000
Он ошибется только в одном проценте случаев.
12:41
But there are so many of them that there'll be an enormous number of false positives.
253
761000
4000
Но их так много, что будет огромное количество ложноположительныx результатов.
12:45
Put that another way --
254
765000
2000
Иначе говоря —
12:47
of all of them who test positive -- so here they are, the individuals involved --
255
767000
5000
среди всех у тех у кого тест дал положительный результат — вот они, эти люди —
12:52
less than one in 100 actually have the disease.
256
772000
5000
меньше чем один из ста на самом деле болен.
12:57
So even though we think the test is accurate, the important part of the story is
257
777000
4000
Так что даже если мы считаем что тест надежен, важность этой истории в том,
13:01
there's another bit of information we need.
258
781000
3000
что нам нужна дополнительная информация.
13:04
Here's the key intuition.
259
784000
2000
Вот ключевая интуиция.
13:07
What we have to do, once we know the test is positive,
260
787000
3000
Узнав, что результат теста положительный, мы должны
13:10
is to weigh up the plausibility, or the likelihood, of two competing explanations.
261
790000
6000
взвесить правдоподобие, или вероятность, двух соревнующихся объяснений.
13:16
Each of those explanations has a likely bit and an unlikely bit.
262
796000
3000
В каждом из этих объяснений есть вероятная часть и есть маловероятная часть.
13:19
One explanation is that the person doesn't have the disease --
263
799000
3000
Одно объяснение в том что человек не болен —
13:22
that's overwhelmingly likely, if you pick someone at random --
264
802000
3000
это подавляюще вероятно, если выбрать кого-то случайным образом —
13:25
but the test gets it wrong, which is unlikely.
265
805000
3000
но тест ошибся, что маловероятно.
13:29
The other explanation is that the person does have the disease -- that's unlikely --
266
809000
3000
Другое объяснение в том что человек болен — это маловероятно —
13:32
but the test gets it right, which is likely.
267
812000
3000
и тест прав, что вероятно.
13:35
And the number we end up with --
268
815000
2000
И число которое мы получаем —
13:37
that number which is a little bit less than one in 100 --
269
817000
3000
чуть меньше чем 1 на 100 —
13:40
is to do with how likely one of those explanations is relative to the other.
270
820000
6000
связано с тем какое из этих объяснений более вероятно по сравнению с другим.
13:46
Each of them taken together is unlikely.
271
826000
2000
Они оба маловероятны.
13:49
Here's a more topical example of exactly the same thing.
272
829000
3000
Вот более животрепещущий пример ровно того же самого.
13:52
Those of you in Britain will know about what's become rather a celebrated case
273
832000
4000
Те из вас кто живет в Британии знают о прославившемся деле
13:56
of a woman called Sally Clark, who had two babies who died suddenly.
274
836000
5000
женщины по имени Салли Кларк, у которой было двое детей, которые неожиданно умерли.
14:01
And initially, it was thought that they died of what's known informally as "cot death,"
275
841000
4000
И сначала думали что они умерли от того что неформально называется «смерть в колыбели,»
14:05
and more formally as "Sudden Infant Death Syndrome."
276
845000
3000
а более формально Синдром внезапной детской смерти.
14:08
For various reasons, she was later charged with murder.
277
848000
2000
По разным причинам, позже ее обвинили в убийстве.
14:10
And at the trial, her trial, a very distinguished pediatrician gave evidence
278
850000
4000
И во время суда, суда над ней, очень выдающийся педиатр свидетельствовал,
14:14
that the chance of two cot deaths, innocent deaths, in a family like hers --
279
854000
5000
что вероятность двух смертей в колыбели, в семье как у нее —
14:19
which was professional and non-smoking -- was one in 73 million.
280
859000
6000
образованных и некурящих — была один на 73 миллиона.
14:26
To cut a long story short, she was convicted at the time.
281
866000
3000
Короче говоря, в тогда ее признали виновной.
14:29
Later, and fairly recently, acquitted on appeal -- in fact, on the second appeal.
282
869000
5000
Позже, и довольно недавно, освободили после апелляции — после второй апелляции.
14:34
And just to set it in context, you can imagine how awful it is for someone
283
874000
4000
Просто чтобы добавить контекста, представьте себе насколько ужасно
14:38
to have lost one child, and then two, if they're innocent,
284
878000
3000
потерять ребенка, затем двоих, и, невиновным,
14:41
to be convicted of murdering them.
285
881000
2000
быть осужденным за их убийство.
14:43
To be put through the stress of the trial, convicted of murdering them --
286
883000
2000
Пройти через стресс суда, быть осужденным за их убийство —
14:45
and to spend time in a women's prison, where all the other prisoners
287
885000
3000
и провести время в женской тюрьме, где все остальные заключенные
14:48
think you killed your children -- is a really awful thing to happen to someone.
288
888000
5000
думают что ты убила своих детей — ужасное злоключение для кого бы то ни было.
14:53
And it happened in large part here because the expert got the statistics
289
893000
5000
И все это случилось в большой мере потому, что эксперт совершил
14:58
horribly wrong, in two different ways.
290
898000
3000
ужасающие ошибки в статистике, причем двумя способами.
15:01
So where did he get the one in 73 million number?
291
901000
4000
Откуда он взял цифру в 1 на 73 миллиона?
15:05
He looked at some research, which said the chance of one cot death in a family
292
905000
3000
Он посмотрел на исследования, которые утверждали что вероятность смерти в колыбели в семье
15:08
like Sally Clark's is about one in 8,500.
293
908000
5000
как у Салли Кларк равна примерно одному на восемь с половиной тысяч.
15:13
So he said, "I'll assume that if you have one cot death in a family,
294
913000
4000
И сказал "Я предположу, что если в вашей семье случилась одна смерть в колыбели,
15:17
the chance of a second child dying from cot death aren't changed."
295
917000
4000
это не меняет шансы на то что второй ребенок умрет по той же причине."
15:21
So that's what statisticians would call an assumption of independence.
296
921000
3000
Это то, что статистики называют «предположением о независимости».
15:24
It's like saying, "If you toss a coin and get a head the first time,
297
924000
2000
Это как утверждение «Если подбросив монетку ты получишь решку,
15:26
that won't affect the chance of getting a head the second time."
298
926000
3000
это не повлияет на вероятность получить решку во второй раз».
15:29
So if you toss a coin twice, the chance of getting a head twice are a half --
299
929000
5000
Так что подбросив монетку два раза, вероятности получить решку дважды равна половине —
15:34
that's the chance the first time -- times a half -- the chance a second time.
300
934000
3000
это вероятность в первый раз — помноженной на половину — вероятность во второй раз.
15:37
So he said, "Here,
301
937000
2000
Так что он сказал «Давайте предположим, —
15:39
I'll assume that these events are independent.
302
939000
4000
я предположу, что эти события независимы.
15:43
When you multiply 8,500 together twice,
303
943000
2000
Если возвести восемь с половиной тысяч в квадрат,
15:45
you get about 73 million."
304
945000
2000
получится примерно 73 миллиона."
15:47
And none of this was stated to the court as an assumption
305
947000
2000
Все это не было высказано суду как предположение
15:49
or presented to the jury that way.
306
949000
2000
или представлено присяжным в таком виде.
15:52
Unfortunately here -- and, really, regrettably --
307
952000
3000
К сожалению тут — и вправду, к несчастью—
15:55
first of all, in a situation like this you'd have to verify it empirically.
308
955000
4000
во-первых, в такой ситуации надо проверять это опытным путем.
15:59
And secondly, it's palpably false.
309
959000
2000
А во-вторых, это явно не верно.
16:02
There are lots and lots of things that we don't know about sudden infant deaths.
310
962000
5000
Мы очень и очень многого не знаем о внезапных детских смертях.
16:07
It might well be that there are environmental factors that we're not aware of,
311
967000
3000
Вполне может быть что есть внешние факторы, о которых мы не подозреваем,
16:10
and it's pretty likely to be the case that there are
312
970000
2000
и скорее всего есть
16:12
genetic factors we're not aware of.
313
972000
2000
генетические факторы о которых мы не подозреваем.
16:14
So if a family suffers from one cot death, you'd put them in a high-risk group.
314
974000
3000
Так что если в семье случается такая смерть, их надо отнести к группе повышенного риска.
16:17
They've probably got these environmental risk factors
315
977000
2000
У них наверное есть эти внешние факторы риска
16:19
and/or genetic risk factors we don't know about.
316
979000
3000
и/или генетические факторы риска о которых мы ничего не знаем.
16:22
And to argue, then, that the chance of a second death is as if you didn't know
317
982000
3000
И значит рассудить что вероятность второй смерти такая же как если бы у нас не было
16:25
that information is really silly.
318
985000
3000
этой информации — просто глупость.
16:28
It's worse than silly -- it's really bad science.
319
988000
4000
Это хоже чем глупость — это плохая наука.
16:32
Nonetheless, that's how it was presented, and at trial nobody even argued it.
320
992000
5000
Тем не менее, вот так это было представлено, и во время суда никто с этим даже не спорил.
16:37
That's the first problem.
321
997000
2000
Это первая проблема.
16:39
The second problem is, what does the number of one in 73 million mean?
322
999000
4000
Вторая проблема в том, что значит это число — один на 73 миллиона?
16:43
So after Sally Clark was convicted --
323
1003000
2000
После того как Салли Кларк была осуждена —
16:45
you can imagine, it made rather a splash in the press --
324
1005000
4000
можете себе представить, это вызвало значительный всплеск в печати —
16:49
one of the journalists from one of Britain's more reputable newspapers wrote that
325
1009000
7000
журналист одной из более уважаемых Британских газет написал что
16:56
what the expert had said was,
326
1016000
2000
эксперт сказал,
16:58
"The chance that she was innocent was one in 73 million."
327
1018000
5000
«Вероятность того, что она не виновна была один на 73 миллиона.»
17:03
Now, that's a logical error.
328
1023000
2000
Это ошибка в логике.
17:05
It's exactly the same logical error as the logical error of thinking that
329
1025000
3000
Точно такая же ошибка, как ошибка считать
17:08
after the disease test, which is 99 percent accurate,
330
1028000
2000
после теста на болезнь, верного в 99и процентах случаев,
17:10
the chance of having the disease is 99 percent.
331
1030000
4000
что вероятность болезни 99 процентов.
17:14
In the disease example, we had to bear in mind two things,
332
1034000
4000
В примере с болезнью, нам нужно было иметь в виду две вещи,
17:18
one of which was the possibility that the test got it right or not.
333
1038000
4000
одной из которых была вероятность того дал ли тест верный результат или нет.
17:22
And the other one was the chance, a priori, that the person had the disease or not.
334
1042000
4000
А другая была вероятность, априори, болен был человек или нет.
17:26
It's exactly the same in this context.
335
1046000
3000
Точно то же самое происходит и здесь.
17:29
There are two things involved -- two parts to the explanation.
336
1049000
4000
Тут участвуют две вещи — объяснение состоит из двух частей.
17:33
We want to know how likely, or relatively how likely, two different explanations are.
337
1053000
4000
Мы хотим знать насколько вероятны, или насколько относительно вероятны, два разных объяснения.
17:37
One of them is that Sally Clark was innocent --
338
1057000
3000
Одно из них в том что Салли была не виновна —
17:40
which is, a priori, overwhelmingly likely --
339
1060000
2000
что, априори, чрезвычайно вероятно —
17:42
most mothers don't kill their children.
340
1062000
3000
большинство матерей не убивают своих детей.
17:45
And the second part of the explanation
341
1065000
2000
И вторая часть этого объяснения,
17:47
is that she suffered an incredibly unlikely event.
342
1067000
3000
в том что с ней случилось чрезвычайно редкое происшествие.
17:50
Not as unlikely as one in 73 million, but nonetheless rather unlikely.
343
1070000
4000
Не настолько редкое как 1 на 73 миллиона, но достаточно редкое.
17:54
The other explanation is that she was guilty.
344
1074000
2000
Другое объяснение в том что она виновна.
17:56
Now, we probably think a priori that's unlikely.
345
1076000
2000
Мы наверняка считаем что это априори маловероятно.
17:58
And we certainly should think in the context of a criminal trial
346
1078000
3000
И нам конечно должно так считать в контексте уголовного суда,
18:01
that that's unlikely, because of the presumption of innocence.
347
1081000
3000
что это маловероятно, в виду презумпции невиновности.
18:04
And then if she were trying to kill the children, she succeeded.
348
1084000
4000
А что если она пыталась убить детей, ей это удалось.
18:08
So the chance that she's innocent isn't one in 73 million.
349
1088000
4000
Так что вероятность того что она не виновна не один на 73 миллиона.
18:12
We don't know what it is.
350
1092000
2000
Мы не знаем чему она равна.
18:14
It has to do with weighing up the strength of the other evidence against her
351
1094000
4000
Она зависит от веса остальных улик против нее по отношению к
18:18
and the statistical evidence.
352
1098000
2000
весу статистических рассуждений.
18:20
We know the children died.
353
1100000
2000
Мы знаем что дети погибли.
18:22
What matters is how likely or unlikely, relative to each other,
354
1102000
4000
Важно то, насколько вероятны или маловероятны по отношению друг к другу
18:26
the two explanations are.
355
1106000
2000
эти два объяснения.
18:28
And they're both implausible.
356
1108000
2000
И они оба маловероятны.
18:31
There's a situation where errors in statistics had really profound
357
1111000
4000
Это ситуация где ошибки в статистике имели очень глубокие
18:35
and really unfortunate consequences.
358
1115000
3000
и очень печальные последствия.
18:38
In fact, there are two other women who were convicted on the basis of the
359
1118000
2000
Оказалось, что еще двое женщин были осуждены на основе
18:40
evidence of this pediatrician, who have subsequently been released on appeal.
360
1120000
4000
показаний этого педиатра, и были позже освобождены по апелляциям.
18:44
Many cases were reviewed.
361
1124000
2000
Много дел пришлось пересмотреть.
18:46
And it's particularly topical because he's currently facing a disrepute charge
362
1126000
4000
И это особенно актуально, поскольку он сейчас предстал перед обвинением в недостойном поведении
18:50
at Britain's General Medical Council.
363
1130000
3000
в Британском Общемедицинском Совете.
18:53
So just to conclude -- what are the take-home messages from this?
364
1133000
4000
Итак, чтобы подвести итог —в чем урок этого всего?
18:57
Well, we know that randomness and uncertainty and chance
365
1137000
4000
Мы знаем что вероятность, и неопределенность, и случайность
19:01
are very much a part of our everyday life.
366
1141000
3000
часть нашей повседневной жизни.
19:04
It's also true -- and, although, you, as a collective, are very special in many ways,
367
1144000
5000
И так же верно — и, несмотря на то что вы, как группа, очень особенны по многим параметрам,
19:09
you're completely typical in not getting the examples I gave right.
368
1149000
4000
вы совершенно типичны в том что вы ошиблись в примерах которые я приводил.
19:13
It's very well documented that people get things wrong.
369
1153000
3000
Хорошо проверено что люди ошибаются.
19:16
They make errors of logic in reasoning with uncertainty.
370
1156000
3000
Они совершают логические ошибки рассуждая о вероятностях.
19:20
We can cope with the subtleties of language brilliantly --
371
1160000
2000
Мы легко справляемся с нюансами языка —
19:22
and there are interesting evolutionary questions about how we got here.
372
1162000
3000
это интересный вопрос о эволюции, как так получилось.
19:25
We are not good at reasoning with uncertainty.
373
1165000
3000
Но мы плохо умеем рассуждать о вероятностях.
19:28
That's an issue in our everyday lives.
374
1168000
2000
Это проблема в повседневной жизни.
19:30
As you've heard from many of the talks, statistics underpins an enormous amount
375
1170000
3000
Как вы слышали из многих докладов, статистика лежит в основе огромного количества
19:33
of research in science -- in social science, in medicine
376
1173000
3000
научных исследований — в естественных науках, медицине
19:36
and indeed, quite a lot of industry.
377
1176000
2000
и многого на производстве.
19:38
All of quality control, which has had a major impact on industrial processing,
378
1178000
4000
Весь контроль качества, который очень сильно влияет на промышленные процессы,
19:42
is underpinned by statistics.
379
1182000
2000
основан на статистике.
19:44
It's something we're bad at doing.
380
1184000
2000
На том что мы плохо умеем делать.
19:46
At the very least, we should recognize that, and we tend not to.
381
1186000
3000
По крайней мере, нам следует понимать это, а мы обычно не понимаем.
19:49
To go back to the legal context, at the Sally Clark trial
382
1189000
4000
Возвращаясь к судебному контексту, во время процесса Салли Кларк,
19:53
all of the lawyers just accepted what the expert said.
383
1193000
4000
все адвокаты просто согласились с тем что сказал эксперт.
19:57
So if a pediatrician had come out and said to a jury,
384
1197000
2000
Если бы педиатр сказал присяжным:
19:59
"I know how to build bridges. I've built one down the road.
385
1199000
3000
«Я умею строить мосты. Я построил там один, по дороге.
20:02
Please drive your car home over it,"
386
1202000
2000
Поезжайте домой через него,»
20:04
they would have said, "Well, pediatricians don't know how to build bridges.
387
1204000
2000
они бы сказали «Педиатры не умеют строить мосты.
20:06
That's what engineers do."
388
1206000
2000
Этим занимаются инженеры.»
20:08
On the other hand, he came out and effectively said, or implied,
389
1208000
3000
С другой стороны, он как будто бы сказал, или подразумевал,
20:11
"I know how to reason with uncertainty. I know how to do statistics."
390
1211000
3000
«Я умею рассуждать о вероятностях. Я умею заниматься статистикой.»
20:14
And everyone said, "Well, that's fine. He's an expert."
391
1214000
3000
И все сказали, «Хорошо. Он эксперт.»
20:17
So we need to understand where our competence is and isn't.
392
1217000
3000
Так что стоит понимать в чем мы компетентны а в чем нет.
20:20
Exactly the same kinds of issues arose in the early days of DNA profiling,
393
1220000
4000
Точно такие же проблемы возникли на заре ДНК-дактилоскопии,
20:24
when scientists, and lawyers and in some cases judges,
394
1224000
4000
когда ученые, и адвокаты, и в некоторых случаях судьи,
20:28
routinely misrepresented evidence.
395
1228000
3000
регулярно неправильно интерпретировали улики.
20:32
Usually -- one hopes -- innocently, but misrepresented evidence.
396
1232000
3000
Обычно — хочется надеяться — без злого умысла, но неправильно интерпретировали улики.
20:35
Forensic scientists said, "The chance that this guy's innocent is one in three million."
397
1235000
5000
Судебные эксперты говорили «Вероятность того что этот парень невиновен один на три миллиона.»
20:40
Even if you believe the number, just like the 73 million to one,
398
1240000
2000
Даже если верить этому числу, как и числу в один на 73 миллиона,
20:42
that's not what it meant.
399
1242000
2000
оно обозначает совсем не то.
20:44
And there have been celebrated appeal cases
400
1244000
2000
И были известные случаи апелляций
20:46
in Britain and elsewhere because of that.
401
1246000
2000
в Британии и в других странах, по этой причине.
20:48
And just to finish in the context of the legal system.
402
1248000
3000
И чтобы закончить в контексте судебной системы.
20:51
It's all very well to say, "Let's do our best to present the evidence."
403
1251000
4000
Очень просто сказать «Давайте постараемся лучше представлять улики».
20:55
But more and more, in cases of DNA profiling -- this is another one --
404
1255000
3000
Но все чаще и чаще, в случаях ДНК-дактилоскопирования — это еще один —
20:58
we expect juries, who are ordinary people --
405
1258000
3000
мы ожидаем что присяжные, обычные люди —
21:01
and it's documented they're very bad at this --
406
1261000
2000
и у нас много подтверждений что они плохо это делают —
21:03
we expect juries to be able to cope with the sorts of reasoning that goes on.
407
1263000
4000
мы ожидаем что присяжные смогут справится с этими рассуждениями.
21:07
In other spheres of life, if people argued -- well, except possibly for politics --
408
1267000
5000
Во всех остальных сферах, если бы люди рассуждали — ну, может быть кроме политики.
21:12
but in other spheres of life, if people argued illogically,
409
1272000
2000
Но во всех остальных сферах, если бы люди рассуждали нелогично,
21:14
we'd say that's not a good thing.
410
1274000
2000
мы бы считали, что это плохо.
21:16
We sort of expect it of politicians and don't hope for much more.
411
1276000
4000
От политиков мы как-то уже этого ожидаем и не надеемся на большее.
21:20
In the case of uncertainty, we get it wrong all the time --
412
1280000
3000
В случае неопределенности, мы все время ошибаемся —
21:23
and at the very least, we should be aware of that,
413
1283000
2000
и, по крайней мере, нам стоит об этом знать.
21:25
and ideally, we might try and do something about it.
414
1285000
2000
И, в идеале, мы можем попробовать что-то с этим сделать.
21:27
Thanks very much.
415
1287000
1000
Большое спасибо.
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7