Peter Donnelly: How stats fool juries

243,959 views ・ 2007-01-12

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Margarida Ferreira Revisora: Mafalda Ferreira
Como outros oradores já disseram,
é uma experiência assustadora falar em frente desta audiência.
Mas, ao contrário dos outros oradores,
não vou falar dos mistérios do universo nem das maravilhas da evolução,
nem das formas inteligentes e inovadoras
00:25
As other speakers have said, it's a rather daunting experience --
0
25000
2000
com que as pessoas estão a atacar as desigualdades no nosso mundo.
00:27
a particularly daunting experience -- to be speaking in front of this audience.
1
27000
3000
Nem mesmo dos problemas das nações-estados na moderna economia mundial.
00:30
But unlike the other speakers, I'm not going to tell you about
2
30000
3000
00:33
the mysteries of the universe, or the wonders of evolution,
3
33000
2000
Como já ouviram dizer, vou falar de estatísticas
00:35
or the really clever, innovative ways people are attacking
4
35000
4000
e, para ser mais preciso, vou falar de coisas apaixonantes na estatística.
00:39
the major inequalities in our world.
5
39000
2000
(Risos)
00:41
Or even the challenges of nation-states in the modern global economy.
6
41000
5000
Para mim, é muito mais desafiador,
do que todos os oradores antes de mim e dos que vierem depois.
00:46
My brief, as you've just heard, is to tell you about statistics --
7
46000
4000
(Risos)
Um dos meus colegas mais velhos disse-me, quando eu era novato nesta profissão,
00:50
and, to be more precise, to tell you some exciting things about statistics.
8
50000
3000
00:53
And that's --
9
53000
1000
orgulhosamente, que os estatísticos eram pessoas que gostavam de números,
00:54
(Laughter)
10
54000
1000
00:55
-- that's rather more challenging
11
55000
2000
00:57
than all the speakers before me and all the ones coming after me.
12
57000
2000
mas não tinham a personalidade necessária para serem contabilistas.
00:59
(Laughter)
13
59000
1000
(Risos)
01:01
One of my senior colleagues told me, when I was a youngster in this profession,
14
61000
5000
Há uma outra piada, entre os estatísticos, que é:
"Qual a diferença entre um estatístico introvertido e um extrovertido?"
01:06
rather proudly, that statisticians were people who liked figures
15
66000
4000
01:10
but didn't have the personality skills to become accountants.
16
70000
3000
E a resposta é:
"O estatístico extrovertido é aquele que olha para os sapatos dos outros".
01:13
(Laughter)
17
73000
2000
01:15
And there's another in-joke among statisticians, and that's,
18
75000
3000
(Risos)
01:18
"How do you tell the introverted statistician from the extroverted statistician?"
19
78000
3000
Mas eu quero falar-vos de uma coisa útil — cá vai, por isso concentrem-se.
01:21
To which the answer is,
20
81000
2000
01:23
"The extroverted statistician's the one who looks at the other person's shoes."
21
83000
5000
Esta noite, há uma receção no Museu de História Natural da Universidade.
É um ambiente magnífico, espero que apreciem,
01:28
(Laughter)
22
88000
3000
é um muito representativo do melhor da tradição vitoriana.
01:31
But I want to tell you something useful -- and here it is, so concentrate now.
23
91000
5000
É pouco provável — neste ambiente especial e com este grupo de pessoas —
01:36
This evening, there's a reception in the University's Museum of Natural History.
24
96000
3000
mas talvez se encontrem a falar com alguém com quem preferiam não falar.
01:39
And it's a wonderful setting, as I hope you'll find,
25
99000
2000
01:41
and a great icon to the best of the Victorian tradition.
26
101000
5000
Nesse caso, façam o seguinte: Quando vos perguntarem:
"O que é que faz?", digam: "Sou estatístico".
01:46
It's very unlikely -- in this special setting, and this collection of people --
27
106000
5000
(Risos)
O pior é que agora já estão avisados e sabem que vocês estão a fingir.
01:51
but you might just find yourself talking to someone you'd rather wish that you weren't.
28
111000
3000
Então, acontece uma destas duas coisas.
01:54
So here's what you do.
29
114000
2000
Ou descobrem um primo distante no outro canto da sala
01:56
When they say to you, "What do you do?" -- you say, "I'm a statistician."
30
116000
4000
e vão a correr falar com ele,
ou ficam com sede ou fome, ou as duas coisas,
02:00
(Laughter)
31
120000
1000
02:01
Well, except they've been pre-warned now, and they'll know you're making it up.
32
121000
4000
e vão à procura duma bebida e de qualquer coisa para comer.
E vocês ficam à vontade para falarem com a pessoa que pretendem.
02:05
And then one of two things will happen.
33
125000
2000
02:07
They'll either discover their long-lost cousin in the other corner of the room
34
127000
2000
É um dos problemas na nossa profissão tentar explicar o que fazemos.
02:09
and run over and talk to them.
35
129000
2000
Não somos os melhores convivas para jantares nem para conversas.
02:11
Or they'll suddenly become parched and/or hungry -- and often both --
36
131000
3000
02:14
and sprint off for a drink and some food.
37
134000
2000
E é uma coisa para que nunca tive muito jeito
02:16
And you'll be left in peace to talk to the person you really want to talk to.
38
136000
4000
Mas a minha mulher — que, na altura, era minha namorada —
02:20
It's one of the challenges in our profession to try and explain what we do.
39
140000
3000
conseguia-o muito melhor do que eu.
02:23
We're not top on people's lists for dinner party guests and conversations and so on.
40
143000
5000
Há muitos anos, quando começámos a sair, ela trabalhava para a BBC, na Grã-Bretanha
e eu, naquela altura, trabalhava nos EUA.
02:28
And it's something I've never really found a good way of doing.
41
148000
2000
Eu tinha vindo visitá-la.
02:30
But my wife -- who was then my girlfriend --
42
150000
3000
Ela disse isso a uma colega, que perguntou:
02:33
managed it much better than I've ever been able to.
43
153000
3000
"O que é que o teu namorado faz?"
02:36
Many years ago, when we first started going out, she was working for the BBC in Britain,
44
156000
3000
Sarah pôs-se a refletir nas coisas que eu lhe contava
— naquele tempo, fazia um esforço para me escutar.
02:39
and I was, at that stage, working in America.
45
159000
2000
02:41
I was coming back to visit her.
46
161000
2000
(Risos)
02:43
She told this to one of her colleagues, who said, "Well, what does your boyfriend do?"
47
163000
6000
Não lhe digam que eu contei isto.
Pensava no trabalho que eu fazia a desenvolver modelos matemáticos
02:49
Sarah thought quite hard about the things I'd explained --
48
169000
2000
02:51
and she concentrated, in those days, on listening.
49
171000
4000
para compreender a evolução e a genética moderna.
Por isso, quando a colega perguntou: "O que é que ele faz?"
02:55
(Laughter)
50
175000
2000
ela respondeu: "Modela coisas".
02:58
Don't tell her I said that.
51
178000
2000
03:00
And she was thinking about the work I did developing mathematical models
52
180000
4000
(Risos)
A colega ficou muito mais interessada do que eu tinha o direito a esperar
03:04
for understanding evolution and modern genetics.
53
184000
3000
e continuou a perguntar: "O que é que ele modela?"
03:07
So when her colleague said, "What does he do?"
54
187000
3000
Sarah pensou um pouco mais no meu trabalho e disse: "Genes".
03:10
She paused and said, "He models things."
55
190000
4000
(Risos)
03:14
(Laughter)
56
194000
1000
03:15
Well, her colleague suddenly got much more interested than I had any right to expect
57
195000
4000
"Modela genes".
É esse o meu primeiro amor, e não vos digo mais nada sobre isso.
03:19
and went on and said, "What does he model?"
58
199000
3000
03:22
Well, Sarah thought a little bit more about my work and said, "Genes."
59
202000
3000
O que eu queria, de modo geral, é pôr-vos a pensar
03:25
(Laughter)
60
205000
4000
no papel da incerteza, do aleatório e do acaso, no nosso mundo,
03:29
"He models genes."
61
209000
2000
e como reagimos a isso, como pensamos nisso, bem ou mal.
03:31
That is my first love, and that's what I'll tell you a little bit about.
62
211000
4000
Vocês já passaram um bom bocado, até agora
03:35
What I want to do more generally is to get you thinking about
63
215000
4000
— umas gargalhadas, e isso tudo — nas palestras até aqui.
Vão ter que pensar e eu vou fazer umas perguntas.
03:39
the place of uncertainty and randomness and chance in our world,
64
219000
3000
Este é o cenário para a primeira pergunta que vou fazer.
03:42
and how we react to that, and how well we do or don't think about it.
65
222000
5000
Imaginem uma moeda a ser lançada ao ar, sucessivamente.
Por alguma razão — que se vai manter bastante vaga —
03:47
So you've had a pretty easy time up till now --
66
227000
2000
03:49
a few laughs, and all that kind of thing -- in the talks to date.
67
229000
2000
estamos interessados num padrão especial.
03:51
You've got to think, and I'm going to ask you some questions.
68
231000
3000
É este — uma cara, seguida por uma coroa, seguida por uma coroa
03:54
So here's the scene for the first question I'm going to ask you.
69
234000
2000
Suponham que atiram uma moeda ao ar, repetidas vezes.
03:56
Can you imagine tossing a coin successively?
70
236000
3000
Então, o padrão caras-coroa-coroa, que escolhemos, ocorre aqui.
03:59
And for some reason -- which shall remain rather vague --
71
239000
3000
04:02
we're interested in a particular pattern.
72
242000
2000
Podemos contar: um, dois, três, quatro, cinco, seis, sete, oito, nove, dez
04:04
Here's one -- a head, followed by a tail, followed by a tail.
73
244000
3000
— acontece após o 10.º lançamento.
04:07
So suppose we toss a coin repeatedly.
74
247000
3000
Podem pensar que há coisas mais interessantes para fazer,
04:10
Then the pattern, head-tail-tail, that we've suddenly become fixated with happens here.
75
250000
5000
mas tenham paciência.
Imaginem que esta metade da audiência tem moedas e as lançam ao ar,
04:15
And you can count: one, two, three, four, five, six, seven, eight, nine, 10 --
76
255000
4000
até que veem o padrão cara-coroa-coroa.
Pode acontecer que a primeira vez ocorra depois do 10.º lançamento.
04:19
it happens after the 10th toss.
77
259000
2000
04:21
So you might think there are more interesting things to do, but humor me for the moment.
78
261000
3000
A segunda vez talvez após o quarto.
A vez seguinte, após o 15.º.
04:24
Imagine this half of the audience each get out coins, and they toss them
79
264000
4000
Fazemos muitos lançamentos e tiramos a média a esses números.
É nisso que eu quero que este lado pense.
04:28
until they first see the pattern head-tail-tail.
80
268000
3000
A outra metade da audiência não gosta de cara-coroa-coroa.
04:31
The first time they do it, maybe it happens after the 10th toss, as here.
81
271000
2000
04:33
The second time, maybe it's after the fourth toss.
82
273000
2000
Por profundas razões culturais, pensam que é aborrecida.
04:35
The next time, after the 15th toss.
83
275000
2000
Estão mais interessados noutro padrão — cara-coroa-cara.
04:37
So you do that lots and lots of times, and you average those numbers.
84
277000
3000
Deste lado, recebem as moedas e começam os lançamentos.
04:40
That's what I want this side to think about.
85
280000
3000
Contam o número de vezes, até aparecer o padrão cara-coroa-cara
04:43
The other half of the audience doesn't like head-tail-tail --
86
283000
2000
e fazem a média. Ok?
04:45
they think, for deep cultural reasons, that's boring --
87
285000
3000
Então, deste lado, têm um número
04:48
and they're much more interested in a different pattern -- head-tail-head.
88
288000
3000
— fizeram isso montes de vezes, têm um número exato —
04:51
So, on this side, you get out your coins, and you toss and toss and toss.
89
291000
3000
que é o número médio de lançamentos até cara-coroa-coroa.
04:54
And you count the number of times until the pattern head-tail-head appears
90
294000
3000
Deste lado, têm o número médio de lançamentos até cara-coroa-cara.
04:57
and you average them. OK?
91
297000
3000
Há uma regra matemática fundamental
05:00
So on this side, you've got a number --
92
300000
2000
— se já têm os dois números, uma de três coisas é verdade.
05:02
you've done it lots of times, so you get it accurately --
93
302000
2000
Ou são iguais, ou este é maior do que este,
05:04
which is the average number of tosses until head-tail-tail.
94
304000
3000
ou este é maior do que este.
05:07
On this side, you've got a number -- the average number of tosses until head-tail-head.
95
307000
4000
O que se passa aqui?
Agora vão ter que pensar nisto e vão ter que votar
05:11
So here's a deep mathematical fact --
96
311000
2000
e daqui não saímos.
05:13
if you've got two numbers, one of three things must be true.
97
313000
3000
Não quero dar-vos tempo demais para refletir nisso,
05:16
Either they're the same, or this one's bigger than this one,
98
316000
3000
enquanto não tiverem votado todos.
05:19
or this one's bigger than that one.
99
319000
1000
Comparem o número médio de lançamentos até termos visto cara-coroa-coroa,
05:20
So what's going on here?
100
320000
3000
05:23
So you've all got to think about this, and you've all got to vote --
101
323000
2000
com o número médio de lançamentos até termos visto cara-coroa-cara.
05:25
and we're not moving on.
102
325000
1000
05:26
And I don't want to end up in the two-minute silence
103
326000
2000
05:28
to give you more time to think about it, until everyone's expressed a view. OK.
104
328000
4000
Quem acha que A é verdadeiro,
que, em média, é mais demorado ver caras-coroa-caras do que cara-coroa-coroa?
05:32
So what you want to do is compare the average number of tosses until we first see
105
332000
4000
Quem pensa que B é verdadeiro, que, em média, são iguais?
05:36
head-tail-head with the average number of tosses until we first see head-tail-tail.
106
336000
4000
Quem pensa que C é verdadeiro,
que, em média, é menos demorado ver cara-coroa-cara do que cara-coroa-coroa?
05:41
Who thinks that A is true --
107
341000
2000
05:43
that, on average, it'll take longer to see head-tail-head than head-tail-tail?
108
343000
4000
Quem é que não votou?
Isso é muito chato, eu disse que tinham que votar.
05:47
Who thinks that B is true -- that on average, they're the same?
109
347000
3000
(Risos)
A maior parte das pessoas acha que B é que é verdade.
05:51
Who thinks that C is true -- that, on average, it'll take less time
110
351000
2000
Podem ficar tranquilos porque eminentes matemáticos pensam o mesmo.
05:53
to see head-tail-head than head-tail-tail?
111
353000
3000
Mas não é. É A que é verdade,
05:57
OK, who hasn't voted yet? Because that's really naughty -- I said you had to.
112
357000
3000
06:00
(Laughter)
113
360000
1000
Demora mais tempo, em média.
O número médio de lançamentos até cara-coroa-cara é 10
06:02
OK. So most people think B is true.
114
362000
3000
e o número médio de lançamentos até cara-coroa-coroa é 8.
06:05
And you might be relieved to know even rather distinguished mathematicians think that.
115
365000
3000
06:08
It's not. A is true here.
116
368000
4000
Como é que isso pode ser?
Há alguma diferença entre os dois padrões?
06:12
It takes longer, on average.
117
372000
2000
06:14
In fact, the average number of tosses till head-tail-head is 10
118
374000
2000
06:16
and the average number of tosses until head-tail-tail is eight.
119
376000
5000
Há sim. Em cara-coroa-cara a última é igual à primeira.
06:21
How could that be?
120
381000
2000
Se fizessem cara-coroa-cara-coroa-cara, podiam obter facilmente duas ocorrências
06:24
Anything different about the two patterns?
121
384000
3000
do padrão apenas em cinco lançamentos.
Não podem fazer isso com cara-coroa-coroa.
06:30
There is. Head-tail-head overlaps itself.
122
390000
5000
Acontece que isto é importante.
Há duas formas de pensar nisto.
06:35
If you went head-tail-head-tail-head, you can cunningly get two occurrences
123
395000
4000
Vou dar-vos uma delas.
Suponhamos que começamos os lançamentos.
06:39
of the pattern in only five tosses.
124
399000
3000
Lembrem-se, deste lado estão obcecados com cara-coroa-coroa,
06:42
You can't do that with head-tail-tail.
125
402000
2000
e vocês com cara-coroa-cara.
Começamos os lançamentos e sai cara.
06:44
That turns out to be important.
126
404000
2000
06:46
There are two ways of thinking about this.
127
406000
2000
Vocês retorcem-se na cadeira,
06:48
I'll give you one of them.
128
408000
2000
porque pode estar para acontecer uma coisa maravilhosa, espantosa.
06:50
So imagine -- let's suppose we're doing it.
129
410000
2000
06:52
On this side -- remember, you're excited about head-tail-tail;
130
412000
2000
O lançamento seguinte é coroa — vocês ficam entusiasmadíssimos.
06:54
you're excited about head-tail-head.
131
414000
2000
O champanhe no gelo está perto, os copos estão gelados, para a festa.
06:56
We start tossing a coin, and we get a head --
132
416000
3000
Estão à espera, de respiração suspensa, do lançamento final.
06:59
and you start sitting on the edge of your seat
133
419000
1000
07:00
because something great and wonderful, or awesome, might be about to happen.
134
420000
5000
Se for cara, é ótimo.
Ficam contentes e é uma festa.
Se for coroa, desiludidos, põem os copos de lado
07:05
The next toss is a tail -- you get really excited.
135
425000
2000
07:07
The champagne's on ice just next to you; you've got the glasses chilled to celebrate.
136
427000
4000
e mandam embora o champanhe.
Continuam os lançamentos à espera que saia cara.
07:11
You're waiting with bated breath for the final toss.
137
431000
2000
Deste lado, há uma experiência diferente.
07:13
And if it comes down a head, that's great.
138
433000
2000
É o mesmo nas duas primeiras partes da sequência.
07:15
You're done, and you celebrate.
139
435000
2000
07:17
If it's a tail -- well, rather disappointedly, you put the glasses away
140
437000
2000
Ficam um pouco entusiasmados com a primeira cara
07:19
and put the champagne back.
141
439000
2000
— ficam mais entusiasmados com a coroa a seguir.
07:21
And you keep tossing, to wait for the next head, to get excited.
142
441000
3000
Depois lançam a moeda.
Se for coroa, podem abrir o champanhe.
07:25
On this side, there's a different experience.
143
445000
2000
Se for cara, ficam desiludidos
07:27
It's the same for the first two parts of the sequence.
144
447000
3000
mas voltam a estar a um terço do caminho do vosso padrão.
07:30
You're a little bit excited with the first head --
145
450000
2000
Esta é uma maneira informal de apresentar — é por isso que há uma diferença.
07:32
you get rather more excited with the next tail.
146
452000
2000
07:34
Then you toss the coin.
147
454000
2000
Outra forma de pensar nisso.
07:36
If it's a tail, you crack open the champagne.
148
456000
3000
Se lançarmos uma moeda oito milhões de vezes,
07:39
If it's a head you're disappointed,
149
459000
2000
podemos esperar um milhão de cara-coroa-cara
07:41
but you're still a third of the way to your pattern again.
150
461000
3000
e um milhão de cara-coroa-coroa mas cara-coroa-cara pode ocorrer em cachos.
07:44
And that's an informal way of presenting it -- that's why there's a difference.
151
464000
4000
Portanto, se quiserem pôr um milhão de coisas entre oito milhões de posições
07:48
Another way of thinking about it --
152
468000
2000
07:50
if we tossed a coin eight million times,
153
470000
2000
e podemos ter algumas que se sobrepõem, os cachos estarão mais separados.
07:52
then we'd expect a million head-tail-heads
154
472000
2000
07:54
and a million head-tail-tails -- but the head-tail-heads could occur in clumps.
155
474000
7000
É outra forma de tornarmos as coisas intuitivas.
Onde é que eu quero chegar?
É um exemplo muito simples, uma questão de probabilidade fácil
08:01
So if you want to put a million things down amongst eight million positions
156
481000
2000
08:03
and you can have some of them overlapping, the clumps will be further apart.
157
483000
5000
em que toda a gente se engana — e vocês estão bem acompanhados.
Esta é um pequeno desvio para chegar à minha paixão, que é a genética.
08:08
It's another way of getting the intuition.
158
488000
2000
08:10
What's the point I want to make?
159
490000
2000
Há uma ligação entre cara-coroa-cara e cara-coroa-coroa, na genética.
08:12
It's a very, very simple example, an easily stated question in probability,
160
492000
4000
que é a seguinte.
08:16
which every -- you're in good company -- everybody gets wrong.
161
496000
3000
Quando lançamos uma moeda, obtemos uma sequência de caras e coroas.
08:19
This is my little diversion into my real passion, which is genetics.
162
499000
4000
No ADN, há uma sequência que não é de duas coisas — caras e coroas —
08:23
There's a connection between head-tail-heads and head-tail-tails in genetics,
163
503000
3000
mas de quatro letras — A, G, C e T.
E há pequenas tesouras químicas, chamadas enzimas de restrição
08:26
and it's the following.
164
506000
3000
que cortam o ADN sempre que veem determinados padrões.
08:29
When you toss a coin, you get a sequence of heads and tails.
165
509000
3000
É uma ferramenta extremamente útil na moderna biologia molecular.
08:32
When you look at DNA, there's a sequence of not two things -- heads and tails --
166
512000
3000
Não perguntem: "Ao fim de quanto tempo ocorre uma cara-coroa-cara?"
08:35
but four letters -- As, Gs, Cs and Ts.
167
515000
3000
08:38
And there are little chemical scissors, called restriction enzymes
168
518000
3000
perguntem: "De que tamanho são os cachos se usar uma enzima de restrição
08:41
which cut DNA whenever they see particular patterns.
169
521000
2000
"que corta quando vê G-A-A-G, por exemplo?"
08:43
And they're an enormously useful tool in modern molecular biology.
170
523000
4000
"De que tamanho serão esses cachos?"
08:48
And instead of asking the question, "How long until I see a head-tail-head?" --
171
528000
3000
É uma ligação bastante trivial entre probabilidade e genética.
08:51
you can ask, "How big will the chunks be when I use a restriction enzyme
172
531000
3000
Há uma ligação muito mais profunda mas não tenho tempo para entrar nela
08:54
which cuts whenever it sees G-A-A-G, for example?
173
534000
4000
que faz da genética moderna uma área da ciência apaixonante.
08:58
How long will those chunks be?"
174
538000
2000
Vamos ouvir palestras nesta conferência especificamente sobre isso.
09:00
That's a rather trivial connection between probability and genetics.
175
540000
5000
Mas acontece que, para desbloquear os segredos
nos dados gerados pelas modernas tecnologias experimentais,
09:05
There's a much deeper connection, which I don't have time to go into
176
545000
3000
uma parte fundamental tem a ver
09:08
and that is that modern genetics is a really exciting area of science.
177
548000
3000
09:11
And we'll hear some talks later in the conference specifically about that.
178
551000
4000
— tranquilizem-se, eu faço algo de útil no meu trabalho —
com tecnologias mais sofisticada do que a história de cara-coroa-cara,
09:15
But it turns out that unlocking the secrets in the information generated by modern
179
555000
4000
com sofisticados modelos informáticos e matemáticos
09:19
experimental technologies, a key part of that has to do with fairly sophisticated --
180
559000
5000
e técnicas estatísticas modernas.
Vou dar-vos dois pequenos fragmentos — dois exemplos —
09:24
you'll be relieved to know that I do something useful in my day job,
181
564000
3000
de projetos em que estamos envolvidos no meu grupo em Oxford,
09:27
rather more sophisticated than the head-tail-head story --
182
567000
2000
que eu considero apaixonantes.
09:29
but quite sophisticated computer modelings and mathematical modelings
183
569000
4000
Vocês conhecem o Projeto do Genoma Humano.
Foi um projeto que pretendia ler uma cópia do genoma humano.
09:33
and modern statistical techniques.
184
573000
2000
09:35
And I will give you two little snippets -- two examples --
185
575000
3000
09:38
of projects we're involved in in my group in Oxford,
186
578000
3000
A coisa natural a fazer, depois de fazer aquilo
é Projeto o Internacional HapMap,
09:41
both of which I think are rather exciting.
187
581000
2000
09:43
You know about the Human Genome Project.
188
583000
2000
que é uma colaboração entre laboratórios de cinco ou seis países diferentes.
09:45
That was a project which aimed to read one copy of the human genome.
189
585000
4000
Pensem no Projeto do Genoma Humano como aprender o que temos em comum
09:51
The natural thing to do after you've done that --
190
591000
2000
e no Projeto HapMao como tentar compreender
09:53
and that's what this project, the International HapMap Project,
191
593000
2000
onde há diferenças entre pessoas diferentes.
09:55
which is a collaboration between labs in five or six different countries.
192
595000
5000
Porque é que nos preocupamos com isso?
Há muitas razões.
A mais importante é que queremos perceber como essas diferenças
10:00
Think of the Human Genome Project as learning what we've got in common,
193
600000
4000
podem tornar as pessoas suscetíveis a uma doença — digamos, diabetes tipo 2 —
10:04
and the HapMap Project is trying to understand
194
604000
2000
10:06
where there are differences between different people.
195
606000
2000
e outras diferenças tornam as pessoas mais suscetíveis a doenças cardíacas,
10:08
Why do we care about that?
196
608000
2000
10:10
Well, there are lots of reasons.
197
610000
2000
10:12
The most pressing one is that we want to understand how some differences
198
612000
4000
ou AVC, ou autismo, etc.
É um projeto importante.
10:16
make some people susceptible to one disease -- type-2 diabetes, for example --
199
616000
4000
Há outro projeto importante,
recém-financiado pela Welcome Trust neste país,
10:20
and other differences make people more susceptible to heart disease,
200
620000
5000
que envolve estudos muito amplos
— milhares de indivíduos, com uma de oito doenças diferentes,
doenças vulgares como diabetes tipo 1 e tipo 2, doenças coronárias,
10:25
or stroke, or autism and so on.
201
625000
2000
10:27
That's one big project.
202
627000
2000
10:29
There's a second big project,
203
629000
2000
doença bipolar, etc. — para tentar perceber a genética.
10:31
recently funded by the Wellcome Trust in this country,
204
631000
2000
10:33
involving very large studies --
205
633000
2000
Tentar perceber quais são as diferenças genéticas que causam as doenças.
10:35
thousands of individuals, with each of eight different diseases,
206
635000
3000
Porque é que queremos fazer isso?
10:38
common diseases like type-1 and type-2 diabetes, and coronary heart disease,
207
638000
4000
Porque sabemos muito pouco sobre a maior parte das doenças humanas.
Não sabemos o que é que as provoca.
10:42
bipolar disease and so on -- to try and understand the genetics.
208
642000
4000
Aprofundando e compreendendo a genética,
abrimos uma janela para a forma como funciona a doença
10:46
To try and understand what it is about genetic differences that causes the diseases.
209
646000
3000
e uma nova forma de pensar nas terapias para as doenças
10:49
Why do we want to do that?
210
649000
2000
e no tratamento preventivo.
10:51
Because we understand very little about most human diseases.
211
651000
3000
Este foi o desvio de que falei, à minha principal paixão.
10:54
We don't know what causes them.
212
654000
2000
10:56
And if we can get in at the bottom and understand the genetics,
213
656000
2000
Voltemos às questões mais prosaicas de pensar na incerteza.
10:58
we'll have a window on the way the disease works,
214
658000
3000
Eis outro questionário.
11:01
and a whole new way about thinking about disease therapies
215
661000
2000
11:03
and preventative treatment and so on.
216
663000
3000
Suponhamos que temos um teste para uma doença
que não é infalível, mas é muito bom.
11:06
So that's, as I said, the little diversion on my main love.
217
666000
3000
Acerta em cheio 99% das vezes.
11:09
Back to some of the more mundane issues of thinking about uncertainty.
218
669000
5000
Escolho um de vocês, ou alguém no meio da rua
e faço-lhe o teste para a doença em questão.
11:14
Here's another quiz for you --
219
674000
2000
Suponhamos que é um teste para o VIH — o vírus que provoca a SIDA —
11:16
now suppose we've got a test for a disease
220
676000
2000
11:18
which isn't infallible, but it's pretty good.
221
678000
2000
e o teste diz que a pessoa tem essa doença.
11:20
It gets it right 99 percent of the time.
222
680000
3000
Qual é a probabilidade que ela a tenha?
11:23
And I take one of you, or I take someone off the street,
223
683000
3000
O teste acerta em cheio 99% das vezes.
11:26
and I test them for the disease in question.
224
686000
2000
Portanto, a resposta natural é 88%.
11:28
Let's suppose there's a test for HIV -- the virus that causes AIDS --
225
688000
4000
Quem é que gosta desta resposta?
11:32
and the test says the person has the disease.
226
692000
3000
Vá, todos têm que participar.
Esqueçam que já não confiam em mim.
11:35
What's the chance that they do?
227
695000
3000
(Risos)
Têm razão em estar um pouco céticos, porque a resposta não é essa.
11:38
The test gets it right 99 percent of the time.
228
698000
2000
11:40
So a natural answer is 99 percent.
229
700000
4000
Essa é a que se pode pensar.
Mas não é a resposta, e não é porque seja apenas parte da história.
11:44
Who likes that answer?
230
704000
2000
11:46
Come on -- everyone's got to get involved.
231
706000
1000
Mas depende de a doença ser vulgar ou rara.
11:47
Don't think you don't trust me anymore.
232
707000
2000
Vou tentar ilustrar isso.
11:49
(Laughter)
233
709000
1000
11:50
Well, you're right to be a bit skeptical, because that's not the answer.
234
710000
3000
Isto é uma representação de um milhão de indivíduos.
11:53
That's what you might think.
235
713000
2000
Pensemos numa doença que seja rara
11:55
It's not the answer, and it's not because it's only part of the story.
236
715000
3000
que afete uma pessoa em 10 000.
11:58
It actually depends on how common or how rare the disease is.
237
718000
3000
Neste milhão de indivíduos, a maioria é saudável
12:01
So let me try and illustrate that.
238
721000
2000
e alguns deles terão a doença.
12:03
Here's a little caricature of a million individuals.
239
723000
4000
De facto, se for esta a prevalência da doença,
12:07
So let's think about a disease that affects --
240
727000
3000
cerca de 100 terão a doença e os restantes não.
12:10
it's pretty rare, it affects one person in 10,000.
241
730000
2000
Agora suponhamos que os testamos a todos.
12:12
Amongst these million individuals, most of them are healthy
242
732000
3000
O que acontece?
Entre os 100 que têm a doença,
12:15
and some of them will have the disease.
243
735000
2000
o teste acertará 99% das vezes e 99 terão um resultado positivo.
12:17
And in fact, if this is the prevalence of the disease,
244
737000
3000
12:20
about 100 will have the disease and the rest won't.
245
740000
3000
Entre as outras pessoas que não têm a doença,
12:23
So now suppose we test them all.
246
743000
2000
o teste acertará 99% das vezes.
12:25
What happens?
247
745000
2000
Só estará errado 1% das vezes.
12:27
Well, amongst the 100 who do have the disease,
248
747000
2000
Mas há tanta gente que o número de falsos positivos será enorme.
12:29
the test will get it right 99 percent of the time, and 99 will test positive.
249
749000
5000
Por outras palavras,
12:34
Amongst all these other people who don't have the disease,
250
754000
2000
de todos os que obtiverem positivo — estes são os indivíduos envolvido —
12:36
the test will get it right 99 percent of the time.
251
756000
3000
12:39
It'll only get it wrong one percent of the time.
252
759000
2000
menos de um em 100 têm mesmo a doença.
12:41
But there are so many of them that there'll be an enormous number of false positives.
253
761000
4000
Portanto, apesar de pensarmos que o teste é rigoroso, a parte importante da história
12:45
Put that another way --
254
765000
2000
12:47
of all of them who test positive -- so here they are, the individuals involved --
255
767000
5000
é que precisamos de mais informações.
12:52
less than one in 100 actually have the disease.
256
772000
5000
Esta é a intuição fundamental.
Quando sabemos que o teste é positivo,
12:57
So even though we think the test is accurate, the important part of the story is
257
777000
4000
temos que avaliar a plausibilidade de duas explicações opostas.
13:01
there's another bit of information we need.
258
781000
3000
Cada uma dessas explicações é, em parte, provável e, em parte, improvável.
13:04
Here's the key intuition.
259
784000
2000
Uma das explicações é que a pessoa não tem a doença
13:07
What we have to do, once we know the test is positive,
260
787000
3000
— que é uma probabilidade forte, se agarrarmos numa pessoa ao acaso —
13:10
is to weigh up the plausibility, or the likelihood, of two competing explanations.
261
790000
6000
mas o teste está errado, o que é pouco provável.
A outra explicação é que a pessoa tem a doença — o que é improvável —
13:16
Each of those explanations has a likely bit and an unlikely bit.
262
796000
3000
13:19
One explanation is that the person doesn't have the disease --
263
799000
3000
mas o teste está correto, o que é provável.
13:22
that's overwhelmingly likely, if you pick someone at random --
264
802000
3000
E acabamos com um número
— um pouco menor do que um em 100 —
13:25
but the test gets it wrong, which is unlikely.
265
805000
3000
que depende da probabilidade
13:29
The other explanation is that the person does have the disease -- that's unlikely --
266
809000
3000
de uma das explicações estar ligada à outra.
13:32
but the test gets it right, which is likely.
267
812000
3000
Cada uma delas, consideradas em conjunto, é pouco provável.
13:35
And the number we end up with --
268
815000
2000
Este é um exemplo mais atual, exatamente da mesma coisa.
13:37
that number which is a little bit less than one in 100 --
269
817000
3000
Os britânicos aqui conhecem um caso que ficou célebre
13:40
is to do with how likely one of those explanations is relative to the other.
270
820000
6000
duma mulher chamada Sally Clark, cujos dois bebés morreram subitamente.
13:46
Each of them taken together is unlikely.
271
826000
2000
Inicialmente, pensou-se que eles tinham morrido de "morte súbita",
13:49
Here's a more topical example of exactly the same thing.
272
829000
3000
13:52
Those of you in Britain will know about what's become rather a celebrated case
273
832000
4000
ou seja, "Síndrome da morte súbita infantil".
Por diversas razões, foi depois acusada de homicídio.
13:56
of a woman called Sally Clark, who had two babies who died suddenly.
274
836000
5000
No julgamento dela, um pediatra de renome testemunhou
14:01
And initially, it was thought that they died of what's known informally as "cot death,"
275
841000
4000
que a possibilidade de duas mortes súbitas de bebés, numa família como a dela
14:05
and more formally as "Sudden Infant Death Syndrome."
276
845000
3000
— que trabalhava e não era fumadora — era de uma em 73 milhões.
14:08
For various reasons, she was later charged with murder.
277
848000
2000
14:10
And at the trial, her trial, a very distinguished pediatrician gave evidence
278
850000
4000
Para abreviar, ela foi condenada.
14:14
that the chance of two cot deaths, innocent deaths, in a family like hers --
279
854000
5000
Mais tarde, há pouco tempo, foi absolvida num segundo apelo.
14:19
which was professional and non-smoking -- was one in 73 million.
280
859000
6000
Só para contextualizar, podem imaginar como deve ser terrível
perder um filho, ainda por cima dois, se estiverem inocentes,
14:26
To cut a long story short, she was convicted at the time.
281
866000
3000
e ser condenada por tê-los matado.
14:29
Later, and fairly recently, acquitted on appeal -- in fact, on the second appeal.
282
869000
5000
Sofrer a tensão do julgamento, ser condenada por homicídio,
estar numa prisão, onde as prisioneiras
14:34
And just to set it in context, you can imagine how awful it is for someone
283
874000
4000
pensam que matara os filhos — é terrível acontecer isso a alguém.
14:38
to have lost one child, and then two, if they're innocent,
284
878000
3000
E aconteceu, em grande parte, porque o especialista
14:41
to be convicted of murdering them.
285
881000
2000
14:43
To be put through the stress of the trial, convicted of murdering them --
286
883000
2000
interpretou mal as estatísticas, de duas formas diferentes.
14:45
and to spend time in a women's prison, where all the other prisoners
287
885000
3000
14:48
think you killed your children -- is a really awful thing to happen to someone.
288
888000
5000
Onde é que ele foi buscar o número de um em 73 milhões?
Leu alguma investigação que dizia que a probabilidade de uma morte súbita
14:53
And it happened in large part here because the expert got the statistics
289
893000
5000
numa família como a de Sally Clark era de uma em 8500.
14:58
horribly wrong, in two different ways.
290
898000
3000
E disse: "Parto do princípio que, se há uma morte súbita numa família,
15:01
So where did he get the one in 73 million number?
291
901000
4000
"a hipótese de uma segunda criança morrer de morte súbita, não muda".
15:05
He looked at some research, which said the chance of one cot death in a family
292
905000
3000
15:08
like Sally Clark's is about one in 8,500.
293
908000
5000
É o que os estatísticos chamam de "presunção de independência".
É como dizer: "Se numa moeda ao ar sair caras à primeira",
15:13
So he said, "I'll assume that if you have one cot death in a family,
294
913000
4000
"isso não afeta a hipótese de obter caras à segunda vez".
Assim, se lançarmos uma moeda duas vezes seguidas,
15:17
the chance of a second child dying from cot death aren't changed."
295
917000
4000
a hipótese de sair caras duas vezes
é 50% — da primeira vez — vezes 50% — da segunda vez.
15:21
So that's what statisticians would call an assumption of independence.
296
921000
3000
15:24
It's like saying, "If you toss a coin and get a head the first time,
297
924000
2000
Então, ele disse:
"Parto do princípio que são dois acontecimentos independentes.
15:26
that won't affect the chance of getting a head the second time."
298
926000
3000
15:29
So if you toss a coin twice, the chance of getting a head twice are a half --
299
929000
5000
"Quando multiplicamos 8500 por 8500,
"obtemos 73 milhões".
Nada disto foi explicado ao tribunal, como uma presunção
15:34
that's the chance the first time -- times a half -- the chance a second time.
300
934000
3000
nem apresentado ao júri dessa forma.
15:37
So he said, "Here,
301
937000
2000
Infelizmente — e lamentavelmente —
15:39
I'll assume that these events are independent.
302
939000
4000
primeiro que tudo, numa situação destas, devia ter sido verificada empiricamente.
15:43
When you multiply 8,500 together twice,
303
943000
2000
15:45
you get about 73 million."
304
945000
2000
E em segundo lugar, é obviamente falsa.
15:47
And none of this was stated to the court as an assumption
305
947000
2000
15:49
or presented to the jury that way.
306
949000
2000
Há imensas coisas que não sabemos sobre mortes súbitas de bebés.
15:52
Unfortunately here -- and, really, regrettably --
307
952000
3000
Pode tratar-se de fatores ambientais que desconhecemos,
15:55
first of all, in a situation like this you'd have to verify it empirically.
308
955000
4000
e é muito provável que haja fatores genéticos que desconhecemos
15:59
And secondly, it's palpably false.
309
959000
2000
Assim, se há uma morte súbita na família, deve-se pô-la num grupo de risco.
16:02
There are lots and lots of things that we don't know about sudden infant deaths.
310
962000
5000
Provavelmente, tem esses fatores de risco ambientais
16:07
It might well be that there are environmental factors that we're not aware of,
311
967000
3000
e/ou fatores de risco genético que desconhecemos.
E argumentar que há probabilidade de uma segunda morte
16:10
and it's pretty likely to be the case that there are
312
970000
2000
16:12
genetic factors we're not aware of.
313
972000
2000
sem conhecer essas informações, é idiota.
16:14
So if a family suffers from one cot death, you'd put them in a high-risk group.
314
974000
3000
É pior que idiota, é muito má ciência.
16:17
They've probably got these environmental risk factors
315
977000
2000
16:19
and/or genetic risk factors we don't know about.
316
979000
3000
Apesar disso, foi como foi apresentado, e no tribunal ninguém o contestou.
16:22
And to argue, then, that the chance of a second death is as if you didn't know
317
982000
3000
Este é o primeiro problema.
16:25
that information is really silly.
318
985000
3000
O segundo problema é: o que significa o número de um em 73 milhões?
16:28
It's worse than silly -- it's really bad science.
319
988000
4000
Depois de Sally Clark ser condenada
16:32
Nonetheless, that's how it was presented, and at trial nobody even argued it.
320
992000
5000
— podem imaginar, deu grande estrilho na imprensa —
um dos jornalistas de um dos mais respeitados jornais da Grã-Bretanha
16:37
That's the first problem.
321
997000
2000
16:39
The second problem is, what does the number of one in 73 million mean?
322
999000
4000
escreveu que o especialista tinha dito:
16:43
So after Sally Clark was convicted --
323
1003000
2000
"A hipótese de que ela estivesse inocente era de uma em 73 milhões".
16:45
you can imagine, it made rather a splash in the press --
324
1005000
4000
16:49
one of the journalists from one of Britain's more reputable newspapers wrote that
325
1009000
7000
Isto é um erro de lógica.
É exatamente o mesmo erro de lógica como o erro de pensar
que, segundo o teste de doenças, que é 99% rigoroso,
16:56
what the expert had said was,
326
1016000
2000
a hipótese de ter a doença é de 99%.
16:58
"The chance that she was innocent was one in 73 million."
327
1018000
5000
No exemplo da doença, tivemos que ter em conta duas coisas,
17:03
Now, that's a logical error.
328
1023000
2000
17:05
It's exactly the same logical error as the logical error of thinking that
329
1025000
3000
uma que era a possibilidade de o teste ter acertado ou não.
17:08
after the disease test, which is 99 percent accurate,
330
1028000
2000
E a outra era a possibilidade, a priori, de a pessoa ter a doença ou não.
17:10
the chance of having the disease is 99 percent.
331
1030000
4000
É exatamente o mesmo neste contexto.
17:14
In the disease example, we had to bear in mind two things,
332
1034000
4000
Há duas explicações envolvidas.
17:18
one of which was the possibility that the test got it right or not.
333
1038000
4000
Queremos saber quão prováveis, ou relativamente prováveis,
17:22
And the other one was the chance, a priori, that the person had the disease or not.
334
1042000
4000
são essas duas explicações diferentes.
Uma delas é que Sally Clark estava inocente
17:26
It's exactly the same in this context.
335
1046000
3000
— o que, a priori, era esmagadoramente provável —
17:29
There are two things involved -- two parts to the explanation.
336
1049000
4000
a maior parte das mães não mata os filhos.
A segunda parte da explicação
17:33
We want to know how likely, or relatively how likely, two different explanations are.
337
1053000
4000
é que ela sofrera um acontecimento extraordinariamente improvável.
17:37
One of them is that Sally Clark was innocent --
338
1057000
3000
Não tão improvável como um em 73 milhões, mas muito improvável na mesma.
17:40
which is, a priori, overwhelmingly likely --
339
1060000
2000
A outra explicação é que ela era culpada.
17:42
most mothers don't kill their children.
340
1062000
3000
Podemos pensar a priori numa coisa improvável.
17:45
And the second part of the explanation
341
1065000
2000
— mas, no contexto de um julgamento criminal,
17:47
is that she suffered an incredibly unlikely event.
342
1067000
3000
temos que pensar que é improvável, dada a presunção de inocência.
17:50
Not as unlikely as one in 73 million, but nonetheless rather unlikely.
343
1070000
4000
Mas, se ela tinha tentado matar os bebés, tinha conseguido.
17:54
The other explanation is that she was guilty.
344
1074000
2000
Portanto, a probabilidade de ela estar inocente não é de uma em 73 milhões.
17:56
Now, we probably think a priori that's unlikely.
345
1076000
2000
17:58
And we certainly should think in the context of a criminal trial
346
1078000
3000
Não sabemos qual é.
Tem a ver com a avaliação do peso das outras provas contra ela
18:01
that that's unlikely, because of the presumption of innocence.
347
1081000
3000
18:04
And then if she were trying to kill the children, she succeeded.
348
1084000
4000
e das provas estatísticas.
18:08
So the chance that she's innocent isn't one in 73 million.
349
1088000
4000
Sabemos que as crianças morreram.
O que interessa é a probabilidade ou improbabilidade
18:12
We don't know what it is.
350
1092000
2000
das duas explicações, uma em relação à outra.
18:14
It has to do with weighing up the strength of the other evidence against her
351
1094000
4000
São ambas implausíveis.
18:18
and the statistical evidence.
352
1098000
2000
É uma situação em que os erros na estatística
18:20
We know the children died.
353
1100000
2000
tiveram consequências profundas e extremamente infelizes.
18:22
What matters is how likely or unlikely, relative to each other,
354
1102000
4000
Há duas outras mulheres que foram condenadas
18:26
the two explanations are.
355
1106000
2000
com base em provas deste pediatra, que vieram a ser libertadas no apelo.
18:28
And they're both implausible.
356
1108000
2000
Muitos casos foram revistos.
18:31
There's a situation where errors in statistics had really profound
357
1111000
4000
E é especialmente atual, porque enfrenta hoje uma carga de descrédito
18:35
and really unfortunate consequences.
358
1115000
3000
no Conselho Médico Geral da Grã-Bretanha
18:38
In fact, there are two other women who were convicted on the basis of the
359
1118000
2000
Para concluir, que mensagens levar para casa a partir disto?
18:40
evidence of this pediatrician, who have subsequently been released on appeal.
360
1120000
4000
Sabemos que o aleatório e a incerteza e o acaso
18:44
Many cases were reviewed.
361
1124000
2000
18:46
And it's particularly topical because he's currently facing a disrepute charge
362
1126000
4000
fazem parte da nossa vida quotidiana.
18:50
at Britain's General Medical Council.
363
1130000
3000
Também é verdade — embora vocês, enquanto coletivo, sejam muito especiais —
18:53
So just to conclude -- what are the take-home messages from this?
364
1133000
4000
que vocês são típicos em não seguir os exemplos que dei.
18:57
Well, we know that randomness and uncertainty and chance
365
1137000
4000
Está bem documentado que as pessoas interpretam mal as coisas.
19:01
are very much a part of our everyday life.
366
1141000
3000
Fazem erros de lógica ao raciocinar com incerteza.
19:04
It's also true -- and, although, you, as a collective, are very special in many ways,
367
1144000
5000
Lidamos lindamente com as subtilezas da linguagem
19:09
you're completely typical in not getting the examples I gave right.
368
1149000
4000
e há questões evolucionárias sobre como chegámos lá.
Mas não somos bons a raciocinar com a incerteza.
19:13
It's very well documented that people get things wrong.
369
1153000
3000
É um problema da nossa vida quotidiana.
19:16
They make errors of logic in reasoning with uncertainty.
370
1156000
3000
Como ouviram em muitas palestras, a estatística sustenta
muita investigação na ciência — ciência social, medicina,
19:20
We can cope with the subtleties of language brilliantly --
371
1160000
2000
19:22
and there are interesting evolutionary questions about how we got here.
372
1162000
3000
e em muitas coisas da indústria.
O controlo de qualidade,
19:25
We are not good at reasoning with uncertainty.
373
1165000
3000
que tem um importante impacto no fabrico industrial
19:28
That's an issue in our everyday lives.
374
1168000
2000
repousa na estatística.
19:30
As you've heard from many of the talks, statistics underpins an enormous amount
375
1170000
3000
É uma coisa que fazemos mal.
No mínimo, devíamos reconhecer isso, mas temos tendência para não o fazer.
19:33
of research in science -- in social science, in medicine
376
1173000
3000
19:36
and indeed, quite a lot of industry.
377
1176000
2000
Para voltar ao contexto legal e ao julgamento de Sally Clark,
19:38
All of quality control, which has had a major impact on industrial processing,
378
1178000
4000
todos os advogados aceitavam o que o especialista disse.
19:42
is underpinned by statistics.
379
1182000
2000
Se aparecesse um pediatra que dissesse a um júri:
19:44
It's something we're bad at doing.
380
1184000
2000
19:46
At the very least, we should recognize that, and we tend not to.
381
1186000
3000
"Sei construir pontes. Construí uma na estrada.
"Por favor, usem-na para voltar para casa".
19:49
To go back to the legal context, at the Sally Clark trial
382
1189000
4000
teriam dito: "Os pediatras não sabem construir pontes.
19:53
all of the lawyers just accepted what the expert said.
383
1193000
4000
"Isso é trabalho de engenheiros".
Por outro lado, ele apareceu e disse, ou sugeriu:
19:57
So if a pediatrician had come out and said to a jury,
384
1197000
2000
"Sei raciocinar com a incerteza. Sei fazer estatísticas."
19:59
"I know how to build bridges. I've built one down the road.
385
1199000
3000
Todos disseram: "Ótimo, Ele é especialista".
20:02
Please drive your car home over it,"
386
1202000
2000
Precisamos de perceber onde está ou não está a nossa competência.
20:04
they would have said, "Well, pediatricians don't know how to build bridges.
387
1204000
2000
20:06
That's what engineers do."
388
1206000
2000
São exatamente as mesmas coisas que surgem hoje, no perfil do ADN,
20:08
On the other hand, he came out and effectively said, or implied,
389
1208000
3000
quando os cientistas e advogados e, nalguns casos, os juízes,
20:11
"I know how to reason with uncertainty. I know how to do statistics."
390
1211000
3000
20:14
And everyone said, "Well, that's fine. He's an expert."
391
1214000
3000
interpretam mal as provas, de forma rotineira.
20:17
So we need to understand where our competence is and isn't.
392
1217000
3000
Normalmente, é de forma inocente, mas interpretam mal as provas.
20:20
Exactly the same kinds of issues arose in the early days of DNA profiling,
393
1220000
4000
Os cientistas forenses disseram:
"A hipótese de este tipo estar inocente é de uma em três milhões".
20:24
when scientists, and lawyers and in some cases judges,
394
1224000
4000
Mesmo a acreditar neste número — tal como os 73 milhões para um —
20:28
routinely misrepresented evidence.
395
1228000
3000
não é isso o que eu quero dizer.
Já houve recursos de apelos com êxito
20:32
Usually -- one hopes -- innocently, but misrepresented evidence.
396
1232000
3000
na Grã-Bretanha e não só por causa disso.
20:35
Forensic scientists said, "The chance that this guy's innocent is one in three million."
397
1235000
5000
Para acabar, no contexto do sistema legal,
é muito bonito dizer: Vamos fazer o nosso melhor para apresentar provas",
20:40
Even if you believe the number, just like the 73 million to one,
398
1240000
2000
20:42
that's not what it meant.
399
1242000
2000
Mas, cada vez mais, no caso do perfil de ADN — este é outro —
20:44
And there have been celebrated appeal cases
400
1244000
2000
esperamos que os júris, que são pessoas vulgares
20:46
in Britain and elsewhere because of that.
401
1246000
2000
20:48
And just to finish in the context of the legal system.
402
1248000
3000
— e está documentado que são muito maus nisto —
esperamos que os júris consigam lidar com o tipo de raciocínio que se mantém.
20:51
It's all very well to say, "Let's do our best to present the evidence."
403
1251000
4000
Noutras esferas da vida, as pessoas discutem — exceto talvez na política —
20:55
But more and more, in cases of DNA profiling -- this is another one --
404
1255000
3000
20:58
we expect juries, who are ordinary people --
405
1258000
3000
noutras esferas da vida, se as pessoas discutem sem lógica
21:01
and it's documented they're very bad at this --
406
1261000
2000
diríamos que isso não é bom.
21:03
we expect juries to be able to cope with the sorts of reasoning that goes on.
407
1263000
4000
Esperamos isso dos políticos e não esperamos muito mais.
21:07
In other spheres of life, if people argued -- well, except possibly for politics --
408
1267000
5000
No caso da incerteza, estamos sempre a enganar-nos
e, no mínimo, devíamos ter consciência disso.
21:12
but in other spheres of life, if people argued illogically,
409
1272000
2000
Devíamos fazer qualquer coisa quanto a isso.
21:14
we'd say that's not a good thing.
410
1274000
2000
Obrigado.
21:16
We sort of expect it of politicians and don't hope for much more.
411
1276000
4000
21:20
In the case of uncertainty, we get it wrong all the time --
412
1280000
3000
21:23
and at the very least, we should be aware of that,
413
1283000
2000
21:25
and ideally, we might try and do something about it.
414
1285000
2000
21:27
Thanks very much.
415
1287000
1000
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7