Peter Donnelly: How stats fool juries

Peter Donnelly muestra como la estadística engaña a los jurados

239,975 views

2007-01-12 ・ TED


New videos

Peter Donnelly: How stats fool juries

Peter Donnelly muestra como la estadística engaña a los jurados

239,975 views ・ 2007-01-12

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Mario Elenes Revisor: Amaranta Heredia Jaén
00:25
As other speakers have said, it's a rather daunting experience --
0
25000
2000
Como otros conferenciantes han dicho, es una experiencia bastante intimidante -
00:27
a particularly daunting experience -- to be speaking in front of this audience.
1
27000
3000
una experiencia particularmente intimidante - hablar enfrente de esta audiencia.
00:30
But unlike the other speakers, I'm not going to tell you about
2
30000
3000
Pero a diferencia de los demás, yo no les voy a hablar acerca
00:33
the mysteries of the universe, or the wonders of evolution,
3
33000
2000
de los misterios del universo o de las maravillas de la evolución,
00:35
or the really clever, innovative ways people are attacking
4
35000
4000
o de las maneras ingeniosas, innovadoras, en que se están atacando
00:39
the major inequalities in our world.
5
39000
2000
las mayores desigualdades de nuestro mundo.
00:41
Or even the challenges of nation-states in the modern global economy.
6
41000
5000
O incluso de los retos de las naciones en la economía global moderna.
00:46
My brief, as you've just heard, is to tell you about statistics --
7
46000
4000
Mi trabajo, como han oído, es hablarles de estadística --
00:50
and, to be more precise, to tell you some exciting things about statistics.
8
50000
3000
y, para ser más preciso, contarles algunas cosas apasionantes acerca de ella.
00:53
And that's --
9
53000
1000
Y eso es --
00:54
(Laughter)
10
54000
1000
(Risas)
00:55
-- that's rather more challenging
11
55000
2000
-- eso es bastante más difícil
00:57
than all the speakers before me and all the ones coming after me.
12
57000
2000
que lo que han hecho todos los conferenciantes antes de mí y todos los que vengan después.
00:59
(Laughter)
13
59000
1000
(Risas)
01:01
One of my senior colleagues told me, when I was a youngster in this profession,
14
61000
5000
Uno de mis colegas me dijo, cuando yo era un novato en esta profesión,
01:06
rather proudly, that statisticians were people who liked figures
15
66000
4000
orgullosamente, que los estadísticos eran personas a quienes les gustaban los números
01:10
but didn't have the personality skills to become accountants.
16
70000
3000
pero no tenían la personalidad para ser contables.
01:13
(Laughter)
17
73000
2000
(Risas)
01:15
And there's another in-joke among statisticians, and that's,
18
75000
3000
Y hay otro chiste entre estadísticos que es:
01:18
"How do you tell the introverted statistician from the extroverted statistician?"
19
78000
3000
“¿Cómo distingues al estadístico introvertido del estadístico extrovertido?
01:21
To which the answer is,
20
81000
2000
Cuya respuesta es,
01:23
"The extroverted statistician's the one who looks at the other person's shoes."
21
83000
5000
“El estadístico extrovertido es el que mira los zapatos de la otra persona.”
01:28
(Laughter)
22
88000
3000
(Risas)
01:31
But I want to tell you something useful -- and here it is, so concentrate now.
23
91000
5000
Pero quiero decirles algo útil – y aquí está, así que concéntrense.
01:36
This evening, there's a reception in the University's Museum of Natural History.
24
96000
3000
Esta tarde, hay una recepción en el Museo de Historia Natural de la Universidad.
01:39
And it's a wonderful setting, as I hope you'll find,
25
99000
2000
Y es un lugar maravilloso, como espero que noten,
01:41
and a great icon to the best of the Victorian tradition.
26
101000
5000
y un gran icono de lo mejor de la tradición victoriana.
01:46
It's very unlikely -- in this special setting, and this collection of people --
27
106000
5000
Es muy improbable – en este lugar especial, con este grupo de gente --
01:51
but you might just find yourself talking to someone you'd rather wish that you weren't.
28
111000
3000
pero puede ser que se encuentren hablando con alguien indeseable.
01:54
So here's what you do.
29
114000
2000
Así que aquí está lo que deben hacer.
01:56
When they say to you, "What do you do?" -- you say, "I'm a statistician."
30
116000
4000
Cuando les pregunten ”¿A qué se dedica?” Responden: “Soy estadístico”.
02:00
(Laughter)
31
120000
1000
(Risas)
02:01
Well, except they've been pre-warned now, and they'll know you're making it up.
32
121000
4000
Bueno, excepto porque ahora están advertidos, y sabrán que se lo está inventando.
02:05
And then one of two things will happen.
33
125000
2000
Entonces una de dos cosas pasará.
02:07
They'll either discover their long-lost cousin in the other corner of the room
34
127000
2000
O descubrirán a un primo perdido en la otra esquina de la habitación
02:09
and run over and talk to them.
35
129000
2000
y correrán a hablar con él,
02:11
Or they'll suddenly become parched and/or hungry -- and often both --
36
131000
3000
o de repente se sentirán sedientos y/o hambrientos – a menudo ambas--
02:14
and sprint off for a drink and some food.
37
134000
2000
y correrán a por un trago y algo de comida.
02:16
And you'll be left in peace to talk to the person you really want to talk to.
38
136000
4000
Y a usted lo dejarán en paz para hablar con la persona con quien realmente quería.
02:20
It's one of the challenges in our profession to try and explain what we do.
39
140000
3000
Es uno de los retos de nuestra profesión intentar explicar lo que hacemos.
02:23
We're not top on people's lists for dinner party guests and conversations and so on.
40
143000
5000
No estamos en la cima de las listas de invitados a cenar, a charlar y a cosas así.
02:28
And it's something I've never really found a good way of doing.
41
148000
2000
Y es algo que nunca he encontrado cómo hacer.
02:30
But my wife -- who was then my girlfriend --
42
150000
3000
Pero mi esposa – entonces mi novia -
02:33
managed it much better than I've ever been able to.
43
153000
3000
lo logró mucho mejor de lo que yo jamás he podido.
02:36
Many years ago, when we first started going out, she was working for the BBC in Britain,
44
156000
3000
Hace muchos años, cuando empezábamos a salir, ella trabajaba para la BBC en Gran Bretaña,
02:39
and I was, at that stage, working in America.
45
159000
2000
y yo estaba, en ese momento, trabajando en Estados Unidos.
02:41
I was coming back to visit her.
46
161000
2000
Yo estaba de vuelta visitándola.
02:43
She told this to one of her colleagues, who said, "Well, what does your boyfriend do?"
47
163000
6000
Le dijo lo siguiente a una de sus compañeras de trabajo, quien preguntó: “¿Bien, qué es lo que hace tu novio?”
02:49
Sarah thought quite hard about the things I'd explained --
48
169000
2000
Sarah pensó bastante acerca de las cosas que yo le había explicado -
02:51
and she concentrated, in those days, on listening.
49
171000
4000
y se concentró, aquellos días, en escuchar.
02:55
(Laughter)
50
175000
2000
(Risas)
02:58
Don't tell her I said that.
51
178000
2000
No le digan que dije eso.
03:00
And she was thinking about the work I did developing mathematical models
52
180000
4000
Y estaba pensando en el trabajo que yo hacía desarrollando modelos matemáticos
03:04
for understanding evolution and modern genetics.
53
184000
3000
para comprender la evolución y la genética modernas.
03:07
So when her colleague said, "What does he do?"
54
187000
3000
Así que cuando su compañera le preguntó: “¿Qué hace?”
03:10
She paused and said, "He models things."
55
190000
4000
Ella hizo una pausa y dijo: “Modela cosas”.
03:14
(Laughter)
56
194000
1000
(Risas)
03:15
Well, her colleague suddenly got much more interested than I had any right to expect
57
195000
4000
Bueno, su compañera súbitamente se interesó mucho más de lo que cabía esperar
03:19
and went on and said, "What does he model?"
58
199000
3000
y siguió preguntando: “¿Qué es lo que modela?”
03:22
Well, Sarah thought a little bit more about my work and said, "Genes."
59
202000
3000
Bien, Sarah pensó un poco más acerca de mi trabajo y dijo: “Genes”.
03:25
(Laughter)
60
205000
4000
(Risa)
03:29
"He models genes."
61
209000
2000
"Modela genes”.
03:31
That is my first love, and that's what I'll tell you a little bit about.
62
211000
4000
Este es mi primer amor, y de ello les voy a hablar un poco.
03:35
What I want to do more generally is to get you thinking about
63
215000
4000
Lo que sobre todo quiero conseguir es que piensen acerca
03:39
the place of uncertainty and randomness and chance in our world,
64
219000
3000
del lugar que la incertidumbre, el azar y la probabilidad ocupan en nuestro mundo,
03:42
and how we react to that, and how well we do or don't think about it.
65
222000
5000
y cómo reaccionamos frente a ello, y que tan bien razonamos o no respecto a esto.
03:47
So you've had a pretty easy time up till now --
66
227000
2000
Así que lo han tenido bastante fácil hasta ahora --
03:49
a few laughs, and all that kind of thing -- in the talks to date.
67
229000
2000
algunas risas y cosas por el estilo – en las conferencias hasta ahora.
03:51
You've got to think, and I'm going to ask you some questions.
68
231000
3000
Tienen que pensar, y voy a hacerles algunas preguntas.
03:54
So here's the scene for the first question I'm going to ask you.
69
234000
2000
Así que aquí está el escenario de la primera pregunta que tengo:
03:56
Can you imagine tossing a coin successively?
70
236000
3000
¿Pueden imaginarse lanzando una moneda sucesivamente?
03:59
And for some reason -- which shall remain rather vague --
71
239000
3000
Y por alguna razón – la cual tendrá que quedar sin precisar --
04:02
we're interested in a particular pattern.
72
242000
2000
estamos interesados en un patrón en particular.
04:04
Here's one -- a head, followed by a tail, followed by a tail.
73
244000
3000
Aquí hay uno: cara, seguida de cruz, seguida de otra cruz.
04:07
So suppose we toss a coin repeatedly.
74
247000
3000
Así que supongan que lanzamos una moneda repetidamente.
04:10
Then the pattern, head-tail-tail, that we've suddenly become fixated with happens here.
75
250000
5000
Entonces la pauta cara-cruz-cruz, con la que nos hemos obsesionado, aparece.
04:15
And you can count: one, two, three, four, five, six, seven, eight, nine, 10 --
76
255000
4000
Y pueden contar: uno, dos, tres, cuatro, cinco, seis, siete, ocho, nueve, diez --
04:19
it happens after the 10th toss.
77
259000
2000
ocurre después del décimo lanzamiento.
04:21
So you might think there are more interesting things to do, but humor me for the moment.
78
261000
3000
Deben de pensar que hay cosas más interesantes que hacer, pero síganme la corriente un momento.
04:24
Imagine this half of the audience each get out coins, and they toss them
79
264000
4000
Imagínense que cada uno en este lado de la audiencia saca una moneda y la lanza
04:28
until they first see the pattern head-tail-tail.
80
268000
3000
hasta que logra el patrón cara-cruz-cruz.
04:31
The first time they do it, maybe it happens after the 10th toss, as here.
81
271000
2000
La primera vez que lo hacen, tal vez pase después del décimo lanzamiento, como aquí.
04:33
The second time, maybe it's after the fourth toss.
82
273000
2000
La segunda vez, tal vez sea después del cuarto.
04:35
The next time, after the 15th toss.
83
275000
2000
Y la próxima, después del decimoquinto.
04:37
So you do that lots and lots of times, and you average those numbers.
84
277000
3000
Así que lanzan la moneda muchas, muchas veces, y calculan la media de esos números.
04:40
That's what I want this side to think about.
85
280000
3000
En eso es en lo que quiero que este lado piense.
04:43
The other half of the audience doesn't like head-tail-tail --
86
283000
2000
El otro lado de la audiencia no quiere cara-cruz-cruz --
04:45
they think, for deep cultural reasons, that's boring --
87
285000
3000
piensan que, por razones culturales, es aburrido --
04:48
and they're much more interested in a different pattern -- head-tail-head.
88
288000
3000
y están mucho más interesados en otro patrón – cara-cruz-cara.
04:51
So, on this side, you get out your coins, and you toss and toss and toss.
89
291000
3000
Así que en este lado, sacan sus monedas, y las lanzan y lanzan y lanzan.
04:54
And you count the number of times until the pattern head-tail-head appears
90
294000
3000
Y cuentan los lanzamientos hasta que el patrón cara-cruz-cara aparece
04:57
and you average them. OK?
91
297000
3000
y sacan la media. ¿De acuerdo?
05:00
So on this side, you've got a number --
92
300000
2000
Así que en este lado, tienen un número --
05:02
you've done it lots of times, so you get it accurately --
93
302000
2000
lo han hecho muchas veces, así que el número es preciso –
05:04
which is the average number of tosses until head-tail-tail.
94
304000
3000
que es el número promedio de volados hasta conseguir cara-cruz-cruz.
05:07
On this side, you've got a number -- the average number of tosses until head-tail-head.
95
307000
4000
En este lado, tienen otro número – el número promedio de lanzamientos hasta conseguir cara-cruz-cara.
05:11
So here's a deep mathematical fact --
96
311000
2000
Aquí encontramos un hecho matemático profundo --
05:13
if you've got two numbers, one of three things must be true.
97
313000
3000
si tienes dos números, una de tres cosas tiene que ocurrir.
05:16
Either they're the same, or this one's bigger than this one,
98
316000
3000
O son iguales, o uno es más grande que el otro
05:19
or this one's bigger than that one.
99
319000
1000
o viceversa.
05:20
So what's going on here?
100
320000
3000
¿Así que qué está pasando aquí?
05:23
So you've all got to think about this, and you've all got to vote --
101
323000
2000
Todos ustedes tienen que pensarlo bien, y todos deben votar --
05:25
and we're not moving on.
102
325000
1000
si no, no continuaremos.
05:26
And I don't want to end up in the two-minute silence
103
326000
2000
Y no quiero terminar con un silencio de dos minutos
05:28
to give you more time to think about it, until everyone's expressed a view. OK.
104
328000
4000
para darles tiempo para pensarlo, hasta que todos expresen una opinión. Vale.
05:32
So what you want to do is compare the average number of tosses until we first see
105
332000
4000
Lo que tienen que hacer es comparar el número promedio de lanzamientos hasta que conseguimos
05:36
head-tail-head with the average number of tosses until we first see head-tail-tail.
106
336000
4000
cara-cruz-cara con el número promedio de lanzamientos hasta que conseguimos cara-cruz-cruz.
05:41
Who thinks that A is true --
107
341000
2000
¿Quién cree que A es verdad --
05:43
that, on average, it'll take longer to see head-tail-head than head-tail-tail?
108
343000
4000
que en promedio, tomará más tiempo ver cara-cruz-cara que cara-cruz-cruz?
05:47
Who thinks that B is true -- that on average, they're the same?
109
347000
3000
¿Quién cree que B es verdad – que el promedio es igual?
05:51
Who thinks that C is true -- that, on average, it'll take less time
110
351000
2000
¿Quién cree que C es verdad – que en promedio, tomará menos tiempo
05:53
to see head-tail-head than head-tail-tail?
111
353000
3000
ver cara-cruz-cara que cara-cruz-cruz?
05:57
OK, who hasn't voted yet? Because that's really naughty -- I said you had to.
112
357000
3000
Vale, ¿quién queda por votar? Porque eso es una travesura – dije que tenían que votar.
06:00
(Laughter)
113
360000
1000
(Risas)
06:02
OK. So most people think B is true.
114
362000
3000
Vale. La mayoría cree que B es verdad.
06:05
And you might be relieved to know even rather distinguished mathematicians think that.
115
365000
3000
Y les tranquilizará saber que incluso matemáticos bastante distinguidos piensan lo mismo.
06:08
It's not. A is true here.
116
368000
4000
Pero no lo es. A es verdad.
06:12
It takes longer, on average.
117
372000
2000
Tarda más tiempo, de media.
06:14
In fact, the average number of tosses till head-tail-head is 10
118
374000
2000
De hecho, el número promedio de lanzamientos hasta cara-cruz-cara es 10,
06:16
and the average number of tosses until head-tail-tail is eight.
119
376000
5000
y la media hasta cara-cruz-cruz es 8.
06:21
How could that be?
120
381000
2000
¿Cómo puede ser esto?
06:24
Anything different about the two patterns?
121
384000
3000
¿Hay alguna diferencia entre los dos patrones?
06:30
There is. Head-tail-head overlaps itself.
122
390000
5000
La hay. Cara-cruz-cara se solapa.
06:35
If you went head-tail-head-tail-head, you can cunningly get two occurrences
123
395000
4000
Si buscas cara-cruz-cara, con suerte puedes conseguir dos secuencias
06:39
of the pattern in only five tosses.
124
399000
3000
del patrón en cinco lanzamientos.
06:42
You can't do that with head-tail-tail.
125
402000
2000
Eso no lo puedes hacer con cara-cruz-cruz.
06:44
That turns out to be important.
126
404000
2000
Y eso resulta ser importante.
06:46
There are two ways of thinking about this.
127
406000
2000
Hay dos maneras de pensar acerca de esto.
06:48
I'll give you one of them.
128
408000
2000
Les mostraré una de ellas.
06:50
So imagine -- let's suppose we're doing it.
129
410000
2000
Imaginen – supongamos que lo estamos haciendo.
06:52
On this side -- remember, you're excited about head-tail-tail;
130
412000
2000
De este lado – recuerden, están entusiasmados con cara-cruz-cruz --
06:54
you're excited about head-tail-head.
131
414000
2000
y ustedes están entusiasmados con cara-cruz-cara.
06:56
We start tossing a coin, and we get a head --
132
416000
3000
Lanzamos la moneda, y sale cara --
06:59
and you start sitting on the edge of your seat
133
419000
1000
y están al borde de su asiento
07:00
because something great and wonderful, or awesome, might be about to happen.
134
420000
5000
porque algo grandioso y maravilloso, o increíble, puede estar a punto de suceder.
07:05
The next toss is a tail -- you get really excited.
135
425000
2000
El siguiente lanzamiento sale cruz — están realmente entusiasmados.
07:07
The champagne's on ice just next to you; you've got the glasses chilled to celebrate.
136
427000
4000
El champán está metido en el hielo a su lado, y tienen las copas heladas listas para celebrar.
07:11
You're waiting with bated breath for the final toss.
137
431000
2000
Esperan con el corazón en la mano el último lanzamiento.
07:13
And if it comes down a head, that's great.
138
433000
2000
Y si sale cara, es grandioso.
07:15
You're done, and you celebrate.
139
435000
2000
Lo lograron, y lo celebran.
07:17
If it's a tail -- well, rather disappointedly, you put the glasses away
140
437000
2000
Si sale cruz – bueno, es decepcionante, guardan las copas
07:19
and put the champagne back.
141
439000
2000
y ponen el champán en su lugar.
07:21
And you keep tossing, to wait for the next head, to get excited.
142
441000
3000
Y siguen lanzando, esperando la siguiente cara, para entusiasmarse.
07:25
On this side, there's a different experience.
143
445000
2000
En este lado, la experiencia es diferente.
07:27
It's the same for the first two parts of the sequence.
144
447000
3000
Es igual durante las primeras dos partes de la secuencia.
07:30
You're a little bit excited with the first head --
145
450000
2000
Están un poco entusiasmados con la primera cara --
07:32
you get rather more excited with the next tail.
146
452000
2000
y bastante más con la siguiente cruz.
07:34
Then you toss the coin.
147
454000
2000
Entonces lanzan la moneda.
07:36
If it's a tail, you crack open the champagne.
148
456000
3000
Si es cruz, abren el champán.
07:39
If it's a head you're disappointed,
149
459000
2000
Si es cara, están algo decepcionados,
07:41
but you're still a third of the way to your pattern again.
150
461000
3000
pero ya tienen una tercera parte de su patrón.
07:44
And that's an informal way of presenting it -- that's why there's a difference.
151
464000
4000
Y esa es una manera informal de presentarlo – pero esa es la diferencia.
07:48
Another way of thinking about it --
152
468000
2000
Otra manera de verlo -
07:50
if we tossed a coin eight million times,
153
470000
2000
si lanzamos la moneda ocho millones de veces,
07:52
then we'd expect a million head-tail-heads
154
472000
2000
esperaríamos un millón de cara-cruz-cara
07:54
and a million head-tail-tails -- but the head-tail-heads could occur in clumps.
155
474000
7000
y un millón de cara-cruz-cruz – pero las cara-cruz-cruz podrían ocurrir en conjunto.
08:01
So if you want to put a million things down amongst eight million positions
156
481000
2000
Así que si ponen un millón de cosas entre ocho millones de posiciones
08:03
and you can have some of them overlapping, the clumps will be further apart.
157
483000
5000
y pueden permitir algo de traslape, los conjuntos estarán más lejos entre sí.
08:08
It's another way of getting the intuition.
158
488000
2000
Esa es otra manera de intuirlo.
08:10
What's the point I want to make?
159
490000
2000
¿Qué es lo que quiero decir?
08:12
It's a very, very simple example, an easily stated question in probability,
160
492000
4000
Es un ejemplo muy, muy simple, una pregunta sencilla de probabilidad,
08:16
which every -- you're in good company -- everybody gets wrong.
161
496000
3000
que absolutamente – y están en buena compañía – todos responden mal.
08:19
This is my little diversion into my real passion, which is genetics.
162
499000
4000
Este es mi pequeño entretenimiento en relación con mi pasión verdadera, que es la genética.
08:23
There's a connection between head-tail-heads and head-tail-tails in genetics,
163
503000
3000
Hay una relación entre cara-cruz-cara y cara-cruz-cruz en la genética,
08:26
and it's the following.
164
506000
3000
y es la siguiente.
08:29
When you toss a coin, you get a sequence of heads and tails.
165
509000
3000
Cuando lanzas una moneda, obtienes una secuencia de caras y cruces.
08:32
When you look at DNA, there's a sequence of not two things -- heads and tails --
166
512000
3000
Cuando vemos el ADN, hay una secuencia de no solo dos cosas – caras y cruces --
08:35
but four letters -- As, Gs, Cs and Ts.
167
515000
3000
sino de cuatro letras — A, G, C y T.
08:38
And there are little chemical scissors, called restriction enzymes
168
518000
3000
Y hay unas pequeñas tijeras químicas, llamadas enzimas de restricción
08:41
which cut DNA whenever they see particular patterns.
169
521000
2000
que cortan el ADN cuando ven un cierto patrón.
08:43
And they're an enormously useful tool in modern molecular biology.
170
523000
4000
Y son una herramienta enormemente útil en la biología molecular moderna.
08:48
And instead of asking the question, "How long until I see a head-tail-head?" --
171
528000
3000
Y en vez de preguntar: “¿Cuántos lanzamientos hasta conseguir cara-cruz-cara?” --
08:51
you can ask, "How big will the chunks be when I use a restriction enzyme
172
531000
3000
podemos preguntar: “¿Cómo de grandes serán los pedazos cuando uso una enzima de restricción
08:54
which cuts whenever it sees G-A-A-G, for example?
173
534000
4000
que corta cuando ve, por ejemplo, G-A-A-G?”
08:58
How long will those chunks be?"
174
538000
2000
¿Cómo de largos serán esos pedazos?
09:00
That's a rather trivial connection between probability and genetics.
175
540000
5000
Esa es una conexión algo trivial entre la probabilidad y la genética.
09:05
There's a much deeper connection, which I don't have time to go into
176
545000
3000
Hay una conexión mucho más profunda, pero no tengo tiempo para explorarla
09:08
and that is that modern genetics is a really exciting area of science.
177
548000
3000
y es que la genética moderna es un área realmente excitante de la ciencia.
09:11
And we'll hear some talks later in the conference specifically about that.
178
551000
4000
Y oiremos algunas charlas más tarde específicamente acerca de esto.
09:15
But it turns out that unlocking the secrets in the information generated by modern
179
555000
4000
Pero resulta que descubriendo los secretos en la información producida por tecnologías
09:19
experimental technologies, a key part of that has to do with fairly sophisticated --
180
559000
5000
experimentales modernas, una parte clave tiene que ver con bastante sofisticados --
09:24
you'll be relieved to know that I do something useful in my day job,
181
564000
3000
estarán felices de saber que hago algo útil en mi trabajo diario,
09:27
rather more sophisticated than the head-tail-head story --
182
567000
2000
más sofisticado que la historia de la cara-cruz-cruz --
09:29
but quite sophisticated computer modelings and mathematical modelings
183
569000
4000
con modelos computacionales y matemáticos bastante sofisticados
09:33
and modern statistical techniques.
184
573000
2000
y técnicas estadísticas modernas.
09:35
And I will give you two little snippets -- two examples --
185
575000
3000
Y les voy a dar dos pequeños fragmentos – dos ejemplos --
09:38
of projects we're involved in in my group in Oxford,
186
578000
3000
de proyectos que lleva mi grupo en Oxford,
09:41
both of which I think are rather exciting.
187
581000
2000
los cuales creo que son bastante apasionantes.
09:43
You know about the Human Genome Project.
188
583000
2000
Ustedes han oído hablar acerca del Proyecto del Genoma Humano.
09:45
That was a project which aimed to read one copy of the human genome.
189
585000
4000
Fue un proyecto que intentaba descifrar una copia del genoma humano.
09:51
The natural thing to do after you've done that --
190
591000
2000
Lo que sigue naturalmente después de lograrlo --
09:53
and that's what this project, the International HapMap Project,
191
593000
2000
es este otro proyecto, el Proyecto Internacional HapMap,
09:55
which is a collaboration between labs in five or six different countries.
192
595000
5000
el cual es una colaboración entre laboratorios de cinco o seis países.
10:00
Think of the Human Genome Project as learning what we've got in common,
193
600000
4000
Piensen que en el Proyecto del Genoma Humano se trata de aprender qué tenemos en común,
10:04
and the HapMap Project is trying to understand
194
604000
2000
y el proyecto HapMap intenta entender
10:06
where there are differences between different people.
195
606000
2000
dónde están las diferencias entre las distintas personas.
10:08
Why do we care about that?
196
608000
2000
¿Por qué nos importa?
10:10
Well, there are lots of reasons.
197
610000
2000
Bueno, hay muchas razones.
10:12
The most pressing one is that we want to understand how some differences
198
612000
4000
La más urgente es que queremos entender cómo es que algunas diferencias
10:16
make some people susceptible to one disease -- type-2 diabetes, for example --
199
616000
4000
hacen a algunas personas propensas a cierta enfermedad –como la diabetes del tipo 2 --
10:20
and other differences make people more susceptible to heart disease,
200
620000
5000
y otras diferencias hacen a ciertas personas más propensas a las enfermedades cardíacas,
10:25
or stroke, or autism and so on.
201
625000
2000
o a las apoplejías, o al autismo, etcétera.
10:27
That's one big project.
202
627000
2000
Ese es un gran proyecto.
10:29
There's a second big project,
203
629000
2000
Hay otro gran proyecto,
10:31
recently funded by the Wellcome Trust in this country,
204
631000
2000
recientemente financiado por el Wellcome Trust en este país,
10:33
involving very large studies --
205
633000
2000
involucrando grandes estudios –
10:35
thousands of individuals, with each of eight different diseases,
206
635000
3000
miles de individuos, con ocho enfermedades diferentes,
10:38
common diseases like type-1 and type-2 diabetes, and coronary heart disease,
207
638000
4000
enfermedades comunes como la diabetes del tipo 1 y 2, enfermedades coronarias,
10:42
bipolar disease and so on -- to try and understand the genetics.
208
642000
4000
trastorno bipolar, y otras – para intentar entender la genética.
10:46
To try and understand what it is about genetic differences that causes the diseases.
209
646000
3000
Para intentar entender qué diferencias genéticas y por qué causan las enfermedades.
10:49
Why do we want to do that?
210
649000
2000
¿Por qué queremos hacerlo?
10:51
Because we understand very little about most human diseases.
211
651000
3000
Porque entendemos muy poco acerca de la mayoría de las enfermedades humanas.
10:54
We don't know what causes them.
212
654000
2000
No sabemos qué las causa.
10:56
And if we can get in at the bottom and understand the genetics,
213
656000
2000
Y si podemos llegar al fondo y entender la genética,
10:58
we'll have a window on the way the disease works,
214
658000
3000
tendremos una ventana al modo de actuación de la enfermedad.
11:01
and a whole new way about thinking about disease therapies
215
661000
2000
Y una manera completamente nueva de ver las terapias
11:03
and preventative treatment and so on.
216
663000
3000
y el tratamiento preventivo y todo lo demás.
11:06
So that's, as I said, the little diversion on my main love.
217
666000
3000
Así que ese es, como dije, el pequeño entretenimiento dentro de mi verdadero amor.
11:09
Back to some of the more mundane issues of thinking about uncertainty.
218
669000
5000
De vuelta a consideraciones más mundanas sobre nuestro razonamiento con la incertidumbre.
11:14
Here's another quiz for you --
219
674000
2000
Aquí hay otro acertijo para ustedes --
11:16
now suppose we've got a test for a disease
220
676000
2000
supongan que tenemos una prueba para detectar una enfermedad.
11:18
which isn't infallible, but it's pretty good.
221
678000
2000
No es infalible, pero es bastante buena.
11:20
It gets it right 99 percent of the time.
222
680000
3000
Acierta el 99% de las veces.
11:23
And I take one of you, or I take someone off the street,
223
683000
3000
Y tomo a uno de ustedes o a alguien al azar en la calle,
11:26
and I test them for the disease in question.
224
686000
2000
y les hago esta prueba de la enfermedad.
11:28
Let's suppose there's a test for HIV -- the virus that causes AIDS --
225
688000
4000
Supongamos que es una prueba para el VIH – el virus que causa el SIDA --
11:32
and the test says the person has the disease.
226
692000
3000
y la prueba dice que la persona está enferma.
11:35
What's the chance that they do?
227
695000
3000
¿Cuál es la probabilidad de que la tenga?
11:38
The test gets it right 99 percent of the time.
228
698000
2000
La prueba acierta el 99% de las veces.
11:40
So a natural answer is 99 percent.
229
700000
4000
Así que la respuesta natural es 99%.
11:44
Who likes that answer?
230
704000
2000
¿A quién le gusta esa respuesta?
11:46
Come on -- everyone's got to get involved.
231
706000
1000
Vamos – todos tenemos que participar.
11:47
Don't think you don't trust me anymore.
232
707000
2000
No crean que ya no pueden confiar en mí.
11:49
(Laughter)
233
709000
1000
(Risas)
11:50
Well, you're right to be a bit skeptical, because that's not the answer.
234
710000
3000
Bien, está bien que se sientan un poco escépticos, porque esa no es la respuesta.
11:53
That's what you might think.
235
713000
2000
Es lo que podrían pensar.
11:55
It's not the answer, and it's not because it's only part of the story.
236
715000
3000
No es la respuesta, y no lo es porque es sólo una parte de la historia.
11:58
It actually depends on how common or how rare the disease is.
237
718000
3000
En realidad, depende de que tan común sea la enfermedad.
12:01
So let me try and illustrate that.
238
721000
2000
Déjenme intentar mostrárselo.
12:03
Here's a little caricature of a million individuals.
239
723000
4000
Tenemos una muestra de un millón de individuos.
12:07
So let's think about a disease that affects --
240
727000
3000
Así que pensemos en una enfermedad que afecta --
12:10
it's pretty rare, it affects one person in 10,000.
241
730000
2000
es bastante rara, afecta a una persona de cada 10,000.
12:12
Amongst these million individuals, most of them are healthy
242
732000
3000
En este millón de individuos, la mayoría están sanos
12:15
and some of them will have the disease.
243
735000
2000
y algunos tendrán la enfermedad.
12:17
And in fact, if this is the prevalence of the disease,
244
737000
3000
De hecho, si esta es la frecuencia de la enfermedad,
12:20
about 100 will have the disease and the rest won't.
245
740000
3000
alrededor de 100 tendrán la enfermedad y el resto no.
12:23
So now suppose we test them all.
246
743000
2000
Ahora supongamos que le hacemos la prueba a todos.
12:25
What happens?
247
745000
2000
¿Qué ocurre?
12:27
Well, amongst the 100 who do have the disease,
248
747000
2000
Bueno, entre los 100 que tienen la enfermedad,
12:29
the test will get it right 99 percent of the time, and 99 will test positive.
249
749000
5000
la prueba acertará el 99% de las veces, y 99 saldrán positivos.
12:34
Amongst all these other people who don't have the disease,
250
754000
2000
Entre todas las personas que no tienen la enfermedad,
12:36
the test will get it right 99 percent of the time.
251
756000
3000
la prueba acertará el 99% de las veces.
12:39
It'll only get it wrong one percent of the time.
252
759000
2000
Solamente se equivocará un 1% de veces.
12:41
But there are so many of them that there'll be an enormous number of false positives.
253
761000
4000
Pero hay tantos que habrá un número enorme de falsos positivos.
12:45
Put that another way --
254
765000
2000
Poniéndolo de otra manera --
12:47
of all of them who test positive -- so here they are, the individuals involved --
255
767000
5000
de todo aquel que resulte positivo – aquí están, los individuos involucrados --
12:52
less than one in 100 actually have the disease.
256
772000
5000
menos de uno de cada 100 tendrá realmente la enfermedad.
12:57
So even though we think the test is accurate, the important part of the story is
257
777000
4000
Así que aún si pensamos que la prueba es precisa, la parte importante de la historia es
13:01
there's another bit of information we need.
258
781000
3000
que hay otra información necesaria.
13:04
Here's the key intuition.
259
784000
2000
Esta es la intuición clave.
13:07
What we have to do, once we know the test is positive,
260
787000
3000
Lo que tenemos que hacer, una vez que sabemos que la prueba es positiva
13:10
is to weigh up the plausibility, or the likelihood, of two competing explanations.
261
790000
6000
es considerar la plausibilidad, o probabilidad, de dos explicaciones que compiten.
13:16
Each of those explanations has a likely bit and an unlikely bit.
262
796000
3000
Cada una de esas explicaciones tiene una parte probable y una parte improbable.
13:19
One explanation is that the person doesn't have the disease --
263
799000
3000
Una explicación es que la persona no tiene la enfermedad --
13:22
that's overwhelmingly likely, if you pick someone at random --
264
802000
3000
lo que es abrumadoramente probable, si tomas a alguien al azar --
13:25
but the test gets it wrong, which is unlikely.
265
805000
3000
pero la prueba se equivoca, lo que es improbable.
13:29
The other explanation is that the person does have the disease -- that's unlikely --
266
809000
3000
La otra explicación es que la persona está enferma – lo que es improbable --
13:32
but the test gets it right, which is likely.
267
812000
3000
pero la prueba es correcta, lo que es probable.
13:35
And the number we end up with --
268
815000
2000
Y el número con el que nos encontramos --
13:37
that number which is a little bit less than one in 100 --
269
817000
3000
ese número que es un poco menos del 1% --
13:40
is to do with how likely one of those explanations is relative to the other.
270
820000
6000
tiene que ver con qué tan probable una de esas explicaciones es relativa a la otra.
13:46
Each of them taken together is unlikely.
271
826000
2000
Cada una en conjunto es improbable.
13:49
Here's a more topical example of exactly the same thing.
272
829000
3000
Aquí hay un ejemplo de más actualidad que trata exactamente de lo mismo.
13:52
Those of you in Britain will know about what's become rather a celebrated case
273
832000
4000
Quienes sean de Gran Bretaña sabrán acerca de un caso que se ha hecho bastante famoso
13:56
of a woman called Sally Clark, who had two babies who died suddenly.
274
836000
5000
de una mujer llamada Sally Clark, que tuvo dos bebés que murieron súbitamente.
14:01
And initially, it was thought that they died of what's known informally as "cot death,"
275
841000
4000
Inicialmente, se pensó que murieron de lo que informalmente se llama “muerte en la cuna”,
14:05
and more formally as "Sudden Infant Death Syndrome."
276
845000
3000
y más formalmente Síndrome de Muerte Súbita Infantil.
14:08
For various reasons, she was later charged with murder.
277
848000
2000
Por varias razones, se la acusó de asesinato.
14:10
And at the trial, her trial, a very distinguished pediatrician gave evidence
278
850000
4000
Y en el juicio, su juicio, un pediatra muy distinguido aportó evidencia
14:14
that the chance of two cot deaths, innocent deaths, in a family like hers --
279
854000
5000
de que la probabilidad de dos muertes en la cuna, muertes inocentes, en una familia como la suya --
14:19
which was professional and non-smoking -- was one in 73 million.
280
859000
6000
profesional y no fumadora – era de una en 73 millones.
14:26
To cut a long story short, she was convicted at the time.
281
866000
3000
En resumen, fue condenada en esa ocasión.
14:29
Later, and fairly recently, acquitted on appeal -- in fact, on the second appeal.
282
869000
5000
Después, recientemente, fue declarada inocente al apelar – de hecho, en su segunda apelación.
14:34
And just to set it in context, you can imagine how awful it is for someone
283
874000
4000
Y solo para ponerlo en contexto, pueden imaginar qué horrible es para alguien
14:38
to have lost one child, and then two, if they're innocent,
284
878000
3000
si es inocente, perder un hijo, y luego otro,
14:41
to be convicted of murdering them.
285
881000
2000
y ser condenada por asesinarlos.
14:43
To be put through the stress of the trial, convicted of murdering them --
286
883000
2000
Soportar todo el estrés del juicio, de la condena por asesinarlos --
14:45
and to spend time in a women's prison, where all the other prisoners
287
885000
3000
y pasar tiempo en una prisión de mujeres, donde todas las demás prisioneras
14:48
think you killed your children -- is a really awful thing to happen to someone.
288
888000
5000
creen que mataste a tus hijos – es algo tremendamente horrible para una persona.
14:53
And it happened in large part here because the expert got the statistics
289
893000
5000
Y pasó en gran parte porque el experto se equivocó terriblemente
14:58
horribly wrong, in two different ways.
290
898000
3000
en las estadísticas, de dos maneras.
15:01
So where did he get the one in 73 million number?
291
901000
4000
Así que, ¿de dónde sacó el número de uno en 73 millones?
15:05
He looked at some research, which said the chance of one cot death in a family
292
905000
3000
Consultó algunas investigaciones que decían que la probabilidad de una muerte en cuna
15:08
like Sally Clark's is about one in 8,500.
293
908000
5000
en una familia como la de Sally Clark es aproximadamente de una en 8500.
15:13
So he said, "I'll assume that if you have one cot death in a family,
294
913000
4000
Así que dijo “Supondré que si hay una muerte en la cuna en la familia,
15:17
the chance of a second child dying from cot death aren't changed."
295
917000
4000
las probabilidades de una segunda muerte no cambian”.
15:21
So that's what statisticians would call an assumption of independence.
296
921000
3000
Eso es lo que los estadísticos llamarían una suposición de independencia.
15:24
It's like saying, "If you toss a coin and get a head the first time,
297
924000
2000
Es como decir, “Si lanzas una moneda y sale cara a la primera,
15:26
that won't affect the chance of getting a head the second time."
298
926000
3000
no afectará a la posibilidad de sacar cara la segunda vez”.
15:29
So if you toss a coin twice, the chance of getting a head twice are a half --
299
929000
5000
Así que si lanzas una moneda dos veces, las posibilidades de sacar cara dos veces es la mitad --
15:34
that's the chance the first time -- times a half -- the chance a second time.
300
934000
3000
eso es la posibilidad de la primera vez – por la mitad – la posibilidad de la segunda vez.
15:37
So he said, "Here,
301
937000
2000
Así que dijo, “Asumamos --
15:39
I'll assume that these events are independent.
302
939000
4000
Asumiré que estos eventos son independientes.
15:43
When you multiply 8,500 together twice,
303
943000
2000
Cuando multiplicas 8500 por 8500,
15:45
you get about 73 million."
304
945000
2000
da cerca de 73 millones.”
15:47
And none of this was stated to the court as an assumption
305
947000
2000
Y nada de esto se expuso al tribunal como una suposición
15:49
or presented to the jury that way.
306
949000
2000
o se presentó al jurado de esa manera.
15:52
Unfortunately here -- and, really, regrettably --
307
952000
3000
Desafortunadamente – y de verdad, lamentablemente --
15:55
first of all, in a situation like this you'd have to verify it empirically.
308
955000
4000
primero que nada, en esta situación tendrías que verificarlo empíricamente.
15:59
And secondly, it's palpably false.
309
959000
2000
Y segundo, es palpablemente falso.
16:02
There are lots and lots of things that we don't know about sudden infant deaths.
310
962000
5000
Hay muchas cosas que no sabemos con respecto a la muerte súbita infantil.
16:07
It might well be that there are environmental factors that we're not aware of,
311
967000
3000
Puede que afecten factores ambientales que no conocemos,
16:10
and it's pretty likely to be the case that there are
312
970000
2000
y es muy probable que también haya
16:12
genetic factors we're not aware of.
313
972000
2000
factores genéticos que no conocemos.
16:14
So if a family suffers from one cot death, you'd put them in a high-risk group.
314
974000
3000
Así que si una familia sufre una muerte en la cuna, la pondrías en un grupo de alto riesgo.
16:17
They've probably got these environmental risk factors
315
977000
2000
Probablemente tengan factores de riesgo ambientales
16:19
and/or genetic risk factors we don't know about.
316
979000
3000
y/o genéticos que no conocemos.
16:22
And to argue, then, that the chance of a second death is as if you didn't know
317
982000
3000
Y argumentar, entonces, que la posibilidad de una segunda muerte es igual que si desconocieras
16:25
that information is really silly.
318
985000
3000
esa información, es realmente estúpido.
16:28
It's worse than silly -- it's really bad science.
319
988000
4000
Es peor que estúpido – es ciencia realmente mala.
16:32
Nonetheless, that's how it was presented, and at trial nobody even argued it.
320
992000
5000
Sin embargo, así fue presentada, y en el juicio ni siquiera nadie lo discutió.
16:37
That's the first problem.
321
997000
2000
Ese es el primer problema.
16:39
The second problem is, what does the number of one in 73 million mean?
322
999000
4000
El segundo problema es, ¿qué significa el número de uno en 73 millones?
16:43
So after Sally Clark was convicted --
323
1003000
2000
Así que después de que Sally Clark fuera condenada --
16:45
you can imagine, it made rather a splash in the press --
324
1005000
4000
pueden imaginar, el efecto notable en la prensa --
16:49
one of the journalists from one of Britain's more reputable newspapers wrote that
325
1009000
7000
uno de los periodistas de uno de los periódicos más respetables de Gran Bretaña escribió que
16:56
what the expert had said was,
326
1016000
2000
lo que el experto dijo fue:
16:58
"The chance that she was innocent was one in 73 million."
327
1018000
5000
“La probabilidad de que sea inocente es de una en 73 millones.”
17:03
Now, that's a logical error.
328
1023000
2000
Ese es un error lógico.
17:05
It's exactly the same logical error as the logical error of thinking that
329
1025000
3000
Es exactamente el mismo error lógico que el error de pensar que
17:08
after the disease test, which is 99 percent accurate,
330
1028000
2000
después de la prueba de la enfermedad, que es un 99% precisa,
17:10
the chance of having the disease is 99 percent.
331
1030000
4000
la posibilidad de tener la enfermedad es del 99%.
17:14
In the disease example, we had to bear in mind two things,
332
1034000
4000
En el ejemplo de la enfermedad, teníamos que tener en cuenta dos cosas,
17:18
one of which was the possibility that the test got it right or not.
333
1038000
4000
una de las cuales era la posibilidad de que la prueba se equivocara.
17:22
And the other one was the chance, a priori, that the person had the disease or not.
334
1042000
4000
Y otra era la posibilidad, a priori, de que la persona tuviera la enfermedad o no.
17:26
It's exactly the same in this context.
335
1046000
3000
Es exactamente igual en este contexto.
17:29
There are two things involved -- two parts to the explanation.
336
1049000
4000
Hay dos cosas involucradas – dos partes de la explicación.
17:33
We want to know how likely, or relatively how likely, two different explanations are.
337
1053000
4000
Queremos saber qué tan probables, o qué tan relativamente probables, son dos explicaciones.
17:37
One of them is that Sally Clark was innocent --
338
1057000
3000
Una de ellas es que Sally Clark era inocente --
17:40
which is, a priori, overwhelmingly likely --
339
1060000
2000
que es, a priori, abrumadoramente posible --
17:42
most mothers don't kill their children.
340
1062000
3000
la mayoría de las madres no matan a sus hijos.
17:45
And the second part of the explanation
341
1065000
2000
Y la segunda parte de la explicación
17:47
is that she suffered an incredibly unlikely event.
342
1067000
3000
es que le pasó algo increíblemente improbable.
17:50
Not as unlikely as one in 73 million, but nonetheless rather unlikely.
343
1070000
4000
No tan improbable como uno en 73 millones, pero muy improbable de todas formas.
17:54
The other explanation is that she was guilty.
344
1074000
2000
La otra explicación es que era culpable.
17:56
Now, we probably think a priori that's unlikely.
345
1076000
2000
Probablemente pensamos a priori que es improbable.
17:58
And we certainly should think in the context of a criminal trial
346
1078000
3000
Y así deberíamos pensar en el contexto de un juicio criminal,
18:01
that that's unlikely, because of the presumption of innocence.
347
1081000
3000
que es improbable, debido a la presunción de inocencia.
18:04
And then if she were trying to kill the children, she succeeded.
348
1084000
4000
Y entonces si ella hubiera intentado matar a sus hijos, lo logró.
18:08
So the chance that she's innocent isn't one in 73 million.
349
1088000
4000
Así que la probabilidad de que sea inocente no es una en 73 millones.
18:12
We don't know what it is.
350
1092000
2000
No sabemos cual es.
18:14
It has to do with weighing up the strength of the other evidence against her
351
1094000
4000
Tiene que ver con sopesar la contundencia de la evidencia en su contra
18:18
and the statistical evidence.
352
1098000
2000
y la evidencia estadística.
18:20
We know the children died.
353
1100000
2000
Sabemos que los niños murieron.
18:22
What matters is how likely or unlikely, relative to each other,
354
1102000
4000
Lo que importa es que tan probable o improbable, relativamente
18:26
the two explanations are.
355
1106000
2000
son las dos explicaciones.
18:28
And they're both implausible.
356
1108000
2000
Ambas son inverosímiles.
18:31
There's a situation where errors in statistics had really profound
357
1111000
4000
Esta es una situación donde los errores en la estadística tuvieron profundas
18:35
and really unfortunate consequences.
358
1115000
3000
y verdaderamente desafortunadas consecuencias.
18:38
In fact, there are two other women who were convicted on the basis of the
359
1118000
2000
De hecho, otras dos mujeres fueron condenadas en función de
18:40
evidence of this pediatrician, who have subsequently been released on appeal.
360
1120000
4000
la evidencia de dicho pediatra, y han sido posteriormente liberadas al apelar.
18:44
Many cases were reviewed.
361
1124000
2000
Muchos casos fueron revisados.
18:46
And it's particularly topical because he's currently facing a disrepute charge
362
1126000
4000
Y es de un verdadero interés actual porque ahora mismo está bajo cargos de descrédito
18:50
at Britain's General Medical Council.
363
1130000
3000
en el Consejo Médico General de Gran Bretaña.
18:53
So just to conclude -- what are the take-home messages from this?
364
1133000
4000
Así que para concluir -- ¿Cuál es el mensaje de todo esto?
18:57
Well, we know that randomness and uncertainty and chance
365
1137000
4000
Bien, sabemos que el azar, la probabilidad y la incertidumbre
19:01
are very much a part of our everyday life.
366
1141000
3000
son parte integral de nuestra vida diaria.
19:04
It's also true -- and, although, you, as a collective, are very special in many ways,
367
1144000
5000
Es también verdad – y aunque ustedes, como colectivo, son muy especiales de muchas maneras,
19:09
you're completely typical in not getting the examples I gave right.
368
1149000
4000
son completamente típicos en no acertar en los ejemplos que mencioné.
19:13
It's very well documented that people get things wrong.
369
1153000
3000
Está muy bien documentado el que la gente se equivoca en estas cosas.
19:16
They make errors of logic in reasoning with uncertainty.
370
1156000
3000
Cometen errores de lógica al razonar con la incertidumbre.
19:20
We can cope with the subtleties of language brilliantly --
371
1160000
2000
Podemos trabajar con las sutilezas del idioma brillantemente --
19:22
and there are interesting evolutionary questions about how we got here.
372
1162000
3000
y hay preguntas sobre cómo evolucionamos hasta lograrlo muy interesantes.
19:25
We are not good at reasoning with uncertainty.
373
1165000
3000
No somos buenos razonando con la incertidumbre.
19:28
That's an issue in our everyday lives.
374
1168000
2000
Ese es un problema en nuestra vida diaria.
19:30
As you've heard from many of the talks, statistics underpins an enormous amount
375
1170000
3000
Como han oído en muchas de las charlas, la estadística está en la base de una gran cantidad
19:33
of research in science -- in social science, in medicine
376
1173000
3000
de la investigación científica – en ciencias sociales, medicina,
19:36
and indeed, quite a lot of industry.
377
1176000
2000
y de hecho, en buena parte de la industria.
19:38
All of quality control, which has had a major impact on industrial processing,
378
1178000
4000
Todo ese control de calidad, que tiene un gran impacto en el proceso industrial,
19:42
is underpinned by statistics.
379
1182000
2000
está basado en la estadística.
19:44
It's something we're bad at doing.
380
1184000
2000
Es algo que hacemos mal.
19:46
At the very least, we should recognize that, and we tend not to.
381
1186000
3000
Al menos, deberíamos reconocerlo, pero tendemos a no hacerlo.
19:49
To go back to the legal context, at the Sally Clark trial
382
1189000
4000
Volviendo al contexto legal, en el caso del juicio de Sally Clark,
19:53
all of the lawyers just accepted what the expert said.
383
1193000
4000
todos los abogados simplemente aceptaron las palabras del experto.
19:57
So if a pediatrician had come out and said to a jury,
384
1197000
2000
Así que si un pediatra le hubiera dicho a un jurado,
19:59
"I know how to build bridges. I've built one down the road.
385
1199000
3000
“Sé como construir puentes. Construí uno en esa calle.
20:02
Please drive your car home over it,"
386
1202000
2000
Por favor crúcelo con su automóvil”,
20:04
they would have said, "Well, pediatricians don't know how to build bridges.
387
1204000
2000
el jurado habría dicho: “Los pediatras no saben construir puentes.
20:06
That's what engineers do."
388
1206000
2000
Eso les correponde a los ingenieros.”
20:08
On the other hand, he came out and effectively said, or implied,
389
1208000
3000
Por otra parte, llegó y efectivamente dijo, o dió a entender,
20:11
"I know how to reason with uncertainty. I know how to do statistics."
390
1211000
3000
“Sé como razonar con la incertidumbre. Sé trabajar con la estadística.”
20:14
And everyone said, "Well, that's fine. He's an expert."
391
1214000
3000
Y todos dijeron: “Está bien. Es un experto”.
20:17
So we need to understand where our competence is and isn't.
392
1217000
3000
Así que tenemos que entender dónde acaban nuestras competencias.
20:20
Exactly the same kinds of issues arose in the early days of DNA profiling,
393
1220000
4000
Exactamente este tipo de cuestiones aparecieron cuando se empezaba a secuenciar el ADN,
20:24
when scientists, and lawyers and in some cases judges,
394
1224000
4000
cuando los científicos, los abogados y a veces incluso los jueces,
20:28
routinely misrepresented evidence.
395
1228000
3000
tergiversaron las pruebas sistemáticamente .
20:32
Usually -- one hopes -- innocently, but misrepresented evidence.
396
1232000
3000
Normalmente – uno espera – que inocentemente, pero tergiversaron las pruebas.
20:35
Forensic scientists said, "The chance that this guy's innocent is one in three million."
397
1235000
5000
Los científicos forenses dijeron, “La posibilidad de que este tipo sea inocente es una en 3 millones”.
20:40
Even if you believe the number, just like the 73 million to one,
398
1240000
2000
Aun si te crees el número, igual que el de uno en 73 millones,
20:42
that's not what it meant.
399
1242000
2000
no es eso lo que significa.
20:44
And there have been celebrated appeal cases
400
1244000
2000
Y ha habido apelaciones famosas
20:46
in Britain and elsewhere because of that.
401
1246000
2000
en Gran Bretaña y en otros lugares debido a eso.
20:48
And just to finish in the context of the legal system.
402
1248000
3000
Y para terminar con el contexto del sistema legal.
20:51
It's all very well to say, "Let's do our best to present the evidence."
403
1251000
4000
Está muy bien decir “Hagamos lo mejor para presentar las pruebas”.
20:55
But more and more, in cases of DNA profiling -- this is another one --
404
1255000
3000
Pero cada vez más, en los casos de análisis de ADN – este es otro --
20:58
we expect juries, who are ordinary people --
405
1258000
3000
esperamos que los jurados, que son gente corriente --
21:01
and it's documented they're very bad at this --
406
1261000
2000
y estando documentado que son muy malos en esto --
21:03
we expect juries to be able to cope with the sorts of reasoning that goes on.
407
1263000
4000
esperamos que los jurados sean capaces de trabajar con este tipo de razonamiento.
21:07
In other spheres of life, if people argued -- well, except possibly for politics --
408
1267000
5000
En otras esferas de la vida, si la gente argumentara – bueno, con la excepción de la política.
21:12
but in other spheres of life, if people argued illogically,
409
1272000
2000
Pero en otras esferas de la vida, si la gente argumentara ilógicamente,
21:14
we'd say that's not a good thing.
410
1274000
2000
diríamos que no es bueno.
21:16
We sort of expect it of politicians and don't hope for much more.
411
1276000
4000
Lo esperamos de los políticos y no esperamos mucho más.
21:20
In the case of uncertainty, we get it wrong all the time --
412
1280000
3000
En el caso de la incertidumbre, siempre nos estamos equivocando --
21:23
and at the very least, we should be aware of that,
413
1283000
2000
y al menos, deberíamos ser conscientes de ello.
21:25
and ideally, we might try and do something about it.
414
1285000
2000
E idealmente, tal vez deberíamos intentar hacer algo al respecto.
21:27
Thanks very much.
415
1287000
1000
Muchas gracias.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7